JP2023133002A - Gray hair evaluation system and gray hair evaluation method - Google Patents

Gray hair evaluation system and gray hair evaluation method Download PDF

Info

Publication number
JP2023133002A
JP2023133002A JP2022038641A JP2022038641A JP2023133002A JP 2023133002 A JP2023133002 A JP 2023133002A JP 2022038641 A JP2022038641 A JP 2022038641A JP 2022038641 A JP2022038641 A JP 2022038641A JP 2023133002 A JP2023133002 A JP 2023133002A
Authority
JP
Japan
Prior art keywords
image
evaluation
hair
gray hair
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022038641A
Other languages
Japanese (ja)
Inventor
顕策 井口
Kensaku Iguchi
翔太 石川
Shota Ishikawa
直樹 野呂
Naoki Noro
洋平 高良
Yohei Takara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EBA JAPAN CO Ltd
Mandom Corp
Original Assignee
EBA JAPAN CO Ltd
Mandom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EBA JAPAN CO Ltd, Mandom Corp filed Critical EBA JAPAN CO Ltd
Priority to JP2022038641A priority Critical patent/JP2023133002A/en
Publication of JP2023133002A publication Critical patent/JP2023133002A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To provide a gray hair evaluation system and a gray hair evaluation method capable of accurately evaluating gray hair by remote control.SOLUTION: The gray hair evaluation system comprises: acquisition means which acquires an image including hair; spectrum acquisition means which acquires a spectrum image based on the image acquired by the acquisition means; and evaluation means which evaluates gray hair included in the hair based on the spectrum image acquired by the spectrum acquisition means.SELECTED DRAWING: Figure 1

Description

本発明は、白髪評価システム及び白髪評価方法に関する。 The present invention relates to a gray hair evaluation system and a gray hair evaluation method.

白髪を評価するための方法として、例えば特許文献1に開示されている白髪の評価方法がある。 As a method for evaluating gray hair, for example, there is a method for evaluating gray hair disclosed in Patent Document 1.

特許文献1では、検査対象の測定部位を特定し、毛髪固定部材を介して、特定された測定部位に存在する毛髪群を整列して配列毛髪群を得ることにより、毛髪群の乱れが解消されて整列された状態で、白髪を評価することが可能となる白髪の評価方法が開示されている。 In Patent Document 1, the disorder of the hair group is eliminated by specifying a measurement site to be inspected and arranging the hair group present in the specified measurement site via a hair fixing member to obtain an arrayed hair group. Disclosed is a method for evaluating gray hair that makes it possible to evaluate gray hair in a state where the hairs are aligned.

特開2005-296352号公報Japanese Patent Application Publication No. 2005-296352

しかしながら、特許文献1に開示されている白髪の評価方法では、検査対象を毛髪固定部材を介して、毛髪群を整列させるため、特定の毛髪を固定するための部材が必要となる。このため、白髪の評価に時間が必要となり、また、毛髪を固定するための技術を必要とするため、遠隔操作により白髪を評価することができないという問題点があった。 However, in the gray hair evaluation method disclosed in Patent Document 1, a hair group is aligned through a hair fixing member to be inspected, so a member for fixing specific hair is required. Therefore, since it takes time to evaluate gray hair and also requires a technique for fixing the hair, there is a problem that gray hair cannot be evaluated by remote control.

そこで本発明は、上述した問題点を解決するために導出されたものであり、その目的とするところは、白髪を高精度かつ遠隔操作で評価できることが可能な白髪評価システム及び白髪評価方法を提供することにある。 Therefore, the present invention was developed in order to solve the above-mentioned problems, and its purpose is to provide a gray hair evaluation system and method that can evaluate gray hair with high precision and by remote control. It's about doing.

第1発明に係る白髪評価システムは、髪を含む画像を取得する取得手段と前記取得手段により取得された画像に基づくスペクトル画像を取得するスペクトル取得手段と、前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価手段とを備えることを特徴とする。 A gray hair evaluation system according to a first aspect of the present invention includes an acquisition means for acquiring an image including hair, a spectrum acquisition means for acquiring a spectrum image based on the image acquired by the acquisition means, and a spectrum image acquired by the spectrum acquisition means. and evaluation means for evaluating gray hair contained in the hair based on the above.

第2発明に係る白髪評価システムは、第1発明において、前記評価手段は、前記スペクトル取得手段により取得されたスペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、前記正規化波長と前記評価波長との間において、前記正規化波長と前記評価波長との分光強度の差に基づいて前記髪に含まれる白髪を評価することを特徴とする。 In the gray hair evaluation system according to a second invention, in the first invention, the evaluation means sets a specific wavelength included in a predetermined wavelength range as a normalized wavelength based on the spectrum image acquired by the spectrum acquisition means, and A specific wavelength included in the wavelength range is selected as the evaluation wavelength, and between the normalized wavelength and the evaluation wavelength, gray hairs included in the hair are determined based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength. It is characterized by evaluating.

第3発明に係る白髪評価システムは、第2発明において、前記評価手段は、730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択することを特徴とする。 In the gray hair evaluation system according to a third aspect, in the second aspect, the evaluation means has a specific wavelength included in a frequency band of 730 to 830 nm as a first normalized wavelength, and a specific wavelength included in a frequency band of 430 to 530 nm. is selected as the first evaluation wavelength.

第4発明に係る白髪評価システムは、第1発明において、前記評価手段は、予め取得された参照用スペクトル画像と白髪の評価とからなるデータセットを学習データとして用い、入力を前記参照用スペクトル画像とし、出力を前記白髪の評価として、機械学習により生成された評価モデルを用いて、前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価することを特徴とする。 In the gray hair evaluation system according to a fourth aspect of the invention, in the first aspect, the evaluation means uses, as learning data, a dataset consisting of a reference spectral image acquired in advance and an evaluation of gray hair, and inputs the reference spectral image. The method is characterized in that the output is an evaluation of the gray hair, and the gray hair contained in the hair is evaluated based on the spectrum image acquired by the spectrum acquisition means using an evaluation model generated by machine learning.

第5発明に係る白髪評価システムは、第1発明~第4発明のいずれかにおいて、前記スペクトル取得手段は、前記取得手段により取得された画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した前記波長を示す前記スペクトル画像を取得することを特徴とする。 In the gray hair evaluation system according to a fifth invention, in any one of the first to fourth inventions, the spectrum acquisition means determines a reference wavelength indicating a hair wavelength acquired in advance from the image acquired by the acquisition means. The method is characterized in that a wavelength for which a difference between the two wavelengths is equal to or less than a threshold value is extracted, and the spectrum image indicating the extracted wavelength is acquired.

第6発明に係る白髪評価システムは、第1発明~第4発明のいずれかにおいて、前記スペクトル取得手段は、予め取得された参照用画像と髪を示すスペクトル画像とからなるデータセットを学習データとして用い、入力を参照用画像とし、出力をスペクトル画像として、機械学習により生成された抽出モデルを用いて、前記取得手段により取得された画像に基づいて、前記髪を示すスペクトル画像を取得することを特徴とする。 A gray hair evaluation system according to a sixth invention is characterized in that in any one of the first to fourth inventions, the spectrum acquisition means uses a dataset consisting of a reference image acquired in advance and a spectrum image showing hair as learning data. a spectral image showing the hair based on the image acquired by the acquisition means, using an extraction model generated by machine learning, with the input as a reference image and the output as a spectral image. Features.

第7発明に係る白髪評価システムは、第1発明~第5発明のいずれかにおいて、前記取得手段は、白板を撮像した白板画像を取得し、前記スペクトル取得手段は、前記取得手段により取得された前記白板画像に対する前記画像の相対反射率に基づくスペクトル画像を取得することを特徴とする。 In the gray hair evaluation system according to a seventh aspect of the present invention, in any one of the first to fifth aspects, the acquisition means acquires a whiteboard image obtained by capturing a whiteboard, and the spectrum acquisition means acquires a whiteboard image obtained by the acquisition means. The method is characterized in that a spectrum image is acquired based on the relative reflectance of the image with respect to the white board image.

第8発明に係る白髪評価システムは、第7発明において、前記取得手段は、前記白板画像を撮像したときの撮像条件を示す撮像条件情報を取得し、取得した撮像条件情報に応じて、前記画像を補正することを特徴とする。 In the gray hair evaluation system according to an eighth aspect, in the seventh aspect, the acquisition means acquires imaging condition information indicating the imaging conditions when the white board image is imaged, and according to the acquired imaging condition information, the gray hair evaluation system It is characterized by correcting.

第9発明に係る白髪評価システムは、第1発明~第8発明のいずれかにおいて、前記取得手段は、平滑化された画像と平滑化される前の画像とに基づいて先鋭化された前記画像を取得することを特徴とする。 In the gray hair evaluation system according to a ninth invention, in any one of the first to eighth inventions, the acquisition means sharpens the image based on the smoothed image and the unsmoothed image. It is characterized by acquiring.

第10発明に係る白髪評価方法は、髪を含む画像を取得する取得ステップと前記取得ステップにより取得された画像に基づく、スペクトル画像を取得するスペクトル取得ステップと、前記スペクトル取得ステップにより取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価ステップとをコンピュータに実行させることを特徴とする。 A gray hair evaluation method according to a tenth invention includes an acquisition step of acquiring an image including hair, a spectrum acquisition step of acquiring a spectrum image based on the image acquired by the acquisition step, and a spectrum acquired by the spectrum acquisition step. The present invention is characterized by causing a computer to execute an evaluation step of evaluating gray hair contained in the hair based on the image.

第1発明~第10発明によれば、白髪評価システム及び白髪評価方法は、スペクトル画像に基づき、髪に含まれる白髪を評価する。これにより、白髪を高精度かつ遠隔操作で評価できることが可能となる。 According to the first to tenth inventions, the gray hair evaluation system and the gray hair evaluation method evaluate gray hair contained in hair based on a spectral image. This makes it possible to evaluate gray hair with high precision and remote control.

特に、第2発明によれば、正規化波長と評価波長との分光強度の差に基づいて髪に含まれる白髪を評価する。これにより、撮像されたスペクトル画像の特徴を分離することができる。このため、より高精度に白髪を評価することができる。 In particular, according to the second invention, gray hair contained in hair is evaluated based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength. This makes it possible to separate the features of the captured spectral image. Therefore, gray hair can be evaluated with higher accuracy.

特に、第3発明によれば、730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択する。これにより、第1正規化波長と第1評価波長とをそれぞれ適した周波数帯の波長を利用できるため、より正確に評価することが可能となる。 In particular, according to the third invention, a specific wavelength included in the frequency band of 730 to 830 nm is selected as the first normalized wavelength, and a specific wavelength included in the frequency band of 430 to 530 nm is selected as the first evaluation wavelength. Thereby, wavelengths in appropriate frequency bands can be used as the first normalized wavelength and the first evaluation wavelength, so that more accurate evaluation can be performed.

特に、第4発明によれば、評価モデルを用いて、スペクトル画像に基づき、髪に含まれる白髪を評価する。これにより、機械学習により高精度に白髪を評価することが可能となる。 In particular, according to the fourth invention, gray hair contained in hair is evaluated using an evaluation model based on a spectral image. This makes it possible to evaluate gray hair with high precision using machine learning.

特に、第5発明によれば、画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した波長を示すスペクトル画像を取得する。これにより、画像に含まれる毛髪のみを抽出し、頭皮等のノイズを排除することが可能となるため、より高精度に白髪の評価が可能となる。 In particular, according to the fifth invention, a wavelength whose difference from a reference wavelength indicating a hair wavelength obtained in advance is equal to or less than a threshold is extracted from the image, and a spectral image indicating the extracted wavelength is obtained. This makes it possible to extract only the hair included in the image and exclude noise from the scalp, etc., making it possible to evaluate gray hair with higher accuracy.

特に、第6発明によれば、抽出モデルを用いて、画像に基づいて、髪を示すスペクトル画像を取得する。これにより、画像に含まれる毛髪のみを抽出し、頭皮等のノイズを排除することが可能となるため、より高精度に白髪の評価が可能となる。 In particular, according to the sixth invention, a spectral image showing hair is acquired based on the image using the extraction model. This makes it possible to extract only the hair included in the image and exclude noise from the scalp, etc., making it possible to evaluate gray hair with higher accuracy.

第7発明によれば、白板画像に対する画像の相対反射率に基づくスペクトル画像を取得する。これにより、白板画像を基準としてスペクトル画像を取得するため、ノイズを排除した画像を用いることが可能となる。 According to the seventh invention, a spectrum image is acquired based on the relative reflectance of the image with respect to the white board image. As a result, a spectral image is acquired using the white board image as a reference, so it is possible to use an image from which noise has been eliminated.

第8発明によれば、撮像条件情報を取得し、取得した撮像条件情報に応じて、画像を補正する。これにより、撮影時の光量等の条件を補正することが可能となり、ノイズを排除した画像を用いることが可能となる。 According to the eighth invention, imaging condition information is acquired, and the image is corrected according to the acquired imaging condition information. This makes it possible to correct conditions such as the amount of light at the time of photographing, and it becomes possible to use an image free of noise.

第9発明によれば、平滑化された画像と平滑化される前の画像に基づいて先鋭化された画像を取得する。これにより、例えば平滑化された画像と平滑化される前の画像との差分に基づいて画像を先鋭化することが可能となる。これにより、精度よく先鋭化された画像を用いることが可能となる。 According to the ninth invention, a sharpened image is obtained based on the smoothed image and the image before smoothing. This makes it possible to sharpen an image, for example, based on the difference between a smoothed image and an image before smoothing. This makes it possible to use an image sharpened with accuracy.

図1は、本実施形態における白髪評価システムの構成の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of the configuration of a gray hair evaluation system according to the present embodiment. 図2(a)は、本実施形態における白髪評価装置の構成の一例を示す模式図であり、図2(b)は、本実施形態における白髪評価装置の機能の一例を示す模式図である。FIG. 2(a) is a schematic diagram showing an example of the configuration of the gray hair evaluation device according to the present embodiment, and FIG. 2(b) is a schematic diagram showing an example of the function of the gray hair evaluation device according to the present embodiment. 図3は、本実施形態における白髪評価システムの動作のフローチャートの一例を示す図である。FIG. 3 is a diagram showing an example of a flowchart of the operation of the gray hair evaluation system in this embodiment. 図4(a)は、画像の一例を示す図である。図4(b)は、スペクトル画像の一例を示す図である。図4(c)は、白髪スペクトルの一例を示す図である。FIG. 4(a) is a diagram showing an example of an image. FIG. 4(b) is a diagram showing an example of a spectrum image. FIG. 4(c) is a diagram showing an example of a gray hair spectrum. 図5は、本実施形態における抽出モデルの一例を示す図である。FIG. 5 is a diagram showing an example of an extraction model in this embodiment. 図6は、波長毎のスペクトル強度の一例を示すグラフである。FIG. 6 is a graph showing an example of spectral intensity for each wavelength. 図7は、本実施形態における評価モデルの一例を示す図である。FIG. 7 is a diagram showing an example of an evaluation model in this embodiment.

以下、本発明を適用した実施形態における白髪評価システムの一例について、図面を用いて説明する。 An example of a gray hair evaluation system according to an embodiment of the present invention will be described below with reference to the drawings.

図1は、白髪評価システム100の構成の一例を示す模式図である。白髪評価システム100は、例えば図1に示すように、白髪評価装置1と、サーバ3と、撮像装置5と照明器具6とを有するユーザ端末2とが公共通信網4を介して接続される。また、白髪評価システム100は、公共通信網4を介することなく接続された、白髪評価装置1と撮像装置5とのみを備えていてもよい。 FIG. 1 is a schematic diagram showing an example of the configuration of a gray hair evaluation system 100. In the gray hair evaluation system 100, for example, as shown in FIG. 1, a gray hair evaluation device 1, a server 3, and a user terminal 2 having an imaging device 5 and a lighting device 6 are connected via a public communication network 4. Further, the gray hair evaluation system 100 may include only the gray hair evaluation device 1 and the imaging device 5, which are connected without going through the public communication network 4.

サーバ3は、白髪評価装置1及びユーザ端末2から送信された画像等の各種データを記憶する記憶媒体である。また、サーバ3は、必要に応じて記憶した各種データを白髪評価装置1及びユーザ端末2に送信する。サーバ3は、例えば白髪評価装置1の備える機能のうち、少なくとも一部の機能を備えてもよく、例えば白髪評価装置1の代わりに少なくとも一部の処理を行ってもよい。 The server 3 is a storage medium that stores various data such as images transmitted from the gray hair evaluation device 1 and the user terminal 2. Further, the server 3 transmits various stored data to the gray hair evaluation device 1 and the user terminal 2 as necessary. For example, the server 3 may have at least some of the functions of the gray hair evaluation device 1, and may perform at least some of the processing instead of the gray hair evaluation device 1, for example.

公共通信網4は、例えば白髪評価装置1が通信回路を介して接続されるインターネット網等である。公共通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、公共通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。ユーザ端末2は、例えば白髪評価システム100を用いたサービスのユーザ等が保有し、公共通信網4を介して白髪評価装置1と接続される。ユーザ端末2は、例えばデータベースを生成する電子機器を示してもよい。ユーザ端末2は、例えばパーソナルコンピュータや、タブレット端末等の電子機器が用いられる。ユーザ端末2は、例えば白髪評価装置1の備える機能のうち、少なくとも一部の機能を備えてもよい。ユーザ端末2は、ユーザに白髪の評価結果を提示できる図示しないディスプレイ、又はスピーカを備えていてもよい。 The public communication network 4 is, for example, the Internet network to which the gray hair evaluation device 1 is connected via a communication circuit. The public communication network 4 may be constituted by a so-called optical fiber communication network. Further, the public communication network 4 may be realized by a known communication technology such as a wireless communication network in addition to a wired communication network. The user terminal 2 is owned by, for example, a user of a service using the gray hair evaluation system 100, and is connected to the gray hair evaluation device 1 via the public communication network 4. The user terminal 2 may represent, for example, an electronic device that generates a database. As the user terminal 2, for example, an electronic device such as a personal computer or a tablet terminal is used. The user terminal 2 may have at least some of the functions of the gray hair evaluation device 1, for example. The user terminal 2 may include a display (not shown) or a speaker that can present the gray hair evaluation results to the user.

照明器具6は、撮像装置5によるユーザの髪を含む画像を撮像する際に、ユーザの頭部を照らす任意の照明器具である。 The lighting fixture 6 is any lighting fixture that illuminates the user's head when the imaging device 5 captures an image including the user's hair.

撮像装置5は、ユーザの髪を撮像して画像及びスペクトル画像を生成する公知のカメラである。撮像装置5として、例えばRGBカメラ、マルチスペクトルカメラ、ターゲットスペクトルカメラ、ハイパースペクトルカメラ等が用いられてもよい。撮像装置5は、例えば動画を撮影するビデオカメラであってもよく、白髪評価装置1に内蔵されてもよい。撮像装置5がスペクトルビデオカメラの場合は、例えば撮像された動画の一部からスペクトル画像が抽出されてもよい。撮像装置5は、撮像した画像をユーザ端末2に出力する。また、撮像装置5は、ユーザ端末2を介することなく、公共通信網4を介して、白髪評価装置1に撮像した画像を出力してもよい。 The imaging device 5 is a known camera that images the user's hair and generates an image and a spectrum image. As the imaging device 5, for example, an RGB camera, a multispectral camera, a target spectrum camera, a hyperspectral camera, etc. may be used. The imaging device 5 may be, for example, a video camera that shoots moving images, or may be built into the gray hair evaluation device 1. When the imaging device 5 is a spectral video camera, for example, a spectral image may be extracted from a part of the captured moving image. The imaging device 5 outputs the captured image to the user terminal 2. Further, the imaging device 5 may output the captured image to the gray hair evaluation device 1 via the public communication network 4 without going through the user terminal 2.

白髪評価装置1は、ユーザ端末2から出力された画像及びスペクトル画像に基づいて、それぞれ処理を行う。白髪評価装置1は、例えばパーソナルコンピュータ(PC)等の電子機器が用いられるほか、例えばスマートフォン、タブレット型端末、ウェアラブル端末、IoT(Internet of Things)デバイス等の電子機器、Raspberry Pi(登録商標)等のシングルボードコンピュータが用いられてもよく、例えば撮像装置5が内蔵されてもよい。 The gray hair evaluation device 1 performs processing based on the image and spectrum image output from the user terminal 2, respectively. The gray hair evaluation device 1 may be an electronic device such as a personal computer (PC), a smartphone, a tablet terminal, a wearable terminal, an IoT (Internet of Things) device, Raspberry Pi (registered trademark), etc. A single board computer may be used, and for example, the imaging device 5 may be built-in.

白髪評価装置1は、例えば撮像装置5から出力された髪を含む画像を取得し、取得した画像に基づく、スペクトル画像を取得し、取得したスペクトル画像に基づき、髪に含まれる白髪を評価する。 The gray hair evaluation device 1 acquires, for example, an image including hair output from the imaging device 5, acquires a spectral image based on the acquired image, and evaluates gray hair contained in the hair based on the acquired spectral image.

次に図2を参照して、本実施形態における白髪評価装置1の一例を説明する。図2(a)は、本実施形態における白髪評価装置1の構成の一例を示す模式図であり、図2(b)は、本実施形態における白髪評価装置1の機能の一例を示す模式図である。 Next, with reference to FIG. 2, an example of the gray hair evaluation device 1 in this embodiment will be described. FIG. 2(a) is a schematic diagram showing an example of the configuration of the gray hair evaluation device 1 according to the present embodiment, and FIG. 2(b) is a schematic diagram showing an example of the function of the gray hair evaluation device 1 according to the present embodiment. be.

白髪評価装置1は、例えば図2(a)に示すように、筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105~107とを備える。CPU101と、ROM102と、RAM103と、保存部104と、I/F105~107とは、内部バス110により接続される。 As shown in FIG. 2A, for example, the gray hair evaluation device 1 includes a housing 10, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and a storage device. 104 and I/Fs 105 to 107. The CPU 101, ROM 102, RAM 103, storage unit 104, and I/Fs 105 to 107 are connected by an internal bus 110.

CPU101は、白髪評価装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、画像やスペクトル画像、抽出モデル及び評価モデル等の各種情報が保存される。保存部104は、例えばHDD(Hard Disk Drive)の他、SSD(Solid State Drive)やSDカード、miniSDカード等のデータ保存装置が用いられる。なお、例えば白髪評価装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。 The CPU 101 controls the gray hair evaluation device 1 as a whole. The ROM 102 stores operation codes for the CPU 101. The RAM 103 is a work area used when the CPU 101 operates. The storage unit 104 stores various information such as images, spectrum images, extraction models, and evaluation models. As the storage unit 104, for example, a data storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an SD card, or a miniSD card is used. Note that, for example, the gray hair evaluation device 1 may include a GPU (Graphics Processing Unit), which is not shown.

I/F105は、公共通信網4を介して各種情報の送受信を行うためのインターフェースである。I/F106は、入力部108との情報の送受信を行うためのインターフェースである。入力部108として、例えばキーボードが用いられ、白髪評価装置1を利用する評価者等は、入力部108を介して、各種情報又は白髪評価装置1の制御コマンド等を入力する。I/F107は、表示部109との各種情報の送受信を行うためのインターフェースである。表示部109は、保存部104に保存された評価結果等の各種情報、または白髪評価装置1の処理状況等を出力する。表示部109として、ディスプレイが用いられ、例えばタッチパネル式でもよい。 The I/F 105 is an interface for transmitting and receiving various information via the public communication network 4. I/F 106 is an interface for transmitting and receiving information to and from input unit 108 . For example, a keyboard is used as the input unit 108 , and an evaluator or the like using the gray hair evaluation device 1 inputs various information or control commands for the gray hair evaluation device 1 via the input unit 108 . I/F 107 is an interface for transmitting and receiving various information to and from display unit 109 . The display unit 109 outputs various information such as the evaluation results stored in the storage unit 104 or the processing status of the gray hair evaluation device 1. A display is used as the display unit 109, and may be of a touch panel type, for example.

保存部104は、例えば撮像装置2から取得した画像及びスペクトル画像が記憶されるほか、スペクトル画像等に関連する情報、白髪の評価に用いられるアルゴリズム、抽出モデル及び評価モデル等が記憶される。 The storage unit 104 stores, for example, images and spectral images acquired from the imaging device 2, as well as information related to the spectral images, algorithms used for evaluating gray hair, extraction models, evaluation models, and the like.

表示部109は、各種情報を表示する。表示部109は、例えば評価結果、画像等を表示する。 The display unit 109 displays various information. The display unit 109 displays, for example, evaluation results, images, and the like.

図2(b)は、白髪評価装置1の機能の一例を示す模式図である。白髪評価装置1は、取得部11と、画像処理部12と、評価部13と、記憶部14と、出力部15と、変換部16と、抽出部17とを備える。なお、図2(b)に示した取得部11と、画像処理部12と、評価部13と、記憶部14と、出力部15と、変換部16と、抽出部17とは、CPU101が、RAM103を作業領域として、保存部104等に保存されたプログラムを実行することにより実現され、例えば人工知能により制御されてもよい。 FIG. 2(b) is a schematic diagram showing an example of the functions of the gray hair evaluation device 1. The gray hair evaluation device 1 includes an acquisition section 11 , an image processing section 12 , an evaluation section 13 , a storage section 14 , an output section 15 , a conversion section 16 , and an extraction section 17 . Note that the acquisition unit 11, image processing unit 12, evaluation unit 13, storage unit 14, output unit 15, conversion unit 16, and extraction unit 17 shown in FIG. This is realized by using the RAM 103 as a work area and executing a program stored in the storage unit 104 or the like, and may be controlled by artificial intelligence, for example.

取得部11は、画像及びスペクトル画像を取得する。取得部11は、撮像装置5が撮像した画像を、ユーザ端末2を介して取得する他、例えば白髪評価装置1に内蔵された撮像装置5から、画像及びスペクトル画像を取得するようにしてもよい。また、サーバ3等から公共通信網4を介して画像及びスペクトル画像を取得してもよい。なお、取得部11が各種情報を取得する頻度、及び周期は、任意である。 The acquisition unit 11 acquires images and spectral images. In addition to acquiring the image captured by the imaging device 5 via the user terminal 2, the acquisition unit 11 may also acquire an image and a spectrum image from the imaging device 5 built into the gray hair evaluation device 1, for example. . Alternatively, images and spectrum images may be acquired from the server 3 or the like via the public communication network 4. Note that the frequency and cycle at which the acquisition unit 11 acquires various information are arbitrary.

画像処理部12は、取得部11により取得された画像に補正等の処理を行う。 The image processing unit 12 performs processing such as correction on the image acquired by the acquisition unit 11.

変換部16は、画像処理部12により処理された画像に基づいて、スペクトル画像を取得する。かかる場合、例えば変換部16は、画像を、画像に含まれるスペクトルを示すスペクトル画像に変換する。 The converter 16 acquires a spectral image based on the image processed by the image processor 12. In such a case, for example, the converting unit 16 converts the image into a spectral image indicating a spectrum included in the image.

抽出部17は、変換部16により取得されたスペクトル画像から、髪を示すスペクトル画像を抽出する。 The extraction unit 17 extracts a spectral image representing hair from the spectral image acquired by the conversion unit 16.

評価部13は、抽出部17により抽出されたスペクトル画像に基づき、白髪を評価する。 The evaluation unit 13 evaluates gray hair based on the spectrum image extracted by the extraction unit 17.

記憶部14は、保存部104に保存された各種情報を必要に応じて取り出す。記憶部14は、取得部11と、画像処理部12と、評価部13と、変換部16と、抽出部17とにより取得又は出力された各種情報を、保存部104に保存する。 The storage unit 14 retrieves various information stored in the storage unit 104 as necessary. The storage unit 14 stores various information acquired or output by the acquisition unit 11 , the image processing unit 12 , the evaluation unit 13 , the conversion unit 16 , and the extraction unit 17 in the storage unit 104 .

出力部15は、各種情報を出力する。出力部15は、I/F107を介して表示部109に評価結果を送信する。 The output unit 15 outputs various information. The output unit 15 transmits the evaluation results to the display unit 109 via the I/F 107.

次に、本実施形態における白髪評価システム100の動作の一例について説明する。図4は、本実施形態における白髪評価システム100の動作の一例を示すフローチャートである。 Next, an example of the operation of the gray hair evaluation system 100 in this embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the gray hair evaluation system 100 in this embodiment.

まず、ステップS110において、取得部11は、髪を含む画像を取得する。かかる場合、例えば撮像装置2により撮像された画像を公共通信網4を介して取得してもよい。また、撮像装置2により、画像を撮像するとき、照明器具6を用いてユーザの頭部に光を照射してもよいがこの限りではなく、照明器具6を用いることなく画像を撮像してもよい。また、例えばサーバ3に記憶されている髪を含む画像を、公共通信網4を介して取得してもよい。取得部11は、撮像装置5により撮像された画像を、I/F105を介して取得してもよい。取得部11は、例えば記憶部14を介して、画像を保存部104に保存する。髪を含む画像は、例えば図4(a)に示すような、人の頭髪を含む画像であり、人の頭皮を含んでもよい。 First, in step S110, the acquisition unit 11 acquires an image including hair. In such a case, for example, an image captured by the imaging device 2 may be acquired via the public communication network 4. Further, when capturing an image with the imaging device 2, the lighting device 6 may be used to irradiate light onto the user's head, but this is not limited to this, and the image may be captured without using the lighting device 6. good. Further, for example, an image containing hair stored in the server 3 may be acquired via the public communication network 4. The acquisition unit 11 may acquire an image captured by the imaging device 5 via the I/F 105. The acquisition unit 11 stores the image in the storage unit 104 via the storage unit 14, for example. The image including hair is, for example, an image including human hair as shown in FIG. 4(a), and may also include the human scalp.

次に、ステップS120において、画像処理部12は、ステップS110において、取得部11により取得された画像に補正等の処理を行う。画像処理部12は、例えば画像を平滑化し、平滑化された画像と平滑化される前の画像に基づいて、画像を先鋭化してもよい。かかる場合、まず画像処理部12は、例えばミディアンフィルタ、ガウシアンフィルタ、移動平均、Savitzky-Golay法等を用いて、画像を平滑化する。次に画像処理部12は、ラプラシアンフィルタ(2階微分)、アンシャープ方式を用いて、画像を先鋭化する。かかる場合、画像処理部12は、例えば平滑化された画像と平滑化される前の画像との差分を算出し、差分を大きくするように画像を先鋭化する。平滑化は、画像をぼかすことであり、例えば画像の画素値の変化を小さくする処理である。先鋭化は、例えば画像の画素値の変化を大きくする処理である。 Next, in step S120, the image processing unit 12 performs processing such as correction on the image acquired by the acquisition unit 11 in step S110. The image processing unit 12 may, for example, smooth the image and sharpen the image based on the smoothed image and the image before smoothing. In such a case, the image processing unit 12 first smoothes the image using, for example, a median filter, a Gaussian filter, a moving average, the Savitzky-Golay method, or the like. Next, the image processing unit 12 sharpens the image using a Laplacian filter (second order differential) and an unsharp method. In such a case, the image processing unit 12 calculates, for example, the difference between the smoothed image and the image before smoothing, and sharpens the image so as to increase the difference. Smoothing is a process of blurring an image, for example, reducing changes in pixel values of the image. Sharpening is, for example, a process of increasing changes in pixel values of an image.

次に、ステップS130において、変換部16は、画像処理部12より処理された画像に基づく、スペクトル画像を取得する。変換部16は、例えば白板を撮像した白板画像に対する画像の相対反射率に基づくスペクトル画像を取得する。白板は、一定の反射率を要する基準板である。これにより照明光源の変動によらず、白髪およびその他構成物の相対反射率を算出し、比較することができる。 Next, in step S130, the conversion unit 16 acquires a spectrum image based on the image processed by the image processing unit 12. The conversion unit 16 acquires a spectrum image based on the relative reflectance of the image with respect to a whiteboard image obtained by capturing a whiteboard, for example. The white board is a reference board that requires a certain reflectance. This makes it possible to calculate and compare the relative reflectance of gray hair and other constituents, regardless of variations in the illumination light source.

また、ステップS130において、変換部16は、白板を撮像するときの撮像するときの条件である撮像条件と、人の髪を撮像するときの撮像条件とに基づいて、画像を補正してもよい。撮像条件は、例えば撮像するときのゲイン、露光時間、明るさ等である。例えば、変換部16は、白板画像を撮像するときの照明器具6の光強度と、画像を撮像するときの照明器具6の光強度の差に基づいて、画像のゲイン及び露光時間を補正する。 Further, in step S130, the conversion unit 16 may correct the image based on the imaging conditions that are the conditions when imaging the white board and the imaging conditions when imaging human hair. . The imaging conditions include, for example, gain, exposure time, brightness, etc. when imaging. For example, the conversion unit 16 corrects the gain and exposure time of the image based on the difference between the light intensity of the lighting fixture 6 when capturing the white board image and the light intensity of the lighting fixture 6 when capturing the image.

次に、ステップS140において、抽出部17は、ステップS130において取得したスペクトル画像から髪を示すスペクトルを抽出する。例えば抽出部17は、画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した波長を示すスペクトル画像を取得する。例えば抽出部17は、SAM(Spectral Angle Mapper)法等を用いて、予め取得された髪の波長を示す基準波長と近似するスペクトルを抽出する。基準波長は、例えば380nm~900nmの波長範囲内から選択した任意の波長である。これにより、画像に含まれる毛髪のみを抽出し、頭皮等のノイズを排除することが可能となる。 Next, in step S140, the extraction unit 17 extracts a spectrum representing hair from the spectrum image acquired in step S130. For example, the extraction unit 17 extracts from the image a wavelength whose difference from a reference wavelength indicating a hair wavelength acquired in advance is equal to or less than a threshold value, and acquires a spectrum image indicating the extracted wavelength. For example, the extraction unit 17 uses a SAM (Spectral Angle Mapper) method or the like to extract a spectrum that approximates a reference wavelength that indicates the hair wavelength that has been obtained in advance. The reference wavelength is, for example, any wavelength selected from within the wavelength range of 380 nm to 900 nm. This makes it possible to extract only the hair included in the image and eliminate noise such as the scalp.

また、ステップS140において、抽出部17は、予め取得された参照用画像と髪を示すスペクトル画像とからなるデータセットを学習データとして用い、入力を画像とし、出力をスペクトル画像として、機械学習により生成された抽出モデルを用いて、ステップS110により取得された画像に基づいて、髪を示すスペクトル画像を抽出してもよい。 In addition, in step S140, the extraction unit 17 uses a data set consisting of a reference image and a spectral image showing hair acquired in advance as learning data, and generates the image by machine learning with the input as the image and the output as the spectral image. Using the extracted extraction model, a spectral image showing hair may be extracted based on the image acquired in step S110.

抽出モデルの生成方法として、例えばニューラルネットワークをモデルとした機械学習を用いて、抽出モデルを生成してもよい。抽出モデルは、例えばCNN(Convolution Neural Network)等のニューラルネットワークをモデルとした機械学習を用いて生成されるほか、任意のモデルが用いられてもよい。 As a method for generating the extraction model, for example, machine learning using a neural network as a model may be used to generate the extraction model. The extracted model may be generated using machine learning using a neural network such as CNN (Convolution Neural Network) as a model, or any other model may be used.

かかる場合、抽出モデルには、例えば図5のように、入力データである参照用画像と出力データである髪を示すスペクトル画像との間における連関度を有する連関性が記憶される。連関度は、入力データと出力データとの繋がりの度合いを示しており、例えば連関度が高いほど各データの繋がりが強いと判断することができる。連関度は、例えば百分率等の3値以上又は3段階以上で示されるほか、2値又は2段階で示されてもよい。また、参照用画像は、予め取得した学習データに用いるための髪を含む画像である。また、髪を示すスペクトル画像は、ステップS140と同様の方法で取得したスペクトル画像はであってもよい。髪を示すスペクトル画像は、例えば髪を含むスペクトル画像から、SAM法等を用いて、予め取得された髪の波長を示す基準波長と近似するスペクトルを抽出したスペクトル画像であってもよい。 In such a case, the extraction model stores a relationship having a degree of association between a reference image that is input data and a spectral image showing hair that is output data, as shown in FIG. 5, for example. The degree of association indicates the degree of connection between input data and output data, and for example, it can be determined that the higher the degree of association, the stronger the connection between each piece of data. The degree of association may be expressed in three or more values or three or more levels, such as a percentage, or may be expressed in binary values or two levels. Further, the reference image is an image including hair to be used as learning data acquired in advance. Further, the spectral image showing the hair may be a spectral image obtained by the same method as in step S140. The spectral image showing hair may be, for example, a spectral image obtained by extracting a spectrum similar to a reference wavelength representing the wavelength of hair acquired in advance from a spectral image including hair using the SAM method or the like.

例えば連関性は、複数の入力データ、対、複数の出力データの間における繋がりの度合いにより構築される。連関性は、機械学習の過程で適宜更新され、例えば複数の入力データ、及び複数の出力データに基づいて最適化された関数を用いた分類器を示す。なお、連関性は、例えば各データの間における繋がりの度合いを示す複数の連関度を有してもよい。連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。連関性は、例えば図5に示すように、複数の入力データと、複数の出力データとの間における繋がりの度合いを示してもよい。この場合、連関性を用いることで、図6の「画像A」~「画像C」のそれぞれの入力データに対し、「スペクトル画像A」~「スペクトル画像C」の複数の出力データとの関係の度合いを紐づけて記憶させることができる。このため、例えば連関性を介して、1つの出力データに対して、複数の入力データを紐づけることができる。これにより、入力データに対して多角的な出力データの選択を実現することができる。 For example, the association is constructed based on the degree of connection between a plurality of input data, a pair, and a plurality of output data. The association is appropriately updated in the process of machine learning, and indicates a classifier that uses a function that is optimized based on, for example, a plurality of input data and a plurality of output data. Note that the association may include, for example, a plurality of degrees of association indicating the degree of connection between each piece of data. For example, when a database is constructed using a neural network, the degree of association can be made to correspond to a weight variable. For example, as shown in FIG. 5, the association may indicate the degree of connection between a plurality of input data and a plurality of output data. In this case, by using the association, the relationship between each input data of "Image A" to "Image C" in FIG. It is possible to associate and memorize the degree. Therefore, a plurality of input data can be linked to one output data, for example, through association. Thereby, it is possible to realize multifaceted selection of output data with respect to input data.

連関性は、例えば各入力データと、各出力データとをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、入力データに含まれる「画像A」は、出力データに含まれる「スペクトル画像A」との間の連関度AA「73%」を示し、出力データに含まれる「スペクトル画像B」との間の連関度AB「12%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。 The association includes, for example, a plurality of degrees of association that link each input data and each output data, respectively. The degree of association is expressed in three or more levels, such as a percentage, 10 levels, or 5 levels, and is expressed, for example, as line characteristics (such as thickness). For example, "Image A" included in the input data shows a degree of association AA "73%" with "Spectral image A" included in the output data, and a correlation degree of AA "73%" with "Spectral image B" included in the output data. The degree of association AB is "12%". That is, the "degree of association" indicates the degree of connection between each piece of data, and for example, the higher the degree of association, the stronger the connection between each piece of data.

このような図5に示す3段階以上の連関度を予め取得しておく。つまり実際の解の判別を行う上で、入力データと、出力データとの何れが採用、評価されたか、過去のデータセットを蓄積しておき、これらを分析、解析することで図5に示す連関度を作り上げておく。 The degree of association of three or more levels shown in FIG. 5 is obtained in advance. In other words, in determining the actual solution, whether input data or output data was adopted and evaluated can be determined by accumulating past datasets and analyzing them to determine the relationship shown in Figure 5. Build up your degree.

例えば、過去において「画像B」という入力データに対して、「スペクトル画像B」が最も適合性が高いと判断され、評価されたものとする。このようなデータセットを集めて分析することにより、入力データと出力データとの連関度が強くなる。 For example, assume that "spectral image B" was determined to have the highest suitability for input data "image B" and was evaluated in the past. By collecting and analyzing such data sets, the degree of correlation between input data and output data becomes stronger.

この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば「画像B」という入力データに対して、「スペクトル画像B」が推定される事例が多い場合には、この「画像B」と「スペクトル画像B」とにつながる連関度をより高く設定する。 This analysis may be performed by artificial intelligence. In such a case, for example, if there are many cases where "spectral image B" is estimated for the input data "image B", the degree of association between "image B" and "spectral image B" is calculated. Set higher.

また、この連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。 Further, this degree of association may be composed of nodes of a neural network in artificial intelligence. That is, the weighting coefficient for the output of this neural network node corresponds to the degree of association described above. Moreover, it is not limited to a neural network, and may be composed of any decision-making factors that constitute artificial intelligence.

また、抽出モデルは、入力データと出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。 Furthermore, the extraction model may include at least one hidden layer between input data and output data, and may be subjected to machine learning. The above-described degree of association is set for either or both of the input data and the hidden layer data, and this serves as a weighting for each data, and the output is selected based on this. Then, when this degree of association exceeds a certain threshold value, the output may be selected.

このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから新たに画像から髪を示すスペクトル画像の推定を行うこととなる。かかる場合には、ステップS120により処理された画像に対する髪を示すスペクトル画像を新たに取得する。推定の際には、例えば予め取得した図5に示す連関度を参照する。例えば、新たに取得した画像が「画像A」と同一かこれに類似するものである場合には、連関度を介して「スペクトル画像A」との間の連関度AA「73%」、「スペクトル画像B」との間の連関度AB「12%」で関連付けられている。この場合には、連関度の最も高い「スペクトル画像A」を最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる「スペクトル画像B」を最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。 This degree of association is what artificial intelligence calls trained data. After creating such trained data, a new spectral image representing hair is actually estimated from the image. In such a case, a spectral image showing hair for the image processed in step S120 is newly acquired. At the time of estimation, for example, the degree of association shown in FIG. 5 obtained in advance is referred to. For example, if a newly acquired image is the same as or similar to "Image A", the degree of association with "Spectrum Image A" is "73%", "Spectral Image A" is The degree of association with image B is 12%. In this case, "spectral image A" with the highest degree of association is selected as the optimal solution. However, it is not essential to select the one with the highest degree of association as the optimal solution, and it is also possible to select "spectral image B", which has a low degree of association but is recognized as being related, as the optimum solution. In addition, it is of course possible to select an output solution with no connected arrows, and any other priority order may be used as long as it is based on the degree of association.

このような連関度を参照することにより、画像が、入力データと同一又は類似である場合のほか、非類似である場合においても、入力データに適した出力データを定量的に選択することができる。 By referring to such degree of association, it is possible to quantitatively select output data suitable for the input data, not only when the images are the same or similar to the input data, but also when they are dissimilar. .

次に、ステップS150において、評価部13は、ステップS140により抽出された髪を示すスペクトル画像に基づいて、髪に含まれる白髪を評価する。例えば評価部13は、髪を示すスペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、正規化波長と評価波長との間において、正規化波長と評価波長との分光強度の差に基づいて髪に含まれる白髪を評価する。正規化波長は、例えば光のムラや影等、条件が異なっていた場合においても、それらの影響を軽減して、白髪を評価するために正規化される対象となる波長である。評価波長は、正規化波長を正規化するための評価用の波長である。 Next, in step S150, the evaluation unit 13 evaluates gray hair contained in the hair based on the spectrum image showing the hair extracted in step S140. For example, the evaluation unit 13 selects a specific wavelength included in a predetermined wavelength range as a normalized wavelength, a specific wavelength included in a predetermined wavelength range as an evaluation wavelength, and evaluates the normalized wavelength based on a spectrum image showing hair. Gray hair contained in the hair is evaluated based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength. The normalized wavelength is a wavelength to be normalized in order to reduce the influence of different conditions such as light unevenness and shadows, and to evaluate gray hair. The evaluation wavelength is a wavelength for evaluation to normalize the normalized wavelength.

図6は、スペクトル画像が示す複数のスペクトルグラフである。図6は、縦軸を光の強度、横軸を波長[nm]とするグラフである。複数のスペクトルグラフの実線、破線の各々は、例えば撮像された各画像毎のスペクトルに対応する。評価部13は、例えば730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択する。評価部13は、例えば780nmを第1正規化波長とし、480nmを第1評価波長としてもよい。 FIG. 6 is a plurality of spectral graphs shown by the spectral image. FIG. 6 is a graph in which the vertical axis represents the intensity of light and the horizontal axis represents the wavelength [nm]. Each of the solid lines and broken lines of the plurality of spectral graphs corresponds to, for example, a spectrum of each captured image. For example, the evaluation unit 13 selects a specific wavelength included in the frequency band of 730 to 830 nm as the first normalized wavelength, and selects a specific wavelength included in the frequency band of 430 to 530 nm as the first evaluation wavelength. The evaluation unit 13 may use, for example, 780 nm as the first normalized wavelength and 480 nm as the first evaluation wavelength.

評価部13は、このようなスペクトルグラフに含まれる波長を特定波長とし、正規化波長、及び評価波長として選択する。評価部13は、各スペクトルグラフ間のスペクトル強度の差分値が最も大きくなる波長を特定波長としてもよい。また、評価部13は、各スペクトルグラフ上で凸のピークが形成されている特異点を特定波長として特定するようにしてもよい。また、評価部13は、回帰分析、総当たり解析、機械学習等を用いた学習済みモデルを用いた解析により、特定波長を選択してもよい。 The evaluation unit 13 selects a wavelength included in such a spectrum graph as a specific wavelength, and as a normalized wavelength and an evaluation wavelength. The evaluation unit 13 may set the wavelength at which the difference value of the spectral intensity between the respective spectral graphs is the largest as the specific wavelength. Furthermore, the evaluation unit 13 may specify a singular point where a convex peak is formed on each spectrum graph as a specific wavelength. Furthermore, the evaluation unit 13 may select the specific wavelength by analysis using a trained model using regression analysis, brute force analysis, machine learning, or the like.

ここで、例えば正規化波長及び評価波長は、1点で特定してもよいし、複数を特定してもよい。また、これらの正規化波長及び評価波長を中心とした波長範囲を設定するようにしてもよい。波長範囲は、例えば正規化波長及び評価波長の差が±10nmとなる波長幅等のように、予め設定した所定の波長範囲で構成されてもよい。このため、仮に正規化波長が780nmであり、波長範囲が±10nmであれば、実際にスペクトルデータを評価する範囲は、770~790nmとなる。かかる場合、正規化波長及び評価波長の決め方としては、例えば各波長の範囲の中心の波長を特定波長としてもよい。 Here, for example, the normalized wavelength and the evaluation wavelength may be specified at one point, or may be specified at a plurality of points. Furthermore, a wavelength range centered around these normalized wavelengths and evaluation wavelengths may be set. The wavelength range may be a predetermined wavelength range set in advance, such as a wavelength width where the difference between the normalized wavelength and the evaluation wavelength is ±10 nm. Therefore, if the normalized wavelength is 780 nm and the wavelength range is ±10 nm, the range in which spectrum data is actually evaluated will be 770 to 790 nm. In such a case, the normalization wavelength and the evaluation wavelength may be determined by, for example, setting the wavelength at the center of each wavelength range as the specific wavelength.

次に、評価部13は、選択された正規化波長と評価波長との間において、正規化波長と評価波長との分光強度の差により白髪の量を示す白髪レベルを算出し、白髪を評価する。 Next, the evaluation unit 13 calculates a gray hair level indicating the amount of gray hair between the selected normalized wavelength and the evaluation wavelength based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength, and evaluates gray hair. .

評価部13は、例えば正規化波長と評価波長との分光強度の差によるスペクトル変化により白髪レベルを算出する。かかる場合、正規化波長と評価波長との分光強度の和で正規化することにより、例えば光のムラや影等、条件が異なっていた場合においても、それらの影響を軽減して、白髪レベルを比較可能にすることができる。これらの白髪レベルの算出は、例えば公知のスペクトル計測手法、スペクトル解析技法(例えば「NDSI:normalized difference spectral index、正規化分光反射指数」)等により次式により求める。「Iλ」は、例えば「λnm」の分光強度となり、正規化波長は「λ2」、評価波長は「λ1」として求められる。

Figure 2023133002000002
The evaluation unit 13 calculates the gray hair level based on a spectral change due to a difference in spectral intensity between the normalized wavelength and the evaluation wavelength, for example. In such a case, by normalizing with the sum of the spectral intensities of the normalized wavelength and the evaluation wavelength, even if the conditions are different, such as uneven light or shadows, the effects of these can be reduced and the level of gray hair can be reduced. can be made comparable. These gray hair levels are calculated using the following equation using, for example, a known spectral measurement method or spectral analysis technique (for example, "NDSI: normalized difference spectral index, normalized spectral reflectance index"). “I λ ” is, for example, the spectral intensity of “λ nm ”, the normalized wavelength is determined as “λ2”, and the evaluation wavelength is determined as “λ1”.
Figure 2023133002000002

評価部13は、例えばスペクトル画像の評価結果に基づいて、部位ごとのピクセルの分布から白髪レベルを付与する。また、白髪レベルとして、例えば面積当たりの白髪の量に合わせ、レベル1~5等の具体的な白髪の程度を示すようにしてもよい。 The evaluation unit 13 assigns a gray hair level based on the pixel distribution for each region, for example, based on the evaluation result of the spectral image. Further, as the gray hair level, a specific degree of gray hair such as level 1 to level 5 may be indicated according to the amount of gray hair per area, for example.

評価部13は、例えば保存部104に保存された出力用フォーマット等の形式データを用いて、評価結果を生成する。評価部13は、例えば記憶部14を介して、評価結果を保存部104に保存する。 The evaluation unit 13 generates an evaluation result using format data such as an output format stored in the storage unit 104, for example. The evaluation unit 13 stores the evaluation results in the storage unit 104 via the storage unit 14, for example.

また、ステップS150において、評価部13は、予め取得された参照用スペクトル画像と白髪の評価とからなるデータセットを学習データとして用い、入力を参照用スペクトル画像とし、出力を白髪の評価として、機械学習により生成された評価モデルを用いて、スペクトル画像に基づき、髪に含まれる白髪を評価してもよい。参照用スペクトル画像は、評価モデルの学習データとして用いるスペクトル画像であり、例えば予め取得された髪を示すスペクトル画像であるが、これに限らず、髪を示すスペクトルを含む任意の画像を用いてもよい。白髪の評価は、例えば白髪を示すスペクトルである白髪スペクトルを示すスペクトル画像である。また、白髪の評価は、例えば白髪レベルであってもよい。また、白髪の評価は、ステップS150と同様の方法で取得した白髪の評価の結果又は白髪を示すスペクトル画像であってもよい。つまり白髪の評価は、スペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、正規化波長と評価波長との間において、正規化波長と評価波長との分光強度の差により白髪レベルを算出し、算出した白髪レベルに基づいて、取得された白髪を示すスペクトル画像であってもよい。 In addition, in step S150, the evaluation unit 13 uses a dataset consisting of a reference spectral image acquired in advance and an evaluation of gray hair as learning data, uses the input as a reference spectral image, and outputs as an evaluation of gray hair. Using the evaluation model generated through learning, gray hair contained in hair may be evaluated based on the spectral image. The reference spectral image is a spectral image used as learning data for the evaluation model, and is, for example, a previously acquired spectral image showing hair, but is not limited to this, and any image including a spectrum showing hair may be used. good. The evaluation of gray hair is, for example, a spectrum image showing a gray hair spectrum, which is a spectrum representing gray hair. Furthermore, the evaluation of gray hair may be, for example, the level of gray hair. Furthermore, the evaluation of gray hair may be a result of evaluation of gray hair obtained by a method similar to step S150 or a spectrum image showing gray hair. In other words, the evaluation of gray hair is based on a spectrum image, selects a specific wavelength included in a predetermined wavelength range as the normalized wavelength, selects a specific wavelength included in the predetermined wavelength range as the evaluation wavelength, and then compares the normalized wavelength and the evaluated wavelength. In between, the gray hair level may be calculated based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength, and the spectral image may be an acquired spectral image showing gray hair based on the calculated gray hair level.

評価モデルの生成方法として、例えばニューラルネットワークをモデルとした機械学習を用いて、評価モデルを生成してもよい。評価モデルは、例えばCNN(Convolution Neural Network) 等のニューラルネットワークをモデルとした機械学習を用いて生成されるほか、任意のモデルが用いられてもよい。 As a method for generating an evaluation model, for example, machine learning using a neural network as a model may be used to generate the evaluation model. The evaluation model may be generated using machine learning using a neural network model such as CNN (Convolution Neural Network), or any other model may be used.

かかる場合、評価モデルには、例えば図7のように、入力データである参照用スペクトル画像と出力データである白髪の評価との間における連関度を有する連関性が記憶される。 In such a case, the evaluation model stores a relationship having a degree of association between the reference spectral image that is the input data and the gray hair evaluation that is the output data, as shown in FIG. 7, for example.

また、評価モデルは、入力データと出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。 Furthermore, the evaluation model may include at least one hidden layer between input data and output data, and may be subjected to machine learning. The above-described degree of association is set for either or both of the input data and the hidden layer data, and this serves as a weighting for each data, and the output is selected based on this. Then, when this degree of association exceeds a certain threshold value, the output may be selected.

このような学習済みデータを作った後に、実際にこれから新たにスペクトル画像から白髪の評価の推定を行うこととなる。かかる場合には、ステップS140において抽出したスペクトル画像に対する白髪の評価を新たに取得する。 After creating such learned data, the evaluation of gray hair will actually be estimated from a new spectral image. In such a case, a new evaluation of gray hair is obtained for the spectrum image extracted in step S140.

このような連関度を参照することにより、スペクトル画像が、入力データと同一又は類似である場合のほか、非類似である場合においても、入力データに適した出力データを定量的に選択することができる。 By referring to this degree of association, it is possible to quantitatively select output data suitable for the input data, whether the spectral image is the same or similar to the input data, or even when it is dissimilar. can.

次に、出力部15により評価結果が出力される。出力部15は、評価結果を表示部109等に出力する。また、出力部15は、公共通信網4を介して、評価結果をユーザ端末2に出力してもよい。 Next, the output unit 15 outputs the evaluation results. The output unit 15 outputs the evaluation results to the display unit 109 or the like. Further, the output unit 15 may output the evaluation result to the user terminal 2 via the public communication network 4.

これにより、本実施形態における白髪評価装置1の動作が終了する。これにより、白髪を高精度かつ遠隔操作で評価できることが可能となる。 Thereby, the operation of the gray hair evaluation device 1 in this embodiment ends. This makes it possible to evaluate gray hair with high precision and remote control.

本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although an embodiment of the invention has been described, this embodiment is presented by way of example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

1 :白髪評価装置
2 :ユーザ端末
3 :サーバ
4 :公共通信網
5 :撮像装置
6 :照明器具
10 :筐体
11 :取得部
12 :画像処理部
13 :評価部
14 :記憶部
15 :出力部
16 :変換部
17 :抽出部
100 :白髪評価システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部
109 :表示部
110 :内部バス
1 : Gray hair evaluation device 2 : User terminal 3 : Server 4 : Public communication network 5 : Imaging device 6 : Lighting fixture 10 : Housing 11 : Acquisition part 12 : Image processing part 13 : Evaluation part 14 : Storage part 15 : Output part 16: Conversion unit 17: Extraction unit 100: Gray hair evaluation system 101: CPU
102:ROM
103: RAM
104: Storage section 105: I/F
106: I/F
107: I/F
108: Input section 109: Display section 110: Internal bus

Claims (10)

髪を含む画像を取得する取得手段と
前記取得手段により取得された画像に基づくスペクトル画像を取得するスペクトル取得手段と、
前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価手段とを備えること
を特徴とする白髪評価システム。
an acquisition means for acquiring an image including hair; a spectrum acquisition means for acquiring a spectral image based on the image acquired by the acquisition means;
A gray hair evaluation system comprising: evaluation means for evaluating gray hair contained in the hair based on the spectrum image acquired by the spectrum acquisition means.
前記評価手段は、前記スペクトル取得手段により取得されたスペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、前記正規化波長と前記評価波長との間において、前記正規化波長と前記評価波長との分光強度の差に基づいて前記髪に含まれる白髪を評価すること
を特徴とする請求項1に記載の白髪評価システム。
The evaluation means selects a specific wavelength included in a predetermined wavelength range as a normalized wavelength, a specific wavelength included in a predetermined wavelength range as an evaluation wavelength, based on the spectrum image acquired by the spectrum acquisition device, and Gray hair according to claim 1, characterized in that gray hair contained in the hair is evaluated based on a difference in spectral intensity between the normalized wavelength and the evaluation wavelength. Rating system.
前記評価手段は、730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択すること
を特徴とする請求項2に記載の白髪評価システム。
A claim characterized in that the evaluation means selects a specific wavelength included in a frequency band of 730 to 830 nm as a first normalized wavelength, and selects a specific wavelength included in a frequency band of 430 to 530 nm as a first evaluation wavelength. The gray hair evaluation system described in 2.
前記評価手段は、予め取得された参照用スペクトル画像と白髪の評価とからなるデータセットを学習データとして用い、入力を前記参照用スペクトル画像とし、出力を前記白髪の評価として、機械学習により生成された評価モデルを用いて、前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価すること
を特徴とする請求項1に記載の白髪評価システム。
The evaluation means uses, as learning data, a dataset consisting of a reference spectral image obtained in advance and an evaluation of gray hair, and uses the input as the reference spectral image and the output as the evaluation of gray hair, which is generated by machine learning. The gray hair evaluation system according to claim 1, characterized in that gray hair contained in the hair is evaluated based on the spectrum image acquired by the spectrum acquisition means using an evaluation model.
前記スペクトル取得手段は、前記取得手段により取得された画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した前記波長を示す前記スペクトル画像を取得すること
を特徴とする請求項1~4の何れか1項に記載の白髪評価システム。
The spectrum acquisition means extracts, from the image acquired by the acquisition means, a wavelength whose difference from a reference wavelength indicating a wavelength of hair acquired in advance is equal to or less than a threshold value, and generates the spectrum image indicating the extracted wavelength. The gray hair evaluation system according to any one of claims 1 to 4, characterized in that:
前記スペクトル取得手段は、予め取得された参照用画像と髪を示すスペクトル画像とからなるデータセットを学習データとして用い、入力を参照用画像とし、出力をスペクトル画像として、機械学習により生成された抽出モデルを用いて、前記取得手段により取得された画像に基づいて、前記髪を示すスペクトル画像を取得すること
を特徴とする請求項1~4の何れか1項に記載の白髪評価システム。
The spectrum acquisition means uses a data set consisting of a reference image acquired in advance and a spectrum image showing hair as learning data, and uses the input as the reference image and the output as the spectrum image to extract data generated by machine learning. The gray hair evaluation system according to any one of claims 1 to 4, wherein a spectral image showing the hair is acquired based on the image acquired by the acquisition means using a model.
前記取得手段は、白板を撮像した白板画像をさらに取得し、
前記スペクトル取得手段は、前記取得手段により取得された前記白板画像に対する前記画像の相対反射率に基づくスペクトル画像を取得すること
を特徴とする請求項1~5の何れか1項に記載の白髪評価システム。
The acquisition means further acquires a whiteboard image obtained by capturing the whiteboard,
The spectrum acquisition means acquires a spectrum image based on the relative reflectance of the image with respect to the white board image acquired by the acquisition means.
The gray hair evaluation system according to any one of claims 1 to 5, characterized by:
前記取得手段は、前記白板画像を撮像したときの撮像条件を示す撮像条件情報を取得し、取得した撮像条件情報に応じて、前記画像を補正すること
を特徴とする請求項7に記載の白髪評価システム。
The gray hair according to claim 7, wherein the acquisition means acquires imaging condition information indicating the imaging conditions when the white board image was imaged, and corrects the image according to the acquired imaging condition information. Rating system.
前記取得手段は、平滑化された画像と平滑化される前の画像に基づいて先鋭化された前記画像を取得すること
を特徴とする請求項1~8の何れか1項に記載の白髪評価システム。
The gray hair evaluation according to any one of claims 1 to 8, wherein the acquisition means acquires the sharpened image based on the smoothed image and the image before smoothing. system.
髪を含む画像を取得する取得ステップと
前記取得ステップにより取得された画像に基づく、スペクトル画像を取得するスペクトル取得ステップと、
前記スペクトル取得ステップにより取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価ステップとをコンピュータに実行させること
を特徴とする白髪評価方法。
an acquisition step of acquiring an image including hair; a spectral acquisition step of acquiring a spectral image based on the image acquired by the acquisition step;
A method for evaluating gray hair, comprising: causing a computer to execute an evaluation step of evaluating gray hair contained in the hair based on the spectrum image acquired in the spectrum acquisition step.
JP2022038641A 2022-03-11 2022-03-11 Gray hair evaluation system and gray hair evaluation method Pending JP2023133002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022038641A JP2023133002A (en) 2022-03-11 2022-03-11 Gray hair evaluation system and gray hair evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022038641A JP2023133002A (en) 2022-03-11 2022-03-11 Gray hair evaluation system and gray hair evaluation method

Publications (1)

Publication Number Publication Date
JP2023133002A true JP2023133002A (en) 2023-09-22

Family

ID=88064835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022038641A Pending JP2023133002A (en) 2022-03-11 2022-03-11 Gray hair evaluation system and gray hair evaluation method

Country Status (1)

Country Link
JP (1) JP2023133002A (en)

Similar Documents

Publication Publication Date Title
Ren et al. LECARM: Low-light image enhancement using the camera response model
CN108197546B (en) Illumination processing method and device in face recognition, computer equipment and storage medium
US9396531B2 (en) Systems and methods for image and video signal measurement
US11317851B2 (en) Skin spot evaluation apparatus, skin spot evaluation method and program
JP6957929B2 (en) Pulse wave detector, pulse wave detection method, and program
US11682143B2 (en) System and method for hair analysis of user
US12039732B2 (en) Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations
JP5591874B2 (en) Image processing apparatus, method, and program
WO2022252527A1 (en) Neural network training method and apparatus, facial recognition method and apparatus, and device and storage medium
CN113632143A (en) Method and device for restoring and reconstructing light source spectrum based on hyperspectral image
Priya Henry et al. Convolutional neural-network-based classification of retinal images with different combinations of filtering techniques
CN116645305A (en) Low-light image enhancement method based on multi-attention mechanism and Retinex
Liu et al. Image-based attributes of multi-modality image quality for contactless biometric samples
Tao et al. LEGAN: A low-light image enhancement generative adversarial network for industrial internet of smart-cameras
Zhang et al. Advancing generalizable remote physiological measurement through the integration of explicit and implicit prior knowledge
TWI729338B (en) Skin detection method and image processing device
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP2023133002A (en) Gray hair evaluation system and gray hair evaluation method
Pu et al. Non-Uniform Illumination Image Enhancement via a Retinal Mechanism Inspired Decomposition
JP2007243987A (en) Image processing method, image processing system, and image processing program
JP2024019864A (en) Skin evaluation system and skin evaluation method
JP2024098259A (en) Organ evaluation system and organ evaluation method
CN108986052B (en) Self-adaptive image illumination removing method and system
JP2024052215A (en) Hypertension evaluation system and hypertension evaluation method