JP2023133002A - Gray hair evaluation system and gray hair evaluation method - Google Patents
Gray hair evaluation system and gray hair evaluation method Download PDFInfo
- Publication number
- JP2023133002A JP2023133002A JP2022038641A JP2022038641A JP2023133002A JP 2023133002 A JP2023133002 A JP 2023133002A JP 2022038641 A JP2022038641 A JP 2022038641A JP 2022038641 A JP2022038641 A JP 2022038641A JP 2023133002 A JP2023133002 A JP 2023133002A
- Authority
- JP
- Japan
- Prior art keywords
- image
- evaluation
- hair
- gray hair
- wavelength
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000004209 hair Anatomy 0.000 title claims abstract description 206
- 238000011156 evaluation Methods 0.000 title claims abstract description 152
- 238000001228 spectrum Methods 0.000 claims abstract description 70
- 230000003595 spectral effect Effects 0.000 claims description 78
- 238000003384 imaging method Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 21
- 238000010801 machine learning Methods 0.000 claims description 14
- 238000013210 evaluation model Methods 0.000 claims description 13
- 238000009499 grossing Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 210000004761 scalp Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、白髪評価システム及び白髪評価方法に関する。 The present invention relates to a gray hair evaluation system and a gray hair evaluation method.
白髪を評価するための方法として、例えば特許文献1に開示されている白髪の評価方法がある。
As a method for evaluating gray hair, for example, there is a method for evaluating gray hair disclosed in
特許文献1では、検査対象の測定部位を特定し、毛髪固定部材を介して、特定された測定部位に存在する毛髪群を整列して配列毛髪群を得ることにより、毛髪群の乱れが解消されて整列された状態で、白髪を評価することが可能となる白髪の評価方法が開示されている。
In
しかしながら、特許文献1に開示されている白髪の評価方法では、検査対象を毛髪固定部材を介して、毛髪群を整列させるため、特定の毛髪を固定するための部材が必要となる。このため、白髪の評価に時間が必要となり、また、毛髪を固定するための技術を必要とするため、遠隔操作により白髪を評価することができないという問題点があった。
However, in the gray hair evaluation method disclosed in
そこで本発明は、上述した問題点を解決するために導出されたものであり、その目的とするところは、白髪を高精度かつ遠隔操作で評価できることが可能な白髪評価システム及び白髪評価方法を提供することにある。 Therefore, the present invention was developed in order to solve the above-mentioned problems, and its purpose is to provide a gray hair evaluation system and method that can evaluate gray hair with high precision and by remote control. It's about doing.
第1発明に係る白髪評価システムは、髪を含む画像を取得する取得手段と前記取得手段により取得された画像に基づくスペクトル画像を取得するスペクトル取得手段と、前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価手段とを備えることを特徴とする。 A gray hair evaluation system according to a first aspect of the present invention includes an acquisition means for acquiring an image including hair, a spectrum acquisition means for acquiring a spectrum image based on the image acquired by the acquisition means, and a spectrum image acquired by the spectrum acquisition means. and evaluation means for evaluating gray hair contained in the hair based on the above.
第2発明に係る白髪評価システムは、第1発明において、前記評価手段は、前記スペクトル取得手段により取得されたスペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、前記正規化波長と前記評価波長との間において、前記正規化波長と前記評価波長との分光強度の差に基づいて前記髪に含まれる白髪を評価することを特徴とする。 In the gray hair evaluation system according to a second invention, in the first invention, the evaluation means sets a specific wavelength included in a predetermined wavelength range as a normalized wavelength based on the spectrum image acquired by the spectrum acquisition means, and A specific wavelength included in the wavelength range is selected as the evaluation wavelength, and between the normalized wavelength and the evaluation wavelength, gray hairs included in the hair are determined based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength. It is characterized by evaluating.
第3発明に係る白髪評価システムは、第2発明において、前記評価手段は、730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択することを特徴とする。 In the gray hair evaluation system according to a third aspect, in the second aspect, the evaluation means has a specific wavelength included in a frequency band of 730 to 830 nm as a first normalized wavelength, and a specific wavelength included in a frequency band of 430 to 530 nm. is selected as the first evaluation wavelength.
第4発明に係る白髪評価システムは、第1発明において、前記評価手段は、予め取得された参照用スペクトル画像と白髪の評価とからなるデータセットを学習データとして用い、入力を前記参照用スペクトル画像とし、出力を前記白髪の評価として、機械学習により生成された評価モデルを用いて、前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価することを特徴とする。 In the gray hair evaluation system according to a fourth aspect of the invention, in the first aspect, the evaluation means uses, as learning data, a dataset consisting of a reference spectral image acquired in advance and an evaluation of gray hair, and inputs the reference spectral image. The method is characterized in that the output is an evaluation of the gray hair, and the gray hair contained in the hair is evaluated based on the spectrum image acquired by the spectrum acquisition means using an evaluation model generated by machine learning.
第5発明に係る白髪評価システムは、第1発明~第4発明のいずれかにおいて、前記スペクトル取得手段は、前記取得手段により取得された画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した前記波長を示す前記スペクトル画像を取得することを特徴とする。 In the gray hair evaluation system according to a fifth invention, in any one of the first to fourth inventions, the spectrum acquisition means determines a reference wavelength indicating a hair wavelength acquired in advance from the image acquired by the acquisition means. The method is characterized in that a wavelength for which a difference between the two wavelengths is equal to or less than a threshold value is extracted, and the spectrum image indicating the extracted wavelength is acquired.
第6発明に係る白髪評価システムは、第1発明~第4発明のいずれかにおいて、前記スペクトル取得手段は、予め取得された参照用画像と髪を示すスペクトル画像とからなるデータセットを学習データとして用い、入力を参照用画像とし、出力をスペクトル画像として、機械学習により生成された抽出モデルを用いて、前記取得手段により取得された画像に基づいて、前記髪を示すスペクトル画像を取得することを特徴とする。 A gray hair evaluation system according to a sixth invention is characterized in that in any one of the first to fourth inventions, the spectrum acquisition means uses a dataset consisting of a reference image acquired in advance and a spectrum image showing hair as learning data. a spectral image showing the hair based on the image acquired by the acquisition means, using an extraction model generated by machine learning, with the input as a reference image and the output as a spectral image. Features.
第7発明に係る白髪評価システムは、第1発明~第5発明のいずれかにおいて、前記取得手段は、白板を撮像した白板画像を取得し、前記スペクトル取得手段は、前記取得手段により取得された前記白板画像に対する前記画像の相対反射率に基づくスペクトル画像を取得することを特徴とする。 In the gray hair evaluation system according to a seventh aspect of the present invention, in any one of the first to fifth aspects, the acquisition means acquires a whiteboard image obtained by capturing a whiteboard, and the spectrum acquisition means acquires a whiteboard image obtained by the acquisition means. The method is characterized in that a spectrum image is acquired based on the relative reflectance of the image with respect to the white board image.
第8発明に係る白髪評価システムは、第7発明において、前記取得手段は、前記白板画像を撮像したときの撮像条件を示す撮像条件情報を取得し、取得した撮像条件情報に応じて、前記画像を補正することを特徴とする。 In the gray hair evaluation system according to an eighth aspect, in the seventh aspect, the acquisition means acquires imaging condition information indicating the imaging conditions when the white board image is imaged, and according to the acquired imaging condition information, the gray hair evaluation system It is characterized by correcting.
第9発明に係る白髪評価システムは、第1発明~第8発明のいずれかにおいて、前記取得手段は、平滑化された画像と平滑化される前の画像とに基づいて先鋭化された前記画像を取得することを特徴とする。 In the gray hair evaluation system according to a ninth invention, in any one of the first to eighth inventions, the acquisition means sharpens the image based on the smoothed image and the unsmoothed image. It is characterized by acquiring.
第10発明に係る白髪評価方法は、髪を含む画像を取得する取得ステップと前記取得ステップにより取得された画像に基づく、スペクトル画像を取得するスペクトル取得ステップと、前記スペクトル取得ステップにより取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価ステップとをコンピュータに実行させることを特徴とする。 A gray hair evaluation method according to a tenth invention includes an acquisition step of acquiring an image including hair, a spectrum acquisition step of acquiring a spectrum image based on the image acquired by the acquisition step, and a spectrum acquired by the spectrum acquisition step. The present invention is characterized by causing a computer to execute an evaluation step of evaluating gray hair contained in the hair based on the image.
第1発明~第10発明によれば、白髪評価システム及び白髪評価方法は、スペクトル画像に基づき、髪に含まれる白髪を評価する。これにより、白髪を高精度かつ遠隔操作で評価できることが可能となる。 According to the first to tenth inventions, the gray hair evaluation system and the gray hair evaluation method evaluate gray hair contained in hair based on a spectral image. This makes it possible to evaluate gray hair with high precision and remote control.
特に、第2発明によれば、正規化波長と評価波長との分光強度の差に基づいて髪に含まれる白髪を評価する。これにより、撮像されたスペクトル画像の特徴を分離することができる。このため、より高精度に白髪を評価することができる。 In particular, according to the second invention, gray hair contained in hair is evaluated based on the difference in spectral intensity between the normalized wavelength and the evaluation wavelength. This makes it possible to separate the features of the captured spectral image. Therefore, gray hair can be evaluated with higher accuracy.
特に、第3発明によれば、730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択する。これにより、第1正規化波長と第1評価波長とをそれぞれ適した周波数帯の波長を利用できるため、より正確に評価することが可能となる。 In particular, according to the third invention, a specific wavelength included in the frequency band of 730 to 830 nm is selected as the first normalized wavelength, and a specific wavelength included in the frequency band of 430 to 530 nm is selected as the first evaluation wavelength. Thereby, wavelengths in appropriate frequency bands can be used as the first normalized wavelength and the first evaluation wavelength, so that more accurate evaluation can be performed.
特に、第4発明によれば、評価モデルを用いて、スペクトル画像に基づき、髪に含まれる白髪を評価する。これにより、機械学習により高精度に白髪を評価することが可能となる。 In particular, according to the fourth invention, gray hair contained in hair is evaluated using an evaluation model based on a spectral image. This makes it possible to evaluate gray hair with high precision using machine learning.
特に、第5発明によれば、画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した波長を示すスペクトル画像を取得する。これにより、画像に含まれる毛髪のみを抽出し、頭皮等のノイズを排除することが可能となるため、より高精度に白髪の評価が可能となる。 In particular, according to the fifth invention, a wavelength whose difference from a reference wavelength indicating a hair wavelength obtained in advance is equal to or less than a threshold is extracted from the image, and a spectral image indicating the extracted wavelength is obtained. This makes it possible to extract only the hair included in the image and exclude noise from the scalp, etc., making it possible to evaluate gray hair with higher accuracy.
特に、第6発明によれば、抽出モデルを用いて、画像に基づいて、髪を示すスペクトル画像を取得する。これにより、画像に含まれる毛髪のみを抽出し、頭皮等のノイズを排除することが可能となるため、より高精度に白髪の評価が可能となる。 In particular, according to the sixth invention, a spectral image showing hair is acquired based on the image using the extraction model. This makes it possible to extract only the hair included in the image and exclude noise from the scalp, etc., making it possible to evaluate gray hair with higher accuracy.
第7発明によれば、白板画像に対する画像の相対反射率に基づくスペクトル画像を取得する。これにより、白板画像を基準としてスペクトル画像を取得するため、ノイズを排除した画像を用いることが可能となる。 According to the seventh invention, a spectrum image is acquired based on the relative reflectance of the image with respect to the white board image. As a result, a spectral image is acquired using the white board image as a reference, so it is possible to use an image from which noise has been eliminated.
第8発明によれば、撮像条件情報を取得し、取得した撮像条件情報に応じて、画像を補正する。これにより、撮影時の光量等の条件を補正することが可能となり、ノイズを排除した画像を用いることが可能となる。 According to the eighth invention, imaging condition information is acquired, and the image is corrected according to the acquired imaging condition information. This makes it possible to correct conditions such as the amount of light at the time of photographing, and it becomes possible to use an image free of noise.
第9発明によれば、平滑化された画像と平滑化される前の画像に基づいて先鋭化された画像を取得する。これにより、例えば平滑化された画像と平滑化される前の画像との差分に基づいて画像を先鋭化することが可能となる。これにより、精度よく先鋭化された画像を用いることが可能となる。 According to the ninth invention, a sharpened image is obtained based on the smoothed image and the image before smoothing. This makes it possible to sharpen an image, for example, based on the difference between a smoothed image and an image before smoothing. This makes it possible to use an image sharpened with accuracy.
以下、本発明を適用した実施形態における白髪評価システムの一例について、図面を用いて説明する。 An example of a gray hair evaluation system according to an embodiment of the present invention will be described below with reference to the drawings.
図1は、白髪評価システム100の構成の一例を示す模式図である。白髪評価システム100は、例えば図1に示すように、白髪評価装置1と、サーバ3と、撮像装置5と照明器具6とを有するユーザ端末2とが公共通信網4を介して接続される。また、白髪評価システム100は、公共通信網4を介することなく接続された、白髪評価装置1と撮像装置5とのみを備えていてもよい。
FIG. 1 is a schematic diagram showing an example of the configuration of a gray
サーバ3は、白髪評価装置1及びユーザ端末2から送信された画像等の各種データを記憶する記憶媒体である。また、サーバ3は、必要に応じて記憶した各種データを白髪評価装置1及びユーザ端末2に送信する。サーバ3は、例えば白髪評価装置1の備える機能のうち、少なくとも一部の機能を備えてもよく、例えば白髪評価装置1の代わりに少なくとも一部の処理を行ってもよい。
The
公共通信網4は、例えば白髪評価装置1が通信回路を介して接続されるインターネット網等である。公共通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、公共通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。ユーザ端末2は、例えば白髪評価システム100を用いたサービスのユーザ等が保有し、公共通信網4を介して白髪評価装置1と接続される。ユーザ端末2は、例えばデータベースを生成する電子機器を示してもよい。ユーザ端末2は、例えばパーソナルコンピュータや、タブレット端末等の電子機器が用いられる。ユーザ端末2は、例えば白髪評価装置1の備える機能のうち、少なくとも一部の機能を備えてもよい。ユーザ端末2は、ユーザに白髪の評価結果を提示できる図示しないディスプレイ、又はスピーカを備えていてもよい。
The
照明器具6は、撮像装置5によるユーザの髪を含む画像を撮像する際に、ユーザの頭部を照らす任意の照明器具である。
The
撮像装置5は、ユーザの髪を撮像して画像及びスペクトル画像を生成する公知のカメラである。撮像装置5として、例えばRGBカメラ、マルチスペクトルカメラ、ターゲットスペクトルカメラ、ハイパースペクトルカメラ等が用いられてもよい。撮像装置5は、例えば動画を撮影するビデオカメラであってもよく、白髪評価装置1に内蔵されてもよい。撮像装置5がスペクトルビデオカメラの場合は、例えば撮像された動画の一部からスペクトル画像が抽出されてもよい。撮像装置5は、撮像した画像をユーザ端末2に出力する。また、撮像装置5は、ユーザ端末2を介することなく、公共通信網4を介して、白髪評価装置1に撮像した画像を出力してもよい。
The
白髪評価装置1は、ユーザ端末2から出力された画像及びスペクトル画像に基づいて、それぞれ処理を行う。白髪評価装置1は、例えばパーソナルコンピュータ(PC)等の電子機器が用いられるほか、例えばスマートフォン、タブレット型端末、ウェアラブル端末、IoT(Internet of Things)デバイス等の電子機器、Raspberry Pi(登録商標)等のシングルボードコンピュータが用いられてもよく、例えば撮像装置5が内蔵されてもよい。
The gray
白髪評価装置1は、例えば撮像装置5から出力された髪を含む画像を取得し、取得した画像に基づく、スペクトル画像を取得し、取得したスペクトル画像に基づき、髪に含まれる白髪を評価する。
The gray
次に図2を参照して、本実施形態における白髪評価装置1の一例を説明する。図2(a)は、本実施形態における白髪評価装置1の構成の一例を示す模式図であり、図2(b)は、本実施形態における白髪評価装置1の機能の一例を示す模式図である。
Next, with reference to FIG. 2, an example of the gray
白髪評価装置1は、例えば図2(a)に示すように、筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105~107とを備える。CPU101と、ROM102と、RAM103と、保存部104と、I/F105~107とは、内部バス110により接続される。
As shown in FIG. 2A, for example, the gray
CPU101は、白髪評価装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、画像やスペクトル画像、抽出モデル及び評価モデル等の各種情報が保存される。保存部104は、例えばHDD(Hard Disk Drive)の他、SSD(Solid State Drive)やSDカード、miniSDカード等のデータ保存装置が用いられる。なお、例えば白髪評価装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。
The
I/F105は、公共通信網4を介して各種情報の送受信を行うためのインターフェースである。I/F106は、入力部108との情報の送受信を行うためのインターフェースである。入力部108として、例えばキーボードが用いられ、白髪評価装置1を利用する評価者等は、入力部108を介して、各種情報又は白髪評価装置1の制御コマンド等を入力する。I/F107は、表示部109との各種情報の送受信を行うためのインターフェースである。表示部109は、保存部104に保存された評価結果等の各種情報、または白髪評価装置1の処理状況等を出力する。表示部109として、ディスプレイが用いられ、例えばタッチパネル式でもよい。
The I/
保存部104は、例えば撮像装置2から取得した画像及びスペクトル画像が記憶されるほか、スペクトル画像等に関連する情報、白髪の評価に用いられるアルゴリズム、抽出モデル及び評価モデル等が記憶される。
The
表示部109は、各種情報を表示する。表示部109は、例えば評価結果、画像等を表示する。
The
図2(b)は、白髪評価装置1の機能の一例を示す模式図である。白髪評価装置1は、取得部11と、画像処理部12と、評価部13と、記憶部14と、出力部15と、変換部16と、抽出部17とを備える。なお、図2(b)に示した取得部11と、画像処理部12と、評価部13と、記憶部14と、出力部15と、変換部16と、抽出部17とは、CPU101が、RAM103を作業領域として、保存部104等に保存されたプログラムを実行することにより実現され、例えば人工知能により制御されてもよい。
FIG. 2(b) is a schematic diagram showing an example of the functions of the gray
取得部11は、画像及びスペクトル画像を取得する。取得部11は、撮像装置5が撮像した画像を、ユーザ端末2を介して取得する他、例えば白髪評価装置1に内蔵された撮像装置5から、画像及びスペクトル画像を取得するようにしてもよい。また、サーバ3等から公共通信網4を介して画像及びスペクトル画像を取得してもよい。なお、取得部11が各種情報を取得する頻度、及び周期は、任意である。
The
画像処理部12は、取得部11により取得された画像に補正等の処理を行う。
The
変換部16は、画像処理部12により処理された画像に基づいて、スペクトル画像を取得する。かかる場合、例えば変換部16は、画像を、画像に含まれるスペクトルを示すスペクトル画像に変換する。
The
抽出部17は、変換部16により取得されたスペクトル画像から、髪を示すスペクトル画像を抽出する。
The
評価部13は、抽出部17により抽出されたスペクトル画像に基づき、白髪を評価する。
The
記憶部14は、保存部104に保存された各種情報を必要に応じて取り出す。記憶部14は、取得部11と、画像処理部12と、評価部13と、変換部16と、抽出部17とにより取得又は出力された各種情報を、保存部104に保存する。
The
出力部15は、各種情報を出力する。出力部15は、I/F107を介して表示部109に評価結果を送信する。
The
次に、本実施形態における白髪評価システム100の動作の一例について説明する。図4は、本実施形態における白髪評価システム100の動作の一例を示すフローチャートである。
Next, an example of the operation of the gray
まず、ステップS110において、取得部11は、髪を含む画像を取得する。かかる場合、例えば撮像装置2により撮像された画像を公共通信網4を介して取得してもよい。また、撮像装置2により、画像を撮像するとき、照明器具6を用いてユーザの頭部に光を照射してもよいがこの限りではなく、照明器具6を用いることなく画像を撮像してもよい。また、例えばサーバ3に記憶されている髪を含む画像を、公共通信網4を介して取得してもよい。取得部11は、撮像装置5により撮像された画像を、I/F105を介して取得してもよい。取得部11は、例えば記憶部14を介して、画像を保存部104に保存する。髪を含む画像は、例えば図4(a)に示すような、人の頭髪を含む画像であり、人の頭皮を含んでもよい。
First, in step S110, the
次に、ステップS120において、画像処理部12は、ステップS110において、取得部11により取得された画像に補正等の処理を行う。画像処理部12は、例えば画像を平滑化し、平滑化された画像と平滑化される前の画像に基づいて、画像を先鋭化してもよい。かかる場合、まず画像処理部12は、例えばミディアンフィルタ、ガウシアンフィルタ、移動平均、Savitzky-Golay法等を用いて、画像を平滑化する。次に画像処理部12は、ラプラシアンフィルタ(2階微分)、アンシャープ方式を用いて、画像を先鋭化する。かかる場合、画像処理部12は、例えば平滑化された画像と平滑化される前の画像との差分を算出し、差分を大きくするように画像を先鋭化する。平滑化は、画像をぼかすことであり、例えば画像の画素値の変化を小さくする処理である。先鋭化は、例えば画像の画素値の変化を大きくする処理である。
Next, in step S120, the
次に、ステップS130において、変換部16は、画像処理部12より処理された画像に基づく、スペクトル画像を取得する。変換部16は、例えば白板を撮像した白板画像に対する画像の相対反射率に基づくスペクトル画像を取得する。白板は、一定の反射率を要する基準板である。これにより照明光源の変動によらず、白髪およびその他構成物の相対反射率を算出し、比較することができる。
Next, in step S130, the
また、ステップS130において、変換部16は、白板を撮像するときの撮像するときの条件である撮像条件と、人の髪を撮像するときの撮像条件とに基づいて、画像を補正してもよい。撮像条件は、例えば撮像するときのゲイン、露光時間、明るさ等である。例えば、変換部16は、白板画像を撮像するときの照明器具6の光強度と、画像を撮像するときの照明器具6の光強度の差に基づいて、画像のゲイン及び露光時間を補正する。
Further, in step S130, the
次に、ステップS140において、抽出部17は、ステップS130において取得したスペクトル画像から髪を示すスペクトルを抽出する。例えば抽出部17は、画像から、予め取得された髪の波長を示す基準波長との差分が閾値以下となる波長を抽出し、抽出した波長を示すスペクトル画像を取得する。例えば抽出部17は、SAM(Spectral Angle Mapper)法等を用いて、予め取得された髪の波長を示す基準波長と近似するスペクトルを抽出する。基準波長は、例えば380nm~900nmの波長範囲内から選択した任意の波長である。これにより、画像に含まれる毛髪のみを抽出し、頭皮等のノイズを排除することが可能となる。
Next, in step S140, the
また、ステップS140において、抽出部17は、予め取得された参照用画像と髪を示すスペクトル画像とからなるデータセットを学習データとして用い、入力を画像とし、出力をスペクトル画像として、機械学習により生成された抽出モデルを用いて、ステップS110により取得された画像に基づいて、髪を示すスペクトル画像を抽出してもよい。
In addition, in step S140, the
抽出モデルの生成方法として、例えばニューラルネットワークをモデルとした機械学習を用いて、抽出モデルを生成してもよい。抽出モデルは、例えばCNN(Convolution Neural Network)等のニューラルネットワークをモデルとした機械学習を用いて生成されるほか、任意のモデルが用いられてもよい。 As a method for generating the extraction model, for example, machine learning using a neural network as a model may be used to generate the extraction model. The extracted model may be generated using machine learning using a neural network such as CNN (Convolution Neural Network) as a model, or any other model may be used.
かかる場合、抽出モデルには、例えば図5のように、入力データである参照用画像と出力データである髪を示すスペクトル画像との間における連関度を有する連関性が記憶される。連関度は、入力データと出力データとの繋がりの度合いを示しており、例えば連関度が高いほど各データの繋がりが強いと判断することができる。連関度は、例えば百分率等の3値以上又は3段階以上で示されるほか、2値又は2段階で示されてもよい。また、参照用画像は、予め取得した学習データに用いるための髪を含む画像である。また、髪を示すスペクトル画像は、ステップS140と同様の方法で取得したスペクトル画像はであってもよい。髪を示すスペクトル画像は、例えば髪を含むスペクトル画像から、SAM法等を用いて、予め取得された髪の波長を示す基準波長と近似するスペクトルを抽出したスペクトル画像であってもよい。 In such a case, the extraction model stores a relationship having a degree of association between a reference image that is input data and a spectral image showing hair that is output data, as shown in FIG. 5, for example. The degree of association indicates the degree of connection between input data and output data, and for example, it can be determined that the higher the degree of association, the stronger the connection between each piece of data. The degree of association may be expressed in three or more values or three or more levels, such as a percentage, or may be expressed in binary values or two levels. Further, the reference image is an image including hair to be used as learning data acquired in advance. Further, the spectral image showing the hair may be a spectral image obtained by the same method as in step S140. The spectral image showing hair may be, for example, a spectral image obtained by extracting a spectrum similar to a reference wavelength representing the wavelength of hair acquired in advance from a spectral image including hair using the SAM method or the like.
例えば連関性は、複数の入力データ、対、複数の出力データの間における繋がりの度合いにより構築される。連関性は、機械学習の過程で適宜更新され、例えば複数の入力データ、及び複数の出力データに基づいて最適化された関数を用いた分類器を示す。なお、連関性は、例えば各データの間における繋がりの度合いを示す複数の連関度を有してもよい。連関度は、例えばデータベースがニューラルネットワークで構築される場合、重み変数に対応させることができる。連関性は、例えば図5に示すように、複数の入力データと、複数の出力データとの間における繋がりの度合いを示してもよい。この場合、連関性を用いることで、図6の「画像A」~「画像C」のそれぞれの入力データに対し、「スペクトル画像A」~「スペクトル画像C」の複数の出力データとの関係の度合いを紐づけて記憶させることができる。このため、例えば連関性を介して、1つの出力データに対して、複数の入力データを紐づけることができる。これにより、入力データに対して多角的な出力データの選択を実現することができる。 For example, the association is constructed based on the degree of connection between a plurality of input data, a pair, and a plurality of output data. The association is appropriately updated in the process of machine learning, and indicates a classifier that uses a function that is optimized based on, for example, a plurality of input data and a plurality of output data. Note that the association may include, for example, a plurality of degrees of association indicating the degree of connection between each piece of data. For example, when a database is constructed using a neural network, the degree of association can be made to correspond to a weight variable. For example, as shown in FIG. 5, the association may indicate the degree of connection between a plurality of input data and a plurality of output data. In this case, by using the association, the relationship between each input data of "Image A" to "Image C" in FIG. It is possible to associate and memorize the degree. Therefore, a plurality of input data can be linked to one output data, for example, through association. Thereby, it is possible to realize multifaceted selection of output data with respect to input data.
連関性は、例えば各入力データと、各出力データとをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、入力データに含まれる「画像A」は、出力データに含まれる「スペクトル画像A」との間の連関度AA「73%」を示し、出力データに含まれる「スペクトル画像B」との間の連関度AB「12%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。 The association includes, for example, a plurality of degrees of association that link each input data and each output data, respectively. The degree of association is expressed in three or more levels, such as a percentage, 10 levels, or 5 levels, and is expressed, for example, as line characteristics (such as thickness). For example, "Image A" included in the input data shows a degree of association AA "73%" with "Spectral image A" included in the output data, and a correlation degree of AA "73%" with "Spectral image B" included in the output data. The degree of association AB is "12%". That is, the "degree of association" indicates the degree of connection between each piece of data, and for example, the higher the degree of association, the stronger the connection between each piece of data.
このような図5に示す3段階以上の連関度を予め取得しておく。つまり実際の解の判別を行う上で、入力データと、出力データとの何れが採用、評価されたか、過去のデータセットを蓄積しておき、これらを分析、解析することで図5に示す連関度を作り上げておく。 The degree of association of three or more levels shown in FIG. 5 is obtained in advance. In other words, in determining the actual solution, whether input data or output data was adopted and evaluated can be determined by accumulating past datasets and analyzing them to determine the relationship shown in Figure 5. Build up your degree.
例えば、過去において「画像B」という入力データに対して、「スペクトル画像B」が最も適合性が高いと判断され、評価されたものとする。このようなデータセットを集めて分析することにより、入力データと出力データとの連関度が強くなる。 For example, assume that "spectral image B" was determined to have the highest suitability for input data "image B" and was evaluated in the past. By collecting and analyzing such data sets, the degree of correlation between input data and output data becomes stronger.
この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば「画像B」という入力データに対して、「スペクトル画像B」が推定される事例が多い場合には、この「画像B」と「スペクトル画像B」とにつながる連関度をより高く設定する。 This analysis may be performed by artificial intelligence. In such a case, for example, if there are many cases where "spectral image B" is estimated for the input data "image B", the degree of association between "image B" and "spectral image B" is calculated. Set higher.
また、この連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。 Further, this degree of association may be composed of nodes of a neural network in artificial intelligence. That is, the weighting coefficient for the output of this neural network node corresponds to the degree of association described above. Moreover, it is not limited to a neural network, and may be composed of any decision-making factors that constitute artificial intelligence.
また、抽出モデルは、入力データと出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。 Furthermore, the extraction model may include at least one hidden layer between input data and output data, and may be subjected to machine learning. The above-described degree of association is set for either or both of the input data and the hidden layer data, and this serves as a weighting for each data, and the output is selected based on this. Then, when this degree of association exceeds a certain threshold value, the output may be selected.
このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから新たに画像から髪を示すスペクトル画像の推定を行うこととなる。かかる場合には、ステップS120により処理された画像に対する髪を示すスペクトル画像を新たに取得する。推定の際には、例えば予め取得した図5に示す連関度を参照する。例えば、新たに取得した画像が「画像A」と同一かこれに類似するものである場合には、連関度を介して「スペクトル画像A」との間の連関度AA「73%」、「スペクトル画像B」との間の連関度AB「12%」で関連付けられている。この場合には、連関度の最も高い「スペクトル画像A」を最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる「スペクトル画像B」を最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。 This degree of association is what artificial intelligence calls trained data. After creating such trained data, a new spectral image representing hair is actually estimated from the image. In such a case, a spectral image showing hair for the image processed in step S120 is newly acquired. At the time of estimation, for example, the degree of association shown in FIG. 5 obtained in advance is referred to. For example, if a newly acquired image is the same as or similar to "Image A", the degree of association with "Spectrum Image A" is "73%", "Spectral Image A" is The degree of association with image B is 12%. In this case, "spectral image A" with the highest degree of association is selected as the optimal solution. However, it is not essential to select the one with the highest degree of association as the optimal solution, and it is also possible to select "spectral image B", which has a low degree of association but is recognized as being related, as the optimum solution. In addition, it is of course possible to select an output solution with no connected arrows, and any other priority order may be used as long as it is based on the degree of association.
このような連関度を参照することにより、画像が、入力データと同一又は類似である場合のほか、非類似である場合においても、入力データに適した出力データを定量的に選択することができる。 By referring to such degree of association, it is possible to quantitatively select output data suitable for the input data, not only when the images are the same or similar to the input data, but also when they are dissimilar. .
次に、ステップS150において、評価部13は、ステップS140により抽出された髪を示すスペクトル画像に基づいて、髪に含まれる白髪を評価する。例えば評価部13は、髪を示すスペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、正規化波長と評価波長との間において、正規化波長と評価波長との分光強度の差に基づいて髪に含まれる白髪を評価する。正規化波長は、例えば光のムラや影等、条件が異なっていた場合においても、それらの影響を軽減して、白髪を評価するために正規化される対象となる波長である。評価波長は、正規化波長を正規化するための評価用の波長である。
Next, in step S150, the
図6は、スペクトル画像が示す複数のスペクトルグラフである。図6は、縦軸を光の強度、横軸を波長[nm]とするグラフである。複数のスペクトルグラフの実線、破線の各々は、例えば撮像された各画像毎のスペクトルに対応する。評価部13は、例えば730~830nmの周波数帯に含まれる特定波長を第1正規化波長とし、430~530nmの周波数帯に含まれる特定波長を第1評価波長として選択する。評価部13は、例えば780nmを第1正規化波長とし、480nmを第1評価波長としてもよい。
FIG. 6 is a plurality of spectral graphs shown by the spectral image. FIG. 6 is a graph in which the vertical axis represents the intensity of light and the horizontal axis represents the wavelength [nm]. Each of the solid lines and broken lines of the plurality of spectral graphs corresponds to, for example, a spectrum of each captured image. For example, the
評価部13は、このようなスペクトルグラフに含まれる波長を特定波長とし、正規化波長、及び評価波長として選択する。評価部13は、各スペクトルグラフ間のスペクトル強度の差分値が最も大きくなる波長を特定波長としてもよい。また、評価部13は、各スペクトルグラフ上で凸のピークが形成されている特異点を特定波長として特定するようにしてもよい。また、評価部13は、回帰分析、総当たり解析、機械学習等を用いた学習済みモデルを用いた解析により、特定波長を選択してもよい。
The
ここで、例えば正規化波長及び評価波長は、1点で特定してもよいし、複数を特定してもよい。また、これらの正規化波長及び評価波長を中心とした波長範囲を設定するようにしてもよい。波長範囲は、例えば正規化波長及び評価波長の差が±10nmとなる波長幅等のように、予め設定した所定の波長範囲で構成されてもよい。このため、仮に正規化波長が780nmであり、波長範囲が±10nmであれば、実際にスペクトルデータを評価する範囲は、770~790nmとなる。かかる場合、正規化波長及び評価波長の決め方としては、例えば各波長の範囲の中心の波長を特定波長としてもよい。 Here, for example, the normalized wavelength and the evaluation wavelength may be specified at one point, or may be specified at a plurality of points. Furthermore, a wavelength range centered around these normalized wavelengths and evaluation wavelengths may be set. The wavelength range may be a predetermined wavelength range set in advance, such as a wavelength width where the difference between the normalized wavelength and the evaluation wavelength is ±10 nm. Therefore, if the normalized wavelength is 780 nm and the wavelength range is ±10 nm, the range in which spectrum data is actually evaluated will be 770 to 790 nm. In such a case, the normalization wavelength and the evaluation wavelength may be determined by, for example, setting the wavelength at the center of each wavelength range as the specific wavelength.
次に、評価部13は、選択された正規化波長と評価波長との間において、正規化波長と評価波長との分光強度の差により白髪の量を示す白髪レベルを算出し、白髪を評価する。
Next, the
評価部13は、例えば正規化波長と評価波長との分光強度の差によるスペクトル変化により白髪レベルを算出する。かかる場合、正規化波長と評価波長との分光強度の和で正規化することにより、例えば光のムラや影等、条件が異なっていた場合においても、それらの影響を軽減して、白髪レベルを比較可能にすることができる。これらの白髪レベルの算出は、例えば公知のスペクトル計測手法、スペクトル解析技法(例えば「NDSI:normalized difference spectral index、正規化分光反射指数」)等により次式により求める。「Iλ」は、例えば「λnm」の分光強度となり、正規化波長は「λ2」、評価波長は「λ1」として求められる。
評価部13は、例えばスペクトル画像の評価結果に基づいて、部位ごとのピクセルの分布から白髪レベルを付与する。また、白髪レベルとして、例えば面積当たりの白髪の量に合わせ、レベル1~5等の具体的な白髪の程度を示すようにしてもよい。
The
評価部13は、例えば保存部104に保存された出力用フォーマット等の形式データを用いて、評価結果を生成する。評価部13は、例えば記憶部14を介して、評価結果を保存部104に保存する。
The
また、ステップS150において、評価部13は、予め取得された参照用スペクトル画像と白髪の評価とからなるデータセットを学習データとして用い、入力を参照用スペクトル画像とし、出力を白髪の評価として、機械学習により生成された評価モデルを用いて、スペクトル画像に基づき、髪に含まれる白髪を評価してもよい。参照用スペクトル画像は、評価モデルの学習データとして用いるスペクトル画像であり、例えば予め取得された髪を示すスペクトル画像であるが、これに限らず、髪を示すスペクトルを含む任意の画像を用いてもよい。白髪の評価は、例えば白髪を示すスペクトルである白髪スペクトルを示すスペクトル画像である。また、白髪の評価は、例えば白髪レベルであってもよい。また、白髪の評価は、ステップS150と同様の方法で取得した白髪の評価の結果又は白髪を示すスペクトル画像であってもよい。つまり白髪の評価は、スペクトル画像に基づき、所定の波長範囲に含まれる特定波長を正規化波長とし、所定の波長範囲に含まれる特定波長を評価波長として選択し、正規化波長と評価波長との間において、正規化波長と評価波長との分光強度の差により白髪レベルを算出し、算出した白髪レベルに基づいて、取得された白髪を示すスペクトル画像であってもよい。
In addition, in step S150, the
評価モデルの生成方法として、例えばニューラルネットワークをモデルとした機械学習を用いて、評価モデルを生成してもよい。評価モデルは、例えばCNN(Convolution Neural Network) 等のニューラルネットワークをモデルとした機械学習を用いて生成されるほか、任意のモデルが用いられてもよい。 As a method for generating an evaluation model, for example, machine learning using a neural network as a model may be used to generate the evaluation model. The evaluation model may be generated using machine learning using a neural network model such as CNN (Convolution Neural Network), or any other model may be used.
かかる場合、評価モデルには、例えば図7のように、入力データである参照用スペクトル画像と出力データである白髪の評価との間における連関度を有する連関性が記憶される。 In such a case, the evaluation model stores a relationship having a degree of association between the reference spectral image that is the input data and the gray hair evaluation that is the output data, as shown in FIG. 7, for example.
また、評価モデルは、入力データと出力データとの間に少なくとも1以上の隠れ層が設けられ、機械学習させるようにしてもよい。入力データ又は隠れ層データの何れか一方又は両方において上述した連関度が設定され、これが各データの重み付けとなり、これに基づいて出力の選択が行われる。そして、この連関度がある閾値を超えた場合に、その出力を選択するようにしてもよい。 Furthermore, the evaluation model may include at least one hidden layer between input data and output data, and may be subjected to machine learning. The above-described degree of association is set for either or both of the input data and the hidden layer data, and this serves as a weighting for each data, and the output is selected based on this. Then, when this degree of association exceeds a certain threshold value, the output may be selected.
このような学習済みデータを作った後に、実際にこれから新たにスペクトル画像から白髪の評価の推定を行うこととなる。かかる場合には、ステップS140において抽出したスペクトル画像に対する白髪の評価を新たに取得する。 After creating such learned data, the evaluation of gray hair will actually be estimated from a new spectral image. In such a case, a new evaluation of gray hair is obtained for the spectrum image extracted in step S140.
このような連関度を参照することにより、スペクトル画像が、入力データと同一又は類似である場合のほか、非類似である場合においても、入力データに適した出力データを定量的に選択することができる。 By referring to this degree of association, it is possible to quantitatively select output data suitable for the input data, whether the spectral image is the same or similar to the input data, or even when it is dissimilar. can.
次に、出力部15により評価結果が出力される。出力部15は、評価結果を表示部109等に出力する。また、出力部15は、公共通信網4を介して、評価結果をユーザ端末2に出力してもよい。
Next, the
これにより、本実施形態における白髪評価装置1の動作が終了する。これにより、白髪を高精度かつ遠隔操作で評価できることが可能となる。
Thereby, the operation of the gray
本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although an embodiment of the invention has been described, this embodiment is presented by way of example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
1 :白髪評価装置
2 :ユーザ端末
3 :サーバ
4 :公共通信網
5 :撮像装置
6 :照明器具
10 :筐体
11 :取得部
12 :画像処理部
13 :評価部
14 :記憶部
15 :出力部
16 :変換部
17 :抽出部
100 :白髪評価システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部
109 :表示部
110 :内部バス
1 : Gray hair evaluation device 2 : User terminal 3 : Server 4 : Public communication network 5 : Imaging device 6 : Lighting fixture 10 : Housing 11 : Acquisition part 12 : Image processing part 13 : Evaluation part 14 : Storage part 15 : Output part 16: Conversion unit 17: Extraction unit 100: Gray hair evaluation system 101: CPU
102:ROM
103: RAM
104: Storage section 105: I/F
106: I/F
107: I/F
108: Input section 109: Display section 110: Internal bus
Claims (10)
前記取得手段により取得された画像に基づくスペクトル画像を取得するスペクトル取得手段と、
前記スペクトル取得手段により取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価手段とを備えること
を特徴とする白髪評価システム。 an acquisition means for acquiring an image including hair; a spectrum acquisition means for acquiring a spectral image based on the image acquired by the acquisition means;
A gray hair evaluation system comprising: evaluation means for evaluating gray hair contained in the hair based on the spectrum image acquired by the spectrum acquisition means.
を特徴とする請求項1に記載の白髪評価システム。 The evaluation means selects a specific wavelength included in a predetermined wavelength range as a normalized wavelength, a specific wavelength included in a predetermined wavelength range as an evaluation wavelength, based on the spectrum image acquired by the spectrum acquisition device, and Gray hair according to claim 1, characterized in that gray hair contained in the hair is evaluated based on a difference in spectral intensity between the normalized wavelength and the evaluation wavelength. Rating system.
を特徴とする請求項2に記載の白髪評価システム。 A claim characterized in that the evaluation means selects a specific wavelength included in a frequency band of 730 to 830 nm as a first normalized wavelength, and selects a specific wavelength included in a frequency band of 430 to 530 nm as a first evaluation wavelength. The gray hair evaluation system described in 2.
を特徴とする請求項1に記載の白髪評価システム。 The evaluation means uses, as learning data, a dataset consisting of a reference spectral image obtained in advance and an evaluation of gray hair, and uses the input as the reference spectral image and the output as the evaluation of gray hair, which is generated by machine learning. The gray hair evaluation system according to claim 1, characterized in that gray hair contained in the hair is evaluated based on the spectrum image acquired by the spectrum acquisition means using an evaluation model.
を特徴とする請求項1~4の何れか1項に記載の白髪評価システム。 The spectrum acquisition means extracts, from the image acquired by the acquisition means, a wavelength whose difference from a reference wavelength indicating a wavelength of hair acquired in advance is equal to or less than a threshold value, and generates the spectrum image indicating the extracted wavelength. The gray hair evaluation system according to any one of claims 1 to 4, characterized in that:
を特徴とする請求項1~4の何れか1項に記載の白髪評価システム。 The spectrum acquisition means uses a data set consisting of a reference image acquired in advance and a spectrum image showing hair as learning data, and uses the input as the reference image and the output as the spectrum image to extract data generated by machine learning. The gray hair evaluation system according to any one of claims 1 to 4, wherein a spectral image showing the hair is acquired based on the image acquired by the acquisition means using a model.
前記スペクトル取得手段は、前記取得手段により取得された前記白板画像に対する前記画像の相対反射率に基づくスペクトル画像を取得すること
を特徴とする請求項1~5の何れか1項に記載の白髪評価システム。 The acquisition means further acquires a whiteboard image obtained by capturing the whiteboard,
The spectrum acquisition means acquires a spectrum image based on the relative reflectance of the image with respect to the white board image acquired by the acquisition means.
The gray hair evaluation system according to any one of claims 1 to 5, characterized by:
を特徴とする請求項7に記載の白髪評価システム。 The gray hair according to claim 7, wherein the acquisition means acquires imaging condition information indicating the imaging conditions when the white board image was imaged, and corrects the image according to the acquired imaging condition information. Rating system.
を特徴とする請求項1~8の何れか1項に記載の白髪評価システム。 The gray hair evaluation according to any one of claims 1 to 8, wherein the acquisition means acquires the sharpened image based on the smoothed image and the image before smoothing. system.
前記取得ステップにより取得された画像に基づく、スペクトル画像を取得するスペクトル取得ステップと、
前記スペクトル取得ステップにより取得されたスペクトル画像に基づき、前記髪に含まれる白髪を評価する評価ステップとをコンピュータに実行させること
を特徴とする白髪評価方法。 an acquisition step of acquiring an image including hair; a spectral acquisition step of acquiring a spectral image based on the image acquired by the acquisition step;
A method for evaluating gray hair, comprising: causing a computer to execute an evaluation step of evaluating gray hair contained in the hair based on the spectrum image acquired in the spectrum acquisition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022038641A JP2023133002A (en) | 2022-03-11 | 2022-03-11 | Gray hair evaluation system and gray hair evaluation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022038641A JP2023133002A (en) | 2022-03-11 | 2022-03-11 | Gray hair evaluation system and gray hair evaluation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023133002A true JP2023133002A (en) | 2023-09-22 |
Family
ID=88064835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022038641A Pending JP2023133002A (en) | 2022-03-11 | 2022-03-11 | Gray hair evaluation system and gray hair evaluation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023133002A (en) |
-
2022
- 2022-03-11 JP JP2022038641A patent/JP2023133002A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ren et al. | LECARM: Low-light image enhancement using the camera response model | |
CN108197546B (en) | Illumination processing method and device in face recognition, computer equipment and storage medium | |
US9396531B2 (en) | Systems and methods for image and video signal measurement | |
US11317851B2 (en) | Skin spot evaluation apparatus, skin spot evaluation method and program | |
JP6957929B2 (en) | Pulse wave detector, pulse wave detection method, and program | |
US11682143B2 (en) | System and method for hair analysis of user | |
US12039732B2 (en) | Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
JP5591874B2 (en) | Image processing apparatus, method, and program | |
WO2022252527A1 (en) | Neural network training method and apparatus, facial recognition method and apparatus, and device and storage medium | |
CN113632143A (en) | Method and device for restoring and reconstructing light source spectrum based on hyperspectral image | |
Priya Henry et al. | Convolutional neural-network-based classification of retinal images with different combinations of filtering techniques | |
CN116645305A (en) | Low-light image enhancement method based on multi-attention mechanism and Retinex | |
Liu et al. | Image-based attributes of multi-modality image quality for contactless biometric samples | |
Tao et al. | LEGAN: A low-light image enhancement generative adversarial network for industrial internet of smart-cameras | |
Zhang et al. | Advancing generalizable remote physiological measurement through the integration of explicit and implicit prior knowledge | |
TWI729338B (en) | Skin detection method and image processing device | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
JP2023133002A (en) | Gray hair evaluation system and gray hair evaluation method | |
Pu et al. | Non-Uniform Illumination Image Enhancement via a Retinal Mechanism Inspired Decomposition | |
JP2007243987A (en) | Image processing method, image processing system, and image processing program | |
JP2024019864A (en) | Skin evaluation system and skin evaluation method | |
JP2024098259A (en) | Organ evaluation system and organ evaluation method | |
CN108986052B (en) | Self-adaptive image illumination removing method and system | |
JP2024052215A (en) | Hypertension evaluation system and hypertension evaluation method |