JP2020085856A - 推定装置、推定方法及び推定プログラム - Google Patents

推定装置、推定方法及び推定プログラム Download PDF

Info

Publication number
JP2020085856A
JP2020085856A JP2018225624A JP2018225624A JP2020085856A JP 2020085856 A JP2020085856 A JP 2020085856A JP 2018225624 A JP2018225624 A JP 2018225624A JP 2018225624 A JP2018225624 A JP 2018225624A JP 2020085856 A JP2020085856 A JP 2020085856A
Authority
JP
Japan
Prior art keywords
image data
data
skin
target
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018225624A
Other languages
English (en)
Inventor
智紀 本川
Tomonori Motokawa
智紀 本川
加藤 朋美
Tomoyoshi Kato
朋美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2018225624A priority Critical patent/JP2020085856A/ja
Publication of JP2020085856A publication Critical patent/JP2020085856A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Or Analysing Biological Materials (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】対象者の負担を軽減しながら、精度良く対象者の状態を推定することができる推定装置を提供する。【解決手段】推定装置10は、対象者Uaの対象肌細胞画像データを取得する(図8/STEP202〜STEP204及びSTEP210〜STEP212)対象肌細胞画像データ取得部112、113と、推定モデルを用いて、対象肌細胞画像データ取得部112、113が取得した対象肌細胞画像データを含むデータを前記入力データとして対象者Uaの対象項目の値を推定する(図8/STEP214〜STEP216)推定部114とを備える。【選択図】図8

Description

本発明は、推定装置、推定方法及び推定プログラムに関する。
従来、ユーザに負担をかけずにユーザの健康等の状態を判定する装置が知られている。
例えば、特許文献1には、生活分析アンケート入力手段より入力された回答群に応じて健康リスクの増減の予測を行う装置が提案されている。
特開2014−135027号公報
特許文献1によれば、アンケートへの回答という比較的負担の小さい作業でユーザの健康リスクが予測されている。しかし、アンケートにはユーザの主観が混じることが多いため、特許文献1の技術では、正確性を担保するのが難しかった。
そこで、本発明は、対象者の負担を軽減しながら、精度良く対象者の状態を推定することができる推定装置、推定方法及び推定プログラムを提供することを目的とする。
本発明の推定装置は、
複数の人のそれぞれから取得された肌の細胞の画像データを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築された推定モデルを示すデータを記憶する推定モデル記憶部と、
対象者の肌の細胞の画像データを含む入力データデータを取得する対象肌細胞画像データ取得部と、
前記推定モデルを用いて、前記対象肌細胞画像データ取得部が取得した前記対象肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定する推定部とを備えることを特徴とする。
本発明者らの検討によれば、人の肌の細胞の画像データを含むデータは、当該人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値と関連していることが判明した。
推定モデルは、この知見に基づいて構築されたモデルであって、詳しくは、複数の人のそれぞれから取得された肌の細胞の画像データを含むデータを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルである。
そして、当該構成の推定装置によれば、対象肌細胞画像データ取得部により、対象者の肌の細胞の画像データを含むデータが取得される。
そして、推定部により、前記推定モデルを用いて、前記対象肌細胞画像データ取得部が取得した前記対象肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値が推定される。
前述したように、推定モデルは、人の肌の細胞の画像データを含むデータは、当該人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す項目の値と関連していることに着目し、教師あり学習で得られたモデルである。
このため、この推定モデルを用いた推定部の推定は、比較的精度が高いと期待される。
以上の通り、本発明の推定装置によれば、対象者の肌の細胞画像データという比較的容易に取得できるデータを用いて対象者の身体情報等の対象項目の値を推定するから、対象者の負担を軽減しながら、精度良く対象者の状態を推定することができる。
本発明の推定装置において、
対象者の肌の画像データを含むデータを取得する対象肌データ取得部を備え、
前記推定モデルは、複数の人のそれぞれから取得された肌の細胞の画像データを含むデータに加え、複数の人のそれぞれから取得された肌の画像データを含むデータを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルであり、
前記推定部は、前記推定モデルを用いて、前記対象肌細胞画像データ取得部が取得した前記対象肌細胞画像データと、前記対象肌データ取得部が取得した前記対象肌データとを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定するように構成されていることが好ましい。
本発明者らの検討によれば、人の肌の細胞の画像データのみならず、人の肌の画像データも、当該人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す項目の値と関連していることが判明した。
対象者の肌の細胞の画像データに加え、対象者の肌の画像データを入力データに含めて対象項目の値を推定することにより、推定精度をさらに向上することができる。
以上の通り、本発明の推定装置によれば、対象者の肌の画像データというより容易に取得できるデータを用いて対象者の体質等の対象項目の値を推定するから、対象者の負担を軽減しながら、より精度良く対象者の状態を推定することができる。
本発明の推定装置において、
前記推定モデルは、
複数の人のそれぞれから取得された第1部位の肌の細胞の画像データを含むデータと複数の人のそれぞれから取得された第2部位の肌の細胞の画像データを含むデータを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルであり、
前記対象肌細胞画像データ取得部は、前記対象者の第1部位の肌の細胞の画像データを含むデータである第1部位肌細胞画像データを取得し、前記対象者の第2部位の肌の細胞の画像データを含むデータである第2部位肌細胞画像データを取得するように構成され、
前記推定部は、前記推定モデルを用いて、前記肌細胞画像データ取得部が取得した第1部位肌細胞画像データ及び第2部位肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定する容易に構成されていることが好ましい。
当該構成の推定装置によれば、肌細胞画像データとして前記対象者の第1部位の肌の細胞の画像データ由来のデータ及び第2部位の肌の細胞の画像データ由来のデータが用いられて対象者の体質等が推定されるので、さらに推定精度の向上を図りうる。
本発明の推定装置において、
前記推定モデルは、
複数の人のそれぞれの一の部位から取得された肌の細胞の第1種の画像データを含むデータと当該複数の人のそれぞれの当該一の部位から取得された肌の細胞の前記第1種とは異なる第2種の画像データを含むデータとを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルであり、
前記対象肌細胞画像データ取得部は、前記対象者の前記一の部位の肌の細胞の第1種の画像データを含むデータである第1種肌細胞画像データを取得し、前記対象者の当該一の部位の肌の細胞の第2種の画像データを含むデータである第2種肌細胞画像データを取得し、
前記推定部は、前記推定モデルを用いて、前記肌細胞画像データ取得部が取得した第1種肌細胞画像データ及び第2種肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定する容易に構成されていることが好ましい。
当該構成の推定装置によれば、肌細胞画像データとして同一の部位における肌の細胞の複数種類の画像データ由来のデータが用いられて対象者の体質等が推定されるので、さらに推定精度の向上を図りうる。
全体構成の一例を示す図。 サーバの構成の一例を示す図。 被験者属性データの一例を示す図。 項目データの一例を示す図。 第1部位第1種肌細胞画像データの一例を示す図。 第1部位第2種肌細胞画像データの一例を示す図。 第1部位第3種肌細胞画像データの一例を示す図。 第3部位肌画像データの一例を示す図。 モデルデータの一例を示す図。 ユーザ端末の一例を示す図。 モデル生成処理の一例のフローチャート。 推定処理の一例のフローチャート。 顔画像の一例を示す図。 出力画面の一例を示す図。 データ解析処理の一例のフローチャート。 対象項目の値とのp値が所定の閾値以上の画像の構成要素の周波数を示すリストの一例。 データ調整・学習・評価処理の一例のフローチャート。 対象項目の値と画像データの構成要素の周波数のそれぞれとの相関係数、寄与率を示すリストの一例。 推定式の係数及び定数を示すリストの一例。 推定式による推定処理の一例のフローチャート。
図1〜図16を参照しながら、本発明の実施形態について説明する。
図1に示されるように、ネットワーク1を介してサーバ10と、一又は複数のユーザ端末30(図1では、ユーザ端末30a、30b、30cを例示)とが互いに通信可能に接続されている。サーバ10が、本発明の「推定装置」に相当する。ユーザ端末30のユーザU(図1では、ユーザUa、Ub、Ucを例示)は、角質採取テープ40(図1では、角質採取テープ40a、40b、40cを例示)を使用して、自己の肌細胞を採取し、採取後の角質採取テープ40を所定の住所に送付する。
(サーバ10の構成)
サーバは、図2に示されるように、サーバ制御部11と、サーバ記憶部12と、サーバ通信部13と、サーバ撮像部14とを備える。サーバ記憶部12が、本発明の「推定モデル記憶部」の一例に相当する。
サーバ制御部11は、例えば、CPU、キャッシュメモリ及びI/Oデバイスにより構成されうる。サーバ制御部11は、サーバ記憶部12に記憶された推定プログラムSPを読み込んで実行することにより、モデル生成部111、データ認識部112、画像調整部113、推定部114、出力情報生成部115及び送信制御部116として機能する。本実施形態では、データ認識部112及び画像調整部113が本発明の「対象肌細胞画像データ取得部」の一例に相当する。また、本実施形態では、データ認識部112及び画像調整部113が本発明の「対象肌画像データ取得部」の一例に相当する。
サーバ記憶部12は、例えば、メモリ及びHDDなどにより構成されている。
サーバ記憶部12は、教師データTDi(iは、教師データのそれぞれを識別するための番号であり、1<=i<=N)と、検証データCDj(jは検証データのそれぞれを識別するための番号であり、1<=j<=M)と、モデルデータMDと、推定プログラムSPとを記憶している。
教師データTDi及び検証データCDjは、本処理の実施前にN+M人の被験者を集めて、後述するような方法で収集されうる。
各教師データTDiは、一人の被験者由来のデータである。以下では、教師データTDi及びそれに含まれるデータの由来元の被験者を被験者iと表す。教師データTDiは、モデル生成部111による処理を実行する前に、被験者iの協力を得て被験者iから取得されたデータである。
教師データTDiは、被験者属性データZiと、項目データKiと、第1部位第1種肌細胞画像データS11iと、第1部位第2種肌細胞画像データS12iと、第1部位第3種肌細胞画像データS13iと、第2部位第1種肌細胞画像データS21iと、第2部位第2種肌細胞画像データS22iと、第2部位第3種肌細胞画像データS23iと、第3部位肌画像データH3iと、第4部位肌画像データH4iと、舌画像データBiと、肌スコアデータHSiとを含む。各画像データは、カラーの画像データであり、例えば、各画素についてそれぞれ、色(赤,緑,青など)を示す値及び透明度を示す値のセットで示されるデータである。また次元圧縮などにより画像変換した情報を使う場合もある
被験者属性データZiは、図3Aに示されるように、被験者iの属性を示すデータであり、例えば、被験者iの性別、年齢、住所、学歴、勤務先及び職業などを示すデータである。被験者属性データZiは、例えば、被験者iからのアンケートの回答などから取得されうる。
項目データKiは、図3Bに示されるように、被験者iの生活習慣、印象、身体情報、体調、体質、感情及び気質の少なくとも1つに属する項目に関するデータであり、項目データKiの値のタイプと、被験者iの実際の値KViとを含むデータである。項目データKiの値のタイプは、例えば、YESかNOなどの2つの選択肢、または、「とても健康」、「どちらかといえば健康」、「どちらかといえば不健康」、「とても不健康」などの定性評価の3つ以上の選択肢、飲酒量などの定量評価される数値などがある。
被験者iの生活習慣とは、被験者iが生活するうえで繰り返し行う行動のことを意味する。生活習慣は、必ずしも被験者iが定期的に行う行動のみならず、被験者iが不定期に行う行動も含む。また、生活習慣は、被験者iが行う行動のみならず、朝食を食べない等、被験者iが行わない行動も含む。被験者iのアンケートに対する回答から、被験者iの生活習慣に関する項目の値が取得されうる。生活習慣に関する項目の値は、例えば、対象の行動にかかる実施頻度、継続時間、対象の行動により摂取される飲食物の量などで表現されうる。
生活習慣に関する項目は、例えば、1日当たりの食事以外の水分の摂取量若しくは水分の摂取頻度、1日当たりのコーヒー等の特定飲料の摂取量若しくは特定飲料を飲む頻度、1日当たりの飲酒量若しくは飲酒頻度、飲みすぎたと感じる頻度、緑黄色野菜、果物、ファーストフード等の特定食物の摂取量若しくは特定食物を食べる頻度、昼食、夕食などの食事タイミングにおけるコンビニエンスストア等の特定店舗の利用頻度、食べすぎる、早食い、寝る直前に食べる、深夜に食事をとる、お菓子を食事代わりにする若しくは間食などの食習慣、間食の量、スマートフォン等の電子機器の使用頻度、湯船につかる頻度、入浴時間帯、運動習慣、喫煙習慣、口呼吸と鼻呼吸との割合、睡眠時間及び歩数などである。
被験者iの印象とは、被験者i本人または被験者iではない者が、被験者iの顔全体又は体全体など、被験者iの肌を含むユーザUaの比較的広範囲にわたる部分を観察したときに、観察者(被験者i本人または被験者iではない者)の心に対して与えられる直接的な感じである。
また、印象に関する項目は、例えば、男前、男らしい、紳士的、健康的、若々しい、清潔感がある、何十才代である、知的である、生活感がある、信頼できる、活き活きしている、元気がありそう、安心感がある、優しい、頼りがいがある、仕事ができる、責任感がある、真面目に見える、落ち着いている、強く見える、人生が充実している、安心感を与えられる、成熟している、大人っぽい、イケメン、美しい、かわいい、女性らしい、おしとやか、さわやか、包容力がある、キュート、もてる、人気がありそう、カリスマ性がある、オーラがある、人を引き付ける、魅力的などである。
印象に関する項目のそれぞれについて、被験者iの印象の程度が観察者により一定の基準に従って評価され、評価結果が記憶されることにより、被験者iの印象に関する項目の値が取得されうる。
被験者iの身体情報は、データ取得時における被験者iの筋肉量等の身体情報である。
身体情報に関する項目は、身長、体重、体脂肪率、BMI、筋肉量、右足、左足若しくは体幹部等の特定部位における筋肉量、推定骨量及び基礎代謝量などである。被験者iの身体情報に関する項目の値は、被験者iの身体測定計又は体組成計などにより測定されうる。
被験者iの体調は、データ取得時における被験者iの身体の調子である。体調に関する項目は、虫歯、歯周病、肩の凝り、手足の冷え、手足のほてり、目の疲れ、平熱、寝つき、寝起き、夢を見るか、就寝時間、寝つき(布団に入ってから眠るまで要する時間)、夜間、睡眠途中の覚醒の有無、希望する起床時間より早く目覚め、それ以上眠れないかどうか、総睡眠時間、全体的な睡眠の質、日中の気分、日中の活動について(身体的及び精神的)、日中の眠気について、疲れた感じ、だるい感じ、一晩寝ても疲れがとれない、不眠かどうか、身体疲労度、精神疲労度及び総合疲労度などがある。また、血液の値や健康診断の結果、および疾患状態でもよい。被験者iの体調に関する項目の値は、被験者iを診察した医師、歯科医師等の専門家により入力されてもよいし、被験者iによるアンケートに対する回答に基づいて値が決定されてもよい。
被験者iの体質とは、被験者iが先天的に有している又は後天的に獲得した身体的傾向である。
体質に関する項目には、平和質、気虚質、陽虚質、陰虚質、痰湿質、湿熱質、血お質、気鬱質、特稟質等の東洋医学により分類された体質、ニキビできやすさ、化学刺激抵抗力、総合的な敏感度、マイクロダスト抵抗力、日焼けをした時の肌の状態、むくみやすさ、風邪の引きやすさ、風邪をひいた時の治りにくさ、虚証スコア、実証スコア、気スコア、血スコア、水スコア、気不足スコア、気停滞スコア、水不足スコア、水停滞スコアなどがある。
被験者iの体質に関する項目の値は、被験者iを診察した医師、歯科医師等の専門家により入力されてもよいし、被験者iによるアンケートに対する回答に基づいて値が決定されてもよい。
被験者iの感情とは、データ取得時における被験者iが抱いていた感情(気持ち)である。
感情に関する項目は、例えば、気力に満ちた、はつらつとした、疲れた、無気力な、攻撃的な、腹立たしい、動揺した、落ち込んだ、ふさぎ込んだ、緊張した、不安な、友好的な、嬉しい、悲しい、うきうきする、楽しい、わくわくする、安らかな、心地よい、うっとりした、充実した、不満のある、幸せな、自信に満ちた、劣等感、ときめく、驚き、おおらかな、大胆な、寂しいなどである。
被験者iの感情に関する項目の値は、被験者iによるアンケートに対する回答に基づいて値が決定されてもよい。
被験者iの気質とは、被験者iの精神的傾向である。
気質に関する項目は、例えば、自己実現の要求の程度、負けず嫌いの程度、能動的態度の程度、実践的態度の程度、創造及び開発に関する志向の程度、自他共存の志向の程度、こだわりのなさ、執着心のなさ、他者尊重、楽観性、統御力、社交性、行動力、資質的レジリエンス要因、問題解決力、自己理解、他者心理の理解、獲得的レジリエンス要因などがある。
被験者iの気質に関する項目の値は、第三者による一定の基準に従った評価などにより取得されうる。
第1部位第1種肌細胞画像データS11iは、被験者iの第1部位(例えば顔の右頬)における所定形式(第1形式)の肌細胞画像データである。この肌細胞画像データは、例えば、図4Aに示されるように、角質採取テープ40などで取得された肌細胞を、角層細胞の染色液により染色したのち、所定の倍率で撮像することにより得られた角層細胞染色画像データである。
第1部位第2種肌細胞画像データS12iは、被験者iの第1部位における第2形式の肌細胞画像データである。第2形式は、第1形式とは異なる形式である。この肌細胞画像データは、例えば、図4Bに示されるように、角質採取テープ40などで取得された肌細胞を、角層細胞の染色液により染色したのち、第1部位第1種肌細胞画像データS11iよりも大きな倍率で撮像することにより得られた角層細胞染色画像データである。
第1部位第3種肌細胞画像データS13iは、被験者iの第1部位における第3形式の肌細胞画像データである。第3形式は、第1形式及び第2形式のそれぞれとは異なる形式である。
この肌細胞画像データは、例えば、図4Cに示されるように、角質採取テープ40などで取得された肌細胞を、メラニンの染色液によりしたのち、撮像することにより得られたメラニン染色細胞画像データである。
第2部位第1種肌細胞画像データS21i〜第2部位第3種肌細胞画像データS23iは、被験者iの第2部位(例えば腕)における、第1形式〜第3形式の肌細胞画像データである。第2部位は、第1部位とは異なる部位である。
第3部位肌画像データH3iは、被験者iの第3部位(例えば、顔の右頬)における、肌の撮像画像である。
第4部位肌画像データH4iは、被験者iの第4部位(例えば、顔の左頬)における、肌の撮像画像データである。第4部位は、第3部位とは異なる部位である。
舌画像データBiは、被験者iの舌の撮像画像データである。
肌スコアデータHSiは、肌細胞画像データS11i〜S23i及び肌画像データH3i〜H4iに基づいて評価された被験者iの肌状態をスコア化したデータである。
肌スコアデータHSiは、例えば、角層におけるメラニンの多寡を示すスコア、ニキビのできやすさを示すスコアの組み合わせにより表されうる。
検証データCDjは、教師データTDiの被験者iとは異なる被験者jから取得されたデータであるが、教師データTDiと同様のデータであるので、その詳細の説明は省略する。
モデルデータMDは、モデル生成部111により生成されたモデルを特定するためのデータである。モデルを特定するためのデータは、例えば、図5に示されるように、推定の対象項目と、モデルに用いられるアルゴリズムを特定するデータと、モデルの評価値と、入力データと、モデルの動作を特定するパラメータなどにより表現されうる。これらのうち、少なくとも、モデルの評価値と、モデルの動作を特定するパラメータとが、モデル生成部111の処理により特定されうる。
モデルに用いられるアルゴリズムを特定するデータは、畳込みニューラルネットワーク及びサポートベクターマシーン等のいわゆるモデルの概略的なアルゴリズムを特定するデータに加え、例えばニューラルネットワークであれば、当該モデルを構成する層の数、1つの層当たりの関数の個数、当該関数の種類など詳細なアルゴリズムを特定するデータ、評価のためのアルゴリズムを示すデータ(例えば損失関数を示すデータ)も含む。
推定プログラムSPは、後述するモデル生成処理及び予測処理に関するプログラムである。
サーバ通信部13は、有線通信又は無線通信によりネットワークを介してユーザ端末30と通信するように構成されている。
サーバ10は、図1に示されるようにカメラ付き顕微鏡20に接続されている。カメラ付き顕微鏡20は、角質採取テープ40に採取された肌細胞に対して、角層染色液又はメラニン染色液等の染色液により染色された細胞を、任意の倍率で撮像可能に構成されている。
(ユーザ端末の構成)
次に、図6を参照して、ユーザ端末30aを例にとって、ユーザ端末30の構成を説明する。
ユーザ端末30aは、例えば、スマートフォンであり、端末制御部31aと、端末記憶部32aと、端末通信部33aと、端末撮像部34aと、端末入力受付部35aと、端末出力部36aとを備える。
端末制御部31aは、例えば、CPU、キャッシュメモリ及びI/Oデバイスにより構成され、所定の演算処理を実行するように構成されている。
端末記憶部32aは、メモリ、SSD(Solid State Disk)、及びHDD(Hard Disk Drive)などにより構成され、データを記憶するように構成されている。
端末通信部33aは、有線通信又は無線通信によりネットワークを介してサーバ10と通信するように構成されている。
端末撮像部34aは、例えばカメラにより構成されている。
端末入力受付部35aは、タッチパッドのような位置入力装置により構成されている。これらに代えてまたは加えて、端末入力受付部35aは、マウス、キーボード又はマイクなどにより構成されていてもよい。
端末出力部36aは、液晶ディスプレイにより構成されている。これらに代えてまたは加えて、端末出力部36aは、スピーカーなどにより構成されていてもよい。
(モデル生成処理)
次に、図7を参照して、モデル生成処理を説明する。
まず、モデル生成部111は、モデルデータMDを初期化する(図7/STEP102)。
具体的には、モデル生成部111は、モデルのアルゴリズムなどを読み込む。必要に応じて、モデルのパラメータをランダムに設定する。
モデル生成部111は、各モデルについてループして図7/STEP106〜図7/STEP110の処理を実行する(図7/STEP104)。以下、図7/STEP106〜図7/STEP110における処理対象のモデルを、「対象のモデル」と適宜いう。また、対象のモデルが推定する項目を、「対象項目」と適宜いう。
モデル生成部111は、所定の対応表を参照して、教師データTDiのデータを解析する(図7/STEP106)。図7/STEP106の処理の具体例については、図11〜図12を用いて後述する。
モデル生成部111は、データの調整を行い、入力データを生成する(図7/STEP108)。
例えば、モデル生成部111は、選択された肌細胞画像データS11i〜S23iに含まれるRGB値について、高速フーリエ変換することにより、入力データとしての各RGB値についての各周波数の振幅のセットを取得してもよい。モデル生成部111は、さらに、データの解析結果に基づいて一定の基準によりデータの取捨選択を行って入力データを生成してもよい。
また、具体的には、モデル生成部111は、選択された画像データに対して畳込み処理を実行することにより、入力データを生成してもよい。
図7/STEP108の処理の具体例については、図13を用いて後述する。
モデル生成部111は、調整されたデータ及び教師データTDiに含まれる対象項目に関するデータを用いて学習処理を行う(図7/STEP110)。
学習処理は、図13を用いて後述する予測式を求める処理でもよいが、以下のような処理でもよい。
例えば、モデル生成部111は、調整されたデータとしての肌細胞画像データのフーリエ変換後の各RGB値の周波数を対象のモデルに入力し、対象のモデルから出力された値を認識する。
そして、モデル生成部111は、教師データTDiに含まれる対象項目の値(例えば、対象項目「深夜に食べすぎると感じる」の値1)を認識する。
モデル生成部111は、対象のモデルから出力された値と、教師データTDiに含まれる対象項目の値とから、例えば、損失関数を用いて、損失を評価する。損失関数は、例えば、対象のモデルから出力された値(対象項目の推定値)と、教師データTDiに含まれる対象項目の値との2乗誤差を出力する関数である。
モデル生成部111は、1<=i<=Nとなるiについて、これらの処理を行い、その後、損失が最小となるように、モデルのパラメータを修正する。
モデル生成部111は、このような処理を所定の回数(例えば2万回)だけ繰り返し実行する。
モデル生成部111は、このような処理に限られず、例えば、モデルが数値を予測する予測式である場合には、変数増加法によって予測式に用いられる各係数(モデルのパラメータ)を求めてもよいし、モデルがいくつかの選択肢を予測する予測式である場合には、非連続変数損失関数最小化法によって予測式に用いられる各係数(モデルのパラメータ)を求めてもよい。
モデル生成部111は、サポートベクターマシーン等によるモデルについて、教師あり学習を行うことにより、モデルのパラメータを求めてもよい。
モデル生成部111は、このような処理によって求められたモデルのパラメータをモデルデータMDのモデルのパラメータとして記憶する。
モデル生成部111は、1<=j<=Mとなるjについて、検証データCDjを用いて、各モデルの評価を行う(図7/STEP112)。各モデルの評価は、例えば、図13を用いて後述するような相関係数等を用いた評価であってもよいが、モデルの性能を定量的に決定できるような評価であれば、以下のような処理であってもよい。例えば、モデル生成部111は、検証データCDjから、図7/STEP106〜図7/STEP108と同様にして、データを選択、調整して、調整後のデータをモデルに入力し、対象項目の推定値を得る。モデル生成部111は、検証データCDjに含まれる対象項目の値と、対象項目の推定値とが一致している割合を、当該モデルの評価値とし、モデルデータMDの評価値を更新する。
以上のようにして、モデル生成処理が終了する。
(推定処理)
次に、図8〜図10を参照して、推定処理を説明する。以下では、ユーザ端末30aから肌画像データを受信するとともに、ユーザUaから角質採取テープ40aを受領した場合の処理を説明する。角質採取テープ40aは、ユーザの第1部位において採取した肌細胞と、ユーザの第2部位において採取した肌細胞とを保持している。
また、以下においては、ユーザUaの第1部位第1種肌細胞画像データなどを、例えば、S11aのように、教師データTDiに含まれる各データと同様の符号に、aをつけて適宜表現する。
データ認識部112は、サーバ通信部13を介して、ユーザ端末30aから、データを受信する(図8/STEP202)。このデータは、例えば、ユーザ端末30aの端末撮像部34aで撮像されたユーザUaの顔写真であってもよいし、あらかじめ記憶されたユーザ端末30aのユーザUaの属性データであってもよいし、ユーザ端末30aに入力されたアンケートに対する回答であってもよい。
また、データ認識部112は、所定の形式で処理された角質採取テープ40aのユーザUaの肌細胞の画像を、サーバ撮像部14を介して撮像することにより、第1部位第1種肌細胞画像データS11a〜第2部位第3種肌細胞画像データS23aを認識する(図8/STEP204)。
サーバ制御部11は、図8/STEP208〜図8/STEP216の処理を推定対象の項目ごとに繰り返し実行する(図8/STEP206)。以下、図8/STEP208〜図8/STEP216における推定対象の項目を「対象項目」と適宜いう。
推定部114は、対象項目を推定するモデルのうち、一または複数のモデル(推定モデル)を選択する(図8/STEP208)。たとえば、対象項目が「深夜に食べすぎると感じる」であり、対象項目を推定するモデルが、図5に示されるように3つあった場合、推定部114は、これらのモデルのうち評価値が最も高いまたは所定値以上のモデルを推定モデルとして選択する。推定部114は、推定モデルを特定するためのモデルデータMDに基づいて、当該推定モデルを認識する。
データ調整部113は、推定モデルに応じて、図8/STEP202〜STEP204で認識したデータのうち必要なデータを選択する(図8/STEP210)。
データ調整部113は、選択したデータに対し、データの調整を行う(図8/STEP212)。
例えば、データ調整部113は、図9に示されるようなユーザUaの顔写真Faから、右目ERaの位置を認識し、その右目ERaから所定の距離D下の右頬HRa(第3部位)の位置を認識する。また、データ調整部113は、左目ELaの位置を認識し、その左目ELaから所定の距離D下の左頬HLa(第4部位)の位置を認識する。データ調整部113は、所定の部位の画像の位置を認識し、当該画像の位置における画像データを抽出することで、第3部位肌画像データH3a及び第4部位肌画像データH4aを認識する。
データ調整部113は、選択したデータに対し、データの調整を行う(図8/STEP212)。
さらに、データ調整部113は、図7/STEP108と同様にして、フーリエ変換等を行って、推定モデルに入力するデータの形式を整える。
推定部114は、図8/STEP208で選択された推定モデルに調整後のデータを入力する(図8/STEP214)。第1部位第1種肌細胞画像データS11a〜第2部位第3種肌細胞画像データS23aを調整したデータが、本発明の「対象肌細胞画像データ」の一例に相当する。また、第3部位肌画像データH3a〜第4部位肌細胞画像データH4aを調整したデータが、本発明の「対象肌データ」の一例に相当する。
推定部114は、推定モデルからの出力値を対象項目の推定値として認識する(図8/STEP216)。推定部114は、複数の推定モデルを用いる場合には、それぞれの推定モデルから出力された値に対して、評価値に応じた所定の係数を乗じ、得られた値を対象項目の推定値として認識してもよい。
図8/STEP208〜STEP216の処理の具体例については、図15を用いて後述する。
図8/STEP206〜図8/STEP206+のループ処理の後、出力情報生成部115は、各項目の推定値に応じて出力情報を生成する(図8/STEP218)。たとえば、出力情報生成部115は、値と当該値を示す情報との対応を示すテーブルなどを参照して、項目の推定値が所定の値となる項目の値を示す情報を含むような出力情報を生成する。
送信制御部116は、生成された出力情報をサーバ通信部13を介してユーザ端末30aに送信する(図8/STEP220)。
当該出力情報を受信したユーザ端末30aは、例えば、図10に示されるように、当該出力情報を含む画面Mをユーザ端末30aの端末出力部36aに出力する。
当該出力情報を含む画面Mには、例えば、項目「健康印象」についての値を示す情報「とても健康的」との表示M1と、項目「深夜に食べすぎると感じる」についての値を示す情報「深夜に食べすぎ」との表示M2とが含まれている。
(作用効果)
前述したように、本発明者らの検討によれば、人の肌の細胞の画像データを含むデータは、当該人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値と関連していることが判明した。
推定モデルは、この知見に基づいて構築されたモデルであって、詳しくは、複数の人のそれぞれから取得された肌の細胞の画像データを含むデータを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データTDiとによる教師あり学習により構築されたモデルである(図7参照)。
そして、当該構成のサーバ10によれば、対象肌細胞画像データ取得部(本実施形態では、データ認識部112及び画像調整部113が対象肌細胞画像データ取得部の一例に相当する。)により、対象者の肌の細胞の画像データを含むデータである対象肌細胞画像データが取得される(図8/STEP202〜STEP204及びSTEP210〜STEP212)。対象者の肌の細胞の画像データを含むデータには、当該画像データのみならず、当該画像データに基づいた情報、例えば、当該画像データを次元圧縮などにより画像変換した情報(フーリエ変換、畳み込み演算で得られた画像など)も含まれうる。
そして、推定部114により、前記推定モデルを用いて、前記対象肌細胞画像データ取得部が取得した前記対象肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値が推定される(図8/STEP214〜STEP216)。
前述したように、推定モデルは、人の肌の細胞の画像データを含むデータは、当該人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す項目の値と関連していることに着目し、教師あり学習で得られたモデルである。
このため、この推定モデルを用いた推定部114の推定は、比較的精度が高いと期待される。
以上の通り、本発明のサーバ10によれば、対象者(ユーザUa)の肌の細胞画像データという比較的容易に取得できるデータを用いて対象者(ユーザUa)の身体情報等の対象項目の値を推定するから、対象者(ユーザUa)の負担を軽減しながら、精度良く対象者の状態を推定することができる。
(実施例)
次に、図11〜図16を参照して、図7/STEP106〜STEP114及び図8/STEP208〜STEP216の処理の具体例を説明する。
本処理におけるモデルは、肌細胞画像データ、肌画像データ及び舌画像データの色ごとにフーリエ変換して得られた各周波数における振幅を入力データとし、対象者(ユーザUa)の精神疲労度の推定値を出力するモデルである。以下においては、処理対象の項目(この例では、精神疲労度)を、対象項目TKと適宜いう。また、以下の例においては、対象項目TKの値は、ある一定範囲内の定量的な数値で表されうることを前提として説明する。
(データ解析処理)
図11〜図12を参照して、図7/STEP106のデータ解析処理の具体例を説明する。
モデル生成部111は、画像データの種類のそれぞれに対して図11/STEP304〜STEP310の処理を実行する(図11/STEP302)。
たとえば、モデル生成部111は、1回目のループで、教師データTDi(1≦i≦N)のそれぞれに含まれる第1部位第1種肌細胞画像データS11i(1≦i≦N)に対して、図11/STEP304〜STEP310の処理を実行し、2回目のループで、教師データTDi(1≦i≦N)のそれぞれに含まれる第1部位第2種肌細胞画像データS12i(1≦i≦N)に対して、図11/STEP304〜STEP310の処理を実行する。
図11/STEP304〜STEP310の処理では、1度の繰り返し処理でN個の画像データのセットを扱うので、以下では、処理の対象となったN個の画像データのセットを対象の画像データセットと呼ぶ。また、図11/STEP304〜STEP310の処理の中において、N個の画像データのうちの個々の画像データに対して処理を行う場合(さらに、ループのネスト処理を実行する場合)に、その処理対象となった画像データを、「対象の画像データ」と呼ぶ。
モデル生成部111は、対象の画素の構成要素ごとにループして図11/STEP306〜STEP310の処理を実行する(図11/STEP304)。たとえば、対象の画像データの各画素が赤、緑、青と透明度を示すパラメータで示されている場合、モデル生成部111は、1回目のループにおいて、赤に対して図11/STEP306〜STEP310の処理を実行し、2回目のループにおいて、緑に対して図11/STEP306〜STEP310の処理を実行し、…4回目のループにおいて、透明度に対して図11/STEP306〜STEP310の処理を実行する。以下において、図11/STEP306〜STEP310の処理において扱う構成要素を、対象の構成要素と呼ぶ。
モデル生成部111は、対象の構成要素の値について、対象の画像データセットのうちの各画像データにおいて高速フーリエ変換を行って、対象の構成要素の各周波数f(1≦f≦F)の振幅を算出する(図11/STEP306)。たとえば、モデル生成部111は、対象の構成要素「赤」の値について、対象の画像データ「第1部位第1種肌細胞画像データS11x」について高速フーリエ変換を実行して、対象の構成要素「赤」の周波数1〜Fのそれぞれの振幅を算出する。モデル生成部111は、この処理を、対象の画像データセット全体に対して実行する。ある対象の画像データの対象の構成要素のある周波数における振幅については、対象の画像データを示すiと、対象の構成要素「R」「G」「B」「WB」のいずれかを示すpと、周波数fとをつけて、振幅Aipfと表す。
モデル生成部111は、対象の構成要素の周波数fごとに、各画像データの振幅Aipfと、当該画像データに対応する対象項目の値との単相関解析を行う(図11/STEP308)。
例えば、モデル生成部111は、対象の構成要素「赤」の周波数f1に対し、「第1部位第1種肌細胞画像データS11i(1≦i≦N)」の振幅AS11iRf1(1≦i≦N)と、対象項目TKi(1≦i≦N)との単相関解析を実行し、p値を求める(図11/STEP308)。
モデル生成部111は、p値が所定の閾値(例えば0.1)以下の対象の構成要素「赤」の周波数のリストを作成する(図11/STEP310)。たとえば、モデル生成部111は、図12に示されるリストを作成する。図12に示されるリストは、画像データのそれぞれについて、p値が所定の閾値以下となる色の周波数を示すリストである。色周波数の欄に記載されているのは、色(赤をR、緑をG、青をB、透明度をBW)と周波数を組み合わせた符号である。その右側に記載されているP値は、当該色及び周波数に対応したP値である。たとえば、第1部位第1種細胞画像データについては、色がBW(透明度)で周波数が217に対し、対象項目(この例では精神疲労度)に関するP値が0.08となっている。
p値とは、帰無仮説の元で検定統計量がその値となる確率を言う。
補足すると、「p値が所定の閾値以下となる色の周波数」は、対象項目の値と色の周波数の振幅とが無関係であると仮定した場合に対象項目の値に応じた色の周波数の振幅のばらつきが起こる確率が所定の閾値以下となる色の周波数を言う。換言すれば、p値が所定の閾値以下となる色の周波数は、その周波数の振幅と対象項目の値とは無関係ではない蓋然性が高い。
(データ調整、学習、評価処理)
次に、図13〜図15を参照して、図7/STEP108〜STEP112のデータ調整、学習、評価処理の具体例を説明する。図13/STEP406が、図7/STEP108の一例にあたり、図13/STEP408が、図7/STEP110の一例にあたり、図13/STEP410が、図7/STEP112の一例にあたる。
モデル生成部111は、図11/STEP302と同様にして、画像データの種類のそれぞれに対して図13/STEP404〜STEP410の処理を実行する(図13/STEP402)。
モデル生成部111は、図11/STEP304と同様にして、対象の画素の構成要素ごとにループして図13/STEP406〜STEP410の処理を実行する(図13/STEP404)。
モデル生成部111は、図11/STEP306と同様にして、対象の構成要素の値について、対象の画像データセットのうちの各画像データにおいて高速フーリエ変換を行って、対象の構成要素の各周波数f(1≦f≦F)の振幅を算出する(図13/STEP406)。
モデル生成部111は、対象の構成要素の周波数のうち、対象項目の値との単相関解析によるp値が所定の閾値以下の周波数について、教師データTDiに基づいて、推定式を作成し、係数をモデルデータMDとしてサーバ記憶部12に記憶する(図13/STEP408)。
例えば、モデル生成部111は、対象の構成要素pの周波数f(1≦f≦F)のうち、教師データTDiに基づいて、対象項目TK(例えば、精神疲労度)の値TKVとの単相関解析によるp値が所定の閾値以下の周波数f、f、・・・fについて、下記のような推定式(1)の、係数αgxpf1〜αgxpfn及び定数βを算出する。このような係数αgxpf1〜αgxpfn及び定数βは、例えば、AIC規準(赤池情報量規準)による変数増加法又は変数減少法により求められうる。
ここで、
TKV…推定対象の人xの対象項目TKの値(推定式の従属変数)。
gxpf1〜Agxpfn…推定対象の人xの対象画像データgの対象の構成要素pの周波数fの振幅(推定式の説明変数)。
αgxpf1〜αgxpfn…推定対象の人xの対象画像データgの対象の構成要素pの周波数fの振幅に乗じる係数。
β…定数。
モデル生成部111は、係数αgxpf1〜αgxpfn及び定数βを対象項目の値を推定するためのモデルデータMDとしてサーバ記憶部12に記憶する。
そして、モデル生成部111は、検証データCDjを用いて、係数αgxpf1〜αgxpfn及び定数βを用いた推定式から算出された推定値と、実際の値との相関係数及び寄与率を算出する(図13/STEP410)。寄与率は、相関係数の2乗した値である。モデル生成部111は、相関係数及び寄与率をモデルデータMDに追加してサーバ記憶部12に記憶する。
例えば、モデル生成部111は、図14に示されるように、各画像データの各構成要素(「BW」「R」「G」「B」ごとに、相関係数及び寄与率のリストを算出し、モデルデータMDに追加してサーバ記憶部12に記憶する。モデル生成部111は、1又は複数の画像データの構成要素の組み合わせについての推定式を求め、その相関係数及び寄与率を算出してもよい。たとえば、図14ではそれぞれの画像データについて、「BW」「R」「G」「B」の単独および、「4色すべて」を構成要素の振幅を説明変数とした推定式の相関係数及び寄与率のリストが作成されているが、これに代えてまたは加えて、第1の画像データの構成要素「R」の周波数の振幅及び第2の画像データの構成要素「B」の周波数の振幅を説明変数とした推定式が求められ、その相関係数及び寄与率が算出されてもよい。
また、図15は、一の画像データ(例えば、第1部位第1種肌細胞画像データS11x)についての一の構成要素(例えば「R」)の周波数fについての一の項目(例えば、精神疲労度)の値を推定する推定式の係数と定数の一例を示すリストである。
図15は、推定式における定数が0.608であり、構成要素「R」の周波数340の振幅に対する係数が−78.230であり、構成要素「R」の周波数315の振幅に対する係数が56.657であることを示す。
(推定式が作成できた例)
以下は、各画像データごとに、上述のようにして作成した推定式の相関係数が0.7以上となった色の数を数えたものである。
また、以下は、各画像データごとに、上述のようにして作成した推定式のAUCが0.7以上となった色の数を数えたものである。
(推定式による推定処理)
次に、図16を参照して、図8/STEP208〜STEP216の処理の具体例を説明する。
図16/STEP504が、図8/STEP208の一例にあたり、図16/STEP506が、図8/STEP210の一例にあたり、図16/STEP508が、図8/STEP212の一例にあたり、図16/STEP510が、図8/STEP214〜図8/STEP216の一例にあたる。
以下では、推定対象の人をyとして説明する。
推定部114は、推定対象の項目(対象項目)TKを認識する(図16/STEP502)。
推定部114は、対象項目TKの値を推定する推定式のうち、相関係数が所定の閾値以上の推定式を認識する(図16/STEP504)。推定部114は、複数の推定式がある場合には、相関係数が最高の推定式を認識してもよい。
推定部114は、図16/STEP504で認識した推定式に対応する推定対象の人yの画像データを認識する(図16/STEP506)。たとえば、推定部114は、図16/STEP504で認識した推定式が、第1部位第1種肌細胞画像データS11を用いるものであれば、推定対象の人yの第1部位第1種肌細胞画像データS11yを認識する。
推定部114は、図16/STEP506で認識した画像データの対象の構成要素について高速フーリエ変換を実行することで、対象の構成要素の各周波数の振幅を算出する(図16/STEP508)。
例えば、推定部114は、図16/STEP504で認識した推定式が、第1部位第1種肌細胞画像データS11の構成要素「赤」の周波数を用いるものであれば、第1部位第1種肌細胞画像データS11の各画素の構成要素「赤」の値についての高速フーリエ変換を実行することで、構成要素「赤」の各周波数の振幅を算出する。
推定部114は、図16/STEP508で算出した各周波数の振幅と、図16/STEP504で認識した推定式(例えば、上記の式(1))とを用いて、対象項目TKの推定値TKEVyを算出する(図16/STEP510)。
例えば、図16/STEP504で認識した推定式が、図15に示されるように、定数0.608と、第1部位第1種肌細胞画像データS11の構成要素「赤」の周波数340の振幅に対する係数−78.230と、第1部位第1種肌細胞画像データS11の構成要素「赤」の周波数315の振幅に対する係数−56.657と、をで表される式であるとする。
このような場合、推定部114は、以下の式(2)によって、対象項目TKの推定値TKEVyを算出する。
ここで、
は、対象の人yの第1部位第1種肌細胞画像データS11yの、構成要素「R」の周波数340における振幅、
また、
は、対象の人yの第1部位第1種肌細胞画像データS11yの、構成要素「R」の周波数315における振幅である。
以上の処理により、対象項目TKの推定値TKEVyが算出されうる。
(変形態様)
本発明において、サーバ10において、推定処理が実行されたが、これに代えてまたは加えて、モデルデータMDをダウンロードしたユーザ端末30aなどの推定モデルを構築した装置とは別の装置で推定処理が実行されてもよい。
この場合、ユーザUaは、角質採取テープ40aに所定の処理を施してユーザ端末30aの端末撮像部34aで当該肌細胞を撮像することにより、第1部位第1種肌細胞画像データS11a〜第2部位第3種肌細胞画像データS23aをユーザ端末30aに認識させてもよい。
また、ユーザ端末30aは、サーバ10からユーザUaの第1部位第1種肌細胞画像データS11a〜第2部位第3種肌細胞画像データS23aをダウンロードしてもよい。
また、図7/STEP108及び図8/STEP212は省略されてもよい。
また、モデルは、上述した単相関回帰(累積ロジスティック回帰)から求められた推定式に限られず、線形回帰、ロジスティック回帰から求められた推定式であってもよい。
また、モデルは、サポートベクターマシーン、ガウス過程回帰、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、パーセプトロン、畳み込みニューラルネットワーク(CNN)、再起型ニューラルネットワーク、残差ネットワーク、単純ベイズ、AR,MA,(S)ARIMAモデル、状態空間モデル、k近傍法(KNN)、階層型クラスタリング、非階層型クラスタリング、トピックモデル、自己組織化マップ、アソシエーション分析、協調フィルタリングなどのモデルであってもよい。
また、画像処理については、上述したフーリエ変換に限られず、たたみ込み演算、平滑化、ノイズの除去、主成分分析・独立成分分析、AutoEncoder、t−SNE、UMAPなどのうち、少なくとも1つの画像処理による次元圧縮を行ってもよい。また、画像処理を省略してもよい。
また、各画像データを次元圧縮するモデルについて、圧縮された画像データを所定の方式で復元し、元の画像データと、復元後の画像データとを比較し、近似度が高くなるように(例えば、元の画像データの各画素の値と、復元後の画像データの各画素の値との2乗誤差が小さくなるように)、学習させることで、次元圧縮用のモデルを生成してもよい。
推定部114は、1の項目について、Boosting、Stacking、バギングなどの手法により、複数のモデルを用いて1つの推定値を得てもよい。
10‥サーバ、30‥ユーザ端末、40‥角質採取テープ、11‥サーバ制御部、111‥モデル生成部、112‥データ認識部、113‥画像調整部、114‥推定部、115‥出力情報生成部、116‥送信制御部、12‥サーバ記憶部、13‥サーバ通信部、14‥サーバ撮像部。

Claims (6)

  1. 複数の人のそれぞれから取得された肌の細胞の画像データを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築された推定モデルを示すデータを記憶する推定モデル記憶部と、
    対象者の肌の細胞の画像データである対象肌細胞画像データを取得する対象肌細胞画像データ取得部と、
    前記推定モデルを用いて、前記対象肌細胞画像データ取得部が取得した前記対象肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定する推定部とを備えることを特徴とする推定装置。
  2. 請求項1記載の推定装置において、
    対象者の肌の画像データである対象肌データを取得する対象肌データ取得部を備え、
    前記推定モデルは、複数の人のそれぞれから取得された肌の細胞の画像データに加え、複数の人のそれぞれから取得された肌の画像データを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルであり、
    前記推定部は、前記推定モデルを用いて、前記対象肌細胞画像データ取得部が取得した前記対象肌細胞画像データと、前記対象肌データ取得部が取得した前記対象肌データとを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定するように構成されていることを特徴とする推定装置。
  3. 請求項1又は2記載の推定装置において、
    前記推定モデルは、
    複数の人のそれぞれから取得された第1部位の肌の細胞の画像データと当該複数の人のそれぞれから取得された第2部位の肌の細胞の画像データとを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルであり、
    前記対象肌細胞画像データ取得部は、前記対象者の第1部位の肌の細胞の画像データである第1部位肌細胞画像データを取得し、前記対象者の第2部位の肌の細胞の画像データである第2部位肌細胞画像データを取得するように構成され、
    前記推定部は、前記推定モデルを用いて、前記肌細胞画像データ取得部が取得した第1部位肌細胞画像データ及び第2部位肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定する容易に構成されていることを特徴とする推定装置。
  4. 請求項1〜3のうちいずれか1項の推定装置において、
    前記推定モデルは、
    複数の人のそれぞれの一の部位から取得された肌の細胞の第1種の画像データと当該複数の人のそれぞれの当該一の部位から取得された肌の細胞の前記第1種とは異なる第2種の画像データとを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築されたモデルであり、
    前記対象肌細胞画像データ取得部は、前記対象者の前記一の部位の肌の細胞の第1種の画像データである第1種肌細胞画像データを取得し、前記対象者の当該一の部位の肌の細胞の第2種の画像データである第2種肌細胞画像データを取得し、
    前記推定部は、前記推定モデルを用いて、前記肌細胞画像データ取得部が取得した第1種肌細胞画像データ及び第2種肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定する容易に構成されていることを特徴とする推定装置。
  5. 複数の人のそれぞれから取得された肌の細胞の画像データを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築された推定モデルを示すデータを記憶する推定モデル記憶部を備えるコンピュータが実行する方法であって、
    対象者の肌の細胞の画像データである対象肌細胞画像データを取得するステップと、
    前記推定モデルを用いて、前記対象肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定するステップとを含むことを特徴とする推定方法。
  6. 複数の人のそれぞれから取得された肌の細胞の画像データを含む入力データと、前記複数の人のそれぞれの身体情報、体質、体調、生活習慣、感情、気質及び外観印象のうち少なくとも1つを示す対象項目の値である出力データとの組である、教師データとによる教師あり学習により構築された推定モデルを示すデータを記憶する推定モデル記憶部を備えるコンピュータに、
    対象者の肌の細胞の画像データを取得するステップと、
    前記推定モデルを用いて、前記対象肌細胞画像データを含むデータを前記入力データとして前記対象者の前記対象項目の値を推定するステップとを実行させることを特徴とする推定プログラム。
JP2018225624A 2018-11-30 2018-11-30 推定装置、推定方法及び推定プログラム Pending JP2020085856A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018225624A JP2020085856A (ja) 2018-11-30 2018-11-30 推定装置、推定方法及び推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018225624A JP2020085856A (ja) 2018-11-30 2018-11-30 推定装置、推定方法及び推定プログラム

Publications (1)

Publication Number Publication Date
JP2020085856A true JP2020085856A (ja) 2020-06-04

Family

ID=70909879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225624A Pending JP2020085856A (ja) 2018-11-30 2018-11-30 推定装置、推定方法及び推定プログラム

Country Status (1)

Country Link
JP (1) JP2020085856A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111714118A (zh) * 2020-06-08 2020-09-29 北京航天自动控制研究所 一种基于集成学习的脑认知模型融合方法
WO2022030300A1 (ja) * 2020-08-03 2022-02-10 株式会社村田製作所 肌状態推定方法、肌状態推定装置及び肌状態推定システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3837077B2 (ja) * 2001-10-29 2006-10-25 ポーラ化成工業株式会社 肌分析システム
WO2009142069A1 (ja) * 2008-05-23 2009-11-26 ポーラ化成工業株式会社 肌のキメ及び/又はシワの自動鑑別法
JP2009297295A (ja) * 2008-06-13 2009-12-24 Kao Corp 肌のなめらかさの評価方法
JP4818704B2 (ja) * 2005-12-15 2011-11-16 ポーラ化成工業株式会社 画像の色調整方法
JP2013019909A (ja) * 2005-08-12 2013-01-31 Tcms Transparentbeauty Llc ヒトの皮膚の視覚的魅力を改善するために、反射変性剤を塗布するためのシステムおよび方法
US20170000392A1 (en) * 2015-07-01 2017-01-05 Rememdia LC Micro-Camera Based Health Monitor
JP6200207B2 (ja) * 2013-05-27 2017-09-20 ポーラ化成工業株式会社 肌年齢の推定法
JP2018108373A (ja) * 2016-12-28 2018-07-12 ポーラ化成工業株式会社 肌状態認識システム
JP2018190423A (ja) * 2017-05-02 2018-11-29 ポーラ化成工業株式会社 画像表示装置、画像表示プログラム及び画像表示方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3837077B2 (ja) * 2001-10-29 2006-10-25 ポーラ化成工業株式会社 肌分析システム
JP2013019909A (ja) * 2005-08-12 2013-01-31 Tcms Transparentbeauty Llc ヒトの皮膚の視覚的魅力を改善するために、反射変性剤を塗布するためのシステムおよび方法
JP4818704B2 (ja) * 2005-12-15 2011-11-16 ポーラ化成工業株式会社 画像の色調整方法
WO2009142069A1 (ja) * 2008-05-23 2009-11-26 ポーラ化成工業株式会社 肌のキメ及び/又はシワの自動鑑別法
JP2009297295A (ja) * 2008-06-13 2009-12-24 Kao Corp 肌のなめらかさの評価方法
JP6200207B2 (ja) * 2013-05-27 2017-09-20 ポーラ化成工業株式会社 肌年齢の推定法
US20170000392A1 (en) * 2015-07-01 2017-01-05 Rememdia LC Micro-Camera Based Health Monitor
JP2018108373A (ja) * 2016-12-28 2018-07-12 ポーラ化成工業株式会社 肌状態認識システム
JP2018190423A (ja) * 2017-05-02 2018-11-29 ポーラ化成工業株式会社 画像表示装置、画像表示プログラム及び画像表示方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
山崎和広: "空間周波数解析による女性の目の周り画像の年齢推定技術", 画像センシングシンポジウム講演論文集(CD-ROM), vol. 18, JPN6022046665, 6 June 2012 (2012-06-06), pages 1 - 03, ISSN: 0004914527 *
時事通信 家庭の医学 顔いろ, JPN6022046666, 25 April 2018 (2018-04-25), ISSN: 0004914528 *
橋本 卓弥: "顔角層細胞内メラニンの分析と定量的評価に関する研究", 日本機械学会論文集(C 編), vol. 78, no. 786, JPN6022030807, 2012, pages 508 - 522, ISSN: 0004833719 *
永井成美: "若年女性の肌状態と栄養素等摂取,代謝,自律神経活動の関連", 日本栄養・食糧学会誌, vol. 63, no. 6, JPN6022030808, 2010, pages 263 - 270, ISSN: 0004833720 *
飯山正夫: "コンピュータデジタル画像解析による歯肉発赤認識機序の解明", 日歯周誌, vol. 41, no. 2, JPN6022046667, 1999, pages 166 - 172, ISSN: 0004914529 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111714118A (zh) * 2020-06-08 2020-09-29 北京航天自动控制研究所 一种基于集成学习的脑认知模型融合方法
WO2022030300A1 (ja) * 2020-08-03 2022-02-10 株式会社村田製作所 肌状態推定方法、肌状態推定装置及び肌状態推定システム

Similar Documents

Publication Publication Date Title
US10387898B2 (en) Crowd-based personalized recommendations of food using measurements of affective response
Nkurikiyeyezu et al. The effect of person-specific biometrics in improving generic stress predictive models
US20140121540A1 (en) System and method for monitoring the health of a user
KR20180110100A (ko) 심부전을 평가하기 위한 장치 및 방법
US11723568B2 (en) Mental state monitoring system
AU2013256179A1 (en) Physiological characteristic detection based on reflected components of light
CN109843183A (zh) 检测装置
US20220370757A1 (en) Personalized sleep wellness score for treatment and/or evaluation of sleep conditions
CN110167424A (zh) 用于输出表示在睡眠期期间提供给对象的刺激的效果的指示符的系统和方法
CN115298743A (zh) 用于改进睡眠的用户行为推荐
Tiwari et al. Classification of physiological signals for emotion recognition using IoT
JP2020085856A (ja) 推定装置、推定方法及び推定プログラム
CA3111668A1 (en) Systems and methods of pain treatment
JP7337484B2 (ja) 画像表示装置、画像表示システム、画像表示プログラム及び画像表示方法
US20210183509A1 (en) Interactive user system and method
US20240008783A1 (en) Method and system for sensor signals dependent dialog generation during a medical imaging process
JP2019028691A (ja) 肌状態のケアに関する情報出力システム、情報出力プログラム及び情報出力方法
JP7233032B2 (ja) 環境制御システム及び環境制御方法
EP4120898A1 (en) Systems and methods involving sleep management
Whang The emotional computer adaptive to human emotion
JP7300929B2 (ja) 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法
Moyeenudin et al. Analysis of Electroencephalographic Signals to Study the Behavior of Brain Frequencies for the Study of Academic Stress
JP7095169B1 (ja) 状態改善装置
JP7361327B2 (ja) 環境制御システム及び環境制御方法
JP7435965B2 (ja) 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221108