JPWO2015159767A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JPWO2015159767A1
JPWO2015159767A1 JP2016513732A JP2016513732A JPWO2015159767A1 JP WO2015159767 A1 JPWO2015159767 A1 JP WO2015159767A1 JP 2016513732 A JP2016513732 A JP 2016513732A JP 2016513732 A JP2016513732 A JP 2016513732A JP WO2015159767 A1 JPWO2015159767 A1 JP WO2015159767A1
Authority
JP
Japan
Prior art keywords
skin
analysis result
information processing
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016513732A
Other languages
English (en)
Inventor
木村 奈月
奈月 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015159767A1 publication Critical patent/JPWO2015159767A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Abstract

本技術は、直感的に肌の状態を視認することができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。解析結果取得部は、肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得し、表示制御部は、肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させることで、直感的に肌の状態を視認することができるようにする。本技術は、例えば、肌の解析結果を表示する電子機器に適用することができる。

Description

本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、直感的に肌の状態を視認することができるようにした情報処理装置、情報処理方法、及び、プログラムに関する。
従来、人の肌を撮影した肌画像の解析を行い、肌のきめの状態を評価する技術が提案されている(例えば、特許文献1参照)。
特開2012−239768号公報
特許文献1に開示された技術を用いることで、肌のきめの状態を評価することができるが、直感的に肌の状態を視認できるようにしたいという要求があった。
本技術はこのような状況に鑑みてなされたものであり、直感的に肌の状態を視認することができるようにするものである。
本技術の一側面の情報処理装置は、肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得する取得部と、肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる表示制御部とを備える情報処理装置である。
前記表示制御部は、皮丘の表面積に応じて、皮溝を介して隣り合う皮丘のブロックを塗り分けた表示形態からなる前記解析結果画像を表示させることができる。
前記表示制御部は、前記皮丘のブロックを、濃淡の異なる同系色の色彩で塗り分けて表示させることができる。
前記表示制御部は、前記皮溝の幅を線種により示し、前記皮溝の深度を色彩の濃淡により示すように表示させることができる。
前記表示制御部は、濃淡の異なる同系色の色彩で塗り分けられた前記皮丘のブロックに、他の肌の状態を重ね合わせて表示させることができる。
前記表示制御部は、濃淡の異なる同系色の色彩で塗り分けられた前記皮丘のブロックに、毛穴の分布をさらに重ね合わせて表示させることができる。
前記毛穴の分布は、毛穴詰まりの分布であって、単なる毛穴詰まりと、ニキビの原因となるニキビリスクが異なる色彩で表されているようにすることができる。
前記表示制御部は、皮丘の形状に応じて、特定の形状からなる皮丘のブロックを塗り分けた表示形態からなる前記解析結果画像を表示させるようにすることができる。
前記表示制御部は、皮丘によるきめ方向性に応じて、グラデーションが適用された表示形態からなる前記解析結果画像を表示させるようにすることができる。
前記表示制御部は、皮溝によるきめ方向性に応じて、色彩又は記号が適用された表示形態からなる前記解析結果画像を表示させるようにすることができる。
前記表示制御部は、皮溝と皮丘の断面に応じた表示形態からなる前記解析結果画像を表示させるようにすることができる。
前記表示制御部は、毛穴詰まり分布、毛穴開き分布、及び、黒ずみ分布の少なくとも1つについて、同系色の濃淡で複数の段階で表された表示形態からなる前記解析結果画像を表示させるようにすることができる。
前記毛穴詰まり分布では、単なる毛穴詰まりと、ニキビの原因となるニキビリスクが異なる色彩で表されているようにすることができる。
前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、顔面上に、肌の状態の解析処理の対象として適した部位である測定最適部位を指標する情報を表示させるようにすることができる。
ユーザが顔の肌の表皮を撮影する度に、肌の状態の解析結果得られる肌のきめの分布を用いて、前記表皮画像に含まれる前記測定最適部位のマッチングを行うことで、前記測定最適部位を少なくとも含む前記表皮画像を時系列で記録する記録部をさらに備えるようにすることができる。
前記記録部は、ユーザによる設定に応じて、前記表皮画像を記録するようにすることができる。
前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合、現在の撮影位置から、最適な撮影位置に誘導するためのメッセージを表示させるようにすることができる。
前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合、現在の撮影位置から、最適な撮影位置までの距離を表示させるようにすることができる。
情報処理装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術の一側面の情報処理方法及びプログラムは、上述した本技術の一側面の情報処理装置に対応する情報処理方法及びプログラムである。
本技術の一側面の情報処理装置、情報処理方法、及び、プログラムにおいては、肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果が取得され、肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像が、表示部に表示される。
本技術の一側面によれば、直感的に肌の状態を視認することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した肌解析表示システムの一実施の形態の構成を示す図である。 端末装置の機能的な構成例を示す図である。 端末装置により実行される肌解析表示処理の流れを説明するフローチャートである。 解析結果画像表示制御処理の詳細な内容を説明するフローチャートである。 皮丘の表面積に応じた表示形態からなる解析結果画像を示す図である。 皮丘の表面積に応じた濃淡表示で表した解析結果画像の表示例を示す図である。 皮丘の形状に応じた表示形態からなる解析結果画像を示す図である。 皮丘によるきめ方向性に応じた表示形態からなる解析結果画像を示す図である。 皮溝の幅や深さに応じた表示形態からなる解析結果画像を示す図である。 皮溝の断面の表現例を示す図である。 皮丘の断面の表現例を示す図である。 皮溝と皮丘の断面に応じた表示形態からなる解析結果画像を示す図である。 メラニンや赤みの解析結果に応じた表示形態からなる解析結果画像を示す図である。 毛穴や黒ずみの分布に応じた表示形態からなる解析結果画像を示す図である。 重畳画像を説明するための図である。 肌のきめの状態に、肌の状態を重畳させた表示形態からなる重畳画像を示す図である。 アプリケーションの表示例を示す図である。 アプリケーションの表示例を示す図である。 測定最適部位を指標するための表示例を示す図である。 表皮画像を時系列で記録する場合の例を示す図である。 最適な撮影位置に誘導するためのメッセージの表示例を示す図である。 再度撮り直しのメッセージの表示例を示す図である。 他の表示形態からなる解析結果画像を示す図である。 他の表示形態からなる解析結果画像を示す図である。 本技術を適用した肌解析表示システムの一実施の形態の他の構成を示す図である。 本技術を適用した肌解析表示システムの一実施の形態の他の構成を示す図である。 本技術を適用した肌解析表示システムの一実施の形態の他の構成を示す図である。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システム構成
2.肌解析表示処理の流れ
3.解析結果画像の表示例
4.応用例:測定最適部位を指標するUI表現
5.変形例:簡略化した表示形態
6.他のシステム構成
7.コンピュータの構成
<1.システム構成>
(肌解析表示システムの構成)
図1は、本技術を適用した肌解析表示システムの一実施の形態の構成を示す図である。
図1の肌解析表示システム1は、ユーザの肌の状態の解析結果に応じた所定の表示形態からなる画像情報(以下、「解析結果画像」という。)を、ユーザに提示するものである。図1に示すように、肌解析表示システム1は、端末装置10及び肌測定器20から構成される。
端末装置10は、例えば、専用の肌分析器やパーソナルコンピュータ、スマートフォン等の携帯通信端末、タブレット型の携帯情報機器などの電子機器である。端末装置10には、所定の規格に対応したケーブル80を介して、肌測定器20が接続されている。肌測定器20は、撮像装置を内蔵している。肌測定器20は、ユーザの顔の肌の表皮を撮影(測定)し、その結果得られる撮影画像(以下、「表皮画像」ともいう。)を、ケーブル80を介して端末装置10に供給する。
ここで、肌測定器20は、マニュアルのフォーカス調整機能、被写体全体に一様に照明光を照射可能な光源、及び、肌表面の構造を認識できる程度の撮影が可能なマクロレンズを備えることが望ましい。また、肌測定器20は、フォーカス位置を固定して毎回撮影できるように、レンズの先に肌に密着させるアタッチメントを備えることが望ましい。この場合、外光の影響を防ぐためにアタッチメントに遮光機能を持たせてもよい。なお、端末装置10と肌測定器20は、有線で接続されるほか、例えば所定の無線通信により接続されるようにしてもよい。
端末装置10には、ケーブル80を介して肌測定器20から撮影画像が供給される。端末装置10は、肌測定器20からの撮影画像に基づいて、ユーザの肌の状態を解析する解析処理を行う。また、端末装置10は、肌の状態の解析結果に基づいて、解析結果画像を生成して、表示部に表示させる。
(端末装置の構成)
図2は、図1の端末装置10の機能的な構成例を示す図である。
図2に示すように、端末装置10は、撮影画像取得部101、肌状態解析部102、解析結果画像表示制御部103、及び、表示部104から構成される。
撮影画像取得部101は、肌測定器20から供給される、ユーザの顔の肌の表皮を撮影して得られる撮影画像を取得して、肌状態解析部102に供給する。
肌状態解析部102は、撮影画像取得部101から供給される撮影画像に基づいて、ユーザの肌の状態を解析する解析処理を行う。この解析処理としては、例えば、ユーザの顔の肌の表皮を撮影することで得られる撮影画像であって、皮丘又は皮溝により表皮に形成されている表皮画像内の表皮パターンが検出され、その検出結果と表皮画像に基づいて、肌のきめの状態を示す要素のうち、先天的な要素と後天的な要素の解析が行われる。そして、先天的な要素と後天的な要素の解析結果に基づいて、ユーザの肌のきめの状態が評価される。
なお、肌の状態の解析結果としては、例えば、皮丘の表面積や形状、きめ方向性、皮溝の深さ、皮溝と皮丘の断面などの情報が得られる。また、解析処理としては、例えば、メラニンや赤みの解析処理や、毛穴や黒ずみの分布の解析処理などを行い、それらの解析結果が得られるようにしてもよい。このようにして得られる肌の状態の解析結果は、解析結果画像表示制御部103に供給される。
なお、当該解析処理の詳細な内容については、例えば、本出願人により提案されている特許文献1に記載されている。
解析結果画像表示制御部103は、肌状態解析部102による肌の状態の解析結果に基づいて、解析結果画像を生成し、液晶ディスプレイ(LCD:Liquid Crystal Display)等で構成される表示部104に表示させる。なお、表示部104は、液晶ディスプレイに限らず、例えば、プロジェクタを介してユーザの顔面上に直接照射するなどとしてもよい。解析結果画像表示制御部103は、解析結果取得部151、解析結果画像生成部152、及び、表示制御部153から構成される。
解析結果取得部151は、肌状態解析部102から供給される肌の状態の解析結果を取得し、解析結果画像生成部152に供給する。解析結果画像生成部152は、解析結果取得部151から供給される肌の状態の解析結果に基づいて、当該解析結果に応じた所定の表示形態からなる解析結果画像を生成し、表示制御部153に供給する。表示制御部153は、解析結果画像生成部152から供給される解析結果画像を、表示部104に表示させる。また、表示制御部153は、例えばメッセージ等の各種の情報を、表示部104に表示させる。
<2.肌解析表示処理の流れ>
(肌解析表示処理の流れ)
次に、図3のフローチャートを参照して、図1の端末装置10により実行される肌解析表示処理の流れを説明する。
ステップS101において、撮影画像取得部101は、肌測定器20から供給される撮影画像を取得し、肌状態解析部102に供給する。
ステップS102において、肌状態解析部102は、撮影画像取得部101から供給される撮影画像に基づいて、ユーザの肌の状態を解析する解析処理を行う。この解析処理では、例えば、表皮画像内の表皮パターンが検出され、その検出結果と表皮画像に基づいて、後天的な要素及び先天的な要素の少なくとも一方の解析が行われ、さらに、その解析結果に基づいて、ユーザの肌の状態が評価される。
ステップS103において、解析結果画像表示制御部103は、肌状態解析部102から供給される肌の状態の解析結果に基づいて、解析結果画像表示制御処理を行う。この解析結果画像表示制御処理においては、肌状態解析部102による肌の状態の解析結果に基づいた解析結果画像が、表示部104に表示される。なお、解析結果画像表示制御処理の詳細な内容は、図4のフローチャートを参照して後述する。ステップS103の処理が終了すると、肌解析表示処理は終了する。
以上、肌解析表示処理を説明した。この肌解析表示処理においては、肌測定器20で撮影されたユーザの顔の肌の表皮画像が解析され、その解析結果に応じた所定の表示形態からなる解析結果画像が生成され、表示部104に表示されることになる。
(解析結果画像表示制御処理の流れ)
次に、図4のフローチャートを参照して、図3のステップS103に対応する解析結果画像表示制御処理の詳細な内容を説明する。
ステップS151において、解析結果取得部151は、肌状態解析部102による肌の状態の解析結果を取得し、解析結果画像生成部152に供給する。
ステップS152において、解析結果画像生成部152は、解析結果取得部151から供給される肌の状態の解析結果に基づいて、解析結果画像を生成し、表示制御部153に供給する。
ステップS153において、表示制御部153は、ステップS152の処理で生成された解析結果画像を、表示部104に表示させる。ステップS153の処理が終了すると、処理は、図3のステップS103に戻される。
以上、解析結果画像表示制御処理を説明した。この解析結果画像表示制御処理においては、ユーザの顔の肌の表皮画像の解析結果に応じた所定の表示形態からなる解析結果画像が生成され、当該解析結果画像が、表示部104に表示されるので、例えば、きめの細かさや肌の状態が整っているかどうかなどの肌の解析結果から得られる情報が、所定の表示形態(UI:User Interface)で表現されることとなって、ユーザに対して、直感的に自身の肌の状態を視認させることができる。
<3.解析結果画像の表示例>
次に、図5乃至図18を参照して、図4の解析結果画像表示制御処理によって、表示部104に表示される解析結果画像の表示例を説明する。
(1)皮丘の表面積に応じた表示形態
図5は、皮丘の表面積に応じた表示形態からなる解析結果画像を示す図である。図5においては、撮影画像と、撮影画像から得られる解析結果画像A乃至Dが図示されている。解析結果画像A乃至Dでは、表皮画像内の表皮パターンを検出することで得られる皮丘の表面積を所定の閾値と比較して、皮溝を介して隣り合う皮丘のブロックを濃淡の異なる同系色ベースの色彩で塗り分けている。具体的には、皮丘の表面積を所定の閾値と比較することで、その表面積に応じて皮丘のブロックを3段階に分類して、それらの段階ごとに、例えば、濃い緑色、薄い緑色、その中間の濃さの緑色で塗り分けられるようにする。
例えば、解析結果画像Aの各皮丘のブロックは、その表面積が大きいものは濃度の濃い色彩、中間の大きさのものは中間の濃度の色彩、小さいものは濃度の薄い色彩でそれぞれ塗り分けられている。すなわち、濃度の薄い色彩で塗られたブロックが密集している部分は、きめが細かいことを表し、逆に、濃度の濃い色彩で塗られたブロックが密集している部分はきめが粗いことを表しているので、色彩の濃淡によって、直感的に肌のきめの状態を視認することができる。
一般的に通常の人肌は、これらの3パターンの皮丘が多少混在しているものであるが、一定の有効測定領域の範囲において、濃度の薄い色彩が占める割合が他の濃度の色彩よりも多い場合には、きめが細かくて肌が整っていることを指標していることになる。例えば、解析結果画像Bにおいては、濃度の薄い色彩で塗られたブロックが密集しており、それらのブロックの占める割合が多いため、きめが細かい状態を表しているといえる。
また、濃度の濃い色彩が占める割合が他の濃度の色彩よりも多い場合には、きめが粗いことを指標していることになる。例えば、解析結果画像Cにおいては、濃度の濃い色彩で塗られたブロックが密集しており、それらのブロックが占める割合が多いため、きめが粗い状態を表しているといえる。さらに、濃淡の異なる色彩が混在している場合には、きめが乱れていることを指標していることになる。例えば、解析結果画像Dにおいては、濃淡の異なる色彩で塗られたブロックが混在しており、きめが乱れた状態を表しているといえる。
すなわち、解析結果画像B乃至Dを比べれば、一般的に、解析結果画像Bが最も理想的なきめの状態を表し、解析結果画像Cがその次に良いきめの状態を表し、解析結果画像Dが悪いきめの状態を表しているといえるが、表皮のブロックが濃淡の異なる色彩で塗られているため、例えば、きめの形状や大きさの分布を同時に視認できるとともに、きめの細かさと質を一目で視認することができる。
図6には、皮丘の表面積に応じた濃淡表示で表した解析結果画像の表示例を示している。図6においては、皮丘の表面積に応じて、各皮丘のブロックを、濃い緑色、薄い緑色、及び、その中間の濃さの緑色の3段階の濃度で塗り分けているが、全体的に薄い緑色で塗られたブロックが多く存在しているため、きめの細かい肌であるといえる。このような表示形態を用いることで、色彩の濃淡によって、直感的に肌のきめの状態を視認することができる。
(2)皮丘の形状に応じた表示形態
図7は、皮丘の形状に応じた表示形態からなる解析結果画像を示す図である。図7においては、皮丘のブロックの形状の優劣を判断するための基準の形状A乃至Dがあらかじめ定められている。ここでは、基準の形状のうち、三角形からなる形状Aとひし形からなる形状Bは、理想的な形状とされるが、凹型からなる形状Cと矩形からなる形状Dは理想的でない形状とされる。そのため、例えば、皮丘のブロックは、その表面積が小さくて、かつ、その形状が形状A又は形状Bである場合には、高評価とされる。なお、形状A乃至Dは、基準の形状の一例であって、他の形状を基準として採用して、理想的な形状と理想的でない形状に分類することができる。また、ここでは、理想的な形状と理想的でない形状の2段階に分類される例を説明したが、3段階以上に分類されるようにしてもよい。
図7においては、撮影画像から得られる解析結果画像E乃至Hが図示されている。解析結果画像E,Fにおいては、表皮画像内の表皮パターンを検出することで得られる皮丘の表面積を所定の閾値と比較して、皮丘のブロックをその表面積に応じて3段階に分類している。また、解析結果画像E,Fにおいては、皮丘のブロックの形状を、基準の形状A乃至Dと比較して、当該皮丘のブロックの形状が、理想的な形状であるか、あるいは理想的でない形状であるかを判定している。
解析結果画像Eにおいては、各皮丘のブロックが、その形状が理想的であって、その表面積が大きいものは濃度の濃い色彩、中間の大きさのものは中間の濃度の色彩、小さいものは濃度の薄い色彩でそれぞれ塗り分けられているが、その形状が理想的ではないものについては、例えば黒色や灰色などの無彩色で単色とされている。このような表示形態を用いることで、三角形やひし形などの理想的な形状に属する皮丘のブロック以外の皮丘のブロック、すなわち、凹型や長方形などの理想的でない形状に属する皮丘のブロックが、無彩色で表されるので、形状による評価が視覚的に明確化され、直感的に肌のきめの状態を視認することができる。
解析結果画像Fにおいては、皮丘のブロックの形状が理想的ではないものについても、その表面積に応じた3段階の濃淡で表されるが、その色彩が、理想的な形状となる皮丘ブロックの色彩とは異なっている。例えば、理想的な形状となる皮丘ブロックの大きさが、緑色の濃淡で表される場合に、理想的でない形状となる皮丘ブロックの大きさを、灰色の濃淡で表されるようにする。このような表示形態を用いることで、三角形やひし形などの理想的な形状に属する皮丘のブロック以外の皮丘のブロック、すなわち、凹型や長方形などの理想的でない形状に属する皮丘のブロックが、無彩色の濃淡で表されるので、表面積の大きさと形状による評価が視覚的に明確化され、直感的に肌のきめの状態を視認することができる。
なお、基準の形状A乃至Dに所定のパターンを割り当てて、そのパターンにより皮丘の形状が視認されるようにしてもよい。例えば、三角形からなる形状Aには右下がり斜線のパターン、ひし形からなる形状Bには縦縞のパターン、凹型からなる形状Cには水玉模様のパターン、矩形からなる形状Dには階段状のパターンを割り当てることができる。
解析結果画像Gにおいては、皮丘のブロックの形状に応じた塗り分けは行わないが、基準の形状A乃至Dに所定のパターンを割り当てておくことで、皮丘のブロックが、その表面積に応じた3段階の濃淡で表されるとともに、その形状に応じたパターンで塗り分けられるようにしている。例えば、形状Aには右下がり斜線のパターン、形状Bには縦縞のパターン、形状Cには水玉模様のパターン、形状Dには階段状のパターンがそれぞれ割り当てられているので、各表皮のブロックには、その形状に応じたパターンが付されることになる。なお、皮丘のブロックの形状に応じた塗り分けを行わずに、皮丘ブロックの形状に応じて4色で塗り分けるようにしてもよい。このような表示形態を用いることで、各表皮のブロックが、その表面積に応じた緑色の濃淡で表されるとともに、その形状に応じたパターンが付されるようになるので、表面積の大きさと形状による評価が視覚的に明確化され、直感的に肌のきめの状態を視認することができる。
解析結果画像Hにおいては、皮丘のブロックの表面積に応じた塗り分けは行わないが、基準の形状A乃至Dに所定のパターンを割り当てておくことで、その形状に応じたパターンで塗り分けられるようにしている。例えば、形状Aには右下がり斜線のパターン、形状Bには縦縞のパターン、形状Cには水玉模様のパターン、形状Dには階段状のパターンがそれぞれ割り当てられているので、各表皮のブロックには、その形状に応じたパターンが付されることになる。なお、皮丘のブロックの形状に応じた塗り分けを行わずに、皮丘ブロックの形状に応じて4色で塗り分けるようにしてもよい。このような表示形態を用いることで、各表皮のブロックが、その形状に応じたパターンが付されるようになるので、形状による評価が視覚的に明確化され、直感的に肌のきめの状態を視認することができる。
(3)皮丘によるきめ方向性に応じた表示形態
図8は、皮丘によるきめ方向性に応じた表示形態からなる解析結果画像を示す図である。図8においては、きめ方向性に応じて、皮丘や皮溝を塗り分けている。
図8においては、撮影画像から得られる解析結果画像I乃至Lが図示されている。解析結果画像I,Jにおいては、表皮画像内の表皮パターンを検出することで得られる皮丘の表面積に応じて3段階の濃度で色彩を塗り分けている。また、解析結果画像I,Jにおいては、3段階の濃度で塗り分けられている色彩に、皮丘によるきめ方向性に応じたグラデーションが適用されている。
解析結果画像Iにおいては、複数の皮丘のブロックをまたがる帯状の領域における色彩の濃淡を、グラデーションにより塗り分けることで、皮丘によるきめ方向性が表現されている。ここでは、例えば、ある角度のきめ方向性が、他の角度に比べて顕著に多い場合や、あるいはある角度に属する皮丘の数が一定の数を超える場合には、その角度が表されるように、帯状の領域における色彩の濃淡を、グラデーションにより塗り分けるようにする。また、解析結果画像Jにおいては、各皮丘のブロックにおける色彩の濃淡をグラデーションにより塗り分けることで、皮丘によるきめ方向性が表現されている。
このような表示形態を用いることで、グラデーションによって、皮丘によるきめ方向性が明確化され、直感的に肌のきめの状態を視認することができる。
また、解析結果画像K,Lにおいては、特に、皮丘を塗り分けていないが、表皮画像内の皮溝によるきめ方向性に応じた、色彩や記号が適用されている。
解析結果画像Kにおいては、表皮画像内の皮溝のうち、ある角度の皮溝G1乃至G5を着色することで、皮溝によるきめ方向性を強調して表示している。ここでは、例えばある角度の皮溝G1乃至G5を、他の皮溝の色と異なる赤色に着色することで、きめ方向性を強調することができる。また、解析結果画像Lにおいては、表皮画像内の皮溝のうち、ある皮溝の角度を矢印Mにより示唆して、きめ方向性を強調して表示している。なお、解析結果画像Lでは、矢印Mにより皮溝によるきめ方向性を示したが、矢印Mは一例であって、例えば記号や図形等により皮溝によるきめ方向性が強調されるようにしてもよい。
このような表示形態を用いることで、色彩や記号などによって、皮溝によるきめ方向性が明確化(強調)され、直感的に肌のきめの状態を視認することができる。なお、グラデーションによる皮丘のきめの方向性と、色彩や記号等による皮溝のきめの方向性を併用して、それらが1つの解析結果画像に含まれるようにしてもよい。このような併用を行うことで、きめの方向性がさらに明確化(強調)されることになる。
(4)皮溝の幅や深さに応じた表示形態
図9は、皮溝の深さに応じた表示形態からなる解析結果画像を示す図である。図9においては、解析結果画像M乃至Oが図示されている。解析結果画像Mにおいては、表皮画像内の皮溝の幅が、その皮溝を示す線種(線の太さ)により表されている。例えば、解析結果画像Mでは、線の幅が細いほど、その皮溝の幅が細くなり、線の幅が太いほど、その皮溝の幅が太くなることを表している。
解析結果画像Nにおいては、表皮画像内の皮溝の深さが、その皮溝を示す線の濃淡により表されている。例えば、解析結果画像Nでは、線の濃淡が薄いほど、その皮溝の深さが浅くなり、線の濃淡が濃いほど、その皮溝の深さが深くなることを表している。また、解析結果画像Nでは、黒色の線の濃淡により皮溝の深さを表しているが、黒色の線の代わりに、例えば赤色の線などの色彩を用いてもよい。解析結果画像Oにおいては、例えば赤色などの色彩により皮溝を示す線を表して、その色彩の濃淡によって、皮溝の深さを表している。
このような表示形態を用いることで、皮溝の幅や深さが明確化され、直感的に肌の状態を視認することができる。
(5)皮溝と皮丘の断面に応じた表示形態
次に、図10乃至図12を参照して、皮溝と皮丘の断面に応じた表示形態からなる解析結果画像について説明する。
図10は、皮溝の断面の表現例を示す図である。図10には、皮溝の断面として、6つの表現例を示している。図10のAは、鋭角的かつ浅い断面であって、規則性を持っているものを表している。図10のBは、鋭角的だが深い断面を表している。図10のCは、深く広がっている断面を表している。図10のDは、異なる深さを持っている断面を表している。図10のEは、なだらかで浅い断面を表している。図10のFは、陥没している断面を表している。
また、図11は、皮丘の断面の表現例を示す図である。図11には、皮丘の断面として、5つの表現例を示している。図11のAは、異なる高さを持つ断面を表している。図11のBは、異なる起伏や断面形状を持つ断面を表している。図11のCは異なるサイズを含む断面を表している。図11のDは、高さにムラのある断面を表している。図11のEは、境界がぼやけ、鮮明さを欠いている断面を表している。
図12には、皮溝と皮丘の断面に応じた表示形態からなる解析結果画像Pが図示されている。このような表示形態を用いることで、例えばきめの弾力性、前回測定のきめ状態との比較、理想的なきめ状態との比較などを表現することができる。また、毛穴の詰まり深度や大きさと皮溝状態との関係、水分量と皮溝状態との関係、シミと皮丘状態の関係などが分かりやすくなる。なお、図12の解析結果画像Pでは、断面を2次元的に表現したが、例えば、皮溝と皮丘の断面を含む形状を3次元で表示するなど、他の表示形態を用いるようにしてもよい。さらに、肌状態解析部102による肌の状態の解析処理では、先天的な要素と後天的な要素の解析結果が得られるため、表皮と真皮の両方に対応させることができる。
(6)メラニンや赤みの解析結果に応じた表示形態
図13は、メラニンや赤みの解析結果に応じた表示形態からなる解析結果画像を示す図である。図13において、解析結果画像Qは、メラニンの解析結果に応じて、表皮画像におけるシミ又はホクロが存在する位置(図中のハッチングが施された領域)が、その存在を示す色彩(例えば青色)により表されている。また、解析結果画像Rは、赤みの解析結果に応じて、表皮画像における毛細血管等が原因とされるシミが存在する位置(図中のハッチングが施された領域)が、その存在を示す色彩(例えば赤色)により表されている。
このような表示形態を用いることで、表皮画像におけるシミ又はホクロが存在する位置が明確化され、直感的に肌の状態を視認することができる。
(7)毛穴や黒ずみの分布に応じた表示形態
図14は、毛穴や黒ずみの分布に応じた表示形態からなる解析結果画像を示す図である。図14において、解析結果画像Sは、毛穴の詰まりの分布の解析結果に応じて、表皮画像における「毛穴詰まり」と「ニキビリスク」が存在する位置が、その存在を示す色彩により表されている。ここでは、「毛穴詰まり」とは、皮脂や角栓等が毛穴に詰まっている状態を示す。また、「ニキビリスク」とは、ニキビの原因となる状態を示す。
このような表示形態を用いて、「毛穴詰まり」と「ニキビリスク」を、異なる色彩(例えば、緑色と黄色など)で表すことで、毛穴の詰まりが、単なる毛穴詰まりなのか、あるいは、ニキビのリスクがあるものなのかを、直感的に視認することができる。特に、「ニキビリスク」については、例えば黄色等の色彩のコントラストで目立つ色彩を採用することで、より注意を促す必要性があるニキビのリスクを一目で視認させることができる。
解析結果画像Tは、毛穴の開きの分布の解析結果に応じて、表皮画像における毛穴の存在する位置が、その存在を示す色彩(例えば紫色)により表されているが、その毛穴の開きが大きいものは濃度の濃い色彩、中間の大きさのものは中間の濃度の色彩、小さいものは濃度の薄い色彩でそれぞれ表されている。このような表示形態を用いることで、色彩の濃淡によって、毛穴の分布だけでなく、その毛穴の開きの大きさまでを、直感的に視認することができる。
解析結果画像Uは、黒ずみの分布の解析結果に応じて、表皮画像における黒ずみの存在する位置が、その存在を示す色彩(例えば桃色)により表されているが、その黒ずみが濃いものは濃度の濃い色彩、中間の濃さのものは中間の濃度の色彩、薄い濃さのものは濃度の薄い色彩でそれぞれ表されている。このような表示形態を用いることで、色彩の濃淡によって、黒ずみの分布だけでなく、その黒ずみの濃さまでを、直感的に視認することができる。
(8)肌のきめの状態に、肌の状態を重畳させた表示形態
次に、図15乃至図16を参照して、肌のきめの状態に、肌の状態を重畳させた表示形態からなる重畳画像について説明する。
図15に示すように、きめの状態の解析結果に応じた表示形態からなる解析結果画像イに対して、メラニンや赤みの解析結果に応じた表示形態からなる肌の状態ロ、及び、毛穴や黒ずみの分布に応じた表示形態からなる肌の状態ハの少なくとも一方を重畳させることができる。このような重畳を行うことで、図16に示すように、解析結果画像イに、肌の状態ロと肌の状態ハの両方を重畳した重畳画像A、解析結果画像イに、肌の状態ロのみを重畳した重畳画像B、又は、解析結果画像イに、肌の状態ハのみを重畳した重畳画像Cが得られる。
具体的には、例えば、皮丘の表面積に応じた表示形態からなる解析結果画像A(図5)に対して、メラニンや赤みの解析結果に応じた表示形態からなる解析結果画像Q(図13)、及び、毛穴の詰まりの分布の解析結果に応じた表示形態からなる解析結果画像S(図14)の少なくとも一方を重畳させることができる。
なお、ここでは、きめの状態としては、解析結果画像A(図5)の代わりに、例えば、皮丘の形状に応じた表示形態からなる解析結果画像E(図7)や、皮丘によるきめ方向性に応じた表示形態からなる解析結果画像I(図8)等の他の解析結果画像を用いることができる。また、肌の状態ロとしては、解析結果画像Q(図13)の代わりに、例えば、解析結果画像R(図13)を用いることができる。さらに、肌の状態ハとしては、解析結果画像S(図14)の代わりに、例えば、解析結果画像T(図14)や解析結果画像U(図14)を用いることができる。
このような表示形態を用いることで、きめの状態に対して、シミやホクロの存在する位置と、毛穴や黒ずみの存在する位置が重畳表示されるため、きめとシミやホクロの関係や、きめと毛穴や黒ずみの関係を直感的に視認することができる。また、きめの状態や肌の状態ごとに、ビビッドな色でありながら、色彩系統が異なっている配色を用いた表示形態とすることで、これらの解析結果画像を重畳させても、色彩同士が干渉しないようにすることができる。なお、解析結果画像イを用いずに、肌の状態ロと肌の状態ハを重畳した重畳画像が得られるようにしてもよい。
(9)アプリケーションの表示例
次に、図17乃至図18を参照して、上述した解析結果画像や重畳画像を提示するアプリケーションの表示例について説明する。このアプリケーションは、端末装置10にあらかじめインストールされるか、あるいは、インターネットを介してアプリケーションサーバからダウンロードされてインストールされる。
図17においては、皮丘の表面積に応じた表示形態からなる解析結果画像とともに、きめの解析結果から得られる数値(例えばきめの評価)やグラフ(例えばきめ解析グラフ)が表示されている。また、図18においては、毛穴や黒ずみの分布に応じた表示形態からなる解析結果画像とともに、毛穴や黒ずみの解析結果から得られる数値(例えば毛穴の評価)が表示されている。なお、ここでは、図示は省略するが、シミの画面についても、上述したきめや毛穴の画面と同様に表示される。
このように、解析結果画像だけでなく、その解析結果画像に関連する数値やグラフなどを同時に表示させることで、ユーザは、直感的に肌の状態を視認するだけでなく、それに関連する詳細な情報を同時に得ることができる。その結果、ユーザは、関連する詳細な情報を確認して、自身の肌の状態を認識しやすくなる。
<4.応用例:最適測定部位を指標するUI表現>
ところで、ユーザの顔の肌の表皮において、肌の状態の解析処理の対象となる表皮画像として撮影する部位には、例えば、頬、口元、額などの解析処理の対象として適した部位(以下、「測定最適部位」という。)が存在するので、この測定最適部位を撮影して得られる表皮画像を解析できるようにする。
図19は、測定最適部位を指標するための表示例を示す図である。図19の表示例においては、模式的に表した顔面上に、測定最適部位である頬、口元、額を指標するための枠A,B,Cが表示されている。ユーザは、これらの枠A,B,Cを指標にして、肌測定器20によって自身の顔の肌の表皮画像を撮影することになる。例えば、図19においては、肌測定器20により撮影された表皮画像(図19の「Initial Captured Area(ICA)」)が、頬の測定最適部位(図19の「User Targeted Area(A)」)を含んでいるため、測定最適部位を含む表皮画像が撮影されていることになる。なお、図19の点線で囲まれる領域が、測定可能な許容範囲(図19の「Acceptable Area(AA)」)とされる。また、図19の表示例では、模式的に表した顔面が表示されているが、実際に撮影されたユーザの顔画像が表示されるようにしてもよい。
ここで、肌のきめの分布が指紋などと同様に、個人を識別するための情報となることは知られているが、そこに着目して、肌のきめの分布を用いて表皮画像に含まれる測定最適部位のマッチングを行い、ユーザごとの測定最適部位を少なくとも含む表皮画像を時系列で記録することができる。
例えば、1回目に撮影された表皮画像(図20の「Initial Captured Area(ICA)」)と、2回目に撮影された表皮画像(図20の「2014/3/28 Captured Area(CA)」)において、頬の測定最適部位が含まれている場合には、それらの測定最適部位のマッチングを行うことで、それらの表皮画像(に含まれる測定最適部位)を関連付けて記録するようにする。例えば、1日単位や1週間単位など所定の測定間隔で肌の測定が行われた場合には、その測定間隔で撮影された表皮画像(に含まれる測定最適部位)が時系列で記録されることになる。なお、例えば、測定最適部位のマッチング処理は、肌状態解析部102により実行され、当該測定最適部位を少なくとも含む表皮画像は、肌状態解析部102が有する記録部(不図示)などに記録される。
また、当該記録部に記録する顔面上の特定の領域をユーザが設定して、その領域に応じた表皮画像が記録部に記録されるようにしてもよい。例えば、解析結果画像でなくともユーザが視認可能な濃いシミやホクロなどの領域を最優先とし、次いで、薄いシミや黒ずみを指標とする解析結果画像(例えば、解析結果画像Q,R)、さらに、毛穴の状態を示す解析結果画像(例えば、解析結果画像S,T)という順序で、画像検出された領域において毎回計測を行い、記録部に記録すべき特定の領域をユーザに視認(設定)させることができる。
なお、図20においては、2回目に撮影される表皮画像が、測定最適部位の一部しか含んでいないので、全てを含むように撮影位置が誘導されるようにしてもよい。例えば、図21に示すように、肌測定器20により撮影される表皮画像が、測定最適部位等のターゲットゾーンの一部を含んでいるが、全てを含んでいない場合には、肌測定器20を最適な撮影位置に誘導するためのメッセージを表示して、測定最適部位を全て含む表皮画像が撮影できるように支援することができる。すなわち、表示制御部153は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合には、現在の撮影位置から、最適な撮影位置に誘導するためのメッセージを表示させる。
また、図22に示すように、肌測定器20により撮影される表皮画像が最適測定部位等のターゲットゾーンを全く含んでいない場合には、その旨のメッセージを表示して、再度、表皮画像を撮影することを促すようにすることができる。ここでは、ユーザが、全く的外れな撮影位置で、肌測定器20により撮影を行った場合には、模式的に表した顔面上に、模式的に撮影された領域を指標して、ターゲットゾーンからどれくらい外れているかを指標するようにしてもよい。すなわち、表示制御部153は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合には、現在の撮影位置から、最適な撮影位置までの距離を表示させる。
このように、撮影ナビゲーションの機能を提供することで、ユーザは、当該撮影ナビゲーションに従い、肌の測定を行うので、肌測定器20による表皮画像の撮影(測定)の精度を向上させることができる。
<5.変形例:簡略化した表示形態>
上述した説明では、肌の状態を示す解析結果画像を表示させる例を説明したが、例えば、図23に示すように、単に、皮溝を介して隣り合う皮丘のブロックを異なる色彩で塗り分けることでも、各皮丘を視認させることができるので、直感的に肌の状態を視認することができる。また、例えば、図24に示すように、単に、毛穴の大きさを異なる色彩で塗り分けることでも、各毛穴を視認させることができるので、直感的に肌の状態を視認することができる。
<6.他のシステム構成>
ところで、図1の肌解析表示システム1は、端末装置10と肌測定器20から構成されるとして説明したが、インターネット上に専用のサーバを設けて、当該サーバが、端末装置10の機能の一部を実現するようにしてもよい。以下、図25乃至図27を参照して、肌解析表示システムの他の構成について説明する。
(肌解析表示システムの他の構成1)
図25は、本技術を適用した肌解析表示システムの一実施の形態の他の構成を示す図である。
図25に示すように、肌解析表示システム2は、端末装置10、肌測定器20、解析サーバ30、及び、アプリケーションサーバ40から構成される。ただし、端末装置10と肌測定器20は、所定の規格に対応したケーブルを介して接続されている。また、端末装置10は、インターネット90を介して、解析サーバ30及びアプリケーションサーバ40と相互に接続されている。
端末装置10は、インターネット90を介してアプリケーションサーバ40にアクセスして、アプリケーションをダウンロードする。端末装置10は、アプリケーションの実行中に、肌測定器20から供給される撮影画像を、インターネット90を介して解析サーバ30に送信する。
解析サーバ30は、インターネット90を介して端末装置10から送信されてくる撮影画像に基づいて、肌の状態を解析する解析処理を行う。解析サーバ30は、解析処理で得られる肌の状態の解析結果を、インターネット90を介して端末装置10に送信する。端末装置10は、インターネット90を介して解析サーバ30から送信されてくる肌の状態の解析結果を受信して取得する。端末装置10は、解析サーバ30から取得した肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を生成して、表示部104に表示する。
すなわち、この場合の端末装置10と解析サーバ30の処理の分担を、図3のフローチャートに当てはめれば、ステップS101,103の処理は、端末装置10により実行され、図3のステップS102の処理は、解析サーバ30により実行されることになる。
また、解析サーバ30は、肌の状態を解析する解析処理を行った後、その解析処理で得られる肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を生成し、インターネット90を介して端末装置10に送信するようにしてもよい。この場合、端末装置10は、インターネット90を介して解析サーバ30から送信されてくる解析結果画像を受信して、表示部104に表示することになる。
すなわち、この場合の端末装置10と解析サーバ30の処理の分担を、図3のフローチャートに当てはめれば、ステップS101の処理は、端末装置10により実行され、図3のステップS102,103の処理は、解析サーバ30により実行されることになる。つまり、この場合、端末装置10は、解析サーバ30からの制御に従い、解析結果画像を、表示部104に表示することになる。
以上のように、肌解析表示システム2では、解析処理等については解析サーバ30側で集中して実行するため、端末装置10側の処理負荷を軽減することができる。また、肌解析表示システム2においても、肌の解析結果から得られる情報が、所定の表示形態で、表示部104に表示されるので、ユーザに対して、直感的に自身の肌の状態を視認させることができる。
(肌解析表示システムの他の構成2)
図26は、本技術を適用した肌解析表示システムの一実施の形態の他の構成を示す図である。
図26の肌解析表示システム3においては、図25の肌解析表示システム2と比べて、端末装置10に肌測定器20が接続されていない点が異なる。すなわち、図26の端末装置10は、肌測定器20から撮影画像を取得するのではなく、内蔵する肌測定部(不図示)により、ユーザの顔の肌の表皮を撮影して得られる撮影画像を取得する。そして、端末装置10は、撮影画像を、インターネット90を介して解析サーバ30に送信することで、解析サーバ30による肌の状態の解析結果に応じた所定の表示形態からなる解析結果画像に表示することになる。
以上のように、肌解析表示システム3では、肌測定器20を接続するのではなく、端末装置10に内蔵された肌測定部を用いるため、ユーザは、肌測定器20を用意する手間を省くことができる。また、肌解析表示システム3においても、肌の解析結果から得られる情報が、所定の表示形態で、表示部104に表示されるので、ユーザに対して、直感的に自身の肌の状態を視認させることができる。
(肌解析表示システムの他の構成3)
図27は、本技術を適用した肌解析表示システムの一実施の形態の他の構成を示す図である。
図27の肌解析表示システム4においては、図26の肌解析表示システム3と比べて、インターネット90に解析サーバ30が接続されていない点が異なる。肌解析表示システム4において、端末装置10は、インターネット90を介してアプリケーションサーバ40にアクセスし、アプリケーションをダウンロードする。端末装置10は、アプリケーションの実行中に、内蔵する肌測定部により撮像された撮影画像に基づいて、肌の状態を解析する解析処理を行う。そして、端末装置10は、肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を生成して、表示部104に表示する。
すなわち、この場合、図3のステップS101乃至S103の処理は、端末装置10により実行されることになる。
以上のように、肌解析表示システム4では、アプリケーションがインターネット90を介してアプリケーションサーバ40から配信されるので、アプリケーションのバージョンアップなどに容易に対応することができる。また、肌解析表示システム4では、肌測定器20を接続するのではなく、端末装置10に内蔵された肌測定部を用いるため、ユーザは、肌測定器20を用意する手間を省くことができる。さらにまた、肌解析表示システム4においても、肌の解析結果から得られる情報が、所定の表示形態で、表示部104に表示されるので、ユーザに対して、直感的に自身の肌の状態を視認させることができる。
<7.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図28は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインターフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、例えば、記録部908に記憶されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
ここで、本明細書において、コンピュータ900に各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得する取得部と、
肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる表示制御部と
を備える情報処理装置。
(2)
前記表示制御部は、皮丘の表面積に応じて、皮溝を介して隣り合う皮丘のブロックを塗り分けた表示形態からなる前記解析結果画像を表示させる
(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記皮丘のブロックを、濃淡の異なる同系色の色彩で塗り分けて表示させる
(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記皮溝の幅を線種により示し、前記皮溝の深度を色彩の濃淡により示すように表示させる
(2)又は(3)に記載の情報処理装置。
(5)
前記表示制御部は、濃淡の異なる同系色の色彩で塗り分けられた前記皮丘のブロックに、他の肌の状態を重ね合わせて表示させる
(3)に記載の情報処理装置。
(6)
前記表示制御部は、濃淡の異なる同系色の色彩で塗り分けられた前記皮丘のブロックに、毛穴の分布をさらに重ね合わせて表示させる
(5)に記載の情報処理装置。
(7)
前記毛穴の分布は、毛穴詰まりの分布であって、単なる毛穴詰まりと、ニキビの原因となるニキビリスクが異なる色彩で表されている
(6)に記載の情報処理装置。
(8)
前記表示制御部は、皮丘の形状に応じて、特定の形状からなる皮丘のブロックを塗り分けた表示形態からなる前記解析結果画像を表示させる
(1)乃至(3)のいずれか一項に記載の情報処理装置。
(9)
前記表示制御部は、皮丘によるきめ方向性に応じて、グラデーションが適用された表示形態からなる前記解析結果画像を表示させる
(1)乃至(3)のいずれか一項に記載の情報処理装置。
(10)
前記表示制御部は、皮溝によるきめ方向性に応じて、色彩又は記号が適用された表示形態からなる前記解析結果画像を表示させる
(1)に記載の情報処理装置。
(11)
前記表示制御部は、皮溝と皮丘の断面に応じた表示形態からなる前記解析結果画像を表示させる
(1)に記載の情報処理装置。
(12)
前記表示制御部は、毛穴詰まり分布、毛穴開き分布、及び、黒ずみ分布の少なくとも1つについて、同系色の濃淡で複数の段階で表された表示形態からなる前記解析結果画像を表示させる
(1)に記載の情報処理装置。
(13)
前記毛穴詰まり分布では、単なる毛穴詰まりと、ニキビの原因となるニキビリスクが異なる色彩で表されている
(12)に記載の情報処理装置。
(14)
前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、顔面上に、肌の状態の解析処理の対象として適した部位である測定最適部位を指標する情報を表示させる
(1)に記載の情報処理装置。
(15)
ユーザが顔の肌の表皮を撮影する度に、肌の状態の解析結果得られる肌のきめの分布を用いて、前記表皮画像に含まれる前記測定最適部位のマッチングを行うことで、前記測定最適部位を少なくとも含む前記表皮画像を時系列で記録する記録部をさらに備える
(14)に記載の情報処理装置。
(16)
前記記録部は、ユーザによる設定に応じて、前記表皮画像を記録する
(15)に記載の情報処理装置。
(17)
前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合、現在の撮影位置から、最適な撮影位置に誘導するためのメッセージを表示させる
(14)乃至(16)のいずれか一項に記載の情報処理装置。
(18)
前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合、現在の撮影位置から、最適な撮影位置までの距離を表示させる
(14)乃至(17)のいずれか一項に記載の情報処理装置。
(19)
情報処理装置の情報処理方法において、
前記情報処理装置が、
肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得し、
肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる
ステップを含む情報処理方法。
(20)
コンピュータを、
肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得する取得部と、
肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる表示制御部と
して機能させるためのプログラム。
1,2,3,4 肌解析表示システム, 10 端末装置, 20 肌測定部, 30 解析サーバ, 40 アプリケーションサーバ, 90 インターネット, 101 撮影画像取得部, 102 肌状態解析部, 103 解析結果画像表示制御部, 104 表示部, 151 解析結果取得部, 152 解析結果画像生成部, 153 表示制御部, 900 コンピュータ, 901 CPU

Claims (20)

  1. 肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得する取得部と、
    肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる表示制御部と
    を備える情報処理装置。
  2. 前記表示制御部は、皮丘の表面積に応じて、皮溝を介して隣り合う皮丘のブロックを塗り分けた表示形態からなる前記解析結果画像を表示させる
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記皮丘のブロックを、濃淡の異なる同系色の色彩で塗り分けて表示させる
    請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記皮溝の幅を線種により示し、前記皮溝の深度を色彩の濃淡により示すように表示させる
    請求項3に記載の情報処理装置。
  5. 前記表示制御部は、濃淡の異なる同系色の色彩で塗り分けられた前記皮丘のブロックに、他の肌の状態を重ね合わせて表示させる
    請求項3に記載の情報処理装置。
  6. 前記表示制御部は、濃淡の異なる同系色の色彩で塗り分けられた前記皮丘のブロックに、毛穴の分布をさらに重ね合わせて表示させる
    請求項5に記載の情報処理装置。
  7. 前記毛穴の分布は、毛穴詰まりの分布であって、単なる毛穴詰まりと、ニキビの原因となるニキビリスクが異なる色彩で表されている
    請求項6に記載の情報処理装置。
  8. 前記表示制御部は、皮丘の形状に応じて、特定の形状からなる皮丘のブロックを塗り分けた表示形態からなる前記解析結果画像を表示させる
    請求項1に記載の情報処理装置。
  9. 前記表示制御部は、皮丘によるきめ方向性に応じて、グラデーションが適用された表示形態からなる前記解析結果画像を表示させる
    請求項1に記載の情報処理装置。
  10. 前記表示制御部は、皮溝によるきめ方向性に応じて、色彩又は記号が適用された表示形態からなる前記解析結果画像を表示させる
    請求項1に記載の情報処理装置。
  11. 前記表示制御部は、皮溝と皮丘の断面に応じた表示形態からなる前記解析結果画像を表示させる
    請求項1に記載の情報処理装置。
  12. 前記表示制御部は、毛穴詰まり分布、毛穴開き分布、及び、黒ずみ分布の少なくとも1つについて、同系色の濃淡で複数の段階で表された表示形態からなる前記解析結果画像を表示させる
    請求項1に記載の情報処理装置。
  13. 前記毛穴詰まり分布では、単なる毛穴詰まりと、ニキビの原因となるニキビリスクが異なる色彩で表されている
    請求項12に記載の情報処理装置。
  14. 前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、顔面上に、肌の状態の解析処理の対象として適した部位である測定最適部位を指標する情報を表示させる
    請求項1に記載の情報処理装置。
  15. ユーザが顔の肌の表皮を撮影する度に、肌の状態の解析結果得られる肌のきめの分布を用いて、前記表皮画像に含まれる前記測定最適部位のマッチングを行うことで、前記測定最適部位を少なくとも含む前記表皮画像を時系列で記録する記録部をさらに備える
    請求項14に記載の情報処理装置。
  16. 前記記録部は、ユーザによる設定に応じて、前記表皮画像を記録する
    請求項15に記載の情報処理装置。
  17. 前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合、現在の撮影位置から、最適な撮影位置に誘導するためのメッセージを表示させる
    請求項16に記載の情報処理装置。
  18. 前記表示制御部は、ユーザが顔の肌の表皮を撮影する際に、現在の撮影位置が最適な撮影位置から外れている場合、現在の撮影位置から、最適な撮影位置までの距離を表示させる
    請求項17に記載の情報処理装置。
  19. 情報処理装置の情報処理方法において、
    前記情報処理装置が、
    肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得し、
    肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる
    ステップを含む情報処理方法。
  20. コンピュータを、
    肌の表皮を撮影して得られる表皮画像に基づいた肌の状態の解析結果を取得する取得部と、
    肌の状態の解析結果に基づいて、所定の表示形態からなる解析結果画像を、表示部に表示させる表示制御部と
    して機能させるためのプログラム。
JP2016513732A 2014-04-18 2015-04-08 情報処理装置、情報処理方法、及び、プログラム Pending JPWO2015159767A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014086916 2014-04-18
JP2014086916 2014-04-18
PCT/JP2015/060925 WO2015159767A1 (ja) 2014-04-18 2015-04-08 情報処理装置、情報処理方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JPWO2015159767A1 true JPWO2015159767A1 (ja) 2017-04-13

Family

ID=54323978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016513732A Pending JPWO2015159767A1 (ja) 2014-04-18 2015-04-08 情報処理装置、情報処理方法、及び、プログラム

Country Status (6)

Country Link
US (1) US11324438B2 (ja)
JP (1) JPWO2015159767A1 (ja)
KR (1) KR102383182B1 (ja)
CN (1) CN106163384B (ja)
TW (1) TW201540264A (ja)
WO (1) WO2015159767A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI701018B (zh) * 2015-01-29 2020-08-11 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式
JP6380988B2 (ja) * 2015-03-31 2018-08-29 富士フイルム株式会社 肌評価装置および方法並びにプログラム
TWI657799B (zh) * 2016-09-29 2019-05-01 麗寶大數據股份有限公司 電子裝置與其提供膚質檢測資訊的方法
CN109064438A (zh) * 2017-06-09 2018-12-21 丽宝大数据股份有限公司 皮肤状态检测方法、电子装置与皮肤状态检测系统
EP3664016B1 (en) * 2017-08-24 2022-06-22 Huawei Technologies Co., Ltd. Image detection method and apparatus, and terminal
KR102052723B1 (ko) * 2017-11-30 2019-12-13 주식회사 룰루랩 포터블 피부 상태 측정 장치, 및 피부 상태 진단 및 관리 시스템
KR102055881B1 (ko) * 2018-01-09 2019-12-13 주식회사 룰루랩 피부 상태 측정용 모듈
KR102268759B1 (ko) * 2019-05-20 2021-06-24 주식회사 룰루랩 피부 상태 측정 및 케어용 디바이스, 및 이를 포함하는 피부 상태 측정 및 케어 시스템
EP3903668A1 (en) * 2020-04-30 2021-11-03 Koninklijke Philips N.V. A system for providing guidance
US20230112939A1 (en) * 2020-04-03 2023-04-13 Koninklijke Philips N.V. A system for providing guidance
CN115516503A (zh) 2020-05-08 2022-12-23 宝洁公司 用于识别树突状毛孔的方法
CN112221021B (zh) * 2020-11-02 2023-02-07 中南大学湘雅三医院 一种皮肤科智能激光祛斑控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08308634A (ja) * 1995-05-23 1996-11-26 Pola Chem Ind Inc 肌の評価装置
JP2006305184A (ja) * 2005-04-28 2006-11-09 Shiseido Co Ltd 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2013169291A (ja) * 2012-02-20 2013-09-02 Kao Corp 表皮組織シミュレーション装置及び表皮組織シミュレーション方法
WO2014027522A1 (ja) * 2012-08-17 2014-02-20 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040146290A1 (en) * 2001-11-08 2004-07-29 Nikiforos Kollias Method of taking images of the skin using blue light and the use thereof
JP4230848B2 (ja) * 2003-07-16 2009-02-25 株式会社肌粧品科学開放研究所 皮膚表面状態評価方法並びにその装置
ATE459292T1 (de) * 2004-10-22 2010-03-15 Shiseido Co Ltd Diagnosesystem für hautzustände und schönheitsberatungssystem
EP2474264B1 (en) 2005-04-28 2013-07-24 Shiseido Company, Limited Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program
CN1961820B (zh) * 2005-11-08 2011-03-16 株式会社资生堂 肌肤状态分析方法以及肌肤状态分析装置
US8478386B2 (en) * 2006-01-10 2013-07-02 Accuvein Inc. Practitioner-mounted micro vein enhancer
US8489178B2 (en) * 2006-06-29 2013-07-16 Accuvein Inc. Enhanced laser vein contrast enhancer with projection of analyzed vein data
EP2005885A1 (en) * 2007-06-19 2008-12-24 Astron Clinica Limited Method and apparatus for measuring skin texture
US8896622B2 (en) * 2009-09-04 2014-11-25 Adobe Systems Incorporated Methods and apparatus for marker-based stylistic rendering
US20120065518A1 (en) * 2010-09-15 2012-03-15 Schepens Eye Research Institute Systems and methods for multilayer imaging and retinal injury analysis
TWI471117B (zh) * 2011-04-29 2015-02-01 Nat Applied Res Laboratoires 可用於行動裝置之人臉膚質評估演算介面裝置
JP5733570B2 (ja) 2011-05-23 2015-06-10 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および、記録媒体
JP5733032B2 (ja) * 2011-06-06 2015-06-10 ソニー株式会社 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体
RU2628648C2 (ru) * 2011-08-01 2017-08-21 Конинклейке Филипс Н.В. Устройство и способ получения и обработки показаний измерений живых существ
KR20130033125A (ko) * 2011-09-26 2013-04-03 삼성전자주식회사 컨텐츠변환장치 및 컨텐츠변환방법
US10568586B2 (en) * 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
WO2014125492A1 (en) * 2013-02-13 2014-08-21 Uzi Rahum Device, system and method for blood vessel imaging and marking
US9992409B2 (en) * 2013-02-14 2018-06-05 Panasonic Intellectual Property Management Co., Ltd. Digital mirror apparatus
JP6251489B2 (ja) * 2013-03-28 2017-12-20 株式会社 資生堂 画像解析装置、画像解析方法、及び画像解析プログラム
TWI620547B (zh) 2013-08-30 2018-04-11 Sony Corp Information processing device, information processing method and information processing system
US20160300094A1 (en) * 2013-11-12 2016-10-13 Zhejiang Wellcom Technology Co., Ltd. Skin texture collection and identity recognition method and system
TWI701018B (zh) 2015-01-29 2020-08-11 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08308634A (ja) * 1995-05-23 1996-11-26 Pola Chem Ind Inc 肌の評価装置
JP2006305184A (ja) * 2005-04-28 2006-11-09 Shiseido Co Ltd 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2013169291A (ja) * 2012-02-20 2013-09-02 Kao Corp 表皮組織シミュレーション装置及び表皮組織シミュレーション方法
WO2014027522A1 (ja) * 2012-08-17 2014-02-20 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Also Published As

Publication number Publication date
CN106163384B (zh) 2019-11-19
US20170119301A1 (en) 2017-05-04
US11324438B2 (en) 2022-05-10
KR20160144971A (ko) 2016-12-19
WO2015159767A1 (ja) 2015-10-22
TW201540264A (zh) 2015-11-01
KR102383182B1 (ko) 2022-04-06
CN106163384A (zh) 2016-11-23

Similar Documents

Publication Publication Date Title
WO2015159767A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US11154200B2 (en) Skin assessment using image fusion
US9517029B2 (en) Image processing device, image processing method, image processing system, program, and recording medium
EP3000386B1 (en) Skin function evaluation device and skin evaluation method
US10682089B2 (en) Information processing apparatus, information processing method, and program
KR102383183B1 (ko) 정보 처리 장치, 정보 처리 시스템, 및, 프로그램
US20190133513A1 (en) Enhancing pigmentation in dermoscopy images
JP6026655B2 (ja) 透明感評価装置、透明感評価装置の作動方法、透明感評価方法および透明感評価プログラム
US10638968B2 (en) Skin gloss evaluation device, skin gloss evaluation method, and skin gloss evaluation program
JP2004321793A (ja) 皮膚画像のコンピュータ解析のための方法およびシステム
JP2023040229A (ja) 美容的皮膚特性を視覚化するための装置及び方法
CN101754701A (zh) 用于推介个人护理产品的方法及所用的工具
JP5426475B2 (ja) 肌の色ムラ解析装置、肌の色ムラ解析方法、及び肌の色ムラ解析プログラム
JP5771647B2 (ja) 肌解析装置、肌解析システム、肌解析方法および肌解析プログラム
US20170079599A1 (en) Moisture feeling evaluation device, moisture feeling evaluation method, and moisture feeling evaluation program
JP2007152084A (ja) 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
CN107533765B (zh) 跟踪光学物体的装置,方法和系统
JPWO2014007268A1 (ja) レンズユニット
CA3067222A1 (en) Intelligent whiteboard collaboration systems and methods
JP2013212177A (ja) 画像解析方法、画像解析装置、及び画像解析プログラム
JP2011086052A (ja) 手認識装置
JP2008198156A (ja) 毛髪画像表示方法及び表示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191024