JP6343612B2 - 肌分析方法、肌分析装置および肌分析装置の制御方法 - Google Patents

肌分析方法、肌分析装置および肌分析装置の制御方法 Download PDF

Info

Publication number
JP6343612B2
JP6343612B2 JP2015529388A JP2015529388A JP6343612B2 JP 6343612 B2 JP6343612 B2 JP 6343612B2 JP 2015529388 A JP2015529388 A JP 2015529388A JP 2015529388 A JP2015529388 A JP 2015529388A JP 6343612 B2 JP6343612 B2 JP 6343612B2
Authority
JP
Japan
Prior art keywords
target
skin
face image
extraction
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015529388A
Other languages
English (en)
Other versions
JPWO2015015793A1 (ja
Inventor
稔也 新井
稔也 新井
雅子 池田
雅子 池田
内田 真司
真司 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2015015793A1 publication Critical patent/JPWO2015015793A1/ja
Application granted granted Critical
Publication of JP6343612B2 publication Critical patent/JP6343612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Dermatology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本願は、肌分析方法、肌分析装置および肌分析装置の制御方法に関する。
従来、肌を撮影した画像に基づき、肌の状態を分析し、分析結果を可視化および定量化することが行われている。このためには、肌画像に基づいて、肌表面に存在する分析対象を抽出する必要がある。
特許文献1は、得られた肌画像に対して十字二値化処理及び/又は短直線マッチング処理を含む画像処理を行うことでキメ及び/又はシワの抽出を行う技術を開示している。
特許文献2は、撮像された画像の輝度値のばらつきが所定値以上になるように各画素の輝度値を変換し、各画素を二値化し、二値化された黒画素と所定の短直線とをマッチングすることで、皮溝を抽出する技術を開示している。
非特許文献1は、肌のエッジ方向を局所特徴に基づいて予め定め、予め定められた方位を持つGaborフィルタを用いてフィルタリング処理を行うことで、シワを抽出する技術を開示している。
国際公開第09/142069号 特許第4909686号
Cula et al., "Assessing facial wrinkles: automatic detection and quantification", Skin Research and Technology 2013
しかし、肌表面を分析するためには煩雑な操作または大がかりな装置が必要であり、任意の顔画像に基づき分析するためには、さらなる検討が必要とされていた。
本願に開示された肌分析装置を制御する制御方法は、被験者の顔画像を取得するカメラ、前記被験者の顔画像を表示するディスプレイおよびコンピュータを備えた肌分析装置を制御する制御方法であって、前記肌分析装置の前記コンピュータに、前記被験者の顔画像を取得させ、前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定させ、前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出させ、前記抽出したターゲットを前記肌分析装置のディスプレイに表示させる。
本願に開示された肌分析方法および肌分析装置によれば、ユーザの要求に合わせた任意の肌シワ検出を、顔全体に対して自動で実行することが可能となる。
肌の内部の構造を模式的に示す図である。 本開示の実施の形態1における肌分析装置の全体像を示す図である。 (a)は、制御装置302の構成を示す図であり、(b)は、クラウドサーバ307の構成を示す図である。 本開示の実施の形態1における肌分析装置の機能ブロック図である。 本開示の実施の形態1において、肌分析装置によって、肌の評価を行う手順を示すフローチャートである。 (a)は、肌分析前にディスプレイに表示される表示画面例の一例を示す図である。(b)は、画像の撮像時にディスプレイに表示される表示画面の一例を示す図である。 (a)、(b)、(c)は、それぞれ画像上の位置に基づいてターゲット特徴を決定し抽出する途中経過を模式的に示す図である。 (a)、(b)は、それぞれ肌分析後にディスプレイに表示される表示画面の一例を示す図である。 (a)、(b)は、それぞれディスプレイに表示される表示画面の一例を示す図である。 (a)、(b)は、それぞれディスプレイに表示される表示画面の一例を示す図である。 本開示の実施の形態2における、肌分析装置の機能ブロック図である。 本開示の実施の形態2において、肌分析装置によって、肌の評価を行う手順を示すフローチャートである。 (a)、(b)、(c)は、それぞれ顔の特徴点に基づいてターゲット特徴を決定し抽出する途中経過を、模式的に示す図である。 本開示の実施の形態3における、肌分析装置の全体像を示す図である。 本開示の実施の形態3における、クラウドサーバおよび肌分析装置の構成を示す図である。 本開示の実施の形態3における、クラウドサーバおよび肌分析装置の機能ブロック図である。 本開示の実施の形態3において、肌分析装置によって、肌の評価を行う手順を示すフローチャートである。 (a)は、実施の形態4における情報提供システムの全体像であり、(b)および(c)は、データセンタの構成を示している。 サービスの類型1(自社データセンタ型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 サービスの類型2(IaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 サービスの類型3(PaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 サービスの類型4(SaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。
(本発明の基礎となった知見)
非特許文献1に開示されている技術は、Gaborフィルタを用いてユーザの肌画像におけるシワ(皮溝)を抽出し、抽出されたシワに基づいて肌状態を評価している。ここでGaborフィルタは、特定の方位を決定し、決定された方位に向かって刻まれているシワを抽出する。
しかし、非特許文献1に開示されている技術では、顔画像から所定部分を切り出し、切り出した画像について評価を行う。この画像の切り出しは専門家が行うため、ユーザ自身が気軽に顔画像から肌状態の評価を行うことが出来なかった。また、非特許文献1に開示されている技術では、ユーザの肌のどの方向へ顕著にシワ(皮溝)が刻まれているかという画像の局所的な特徴から、Gaborフィルタの方位を決定している。そのため、例えば、顔画像においてユーザが小鼻のシワの評価を所望する場合であっても、顔画像から顕著なほうれい線が検出されるなど、検出されるシワの種類とユーザが評価を所望するシワの種類とが一致しないという課題があった。
特に、肌状態を評価する顔画像上の位置に応じて、ユーザ毎に異なる種類のシワを評価したいというニーズを満たすための技術的な解決策に関しては、検討されていなかった。
本願発明者は、このような課題に鑑み新規な、肌分析方法、肌分析装置および肌分析装置の制御方法を想到した。本願の肌分析方法、肌分析装置および肌分析装置の制御方法の概要は以下の通りである。
本願に開示された肌分析装置を制御する制御方法の一態様は、被験者の顔画像を取得するカメラ、前記被験者の顔画像を表示するディスプレイおよびコンピュータを備えた肌分析装置を制御する制御方法であって、前記肌分析装置の前記コンピュータに、前記被験者の顔画像を取得させ、前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定させ、前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出させ、前記抽出したターゲットを前記肌分析装置のディスプレイに表示させる。
本態様では、肌分析装置のコンピュータに、顔画像上の位置に基づいて、顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定させる。そのため、ターゲットを抽出するという肌領域の分析のために、専門家のオペレーション(顔画像の切り出し)が不要となり、ユーザが顔画像を用意するだけで肌領域の分析および評価が可能となる。
またコンピュータに、前記取得した顔画像に含まれる顔部位を検出させ、前記検出した顔部位に対する前記顔画像上における相対位置に基づいて、前記複数の肌領域を決定させ、決定した前記複数の肌領域における前記ターゲットの抽出基準を決定させる。つまり、顔画像内のどの位置にある肌領域であるかに基づいて、ターゲットの抽出基準を決定する。そのため、例えば、顔画像における目元のターゲットと、口まわりにおけるターゲットとで抽出基準を変えるなど、肌領域の場所ごとに異なる抽出基準にてターゲットを抽出することができる。
上記態様において、例えば、前記相対位置に応じて前記複数の肌領域の1つにおけるターゲットの複数の抽出基準を前記ディスプレイに選択可能に表示させ、前記複数の抽出基準のうちの1つが選択されたと判断された場合に、前記選択された1つの抽出基準を満たす前記ターゲットを抽出させ、前記抽出したターゲットを前記ディスプレイに表示させてもよい。
上記態様により、肌状態を評価する顔画像上の肌領域の位置に応じて、ユーザ毎に異なる種類のシワを評価できる。
また、例えば、顔画像においてユーザが小鼻のシワの評価を所望する場合であっても、顔画像から顕著なほうれい線が検出されるなど、検出されるシワの種類とユーザが評価を所望するシワの種類とが一致しないということがない。
上記態様において、例えば、前記ターゲットは皮溝および/または被毛であってもよい。
上記態様において、例えば、前記抽出基準は前記ターゲットの角度、太さ、長さのうち少なくとも一つを示す値であってもよい。
上記態様において、例えば、前記顔部位との相対位置は、眉間、目の下、目尻、目頭、鼻側面、口元および額のいずれかであってもよく、またはその組み合わせであってもよい。
上記態様において、例えば、前記抽出したターゲットは、前記顔画像に重畳して前記ディスプレイに表示されてもよい。
上記態様において、例えば、フィルタリング処理によって前記決定された抽出基準を満たす前記ターゲットを抽出させ、前記抽出基準は前記フィルタリング処理に用いるフィルタの性質であってもよい。
上記態様において、例えば、前記顔部位と前記複数の肌領域との相対位置に対応させて記憶された所定の抽出基準に基づいて、前記ターゲットを抽出させるとしてもよい。
上記態様において、例えば、前記所定の抽出基準は、前記肌分析装置のメモリに記憶されてもよい。
上記態様において、例えば、前記所定の抽出基準は、ネットワークを介して前記肌分析装置からアクセス可能なサーバに記憶されていてもよい。
上記態様において、例えば、前記複数の抽出基準のうちの1つが選択された回数が、ネットワークを介して前記肌分析装置からアクセス可能なサーバに記憶され、前記所定の抽出基準は、選択された頻度に基づいて決定されてもよい。
また、本願に開示された肌評価方法の一態様は、被験者の顔画像を取得し、前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定し、前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出し、前記抽出したターゲットをディスプレイに表示する。
上記態様において、例えば、前記相対位置に応じて前記複数の肌領域の1つにおけるターゲットの複数の抽出基準を前記ディスプレイに選択可能に表示し、前記複数の抽出基準のうちの1つが選択されたと判断した場合に、前記1つの抽出基準を満たす前記ターゲットを抽出し、前記抽出したターゲットを前記ディスプレイに表示させるとしてもよい。
上記態様において、例えば、前記ターゲットは皮溝および/または被毛であってもよい。
上記態様において、例えば、前記抽出基準は前記ターゲットの角度、太さ、長さのいずれかを示す値であってもよい。
上記態様において、例えば、前記顔部位との相対位置は、眉間、目の下、目尻、目頭、鼻側面、口元および額のいずれかであってもよく、またはその組み合わせであってもよい。
上記態様において、例えば、フィルタリング処理によって前記決定された抽出基準を満たす前記ターゲットを抽出し、前記抽出基準は前記フィルタリング処理に用いるフィルタの性質であってもよい。
本願に開示された肌分析装置を制御するコンピュータプログラムの一態様は、被験者の顔画像を取得するカメラ、前記被験者の画像を表示するディスプレイおよびコンピュータを備えた肌分析装置を制御するコンピュータプログラムであって、前記肌分析装置のコンピュータに、前記被験者の顔画像を取得させ、前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定させ、前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出させ、前記抽出したターゲットを前記肌分析装置のディスプレイに表示させる。
これにより、例えば決まったガイドにあわせて撮影された顔画像において、画像内の位置に応じて違った肌状態を抽出することを可能にする。
また、上記態様において、前記取得した顔画像に含まれる顔部位を検出させ、前記検出した顔部位に対する前記顔画像上における相対位置に基づいて、前記複数の肌領域を決定させ、決定した前記複数の肌領域における前記ターゲットの抽出基準を決定させる。これにより、ユーザが特に位置を気にせずに撮影した顔画像においても、画像内に含まれる顔部位の位置に応じて違った肌状態を抽出することを可能にする。
また、抽出基準は、顔部位との相対位置に応じて予め定められている、更新可能なデータベースに基づいて、決定さる。これにより肌分析装置の多くのユーザが所望する肌状態の傾向に基づいて、抽出することを可能にする。
また、画像内の位置に応じてユーザが選択した抽出基準に基づいて、ターゲットを抽出する。これにより、現在操作しているユーザが所望する肌状態を抽出することを可能にする。
従って本願の上記実施態様によれば、ユーザの要求に合わせた任意の肌シワ検出を、顔全体に対して自動で実行することが可能となる。
本願に開示された肌分析装置の一態様は、被験者の顔画像を取得するカメラと、前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定する抽出基準決定部と、決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出するターゲット抽出部と、前記抽出されたターゲットを表示するディスプレイとを備える。
上記態様において、肌分析装置は、前記顔画像に含まれる顔部位を検出し、検出した顔部位に対する前記顔画像上における相対位置に基づいて、前記複数の肌領域を決定する顔検出部をさらに備える。
上記態様において、肌分析装置は、前記複数の肌領域のそれぞれに関する複数の抽出基準をディスプレイに表示し、1つの選択を受け付ける抽出基準選択部と、複数の肌領域毎に抽出されたターゲットをスコア化する抽出結果評価部と、前記抽出基準選択部における選択結果および前記スコアを外部のサーバに送信する通信部とをさらに備える。
以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることも出来る。
(実施の形態1)
以下、図面を参照しながら、本実施の形態に係る肌分析装置およびその制御方法を説明する。本願明細書の各実施の形態の肌分析装置は、被験者の顔を撮影し、肌領域に存在する皮溝および被毛を抽出して表示する。皮溝は、ほうれい線を含む種々の長さ、太さおよび深さのシワ(皺)をいう。また、被毛は、眉毛、まつ毛、口ひげおよびあごひげを含む。皮溝および被毛を合わせてターゲットと呼ぶ。肌領域は、上述した被毛に覆われる部分を含む肌全体から選ばれる一部である。
まず、被験者の顔を撮影し、肌領域に存在する皮溝および被毛を精度よく抽出するための撮影方法を説明する。図1は、人肌の断面を模式的に示している。肌画像には肌のシミ、シワ、毛穴、ほうれい線などの種々の情報が含まれる。図1に示すように肌200は、肌200の表面200Sから内部に向かって0.06mm以上0.2mm程度の深さの範囲にある表皮200A、これよりも内部に存在する真皮200Bを含む。肌のシミ、シワ、毛穴は、肌における形状およびこれらが肌200中に存在する深さ位置が異なる。したがって、肌の異なる深さからの画像を得て、形状による識別を行えば、皮溝を選択的に抽出することができる。
肌の異なる深さからの画像の情報は、偏光光や色成分を用いることによって得られる。たとえば、所定の方向に平行な直線偏光光を光源として肌を撮影した場合、直線偏光光は、肌の表面200Sにおいて偏光方向が維持されて反射する。一方、表皮200Aの内部で反射した直線偏光光は、散乱によって偏光方向が乱れて表皮200Aから出射する。このため、直線偏光光を出射する光源を用い、光源と平行な偏光光を検出すれば(平行偏光条件)、肌の表面の情報が多く内部の情報が少ない画像を得ることができる。また、直線偏光光を出射する光源を用い、光源と直交する偏光光を検出すれば(直交偏光条件)、肌の内部の情報が多く、表面の情報が少ない画像を得ることができる。つまり、偏光光を光源として用いることにより、肌の内部の情報や表面の情報を選択的に含む画像を得ることができる。
また、光源からの光は、波長が長いほど表皮200Aの内部にまで入射し、内部で反射する。したがって、肌を撮影した画像のうち、青色(B)成分は、肌の表面の情報をより多く含み、赤色(R)や赤外成分は表皮200Aの内部の情報をより多く含む。
また、ターゲットである皮溝は、特定の波長領域の光を吸収しやすい等の性質を有する場合がある。このような場合には、その特定の波長領域の光の成分を利用することによって、皮溝を精度よく抽出することができる。
シワは、肌200の表面200S近傍に存在する。表面の情報をより多く得ることができる平行偏光の条件で撮影を行い、画像の各画素における青と赤との画素値の差分を求めると、肌表面における光の反射による影響を抑制し、シワの情報を多く含む画像を得ることができる。また、Gaborフィルタなどの線検出フィルタを用いて画像を処理することによって、シワおよびほうれい線の情報を多く含む画像を得ることができる。シワとほうれい線とを精度よく区別したい場合には、検出した部分の長さ、太さなどによる閾値処理をさらに行ってもよい。
なお、シワの情報を多く含む画像を得るために、ここでは青と赤との画素値の差分を求めることを述べたが、青の画素値のみを求めてもよく、また例えば、緑など他の色の画素値を用いてもよく、青と赤との画素値の差分を求めることのみに限定されない。
眉毛、まつ毛、口ひげ、あごひげは、一般的に肌よりも彩度および色度が低い。このため、撮影した画像から画像処理によって、眉毛、まつ毛、口ひげ、あごひげを抽出することができる。
図2は、本実施の形態に係る肌分析装置305の全体像を示す図である。肌分析装置305は、カメラ300と、照明装置301と、制御装置302と、ディスプレイ303とを備える。ここで、ディスプレイ303は、タッチパネルを備えていることが好ましく、ディスプレイ303に表示されるボタンをユーザが指などで触れることによって肌分析装置305を操作可能としてもよい。
カメラ300から入力された被験者であるユーザ304の顔画像は、制御装置302によって取得され、クラウドサーバ307で評価される。その後、肌状態または肌状態を定量評価された指標が、ディスプレイ303に提示される。
図3(a)は、制御装置302の構成を示す図である。制御装置302は、マイクロコンピュータ302Aと、メモリ302Bと、通信部302Cとを備える。マイクロコンピュータ302Aは、以下に説明する動作を含む肌分析装置305全体の動作を制御する。また、マイクロコンピュータ302Aは、画像処理等の以下に説明する各種処理を実行する。例えば、肌分析装置305の各動作を制御するためのコンピュータプログラムはメモリ302Bに記憶されている。マイクロコンピュータ302Aは、この記憶されたコンピュータプログラムに従って、カメラ300、照明装置301などの肌分析装置305の各構成要素の動作を制御したり、画像処理等の各種処理を実行したりする。
カメラ300は、ユーザ304の顔を撮像し、顔画像データを取得する。上述したように、ユーザの顔画像からターゲットとなるシワ、被毛などを正確に抽出するために、照明装置301およびカメラ300に偏光フィルタが設けられており、偏光画像が取得されてもよい。なお、肌分析装置305は、照明装置301を含んでいなくても良い。
図3(b)は、クラウドサーバ307の構成を示す図である。クラウドサーバ307は、マイクロコンピュータ307Aと、メモリ307Bと、通信部307Cと、データベース307Dとを備える。クラウドサーバ307は、通信部307Cを介して、撮像された画像、画像の特徴指標、肌の評価値などを複数の肌分析装置305から受け取る。クラウドサーバ307は、複数の肌分析装置305から受け取った各データを記憶し、統計データを生成したり、データ同士の相関関係を求めたりする。また、通信部307Cを介して、それら統計データや相関関係を各肌分析装置305に送信する。
なお、ユーザ304の顔画像の画像処理等の各種処理は、クラウドサーバ307で行われてもよい。また、ユーザ304の顔画像の評価は、制御装置302で行われてもよい。
図4は、本実施の形態における肌分析装置305の構成を示すブロック図である。肌分析装置305は、カメラ300、画像取得部1102、抽出基準決定部1103、ターゲット抽出部1104およびディスプレイ303を備える。なお、図示しない通信部を用いてクラウドサーバ307と通信してもよく、顔画像の評価自体はクラウドサーバ307で処理されてもよい。また、評価結果をクラウドサーバ307で記憶してもよい。
以下、図面を参照して、本発明の肌分析装置305の動作について説明をする。
本実施の形態における肌分析装置305は、ユーザ304が肌分析装置305に備えられたカメラ300の前に位置した状態で、動作を開始する。
まず、カメラ300がユーザ304の顔を撮影し、顔画像を取得する。画像取得部1102は、カメラ300から顔画像データを受け取り、左右を反転させた顔画像データを生成する。生成した顔画像データはディスプレイ303に出力され、ディスプレイ303は、左右が反転した顔画像を表示する。これは電子ミラーとしての機能である。
ユーザは、ディスプレイ303に表示される顔画像を見て、ディスプレイ303上での顔画像の位置を調整する。ディスプレイ303のほぼ中央に自分の顔画像が表示されていない場合、顔画像が大きすぎるあるいは小さすぎる場合には、ディスプレイ303において、顔画像が適切な大きさおよび位置に表示されるように、カメラ300に対して顔の位置を移動させる。ユーザが顔の位置を調整しやすいように、ディスプレイ303に好ましい顔の位置を示すガイドマーカーを表示させてもよい。ユーザの撮像開始指示により、肌分析装置305は、撮影した顔画像の分析動作を開始する。
図5は、肌分析装置305の動作フローを示すフローチャートである。
(S1201)
制御装置302はカメラ300を動作させ、カメラ300にユーザの顔を撮影させる。画像取得部1102は、カメラ300から、ユーザの顔画像データを受け取り、左右が反転した顔画像を生成する。このとき照明装置301を動作させ、照明条件下でユーザの顔画像を撮像することが好ましい。上述したように、抽出すべきターゲットの種類に応じて、偏光条件および使用する光の波長を選択する。ターゲットが皮溝および被毛である場合には、表面の情報をより多く得ることができる平行偏光の条件で撮影を行い、画像の各画素における青と赤との画素値の差分を求めることによって、皮溝や被毛の情報を多く含む画像を得ることができる。
(S1202)
抽出基準決定部1103は、左右が反転した顔画像データを画像取得部1102から受け取り、顔画像上の位置に基づきターゲットの抽出基準を決定する。ここで、ターゲットの抽出基準とは、以下において詳細に説明するように、ターゲットの特徴を示す値である。
(S1203)
ターゲット抽出部1104は、S1202で決定されたターゲットの抽出基準に基づいて、ユーザの顔画像からターゲットを抽出する。
(S1204)
ディスプレイ303は、S1203にて抽出されたターゲットを表示する。このとき、表示されるターゲットは、ユーザの顔画像に重畳して表示されることが好ましい。
以下、ディスプレイ303に示される例示的な画像を参照しながら、肌分析装置305の動作をより詳細に説明する。図6(a)は、ユーザの顔画像撮像前に肌分析装置305のディスプレイ303に表示される初期画面の一例を示している。ディスプレイ303の表示領域は、例えば、面積が大きいメイン画面70とメイン画面70の下側に位置し、面積が小さいサブ画面72を含む。初期画面では、カメラ300から入力される画像がメイン画面70にリアルタイムで表示され、デジタルミラーとして機能している。サブ画面72には、例えば、時計や天気予報などの情報が表示されてもよい。
図6(b)は、撮像開始直前の画面を示している。上述したようにディスプレイ303の表面にはタッチパネルが設けられており、タッチパネルをユーザが指などで触れることによって、サブ画面72の上部80および左側部78に操作メニューや機能の切り替えメニューが表示される。メイン画面70には、例えば、ユーザの顔の位置を誘導するためのガイド35が示されてもよい。また、撮影のタイミングを示すマークやカウントダウンの数字74などが示されていてもよい。
また、例えば、サブ画面72の右側72Rにはカメラ300から入力されるユーザの顔画像31がリアルタイムで表示され、左側72Lにカレンダーが表示される。カレンダーにはたとえば、過去に肌分析装置305を用いて撮影を行ったことを示すマークなどが示されていてもよい。図6(b)に示す表示のあと、上述したようにユーザの顔画像の撮像が行われる。
以下に、ユーザの顔画像からターゲットの抽出基準を決定する方法及び決定された抽出基準に基づいてターゲットを抽出する方法を記載する。
図7(a)から(c)は、ユーザの顔画像上の位置に基づいて、肌状態を抽出するターゲットの特徴を決定し、決定されたターゲットの特徴に基づいてターゲットを抽出する処理の途中経過を模式的に示した図である。顔画像上の位置に基づいてターゲットの抽出基準を決定するために、本実施の形態では、顔画像を4分割し、各象限ごとに抽出基準を決める。図7(a)は、ユーザの顔画像を4分割した状態が示されており、図7(b)には画像の第3象限および第4象限においてそれぞれターゲットの抽出基準が決定された場合の、ターゲット特徴が模式的に線分で示されている。ここで示される抽出基準は、ターゲットであるシワおよび被毛の向きを示している。図7(c)には、前記決定されたターゲット特徴に基づいて顔画像から抽出されたシワが、模式的に示されている。
ターゲット抽出基準決定ステップS1202では、画像取得部1102が取得したユーザの顔画像が、抽出基準決定部1103に出力される。ターゲットの抽出基準は、図7(a)、(b)で例示されるように、画像上の位置に基づいて決定される。抽出基準は、ターゲットの角度、太さ、長さ(サイズ)のうち少なくとも一つを示す値である。例えば、図7(b)に示す例では、顔画像上において上下および左右に4分割された4つの象限のうち、第1および第2の象限には抽出基準が設けられていない。第3及び第4象限には、抽出基準としてターゲットの角度が設けられている。より具体的には、第1象限と第4象限との境界を基準として、第3象限には45度の角度基準が設けられ、第4象限には、−45度(135度)の角度基準が設けられる。この場合、例えば、設定した角度基準に対して±10度の範囲で抽出基準が決定される。
ターゲット抽出ステップS1203では、画像取得部1102が取得したユーザの顔画像と、抽出基準決定部1103によって決定された抽出基準とが、ターゲット抽出部1104に出力される。ターゲット抽出部は、ユーザの顔画像とターゲットの抽出基準に基づいて、ターゲットが抽出される。具体的には、顔画像のうち、第1および第2象限には抽出基準が設けられていないため、抽出基準を満たすターゲットは抽出されない。一方第3および第4象限においては、上述の抽出基準を満たすシワが抽出される。よって、図7(c)で示されるように、例えば、ほうれい線および目の下のほうれい線と同じ方向に伸びるシワが抽出される。
皮溝など線形状のターゲットを顔画像から抽出する場合、ターゲットの抽出基準の1つである方向が一致しないと、正しくターゲットを抽出することができない。例えば、顔画像の第3象限に位置するほうれい線と第4象限にあるほうれい線とは、方向が異なるため、一方の抽出に適した抽出条件を用いた場合、他方は正しく抽出できない可能性がある。本実施の形態によれば、顔画像上の位置に基づいて、顔画像の複数の肌領域におけるターゲットの抽出基準を決定するため、2つのほうれい線を含む異なる方向のシワを正しく抽出することができる。
図7(c)に示す例では、目の下のシワおよびほうれい線が抽出されるが、抽出条件として、ターゲットの太さも設定してもよい。この場合、いずれか一方を選択的に抽出することも可能である。
ターゲットの抽出は、特許文献1、2に開示されているパターンマッチングを用いる方法、非特許文献1に開示されているGaborフィルタを用いる方法、Hough変換を用いる方法等により行うことができる。また、Sobelフィルタを用いてもよく、他の線分抽出方法やフィルタを用いてもよい。
例えばGaborフィルタを用いる場合には、上述した第3象限および第4象限に設定される角度基準に基づき、フィルタのx方向空間周波数、y方向空間周波数やフィルタサイズ等のパラメータが決定される。
抽出結果表示ステップS1204では、画像取得部1102が取得したユーザの顔画像と、ターゲット抽出部1104が抽出したターゲットの抽出結果が、ディスプレイ1105に出力される。ディスプレイ1105は図8(a)および図8(b)で例示されるような結果画面をディスプレイ303に表示する。
図8(a)で示す表示例では、メイン画面70にターゲットであるシワの抽出に使用されたユーザの顔画像が表示されるとともに、顔画像に重畳して抽出されたターゲット81が表示される。また、サブ画面72の左側72Lにもユーザの顔画像が示される。サブ画面72の上部80には、顔の位置を指定するメニューが表示され、左側部78には表示する内容や機能を切り替えるメニューが表示される。ユーザは、例えば、サブ画面72の上部80および左側部78に触れることによって、顔の特定の肌領域を表示させたり、表示する内容を変更したりできる。
図8(b)は、サブ画面72の右側72Rに、ユーザの指定した領域83である肌領域の画像の一部が、拡大されて表示されている例を示している。ターゲットであるシワも右側72Rに表示されている。ターゲットの表示は、例えば、肌領域におけるターゲットに該当する部分を赤色の領域(線)で表示してもよい。
尚、抽出したターゲットを表示するだけでなく、抽出したターゲットを評価し、結果を提示してもよい。例えば、上述の手順によって顔画像からターゲットを抽出した場合、図8(a)のサブ画面72の右側72Rのように、ターゲットについて算出された評価結果が、例えばレーダーチャートによって示される。例えば、ターゲットであるシワの密度を求め、評価した結果を表示してもよい。
また、抽出したターゲットについての情報およびレーダーチャートで示されたスコアの履歴が、制御装置302またはクラウドサーバ307に保存されてもよい。これにより、ユーザは評価結果の履歴をいつでも参照することができ、継時的なケアに役立てることが可能になる。
たとえば、図9(a)に示すように、サブ画面72にカレンダーを表示してもよい。カレンダーには、日付毎に評価が行われたか否かを示す情報が表示されている。例えば、ユーザがカレンダーの日付を選択すると、図9(b)の表示例に示すような過去の評価結果をディスプレイ303に表示させる。このとき、メイン画面70には、選択された日付において評価を行ったユーザの顔画像が抽出されたターゲットとともに表示され、サブ画面72には、カレンダーとともに抽出したターゲットをスコア化したものがレーダーチャートとして表示される。
また、評価結果及び履歴に基づいて、個人の肌状態に最適化されたケアに関するアドバイス情報や推奨されるケア用品および化粧品を提示してもよい。図10(a)に示すように、評価結果に基づく肌の手入れ等の美容に関するアドバイスを表示してもよい。また、図10(b)に示すように、肌状態を改善するために有用な化粧品や美容機器の情報を詳細に表示してもよい。
(実施の形態2)
本実施の形態では、顔画像に含まれる顔部位を検出し、検出した顔部位に対する相対位置に基づいて肌領域を決定し、ターゲットの抽出基準を設定する。
図11は、本実施の形態における肌分析装置305の構成を示すブロック図である。実施の形態1における構成に加えて、顔検出部1401を備えている。顔検出部1401は、ユーザの顔画像における目、鼻、口、輪郭などの顔部位を検出し、検出した顔部位との相対位置に基づき、顔画像の複数の肌領域の座標を決定する。
図12は、本実施の形態における肌分析装置305の動作フローを示すフローチャートである。実施の形態1における動作フローに加えて、顔検出ステップS1501を有する。
図13は、顔検出位置に基づいてターゲット特徴を決定する場合の模式図を示す。図13(a)は、ユーザの顔画像から目、鼻、口、輪郭などの顔部位が検出された状態を示している。こうした顔部位の検出は、公知のデジタルカメラ等に使用される顔認証技術を利用することができる。図13(b)は、検出された顔部位との相対位置関係に基づいて、肌領域毎にターゲットの抽出基準が決定されている様子を示している。顔部位との相対位置関係に基づき定められる肌領域は、例えば、眉間、目の下、目尻、目頭、鼻側面、口元および額のいずれかであってもよい。また、これらの組み合わせであってもよい。
ここでは、例えば、Gaborフィルタを用いてターゲットを抽出する場合の、Gaborフィルタの方位を示している。例えば、肌領域Aにおいて顔の縦方向にGaborフィルタの方位が設定されており、この方位に沿ったターゲットが抽出される。同様に、肌領域Bにおいては左下がりの斜め方向に方位が設定されており、肌領域Cにおいては、顔の横方向に方位が設定されている。それぞれ、設定された方位に沿ったターゲットが抽出される。図13(c)は、決定されたターゲット特徴に基づいて抽出されたターゲット(シワ)が、模式的に示されている。
図12を用いて、本実施の形態における肌分析装置305の動作フローを説明する。
(S1201)
制御装置302はカメラ300を動作させ、カメラ300にユーザの顔を撮影させる。画像取得部1102は、カメラ300から、ユーザの顔画像データを受け取り、左右が反転した顔画像を生成する。このとき照明装置301を動作させ、照明条件下でユーザの顔画像を取得することが好ましい。実施の形態1と同様、ターゲットが皮溝および被毛である場合には、表面の情報をより多く得ることができる平行偏光の条件で撮影を行い、画像の各画素における青と赤との画素値の差分を求めることによって、皮溝や被毛の情報を多く含む画像を得ることができる。
(S1501)
顔検出部1401は、ユーザの顔画像における目、鼻、口、輪郭などの顔部位を検出する。また、検出した顔部位との相対位置に基づき、顔画像の複数の肌領域の座標を決定する。
(S1202)
抽出基準決定部1103は、左右が反転した顔画像データを画像取得部1102から受け取り、複数の肌領域におけるターゲットの抽出基準を決定する。
(S1203)ターゲット抽出部1104は、S1202で決定されたターゲットの抽出基準に基づいて、ユーザの顔画像からターゲットを抽出する。
(S1204)
ディスプレイ303は、S1203にて抽出されたターゲットを表示する。このとき、表示されるターゲットは、ユーザの顔画像に重畳して表示されることが好ましい。
本実施の形態によれば、ユーザの顔の位置がカメラに対して多少ずれていても、正確に顔画像におけるターゲットを抽出することができる。また、図13(b)に示されているように、肌領域ごとに抽出基準を異ならせることにより、肌領域Aである眉間においては縦ジワを抽出し、肌領域Bである鼻の横においてはでほうれい線を抽出する、といった区別が可能となる。
なお、肌領域毎に複数の抽出基準がユーザに提示されてもよく、ユーザは肌領域毎にそれぞれ抽出基準を選択してもよい。ユーザが選択したターゲットの抽出基準に基づいて、ターゲットが抽出される。ここで、ユーザに提示される複数の抽出基準は、顔検出ステップS1501において検出された顔部位との相対位置に基づいて決定された肌領域ごとに提示される。例えば、ほうれい線付近の肌領域では、ほうれい線に沿った方向(画像斜め方向)をGaborフィルタの方位とするターゲット特徴と、鼻の小皺を抽出可能な方向をGaborフィルタの方位とするターゲット特徴とが提示されてもよい。
(実施の形態3)
本実施の形態では、ユーザの選択に基づき、抽出基準を変化させ、選択履歴と抽出されたターゲットによる肌の評価結果に基づいてクラウドサーバ上のデータベースを更新することで、選択方法と肌の評価方法を変更させる。
図14は、本実施の形態における肌分析装置の全体像を示す図である。実施の形態1とは、クラウドサーバ111の構成が異なる。
図15は、制御装置302及びクラウドサーバ111の構成を示す図である。制御装置302は、メモリ1801、演算部1802および通信部1803を備える。クラウドサーバ111は、データベース1811、メモリ1812、演算部1813および通信部1814を備える。
図16は、本実施形態における、肌分析装置305およびクラウドサーバ111の構成を示すブロック図である。肌分析装置305は、実施の形態1および2の構成に加えて、抽出基準選択部1901、抽出結果評価部1902および通信部1803を備える。また、クラウドサーバ111は、ユーザ選択データベース1911および評価結果データベース1912を備える。
ユーザ選択データベース1911は、ユーザの選択結果を蓄積し、評価結果データベース1912は抽出したターゲットに基づく肌状態の評価結果を蓄積する。
図17は、本実施の形態における、肌分析装置305の動作フローを示すフローチャートである。
(S2001)
ユーザ選択データベース1911にて更新された選択項目が、クラウドサーバ111側の通信部1814から肌分析装置305の通信部1803に送信され、抽出基準選択部1901の選択項目が更新される。
(S1201)
制御装置302はカメラ300を動作させ、カメラ300にユーザの顔を撮影させる。画像取得部1102は、カメラ300から、ユーザの顔画像データを受け取り、左右が反転した顔画像を生成する。このとき照明装置301を動作させ、照明条件下でユーザの顔画像を取得することが好ましい。実施の形態1と同様、ターゲットが皮溝および被毛である場合には、表面の情報をより多く得ることができる平行偏光の条件で撮影を行い、画像の各画素における青と赤との画素値の差分を求めることによって、皮溝や被毛の情報を多く含む画像を得ることができる。
(S1501)
顔検出部1401は、ユーザの顔画像における目、鼻、口、輪郭などの顔部位を検出する。また、検出した顔部位との相対位置に基づき、顔画像の複数の肌領域の座標を決定する。
(S2002)
抽出基準選択部1901に蓄積されている複数の肌領域のそれぞれに関する複数の抽出基準である選択項目がディスプレイ303に提示される。提示された選択項目に基づいて、分割された複数の肌領域のそれぞれについて、抽出基準をユーザに選択させる。このとき、ユーザに対しては複数の肌領域のそれぞれについて、ディスプレイ303に表示した複数の選択肢の中から抽出基準を選択させることが好ましい。
(S1202)
抽出基準決定部1103は、左右が反転した顔画像データを画像取得部1102から受け取り、複数の肌領域におけるターゲットの抽出基準を決定する。
(S1203)
ターゲット抽出部1104は、S1202で決定されたターゲットの抽出基準に基づいて、ユーザの顔画像からターゲットを抽出する。
(S2003)
抽出結果評価部1902が、複数の肌領域毎に抽出されたターゲットについてスコア化する。以下にスコアs1の計算方法を示す。選択された部位の範囲内での抽出された平均値a1と、所定のスコア化係数b1、c1を用いて下式で算出される。a1の算出には、例えば抽出されたシワの位置に対応する画素の輝度値を用いる。

Figure 0006343612
(S1204)
ディスプレイ303は、S1203にて抽出されたターゲットを表示する。このとき、表示されるターゲットは、ユーザの顔画像に重畳して表示されることが好ましい。また、抽出結果評価ステップS2003において算出されたスコアをディスプレイ303に表示してもよい。
(S2004)
ターゲット選択ステップにおけるユーザの選択結果が、抽出基準選択部1901から肌分析装置305の通信部1803を介してクラウドサーバ111に送信され、クラウドサーバ111の通信部1814がこれを受信する。また、スコアs1が、抽出結果評価部1902から肌分析装置305の通信部1803を介してクラウドサーバ111に送信され、クラウドサーバ111側の通信部1814がこれを受信する。
クラウドサーバ111は、複数の肌分析装置305から受け取ったユーザの抽出基準の選択結果をユーザ選択データベース1911に蓄積する。また、蓄積した多数のユーザの選択結果の傾向に基づいて、ターゲットの抽出基準の選択項目を更新する。さらに、複数の肌分析装置305から受け取ったユーザのスコアs1とユーザの選択結果に基づき、分析範囲、抽出基準およびスコアs1を、評価結果データベース1912に蓄積し、多数のユーザの評価結果に基づいて、各分析範囲におけるターゲット特徴の評価結果の平均b2および評価結果の分散c2を算出する。
データ受信ステップ2001では、ユーザ選択データベース1911に基づいて更新された選択項目が、クラウドサーバ111側の通信部1814から肌分析装置305の通信部1803に送信され、抽出基準選択部1901の選択項目が更新される。さらに、評価結果データベース1912に基づいて更新された評価結果の平均b2および評価結果の分散c2が、クラウドサーバ111の通信部1814から肌分析装置305の通信部1803に送信され、評価結果の平均b2および評価結果の分散c2に基づいて、抽出結果評価部のスコア化係数b1、c1が更新される。
上記方法により変化させる対象は、抽出基準の選択項目および評価結果の平均及び分散に限定されるものではなく、例えばアドバイス、リコメンドなどが挙げられる。また、選択項目および評価結果の平均及び分析などの係数を更新するために、すべてのユーザによるデータに基づいてもよいし、ユーザの属性に応じて一部のデータに基づいてもよいし、1人のユーザのみのデータに基づいてもよい。
また、肌領域ごとの複数の抽出基準のうちの一の抽出基準が選択された回数が、ネットワークを介して肌分析装置305からクラウドサーバ111へ送信され、ユーザ選択データベース1911に記憶されてもよい。クラウドサーバ111は、複数の肌分析装置305がこのデータを受け取ることにより、各抽出基準が選択された回数の合計を求め、選択回数が多い抽出基準を各肌分析装置305へ送信してもよい。これにより肌分析装置305は、選択された頻度に基づいて決定される抽出基準を、選択肢としてユーザに提示することができる。
(実施の形態4)
実施の形態1から3で説明した肌分析装置およびにクラウドサーバを含む情報管理システムによるサービスの全体像を説明する。
図18(a)は、本実施の形態における情報管理システムが提供するサービスの全体像を示す図である。情報管理システムは、グループ100、データセンタ運営会社110及びサービスプロバイダ120を備える。
グループ100は、例えば企業、団体又は家庭等であり、その規模を問わない。グループ100は、第1の機器及び第2の機器を含む複数の機器101およびホームゲートウェイ102を備える。複数の機器101は、インターネットと接続可能な機器(例えば、スマートフォン、パーソナルコンピュータ(PC)又はテレビ等)、及びそれ自身ではインターネットと接続不可能な機器(例えば、照明、洗濯機又は冷蔵庫等)を含む。複数の機器101は、それ自身ではインターネットと接続不可能であっても、ホームゲートウェイ102を介してインターネットと接続可能となる機器を含んでもよい。また、ユーザ10は、グループ100内の複数の機器101を使用する。機器101は、実施の形態1から3の肌分析装置305を含む。
データセンタ運営会社110は、クラウドサーバ111を備える。クラウドサーバ111は、インターネットを介して様々な機器と連携する仮想化サーバである。クラウドサーバ111は、主に通常のデータベース管理ツール等で扱うことが困難な巨大なデータ(ビッグデータ)等を管理する。データセンタ運営会社110は、データの管理、クラウドサーバ111の管理、及びそれらを行うデータセンタの運営等を行っている。データセンタ運営会社110が行っている役務の詳細については後述する。
ここで、データセンタ運営会社110は、データの管理又はクラウドサーバ111の管理のみを行っている会社に限らない。例えば、図18(b)に示すように、複数の機器101のうちの一つの機器を開発又は製造している機器メーカが、データの管理又はクラウドサーバ111の管理等を行っている場合は、機器メーカがデータセンタ運営会社110に該当する。また、データセンタ運営会社110は一つの会社に限らない。例えば、図18(c)に示すように、機器メーカ及び管理会社が共同又は分担してデータの管理又はクラウドサーバ111の管理を行っている場合は、両者又はいずれか一方がデータセンタ運営会社110に該当する。
サービスプロバイダ120は、サーバ121を備える。ここで言うサーバ121とは、その規模は問わず、例えば、個人用PC内のメモリ等も含む。また、サービスプロバイダ120がサーバ121を備えていない場合もある。
なお、上記の情報管理システムにおいて、ホームゲートウェイ102は必須ではない。例えば、クラウドサーバ111が全てのデータ管理を行っている場合等は、ホームゲートウェイ102は不要となる。また、家庭内の全ての機器がインターネットに接続されている場合のように、それ自身ではインターネットと接続不可能な機器は存在しない場合もある。
次に、上記の情報管理システムにおける情報の流れを説明する。
まず、グループ100の第1の機器又は第2の機器は、各ログ情報をデータセンタ運営会社110のクラウドサーバ111にそれぞれ送信する。クラウドサーバ111は、第1の機器又は第2の機器のログ情報を集積する(図18(a)の矢印131)。ここで、ログ情報とは、複数の機器101の例えば運転状況又は動作日時等を示す情報である。例えば、ログ情報は、テレビの視聴履歴、レコーダーの録画予約情報、洗濯機の運転日時、洗濯物の量、冷蔵庫の開閉日時、又は冷蔵庫の開閉回数などを含む。また、複数の機器101が、実施の形態1から3で説明した肌分析装置305である場合、肌分析装置305を動作日時に加え、実施の形態1から3で説明した抽出基準などの情報を含む。また、これらの情報に限らず、種々の機器から取得が可能な種々の情報を含んでもよい。なお、ログ情報は、インターネットを介して複数の機器101自体から直接クラウドサーバ111に提供されてもよい。また、ログ情報は、複数の機器101から一旦ホームゲートウェイ102に集積され、ホームゲートウェイ102からクラウドサーバ111に提供されてもよい。
次に、データセンタ運営会社110のクラウドサーバ111は、集積したログ情報を一定の単位でサービスプロバイダ120に提供する。ここで、一定の単位とは、データセンタ運営会社110が集積した情報を整理してサービスプロバイダ120に提供することの出来る単位でもよいし、サービスプロバイダ120が要求する単位でもよい。また、一定の単位で提供するとしているが、一定の単位でなくてもよく、状況に応じて提供する情報量が変化してもよい。ログ情報は、必要に応じてサービスプロバイダ120が保有するサーバ121に保存される(図18(a)の矢印132)。
そして、サービスプロバイダ120は、ログ情報をユーザに提供するサービスに適合する情報に整理し、ユーザに提供する。情報が提供されるユーザは、複数の機器101を使用するユーザ10でもよいし、外部のユーザ20でもよい。ユーザ10、20への情報提供方法としては、例えば、サービスプロバイダ120から直接ユーザ10、20へ情報が提供されてもよい(図18(a)の矢印133、134)。また、ユーザ10への情報提供方法としては、例えば、データセンタ運営会社110のクラウドサーバ111を再度経由して、ユーザ10に情報が提供されてもよい(図18(a)の矢印135、136)。また、データセンタ運営会社110のクラウドサーバ111は、ログ情報をユーザに提供するサービスに適合する情報に整理し、サービスプロバイダ120に提供してもよい。
なお、ユーザ10は、ユーザ20と異なっていても同一であってもよい。
なお、上記態様において説明された技術は、例えば、以下のクラウドサービスの類型においても実現されうる。しかし、上記態様において説明された技術が実現されるクラウドサービスの類型はこれらに限られるものでない。
(サービスの類型1:自社データセンタ型クラウドサービス)
図19は、サービスの類型1(自社データセンタ型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。本類型では、サービスプロバイダ120がグループ100から情報を取得し、ユーザに対してサービスを提供する。本類型では、サービスプロバイダ120が、データセンタ運営会社の機能を有している。すなわち、サービスプロバイダ120が、ビッグデータを管理するクラウドサーバ111を保有している。したがって、データセンタ運営会社は存在しない。
本類型では、サービスプロバイダ120は、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、オペレーティングシステム(OS)202及びアプリケーション201を管理する。サービスプロバイダ120は、サービスプロバイダ120が管理するOS202及びアプリケーション201を用いてサービスを提供する(矢印204)。
(サービスの類型2:IaaS利用型クラウドサービス)
図20は、サービスの類型2(IaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、IaaSとは、インフラストラクチャー・アズ・ア・サービスの略であり、コンピュータシステムを構築および稼動させるための基盤そのものを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社110が、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、OS202及びアプリケーション201を管理する。サービスプロバイダ120は、サービスプロバイダ120が管理するOS202及びアプリケーション201を用いてサービスを提供する(矢印204)。
(サービスの類型3:PaaS利用型クラウドサービス)
図21は、サービスの類型3(PaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、PaaSとは、プラットフォーム・アズ・ア・サービスの略であり、ソフトウェアを構築および稼動させるための土台となるプラットフォームを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社110は、OS202を管理し、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、アプリケーション201を管理する。サービスプロバイダ120は、データセンタ運営会社110が管理するOS202及びサービスプロバイダ120が管理するアプリケーション201を用いてサービスを提供する(矢印204)。
(サービスの類型4:SaaS利用型クラウドサービス)
図22は、サービスの類型4(SaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、SaaSとは、ソフトウェア・アズ・ア・サービスの略である。SaaS利用型クラウドサービスは、例えば、データセンタ(クラウドサーバ)を保有しているプラットフォーム提供者が提供するアプリケーションを、データセンタ(クラウドサーバ)を保有していない会社又は個人などの利用者がインターネットなどのネットワーク経由で使用できる機能を有するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社110は、アプリケーション201を管理し、OS202を管理し、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、データセンタ運営会社110が管理するOS202及びアプリケーション201を用いてサービスを提供する(矢印204)。
以上、いずれのクラウドサービスの類型においても、サービスプロバイダ120がサービスを提供する。また、例えば、サービスプロバイダ又はデータセンタ運営会社は、OS、アプリケーション又はビックデータのデータベース等を自ら開発してもよいし、また、第三者に外注させてもよい。
本願に開示された、肌分析方法、肌分析装置および肌分析装置を制御する制御方法は、肌分析装置による肌領域の分析、評価に好適に用いられる。
10、20 ユーザ
31 顔画像
35 ガイド
70 メイン画面
72 サブ画面
72L 左側
72R 右側
74 数字
78 左側部
80 上部
81 ターゲット
83 領域
100 グループ
101 機器
102 ホームゲートウェイ
105 ディスプレイ
110 データセンタ運営会社
111 クラウドサーバ
120 サービスプロバイダ
121 サーバ
200 肌
200A 表皮
200B 真皮
200S 表面
201 アプリケーション
204 矢印
300 カメラ
301 照明装置
302 制御装置
302A マイクロコンピュータ
302B メモリ
302C 通信部
303 ディスプレイ
304 ユーザ
305 肌分析装置
307 クラウドサーバ
307A マイクロコンピュータ
307B メモリ
307C 通信部
307D データベース
330 ディスプレイ
1102 画像取得部
1103 抽出基準決定部
1104 ターゲット抽出部
1105 ディスプレイ
1401 顔検出部
1801 メモリ
1802 演算部
1803 通信部
1811 データベース
1812 メモリ
1813 演算部
1814 通信部
1901 抽出基準選択部
1902 抽出結果評価部
1911 ユーザ選択データベース
1912 評価結果データベース
2001 データ受信ステップ

Claims (17)

  1. 被験者の顔画像を取得するカメラ、前記被験者の顔画像を表示するディスプレイおよびコンピュータを備えた肌分析装置を制御する制御方法であって、
    前記肌分析装置の前記コンピュータに、
    前記被験者の顔画像を取得させ、
    前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定させ、
    前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出させ、
    前記抽出したターゲットを前記肌分析装置のディスプレイに表示させ、
    前記取得した顔画像に含まれる顔部位に対する前記顔画像上における相対位置に応じて、前記複数の肌領域の1つにおけるターゲットの複数の前記抽出基準を前記ディスプレイに選択可能に表示させ、
    前記複数の抽出基準のうちの1つが選択されたと判断された場合に、前記選択された1つの抽出基準を満たす前記ターゲットを抽出させ、
    前記抽出したターゲットを前記ディスプレイに表示させる、制御方法。
  2. 前記取得した顔画像に含まれる顔部位を検出させ、
    前記検出した顔部位に対する前記顔画像上における相対位置に基づいて、前記複数の肌領域を決定させ、
    決定した前記複数の肌領域における前記ターゲットの抽出基準を決定させる請求項1に記載の制御方法。
  3. 前記ターゲットは皮溝および/または被毛である、請求項1または2に記載の制御方法。
  4. 前記抽出基準は前記ターゲットの角度、太さ、長さのうち少なくとも一つを示す値である、請求項3に記載の制御方法。
  5. 前記抽出したターゲットは、前記顔画像に重畳して前記ディスプレイに表示される、請求項1から4のいずれかに記載の制御方法。
  6. フィルタリング処理によって前記決定された抽出基準を満たす前記ターゲットを抽出させ、
    前記抽出基準は前記フィルタリング処理に用いるフィルタの性質である、請求項1から5のいずれかに記載の制御方法。
  7. 前記顔部位と前記複数の肌領域との相対位置に対応させて記憶された所定の抽出基準に基づいて、前記ターゲットを抽出させる、請求項2に記載の制御方法。
  8. 前記所定の抽出基準は、前記肌分析装置のメモリに記憶されている、請求項7に記載の制御方法。
  9. 前記所定の抽出基準は、ネットワークを介して前記肌分析装置からアクセス可能なサーバに記憶されている、請求項7に記載の制御方法。
  10. 被験者の顔画像を取得し、
    前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定し、
    前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出し、
    前記抽出したターゲットをディスプレイに表示
    前記取得した顔画像に含まれる顔部位を検出し、
    前記検出した顔部位に対する前記顔画像上における相対位置に基づいて、前記複数の肌領域を決定し、
    決定した前記複数の肌領域における前記ターゲットの抽出基準を決定し、
    前記相対位置に応じて前記複数の肌領域の1つにおけるターゲットの複数の前記抽出基準を前記ディスプレイに選択可能に表示し、
    前記複数の抽出基準のうちの1つが選択されたと判断した場合に、前記1つの抽出基準を満たす前記ターゲットを抽出し、
    前記抽出したターゲットを前記ディスプレイに表示する、肌分析方法。
  11. 前記ターゲットは皮溝および/または被毛である、請求項10に記載の肌分析方法。
  12. 前記抽出基準は前記ターゲットの角度、太さ、長さのいずれかを示す値である、請求項11に記載の肌分析方法。
  13. フィルタリング処理によって前記決定された抽出基準を満たす前記ターゲットを抽出し、
    前記抽出基準は前記フィルタリング処理に用いるフィルタの性質である、請求項10または12に記載の肌分析方法。
  14. 被験者の顔画像を取得するカメラ、前記被験者の画像を表示するディスプレイおよびコンピュータを備えた肌分析装置を制御するコンピュータプログラムであって、
    前記肌分析装置のコンピュータに、
    前記被験者の顔画像を取得させ、
    前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定させ、
    前記決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出させ、
    前記抽出したターゲットを前記肌分析装置のディスプレイに表示させ、
    前記取得した顔画像に含まれる顔部位に対する前記顔画像上における相対位置に応じて、前記複数の肌領域の1つにおけるターゲットの複数の前記抽出基準を前記ディスプレイに選択可能に表示させ、
    前記複数の抽出基準のうちの1つが選択されたと判断された場合に、前記選択された1つの抽出基準を満たす前記ターゲットを抽出させ、
    前記抽出したターゲットを前記ディスプレイに表示させる、コンピュータプログラム。
  15. 被験者の顔画像を取得するカメラと、
    前記顔画像上の位置に基づいて、前記顔画像の複数の肌領域におけるターゲットの抽出基準をそれぞれ決定する抽出基準決定部と、
    決定された抽出基準を満たす前記ターゲットを前記顔画像から抽出するターゲット抽出部と、
    前記抽出されたターゲットを表示するディスプレイと、
    を備え、
    前記ディスプレイは、前記取得した顔画像に含まれる顔部位に対する前記顔画像上における相対位置に応じて、前記複数の肌領域の1つにおけるターゲットの複数の前記抽出基準を選択可能に表示し、
    前記ターゲット抽出部は、前記複数の抽出基準のうちの1つが選択されたと判断された場合に、前記選択された1つの抽出基準を満たす前記ターゲットを抽出し、
    前記ディスプレイは前記抽出したターゲットを表示する、肌分析装置。
  16. 前記顔画像に含まれる顔部位を検出し、検出した顔部位に対する前記顔画像上における相対位置に基づいて、前記複数の肌領域を決定する顔検出部をさらに備える請求項15に記載の肌分析装置。
  17. 前記複数の肌領域のそれぞれに関する複数の抽出基準をディスプレイに表示し、1つの選択を受け付ける抽出基準選択部と、
    複数の肌領域毎に抽出されたターゲットをスコア化する抽出結果評価部と、
    前記抽出基準選択部における選択結果および前記スコアを外部のサーバに送信する通信部と
    をさらに備える、請求項16に記載の肌分析装置。
JP2015529388A 2013-07-31 2014-07-28 肌分析方法、肌分析装置および肌分析装置の制御方法 Active JP6343612B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013158815 2013-07-31
JP2013158815 2013-07-31
PCT/JP2014/003959 WO2015015793A1 (ja) 2013-07-31 2014-07-28 肌分析方法、肌分析装置および肌分析装置の制御方法

Publications (2)

Publication Number Publication Date
JPWO2015015793A1 JPWO2015015793A1 (ja) 2017-03-02
JP6343612B2 true JP6343612B2 (ja) 2018-06-13

Family

ID=52431349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015529388A Active JP6343612B2 (ja) 2013-07-31 2014-07-28 肌分析方法、肌分析装置および肌分析装置の制御方法

Country Status (5)

Country Link
US (1) US9875394B2 (ja)
EP (1) EP3028632A4 (ja)
JP (1) JP6343612B2 (ja)
CN (1) CN105407799B (ja)
WO (1) WO2015015793A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI759994B (zh) * 2020-04-17 2022-04-01 紐頓醫學美容集團有限公司 圖像預處理方法、面部皮膚年齡估計方法及電子設備

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105407799B (zh) * 2013-07-31 2017-12-26 松下电器(美国)知识产权公司 皮肤分析方法、皮肤分析装置、皮肤分析装置的控制方法以及记录介质
GB2523345B (en) * 2014-02-20 2018-01-17 Samsung Electronics Co Ltd Detecting user viewing difficulty from facial parameters
KR102490438B1 (ko) * 2015-09-02 2023-01-19 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10255484B2 (en) 2016-03-21 2019-04-09 The Procter & Gamble Company Method and system for assessing facial skin health from a mobile selfie image
US10264250B2 (en) * 2016-03-21 2019-04-16 The Procter & Gamble Company Method and apparatus for determining spectral characteristics of an image captured by a camera on a mobile endpoint device
US10438258B2 (en) 2016-03-21 2019-10-08 The Procter & Gamble Company Method and apparatus for generating graphical chromophore maps
US10255482B2 (en) 2016-03-21 2019-04-09 The Procter & Gamble Company Interactive display for facial skin monitoring
US11055762B2 (en) 2016-03-21 2021-07-06 The Procter & Gamble Company Systems and methods for providing customized product recommendations
US10282868B2 (en) 2016-03-21 2019-05-07 The Procter & Gamble Company Method and system for generating accurate graphical chromophore maps
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN106650215A (zh) * 2016-10-11 2017-05-10 武汉嫦娥医学抗衰机器人股份有限公司 一种基于云平台的肤质检测及个性化评价系统及方法
JP6720845B2 (ja) * 2016-12-02 2020-07-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN108804976A (zh) * 2017-04-27 2018-11-13 芜湖美的厨卫电器制造有限公司 浴室镜及其控制方法
CN107158570A (zh) * 2017-05-11 2017-09-15 柳华荣 一种软组织修复系统
EP3635626A1 (en) 2017-05-31 2020-04-15 The Procter and Gamble Company System and method for guiding a user to take a selfie
WO2018222808A1 (en) 2017-05-31 2018-12-06 The Procter & Gamble Company Systems and methods for determining apparent skin age
JP7061347B2 (ja) * 2017-11-21 2022-04-28 日本メナード化粧品株式会社 キメ評価装置、キメ評価方法
WO2019173121A1 (en) * 2018-03-08 2019-09-12 The Procter & Gamble Company Tool for use with image capturing device for capturing quality image and method thereof
EP3583888A1 (en) * 2018-06-19 2019-12-25 Koninklijke Philips N.V. Device, system and method for image segmentation of an image of a scene including a subject
CN111836575A (zh) * 2018-06-21 2020-10-27 松下知识产权经营株式会社 皮肤评价装置、皮肤评价系统、皮肤评价方法及保存有用于皮肤评价的程序的计算机可读取的记录介质
JP7361264B2 (ja) * 2018-11-05 2023-10-16 パナソニックIpマネジメント株式会社 肌分析装置、肌分析方法、及び、コンピュータプログラム
US11042726B2 (en) * 2018-11-05 2021-06-22 Panasonic Intellectual Property Management Co., Ltd. Skin analyzer, skin analysis method, and non-transitory computer-readable recording medium
CN111199171B (zh) * 2018-11-19 2022-09-23 荣耀终端有限公司 一种皱纹检测方法和终端设备
JP2020081323A (ja) * 2018-11-22 2020-06-04 パナソニックIpマネジメント株式会社 肌分析装置、肌分析方法、及び、コンピュータプログラム
CN110378304B (zh) * 2019-07-24 2021-11-02 厦门美图之家科技有限公司 皮肤状态检测方法、装置、设备及存储介质
JP7326205B2 (ja) * 2020-03-31 2023-08-15 株式会社日立ハイテク 自動分析装置
JP6821852B1 (ja) * 2020-07-15 2021-01-27 株式会社アイム 肌状態の評価を支援するための支援方法、支援プログラムおよび学習済みモデル生成方法
US10952519B1 (en) 2020-07-16 2021-03-23 Elyse Enterprises LLC Virtual hub for three-step process for mimicking plastic surgery results
US11160497B1 (en) * 2020-07-16 2021-11-02 Elyse Enterprises LLC Software configuration for virtual skincare assessment and virtual cues
CN114983338A (zh) * 2021-03-02 2022-09-02 华为技术有限公司 一种皮肤检测方法和电子设备
CN113194323B (zh) * 2021-04-27 2023-11-10 口碑(上海)信息技术有限公司 信息交互方法、多媒体信息互动方法以及装置
US20240293073A1 (en) * 2021-06-25 2024-09-05 Appiell Inc. Use of artificial intelligence platform to diagnose facial wrinkles
CN114710627B (zh) * 2022-04-06 2024-03-29 Oppo广东移动通信有限公司 皮肤检测方法、移动终端、计算机设备和介质
FR3137481B1 (fr) * 2022-07-04 2024-08-09 Abbi Procédé d’analyse cosmétique d’un visage

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7082211B2 (en) * 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7233693B2 (en) * 2003-04-29 2007-06-19 Inforward, Inc. Methods and systems for computer analysis of skin image
JP4307301B2 (ja) * 2003-07-31 2009-08-05 キヤノン株式会社 画像処理装置およびその方法
EP1740090B1 (en) 2004-04-20 2014-06-25 Koninklijke Philips N.V. A hair-detection device
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2006259900A (ja) * 2005-03-15 2006-09-28 Omron Corp 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム
JP2006338377A (ja) * 2005-06-02 2006-12-14 Fujifilm Holdings Corp 画像補正方法および装置並びにプログラム
US8660319B2 (en) 2006-05-05 2014-02-25 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
JP4909686B2 (ja) 2006-09-08 2012-04-04 学校法人東京理科大学 表皮組織定量化装置及びプログラム
JP2009003842A (ja) * 2007-06-25 2009-01-08 Noritsu Koki Co Ltd 画像処理装置及び画像処理方法
WO2009142069A1 (ja) 2008-05-23 2009-11-26 ポーラ化成工業株式会社 肌のキメ及び/又はシワの自動鑑別法
EP2277141A2 (en) * 2008-07-30 2011-01-26 Tessera Technologies Ireland Limited Automatic face and skin beautification using face detection
JP5463866B2 (ja) * 2009-11-16 2014-04-09 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
FR2962025B1 (fr) * 2010-07-02 2013-04-12 Chanel Parfums Beaute Procede et dispositif de detection et de quantification de signes cutanes sur une zone de peau
TW201222432A (en) * 2010-11-26 2012-06-01 Inst Information Industry System, device, method, and computer program product for facial defect analysis using angular facial image
US20120288168A1 (en) * 2011-05-09 2012-11-15 Telibrahma Convergent Communications Pvt. Ltd. System and a method for enhancing appeareance of a face
US8418314B2 (en) * 2011-08-16 2013-04-16 Wei-Hung Lai Wheel assembly with a wheel lock structure
JP5657494B2 (ja) * 2011-09-22 2015-01-21 富士フイルム株式会社 シワ検出方法、シワ検出装置およびシワ検出プログラム、並びに、シワ評価方法、シワ評価装置およびシワ評価プログラム
CN105407799B (zh) * 2013-07-31 2017-12-26 松下电器(美国)知识产权公司 皮肤分析方法、皮肤分析装置、皮肤分析装置的控制方法以及记录介质
US9436892B2 (en) * 2014-05-02 2016-09-06 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Method and apparatus for facial detection using regional similarity distribution analysis
CN104468578B (zh) * 2014-12-10 2017-12-26 怀效宁 一种无线通讯的优先通讯系统和通讯方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI759994B (zh) * 2020-04-17 2022-04-01 紐頓醫學美容集團有限公司 圖像預處理方法、面部皮膚年齡估計方法及電子設備

Also Published As

Publication number Publication date
EP3028632A4 (en) 2016-07-27
CN105407799A (zh) 2016-03-16
US9875394B2 (en) 2018-01-23
JPWO2015015793A1 (ja) 2017-03-02
US20160162728A1 (en) 2016-06-09
CN105407799B (zh) 2017-12-26
WO2015015793A1 (ja) 2015-02-05
EP3028632A1 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
JP6343612B2 (ja) 肌分析方法、肌分析装置および肌分析装置の制御方法
WO2014208067A1 (ja) 肌の官能評価装置および肌の評価方法
US8976160B2 (en) User interface and authentication for a virtual mirror
KR102266361B1 (ko) 거울을 가상화하는 디바이스들, 시스템들 및 방법들
US10979624B2 (en) Methods and devices for establishing photographing template database and providing photographing recommendation information
US8982110B2 (en) Method for image transformation, augmented reality, and teleperence
JP6750504B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20140225977A1 (en) Devices, systems and methods of virtualizing a mirror
EP3243331B1 (en) Devices, systems and methods for auto-delay video presentation
CN105580051B (zh) 图像捕捉反馈
WO2015019573A1 (ja) 情報処理装置の制御方法および画像処理方法
US20140226900A1 (en) Methods for extracting objects from digital images and for performing color change on the object
US20170140216A1 (en) Gesture-Based Object Measurement Method and Apparatus
US20190197736A1 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
KR20160117207A (ko) 화상 해석 장치 및 화상 해석 방법
US20140003674A1 (en) Skin-Based User Recognition
KR20190120835A (ko) 아이라이너-착용 가이드 장치 및 방법
KR101640014B1 (ko) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
US9268408B2 (en) Operating area determination method and system
US10055844B2 (en) Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
KR102178566B1 (ko) 전자 거울 장치 및 그 제어 방법
CN107533765A (zh) 跟踪光学物体的装置,方法和系统
CN107690648B (zh) 一种基于虹膜识别的图像预览方法及装置
JP2010244090A (ja) 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム
JP2016139957A (ja) 撮像装置、撮像方法及び撮像プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6343612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150