JPWO2016076140A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2016076140A1
JPWO2016076140A1 JP2016558980A JP2016558980A JPWO2016076140A1 JP WO2016076140 A1 JPWO2016076140 A1 JP WO2016076140A1 JP 2016558980 A JP2016558980 A JP 2016558980A JP 2016558980 A JP2016558980 A JP 2016558980A JP WO2016076140 A1 JPWO2016076140 A1 JP WO2016076140A1
Authority
JP
Japan
Prior art keywords
image
skin
information processing
processing apparatus
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016558980A
Other languages
English (en)
Other versions
JP6750504B2 (ja
Inventor
木村 奈月
奈月 木村
晶子 清水
晶子 清水
雄一 影山
雄一 影山
雄介 中村
雄介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016076140A1 publication Critical patent/JPWO2016076140A1/ja
Application granted granted Critical
Publication of JP6750504B2 publication Critical patent/JP6750504B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/684Indicating the position of the sensor on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Dermatology (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本技術は、肌の状態の定点観測を容易に行うことができるようにする情報処理装置、情報処理方法、およびプログラムに関する。本技術の一側面の情報処理装置は、肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得し、画像を解析し、特徴点の位置を認識する。また、認識した特徴点の位置を基準として、画像上の所定の位置に測定部分を表す情報を表示させる。本技術は、タブレット端末、スマートフォン、パーソナルコンピュータなどの情報処理装置に適用することができる。

Description

本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、肌の状態の定点観測を容易に行うことができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
肌を撮影することによって得られた肌画像を解析し、肌の状態を測定する技術がある。測定を行う者は、撮像素子を搭載した測定器を被測定者の顔などに当て、測定部分の撮影を行うことになる。
特開2012−239768号公報
ユーザが自分の肌を撮影し、1人で肌の状態を測定することができれば便利である。1人で測定することができれば、ユーザは、日々の肌の状態の変化を観測するといったことを気軽に行うことができる。
肌の状態の変化を観測するためには同じ部分を繰り返し撮影する必要があるが、その部分を正確に覚えておくことは難しい。
本技術はこのような状況に鑑みてなされたものであり、肌の状態の定点観測を容易に行うことができるようにするものである。
本技術の一側面の情報処理装置は、肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得する取得部と、前記画像を解析し、前記特徴点の位置を認識する認識部と、前記認識部により認識された前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる表示制御部とを備える。
前記画像を撮影する撮影部をさらに設けることができる。この場合、前記取得部には、前記撮影部により撮影された前記画像を取得させることができる。
前記画像と前記測定部分を表す情報を表示する表示部をさらに設けることができる。
前記測定部分の設定時に撮影された前記画像を解析することによって前記認識部により認識された前記特徴点の位置を基準として、前記所定の位置に前記測定部分を設定する設定部をさらに設けることができる。
前記測定部分の設定時に撮影された前記画像上で前記ユーザにより指定された位置に前記測定部分を設定する設定部をさらに設けることができる。
前記測定部分の設定時の前記情報処理装置の角度を検出する検出部をさらに設けることができる。
前記表示制御部には、前記情報処理装置の角度を、前記検出部により検出された角度と同じ角度に調整することを案内する情報を表示させることができる。
前記表示制御部には、前記画像上の、前記測定部分の設定時に撮影された前記画像を解析することによって前記認識部により認識された前記特徴点の位置と同じ位置に、前記特徴点を表す情報を表示させることができる。
前記表示制御部には、前記特徴点の位置が変化することに応じて、前記測定部分を表す情報の表示位置を変化させることができる。
前記取得部には、前記測定部分の肌を撮影して得られた肌画像を取得させ、前記表示制御部には、前記肌画像と、前記ユーザが写る前記画像とを同時に表示させることができる。
前記肌画像を解析し、前記測定部分の肌の状態を測定する解析部と、前記解析部による測定の結果を表す情報を記録する記録部とをさらに設けることができる。
前記表示制御部には、前記記録部に記録された複数回の測定の結果を表す情報に基づいて、前記測定部分の肌の状態の変化を表す情報を表示させることができる。
本技術の一側面においては、肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像が取得される。また、前記画像が解析され、前記特徴点の位置が認識され、認識された前記特徴点の位置を基準として表される前記画像上の位置に、前記測定部分を表す情報が表示される。
本技術によれば、ユーザは、肌の状態の定点観測を容易に行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した肌状態測定システムの構成例を示す図である。 肌測定器の外観を示す図である。 肌測定器の使用例を示す図である。 肌測定器の構成例を示すブロック図である。 情報処理装置のハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 初期設定処理について説明するフローチャートである。 顔の向きの案内画面の例を示す図である。 定点観測ポイントの選択画面の例を示す図である。 設定情報の例を示す図である。 他の初期設定処理について説明するフローチャートである。 撮影の案内画面の例を示す図である。 特徴点の選択画面の例を示す図である。 定点観測ポイントの設定画面の例を示す図である。 測定処理について説明するフローチャートである。 角度の調整画面の例を示す図である。 顔の位置の調整画面の例を示す図である。 顔の位置の調整画面の他の例を示す図である。 定点観測ポイントの案内画面の例を示す図である。 定点観測ポイントの案内画面の他の例を示す図である。 表示画面の例を示す図である。 表示画面の他の例を示す図である。 口元の撮影中の表示画面の例を示す図である。 額の撮影中の表示画面の例を示す図である。 測定結果の例を示す図である。 定点観測結果表示処理について説明するフローチャートである。 定点観測結果の表示画面の例を示す図である。 比較表示処理について説明するフローチャートである。 顔画像の表示画面の例を示す図である。 検索処理について説明するフローチャートである。 顔画像の表示画面の例を示す図である。 改善方法提示処理について説明するフローチャートである。 顔画像の例を示す図である。 評価結果の表示例を示す図である。 評価結果の他の表示例を示す図である。 検索処理について説明するフローチャートである。 顔画像の表示例を示す図である。 人物検索処理について説明するフローチャートである。 顔画像の表示画面の例を示す図である。 髪型の合成結果の表示例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.肌状態測定システムの構成
2.各機器の構成
3.情報処理装置の動作
4.肌状態情報を用いた分類の例
5.変形例
<1.肌状態測定システムの構成>
図1は、本技術を適用した肌状態測定システムの構成例を示す図である。
図1の肌状態測定システムは、情報処理装置1と肌測定器2から構成される。情報処理装置1と肌測定器2は無線LAN(Local Area Network)などの無線通信を介して接続される。情報処理装置1と肌測定器2が、USB(Universal Serial Bus)ケーブルなどを用いた有線の通信を介して接続されるようにしてもよい。
図1の肌状態測定システムは、ユーザが、主に1人で、自分の肌の状態を測定し、測定結果を確認するために用いられる。ユーザは、肌の状態の測定者であり、被測定者でもある。
情報処理装置1は、タブレット型の端末である。情報処理装置1にはLCD(Liquid Crystal Display)などのディスプレイ11が設けられる。ディスプレイ11のベゼル部分にはカメラ12が設けられる。ディスプレイ面と同じ面にカメラが搭載される、スマートフォン、パーソナルコンピュータなどの他の携帯端末が情報処理装置1として用いられるようにしてもよい。
情報処理装置1は、肌測定器2により撮影された肌画像を取得し、取得した肌画像を解析してユーザの肌の状態を測定する。肌画像は、皮膚が拡大して写る画像である。情報処理装置1は、測定した肌の状態に関する情報をディスプレイ11に表示し、ユーザに提示する。
肌測定器2は、ユーザが片手で持つことができる程度の大きさの電子機器である。肌測定器2には、撮像素子、体温センサなどの各種のセンサが設けられる。
図2は、肌測定器2の外観を示す図である。
図2のAに示すように、肌測定器2は、側面視において略横長楕円形の筐体を有する。筐体の右端の頂部から若干ずれた位置には平面が形成され、この平面に、図2のBに示すように略円形の孔部21が形成される。肌測定器2の筐体の孔部21の周り以外は、全体的に曲面により構成される。
孔部21の奥には、孔部21の外に向けて光を照射する発光部、反射光を受けて撮影を行う撮像素子などが設けられる。ユーザは、自分の肌の状態を測定するとき、孔部21を測定部分に当てて撮影を行うことになる。
図3は、肌測定器2の使用例を示す図である。
図3に示すように、ユーザは、テーブルなどに置いた情報処理装置1を前にして座り、ディスプレイ11の表示を見ながら、肌測定器2を自分の顔などに当てて肌の状態の測定を行う。この場合、情報処理装置1は、テーブル上のクレードルなどに設置される。ユーザは、情報処理装置1を一方の手で持ち、肌測定器2を他方の手で持って肌の状態の測定を行うことも可能である。
このような構成を有する肌状態測定システムを用いることによって、ユーザは、肌の状態の定点観測を行うことができる。
情報処理装置1は、ユーザが肌測定器2を使っているとき、同じ部分を撮影できるようにするための案内をディスプレイ11に表示させる。ある部分にできたシミがどのように変化しているかといったことなどを観測するためには、ユーザは、定点観測ポイントして設定した部分を、肌測定器2を使って定期的に撮影する必要がある。
例えば、情報処理装置1は、ユーザが肌測定器2を使っているとき、カメラ12によってユーザの顔を撮影し、ユーザの顔の画像に重ねて、あらかじめ設定された定点観測ポイントを表す情報を表示させる。ユーザは、肌測定器2を持った手をディスプレイ11に表示される案内に従って動かすことによって、定点観測ポイントの撮影を行うことができる。
ここで、定点観測ポイントを表す情報を顔の画像に重ねて表示するためには、情報処理装置1は、ユーザの目、鼻、口などの、特徴点となる構成の位置を特定する必要がある。定点観測ポイントの位置は、顔の特徴点の位置を基準として表される。
また、顔の特徴点の位置を特定して毎回同じ位置に定点観測ポイントを表す情報を表示するためには、顔の位置と情報処理装置1の位置とが、毎回同じ関係になっている必要がある。前回の測定時と今回の測定時とでユーザの顔の向きが異なる場合、情報処理装置1は、基準となる位置を正しく認識することができず、これにより、定点観測ポイントを正しく表示することができない。
情報処理装置1は、定点観測ポイントを表す情報を表示する前、顔の位置と情報処理装置1の位置との関係を調整するための案内を表示する。顔の位置と情報処理装置1の位置との関係を調整させてからユーザの顔を撮影し、特徴点の位置を特定することによって、情報処理装置1は、毎回、ユーザの顔の画像上の同じ位置に定点観測ポイントを表す情報を表示させることが可能になる。
ディスプレイ11に案内が表示されるため、ユーザは、自分の顔の位置と情報処理装置1の位置との関係が毎回同じ関係になるように容易に調整することができる。情報処理装置1は携帯型の装置であるため、顔の位置と情報処理装置1の位置との関係を固定させることは難しいが、ユーザは、位置の調整を容易に行うことができる。
また、ユーザは、ディスプレイ11に表示された案内に従って手を動かすことによって、定点観測ポイントとして設定しておいた部分を肌測定器2で正しく撮影することができる。ユーザは、定点観測しようとする部分を覚えておく必要がない。
ユーザに定点観測を行わせるための情報処理装置1の一連の処理についてはフローチャートを参照して後述する。
<2.各機器の構成>
・肌測定器の構成
図4は、肌測定器2の構成例を示すブロック図である。
肌測定器2は、発光部31、撮像素子32、センサ33、コントローラ34、および通信部35から構成される。
発光部31は、肌画像の撮影時、肌に向けて可視光を照射する。また、発光部31は、メラニン量の測定などに用いられる所定の波長の光を照射する。
撮像素子32は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子である。撮像素子32は、発光部31が照射した光の反射光を検出し、光電変換などを行う。撮像素子32は、光電変換などを行うことによって得られた肌画像のデータをコントローラ34に出力する。
センサ33は、肌温度を測定するセンサなどの各種のセンサである。センサ33は、測定結果を表すセンサデータをコントローラ34に出力する。
コントローラ34は、通信部35を介して情報処理装置1と通信を行い、情報処理装置1による制御に従って肌測定器2の各部を制御する。コントローラ34は、撮像素子32から供給された肌画像のデータと、センサ33から供給されたセンサデータを、通信部35から情報処理装置1に送信する。
通信部35は、無線LANなどの所定の規格の通信モジュールである。通信部35は、情報処理装置1と通信を行う。通信部35は、情報処理装置1から送信されてきた情報をコントローラ34に出力し、コントローラ34から供給された情報を情報処理装置1に送信する。
・情報処理装置の構成
図5は、情報処理装置1のハードウェア構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53は、バス54により相互に接続される。
バス54には、さらに、入出力インタフェース55が接続される。入出力インタフェース55には、ディスプレイ11、カメラ12、タッチパネル56、メモリ57、通信部58、角度センサ59、およびドライブ60が接続される。
タッチパネル56は、ディスプレイ11に積層して設けられる。タッチパネル56は、ユーザによる操作を検出し、操作の内容を表す情報をCPU51に出力する。
メモリ57は、フラッシュメモリなどより構成される。メモリ57は、肌の状態の測定が行われる毎に、カメラ12により撮影された顔画像、肌測定器2により撮影された肌画像、肌の状態の測定結果を表す情報などの各種の情報を記録する。メモリ57に記録された情報はCPU51により適宜読み出される。
通信部58は、無線LANなどの所定の規格の通信モジュールである。通信部58は、肌測定器2と通信を行う。また、通信部58は、情報処理装置1の近傍に設置されたアクセスポイントや公衆無線回線に接続し、インターネットを介して接続されるサーバなどの各種の装置との間で通信を行う。
角度センサ59は、肌の状態の測定時などの所定のタイミングで情報処理装置1の筐体の角度を検出する。
ドライブ60は、リムーバブルメディア61に記録されたデータの読み出しと、リムーバブルメディア61に対するデータの記録を行う。リムーバブルメディア61は、情報処理装置1に設けられたスロットに装着されたメモリカード、情報処理装置1の端子に装着されたUSBメモリなどの記録媒体である。
図6は、情報処理装置1の機能構成例を示すブロック図である。図6に示す機能部のうちの少なくとも一部は、図5のCPU51により所定のプログラムが実行されることによって実現される。
図6に示すように、情報処理装置1においては、画像取得部81、認識部82、肌状態解析部83、定点観測ポイント設定部84、情報管理部85、測定結果分析部86、および表示制御部87が実現される。
画像取得部81は、カメラ12を制御して撮影を行う。画像取得部81は、撮影を行うことによって得られた、情報処理装置1の前にいるユーザの顔が写る動画像または静止画像である顔画像を取得する。また、画像取得部81は、肌の状態の測定時、肌測定器2により撮影され、通信部58において受信された肌画像を取得する。
画像取得部81は、顔画像を認識部82と表示制御部87に出力し、肌画像を肌状態解析部83と表示制御部87に出力する。肌測定器2から送信されてきたセンサデータも画像取得部81により取得され、肌状態解析部83に供給される。
認識部82は、画像取得部81から供給された顔画像を解析し、ユーザの顔の特徴点を認識する。特徴点の認識は、例えば、あらかじめ用意された特徴データと、顔画像の各領域から抽出した特徴データとのマッチングによって行われる。認識部82は、顔画像上の、それぞれの特徴点の位置を特定する。
以下においては、顔画像に写る両目と口の3点を特徴点として処理を行う場合について主に説明するが、鼻、眉毛、耳などの他の構成を特徴点に含めて処理を行うようにしてもよい。特徴点として用いる構成の数、組み合わせも任意である。
また、認識部82は、情報処理装置1から、それぞれの特徴点までの距離を特定する。認識部82は、顔画像に写る特徴点までの距離を測定する距離センサとして機能する。
顔画像上の特徴点の位置と、それぞれの特徴点までの距離から、撮影空間(3次元空間)での顔の特徴点の位置を特定することが可能になる。認識部82は、ユーザの顔の立体的な形状を認識することになる。認識部82は、特徴点の位置と距離の情報を顔画像とともに出力する。認識部82から出力された情報は、定点観測ポイント設定部84、情報管理部85、および表示制御部87に供給される。
肌状態解析部83は、画像取得部81から供給された肌画像を解析し、肌の状態を測定する。肌の状態の測定には、適宜、肌測定器2により検出されたセンサデータも用いられる。例えば、肌の色、キメ、水分量、油分量、毛穴の状態、メラニン量、血流量、肌温度の各項目が測定される。肌状態解析部83は、測定した肌の状態を表す情報である肌状態情報を肌画像とともに情報管理部85に出力する。
定点観測ポイント設定部84は、初期設定時、定点観測ポイントを設定する。肌の状態の定点観測を行う前、ユーザは、初期設定によって定点観測ポイントの設定を行う必要がある。
例えば、定点観測ポイント設定部84は、認識部82により特定された特徴点の位置に基づいて、ユーザの頬、額、口元の位置を特定し、それらの位置を定点観測ポイントとして設定する。また、定点観測ポイント設定部84は、ユーザにより指定された部分を定点観測ポイントとして設定する。定点観測ポイントの指定は、例えば、ディスプレイ11に表示された顔画像上の位置を指で直接触れることによって行われる。
後述するように、ユーザは、特徴点の位置を指定した後、定点観測ポイントとして好みの位置を任意に指定することもできる。任意に指定された定点観測ポイントの位置は、ユーザにより指定された特徴点の位置を基準として表される。定点観測ポイント設定部84は、定点観測ポイントの位置の情報を情報管理部85に出力する。
情報管理部85は、認識部82により認識された特徴点の位置と距離の情報、および顔画像をメモリ57に記録させる。また、情報管理部85は、肌状態解析部83により測定された肌状態情報、および肌画像をメモリ57に記録させる。これらの情報は、測定日時などの情報と対応付けてメモリ57に記録される。情報管理部85は、定点観測ポイント設定部84により設定された定点観測ポイントの位置の情報をメモリ57に記録させる。
情報管理部85は、メモリ57に記録させた各種の情報を適宜読み出し、測定結果分析部86と表示制御部87に出力する。例えば、情報管理部85は、定点観測の結果を表示するとき、各回の測定によって得られた肌状態情報を測定結果分析部86に出力する。
測定結果分析部86は、情報管理部85から供給された肌状態情報に基づいて、定点観測ポイントの肌の状態の変化を分析する。測定結果分析部86は、分析結果を表示制御部87に出力する。
表示制御部87は、初期設定時の画面、測定結果分析部86による分析結果などの各種の情報をディスプレイ11に表示させる。
<3.情報処理装置の動作>
ここで、以上のような構成を有する情報処理装置1の処理について説明する。
・初期設定処理1
はじめに、図7のフローチャートを参照して、初期設定処理について説明する。
上述したように、初期設定処理は、定点観測ポイントを設定する処理である。定点観測ポイントの設定には、決められた部分を定点観測ポイントとして設定する処理と、ユーザ自身が顔画像上の任意の部分を指定して選択する処理とがある。
図7の処理は、決められた部分を定点観測ポイントとして設定する前者の処理である。図7の処理は、例えば、メニュー画面から初期設定を行うことが選択されたときに開始される。
ステップS1において、画像取得部81は、カメラ12を制御し、ユーザの顔の撮影を開始する。ユーザの顔が写る動画像である顔画像のデータは、認識部82と表示制御部87に順次供給される。
ステップS2において、表示制御部87は、顔の向きの案内画面をディスプレイ11に表示させる。
図8は、顔の向きの案内画面の例を示す図である。
図8の顔画像は、カメラ12により取り込まれた、初期設定を行っているユーザの顔が写る動画像である。ディスプレイ11の上方には、顔の正面を情報処理装置1に向けることを案内するメッセージが表示される。図8の案内画面に従って、ユーザは、顔の正面を情報処理装置1に向けることになる。
ステップS3において、画像取得部81は、カメラ12により撮影された顔画像を構成する所定のフレームを静止画像として取得する。例えば、画像取得部81は、ユーザが顔の正面を情報処理装置1に向けたときのフレームを静止画像として取得する。
ステップS4において、角度センサ59は、情報処理装置1の角度を検出する。角度センサ59により検出された角度の情報は情報管理部85に供給される。
ステップS5において、認識部82は、静止画として取得された顔画像を解析し、両目と口の3点などの、顔の特徴点を認識する。また、認識部82は、顔画像上のそれぞれの特徴点の位置と、情報処理装置1から、それぞれの特徴点までの距離を特定する。認識部82により特定された特徴点の位置と距離の情報は、顔画像とともに、定点観測ポイント設定部84と情報管理部85に供給される。
ステップS6において、情報管理部85は、情報処理装置1の角度の情報、特徴点の位置と距離の情報、および顔画像をメモリ57に記録させる。メモリ57に記録される顔画像は、例えば顔の特徴点の認識に用いられた静止画像である。
ステップS7において、定点観測ポイント設定部84は、ユーザの頬、額、口元を定点観測ポイントとして設定する。それぞれの定点観測ポイントの位置は、特徴点の位置を基準として特定される。この例においては、頬、額、口元のそれぞれを定点観測ポイントとして設定することがあらかじめ決められている。
このように、ユーザは、複数の部分を定点観測ポイントとして自動的に設定させることができる。頬、額、口元、目元などの、あらかじめ決められた位置の中から、定点観測ポイントとする部分をユーザが選択することができるようにしてもよい。
図9は、定点観測ポイントの選択画面の例を示す図である。
図9の選択画面の上方には、定点観測ポイントとする部分を選択することを促すメッセージが表示されている。メッセージの下には、ボタン101乃至103が表示される。ボタン101乃至103は、それぞれ、頬、額、口元を定点観測ポイントとして設定するときに選択されるボタンである。
図9の選択画面を用いた定点観測ポイントの設定は、ユーザが、位置の制限なしに、好みの部分を任意に指定して定点観測ポイントを設定する後述する処理とは異なる。
ステップS8において、情報管理部85は、定点観測ポイントの位置を表す情報をメモリ57に記録させる。以上の処理により、初期設定処理は終了となる。
図10は、設定情報の例を示す図である。
設定情報は、初期設定処理が行われることによってメモリ57に記録される情報である。情報処理装置1を複数のユーザが使う場合、メモリ57には、ユーザ毎の設定情報が記録される。
図10に示すように、設定情報には、初期設定時の情報処理装置1の角度の情報が含まれる。また、設定情報には、特徴点1乃至3のそれぞれの顔画像上の位置の情報と、情報処理装置1から、特徴点1乃至3のそれぞれまでの距離の情報が含まれる。図10の例においては、特徴点1乃至3は、それぞれ左目、右目、口である。
設定情報には、定点観測ポイント1乃至3のそれぞれの顔画像上の位置の情報が含まれる。情報処理装置1から定点観測ポイント1乃至3までの距離の情報が記録されるようにしてもよい。上述した例の場合、定点観測ポイント1乃至3は、それぞれ頬、額、口元である。
・初期設定処理2
次に、図11のフローチャートを参照して、他の初期設定処理について説明する。
図11の処理は、ユーザ自身が顔画像上の任意の部分を指定して定点観測ポイントを設定する処理である。図11の処理は、特徴点の指定と、定点観測ポイントとする部分の指定がユーザにより行われる点を除いて、図7を参照して説明した処理と基本的に同様の処理である。
ステップS21において、画像取得部81は、カメラ12を制御し、ユーザの顔の撮影を開始する。ユーザの顔が写る動画像である顔画像のデータは、認識部82と表示制御部87に供給される。
ステップS22において、表示制御部87は、撮影の案内画面をディスプレイ11に表示させる。
図12は、撮影の案内画面の例を示す図である。
図12の顔画像は、カメラ12により取り込まれた、初期設定を行っているユーザの顔が写る動画像である。ディスプレイ11の上方には、好きな向きで撮影することを案内するメッセージが表示される。図12の例においては、ユーザの顔は、情報処理装置1(カメラ12)の方向を向いていない。
ユーザは、図12の案内画面に従って、定点観測ポイントにしたい部分が写るように顔の向きを調整する。案内画面の右下には、顔の向きを決定するときに操作されるボタン104が表示されている。
ステップS23において、画像取得部81は、カメラ12により撮影された顔画像を構成する、図12のボタン104が操作されたタイミングのフレームを静止画像として取得する。静止画像には、好きな方向を向いているユーザの顔が写ることになる。画像取得部81は、取得した静止画像を顔画像として認識部82と表示制御部87に出力する。
ステップS24において、角度センサ59は、情報処理装置1の角度を検出する。角度センサ59により検出された角度の情報は情報管理部85に供給される。
ステップS25において、表示制御部87は、特徴点の選択画面をディスプレイ11に表示させる。
図13は、特徴点の選択画面の例を示す図である。
図13の顔画像は、例えば画像取得部81により取得された静止画像である。ディスプレイ11の上方には、特徴点となる、目と口の位置を指定することを案内するメッセージが表示される。
ユーザは、図13の選択画面に従って、自分の顔画像上の、両目と口の位置を指で直接触れるなどして指定する。タッチパネル56は、ユーザにより指定された位置を検出する。ユーザにより指定された位置を表す情報は、特徴点の位置の情報として認識部82に供給される。
ステップS26において、認識部82は、顔画像を解析し、情報処理装置1から特徴点までの距離を特定する。ここでは、ユーザにより指定された位置に写っている対象が特徴点として処理される。特徴点の位置と、認識部82により特定された特徴点の距離の情報は、顔画像とともに、定点観測ポイント設定部84と情報管理部85に供給される。
ステップS27において、情報管理部85は、情報処理装置1の角度の情報、特徴点の位置と距離の情報、および顔画像をメモリ57に記録させる。
ステップS28において、表示制御部87は、定点観測ポイントの設定画面をディスプレイ11に表示させる。
図14は、定点観測ポイントの設定画面の例を示す図である。
図14の顔画像は、例えば画像取得部81により取得された静止画像である。ディスプレイ11の上方には、定点観測ポイントを指定することを案内するメッセージが表示される。設定画面の右下には、定点観測ポイントの設定を終えるときに操作されるボタン105が表示されている。
ユーザは、図14の画面に従って、自分の顔画像上の任意の位置を指で直接触れるなどして指定する。ユーザは、好みの位置を定点観測ポイントとして指定することができる。ユーザにより指定された位置を表す情報は定点観測ポイント設定部84により取得される。
定点観測ポイント設定部84は、ユーザにより指定された位置を定点観測ポイントとして設定し、定点観測ポイントの位置を表す情報を情報管理部85に供給する。定点観測ポイントの位置は、ユーザにより指定された特徴点の位置を基準として表される。
ステップS29において、情報管理部85は、定点観測ポイントの位置を表す情報をメモリ57に記録させる。以上の処理により、初期設定処理は終了となる。メモリ57には、図10の設定情報が記録される。
・測定処理
次に、図15のフローチャートを参照して、測定処理について説明する。
図15の処理は、定点観測ポイントの肌の状態を実際に測定する処理である。図15の処理は、図7または図11の初期設定処理が行われた後に行われる。
ステップS41において、角度センサ59は、情報処理装置1の角度を検出する。角度センサ59により検出された角度の情報は表示制御部87に供給される。
ステップS42において、表示制御部87は、角度センサ59により検出された角度が初期設定時の角度と異なる場合、角度の調整画面をディスプレイ11に表示させる。表示制御部87は、メモリ57に記録されている設定情報により表される初期設定時の角度と、角度センサ59により検出された角度を比較することによって調整画面の表示を制御する。
図16は、角度の調整画面の例を示す図である。
調整画面の上方には、情報処理装置1を現在の状態から傾けることを案内するメッセージが表示されている。このように、調整画面には、情報処理装置1の角度を初期設定時の角度と同じ角度に調整することを促すメッセージが表示される。
ユーザは、図16の画面に従って、前方にある情報処理装置1の角度を調整する。これにより、情報処理装置1の角度が、初期設定時の角度と同じ角度になる。
ステップS43において、画像取得部81は、カメラ12を制御し、ユーザの顔の撮影を開始する。ユーザの顔が写る動画像である顔画像のデータは認識部82と表示制御部87に供給される。
ステップS44において、認識部82は、顔画像を解析し、顔画像上の特徴点の位置と、情報処理装置1から、それぞれの特徴点までの距離を特定する。特徴点の位置と距離の特定は繰り返し行われる。特徴点の位置と距離の情報は表示制御部87に供給される。
ステップS45において、表示制御部87は、顔の位置の調整画面をディスプレイ11に表示させる。調整画面の表示は、設定情報に含まれる、初期設定時の特徴点の位置と距離の情報を用いて行われる。
図17は、顔の位置の調整画面の例を示す図である。
図17の顔画像は、カメラ12により取り込まれた動画像である。調整画面の上方には、目と口の位置をマーカーに合わせるように、顔の位置を調整することを案内するメッセージが表示される。
調整画面の略中央には、顔画像に重ねて、縦長楕円形の破線の画像である画像P1が表示される。画像P1は、顔を収める範囲の目安になる画像である。
画像P1の内側には、顔画像に重ねて、マーカーとなる画像P11乃至P13が表示される。画像P11は、初期設定時に特定された右目の位置に基づいて表示される。画像P12は、初期設定時に特定された左目の位置に基づいて表示される。画像P13は、初期設定時に特定された口の位置に基づいて表示される。
ユーザは、図17の画面に従って、両目と口の3点がそれぞれ画像P11乃至P13の内側に収まるように顔の向きと距離を調整する。これにより、顔と情報処理装置1の位置の関係が、初期設定時の関係と同じ関係になる。
図18は、顔の位置の調整画面の他の例を示す図である。
図18の調整画面には、図17の画像P1に代えて、画像P1が囲む範囲以外の範囲をグレーアウトさせる画像である画像P2が表示されている。中央の顔付近以外がグレーアウトすることにより、ユーザは、顔の位置の調整に集中することができる。
ステップS46において、表示制御部87は、定点観測ポイントの案内画面をディスプレイ11に表示させる。案内画面の表示は、設定情報に含まれる、定点観測ポイントの位置の情報を用いて行われる。
図19は、定点観測ポイントの案内画面の例を示す図である。
図19の案内画面は、顔画像111と吹き出し112が並べて配置されることによって構成される。
顔画像111は、カメラ12により撮影された、ユーザの顔が写る動画像である。顔画像111には、定点観測ポイントを表す画像P21が重ねて表示されている。
図19の例においては、ユーザの右頬近傍に画像P21が表示されている。画像P21は、赤色、青色などの目立つ色の円形の画像である。画像P21は透過性を有しており、画像P21の下にユーザの顔の一部が表示される。
画像P21の表示位置は、設定情報に含まれる、定点観測ポイントの位置の情報に基づいて決定される。基準となる特徴点の位置は、撮影中の顔画像を解析することによって認識部82により特定されている。
撮影中の顔画像を解析することによって特徴点の位置を特定し、その位置を基準として定点観測ポイントを表示するため、表示制御部87は、定点観測ポイントを、常に、顔画像上の同じ位置に表示させることが可能になる。
吹き出し112には、右頬に肌測定器を当てている人物の様子を示すイラストが表示される。吹き出し112の吹き出し元は、顔画像111に表示されている画像P21の位置である。吹き出し112のイラストは、定点観測ポイントに対応する範囲以外をグレーアウトする形で表示される。
顔画像111と吹き出し112の下には、吹き出し112に表示されるイラストの人物と同じように肌測定器2を動かすことを案内するメッセージが表示される。
ユーザは、図19の画面に従って、例えば右手で持っている肌測定器2を右頬に当てて、定点観測ポイントとして設定しておいた右頬付近の肌の撮影を行う。
図20は、定点観測ポイントの案内画面の他の例を示す図である。
図20の案内画面の構成は、図19の構成と同じである。図20の顔画像111には、定点観測ポイント以外の範囲をグレーアウトさせる画像である画像P22が重ねて表示される。また、定点観測ポイントで交差する十字の画像である画像P23が表示される。吹き出し112には、右頬に肌測定器を当てている人物の様子を示すイラストが表示される。
図15のステップS47において、表示制御部87は、定点観測ポイントをユーザの動きに追従して表示させる。ユーザが顔の向きなどを変えた場合、変更後の特徴点の位置が認識部82により特定される。表示制御部87は、変更後の特徴点の位置を基準として、定点観測ポイントの位置を決定し、決定した位置に、定点観測ポイントを表す画像P21などを表示させる。
ステップS48において、画像取得部81は、肌測定器2を制御し、肌画像の撮影を開始させる。肌画像の撮影は繰り返し行われる。肌測定器2により撮影された肌画像は画像取得部81により取得され、肌状態解析部83と表示制御部87に供給される。
カメラ12により撮影された顔画像に基づいて肌測定器2の位置を認識することができる場合、ユーザが肌測定器2を定点観測ポイントに当てたときに肌画像の撮影を開始するようにしてもよい。
ステップS49において、表示制御部87は、カメラ12により撮影された顔画像と、肌測定器2により撮影された肌画像をディスプレイ11に同時に表示させる。
図21は、表示画面の例を示す図である。
図21の表示画面は、顔画像121と肌画像122から構成される。肌画像122は、顔画像121の一部に重ねて配置される。
顔画像121は、カメラ12により撮影された動画像である。顔画像121に重ねて、定点観測ポイントを表す画像P21が表示される。肌画像122は、肌測定器2により撮影された頬の肌画像である。
このように、定点観測ポイントが表示された顔画像と並べて肌画像が表示されることにより、ユーザは、肌画像が、どの部分の肌を撮影したものであるのかを直観的に認識することができる。また、ユーザは、各部分のメイクの状態などを細かく確認することができる。
ユーザの顔が写る動画像と、拡大した肌が写る動画像を表示するのではなく、それぞれの静止画像が同時に表示されるようにしてもよい。
図22は、表示画面の他の例を示す図である。
図22の表示画面は、顔画像131と、吹き出しの形にトリミングされた肌画像P132から構成される。肌画像P132の吹き出し元は、顔画像131に重ねて表示された、定点観測ポイントを表す画像P21の位置である。
このような表示によっても、ユーザは、肌画像が、どの部分の肌を撮影したものであるのかを直観的に認識することができる。
図15のステップS50において、肌状態解析部83は、画像取得部81から供給された肌画像のうちの所定のフレームを解析し、肌の状態を測定する。肌状態解析部83は、肌の状態を表す肌状態情報を肌画像とともに情報管理部85に出力する。
ステップS51において、情報管理部85は、顔画像、肌画像とともに、肌状態情報をメモリ57に記録させる。ステップS46乃至S51の処理が、それぞれの定点観測ポイントを対象として行われる。メモリ57に記録される顔画像は、例えば顔の特徴点の認識に用いられた静止画像である。また、メモリ57に記録される肌画像は、肌の状態の測定に用いられた静止画像である。
図23は、定点観測ポイントである口元の撮影中の表示画面の例を示す図である。
図23の表示画面は、顔画像141と吹き出し142が並べて配置されることによって構成される。
顔画像141は、ユーザが定点観測ポイントである口元に肌測定器2を当てている動画像である。顔画像141には、定点観測ポイントに対応する範囲以外の範囲をグレーアウトさせる画像P22が重ねて表示される。また、顔画像141には、中心で交差する破線の十字の画像である画像P23が表示される。
吹き出し142には、ユーザが口元に肌測定器2を当てているときに撮影された肌画像が表示される。吹き出し142の吹き出し元は、顔画像141上の口元の位置である。
図24は、定点観測ポイントである額の撮影中の表示画面の例を示す図である。
図24の表示画面は、定点観測ポイントが異なる点を除いて、図23の表示画面と同じである。図24の顔画像141は、ユーザが定点観測ポイントである額に肌測定器2を当てているときに撮影された動画像である。また、吹き出し142に表示されている肌画像は、ユーザが額に肌測定器2を当てているときに撮影された画像である。
このようにして全ての定点観測ポイントの肌の状態の測定が終わったとき、測定処理は終了となる。以上のような測定処理が、1日毎、1週間毎といったように定期的に行われる。
図25は、測定結果の例を示す図である。
メモリ57には、測定日時と対応付けて、測定時に撮影された顔画像のファイル名、定点観測ポイント毎の肌画像のファイル名、および、定点観測ポイント毎の肌状態情報が記録される。肌状態情報の各項目である肌の色、キメ、水分量、油分量、毛穴の状態、メラニン量、血流量、肌温度は、例えば10段階の数値で表される。
左側に示す肌状態情報は、2014年1月1日に行われた測定処理によって得られた情報である。また、右側に示す肌状態情報は、2014年1月8日に行われた測定処理によって得られた情報である。
このように定期的に行われた測定処理の結果を分析することにより、情報処理装置1は、定点観測ポイントの肌の状態の変化を特定することが可能になる。
・定点観測結果表示処理
次に、図26のフローチャートを参照して、定点観測結果表示処理について説明する。
図26の処理は、図15の測定処理が複数回行われ、肌の状態の複数回分の測定結果がメモリ57に蓄積された後に行われる。
ステップS61において、測定結果分析部86は、比較する測定結果を選択する。比較する測定結果は、例えば、ディスプレイ11に表示される選択画面を用いてユーザにより選択される。
例えば、直前の測定時に得られた結果と、その1回前の測定時に得られた結果を比較することが指示された場合、測定結果分析部86は、情報管理部85を制御し、それらの測定結果の情報をメモリ57から読み出して取得する。測定結果の情報には、顔画像のファイル名、定点観測ポイント毎の肌画像のファイル名および肌状態情報が含まれる。
ステップS62において、測定結果分析部86は、取得した情報に基づいて、肌の状態の変化を定点観測ポイント毎に分析する。測定結果分析部86は、分析結果の情報を、定点観測結果として表示制御部87に出力する。
ステップS63において、表示制御部87は、測定結果分析部86から供給された情報に基づいて、定点観測結果の表示画面をディスプレイ11に表示させる。
図27は、定点観測結果の表示画面の例を示す図である。
表示画面の上方にはタブ151乃至156が横に並べて表示される。それぞれのタブには、「サマリー」、「キメ」、「毛穴」、「シミ」、「色み」、「メモ」の文字が表示される。図27の表示画面は、「毛穴」のタブであるタブ153が選択されている状態の画面である。タブ151乃至156の下の領域161の表示が、選択中のタブが変わることによって切り替えられる。
領域161の中央には、人物の顔のイラストP51が表示される。イラストP51上の定点観測ポイントを吹き出し元として、肌画像171乃至173が表示される。イラストP51に代えて、カメラ12により撮影された、定点観測結果を見ているユーザの顔画像が表示されるようにしてもよい。この場合、肌画像171乃至173は、ユーザの顔画像上の定点観測ポイントを吹き出し元にして表示される。
肌画像171は、定点観測ポイントである頬の肌を拡大して示す画像である。例えば、比較する測定結果のうち、新しい方の測定結果の肌画像が表示される。肌画像171の左上には、横方向を指す矢印のアイコン171Aが表示されている。アイコン171Aは、頬の肌の毛穴の状態に変化がないことを表す。
肌画像172は、定点観測ポイントである額の肌を拡大して示す画像である。肌画像172の左上には、下方向を指す矢印のアイコン172Aが表示されている。アイコン172Aは、額の肌の毛穴の状態が悪くなっていることを表す。
肌画像173は、定点観測ポイントである口元の肌を拡大して示す画像である。肌画像173の左上には、下方向を指す矢印のアイコン173Aが表示されている。アイコン173Aは、口元の肌の毛穴の状態が悪くなっていることを表す。
毛穴の状態の変化は、比較する肌状態情報に含まれる毛穴の量の情報に基づいて判定される。例えば、測定結果分析部86は、毛穴の量を表す数値を比較し、閾値以上下がっている場合、毛穴の状態が悪くなっていると判定する。また、測定結果分析部86は、毛穴の量を表す数値が変わらない場合、毛穴の状態に変化がないと判定する。測定結果分析部86は、毛穴の量を表す数値が閾値以上上がっている場合、毛穴の状態がよくなっていると判定する。
領域161の左側には、「毛穴」の定点観測結果に関するコメントが表示される。メモリ57には、定点観測結果を表すコメントなどのコンテンツがあらかじめ記録されている。測定結果分析部86は、あらかじめ記録されているコンテンツの中から、分析結果に応じたコンテンツを選択し、定点観測結果の表示に用いる。
タブを切り替えることによって各項目に関する状態の変化が確認された後、定点観測結果表示処理は終了となる。
以上の一連の処理により、ユーザは、定点観測ポイントとして予め設定した部分を、正しく、かつ容易に肌測定器2を使って撮影することができる。また、ユーザは、同じ部分の肌の状態の測定結果を情報処理装置1に蓄積させておくことができる。
蓄積させておいた測定結果を分析させることにより、ユーザは、肌の状態の定点観測結果を確認することができる。
<4.肌状態情報を用いた分類の例>
定点観測ポイント毎の肌状態情報などを用いることにより、情報処理装置1は、各種の機能を実現することができる。
・顔画像の比較機能
顔画像の比較機能は、ユーザにより指定された条件に合う肌の状態が測定されたときの顔画像を比較可能な形で表示する機能である。
図28のフローチャートを参照して、比較表示処理について説明する。
ステップS101において、測定結果分析部86は、肌状態情報を比較する定点観測ポイントを選択する。測定結果分析部86は、例えば、選択画面に対するユーザの操作に従って、頬、額、口元、目元などの複数の定点観測ポイントの中から、所定の定点観測ポイントを選択する。選択画面には、ユーザにより設定された定点観測ポイントが表示される。
ステップS102において、測定結果分析部86は、ステップS101で選択した定点観測ポイントの肌の状態に関する比較条件を選択する。例えば、測定結果分析部86は、ユーザの操作に従って、定点観測ポイントである目元に関して、肌の色の状態が、最も良い状態と最も悪い状態といったような条件を選択する。
ステップS103において、測定結果分析部86は、情報管理部85を制御し、比較条件にあう肌の状態が測定されたときの顔画像をメモリ57から読み出して取得する。測定結果分析部86は、取得した顔画像を表示制御部87に出力する。
ステップS104において、表示制御部87は、測定結果分析部86から供給された顔画像を並べてディスプレイ11に表示させる。
図29は、顔画像の表示画面の例を示す図である。
図29の表示画面には、顔画像201と顔画像202が並べて表示されている。左側の顔画像201は、2014年1月1日の測定時に撮影された顔画像である。右側の顔画像202は、2014年1月8日の測定時に撮影された顔画像である。
例えば、顔画像201は、定点観測ポイントである目元の肌の色の状態として、最も良い状態が測定されたときに得られた顔画像である。一方、顔画像202は、定点観測ポイントである目元の肌の色の状態として、最も悪い状態が測定されたときに得られた顔画像である。
このような表示から、ユーザは、目のクマ(肌の色)の状態が最も良かった時の顔画像と最も悪かった時の顔画像とを比較することができる。比較条件は上述したものに限られない。ユーザは、キメの程度などの他の比較条件を選択し、比較条件にあう肌の状態が測定されたときの顔画像を比較することもできる。
顔画像の比較機能を用いることにより、ユーザは、顔の経時変化、表情の変化、化粧の変化、マッサージ等の手入れ前後の肌の変化などを確認することができる。顔の経時変化には、輪郭の変化、たるみの変化、シワの変化、シミの変化(濃淡/大小)が含まれる。表情の変化には、口角の角度の変化、口角の位置の変化、笑い方の変化が含まれる。化粧の変化には、眉の形の変化、チークの塗布位置の変化、アイシャドー、口紅、ファンデーションなどの色みの変化が含まれる。
・顔画像の検索機能
顔画像の検索機能は、ユーザにより指定された条件に合う肌の状態が測定されたときの顔画像を検索する機能である。
図30のフローチャートを参照して、顔画像の検索処理について説明する。
ステップS111において、測定結果分析部86は、定点観測ポイントを選択する。測定結果分析部86は、例えば、選択画面に対するユーザの操作に従って、複数の定点観測ポイントの中から所定の定点観測ポイントを選択する。
ステップS112において、測定結果分析部86は、ステップS101で選択した定点観測ポイントの肌の状態に関する検索条件を選択する。例えば、測定結果分析部86は、ユーザの操作に従って、定点観測ポイントである頬に関して、肌の色がピンク色といったような条件を選択する。メイク後の肌の状態を測定した場合、肌の色として各種の色が測定されることがある。
ステップS113において、測定結果分析部86は、情報管理部85を制御し、検索条件にあう肌の状態が測定されたときの顔画像をメモリ57から読み出して取得する。測定結果分析部86は、取得した顔画像を表示制御部87に出力する。
ステップS114において、表示制御部87は、測定結果分析部86から供給された顔画像をディスプレイ11に表示させる。
図31は、顔画像の表示画面の例を示す図である。
図31の表示画面には、顔画像211が表示されている。顔画像211は、2014年1月8日の測定時に撮影された顔画像である。
例えば、顔画像211は、定点観測ポイントである頬の肌の色がピンク色として測定されたときの顔画像である。
このような表示から、ユーザは、頬にピンクのメイクを施していた時の顔画像を確認することができる。検索条件は上述したものに限られない。ユーザは、肌の状態を検索のキーとして、各種の肌の状態の顔画像を確認することができる。
・改善方法の提示機能
改善方法の提示機能は、肌の状態を改善させるエクササイズのやり方をユーザに提示する機能である。提示したエクササイズをユーザが行っている場合、情報処理装置1は、ユーザが行っているエクササイズが正しいかどうかの評価を行う。
図32のフローチャートを参照して、改善方法提示処理について説明する。
ユーザが行っているエクササイズを評価するためには、情報処理装置1は、ユーザが顔のどの部分をどのように動かしているのかを認識する必要がある。情報処理装置1は、エクササイズを評価する前、肌の状態の測定時と同様に、ユーザの顔と情報処理装置1の関係を初期設定時の関係と同じ関係に調整させる。
図32のステップS121乃至S125の処理は、図15のステップS41乃至45の処理と同様の処理である。重複する説明については適宜省略する。
ステップS121において、角度センサ59は、情報処理装置1の角度を検出する。
ステップS122において、表示制御部87は、角度センサ59により検出された角度が初期設定時の角度と異なる場合、角度の調整画面をディスプレイ11に表示させる。
ステップS123において、画像取得部81は、カメラ12を制御し、ユーザの顔の撮影を開始する。
ステップS124において、認識部82は、顔画像を解析し、顔画像上の特徴点の位置と、それぞれの特徴点までの距離を特定する。特徴点の位置と、それぞれの特徴点までの距離の特定は繰り返し行われる。
ステップS125において、表示制御部87は、顔の位置の調整画面をディスプレイ11に表示させる。
ステップS126において、測定結果分析部86は、所定の期間内の測定結果に基づいて、肌の状態が悪化している定点観測ポイントを選択する。
ステップS127において、表示制御部87は、悪化している定点観測ポイントの肌の改善方法に関する情報をディスプレイ11に表示させる。例えば、定点観測ポイントである頬の肌温度が悪化している場合、表示制御部87は、頬の肌温度を改善させるためのエクササイズのやり方を表示させる。
メモリ57には、顔のそれぞれの部分の肌の状態を改善させるためのエクササイズに関する情報が記録されている。表示制御部87は、肌の状態が悪化している定点観測ポイントと、悪化している項目に応じた情報を選択し、表示させる。ユーザは、ディスプレイ11に表示された情報を確認し、提示されたエクササイズを行う。エクササイズは、主に、顔を指先でマッサージするものである。
ステップS128において、認識部82は、画像取得部81から供給された顔画像を解析し、ユーザの指の動きを認識する。ユーザの指の動きは、顔画像上での指先の位置の変化によって認識される。各タイミングにおける指先の位置も、特徴点の位置を基準として表される。認識部82により認識された指の動きを表す情報は、表示制御部87に供給される。
ステップS129において、表示制御部87は、認識部82から供給された情報に基づいてユーザの指の動かし方を特定し、その動かし方が正しいか否かを評価する。エクササイズのやり方が間違っている場合、肌の状態を悪化させることもある。メモリ57には、例えばエクササイズ毎に、正しい動かし方を表す情報と間違った動かし方を表す情報が記録されている。表示制御部87は、ユーザが行っているエクササイズの評価をメモリ57に記録されている情報に基づいて行う。
ステップS130において、表示制御部87は、ユーザの指の動かし方の評価結果をディスプレイ11に表示させる。
図33は、エクササイズ中のユーザの顔画像の例を示す図である。
図33の例においては、ユーザは、頬付近を両手の人差し指でマッサージしている。このような指の動かし方が認識され、正しい動かし方であるか否かが評価される。
図34は、評価結果の表示例を示す図である。
指の動かし方が正しいとして評価された場合、図34に示すように、指の動かし方が正しいことを表す画像P101が顔画像に重ねて表示される。目元に重ねて表示されている画像P102,P103は、ユーザが行っているエクササイズによって例えば肌温度が改善される部分を表す。
図35は、評価結果の他の表示例を示す図である。
指の動かし方が間違っているとして評価された場合、図35に示すように、指の動かし方が間違っていることを表す画像P111が顔画像に重ねて表示される。頬の目元に近い位置に重ねて表示されている画像P112,P113は、ユーザが行っているエクササイズによって肌温度が下がる部分を表す。
以上の処理により、ユーザは、肌の状態が悪化している定点観測ポイントのエクササイズを正しいやり方で行うことができる。
・肌の状態が悪化している部分の検索機能
図36のフローチャートを参照して、検索処理について説明する。
図36のステップS141乃至S146の処理は、図32のステップS121乃至126の処理と同様の処理である。重複する説明については適宜省略する。
ステップS141において、角度センサ59は、情報処理装置1の角度を検出する。
ステップS142において、表示制御部87は、角度センサ59により検出された角度が初期設定時の角度と異なる場合、角度の調整画面をディスプレイ11に表示させる。
ステップS143において、画像取得部81は、カメラ12を制御し、ユーザの顔の撮影を開始する。
ステップS144において、認識部82は、顔画像を解析し、顔画像上の特徴点の位置と、それぞれの特徴点までの距離を特定する。特徴点の位置と、それぞれの特徴点までの距離の特定は繰り返し行われる。
ステップS145において、表示制御部87は、顔の位置の調整画面をディスプレイ11に表示させる。
ステップS146において、測定結果分析部86は、所定の期間の測定結果に基づいて、肌の状態が悪化している定点観測ポイントを選択する。
ステップS147において、表示制御部87は、肌の状態が悪化している定点観測ポイントを顔画像に重ねて表示させる。
図37は、顔画像の表示例を示す図である。
図37の顔画像は、カメラ12により撮影された動画像である。顔画像に重ねて、血流量の減少、肌温度の低下などの、肌の状態が悪化している定点観測ポイントを表す情報が表示される。画像P121乃至P125は、それぞれ、肌の状態が所定の期間内で悪化している定点観測ポイントを表す。画像P121乃至P125は、ユーザの顔の動きに追従して位置を変えて表示される。
以上の処理により、ユーザは、肌の状態が悪いところをまとめて確認することができる。肌の状態が悪化している定点観測ポイントを検索するのではなく、肌の状態が改善している定点観測ポイントを検索し、ユーザに提示するようにしてもよい。
・人物の検索機能
人物の検索機能は、ユーザと顔の特徴点の位置が似ている人物を検索する機能である。情報処理装置1が美容室などに置かれている場合、複数のユーザが情報処理装置1を使って肌の状態の定点観測を行うことになる。情報処理装置1には、複数の人物の顔の特徴点の位置の情報を含む設定情報が蓄積される。人物の検索は、情報処理装置1に蓄積されている設定情報を用いて行われる。
図38のフローチャートを参照して、人物検索処理について説明する。
ステップS161において、表示制御部87は、メモリ57に記録されている情報を参照し、情報処理装置1をいま使用しているユーザと顔の特徴点の位置が近似する人物を検索する。
ステップS162において、表示制御部87は、検索により特定した人物の顔画像をメモリ57から読み出す。
ステップS163において、表示制御部87は、情報処理装置1をいま使用しているユーザの顔画像と、メモリ57から読み出した顔画像を並べて表示させる。
図39は、顔画像の表示画面の例を示す図である。
図39の表示画面には、顔画像221と顔画像222が並べて表示されている。左側の顔画像221は、情報処理装置1をいま使用しているユーザの顔画像である。右側の顔画像222は、情報処理装置1をいま使用しているユーザと特徴点の位置が近似しているとして検索された人物の顔画像である。
ユーザは、自分と顔の特徴が似ている人の肌の状態やメイクのやり方などを参考にすることができる。
・髪型のシミュレーション機能
髪型のシミュレーション機能は、カメラ12によって撮影した顔画像の髪の部分に、あらかじめ用意された様々な髪型の画像を合成して表示する機能である。
図40は、髪型の合成結果の表示例を示す図である。
図40の顔画像は、カメラ12によって撮影された動画像である。例えば、動画像の各フレームに写る髪の位置が、ユーザの顔の特徴点の位置に基づいて特定され、特定された位置に画像P131が合成される。画像P131は、複数用意されているものの中からユーザにより選択された髪型の画像である。ユーザは、画像P131として合成する髪型の画像を切り替えることができる。
<5.変形例>
顔画像を撮影するカメラが情報処理装置1に設けられるものとしたが、情報処理装置1とは別体のカメラにより顔画像が撮影されるようにしてもよい。
また、各種の情報を表示するディスプレイが情報処理装置1に設けられるものとしたが、情報処理装置1とは別体の表示装置に各種の画面が表示されるようにしてもよい。
図1の肌測定システムを用いて顔の肌の状態を測定することについて説明したが、肌の状態を測定する部分は、手、腕、足などの、顔以外の部分であってもよい。例えば手の肌の状態の定点観測を行う場合、爪、指先などが特徴点として認識される。
顔の特徴点の認識、肌状態の解析、定点観測結果の分析を含む一連の処理が、情報処理装置1により行われるものとしたが、それらの処理が、インターネットなどのネットワークに接続されたサーバにより行われるようにしてもよい。
この場合、情報処理装置1とサーバはネットワークを介して接続される。図6を参照して説明した構成は、サーバにおいて実現される。
情報処理装置1は、肌の状態の測定時、顔画像と肌画像をサーバに送信する。サーバは、情報処理装置1から送信されてきた顔画像と肌画像を受信して取得する。サーバは、顔画像を解析することによって上述した各種の画面のデータを生成し、情報処理装置1に送信する。情報処理装置1は、サーバから送信されてきたデータに基づいて、各種の画面をディスプレイ11に表示させる。
また、サーバは、肌画像を解析して肌の状態を測定し、記録する。サーバは、定点観測の結果が要求された場合、各回の測定結果に基づいて肌の状態の変化を分析し、定点観測の結果を情報処理装置1に送信する。情報処理装置1は、サーバから送信されてきたデータに基づいて、定点観測の結果をディスプレイ11に表示させる。
・コンピュータの構成例
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図5に示されるリムーバブルメディア61に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM52やメモリ57に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
本技術は、以下のような構成をとることもできる。
(1)
肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得する取得部と、
前記画像を解析し、前記特徴点の位置を認識する認識部と、
前記認識部により認識された前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる表示制御部と
を備える情報処理装置。
(2)
前記画像を撮影する撮影部をさらに備え、
前記取得部は、前記撮影部により撮影された前記画像を取得する
前記(1)に記載の情報処理装置。
(3)
前記画像と前記測定部分を表す情報を表示する表示部をさらに備える
前記(1)または(2)に記載の情報処理装置。
(4)
前記測定部分の設定時に撮影された前記画像を解析することによって前記認識部により認識された前記特徴点の位置を基準として、前記所定の位置に前記測定部分を設定する設定部をさらに備える
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記測定部分の設定時に撮影された前記画像上で前記ユーザにより指定された位置に前記測定部分を設定する設定部をさらに備える
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(6)
前記測定部分の設定時の前記情報処理装置の角度を検出する検出部をさらに備える
前記(4)または(5)に記載の情報処理装置。
(7)
前記表示制御部は、前記情報処理装置の角度を、前記検出部により検出された角度と同じ角度に調整することを案内する情報を表示する
前記(6)に記載の情報処理装置。
(8)
前記表示制御部は、前記画像上の、前記測定部分の設定時に撮影された前記画像を解析することによって前記認識部により認識された前記特徴点の位置と同じ位置に、前記特徴点を表す情報を表示させる
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記表示制御部は、前記特徴点の位置が変化することに応じて、前記測定部分を表す情報の表示位置を変化させる
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記取得部は、前記測定部分の肌を撮影して得られた肌画像を取得し、
前記表示制御部は、前記肌画像と、前記ユーザが写る前記画像とを同時に表示させる
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記肌画像を解析し、前記測定部分の肌の状態を測定する解析部と、
前記解析部による測定の結果を表す情報を記録する記録部と
をさらに備える前記(10)に記載の情報処理装置。
(12)
前記表示制御部は、前記記録部に記録された複数回の測定の結果を表す情報に基づいて、前記測定部分の肌の状態の変化を表す情報を表示させる
前記(11)に記載の情報処理装置。
(13)
肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得し、
前記画像を解析し、前記特徴点の位置を認識し、
認識した前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる
ステップを含む情報処理方法。
(14)
肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得し、
前記画像を解析し、前記特徴点の位置を認識し、
認識した前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる
ステップを含む処理をコンピュータに実行させるプログラム。
1 情報処理装置, 2 肌測定器, 11 ディスプレイ, 12 カメラ, 81 画像取得部, 82 認識部, 83 肌状態解析部, 84 定点観測ポイント設定部, 85 情報管理部, 86 測定結果分析部, 87 表示制御部

Claims (14)

  1. 肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得する取得部と、
    前記画像を解析し、前記特徴点の位置を認識する認識部と、
    前記認識部により認識された前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる表示制御部と
    を備える情報処理装置。
  2. 前記画像を撮影する撮影部をさらに備え、
    前記取得部は、前記撮影部により撮影された前記画像を取得する
    請求項1に記載の情報処理装置。
  3. 前記画像と前記測定部分を表す情報を表示する表示部をさらに備える
    請求項1に記載の情報処理装置。
  4. 前記測定部分の設定時に撮影された前記画像を解析することによって前記認識部により認識された前記特徴点の位置を基準として、前記所定の位置に前記測定部分を設定する設定部をさらに備える
    請求項1に記載の情報処理装置。
  5. 前記測定部分の設定時に撮影された前記画像上で前記ユーザにより指定された位置に前記測定部分を設定する設定部をさらに備える
    請求項1に記載の情報処理装置。
  6. 前記測定部分の設定時の前記情報処理装置の角度を検出する検出部をさらに備える
    請求項4に記載の情報処理装置。
  7. 前記表示制御部は、前記情報処理装置の角度を、前記検出部により検出された角度と同じ角度に調整することを案内する情報を表示する
    請求項6に記載の情報処理装置。
  8. 前記表示制御部は、前記画像上の、前記測定部分の設定時に撮影された前記画像を解析することによって前記認識部により認識された前記特徴点の位置と同じ位置に、前記特徴点を表す情報を表示させる
    請求項1に記載の情報処理装置。
  9. 前記表示制御部は、前記特徴点の位置が変化することに応じて、前記測定部分を表す情報の表示位置を変化させる
    請求項1に記載の情報処理装置。
  10. 前記取得部は、前記測定部分の肌を撮影して得られた肌画像を取得し、
    前記表示制御部は、前記肌画像と、前記ユーザが写る前記画像とを同時に表示させる
    請求項1に記載の情報処理装置。
  11. 前記肌画像を解析し、前記測定部分の肌の状態を測定する解析部と、
    前記解析部による測定の結果を表す情報を記録する記録部と
    をさらに備える請求項10に記載の情報処理装置。
  12. 前記表示制御部は、前記記録部に記録された複数回の測定の結果を表す情報に基づいて、前記測定部分の肌の状態の変化を表す情報を表示させる
    請求項11に記載の情報処理装置。
  13. 肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得し、
    前記画像を解析し、前記特徴点の位置を認識し、
    認識した前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる
    ステップを含む情報処理方法。
  14. 肌の状態の測定者であるユーザの所定の特徴点と、肌の状態の測定部分とが写る画像を取得し、
    前記画像を解析し、前記特徴点の位置を認識し、
    認識した前記特徴点の位置を基準として、前記画像上の所定の位置に前記測定部分を表す情報を表示させる
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2016558980A 2014-11-14 2015-10-30 情報処理装置、情報処理方法、およびプログラム Expired - Fee Related JP6750504B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014231798 2014-11-14
JP2014231798 2014-11-14
PCT/JP2015/080666 WO2016076140A1 (ja) 2014-11-14 2015-10-30 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016076140A1 true JPWO2016076140A1 (ja) 2017-08-24
JP6750504B2 JP6750504B2 (ja) 2020-09-02

Family

ID=55954232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016558980A Expired - Fee Related JP6750504B2 (ja) 2014-11-14 2015-10-30 情報処理装置、情報処理方法、およびプログラム

Country Status (7)

Country Link
US (1) US10617301B2 (ja)
EP (1) EP3219250A4 (ja)
JP (1) JP6750504B2 (ja)
KR (1) KR20170086024A (ja)
CN (1) CN107106018B (ja)
TW (1) TWI669103B (ja)
WO (1) WO2016076140A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI701018B (zh) * 2015-01-29 2020-08-11 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式
CN106302330B (zh) * 2015-05-21 2021-01-05 腾讯科技(深圳)有限公司 身份验证方法、装置和系统
JP7040889B2 (ja) * 2016-06-02 2022-03-23 ポーラ化成工業株式会社 肌状態の鑑別のための画像解析方法
CN107692965A (zh) * 2016-08-09 2018-02-16 上海图檬信息科技有限公司 基于手机相机的引导和定位皮肤检测设备到指定位置的方法
JP6993087B2 (ja) * 2017-01-17 2022-02-04 花王株式会社 皮膚の歪み測定方法
CN109255280A (zh) 2017-07-14 2019-01-22 丽宝大数据股份有限公司 皮肤状态检测方法与电子装置
JP7139638B2 (ja) * 2018-03-22 2022-09-21 カシオ計算機株式会社 報知装置、報知方法及び報知プログラム
CN110522411A (zh) * 2018-05-24 2019-12-03 浙江清华柔性电子技术研究院 可穿戴设备的固定装置
JP7081371B2 (ja) * 2018-07-26 2022-06-07 オムロンヘルスケア株式会社 生体データ測定システム及び情報処理装置
JP7408562B2 (ja) * 2018-10-24 2024-01-05 株式会社 資生堂 プログラム、情報処理装置、定量化方法及び情報処理システム
JP7361264B2 (ja) * 2018-11-05 2023-10-16 パナソニックIpマネジメント株式会社 肌分析装置、肌分析方法、及び、コンピュータプログラム
US11042726B2 (en) 2018-11-05 2021-06-22 Panasonic Intellectual Property Management Co., Ltd. Skin analyzer, skin analysis method, and non-transitory computer-readable recording medium
JP2020081323A (ja) * 2018-11-22 2020-06-04 パナソニックIpマネジメント株式会社 肌分析装置、肌分析方法、及び、コンピュータプログラム
WO2020116069A1 (ja) * 2018-12-07 2020-06-11 株式会社 資生堂 情報処理装置、及び、プログラム
CN110378304B (zh) * 2019-07-24 2021-11-02 厦门美图之家科技有限公司 皮肤状态检测方法、装置、设备及存储介质
JP7522014B2 (ja) * 2020-11-26 2024-07-24 マクセル株式会社 肌状態測定システム
JP2022084299A (ja) * 2020-11-26 2022-06-07 マクセル株式会社 肌状態測定システム
JP2024077461A (ja) * 2022-11-28 2024-06-07 パナソニックIpマネジメント株式会社 歯周病検出システム、歯周病検出方法、及び歯周病検出プログラム
WO2024116769A1 (ja) * 2022-11-28 2024-06-06 パナソニックIpマネジメント株式会社 歯周病検出システム、歯周病検出方法、及び歯周病検出プログラム
WO2024135313A1 (ja) * 2022-12-19 2024-06-27 株式会社資生堂 位置特定方法及び位置特定装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2007133518A (ja) * 2005-11-08 2007-05-31 Shiseido Co Ltd 美容医療診断方法、美容医療診断システム、美容医療診断プログラム、及び該プログラムが記録された記録媒体
JP2007152084A (ja) * 2005-11-08 2007-06-21 Shiseido Co Ltd 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2007289659A (ja) * 2006-03-27 2007-11-08 Fujifilm Corp 画像記録装置、画像記録方法、および画像記録プログラム
JP2008102137A (ja) * 2004-01-23 2008-05-01 Olympus Corp カメラ
JP2010179012A (ja) * 2009-02-09 2010-08-19 Shiseido Co Ltd 肌色測定装置、肌色測定プログラム、メイクアップシミュレーション装置及びメイクアップシミュレーションプログラム
JP2011053587A (ja) * 2009-09-04 2011-03-17 Sharp Corp 画像処理装置
JP2014061057A (ja) * 2012-09-20 2014-04-10 Sony Corp 情報処理装置、情報処理方法、プログラム、及び測定システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6571003B1 (en) 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
CN101083940B (zh) * 2004-10-22 2010-06-16 株式会社资生堂 皮肤状况诊断系统和美容咨询系统
JP4579046B2 (ja) * 2005-04-28 2010-11-10 株式会社資生堂 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
CN1961820B (zh) * 2005-11-08 2011-03-16 株式会社资生堂 肌肤状态分析方法以及肌肤状态分析装置
US8218862B2 (en) * 2008-02-01 2012-07-10 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
US8373859B2 (en) * 2009-03-27 2013-02-12 Brightex Bio-Photonics Llc Methods and systems for imaging skin using polarized lighting
CN102479322A (zh) * 2010-11-30 2012-05-30 财团法人资讯工业策进会 以具有角度的脸部影像分析脸部缺陷的系统、装置及方法
JP5733570B2 (ja) 2011-05-23 2015-06-10 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および、記録媒体
JP5733032B2 (ja) * 2011-06-06 2015-06-10 ソニー株式会社 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体
CN103885694A (zh) * 2012-12-24 2014-06-25 鸿富锦精密工业(武汉)有限公司 显示屏幕自动调节系统及方法
CN104969543B (zh) * 2013-02-14 2019-04-02 松下知识产权经营株式会社 电子镜装置
JP2014180305A (ja) 2013-03-18 2014-09-29 Funai Electric Co Ltd 情報端末装置
WO2015060376A1 (ja) * 2013-10-23 2015-04-30 日立マクセル株式会社 表面状態測定分析情報管理システムおよび表面状態測定分析情報管理方法
FR3015741B1 (fr) * 2013-12-23 2015-12-25 Galderma Res & Dev Procede d'analyse d'images du visage pour la detection d'un effet flush.

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102137A (ja) * 2004-01-23 2008-05-01 Olympus Corp カメラ
JP2006081847A (ja) * 2004-09-17 2006-03-30 Inforward Inc 肌解析ネットワークシステム
JP2007133518A (ja) * 2005-11-08 2007-05-31 Shiseido Co Ltd 美容医療診断方法、美容医療診断システム、美容医療診断プログラム、及び該プログラムが記録された記録媒体
JP2007152084A (ja) * 2005-11-08 2007-06-21 Shiseido Co Ltd 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2007289659A (ja) * 2006-03-27 2007-11-08 Fujifilm Corp 画像記録装置、画像記録方法、および画像記録プログラム
JP2010179012A (ja) * 2009-02-09 2010-08-19 Shiseido Co Ltd 肌色測定装置、肌色測定プログラム、メイクアップシミュレーション装置及びメイクアップシミュレーションプログラム
JP2011053587A (ja) * 2009-09-04 2011-03-17 Sharp Corp 画像処理装置
JP2014061057A (ja) * 2012-09-20 2014-04-10 Sony Corp 情報処理装置、情報処理方法、プログラム、及び測定システム

Also Published As

Publication number Publication date
JP6750504B2 (ja) 2020-09-02
TWI669103B (zh) 2019-08-21
KR20170086024A (ko) 2017-07-25
US10617301B2 (en) 2020-04-14
CN107106018B (zh) 2021-10-22
US20170319065A1 (en) 2017-11-09
TW201617029A (zh) 2016-05-16
WO2016076140A1 (ja) 2016-05-19
EP3219250A4 (en) 2018-07-11
CN107106018A (zh) 2017-08-29
EP3219250A1 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
JP6750504B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US9992409B2 (en) Digital mirror apparatus
CN105393528B (zh) 信息处理装置、信息处理装置的控制方法以及记录介质
CN114502061A (zh) 使用深度学习的基于图像的自动皮肤诊断
US11029830B2 (en) Display control apparatus, display controlling method and display control program for providing guidance using a generated image
CN112741609B (zh) 电子装置、电子装置的控制方法以及介质
CN109982616A (zh) 用于支持至少一个用户执行个人护理活动的装置和方法
JP2013182062A (ja) 表示装置および投影装置
CN110297720B (zh) 通知装置、通知方法及存储通知程序的介质
US12112441B2 (en) Content transformations based on reflective object recognition
JP2024009357A (ja) 情報取得装置、情報取得方法及び記憶媒体
CN112749634A (zh) 基于美容设备的控制方法、装置以及电子设备
WO2023053783A1 (ja) 撮像誘導装置、撮像誘導方法及びプログラム
RU2709185C1 (ru) Захват изображений
JP2019053706A (ja) 身体情報分析装置および顔形診断方法
JP2007249366A (ja) 髪型選択支援装置および方法
JP2020057153A (ja) 表示制御装置、表示制御方法及び表示制御プログラム
Kwiatkowska et al. Eye Tracking as a Method of Controlling Applications on Mobile Devices.
US20240212272A1 (en) Interactions based on mirror detection and context awareness
JP7198962B1 (ja) 頭髪スタイルの調整を支援する方法、情報処理装置及びプログラム
JP2023550427A (ja) 被験者の関心領域の評価
CN116888634A (zh) 信息处理装置、方法、程序、系统以及美容方法
JP2011198178A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R151 Written notification of patent or utility model registration

Ref document number: 6750504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees