JP5733032B2 - 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体 - Google Patents

画像処理装置および方法、画像処理システム、プログラム、および、記録媒体 Download PDF

Info

Publication number
JP5733032B2
JP5733032B2 JP2011126021A JP2011126021A JP5733032B2 JP 5733032 B2 JP5733032 B2 JP 5733032B2 JP 2011126021 A JP2011126021 A JP 2011126021A JP 2011126021 A JP2011126021 A JP 2011126021A JP 5733032 B2 JP5733032 B2 JP 5733032B2
Authority
JP
Japan
Prior art keywords
image
unit
skin
image processing
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011126021A
Other languages
English (en)
Other versions
JP2012249917A (ja
Inventor
信一郎 五味
信一郎 五味
鈴木 優
優 鈴木
雄介 中村
雄介 中村
佐藤 英雄
英雄 佐藤
大森 和雄
和雄 大森
大木 光晴
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011126021A priority Critical patent/JP5733032B2/ja
Priority to EP12169199.2A priority patent/EP2532301B1/en
Priority to US13/483,446 priority patent/US9517029B2/en
Priority to CN201210184838.1A priority patent/CN102973242B/zh
Publication of JP2012249917A publication Critical patent/JP2012249917A/ja
Application granted granted Critical
Publication of JP5733032B2 publication Critical patent/JP5733032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Dermatology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本技術は、画像処理装置および方法、画像処理システム、プログラム、および、記録媒体に関し、特に、肌の状態を測定する場合に用いて好適な画像処理装置および方法、画像処理システム、プログラム、および、記録媒体に関する。
従来、肌を撮影した画像に基づいて、肌の状態を測定する装置が提案されている。
例えば、波長が異なる複数の照明光を被写体の診断対象となる部位に照射し、その部位の各波長に対する分光反射率に基づいて、健常状態と異常状態を判別する診断システムが提案されている(例えば、特許文献1参照)。
国際公開第2006/064635号
そのような肌の状態を測定する技術においては、簡単かつ正確に肌の状態を知ることができるようにすることが望まれている。
本技術は、簡単かつ正確に肌の状態を知ることができるようにするものである。
本技術の第1の側面の画像処理装置は、生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行う学習部と、生体の肌を撮影した第1の画像の特徴量を抽出する特徴解析部と、抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定する特定部と、特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する設定部とを含む。
設定された前記撮影条件で撮影された前記第2の画像に基づいて、特定された前記部位の肌の状態の測定を行う測定部をさらに設けることができる。
前記測定部には、特定された前記部位において、肌のキメ、シワ、シミ、および角栓のうち少なくとも1つの測定を行わせることができる。
前記部位の測定結果の表示を制御する表示制御手段をさらに設けることができる。
前記設定部には、前記部位および前記部位において測定する項目のうち少なくとも一方に基づいて、前記第2の画像の撮影に用いる光の波長、フォーカス位置の前記部位の表面からの深さ、照明光の偏光方向と撮像素子への入射光の偏光方向との関係、および、撮影倍率のうち少なくとも1つを設定させるようにすることができる。
生体を撮影する撮影部をさらに設けることができる。
本技術の第1の側面の画像処理方法は、画像処理装置が、生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行い、生体の肌を撮影した第1の画像の特徴量を抽出し、抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定し、特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定するステップを含む。
本技術の第1の側面のプログラムは、生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行い、生体の肌を撮影した第1の画像の特徴量を抽出し、抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定し、特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定するステップを含む処理をコンピュータに実行させる。
本技術の第2の側面の画像処理システムは、撮影装置と、画像処理装置とを含み、前記画像処理装置は、生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行う学習部と、前記撮影装置により撮影された生体の肌の第1の画像の特徴量を抽出する特徴解析部と、抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定する特定部と、特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する設定部とを含む。
本技術の第1の側面においては、生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習が行われ、生体の肌を撮影した第1の画像の特徴量が抽出され、抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位が特定され、特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件が設定される。
本技術の第2の側面においては、生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習が行われ、生体の肌を撮影した第1の画像の特徴量が抽出され、抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位が特定され、特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件が設定される。
本技術の第1の側面または第2の側面によれば、簡単かつ正確に肌の状態を知ることができる。
本技術を適用した画像処理システムの第1の実施の形態を示す図である。 撮影装置の機能の構成例を示すブロック図である。 サーバの機能の構成例を示すブロック図である。 特徴解析部の機能の構成例を示すブロック図である。 学習処理を説明するためのフローチャートである。 特徴量ベクトルの生成方法について説明するための図である。 肌測定解析処理を説明するためのフローチャートである。 測定条件設定表の第1の例を示す図である。 部位画像の撮影に用いる光の波長の第1の設定方法を示す図である。 部位画像の撮影に用いる光の波長の第2の設定方法を示す図である。 部位画像の撮影に用いる光の波長の第3の設定方法を示す図である。 部位画像の撮影に用いる光の波長の第4の設定方法を示す図である。 キメ測定解析処理を説明するためのフローチャートである。 角栓測定解析処理を説明するためのフローチャートである。 UV光を用いて鼻の表面を撮影した部位画像を模式的に示す図である。 シミ測定解析処理を説明するためのフローチャートである。 シワ測定解析処理を説明するためのフローチャートである。 シワ測定解析処理の流れを示す図である。 測定条件設定表の第2の例を示す図である。 測定深度に対する撮像部のフォーカスの設定位置の例を示す図である。 本技術を適用した画像処理システムの第2の実施の形態を示す図である。 撮影装置の機能の構成例を示すブロック図である。 サーバの機能の構成例を示すブロック図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[画像処理システム1の構成例]
図1は、本技術を適用した画像処理システム1の一実施の形態を示すブロック図である。
画像処理システム1は、例えば、被検者2の頬、鼻、額、手の甲などの部位(以下、対象部位と称する)を撮影し、その結果得られた画像(以下、部位画像と称する)に基づいて、被検者2の対象部位の肌の状態の測定、および、測定結果の解析(例えば、各種の統計処理等)を行うシステムである。なお、画像処理システム1は、肌の表面の状態だけでなく、例えば、将来肌の表面に現れるシミなどが存在する肌の奥の状態の測定および解析も行う。
画像処理システム1は、撮影装置11、画像処理装置12、および、表示装置13を含むように構成される。撮影装置11と画像処理装置12とは、有線または無線の通信を行う。なお、撮影装置11と画像処理装置12の間の通信方式は、特定の方式に限定されるものではなく、無線または有線の任意の通信方式を採用することができる。この図では、撮影装置11と画像処理装置12とをケーブルにより接続し、有線通信を行う例を示している。
[撮影装置11の構成例]
図2は、撮影装置11の機能の構成例を示すブロック図である。
撮影装置11は、撮像部31、照明部32、画像処理部33、通信部34、および、制御部35を含むように構成される。
撮像部31は、イメージセンサ等を備え、制御部35の制御の下に、被検者の肌を撮影し、その結果得られた部位画像を画像処理部33に供給する。なお、撮像部31は、少なくとも可視光からUV光(紫外線)までの波長帯の光の像の撮影が可能なイメージセンサを備える。
照明部32は、制御部35の制御の下に、撮像部31により撮影される被検者の対象部位を含む領域に照明光を照射する。なお、照明部32の構成の具体例については、図9等を参照して後述する。
画像処理部33は、部位画像に対してノイズ除去等の所定の画像処理を施して、通信部34に供給する。
通信部34は、所定の通信方式により、画像処理装置12と通信を行う。そして、通信部34は、部位画像を画像処理装置12に送信する。また、通信部34は、画像処理装置12から送信されてくる撮影条件設定情報を受信し、制御部35に供給する。
制御部35は、撮像部31および照明部32の制御を行うとともに、撮影条件設定情報に基づいて、撮像部31および照明部32による部位画像の撮影条件を設定する。
[画像処理装置12の構成例]
図3は、画像処理装置12の機能の構成例を示すブロック図である。
画像処理装置12は、通信部51、特徴解析部52、学習部53、記憶部54、部位特定部55、撮影条件設定部56、肌測定解析部57、および、表示制御部58を含むように構成される。また、肌測定解析部57は、キメ測定解析部71、角栓測定解析部72、シミ測定解析部73、および、シワ測定解析部74を含むように構成される。
通信部51は、所定の通信方式により、撮影装置11と通信を行う。
特徴解析部52は、通信部51を介して、撮影装置11から部位画像を受信する。特徴解析部52は、後述するように、部位画像の特徴を解析し、部位画像の特徴量を抽出する。特徴解析部52は、抽出した部位画像の特徴量を示す情報を学習部53または部位特定部55に供給する。
学習部53は、後述するように、特徴解析部52から供給される部位画像の特徴量を示す情報、および、外部から与えられる正解データに基づいて、特徴量に基づいて部位画像に写っている被検者の部位の識別に用いる識別情報の学習を行う。学習部53は、識別情報を生成するための学習データ、および、学習の結果得られた識別情報を記憶部54に記憶させる。
記憶部54は、上述した学習データおよび識別情報の他に、測定条件設定表を記憶する。測定条件設定表は、対象部位の肌の状態の測定に用いる部位画像の撮影条件や測定項目等を設定するためのものである。測定条件設定表は、例えば、ユーザにより作成されたり、画像処理システム1の製造者、販売者等により提供される。
なお、測定条件設定表の具体例については、図8等を参照して後述する。
部位特定部55は、特徴解析部52により部位画像から抽出された特徴量、および、記憶部54に記憶されている識別情報に基づいて、部位画像内の被験者の部位(対象部位)を特定する。部位特定部55は、特定した対象部位を撮影条件設定部56および肌測定解析部57に通知する。
撮影条件設定部56は、部位特定部55により特定された対象部位、および、記憶部54に記憶されている測定条件設定表に基づいて、撮影装置11の撮影条件を設定する。そして、撮影条件設定部56は、設定した撮影条件を示す撮影条件設定情報を、通信部51を介して撮影装置11に送信する。
肌測定解析部57は、通信部51を介して、撮影装置11から部位画像を受信する。肌測定解析部57は、部位特定部55により特定された対象部位、および、記憶部54に記憶されている測定条件設定表に基づいて、対象部位において測定する項目を特定する。また、肌測定解析部57は、部位画像に基づいて、対象部位において特定した測定項目の測定を行うとともに、測定結果の解析を行う。そして、肌測定解析部57は、部位画像および対象部位の測定および解析結果(以下、測定解析結果と称する)を表示制御部58に供給する。
なお、測定項目には、例えば、キメ、角栓、シミ、シワが含まれる。そして、キメ測定解析部71、角栓測定解析部72、シミ測定解析部73、および、シワ測定解析部74が、それぞれ部位画像に基づいて、対象部位におけるキメ、角栓、シミ、および、シワの状態の測定、および、測定結果の解析を行う。
表示制御部58は、部位画像および対象部位の測定解析結果に基づいて、対象部位の肌の状態の測定解析結果を示すデータを生成し、表示装置13に送信する。
[特徴解析部52の構成例]
図4は、特徴解析部52の機能の構成例を示すブロック図である。
特徴解析部52は、フィルタリング部81、平均化部82、および、ベクトル化部83を含むように構成される。
フィルタリング部81は、後述するように、部位画像に対して、パラメータが異なる複数のガボールフィルタを適用する。そして、フィルタリング部81は、その結果得られた複数の結果画像を平均化部82に供給する。
平均化部82は、各結果画像を小ブロックに分割し、小ブロック毎の画素値の平均値を算出する。平均化部82は、算出した平均値をベクトル化部83に供給する。
ベクトル化部83は、平均化部82から供給された平均値からなるベクトルを、部位画像の特徴量を表す特徴量ベクトルとして生成する。ベクトル化部83は、生成した特徴量ベクトルを学習部53または部位特定部55に供給する。
次に、図5乃至図20を参照して、画像処理システム1の処理について説明する。
[学習処理]
まず、図5のフローチャートを参照して、画像処理システム1により実行される学習処理について説明する。
なお、この処理は、例えば、図示せぬ入力部を介して、学習処理の開始の指令が画像処理システム1に入力されたとき開始される。
ステップS1において、画像処理システム1は、部位画像を撮影する。具体的には、ユーザは、撮影装置11を用いて被検者の頬、鼻、額、または、手の甲のうちの1つの部位の撮影を行う。なお、ユーザ(撮影者)と被検者は同一人物であってもよいし、同一人物でなくてもよい。
そして、撮像部31は、撮影の結果得られた部位画像を画像処理部33に供給する。
画像処理部33は、部位画像に対してノイズ除去等の画像処理を施すとともに、部位画像の中心部の所定の大きさの領域を切り出す。なお、以下、部位画像の中心部の128×128画素の領域が切り出されるものとする。画像処理部33は、画像処理後の部位画像を通信部34に供給する。
通信部34は、部位画像を画像処理装置12に送信する。
画像処理装置12の通信部51は、撮影装置11から送信されてきた部位画像を受信し、特徴解析部52のフィルタリング部81に供給する。
ステップS2において、特徴解析部52は、部位画像の特徴を解析する。
具体的には、特徴解析部52のフィルタリング部81は、次式(1)の演算を行うことにより、部位画像に対してガボールフィルタを適用する。
Figure 0005733032
なお、g(x,y)は、ガボールフィルタの適用後の画像の座標(x,y)の画素値を表す。また、x'、y'は、部位画像のx座標、y座標を用いて、次式(2)および(3)により表される
x'=x・cosθ+y・sinθ ・・・(2)
y'=−x・sinθ+y・cosθ ・・・(3)
また、λは波長のコサイン成分、θはガボール関数の縞模様の方向、ψは位相オフセット、σはスケール、γは空間アスペクト比を表す。
このとき、フィルタリング部81は、例えば、ガボールフィルタのパラメータであるθを0度、45度、90度、135度の4種類、σを1.0、5.0の2種類の中から選択し、θとσの各組み合わせによる合計8種類のガボールフィルタを部位画像に適用する。これにより、部位画像から8つの結果画像が生成される。フィルタリング部81は、生成した8つの結果画像を平均化部82に供給する。
平均化部82は、図6に示されるように、各結果画像を32×32画素の16個の小ブロックb1乃至b16に分割し、各小ブロックの画素値の平均値を求める。その結果、8つの結果画像から合計128個の小ブロックの画素値の平均値が求められる。平均化部82は、求めた平均値をベクトル化部83に供給する。
ベクトル化部83は、平均化部82から供給された128個の平均値を特徴量とする128次元のベクトルを、部位画像の特徴を表す特徴量ベクトルとして生成する。特徴量ベクトをvとすると、特徴量ベクトルvは、例えば、次式(4)により表される。
v=(g1b1, …, g1b16, g2b1, …, g2b16, …, g8b1, …, g8b16) ・・・(4)
なお、gibjは、i番目の結果画像のj番目の小ブロックの画素値の平均を表す。
ベクトル化部83は、生成した特徴量ベクトルを学習部53に供給する。
ステップS3において、学習部53は、学習データを蓄積する。具体的には、例えば、ユーザは、部位画像が頬、鼻、額、または、手の甲のうちのいずれを撮影したものであるかを示す正解データを学習部53に入力する。学習部53は、取得した正解データと特徴量ベクトルを関連づけた学習データを記憶部54に記憶させる。
ステップS4において、学習部53は、学習データが十分蓄積されたか否かを判定する。学習データがまだ十分蓄積されていないと判定された場合、処理はステップS1に戻る。
その後、ステップS4において、学習データが十分蓄積されたと判定されるまで、ステップS1乃至S4の処理が繰り返し実行される。
例えば、ユーザは、被検者の頬、鼻、額、または、手の甲のそれぞれの部位について、少しずつ位置をずらしながら複数の部位画像を撮影する。そして、画像処理システム1は、撮影した各部位画像について学習データを生成し、蓄積する。これを、複数の被検者について実行する。これにより、複数の被検者の各部位の複数の位置における学習データが蓄積される。
そして、ステップS4において、学習データが十分蓄積されたと判定された場合、処理はステップS5に進む。
ステップS5において、学習部53は、識別器を生成する。
例えば、学習部53は、部位画像から抽出された特徴量ベクトルに基づいて部位画像内の部位を識別するために用いる識別情報として、記憶部54に蓄積されている学習データに基づいて、SVM(Support Vector Machine)による識別器を生成する。そして、学習部53は、生成した識別器を記憶部54に記憶させる。
その後、学習処理は終了する。
[肌測定解析処理]
次に、図7のフローチャートを参照して、画像処理システム1により実行される肌測定解析処理について説明する。
なお、この処理は、例えば、図示せぬ入力部を介して、肌測定解析処理の開始の指令が画像処理システム1に入力されたとき開始される。
ステップS101において、図5のステップS1の処理と同様に、被検者の肌の状態を測定する対象となる部位の部位画像が撮影される。
ステップS102において、図5のステップS2の処理と同様に、部位画像の特徴が解析される。そして、その結果得られた特徴量ベクトルが、特徴解析部52から部位特定部55に供給される。
ステップS103において、部位特定部55は、対象部位を特定する。具体的には、部位特定部55は、特徴解析部52により抽出された特徴量ベクトル、および、記憶部54に記憶されている識別器に基づいて、部位画像に写っている被検者の部位(対象部位)を、頬、鼻、額、または、手の甲の中から特定する。部位特定部55は、特定した対象部位を撮影条件設定部56および肌測定解析部57に通知する。
ステップS104において、画像処理システム1は、撮影条件の設定を行う。具体的には、撮影条件設定部56は、部位特定部55により特定された対象部位、および、記憶部54に記憶されている測定条件設定表に基づいて、撮影装置11の撮影条件を設定する。
図8は、測定条件設定表の一例を示している。この例では、測定条件設定表は、対象部位、波長、測定深度、偏光方向、撮影範囲、測定項目の6つの項目を含んでいる。このうち、波長、測定深度、偏光方向、撮影範囲が、撮影装置11の撮影条件を設定するための項目であり、これらの各項目の値は、対象部位および測定項目の少なくとも一方により決定される。
波長は、部位画像の撮影に用いる光の波長を示し、例えば、対象部位の測定項目の測定に必要な要素(例えば、皮丘、角栓など)の撮影に適した値に設定される。この例では、白色光、UV光(波長390nm)の2種類の設定値が示されている。
測定深度は、肌の表面からどの程度の深さの部分を測定するかを示す。この例では、全て0mm(肌の表面)に設定されている。
偏光方向は、照明部32から発せられる照明光の偏光方向と、撮像部31のイメージセンサに入射する入射光の偏光方向との関係を示す。この例では、平行、直交、−(偏光なし)の3種類の設定値が示されている。
ここで、平行とは、照明光の偏光方向と入射光の偏光方向を平行させること、換言すれば、照明光の偏光方向と入射光の偏光方向を一致させることを示す。照明光の偏光方向と入射光の偏光方向を平行にすることにより、対象部位の表面で反射する反射光を抽出して撮影することが可能になる。
直交とは、照明光の偏光方向と入射光の偏光方向を直交させることを示す。照明光の偏光方向と入射光の偏光方向を直交させることにより、対象部位の表面で反射する反射光を遮断し、それ以外の成分(例えば、皮膚の奥で反射する成分等)の光を抽出して撮影することが可能になる。
偏光なしとは、照明光および入射光とも偏光しないことを示す。
従って、偏光方向は、例えば、対象部位の表面または奥のいずれの測定を行うかに基づいて設定される。
撮影範囲は、部位画像を撮影する範囲を示し、例えば、対象部位の測定項目の測定に必要な要素を撮影することができる広さに設定される。この例では、1cm×1cm、3cm×3cm、5cm×5cmの3種類の設定値が示されている。
例えば、対象部位が頬の場合の測定項目はキメであるが、後述するようにキメの状態として皮丘の個数等が測定される。皮丘の大きさは0.1〜0.5mm程度なので、撮影範囲は、例えば1cm×1cmに設定される。また、対象部位が額の場合の測定項目はシワであるが、額のシワの長さが数cm程度なので、撮影範囲は、例えば5cm×5cmに設定される。
測定項目は、対象部位において測定する項目を示す。この例では、キメ、角栓、シミ、シワの4種類の設定値が示されている。
そして、撮影条件設定部56は、特定された対象部位に対応する波長、測定深度、偏光方向、および、撮影範囲にもとづいて、撮影条件を設定する。例えば、撮影条件設定部56は、対象部位に対応する波長に基づいて、撮影に使用する光源やフィルタの種類を設定する。また、例えば、撮影条件設定部56は、特定された対象部位に対応する測定深度に基づいて、撮像部31のフォーカス位置の対象部位の表面からの深さを設定する。さらに、例えば、撮影条件設定部56は、特定された対象部位に対応する偏光方向に基づいて、撮像部31の偏光方向と照明部32の偏光方向を設定する。また、例えば、撮影条件設定部56は、特定された対象部位に対応する撮影範囲に基づいて、撮像部31の撮影倍率を設定する。
そして、撮影条件設定部56は、設定した撮影条件を示す撮影条件設定情報を、通信部51を介して撮影装置11に送信する。撮影装置11の制御部35は、通信部34を介して、撮影条件設定情報を受信する。そして、制御部35は、受信した撮影条件設定情報に基づいて、撮像部31および照明部32の設定を行う。
例えば、制御部35は、撮影条件設定情報に基づいて、使用する光源やフィルタの種類を設定し、部位画像の撮影に用いる光の波長を設定する。
ここで、図9乃至図12を参照して、部位画像の撮影に用いる光の波長の設定方法の具体例について説明する。なお、以下では、部位画像の撮影に用いる光の波長を4種類の中から設定する場合の例を示す。
例えば、図9に示されるように、それぞれ波長が異なる光源111a乃至111d、および、光源切替回路112を照明部32に設け、使用する光源を切り替えるようにしてもよい。これにより、被検者に照射される照明光および撮像部31のイメージセンサ101への入射光の波長が切り替わる。なお、光源111a乃至111dは、例えば、LED(Light Emitting Diode)により構成される。
また、例えば、図10に示されるように、透過波長域がそれぞれ異なるBPF(バンドパスフィルタ)132a乃至132dを備えるターレット131をイメージセンサ101の前に設け、可視光からUV光までの波長帯の光を発する光源141を照明部32に設けるようにしてもよい。そして、ターレット131を回転させて、BPF132a乃至132dの位置を調整することにより、イメージセンサ101に入射する入射光の波長を切り替えるようにしてもよい。なお、光源141は、例えば、LED(Light Emitting Diode)により構成される。
また、例えば、図11に示されるように、透過波長域が異なるBPF151a乃至151dを備える4分割フィルタ151を、各BPFの透過光がイメージセンサ101の異なる領域に入射するように設け、部位画像の撮影に使用するイメージセンサ101の領域を切り替えるようにしてもよい。
また、例えば、図12に示されるように、4つのイメージセンサ101a乃至101dにそれぞれ対応するように、透過波長域がそれぞれ異なるBPF171a乃至171dを設け、撮影に使用するイメージセンサを切り替えるようにしてもよい。
また、制御部35は、撮影条件設定情報に基づいて、撮像部31のフォーカス位置を設定する。いまの例の場合、全ての対象部位の測定深度が0mmなので、フォーカス位置は、対象部位に関わらず、全て対象部位の表面に設定される。
さらに、制御部35は、撮影条件設定情報に基づいて、照明部32から発せられる照明光の偏光方向と、撮像部31のイメージセンサに入射する入射光の偏光方向を設定する。
また、制御部35は、撮影条件設定情報に基づいて、撮像部31のズームレンズの撮影倍率を設定する。
図7に戻り、ステップS105において、画像処理システム1は、図5のステップS1と同様の処理を行い、対象部位に応じて設定された撮影条件の下で、部位画像を再度撮影する。撮影された部位画像は、撮影装置11から画像処理装置12に送信され、肌測定解析部57に供給される。
ステップS106において、肌測定解析部57は、対象部位の測定および解析を行う。具体的には、肌測定解析部57は、部位特定部55により特定された対象部位、および、記憶部54に記憶されている測定条件設定表に基づいて、対象部位において測定および解析する項目を特定する。
そして、対象部位が頬である場合、肌測定解析部57のキメ測定解析部71は、頬のキメの状態の測定、および、測定結果の解析を行う。ここで、図13のフローチャートを参照して、キメ測定解析部71により実行されるキメ測定解析処理の詳細について説明する。
ステップS121において、キメ測定解析部71は、高輝度領域を検出する。具体的には、部位画像において、皮丘の領域は皮溝などの他の領域と比較して明るくなる傾向にある。そこで、キメ測定解析部71は、例えば、所定の閾値を用いて部位画像を2値化し、2値化した画像から高輝度の領域を抽出する。
ステップS122において、キメ測定解析部71は、ラベリング処理を行う。その結果、抽出した高輝度領域が個々に識別される。
ステップS123において、キメ測定解析部71は、皮丘の個数、大きさ、形状、方向を測定する。具体的には、キメ測定解析部71は、識別された高輝度領域の数をカウントすることにより、部位画像内の皮丘の個数を求める。また、キメ測定解析部71は、各高輝度領域の大きさおよび形状を、皮丘の大きさおよび形状として測定する。さらに、キメ測定解析部71は、各高輝度領域のエッジ部分の方向を測定する。
ステップS124において、キメ測定解析部71は、皮丘の大きさおよび形状の類似度、並びに、皮丘のエッジ方向の分布を計算する。
そして、例えば、皮丘の個数により、対象部位のキメの細かさが評価される。また、例えば、皮丘の大きさおよび形状の類似度、並びに、皮丘のエッジ方向の分布により、対象部位のキメの均一性が評価される。
その後、キメ測定解析処理は終了する。
また、対象部位が鼻である場合、肌測定解析部57の角栓測定解析部72は、鼻の角栓の状態の測定、および、測定結果の解析を行う。ここで、図14のフローチャートを参照して、角栓測定解析部72により実行される角栓測定解析処理の詳細について説明する
ステップS141において、角栓測定解析部72は、オレンジや緑の領域を抽出する。
図15は、UV光を用いて鼻の表面を撮影した部位画像を模式的に示している。なお、図内のグレーで示される部分が角栓の領域を示している。
UV光を用いて鼻の表面を撮影した場合、図内のグレーで示される角栓の領域がオレンジや緑に近い色を呈し、他から浮き上がって見える。なお、図内ではグレー1色で示されているが、実際には、領域内で色や明るさが変化する。
そこで、角栓測定解析部72は、部位画像内の角栓が写っている領域として、オレンジや緑の領域を抽出する。
ステップS142において、角栓測定解析部72は、ラベリング処理を行う。その結果、抽出したオレンジや緑の領域が個々に識別される。
ステップS143において、角栓測定解析部72は、角栓の個数および大きさを測定する。具体的には、角栓測定解析部72は、識別されたオレンジや緑の領域の数をカウントすることにより、部位画像内の角栓の個数を求める。また、角栓測定解析部72は、オレンジや緑の各領域の大きさを、角栓の大きさとして測定する。
ステップS144において、角栓測定解析部72は、角栓の大きさの平均を計算する。
そして、例えば、角栓の個数および大きさの平均により、対象部位の角栓の量が評価される。
その後、角栓測定解析処理は終了する。
また、対象部位が手の甲である場合、肌測定解析部57のシミ測定解析部73は、手の甲のシミの測定、および、測定結果の解析を行う。ここで、図16のフローチャートを参照して、シミ測定解析部73により実行されるシミ測定解析処理の詳細について説明する
ステップS161において、シミ測定解析部73は、低輝度領域を抽出する。具体的には、部位画像において、シミの領域は黒っぽい領域として現れる。そこで、シミ測定解析部73は、例えば、所定の閾値を用いて部位画像を2値化し、2値化した画像から低輝度の領域を抽出する。
ステップS162において、シミ測定解析部73は、ラベリング処理を行う。その結果、抽出した低輝度領域が個々に識別される。
ステップS163において、シミ測定解析部73は、シミの個数および大きさを測定する。具体的には、シミ測定解析部73は、識別された低輝度領域の数をカウントすることにより、部位画像内のシミの個数を求める。また、角栓測定解析部72は、各低輝度領域の大きさを、シミの大きさとして測定する。
ステップS164において、シミ測定解析部73は、シミ領域の大きさの平均を計算する。
そして、シミの個数および大きさの平均により、例えば、対象部位のシミの量が評価される。
その後、シミ測定解析処理は終了する。
また、対象部位が額である場合、肌測定解析部57のシワ測定解析部74は、額のシワの測定、および、測定結果の解析を行う。ここで、図17のフローチャートを参照して、シワ測定解析部74により実行されるシワ測定解析処理の詳細について説明する
ステップS181において、シワ測定解析部74は、部位画像内のエッジを抽出する。すなわち、シワ測定解析部74は、図18に模式的に示されるように、部位画像に写っているシワを抽出するために、Sobelフィルタ等を用いて部位画像内のエッジ領域を抽出する。
ステップS182において、シワ測定解析部74は、ラベリング処理を行う。その結果、抽出した各エッジ領域が個々に識別される。
ステップS183において、シワ測定解析部74は、シワの個数および長さを測定する。具体的には、シワ測定解析部74は、識別されたエッジ領域の数をカウントすることにより、部位画像内のシワの個数を求める。また、シワ測定解析部74は、各エッジ領域の連結画素数をカウントすることにより、部位画像内の各シワの長さを測定する。
ステップS184において、シワ測定解析部74は、シワの長さの平均を計算する。
そして、シワの個数および長さの平均により、例えば、対象部位のシワの量が評価される。
その後、シワ測定解析処理は終了する。
図7に戻り、ステップS107において、画像処理システム1は、測定解析結果を表示する。
具体的には、肌測定解析部57は、部位画像および対象部位の測定解析結果を表示制御部58に供給する。表示制御部58は、部位画像および対象部位の測定解析結果に基づいて、対象部位の肌の状態の測定解析結果を示すデータを生成し、通信部51を介して表示装置13に送信する。表示装置13は、受信したデータに基づいて、例えば、部位画像とともに、対象部位の肌の状態の測定解析結果を表示する。
その後、肌測定解析処理は終了する。
以上のようにして、自動的に対象部位を特定し、対象部位に適した撮影条件で部位画像を撮影し、対象部位に応じた項目の測定および解析を行うことができる。従って、ユーザは、簡単かつ失敗せずに、所望の部位の肌の状態を正確に測定および解析することができる。
また、学習処理を行う部位を増やすことにより、簡単に対象部位の種類を増やすことができる。
さらに、測定条件設定表を変更することにより、簡単に測定項目や撮影条件を変更することが可能である。
[測定条件設定表の変形例]
ここで、図8の測定条件設定表の代わりに、図19の測定条件設定表を用いた場合について説明する。
図19の測定条件設定表は、図8の測定条件設定表と比較して、対象部位が頬の場合の撮影条件および測定項目が異なる。具体的には、図19の測定条件設定表では、頬の撮影条件として、波長がUV光に設定され、測定深度が0.2mmに設定され、偏光方向が直交方向に設定されている。従って、対象部位が頬である場合、この撮影条件で、頬の部位画像が撮影される。
また、頬に対する測定深度は、他の部位に対する測定深度と値が異なる。この点について、図20を参照して説明する。
図20は、撮影装置11の撮像部31のイメージセンサ201とレンズ202の状態を模式的に示す図である。
対象部位が頬以外の場合の測定深度は0.0mmなので、図内の左側に示されるように、対象部位の表面にレンズ202のフォーカス位置が設定される。
一方、対象部位が頬の場合の測定深度は0.2mmなので、図内の右側に示されるように、対象部位の表面から0.2mm深い位置にレンズ202のフォーカス位置が設定される。平均的な人の表皮の厚さは約0.2mmなので、これにより頬の表面より少し奥の将来表面に現れるシミを検出することができる。
<2.変形例>
以下、本技術の実施の形態の変形例について説明する。
[変形例1]
以上の説明では、画像処理システム1を、撮影装置11、画像処理装置12、および、表示装置13により構成する例を示したが、本技術は、他の構成により実現することも可能である。
例えば、撮影装置11、画像処理装置12、および、表示装置13を一体化し、一つの装置により実現することが可能である。また、例えば、撮影装置11、画像処理装置12、および、表示装置13のうちの2つを一体化することも可能である。
また、撮影装置11と画像処理装置12の機能の配置は、上述した例に限定されるものではなく、例えば、撮影装置11の機能の一部を画像処理装置12に配置したり、画像処理装置12の機能の一部を撮影装置11に配置したりすることも可能である。
さらに、表示装置13を、画像処理システム1専用に設けるようにしてもよいし、テレビジョン受像機や携帯電話機等の他の装置の表示装置を利用するようにしてもよい。
また、本技術を、例えば、図21の画像処理システム301のように、ネットワークを介してリモート処理を行うシステムにより実現することも可能である。
画像処理システム301は、撮影装置311、サーバ312、および、表示装置313を含むように構成される。撮影装置311、サーバ312、表示装置313は、図1の撮影装置11、画像処理装置12、表示装置13にそれぞれ対応し、それぞれほぼ同様の処理を行う。
撮影装置311、サーバ312、および、表示装置313は、ネットワーク314を介して相互に接続され、通信を行う。なお、撮影装置311、サーバ312、および、表示装置313の間の通信方式は、特定の方式に限定されるものではなく、無線または有線の任意の通信方式を採用することができる。
図22は、撮影装置311の機能の構成例を示すブロック図である。なお、図中、図2と対応する部分には同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。
撮影装置311は、図2の撮影装置11と比較して、画像処理部33と通信部34との間に暗号化部331が設けられている点が異なる。
暗号化部331は、撮影装置311とサーバ312との間の伝送路におけるセキュリティを確保するために、撮像部31により撮影された部位画像を所定の方式により暗号化またはスクランブル化する。暗号化部331は、暗号化またはスクランブル化した部位画像を通信部34に供給する。
図23は、サーバ312の機能の構成例を示すブロック図である。なお、図中、図3と対応する部分には同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。
サーバ312は、図3の画像処理装置12と比較して、通信部51と、特徴解析部52および肌測定解析部57との間に復号部351が設けられている点が異なる。
復号部351は、ネットワーク314および通信部51を介して、撮影装置311から部位画像を受信する。復号部351は、暗号化またはスクランブル化されている部位画像を復号し、復号した部位画像を特徴解析部52または肌測定解析部57に供給する。
[変形例2]
特徴解析部52の部位画像の特徴の解析手法は、上述した例に限定されるものではなく、例えば、他のエッジ抽出フィルタを用いたり、色情報等を特徴量として抽出するなど、他の手法を用いることが可能である。
[変形例3]
学習部53の学習方法は、上述したSVMに限定されるものではなく、例えば、線形判別法やニューラルネット等の他の学習方法を用いることが可能である。
さらに、学習部53を画像処理装置12に設けずに、他の装置で学習処理を行った結果を画像処理装置12に与えるようにしてもよい。
[変形例4]
上述した対象部位および測定項目は、その一例であり、任意の対象部位および測定項目を追加したり、削除したりすることが可能である。また、対象部位と測定項目の組み合わせも、上述した例以外の組み合わせに設定したり、1つの対象部位に対して複数の測定項目を設定するようにすることが可能である。
[変形例5]
上述した撮影条件はその一例であり、任意の条件を追加したり、削除したりすることが可能である。例えば、照明光の強度、撮像部31の露出、撮影角度等を設定するようにすることも可能である。
[変形例6]
本技術は、人以外の生体の肌の状態を測定および解析する場合にも適用することが可能である。
また、本技術は、例えば、測定結果の解析を行わずに、肌の状態の測定のみを行い、測定結果のみを表示したり、記録したり、あるいは、測定結果を他の装置に供給したりする場合にも適用することが可能である。
さらに、本技術は、例えば、肌の状態の測定および解析を行わない場合にも適用することが可能である。例えば、特定した部位に応じた撮影条件で撮影した部位画像を表示したり、記録したり、あるいは、部位画像を他の装置に供給したりする場合にも適用することが可能である。
[コンピュータの構成例]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)401,ROM(Read Only Memory)402,RAM(Random Access Memory)403は、バス404により相互に接続されている。
バス404には、さらに、入出力インタフェース405が接続されている。入出力インタフェース405には、入力部406、出力部407、記憶部408、通信部409、及びドライブ410が接続されている。
入力部406は、キーボード、マウス、マイクロフォンなどよりなる。出力部407は、ディスプレイ、スピーカなどよりなる。記憶部408は、ハードディスクや不揮発性のメモリなどよりなる。通信部409は、ネットワークインタフェースなどよりなる。ドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア411を駆動する。
以上のように構成されるコンピュータでは、CPU401が、例えば、記憶部408に記憶されているプログラムを、入出力インタフェース405及びバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア411に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア411をドライブ410に装着することにより、入出力インタフェース405を介して、記憶部408にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部409で受信し、記憶部408にインストールすることができる。その他、プログラムは、ROM402や記憶部408に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、例えば、本技術は以下のような構成も取ることができる。
(1)
生体の肌を撮影した第1の画像の特徴量に基づいて、前記第1の画像内の前記生体の部位を特定する特定部と、
特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する設定部と
を含む画像処理装置。
(2)
設定された前記撮影条件で撮影された前記第2の画像に基づいて、特定された前記部位の肌の状態の測定を行う測定部を
さらに含む前記(1)に記載の画像処理装置。
(3)
前記測定部は、特定された前記部位において、肌のキメ、シワ、シミ、および角栓のうち少なくとも1つの測定を行う
前記(2)に記載の画像処理装置。
(4)
前記部位の測定結果の表示を制御する表示制御手段を
さらに含む前記(2)に記載の画像処理装置。
(5)
前記設定部は、前記部位および前記部位において測定する項目のうち少なくとも一方に基づいて、前記第2の画像の撮影に用いる光の波長、フォーカス位置の前記部位の表面からの深さ、照明光の偏光方向と撮像素子への入射光の偏光方向との関係、および、撮影倍率のうち少なくとも1つを設定する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記第1の画像の特徴量を抽出する特徴解析部を
さらに含み、
前記特定部は、前記特徴解析部により抽出された前記特徴量に基づいて、前記第1の画像内の前記生体の部位を特定する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記特徴量に基づいて生体の部位を識別するための識別情報の学習を行う学習部を
さらに含み、
前記特定部は、前記特徴解析部により抽出された前記特徴量、および、前記学習部により学習された前記識別情報に基づいて、前記第1の画像内の前記生体の部位を特定する
前記(6)に記載の画像処理装置。
(8)
前記生体を撮影する撮影部を
さらに備える前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
画像処理装置が、
生体の肌を撮影した第1の画像の特徴量に基づいて、前記第1の画像内の前記生体の部位を特定し、
特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する
ステップを含む画像処理方法。
(10)
生体の肌を撮影した第1の画像の特徴量に基づいて、前記第1の画像内の前記生体の部位を特定し、
特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する
ステップを含む処理をコンピュータに実行させるためのプログラム。
(11)
請求項10に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
(12)
撮影装置と、
画像処理装置と
を含み、
前記画像処理装置は、
前記撮影装置により撮影された生体の肌の第1の画像の特徴量に基づいて、前記第1の画像内の前記生体の部位を特定する特定部と、
特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を前記撮影装置に対して設定する設定部と
を含む画像処理システム。
1 画像処理システム, 11 撮影装置, 12 画像処理装置, 13 表示装置, 31 撮像部, 32 照明部, 35 制御部, 52 特徴解析部, 53 学習部, 55 部位特定部, 56 撮影条件設定部, 57 肌測定解析部, 71 キメ測定解析部, 72 角栓測定解析部, 73 シミ測定解析部, 74 シワ測定解析部, 81 フィルタリング部, 82 平均化部, 83 ベクトル化部, 101,101a乃至101d イメージセンサ, 111a乃至111d 光源, 112 光源切替回路, 131 ターレット, 132a乃至132d BPF, 151 4分割フィルタ, 151a乃至151d,171a乃至171d BPF, 201 イメージセンサ, 202 レンズ, 301 画像処理システム, 311 撮影装置, 312 サーバ, 313 表示装置, 331 暗号化部, 351 復号部

Claims (10)

  1. 生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行う学習部と、
    生体の肌を撮影した第1の画像の特徴量を抽出する特徴解析部と、
    抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定する特定部と、
    特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する設定部と
    を含む画像処理装置。
  2. 設定された前記撮影条件で撮影された前記第2の画像に基づいて、特定された前記部位の肌の状態の測定を行う測定部を
    さらに含む請求項1に記載の画像処理装置。
  3. 前記測定部は、特定された前記部位において、肌のキメ、シワ、シミ、および角栓のうち少なくとも1つの測定を行う
    請求項2に記載の画像処理装置。
  4. 前記部位の測定結果の表示を制御する表示制御手段を
    さらに含む請求項2に記載の画像処理装置。
  5. 前記設定部は、前記部位および前記部位において測定する項目のうち少なくとも一方に基づいて、前記第2の画像の撮影に用いる光の波長、フォーカス位置の前記部位の表面からの深さ、照明光の偏光方向と撮像素子への入射光の偏光方向との関係、および、撮影倍率のうち少なくとも1つを設定する
    請求項1乃至4のいずれかに記載の画像処理装置。
  6. 生体を撮影する撮影部を
    さらに備える請求項1乃至5のいずれかに記載の画像処理装置。
  7. 画像処理装置が、
    生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行い、
    生体の肌を撮影した第1の画像の特徴量を抽出し、
    抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定し、
    特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する
    ステップを含む画像処理方法。
  8. 生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行い、
    生体の肌を撮影した第1の画像の特徴量を抽出し、
    抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定し、
    特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する
    ステップを含む処理をコンピュータに実行させるためのプログラム。
  9. 請求項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  10. 撮影装置と、
    画像処理装置と
    を含み、
    前記画像処理装置は、
    生体の肌を撮影した画像の特徴量に基づいて生体の部位を識別するための識別情報の学習を行う学習部と、
    前記撮影装置により撮影された生体の肌の第1の画像の特徴量を抽出する特徴解析部と、
    抽出された前記第1の画像の特徴量、および、学習された前記識別情報に基づいて、前記第1の画像内の生体の部位を特定する特定部と、
    特定された前記部位に応じて、前記部位の肌の状態を示す第2の画像を撮影する撮影条件を設定する設定部と
    を含む画像処理システム。
JP2011126021A 2011-06-06 2011-06-06 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体 Active JP5733032B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011126021A JP5733032B2 (ja) 2011-06-06 2011-06-06 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体
EP12169199.2A EP2532301B1 (en) 2011-06-06 2012-05-24 Image processing device, image processing method, image processing system, program, and recording medium
US13/483,446 US9517029B2 (en) 2011-06-06 2012-05-30 Image processing device, image processing method, image processing system, program, and recording medium
CN201210184838.1A CN102973242B (zh) 2011-06-06 2012-06-06 图像处理设备、图像处理方法、图像处理系统、程序和记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011126021A JP5733032B2 (ja) 2011-06-06 2011-06-06 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体

Publications (2)

Publication Number Publication Date
JP2012249917A JP2012249917A (ja) 2012-12-20
JP5733032B2 true JP5733032B2 (ja) 2015-06-10

Family

ID=46651327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126021A Active JP5733032B2 (ja) 2011-06-06 2011-06-06 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体

Country Status (4)

Country Link
US (1) US9517029B2 (ja)
EP (1) EP2532301B1 (ja)
JP (1) JP5733032B2 (ja)
CN (1) CN102973242B (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184901B2 (en) * 2007-02-12 2012-05-22 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a person's appearance based on a digital image
FR2969915B1 (fr) * 2011-01-04 2014-01-03 Ergylink Systeme et procede pour analyser au moins une caracteristique de la peau
TWI556116B (zh) * 2012-02-15 2016-11-01 Hitachi Maxell Skin condition analysis and analysis information management system, skin condition analysis and analysis information management method, and data management server
JP6251489B2 (ja) * 2013-03-28 2017-12-20 株式会社 資生堂 画像解析装置、画像解析方法、及び画像解析プログラム
JP6379519B2 (ja) * 2014-02-27 2018-08-29 カシオ計算機株式会社 肌処理装置、肌処理方法及びプログラム
TW201540264A (zh) * 2014-04-18 2015-11-01 Sony Corp 資訊處理裝置、資訊處理方法、及程式
TWI669103B (zh) * 2014-11-14 2019-08-21 日商新力股份有限公司 資訊處理裝置、資訊處理方法及程式
US9918662B2 (en) * 2015-07-13 2018-03-20 Victoria Anna Breitner Measuring cervical spine posture using nostril tracking
JP6574074B2 (ja) 2016-02-08 2019-09-11 イクアリティ コスメティクス インコーポレイテッドEquality Cosmetics, Inc. 視覚的にカスタマイズされた化粧品を配合および分配するための装置および方法
KR102429838B1 (ko) * 2016-03-11 2022-08-05 (주)아모레퍼시픽 피부결 블랍을 기초로한 피부결 평가 장치 및 그 방법
US10511777B2 (en) 2016-11-08 2019-12-17 Thomas Nichols Personal care device with camera
US11122206B2 (en) 2016-11-08 2021-09-14 Preh Holding, Llc Personal care device with camera
CN110178014B (zh) * 2016-11-14 2023-05-02 美国西门子医学诊断股份有限公司 用于使用图案照明表征样本的方法和设备
CN110191661B (zh) * 2016-12-20 2022-07-05 株式会社资生堂 涂布控制装置、涂布装置、涂布控制方法以及记录介质
JP6918584B2 (ja) * 2017-06-08 2021-08-11 花王株式会社 毛穴詰まり評価方法及び毛穴詰まり評価装置
CN109493310A (zh) * 2017-09-08 2019-03-19 丽宝大数据股份有限公司 身体信息分析装置及其手部肌肤分析方法
JP7010057B2 (ja) * 2018-02-26 2022-01-26 オムロン株式会社 画像処理システムおよび設定方法
CN110547866B (zh) * 2018-06-01 2022-01-11 福美生技有限公司 反馈式能量释放系统及其操作方法
US10575623B2 (en) 2018-06-29 2020-03-03 Sephora USA, Inc. Color capture system and device
EP3782536A1 (en) * 2019-08-20 2021-02-24 Koninklijke Philips N.V. Identifying a body part
USD1000624S1 (en) 2019-12-27 2023-10-03 Thomas Nichols Personal care device with camera
JP7264296B1 (ja) 2022-04-20 2023-04-25 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム
JP7505714B2 (ja) * 2022-05-08 2024-06-25 知行 宍戸 褥瘡痕を含む皮膚のai肌解析方法、装置、またはシステム、およびスキンユニット同定aiモデル
JP7348448B1 (ja) 2022-06-01 2023-09-21 株式会社 サティス製薬 Ai肌水分量解析方法、装置、またはシステムおよび学習済みai肌水分量解析モデル

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2973676B2 (ja) * 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
JPH0775629A (ja) * 1993-09-07 1995-03-20 Kao Corp 皮膚表面観察方法及び皮膚表面観察装置
JP2004073802A (ja) * 2002-08-20 2004-03-11 Forest Denki Kk 肌の多目的測定装置
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
JP2005296280A (ja) * 2004-04-09 2005-10-27 Kao Corp フォトスケールの作成方法
JP4761924B2 (ja) * 2004-10-22 2011-08-31 株式会社 資生堂 肌状態診断システムおよび美容のためのカウンセリングシステム
WO2006064635A1 (ja) 2004-12-17 2006-06-22 Konica Minolta Holdings, Inc. 診断システム
JP2006218291A (ja) * 2005-01-13 2006-08-24 Nidec Copal Corp 肌観察装置
JP4498224B2 (ja) * 2005-06-14 2010-07-07 キヤノン株式会社 画像処理装置およびその方法
US7454046B2 (en) * 2005-09-20 2008-11-18 Brightex Bio-Photonics, Llc Method and system for analyzing skin conditions using digital images
JP5080060B2 (ja) * 2005-11-08 2012-11-21 株式会社 資生堂 肌状態解析方法、肌状態解析装置、肌状態解析プログラム、及び該プログラムが記録された記録媒体
JP2008011994A (ja) * 2006-07-04 2008-01-24 Shiseido Co Ltd シミの再発鑑別法
JP4222388B2 (ja) * 2006-07-10 2009-02-12 ソニー株式会社 画像管理装置、画像記録装置、撮像装置、画像管理システム、画像解析情報管理方法およびプログラム
US20100185064A1 (en) * 2007-01-05 2010-07-22 Jadran Bandic Skin analysis methods
US20090245603A1 (en) * 2007-01-05 2009-10-01 Djuro Koruga System and method for analysis of light-matter interaction based on spectral convolution
JP5080116B2 (ja) * 2007-03-23 2012-11-21 株式会社 資生堂 肌画像撮影装置
US8718336B2 (en) * 2007-03-30 2014-05-06 Fujifilm Corporation Image correction apparatus, image correction method, skin diagnosis method, and computer program product
JP2009000494A (ja) * 2007-05-23 2009-01-08 Noritsu Koki Co Ltd ポルフィリン検出方法、ポルフィリンの表示方法、およびポルフィリン検出装置
JP2009000410A (ja) * 2007-06-25 2009-01-08 Noritsu Koki Co Ltd 画像処理装置及び画像処理方法
JP5290585B2 (ja) * 2008-01-17 2013-09-18 株式会社 資生堂 肌色評価方法、肌色評価装置、肌色評価プログラム、及び該プログラムが記録された記録媒体
WO2010082942A1 (en) * 2008-02-01 2010-07-22 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
KR101475684B1 (ko) * 2008-10-17 2014-12-23 삼성전자주식회사 디지털 영상 처리기에서 얼굴 영상 개선 장치 및 방법
JP2010097126A (ja) * 2008-10-20 2010-04-30 Shiseido Co Ltd 顔照明装置及び該顔照明装置を用いた測色装置
US8373859B2 (en) * 2009-03-27 2013-02-12 Brightex Bio-Photonics Llc Methods and systems for imaging skin using polarized lighting
JP2010250420A (ja) * 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
TW201116257A (en) * 2009-11-13 2011-05-16 Inst Information Industry System and method for analysis of facial defects and computer program product

Also Published As

Publication number Publication date
US20120307032A1 (en) 2012-12-06
CN102973242B (zh) 2017-09-29
US9517029B2 (en) 2016-12-13
JP2012249917A (ja) 2012-12-20
EP2532301B1 (en) 2014-12-03
EP2532301A1 (en) 2012-12-12
CN102973242A (zh) 2013-03-20

Similar Documents

Publication Publication Date Title
JP5733032B2 (ja) 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体
EP3270354B1 (en) Living body detection device, living body detection method, and recording medium
Steiner et al. Design of an active multispectral SWIR camera system for skin detection and face verification
US20210342578A1 (en) Polarization Imaging for Facial Recognition Enhancement System and Method
CN108027881A (zh) 使用多种捕捉技术的用户认证
JP5818091B2 (ja) 画像処理装置、画像処理システム、画像処理方法、および、プログラム
JP2014064047A (ja) 情報処理装置、情報処理方法及びプログラム
US10846866B2 (en) Irradiation system, irradiation method, and program storage medium
JP2008198193A (ja) 顔認証システム、方法及びプログラム
JP6273640B2 (ja) 撮影画像表示装置
EP3401837B1 (fr) Dispositif de capture d'empreintes
JP2018106720A (ja) 画像処理装置及びその方法
US20200074132A1 (en) Contactless rolled fingerprints
JP2017012384A (ja) シワ状態分析装置及びシワ状態分析方法
US12039768B2 (en) Method and system for anonymizing facial images
JP2017023474A (ja) 皮膚毛穴解析装置,皮膚毛穴解析方法および該装置に用いるプログラム
CN108875472A (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
CN116982093A (zh) 呈现攻击检测
JP5287792B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2021229984A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7343020B2 (ja) 情報処理装置
US11741748B2 (en) Passive image depth sensing for object verification based on chromatic differentiation
Zabin et al. FaceSensor-ID: A High Precision Approach on Multi-Spectral (Visible and NIR) Camera Sensor Origin Identification
GB2625332A (en) Improvements in and relating to spectral sensing
JP2019020907A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R151 Written notification of patent or utility model registration

Ref document number: 5733032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250