JP2013132447A - 画像処理装置、画像処理システム、画像処理方法、および、プログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、および、プログラム Download PDF

Info

Publication number
JP2013132447A
JP2013132447A JP2011285560A JP2011285560A JP2013132447A JP 2013132447 A JP2013132447 A JP 2013132447A JP 2011285560 A JP2011285560 A JP 2011285560A JP 2011285560 A JP2011285560 A JP 2011285560A JP 2013132447 A JP2013132447 A JP 2013132447A
Authority
JP
Japan
Prior art keywords
image
region
unit
detection target
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011285560A
Other languages
English (en)
Other versions
JP5818091B2 (ja
JP2013132447A5 (ja
Inventor
Masaru Suzuki
優 鈴木
Shinichiro Gomi
信一郎 五味
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011285560A priority Critical patent/JP5818091B2/ja
Priority to US14/366,540 priority patent/US9345429B2/en
Priority to CN201280070232.3A priority patent/CN104135926B/zh
Priority to PCT/JP2012/082374 priority patent/WO2013099628A1/ja
Publication of JP2013132447A publication Critical patent/JP2013132447A/ja
Publication of JP2013132447A5 publication Critical patent/JP2013132447A5/ja
Application granted granted Critical
Publication of JP5818091B2 publication Critical patent/JP5818091B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Dermatology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】画像内の体毛等の検出対象が写っている領域を簡単かつ正確に検出する。
【解決手段】体毛領域検出部は、体毛を撮影した第1の画像を、第1の画像と異なる方向から体毛を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、第2の画像と射影画像との間の差分画像を生成する差分画像生成部と、差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、候補領域に対応する第2の画像の領域を体毛が写っている体毛領域とそれ以外の非体毛領域に分ける領域検出部とを備える。本技術は、例えば、肌の状態を解析する装置に適用できる。
【選択図】図4

Description

本技術は、画像処理装置、画像処理システム、画像処理方法、および、プログラムに関し、特に、画像内の所定の対象を検出する場合に用いて好適な画像処理装置、画像処理システム、画像処理方法、および、プログラムに関する。
肌を撮影した画像を用いて肌の状態を解析する場合、画像内に体毛が写っていると、皮溝や皮丘の形状等を正確に検出できないため、解析精度が低下する。そのため、従来、体毛を除去した画像を用いることにより、肌の状態を解析する精度を向上させることが検討されている。そこで、画像内の体毛の領域を正確に検出することが重要になる。
一方、従来、画像内の体毛の領域を構成する体毛画素と体毛でない領域を構成する背景画素とを分ける技術が提案されている(例えば、特許文献1参照)。具体的には、特許文献1に記載の技術では、画像内の画素値の最頻値以上の画素と最頻値未満の画素に2値化することにより体毛画素を検出したり、Sobelフィルタによって体毛の輪郭を抽出することにより体毛画素を検出したりする。
特開2010−82245号公報
しかしながら、画素値の最頻値未満の画素には、体毛以外の画素も多く含まれる。また、画像内には体毛以外の輪郭も多く含まれる。従って、特許文献1に記載の技術では、画像内の体毛領域の検出誤差が大きくなることが想定される。
そこで、本技術は、画像内の体毛等の検出対象が写っている領域を簡単かつ正確に検出できるようにするものである。
本技術の第1の側面の画像処理装置は、検出対象を撮影した画像において前記検出対象が写っている領域を検出する検出対象領域検出部を備え、前記検出対象領域検出部は、前記検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける領域検出部とを備える。
前記検出対象を撮影した画像から前記検出対象を除去する検出対象除去部をさらに設け、前記検出対象除去部には、前記検出対象領域検出部と、前記検出対象領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記検出対象が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記検出対象を除去する除去部とを設けることができる。
前記除去部には、少なくとも前記第2の画像の前記検出対象領域に対応する前記第1の画像の領域内の画素を前記第2の画像に射影し、置き換えることにより、前記第2の画像から前記検出対象を除去させることができる。
前記除去部には、少なくとも前記第2の画像の前記非検出対象領域内の画素を前記第1の画像に射影し、置き換えることにより、前記第1の画像から前記検出対象を除去させることができる。
前記検出対象除去部には、それぞれ異なる方向から前記検出対象を撮影した3以上の画像から2つの画像を選択し、選択した2つの画像を用いて、前記検出対象を除去した画像を新たに生成した後、残りの画像がなくなるまで、新たに生成した画像と残りの画像のうちの1つを用いて、前記検出対象を除去した画像を新たに生成する処理を繰り返させることができる。
前記検出対象領域検出部には、前記第1の画像の特徴点および前記第2の画像の特徴点を抽出する特徴点抽出部と、前記第1の画像の特徴点と前記第2の画像の特徴点とを対応付ける対応付け部と、前記対応付け部により対応付けられた前記第1の画像の特徴点と前記第2の画像の特徴点のペアの少なくとも一部に基づいて、前記第1の画像を前記第2の画像の座標系に射影する射影行列を算出する射影行列算出部とをさらに設け、前記射影変換部には、前記射影行列を用いて前記射影画像を生成させることができる。
前記射影行列算出部には、複数の前記特徴点のペアの組み合わせに基づいて、複数の前記射影行列を算出させ、前記射影変換部には、複数の前記射影行列をそれぞれ用いて複数の前記射影画像を生成させ、前記差分画像生成部には、前記第2の画像と複数の前記射影画像のそれぞれとの間の複数の前記差分画像を生成させ、前記領域検出部には、複数の前記差分画像のうち前記第2の画像との差が最小となる前記差分画像を用いて前記候補領域を検出させることができる。
前記領域検出部には、前記候補領域に対応する前記第2の画像の領域内の画像を周囲の画像と比較することにより、前記検出対象領域と前記非検出対象領域を分けさせることができる。
前記検出対象領域検出部には、それぞれ異なる方向から前記検出対象を撮影した3以上の各画像における前記検出対象領域を検出させ、3以上の前記画像の中から選択した画像における前記検出対象領域と、残りの画像の前記検出対象領域を前記選択した画像の座標系に射影した領域とを合成する領域合成部をさらに設けることができる。
本技術の第1の側面の画像処理方法は、画像処理装置が、検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成し、前記第2の画像と前記射影画像との間の差分画像を生成し、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分けるステップを含む。
本技術の第1の側面のプログラムは、検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成し、前記第2の画像と前記射影画像との間の差分画像を生成し、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分けるステップを含む。
本技術の第2の側面の画像処理システムは、検出対象を撮影する撮影部と、前記撮影部により撮影した画像において前記検出対象が写っている領域を検出する検出対象領域検出部とを備え、前記検出対象領域検出部は、前記撮影部により前記検出対象を撮影した第1の画像を、前記撮影部により前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける領域検出部とを備える。
前記撮影部により前記検出対象を撮影した画像から前記検出対象を除去する検出対象除去部をさらに設け、前記検出対象除去部には、前記検出対象領域検出部と、前記検出対象領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記検出対象が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記検出対象を除去する除去部とを設けることができる。
前記検出対象除去部には、前記撮影部によりそれぞれ異なる方向から前記検出対象を撮影した3以上の画像から2つの画像を選択し、選択した2つの画像を用いて、前記検出対象を除去した画像を新たに生成した後、残りの画像がなくなるまで、新たに生成した画像と残りの画像のうちの1つを用いて、前記検出対象を除去した画像を新たに生成する処理を繰り返させることができる。
前記検出対象領域検出部には、前記第1の画像の特徴点および前記第2の画像の特徴点を抽出する特徴点抽出部と、前記第1の画像の特徴点と前記第2の画像の特徴点とを対応付ける対応付け部と、前記対応付け部により対応付けられた前記第1の画像の特徴点と前記第2の画像の特徴点のペアの少なくとも一部に基づいて、前記第1の画像を前記第2の画像の座標系に射影する射影行列を算出する射影行列算出部とをさらに設け、前記射影変換部には、前記射影行列を用いて前記射影画像を生成させることができる。
前記検出対象領域検出部には、前記撮影部によりそれぞれ異なる方向から前記検出対象を撮影した3以上の各画像における前記検出対象領域を検出させ、3以上の前記画像の中から選択した画像における前記検出対象領域と、残りの画像の前記検出対象領域を前記選択した画像の座標系に射影した領域とを合成する領域合成部をさらに設けることができる。
前記撮影部には、2次元に配置された複数のレンズと、複数の撮像素子とを設け、各前記レンズに対する相対位置がそれぞれ同じになるように、1つの前記レンズに対して複数の前記撮像素子を配置し、前記レンズに対する相対位置が同じ前記撮像素子によりそれぞれ撮影された複数の画像を生成する画像生成部をさらに設けることができる。
前記撮影部には、前記検出対象を含む領域の周囲の少なくとも一部を放射状に囲むミラーに映った像を撮影させ、前記撮影部により前記ミラーに映った像を撮影した画像から複数の画像を切り出す画像切り出し部と、切り出された複数の画像に対して幾何歪補正を行う幾何歪補正部とをさらに設けることができる。
前記第1の画像および前記第2の画像を、前記撮影部により前記検出対象を接写した画像とすることができる。
本技術の第3の側面の画像処理装置は、体毛を撮影した第1の画像を、前記第1の画像と異なる方向から前記体毛を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記体毛が写っている体毛領域とそれ以外の非体毛領域に分ける領域検出部と、前記領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記体毛が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記体毛を除去する除去部とを備える。
本技術の第1の側面においては、検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像が生成され、前記第2の画像と前記射影画像との間の差分画像が生成され、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域が検出され、前記候補領域に対応する前記第2の画像の領域が前記検出対象領域とそれ以外の非検出対象領域に分けられる。
本技術の第2の側面においては、検出対象が撮影され、検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像が生成され、前記第2の画像と前記射影画像との間の差分画像が生成され、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域が検出され、前記候補領域に対応する前記第2の画像の領域が前記検出対象領域とそれ以外の非検出対象領域に分けられる。
本技術の第3の側面においては、体毛を撮影した第1の画像を、前記第1の画像と異なる方向から前記体毛を撮影した第2の画像の座標系に射影変換した射影画像が生成され、前記第2の画像と前記射影画像との間の差分画像が生成され、前記差分画像において差分値が所定の閾値以上の画素からなる候補領域が検出され、前記候補領域に対応する前記第2の画像の領域が前記体毛が写っている体毛領域とそれ以外の非体毛領域に分けられ、体毛領域の検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記体毛が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記体毛が除去される。
本技術の第1または第2の側面によれば、画像内の体毛等の検出対象が写っている領域を簡単かつ正確に検出することができる。
本技術の第3の側面によれば、画像内の体毛が写っている領域を簡単かつ正確に検出することができる。さらに、本技術の第3の側面によれば、画像内の体毛を正確に除去することができる。
本技術を適用した画像処理システムの第1の実施の形態を示すブロック図である。 2方向から撮影する場合の撮影装置の理想的な配置の一例を示す図である。 2方向から撮影する場合の撮影装置の理想的な配置の一例を示す図である。 体毛領域検出部の構成例を示すブロック図である。 体毛検出処理の第1の実施の形態を説明するためのフローチャートである。 体毛検出処理の具体例を説明するための図である。 体毛領域検出処理の詳細を説明するためのフローチャートである。 ホモグラフィ行列の算出方法を説明するための図である。 肌画像の射影変換の具体例を説明するための図である。 差分画像の生成方法を説明するための図である。 体毛領域の検出方法を説明するための図である。 体毛領域の検出方法を説明するための図である。 本技術を適用した画像処理システムの第2の実施の形態を示すブロック図である。 体毛除去処理の第1の実施の形態を説明するためのフローチャートである。 肌画像から体毛を除去する第1の方法を説明するための図である。 肌画像から体毛を除去する第2の方法を説明するための図である。 2方向から肌を撮影する場合の問題点を説明するための図である。 本技術を適用した画像処理システムの第3の実施の形態を示すブロック図である。 3方向から撮影する場合の撮影装置の理想的な配置の一例を示す図である。 体毛検出処理の第2の実施の形態を説明するためのフローチャートである。 体毛検出処理の具体例を説明するための図である。 体毛検出処理の具体例を説明するための図である。 体毛領域の合成方法を説明するための図である。 本技術を適用した画像処理システムの第4の実施の形態を示すブロック図である。 体毛除去処理の第2の実施の形態を説明するためのフローチャートである。 本技術を適用した画像処理システムの第5の実施の形態を示すブロック図である。 プローブの構成例を示す模式図である。 体毛除去処理の第3の実施の形態を説明するためのフローチャートである。 肌画像の生成方法を説明するための図である。 本技術を適用した画像処理システムの第6の実施の形態を示すブロック図である。 マイクロレンズと撮像素子の配置例、および、肌画像を再構成する方法を説明するための図である。 体毛除去処理の第4の実施の形態を説明するためのフローチャートである。 本技術を適用した画像処理システムの第7の実施の形態を示すブロック図である。 美容解析部の構成例を示すブロック図である。 美容解析処理を説明するためのフローチャートである。 美容解析処理の具体例を説明するための図である。 肌画像から体毛を除去せずに美容解析処理を行った場合の問題点を説明するための図である。 検出対象の変形例を説明するための図である。 検出対象が人である場合の検出対象領域の検出方法を説明するための図である。 検出対象が人である場合の検出対象領域の検出方法を説明するための図である。 本技術の第1の応用例を説明するための図である。 本技術の第2の応用例を説明するための図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(2方向から撮影した肌画像を用いて体毛領域を検出する例)
2.第2の実施の形態(2方向から撮影した肌画像を用いて肌画像から体毛を除去する例)
3.第3の実施の形態(3方向以上から撮影した肌画像を用いて体毛領域を検出する例)
4.第4の実施の形態(3方向以上から撮影した肌画像を用いて肌画像から体毛を除去する例)
5.第5の実施の形態(ミラーを用いて1つの撮影装置で異なる方向から肌を撮影する例)
6.第6の実施の形態(マイクロレンズを用いて異なる方向から肌を撮影する例)
7.第7の実施の形態(美容解析に適用した例)
8.変形例
<1.第1の実施の形態>
まず、図1乃至図12を参照して、本技術の第1の実施の形態について説明する。
[画像処理システム101の構成例]
図1は、本技術を適用した画像処理システムの第1の実施の形態である画像処理システム101の機能の構成例を示すブロック図である。
画像処理システム101は、プローブ111および画像処理装置112を含むように構成される。画像処置システム101は、プローブ111を人の肌に接触または近接させて撮影した画像(以下、肌画像と称する)において体毛が写っている領域(以下、体毛領域と称する)を検出するシステムである。
プローブ111は、撮影装置121−1,121−2の2つの撮影装置を含むように構成される。撮影装置121−1,121−2は、例えば、ごく近距離(例えば、数mm〜数cm)からの接写が可能なカメラにより構成される。なお、撮影装置121−1,121−2を、カメラ以外の撮影手段により構成することも可能である。
また、撮影装置121−1,121−2は、プローブ111の所定の位置を人の肌に接触または近接させた状態で、人の肌の同じ領域を異なる方向から撮影できるように、プローブ111内に配置される。そして、撮影装置121−1,121−2は、それぞれ撮影した肌画像を画像処理装置112に供給する。
ここで、撮影装置121−1,121−2の配置条件について説明する。
撮影装置121−1と撮影装置121−2は、撮影領域の少なくとも一部が重なるように配置される。また、撮影装置121−1と撮影装置121−2は、撮影対象となる人の肌の表面を基準とする光軸中心の方位角または俯角の少なくとも一方が異なるように配置される。これにより、撮影装置121−1,121−2により、人の肌の同じ領域を異なる方向から同時に撮影することができる。なお、撮影装置121−1の光軸中心と撮影装置121−2の光軸中心は、必ずしも交わる必要はない。
図2および図3は、撮影装置121−1,121−2の理想的な配置の一例を示している。図2は、撮影装置121−1,121−2の位置関係を、補助線を用いて示した図であり、図3は、図2の撮影装置121−1,121−2の位置関係を横から見た図である。
撮影装置121−1は、光軸中心が人の肌の表面で撮影装置121−2の光軸中心と交わり、その交点から見て斜め上方向に配置される。これにより、撮影装置121−1は、撮影装置121−2と共通の肌領域を斜め上方向から撮影することができる。
一方、撮影装置121−2は、光軸中心が肌の表面に対して垂直になるように、すなわち、光軸中心の俯角が90度になるように肌の上方に配置される。これにより、撮影装置121−2は、肌を真上から撮影することができ、歪みのない肌画像を得ることができる。
なお、撮影装置121−1の光軸中心と撮影装置121−2の光軸中心とのなす角θは、体毛の肌表面の離れ具合や体毛の太さなどにより決定される。例えば、角度θは45度に設定される。なお、撮影装置121−1の光軸中心の俯角は、90度−θとなる。
なお、以下、撮影装置121−1と撮影装置121−2を個々に区別する必要がない場合、単に、撮影装置121と称する。
図1に戻り、画像処理装置112は、画像取得部131、体毛領域検出部132、および、記憶部133を含むように構成される。
画像取得部131は、撮影装置121−1と撮影装置121−2により撮影された肌画像を取得し、体毛領域検出部132に供給する。
体毛領域検出部132は、取得した肌画像内の体毛領域を検出し、肌画像並びに検出結果を示す情報を後段の装置に出力する。
記憶部133は、画像処理装置112の処理に必要なデータ等を適宜記憶する。
[体毛領域検出部132の構成例]
図4は、体毛領域検出部132の機能の構成例を示すブロック図である。
体毛領域検出部132は、特徴点抽出部151、対応付け部152、ホモグラフィ行列算出部153、射影変換部154、差分画像生成部155、および、領域検出部156を含むように構成される。
特徴点抽出部151は、各肌画像の特徴点を抽出する。特徴点抽出部151は、肌画像、並びに、抽出した各特徴点を示す情報を対応付け部152に供給する。
対応付け部152は、2つの肌画像間で特徴点の対応付けを行い、同じ特徴点であると推定されるペアを検出する。対応付け部152は、肌画像、並びに、特徴点のペアの検出結果を示す情報をホモグラフィ行列算出部153に供給する。
ホモグラフィ行列算出部153は、2つの肌画像間の特徴点のペアの少なくとも一部に基づいて、一方の肌画像(以下、射影元画像とも称する)を他方の肌画像(以下、射影先画像とも称する)の座標系に射影変換するためのホモグラフィ行列を算出する。ホモグラフィ行列算出部153は、肌画像、並びに、ホモグラフィ行列およびホモグラフィ行列の算出に用いた特徴点のペアを示す情報を射影変換部154に供給する。
射影変換部154は、ホモグラフィ行列を用いて、射影元画像を射影変換する。射影変換部154は、肌画像(射影元画像および射影先画像)、射影変換により生成された画像(以下、射影変換画像と称する)、並びに、ホモグラフィ行列およびホモグラフィ行列の算出に用いた特徴点のペアを示す情報を差分画像生成部155に供給する。
差分画像生成部155は、射影変換画像と射影先画像との間の差分画像を生成する。差分画像生成部155は、差分画像、並びに、差分画像の生成過程で用いられたホモグラフィ行列および特徴点のペアを示す情報を記憶部133に記憶させる。また、差分画像生成部155は、必要に応じてホモグラフィ行列の算出をホモグラフィ行列算出部153に指令する。さらに、差分画像生成部155は、差分画像の生成処理が終了したとき、肌画像(射影元画像および射影先画像)を領域検出部156に供給する。
領域検出部156は、記憶部133に記憶されている差分画像に基づいて、射影先画像内の体毛領域を検出する。領域検出部156は、肌画像(射影元画像および射影先画像)、並びに、体毛領域の検出結果を示す情報を後段に出力する。また、領域検出部156は、必要に応じて、体毛領域の検出に用いた差分画像の生成過程で用いられたホモグラフィ行列または特徴点のペアの少なくとも一方を示す情報を後段に出力する。
[画像処理システム101による体毛検出処理]
次に、図5のフローチャートを参照して、画像処理システム101により実行される体毛検出処理について説明する。
なお、以下、図6に示されるように、体毛BH1が存在する肌の領域を、撮影装置121−1により左から斜め下に見下ろす方向に撮影し、撮影装置121−2により右から斜め下に見下ろす方向に撮影する場合の処理を、適宜具体例に挙げて説明する。
ステップS1において、画像処理システム101は、異なる方向から撮影した2つの肌画像を取得する。具体的には、撮影装置121−1,121−2は、それぞれ異なる方向からほぼ同時に人の肌を撮影する。このとき、撮影装置121−1,121−2は、例えば、プローブ111を肌に接触または近接させた状態で、近距離から肌を接写する。そして、撮影装置121−1,121−2は、撮影の結果得られた肌画像を画像取得部131に供給する。画像取得部131は、取得した肌画像を体毛領域検出部132の特徴点抽出部151に供給する。
例えば、図6に示されるように、撮影装置121−1により画像DL1を含む肌画像が撮影され、撮影装置121−2により画像DR1を含む肌画像が撮影される。画像DL1と画像DR1は、撮像装置121−1と撮影装置121−2がそれぞれ撮影した肌画像から、同じ肌領域に対応する部分を抽出したものである。
画像DL1および画像DR1には、それぞれ体毛BH1が写った体毛領域AL1および体毛領域AR1が存在する。画像DL1と画像DR1はそれぞれ異なる方向から撮影されるため、体毛BH1により隠蔽される肌領域が異なる。すなわち、画像DL1において体毛領域AL1により隠蔽される肌領域と、画像DR1において体毛領域AR1により隠蔽される肌領域はそれぞれ異なる。
なお、画像DL1の左辺が長く、右辺が短くなっているのは、左辺の領域が撮影装置121に最も近く大きく写り、右辺に近づくほど小さく写るからである。画像DR1の右辺が長く、左辺が短くなっているのも同様の理由からである。
なお、以下、画像DL1および画像DR1に対して処理を行う場合を、適宜具体例として挙げながら説明する。
ステップS2において、体毛領域検出部132は、体毛領域検出処理を実行し、その後、体毛検出処理は終了する。
ここで、図7のフローチャートを参照して、体毛領域検出処理の詳細について説明する。
ステップS21において、特徴点抽出部151は、各肌画像の特徴点を抽出する。そして、特徴点抽出部151は、肌画像、並びに、抽出した各特徴点を示す情報を対応付け部152に供給する。
なお、特徴点を抽出する手法には、任意の手法を採用することができる。例えば、肌表面の皮溝の交点、皮丘、毛穴、汗腺、血管パターン等の肌特有の情報を元に、回転、スケール変化、照明変化による画像の変化に不変なSIFT(Scale Invariant Feature Transform)特徴量や、SURF(Speeded Up Robust Features)特徴量を用いて、特徴点を抽出することが可能である。
ステップS22において、対応付け部152は、画像間の特徴点の対応付けを行う。すなわち、対応付け部152は、一方の肌画像の特徴点と他方の肌画像の特徴点との組み合わせのうち、同じ特徴点であると推定されるペアを検出する。
例えば、SIFT特徴量に基づいて特徴点が抽出されている場合、対応付け部152は、画像DL1の特徴点を1つ選択し、選択した特徴点と画像DR1の各特徴点との間のSIFT特徴量のベクトル情報を用いたベクトル間距離を算出する。そして、対応付け部152は、選択した画像DL1の特徴点と、ベクトル間距離が最小となる画像DR1の特徴点とを、同じ特徴点のペアとして対応付ける。対応付け部152は、この処理を全ての特徴点について行う。
ステップS23において、ホモグラフィ行列算出部153は、特徴点のペアをランダムに4つ選択する。例えば、図8に示されるように、ホモグラフィ行列算出部153は、画像DL1の特徴点FP1L乃至FP4Lと、それらとペアになる画像DR1の特徴点FP1R乃至FP4Rとの4つの特徴点のペアを選択する。
ステップS24において、ホモグラフィ行列算出部153は、選択した特徴点のペアに基づいて、ホモグラフィ行列を算出する。例えば、ホモグラフィ行列算出部153は、図8に示される4つの特徴点のペアに基づいて、画像DL1(射影元画像)を画像DR1(射影先画像)の座標系に射影するためのホモグラフィ行列HLRを算出する。そして、ホモグラフィ行列算出部153は、肌画像、並びに、算出したホモグラフィ行列およびホモグラフィ行列の算出に用いた特徴点のペアを示す情報を射影変換部154に供給する。
ステップS25において、射影変換部154は、ホモグラフィ行列を用いて、一方の肌画像を射影変換する。例えば、図9に示されるように、射影変換部154は、ホモグラフィ行列算出部153により算出されたホモグラフィ行列HLRを用いて、画像DL1(射影元画像)を射影変換することにより、画像DL1’(射影変換画像)を生成する。このとき、画像DL1の体毛領域AL1は、画像DL1’において体毛領域AL1’に射影される。体毛領域AL1’は、画像DRにおける体毛領域AR1とは異なる領域となる。
そして、射影変換部154は、肌画像(射影元画像および射影先画像)、射影変換画像、並びに、ホモグラフィ行列およびホモグラフィ行列の算出に用いた特徴点のペアを示す情報を差分画像生成部155に供給する。
ステップS26において、差分画像生成部155は、射影変換した肌画像(射影変換画像)と射影先の肌画像(射影先画像)との間の差分画像を生成する。例えば、図10に示されるように、差分画像生成部155は、画像DL1’と画像DRとの対応する画素の差分値の絶対値からなる差分画像DS1を生成する。なお、差分画像DS1においては、体毛領域AL1’に対応する領域AL2および体毛領域AR1に対応する領域AR2の差分値が大きくなる。
ステップS27において、差分画像生成部155は、生成した差分画像、並びに、差分画像の生成過程で用いられたホモグラフィ行列および4つの特徴点のペアの組み合わせを示す情報を対応付けて記憶部133に記憶させる。
ステップS28において、差分画像生成部155は、所定の数の差分画像を生成したか否かを判定する。まだ所定の数の差分画像を生成していないと判定された場合、処理はステップS23に戻る。このとき、差分画像生成部155は、ホモグラフィ行列の算出をホモグラフィ行列算出部153に指令する。
その後、ステップS23乃至S28の処理が所定の回数だけ繰り返し実行される。すなわち、4つの特徴点のペアをランダムに選択し、選択した特徴点のペアに基づいて算出されたホモグラフィ行列を用いて射影変換された射影変換画像と、射影先画像との間の差分画像を生成する処理が繰り返される。
一方、ステップS28において、所定の数の差分画像を生成したと判定された場合、処理はステップS29に進む。このとき、差分画像生成部155は、肌画像(射影元画像および射影先画像)を領域検出部156に供給する。
ステップS29において、領域検出部156は、差分値が最小となる差分画像を選択する。すなわち、領域検出部156は、記憶部133に記憶されている差分画像の中から、差分値の合計が最小となる差分画像を選択する。
ステップS30において、領域検出部156は、選択した差分画像を用いて、体毛領域を検出する。具体的には、まず、領域検出部156は、選択した差分画像において差分値が所定の閾値以上の画素からなる領域を体毛候補領域として検出する。例えば、図10の差分画像DS1において領域AL2および領域AR2からなる領域と対応する射影先画像上の領域が体毛候補領域として検出される。
なお、領域AR2は、射影先画像(画像DR1)において実際に体毛が写っている領域(体毛領域)である。一方、領域AL2は、射影先画像において体毛が写っておらず、射影変換画像(画像DL1’)において体毛が写っている領域(以下、非体毛領域と称する)である。なお、通常、体毛候補領域は、体毛領域と非体毛領域が根元(生え際)で繋がった連続した領域として検出される。ただし、根元(生え際)が肌画像に写っていない体毛に対応する体毛候補領域は、体毛領域と非体毛領域とが離れた2つの領域として検出される。
さらに、領域検出部156は、体毛候補領域を、射影先画像において実際に体毛が写っている領域(体毛領域)と、それ以外の領域(非体毛領域)に分ける。
ここで、体毛領域と非体毛領域の分離方法について説明する。なお、以下、図11に示されるように、体毛領域A1と非体毛領域A2からなる体毛候補領域が検出されている場合の分離方法について適宜説明する。
例えば、領域検出部156は、射影先画像の体毛候補領域の中から1つの画素を注目画素に選択する。さらに、領域検出部156は、注目画素を中心とする所定の大きさの矩形の領域(以下、注目領域と称する)内の各画素の画素値の最大値を検出する。この最大画素値は、注目領域内の最大輝度値を示す。
そして、領域検出部156は、注目画素の画素値と最大画素値との差が所定の閾値以上である場合、注目画素が体毛領域内の画素であると判定する。一方、領域検出部156は、注目画素の画素値と最大画素値との差が所定の閾値未満である場合、注目画素が非体毛領域内の画素であると判定する。
例えば、体毛領域A1内の画素P1を注目画素とした場合、画素P1は体毛上の画素であり、画素値が0に近くなるため、画素P1を中心とする注目領域B1内の最大画素値との間の画素値の差が大きくなる。従って、画素P1は、体毛領域A1内の画素であると判定される。一方、例えば、非体毛領域A2内の画素P2を注目画素とした場合、画素P2は肌上の画素であり、画素P2を中心とする注目領域B2内の最大画素値との間の画素値の差が小さくなる。従って、画素P2は、非体毛領域A2内の画素であると判定される。
なお、注目領域の一辺の長さ(画素数)は、肌画像内で想定される体毛の太さ方向の最大画素数より大きく、当該最大画素数に近い値に設定することが望ましい。例えば、70倍の倍率で接写することに得られた1280×1024画素の解像度の肌画像において、注目領域の一辺の長さは51画素に設定される。
領域検出部156は、以上の処理を、体毛候補領域内の全ての画素が注目画素になるまで繰り返し、体毛候補領域内の各画素を体毛領域内の画素と非体毛領域内の画素に分ける。このようにして、体毛候補領域内の画像を周囲の画像と比較することにより、体毛候補領域が体毛領域と非体毛領域に分離される。
なお、体毛領域と非体毛領域の分離方法は、上述した方法に限定されるものではない。例えば、画素単位で判断するのではなく、図12に示されるように、体毛候補領域を領域A1と領域A2に分割してから、いずれの領域が体毛領域または非体毛領域であるかを判定するようにしてもよい。この場合、各領域内の全ての画素を用いずに一部の画素のみを用いて判定することが可能である。
領域検出部156は、肌画像(射影元画像および射影先画像)、並びに、体毛領域と非体毛領域の検出結果、および、体毛領域の検出に用いた差分画像の生成過程で用いられたホモグラフィ行列を示す情報を、後段に出力する。
なお、以下、体毛領域の検出に用いた差分画像の生成過程で用いられたホモグラフィ行列を、最適ホモグラフィ行列と称する。最適ホモグラフィ行列は、算出された複数のホモグラフィ行列のうち、射影変換画像と射影先画像との差が最も小さくなるホモグラフィ行列である。
以上のようにして、肌画像内の体毛領域を簡単かつ精度良く検出することができる。
<2.第2の実施の形態>
次に、図13乃至図16を参照して、本技術の第2の実施の形態について説明する。なお、本技術の第2の実施の形態は、第1の実施の形態に肌画像から体毛を除去する機能を追加したものである。
[画像処理システム201の構成例]
図13は、本技術を適用した画像処理システムの第2の実施の形態である画像処理システム201の機能の構成例を示すブロック図である。
画像処理システム201は、肌画像から体毛を除去する機能を画像処理システム101に加えたシステムである。なお、図中、図1と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるため適宜省略する。
画像処理システム201は、図1の画像処理システム101と比較して、画像処理装置112の代わりに画像処理装置211が設けられている点が異なる。また、画像処理装置211は、画像処理装置112と比較して、体毛除去部231が追加されている点が異なる。
体毛除去部231は、体毛領域検出部132および除去部241を含むように構成される。
除去部241は、体毛領域検出部132による体毛領域の検出結果に基づいて、肌画像から体毛を除去した画像(以下、体毛除去画像と称する)を生成する。除去部241は、生成した体毛除去画像を後段に出力する。
[画像処理システム201による体毛除去処理]
次に、図14のフローチャートを参照して、画像処理システム201により実行される体毛除去処理について説明する。
ステップS101において、図5のステップS1の処理と同様に、異なる方向から撮影した2つの肌画像が取得される。
ステップS102において、図5のステップS2の処理と同様に、体毛領域検出処理が実行される。そして、体毛領域検出部132の領域検出部156は、肌画像(射影元画像および射影先画像)、並びに、体毛領域と非体毛領域の検出結果および最適ホモグラフィ行列を示す情報を除去部241に供給する。
ステップS103において、除去部241は、体毛を除去した画像を生成する。具体的には、除去部241は、少なくとも射影先画像の体毛領域の画素を射影元画像の対応する画素に置き換えることにより、体毛除去画像を生成する。
例えば、除去部241は、最適ホモグラフィ行列の逆行列を算出する。そして、除去部241は、最適ホモグラフィ行列の逆行列を用いて、体毛候補領域内の非体毛領域に対応する射影元画像の領域、すなわち、射影元画像における体毛領域を算出する。そして、除去部241は、射影元画像の体毛領域以外の画素を、最適ホモグラフィ行列を用いて射影先画像上に射影し、射影先画像の画素と置き換える。これにより、射影先画像において、非体毛領域の一部を含む体毛領域の画素が、射影元画像の対応する画素に置き換えられ、射影先画像から体毛が除去された画像(体毛除去画像)が生成される。
例えば、除去部241は、図15に示されるように、画像DL1の体毛領域AL1以外の画素を、最適ホモグラフィ行列HLRを用いて、画像DR1上に射影し、画像DR1の画素と置き換える。これにより、画像DR1から体毛領域AR1が除去され、代わりに体毛領域AR1により隠蔽されていた肌が写った体毛除去画像が生成される。
あるいは、除去部241は、最適ホモグラフィ行列の逆行列を用いて、射影先画像の体毛領域に対応する射影元画像の領域を算出する。この算出した領域は、射影元画像の体毛領域と異なる領域であり、体毛が写っていない。そして、除去部241は、算出した射影元画像の領域内の画素を、最適ホモグラフィ行列を用いて射影先画像上に射影し、射影先画像の画素と置き換える。これにより、射影先画像の体毛領域の画素が、射影元画像の対応する画素に置き換えられ、射影先画像から体毛が除去された画像(体毛除去画像)が生成される。
例えば、除去部241は、画像DR1の体毛領域AR1に対応する画像DL1の領域を算出する。そして、除去部241は、図16に示されるように、算出した画像DL1の領域内の画素(図内の丸印で囲まれた画素)を、最適ホモグラフィ行列を用いて画像DR1に射影し、画像DR1の画素(体毛領域AR1内の画素)と置き換える。これにより、画像DR1から体毛領域AR1が除去され、代わりに体毛領域AR1により隠蔽されていた肌が写った体毛除去画像が生成される。
なお、後者の方法の方が、射影する画素の数を削減することができ、処理時間を短縮することが可能である。
そして、除去部241は、生成した体毛除去画像を後段に出力する。
このようにして、簡単かつ確実に肌画像から体毛を除去することができる。
<3.第3の実施の形態>
次に、図17乃至図23を参照して、本技術の第3の実施の形態について説明する。なお、本技術の第3の実施の形態は、異なる3方向以上から肌を撮影することにより取得した3以上の肌画像を用いて、体毛領域を検出するようにしたものである。
体毛は線状であるため、上述した図6に示されるように、体毛が伸びている方向と直交する2方向から肌画像を撮影することが望ましい。なぜなら、一方の肌画像において体毛によって隠蔽された肌領域が、他方の肌画像において体毛により隠蔽されずに写る確率(もしくは面積)が高くなるからである。
しかしながら、体毛の方向は一様でなく様々であるため、必ずしも体毛が伸びている方向と直交する2方向から肌画像を撮影できるとは限らない。例えば、図17に示されるように、撮影装置121−1および撮影装置121−2により体毛BH11が伸びている方向と平行で、かつ対向する2方向から撮影する場合がある。この場合、2つの撮影装置から見て、体毛BH11により隠蔽される肌領域が重なる。すなわち、撮影装置121−1により得られる画像DL11の体毛領域AL11により隠蔽される肌領域と、撮影装置121−2により得られる画像DR11の体毛領域AR11により隠蔽される肌領域が重なる。この場合、差分画像において体毛領域に対応する領域の差分値が小さくなるため、体毛領域を精度良く検出することが困難になる。
そこで、本技術の第3の実施の形態では、3方向以上から肌を撮影するようにして、より精度良く体毛領域を検出できるようにするものである。
[画像処理システム301の構成例]
図18は、本技術を適用した画像処理システムの第3の実施の形態である画像処理システム301の機能の構成例を示すブロック図である。なお、図中、図1と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるため適宜省略する。
画像処理システム301は、プローブ311および画像処理装置312を含むように構成される。
プローブ311は、図1のプローブ111と比較して、設けられている撮影装置121の数が異なる。すなわち、プローブ311には、n台(nは3以上)の撮影装置121−1乃至121−nが設けられている。
撮影装置121−1乃至121−nは、プローブ311の所定の位置を人の肌に接触または近接させた状態で、人の肌の同じ領域を異なる方向から撮影できるように、プローブ311内に配置される。そして、撮影装置121−1乃至121−nは、それぞれ撮影した肌画像を画像処理装置312に供給する。
ここで、撮影装置121−1乃至121−nの配置条件について説明する。
撮影装置121−1乃至121−nは、全てに共通に撮影される領域が存在するように配置される。また、任意の2つの撮影装置121は、撮影対象となる人の肌の表面を基準とする光軸中心の方位角または俯角の少なくとも一方が異なるように配置される。これにより、任意の2つの撮影装置121により、人の肌の同じ領域を異なる方向から同時に撮影することができる。なお、任意の2つの撮影装置121の光軸中心が必ずしも交わる必要はない。
図19は、3つの撮影装置121を用いる場合の理想的な配置の一例を示している。
撮影装置121−1と撮影装置121−2は、上述した図2と同じ位置に配置されている。撮影装置121−3は、光軸中心が人の肌の表面上で撮影装置121−1および撮影装置121−2の光軸中心と交わり、その交点から見て斜め上方向に配置される。
また、撮影装置121−1の光軸中心と撮影装置121−3の光軸中心の方位角は90度異なっている。さらに、撮影装置121−2の光軸中心と撮影装置121−1の光軸中心とのなす角θ1と、撮影装置121−2の光軸中心と撮影装置121−3の光軸中心とのなす角θ2が、同じ角度に設定されている。
図18に戻り、画像処理装置312は、図1の画像処理装置112と比較して、画像取得部131の代わりに画像取得部331が設けられ、画像選択部332および領域合成部333が追加されている点が異なる。
画像取得部331は、撮影装置121−1乃至121−nにより撮影された肌画像を取得し、記憶部133に記憶させる。また、画像取得部331は、肌画像を取得したことを画像選択部332に通知する。
画像選択部332は、記憶部133に記憶されている肌画像のうち2つを処理対象の画像として選択し、体毛領域検出部132に供給する。また、画像選択部332は、全ての肌画像の体毛領域の検出が終了した場合、その旨を領域合成部333に通知する。
体毛領域検出部132は、画像選択部332により選択された肌画像内の体毛領域を検出し、検出結果を示す情報を領域合成部333に供給する。
領域合成部333は、記憶部133に記憶されている肌画像の中から、最終的に体毛領域を検出する対象とする肌画像(以下、検出対象画像と称する)を1つ選択する。また、領域合成部333は、検出対象画像以外の各肌画像において検出された体毛領域を、検出対象画像の座標系に射影した体毛領域を算出する。さらに、領域合成部333は、検出対象画像における体毛領域と、各肌画像から検出対象画像の座標系に射影した体毛領域を合成することにより、最終的な体毛領域を求める。そして、領域合成部333は、検出対象画像、並びに、最終的な体毛領域の検出結果を後段に出力する。
[画像処理システム301による画像処理]
次に、図20のフローチャートを参照して、画像処理システム301により実行される体毛領域検出処理について説明する。
なお、以下、図21に示されるように、体毛BH11が存在する肌の領域を、撮影装置121−1により左上から斜め下に見下ろす方向に撮影し、撮影装置121−2により右上から斜め下に見下ろす方向に撮影し、撮影装置121−3により下方から斜め下に見下ろす方向に撮影する場合の処理を、適宜具体例に挙げて説明する。
ステップS201において、画像処理システム301は、異なる方向から撮影した3以上の肌画像を取得する。具体的には、撮影装置121−1乃至121−nは、それぞれ異なる方向からほぼ同時に人の肌を撮影する。このとき、撮影装置121−1乃至121−nは、例えば、プローブ311を肌に接触または近接させた状態で、近距離から肌を接写する。そして、撮影装置121−1乃至121−nは、撮影の結果得られた肌画像を画像取得部331に供給する。画像取得部331は、取得したn個の肌画像を記憶部133に記憶させる。また、画像取得部331は、肌画像を取得したことを画像選択部332に通知する。
例えば、図21に示されるように、撮影装置121−1により画像Daを含む肌画像が撮影され、撮影装置121−2により画像Dbを含む肌画像が撮影され、撮影装置121−3により画像Dcを含む肌画像が撮影される。画像Da乃至画像Dcは、撮像装置121−1乃至撮影装置121−3がそれぞれ撮影した肌画像から、同じ肌の領域に対応する部分を抽出したものである。
画像Da乃至Dcには、それぞれ体毛BH11が写った体毛領域Aa乃至Acが存在する。そのうち、画像Daにおいて体毛領域Aaにより隠蔽される肌領域と、画像Dbにおいて体毛領域Abにより隠蔽される肌領域はほぼ同じである。一方、画像Daにおいて体毛領域Aaにより隠蔽される肌領域と、画像Dcにおいて体毛領域Acにより隠蔽される肌領域はそれぞれ異なる。同様に、画像Dbにおいて体毛領域Abにより隠蔽される肌領域と、画像Dcにおいて体毛領域Acにより隠蔽される肌領域も、それぞれ異なる。
なお、以下、画像Da乃至Dcに対して処理を行う場合を、適宜具体例として挙げながら説明する。
ステップS202において、画像選択部332は、2つの肌画像を処理対象に選択する。具体的には、画像選択部332は、記憶部133に記憶されている肌画像の中から、まだ体毛領域を検出していない肌画像を1つ射影先画像として選択する。また、画像選択部332は、残りの肌画像のうちの1つを射影元画像として選択する。なお、このとき、過去に選択した肌画像の組み合わせと一致しないように、射影元画像を選択するようにすることが望ましい。そして、画像選択部332は、選択した射影元画像および射影先画像を体毛領域検出部132の特徴点検出部151に供給する。
ステップS203において、図5のステップS2の処理と同様に、選択した射影元画像と射影先画像を用いて、体毛領域検出処理が実行される。そして、射影先画像の体毛領域が検出される。また、体毛領域検出部132の領域検出部156は、体毛領域の検出結果を示す情報を領域合成部333に供給する。
ステップS204において、画像選択部332は、全ての肌画像の体毛領域を検出したか否かを判定する。まだ体毛領域を検出していない肌画像があると判定された場合、処理はステップS202に戻る。
その後、ステップS204において、全ての肌画像の体毛領域が検出されたと判定されるまで、ステップS202乃至S204の処理が繰り返し実行される。これにより、全ての肌画像の体毛領域が検出される。
例えば、図22に示されるように、画像Daを射影元画像とし、画像Dbを射影先画像とすることにより、画像Dbの体毛領域が検出される。同様に、画像Dbを射影元画像とし、画像Dcを射影先画像とすることにより、画像Dcの体毛領域が検出され、画像Dcを射影元画像とし、画像Daを射影先画像とすることにより、画像Daの体毛領域が検出される。
なお、図22の画像Da’、画像Db’、画像Dc’は、画像Da、画像Db、画像Dcの体毛領域の検出結果を示している。また、この例では、画像Daの体毛領域Aaと画像Dbの体毛領域Abが重なるため、画像Dbの体毛領域が検出されていない。
一方、ステップS204において、全ての肌画像の体毛領域が検出されたと判定された場合、処理はステップS205に進む。このとき、画像選択部332は、全ての肌画像の体毛領域の検出が終了したことを領域合成部333に通知する。
ステップS205において、領域合成部333は、検出した体毛領域を合成する。具体的には、領域合成部333は、記憶部133に記憶されている肌画像の中から検出対象画像を1つ選択する。そして、領域合成部333は、各肌画像を検出対象画像の座標系に射影するホモグラフィ行列を用いて、各肌画像の体毛領域を検出対象画像の座標系に射影した体毛領域を算出する。
なお、各肌画像から検出対象画像の座標系へのホモグラフィ行列は、すでに体毛領域検出処理で用いられ、記憶部133に記憶されているものがある場合は、それを用いるようにすればよい。一方、記憶部133に記憶されていない場合には、例えば、体毛領域以外の領域における特徴点を用いて、上述した方法によりホモグラフィ行列を算出するようにすればよい。
そして、領域合成部333は、検出対象画像における体毛領域と、各肌画像から検出対象画像の座標系に射影した体毛領域を合成(OR結合)することにより、最終的な体毛領域を求める。すなわち、各肌画像において検出された体毛領域を重ね合わせた領域が、最終的な体毛領域として求められる。
例えば、図23に示されるように、画像Dbにおいて検出された体毛領域および画像Dcにおいて検出された体毛領域を画像Daの座標系に射影し、各体毛領域を重ね合わせた領域が、最終的な体毛領域として求められる。
そして、領域合成部333は、検出対象画像、並びに、最終的な体毛領域の検出結果を後段に出力する。
このようにして、肌画像内の体毛領域をより精度良く検出することができる。
<4.第4の実施の形態>
次に、図24および図25を参照して、本技術の第4の実施の形態について説明する。なお、本技術の第4の実施の形態は、異なる3方向以上から肌を撮影することにより取得した3以上の肌画像を用いて、肌画像から体毛を除去するようにしたものである。
[画像処理システム401の構成例]
図24は、本技術を適用した画像処理システムの第4の実施の形態である画像処理システム401の機能の構成例を示すブロック図である。なお、図中、図13または図18と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるため適宜省略する。
画像処理システム401は、図13の画像処理システム201と比較して、プローブ111の代わりに図18の画像処理システム301と同じプローブ311が設けられ、画像処理装置211の代わりに画像処理装置411が設けられている点が異なる。画像処理装置411は、画像処理装置211と比較して、画像取得部131の代わりに図18の画像処理システム301と同じ画像取得部331が設けられ、体毛除去部231の代わりに体毛除去部431が設けられている点が異なる。体毛除去部431は、体毛除去部231と比較して、除去部241の代わりに除去部442が設けられ、画像選択部441が追加されている点が異なる。
画像選択部441は、まず記憶部133に記憶されている肌画像のうち2つを処理対象の画像として選択し、体毛領域検出部132に供給する。以降、画像選択部441は、記憶部133に記憶されている未処理の画像のうちの1つと、除去部442から供給される体毛除去画像を処理対象の画像として選択し、体毛領域検出部132に供給する。また、画像選択部441は、全ての肌画像の体毛領域の検出が終了した場合、その旨を除去部442に通知する。
除去部442は、体毛領域検出部132による体毛領域の検出結果に基づいて、肌画像から体毛を除去した体毛除去画像を生成する。除去部442は、生成した体毛除去画像を画像選択部441に供給したり、後段に出力したりする。
[画像処理システム401による画像処理]
次に、図25のフローチャートを参照して、画像処理システム401により実行される体毛除去処理について説明する。
ステップS301において、図20のステップS201の処理と同様に、異なる方向から撮影した3以上の肌画像が取得される。
ステップS302において、画像選択部441は、2つの肌画像を処理対象に選択する。具体的には、画像選択部441は、記憶部133に記憶されている肌画像の中から、任意の2つの肌画像を選択し、一方を射影元画像とし、他方を射影先画像とする。そして、画像選択部332は、選択した射影元画像および射影先画像を体毛領域検出部132の特徴点検出部151に供給する。
ステップS303において、図5のステップS2の処理と同様に、選択した射影元画像と射影先画像を用いて、体毛領域検出処理が実行される。これにより、射影先画像の体毛領域が検出される。
ステップS304において、除去部442は、図14のステップS103の処理と同様に、射影先画像から体毛を除去した画像(体毛除去画像)を生成する。除去部442は、生成した体毛除去画像を画像選択部441に供給する。
ステップS305において、画像選択部441は、全ての肌画像の処理が終了したか否かを判定する。まだ処理していない肌画像が残っていると判定された場合、処理はステップS306に進む。
ステップS306において、画像選択部441は、未処理の肌画像のうち1つと、体毛を除去した画像を処理対象に選択する。具体的には、画像選択部441は、記憶部133に記憶されている未処理の肌画像のうちの1つを射影元画像に選択する。また、画像選択部441は、除去部442から供給された体毛除去画像を射影先画像に選択する。そして、画像選択部332は、選択した射影元画像および射影先画像を体毛領域検出部132の特徴点検出部151に供給する。
その後、処理はステップS303に戻り、ステップS305において、全ての肌画像の処理が終了したと判定されるまで、ステップS303乃至S306の処理が繰り返し実行される。すなわち、未処理の肌画像のうちの1つを射影元画像とし、新たに生成された体毛除去画像を射影先画像として、射影先画像である体毛除去画像からさらに体毛を除去した体毛除去画像を新たに生成する処理が繰り返し実行される。
一方、ステップS305において、全ての肌画像の処理が終了したと判定された場合、処理はステップS307に進む。このとき、画像選択部441は、全ての肌画像の処理が終了したことを除去部442に通知する。
ステップS307において、除去部442は、体毛を除去した画像を出力する。すなわち、除去部442は、現時点で最新の体毛除去画像を後段に出力する。
例えば、図21の画像Da乃至Dcを用いて、体毛除去画像を生成する場合について説明する。まず画像Daを射影元画像とし、画像Dbを射影先画像として、画像Dbから体毛を除去した体毛除去画像Db’(不図示)が生成される。次に、画像Dcを射影元画像とし、体毛除去画像Db’を射影先画像として、体毛除去画像Db’からさらに体毛を除去した体毛除去画像Db”が生成される。そして、体毛除去画像Db”が後段に出力される。
このようにして、より確実に肌画像から体毛を除去することができる。
<5.第5の実施の形態>
次に、図26乃至図29を参照して、本技術の第5の実施の形態について説明する。なお、本技術の第5の実施の形態は、ミラーを用いて1つの撮影装置で異なる方向から肌を撮影することにより得られた肌画像を用いて、体毛を除去した画像を生成するようにしたものである。
[画像処理システム501の構成例]
図26は、本技術を適用した画像処理システムの第5の実施の形態である画像処理システム501の機能の構成例を示すブロック図である。なお、図中、図24と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるため適宜省略する。
画像処理システム501は、プローブ511および画像処理装置512を含むように構成される。
プローブ511は、撮影装置521およびミラー522を含むように構成される。
図27は、プローブ511内を横から見た場合の模式図である。
ミラー522は、円錐台の側面を上下逆にした筒状の形状を有し、内面にミラーが設けられている。そして、ミラー522の開口522A内に撮影対象となる肌の領域が入り、当該領域の周囲をミラー522により放射状に囲むように、プローブ511を人の肌に接触または近接させた状態で、撮影装置521により肌画像が撮影される。
撮影装置521は、魚眼レンズ等を用いて画角の広い撮影装置により構成される。そして、撮影装置521は、ミラー522に映った肌を撮影することにより、開口522A内の肌の領域を360度に渡って周囲から見た画像を得ることができる。撮影装置521は、撮影した肌画像を画像処理装置512に供給する。
画像処理装置512は、図24の画像処理装置411と比較して、画像取得部331の代わりに画像取得部531が設けられ、画像切り出し部532および幾何歪補正部533が設けられている点が異なる。
画像取得部531は、撮影装置521により撮影された肌画像を取得し、画像切り出し部532に供給する。
画像切り出し部532は、肌画像内のミラー522に映った肌の画像を、所定の間隔および切り出し幅で切り出す。そして、画像切り出し部532は、その結果得られた複数の肌画像を幾何歪補正部533に供給する。
幾何歪補正部533は、画像切り出し部532から供給された各肌画像に対して幾何歪補正を施し、補正後の肌画像を記憶部133に記憶させる。また、幾何歪補正部533は、肌画像を取得したことを体毛除去部431の画像選択部441に通知する。
[画像処理システム501による画像処理]
次に、図28のフローチャートを参照して、画像処理システム501により実行される体毛除去処理について説明する。
ステップS401において、画像処理システム501は、肌画像を取得する。具体的には、撮影装置521は、ミラー522越しに人の肌を撮影する。このとき、撮影装置521は、例えば、プローブ511を肌に接触または近接させた状態で、近距離からミラー522越しに肌を接写する。そして、撮影装置521は、撮影の結果得られた肌画像を画像取得部531に供給する。画像取得部531は、取得した肌画像を画像切り出し部532に供給する。
このとき得られる肌画像には、図29Aに示されるように、ミラー522に映った肌を撮影することにより、肌の同じ領域を360度に渡って周囲から見た輪状(ドーナツ型)の画像(以下、輪状画像と称する)が含まれる。
ステップS402において、画像切り出し部532は、肌画像を切り出す。具体的には、画像切り出し部532は、図29Bに示されるように、肌画像内の輪状画像から所定の間隔と切り出し幅で複数の肌画像を切り出す。そして、画像切り出し部532は、切り出した複数の肌画像を幾何歪補正部533に供給する。
なお、このとき、輪状画像の全ての領域を切り出す必要はない。例えば、輪状画像を適当な間隔で間引いて切り出すようにしてもよいし、輪状画像の一部の範囲から肌画像を切り出すようにしてもよい。また、例えば、画像処理上、隣接する肌画像の領域が一部重なるように肌画像を切り出すようにしてもよい。
ステップS403において、幾何歪補正部533は、肌画像の幾何歪補正を行う。具体的には、幾何歪補正部533は、画像切り出し部532により切り出された各肌画像に対して、歪曲収差補正、アフィン変換、射影変換等による幾何歪補正を行う。これにより、図29Bに示される肌画像から、図29Cに示される肌の平面画像が生成される。そして、幾何歪補正部533は、補正後の肌画像を記憶部133に記憶させる。また、幾何歪補正部533は、肌画像を取得したことを体毛除去部431の画像選択部441に通知する。
その後、ステップS404乃至S409において、図25のステップS302乃至S307と同様の処理が行われ、肌画像から体毛を除去した体毛除去画像が生成され、後段に出力される。
このようにして、複数の撮影装置を用いずに、肌画像から体毛を除去した画像を得ることが可能になる。
なお、図18の画像処理システム301にプローブ511を適用し、プローブ511により撮影された輪状画像を用いて、体毛領域を検出するようにすることも可能である。
また、ミラー522を肌領域の周囲を360度囲むような形状にする必要はなく、一部のみを囲むような形状にすることも可能である。
<6.第6の実施の形態>
次に、図30乃至図32を参照して、本技術の第6の実施の形態について説明する。なお、本技術の第6の実施の形態は、MLA(Micro Lens Array)技術を用いて1つの撮影装置で異なる方向から肌を撮影することにより得られた肌画像を用いて、体毛を除去した画像を生成するようにしたものである。
[画像処理システム601の構成例]
図30は、本技術を適用した画像処理システムの第6の実施の形態である画像処理システム601の機能の構成例を示すブロック図である。なお、図中、図26と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるため適宜省略する。
画像処理システム601は、プローブ611および画像処理装置612を含むように構成される。
プローブ611は、MLA技術を採用した撮影装置621を含むように構成される。撮影装置621は、マイクロレンズが格子状に配置されるとともに、撮像素子が1つのマイクロレンズに対して複数配置されるように格子状に配置されている。
図31の左側の図は、マイクロレンズと撮像素子の配置例を模式的に示している。
横方向に並べられたマイクロレンズ651A乃至651Dに対して、撮像素子652A乃至652Dおよび撮像素子653A乃至653Dが、それぞれ1つずつ配置されている。また、撮像素子652A乃至652Dは、マイクロレンズ651A乃至651Dに対する相対位置がそれぞれ同じになるように配置されている。また、撮像素子653A乃至653Dは、撮像素子652A乃至652Dとは異なる位置に、マイクロレンズ651A乃至651Dに対する相対位置がそれぞれ同じになるように配置されている。
なお、以下、マイクロレンズ651A乃至651Dを個々に区別する必要がない場合、単にマイクロレンズ651と称する。また、以下、撮像素子652A乃至652Dを個々に区別する必要がない場合、単に撮像素子652と称し、撮像素子653A乃至653Dを個々に区別する必要がない場合、単に撮像素子653と称する。
なお、この図では配置の一部しか示していないが、マイクロレンズ651、撮像素子652、および、撮像素子653は、同様の位置関係で格子状に配置される。
そして、撮影装置621は、撮影した肌画像を画像取得部631に供給する。
画像取得部631は、撮影装置621により撮影された肌画像を画像再構成部632に供給する。
画像再構成部632は、肌画像の各画素を同じグループの撮像素子に対応する画素毎に分けて集約することにより、複数の肌画像を生成する。例えば、図31の撮像素子652のグループに対応する画素を集約した画像Daと、撮像素子653のグループに対応する画素を集約した画像Dbとが生成される。そして、画像Daと画像Dbとは、同じ肌の領域を異なる2方向から見た視差のついた画像となる。従って、例えば、体毛BH21が存在する肌の領域を撮影したとき、2つの撮影装置により異なる方向から撮影した場合と同様に、画像Daの体毛領域Aaにより隠蔽される肌領域と、画像Dbの体毛領域Abにより隠蔽される肌領域が異なるようになる。
なお、マイクロレンズに対する撮像素子の相対位置を変えることにより、肌を撮影する方向を変えることができる。また、1つのマイクロレンズに対して配置する撮像素子の数を増やすことにより、肌を撮影する方向を増やすことができる。
そして、画像再構成部632は、生成した肌画像を記憶部133に記憶させる。また、画像再構成部632は、肌画像を取得したことを体毛除去部431の画像選択部441に通知する。
[画像処理システム601による画像処理]
次に、図32のフローチャートを参照して、画像処理システム601により実行される体毛除去処理について説明する。
ステップS501において、画像処理システム601は、肌画像を取得する。具体的には、撮影装置621は、人の肌を撮影する。このとき、撮影装置621は、例えば、プローブ611を肌に接触または近接させた状態で、近距離から肌を接写する。そして、撮影装置621は、撮影の結果得られた肌画像を画像取得部631に供給する。画像取得部631は、取得した肌画像を画像再構成部632に供給する。
ステップS502において、画像再構成部632は、肌画像を再構成する。具体的には、画像再構成部632は、撮影装置621により撮影された肌画像の画素を、撮影された撮像素子のグループ毎に分けて、それぞれ集約することにより、異なる方向から撮影した複数の肌画像を生成する。そして、画像再構成部632は、生成した肌画像を記憶部133に記憶させる。また、画像再構成部632は、肌画像を取得したことを体毛除去部431の画像選択部441に通知する。
その後、ステップS503乃至S508において、図25のステップS302乃至S307と同様の処理が行われ、肌画像から体毛を除去した画像が生成される。
このようにして、複数の撮影装置を用いずに、肌画像から体毛を除去した画像を得ることが可能になる。
なお、図18の画像処理システム301に、プローブ611を適用し、プローブ611により撮影された肌画像を用いて、体毛領域を検出するようにすることも可能である。
<7.第7の実施の形態>
次に、図33乃至図37を参照して、本技術の第7の実施の形態について説明する。なお、本技術の第7の実施の形態は、図30の画像処理システム601に、肌の状態を解析する美容解析の機能を追加したものである。
[画像処理システム701の構成例]
図33は、本技術を適用した画像処理システムの第7の実施の形態である画像処理システム701の機能の構成例を示すブロック図である。なお、図中、図30と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるため適宜省略する。
画像処理システム701は、図30の画像処理システム601と比較して、画像処理装置612の代わりに画像処理装置711が設けられ、表示装置712が追加されている点が異なる。画像処理装置711は、画像処理装置612と比較して、美容解析部731が追加されている点が異なる。
美容解析部731は、体毛除去部431から供給される体毛除去画像に基づいて、人の肌の状態を解析する。美容解析部731は、解析結果を示す情報を表示装置712に供給する。
表示装置712は、人の肌の状態の解析結果を表示する。
[美容解析部731の構成例]
図34は、美容解析部731の機能の構成例を示すブロック図である。なお、ここでは、美容解析部731が、人の肌のキメの状態を解析する場合の構成例を示している。美容解析部731は、周辺光量補正部751、ぼかし処理部752、色変換部753、2値化処理部754、皮丘検出部755、キメ解析部756、および、提示制御部757を含むように構成される。
周辺光量補正部751は、体毛除去画像の周辺光量を補正し、補正後の体毛除去画像をぼかし処理部752に供給する。
ぼかし処理部752は、体毛除去画像に対してぼかし処理を行い、ぼかし処理を行った体毛除去画像を色変換部753に供給する。
色変換部753は、体毛除去画像の色変換を行い、色変換後の体毛除去画像を2値化処理部754に供給する。
2値化処理部754は、体毛除去画像に対して2値化処理を行い、生成した2値化画像を皮丘検出部755に供給する。
皮丘検出部755は、2値化画像に基づいて、肌画像(体毛除去画像)内の各皮丘の面積を検出し、皮丘の面積の分布を示すヒストグラムを生成する。皮丘検出部755は、生成したヒストグラムを示す情報をキメ解析部756に供給する。
キメ解析部756は、皮丘の面積の分布を示すヒストグラムに基づいて、肌のキメの状態を解析し、解析結果を提示制御部757に供給する。
提示制御部757は、肌のキメの状態の解析結果を表示装置712に提示させる。
[画像処理システム701による美容解析処理]
次に、図35のフローチャートを参照して、画像処理システム701により実行される美容解析処理について説明する。
ステップS601において、図32を参照して上述した体毛除去処理が行われる。これにより、肌画像から体毛が除去された体毛除去画像が生成され、生成された体毛除去画像が、体毛除去部431から美容解析部731の周辺光量補正部751に供給される。例えば、図36に示されるように、体毛BH31が写っている画像D31から体毛BH31を除去した画像D31aが生成され、周辺光量補正部751に供給される。
ステップS602において、周辺光量補正部751は、体毛除去画像の周辺光量を補正する。周辺光量補正部751は、補正後の体毛除去画像をぼかし処理部752に供給する。
ステップS603において、ぼかし処理部752は、体毛除去画像に対してぼかし処理を行う。ぼかし処理部752は、ぼかし処理を行った体毛除去画像を色変換部753に供給する。
ステップS604において、色変換部753は、色変換を行う。例えば、色変換部753は、体毛除去画像の色空間を、輝度と色差を分離するL*a*b*表色系やHSV空間などの所定の色空間に変換する。色変換部753は、色変換後の体毛除去画像を2値化処理部754に供給する。
ステップS605において、2値化処理部754は、2値化処理を行う。例えば、L*a*b*表色系やHSV空間に体毛除去画像の色空間が変換されている場合には、2値化処理部754は、予め設定されている閾値に基づいて、明度が閾値以上の画素と閾値未満の画素との2階調の白黒の2値化画像に体毛除去画像を変換する。2値化処理部754は、生成した2値化画像を皮丘検出部755に供給する。
例えば、図36に示されるように、このステップS602乃至S605の処理により、画像D31aから2値化画像D31bが生成される。
なお、肌画像の色変換を行わずに、RGBの肌画像の1色(R、GまたはB)のみを用いて2値化処理を行うようにしてもよい。
ステップS606において、皮丘検出部755は、皮丘の面積の分布を検出する。具体的には、皮丘検出部755は、2値化画像において、黒の画素により囲まれた白の画素の領域を、皮溝に囲まれた皮丘の領域として認識し、各皮丘の面積を検出する。さらに、皮丘検出部755は、検出した皮丘の面積の分布を示すヒストグラムを生成する。そして、皮丘検出部755は、生成したヒストグラムを示す情報をキメ解析部756に供給する。
これにより、例えば、図36に示されるように、2値化画像D31bに基づいて、横軸を皮丘の面積に基づく階級とし、縦軸を度数とするヒストグラムが生成される。
ステップS607において、キメ解析部756は、皮丘の面積の分布に基づいて、肌のキメの状態を解析する。例えば、キメ解析部756は、ヒストグラムの度数の偏りに基づいて、キメが整った肌であるか否かを判定する。例えば、キメ解析部756は、ヒストグラムの度数が特定の階級(面積)に大きく偏っている場合、キメが整った肌であると判定する。また、例えば、キメ解析部756は、ヒストグラムの度数が大きくなる階級(面積)に基づいて、キメの細かさを解析する。例えば、キメ解析部756は、度数がピークとなる階級の面積が小さい場合、キメの細かい肌であると判定する。そして、キメ解析部756は、解析結果を提示制御部757に供給する。
ステップS608において、表示装置712は、解析結果を表示する。具体的には、提示制御部757は、肌のキメの状態の解析結果を提示するためのデータを生成し、表示装置712に供給する。表示装置712は、取得したデータに基づいて、肌のキメの状態の解析結果を示す画像を表示することにより、解析結果をユーザに提示する。
その後、美容解析処理は終了する。
なお、図37は、画像D31から体毛BH31を除去せずに、美容解析を行った場合の例を示している。この場合、画像D31から直接生成された2値化画像D31b’において、体毛BH31が除去されないため、皮丘の面積が正確に検出されなくなる。より具体的には、体毛BH31により皮丘が細分化されるため、通常より小さい面積の皮丘が検出されたり、皮丘の数が多く検出されたりする。従って、皮丘の面積の分布を示すヒストグラムにおいて、通常存在しない面積に対応する階級の度数が増加したり、度数の分布が不均一になったりする。従って、肌のキメの状態の解析精度が低下する。
これに対して、上述したように肌画像から体毛を除去した画像を用いて美容解析を行うことにより、肌のキメの状態の解析精度が向上する。
<8.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
[変形例1:システム構成の変形例]
例えば、差分画像を記憶する代わりに各差分画像の差分値の合計を記憶し、体毛領域を検出する際に、差分値が最小となる差分画像に対応するホモグラフィ行列を用いて、差分画像を再生成するようにしてもよい。これにより、記憶部133の容量を削減することができる。
さらに、例えば、ホモグラフィ行列も記憶せずに、体毛領域を検出する際に、差分値が最小となる差分画像の生成過程で用いた特徴点のペアに基づいてホモグラフィ行列を再計算し、再計算したホモグラフィ行列を用いて、差分画像を再生成するようにしてもよい。
また、例えば、射影先画像から体毛を除去する場合に、射影元画像から画素単位で射影するのではなく、ホモグラフィ行列を用いて、所定の面積の領域単位で画素を射影して、体毛を除去することも可能である。なお、この場合、撮影方向の違いによる画像の歪みを補正してから射影するようにすることが望ましい。
さらに、以上の説明では、射影元画像の画素を射影先画像に射影することにより射影先画像から体毛を除去する例を示した。一方、逆に、射影先画像から射影元画像の座標系に射影するホモグラフィ行列を算出し、射影先画像の体毛領域以外の画素を射影元画像に射影することにより射影元画像から体毛を除去するようにすることも可能である。すなわち、射影元画像において、射影先画像の体毛領域に対応する領域以外の画素を射影先画像の対応する画素に置き換えることにより、射影元画像から体毛を除去した体毛除去画像を生成することが可能である。
あるいは、射影先画像の非体毛領域の画素を射影元画像に射影することにより射影元画像から体毛を除去するようにすることも可能である。すなわち、射影元画像において、射影先画像の非体毛領域に対応する領域(射影元画像の体毛領域)の画素を射影先画像の対応する画素(非体毛領域の画素)に置き換えることにより、射影元画像から体毛を除去した体毛除去画像が生成することが可能である。
なお、例えば、上述した図2または図19の撮影装置121−2のように肌の真上から撮影する撮影装置が設けられている場合、歪みが少ない画像を最終的に得るために、その撮影装置により撮影された肌画像から体毛を除去するようにするのが望ましい。
また、例えば、図13および図24の体毛領域検出部132において、上述した手法と異なる任意の手法により、複数の肌画像を用いて体毛領域を検出するようにすることが可能である。この場合、体毛領域を検出した後、上述したように各画像間のホモグラフィ行列を算出し、算出したホモグラフィ行列を用いて画像間で画素の射影を行うことにより、肌画像から体毛を除去するようにすればよい。
さらに、例えば、プローブを肌に密着させることにより、撮影装置と肌の位置関係がほとんど変化しない場合、特徴点の抽出やホモグラフィ行列の算出処理を省略して、予め求めたホモグラフィ行列を用いて射影変換を行うようにしてもよい。
この場合、例えば、プローブを肌に押し当てる力により撮影装置と肌の間の距離等が変化し、ホモグラフィ行列の誤差が生じることが想定される。これに対して、圧力センサ等によりプローブが肌を押下する力を測定し、一定の圧力を保持するようにプローブを制御したり、ユーザに警告したりすることが考えられる。また、例えば、肌画像の解像度を落として処理することにより、ホモグラフィ行列の誤差の影響を減らすようにしてもよい。
また、以上の説明では、4つの特徴点のペアの組み合わせを複数用いて、複数の差分画像を生成してから、最も差分値が小さい差分画像を用いて、体毛領域を検出する例を示した。一方、例えば、処理速度を重視する場合、4つの特徴点のペアの組み合わせを1つ用いて、1つの差分画像のみを生成して、体毛領域を検出するようにしてもよい。あるいは、例えば、検出精度を重視する場合、4つの特徴点のペアの組み合わせを全て用いて、最大限の差分画像を生成してから、最も差分値が小さい差分画像を用いて、体毛領域を検出するようにしてもよい。
さらに、以上の説明では、ホモグラフィ行列を用いて射影変換する例を示したが、他の射影行列や他の方法を用いて射影変換するようにしてもよい。例えば、特開2009−258868号公報に記載されたアフィン変換を拡張した方法を用いて、射影変換を行うことが可能である。
[変形例2:体毛領域の検出結果の適用例]
以上の説明では、体毛領域の検出結果に基づいて、肌画像から体毛を除去する例を示したが、体毛領域の検出結果を他の用途に適用することが可能である。
例えば、体毛領域を1、その他の肌領域を0とした体毛領域のマスキング画像を生成することが可能である。
また、例えば、肌画像の体毛領域の色を変えた画像を生成することが可能である。
さらに、例えば、体毛領域の検出結果に基づいて体毛の量を検出することが可能である。例えば、肌画像に占める体毛領域の面積の割合に基づいて、毛深さの度合い等を求めることが可能である。
また、例えば、検出された体毛領域の形状、長さ、太さ等に基づいて、毛質診断(傷んでいる、カサついている等)を行うことが可能である。
また、以上の説明では、体毛除去画像を用いた美容解析処理として、肌のキメの状態を解析する例を示したが、美容解析の対象は、肌画像を用いて解析できるものであれば、特に限定されるものではない。例えば、体毛除去画像を用いて、キメ以外の肌の形状(例えば、シワなど)や、肌の色合い(例えば、赤み、くすみ、メラニン量など)等を解析することが可能である。また、例えば、体毛除去画像を用いて、肌の健康状態(例えば、湿疹、かぶれ等)を解析することも可能である。
[変形例3:検出対象の変形例]
本技術において、検出対象は体毛に限定されるものではない。例えば、検出対象の少なくとも一部が背景より手前(撮影装置側)に存在し、背景の少なくとも一部が重なるように異なる方向から検出対象を撮影した複数の画像において、検出対象により隠蔽される背景の領域が異なる場合に、本技術を用いて、検出対象が写っている領域を検出することができる。なお、上述した一連の実施の形態では、検出対象が体毛となり、背景が肌となる例が示されている。
例えば、図38に示されるように、検出対象が人812であり、背景が風景である場合にも本技術を適用することができる。具体的には、例えば、撮影装置811Lと撮影装置811Rにより、背景である風景の少なくとも一部が重なるように、異なる方向から人812を撮影する。画像DL51は撮影装置811Lにより撮影された画像であり、画像DR51は撮影装置811Rにより撮影された画像である。
次に、画像DL51を射影元画像とし画像DR51を射影先画像として、上述した処理により差分画像DS51が生成される。この差分画像DS51において、画像DL51において人812が写っている領域AL51に対応する領域AL52および画像DR51において人812が写っている領域AR51に対応する領域AR52における差分値が大きくなる。従って、領域AL52および領域AR52からなる領域が検出対象候補領域として検出される。そして、検出対象候補領域が、射影先画像である画像DR51において実際に人812が写っている領域(以下、検出対象領域と称する)と、それ以外の領域(以下、非検出対象領域と称する)とに分離される。
なお、この場合、体毛を検出する場合と比べて、検出対象である人812も背景である風景も色数が多い。また、検出対象候補領域も、検出対象領域と非検出対象領域の2つの領域に分離されて検出される。そこで、体毛を検出する場合と異なる方法により、検出対象領域と非検出対象領域が分離される。
例えば、図39に示されるように、射影先画像である画像DR51において、差分画像DS51の領域AR52に対応し、実際に人812が写っている領域AR53内の画像は周囲の領域の画像と大きく異なる。一方、画像DR51において、差分画像DS51の領域AL52に対応する領域AL53内の画像は周囲の領域の画像とよく似ている。例えば、この性質を利用して、2つの領域が分離される。なお、領域AR53および領域AL53は、実際にはそれぞれ領域AR51および領域AL51とほぼ同じ形状の領域となるが、ここでは、説明を分かりやすくするために簡略化して矩形の領域として示している。
具体的には、図40に示されるように、領域AR53内、領域AL53内、並びに、2つの領域の周辺の領域において小領域がいくつか設定され、各小領域内の画素の特徴量の分布を示すヒストグラムが生成される。なお、ここで用いる画素の特徴量としては、例えば、輝度、色信号、周辺の周波数情報等を用いることができる。また、それらの特徴量を単独で用いるようにしてもよいし、複数を組み合わせて用いるようにしてもよい。
また、各小領域の形状および面積は任意に設定することができる。例えば、各小領域の形状は矩形でも楕円でもよく、面積が異なっていてもよい。なお、各小領域の面積が異なる場合、度数の合計が等しく1になるように、各小領域のヒストグラムが正規化される。また、各小領域間で重なりがあってもよい。ただし、検出対象候補領域の周辺の小領域は、検出対象候補領域に重ならず、かつ、検出対象候補領域のできるだけ近くに設定するようにすることが望ましい。
次に、検出対象候補領域内の小領域とその周囲の小領域との間で、ヒストグラムの類似度が算出される。なお、ヒストグラムの類似度を示すヒストグラム類似度指標には、Bhattacharyya係数、Cos類似度、ピアソンの相関係数、ベクトル間距離(Euclid距離等)等の指標を用いることが可能である。また、これらの指標を単独で用いるようにしてもよいし、複数を組み合わせて用いるようにしてもよい。
そして、ヒストグラム類似度指標と所定の閾値に基づいて、ヒストグラムが類似するか否かが判定される。そして、検出対象候補領域を構成する2つの領域のうち、周辺の小領域とヒストグラムが類似する小領域を多く持つ領域が非検出対象領域とされ、もう一方の領域が検出対象領域とされる。例えば、図40の例では、領域AL53が非検出対象領域とされ、領域AR53が検出対象領域とされる。
なお、この場合、検出対象である人812の面積が大きく、撮影装置811L,811Rから人812までの距離も長くなる。従って、画像DL51の領域AL51により隠蔽される背景の領域と、画像DR51の領域AR51により隠蔽される背景の領域とが重なり、差分画像DS51の領域AR52と領域AR52が重なるのを防止するために、撮影装置811Lと撮影装置811Rの間の距離を十分離す必要がある。
一方、実際に撮影装置811Lと撮影装置811Rを必要な距離だけ離して設置するのが困難である場合、例えば、撮影者が互いに離れた2地点間を移動して撮影するようにしてもよい。なお、これは、検出対象が建築物等の動かない物体である場合に特に有効である。
また、複数の撮影者が各地点から検出対象を撮影した複数の画像を用いるようにしてもよい。この場合、SNS(Social Network Service)やクラウドサービス等のネットワークを利用したサービスを用いて、各地点で撮影された画像を共有することが可能である。
なお、各地点での撮影日時や日照条件等の撮影条件が異なり、各画像の写り映えが異なる場合、画像間の写り映えを合わせるように事前に各画像を修正してから、検出対象の検出処理を行うようにすることが望ましい。
また、検出対象によっては、検出対象を除去するのではなく、検出対象を残し、背景を除去するようなアプリケーションが考えられる。
例えば、検出対象が体毛である場合、体毛を抽出したサンプル画像を生成することが可能である。例えば、部位ごとに肌画像から体毛だけを抽出した画像を生成し、腕の毛、足の毛、髪の毛等を比較することが可能である。
また、例えば、図41に示されるように、画像D101から検出対象である人831を検出した後、画像D101から人831以外の背景を除去し、さらに文字等を追加して絵葉書D102を作成するようなアプリケーションが考えられる。
さらに、例えば、画像D111から検出対象である人841,842を検出し、画像D111から人841,842以外の背景を除去した画像D112を生成し、画像D112に別の背景を追加することにより、画像D113を作成するアプリケーションが考えられる。
[コンピュータの構成例]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図43は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、例えば、本技術は以下のような構成も取ることができる。
(1)
検出対象を撮影した画像において前記検出対象が写っている領域を検出する検出対象領域検出部を備え、
前記検出対象領域検出部は、
前記検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、
前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、
前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける領域検出部と
を備える画像処理装置。
(2)
前記検出対象を撮影した画像から前記検出対象を除去する検出対象除去部を
さらに備え、
前記検出対象除去部は、
前記検出対象領域検出部と、
前記検出対象領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記検出対象が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記検出対象を除去する除去部と
を備える前記(1)のいずれかに記載の画像処理装置。
(3)
前記除去部は、少なくとも前記第2の画像の前記検出対象領域に対応する前記第1の画像の領域内の画素を前記第2の画像に射影し、置き換えることにより、前記第2の画像から前記検出対象を除去する
前記(2)に記載の画像処理装置。
(4)
前記除去部は、少なくとも前記第2の画像の前記非検出対象領域内の画素を前記第1の画像に射影し、置き換えることにより、前記第1の画像から前記検出対象を除去する
前記(2)に記載の画像処理装置。
(5)
前記検出対象除去部は、それぞれ異なる方向から前記検出対象を撮影した3以上の画像から2つの画像を選択し、選択した2つの画像を用いて、前記検出対象を除去した画像を新たに生成した後、残りの画像がなくなるまで、新たに生成した画像と残りの画像のうちの1つを用いて、前記検出対象を除去した画像を新たに生成する処理を繰り返す
前記(2)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記検出対象領域検出部は、
前記第1の画像の特徴点および前記第2の画像の特徴点を抽出する特徴点抽出部と、
前記第1の画像の特徴点と前記第2の画像の特徴点とを対応付ける対応付け部と、
前記対応付け部により対応付けられた前記第1の画像の特徴点と前記第2の画像の特徴点のペアの少なくとも一部に基づいて、前記第1の画像を前記第2の画像の座標系に射影する射影行列を算出する射影行列算出部と
をさらに備え、
前記射影変換部は、前記射影行列を用いて前記射影画像を生成する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記射影行列算出部は、複数の前記特徴点のペアの組み合わせに基づいて、複数の前記射影行列を算出し、
前記射影変換部は、複数の前記射影行列をそれぞれ用いて複数の前記射影画像を生成し、
前記差分画像生成部は、前記第2の画像と複数の前記射影画像のそれぞれとの間の複数の前記差分画像を生成し、
前記領域検出部は、複数の前記差分画像のうち前記第2の画像との差が最小となる前記差分画像を用いて前記候補領域を検出する
前記(6)に記載の画像処理装置。
(8)
前記領域検出部は、前記候補領域に対応する前記第2の画像の領域内の画像を周囲の画像と比較することにより、前記検出対象領域と前記非検出対象領域を分ける
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記検出対象領域検出部は、それぞれ異なる方向から前記検出対象を撮影した3以上の各画像における前記検出対象領域を検出し、
3以上の前記画像の中から選択した画像における前記検出対象領域と、残りの画像の前記検出対象領域を前記選択した画像の座標系に射影した領域とを合成する領域合成部を
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
画像処理装置が、
検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成し、
前記第2の画像と前記射影画像との間の差分画像を生成し、
前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、
前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける
ステップを含む画像処理方法。
(11)
検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成し、
前記第2の画像と前記射影画像との間の差分画像を生成し、
前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、
前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける
ステップを含む処理をコンピュータに実行させるためのプログラム。
(12)
検出対象を撮影する撮影部と、
前記撮影部により撮影した画像において前記検出対象が写っている領域を検出する検出対象領域検出部と
を備え、
前記検出対象領域検出部は、
前記撮影部により前記検出対象を撮影した第1の画像を、前記撮影部により前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、
前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、
前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける領域検出部と
(13)
前記撮影部により前記検出対象を撮影した画像から前記検出対象を除去する検出対象除去部を
さらに備え、
前記検出対象除去部は、
前記検出対象領域検出部と、
前記検出対象領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記検出対象が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記検出対象を除去する除去部と
を備える前記(12)に記載の画像処理システム。
(14)
前記検出対象除去部は、前記撮影部によりそれぞれ異なる方向から前記検出対象を撮影した3以上の画像から2つの画像を選択し、選択した2つの画像を用いて、前記検出対象を除去した画像を新たに生成した後、残りの画像がなくなるまで、新たに生成した画像と残りの画像のうちの1つを用いて、前記検出対象を除去した画像を新たに生成する処理を繰り返す
前記(13)に記載の画像処理システム。
を備える画像処理システム。
(15)
前記検出対象領域検出部は、
前記第1の画像の特徴点および前記第2の画像の特徴点を抽出する特徴点抽出部と、
前記第1の画像の特徴点と前記第2の画像の特徴点とを対応付ける対応付け部と、
前記対応付け部により対応付けられた前記第1の画像の特徴点と前記第2の画像の特徴点のペアの少なくとも一部に基づいて、前記第1の画像を前記第2の画像の座標系に射影する射影行列を算出する射影行列算出部と
をさらに備え、
前記射影変換部は、前記射影行列を用いて前記射影画像を生成する
前記(12)乃至(14)のいずれかに記載の画像処理システム。
(16)
前記検出対象領域検出部は、前記撮影部によりそれぞれ異なる方向から前記検出対象を撮影した3以上の各画像における前記検出対象領域を検出し、
3以上の前記画像の中から選択した画像における前記検出対象領域と、残りの画像の前記検出対象領域を前記選択した画像の座標系に射影した領域とを合成する領域合成部を
さらに備える前記(12)乃至(15)に記載の画像処理システム。
(17)
前記撮影部は、
2次元に配置された複数のレンズと、
複数の撮像素子と
を備え、各前記レンズに対する相対位置がそれぞれ同じになるように、1つの前記レンズに対して複数の前記撮像素子が配置されており、
前記レンズに対する相対位置が同じ前記撮像素子によりそれぞれ撮影された複数の画像を生成する画像生成部を
さらに備える前記(12)乃至(16)のいずれかに記載の画像処理システム。
(18)
前記撮影部は、前記検出対象を含む領域の周囲の少なくとも一部を放射状に囲むミラーに映った像を撮影し、
前記撮影部により前記ミラーに映った像を撮影した画像から複数の画像を切り出す画像切り出し部と、
切り出された複数の画像に対して幾何歪補正を行う幾何歪補正部と
さらに備える前記(12)乃至(16)のいずれかに記載の画像処理システム。
(19)
前記第1の画像および前記第2の画像は、前記撮影部により前記検出対象を接写した画像である
前記(12)乃至(18)のいずれかに記載の画像処理システム。
(20)
体毛を撮影した第1の画像を、前記第1の画像と異なる方向から前記体毛を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、
前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、
前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記体毛が写っている体毛領域とそれ以外の非体毛領域に分ける領域検出部と、
前記領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記体毛が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記体毛を除去する除去部と
を備える画像処理装置。
101 画像処理システム, 111 プローブ, 112 画像処理装置, 121−1乃至121−n 撮影装置, 131 画像取得部, 132 体毛領域検出部, 151 特徴点抽出部, 152 対応付け部, 153 ホモグラフィ行列算出部, 154 射影変換部, 155 差分画像生成部, 156 領域検出部, 201 画像処理システム, 231 体毛除去部, 241 除去部, 301 画像処理システム, 311 プローブ, 312 画像処理装置, 331 画像取得部, 332 画像選択部, 333 領域検出部, 401 画像処理システム, 411 画像処理装置, 431 体毛除去部, 441 画像選択部, 442 除去部, 501 画像処理システム, 511 プローブ, 512 画像処理装置, 521 撮影装置, 522 ミラー, 531 画像取得部, 532 画像切り出し部, 533 幾何歪補正部, 601 画像処理システム, 611 プローブ, 612 画像処理装置, 621 撮影装置, 631 画像取得部, 632 画像再構成部, 651A乃至651D マイクロレンズ, 652A乃至652D,653A乃至653D 撮像素子, 701 画像処理システム, 711 画像処理装置, 731 美容解析部

Claims (20)

  1. 検出対象を撮影した画像において前記検出対象が写っている領域を検出する検出対象領域検出部を備え、
    前記検出対象領域検出部は、
    前記検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、
    前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、
    前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける領域検出部と
    を備える画像処理装置。
  2. 前記検出対象を撮影した画像から前記検出対象を除去する検出対象除去部を
    さらに備え、
    前記検出対象除去部は、
    前記検出対象領域検出部と、
    前記検出対象領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記検出対象が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記検出対象を除去する除去部と
    を備える請求項1に記載の画像処理装置。
  3. 前記除去部は、少なくとも前記第2の画像の前記検出対象領域に対応する前記第1の画像の領域内の画素を前記第2の画像に射影し、置き換えることにより、前記第2の画像から前記検出対象を除去する
    請求項2に記載の画像処理装置。
  4. 前記除去部は、少なくとも前記第2の画像の前記非検出対象領域内の画素を前記第1の画像に射影し、置き換えることにより、前記第1の画像から前記検出対象を除去する
    請求項2に記載の画像処理装置。
  5. 前記検出対象除去部は、それぞれ異なる方向から前記検出対象を撮影した3以上の画像から2つの画像を選択し、選択した2つの画像を用いて、前記検出対象を除去した画像を新たに生成した後、残りの画像がなくなるまで、新たに生成した画像と残りの画像のうちの1つを用いて、前記検出対象を除去した画像を新たに生成する処理を繰り返す
    請求項2に記載の画像処理装置。
  6. 前記検出対象領域検出部は、
    前記第1の画像の特徴点および前記第2の画像の特徴点を抽出する特徴点抽出部と、
    前記第1の画像の特徴点と前記第2の画像の特徴点とを対応付ける対応付け部と、
    前記対応付け部により対応付けられた前記第1の画像の特徴点と前記第2の画像の特徴点のペアの少なくとも一部に基づいて、前記第1の画像を前記第2の画像の座標系に射影する射影行列を算出する射影行列算出部と
    をさらに備え、
    前記射影変換部は、前記射影行列を用いて前記射影画像を生成する
    請求項1に記載の画像処理装置。
  7. 前記射影行列算出部は、複数の前記特徴点のペアの組み合わせに基づいて、複数の前記射影行列を算出し、
    前記射影変換部は、複数の前記射影行列をそれぞれ用いて複数の前記射影画像を生成し、
    前記差分画像生成部は、前記第2の画像と複数の前記射影画像のそれぞれとの間の複数の前記差分画像を生成し、
    前記領域検出部は、複数の前記差分画像のうち前記第2の画像との差が最小となる前記差分画像を用いて前記候補領域を検出する
    請求項6に記載の画像処理装置。
  8. 前記領域検出部は、前記候補領域に対応する前記第2の画像の領域内の画像を周囲の画像と比較することにより、前記検出対象領域と前記非検出対象領域を分ける
    請求項1に記載の画像処理装置。
  9. 前記検出対象領域検出部は、それぞれ異なる方向から前記検出対象を撮影した3以上の各画像における前記検出対象領域を検出し、
    3以上の前記画像の中から選択した画像における前記検出対象領域と、残りの画像の前記検出対象領域を前記選択した画像の座標系に射影した領域とを合成する領域合成部を
    さらに備える請求項1に記載の画像処理装置。
  10. 画像処理装置が、
    検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成し、
    前記第2の画像と前記射影画像との間の差分画像を生成し、
    前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、
    前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける
    ステップを含む画像処理方法。
  11. 検出対象を撮影した第1の画像を、前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成し、
    前記第2の画像と前記射影画像との間の差分画像を生成し、
    前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、
    前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける
    ステップを含む処理をコンピュータに実行させるためのプログラム。
  12. 検出対象を撮影する撮影部と、
    前記撮影部により撮影した画像において前記検出対象が写っている検出対象領域を検出する検出対象領域検出部と
    を備え、
    前記検出対象領域検出部は、
    前記撮影部により前記検出対象を撮影した第1の画像を、前記撮影部により前記第1の画像と異なる方向から前記検出対象を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、
    前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、
    前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記検出対象が写っている検出対象領域とそれ以外の非検出対象領域に分ける領域検出部と
    を備える画像処理システム。
  13. 前記撮影部により前記検出対象を撮影した画像から前記検出対象を除去する検出対象除去部を
    さらに備え、
    前記検出対象除去部は、
    前記検出対象領域検出部と、
    前記検出対象領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記検出対象が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記検出対象を除去する除去部と
    を備える請求項12に記載の画像処理システム。
  14. 前記検出対象除去部は、前記撮影部によりそれぞれ異なる方向から前記検出対象を撮影した3以上の画像から2つの画像を選択し、選択した2つの画像を用いて、前記検出対象を除去した画像を新たに生成した後、残りの画像がなくなるまで、新たに生成した画像と残りの画像のうちの1つを用いて、前記検出対象を除去した画像を新たに生成する処理を繰り返す
    請求項13に記載の画像処理システム。
  15. 前記検出対象領域検出部は、
    前記第1の画像の特徴点および前記第2の画像の特徴点を抽出する特徴点抽出部と、
    前記第1の画像の特徴点と前記第2の画像の特徴点とを対応付ける対応付け部と、
    前記対応付け部により対応付けられた前記第1の画像の特徴点と前記第2の画像の特徴点のペアの少なくとも一部に基づいて、前記第1の画像を前記第2の画像の座標系に射影する射影行列を算出する射影行列算出部と
    をさらに備え、
    前記射影変換部は、前記射影行列を用いて前記射影画像を生成する
    請求項12に記載の画像処理システム。
  16. 前記検出対象領域検出部は、前記撮影部によりそれぞれ異なる方向から前記検出対象を撮影した3以上の各画像における前記検出対象領域を検出し、
    3以上の前記画像の中から選択した画像における前記検出対象領域と、残りの画像の前記検出対象領域を前記選択した画像の座標系に射影した領域とを合成する領域合成部を
    さらに備える請求項12に記載の画像処理システム。
  17. 前記撮影部は、
    2次元に配置された複数のレンズと、
    複数の撮像素子と
    を備え、各前記レンズに対する相対位置がそれぞれ同じになるように、1つの前記レンズに対して複数の前記撮像素子が配置されており、
    前記レンズに対する相対位置が同じ前記撮像素子によりそれぞれ撮影された複数の画像を生成する画像生成部を
    さらに備える請求項12に記載の画像処理システム。
  18. 前記撮影部は、前記検出対象を含む領域の周囲の少なくとも一部を放射状に囲むミラーに映った像を撮影し、
    前記撮影部により前記ミラーに映った像を撮影した画像から複数の画像を切り出す画像切り出し部と、
    切り出された複数の画像に対して幾何歪補正を行う幾何歪補正部と
    をさらに備える請求項12に記載の画像処理システム。
  19. 前記第1の画像および前記第2の画像は、前記撮影部により前記検出対象を含む領域を接写した画像である
    請求項12に記載の画像処理システム。
  20. 体毛を撮影した第1の画像を、前記第1の画像と異なる方向から前記体毛を撮影した第2の画像の座標系に射影変換した射影画像を生成する射影変換部と、
    前記第2の画像と前記射影画像との間の差分画像を生成する差分画像生成部と、
    前記差分画像において差分値が所定の閾値以上の画素からなる候補領域を検出し、前記候補領域に対応する前記第2の画像の領域を前記体毛が写っている体毛領域とそれ以外の非体毛領域に分ける領域検出部と、
    前記領域検出部による検出結果に基づいて、少なくとも前記第1の画像および前記第2の画像のうち一方の画像の前記体毛が写っている領域に対応する他方の画像の領域内の画素を前記一方の画素に射影し、置き換えることにより前記一方の画像から前記体毛を除去する除去部と
    を備える画像処理装置。
JP2011285560A 2011-12-27 2011-12-27 画像処理装置、画像処理システム、画像処理方法、および、プログラム Active JP5818091B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011285560A JP5818091B2 (ja) 2011-12-27 2011-12-27 画像処理装置、画像処理システム、画像処理方法、および、プログラム
US14/366,540 US9345429B2 (en) 2011-12-27 2012-12-13 Image processing device, image processing system, image processing method, and program
CN201280070232.3A CN104135926B (zh) 2011-12-27 2012-12-13 图像处理设备、图像处理系统、图像处理方法以及程序
PCT/JP2012/082374 WO2013099628A1 (ja) 2011-12-27 2012-12-13 画像処理装置、画像処理システム、画像処理方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011285560A JP5818091B2 (ja) 2011-12-27 2011-12-27 画像処理装置、画像処理システム、画像処理方法、および、プログラム

Publications (3)

Publication Number Publication Date
JP2013132447A true JP2013132447A (ja) 2013-07-08
JP2013132447A5 JP2013132447A5 (ja) 2015-02-19
JP5818091B2 JP5818091B2 (ja) 2015-11-18

Family

ID=48697120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011285560A Active JP5818091B2 (ja) 2011-12-27 2011-12-27 画像処理装置、画像処理システム、画像処理方法、および、プログラム

Country Status (4)

Country Link
US (1) US9345429B2 (ja)
JP (1) JP5818091B2 (ja)
CN (1) CN104135926B (ja)
WO (1) WO2013099628A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159975A (ja) * 2014-02-27 2015-09-07 カシオ計算機株式会社 肌処理装置、肌処理方法及びプログラム
JP2019072262A (ja) * 2017-10-17 2019-05-16 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JPWO2018168405A1 (ja) * 2017-03-16 2020-01-16 富士フイルム株式会社 画像合成装置、画像合成方法及びプログラム
JP2020141811A (ja) * 2019-03-05 2020-09-10 花王株式会社 肌画像処理方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2528044B (en) * 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs
WO2017023287A1 (en) * 2015-07-31 2017-02-09 Hewlett-Packard Development Company, L.P. Capturing images provided by users
JP6993087B2 (ja) * 2017-01-17 2022-02-04 花王株式会社 皮膚の歪み測定方法
JP6857088B2 (ja) * 2017-06-20 2021-04-14 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、監視システム
CN107818305B (zh) 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
WO2019130827A1 (ja) * 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
JP7058585B2 (ja) * 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
CN108376117B (zh) * 2018-02-07 2021-05-11 网易(杭州)网络有限公司 交互响应的测试方法和设备
CN108492246B (zh) * 2018-03-12 2023-01-24 维沃移动通信有限公司 一种图像处理方法、装置及移动终端
CN108398177B (zh) * 2018-04-10 2020-04-03 西安维塑智能科技有限公司 一种内设称重模块的三维人体扫描设备
CN110005621B (zh) * 2018-06-13 2020-10-02 宁波瑞卡电器有限公司 离心式防护型吹风机
US20220394266A1 (en) * 2019-11-26 2022-12-08 Nippon Telegraph And Telephone Corporation Signal reconstruction method, signal reconstruction apparatus, and program
WO2021229984A1 (ja) * 2020-05-15 2021-11-18 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
FR3115888B1 (fr) * 2020-10-30 2023-04-14 St Microelectronics Grenoble 2 Procédé de détection d’une présence d’un objet dans un champ de vision d’un capteur temps de vol
US11665340B2 (en) * 2021-03-22 2023-05-30 Meta Platforms, Inc. Systems and methods for histogram-based weighted prediction in video encoding

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993611B2 (ja) * 1990-09-29 1999-12-20 工業技術院長 画像処理方法
WO1998037811A1 (en) * 1997-02-28 1998-09-03 Electro-Optical Sciences, Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6963661B1 (en) * 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
JP4156780B2 (ja) * 2000-03-31 2008-09-24 株式会社東芝 障害物検出装置
US6711286B1 (en) * 2000-10-20 2004-03-23 Eastman Kodak Company Method for blond-hair-pixel removal in image skin-color detection
FR2840710B1 (fr) * 2002-06-11 2005-01-07 Ge Med Sys Global Tech Co Llc Systeme de traitement d'images numeriques, installation d'imagerie incorporant un tel systeme, et procede de traitement d'images correspondant
JP3919722B2 (ja) * 2003-09-11 2007-05-30 花王株式会社 肌形状計測方法及び肌形状計測装置
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
US7689016B2 (en) * 2005-05-27 2010-03-30 Stoecker & Associates, A Subsidiary Of The Dermatology Center, Llc Automatic detection of critical dermoscopy features for malignant melanoma diagnosis
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
JP2010082245A (ja) 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd 毛情報測定方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159975A (ja) * 2014-02-27 2015-09-07 カシオ計算機株式会社 肌処理装置、肌処理方法及びプログラム
JPWO2018168405A1 (ja) * 2017-03-16 2020-01-16 富士フイルム株式会社 画像合成装置、画像合成方法及びプログラム
JP2019072262A (ja) * 2017-10-17 2019-05-16 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP7084120B2 (ja) 2017-10-17 2022-06-14 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2020141811A (ja) * 2019-03-05 2020-09-10 花王株式会社 肌画像処理方法
JP7246974B2 (ja) 2019-03-05 2023-03-28 花王株式会社 肌画像処理方法

Also Published As

Publication number Publication date
US20150125030A1 (en) 2015-05-07
CN104135926A (zh) 2014-11-05
CN104135926B (zh) 2016-08-31
US9345429B2 (en) 2016-05-24
JP5818091B2 (ja) 2015-11-18
WO2013099628A1 (ja) 2013-07-04

Similar Documents

Publication Publication Date Title
JP5818091B2 (ja) 画像処理装置、画像処理システム、画像処理方法、および、プログラム
WO2019085792A1 (en) Image processing method and device, readable storage medium and electronic device
WO2018176938A1 (zh) 红外光斑中心点提取方法、装置和电子设备
JP4772839B2 (ja) 画像識別方法および撮像装置
JP6688277B2 (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
US20200082159A1 (en) Polarization Imaging for Facial Recognition Enhancement System and Method
WO2013151883A1 (en) Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP5779089B2 (ja) エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
KR20110090787A (ko) 화상 처리 장치 및 방법, 및 프로그램
JP6157165B2 (ja) 視線検出装置及び撮像装置
WO2023134103A1 (zh) 图像融合方法、设备以及存储介质
US9392146B2 (en) Apparatus and method for extracting object
JP2011191860A (ja) 撮像装置、撮像処理方法及びプログラム
TW201342303A (zh) 三維空間圖像的獲取系統及方法
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
KR20100127027A (ko) 어안렌즈를 이용한 hdri파노라마 영상 생성장치 및 방법
WO2019078310A1 (ja) 顔三次元形状推定装置、顔三次元形状推定方法、及び、非一時的なコンピュータ可読媒体
JP6556033B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11688046B2 (en) Selective image signal processing
US20220172474A1 (en) Image processing apparatus, 3d model generation method, and program
JP2014016687A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5137219B2 (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP2013161286A (ja) マスク抽出プログラム、画像処理装置および撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150916

R151 Written notification of patent or utility model registration

Ref document number: 5818091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250