JP6685827B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6685827B2
JP6685827B2 JP2016094074A JP2016094074A JP6685827B2 JP 6685827 B2 JP6685827 B2 JP 6685827B2 JP 2016094074 A JP2016094074 A JP 2016094074A JP 2016094074 A JP2016094074 A JP 2016094074A JP 6685827 B2 JP6685827 B2 JP 6685827B2
Authority
JP
Japan
Prior art keywords
image data
normal
face
subject
smoothness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016094074A
Other languages
English (en)
Other versions
JP2017204673A (ja
JP2017204673A5 (ja
Inventor
有一 中田
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016094074A priority Critical patent/JP6685827B2/ja
Priority to US15/581,073 priority patent/US10304164B2/en
Publication of JP2017204673A publication Critical patent/JP2017204673A/ja
Publication of JP2017204673A5 publication Critical patent/JP2017204673A5/ja
Application granted granted Critical
Publication of JP6685827B2 publication Critical patent/JP6685827B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像画像に基づいて所望の照明条件下で撮像したかのような画像を生成する技術に関する。
写真や映像を撮像する際に、照明は被写体の印象を決める大きな要因の一つである。照明を効果的に配置することで、撮像者の意図に合わせて被写体を立体的に見せることが可能である。しかし、撮像者の意図に反した照明条件で撮像してしまうこともある。例えば、逆光の状態で撮像したため、被写体が暗く写ってしまうことがある。あるいはストロボを用いて被写体に光を照射して撮像をした場合には、陰影が飛ばされ被写体が平坦に見えるような場合もある。これらの撮像画像を補正する方法として、被写体に対応する3Dモデルを用いた方法が知られている(特許文献1を参照)。特許文献1では、被写体に対応する3Dモデルを用いて所定の仮想照明条件下でCG(コンピュータグラフィックス)のレンダリング処理を行い、撮像画像中の被写体像を、レンダリングしたCG画像と置き換えることで被写体のライティングを変更する。特許文献1に記載の技術では、あらかじめ用意しておいた3Dモデルの中から被写体像を置き換えるための3Dモデルを決定する。
特開2009−267662号公報
撮像画像から撮像者が所望する照明条件下で撮像したかのような別の画像を生成する場合、被写体の姿勢や表情に合わせた陰影を付与した画像が得られることが好ましい。しかしながら特許文献1の方法では以下のような課題がある。例えば、特許文献1のように、被写体の3Dモデルを用いてレンダリングした結果と撮像画像中の被写体を置きかえる場合、処理結果中の被写体の姿勢や表情が、あらかじめ用意した3Dモデルの姿勢や表情に置き換わってしまい不自然な結果となってしまう。また、仮に様々な姿勢や表情に対応するためには、各姿勢と表情の組み合わせ分だけの3Dモデルを予め用意しておく必要がある。この場合、3Dモデルのデータ量が膨大になる上、膨大な量の3Dモデルから適切なモデルを選択するのも困難になる。
本発明に係る画像処理装置は、画像データにおける、互いに少なくとも一部が異なる複数の領域のそれぞれについて、当該領域の画素毎に法線情報を記録する法線画像データを生成する生成手段と、生成された複数の法線画像データのそれぞれに対して、少なくとも2つ以上の互いに異なる平滑度のうち何れかの平滑度を設定する設定手段と、前記設定手段により設定された前記平滑度で、前記複数の法線画像データそれぞれを平滑化する平滑化手段と、前記平滑化手段により平滑化された前記複数の法線画像データを統合して、前記画像データの画素配置に対応する統合法線画像データを生成する統合手段と、前記統合法線画像データに基づき、前記画像データに対してライティング処理を行うライティング処理手段とを有することを特徴とする。
本発明は、撮像画像に基づいて、所望の照明条件下で撮像したかのような自然な画像を生成することができる。
実施形態1に係る撮像装置の外観を示す図である。 実施形態1における撮像装置の内部構成を示すブロック図である。 実施形態1における画像処理部の機能構成を示すブロック図である。 実施形態1における画像処理部の処理の流れを示すフローチャートである。 実施形態1におけるカラー画像データ及び距離画像データの例を示す図である。 実施形態1における顔情報の例を示す図である。 実施形態1における被写体抽出処理の流れを示すフローチャートである。 実施形態1における被写体抽出処理の概要を示す図である。 実施形態1における法線画像データ生成処理の流れを示すフローチャートである。 実施形態1における被写体領域についての法線画像データ生成処理の流れを示すフローチャートである。 実施形態1における被写体領域についての法線画像データ生成処理の概要を示す図である。 実施形態1における顔・顔器官領域についての法線画像データ生成処理の流れを示すフローチャート。 実施形態1における顔・顔器官領域についての法線画像データ生成処理の概要を示す図である。 実施形態1における法線画像データ統合処理の流れを示すフローチャートである。 実施形態1における法線画像データ統合処理の概要を示す図である。 実施形態1において平滑度が異なる法線画像データを統合する処理の概要を示す図である。 実施形態1におけるライティング処理の概要を示す図である。 実施形態1におけるライティング処理の効果を示す図である。 実施形態2における平滑度設定処理の流れを示すフローチャートである。 実施形態2における法線画像データ統合処理の概要を示す図である。 実施形態3における法線画像データ統合処理の流れを示すフローチャートである。 実施形態3における平滑度マップ生成処理の概要を示す図である。 実施形態3におけるライティング処理の概要を示す図である。 実施形態3におけるライティング処理の効果を示す図である。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
[実施形態1]
<撮像装置の外観>
図1は本実施形態に係る撮像装置の外観を示す図である。本実施形態では撮像装置を構成する一例として、デジタルカメラを示すが、本実施形態に適用可能な撮像装置は、これに限るものではない。例えば、携帯電話やタブレットデバイス、パーソナルコンピュータなどの情報処理装置であっても良いし、カメラ付き携帯電話等の撮像装置として構成されていても良い。図1(a)は撮像装置の前面、図1(b)は背面の外観を示している。撮像装置101は、光学部102、撮像ボタン103、ストロボ104、距離取得部105、表示部106、及び操作ボタン107を有している。
光学部102はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、及びシャッターによって構成される鏡筒であり、被写体の光情報を集光する。撮像ボタン103は、ユーザが撮像の開始を撮像装置101に指示するためのボタンである。ストロボ104は、ユーザ指示に従い撮像の開始に合わせて発光させることができる照明である。
距離取得部105は、撮像指示に応じて撮像装置101を基準とする被写体の距離画像データを取得する距離取得モジュールである。距離画像データとは、画像の各画素の画素値としてその画素に対応する被写体距離を格納した画像データのことを意味する。本実施形態において、距離画像データを構成する画素(i,j)には画素値として撮像装置101を基準とする各被写体の座標値が格納されているものとする。すなわち、距離画像データにおける画素値D(i,j)は、x(i,j)、y(i,j)、z(i,j)によって表される。ここでx軸は撮像装置101に対して水平な方向、y軸は撮像装置101に対して垂直な方向、z軸は撮像装置101の光軸方向とする。
本実施形態において距離取得部105は、赤外光を発光する赤外発光部と、被写体に反射した赤外光を受光する受光部とを含み、発光した赤外光が被写体に反射し受光するまでの時間に基づき撮像装置から被写体までの距離値を算出する。そして、算出した距離値と受光部のセンサ画素数や画角等を含む距離撮像情報に基づき被写体の位置情報を算出し、距離画像データを生成する。なお、距離取得部105は上記構成に限らず、距離画像データを取得できる構成であればよい。例えば距離取得部105は、光学部102と同様の光学系を設け、異なる2つの視点から撮像された画像データの間の視差に基づいて、三角測量を行うことにより距離画像データを取得するようにしてもよい。
表示部106は、液晶ディスプレイなどが用いられており、撮像装置101にて処理された画像データや他の各種データなどを表示する。本実施形態では撮像装置101に光学ファインダを設けていないので、フレーミング操作(ピントや構図の確認)は、表示部106を用いて行われる。すなわち、ユーザは表示部106が表示するライブビュー画像を確認しながら撮像を行うので、このフレーミングやフォーカシングの操作を行っている間は、表示部106は電子ファインダとして機能すると言える。表示部106では、撮像範囲をリアルタイムに表示するライブビュー表示が行われる他、カメラ設定メニューが表示される。
操作ボタン107は、撮像装置101の動作モードの切り換え操作や、撮像時の各種パラメータなどをユーザが撮像装置101に指示するためのボタンである。なお、本実施形態では動作モードの1つとして、撮像された画像における照明の当たり具合を撮像後に補正するライティング処理モードが含まれる。ユーザは操作ボタン107、あるいは撮像ボタン103を用いてライティング処理モードへの切り替えや、ライティング処理に用いる仮想照明の照明パラメータの設定や、被写体領域の選択などを行うことができる。また、ユーザは補正された画像データを出力する際に距離画像データを出力するか否かの指示をすることもできるものとする。なお、表示部106はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作ボタン107の入力として扱うことも可能である。
<撮像装置の内部構成>
図2は本実施形態における撮像装置101の内部構成を示すブロック図である。CPU202は、各構成の処理すべてに関わり、ROM(Read Only Memory)203や、RAM(Rondom Access Memory)204に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。システムバス212はデータを送受信するためのバスである。なお、本実施形態において、ROM203には、顔法線モデル及び顔器官法線モデルが格納されているものとする。顔法線モデルは、所定の形状の顔に対応する、顔表面の法線ベクトルを画素値として格納した法線画像データと、法線画像データにおける目・鼻・口などの器官位置を示す器官位置情報とを含む。顔器官法線モデルは、目・鼻・口などの顔器官領域に対応する法線ベクトルを画素値として格納した法線画像データと、法線画像データ中の器官位置を示す器官位置情報とを含む。
制御部206は、撮像ボタン103や操作ボタン107からのユーザ指示によって、撮像、ライティング処理モードの切り換え、被写体領域の選択、照明パラメータの設定、距離画像データ出力モードの切り替えなどの制御を行う。本実施形態において制御部206は、ユーザ指示に応じてフラグSW1およびSW2を制御する。フラグSW1は、ライティング処理を有効にするように指示された場合にON、ライティング処理を無効にするように指示された場合にOFFとする。フラグSW2は、距離画像データの出力を行うように指示された場合にON、距離画像データの出力を行わないように指示された場合にOFFとする。実際にはSW1及びSW2はそれぞれRAM204内のビット信号であり、ビットが0の状態をOFF、ビットが1の状態をONとし、制御部206はこれらビットの状態を切り替える。
光学系制御部205は光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整するなどのCPU202から指示された制御を行う。カラー撮像素子部201は、光学部102にて集光された光情報を電流値へと変換する撮像素子群と、ベイヤ配列などの所定の配列を有するカラーフィルタとを備え、光学部102にて集光された光から被写体の色情報を取得する。A/D変換部208は、カラー撮像素子部201で取得された被写体の色情報をデジタル信号値に変換してRAW画像データを生成する。なお、本実施形態では同時刻に撮像した距離画像データとRAW画像データが取得可能であるとする。
画像処理部209はA/D変換部208で生成されたRAW画像データに対して現像処理を行い、カラー画像データを生成する。また、画像処理部209はカラー画像データに対して各種画像処理を行う。本実施形態において、画像処理部209はカラー画像データ及び距離画像データに基づいて、カラー画像データに仮想的な光源を加えるライティング処理を行い、ライティング補正画像データを生成する。画像処理部209の機能構成は後に詳述する。
また、キャラクタージェネレーション部207は文字やグラフィックなどを生成する。キャラクタージェネレーション部207により生成された文字やグラフィックは、画像処理部209で生成されたライティング補正画像データなどに重畳して表示部106に表示される。エンコーダ部210は、画像処理部209が処理したカラー画像データやライティング処理によって生成されるライティング補正画像データを含む各種画像データをJpegなどのファイルフォーマットに変換する処理を行う。メディアI/F211は、PC/メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカードなど)に画像データを送受信するためのインタフェースである。メディアI/F211としては、例えばUSB(Universal Serial Bus)などが用いられる。
<画像処理部の機能構成>
図3は本実施形態における画像処理部209の機能構成を示すブロック図である。現像処理部301は、A/D変換部208からRAW画像データを取得する。そして、RAM画像データに対してホワイトバランス処理、デモザイク処理、ノイズリダクション処理、色変換処理、エッジ強調処理及びガンマ処理等を施し、カラー画像データを生成する。生成したカラー画像データは表示部106へ出力して表示したり、RAM204、PC/メディア213などの記憶装置に記憶したりすることができる。なお、現像処理部301が施す処理は、上記の処理に限らず、必要不要に応じて処理の重複、増減があっても良い。本実施形態では、現像処理部301はガンマ処理を施さずにカラー画像データを生成し、ライティング処理部308に出力する。
顔検出部302は、現像処理部301で生成されたカラー画像データから被写体の顔情報を検出する。被写体の顔情報には、少なくともカラー画像データにおいて被写体の顔が占める領域を示す顔領域と、顔に含まれる目や口などのカラー画像データにおける位置を示す器官位置とに関する情報が含まれる。
被写体抽出部303は、カラー画像データ、顔情報、ユーザにより選択された被写体位置に基づいて、距離画像データから被写体領域を抽出し、被写体領域に対応する被写体距離画像データを生成する。本実施形態において、被写体距離画像データは、主に選択された被写体位置に対応した人物に対応する距離値を格納しているものとする。なお、被写体位置はユーザにより選択されず、顔情報に基づいて自動的に決定しても構わない。複数の顔情報が含まれる場合は、より手前に位置する顔を優先するなどしても良い。
法線生成部304は、被写体抽出部303で生成された被写体距離画像データに基づいて被写体領域の画素ごとの法線ベクトルを推定し、被写体領域に対応する被写体法線画像データを生成する。また、法線生成部304は、顔検出部302で検出された顔情報と、現像処理部301で生成されたカラー画像データとに基づいて、ROM203に格納された顔法線モデル及び顔器官法線モデルを変形する。これにより、顔領域及び顔器官領域それぞれに対応する顔法線画像データ及び複数の顔器官法線画像データを生成する。
法線統合部305は、法線生成部304で生成された被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データを統合し、統合法線画像データを生成する。この際、現像処理部301で生成されたカラー画像データに基づいて、平滑化処理を行う。
照明パラメータ設定部307は、制御部206から得られるユーザ操作に基づいて、照明パラメータを設定する。本実施形態における照明パラメータは、照明の位置、姿勢、強度、光源色などを含む。
ライティング処理部308は、カラー画像データに対して仮想的な光源を加えるライティング処理を行い、ライティング補正画像データを生成する。ライティング処理は、被写体抽出部303で生成された被写体距離画像データと、法線統合部305で生成された統合法線画像データと、照明パラメータ設定部307で設定された照明パラメータとに基づいて行われる。ライティング処理により生成されたライティング補正画像データはRAM204やPC/メディア213などの記憶装置に出力して記憶したり、表示部106へ出力して表示したりすることができる。なお、ライティング補正画像データを出力する前にガンマ処理などの色処理を行っても構わない。
<画像処理部の処理フロー>
図4は本実施形態の画像処理装置における画像処理部209の処理の流れを示すフローチャートである。本実施形態では、カラー画像データから検出された顔情報に基づき、距離画像データから被写体領域を抽出し、被写体距離画像データを生成する。次に、被写体距離画像データに基づいて被写体領域の画素毎の法線ベクトルを推定し、被写体領域に対応する被写体法線画像データを生成する。また、顔情報、顔法線モデル、及び顔器官法線モデルに基づき顔領域及び顔器官領域それぞれに対応する顔法線画像データ及び顔器官法線画像データを生成する。そして、被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データを統合し、カラー画像データの画素配置に対応する統合法線画像データを生成する。その後、ユーザ操作によって設定された照明パラメータ、被写体距離画像データ及び統合法線画像データに基づき、カラー画像データに仮想光源を追加するライティング処理を行い、ライティング補正画像データを生成する。以下、画像処理部209が行う処理の詳細について述べる。
ステップS401において、現像処理部301がA/D変換部208から取得したRAW画像データに基づきカラー画像データを生成する。本実施形態では、RAW画像データに対してホワイトバランス処理、デモザイク処理、ノイズリダクション処理、色変換処理、及びエッジ強調処理等を施して、カラー画像データを生成する。本実施形態におけるカラー画像データの例を図5(a)に示す。カラー画像データ501の画素(i,j)にはRGB値が画素値として格納されているものとし、それぞれIr(i,j)、Ig(i,j)、Ib(i,j)と表すものとする。なお、カラー画像データの取得方法はこれに限るものではない。例えば、RAM204やPC/メディア213に記憶されているRAW画像データを取得し現像処理部301がカラー画像データを生成してもよい。あるいは、RAM204やPC/メディア213に記憶されているカラー画像データを取得してもよい。
ステップS402において、被写体抽出部303が距離取得部105から距離画像データを取得する。本実施形態における距離画像データの例を図5(b)に示す。距離画像データ502の画素(i,j)には画素値D(i,j)としてその画素に対応する撮像装置から被写体までの距離値を格納しているものとする。なお、距離画像データの取得方法はこれに限るものではない。例えば、RAM204やPC/メディア213に記憶されている距離画像データを取得してもよい。
ステップS403において、ライティング処理部308がRAM204からSW1の状態を取得する。そして、SW1の状態に基づいてライティング処理を行うか否かの判定処理を行う。SW1がOFFの場合はライティング処理を行わないと判定され、処理はS404に進む。SW1がONの場合は、ライティング処理を行うと判定され、処理はテップS405に進む。
ステップS404において、ライティング処理部308がRAM204からSW2の状態を取得する。そして、SW2がOFFの場合はカラー画像データのみを、SW2がONの場合はカラー画像データと距離画像データをPC/メディア213に出力し記録する。あるいは、表示部106に出力し表示することによりユーザが画像データを確認できるようにすると良い。その後、処理を終了する。
ステップS405において、顔検出部302がカラー画像データ501に基づき、カラー画像データに撮像された被写体のうち、顔領域を識別可能な顔情報を取得する。取得された顔情報の例を図6に示す。本実施形態における顔情報は、顔領域601及び器官位置602を含む。顔領域601は、顔の各器官位置を含む領域であり、例えば図6に示すような矩形領域として抽出される。器官位置602は、顔領域内における目、鼻、口などの位置を示す座標を表す。顔領域、器官位置の抽出方法については既存のアルゴリズムが適用可能である。例として、テンプレートマッチングを用いたアルゴリズムや、Haar−Like特徴量を用いたアルゴリズムなどが挙げられる。
本実施形態では、テンプレートマッチングによって顔領域・器官位置を抽出する。まず、顔検出部302は、カラー画像データに対して閾値処理を行い、肌色の領域を顔候補領域として抽出する。そして、顔検出部302は、様々な大きさの顔画像テンプレートを用いて顔候補領域に対してマッチング処理を行い、尤度を算出する。最後に、顔検出部302は、尤度に基づき、顔領域であるか否かの判定処理を行い、顔領域を抽出する。器官位置についても、抽出された顔領域に対して目、鼻、口画像テンプレートを用いて同様の抽出処理を行う。以上の処理により顔領域601、器官位置602を取得する。
ステップS406において、被写体抽出部303が顔検出部302で検出された顔領域601とカラー画像データとに基づき距離画像データから被写体領域を抽出し、被写体領域に対応する被写体距離画像データを生成する。複数の顔領域が含まれる場合は、制御部206から取得されるユーザ操作に基づいて対象とする被写体の顔領域を選択する。本ステップの被写体抽出処理の詳細については後述する。
ステップS407において、法線生成部304がカラー画像データにおける被写体領域、顔領域、及び顔器官領域それぞれに対応する被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データを生成する。被写体法線画像データは、被写体抽出部303で生成された被写体距離画像データに基づいて被写体領域の画素ごとの法線ベクトルを推定することで生成する。顔法線画像データ、顔器官法線画像データは顔情報及びカラー画像データに基づいて、ROM203等から取得した顔法線モデル、顔器官法線モデルを変形することで生成する。そして、各法線画像データに対して平滑度を設定する。本ステップの法線画像データ生成処理の詳細については後述する。
ステップS408において、法線統合部305が法線生成部304で生成された被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データを統合し、カラー画像データの画素配置に対応する統合法線画像データを生成する。この際、ステップS407で設定された平滑度に基づいて、平滑度の高い法線画像データから順に平滑化処理と統合処理を繰り返す。本ステップの法線画像データ統合処理の詳細については後述する。
ステップS409において、照明パラメータ設定部307が制御部206から取得したユーザ操作に基づいて照明パラメータを設定する。本実施形態における照明パラメータは、照明の位置、姿勢、強度、光源色などを含む。また、本実施形態において、ユーザは表示部106に表示されたプレビュー画像を観察しながら、照明パラメータを設定するための操作を行うことができるものとする。プレビュー画像は、ステップS401で取得されたカラー画像データに基づいて初期化され、後続するステップS410のライティング処理によって生成されたライティング補正画像データに基づいて更新されるものとする。これにより、ユーザは、例えばプレビュー画像上の所望の位置を選択することで、選択した位置に照明を移動させることができる。
ステップS410において、ライティング処理部308が被写体距離画像データと統合法線画像データと照明パラメータに基づいて、カラー画像データに対して仮想的な照明を加えるなどのライティング処理を行い、ライティング補正画像データを生成する。本ステップのライティング処理の詳細については後述する。
ステップS411において、ライティング処理部308が制御部206から取得したユーザ操作に基づき、ライティング処理を終了するかを判定する。ここで、表示部106に表示されるプレビュー画像はステップS410で生成されたライティング補正画像データに基づいて更新される。ユーザは更新されたプレビュー画像に満足した場合に、ライティング処理を終了するための操作を行う。ライティング処理を終了すると判定される場合に、処理はS412へ進む。ライティング処理を終了しないと判定される場合に、再び光源パラメータの設定が行われるよう、処理はS409へ進む。
ステップS412において、ライティング処理部308がRAM204からSW2の状態を取得する。そして、SW2がOFFの場合はライティング補正画像データとカラー画像データを、SW2がONの場合はライティング補正画像データとカラー画像データと距離画像データをPC/メディア213に出力し記録する。その後、処理を終了する。
<被写体抽出処理>
ここでは、ステップS406で被写体抽出部303が行う被写体抽出処理について説明する。図7は本実施形態における被写体抽出処理の流れを示すフローチャートである。本実施形態における被写体抽出処理は、顔情報に基づき距離画像データから被写体候補領域を抽出した後、被写体候補領域を補正することにより、被写体領域のみに距離値が格納された被写体距離画像データを生成する。以下、被写体抽出処理の詳細について述べる。
ステップS701において、被写体抽出部303が顔情報に基づき距離画像データから被写体候補領域を抽出する。図8(a)、(b)を参照して本ステップの処理を説明する。まず、図8(a)に示すように顔領域601に含まれる各画素の距離値を距離画像データ502から取得し、それらの平均値を被写体顔距離値として算出する。その後、被写体顔距離値に近い距離値を持つ画素を、距離画像データに対して閾値処理を施すことによって抽出する。これにより、被写体候補領域の画素値を1、その他の領域の画素値を0とする二値画像801を生成する。生成された二値画像801及び抽出された被写体候補領域802の例は図8(b)に示す。
ステップS702において、被写体抽出部303が二値画像801に対して小成分除去処理や穴埋め処理を施すことにより被写体候補領域802に含まれる小さな連結成分を除去したり、穴を埋めたりする整形処理を行う。小成分除去処理・穴埋め処理としては、モルフォロジ演算を用いた方法やラベリング処理を利用した方法などが適用可能である。ここではモルフォロジ演算を用いた方法を利用する。小成分除去処理としては、二値画像801に含まれる被写体候補領域802に対してオープニング処理を行う。その後の穴埋め処理としては、被写体候補領域に対してクロージング処理を行う。これにより、被写体領域の画素値を1、それ以外の領域(背景領域)の画素値を0とする二値画像803を生成する。生成された二値画像803及び被写体領域802′の例は図8(c)に示す。そして、二値画像803に基づき距離画像データ502から被写体領域802′に対応する被写体距離画像データ804を抽出する。以上の処理により、主に手前の被写体とそれ以外の背景に分割され、被写体領域のみに距離値が格納された被写体距離画像データ804を取得する。
<法線画像データ生成処理>
ここでは、ステップS407で法線生成部304が行う法線画像データ生成処理について説明する。本実施形態における法線画像データ生成処理は、カラー画像データにおける被写体領域、顔領域、及び顔器官領域それぞれに対応する被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データを生成する。図9は、本実施形態における法線画像データ生成処理の流れを示すフローチャートである。
ステップS901において法線生成部304は、被写体抽出部303で生成された被写体距離画像データに基づき被写体領域の画素毎の法線ベクトルを推定し、被写体領域に対応する被写体法線画像データを生成する。法線生成部304は、撮像装置から見た被写体領域(背景と被写体との境界)に合わせて、被写体領域の画素毎の法線ベクトルを推定する。本ステップの被写体領域についての法線画像データ生成処理の詳細については後述する。
ステップS902において法線生成部304は、ROM203等から顔法線モデル及び顔器官法線モデルを取得する。そして、顔情報及びカラー画像データに基づき、顔法線モデル、顔器官法線モデルをそれぞれ変形することで顔法線画像データ、顔器官法線画像データを生成する。本ステップの顔・顔器官領域についての法線画像データ生成処理の詳細については後述する。
ステップS903において法線生成部304は、被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データに対して平滑度を設定する。ここでは、撮像画像中の被写体の形状との形状ずれや位置ずれが小さい法線画像データほど平滑度を低く設定する。被写体の形状との形状ずれが大きい法線画像データや、被写体に対して位置合わせしにくい法線画像データに対しては平滑度を高く設定する。後に行う平滑化処理では、設定した平滑度に基づきフィルタサイズを変更することで平滑化処理の強さを変える。本実施形態では、被写体領域の法線情報は、距離情報から抽出した被写体領域に基づき生成したものであり、被写体の概略形状を表したものである。このため、モデルに基づいて生成した法線画像データに比べ形状ずれが大きい。また、被写体の顔領域、被写体の顔器官領域はそれぞれのモデルに基づいて、各法線画像データを生成する。このとき、モデルとなる対象領域(パーツ)が小さいほど、被写体に対する位置ずれが小さい。例えば、顔をモデルにした顔法線モデルに基づいて生成される法線画像データは、顔領域全体のうち、顔器官の位置情報に基づいて被写体とモデルとの位置合わせを行う。このため、顔の輪郭など顔器官以外の領域は被写体との位置ずれが生じやすい。一方、目をモデルとした法線モデルに基づいて生成される法線画像データは、目として抽出された領域において、実際の被写体の目と位置合わせをしやすい。そこで本実施形態では下記のように平滑度を高・中・低の三段階に設定するものとする。本実施形態における被写体法線画像データは、平滑度を高とする。本実施形態における顔法線画像データの平滑度は中とする。本実施形態における顔器官法線画像データの平滑度は低とする。
<<被写体領域についての法線画像データ生成処理>>
ここでは、ステップS901で法線生成部304が行う被写体領域についての法線画像データ生成処理の詳細を説明する。本実施形態における被写体領域についての法線画像データ生成処理は、被写体距離画像データに基づき被写体領域に対応する被写体法線画像データを生成する。図10に被写体領域についての法線画像データ生成処理の流れを示す。
ステップS1001において法線生成部304は、被写体距離画像データ804に対して閾値処理を行うことで、被写体領域と背景領域からなる二値画像データ1101を生成する。例えば、被写体領域の画素値を255、背景領域の画素値を0とする二値画像データ1101を生成すれば良い。本ステップで生成された二値画像データ1101の例は図11(a)に示す。
ステップS1002において法線生成部304は、ステップS1001で生成された二値画像データ1101に対して収縮処理を適用する。例えば、Erosionにより被写体領域のうち背景領域からの距離がr1以下の画素の画素値を0とすればよい。収縮処理を適用した結果である二値画像データ1102の例を図11(b)に示す。
ステップS1003において法線生成部304は、ステップS1002で生成された二値画像データ1102に対して平滑化処理を適用する。例えば、半径r2のガウシアンフィルタなどを適用すればよい。平滑化処理を適用した結果である画像データ1103の例を図11(c)に示す。
ステップS1004において法線生成部304は、ステップS1003で生成された画像データ1103に基づき画素毎の法線ベクトルを算出する。ここでは、画像データ1103の画素値を距離値として扱い、この距離値と画像データ1103の画素の2次元的な座標値とに基づき、画素毎に3次元的な座標値を算出する。そして、3次元的な座標値に基づき、画素毎に対応する法線ベクトルを推定する。法線ベクトルの推定方法としては、3次元的な座標値から算出した勾配に基づいて算出する方法や、画素毎に平面を当てはめその垂線を法線ベクトルとする方法などが適用可能である。本実施形態では、注目画素の近傍領域に当てはめた平面に垂直なベクトルを法線ベクトルとして算出する。その手順を以下に述べる。
法線ベクトルを算出する注目画素とその近傍画素の3次元的な座標値を(x0、y0、z0)、・・・、(xn-1,yn-1,zn-1)とする。なお、x座標値は画像データ1103の2次元的な座標値の水平方向の座標値に基づいて求め、y座標値は画像データ1103の2次元的な座標値の垂直方向の座標値に基づいて求める。また、z座標値は画像データ1103の画素値に基づいて求める。これらの座標値に対して平面ax+by+c=zを当てはめる。具体的には、z軸方向の距離を利用し下記の式(1)に示す関数が最小になるようなa、b、cを求めればよい。
この時、a、b、cは下記の式(2)で算出できる。
また、平面ax+by+c=zに垂直なベクトルn=(nx、ny、nz)は下記の式(3)のように算出できる。
上記で算出したベクトルを注目画素に対応する法線ベクトルとする。同様の処理を画像データ1103の各画素で行い、画像データ中の画素について法線ベクトルを求めることで法線画像データ1104を生成する。法線画像データは、画素(i,j)に法線ベクトル(nx(i,j)、ny(i,j)、nz(i,j))を格納した画像データである。算出した法線画像データ1104の例を図11(d)に示す。
ステップS1005において法線生成部304は、ステップS1004で生成された法線画像データ1104に対して、ステップS1001で算出された二値画像データ1101を参照しつつ平滑化処理を適用する。例えば、平滑化処理として、二値画像データ1101を参照画像とするジョイントバイラテラルフィルタを適用すればよい。平滑化処理を適用した後、画素毎に法線ベクトルの大きさが1になるように正規化を行う。以上の処理により図11(e)に示すような被写体法線画像データ1105を生成する。
なお、ステップS1003で使用される半径r2はステップS1002で使用されるr1と同じ値または近い値とすることが望ましい。これにより、被写体領域のみに傾きのある法線ベクトルを与えることができる。
<<顔・顔器官領域についての法線画像データ生成処理>>
ここでは、ステップS902で法線生成部304が行う顔・顔器官領域についての法線画像データ生成処理の詳細を説明する。本実施形態における顔・顔器官領域についての法線画像データ生成処理は、顔情報及びカラー画像データに基づき、顔法線モデル、顔器官法線モデルを変形することで顔法線画像データ、顔器官法線画像データを生成する。図12に顔・顔器官領域についての法線画像データ生成処理の流れを示す。
ステップS1201において法線生成部304は、顔法線モデルをカラー画像データ中の被写体に合わせて変形するための顔用変形パラメータの算出を行う。変形パラメータはカラー画像データ中に含まれる被写体の器官位置602と、顔法線モデルに含まれる顔法線器官位置に基づいて求める。
本実施形態における、顔法線モデル及び顔法線器官位置の例を図13(a)に示す。顔法線モデル1301は一般的な顔形状に基づいて作成した顔の法線情報を画素値として持つ画像データである。顔に対応する画素(i,j)には画素値として法線ベクトルの各要素が格納されている。顔以外の画素については法線ベクトルがないことを示す値が格納されており、これにより画素値に基づいて顔と顔以外の領域との判定ができるようになっている。また、顔法線モデル1301は、目、鼻、口などの顔器官に対応する顔法線器官位置1302も持っている。顔法線モデルの変形方法としてはアフィン変換や、射影変換等が適用可能である。本実施形態では、下記の式(4)に示すアフィン変換により顔法線モデル1301を変形するものとする。
変形パラメータ(a0,a1,a2,a3,a4,a5)は、器官位置602と顔法線器官位置1302の右目、左目、鼻、口の座標をそれぞれ対応付け、最小二乗法などを利用することにより算出可能である。以上の処理により、顔法線モデルを変形するための顔用変形パラメータを取得する。
ステップS1202において法線生成部304は、顔器官法線モデルをカラー画像データ中の被写体に合わせて変形するための顔器官用変形パラメータの算出を行う。図13(c)に、顔器官法線モデルの例を示す。顔器官法線モデルは、顔器官領域のみの法線情報を画素値として持つ画像データである。本実施形態では顔器官法線モデル1303、1304、1305、1306はそれぞれ右目、左目、鼻、口に対応する顔器官法線モデルである。また、顔器官法線モデルの画像サイズは、顔法線モデルの画像サイズと等しいものとし、顔器官領域は顔法線器官位置1302の周辺領域とする。
顔器官法線モデルを変形するための顔器官用変形パラメータは器官位置602と顔法線器官位置1302とに基づき、ステップS1201で算出した顔用変形パラメータを補正することで算出する。具体的には、変形後の顔法線器官位置1302が器官位置602と一致するように、顔用変形パラメータの平行移動成分であるa2,a5を補正して、a′2,a′5を算出する。顔器官法線モデルは補正した変形パラメータ(a0,a1,a′2,a3,a4,a′5)を用いた下記の式(5)に従い変形する。
以上の処理により、右目、左目、鼻、口の各顔器官に対して行うことで、各顔器官法線モデルに対応する顔器官用変形パラメータを取得する。年齢・性別・個人差などにより、被写体によって目・鼻・口の配置は若干異なる。本実施形態のように顔器官毎に変形パラメータを変えて位置合わせを行うことにより、様々な被写体に対して正しい器官位置に法線情報を当てはめることができる。
ステップS1203において法線生成部304は、顔用変形パラメータに基づき顔法線モデルを変形することで、顔法線画像データを生成し、顔器官用変形パラメータに基づき顔器官法線モデルを変形することで、顔器官法線画像データを生成する。図13(c)に示すように、顔法線モデル1301、顔器官法線モデル1303〜1306を変形することで、顔法線画像データ1307及び顔器官法線画像データ1308〜1311を生成する。顔法線画像データ1307では顔領域以外は法線情報がないことを示す値が画素値として格納される。また、顔器官法線画像データ1308〜1311では顔器官領域以外は法線情報がないことを示す値が画素値として格納される。
<法線画像データ統合処理>
ここでは、ステップS408で法線統合部305が行う法線画像データ統合処理について説明する。本実施形態における法線画像データ統合処理は、法線統合部305が法線生成部304から取得した被写体法線画像データ、顔法線画像データ、及び顔器官法線画像データを統合し、カラー画像データの画素配置に対応する統合法線画像データを生成する。また、本実施形態では、各法線画像データの平滑度に基づき、法線画像データ統合処理を複数回に分けて行う図14は、法線画像データ統合処理の流れを示すフローチャートである。
ステップS1401において法線統合部305は、平滑度が等しい法線画像データを統合する。本実施形態では平滑度が高の法線画像データを統合したものを高平滑度法線画像データ1501とする。また、平滑度が中の法線画像データを統合したものを中平滑度法線画像データ1502、平滑度が低の法線画像データを統合したものを低平滑度法線画像データ1503とする。
ステップS1401の処理の具体例を図15に示す。本実施形態では、平滑度が高なのは被写体法線画像データ1105のみ、平滑度が中なのは顔法線画像データ1307のみである。このため、被写体法線画像データ1105を高平滑度法線画像データ1501、顔法線画像データ1307を中平滑度法線画像データ1502とする。平滑度が低なのは複数の顔器官法線画像データ1309〜1311であるため、これは統合し低平滑度法線画像データ1503とする。統合処理としては、画素毎に各法線画像データを参照し、いずれかの法線画像データから法線情報を取得した場合は、それを低平滑度法線画像データ1503の法線情報とする。2つ以上の法線画像データに法線情報が存在する場合は、優先度の高い法線画像データの法線情報を採用する。本実施形態では、優先度が高い方から順に鼻、口、右目、左目に対応する顔器官法線画像データとする。いずれの法線画像データにも法線情報がない画素は、低平滑度法線画像データ1503においても法線情報なしとする。
ステップS1402において法線統合部305は、ステップS1401の処理により得られた、平滑度が異なる複数の法線画像データを統合する。本実施形態では、平滑度の高い法線画像データから順に平滑化処理と統合処理を繰り返す。この際、画素毎に各法線画像データを参照し、2つ以上の法線画像データに法線情報が存在する場合に、平滑度が相対的に低い法線画像データの法線情報を採用する。また、平滑化処理としては、カラー画像データ501を参照画像とするジョイントバイラテラルフィルタなどを注目法線画像データに適用すればよい。これにより、注目法線画像データをカラー画像データのエッジに沿ってなじませることができる。この際、法線画像データの平滑度に応じてフィルタサイズを変更することにより、平滑化処理の強さを変更する。平滑度が高い法線画像データは強く平滑化され、法線ベクトルの凹凸がなくなる。逆に平滑度が低い法線画像データは弱く平滑化されるため、法線ベクトルの凹凸感が保存される。撮像画像中の被写体の形状と合っていない法線画像データほど強く平滑化し凹凸をなくなることにより、後のライティング処理において弊害を小さくすることができる。
ステップS1402の処理の具体例を図16に示す。本実施形態では、高平滑度法線画像データ1501、中平滑度法線画像データ1502、及び低平滑度法線画像データ1503を統合する。まず、高平滑度法線画像データ1501に対してフィルタサイズ大で平滑化処理を行う。平滑化処理を適用した後、画素毎に法線ベクトルの大きさが1になるように正規化を行う。これにより、法線画像データ1601を得る。以降、特に説明がない限り、法線画像データに対して平滑化処理を適用した後に、画素毎に法線ベクトルの大きさが1になるように正規化を行うものとする。
次に、フィルタサイズ大で平滑化された法線画像データ1601と中平滑度法線画像データ1502を統合して、法線画像データ1602を生成する。統合処理としては、法線画像データ1601に対して中平滑度法線画像データ1502の法線情報のある画素の画素値を上書きすることで行う。本実施形態では被写体領域の法線情報に対して顔領域の法線情報を上書きすることになる。そして、統合結果の法線画像データ1602に対してフィルタサイズ中で平滑化処理を行うことで、法線画像データ1603を得る。
さらに、フィルタサイズ中で平滑化された法線画像データ1603と低平滑度法線画像データ1503を統合して、法線画像データ1604を得る。本実施形態では被写体領域と顔領域の法線情報に対して、顔器官領域の法線情報を上書きすることになる。統合結果の法線画像データ1604に対してフィルタサイズ小で平滑化処理を行い、得られた法線画像データを統合法線画像データ1605とする。以上の処理により、統合法線画像データ1605は被写体領域、顔領域、顔器官領域の順に強く平滑化されたものとなる。このため、後のライティング処理において顔器官領域では法線ベクトルに基づいて凹凸感を強調しつつ、被写体領域などでは法線ベクトルの凹凸による違和感を軽減することができる。
<ライティング処理>
ここでは、ステップS410で行うライティング処理について説明する。本実施形態におけるライティング処理は、被写体距離画像データ、統合法線画像データ、及びユーザ操作によって設定された照明パラメータに基づいて、カラー画像データに対して仮想光源を加える処理を行い、ライティング補正画像を生成する。ライティング処理の概要は図17に示す。本実施形態では照明パラメータとして仮想照明の位置Q、姿勢U、強度α、光源色Lが設定され、下記の式(6)に従いライティング補正画像データを生成するものとする。
ここで、I′r、I′g、I′bは補正画像データI′の画素値を表す。Lr,m、Lg,m、Lb,mはm番目の照明の色、kmはm番目の照明に対する補正度合いを表す。kmは照明の明るさα、仮想光源の位置Q、姿勢Uおよび画素(i,j)に対応する距離値、法線ベクトルNに基づいて決定する。例えば下記の式(7)のように求めることができる。
式(7)について図17を参照して説明する。tは仮想光源による補正度合いを調整する補正係数である。本実施形態ではt=1とする。αは照明の明るさを表す変数である。Qは仮想光源の位置を表すベクトルである。
P(i,j)は画素(i,j)に対応する被写体上の点の3次元的な位置を表すベクトルであり、被写体距離画像データ804から下記のように算出する。まず、被写体距離画像データ804における画素(i,j)の画素値を読み取ることで、撮像装置101から画素(i,j)に対応する被写体上の点までの距離値を取得する。続いて、取得された距離値、撮像装置101の画角、及びカラー画像データ501の画像サイズなどに基づき、画素(i,j)に対応する被写体上の点の3次元的な位置P(i,j)を算出する。
Wは画素(i,j)に対応する被写体上の点の位置P(i,j)から仮想光源の位置Qまでの距離が大きくなるに従い大きな値を返す関数である。ρは仮想光源の位置Qから位置P(i,j)に向かうベクトルと、照明の姿勢Uのなす角度を表す。Kはρが小さいほど大きな値となるような関数である。N(i,j)は画素(i,j)に対応する法線ベクトルであり、統合法線画像データの画素値が用いられる。V(i,j)は位置P(i,j)から仮想光源の位置Qに向かう方向を表す単位ベクトルである。
本実施形態のようにライティング補正画像を生成することにより、照明の位置と被写体の形状に応じた明るさの補正が可能である。すなわち、仮想照明に近く、仮想光源から画素(i,j)に対応する被写体上の点に向かうベクトルと法線ベクトルとのなす角が小さい画素ほど明るくなるように補正することができる。これにより、図18に示すように、カラー画像データ501を仮想照明により被写体を照らしたかのようなライティング補正画像1801に補正することができる。また、ライティング補正画像1801では平滑度の低い顔器官領域ほど被写体形状に応じて立体的な陰影となる。
以上のとおり、本実施形態では、カラー画像データにおける被写体領域、顔領域及び顔器官領域(互いに少なくとも一部が異なる複数の領域)を抽出し、抽出した領域のそれぞれについて法線画像データを生成する。この際、被写体領域については、距離画像データに基づき法線画像データを生成し、顔領域及び顔器官領域については、平滑度の異なる複数の法線モデルを使い分けて法線画像データを生成する。そして、生成した法線画像データを統合し、ライティング補正処理に用いられる統合法線画像データを生成する。これにより、被写体の詳細な形状情報を取得すること及び膨大な量の3Dモデルをあらかじめ用意することを必要とせず、撮像画像から所望の照明条件下で撮像したかのような自然な画像を生成することができる。
なお、本実施形態では顔法線モデル1301と顔器官法線モデル1303〜1306の画像サイズは等しいものとしたが、画像サイズはこれに限るものではない。例えば、顔器官法線モデル1303〜1306のうち、法線情報のある画素を含む矩形領域のみを画像データとして保持しても構わない。あるいは、顔法線モデル1301を縮小、顔器官法線モデルよりも低い解像度で保持しても構わない。顔法線画像データの方が顔器官法線画像データよりも平滑度が高いため、基となる顔法線モデル1301を縮小しても最終的に得られる統合法線画像データにおける法線情報の劣化は少ない。このため、以上のような方法によりあらかじめ保持しておく法線モデルのデータ量を減らすことができる。
また、本実施形態では顔器官法線モデルとして目、鼻、口の法線モデルを使用したが、顔器官はこれに限るものではない。これらのうち使用しない顔器官があっても構わないし、頬・耳・眼球などの法線モデルを別途用意しても構わない。
また、本実施形態では顔器官法線画像データに対する平滑度を全て同一としたが、これらを器官毎に変えても構わない。この際、高・中・低の3段階で表していた平滑度を4段階以上に増やしても構わない。例えば、顔器官領域の大きさが小さい領域ほど細かな凹凸情報があるものとして平滑度を低く設定してよい。これにより、ライティング処理で細かな凹凸ほど強調することができる。あるいは、顔器官領域が顔領域の中心に近い顔器官ほど平滑度を低く設定してもよい。これにより、ライティング処理で凹凸の多い顔中央付近ほど立体感を強調することができる。また、平滑度が4段階以上の場合にも、平滑度が高い法線画像データから順に図16に示す処理を繰り返すことで統合法線画像データを生成する。
[実施形態2]
上述した実施形態1では各法線画像データに対して領域毎にあらかじめ決めた平滑度を設定していたが、本実施形態ではカラー画像データから抽出された顔領域及び器官位置の信頼度に応じて、各領域の法線画像データに平滑度を設定する。これにより、顔領域や器官位置の確からしさを考慮したライティング補正画像データを生成することができる。本実施形態は実施形態1と比較し、ステップS405の顔情報検出処理及びステップS903の平滑度設定処理が異なる。
実施形態1のステップS405では、顔領域601及び器官位置602を抽出するが、本実施形態では、それに加え、抽出された顔領域601及び器官位置602の信頼度を決定する。具体的に、本実施形態では、実施形態1と同様にテンプレートマッチングによって顔領域・器官位置を抽出する。まず、顔検出部302は、カラー画像データに対して閾値処理を行い、肌色の領域を顔候補領域として抽出する。そして、顔検出部302は、様々な大きさの顔画像テンプレートを用いて顔候補領域に対してマッチング処理を行い、尤度を算出する。さらに、顔検出部302は、尤度に基づき顔領域であるか否かの判定処理を行い、顔領域を抽出する。器官位置についても、抽出された顔領域に対して目、鼻、口画像テンプレートを用いて同様の抽出処理を行う。この際、尤度の大きさに基づき、抽出された顔領域601及び器官位置602の信頼度をそれぞれ決定する。
以上のように決定された信頼度は、本実施形態の平滑度設定処理において用いられる。図19は、本実施形態における平滑度設定処理の流れを示すフローチャートである。以下、図19を参照して本実施形態の平滑度設定処理の詳細を説明する。
ステップS1901において法線生成部304は、被写体法線画像データの平滑度を設定する。本実施形態では被写体法線画像データは被写体のシルエット形状に基づいて生成されているため法線情報としての信頼度は低いものとし、平滑度は高とする。
ステップS1902において法線生成部304は、顔領域の信頼度が閾値th1以上であるか否かを判定する。顔領域の信頼度が閾値th1以上であれば、顔領域の法線情報は信頼できるものとし、処理はステップS1903へ進む。ステップS1903では顔法線画像データの平滑度を中とする。顔領域の信頼度が閾値th1未満であれば、顔領域の法線情報は信頼できないものとし、処理はステップS1904へ進む。ステップS1904では顔法線画像データの平滑度を高とする。
ステップS1905において法線生成部304は、未処理の器官位置を注目器官位置として設定する。ステップS1906において法線生成部304は、全ての器官位置に対して処理を行ったかを判定し、全ての器官位置を処理済みであれば平滑度設定処理を終了する。未処理の器官位置があればステップS1907へ進む。
ステップS1907において法線生成部304は、注目器官位置の信頼度が閾値th2以上であるか否かを判定する。注目器官位置の信頼度が閾値th2以上であれば、対応する顔器官領域の法線情報は信頼できるものとし、処理はステップS1908へ進む。ステップS1908では対応する顔器官法線画像データの平滑度を低とする。注目器官位置の信頼度が閾値th2未満であれば、処理はステップS1909へ進む。
ステップS1909において法線生成部304は、注目器官位置の信頼度が、閾値th2より小さい閾値th3以上であるか否かを判定する。注目器官位置の信頼度が閾値th3以上であれば、対応する顔器官領域の法線情報はやや信頼できるものとし、処理はステップS1910へ進む。ステップS1910では対応する顔器官法線画像データの平滑度を中とする。注目器官位置の信頼度が閾値th3未満であれば、対応する顔器官領域の法線情報は信頼できないものとしてステップS1911へ進み対応する顔器官法線画像データの平滑度を高とする。
ステップS1912において法線生成部304は、注目器官位置を未処理の器官位置に更新する。これにより、全ての器官位置に対してステップS1906〜S1911の処理が行われる。
以上の平滑度設定処理結果の例を図20に示す。図20では、顔法線画像データ1307の平滑度が高、口に対応する顔器官法線画像データ1311の平滑度が中、口以外の器官に対応する顔器官法線画像データ1308〜1310の平滑度が低になった場合の例を示す。この場合、顔法線画像データや口に対応する顔器官法線画像データは実施形態1よりも強く平滑化される。このため、顔領域及び口に対応する器官位置が、被写体の顔及び口の位置とずれていたとしても、強く平滑化処理を行うことで法線情報の凹凸が平坦になり、ライティング処理の際に位置ずれによる弊害を抑えることができる。
以上のとおり、本実施形態では、カラー画像データから抽出された顔領域及び器官位置の信頼度を決定し、決定した信頼度に応じて各領域の法線画像データの平滑度を設定する。そして、設定された平滑度に基づき、平滑度の高い法線画像データから順に平滑化処理と統合処理を繰り返し、ライティング処理に用いる統合法線画像データを生成する。これにより、顔領域や器官位置のずれによる弊害を抑えつつ被写体のライティング補正を行うことができる。
[実施形態3]
上述した実施形態では平滑度によらずライティング処理を行ったが、本実施形態では平滑度によりライティング処理を行う。具体的には、ライティング処理として新たに光沢を加える処理を追加する。この際、法線情報の平滑度に応じて光沢を加える度合いを変化させる。本実施形態では上述した実施形態と比較し、法線統合部305の処理及びライティング処理部308の処理が異なる。
本実施形態における法線統合部305は、平滑度が異なる複数の法線画像データの統合に加えて、複数の法線画像データに基づき平滑度マップを生成する処理も行う。図21は本実施形態における法線統合部305の処理の流れを示すフローチャートである。
ステップS2101において法線統合部305は、上述した実施形態と同様に図14で示した処理に従い、平滑度が異なる複数の法線画像データを統合して統合法線画像データを生成する。
ステップS2102において法線統合部305は、異なる平滑度に対応する平滑度領域をそれぞれ抽出する。本実施形態において平滑度領域には、高平滑度、中平滑度、低平滑度にそれぞれ対応する高平滑度領域、中平滑度領域、低平滑度領域があるものとする。ここで、高平滑度領域は高平滑度法線画像データのうち法線情報のある領域とし、本実施形態では被写体領域となる。中平滑度領域は中平滑度法線画像データのうち法線情報のある領域とし、本実施形態では被写体の顔領域となる。低平滑度領域は低平滑度法線画像データのうち法線情報のある領域とし、本実施形態では被写体の顔器官領域となる。また、高平滑度領域、中平滑度領域、低平滑度領域に対してそれぞれ異なる画素値を与える。この際、平滑度が低い領域ほど画素値の値を大きくする。
ステップS2103において法線統合部305は、ステップS2102で抽出された平滑度領域を統合し、平滑度マップを生成する。本実施形態では高平滑度領域、中平滑度領域、低平滑度領域を統合する。具体例を図22に示す。まず、高平滑度領域2201に対してフィルタサイズ大で平滑化処理を行う。平滑化処理はステップS408の法線画像データ統合処理で使用したものと同様のものが適用可能である。フィルタサイズ大で平滑化された平滑化領域2204と中平滑度領域2202を統合する。本実施形態では顔領域のみ中平滑度領域に対応した画素値で上書きする。そして、統合結果2205に対してフィルタサイズ中で平滑化処理を行う。フィルタサイズ中で平滑化された統合結果2206と低平滑度領域2203を統合する。本実施形態では顔器官領域のみ低平滑度領域に対応する画素値で上書きすることになる。統合結果2207に対してフィルタサイズ小で平滑化処理を行い、得られた結果を平滑度マップ2208とする。
以上の処理により、平滑度が小さな領域ほど大きな画素値を持つ平滑度マップを取得する。この画素値を後のライティング処理にて光沢に対する重みとして使用することにより、被写体に光沢を加える度合いを領域毎に変化させる。
本実施形態におけるライティング処理部308は、法線統合部305で生成された平滑度マップを、統合法線画像データとともにライティング処理に用いる。本実施形態におけるライティング処理は、上述した実施形態における処理に加えて新たに仮想光源による光沢を加える処理を行う。具体的には、ステップS1702において式(6)に従いライティング補正画像データを生成する処理を、下記の式(8)に従い行うように変更する。
ここで、uは平滑度マップの画素値であり、平滑度が小さい画素ほど大きな値となる。sは仮想照明による光沢の強度を示す値であり、既存の鏡面反射を表すBlinn−PhongモデルやTorrance−Sparrowモデルなどに従い算出することができる。例えば、下記の式(9)に従いsを算出することができる。
ここで、βは仮想照明による鏡面反射の強度、cは光沢の広がりを表すパラメータである。cが大きいほど鋭い光沢、cが小さいほどやわらかな光沢となる。上記の式(9)などで求められる光沢は法線ベクトルNで表される形状に対して敏感に変化する。Hはハーフベクトルであり、図23に示すように画素(i,j)の位置Pから仮想照明の位置Qへ向かう単位ベクトルVと、位置Pから撮像装置に対応する位置Cへと向かう単位ベクトルEとの平均ベクトルを大きさ1に正規化したものである。本実施形態では平滑度の低い領域では法線ベクトルNが被写体の形状に合致しているものとし、光沢の重みを大きくする。逆に平滑度の高い領域では、法線ベクトルNが被写体の形状に合致していないものとし、光沢の重みを小さくする。上記の処理により、被写体に対して不自然な光沢が付与されることを防ぐことができる。
本実施形態によるライティング処理の結果の例を図24に示す、図24(a)に示すライティング補正画像データ2401は、目・鼻・口の顔器官領域の平滑度が低い場合の統合法線画像データ1605と信頼度マップ2208に対応する結果となる。平滑度マップの画素値が大きい目・鼻・口周辺の顔器官領域に対して強い光沢が付与されている。図24(b)に示すライティング補正画像データ2404は、目・鼻の顔器官領域の平滑度が低い場合の統合法線画像データ2402と信頼度マップ2403に対応する結果となる。図24(a)と比較して口の平滑度が高く法線ベクトルが強く平滑化されるため、統合法線画像データ2402において口の凹凸が消えている。また、平滑度マップ2403に置いて口周辺の画素値が小さくなっている。このため、ライティング補正画像データ2404において口周辺の光沢が弱くなっている。
また、平滑度に応じて光沢の重みを加える度合いを変化させる代わりに、光沢の他の特性を変化させても構わない。例えば、光沢の広がりを変化させても構わない。これにより、法線ベクトルNが被写体の形状に合致していない領域に鋭い光沢が付与されることで違和感が発生することを抑制できる。具体的には、平滑度の低い領域では法線ベクトルNが被写体の形状に合致しているものとし、光沢の広がりを表すパラメータcを所定の値のまま使用する。逆に平滑度の高い領域では、法線ベクトルNが被写体の形状に合致していないものとし、cを所定の値より小さくなるように補正する。これにより、平滑度の高い領域では光沢の広がりが大きくなり、法線ベクトルNが被写体の形状に合致していない場合でも見た目の違和感を抑えることができる。なお、cは顔領域601や器官位置602などに基づき目、鼻、口などの領域ごとに異なる値が予め設定されるものとする。
以上により、顔領域や器官位置のずれによる弊害を抑えつつ被写体に光沢による立体感を加えることができる。
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
304 法線生成部
305 法線統合部
308 ライティング処理部

Claims (11)

  1. 画像データにおける、互いに少なくとも一部が異なる複数の領域のそれぞれについて、当該領域の画素毎に法線情報を記録する法線画像データを生成する生成手段と、
    生成された複数の法線画像データのそれぞれに対して、少なくとも2つ以上の互いに異なる平滑度のうち何れかの平滑度を設定する設定手段と、
    前記設定手段により設定された前記平滑度で、前記複数の法線画像データそれぞれを平滑化する平滑化手段と、
    前記平滑化手段により平滑化された前記複数の法線画像データを統合して、前記画像データの画素配置に対応する統合法線画像データを生成する統合手段と、
    前記統合法線画像データに基づき、前記画像データに対してライティング処理を行うライティング処理手段と
    を有することを特徴とする画像処理装置。
  2. 前記統合手段は、画素毎に前記複数の法線画像データのうち、前記平滑度が相対的に低い法線画像データの法線情報を採用することを特徴とする請求項1に記載の画像処理装置。
  3. 前記統合手段は、前記平滑度が高い法線画像データから前記複数の法線画像データを順に統合することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記統合手段は、前記複数の法線画像データを複数回の統合処理に分けて統合し、各統合処理の後に、当該統合処理において統合された法線画像データの前記平滑度が高いほど当該統合処理の結果を強く平滑化することを特徴とする請求項3に記載の画像処理装置。
  5. 前記法線画像データは、少なくとも被写体領域、顔領域、及び顔器官領域のいずれか1つに対応する法線画像データであることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記画像データに対応する距離画像データを取得する手段をさらに備え、
    前記生成手段は、前記距離画像データに基づき、前記被写体領域に対応する前記法線画像データを算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記画像データから顔情報を検出する顔検出手段をさらに備え、
    前記生成手段は、顔法線モデルを前記顔情報に基づき変形することにより、前記顔領域に対応する法線画像データを算出し、顔器官法線モデルを前記顔情報に基づき変形することにより、前記顔器官領域に対応する法線画像データを算出することを特徴とする請求項5または6に記載の画像処理装置。
  8. 前記平滑度は、前記複数の領域に対応する信頼度に応じて設定されることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記ライティング処理は、新たに光沢を加える処理を含み、前記ライティング処理手段は、前記平滑度に基づき、前記光沢の特性を領域毎に変化させることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 画像データにおける、互いに少なくとも一部が異なる複数の領域のそれぞれについて、当該領域の画素毎に法線情報を記録する法線画像データを生成する生成工程と、
    生成された複数の法線画像データのそれぞれに対して、少なくとも2つ以上の互いに異なる平滑度のうち何れかの平滑度を設定する設定工程と、
    前記設定工程により設定された前記平滑度で、前記複数の法線画像データそれぞれを平滑化する平滑化工程と、
    前記平滑化工程により平滑化された前記複数の法線画像データを統合して、前記画像データの画素配置に対応する統合法線画像データを生成する統合工程と、
    前記統合法線画像データに基づき、前記画像データに対してライティング処理を行うライティング処理工程と
    を含むことを特徴とする画像処理方法。
  11. 請求項10に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2016094074A 2016-05-09 2016-05-09 画像処理装置、画像処理方法及びプログラム Active JP6685827B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016094074A JP6685827B2 (ja) 2016-05-09 2016-05-09 画像処理装置、画像処理方法及びプログラム
US15/581,073 US10304164B2 (en) 2016-05-09 2017-04-28 Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094074A JP6685827B2 (ja) 2016-05-09 2016-05-09 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017204673A JP2017204673A (ja) 2017-11-16
JP2017204673A5 JP2017204673A5 (ja) 2019-10-10
JP6685827B2 true JP6685827B2 (ja) 2020-04-22

Family

ID=60242659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094074A Active JP6685827B2 (ja) 2016-05-09 2016-05-09 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10304164B2 (ja)
JP (1) JP6685827B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213718A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6685827B2 (ja) * 2016-05-09 2020-04-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2019026287A1 (ja) * 2017-08-04 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 撮像装置および情報処理方法
JP7020075B2 (ja) * 2017-11-22 2022-02-16 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
JP7102192B2 (ja) * 2018-03-30 2022-07-19 キヤノン株式会社 画像処理装置、その制御方法、プログラム
CN108846807B (zh) * 2018-05-23 2021-03-02 Oppo广东移动通信有限公司 光效处理方法、装置、终端及计算机可读存储介质
CN108737750A (zh) * 2018-06-07 2018-11-02 北京旷视科技有限公司 图像处理方法、装置及电子设备
JP7252439B2 (ja) * 2018-08-03 2023-04-05 フリュー株式会社 画像撮影装置及び画像撮影プログラム
JP6908013B2 (ja) * 2018-10-11 2021-07-21 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7296712B2 (ja) 2018-10-26 2023-06-23 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7422454B2 (ja) * 2019-02-06 2024-01-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7301683B2 (ja) 2019-09-11 2023-07-03 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN111729322A (zh) * 2020-06-15 2020-10-02 完美世界(北京)软件科技发展有限公司 模型的描边处理方法、装置、计算机设备及可读存储介质
CN111866373B (zh) * 2020-06-19 2021-12-28 北京小米移动软件有限公司 一种显示拍摄预览图像的方法、装置及介质
JP7541862B2 (ja) 2020-07-17 2024-08-29 キヤノン株式会社 画像処理装置、画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63180828A (ja) * 1987-01-22 1988-07-25 Agency Of Ind Science & Technol 高速処理化カラ−センサ
JPH05264245A (ja) * 1992-03-19 1993-10-12 Matsushita Electric Ind Co Ltd 画像処理装置
US6026249A (en) * 1996-10-01 2000-02-15 Fuji Photo Film Co., Ltd. Device for detecting the presence of recorded information on a magnetic film by comparing an envelope waveform with a threshold level
JP4165983B2 (ja) * 2000-02-16 2008-10-15 株式会社バンダイナムコゲームス ゲーム装置および情報記憶媒体
JP5088220B2 (ja) 2008-04-24 2012-12-05 カシオ計算機株式会社 画像生成装置、及びプログラム
JP5561954B2 (ja) * 2008-06-13 2014-07-30 キヤノン株式会社 記録媒体の坪量検知センサ、及び画像形成装置
KR20100047521A (ko) * 2008-10-29 2010-05-10 삼성전자주식회사 가상 조명을 이용한 영상 표시 방법 및 이를 이용한 단말기
CA2866131A1 (en) * 2012-03-02 2013-06-09 H4 Engineering, Inc. Multifunction automatic video recording device
JP6646936B2 (ja) * 2014-03-31 2020-02-14 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
US10303973B2 (en) * 2015-04-15 2019-05-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP6598660B2 (ja) * 2015-12-01 2019-10-30 キヤノン株式会社 画像処理装置および画像処理方法
JP6583008B2 (ja) * 2016-01-14 2019-10-02 富士通株式会社 画像補正装置、画像補正方法及び画像補正用コンピュータプログラム
JP6685827B2 (ja) * 2016-05-09 2020-04-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2017204673A (ja) 2017-11-16
US10304164B2 (en) 2019-05-28
US20170323465A1 (en) 2017-11-09

Similar Documents

Publication Publication Date Title
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
CN107852533B (zh) 三维内容生成装置及其三维内容生成方法
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5812599B2 (ja) 情報処理方法及びその装置
KR100681320B1 (ko) 헬름홀츠 교환조건으로부터 유도되는 편미분 방정식의레벨셋 풀이 방법을 이용한 물체의 3차원 형상 모델링 방법
JP2004094491A (ja) 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
KR102187143B1 (ko) 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
CN113628327A (zh) 一种头部三维重建方法及设备
CN111563924A (zh) 图像深度确定方法及活体识别方法、电路、设备和介质
JP6552266B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP7057086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4141090B2 (ja) 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体
CN111582120A (zh) 用于捕捉眼球活动特征的方法、终端设备
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2006331009A (ja) 画像処理装置及び画像処理方法
JP7197211B2 (ja) 三次元グラフィックスデータ作成方法、プログラム及び三次元グラフィックスデータ作成システム
JP2021145385A (ja) 画像処理装置、画像処理方法、およびプログラム
WO2022102015A1 (ja) 画像情報取得装置、画像情報取得方法及びコンピュータープログラム
RU2778288C1 (ru) Способ и устройство для определения освещенности изображения лица, устройство и носитель данных

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R151 Written notification of patent or utility model registration

Ref document number: 6685827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151