JP2018205883A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2018205883A
JP2018205883A JP2017107875A JP2017107875A JP2018205883A JP 2018205883 A JP2018205883 A JP 2018205883A JP 2017107875 A JP2017107875 A JP 2017107875A JP 2017107875 A JP2017107875 A JP 2017107875A JP 2018205883 A JP2018205883 A JP 2018205883A
Authority
JP
Japan
Prior art keywords
image
area
correction
overlapping
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017107875A
Other languages
English (en)
Other versions
JP7039183B2 (ja
Inventor
潤二 多田
Junji Tada
潤二 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017107875A priority Critical patent/JP7039183B2/ja
Priority to US15/986,638 priority patent/US10796418B2/en
Publication of JP2018205883A publication Critical patent/JP2018205883A/ja
Application granted granted Critical
Publication of JP7039183B2 publication Critical patent/JP7039183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/92
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】複数の被写体が重なった画像領域にテカリが生じている場合であっても、正しい色味が得られる補正を実現可能にすることを課題とする。
【解決手段】顔堅守る回路(120)は、撮影画像から顔領域を検出する。信号処理回路(140)は、顔領域のテカリ領域を補正する補正パラメータを生成して、その補正パラメータを用いてテカリ領域を補正する。また、信号処理回路(140)は、複数の顔が重なる画像領域にテカリが生じた場合、テカリが何れの顔の画像領域に属するかを判定し、属すると判定された顔の画像領域の情報を基に、重なる画像領域に生じたテカリを補正する補正パラメータを生成する。
【選択図】図1

Description

本発明は、撮像等された画像を処理する画像処理装置、画像処理方法、プログラムに関する。
従来、撮影画像において、被写体の高輝度領域に対して補正を行う技術が知られている。この技術によれば、例えば環境光によって生じた顔のテカリ領域などを補正して、好ましい画像を得ることが可能となる。
また、例えば特許文献1には、画像から被写体の所定部位を検出し、それらの検出結果に基づいてテカリ領域を補正する方法が開示されている。特許文献1の技術では、被写体の所定部位として例えば顔と目や口などの各器官を検出し、それら各器官の位置や色などに基づいて各画素に対する補正の程度を決定している。これにより、輝度や明度を下げる必要のない部位についてはその高い輝度や明度が維持され、輝度を下げる必要のある肌のテカリが生じている部位のみに対して補正することが可能となる。
特開2005−327009号公報
前述したように特許文献1の技術では、被写体の所定部位の検出結果を利用したテカリ補正が行われている。このため、例えば画像内で複数の被写体が検出され、それら複数の被写体が重なっていて、その重なりの画像領域内にテカリが生じているような場合、そのテカリ領域が別の被写体の色を基に補正されてしまうことがある。このように間違った被写体の色に基づく補正が行われると、その部分だけ色味が変わる色ズレ(例えば顔領域の中でその部分だけ違った肌色になるような色ズレ)が生じ、不自然な画像になってしまう。
そこで本発明は、複数の被写体が重なった画像領域にテカリが生じている場合であっても、正しい色味が得られる補正を実現可能にすることを目的とする。
本発明は、撮影された画像から所定の被写体の画像領域を検出する検出手段と、前記検出した画像領域の高輝度領域を補正する補正パラメータを生成する生成手段と、前記補正パラメータを用いて前記高輝度領域を補正する補正手段と、を有し、前記生成手段は、複数の被写体が重なる画像領域に前記高輝度領域が生じた場合、前記高輝度領域が何れの被写体の画像領域に属するかを判定し、属すると判定された被写体の画像領域の情報を基に、前記重なる画像領域に生じた前記高輝度領域を補正する補正パラメータを生成することを特徴とする。
本発明によれば、複数の被写体が重なった画像領域にテカリが生じている場合であっても、正しい色味になる補正を実現可能となる。
実施形態の画像処理装置の構成例を示す図である。 本実施形態の画像処理を行う主要部を示した図である。 ブロック積分の説明図である。 補正ゲインの説明図である。 本実施形態におけるテカリ補正領域決定の説明図である。 顔が重なっている場合の一例を示す図である。 本実施形態におけるテカリ補正量算出処理のフローチャートである。 距離情報と距離情報に応じた信頼度の説明図である。 器官情報と器官情報に応じた信頼度の説明図である。 色情報と色情報に応じた信頼度の説明図である。 T値、重なっている面積、又は色の差分に応じた補正量の説明図である。 重なり領域よりテカリ領域が大きい場合の例を示す図である。
以下に、本発明の好ましい実施形態について、添付の図面に基づいて詳細に説明する。
[第1の実施形態]
図1は、本実施形態の画像処理装置の一適用としての撮像装置の構成例を示したブロック図である。撮像装置としては、デジタルスチルカメラやデジタルビデオカメラ、デジタルカメラ機能を備えたスマートフォンやタブレット端末、パーソナルコンピュータ等の各種情報端末、工業用カメラ、車載カメラ、医療用カメラなどの各種カメラを挙げることができる。
図1において、ユーザからユーザインタフェース(以下、UI装置111とする。)を介して撮影指示が入力されると、システムコントローラ107は、鏡筒装置102、撮像素子101、ストロボ装置112などを制御して、画像撮影の動作を行わせる。
鏡筒装置102は、レンズや絞り、メカシャッタなどを有し、画像撮影時には被写体等の光学像を撮像素子101の撮像面上に形成する。撮像素子101は、CMOSやCCD等の撮像デバイスと赤(R)、緑(G)、青(B)からなるカラーフィルタとを有して構成され、撮像面上に形成された光学像を光電変換により撮像信号に変換して、アナログフロントエンド回路(以下、AFE回路150とする。)に出力する。AFE回路150は、撮像素子101から出力されたRGBの撮像信号のゲイン調整およびA/D(アナログ/デジタル)変換を行い、RGBデータとして出力する。AFE回路150から出力されたRGBデータは、いわゆるRAW(生)データとして、バッファメモリ103に一時的に蓄えられる。
なお、図1において、システムコントローラ107や各回路間におけるデータと各種情報の送受信は、それらの間で直接行われる場合もあるが、概ねバッファメモリ103を介して行われる。ただし、以下の説明では、記載を簡略にするために、特に明示が必要な場合を除き、バッファメモリ103を介したデータや各種情報の送受が行われる場合であっても、バッファメモリ103を介していることの記載は省略することとする。
画像撮影開始後、システムコントローラ107は、画像撮影時に設定されているホワイトバランス(以下、WBとする。)モード、被写体輝度(Bv値)や撮影感度などの撮影条件を基に、WB検出設定値(白領域検出設定値)を算出する。そして、システムコントローラ107は、そのWB検出設定値を、WB検出回路170に設定する。WB検出回路170は、WB検出設定値を基に、バッファメモリ103に蓄積されているRGBデータ(RAWデータ)から白領域を抽出し、その白領域の情報をシステムコントローラ107に送る。システムコントローラ107は、WB検出回路170にて検出された白領域の情報を基にWB係数を算出し、そのWB係数をWB処理回路174に設定する。WB処理回路174は、そのWB係数を基に、バッファメモリ103に蓄積されているRGBデータ(RAWデータ)のWBを調整するWB処理を行う。このWB処理後のRGBデータは、バッファメモリ103を介して、信号処理回路140に送られる。
また、システムコントローラ107は、WB補正係数やガンマパラメータなどの画像処理パラメータを信号処理回路140に設定する。信号処理回路140は、WB処理後のRGBデータに対し、システムコントローラ107にて設定された画像処理パラメータに基づく信号処理を行い、輝度(Y)と色差(U,V)のYUVデータを出力する。本実施形態における信号処理回路140は、ノイズリダクション処理やガンマ補正処理、諧調設定処理、色変換処理、YUVデータの生成などの信号処理の他、後述するテカリ補正処理などを行う。画像処理パラメータと信号処理の詳細については後述する。信号処理回路140による信号処理後のYUVデータは、バッファメモリ103に一時的に蓄えられる。このバッファメモリ103に蓄積されたYUVデータは、その後、例えば記録、リサイズ処理、表示等に用いられる。
例えばYUVデータの記録が行われる場合、圧縮伸長回路104は、バッファメモリ103に蓄積されたYUVデータを読み出して画像圧縮処理を行い、例えばJPEGファイルのデータを生成する。そして、記録装置105は、そのJPEGファイルのデータを記録媒体106に記録する。
また例えば、YUVデータの画像(以下、YUV画像とする。)のリサイズ処理が行われる場合、リサイズ回路131は、バッファメモリ103に蓄積されたYUVデータを読み出してサイズ変換処理を行う。このサイズ変換処理されたYUVデータはバッファメモリ103に蓄積される。
また、YUV画像の表示が行われる場合、表示制御回路108は、バッファメモリ103に蓄積されたYUVデータを読み出して表示用データに変換する。表示制御回路108から出力された表示用データはD/A(デジタル/アナログ)変換回路109によりアナログ表示信号に変換された後、モニタ装置110に送られる。
モニタ装置110は、液晶表示装置等であり、D/A変換回路109から供給された表示信号に基づく映像を画面上に表示する。モニタ装置110に表示される映像は、静止画撮影等がなされる前後などにフレーム周期で撮像されるいわゆるライブ画像も含まれる。また、画像撮像時に、UI装置111を介してユーザによりカメラ撮影設定などが行われる場合、システムコントローラ107は、カメラ撮影設定用のUI画面データを生成し、そのUI画面データを表示制御回路108に送る。このときの表示制御回路108は、UI画面の表示用データを生成し、その表示用データがD/A変換回路109によりアナログ表示信号に変換されてモニタ装置110に送られる。これにより、モニタ装置110には、UI画面が表示される。なお、前述したYUV画像とUI画面を重畳表示させることも可能である。この場合、合成回路133は、バッファメモリ103から読み出したYUV画像にUI画面を合成する重畳処理を行い、その重畳処理後の画像データが表示制御回路108に送られる。そして、表示制御回路108は、重畳処理後の画像データから表示用データを生成してD/A変換回路109に出力し、これによりモニタ装置110では撮影画像(YUV画像)とUI画面の重畳表示がなされる。
画像補正回路160は、バッファメモリ103に蓄積された画像データ(RGBデータ又はYUVデータ)に対し、システムコントローラ107にて設定された画像補正値に基づく画像補正処理を行う。画像補正値に基づく画像補正処理としては、例えばレンズに起因する歪み等の各種画像歪み補正や、ユーザにて設定された色や輝度などへの補正処理、その他の様々な補正処理を挙げることができる。画像補正回路160による画像補正処理後の画像データは、バッファメモリ103に一時的に蓄えられる。
また、本実施形態の画像処理装置は、顔検出回路120、器官検出回路121、ヒストグラム回路130、ブロック積分回路132、簡易信号処理回路141をも有している。
簡易信号処理回路141は、バッファメモリ103からRGBデータを読み出して、システムコントローラ107による現像設定に基づく簡易信号処理を行って、YUVデータ(YUV画像)を生成する。
顔検出回路120は、簡易信号処理にて生成されたYUV画像から、被写体の人物の顔領域を検出し、さらにその検出した顔領域の画像内における座標位置を検出する。そして、顔検出回路120は、検出した顔領域の座標位置情報をバッファメモリ103に一時的に蓄積するとともに、器官検出回路121とヒストグラム回路130にも出力する。なお、顔検出回路120における顔検出処理の詳細は後述する。
器官検出回路121は、顔領域の座標位置情報を基に、簡易信号処理にて生成されたYUV画像の中の顔領域を特定し、その顔領域から顔を構成する各部位である口、目、眉などの各器官を検出し、それら各器官の画像内における各座標位置を検出する。器官検出回路121にて検出された各器官の座標位置情報は、バッファメモリ103に一時的に蓄積される。なお、器官検出回路121における器官検出処理の詳細は後述する。
ヒストグラム回路130は、顔領域の座標位置情報、各器官の座標位置情報を基に、バッファメモリ103のRGBデータの画像(RGB画像とする。)の中の顔領域を特定し、その顔領域の中で口や目、眉などの器官を除いた領域のヒストグラムを取得する。すなわち、ヒストグラム回路130は、顔領域の中で、口や目、眉などの肌色ではない各器官を除いた領域(肌色領域)における画素値のヒストグラムを取得する。ここで、本実施形態の場合、ヒストグラム回路130は、RGB画像の中の顔領域を複数に分割したブロック領域ごとにヒストグラムを取得することとする。このため、バッファメモリ103に蓄積されているRGB画像がブロック積分回路132に読み出される。ブロック積分回路132は、RGB画像の中の顔領域を複数のブロック領域に分割し、それらブロック領域ごとにRGBの各積分値(以下、ブロック積分値とする。)を算出し、それらをヒストグラム回路130に出力する。そして、ヒストグラム回路130は、それらブロック積分値のうち、口や目、眉などの器官を除いた肌色の各ブロック領域のヒストグラムを取得する。このようにしてヒストグラム回路130にて取得されたブロック領域ごとのヒストグラムの情報は、バッファメモリ103に一時的に蓄積される。なお、ブロック分割とブロック積分値の算出はRGB画像(つまり1画面分の画像)に対して行われてもよい。ヒストグラム回路130におけるヒストグラム取得処理の詳細は後述する。
本実施形態の画像処理装置においては、前述したように、顔領域とその座標位置情報、各器官の座標位置情報、ブロック領域ごとのヒストグラム等の情報が、バッファメモリ103に蓄積される。したがって、システムコントローラ107は、それら顔領域とその座標位置情報、各器官の座標位置情報、ブロック領域ごとのヒストグラムの情報を基に、顔領域のブロック領域ごとに彩度、色相、輝度などの詳細な情報を取得可能となる。同様に、システムコントローラ107は、顔領域内で口や目、眉などの肌色でない部分を除いた肌色部分において白飛びした高輝度領域、つまりテカリ領域やそのテカリの発生具合をブロック領域ごとに詳細に検出することができる。
なお、テカリとは、環境光源やストロボ光が被写体の人物の肌等の表面で反射し、撮像装置が取り込んだ入力信号値が飽和して色情報が失われ、肌の一部が白く撮像されてしまう(白く飛んでしまう)現象である。肌色の領域の中にテカリが生じて局所的に高輝度になった部分が存在すると、人物画像として好ましくない印象を与えてしまう。このため、撮像装置では、入力信号値が飽和している飽和領域(テカリが生じている領域)のある画像に対して、その飽和を補正してテカリを軽減するようなテカリ補正が行われる。
本実施形態の場合、テカリ補正処理は、信号処理回路140による信号処理の一つとして行われる。このため、システムコントローラ107は、画像処理パラメータの一つとしてテカリ補正パラメータを算出し、そのテカリ補正パラメータを含む画像処理パラメータを信号処理回路140に設定する。
図2(a)は、撮影画像から顔領域と各器官の情報が取得され、それら情報を基に算出されたテカリ補正パラメータを含む画像処理パラメータを用いて、信号処理回路140による信号処理が行われるまでの各部の処理の流れを表したブロック図である。
図2(a)において、バッファメモリ103から読み出されたRGBデータ201(RAWデータ)は、WB検出回路170、WB処理回路174、簡易信号処理回路141、ヒストグラム回路130、ブロック積分回路132に送られる。
WB検出回路170は、前述したようにシステムコントローラ107により設定されたWB検出設定値を基に、RGBデータ201から白領域を抽出する。WB検出回路170により検出された白領域の情報は、WB演算部173に送られる。なお、図2(a)では省略しているが、白領域の情報は画像処理パラメータ算出部180にも送られる。WB演算部173と画像処理パラメータ算出部180と後述するテカリ補正パラメータ算出部190とは、図1のシステムコントローラ107内に機能ブロックとして形成される構成である。
システムコントローラ107のWB演算部173は、WB検出回路170にて検出された白領域の情報を基に、WB係数を算出して、そのWB係数をWB処理回路174に設定する。WB処理回路174では、前述したように、WB係数を基にRGBデータ201に対するWB処理を行い、そのWB処理後のRGBデータを信号処理回路140に送る。
簡易信号処理回路141は、RGBデータ201から、簡易信号処理によりYUVデータを生成する。簡易信号処理回路141は、後段の顔検出回路120による顔検出と器官検出回路121による器官検出のみに用いられるYUVデータを生成する。このため、簡易信号処理回路141では、信号処理回路140にて行われるようなノイズリダクション処理やガンマ補正処理等の詳細な処理は実施しない。簡易信号処理回路141にて生成されたYUVデータは、顔検出回路120と器官検出回路121に送られる。
顔検出回路120は、簡易信号処理で生成されたYUV画像から顔領域を検出する。顔検出回路120は、顔検出処理の結果として、検出した顔領域、検出した顔領域の個数、画像内における顔領域の座標、顔領域ごとの顔検出の信頼度等の各情報を取得する。
ここで、顔検出処理の方法としては、例えば、ニューラルネットワークに代表される学習を用いた方法や、目や鼻、口、眉と言った物理的形状に特徴のある器官(部位)をいわゆるテンプレートマッチングにより画像から抽出する手法等を用いることができる。その他にも、肌の色や目の形といった画像の特徴情報を検出し、統計的手法を用いて解析する方法が挙げられる。特徴情報を検出して統計的手法を用いて解析する方法は、例えば特開平10−232934号公報や特開2000−48184号公報等に開示されている。その他にも、顔検出処理の方法としては、例えばウェーブレット変換と画像の特徴情報とを利用して顔を検出する方法等や、さらにテンプレートマッチング等を組み合わせた方法など、様々な顔検出方法の何れを用いてもよい。顔検出回路120による顔検出処理により得られた情報は、システムコントローラ107のテカリ補正パラメータ算出部190に送られるとともに、器官検出回路121にも送られる。なお、顔検出処理により得られた情報は、バッファメモリ103を介してヒストグラム回路130とブロック積分回路132にも送られる。
器官検出回路121は、簡易信号処理で生成されたYUV画像から、顔検出回路120にて検出された顔領域の中の各器官を検出する器官検出処理を行う。すなわち、器官検出回路121は、器官検出処理により、顔領域内の口、鼻、目、眉などの各器官の詳細な情報や、顔の角度などの情報を取得する。顔領域内の各器官(部位)の検出方法としては、前述した顔検出方法と同様にテンプレートマッチングを利用した方法やニューラルネットワークを利用した方法など、様々な方法の何れを用いてもよい。なお、特開2005−327009号公報に記載された方法を用いることも可能である。器官検出回路121による器官検出処理により得られた情報は、システムコントローラ107のテカリ補正パラメータ算出部190に送られる。
ブロック積分回路132は、RGBデータ201のRGB画像を前述したように複数のブロック領域に分割して、ブロック積分値を算出する。それらブロック積分値は、バッファメモリ103を介して前述したようにヒストグラム回路130に送られる。ヒストグラム回路130は、前述したように、顔領域と各器官の情報、およびブロック積分回路132による各ブロック積分値を基に、顔領域の中の肌色領域のブロック領域ごとの詳細なヒストグラムを取得する。ヒストグラム回路130にて取得されたヒストグラムの情報は、システムコントローラ107のテカリ補正パラメータ算出部190に送られる。
図3は、RGBデータ201のRGB画像310から検出された顔領域300と、その顔領域300を複数のブロック領域312に分割した様子を示したイメージ図である。図3には、顔領域300の中にテカリ領域301が存在している例が挙げられている。なお、各ブロック領域312のサイズ(積分値が算出される1ブロックの大きさ)は、顔領域300の大きさに合わせて可変されてもよい。また、ブロック分割が行われる範囲は、図3の例のように顔領域300を含む範囲だけでなく、画像310の略々全面に相当する範囲311となされてもよい。
テカリ補正パラメータ算出部190には、前述した顔領域の情報、各器官の情報の他、UI装置111を介してユーザにより画像撮影前又は画像撮影時に設定された情報(撮影時情報)も供給される。撮影時情報は、ユーザにより設定される情報であり、本実施形態では例えばテカリ補正の強度、テカリ補正処理を行うかどうかの情報等を含んでいる。例えばテカリ補正の強度を強くするように設定された場合、テカリ補正パラメータ算出部190は、例えば後述する図4(a)に示すような補正ゲインを強めるテカリ補正パラメータを設定する。テカリ補正パラメータ算出の詳細については後述する。そして、テカリ補正パラメータは、システムコントローラ107の画像処理パラメータ算出部180に送られる。
画像処理パラメータ算出部180は、前述したWB検出回路170にて検出された白領域の情報に応じた階調設定や色変換処理などの画像処理パラメータを決定し、それら画像処理パラメータに前述のテカリ補正パラメータを含めて信号処理回路140に送る。
信号処理回路140は、WB処理回路174によるWB処理後のRGBデータに対して、画像処理パラメータに応じた信号処理を施し、さらにYUVデータ202を生成する。信号処理回路140における処理の詳細は後述する。
図2(b)は、図2(a)のテカリ補正パラメータ算出部190とそれに関連した各回路等における処理の流れを表したブロック図である。図2(b)には、テカリ補正処理に関連する構成のみ示しているため、図2(a)のWB検出回路170、WB処理回路174、WB演算部173、簡易信号処理回路141、及び画像処理パラメータ算出部180の図示は省略している。また、図2(b)の輝度値算出部175と演算部211〜214は、信号処理回路140内のテカリ補正処理に係る構成である。なお、図2(b)の顔検出回路120、器官検出回路121、ブロック積分回路132、ヒストグラム回路130については前述の図2(a)と同様であるためそれらの説明は省略する。図2(b)に示すように、テカリ補正パラメータ算出部190は、テカリ補正特性決定部191、テカリ補正領域算出部192、テカリ補正色算出部193を有して構成される。
テカリ補正特性決定部191は、画像の輝度(入力輝度とする。)に応じた補正ゲインを決定する際の補正特性を表す補正特性パラメータを決定する。本実施形態の場合、テカリ補正特性決定部191は、ブロック積分回路132によるブロック積分値とヒストグラム回路130からのヒストグラムの情報を基に補正特性を決定する。
図4(a)、図4(b)は、入力輝度に応じた補正ゲインを決める補正特性を示した図であり、横軸が入力輝度、縦軸が補正ゲインを示している。
ここで、例えば図4(a)に示すように、入力輝度が大きくなるのにつれて、補正ゲインが大きく上昇するような補正特性を用いた場合、輝度が高い白飛び領域(テカリ領域)に対して効果的に補正を行うことが可能となる。一方、例えば図4(b)に示すように、入力輝度が大きくなっても補正ゲインの上昇が小さい補正特性を用いた場合、補正量を小さくすることが可能となる。このように、入力輝度と補正ゲインとの関係を可変させるようにすれば、補正特性を可変することが可能となる。
これら図4(a)や図4(b)のように補正特性を可変するために、本実施形態のテカリ補正特性決定部191は、画像中の顔領域内の白飛びの具合に応じて補正特性を決定するようになされている。具体的には、テカリ補正特性決定部191は、先ず、顔領域のブロック積分値と各器官の座標とを基に、顔領域の中の肌色領域である頬部、額部、鼻部のブロック領域の白飛び量を算出する。例えば、テカリ補正特性決定部191は、肌色領域である頬部、額部、鼻部のブロック積分値の平均値や、それらブロック領域の輝度平均値が、所定の閾値を超えたブロック数を算出して、それらブロック数を白飛び量として算出する。または、テカリ補正特性決定部191は、ヒストグラム回路130により取得されたヒストグラムから顔領域内において所定の明るさ以上となっているピクセル数を算出し、そのピクセル数を白飛び量として算出する。そして、テカリ補正特性決定部191は、前述したブロック数又はピクセル数による白飛び量、つまり白飛びの具合に応じて補正特性を可変する。テカリ補正特性決定部191は、このようにして決定した補正特性を表す補正特性パラメータを、テカリ補正パラメータの一つとして信号処理回路140の演算部211に送る。
テカリ補正領域算出部192は、顔領域内においてテカリ補正の対象となる範囲、つまり顔領域の中で目や口等の肌色でない器官の領域を除いた肌色領域をテカリ補正領域として算出し、そのテカリ補正領域を表すテカリ補正領域パラメータを決定する。本実施形態の場合、テカリ補正領域算出部192は、顔検出回路120にて検出された顔領域、器官検出回路121にて検出された各器官、および、ブロック積分回路132にて算出された各ブロック積分値を基に、テカリ補正領域パラメータを決定する。
図5は、様々な向き(顔の角度)の顔領域310の例を示しており、テカリ補正領域算出部192はこれら顔領域310に対してテカリ補正領域を決定する。図5の上段は、様々な向きの各顔領域310を示し、これら各顔領域310には、目305等の各器官が含まれ、また白飛びした高輝度領域であるテカリ領域301も存在しているとする。図5の中段は、上段の各顔領域310についてそれぞれ決定されたテカリ補正領域302を示しており、図5の下段は、各顔領域310について決定されたテカリ補正領域302の中でテカリ補正が行われない補正除去領域303を示している。この例の場合、補正除去領域303は、テカリ補正領域302の中に存在する器官(この例では目305)の領域となされている。
図5の例において、テカリ補正領域算出部192は、テカリ補正領域302を決定する際、顔領域と各器官の情報を基に、例えば両目(305)の座標間の距離から楕円の大きさを決定し、さらに両目の位置から楕円の中心位置を決定する。本実施形態では、この楕円がテカリ補正領域302の決定に用いられる。また、テカリ補正領域算出部192は、例えば各器官の位置関係から顔の角度を算出し、その角度を基に顔が正面からずれているか否か判定する。そして、テカリ補正領域算出部192は、顔が正面からずれている場合、そのずれの方向と角度を算出し、ずれの方向とは逆の方向に、ずれの角度に相当する分だけ楕円の中心をずらす。またこのときのテカリ補正領域算出部192は、ずれの角度に応じて楕円の大きさを(つまりテカリ補正領域302のサイズ)を修正する。これにより、顔領域310からテカリ補正領域302がはみ出すことによる弊害を除外することが可能となる。
さらに、テカリ補正領域算出部192は、各器官の情報とブロック積分値とを基に、高輝度であっても白飛び領域ではない例えば目305の器官領域を特定し、その領域をテカリ補正領域302から除外する補正除去領域303として設定する。また、テカリ補正領域算出部192は、テカリ補正領域302について楕円の中心から周辺に向けて補正強度を徐々に減少させていくことで、テカリ補正領域302とその周辺の補正領域外との切り替わりによる急激な変化が発生するのを軽減させるようにする。同様に、テカリ補正領域算出部192は、目305の器官の補正除去領域303についても、補正除去領域303の中心部分(目305の中心部分)は補正をしないように設定し、補正除去領域303の周辺になるにつれて補正強度を強めていく設定を行う。これにより、テカリ補正領域算出部192は、テカリ補正領域302と補正除去領域303との切り替わりによる急激な変化が発生するのを軽減させるようにしている。そして、テカリ補正領域算出部192は、このようにして設定したテカリ補正領域302を表すテカリ補正領域パラメータを、テカリ補正パラメータの一つとして信号処理回路140の演算部212に送る。
テカリ補正色算出部193は、補正目標色を基に、テカリ補正の際のテカリ補正色を算出し、その補正色を表すテカリ補正色パラメータを決定する。ここで、本実施形態において、テカリ補正は、補正色に補正ゲインを乗算し、RGBデータ201から減算することにより行われる。また本実施形態の場合、補正目標色は顔領域の肌色であり、例えば飽和値を考えた場合、飽和値から補正色の値を減算した後に肌色になっている必要があるため、飽和値と肌色の値との差分値が補正色の値になる。
例えばR,G,Bの値をそれぞれ8ビットで表した場合、肌色目標値は、
(R,G,B)=(230,200,170)
となり、一方、飽和値は、
(R,G,B)=(255,255,255)
となる。
したがって、その飽和値から肌色目標値を減算すると、補正色の値は、
(R,G,B)=(20,55,85)
となる。
ただし、被写体の明るさに応じて肌色目標値は異なってくるため、被写体の明るさに応じて補正色も可変させる必要がある。また例えば、人種や年齢、性別、個人差などによっても肌色目標値のRGBの比率が異なってくる。これらのことから、テカリ補正色算出部193では、顔領域のうち例えば両頬(つまり肌色と考えられる部位)のブロック領域で、且つRGBの各値の何れも飽和していないブロック領域から色味を算出し、それを肌色目標色に設定する。そして、テカリ補正色算出部193は、このようにして設定した肌色目標色に応じた補正色を算出し、その補正色を表すテカリ補正色パラメータを、テカリ補正パラメータの一つとして信号処理回路140の演算部213に送る。
信号処理回路140は、テカリ補正処理に係る構成として、図2(b)に示すように輝度値算出部175と演算部211〜214を有している。輝度値算出部175はRGB画像の各画素の輝度値からなる輝度値画像203を生成し、その輝度値画像203を演算部211に送る。演算部211は、前述した補正特性パラメータにより示される補正特性を基に、輝度値画像203の画素ごとの輝度値に応じた各補正ゲインを算出し、それら画素毎の各補正ゲインを演算部212に送る。演算部212は、輝度値画像203を基に算出された各補正ゲインから、前述したテカリ補正領域パラメータにより示されるテカリ補正領域に対応した各補正ゲインを抽出し、そのテカリ補正領域の各補正ゲインを演算部213に送る。演算部213は、前述した補正色パラメータにより示される補正色に、テカリ補正領域の各補正ゲインを乗算し、その補正ゲイン乗算後の各補正色の情報を、演算部214に送る。演算部214は、RGB画像であるRGBデータ201から、前述した補正ゲイン乗算後の各補正色を減算する。これにより、演算部214からは、テカリ補正領域内のテカリ領域に対するテカリ補正がなされた後のRGB画像が生成される。その後、信号処理回路140は、テカリ補正後のRGBデータからYUVデータ202を生成する。
以上が、本実施形態のテカリ補正パラメータの算出処理とテカリ補正処理の基本的な流れである。
以下、被写体の画像領域である顔領域が複数存在し、その中の幾つかの顔の例えば一部が重なっていて、その重なり領域内にテカリが生じている場合において、本実施形態の画像処理装置が行うテカリ補正処理について説明する。
図6は、被写体である二つの顔の一部が重なっていて、それら二つの顔領域600a,600bに重なり領域が存在している例を示した図である。図6の例では、顔領域600aより手前側(撮像装置に近い側)に顔領域600bが在り、その顔領域600b内にテカリ領域601bが存在しているとする。また、顔領域600a,600bの中の点線で囲われた領域は、それぞれの顔領域600a,600bで求められたテカリ補正領域602a,602bであるとする。そして、顔領域600bのテカリ領域601bは、顔領域600aのテカリ補正領域602aと顔領域600bのテカリ補正領域602bが重なっているとする。図6の例のように、顔領域600aと600bの重なった領域内にテカリ領域601bが存在する場合、どちらの顔領域の肌色を基に肌色目標値を算出するのかが問題となる。例えば、誤って顔領域600aの肌色を基に肌色目標値を算出して顔領域600bのテカリ領域601bの補正が行われると、顔領域600bではそのテカリ補正された領域だけが異なる色味の肌色となった不自然な顔画像が生成されてしまう虞がある。
このため、本実施形態の画像処理装置では、顔領域600a,600bのテカリ補正領域602a,602bが重なっていて、その重なり領域内にテカリが生じている場合、その重なった領域が顔領域600a,600bの何れの顔領域に属しているかを判定する。
図7には、テカリ補正領域の重なった領域が何れの顔領域に属するかを判定する処理のフローチャートを示す。本実施形態の場合、図7のフローチャートの処理は、例えばシステムコントローラ107により行われるとする。なお、図7のフローチャートでは、ステップS101〜ステップS105をそれぞれS101〜S105と略記する。また、図7のフローチャートの処理は、ハードウェア構成又はソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、図7のフローチャートの処理は、一例として不図示のROM等に格納されているプログラムをRAM等に展開し、システムコントローラ107が実行することなどにより実現可能である。本実施形態に係るプログラムは、ROM等に予め用意される場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりして、RAM等にロードされてもよい。
図7のS101において、システムコントローラ107は、画像が撮影された際に取得された距離情報を基に、テカリ補正領域の重なった領域が顔領域600aと600bの何れの顔領域に属しているかを判定する。画像が撮影された際に距離情報を取得する方法は公知の方法を用いることができる。例えば、画像の画素毎に距離情報を取得する方法として、一つの画素につき二つの受光素子(A素子とB素子)が設けられ、A素子とB素子の対からなる一つの画素につき一つのマイクロレンズが設けられた構造を有する撮像センサを用いる方法が知られている。この例の場合、鏡筒装置102を介した光像は、一つのマイクロレンズを介してA素子とB素子に分割受光されることで、視差を有したA像とB像の二つの画像信号として取得される。このような画素ごとの視差の情報により、撮像センサから被写体までの距離を算出することができる。
図8(a)は、前述した図6の顔領域600aと600bの画像例において、画素毎に距離情報を算出することで得られる、距離情報のみからなる距離画像810の一例を示している。そして、システムコントローラ107は、図6の顔領域600aと600bのそれぞれの平均距離を算出する。図8(a)の距離領域800aは図6の顔領域600aの平均距離情報を表し、距離領域800bは顔領域600bの平均距離情報を表しているとする。図8(a)に例示した距離画像810は、距離が白黒の濃淡(ドット密度の濃淡)で表されており、距離が長いほど黒に近い色になり(ドット密度が高くなり)、距離が短いほど白に近い色になる(ドット密度が低くなる)ように表されている。つまり、図6の例では顔領域600aよりも顔領域600bが手前側で距離が短いため、図8(a)に示す距離領域800aよりも距離領域800bが白に近い色になされている(ドット密度が低くなされている)。また、図6のテカリ補正領域602a,602bは、図8(a)では図中点線で囲われた領域802a,802bにより表されている。そして、図6のテカリ補正領域602a,602bの重なり領域は、手前側の顔領域600bの中に、つまり、図8(a)の距離画像810では距離が短い距離領域800bの中に、属している可能性が高いと考えられる。
本実施形態では、テカリ補正領域の重なり領域が何れの顔領域に属するかを判断する際には、距離情報だけでなく、図8(b)に示すテーブル850に基づく信頼度Aをも用いる。本実施形態の場合、信頼度Aは、例えば図8(b)に示すような信頼度Aと距離差の関係を表すテーブル850を基に設定される。図8(b)に示したテーブル850の信頼度Aは、テカリ補正領域の重なり領域が、距離の短い方の顔領域に属する可能性(確からしさ)の高さを表している。図8(b)に例示したテーブル850によれば、顔領域間の距離差が所定の距離差閾値以上(閾値thA以上)の場合、信頼度Aは、重なり領域が手前側(距離が短い側)の顔領域に属していると判定される値(例えば値「100」)に設定される。また、顔領域間の距離差が所定の距離差閾値未満(閾値thA未満)の場合、信頼度Aは、距離差が小さくなるほど徐々に低い値に設定され、距離差がゼロ(0)のときに例えば値「50」に設定される。なお、図8(b)のテーブル850の場合、奥側(距離が遠い方)の顔領域に対する信頼度は、(100−A)として表すことができる。したがって、距離差がゼロの場合、それら顔画像における信頼度Aの値は共に「50」となる。本実施形態において、この信頼度Aを用いるのは、各顔領域間の距離差が少ない場合は、距離情報が誤っている可能性があるため、距離情報だけでは手前にあるかどうかを断定できないためである。なお、図8(b)に示すテーブル850は、例えばシステムコントローラ107が備えているメモリに予め保持されているとする。このように、システムコントローラ107は、図8(a)に示した距離領域800a、800bの距離情報から顔領域間の距離差を算出し、その距離差と図8(b)のテーブル850を基に、重なり領域が何れの顔領域に属するかの判定に用いる信頼度Aを求める。
図7のフローチャートに説明を戻す。
S101の後、システムコントローラ107は、S102に処理を進める。S102において、システムコントローラ107は、器官検出回路121にて顔領域から検出された各器官の情報を基に、テカリ補正領域の重なり領域が何れの顔領域に属しているかを判定する。
図9(a)は、図6に示した顔領域600a,600bから、器官検出回路121により検出される各器官の一例を示した図である。器官検出回路121は前述したように各器官の座標位置を表す情報を検出する。このため、図9(a)の例の場合、手前側の顔領域600bからは、両目905bの例えば右端及び左端の座標位置の情報と、口906bの例えば左端及び右端の座標位置の情報とが検出される。一方、奥側の顔領域600aの場合、両目905aの右端と左端の座標位置の情報は検出されるが、口は手前側の顔領域600bに隠れているためその座標位置の情報は検出されない。したがって、複数の顔領域が検出されている場合において、顔領域の中に本来存在すべき各器官のうち何れかの器官の検出が出来ていないときには、その器官検出が出来ていない顔領域が奥側に位置している可能性が高いと判断することができる。図9(a)の例の場合、顔領域600aにおいて本来検出されるべき口の座標位置が検出できておらず、一方、顔領域600bでは本来検出されるべき両目905bと口906bの座標位置が検出されている。このため、顔領域600bが手前側であり、テカリ補正領域の重なり領域は顔領域600bに属していると判断することができる。
また、図9(a)に例示したように器官の情報を用いてテカリ補正領域の重なり領域が属する顔領域を判断する場合、例えば図9(b)に示すテーブルを用いて信頼度Bを設定する。図9(b)に示したテーブルは、顔領域内に本来存在するべき各器官が検出できたかどうかに応じた信頼度Bを設定するためのテーブルであり、例えばシステムコントローラ107が備えているメモリに予め保持されているとする。図9(b)のテーブルの信頼度Bは、顔領域内に本来存在するべき全ての器官が検出できている場合には、テカリ補正領域の重なり領域が、その顔領域に属している可能性が高いことを示す値(例えば値「100」)に設定される。一方、顔領域内に本来存在するべき全ての器官のうち何れか検出できていない器官が存在する場合には、テカリ補正領域の重なり領域が、その顔領域に属している可能性が低いことを示す値(例えば値「70」)に設定される。このように、システムコントローラ107は、図9(a)顔領域600a、600bから本来取得されるべき各器官の情報と図9(b)のテーブルとを基に、重なり領域が何れの顔領域に属するかの判定に用いる信頼度Bを求める。
図7のフローチャートに説明を戻す。
S102の後、システムコントローラ107は、S103に処理を進める。S103において、システムコントローラ107は、顔領域の色情報を基に、テカリ補正領域の重なり領域が何れの顔領域に属しているかを判定する。
図10(a)は、ブロック積分回路132によるブロック分割がなされた図6の顔領域600a,600bを示した図であり、前述したように顔領域600a,600bの重なった領域の中にテカリ領域601bが存在している。システムコントローラ107は、顔領域600a,600bのテカリ補正領域602a,602bの重なった領域の中で、各ブロックの信号値(積分値)が飽和していない各ブロックの領域1001bの色情報の平均値を算出する。なお、各ブロックの積分値は、前述したテカリ補正パラメータの算出時に用いたものを使用してもよい。また、ブロックのサイズによっては、テカリ補正領域の重なり領域内に1ブロックも収まらない場合も考えられるが、その場合は、より細かく分割したブロックの積分値を用いてもよい。ここで、テカリ補正領域の重なり領域内の飽和していないブロックの領域1001bの色情報の平均値と、顔領域の例えば両頬部の色情報とを比較した場合、テカリ補正領域の重なり領域は、それらの色情報の差分が小さい方の顔領域に属すると考えられる。
色情報の差分の算出方法には様々な手法を用いることができるが、本実施形態では、簡易的に例えば式(1)を用いて算出する。なお、式(1)において、(R1,G1,B1)は両頬部のブロックから得られるRGB値を表しており、(R2,G2,B2)は重なり領域内の飽和していないブロックの領域1001bから得られるRGB値を表している。
Figure 2018205883
また、この例の場合も、テカリ補正領域の重なり領域が何れの顔領域に属するかを判断する際には、図10(b)に示すテーブル1000に基づく信頼度Cをも用いる。図10(b)に示すテーブル1000は、重なり領域内で飽和していない領域(1001b)と頬部の色情報の差分と信頼度Cとの関係を表している。この図10(b)の信頼度Cは、テカリ補正領域の重なり領域が、色情報の差分の小さい方の顔領域に属する可能性(確からしさ)の高さを表している。図10(b)に示したテーブル1000によれば、色情報の差分が所定の第1の色差分閾値以下(閾値thC1以下)の場合、信頼度Cは、テカリ補正領域の重なり領域がその顔領域に属していると判定される値(例えば値「100」)に設定される。また、色情報の差分が第1の色差分閾値より大きく(閾値thC1より大きく)、第2の色差分閾値未満(閾値thC1より大きくthC2より小さい、thC1<thC2)の場合、信頼度Cは、差分が大きくなるほど徐々に低い値に設定される。また、色情報の差分が第2の色差分閾値以上(閾値thC2以上)のときには予め決められた最小信頼度の値に設定される。なお、図10(b)に示すテーブル1000も前述同様、例えばシステムコントローラ107が備えているメモリに予め保持されているとする。このように、システムコントローラ107は、重なり領域内で飽和していない領域と頬部の色情報の差分と、図10(b)のテーブル1000とを基に、テカリ補正領域の重なり領域が何れの顔領域に属するかの判定に用いる信頼度Cを求める。
図7のフローチャートに説明を戻す。
S103の後、システムコントローラ107は、S104に処理を進める。S104において、システムコントローラ107は、テカリ補正領域の重なり領域の肌色の目標値を算出する。本実施形態の場合、システムコントローラ107は、S101〜S103で算出された信頼度A,B,Cを用いて、肌色の目標値を算出する。一例として、システムコントローラ107は、各顔領域について算出した前述した信頼度A、信頼度B、信頼度Cを統合した値(T値とする。)を、顔領域ごとに算出する。ここでは、システムコントローラ107は、T値=(信頼度A)×(信頼度B)×(信頼度C)を算出する。
そして、システムコントローラ107は、例えばT値が高い方の顔領域の肌色を目標値として使用する。例えば図6のように顔領域600aと600bが重なり、顔領域600aで算出したT値をT1、顔領域600bで算出したT値をT2とした場合、システムコントローラ107は、T1とT2の何れかT値が高い方の顔領域の肌色を目標値として設定する。
また、顔領域600aの肌色が(R1,G1,B1)、顔領域600bの肌色が(R2,G2,B2)である場合、システムコントローラ107は、下記式(2)により顔領域の肌色の重み平均(Ra,Ga,Ba)を求めてそれを肌色の目標値としてもよい。
Ra=(R1×T1+R2×T2)/(T1+T2)
Ga=(G1×T1+G2×T2)/(T1+T2) 式(2)
Ba=(B1×T1+B2×T2)/(T1+T2)
ただし、式(2)は、信頼度のT1とT2の比を基に各顔領域の肌色の中間の色味を算出する演算式であり、その中間の色味が肌色目標値となされる。このため、その目標値の肌色は、顔領域の肌色から大きく色がずれることはないが、正確には何れの顔領域の肌色とも合っていないと考えられる。この場合、例えばテカリ補正量を大きくすると、色味が異なってしまう弊害が目立つ虞がある。したがってこの場合、以下のように算出される補正量の調整も合わせて行う必要がある。
S104の後、システムコントローラ107は、S105に処理を進める。S105において、システムコントローラは、テカリ補正領域の重なり領域内のテカリ領域に対するテカリ補正量を算出する。テカリ補正量は、前述したようにテカリ補正パラメータとして算出される。ここで、前述したように信頼度のT1とT2の比を基に各顔領域の肌色の中間の色味が肌色目標値となされた場合、システムコントローラ107は、テカリ補正量を以下のように調整する。
例えば、システムコントローラ107は、S104で算出した各顔領域のT値(T1,T2)のうち最大のT値が所定の閾値以下である場合、テカリ補正量を小さく調整、つまりテカリ補正の度合いが弱くなるようにテカリ補正量を調整する。または、システムコントローラ107は、各顔領域のT値(T1,T2)の差分が所定の閾値以下である場合、テカリ補正量を小さくする(テカリ補正の度合いを弱める)ように調整する。このようにT値が低い場合又はT値の差分が少ない場合にテカリ補正量を小さく調整するのは、重なり領域がどちらの顔領域に属するかの判定が誤っている可能性があるためであり、判定が誤っていた場合に生ずる色ズレの弊害を少なくするためである。
本実施形態の場合、システムコントローラ107は、例えば図11(a)に示すようなテーブル1100を用いてテカリ補正量の調整を行う。図11(a)に示すテーブル1100は、各顔領域のT値のうち例えば最大のT値と補正量の調整率との関係を表している。図11(a)に示したテーブル1100によれば、T値が所定の第1の信頼度閾値以下(閾値thT1以下)ある場合、補正量は最小値に調整される。また、T値が第1の信頼度閾値より大きく(閾値thT1より大きく)、第2の信頼度閾値未満(閾値thT2より小さい、thT1<thT2)の場合、補正量は、T値が小さくなるほど徐々に小さい値に調整される。一方、T値が第2の信頼度閾値以上(閾値thT2以上)のときには、前述の算出された補正量(「100%」)が用いられる。このように、システムコントローラ107は、図11(a)のテーブル1100を用い、T値に応じてテカリ補正量を調整することによってテカリ補正の度合いを調整する。なお、この図11(a)に示すテーブル1100も前述同様、例えばシステムコントローラ107が備えているメモリに予め保持されているとする。
なお、図示は省略しているが、各顔領域のT値(T1,T2)の差分を用いる場合についても、図11(a)と同様のテーブル(この場合はT値の差分と補正量の調整率との関係を表したテーブル)を基に補正量の調整を行ってもよい。例えば、T値の差分が所定の第1の信頼度差分閾値以下ある場合、補正量は最小値に調整され、T値の差分が第1の信頼度差分閾値より大きく、第2の信頼度差分閾値未満の場合、補正量は、T値の差分が小さくなるほど徐々に小さいに調整される。そして、T値の差分が第2の信頼度差分閾値以上のときには、算出された補正値が用いられる。
また、例えばテカリ補正領域の重なり領域の面積が小さいときには、例え誤った顔領域の色情報に基づく補正が行われたとしても、それによる弊害が比較的少ないと考えられる。同様に、重なりのある顔領域間の色の差分が小さい場合にも、誤った顔領域の色情報に基づく補正が行われたとしても、それによる弊害は比較的少ないと考えられる。このため、本実施形態において、テカリ補正領域の重なり領域の面積と、重なりのある顔領域間の色の差分との、少なくとも一方を基に、テカリ補正の度合いを決定してもよい。
図11(b)は、重なり領域の面積又は顔領域間の色の差分と、図11(a)の補正最小値との関係を表すテーブル1110を示している。図11(b)に示すように、テーブル1110は、テカリ補正領域の重なり領域の面積に応じてテーブル1110aからテーブル1110bに可変される。例えば、テカリ補正領域の重なり領域の面積が小さくなるにつれて、テーブル1110は、図11(a)の補正最小値を大きい値に調整する特性のテーブル1110aに可変される。また、図11(b)に示すように、テーブル1110は、重なりのある顔領域間の色の差分に応じてテーブル1110aからテーブル1110bに可変される。例えば、重なりのある顔領域間の色の差分が大きくなるにつれて、テーブル1110は、図11(a)の補正最小値を大きい値に調整する特性のテーブル1110aに可変される。このように、システムコントローラ107は、テカリ補正領域の重なり領域の面積と重なりのある顔領域間の色の差分との、少なくとも一つを基に、図11(a)の補正最小値を調整した上で、テカリ補正量の算出を行う。
また、弊害を極力無くすという意味では、テカリ補正領域の重なり領域についてはテカリ補正を行わないようにしてもよい。この場合、図11(a)のテーブル1100を全て0%にすればよいが、S101〜S104の計算結果を実質使わないことになるので、これら処理はスキップされてもよい。
なお、本実施形態では、距離情報、器官情報、色情報の三つを用いる場合について説明したが、このうちの一つの情報だけ、或いは二つの情報を用いて前述同様の判定を行うようにしてもよい。
第1の実施形態の画像処理装置は、複数の顔が重なった領域にテカリが生じていても、テカリ補正領域の重なり領域が何れの顔領域に属するかを判定でき、これにより正しい色味のテカリ補正が行え、誤った色味の補正による弊害が生ずるのを抑制できる。
[第2の実施形態]
次に、第2の実施形態の画像処理装置について説明する。
第2の実施形態では、図1に示した画像処理装置が適用される撮像装置で例えばストロボ装置112によるストロボ発光を行って静止画撮影が行われる場合において、テカリ補正領域が重なっている際の処理について説明する。なお、第2の実施形態の画像処理装置(撮像装置)の構成、及びテカリ補正の基本的な処理については、前述した第1の実施形態と同じであるため、構成の図示及びそれらの説明は省略する。
図12には、図6に例示した顔領域600a,600bのテカリ補正領域602a,602bが重なっている場合において、その重なり領域の大部分にテカリ領域1201bが生じている例を示している。このように、重なり領域の大部分にテカリ領域1201bが生じている場合、その重なり領域内でテカリが生じていない部分の肌色を抽出できないため、第1の実施形態で説明したような色情報を用いた処理は行えない。
そこで、第2の実施形態の場合、静止画撮像前に、画像確認用に周期的に撮像してモニタ装置110に表示されるライブ画像を用いて、重なり領域の色情報の判定を行う。このライブ画像は、周期的に撮像して表示するという性質上、一般的にストロボ発光を行わずに撮像がなされているため、テカリが生じていない可能性が高い。
第2の実施形態の場合、画像処理装置は、静止画撮影直前に表示用画像(ライブ画像)として撮像した画像から、重なり領域の色情報、及び各顔領域の頬部の色情報を検出する。具体的には、静止画画像から色情報を検出する場合と同様にブロック分割とブロック積分値を求め、重なり領域と各顔領域の頬部の領域のブロックの平均信号を取得する。
重なり領域が何れの顔領域に属するかの判定の際には、簡易的には静止画と同じブロックを用いればよいが、表示用画像と撮影される静止画像との間のタイムラグによって位置が若干ずれている場合がある。このため、静止画像を撮影した際には、表示用画像の顔検出結果を用いて、両頬と重なり領域の各ブロックを計算し直す。そして、表示用画像から取得した各領域の色情報を用いて、前述した式(1)などにより各顔領域と重なり領域との色の差分を求め、重なり領域は色の差分が最も小さい顔領域に属すると判定する。なお、第2の実施形態の場合も第1の実施形態と同様に、距離情報、器官情報による判定と組み合わせた判定を行ってもよい。また、第2の実施形態の場合も第1の実施形態と同様に、肌色の重み平均(中間の色味)を用いた補正量の算出、調整等を行ってもよい。
第2の実施形態によれば、例えばストロボ発光を行って静止画撮影がなされる場合のように重なり領域の大部分がテカリ領域となる場合であっても、重なり領域が何れの顔領域に属するかを判定できる。したがって、第2の実施形態においても、正しい色味でテカリ補正を行え、誤った色味で補正することによる弊害を抑制することができる。
[その他の実施形態]
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
前述の実施形態では、顔画像の肌色領域についてテカリ補正処理を行う例を挙げたが、本発明は顔画像の肌色領域のテカリ補正処理には限定されない。一例として、被写体が自動車である場合、その車体等の高輝度領域に対するテカリ補正等にも適用可能であり、この場合、複数の自動車が重なり、その重なり領域が何れの自動車の画像領域に属するかを判定でき、正しい色味でテカリ補正を行える。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
107:システムコントローラ、112:ストロボ装置、120:顔検出回路、121:器官検出回路、130:ヒストグラム回路、132:ブロック積分回路、140:信号処理回路、141:簡易信号処理回路、170:WB検出回路、173:WB演算部、174:WB処理回路、175:輝度値算出部、180:画像処理パラメータ算出部、190:テカリ補正パラメータ算出部、191:テカリ補正特性決定部、192:テカリ補正領域算出部、193:テカリ補正色算出部

Claims (22)

  1. 撮影された画像から所定の被写体の画像領域を検出する検出手段と、
    前記検出した画像領域の高輝度領域を補正する補正パラメータを生成する生成手段と、
    前記補正パラメータを用いて前記高輝度領域を補正する補正手段と、を有し、
    前記生成手段は、複数の被写体が重なる画像領域に前記高輝度領域が生じた場合、前記高輝度領域が何れの被写体の画像領域に属するかを判定し、属すると判定された被写体の画像領域の情報を基に、前記重なる画像領域に生じた前記高輝度領域を補正する補正パラメータを生成することを特徴とする画像処理装置。
  2. 前記生成手段は、画像を撮影する撮影装置から前記所定の被写体までの距離情報を基に、前記高輝度領域が何れの被写体の画像領域に属するかを判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記重なる画像領域に対応した前記複数の被写体のうち前記撮影装置までの前記距離情報が最も短い被写体の画像領域に、前記高輝度領域が属すると判定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記生成手段は、前記重なる画像領域に対応した前記複数の被写体の間の前記距離情報の差分に応じた信頼度を設定し、前記距離情報の差分に応じた信頼度を基に前記高輝度領域が何れの被写体の画像領域に属するかを判定することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記生成手段は、前記被写体を構成する複数の部位の情報を基に、前記高輝度領域が何れの被写体の画像領域に属するかを判定することを特徴とする請求項1から4の何れか1項に記載の画像処理装置。
  6. 前記生成手段は、前記重なる画像領域に対応した前記複数の被写体のうち、前記複数の全ての部位の情報が得られている被写体の画像領域に、前記高輝度領域が属すると判定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記生成手段は、前記重なる画像領域に対応した前記複数の被写体の各画像領域から取得されるべき各部位の情報に応じた信頼度を設定し、前記部位の情報の信頼度を基に前記高輝度領域が何れの被写体の画像領域に属するかを判定することを特徴とする請求項5又は6に記載の画像処理装置。
  8. 前記生成手段は、前記重なる画像領域の色情報と前記複数の被写体の画像領域の色情報とを基に、前記重なる画像領域が何れの被写体の画像領域に属するかを判定することを特徴とする請求項1から7の何れか1項に記載の画像処理装置。
  9. 前記生成手段は、前記重なる画像領域に対応した前記複数の被写体の画像領域のうち、前記重なる画像領域の色情報に最も近い色情報の画像領域を、前記重なる画像領域の属する被写体の画像領域と判定することを特徴とする請求項8に記載の画像処理装置。
  10. 前記生成手段は、前記重なる画像領域の色情報と前記複数の被写体の画像領域の色情報との差分に応じた信頼度を設定し、前記色情報の信頼度を基に前記重なる画像領域の属する被写体の画像領域の判定を行うことを特徴とする請求項8又は9に記載の画像処理装置。
  11. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の画像領域ごとの前記信頼度を基に、前記重なる画像領域の前記高輝度領域の補正の目標値を設定することを特徴とする請求項4、7、10の何れか1項に記載の画像処理装置。
  12. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の前記画像領域ごとの前記信頼度のうち最も信頼度が高い画像領域の所定の色情報を、前記補正の目標値として設定し、前記目標値を基に前記補正パラメータを生成することを特徴とする請求項11に記載の画像処理装置。
  13. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の前記画像領域ごとの前記信頼度の比を基に、前記複数の被写体の画像領域の色情報の中間の色情報を算出し、前記中間の色情報を前記補正の目標値として設定し、前記目標値を基に前記補正パラメータを生成することを特徴とする請求項11に記載の画像処理装置。
  14. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の前記画像領域ごとの前記信頼度のうち最大の信頼度が所定の閾値未満の場合、前記重なる画像領域の前記高輝度領域の補正量を、前記信頼度に応じて小さく調整した補正量の前記補正パラメータを生成することを特徴とする請求項13に記載の画像処理装置。
  15. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の前記画像領域ごとの前記信頼度の差分が所定の閾値未満の場合、前記重なる画像領域の前記高輝度領域の補正量を、前記信頼度の差分に応じて小さく調整した補正量の前記補正パラメータを生成することを特徴とする請求項13に記載の画像処理装置。
  16. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の画像領域の色味の中間の色味を基に、前記重なる画像領域の前記高輝度領域の補正を行う場合、前記重なる画像領域の面積と、前記重なる画像領域に対応した複数の被写体の画像領域の間の色情報の差分との、少なくとも一つに基づいて、前記重なる領域の前記高輝度領域の補正量を調整することを特徴とする請求項1から15の何れか1項に記載の画像処理装置。
  17. 前記生成手段は、前記重なる画像領域の面積が小さくなるにつれて、前記重なる画像領域の前記高輝度領域の補正量の最小値を大きい値に調整することを特徴とする請求項16に記載の画像処理装置。
  18. 前記生成手段は、前記重なる画像領域に対応した複数の被写体の画像領域の間の色情報の差分が大きくなるにつれて、前記重なる画像領域の前記高輝度領域の補正量の最小値を大きい値に調整することを特徴とする請求項16に記載の画像処理装置。
  19. 前記生成手段は、前記撮影された画像がストロボ発光して撮影された画像である場合、前記ストロボ発光して撮影する前の周期的な撮像時に取得された画像の前記重なる画像領域および前記被写体の画像領域の情報を基に、前記ストロボ発光して撮影された画像の前記重なる画像領域の高輝度領域を補正する補正パラメータを生成することを特徴とする請求項1から18の何れか1項に記載の画像処理装置。
  20. 前記検出手段は、前記所定の被写体の画像領域として人の顔の画像領域を検出し、
    前記補正手段は、前記顔の画像領域の肌色領域の中の前記高輝度領域を補正する補正パラメータを生成することを特徴とする請求項1から19の何れか1項に記載の画像処理装置。
  21. 撮影された画像から所定の被写体の画像領域を検出する検出工程と、
    前記検出した画像領域の高輝度領域を補正する補正パラメータを生成する生成工程と、
    前記補正パラメータを用いて前記高輝度領域を補正する補正工程と、を有し、
    前記生成工程では、複数の被写体が重なる画像領域に前記高輝度領域が生じた場合、前記高輝度領域が何れの被写体の画像領域に属するかを判定し、属すると判定された被写体の画像領域の情報を基に、前記重なる画像領域に生じた前記高輝度領域を補正する補正パラメータを生成することを特徴とする画像処理装置の画像処理方法。
  22. コンピュータを、請求項1から20の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017107875A 2017-05-31 2017-05-31 画像処理装置、画像処理方法、及びプログラム Active JP7039183B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017107875A JP7039183B2 (ja) 2017-05-31 2017-05-31 画像処理装置、画像処理方法、及びプログラム
US15/986,638 US10796418B2 (en) 2017-05-31 2018-05-22 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017107875A JP7039183B2 (ja) 2017-05-31 2017-05-31 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018205883A true JP2018205883A (ja) 2018-12-27
JP7039183B2 JP7039183B2 (ja) 2022-03-22

Family

ID=64460396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017107875A Active JP7039183B2 (ja) 2017-05-31 2017-05-31 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10796418B2 (ja)
JP (1) JP7039183B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904788B2 (ja) * 2017-05-25 2021-07-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
TWI660633B (zh) * 2018-04-13 2019-05-21 瑞昱半導體股份有限公司 基於膚色資訊的白平衡校正方法及其影像處理裝置
JP7307541B2 (ja) * 2018-12-19 2023-07-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2020199141A1 (zh) * 2019-04-02 2020-10-08 深圳市大疆创新科技有限公司 过曝恢复处理方法、设备及计算机可读存储介质
JP2021114111A (ja) * 2020-01-17 2021-08-05 Necソリューションイノベータ株式会社 撮像支援装置、撮像支援方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327009A (ja) * 2004-05-13 2005-11-24 Omron Corp 画像補正装置
JP2007312349A (ja) * 2005-10-12 2007-11-29 Matsushita Electric Ind Co Ltd 視覚処理装置、表示装置および集積回路
JP2010200312A (ja) * 2009-01-28 2010-09-09 Nikon Corp 電子カメラおよび画像処理プログラム
JP2011044132A (ja) * 2009-07-23 2011-03-03 Casio Computer Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2014121079A (ja) * 2012-12-19 2014-06-30 Canon Inc 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2016076851A (ja) * 2014-10-07 2016-05-12 株式会社リコー 撮像装置、画像処理方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JP2000048184A (ja) 1998-05-29 2000-02-18 Canon Inc 画像処理方法及び顔領域抽出方法とその装置
US8270753B2 (en) * 2005-06-14 2012-09-18 Nikon Corporation Image processing device, computer program product, and image processing method to restore signals in a saturated area
JP4952845B2 (ja) 2010-09-09 2012-06-13 株式会社ニコン 交換レンズ、カメラボディおよび電子機器
JP6440604B2 (ja) * 2015-09-29 2018-12-19 富士フイルム株式会社 被写体評価システム,被写体評価方法,被写体評価プログラムおよびそのプログラムを格納した記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327009A (ja) * 2004-05-13 2005-11-24 Omron Corp 画像補正装置
JP2007312349A (ja) * 2005-10-12 2007-11-29 Matsushita Electric Ind Co Ltd 視覚処理装置、表示装置および集積回路
JP2010200312A (ja) * 2009-01-28 2010-09-09 Nikon Corp 電子カメラおよび画像処理プログラム
JP2011044132A (ja) * 2009-07-23 2011-03-03 Casio Computer Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2014121079A (ja) * 2012-12-19 2014-06-30 Canon Inc 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2016076851A (ja) * 2014-10-07 2016-05-12 株式会社リコー 撮像装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20180350048A1 (en) 2018-12-06
JP7039183B2 (ja) 2022-03-22
US10796418B2 (en) 2020-10-06

Similar Documents

Publication Publication Date Title
JP7039183B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101142316B1 (ko) 화상 선택 장치 및 화상 선택 방법
US8493458B2 (en) Image capture apparatus and image capturing method
JP2000228747A (ja) 画像処理装置
KR20090078583A (ko) 저조도 영상 처리 방법 및 시스템
JP2010039758A (ja) 画像処理装置及び画像処理方法
CN105960658B (zh) 图像处理装置、摄像装置、图像处理方法以及可通过计算机处理的非暂时性的存储介质
JP6904788B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021128791A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2011228807A (ja) 画像処理プログラム、画像処理装置、および画像処理方法
CN106134180A (zh) 图像处理装置和方法、存储能够由计算机临时读取的图像处理程序的记录介质、摄像装置
US11120533B2 (en) Information processing method and information processing apparatus
JP2009123081A (ja) 顔検出方法及び撮影装置
US11069031B2 (en) Image processing apparatus, control method for image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium to control reflected color components of input image
JP6740109B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN116266877A (zh) 图像处理设备和方法、摄像设备和计算机可读介质
JP6492452B2 (ja) 制御システム、撮像装置、制御方法およびプログラム
JP2017153045A (ja) 画像処理装置、撮像装置およびそれらの制御方法ならびにプログラム
JP2015119436A (ja) 撮像装置
JP6991750B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5351663B2 (ja) 撮像装置およびその制御方法
JP2012178191A (ja) 画像処理装置及び画像処理方法
CN110166716B (zh) 图像处理设备和图像处理方法
JP2017147535A (ja) ホワイトバランス調整装置、ホワイトバランス調整方法、ホワイトバランス調整プログラム及び撮影装置
JP5929019B2 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220309

R151 Written notification of patent or utility model registration

Ref document number: 7039183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151