JP2019149719A - 画像処理装置及び方法、及び撮像装置 - Google Patents
画像処理装置及び方法、及び撮像装置 Download PDFInfo
- Publication number
- JP2019149719A JP2019149719A JP2018033673A JP2018033673A JP2019149719A JP 2019149719 A JP2019149719 A JP 2019149719A JP 2018033673 A JP2018033673 A JP 2018033673A JP 2018033673 A JP2018033673 A JP 2018033673A JP 2019149719 A JP2019149719 A JP 2019149719A
- Authority
- JP
- Japan
- Prior art keywords
- focus
- subject
- reflection component
- value
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 94
- 238000003384 imaging method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 title description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 52
- 230000001678 irradiating effect Effects 0.000 claims abstract description 5
- 238000009499 grossing Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000003672 processing method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 210000000056 organ Anatomy 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】 合焦していない被写体に対しても違和感の少ないリライティング処理を行うこと。【解決手段】 画像データを取得して、画像中の被写体を検出する検出手段と、検出された被写体の合焦度を算出する合焦度算出手段と、前記被写体に仮想的な光を照射する1以上の仮想光源のパラメータを設定する設定手段と、前記被写体に照射した前記仮想的な光のうち、前記被写体の法線の方向の第1の反射成分を算出する第1の反射成分算出手段と、前記被写体により反射された前記仮想的な光の反射光のうち、視線の方向の第2の反射成分を算出する第2の反射成分算出手段と、前記第1の反射成分と前記第2の反射成分とを、前記画像データに付加する付加手段と、を有し、前記第2の反射成分算出手段は、前記合焦度が前記合焦度が第1の値である場合に、前記第1の値よりも大きい第2の値である場合よりも、前記第2の反射成分が少なくなるように調整することを特徴とする。【選択図】 図5
Description
本発明は、画像処理装置及び方法、及び撮像装置に関し、特に入力された画像の明るさを補正する技術に関するものである。
従来、撮影後の画像中の被写体に対して、仮想的な光源からの光を照射し、リライティングを行う画像処理技術が知られている。この画像処理はリライティング処理と呼ばれ、リライティング処理を行うことにより、ユーザーが画像中の被写体に任意の陰影を付けることができる。
例えば、特許文献1では、被写体の顔領域に対して予め用意した陰影パターンを当てはめて陰影を付与することで、処理負荷を抑えつつ、望ましい陰影を持つ被写体の画像を得ることが開示されている。
しかしながら、特許文献1に記載のリライティング処理の手法では、予め用意した陰影パターンは被写体が合焦している条件で生成されたものであるため、合焦していない被写体にリライティング処理を行う場合に違和感が生じることがある。特に、急峻な輝きの仮想光源を設定する場合に違和感が生じやすい。
本発明は上記問題点を鑑みてなされたものであり、合焦していない被写体に対しても違和感の少ないリライティング処理を行うことを目的とする。
上記目的を達成するために、本発明の画像処理装置は、画像データを取得して、画像中の被写体を検出する検出手段と、前記検出手段により検出された被写体の合焦度を算出する合焦度算出手段と、前記被写体に仮想的な光を照射する1以上の仮想光源のパラメータを設定する設定手段と、前記被写体に照射した前記仮想的な光のうち、前記被写体の法線の方向の第1の反射成分を算出する第1の反射成分算出手段と、前記被写体により反射された前記仮想的な光の反射光のうち、視線の方向の第2の反射成分を算出する第2の反射成分算出手段と、前記第1の反射成分と前記第2の反射成分とを、前記画像データに付加する付加手段と、を有し、前記第2の反射成分算出手段は、前記合焦度が前記合焦度が第1の値である場合に、前記第1の値よりも大きい第2の値である場合よりも、前記第2の反射成分が少なくなるように調整する。
本発明によれば、合焦していない被写体に対しても違和感の少ないリライティング処理を行うことができる。
以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。なお、本実施形態では、本発明を適用する画像処理装置として、撮像装置であるデジタルカメラを例に取って説明する。
<第1の実施形態>
図1は、本実施形態にかかるデジタルカメラ100の構成を示すブロック図である。デジタルカメラ100は、光学系101、撮像素子102、A/D変換部103、画像処理部104、測距部105、顔検出部106、記録部107、制御部108、メモリ109、操作部110、表示部111を備えている。光学系101にはフォーカスレンズや絞り、シャッターが含まれる。この光学系101は、撮影時にはフォーカスレンズを駆動して被写体のピント合わせを行い、絞りやシャッターを制御することにより露光量の調節をする。撮像素子102は、光学系101により結像された被写体光を、光電変換によって電気信号にするCCDやCMOS等の光電変換素子である。A/D変換部103では、入力された電気信号をデジタル化する。デジタル化された電気信号(画像信号)は、画像処理部104において、同時化処理、ホワイトバランス補正処理、合焦度算出処理、リライティング処理、ガンマ処理などが行われ、得られた画像データが記録部107に出力される。
図1は、本実施形態にかかるデジタルカメラ100の構成を示すブロック図である。デジタルカメラ100は、光学系101、撮像素子102、A/D変換部103、画像処理部104、測距部105、顔検出部106、記録部107、制御部108、メモリ109、操作部110、表示部111を備えている。光学系101にはフォーカスレンズや絞り、シャッターが含まれる。この光学系101は、撮影時にはフォーカスレンズを駆動して被写体のピント合わせを行い、絞りやシャッターを制御することにより露光量の調節をする。撮像素子102は、光学系101により結像された被写体光を、光電変換によって電気信号にするCCDやCMOS等の光電変換素子である。A/D変換部103では、入力された電気信号をデジタル化する。デジタル化された電気信号(画像信号)は、画像処理部104において、同時化処理、ホワイトバランス補正処理、合焦度算出処理、リライティング処理、ガンマ処理などが行われ、得られた画像データが記録部107に出力される。
測距部105は、撮影時の被写体までの距離情報を取得して、距離マップを生成する。距離マップとは、撮影した画像の画素単位での被写体までの距離情報を示す、二次元配列のでデータである。顔検出部106は、画像処理部104で行うリライティング処理の被写体領域を決めるため、撮影画像中の人物の顔領域を検出する。顔領域の検出方法の一例として、例えば、右目、左目、口などの顔器官座標を検出して、右目と左目の距離など各顔器官同士の距離を算出し、この算出した距離に基づいて、背景領域を含まないように顔器官座標の重心座標を中心とする楕円領域を設定する。そして、この設定した楕円領域を顔領域として検出する。そして、顔検出部106は、検出した顔器官座標、顔領域、及び顔領域の中心座標を示す顔座標を含む顔情報(被写体情報)を出力する。
記録部107は、画像処理部104から出力された画像データをJPEG等の画像形式に変換し、記録する。制御部108は、本実施形態のデジタルカメラ100全体の動作制御を行う。例えば、撮影直前の被写体の明るさから、光学系101で目標とする露光量を算出する。他にも、撮影した画像に基づいて所定の評価値を算出し、画像処理部104で行う画像処理のパラメータを決定する。メモリ109には、画像処理部104で用いる情報を格納してあり、必要に応じて画像処理部104に出力する。操作部110は、ユーザーがデジタルカメラ100に対して操作指示を行うために用いられる。表示部111は、例えばカメラ背面に設置された液晶ディスプレイ等であり、撮影時の操作の補助を行うための画面や、記録部107に保存されている画像等を表示する。
次に、図2を参照して、画像処理部104について詳細に説明する。図2は本実施形態にかかる画像処理部104の構成を示すブロック図である。画像処理部104は、同時化処理部201、ホワイトバランス補正処理部202、合焦度算出部203、リライティング処理部204、ガンマ処理部205を備えている。
画像処理部104の処理の流れについて説明する。なお、本実施形態では、撮像素子102はベイヤー配列のカラーフィルタにより覆われているものとする。従って、撮像素子102の各画素からはR、G、Bいずれかの画像信号が出力される。そして、画像処理部104には、A/D変換部103で変換されたベイヤー配列の画像信号が入力される。画像処理部104に入力した画像信号R、G、Bに対して、まず、同時化処理部201において同時化処理を行い、各画素について色信号RGBを生成する。生成した色信号RGBはホワイトバランス補正処理部202に入力され、ホワイトバランス補正処理部202は、制御部108が算出したホワイトバランスゲイン値に基づいて色信号RGBにゲインをかけてホワイトバランスを調整する。ホワイトバランスが調整された色信号RGBはリライティング処理部204に出力される。
一方、合焦度算出部203は、測距部105から距離マップを入力すると共に、顔検出部106から顔情報を入力する。更に、合焦度算出部203は、メモリ109に格納された撮影時のカメラの設定値情報を読み込む。そして、設定値情報に含まれる撮影時にフォーカスを合わせた被写体の位置と、顔情報に含まれる顔座標が示す位置の距離マップの値とを比較することで、合焦度V_Focusを算出する。算出した合焦度V_Focusは、リライティング処理部204に出力される。なお、合焦度V_Focusの算出方法については、詳細に後述する。
リライティング処理部204は、ホワイトバランス補正処理部202から色信号RGBを、測距部105から距離マップD_MAPを、顔検出部106から顔情報を、そして合焦度算出部203から合焦度V_Focusを受ける。そして、色信号RGBに対して、仮想光を照射した画像を生成し(リライティング処理)、処理後の色信号R_out、G_out、B_outをガンマ処理部205に出力する。ガンマ処理部205は、リライティング処理された色信号R_out、G_out、B_outに対してガンマ処理を施し、ガンマ処理後の色信号Rg、Gg、Bgを記録部107に出力する。
次に、合焦度算出部203における合焦度V_Focusの算出処理について、図3、図4を用いて詳細に説明する。図3は、合焦度算出部203における処理を示すフローチャート、図4は、合焦度算出部203における重みパラメータW_Avと絞り値の関係を示す図である。
合焦度算出部203は、S301において、メモリ109から撮影時のカメラの設定値情報を取得する。ここで取得する設定値情報は、絞り値と、フォーカスレンズの位置とを含む。
次にS302において、測距部105から距離マップ、顔検出部106から顔情報を取得する。S303では、距離マップを参照し、顔情報に含まれる顔座標における距離値D_Faceと、撮影時にフォーカスを合わせた被写体の位置の距離値D_Focusとを取得する。そして、式(1)に示すように、D_FaceとD_Focusの差分絶対値であるD_Subを算出する。
D_Sub = |D_Face − D_Focus| …(1)
D_Sub = |D_Face − D_Focus| …(1)
S304では、重みパラメータW_Avを取得する。重みパラメータW_Avは、図4に示すように、撮影時の絞り値が大きい程、重みが小さくなる特性を持つ。閾値Th_Avは、予め定めた、被写界深度が十分に深い絞り値である。
S305では、D_Subの値と重みパラメータW_Avを用いて、式(2)に示すように合焦度V_Focusを求める。
V_Focus = 1/(D_Sub×W_Av+1) …(2)
V_Focus = 1/(D_Sub×W_Av+1) …(2)
ここで、重みパラメータW_Avについてさらに説明する。絞り値が異なる場合、D_FaceとD_Focusの差分絶対値D_Subが同じ値であっても、ぼけ具合が異なる。具体的には、差分絶対値D_Subが同じ値であっても、絞り値が小さい場合、被写界深度が浅くなるためぼけ具合は大きく、絞り値が大きい場合には、被写界深度が深くなるためぼけ具合は小さくなる。そこで、絞り値が小さいほど重みパラメータW_Avを大きくすることで、合焦度V_Focusの値が小さくなるようにして、合焦度の敏感度を調整する。なお、式(2)の右辺の「+1」は、差分絶対値D_Subが0(すなわち、顔に焦点が合っている場合)に、分母が0とならないようにするために加算しているが、これにより、被写体にフォーカスが合っている場合に最大値の1をとることになる。そして、差分絶対値D_Subが大きくなるほど(すなわち、顔がぼけるほど)分母が大きくなるため、0〜1の値をとる合焦度V_Focusを求めることができる。
最後にS306において、算出した合焦度V_Focusをリライティング処理部204に出力する。
なお、上述した例では、距離値D_Focusを、カメラの設定値情報に含まれるフォーカスを合わせた被写体の位置と、距離マップとから取得した。しかしながら、本発明はこれに限るものでは無く、カメラの設定値情報にフォーカスレンズ位置が含まれている場合、このフォーカスレンズ位置に基づいて合焦位置までの距離を求め、これを距離値D_Focusとしても良い。
続いて、リライティング処理部204の処理について、図5及び図6を用いて詳細に説明する。図5はリライティング処理部204の構成を示すブロック図、図6はリライティング処理部204における処理を示すフローチャートである。
リライティング処理部204は、仮想光源設定部500、法線取得部501、仮想光拡散反射成分算出部502、仮想光鏡面反射成分算出部503、仮想光付加処理部504を備える。
まずS601において、リライティング処理部204は、測距部105から距離マップ、ホワイトバランス補正処理部202から色信号RGB、顔検出部106から顔情報、合焦度算出部203から合焦度V_Focusを入力する。
S602では、法線取得部501において、顔検出部106から入力された顔情報に含まれる顔座標の位置における被写体の法線情報を取得する。法線情報は、本実施形態では一般的な人物の顔の法線情報をメモリ109に予め格納しておき、顔情報に含まれる顔器官座標から顔の向きを求め、最も撮影時の被写体に近い顔の法線情報を取得する。なお、顔検出部106において顔の向きが求められている場合、顔情報の1つとして取得しても良い。このようにして取得した法線情報を仮想光拡散反射成分算出部502と、仮想光鏡面反射成分算出部503へ出力する。
S603において、仮想光源設定部500は、顔検出部106から入力された顔情報を基に、仮想光源のパラメータを設定する。例えば、顔全体が暗い被写体に対して顔の明るさを全体的に明るくしたい場合においては、顔全体が仮想光源から仮想的に照射される光(以下、「仮想光」と呼ぶ。)の照射範囲に含まれるように、仮想光源の位置、仮想光の照射範囲、強度、色などのパラメータを制御する。なお、取得した画像に対してユーザが任意に仮想光源のパラメータを設定できるようにしても良い。
S604では、仮想光拡散反射成分算出部502において、拡散反射成分Rd、Gd、Bdを算出する。ここで、拡散反射成分の一般的な算出方法について、図7を用いて説明する。図7は撮影時のカメラ100と被写体701と仮想光源702との位置関係と、仮想光の反射特性を示した図である。なお、図7では説明の簡略化のために撮影画像の水平方向についてのみ示しているが、紙面に対して垂直な方向が撮影画像の垂直方向となる。以下の説明では、撮影画像における水平画素位置PHと不図示の垂直画素位置PVに対応する、被写体701上の点Pにおける仮想光の反射成分の算出方法について説明する。
図7において、仮想光源702は被写体701に対して設定した仮想光源である。カメラ100で撮影された撮影画像の位置(PH,PV)における仮想光の反射成分は、被写体701上の点Pにおける法線ベクトルNと仮想光源702の光源方向ベクトルLとの内積に比例し、仮想光源702と点Pとの距離Kの二乗に反比例する値となる。なお、法線ベクトルNと光源方向ベクトルLは、水平方向、垂直方向、及び奥行き方向(図7の距離Dで示す方向)からなる3次元のベクトルである。また、光源方向ベクトルLは、仮想光源702の位置と被写体701上の点Pの位置から求めることができる。この関係を数式で表現すると、仮想光の被写体701上の点Pにおける拡散反射成分強度Pdは以下の式(3)で表すことができ、色ごとの拡散反射成分Rd、Gd、Bdは以下の式(4)で表すことができる。
ここで、式(3)におけるαは仮想光の強度、kdは被写体の拡散反射率である。また、式(4)におけるR、G、Bはホワイトバランス補正処理部202から入力された色信号RGB、Rw、Gw、Bwは、仮想光の色(以下、「仮想光源色」と呼ぶ。)を示すパラメータ(光源色情報)である。
S605では、仮想光鏡面反射成分算出部503において、鏡面反射成分Rs、Gs、Bsを算出する。拡散反射成分Rd、Gd、Bdの算出方法と同様に図7を用いて鏡面反射成分Rs、Gs、Bsの算出方法を説明する。鏡面反射成分の強度は、被写体701の点Pにおける鏡面反射方向ベクトルS(仮想光の反射角の方向)と、被写体701上の点Pから撮影時のカメラ100の方向ベクトルV(視線の方向)の内積に比例する。この関係を数式で表現すると、仮想光源による鏡面反射成分強度Ps(すなわち、被写体による反射光の強度)は式(5)で表すことができる。
ここで、式(5)におけるαは仮想光の強度、ksは被写体の鏡面反射率、βは反射した光の広がり具合を示す輝き係数であり、この値が大きくなると鏡面反射特性が急峻になる。
次に、鏡面反射成分強度Psを用いて仮想光の照射時に照射対象に反映される鏡面反射色を算出する。まず、仮想光源色を反映させる第一の鏡面反射色成分Rs1、Gs1、Bs1を光源色情報Rw、Gw、Bwを用いて、式(6)のように表す。
Rs1 = Ps×Rw
Gs1 = Ps×Gw …(6)
Bs1 = Ps×Bw
Rs1 = Ps×Rw
Gs1 = Ps×Gw …(6)
Bs1 = Ps×Bw
また、被写体色を反映させる第二の鏡面反射色成分Rs2、Gs2、Bs2を、色信号RGBを用いて式(7)のように表す。
Rs2 = Ps×R
Gs2 = Ps×G …(7)
Bs2 = Ps×B
Rs2 = Ps×R
Gs2 = Ps×G …(7)
Bs2 = Ps×B
さらに第一の鏡面反射色成分Rs1、Gs1、Bs1と第二の鏡面反射色成分Rs2、Gs2、Bs2と、0〜1の値をとる合成比率aと、0〜1の値をとる鏡面反射ゲインbを用いて、鏡面反射成分Rs、Gs、Bsを式(8)のように表すことができる。
Rs = b×(a×Rs1+(1−a)×Rs2)
Gs = b×(a×Gs1+(1−a)×Gs2) …(8)
Bs = b×(a×Bs1+(1−a)×Bs2)
Rs = b×(a×Rs1+(1−a)×Rs2)
Gs = b×(a×Gs1+(1−a)×Gs2) …(8)
Bs = b×(a×Bs1+(1−a)×Bs2)
合成比率aの値が1に近づくほど鏡面反射成分の色は光源色に近づき、合成比率aの値が0に近づくほど、鏡面反射成分の色は被写体色に近づく。なお、仮想光源は複数設定することも可能であり、仮想光源毎にパラメータを制御することが可能である。
本実施形態における式(5)に記載の輝き係数βと、式(8)に記載の合成比率aと鏡面反射ゲインbは、それぞれ図8に示す特性によって算出される。図8は、輝き係数βと合成比率aと鏡面反射ゲインbの、合焦度V_Focusとの関係を示した図である。図8における閾値Th1とTh2は常にTh1<Th2の値をとる。閾値Th1は、被写体に鏡面反射の効果を十分に反映させるか否かを示す閾値であり、閾値Th2は、被写体が十分に合焦しているか否かを判別する閾値である。合焦度V_Focusが閾値Th1以下の場合、輝き係数βは値域の最小値をとり、合成比率aは最小値0をとり、鏡面反射ゲインbは単調増加する。合焦度V_Focusが閾値Th1より大きく、閾値Th2より小さい場合、輝き係数βと、合成比率aは単調増加し、鏡面反射ゲインは最大値1をとる。合焦度V_Focusが閾値Th2以上の場合、輝き係数βは値域の最大値となり、合成比率aは常に最大値1となり、鏡面反射ゲインbは常に最大値1をとる。
この特性に従って求められた輝き係数β、合成比率aと鏡面反射ゲインbによって鏡面反射成分Rs、Gs、Bsを算出する。
S606では、仮想光付加処理部504において、仮想光拡散反射成分算出部502で算出した拡散反射成分Rd、Gd、Bdと、仮想光鏡面反射成分算出部503で算出した鏡面反射成分Rs、Gs、Bsを、色信号R、G、Bに付加する処理を行う。仮想光源照射後の色信号R_out、G_out、B_outは、式(9)のように表すことができる。
R_out = R+Rd+Rs
G_out = G+Gd+Gs …(9)
B_out = B+Bd+Bs
R_out = R+Rd+Rs
G_out = G+Gd+Gs …(9)
B_out = B+Bd+Bs
S607において、このように算出した仮想光照射後の色信号R_out、G_out、B_out(仮想光照射画像)を、ガンマ処理部205に出力する。
なお、第1の実施形態では、リライティング処理による仮想光の照射対象の被写体を人物とし、画像中の被写体領域を撮影時に自動取得するために顔検出部106を用いている。しかし、仮想光の照射対象の被写体は人物に限らず、被写体に応じた被写体領域取得手段を用いても良い。
また、第1の実施形態では法線情報をメモリ109から直接取得する例について説明したが、法線情報ではなくても、被写体の立体形状を示すものであればどのような情報であっても構わない。例えば、被写体の立体形状を示す3次元のワイヤーフレーム情報であってもよい。この場合、ワイヤーフレームの各点の角度情報から法線を算出することができる。
また、第1の実施形態では、撮影画像に対して常にリライティング処理を行うものとして説明したが、リライティング処理を行わない場合には、仮想光源設定部500により設定される強度αを0にすればよい。または、リライティング処理部204をバイパスする構成としても良い。リライティング処理のオン/オフは、例えば、操作部110によりユーザが指示することができる。また、例えば、予め決められた撮影環境(例えば逆光)に応じて、自動的にオン/オフするような構成としても良い。
また、リライティング処理を行わずに一旦記憶された画像を、後でリライティング処理しても良い。その場合、ガンマ処理部205におけるガンマ処理と逆の特性の演算(デガンマ処理)を行ってリニアデータに変換した後、リライティング処理部204により処理を行う構成とする。従って、本願発明は、撮像手段を有さない画像処理装置に適用することが可能であり、その場合、画像処理部104は、例えば、記憶媒体から読み出された画像データやネットワークなどを介して入力される画像データ等に対して、リライティング処理を行うことができる。
上記の通り第1の実施形態によれば、被写体が合焦していない場合にも、違和感の少ないリライティング処理を行うことができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第2の実施形態では、リライティング処理部204において、第1の実施形態とは異なる処理を行う。図9は、第2の実施形態におけるリライティング処理部204の構成を示すブロック図である。第2の実施形態では、第1の実施形態で説明した図5に示す構成に対し、法線平滑化部901を追加し、合焦度算出部203で算出した合焦度に基づいて鏡面反射成分を制御する構成ではなく、合焦度に応じて取得した法線情報を制御する。なお、上記以外の構成及び制御は、第1の実施形態で説明したものと同様であるため、ここでは説明を省略する。
次に、本発明の第2の実施形態について説明する。第2の実施形態では、リライティング処理部204において、第1の実施形態とは異なる処理を行う。図9は、第2の実施形態におけるリライティング処理部204の構成を示すブロック図である。第2の実施形態では、第1の実施形態で説明した図5に示す構成に対し、法線平滑化部901を追加し、合焦度算出部203で算出した合焦度に基づいて鏡面反射成分を制御する構成ではなく、合焦度に応じて取得した法線情報を制御する。なお、上記以外の構成及び制御は、第1の実施形態で説明したものと同様であるため、ここでは説明を省略する。
法線平滑化部901は、合焦度算出部203から入力された被写体の合焦度に合わせた平滑化を行い、平滑化済み法線情報を、仮想光拡散反射成分算出部502と、仮想光鏡面反射成分算出部503に出力する。平滑化の方法としては、法線平滑化部901は、被写体の合焦度に応じて、メモリ109に格納されている平滑化フィルタを選択し、法線取得部501から入力された法線情報に適用する。平滑化フィルタは撮影時のレンズによって異なり、メモリ109にはレンズ毎に合焦度に応じたフィルタが格納されている。法線平滑化部901は撮影時のレンズ情報を参照し、メモリ109に格納された撮影時のレンズにおける、被写体の合焦度に応じたフィルタを選択し、選択したフィルタを用いて平滑化を行う。
第2の実施形態においても、第1の実施形態と同様にメモリ109に記憶されている法線情報を用いるが、この法線情報はフォーカスが合い、被写体の凹凸がはっきりしている状態における情報である。従って、フォーカスがずれて被写体の凹凸がぼけるほど、より滑らかな(より平滑化の度合いが高い)、凹凸の無い表面に対応した法線情報となるような平滑化フィルタを選択する。また、レンズによってぼけ具合が異なるため、本実施形態では、レンズ毎に合焦度に応じた平滑化フィルタを選択している。なお、レンズ毎では無く、合焦度のみに応じて平滑化フィルタを選択するようにしても良く、その場合であっても、平滑化を行わない場合よりもぼけ具合に応じた法線情報にすることができると共に、メモリ109の記憶領域を節約することができる。
このようにして平滑化された法線情報を用いて、仮想光拡散反射成分算出部502及び仮想光鏡面反射成分算出部503により、仮想光拡散反射成分と、仮想光鏡面反射成分とを算出して、画像データに付加する。
上記構成により、仮想光拡散反射成分にも合焦度を反映させることが可能になり、被写体が合焦していない場合にも、より違和感の少ないリライティング処理を行うことが可能になる。
<他の実施形態>
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ、101:光学系、102:撮像素子102、104:画像処理部、105:測距部、106:顔検出部、108:制御部、109:メモリ、110:操作部、203:合焦度算出部、204:リライティング処理部、500:仮想光源設定部、501:法線取得部、502:仮想光拡散反射成分算出部、503:仮想光鏡面反射成分算出部、504:仮想光付加処理部
Claims (11)
- 画像データを取得して、画像中の被写体を検出する検出手段と、
前記検出手段により検出された被写体の合焦度を算出する合焦度算出手段と、
前記被写体に仮想的な光を照射する1以上の仮想光源のパラメータを設定する設定手段と、
前記被写体に照射した前記仮想的な光のうち、前記被写体の法線の方向の第1の反射成分を算出する第1の反射成分算出手段と、
前記被写体により反射された前記仮想的な光の反射光のうち、視線の方向の第2の反射成分を算出する第2の反射成分算出手段と、
前記第1の反射成分と前記第2の反射成分とを、前記画像データに付加する付加手段と、を有し、
前記第2の反射成分算出手段は、前記合焦度が前記合焦度が第1の値である場合に、前記第1の値よりも大きい第2の値である場合よりも、前記第2の反射成分が少なくなるように調整することを特徴とする画像処理装置。 - 前記第2の反射成分算出手段は、前記合焦度が前記第1の値である場合に、前記第2の値である場合よりも、前記反射光の強度を低くすることを特徴とする請求項1に記載の画像処理装置。
- 前記第2の反射成分算出手段は、前記合焦度が前記第1の値である場合に、前記第2の値である場合よりも、前記第2の反射成分の強度を低くすることを特徴とする請求項1または2に記載の画像処理装置。
- 前記仮想的な光の反射光は、前記仮想的な光の色の成分と、前記被写体の色の成分とを含み、前記第2の反射成分算出手段は、前記第2の反射成分を算出する際に、前記合焦度が第1の値である場合に、前記第2の値である場合よりも、前記第2の反射成分における前記被写体の色の成分を大きくし、前記仮想的な光の色の成分を小さくすることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 距離情報と、撮影時の撮像手段の設定値情報を取得する取得手段と、を更に有し、
前記合焦度算出手段は、前記距離情報と前記設定値情報とに基づいて、前記合焦度を算出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 - 前記検出された被写体の被写体情報に基づいて、予め設定された複数の法線情報のいずれかを選択する選択手段と、
平滑化フィルタを用いて、前記法線情報を平滑化する平滑化手段と、を更に有し、
前記平滑化手段は、前記合焦度が前記第1の値の場合に、前記第2の値である場合よりも、平滑化の度合いが高い平滑化フィルタを用いることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 - 前記平滑化フィルタは複数の光学系に対応して設けられ、
前記平滑化手段は、前記画像の撮影時に用いた光学系に応じた前記平滑化フィルタを用いることを特徴とする請求項6に記載の画像処理装置。 - 光学系により結像された光を光電変換して、画像データを出力する撮像手段と、
請求項1乃至7のいずれか1項に記載の画像処理装置と
を有することを特徴とする撮像装置。 - 検出手段が、画像データを取得して、画像中の被写体を検出する検出工程と、
合焦度算出手段が、前記検出工程で検出された被写体の合焦度を算出する合焦度算出工程と、
設定手段が、前記被写体に仮想的な光を照射する1以上の仮想光源のパラメータを設定する設定工程と、
第1の反射成分算出手段が、前記被写体に照射した前記仮想的な光のうち、前記被写体の法線の方向の第1の反射成分を算出する第1の反射成分算出工程と、
第2の反射成分算出手段が、前記被写体により反射された前記仮想的な光の反射光のうち、視線の方向の第2の反射成分を算出する第2の反射成分算出工程と、
付加手段が、前記第1の反射成分と前記第2の反射成分とを、前記画像データに付加する付加工程と、を有し、
前記第2の反射成分算出工程では、前記合焦度が前記合焦度が第1の値である場合に、前記第1の値よりも大きい第2の値である場合よりも、前記第2の反射成分が少なくなるように調整することを特徴とする画像処理方法。 - コンピュータを、請求項1乃至7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
- 請求項10に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018033673A JP2019149719A (ja) | 2018-02-27 | 2018-02-27 | 画像処理装置及び方法、及び撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018033673A JP2019149719A (ja) | 2018-02-27 | 2018-02-27 | 画像処理装置及び方法、及び撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019149719A true JP2019149719A (ja) | 2019-09-05 |
Family
ID=67850864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018033673A Pending JP2019149719A (ja) | 2018-02-27 | 2018-02-27 | 画像処理装置及び方法、及び撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019149719A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021100328A1 (ja) * | 2019-11-22 | 2021-05-27 | ソニーグループ株式会社 | 画像処理方法、画像処理装置および画像処理システム |
-
2018
- 2018-02-27 JP JP2018033673A patent/JP2019149719A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021100328A1 (ja) * | 2019-11-22 | 2021-05-27 | ソニーグループ株式会社 | 画像処理方法、画像処理装置および画像処理システム |
CN114730070A (zh) * | 2019-11-22 | 2022-07-08 | 索尼集团公司 | 图像处理方法、图像处理装置和图像处理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200280667A1 (en) | Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject | |
US9801537B2 (en) | Image processing device and method, eye fundus image processing device, image photographing method, and eye fundus image photographing device and method | |
JP6381404B2 (ja) | 画像処理装置及び方法、及び撮像装置 | |
JP6935272B2 (ja) | ハイダイナミックレンジ画像を作成する装置、方法、及びプログラム | |
JP2016213718A (ja) | 画像処理装置及び画像処理方法、プログラム、記憶媒体 | |
JP6412386B2 (ja) | 画像処理装置およびその制御方法、プログラムならびに記録媒体 | |
JP7179472B2 (ja) | 処理装置、処理システム、撮像装置、処理方法、プログラム、および、記録媒体 | |
JP2019145097A (ja) | 設定装置及び方法、プログラム、記憶媒体 | |
JP2017147568A (ja) | 画像処理装置、撮像装置、制御方法及びプログラム | |
JP6917796B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP7199849B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2019149719A (ja) | 画像処理装置及び方法、及び撮像装置 | |
JP7311995B2 (ja) | 画像処理装置及び画像処理方法、プログラム、記憶媒体 | |
JP2017138927A (ja) | 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム | |
JP2016127388A (ja) | 画像処理装置およびその制御方法、プログラムならびに記憶媒体 | |
JP2014098859A (ja) | 撮像装置および撮像方法 | |
JP2019129469A (ja) | 画像処理装置 | |
JP7102192B2 (ja) | 画像処理装置、その制御方法、プログラム | |
JP2020024581A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7462464B2 (ja) | 画像処理装置および方法、プログラム、記憶媒体 | |
JP2014155000A (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JP7455578B2 (ja) | 画像処理装置および画像処理方法 | |
JP2016170637A (ja) | 画像処理装置および画像処理方法 | |
JP5929019B2 (ja) | 撮像装置 | |
JP6429655B2 (ja) | 画像処理装置、画像処理方法、及びプログラム |