JP2013026814A - 撮像装置、画像処理プログラム、及び記憶媒体 - Google Patents

撮像装置、画像処理プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2013026814A
JP2013026814A JP2011159606A JP2011159606A JP2013026814A JP 2013026814 A JP2013026814 A JP 2013026814A JP 2011159606 A JP2011159606 A JP 2011159606A JP 2011159606 A JP2011159606 A JP 2011159606A JP 2013026814 A JP2013026814 A JP 2013026814A
Authority
JP
Japan
Prior art keywords
image
pixel
unit
imaging device
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011159606A
Other languages
English (en)
Inventor
Kazuyoshi Takahashi
和敬 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011159606A priority Critical patent/JP2013026814A/ja
Publication of JP2013026814A publication Critical patent/JP2013026814A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 被写界深度を浅くして撮影したような画像を容易に取得することを目的とする。
【解決手段】 第1画像を取得する撮像部と、撮像部により取得された第1画像に対してローパスフィルタ処理を施し、第2画像を生成する処理部と、撮像部により取得された第1画像から、合焦領域の位置を判定する合焦位置判定部と、合焦位置判定部により判定された合焦領域の位置に基づいて、第1画像と第2画像とを合成するときの、第1画像の各画素と該第1画像の各画素に対応する第2画像の各画素とを混合する割合を画素毎に算出する算出部と、第1画像の各画素と、該第1画像の各画素に対応する第2画像の各画素とを算出部により画素毎に算出された割合を用いて混合することで、第1画像と前記第2画像とを合成する合成部とを備えたことを特徴とする。
【選択図】 図1

Description

本発明は、撮像装置、画像処理プログラム、及び記憶媒体に関する。
従来から、ポートレート撮影においては、被写界深度を浅くして意図的に前景や背景の領域をぼかし、主要被写体を浮かび上がらせる写真表現が好まれている。ところが、コンパクトデジタルカメラ等の撮像装置は、用いられる撮像素子の大きさや絞りの構成などに起因して、上記のような写真表現を苦手とすることが多い。このため、画像に含まれる被写体領域以外の領域(背景領域)に対して平滑化処理を施すことで、背景をぼかし主要被写体を浮かび上がらせた画像、言い換えれば擬似的に被写体深度が浅い画像を取得する撮像装置が提案されている(特許文献1参照)。
特開2009−27298号公報
この特許文献1では、背景領域に対して一律のぼけ量となるように平滑化処理を行う、又は背景領域を距離に応じて複数の領域に分割し、分割された複数の領域毎に距離に応じたぼけ量となるように各領域に対する平滑化処理を行っている。しかしながら、平滑化処理により背景領域を一律にぼかした画像の場合、平滑化処理を施した背景領域と、平滑化処理を施さない被写体領域との鮮鋭度の差が大きく、違和感を生じる画像となりやすい。また、背景領域の各領域を距離に応じてぼかした画像の場合、領域毎にぼけ量が異なることから、背景領域を一律にぼかした画像よりも違和感を与えない画像となるが、上述した鮮鋭度の差が、背景領域を分割した複数の領域のうち、隣り合う領域との境界にも発生することから、結果的に、鮮鋭度の荒さが目立ち、違和感を与えてしまう。
そこで、本発明は、鮮鋭度の荒さを抑制した被写体深度が浅い画像を擬似的に取得することができるようにした撮像装置、画像処理プログラム、及び記憶媒体を提供することを目的とする。
本発明の撮像装置は、第1画像を取得する撮像部と、前記撮像部により取得された前記第1画像に対してローパスフィルタ処理を施し、第2画像を生成する処理部と、前記撮像部により取得された前記第1画像から、合焦領域の位置を判定する合焦位置判定部と、前記合焦位置判定部により判定された前記合焦領域の位置に基づいて、前記第1画像と前記第2画像とを合成するときの、前記第1画像の各画素と該第1画像の各画素に対応する前記第2画像の各画素とを混合する割合を画素毎に算出する算出部と、前記第1画像の各画素と、該第1画像の各画素に対応する前記第2画像の各画素とを前記算出部により画素毎に算出された前記割合を用いて混合することで、前記第1画像と前記第2画像とを合成する合成部とを備える。
本発明の画像処理プログラムは、第1画像に対してローパスフィルタ処理を施し、第2画像を生成する処理工程と、前記第1画像から、合焦領域の位置を判定する合焦位置判定工程と、前記合焦位置判定工程により判定された前記合焦領域の位置に基づいて、前記第1画像と前記第2画像とを合成するときの、前記第1画像の各画素と該第1画像の各画素に対応する前記第2画像の各画素とを混合する割合を画素毎に算出する算出工程と、前記第1画像の各画素と、該第1画像の各画素に対応する前記第2画像の各画素とを前記算出部により画素毎に算出された前記割合を用いて混合することで、前記第1画像と前記第2画像とを合成する合成工程とを備える。
本発明の撮像装置、画像処理プログラム、及び記憶媒体によれば、鮮鋭度の荒さを抑制した被写体深度が浅い画像を擬似的に取得することができる。
本発明の第1実施形態における撮像装置10の構成を示すブロック図である。 3行3列のローパスフィルタの一例を示す図である。 (A)は、合焦領域の位置を示す図、(B)は、図3(A)の「5」の領域を合焦領域とする場合における、Mxyとxとの関係の例を示す図、(C)は、「5」の領域を合焦領域とする場合における画像P’の透過度合いの例を示す図である。 第1実施形態における撮影時の流れを説明するフローチャートである。 第2実施形態の撮像装置10の構成を示すブロック図である。 (A)は、撮像装置10の姿勢が横位置である例を示す図、(B)は、撮像装置10の姿勢が右側を上にした縦位置である例を示す図、(C)は、撮像装置10の姿勢が左側を上にした縦位置である例を示す図である。 (A)は、画像Pの例を示す図、(B)は、合焦領域の位置を示す図、(C)は、「5」及び「8」の領域を合焦領域とする場合における画像P’の透過度合いの例を示す図、(D)は、合成した画像P”の例を示す図である。
(第1実施形態)
以下、図面を用いて本発明の第1実施形態について説明する。図1は、本発明の第1実施形態における撮像装置10の構成を示すブロック図である。
図1に示すように、撮像装置10は、撮像レンズ11、撮像素子12、A/D変換部13、バッファメモリ14、画像処理部15、表示部16、メモリ17、記録I/F部18、記録媒体19、操作部20、制御部21、バス22を備える。
撮像レンズ11は、撮像素子12の結像面に被写体像を結像する。撮像素子12は、撮像レンズ11を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮影モードの待機状態において、制御部21の制御により、撮像素子12は、1フレームに対応するアナログ画像信号を所定間隔毎に逐次撮像してA/D変換部13に入力する。A/D変換部13は、この出力された1フレームに対応するアナログ画像信号をデジタル画像信号に逐次変換する。制御部21は、このデジタル画像信号を1フレームの画像データとしてバッファメモリ14に逐次記録する。本実施形態では、このようにして逐次バッファメモリ14に記録(取得)される画像をスルー画像と呼ぶ。その後、後述するレリーズ釦26が全押しされると、撮像素子12により、記録用の画像である1フレームの画像Pが取得される。
以下、画像Pとして、静止画像を例に挙げて説明する。この画像Pを取得する場合も、スルー画像と同様にして、撮像素子12は、1フレームに対応するアナログ画像信号を出力する。このアナログ画像信号はA/D変換部13に入力される。A/D変換部13は、撮像素子12から出力される1フレームに対応するアナログ画像信号をデジタル画像信号に変換する。なお、このデジタル画像信号は、記録用の画像データとしてバッファメモリ14に記録される。
バッファメモリ14は、後述する画像処理部15による画像処理の前工程や後工程で画像データを一時的に記録する。また、バッファメモリ14は、各種演算結果、及び、各種演算に使用する代入値を一時的に記憶する。
画像処理部15は、バッファメモリ14に記録された画像データに対して画像処理を施す。なお、この画像処理としては、周知の解像度変換処理、ホワイトバランス調整、明るさ調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部15は、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。
また、画像処理部15は、ローパスフィルタ処理部23、算出部24、合成部25を備える。ローパスフィルタ処理部23は、画像Pに対してローパスフィルタ処理を施し、画像P’を生成する。
以下、ローパスフィルタ処理部23におけるローパスフィルタ処理について説明する。なお、画像処理部15に入力される画像データは、輝度及び色差からなるYCbCrデータである。つまり、画像Pの各画素の画素情報は、Y,Cr,Cbの情報となる。また、画像処理部15に入力される画像Pは、m×n画素(例えば4200×2800など)を有している。
このローパスフィルタ処理は、入力される画像データに対して、図2に示す3行3列のローパスフィルタを用いて実行される。なお、図2に示すK0、K1、K2、K3、K4、K5、K6、K7、K8は、それぞれ係数である。これら係数は、例えばK0=K1=K2=K6=K7=K8=18/256、K3=49/256,K4=50/256,K5=49/256の値を有している。なお、ローパスフィルタのサイズやローパスフィルタに用いる各係数の値は一例であり、これらに限定されるものではない。
ここで、ローパスフィルタ処理前の画素の値をY(x、y),Cr(x、y),Cb(x、y)とし、ローパスフィルタ処理後の画素の値をY’(x、y),Cr’(x、y),Cb’(x、y)とした場合を考慮する。例えば、ローパスフィルタ処理後の画素の値Y’(x、y)は、以下の式(1)によって求められる。なお、xは横座標、yは縦座標である。また、関数Roundは、小数点以下第一位を四捨五入し、整数値を算出する行う関数である。なお、以下の式(1)〜(3)を用いて、1フレームの画像の各画素毎に出力値を算出し、1フレームの画像の全画素に対して出力値を算出する。ここでは、画像Pの各画素に対してY’、Cb’、Cr’の値を算出し、画像Pの全画素に対してY’、Cb’、Cr’の値を算出する。
Y’(x,y)=Round[{K0×Y(x−1,y−1)+K1×Y(x,y−1)+K2×Y(x+1,y−1)+K3×Y(x−1,y)+K4×Y(x,y)+K5×Y(x+1,y)+K6×Y(x−1,y+1)+K7×Y(x,y+1)+K8×Y(x+1,y+1)}]・・・(1)
同様にして、ローパスフィルタ処理後の画素の値Cr’(x、y)は、以下の式(2)によって求められる。
Cb’(x,y)=Round[{K0×Cb(x−1,y−1)+K1×Cb(x,y−1)+K2×Cb(x+1,y−1)+K3×Cb(x−1,y)+K4×Cb(x,y)+K5×Cb(x+1,y)+K6×Cb(x−1,y+1)+K7×Cb(x,y+1)+K8×Cb(x+1,y+1)}]・・・(2)
さらに、ローパスフィルタ処理後の画素の値Cb’(x、y)は、以下の式(3)によって求められる。
Cr’(x,y)=Round[{K0×Cr(x−1,y−1)+K1×Cr(x,y−1)+K2×Cr(x+1,y−1)+K3×Cr(x−1,y)+K4×Cr(x,y)+K5×Cr(x+1,y)+K6×Cr(x−1,y+1)+K7×Cr(x,y+1)+K8×Cr(x+1,y+1)}]・・・(3)
上述した式(1)〜式(3)を用いることで、ローパスフィルタ処理が全画素に対して施された画像データが生成される。すなわち、この画像データは画像Pの全画素に対応するY’、Cb’、Cr’の値を有する画像データであり、この画像データを画像P’とする。
算出部24は、制御部21から送信された合焦領域の位置の判定結果に基づいて、下記の(4)式により、合焦領域に含まれる画素における画像P’の透過度合いが最も低くなり、合焦領域を中心に放射線状に(合成焦点領域から遠いほど)画像P’の透過度合いが高くなるような透過度合いMxyを算出する。なお、Mxyは、0≦Mxy≦1とする。
xy=h×(f×(x−x)×k+g×(y−y)×k)×k・・・(4)
そして、算出部24は、算出した透過度合いを示す情報を、画素位置毎に該画素位置に対応付けてまとめたマップデータを生成する。なお、xは横座標、yは縦座標を示し、xは合焦領域の中心に位置する画素の横座標、yは合焦領域の中心に位置する画素の縦座標を示す。また、h、f、g、k、k、kは、係数であり、k、kについては、合焦領域のアスペクト比に応じて切り替える。
図3(A)は、合焦領域の位置を示す図である。図3(A)に示すように、9つの合焦領域(符号1〜9)は、3つずつ、それぞれ水平方向(図中左右方向)に、且つ所定の間隔を空けて配置されている。例えば、図3(A)の「5」の領域が合焦領域である場合、算出部24は、「5」の領域の中心に位置する画素の座標を(x,y)とする。x=xのときに、Mxyは最も低い値となり、xがxから離れるにつれて、Mxyは高い値となる。また、この場合、合焦領域のアスペクト比は、縦:横=1:1となるため、算出部24は、例えば(4)式には、k=1、k=1が代入される。図3(A)の「5」の領域を合焦領域とする場合における、Mxyとxとの関係の例を図3(B)に模式的に示す。例えば図3(B)は、画像P’におけるx=xの水平方向の透明度合いを示しており、マップデータからy=yの透明度合いを示す情報(Mx0)を抽出して、Mx0をxに対してプロットした形状を模式的に示している。図3(C)は、「5」の領域を合焦領域とする場合における画像P’の透過度合いを示しており、マップデータを模式化した図である。図3(C)に示すように、画像P’の透過度合いは、白色の領域Rが最も低くなり、画像Pに対する画像P’の影響は最も小さくなる。また、画像P’の透過度合いは、斜線の領域R、斜線の領域Rの順に高くなり、画像Pに対する画像P’の影響は大きくなる。
合成部25は、算出部24により生成されたマップデータを用いて、画像Pの各画素と画像P’の各画素とを透過度合いMxyに応じて足し合わせる(混合する)ことで、画像Pと画像P’とを合成する。なお、このアルファブレンド処理を用いて合成された画像における各画素の値Y”(x,y)は、以下の(5)式によって求められる。
Y”(x,y)=Round[Y(x,y)×(1−Mxy)}+Y’(x,y)×Mxy]・・・(5)
同様にして、各画素の値Cb”(x,y)は、以下の(6)式によって求められる。
Cb”(x,y)=Round[Cb(x,y)×(1−Mxy)+Cb’(x,y)×Mxy)]・・・(6)
また、各画素の値Cr”(x,y)は、以下の(7)式によって求められる。
Cr”(x,y)=Round[Cr(x,y)×(1−Mxy)+Cr’(x,y)×Mxy]・・・(7)
関数Roundは、1フレームの画像の各画素毎に出力を算出し、1フレームの画像の全画素に対して出力を算出することを示している。ここでは、画像Pの各画素に対して、Y”、Cb”、Cr”の値を算出し、画像Pの全画素に対してY”、Cb”、Cr”を算出することを示している。上述した式(5)〜式(7)を用いることで、アルファブレンド処理が全画素に対して施された画像データP”が生成される。図3(A)に示す例では、合成した画像は、図3(C)に示す白色の領域R1に近い領域ほど鮮明な画像となる。
表示部16は、各種の画像を表示する液晶ディスプレイである。表示部16に表示される各種の画像は、スルー画像、画像P、画像Pと画像P’とをアルファブレンド処理により合成した画像、メニュー画像、記録媒体19に記録された画像等である。メモリ17は、撮像装置10の各種動作制御のために、制御部21や画像処理部15が実行する各種プログラムなどを記憶している。なお、メモリ17は、後述の図4のフローチャートに示す処理手順に対応するプログラムも記憶している。また、メモリ17は、上述した式(1)から式(7)に対応する情報をそれぞれ記憶する。
記録I/F部18は、記録媒体19を接続するためのコネクタを備えている。この記録I/F部18と記録媒体19とが接続されることにより、記録媒体19に対してデータの書き込み/読み出しが実行される。記憶媒体19は、カード形状の不揮発性の記憶媒体で構成されるメモリーカードである。操作部20は、レリーズ釦26、十字キー27等を有する。レリーズ釦26は、その半押し操作時にAE演算やAF演算が実行される。また、レリーズ釦26は、その全押し操作時に撮像に係る処理が行わる。十字キー27は、上記のメニュー画像等で操作される。なお、レリーズ釦26、十字キー27の状態は制御部21により検知され、検知された釦やキーの状態に基づいたシーケンスが実行される。
制御部21は、所定のシーケンスプログラムにしたがって、撮像装置10の統括的な制御を行う。また、制御部21は、撮影時に必要となる各種演算(AF演算、AE演算等)を実行するとともに、レリーズ釦26の半押し操作時における合焦領域の位置を判定し、判定結果を算出部24に送信する。また、制御部21及び画像処理部15は、バッファメモリ14へ各種演算結果、及び、各種演算に使用する代入値を一時的に記憶させる制御と、バッファメモリ14に記憶させた各種演算結果、及び各種演算件亜に使用する代入値を読み出す処理を実行する。
バス22は、バッファメモリ14、画像処理部15、表示部16、メモリ17、記録I/F部18、制御部21を相互に接続され、データや信号を出入力する。
次に、図3のフローチャートを用いて、第1実施形態における撮影時の流れを説明する。なお、図3のフローチャートは、1つの領域を合焦領域とする画像Pを取得する場合を例に挙げて説明する。なお、制御部21は、メモリ17に記憶された図3のフローチャートに示す処理手順に対応するプログラムを読み出して実行する。
ステップS101は、レリーズ釦26が半押しされたか否かを判定する処理である。制御部21は、レリーズ釦26が半押しされたと判定した場合(ステップS101の判定がYESとなる場合)には、ステップS102に進む。一方、制御部21は、レリーズ釦26が半押しされていないと判定した場合(ステップS101の判定がNOとなる場合)には、レリーズ釦26が半押しされるまで待機する。
ステップS102は、AE、AF演算を行う処理である。制御部21は、AE、AF演算を行う。
ステップS103は、レリーズ釦26が全押しされたか否かを判定する処理である。制御部21は、レリーズ釦26が全押しされたと判定した場合(ステップS103の判定がYESとなる場合)には、ステップS104に進む。一方、制御部21は、レリーズ釦26が全押しされていないと判定した場合(ステップS103の判定がNOとなる場合)には、レリーズ釦26が全押しされるまで待機する。
ステップS104は、レリーズ釦26が半押しされた状態が継続されているか否かを判定する処理である。制御部21は、レリーズ釦26が半押しされていると判定した場合(ステップS104の判定がYESとなる場合)には、ステップS103に進む。一方、制御部21は、レリーズ釦26が半押しされていないと判定した場合(ステップS104の判定がNOとなる場合)には、ステップS101に移行する。
ステップS105は、画像Pを取得する処理である。制御部21の指示により、撮像素子12は、アナログ画像信号をA/D変換部13に出力する。A/D変換部13は、入力されるアナログ画像信号をデジタル画像信号に変換し、バッファメモリ14に出力する。バッファメモリ14は、書き込まれるデジタル画像信号を画像データとして記憶する。
ステップS106は、ローパスフィルタ処理である。ローパスフィルタ処理部23は、上述した式(1)〜式(3)を用いることで、画像Pの全画素に対するローパスフィルタ処理を施す。これにより、ローパスフィルタ処理後の画像P’が生成される。
ステップS107は、マップデータを生成する処理である。制御部21は、ステップS102のレリーズ釦26の半押し操作時における合焦領域の位置を判定し、判定結果を算出部24に送信する。算出部24は、制御部21から送信された合焦領域の位置の判定結果に基づいて、上記の式(4)を用いて、アルファブレンド処理における画像Pの画素に対する画像P’の画素の透過度合いを画素毎に示すマップデータを生成する。
ステップS108は、アルファブレンド処理である。ステップS106において、画像Pの画素に対する画像P’の画素の透過度合いMxyを画素毎に示すマップデータが生成されている。制御部21の指示により、合成部25は、ステップS107で生成されたマップデータと、上述した式(5)〜式(7)を用いたアルファブレンド処理を実行する。このアルファブレンド処理により、画像Pと画像P’とを透明度合いMxyに応じて足し合わせた画像が生成される。
ステップS109は、アルファブレンド処理により合成した画像を表示する処理である。制御部21は、ステップS108で画像Pと画像P’とを合成した画像を表示部16に表示する。
ステップS110は、アルファブレンド処理により合成した画像を記録するか否かを判定する処理である。制御部21は、十字キー27を介してユーザから、合成した画像を記録するか否かの選択を受け付ける。制御部21は、合成した画像を記録する選択を受け付けた場合(ステップS110の判定がYESとなる場合)には、ステップS111に進む。一方、制御部21は、合成した画像を記録する選択を受け付けていない場合(ステップS110の判定がNOとなる場合)には、一連の処理を終了する。
ステップS111は、アルファブレンド処理により合成した画像を記録する処理である。制御部21は、アルファブレンド処理により生成された画像を記録媒体19に記録し、一連の処理を終了する。
以上説明したように、第1実施形態の撮像装置10は、画像Pにローパスフィルタ処理を施した画像P’を生成した後、画像Pを取得する際の合焦領域の位置に基づいて、画像Pの画素に対する画像P’の画素の透過度合いMxyを画素毎に示すマップデータを生成する。その後、画像Pとローパスフィルタ処理を施した画像P’とを、マップデータを用いたアルファブレンド処理により合成する。
したがって、第1実施形態の撮像装置によれば、主要被写体が存在する合焦領域を除く領域に対して、合焦領域から離れるにしたがってぼけ量が大きくなるようにぼかすことから、鮮鋭度の荒さを抑制した、被写体深度が浅い画像を擬似的に取得することができる。
(第2実施形態)
第1実施形態では、画像Pを取得する際の合焦領域の位置に応じて、画像Pの画素に対する画像P’の画素の透過度合いMxyを画素毎に示すマップデータを生成する例を示した。第2実施形態では、合焦領域の位置の他に、画像Pに含まれる顔領域30の位置、及び撮像装置10の姿勢に応じて、画像Pの画素に対する画像P’の画素の透過度合いMxyを画素毎に示すマップデータを生成する例を示す。
図5は、第2実施形態の撮像装置10の構成を示すブロック図である。第2実施形態の撮像装置10は、撮像レンズ11、撮像素子12、A/D変換部13、バッファメモリ14、画像処理部15、表示部16、メモリ17、記録I/F部18、記録媒体19、操作部20、制御部21、バス22、姿勢センサ28を備える。図4に示すように、第2実施形態における撮像装置10の主な構成は、画像処理部15、算出部24、姿勢センサ28を除いて、図1に示す第1実施形態の撮像装置10と共通するので、重複説明は省略する。
画像処理部15は、顔検出部29を備える。顔検出部29は、画像Pから特徴点を抽出して顔領域30を検出する。この顔領域30の検出方法は、特開2001−16573号公報等に記載された特徴点抽出処理が挙げられる。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。この特徴点抽出処理により、画像Pに含まれる顔領域30が検出される。なお、顔領域30は、検出された顔領域を含む矩形の領域である。
姿勢センサ28は、重力加速度を検出するMEMS(Micro Electro Mechanical Systems)型の姿勢センサである。姿勢センサ28は、撮像装置10の重力加速度方向に対する姿勢を検出し、検出した姿勢情報を制御部21に出力する。撮像装置10の姿勢としては、図6に示す(A)横位置、(B)右側を上にした縦位置、(C)左側を上にした縦位置が挙げられる。
算出部24は、まず、画像Pに含まれる顔領域30の位置、及び撮像装置10の姿勢に基づいて、顔領域30の下に存在する体領域31の位置を推定する。次に、算出部24は、顔領域30及び体領域31を合焦領域として、第1実施形態と同様に、画像Pと画像P’とをアルファブレンド処理により合成するときの、画像Pの各画素に対する画像P’の各画素の透過度合い(透過率)を画素毎に算出し、これらをまとめたマップデータを生成する。
以下、図7(A)に示す横位置で撮影された画像Pを例に挙げて説明する。この場合、顔検出部29が検出した顔領域30は、図7(B)の「5」の領域に位置し、体領域31は、「5」の領域の下の「8」の領域にあると考えられる。そのため、算出部24は、「8」の領域の焦点評価値を取得し、取得した焦点評価値が閾値以上である場合には、「8」の領域を体領域31と推定する。
そして、算出部24は、「5」及び「8」の領域を合焦領域とし、上述した(4)式に「5」及び「8」の領域の中心に位置する画素の横座標としてx、「5」及び「8」の領域の中心に位置する画素の縦座標としてyを代入して、マップデータを生成する。また、「5」及び「8」の領域を合焦領域とすることで、合焦領域のアスペクト比は、横:縦=1:2となる。この値に応じて、例えば、算出部24は、k=1/2、k=1を代入する。
図7(C)は、「5」及び「8」の領域を合焦領域とする場合における画像P’の透過度合いを示しており、マップデータを模式化した図である。図7(C)に示すように、画像P’の透過度合いは、白色の領域Rが最も低くなり、画像Pに対する画像P’の影響は最も小さくなる。また、画像P’の透過度合いは、斜線の領域R、斜線の領域Rの順に高くなり、画像Pに対する画像P’の影響は大きくなる。図7(D)は、図7(A)の画像Pと、不図示の画像P’とをアルファブレンド処理により合成した画像P”の例を示す図である。図7(D)に示すように、合成した画像P”は、顔領域30及び体領域31の領域、すなわち主要被写体の領域を除く領域がぼかされ、主要被写体の領域が浮かび上がった画像となる。
なお、撮像装置10の姿勢が(B)縦位置である場合には、算出部24は、「4」の領域の焦点評価値を取得し、取得した「4」の領域の焦点評価値が閾値以上であると判定した場合には、「4」の領域を体領域31と推定し、「4」及び「5」の領域を合焦領域として判定する。
以上説明したように、第2実施形態の撮像装置10は、合焦領域の位置の他に、画像Pに含まれる顔領域30の位置、及び撮像装置10の姿勢に応じて、マップデータを生成する。
したがって、第2実施形態の撮像装置10によれば、第1実施形態の撮像装置10と同様の効果を得ることができる。また、第2実施形態の撮像装置10によれば、顔領域30及び体領域31を除く領域をぼかすことができるため、ポートレート調の好ましい画像を生成することができる。
なお、第1実施形態及び第2実施形態では、1つの領域を合焦領域とする画像Pを例に挙げて説明したが、複数の領域を合焦領域とする画像Pにも本発明を適用することができる。この場合、合焦領域毎に分割した分割領域それぞれに対して、1つずつマップデータを生成してもよいし、複数の合焦領域を含むような1つのマップデータを生成してもよい。
また、第1実施形態及び第2実施形態では、静止画像である画像Pを用いて、被写界深度を浅くして撮影したような画像を生成する例を示したが、これに限らない。例えば、スルー画像や動画像にも本発明を適用することができる。この場合、合焦領域を浮かび上がらせることができるため、ユーザは主要被写体を認識しやすくなる。
また、第1実施形態では、ステップS102のレリーズ釦26の半押し操作時における合焦領域の位置に基づいて、マップデータを生成する例を示したが、これに限らない。例えば、算出部24は、ステップS105で取得した画像Pから合焦領域を検出し、検出した合焦領域の位置に基づいて、マップデータを生成する。
また、第1実施形態では、合焦領域の位置に基づいて、マップデータを生成する例を示したが、これに限らない。例えば、第1実施形態の撮像装置10に、姿勢検出センサ28を備える。そして、算出部24は、第2実施形態と同様に、合焦領域と該合焦領域の下に存在する領域とを合わせた領域の位置に基づいて、マップデータを生成する。
また、第2実施形態では、姿勢センサ28を用いて、顔領域30の下に存在する体領域31の位置を推定する例を示したが、これに限らない。例えば、顔検出部29は、顔領域30の位置及び顔領域30の向きを検出する。そして、算出部24は、顔検出部29が検出した顔領域30の向きに基づいて、顔領域30の下に存在する体領域31の位置を推定する。
また、上記の実施形態では、撮像装置10を例に挙げて説明したが、これに限らない。例えば、撮像機能を備える携帯電話機、デジタルフォトフレームなどの画像表示装置にも本発明を同様に適用することができる。さらに、図1の画像処理部15、制御部21に示す機能や、図3に示すフローチャートの流れをプログラムとしてコンピュータ読み取り可能な記憶媒体に記録し、該プログラムをコンピュータにて実行するようにしてもよい。
10…撮像装置、12…撮像素子、21…制御部、23…ローパスフィルタ処理部、24…算出部、25…合成部、28…姿勢センサ、29…顔検出部

Claims (10)

  1. 第1画像を取得する撮像部と、
    前記撮像部により取得された前記第1画像に対してローパスフィルタ処理を施し、第2画像を生成する処理部と、
    前記撮像部により取得された前記第1画像から、合焦領域の位置を判定する合焦位置判定部と、
    前記合焦位置判定部により判定された前記合焦領域の位置に基づいて、前記第1画像と前記第2画像とを合成するときの、前記第1画像の各画素と該第1画像の各画素に対応する前記第2画像の各画素とを混合する割合を画素毎に算出する算出部と、
    前記第1画像の各画素と、該第1画像の各画素に対応する前記第2画像の各画素とを前記算出部により画素毎に算出された前記割合を用いて混合することで、前記第1画像と前記第2画像とを合成する合成部と
    を備えることを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置において、
    前記算出部は、前記合焦領域に含まれる画素における前記第2画像の画素の割合が低くなるように、前記割合を算出することを特徴とする撮像装置。
  3. 請求項1又は請求項2に記載の撮像装置において、
    前記算出部は、前記合焦領域のアスペクト比をさらに加味して前記割合を算出することを特徴とする撮像装置。
  4. 請求項1から請求項3のいずれか1項に記載の撮像装置において、
    前記撮像装置の姿勢を判定する姿勢判定部をさらに備え、
    前記算出部は、前記姿勢判定部により判定された前記姿勢をさらに加味して前記割合を算出することを特徴とする撮像装置。
  5. 請求項4に記載の撮像装置において、
    前記第1画像から顔領域を検出する顔検出部をさらに備え、
    前記算出部は、前記姿勢判定部により検出された前記姿勢、及び前記顔検出部により検出された前記顔領域の位置をさらに加味して前記割合を算出することを特徴とする撮像装置。
  6. 請求項1から請求項3のいずれか1項に記載の撮像装置において、
    前記第1画像から顔領域を検出する顔検出部をさらに備え、
    前記算出部は、前記顔領域の位置及び向きをさらに加味して前記割合を算出することを特徴とする撮像装置。
  7. 請求項1から請求項6のいずれか1項に記載の撮像装置において、
    前記第1画像は、所定の時間間隔を空けて連続して取得された複数の画像であることを特徴とする撮像装置。
  8. 請求項1から請求項7のいずれか1項に記載の撮像装置において、
    前記合成部は、前記第1画像と前記第2画像とをアルファブレンド処理により合成し、
    前記割合は、前記アルファブレンド処理における前記第1画像の各画素に対する前記第2画像の各画素の透過度合いであることを特徴とする撮像装置。
  9. 第1画像に対してローパスフィルタ処理を施し、第2画像を生成する処理工程と、
    前記第1画像から、合焦領域の位置を判定する合焦位置判定工程と、
    前記合焦位置判定工程により判定された前記合焦領域の位置に基づいて、前記第1画像と前記第2画像とを合成するときの、前記第1画像の各画素と該第1画像の各画素に対応する前記第2画像の各画素とを混合する割合を画素毎に算出する算出工程と、
    前記第1画像の各画素と、該第1画像の各画素に対応する前記第2画像の各画素とを前記算出部により画素毎に算出された前記割合を用いて混合することで、前記第1画像と前記第2画像とを合成する合成工程と
    を備えることを特徴とする画像処理プログラム。
  10. 請求項9に記載の画像処理プログラムが記憶された、コンピュータにて読み取り可能な記憶媒体。
JP2011159606A 2011-07-21 2011-07-21 撮像装置、画像処理プログラム、及び記憶媒体 Withdrawn JP2013026814A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011159606A JP2013026814A (ja) 2011-07-21 2011-07-21 撮像装置、画像処理プログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011159606A JP2013026814A (ja) 2011-07-21 2011-07-21 撮像装置、画像処理プログラム、及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2013026814A true JP2013026814A (ja) 2013-02-04

Family

ID=47784692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011159606A Withdrawn JP2013026814A (ja) 2011-07-21 2011-07-21 撮像装置、画像処理プログラム、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP2013026814A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022008548A (ja) * 2017-11-21 2022-01-13 株式会社バッファロー ネットワークマップを表示するコンピュータプログラム、および、無線lan装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022008548A (ja) * 2017-11-21 2022-01-13 株式会社バッファロー ネットワークマップを表示するコンピュータプログラム、および、無線lan装置
JP7227523B2 (ja) 2017-11-21 2023-02-22 株式会社バッファロー ネットワークマップを表示するコンピュータプログラム、および、無線lan装置

Similar Documents

Publication Publication Date Title
KR100840856B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을기록한 기록 매체, 및 촬상 장치
US20160191788A1 (en) Image processing apparatus and image pickup apparatus
JP5517746B2 (ja) 画像処理装置およびその方法
US20160188992A1 (en) Image generating device, electronic device, image generating method and recording medium
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
JP4947136B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5126344B2 (ja) 撮像装置、撮像方法及びプログラム
JP2009017223A (ja) 撮影装置、画像処理装置、これらにおける画像処理方法およびプログラム
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP5011504B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP6261205B2 (ja) 画像処理装置
JP5589660B2 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP6270413B2 (ja) 画像処理装置、撮像装置、および画像処理方法
JP5581728B2 (ja) 画像処理装置及び方法、並びにプログラム
JP2017143354A (ja) 画像処理装置及び画像処理方法
JP2019047336A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP5381498B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP2013026814A (ja) 撮像装置、画像処理プログラム、及び記憶媒体
JP4665781B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2013175805A (ja) 表示装置および撮像装置
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6218520B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007