JP6558978B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP6558978B2 JP6558978B2 JP2015127027A JP2015127027A JP6558978B2 JP 6558978 B2 JP6558978 B2 JP 6558978B2 JP 2015127027 A JP2015127027 A JP 2015127027A JP 2015127027 A JP2015127027 A JP 2015127027A JP 6558978 B2 JP6558978 B2 JP 6558978B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- saliency
- contribution
- main subject
- edge amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 34
- 238000003672 processing method Methods 0.000 title claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 3
- 238000000034 method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Description
本発明は、特に、人間の視覚的な目立ちやすさを示す顕著度を算出するために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
従来、人間の視覚的な目立ちやすさを示す値(以下、顕著度と呼ぶ)を算出し、この算出した顕著度を基に種々の画像処理を行う技術が提案されている。特許文献1では、顕著度を用いて、複数の撮影画像の中からいずれか1枚の画像を選択する技術が開示されている。この技術では、輝度顕著度、色顕著度、およびエッジ顕著度をそれぞれ算出し、各々の値を合成することにより評価用の顕著度を取得している。
前述の特許文献1に記載の技術では、顕著度を算出する際に、エッジ量の値を線形結合しており、この技術では、視覚的に顕著な被写体はエッジを比較的豊富に有するという考えに基づいている。しかしながら、実際に撮影される画像は多岐に渡っており、必ずしもエッジ量を使用することが適切とは言えないシーンも存在する。
例えば、図13に示した画像の例では、赤くて大きな球体である被写体Aが視覚的に顕著であるが、被写体Aはエッジを多く持たず、かつ背景の各領域は様々な被写体が雑多に存在している。このように背景の各領域はそれぞれ、被写体Aと比較して相対的に大きなエッジ量を有する。このような場合、顕著度を算出する際にエッジ量を単純に加算すると、加算前と比較して、視覚的に顕著である被写体Aの顕著度が相対的に小さくなってしまい、顕著度を用いた画像処理を行う際に所望しない動作を招く恐れがある。例えば、主被写体検出に応用する場合には、別の被写体を検出してしまう可能性がある。
本発明は前述の問題点に鑑み、主被写体及び背景のエッジ量によらず、より高精度に顕著度を得ることができるようにすることを目的としている。
本発明に係る画像処理装置は、入力画像から主被写体の候補領域を検出する検出手段と、前記検出手段によって検出された主被写体の候補領域と、前記候補領域の周辺領域とから、それぞれエッジ量を抽出する抽出手段と、前記抽出手段によって抽出された前記候補領域および前記周辺領域のエッジ量を基に、前記入力画像における視覚的な目立ちやすさを示す顕著度を算出する際の前記エッジ量の寄与度を算出する寄与度算出手段と、前記入力画像に含まれる複数の領域のそれぞれに対して、前記寄与度算出手段によって算出されたエッジ量の寄与度に基づいて前記顕著度を算出する顕著度算出手段とを備えることを特徴とする。
本発明によれば、主被写体及び背景のエッジ量によらず、より高精度に顕著度を得ることができる。
(第1の実施形態)
以下、図面を参照して、本発明の第1の実施形態について詳細に説明する。
図1は、本実施形態に係るデジタルカメラ100の構成例を示すブロック図である。
図1において、システム制御部101は例えばCPUであり、デジタルカメラ100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。
以下、図面を参照して、本発明の第1の実施形態について詳細に説明する。
図1は、本実施形態に係るデジタルカメラ100の構成例を示すブロック図である。
図1において、システム制御部101は例えばCPUであり、デジタルカメラ100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。
ROM102は書き換え可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。例えば、焦点検出などで必要なレンズ情報として、射出瞳距離もROM102に記憶されている。RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
光学系104は、被写体像を撮像部105に結像する。光学系104には絞りも含まれており、光学系の開口径を調節することにより撮影時の光量調節を行う。また、光学系104はAFセンサ部106から取得した情報を基に、いわゆる位相差AFを行ってピント位置の調整を行う。このとき、位相差AFによって得られたAF情報がRAM103に格納される。
撮像部105は、例えばCCDやCMOSセンサ等の撮像素子であり、光学系104により撮像素子に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部107に出力する。A/D変換部107は、入力されたアナログ画像信号にA/D変換処理を適用し、得られたデジタル画像データをRAM103に出力して記憶させる。
画像処理部108は、RAM103に記憶されている画像データに対して所定の画像処理を行う。所定の画像処理には、ホワイトバランス処理などの現像処理や圧縮処理などが含まれる。また、本実施形態では、人間の視覚的な目立ちやすさを示す値として顕著度を算出し、この顕著度に基づいて主被写体を決定する処理も行う。記録媒体109は着脱可能なメモリカード等であり、RAM103に記憶されている画像処理部108で処理された画像データやA/D変換部107でA/D変換された画像データなどが記録される。バス110は、各ブロックの間で信号のやり取りを行うために用いられる。
図2は、本実施形態における画像処理部108による、画像データに対して顕著度を算出して前記顕著度から主被写体を決定する処理手順の一例を示すフローチャートである。また、図11は、画像処理部108の詳細な機能構成例を示すブロック図である。以下、画像処理部108の各処理について、図面を参照しながら詳細に説明する。
まず、ステップS201において、画像取得部1101は、撮像部105において被写体が撮像されてRAM103に格納された画像データをRAM103から取得する。以下、ステップS201で取得した画像データを入力画像と呼ぶ。
まず、ステップS201において、画像取得部1101は、撮像部105において被写体が撮像されてRAM103に格納された画像データをRAM103から取得する。以下、ステップS201で取得した画像データを入力画像と呼ぶ。
<S202:主被写体候補領域算出>
次に、ステップS202において、合焦領域情報取得部1102は、撮像時のAF情報(合焦領域情報)を取得し、主被写体候補領域検出部1103は、取得したAF情報を用いて主被写体候補領域を検出する。ここで、主被写体候補領域とは、入力画像内において主被写体が存在する可能性がある領域を意味する。本実施形態では、撮像時のAF情報を利用して主被写体候補領域を検出する。
次に、ステップS202において、合焦領域情報取得部1102は、撮像時のAF情報(合焦領域情報)を取得し、主被写体候補領域検出部1103は、取得したAF情報を用いて主被写体候補領域を検出する。ここで、主被写体候補領域とは、入力画像内において主被写体が存在する可能性がある領域を意味する。本実施形態では、撮像時のAF情報を利用して主被写体候補領域を検出する。
図3は、ステップS202の動作を説明するための図である。図3(a)は、入力画像の一例を示しており、図3(b)は、RAM103より取得される合焦領域情報の一例を示している。図3(b)において、白点及び黒点のそれぞれがAFセンサ部106における位相差取得領域を示し、白点は合焦領域、黒点は非合焦領域を示す。このように合焦領域情報は、位相差取得領域のそれぞれに対する合焦/非合焦の判定情報と、位置情報とからなる。図3に示す例では、入力画像内の2匹の鳥に対して合焦しており、p100〜p109は左の鳥に対応した合焦領域であり、p110〜p119は右の鳥に対応した合焦領域である。
また、図3(c)は、図3(b)の合焦領域情報から算出された主被写体候補領域の一例を示している。合焦領域情報から主被写体候補領域を検出する方法としては、例えば隣接する合焦領域をグルーピングし、グルーピングされた複数の合焦領域を包含する矩形を設定する方法が挙げられる。図3(c)に示す例では、2つの主被写体候補領域a310、a311が算出されており、p100〜p109のグループに対する主被写体候補領域a310と、p110〜p119のグループに対する主被写体候補領域a311とが算出されている。また、主被写体候補領域を検出する他の方法としては、各合焦領域を中心に所定の大きさの矩形を設定し、この矩形の集合体である領域を主被写体候補領域とする方法を用いてもよく、その他様々な方法を適用可能なものとする。
なお、主被写体候補領域は正確に主被写体を指しておらず、主被写体でない被写体も少なからず含まれている可能性があるため、主被写体候補領域は主被写体が存在する可能性がある領域を指している。以上がステップS202の動作であり、本ステップにより、入力画像における主被写体候補領域が検出される。
<S203:エッジ量寄与度算出>
次に、ステップS203において、エッジ量寄与度算出部1104は、顕著度を算出する際のエッジ量寄与度を算出する。ここで、エッジ量寄与度とは、顕著度に対してエッジ量が寄与する度合いを示す値である。エッジ量寄与度が大きい場合は、着目領域のエッジ量によって顕著度の値が敏感に変化し、エッジ量寄与度が小さい場合は、着目領域のエッジ量による顕著度の変化が小さくなる。
次に、ステップS203において、エッジ量寄与度算出部1104は、顕著度を算出する際のエッジ量寄与度を算出する。ここで、エッジ量寄与度とは、顕著度に対してエッジ量が寄与する度合いを示す値である。エッジ量寄与度が大きい場合は、着目領域のエッジ量によって顕著度の値が敏感に変化し、エッジ量寄与度が小さい場合は、着目領域のエッジ量による顕著度の変化が小さくなる。
図4は、ステップS203においてエッジ量寄与度算出部1104によりエッジ量寄与度を算出する詳細な処理手順の一例を示すフローチャートである。
まず、ステップS401において、入力画像においてエッジを抽出してエッジ情報を取得する。本実施形態では、エッジ情報は輝度エッジの値とし、抽出方法としては所定の周波数特性を有するバンドパスフィルタを用いるものとする。なお、エッジ情報の元信号の種類や、前記バンドパスフィルタの周波数特性に関しては特に限定されるものではない。
まず、ステップS401において、入力画像においてエッジを抽出してエッジ情報を取得する。本実施形態では、エッジ情報は輝度エッジの値とし、抽出方法としては所定の周波数特性を有するバンドパスフィルタを用いるものとする。なお、エッジ情報の元信号の種類や、前記バンドパスフィルタの周波数特性に関しては特に限定されるものではない。
次に、ステップS402において、主被写体候補領域のエッジ積分値を算出する。例えば図3(a)に示す入力画像に関しては、図3(c)における主被写体候補領域a310、a311の和集合となる領域のエッジ情報を積分する。以下、主被写体候補領域から算出したエッジ積分値をEdge_Aと呼ぶ。
次に、ステップS403において、主被写体候補領域外(以下、周辺領域)のエッジ積分値を算出する。例えば図3(a)に示す入力画像に関しては、図3(c)における黒塗りの領域が周辺領域と定義される。以下、周辺領域から算出したエッジ積分値をEdge_Bと呼ぶ。エッジ積分値Edge_Bは、画面全体のエッジ積分値をEdge_wholeとすると、以下の(1)式で表される。
Edge_B=Edge_whole−Edge_A ・・・(1)
Edge_B=Edge_whole−Edge_A ・・・(1)
また、エッジ積分値Edge_A、Edge_Bの値は領域の面積に依存するので、あらかじめ正規化を行う。正規化の方法については特に限定されないが、本実施形態では、主被写体候補領域と周辺領域との面積比よりエッジ積分値Edge_Bの値を正規化する。主被写体候補領域の面積をS_main,周辺領域の面積をS_aroundとすると、正規化後の周辺領域のエッジ積分値Edge_B'は以下の(2)式で表される。
Edge_B'=(S_main/S_around)*Edge_B ・・・(2)
Edge_B'=(S_main/S_around)*Edge_B ・・・(2)
次に、ステップS404の処理について説明する。図5は、エッジ積分値Edge_A、Edge_B'からエッジ量寄与度を算出する際の概念を説明するための図である。図5は、横軸をエッジ積分値Edge_A、縦軸をエッジ積分値Edge_B'とした座標系で示されている。
図5の右下の領域Xは、エッジ積分値Edge_Aの値が大きく、エッジ積分値Edge_B'の値が小さい領域であり、主被写体候補領域は豊富にエッジが存在し、周辺領域はエッジが少ない入力画像を表している。したがって、このような入力画像の場合は、顕著度を算出する際にエッジ量寄与度を大きくすることが非常に有効であると考えられる。
逆に、図5の左上の領域Zは、主被写体候補領域ではエッジが少なく、周辺領域は豊富にエッジが存在するような入力画像を表している。この場合は、顕著度を算出する際にエッジ量寄与度を小さくすることが非常に有効であると考えられる。
また、中央部の中間領域Yは、主被写体候補領域と周辺領域とにおいてエッジ量の差が小さいような入力画像を表している。この場合もエッジ量の信頼性には乏しいので基本的にはエッジ量寄与度は小さいが、処理の連続性の観点から、図5の座標系の右下に向かうにつれて、エッジ量寄与度は少しずつ大きくなっていくような変化が好ましい。
以上は概念的な説明であり、次に、エッジ量寄与度の具体的な算出方法の一例について説明する。図6は、本実施形態におけるエッジ量寄与度の算出方法を説明するための図である。なお、図6に示す例は一例であり、図5に示した概念を反映させた算出方法であればその他の算出方法を用いてもよい。
図6に示すように、本実施形態では、主被写体候補領域のエッジ積分値Edge_Aからエッジ量寄与度kAを算出し、周辺領域のエッジ積分値Edge_B'からエッジ量寄与度kBを算出する。そして、エッジ量寄与度kA、kBの積として最終的なエッジ量寄与度kを算出する。図6に示すように、エッジ量寄与度kA、kBは、以下の(3)式及び(4)式によって表される。
kA=f(Edge_A) ・・・(3)
kB=f(Edge_B') ・・・(4)
kA=f(Edge_A) ・・・(3)
kB=f(Edge_B') ・・・(4)
ここで、f(Edge_A)、f(Edge_B')は例えば図6に示すような閾値を有する関数である。図6に示すように、周辺領域のエッジ量が比較的大きいような場合には、エッジ量寄与度kA、kBの少なくとも何れかが0となるため、最終的なエッジ量寄与度kは0となる。また、主被写体候補領域のエッジ量が大きく、周辺領域のエッジ量が小さいような場合は、エッジ量寄与度kA、kBはいずれも1となるため、最終的なエッジ寄与度は1となる。ここで、図6に示す関数は一例であり、主被写体候補領域のエッジ量が大きいほどエッジ量寄与度kAが大きくなり、周辺領域のエッジ量が小さいほどエッジ量寄与度kBが大きくなるような変化であれば、どのような関数を用いてもよい。
以上がステップS203の動作であり、本ステップによりエッジ量寄与度kが算出される。
<S204:顕著度マップ取得>
図2の説明に戻り、次に、ステップS204において、顕著度算出部1105は、入力画像の顕著度を算出する。顕著度の算出方法は種々の手法が提案されているが、本実施形態では、図7に示すように、まず、着目領域に対し内側ウインドウと外側ウインドウとを定義する。そして、内側ウインドウ内においてエッジ積分値Edgeを算出し、内側ウインドウとその周辺部の輝度情報及び色情報の差分値と、内側ウインドウのエッジ積分値Edgeから算出されるエッジ重み係数との積を顕著度と定義する。
図2の説明に戻り、次に、ステップS204において、顕著度算出部1105は、入力画像の顕著度を算出する。顕著度の算出方法は種々の手法が提案されているが、本実施形態では、図7に示すように、まず、着目領域に対し内側ウインドウと外側ウインドウとを定義する。そして、内側ウインドウ内においてエッジ積分値Edgeを算出し、内側ウインドウとその周辺部の輝度情報及び色情報の差分値と、内側ウインドウのエッジ積分値Edgeから算出されるエッジ重み係数との積を顕著度と定義する。
ここで、内側ウインドウの周辺部とは、図7に実線で示されている内側ウインドウよりも外部で、かつ破線で示されている外側ウインドウよりも内部であるドーナツ状の領域のことである。さらに、輝度情報及び色情報とは、本実施形態では輝度信号及び色差信号のヒストグラムからなる特徴量である。特徴量が輝度信号のヒストグラムについては、内側ウインドウの輝度信号のヒストグラムと外側ウインドウの輝度信号のヒストグラムとで、ビン毎の差分絶対値を算出し、その積算値を輝度信号の差分値とする。特徴量が色差信号のヒストグラムについては、内側ウインドウの色差信号のヒストグラムと外側ウインドウの色差信号のヒストグラムとで、ビン毎の差分絶対値を算出し、その積算値を色差信号の差分値とする。なお、輝度信号の差分値と色差信号の差分値のどちらか一方のみの差分値を用いて、顕著度を求めるようにしてもよい。
また、エッジ重み係数の算出方法を図8に示す。図8には、エッジ重み係数をWEとした場合の、内側ウインドウのエッジ積分値Edgeとの関係を示している。エッジ重み係数WEの導出式は以下の(5)式に示すものである。
WE=m*Edge+(1−k) ・・・(5)
WE=m*Edge+(1−k) ・・・(5)
ここで、(5)式のkはステップS203で算出したエッジ量寄与度であり、mはエッジ積分値Edgeに対する傾きを表すパラメータである。エッジ重み係数WEは1以下の値であり、(5)式で求めた値が1を超える場合には、エッジ重み係数WE=1とする。k=1の場合は、図8の実線で示すように、エッジ重み係数WEはエッジ積分値Edgeの値に大きく依存し、k=0の場合は、図8の短破線で示すように、エッジ重み係数WEはエッジ積分値Edgeの値に依らず一定である。これにより、エッジ量寄与度に対応した特性のエッジ重み係数WEを算出することができる。
次に、前記特徴量の差分値と前記エッジ重み係数WEとを乗算して、ある着目領域に対する顕著度を算出する。そして、着目領域をずらして同様の手順により顕著度を算出して、入力画像に対する顕著度の分布(以下、顕著度マップ)を得る。また、本実施形態では、内側ウインドウ及び外側ウインドウのサイズや顕著度算出位置(着目領域の位置)の設定に関しては特に限定しないものとする。一例としては、着目領域のウインドウをラスタ状に走査し、各点で顕著度を算出することにより顕著度マップを得る方法が挙げられる。さらに、本実施形態ではエッジ積分値を算出する範囲を内側ウインドウとしたが、エッジ積分値取得用として異なるサイズのウインドウを使用してもよい。
以上が、ステップS204の動作であり、本ステップの出力として顕著度マップが算出される。
<S205:主被写体領域決定>
最後に、ステップS205において、主被写体領域決定部1106は、顕著度マップに基づいて入力画像における主被写体を決定する。図9は、ステップS205の動作を説明するための図である。例えば図9(a)に示す入力画像に対し、ステップS204までの処理により図9(b)に示す顕著度マップが得られたものとする。顕著度は階調を持っており、図9(b)に示す例では入力画像内で相対的に目立つ鳥や太陽では顕著度が高くなる。さらに、エッジを多く含まない太陽よりも、鳥の顕著度が高くなっている。
最後に、ステップS205において、主被写体領域決定部1106は、顕著度マップに基づいて入力画像における主被写体を決定する。図9は、ステップS205の動作を説明するための図である。例えば図9(a)に示す入力画像に対し、ステップS204までの処理により図9(b)に示す顕著度マップが得られたものとする。顕著度は階調を持っており、図9(b)に示す例では入力画像内で相対的に目立つ鳥や太陽では顕著度が高くなる。さらに、エッジを多く含まない太陽よりも、鳥の顕著度が高くなっている。
図9(c)は、図9(b)の顕著度マップを所定の閾値で2値化した結果を示しており、2値化の結果、ある個数の被写体領域が抽出される。図9に示す例では2つの領域(第1の被写体及び第2の被写体)が抽出される。そして、最終的に、これらの第1及び第2の被写体から主被写体を判断する。主被写体の判断方法としては、例えば顕著度の値や領域のサイズ、位置などから主被写体を判断するが、他の方法により主被写体を判断してもよい。以上が本実施形態における処理の全体的な流れであり、本処理の出力として、入力画像内の顕著度に基づいた主被写体領域が算出される。
以上説明したように本実施形態によれば、従来の手法と比較して、より入力画像の絵柄に適した算出方法で顕著度を得ることができる。具体的には予め入力画像を大まかに主被写体候補領域とそれ以外の領域とに分け、それぞれの領域のエッジ量の関係から顕著度算出時のエッジ量寄与度を制御するようにした。これにより、主被写体にエッジを多く含まないシーンの場合はエッジ量寄与度を下げ、エッジ量による顕著度への悪影響を防ぐことができる。また、主被写体にエッジ量を多く含むシーンの場合は、顕著度算出時のエッジ量寄与度を上げ、より主被写体が際立つような顕著度を得ることができる。
なお、本実施形態では、主被写体候補領域を算出する際にAF情報を利用したが、そのほかの手法で主被写体候補領域を算出してもよい。例えば、本撮影前にライブビュー画像上で特定の被写体を追尾する追尾情報を有している場合は、本撮影直前の追尾対象領域を主被写体候補領域としてもよい。その他、変形例として種々の方法が考えられるが、本発明ではその手法に対し、特に限定しないものとする。
(第2の実施形態)
以下、図面を参照して、本発明の第2の実施形態について詳細に説明する。
第1の実施形態では、主被写体候補領域として複数の領域を検出した場合には、これらの領域を区別せずに1つの領域として主被写体候補領域のエッジ積分値を算出し、エッジ量寄与度を算出した。一方、図10(a)に示す入力画像のように、シーンによっては、主被写体候補領域が複数存在し、さらにそれぞれに含まれるエッジ量の値が極端に異なる場合がある。この場合、第1の実施形態のように、これらの領域を区別せずに顕著度を算出すると、結果としていずれの主被写体候補領域にも適さないエッジ量寄与度が算出されてしまう可能性がある。このような場合は、図10(b)に示すように、それぞれの領域を区別し、領域毎にエッジ量寄与度を算出し、顕著度を複数算出することが好ましい。そこで本実施形態では、主被写体候補領域毎に顕著度マップを算出する例について説明する。
以下、図面を参照して、本発明の第2の実施形態について詳細に説明する。
第1の実施形態では、主被写体候補領域として複数の領域を検出した場合には、これらの領域を区別せずに1つの領域として主被写体候補領域のエッジ積分値を算出し、エッジ量寄与度を算出した。一方、図10(a)に示す入力画像のように、シーンによっては、主被写体候補領域が複数存在し、さらにそれぞれに含まれるエッジ量の値が極端に異なる場合がある。この場合、第1の実施形態のように、これらの領域を区別せずに顕著度を算出すると、結果としていずれの主被写体候補領域にも適さないエッジ量寄与度が算出されてしまう可能性がある。このような場合は、図10(b)に示すように、それぞれの領域を区別し、領域毎にエッジ量寄与度を算出し、顕著度を複数算出することが好ましい。そこで本実施形態では、主被写体候補領域毎に顕著度マップを算出する例について説明する。
なお、本実施形態に係るデジタルカメラの構成及び画像処理部の構成については、それぞれ図1、図11と同様であり、詳細な説明は省略する。以下、第1の実施形態と異なる点について説明する。
図12は、本実施形態において、主被写体候補領域が2つ検出された場合におけるテーブルの例を示す図である。例えば図10(b)に示すように、ステップS202において、主被写体候補領域area1,area2の2領域が検出された場合、それぞれの領域に着目して後段の処理を行う。つまり、ステップS203においては、主被写体候補領域area1のみとした時のエッジ量寄与度k[1]と、主被写体候補領域area2のみとした時のエッジ量寄与度k[2]とをそれぞれ算出する。さらに、ステップS204においては、エッジ量寄与度k[1]を用いて得られる顕著度マップMAP[1]と、エッジ量寄与度k[2]を用いて得られる顕著度マップMAP[2]とをそれぞれ算出する。ここで、エッジ量寄与度や顕著度の各算出方法に関しては、第1の実施形態と同様の手順とする。
最後に、ステップS205において、例えば図12に示すような複数の顕著度マップを含むテーブルから、最終的な主被写体領域を判断する。
以上説明したように本実施形態によれば、入力画像内にエッジ量が大きく異なる複数の主被写体候補領域が存在した場合でも、それぞれの領域を区別して取り扱うようにしたので、それぞれの領域に最適な顕著度マップを得ることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1103 主被写体候補領域検出部
1104 エッジ量寄与度算出部
1105 顕著度算出部
1104 エッジ量寄与度算出部
1105 顕著度算出部
Claims (10)
- 入力画像から主被写体の候補領域を検出する検出手段と、
前記検出手段によって検出された主被写体の候補領域と、前記候補領域の周辺領域とから、それぞれエッジ量を抽出する抽出手段と、
前記抽出手段によって抽出された前記候補領域および前記周辺領域のエッジ量を基に、前記入力画像における視覚的な目立ちやすさを示す顕著度を算出する際の前記エッジ量の寄与度を算出する寄与度算出手段と、
前記入力画像に含まれる複数の領域のそれぞれに対して、前記寄与度算出手段によって算出されたエッジ量の寄与度に基づいて前記顕著度を算出する顕著度算出手段とを備えることを特徴とする画像処理装置。 - 前記寄与度算出手段は、前記主被写体の候補領域におけるエッジ量が第1の閾値より小さく、かつ前記周辺領域におけるエッジ量が第2の閾値より大きい場合における前記寄与度を、前記主被写体の候補領域におけるエッジ量が前記第1の閾値より大きく、かつ前記周辺領域におけるエッジ量が前記第2の閾値より小さい場合における前記寄与度よりも、小さくなるように算出することを特徴とする請求項1に記載の画像処理装置。
- 前記顕著度算出手段は、着目領域とその外側の領域とにおける輝度情報及び色情報の少なくとも一方の差分値に、前記寄与度を基づいた重み係数を乗算することによって前記顕著度を算出することを特徴とする請求項1又は2に記載の画像処理装置。
- 前記重み係数は、前記寄与度が大きいほど、エッジ量に対する変化の度合いが大きくなる係数であることを特徴とする請求項3に記載の画像処理装置。
- 前記検出手段は、前記入力画像に対する合焦領域情報に基づいて前記主被写体の候補領域を検出することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
- 前記検出手段は、前記入力画像における被写体の追尾情報に基づいて前記主被写体の候補領域を検出することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
- 前記抽出手段は、前記主被写体の候補領域と、前記入力画像から前記候補領域を除いた周辺領域とから、それぞれエッジ量を抽出することを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
- 前記検出手段によって複数の候補領域が検出された場合に、前記抽出手段は、前記検出された候補領域ごとに該候補領域とその周辺領域とから、それぞれエッジ量を抽出し、
前記寄与度算出手段は、前記検出された候補領域ごとに前記エッジ量の寄与度を算出し、
前記顕著度算出手段は、前記検出された候補領域ごとに算出されたエッジ量の寄与度に基づいて、それぞれ前記顕著度を算出することを特徴とする請求項1〜7の何れか1項に記載の画像処理装置。 - 入力画像から主被写体の候補領域を検出する検出工程と、
前記検出工程において検出された主被写体の候補領域と、前記候補領域の周辺領域とから、それぞれエッジ量を抽出する抽出工程と、
前記抽出工程において抽出された前記候補領域および前記周辺領域のエッジ量を基に、前記入力画像における視覚的な目立ちやすさを示す顕著度を算出する際の前記エッジ量の寄与度を算出する寄与度算出工程と、
前記入力画像に含まれる複数の領域のそれぞれに対して、前記寄与度算出工程において算出されたエッジ量の寄与度に基づいて前記顕著度を算出する顕著度算出工程とを備えることを特徴とする画像処理方法。 - 入力画像から主被写体の候補領域を検出する検出工程と、
前記検出工程において検出された主被写体の候補領域と、前記候補領域の周辺領域とから、それぞれエッジ量を抽出する抽出工程と、
前記抽出工程において抽出された前記候補領域および前記周辺領域のエッジ量を基に、前記入力画像における視覚的な目立ちやすさを示す顕著度を算出する際の前記エッジ量の寄与度を算出する寄与度算出工程と、
前記入力画像に含まれる複数の領域のそれぞれに対して、前記寄与度算出工程において算出されたエッジ量の寄与度に基づいて前記顕著度を算出する顕著度算出工程とをコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015127027A JP6558978B2 (ja) | 2015-06-24 | 2015-06-24 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015127027A JP6558978B2 (ja) | 2015-06-24 | 2015-06-24 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017010406A JP2017010406A (ja) | 2017-01-12 |
JP6558978B2 true JP6558978B2 (ja) | 2019-08-14 |
Family
ID=57763617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015127027A Expired - Fee Related JP6558978B2 (ja) | 2015-06-24 | 2015-06-24 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6558978B2 (ja) |
-
2015
- 2015-06-24 JP JP2015127027A patent/JP6558978B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017010406A (ja) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977940B (zh) | 背景虚化处理方法、装置及设备 | |
US9607240B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing | |
JP4772839B2 (ja) | 画像識別方法および撮像装置 | |
US20150278996A1 (en) | Image processing apparatus, method, and medium for generating color image data | |
US9204034B2 (en) | Image processing apparatus and image processing method | |
JP6833415B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016151955A (ja) | 画像処理装置、撮像装置、距離計測装置、および画像処理方法 | |
US10121067B2 (en) | Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium | |
JP5218429B2 (ja) | 3次元形状測定装置および方法、並びに、プログラム | |
JP5754931B2 (ja) | 画像解析装置、画像解析方法及びプログラム | |
JP6825299B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6558978B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7373297B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6063680B2 (ja) | 画像生成装置、画像生成方法、撮像装置、および撮像方法 | |
JP6556033B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6561479B2 (ja) | 色シェーディング補正が可能な撮像装置 | |
JP7437915B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP6326841B2 (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
JP2018152095A (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
JP6248662B2 (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
JP5818571B2 (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP6188360B2 (ja) | 画像処理装置、その制御方法、および制御プログラム、並びに判別装置 | |
JP6314281B1 (ja) | 画像処理方法及び前景領域取得方法 | |
JP6405638B2 (ja) | 被写体検出装置、撮像装置及びプログラム | |
JP6318661B2 (ja) | 被写体検出装置、撮像装置及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190716 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6558978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |