JP2011035636A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2011035636A
JP2011035636A JP2009179552A JP2009179552A JP2011035636A JP 2011035636 A JP2011035636 A JP 2011035636A JP 2009179552 A JP2009179552 A JP 2009179552A JP 2009179552 A JP2009179552 A JP 2009179552A JP 2011035636 A JP2011035636 A JP 2011035636A
Authority
JP
Japan
Prior art keywords
area
main subject
region
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009179552A
Other languages
English (en)
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009179552A priority Critical patent/JP2011035636A/ja
Publication of JP2011035636A publication Critical patent/JP2011035636A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】動く主要被写体を精度良く抽出できる画像処理装置を提供すること。
【解決手段】画像処理装置は、処理対象画像61に対して、特徴量マップFc,Fh,Fsを統合した顕著性マップSを求めて、複数段階の注目点領域62−1乃至62−Nを推定する(ステップSa,Sb)。画像処理装置は、複数段階の注目点領域62−1乃至62−Nを用いて注目点領域のコア領域63−1,63−2を抽出し、それらに基づいて、主要被写体の領域の種64−1,64−2、及び、背景領域の種65−1,65−2を設定する(ステップSc,Sd)。画像処理装置は、主要被写体の事前確率Pr(O)の初期値と、背景領域の事前確率Pr(B)の初期値とを求める(ステップSe)。画像処理装置は、Graph Cuts法による領域分割処理を実行する(ステップSf)。
【選択図】図3

Description

本発明は、画像処理装置及び方法に関し、特に、動く主要被写体を精度良く抽出する技術に関する。
従来より、デジタルカメラの分野において、動きを伴った切抜き合成技術が研究開発されている(特許文献1,2参照)。これらの技術によれば、例えば、連写撮影された複数のフレーム画像毎に、動く主要被写体がそれぞれ抽出される。複数のフレーム画像毎に抽出された動く主要被写体の組は、任意の他の静止画像に貼付け合成又は混合合成される。これにより、新しい合成動画像が生成され、その再生が可能になる。
近年、家庭用ムービーなどを用いて、実際の多様な情景を背景にして撮影された一般的な動画像などに対しても、動きを伴った切抜き合成技術を利用したいという要望が挙げられている。
特開平11−331693号公報 特開2005−6191号公報
しかしながら、特許文献1,2を含め従来の技術では、このような一般的な動画像から、動く主要被写体を精度良く抽出することは困難である。例えば特許文献2では、動きベクトルで判断しているため、カメラが主要被写体を追ってしまうとうまく抽出することは困難になる。すなわち、かかる要望に十分に応えることが可能な技術が、見受けられない状況である。
そこで、本発明は、動く主要被写体を精度良く抽出することを目的とする。
本発明の第1の観点によると、主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、前記推定部により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割部と、前記入力画像から、前記分割部により分割された前記主要被写体の領域を抽出する抽出部と、を備える画像処理装置を提供する。
本発明の第2の観点によると、前記分割部は、前記注目点領域を含む所定領域から定義したエネルギー関数を用いる所定のアルゴリズムにしたがって、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する画像処理装置を提供する。
本発明の第3の観点によると、前記所定のアルゴリズムは、Graph Cuts法である画像処理装置を提供する。
本発明の第4の観点によると、前記入力画像から輪郭線若しくはエッジ形状を抽出する輪郭線抽出部をさらに備え、前記分割部は、前記輪郭線抽出部により抽出された前記輪郭線又は前記エッジ形状により特定される輪郭線のうち、前記注目点領域と重なる輪郭線の内側領域を前記主要被写体の領域とし、当該輪郭線の外側領域を前記背景領域とすることで、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する画像処理装置を提供する。
本発明の第5の観点によると、主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、前記推定ステップの処理により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割ステップと、前記入力画像から、前記分割ステップの処理により分割された前記主要被写体の領域を抽出する抽出ステップと、を含む画像処理方法を提供する。
本発明によれば、動く主要被写体を精度良く抽出することができる。
本発明の第1実施形態に係る画像処理装置のハードウェアの構成図である。 本発明の第1実施形態における動くキャラクタ抽出処理の結果の具体例を示す図である。 本発明の第1実施形態における動くキャラクタ抽出処理の概略を説明する図である。 本発明の第1実施形態における撮影モード処理の流れの一例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの動くキャラクタ抽出処理の流れの詳細例を示すフローチャートである。 本発明の第1実施形態における動くキャラクタ抽出処理のうちの顕著性マップ抽出処理の流れの詳細の一例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの一例を示すフローチャートである。 本発明の第1実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの別の例を示すフローチャートである。
〔第1実施形態〕
以下、本発明の第1実施形態を図面に基づいて説明する。
図1は、本発明の第1実施形態に係る画像処理装置100のハードウェアの構成を示す図である。画像処理装置100は、例えばデジタルカメラにより構成することができる。
画像処理装置100は、光学レンズ装置1と、シャッタ装置2と、アクチュエータ3と、CMOSセンサ4と、AFE5と、TG6と、DRAM7と、DSP8と、CPU9と、RAM10と、ROM11と、液晶表示コントローラ12と、液晶ディスプレイ13と、操作部14と、メモリカード15と、測距センサ16と、測光センサ17と、を備える。
光学レンズ装置1は、例えばフォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、CMOSセンサ4の受光面に被写体像を結像させるためレンズである。
シャッタ装置2は、例えばシャッタ羽根などから構成される。シャッタ装置2は、CMOSセンサ4へ入射する光束を遮断する機械式のシャッタとして機能する。シャッタ装置2はまた、CMOSセンサ4へ入射する光束の光量を調節する絞りとしても機能する。アクチュエータ3は、CPU9による制御にしたがって、シャッタ装置2のシャッタ羽根を開閉させる。
CMOS(Complementary Metal Oxide Semiconductor)センサ4は、例えばCMOS型のイメージセンサなどから構成される。CMOSセンサ4には、光学レンズ装置1からシャッタ装置2を介して被写体像が入射される。そこで、CMOSセンサ4は、TG6から供給されるクロックパルスにしたがって、一定時間毎に被写体像を光電変換(撮影)して画像信号を蓄積し、蓄積した画像信号をアナログ信号として順次出力する。
AFE(Analog Front End)5には、CMOSセンサ4からアナログの画像信号が供給される。そこで、AFE5は、TG6から供給されるクロックパルスにしたがって、アナログの画像信号に対し、A/D(Analog/Digital)変換処理などの各種信号処理を施す。各種信号処理の結果、ディジタル信号が生成され、AFE5から出力される。
TG(Timing Generator)6は、CPU9による制御にしたがって、一定時間毎にクロックパルスをCMOSセンサ4とAFE5とにそれぞれ供給する。
DRAM(Dynamic Random Access Memory)7は、AFE5により生成されるディジタル信号や、DSP8により生成される画像データを一時的に記憶する。
DSP(Digital Signal Processor)8は、CPU9による制御にしたがって、DRAM7に記憶されたディジタル信号に対して、ホワイトバランス補正処理、γ補正処理、YC変換処理などの各種画像処理を施す。各種画像処理の結果、輝度信号と色差信号とでなる画像データが生成される。なお、以下、かかる画像データをフレーム画像データと称し、このフレーム画像データにより表現される画像をフレーム画像と称する。
CPU(Central Processing Unit)9は、画像処理装置100全体の動作を制御する。RAM(Random Access Memory)10は、CPU9が各処理を実行する際にワーキングエリアとして機能する。ROM(Read Only Memory)11は、画像処理装置100が各処理を実行するのに必要なプログラムやデータを記憶する。CPU9は、RAM10をワーキングエリアとして、ROM11に記憶されているプログラムとの協働により各種処理を実行する。
液晶表示コントローラ12は、CPU9による制御にしたがって、DRAM7やメモリカード15に記憶されているフレーム画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像として、フレーム画像を表示する。
また、液晶表示コントローラ12は、CPU9による制御にしたがって、ROM11などに予め記憶されている各種画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像を表示する。例えば本実施の形態では、各種シーンを特定可能な情報(以下、シーン情報と称する)の画像データがROM11に記憶されている。このため、図4を参照して後述するように、各種シーン情報が液晶ディスプレイ13に適宜表示される。
操作部14は、ユーザから各種ボタンの操作を受け付ける。操作部14は、電源釦、十字釦、決定釦、メニュー釦、レリーズ釦などを備える。操作部14は、ユーザから受け付けた各種ボタンの操作に対応する信号を、CPU9に供給する。CPU9は、操作部14からの信号に基づいてユーザの操作内容を解析し、その操作内容に応じた処理を実行する。
メモリカード15は、DSP8により生成されたフレーム画像データを記録する。測距センサ16は、CPU9による制御にしたがって、被写体までの距離を検出する。測光センサ17は、CPU9による制御にしたがって、被写体の輝度(明るさ)を検出する。
このような構成を有する画像処理装置100の動作モードとしては、撮影モードや再生モードを含む各種モードが存在する。ただし、以下、説明の簡略上、主に、撮影モード時における処理(以下、撮影モード処理と称する)について説明する。なお、以下、撮影モード処理の主体は主にCPU9であるとする。
次に、図1の画像処理装置100の撮影モード処理のうち、顕著性マップに基づく注目点領域を用いて、動く主要被写体の領域(以下、動くキャラクタ部分と称する)を抽出する処理の概略について説明する。なお、以下、かかる処理を、動くキャラクタ抽出処理と称する。
図2は、動くキャラクタ抽出処理の結果の具体例を示す図である。
例えばレリーズ釦が全押しされている間、図1の画像処理装置100のCPU9は、CMOSセンサ4による撮影を継続させ、その間にDSP8により逐次生成されるフレーム画像データを、DRAM7に一時的に記憶させる。
このようにして、レリーズ釦が全押しされている間にDRAM7に連続して記録された複数のフレーム画像データは、連写画像データ又は動画像データ(以下、まとめて動画像データなどと称する)を構成する。例えば、図2の例の動画像データなどは、複数のフレーム画像51−1乃至51−6のそれぞれに対応する各フレーム画像データにより構成される。
CPU9は、動画像データなどから所定のフレーム画像データを選択して、処理対象画像データとして設定する。そして、CPU9は、処理対象画像データ毎に次のような一連の処理を繰り返し実行することで、動くキャラクタ抽出処理を実行する。
すなわち、CPU9は、処理対象画像データに対応するフレーム画像を、主要被写体の領域と背景領域とにセグメンテーション(画像の領域分割)する。そして、CPU9は、主要被写体の領域に対応する画像データを、「動くキャラクタ部分」の画像データとして抽出する。
このような動くキャラクタ抽出処理が処理対象画像データ毎に繰り返し実行されると、連続した複数の「動くキャラクタ部分」の画像データが得られる。連続した複数の「動くキャラクタ部分」の画像データは、動画像データなどを構成する。なお、以下、かかる動画像データを、「動くキャラクタ部分」の動画像データなどと称する。
例えば図2の例では、複数のフレーム画像51−1乃至51−6から、投球動作をしている人物(主要被写体)の領域52−1乃至52−6の各画像データが、「動くキャラクタ部分」の画像データとしてそれぞれ抽出される。したがって、主要被写体の領域52−1乃至52−6の各画像データにより、「動くキャラクタ部分」の動画像データなどが構成される。
「動くキャラクタ部分」の動画像データなどは、メモリカード15などに記録可能である。
画像処理装置100には、このような「動くキャラクタ部分」の動画像データなどを再生させる再生モードが存在する。なお、以下、かかる再生モードを、「動くキャラクタと背景画像の合成再生モード」と称する。
「動くキャラクタと背景画像の合成再生モード」が選択されると、CPU9は、「動くキャラクタ部分」の動画像データなどから、所定のフレーム画像データを選択してメモリカード15などから読み出す。同様に、CPU9は、予めメモリカード15やROM11などに記録されている背景画像データの中から、任意の1つを選択して読み出す。次に、CPU9は、読み出したフレーム画像データと背景画像データとを合成する。これにより、動くキャラクタ部分が背景画像に合成された合成画像に対応する合成画像データ(フレーム画像データ)が生成される。
CPU9は、このような一連の処理を、「動くキャラクタ部分」の動画像データなどを構成する各フレーム画像データ毎に繰り返し実行する。その結果、連続した複数の合成画像データが生成される。連続した複数の合成画像データは、新たな動画像データを構成する。なお、以下、かかる新たな動画像データを、合成動画像データと称する。
そこで、CPU9は、液晶表示コントローラ12などを用いて、この合成動画像データの再生を制御する。その結果、合成動画像が液晶ディスプレイ13に表示される。このようにして、「動く写真」が容易に実現可能となる。
また、CPU9は、合成動画像データを、例えばモーションJPEG(Joint Photographic Experts Group)やH.264の規格にしたがって、メモリカード15などに記録させることもできる。
図3は、動くキャラクタ抽出処理の概略を説明する図である。
第1実施形態における動くキャラクタ抽出処理では、Graph Cuts法(グラフカット法)が適用されている。Graph Cuts法とは、セグメンテーション(画像の領域分割)問題をエネルギー最小化問題として解く手法のひとつである。Graph Cuts法は、各領域から定義したエネルギー関数の大域解を求めることが可能であり、その結果、領域と境界の両方の特性を用いたセグメンテーションが実現できるという利点がある。
なお、Graph Cuts法のさらなる詳細については、「Y.Boykov , M−P.Jolly , “Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N−D Images” , ICCV , vol.I , pp.105−112 , 2001」を参照すると良い。又は、「Y.Boykov , V.Kolmogorov , “An Experimental Comparison of Min−Cut/Max−Flow Algorithms for Energy Minimization in Vision” , PAMI , vol.26 , no.9 , pp.1124−1137 , Sept.2004.」を参照すると良い。
図3の例では、処理対象画像61について、次のような動くキャラクタ抽出処理が実行される。
ステップSaにおいて、CPU9は、顕著性マップ抽出処理として、例えば次のような処理を実行する。
すなわち、CPU9は、処理対象画像61に対応するフレーム画像データについて、例えば色、方位、輝度などの複数種類の特徴量のコントラストから、複数種類の特徴量マップを作成する。なお、以下、このような複数種類のうち所定の1種類の特徴量マップを作成するまでの一連の処理を、特徴量マップ作成処理と称する。各特徴量マップ作成処理の詳細例については、図7や図8を参照して後述する。
例えば図3の例では、後述する図8Aのマルチスケールのコントラストの特徴量マップ作成処理の結果、特徴量マップFcが作成されている。また、後述する図8BのCenter−Surroundの色ヒストグラムの特徴量マップ作成処理の結果、特徴量マップFhが作成されている。また、図8Cの色空間分布の特徴量マップ作成処理の結果、特徴量マップFsが作成されている。
次に、CPU9は、複数種類の特徴量マップを統合することで、顕著性マップを求める。例えば図2の例では、特徴量マップFc,Fh,Fsが統合されて、顕著性マップSが求められている。
ステップSaの処理は、後述する図5のステップS22の処理に対応する。
ステップSbにおいて、CPU9は、顕著性マップを用いて、処理対象画像の中から、人間の視覚的注意を引く可能性の高い画像領域(以下、注目点領域と称する)を推定する。例えば図2の例では、顕著性マップSを用いて処理対象画像61から、複数段階の注目点領域62−1乃至62−N(Nは1以上の整数値であって、図3の例では少なくとも4以上の整数値)が推定されている。
注目点領域62−r(rは、1乃至Nのうちのいずれかの整数値)は、顕著性マップSを所定の閾値Sth-rを用いて2値化した場合における、閾値Sth−rよりも高い値を有する領域である。具体的には例えば図2の例では、注目点領域62−1の推定に用いられた閾値Sth−1は70とされている。注目点領域62−2の推定に用いられた閾値Sth−2は90とされている。注目点領域62−(N−1)の推定に用いられた閾値Sth−(N−1)は150とされている。注目点領域62−Nの推定に用いられた閾値Sth−Nは170とされている。
ステップSbの処理は、後述する図5のステップS24の処理に対応する。
ステップSfのGraph Cuts法による領域分割処理においては、処理対象画像61は、主要被写体の領域と背景領域とにセグメンテーション(分割)される。かかる領域分割処理を実現するためには、主要被写体の領域と背景領域との見本となるラベルや種(seed)が必要になる。このため、次のようなステップSc,Sdの処理が実行される。
ステップScにおいて、CPU9は、コア領域抽出処理として、例えば次のような処理を実行する。
すなわち、CPU9は、複数段階の注目点領域62−1乃至62−Nを用いて、注目点領域のコア領域を抽出する。例えは、複数段階の注目点領域62−1乃至62−Nの変化が少ない領域や、複数段階の注目点領域62−1乃至62−Nの重複領域などに基づいて、注目点領域のコア領域が抽出される。具体的には例えば図3の例では、注目点領域のコア領域63−1,63−2が抽出されている。
ステップScの処理は、後述する図5のステップS25の処理に対応する。
ステップSdにおいて、CPU9は、種(seed)設定処理として、例えば次のような処理を実行する。
すなわち、CPU9は、例えば注目点領域のコア領域に基づいて、主要被写体の領域の種と、背景領域の種とをそれぞれ設定する。
なお、設定手法自体は特に限定されない。例えば、注目点領域のコア領域をそのまま、主要被写体の領域の種に設定するという手法を採用することができる。また例えば、注目点領域のコア領域に内接若しくは外接する矩形領域、又は、注目点領域の重心若しくは骨格線などを、主要被写体の領域の種に設定するという手法を採用することができる。また例えば、顕著性が低いコア領域、注目点領域以外の矩形領域、又は、注目点領域以外の領域の重心や骨格線を、背景領域の種に設定するという手法を採用することができる。
例えば図3の例では、主要被写体の領域の種64−1,64−2、及び、背景領域の種65−1,65−2が設定されている。
ステップSdの処理は、後述する図5のステップS26の処理に対応する。
また、ステップSfのGraph Cuts法による領域分割処理を実現するためには、主要被写体の事前確率Pr(O)と、背景領域の事前確率Pr(B)とが必要になる。
そこで、ステップSeにおいて、CPU9は、事前確率演算処理として、例えば次のような処理を実行する。
すなわち、CPU9は、顕著性マップSの値(ただし、顕著性マップ値を0乃至1の範囲内に正規化した値)を、主要被写体領域の事前確率Pr(O)として演算する。また、CPU9は、顕著性マップSを反転した値(1−顕著性マップSの値)、すなわち1−Pr(O)を、背景領域の事前確率Pr(O)として演算する。例えば図3の例では、同図に示される顕著性マップSから、同図に示される主要被写体の事前確率Pr(O)と背景領域の事前確率Pr(B)とが得られている。
ステップSeの処理は、後述する図5のステップS23の処理に対応する。
次に、ステップSfにおいて、CPU9は、Graph Cuts法による領域分割処理を実行する。
ここで、従来のGraph Cuts法では物体と背景の学習のために、物体領域(主要被写体領域)と背景領域の見本となるラベルや種は手動で与えられていた。これに対して、本実施形態では、ステップSdの処理で自動的に設定された主要被写体の種及び背景領域の種を利用することができる。その結果、従来のようにユーザが手動で種を入力する必要が無くなり、また、学習の必要も無くなる。
また、ステップSeの処理で演算された主要被写体の事前確率Pr(O)及び背景領域の事前確率Pr(B)は、顕著性マップSに基づくものであり、Graph Cuts法のt−linkの事前確率として採用することが可能である。その結果、主要被写体領域の適切な空間情報が得られることになる。
ステップSfのGraph Cuts法による領域分割処理の結果、上述したように、処理対象画像61は、主要被写体の領域と背景領域に分割される。
ステップSfの処理は、後述する図5のステップS27の処理に対応する。
その後、主要被写体の領域のデータが「動くキャラクタ部分」の画像データとして抽出される(後述する図5ステップS28参照)。なお、この抽出手法は、特に限定されず、いわゆる切り抜き抽出であっても良いし、いわゆるアルファチャネル抽出であっても良い。
このようなステップSa乃至Sfの処理が、複数のフレーム画像データ毎に繰り返し実行されることで、「動くキャラクタ部分」の動画像データなどが抽出される。
以上、図2や図3を参照して、画像処理装置100が実行する動くキャラクタ抽出処理の概略について説明した。次に、図4乃至図8を参照して、動くキャラクタ抽出処理を含む撮影モード処理全体について説明する。
図4は、撮影モード処理の流れの一例を示すフローチャートである。
撮影モード処理は、ユーザが撮影モードを選択する所定の操作を操作部14に対して行った場合、その操作を契機として開始される。すなわち、次のような処理が実行される。
ステップS1において、CPU9は、撮影前処理を実行することで、例えば、シーンや撮影条件などを設定する。
ステップS2において、CPU9は、レリーズ釦が半押しの状態であるか否かを判定する。
ユーザがレリーズ釦を半押ししていない場合、ステップS2においてNOであると判定され、処理はステップS1に戻され、それ以降の処理が繰り返される。すなわち、ユーザがレリーズ釦を半押しするまでの間、ステップS1,S2のループ処理が繰り返し実行される。
その後、ユーザがレリーズ釦を半押しすると、ステップS2においてYESであると判定されて、処理はステップS3に進む。
ステップS3において、CPU9は、AF(Automatic Focus)処理(オートフォーカス処理)を実行する。
ステップS4において、CPU9は、レリーズ釦が全押しの状態であるか否かを判定する。
ユーザがレリーズ釦を全押ししていない場合、ステップS4においてNOであると判定され、処理はステップS12に進む。ステップS12において、CPU9は、レリーズ釦が解除されたか否かを判定する。ユーザの指などがレリーズ釦から離された場合、ステップS12においてYESであると判定されて、撮影モード処理は終了となる。これに対して、ユーザの指などがレリーズ釦から離されていない場合、ステップS12においてNOであると判定されて、処理はステップS4に戻され、それ以降の処理が繰り返される。すなわち、レリーズ釦の半押し状態が継続している限り、ステップS4NO,S12NOのループ処理が繰り返し実行される。
その後、ユーザがレリーズ釦を全押しすると、ステップS4においてYESであると判定されて、処理はステップS5に進む。ステップS5において、CPU9は、AWB(Automatic White Balance)処理(オートホワイトバランス処理)と、AE(Automatic Exposure)処理(自動露出処理)を実行する。すなわち、測光センサ17による測光情報や撮影条件などに基づいて、絞り、露出時間、ストロボ条件などが設定される。
ステップS6において、CPU9は、TG6やDSP8などを制御して、撮影条件などに基づいて露出及び撮影処理を実行する。この露出及び撮影処理により、撮影条件などにしたがってCMOSセンサ4により撮影された被写体像は、フレーム画像データとしてDRAM7に記憶される。なお、以下、かかるフレーム画像データを撮影画像データと称し、また、撮影画像データにより表現される画像を撮影画像と称する。ステップS7おいて、CPU9は、撮影画像データをDRAM7などに一時保持する。
ステップS8において、CPU9は、レリーズ釦が解除されたか否かを判定する。ユーザの指などがレリーズ釦から離されていない場合、ステップS8においてNOであると判定されて、処理はステップS5に戻され、それ以降の処理が繰り返される。すなわち、レリーズ釦の全押し状態が継続している限り、ステップS5乃至S8のループ処理が繰り返し実行され、その結果、複数の撮影画像データが一枚ずつDRAM7などに順次保持されていく。その後、ユーザの指などがレリーズ釦から離された場合、ステップS8においてYESであると判定されて、処理はステップS9に進む。
ステップS9の処理開始段階では、レリーズ釦の全押しの状態が継続している間にDRAM7に連続して記録された複数の撮影画像データにより、動画像データなどが構成されている。そこで、ステップS9において、CPU9は、この動画像データなどに対して、動くキャラクタ抽出処理を実行する。その結果、「動くキャラクタ」の動画像データなどが得られる。動くキャラクタ抽出処理については、その概略は図2を参照して上述した通りであり、その詳細は図5を参照して後述する。
ステップS10において、CPU9は、DSP8などを制御して、「動くキャラクタ」の動画像データなどの圧縮符号化処理を実行する。その結果、符号化画像データが得られることになる。そこで、ステップS11において、CPU9は、符号化画像データの保存記録処理を実行する。これにより、符号化画像データがメモリカード15などに記録され、撮影モード処理が終了となる。
次に、撮影モード処理のうち、ステップS9の動くキャラクタ抽出処理の詳細例について説明する。
図5は、動くキャラクタ抽出処理の流れの詳細例を示すフローチャートである。
ステップS21において、CPU9は、図4のステップS5乃至S8のループ処理の結果得られた動画像データなどの中から、所定の撮影画像データ(フレーム画像データ)を処理対象画像データとして設定する。
ステップS22において、CPU9は、顕著性マップ抽出処理を実行することで、顕著性マップを求める。顕著性マップ抽出処理については、その概略は図3のステップSaの処理として上述した通りであり、その詳細は図6を参照して後述する。
ステップS23において、CPU9は、事前確率演算処理を実行する。これにより、図3のステップSeの処理として上述した通り、主要被写体の事前確率Pr(O)と背景領域の事前確率Pr(B)とが得られる。
ステップS24において、CPU9は、顕著性マップを用いて、注目点領域を推定する。これにより、図3のステップSbの処理として上述した通り、複数段階の注目点領域が推定される。
ステップS25において、CPU9は、複数段階の注目点領域を用いて、コア領域抽出処理を実行する。これにより、図3のステップScの処理として上述した通り、注目点領域のコア領域が抽出される。
ステップS26において、CPU9は、注目点領域のコア領域を用いて、種(seed)設定処理を実行する。これにより、図3のステップSdの処理として上述した通り、主要被写体の領域の種と、背景領域の種とがそれぞれ設定される。
ステップS27において、CPU9は、主要被写体の事前確率Pr(O)及び背景領域の事前確率Pr(B)、並びに、主要被写体の領域の種及び背景領域の種を用いて、Graph Cuts法による領域分割処理を実行する。これにより、図3のステップSfの処理として上述した通り、処理対象画像データに対応するフレーム画像は、主要被写体の領域と背景領域とにセグメンテーション(分割)される。そこで、ステップS28において、CPU9は、分割後の主要被写体の領域に対応するデータを、「動くキャラクタ」の画像データとしてDRAM7などに一時的に保持する。
ステップS29において、CPU9は、処理対象画像データが最後の撮影画像データ(フレーム画像データ)か否かを判定する。処理対象画像データが最後の撮影画像データでない場合、ステップS29においてNOであると判定されて処理はステップS21に戻される。すなわち、動画像データなどを構成する複数の撮影画像データ毎に、ステップS21乃至S29のループ処理が繰り返し実行されることで、「動くキャラクタ」の画像データが順次抽出されていく。
その後、最後の撮影画像データが処理対象画像データに設定されて、ステップS22乃至S28の処理が実行されると、次のステップS29においてYESであると判定されて、動くキャラクタ抽出処理は終了となる。その結果、複数の撮影画像データのそれぞれから抽出された複数の「動くキャラクタ」の画像データにより、「動くキャラクタ」の動画像データなどが構成される。このため、動くキャラクタ抽出処理が終了すると、すなわち、図4のステップS9の処理が終了すると、上述したように、ステップS10,S11の処理で、「動くキャラクタ」の動画像データなどが圧縮符号化され、その結果得られる符号化画像データがメモリカード15などに記録される。
次に、動くキャラクタ抽出処理のうち、ステップS22(図3のステップSa)の注目点領域処理の詳細例について説明する。
上述したように、注目点領域推定処理では、注目点領域の推定のために、顕著性マップが作成される。したがって、注目点領域推定処理に対して、例えば、Treismanの特徴統合理論や、Itti及びKochらによる顕著性マップを適用することができる。
なお、Treismanの特徴統合理論については、「A.M.Treisman and G.Gelade,“A feature―integration theory of attention”,Cognitive Psychology,Vol.12,No.1,pp.97−136,1980.」を参照すると良い。
また、Itti及びKochらによる顕著性マップについては、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
図6は、Treismanの特徴統合理論やNitti及びKochらによる顕著性マップを適用した場合における、注目点領域推定処理の流れの詳細例を示すフローチャートである。
ステップS41において、CPU9は、スルー撮像により得られたフレーム画像データを、処理対象画像データとして取得する。
ステップS42において、CPU9は、ガウシアン解像度ピラミット(Gaussian Resolution Pyramid)を作成する。具体的には例えば、CPU9は、処理対象画像データ{(x,y)の位置の画素データ}をI(0)=I(x,y)として、ガウシアンフィルタ処理とダウンサンプリング処理とを順次繰り返し実行する。その結果として、階層型のスケール画像データI(L)(例えばL∈{0・・・8})の組が生成される。この階層型のスケール画像データI(L)の組が、ガウシアン解像度ピラミッドと称されている。ここで、スケールL=k(ここではkは1乃至8のうちのいずれかの整数値)の場合、スケール画像データI(k)は、1/2の縮小画像(k=0の場合は原画像)を示す。
ステップS43において、CPU9は、各特徴量マップ作成処理を開始する。各特徴量マップ作成処理の詳細例については、図7や図8を参照して後述する。
ステップS44において、CPU9は、全ての特徴量マップ作成処理が終了したか否かを判定する。各特徴量マップ作成処理のうち1つでも処理が終了していない場合、ステップS44において、NOであると判定されて、処理はステップS44に再び戻される。すなわち、各特徴量マップ作成処理の全処理が終了するまでの間、ステップS44の判定処理が繰り返し実行される。そして、各特徴量マップ作成処理の全処理が終了して、全ての特徴量マップが作成されると、ステップS44においてYESであると判定されて、処理はステップS45に進む。
ステップS45において、CPU9は、各特徴量マップを線形和で結合して、顕著性マップS(Saliency Map)を求める。このようにして、顕著性マップSが求められると、顕著性マップ抽出処理は終了する。すなわち、図5のステップS22の処理は終了し、処理はステップS23に進む。図3の例でいえば、ステップSaの処理は終了し、処理はステップSbに進む。
次に、各特徴量マップ作成処理の具体例について説明する。
図7は、輝度、色、及び、方向性の特徴量マップ作成処理の流れの一例を示すフローチャートである。
図7Aは、輝度の特徴量マップ作成処理の一例を示している。
ステップS61において、CPU9は、処理対象画像データに対応する各スケール画像から、各注目画素を設定する。例えば各注目画素c∈{2,3,4}が設定されたとして、以下の説明を行う。各注目画素c∈{2,3,4}とは、スケールc∈{2,3,4}のスケール画像データI(c)上の演算対象として設定された画素をいう。
ステップS62において、CPU9は、各注目画素c∈{2,3,4}の各スケール画像の輝度成分を求める。
ステップS63において、CPU9は、各注目画素の周辺画素s=c+δの各スケール画像の輝度成分を求める。各注目画素の周辺画素s=c+δとは、例えばδ∈{3,4}とすると、スケールs=c+δのスケール画像I(s)上の、注目画素(対応点)の周辺に存在する画素をいう。
ステップS64において、CPU9は、各スケール画像について、各注目画素c∈{2,3,4}における輝度コントラストを求める。例えば、CPU9は、各注目画素c∈{2,3,4}と、各注目画素の周辺画素s=c+δ(例えばδ∈{3,4})のスケール間差分を求める。ここで、注目画素cをCenterと呼称し、注目画素の周辺画素sをSurroundと呼称すると、求められたスケール間差分は、輝度のCenter−Surroundスケール間差分と呼称することができる。この輝度のCenter−Surroundスケール間差分は、注目画素cが白で周辺画素sが黒の場合又はその逆の場合には大きな値をとるという性質がある。したがって、輝度のCenter−Surroundスケール間差分は、輝度コントラストを表わすことになる。なお、以下、かかる輝度コントラストをI(c,s)と記述する。
ステップS65において、CPU9は、処理対象画像データに対応する各スケール画像において、注目画素に設定されていない画素が存在するか否かを判定する。そのような画素が存在する場合、ステップS65においてYESであると判定されて、処理はステップS61に戻され、それ以降の処理が繰り返される。
すなわち、処理対象画像データに対応する各スケール画像の各画素に対して、ステップS61乃至S65の処理がそれぞれ施されて、各画素の輝度コントラストI(c,s)が求められる。ここで、各注目画素c∈{2,3,4}、及び、周辺画素s=c+δ(例えばδ∈{3,4})が設定される場合、ステップS61乃至S65の1回の処理で、(注目画素cの3通り)×(周辺画素sの2通り)=6通りの輝度コントラストI(c,s)が求められる。ここで、所定のcと所定のsについて求められた輝度コントラストI(c,s)の画像全体の集合体を、以下、輝度コントラストIの特徴量マップと称する。輝度コントラストIの特徴量マップは、ステップS61乃至S65のループ処理の繰り返しの結果、6通り求められることになる。このようにして、6通りの輝度コントラストIの特徴量マップが求められると、ステップS65においてNOであると判定されて、処理はステップS66に進む。
ステップS66において、CPU9は、輝度コントラストIの各特徴量マップを正規化した上で結合することで、輝度の特徴量マップを作成する。これにより、輝度の特徴量マップ作成処理は終了する。なお、以下、輝度の特徴量マップを、他の特徴量マップと区別すべく、FIと記述する。
図7Bは、色の特徴量マップ作成処理の一例を示している。
図7Bの色の特徴量マップ作成処理は、図7Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図7BのステップS81乃至S86のそれぞれの処理は、図7AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図7Aとは異なるだけである。したがって、図7Bの色の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
すなわち、図7AのステップS62とS63の処理対象は、輝度成分であったのに対して、図7BのステップS82とS83の処理対象は、色成分である。
また、図7AのステップS64の処理では、輝度のCenter−Surroundスケール間差分が、輝度コントラストI(c,s)として求められた。これに対して、図7BのステップS84の処理では、色相(R/G,B/Y)のCenter−Surroundスケール間差分が、色相コントラストとして求められる。なお、色成分のうち、赤の成分がRで示され、緑の成分がGで示され、青の成分がBで示され、黄の成分がYで示されている。また、以下、色相R/Gについての色相コントラストを、RG(c,s)と記述し、色相B/Yについての色相コントラストを、BY(c,s)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、図7AのステップS61乃至S65のループ処理の結果、6通りの輝度コントラストIの特徴量マップが求められた。これに対して、図7BのステップS81乃至S85のループ処理の結果、6通りの色相コントラストRGの特徴量マップと、6通りの色相コントラストBYの特徴量マップとが求められる。
最終的に、図7AのステップS66の処理で、輝度の特徴量マップFIが求められた。これに対して、図7BのステップS86の処理で、色の特徴量マップが求められる。なお、以下、色の特徴量マップを、他の特徴量マップと区別すべく、FCと記述する。
図7Cは、方向性の特徴量マップ作成処理の一例を示している。
図7Cの方向性の特徴量マップ作成処理は、図7Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図7CのステップS101乃至S106のそれぞれの処理は、図7AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図7Aとは異なるだけである。したがって、図7Cの方向性の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
すなわち、ステップS102とS1023の処理対象は、方向成分である。ここで、方向成分とは、輝度成分に対してガウスフィルタφを畳み込んだ結果得られる各方向の振幅成分をいう。ここでいう方向とは、ガウスフィルタφのパラメターとして存在する回転角θにより示される方向をいう。例えば回転角θとしては、0°,45°,90°,135°の4方向を採用することができる。
また、ステップS104の処理では、方向性のCenter−Surroundスケール間差分が、方向性コントラストとして求められる。なお、以下、方向性コントラストを、O(c,s,θ)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、ステップS101乃至S105のループ処理の結果、回転角θ毎に、6通りの方向性コントラストOの特徴量マップが求められる。例えば回転角θとして、0°,45°,90°,135°の4方向が採用されている場合には、24通り(=6×4通り)の方向性コントラストOの特徴量マップが求められる。
最終的に、ステップS106の処理で、方向性の特徴量マップが求められる。なお、以下、方向性の特徴量マップを、他の特徴量マップと区別すべく、FOと記述する。
以上説明した図7の特徴量マップ作成処理のより詳細な処理内容については、例えば、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
なお、特徴量マップ作成処理は、図7の例に特に限定されない。例えば、特徴量マップ作成処理として、明度、彩度、色相、及びモーションの各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
また例えば、特徴量マップ作成処理として、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
図8は、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の特徴量マップ作成処理の一例を示すフローチャートである。
図8Aは、マルチスケールのコントラストの特徴量マップ作成処理の一例を示している。
ステップS121において、CPU9は、マルチスケールのコントラストの特徴量マップを求める。これにより、マルチスケールのコントラストの特徴量マップ作成処理は終了となる。
なお、以下、マルチスケールのコントラストの特徴量マップを、他の特徴量マップと区別すべく、Fcと記述する。
図8Bは、Center−Surroundの色ヒストグラムの特徴量マップ作成処理の一例を示している。
ステップS141において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとを求める。アスペクト比自体は、特に限定されず、例えば{0.5,0.75,1.0,1.5,2.0}などを採用することができる。
ステップS142において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとのカイ2乗距離を求める。ステップS143において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを求める。
ステップS144において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを用いて、Center−Surroundの色ヒストグラムの特徴量マップを作成する。これにより、Center−Surroundの色ヒストグラムの特徴量マップ作成処理は終了となる。
なお、以下、Center−Surroundの色ヒストグラムの特徴量マップを、他の特徴量マップと区別すべく、Fhと記述する。
図8Cは、色空間分布の特徴量マップ作成処理の一例を示している。
ステップS161において、CPU9は、色空間分布について、水平方向の分散を計算する。また、ステップS162において、CPU9は、色空間分布について、垂直方向の分散を計算する。そして、ステップS163において、CPU9は、水平方向の分散と垂直方向の分散とを用いて、色の空間的な分散を求める。
ステップS164において、CPU9は、色の空間的な分散を用いて、色空間分布の特徴量マップを作成する。これにより、色空間分布の特徴量マップ作成処理は終了となる。
なお、以下、色空間分布の特徴量マップを、他の特徴量マップと区別すべく、Fsと記述する。
以上説明した図8の特徴量マップ作成処理のより詳細な処理内容については、例えば、「T.Liu,J.Sun,N.Zheng,X.Tang,H.Sum,“Learning to Detect A Salient Object”,CVPR07,pp.1−8,2007.」を参照すると良い。
以上説明したように、第1実施形態に係る画像処理装置100のCPU9は、主要被写体を含む入力画像に対して、入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する機能を有している。
CPU9は、推定された注目点領域と、所定のアルゴリズムとを用いて、入力画像を主要被写体の領域と背景領域とに分割する機能を有している。ここで、所定のアルゴリズムとしては、上述した例では、Graph Cuts法が採用されていた。ただし、所定のアルゴリズムは、上述した例に限定されない。例えば、注目点領域及びその近傍の各画像領域から定義したエネルギー関数を用いて、入力画像を被写体の領域と背景領域とに分割できるアルゴリズムを採用することが可能である。具体的には例えばSnake法などを、所定のアルゴリズムとして採用することが可能である。
また、CPU9は、入力画像から分割された主要被写体の領域を抽出する機能を有している。
このように、第1実施形態では、注目点領域が用いられているので、人間の視覚的注意を引く可能性の高い主要被写体の領域を自動的に識別することが可能になる。また、Graph Cuts法などの所定のアルゴリズムが用いられているので、主要被写体の領域のセグメンテーション(分割)を精密に行うことが可能になる。その結果、家庭用ムービーなどを用いて、実際の多様な情景を背景にして撮影された一般的な動画像などからも、動くキャラクタ部分(動く主要被写体の領域)を精度良く抽出することが可能になる。
また、例えば、ユーザにとっては、従来のように主要被写体や切り抜き領域などを逐一手動で指定しなくても、所望の動くキャラクタ部分を含む動画像などを指定するような簡単な操作をするだけで、所望の動くキャラクタ部分が自動的かつ精度良く抽出される。したがって、ユーザにとっては、その後、合成対象の背景画像を指定するような簡単な操作をするだけで、所望の動くキャラクタ部分が所望の背景画像に対して自動的に貼付け合成又は混合合成される。これにより、新しい合成動画像が生成され、その再生が可能になる。すなわち、ユーザにとっては、従来に比較して簡単な操作をするだけで、切抜き合成や動く写真などの技術を容易に利用できるようになる。
また、例えば、従来の「背景差分法」などを採用した場合には、動くキャラクタ部分を抽出するために、主要被写体を含む画像(連写画像)と、主要被写体を含まない背景だけの画像とを、2回に分けて撮影する必要があった。これに対して、第1実施形態では、そのような必要は無く、主要被写体を含む画像(連写画像)を1回撮影するだけで足りる。その結果、従来と比較して、動くキャラクタ部分を抽出するための手間や面倒が大幅に減少し、ひいては使い勝手が向上する。
〔第2実施形態〕
次に、本発明の第2実施形態を説明する。
なお、本発明の第2実施形態に係る画像処理装置のハードウェアの構成は、第1実施形態に係る画像処理装置100の図1のハードウェアの構成と基本的に同様である。
第2実施形態に係る画像処理装置100のCPU9は、主要被写体を含む入力画像に対して、入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する機能を有している。CPU9は、入力画像から輪郭線若しくはエッジ形状を抽出する機能を有している。CPU9は、抽出された輪郭線若しくはエッジ形状により特定される輪郭線のうち、推定された注目点領域と重なる輪郭線の内側領域を主要被写体の領域とし、その輪郭線の外側領域を背景領域とすることで、入力画像を主要被写体の領域と背景領域とに分割する機能を有している。また、CPU9は、入力画像から分割された主要被写体の領域を抽出する機能を有している。
これにより、第2実施形態に係る画像処理装置100もまた、第1実施形態と同様の効果を奏することが可能になる。
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。
例えば、上述した実施形態では、本発明が適用される画像処理装置は、デジタルカメラとして構成される例として説明した。しかしながら、本発明は、デジタルカメラに特に限定されず、電子機器一般に適用することができる。具体的には例えば、本発明は、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機などに適用可能である。
また、第1実施形態と第2実施形態とを組み合わせても良い。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータなどにネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであっても良い。
このようなプログラムを含む記録媒体は、図示はしないが、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体などで構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスクなどにより構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)などにより構成される。光磁気ディスクは、MD(Mini−Disk)などにより構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM11や、図示せぬハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
100・・・画像処理装置、1・・・光学レンズ装置、2・・・シャッタ装置、3・・・アクチュエータ、4・・・CMOSセンサ、5・・・AFE、6・・・TG、7・・・DRAM、8・・・DSP、9・・・CPU、10・・・RAM、11・・・ROM、12・・・液晶表示コントローラ、13・・・液晶ディスプレイ、14・・・操作部、15・・・メモリカード、16・・・測距センサ、17・・・測光センサ

Claims (5)

  1. 主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、
    前記推定部により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割部と、
    前記入力画像から、前記分割部により分割された前記主要被写体の領域を抽出する抽出部と、
    を備える画像処理装置。
  2. 前記分割部は、前記注目点領域を含む所定領域から定義したエネルギー関数を用いる所定のアルゴリズムにしたがって、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する
    請求項1に記載の画像処理装置。
  3. 前記所定のアルゴリズムは、Graph Cuts法である
    請求項2に記載の画像処理装置。
  4. 前記入力画像から輪郭線若しくはエッジ形状を抽出する輪郭線抽出部をさらに備え、
    前記分割部は、前記輪郭線抽出部により抽出された前記輪郭線又は前記エッジ形状により特定される輪郭線のうち、前記注目点領域と重なる輪郭線の内側領域を前記主要被写体の領域とし、当該輪郭線の外側領域を前記背景領域とすることで、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する
    請求項1に記載の画像処理装置。
  5. 主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、
    前記推定ステップの処理により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割ステップと、
    前記入力画像から、前記分割ステップの処理により分割された前記主要被写体の領域を抽出する抽出ステップと、
    を含む画像処理方法。
JP2009179552A 2009-07-31 2009-07-31 画像処理装置及び方法 Pending JP2011035636A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009179552A JP2011035636A (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179552A JP2011035636A (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Publications (1)

Publication Number Publication Date
JP2011035636A true JP2011035636A (ja) 2011-02-17

Family

ID=43764277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179552A Pending JP2011035636A (ja) 2009-07-31 2009-07-31 画像処理装置及び方法

Country Status (1)

Country Link
JP (1) JP2011035636A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008124A (ja) * 2011-06-23 2013-01-10 Nikon Corp 画像処理装置及びプログラム
KR101230567B1 (ko) 2011-04-27 2013-02-07 경북대학교 산학협력단 객체 검출 및 추적장치와 방법, 및 그것을 사용하는 지능형 감시 시스템
JP2014102820A (ja) * 2012-10-19 2014-06-05 Csr Technology Inc 撮像装置上における自動シネマグラフの作成方法
WO2014097650A1 (ja) 2012-12-22 2014-06-26 Enomoto Junya 無線による画面表示制御方法及びシステム
JP2014132461A (ja) * 2013-01-07 2014-07-17 Samsung Electronics Co Ltd 電子装置でコンテンツを制御する装置及びその方法
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
JP2015520467A (ja) * 2012-06-18 2015-07-16 トムソン ライセンシングThomson Licensing 画像のカラー調和のための装置及び方法
US9098775B2 (en) 2012-05-31 2015-08-04 Casio Computer Co., Ltd. Multi-class identifier, method, and computer-readable recording medium
US10242479B2 (en) 2012-02-02 2019-03-26 Sony Corporation Information processing device and information processing method
US10497121B2 (en) 2014-10-27 2019-12-03 Alibaba Group Holding Limited Method and system for extracting a main subject of an image
JP2020024667A (ja) * 2018-08-07 2020-02-13 三星電子株式会社Samsung Electronics Co.,Ltd. 自体運動推定方法及び装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001126070A (ja) * 1999-10-28 2001-05-11 Atr Media Integration & Communications Res Lab 注目領域抽出装置およびそれを用いた自動構図決定装置
JP2006128754A (ja) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd 撮像装置、および撮像方法
JP2009080660A (ja) * 2007-09-26 2009-04-16 Rakuten Inc 物体領域抽出処理プログラム、物体領域抽出装置、および物体領域抽出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001126070A (ja) * 1999-10-28 2001-05-11 Atr Media Integration & Communications Res Lab 注目領域抽出装置およびそれを用いた自動構図決定装置
JP2006128754A (ja) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd 撮像装置、および撮像方法
JP2009080660A (ja) * 2007-09-26 2009-04-16 Rakuten Inc 物体領域抽出処理プログラム、物体領域抽出装置、および物体領域抽出方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200900416013; 福地 賢,外4名: 'グラフコストの逐次更新を用いた映像顕著領域の自動抽出' 電子情報通信学会技術研究報告 第109巻,第63号, 20090521, p.89-94, 社団法人電子情報通信学会 *
JPN6014008836; 福地 賢,外4名: 'グラフコストの逐次更新を用いた映像顕著領域の自動抽出' 電子情報通信学会技術研究報告 第109巻,第63号, 20090521, p.89-94, 社団法人電子情報通信学会 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101230567B1 (ko) 2011-04-27 2013-02-07 경북대학교 산학협력단 객체 검출 및 추적장치와 방법, 및 그것을 사용하는 지능형 감시 시스템
JP2013008124A (ja) * 2011-06-23 2013-01-10 Nikon Corp 画像処理装置及びプログラム
US10242479B2 (en) 2012-02-02 2019-03-26 Sony Corporation Information processing device and information processing method
US9002071B2 (en) 2012-03-21 2015-04-07 Casio Computer Co., Ltd. Image search system, image search apparatus, image search method and computer-readable storage medium
US9098775B2 (en) 2012-05-31 2015-08-04 Casio Computer Co., Ltd. Multi-class identifier, method, and computer-readable recording medium
JP2015520467A (ja) * 2012-06-18 2015-07-16 トムソン ライセンシングThomson Licensing 画像のカラー調和のための装置及び方法
JP2014102820A (ja) * 2012-10-19 2014-06-05 Csr Technology Inc 撮像装置上における自動シネマグラフの作成方法
WO2014097650A1 (ja) 2012-12-22 2014-06-26 Enomoto Junya 無線による画面表示制御方法及びシステム
JP2014132461A (ja) * 2013-01-07 2014-07-17 Samsung Electronics Co Ltd 電子装置でコンテンツを制御する装置及びその方法
US10497121B2 (en) 2014-10-27 2019-12-03 Alibaba Group Holding Limited Method and system for extracting a main subject of an image
JP2020024667A (ja) * 2018-08-07 2020-02-13 三星電子株式会社Samsung Electronics Co.,Ltd. 自体運動推定方法及び装置
JP7290271B2 (ja) 2018-08-07 2023-06-13 三星電子株式会社 自体運動推定方法及び装置

Similar Documents

Publication Publication Date Title
JP4844657B2 (ja) 画像処理装置及び方法
JP2011035636A (ja) 画像処理装置及び方法
US10303983B2 (en) Image recognition apparatus, image recognition method, and recording medium
US20090109304A1 (en) Image processing device, image processing method, and computer program product
JP2011010275A (ja) 画像再生装置及び撮像装置
EP3512191A1 (en) Image processing apparatus, method, and computer program storage device
US9020269B2 (en) Image processing device, image processing method, and recording medium
JP2007088814A (ja) 撮像装置、画像記録装置および撮像制御プログラム
US8295609B2 (en) Image processing apparatus, image processing method and computer readable-medium
US9258492B2 (en) Image processing apparatus, image pickup apparatus including image processing apparatus, image processing method, and storage medium in which program is stored for acquiring and processing images taken at different focus positions
JP2008092515A (ja) 電子カメラ、画像処理装置およびプログラム
JP5803058B2 (ja) 画像処理装置および方法、並びにプログラム
JP5504990B2 (ja) 撮像装置、画像処理装置及びプログラム
JP5471130B2 (ja) 画像処理装置及び方法
JP5515492B2 (ja) 画像処理装置及び方法
JP2011146827A (ja) 画像処理装置および方法、並びにプログラム
JP5509621B2 (ja) 画像処理装置、カメラおよびプログラム
JP2011035634A (ja) 画像処理装置及び方法
JP2010199681A (ja) 画像処理装置、および画像処理プログラム
JP2008236015A (ja) 画像処理装置、撮像装置及びそのプログラム
JP5375401B2 (ja) 画像処理装置及び方法
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP5463688B2 (ja) 合焦評価装置、カメラおよびプログラム
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2020086216A (ja) 撮像制御装置、撮像装置及び撮像制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140701