JP2011146827A - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2011146827A JP2011146827A JP2010004542A JP2010004542A JP2011146827A JP 2011146827 A JP2011146827 A JP 2011146827A JP 2010004542 A JP2010004542 A JP 2010004542A JP 2010004542 A JP2010004542 A JP 2010004542A JP 2011146827 A JP2011146827 A JP 2011146827A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- map
- region
- feature amount
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】より安定して被写体を追尾できるようにする。
【解決手段】被写体マップ生成部71は、入力画像から所定の特徴の特徴量を抽出し、特徴量により求められる入力画像の各領域の被写体らしさを示す合成特徴量マップを生成し、重み係数を用いて、各特徴の合成特徴量マップを合成して被写体マップを生成する。被写体領域選択部73は、被写体マップを用いて、入力画像上の追尾対象の被写体が含まれる被写体領域を特定する。マッチング処理部75は、合成特徴量マップ上において、前フレームの合成特徴量マップ上の被写体領域と同じ位置の領域と最も相関の高い最大類似領域を検索し、重み係数算出部76は、その検索結果に応じて、合成特徴量マップの空間方向に重みの異なる重み係数を算出する。このとき、最大類似領域内の重みを大きくすれば、高精度に被写体を検出できる。本発明は、撮像装置に適用することができる。
【選択図】図2
【解決手段】被写体マップ生成部71は、入力画像から所定の特徴の特徴量を抽出し、特徴量により求められる入力画像の各領域の被写体らしさを示す合成特徴量マップを生成し、重み係数を用いて、各特徴の合成特徴量マップを合成して被写体マップを生成する。被写体領域選択部73は、被写体マップを用いて、入力画像上の追尾対象の被写体が含まれる被写体領域を特定する。マッチング処理部75は、合成特徴量マップ上において、前フレームの合成特徴量マップ上の被写体領域と同じ位置の領域と最も相関の高い最大類似領域を検索し、重み係数算出部76は、その検索結果に応じて、合成特徴量マップの空間方向に重みの異なる重み係数を算出する。このとき、最大類似領域内の重みを大きくすれば、高精度に被写体を検出できる。本発明は、撮像装置に適用することができる。
【選択図】図2
Description
本発明は、画像処理装置および方法、並びにプログラムに関し、特に、被写体をより安定して追尾できるようにした画像処理装置および方法、並びにプログラムに関する。
近年、シャッタ操作がされる前にユーザに対して提示される、いわゆるプレビュー画像を撮像する場合など、複数の画像が連続して撮像される場合に、撮像された画像上にある、ユーザにより選択された被写体を追尾する機能を有する撮像装置が知られている。そのような撮像装置には、追尾された被写体の位置に応じて、焦点位置や明るさ等の撮像に関するパラメータを最適なものに調整する機能を有するものもある。
被写体を追尾する手法としては、例えば入力画像の所定のフレームにおいて、最初にユーザにより選択された被写体の一部の領域から輝度情報や色情報等の特徴量を抽出し、それ以降の後のフレームにおいて、その特徴量と一致する特徴量を有する領域を検索する手法がある(例えば、特許文献1参照)。すなわち、この手法では、後のフレームの入力画像において、最初に被写体として選択された領域と同じ位置の領域近傍から、被写体の領域の特徴量と一致する特徴量の領域が検索され、その結果得られた領域が後のフレームの被写体の領域とされる。
しかしながら、上述した手法では、最初にユーザによって選択された被写体の一部の領域から抽出された特徴量を基に被写体を追尾するので、被写体全体の何れかの位置の座標または一部の領域しか同定できず、被写体全体を安定して追尾することはできなかった。
また、被写体の撮像時には、被写体への照明光(例えば、色温度、照度等)や被写体の姿勢、入力画像上の被写体のサイズ(撮像装置と被写体との距離)等の被写体の状態が変化する場合もある。そのような場合、ユーザにより選択された被写体のうち、追尾に用いられる部位の領域から得られる特徴量が変化すると、入力画像上における被写体の領域を特定することができなくなり、被写体の追尾に失敗してしまう。
例えば、特徴量として、ユーザにより選択された被写体の一部の領域から色情報が抽出される場合、その色情報を有する領域が被写体として追尾されることになる。ところが、被写体が回転する等して、追尾に用いられる領域が隠れてしまうと、その色情報を有する領域が入力画像上に存在しなくなり、被写体を追尾できなくなってしまう。このような追尾の失敗は、特徴量としての輝度情報や色情報の出にくい低照度の環境下でも起こり得る。
本発明は、このような状況に鑑みてなされたものであり、より安定して被写体を追尾することができるようにするものである。
本発明の一側面の画像処理装置は、連続する複数フレームの入力画像のそれぞれについて、前記入力画像上の特定の被写体が含まれる領域を特定する画像処理装置であって、予め定められた複数の第1の特徴ごとに、前記入力画像から前記第1の特徴の特徴量を抽出して、前記特徴量により求まる前記入力画像の各領域における前記被写体らしさを示す合成特徴量マップを生成する生成手段と、前記第1の特徴ごとの前記合成特徴量マップを、合成重み係数を用いて線形結合し、前記入力画像の各領域における前記被写体らしさを示す被写体マップを生成する被写体マップ生成手段と、前記被写体マップを用いて、前記被写体マップにおいて最も前記被写体らしい領域である被写体領域を特定することで、前記入力画像上の前記被写体が含まれる領域を特定する被写体領域特定手段と、前記合成特徴量マップにおける前記被写体領域と同じ位置の領域を、合成リファレンスマップとして保持するリファレンスマップ保持手段と、処理対象フレームの前記合成特徴量マップ上において、前記処理対象フレームよりも前のフレームの前記合成リファレンスマップと最も相関の高い合成最大類似領域を検索するマッチング処理手段と、前記処理対象フレームの前記合成特徴量マップの前記合成最大類似領域内の画素の画素値に乗算される前記合成重み係数が、前記合成特徴量マップの前記合成最大類似領域外にある画素の画素値に乗算される前記合成重み係数よりも大きくなるように、前記合成重み係数を算出する係数算出手段とを備える。
前記被写体領域特定手段には、前記被写体マップの各画素の画素値に対する閾値処理を行って、前記被写体マップにおいて、前記被写体領域の候補となる被写体候補領域を抽出する候補領域抽出手段と、前記被写体マップ上の前記被写体候補領域から第2の特徴の特徴量を抽出し、前記第2の特徴の特徴量を示す領域情報を生成する領域情報算出手段と、前記処理対象フレームの前記被写体候補領域のうち、前記領域情報が前記前のフレームの前記被写体領域とされた前記被写体候補領域の前記領域情報と最も近い前記被写体候補領域を、前記処理対象フレームの前記被写体領域として選択する被写体領域選択手段とを設けることができる。
前記生成手段には、前記入力画像から前記第1の特徴の特徴量を抽出して、前記入力画像の各領域における前記第1の特徴の特徴量を示す特徴量マップを生成する特徴量マップ生成手段と、複数の帯域ごとに、前記特徴量マップから前記帯域の成分を抽出して、前記帯域の成分を示す帯域特徴量マップを生成する帯域特徴量マップ生成手段と、前記第1の特徴ごとに、帯域重み係数を用いて前記帯域特徴量マップを線形結合し、前記合成特徴量マップを生成する合成特徴量マップ生成手段とを設けることができる。
前記リファレンスマップ保持手段には、前記帯域特徴量マップにおける前記被写体領域と同じ位置の領域を帯域リファレンスマップとして保持させ、前記マッチング処理手段には、前記処理対象フレームの前記帯域特徴量マップ上において、前記前のフレームの前記帯域リファレンスマップと最も相関の高い帯域最大類似領域を検索させ、前記係数算出手段には、前記処理対象フレームの前記帯域特徴量マップの前記帯域最大類似領域内の画素の画素値に乗算される前記帯域重み係数が、前記帯域特徴量マップの前記帯域最大類似領域外にある画素の画素値に乗算される前記帯域重み係数よりも大きくなるように、前記帯域重み係数を算出させることができる。
本発明の一側面の画像処理方法またはプログラムは、連続する複数フレームの入力画像のそれぞれについて、前記入力画像上の特定の被写体が含まれる領域を特定する画像処理方法またはプログラムであって、予め定められた複数の第1の特徴ごとに、前記入力画像から前記第1の特徴の特徴量を抽出して、前記特徴量により求まる前記入力画像の各領域における前記被写体らしさを示す合成特徴量マップを生成し、前記第1の特徴ごとの前記合成特徴量マップを、合成重み係数を用いて線形結合し、前記入力画像の各領域における前記被写体らしさを示す被写体マップを生成し、前記被写体マップを用いて、前記被写体マップにおいて最も前記被写体らしい領域である被写体領域を特定することで、前記入力画像上の前記被写体が含まれる領域を特定し、前記合成特徴量マップにおける前記被写体領域と同じ位置の領域を、合成リファレンスマップとして保持し、処理対象フレームの前記合成特徴量マップ上において、前記処理対象フレームよりも前のフレームの前記合成リファレンスマップと最も相関の高い合成最大類似領域を検索し、前記処理対象フレームの前記合成特徴量マップの前記合成最大類似領域内の画素の画素値に乗算される前記合成重み係数が、前記合成特徴量マップの前記合成最大類似領域外にある画素の画素値に乗算される前記合成重み係数よりも大きくなるように、前記合成重み係数を算出するステップを含む。
本発明の一側面においては、連続する複数フレームの入力画像のそれぞれについて、前記入力画像上の特定の被写体が含まれる領域を特定する画像処理が行われる場合に、予め定められた複数の第1の特徴ごとに、前記入力画像から前記第1の特徴の特徴量が抽出されて、前記特徴量により求まる前記入力画像の各領域における前記被写体らしさを示す合成特徴量マップが生成され、前記第1の特徴ごとの前記合成特徴量マップが、合成重み係数が用いられて線形結合され、前記入力画像の各領域における前記被写体らしさを示す被写体マップが生成され、前記被写体マップが用いられて、前記被写体マップにおいて最も前記被写体らしい領域である被写体領域が特定されることで、前記入力画像上の前記被写体が含まれる領域が特定され、前記合成特徴量マップにおける前記被写体領域と同じ位置の領域が、合成リファレンスマップとして保持され、処理対象フレームの前記合成特徴量マップ上において、前記処理対象フレームよりも前のフレームの前記合成リファレンスマップと最も相関の高い合成最大類似領域が検索され、前記処理対象フレームの前記合成特徴量マップの前記合成最大類似領域内の画素の画素値に乗算される前記合成重み係数が、前記合成特徴量マップの前記合成最大類似領域外にある画素の画素値に乗算される前記合成重み係数よりも大きくなるように、前記合成重み係数が算出される。
本発明の一側面によれば、より安定して被写体を追尾することができる。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
[画像処理装置の構成例]
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
画像処理装置11は、例えば、動きのある被写体を撮影するデジタルビデオカメラや、デジタルスチルカメラなどの撮像装置に備えられる。
画像処理装置11は、光学系31、イメージャ32、デジタル信号処理部33、制御部34、レンズ駆動部35、インターフェース制御部36、およびユーザインターフェース37から構成される。
光学系31は、図示せぬ撮像レンズを含む光学系などからなり、光学系31に入射した光は、CCD(Charge Coupled Device)等の撮像素子で構成されるイメージャ32に入射する。イメージャ32は、光学系31から入射した光を光電変換することで、被写体を撮像する。撮像により得られた電気信号(アナログ信号)は、図示せぬA/D(Analog to Digital)変換部によりデジタル信号の画像データに変換され、デジタル信号処理部33に供給される。
デジタル信号処理部33は、イメージャ32からの画像データに対して所定の信号処理を施し、図示せぬ符号化処理部やメモリ、制御部34などに画像データを出力する。デジタル信号処理部33は、前処理部51、デモザイク処理部52、YC生成部53、解像度変換部54、および被写体追尾部55を備えている。
前処理部51は、前処理として、イメージャ32からの画像データに対し、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を施す。デモザイク処理部52は、前処理部51により前処理された画像データに対し、画像データの各画素がR,G,B全ての色成分を有するように、画素の色成分を補完するデモザイク処理を施す。
YC生成部53は、デモザイク処理部52によりデモザイク処理された、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。解像度変換部54は、YC生成部53で処理された画像データに対して、解像度変換処理を実行し、制御部34や図示せぬ符号化処理部に供給する。
被写体追尾部55は、YC生成部53によって生成された輝度信号および色信号からなる画像データに基づいて、画像データにより表示される入力画像から被写体を検出し、被写体を追尾する被写体追尾処理を実行する。
被写体追尾部55は、被写体追尾処理の結果得られた、入力画像における被写体が含まれる領域を表す被写体枠についての情報を制御部34に供給する。
制御部34は、インターフェース制御部36から供給される制御信号に応じて、画像処理装置11の各部を制御する。
例えば、制御部34は、デジタル信号処理部33に、各種の信号処理に用いられるパラメータ等を供給するとともに、デジタル信号処理部33からの、各種の信号処理の結果得られたデータ(画像データを含む)を取得し、インターフェース制御部36に供給する。
また、制御部34は、光学系31を構成する撮像レンズを駆動させたり、絞りなどを調節させたりするための制御信号をレンズ駆動部35に供給する。さらに制御部34は、イメージャ32による入力画像の撮像も制御する。
ユーザインターフェース37は、ユーザが画像処理装置11に対する指示を入力するときに操作されるボタンやスイッチ等の入力装置、ユーザに対して情報を提供(表示)するLCD(Liquid Crystal Display)やマイクロホン等の出力装置などから構成される。
例えば、ユーザインターフェース37は、ユーザインターフェース37としてのボタンが操作されると、その操作に応じた制御信号を、インターフェース制御部36を介して制御部34に供給する。また、ユーザインターフェース37は、インターフェース制御部36を介して制御部34から供給された制御信号(データ)に応じた情報を、ユーザインターフェース37としてのLCDに表示する。例えば、LCDには、入力画像と、入力画像上の被写体を対象とした被写体追尾処理の結果である被写体枠とが表示される。
[被写体追尾部の構成例]
次に、図2を参照して、図1の被写体追尾部55の構成例について説明する。
次に、図2を参照して、図1の被写体追尾部55の構成例について説明する。
図2の被写体追尾部55は、被写体マップ生成部71、被写体候補領域矩形化部72、被写体領域選択部73、リファレンスマップ保持部74、マッチング処理部75、および重み係数算出部76から構成される。
被写体マップ生成部71には、図1のイメージャ32により時間的に連続して撮像され、前処理部51乃至YC生成部53により処理された複数の入力画像が順次供給される。被写体マップ生成部71は、入力画像が有する輝度や色等の予め定められた特徴ごとに、入力画像の各領域における特徴の特徴量を示す特徴量マップを生成する。
また、被写体マップ生成部71は、互いに異なる複数の帯域(空間周波数帯域)について、各特徴について生成した特徴量マップから、それらの帯域成分を抽出して帯域特徴量マップを生成し、リファレンスマップ保持部74およびマッチング処理部75に供給する。
この帯域特徴量マップは、入力画像の各領域における特徴の特徴量の特定帯域成分を示すマップである。換言すれば、帯域特徴量マップは、入力画像の特定の帯域成分に含まれる特徴の特徴量を示している。
被写体マップ生成部71は、生成された特徴ごとの各帯域の帯域特徴量マップを、重み係数算出部76から供給された重み係数を用いて線形結合することにより、合成特徴量マップを生成し、リファレンスマップ保持部74およびマッチング処理部75に供給する。
この合成特徴量マップは、各特徴の特徴量から求まる入力画像の各領域における被写体らしさを示すマップである。なお、ここでいう被写体とは、ユーザが入力画像を一瞥した場合に、ユーザが注目すると推定される入力画像上の物体、つまりユーザが目を向けると推定される物体をいう。したがって、被写体は必ずしも人物に限られる訳ではない。
また、被写体マップ生成部71は、特徴ごとの合成特徴量マップを、重み係数算出部76から供給された重み係数を用いて線形結合することにより、被写体マップを生成し、被写体候補領域矩形化部72に供給する。このようにして得られる被写体マップの各領域の値(画素の画素値)は、入力画像の各領域の被写体らしさを示している。
被写体候補領域矩形化部72は、被写体マップ生成部71からの被写体マップにおいて、被写体の候補となる領域、つまり被写体らしい領域を含む矩形領域(以下、被写体候補領域とも称する)を求め、その矩形領域の位置を示す座標情報を生成する。
また、被写体候補領域矩形化部72は、被写体マップを用いて、各被写体候補領域が有する特定の特徴の特徴量を示す領域情報を生成し、各被写体候補領域の座標情報と領域情報を被写体領域選択部73に供給する。
被写体領域選択部73は、被写体候補領域矩形化部72からの座標情報および領域情報を用いて、被写体候補領域のうちの何れかを、追尾対象となる被写体が含まれる領域(以下、被写体領域と称する)として選択する。被写体領域選択部73は、被写体領域の位置を示す座標情報を、制御部34およびリファレンスマップ保持部74に供給する。
被写体領域選択部73から出力される座標情報により示される被写体領域は、被写体マップにおいて、最も追尾対象の被写体らしい領域である。すなわち、被写体追尾部55では、被写体マップ上において、ユーザが注目すると推定される任意の被写体らしい領域が、ユーザにより指定された追尾対象の被写体の領域の候補(被写体領域候補)とされる。そして、それらの被写体候補領域のなかから、最も追尾対象の被写体らしい領域が、被写体領域として選択され、被写体マップ上の被写体領域と同じ位置にある入力画像の領域が、追尾対象の被写体が含まれる領域として特定される。
なお、以下においては、被写体マップ上の被写体領域と同じ位置にある入力画像上の領域を、単に被写体領域とも称することとする。また、追尾対象となる被写体は、ユーザにより指定されたものに限らず、最初のフレームにおいて、被写体候補領域のうち、例えば領域の面積が最大であるなど、最も被写体らしさの評価が高いものが被写体領域とされ、その被写体領域に含まれる被写体が追尾対象とされてもよい。
リファレンスマップ保持部74は、メモリ81を備えており、被写体マップ生成部71からの帯域特徴量マップおよび合成特徴量マップと、被写体領域選択部73からの座標情報とを用いてリファレンスマップを生成し、メモリ81に記録させる。
具体的には、リファレンスマップ保持部74は、帯域特徴量マップにおける被写体領域と同じ位置の領域を切り出して、切り出された領域を帯域特徴量マップのリファレンスマップとする。同様に、リファレンスマップ保持部74は、合成特徴量マップにおける被写体領域と同じ位置の領域を切り出して、切り出された領域を合成特徴量マップのリファレンスマップとする。
なお、以下、帯域特徴量マップおよび合成特徴量マップのリファレンスマップを、それぞれ帯域リファレンスマップ、および合成リファレンスマップとも称する。
マッチング処理部75は、メモリ81に記録されたリファレンスマップを用いてマッチング処理を行い、被写体マップ生成部71からの帯域特徴量マップおよび合成特徴量マップから、リファレンスマップと最も相関の高い(類似する)領域を検索し、その検索結果を重み係数算出部76に供給する。
すなわち、処理対象の現フレームの帯域特徴量マップにおいて、現フレームの1つ前の前フレームの帯域リファレンスマップと最も類似の度合いの高い領域が検索される。また、現フレームの合成特徴量マップにおいて、前フレームの合成リファレンスマップと最も類似の度合いの高い領域が検索される。
重み係数算出部76は、マッチング処理部75からの検索結果に基づいて、帯域特徴量マップの重み係数(以下、帯域重み係数とも称する)、および合成特徴量マップの重み係数(以下、合成重み係数とも称する)を算出し、被写体マップ生成部71に供給する。
[被写体マップ生成部の構成例]
また、図2の被写体マップ生成部71は、より詳細には、図3に示すように構成される。
また、図2の被写体マップ生成部71は、より詳細には、図3に示すように構成される。
すなわち、被写体マップ生成部71は、特徴量マップ生成部111、帯域特徴量マップ生成部112、帯域特徴量マップ合成部113、および合成特徴量マップ合成部114から構成される。
特徴量マップ生成部111は、入力画像の各領域から、輝度や色などの特徴の特徴量を抽出して、抽出した特徴量を示す特徴量マップを生成し、帯域特徴量マップ生成部112に供給する。
帯域特徴量マップ生成部112は、特徴量マップ生成部111からの各特徴量マップについて、特徴量マップから特定の帯域成分を抽出して帯域特徴量マップを生成し、帯域特徴量マップ合成部113、リファレンスマップ保持部74、およびマッチング処理部75に供給する。帯域特徴量マップは、各特徴について、帯域ごとに生成される。
帯域特徴量マップ合成部113は、帯域特徴量マップ生成部112からの帯域特徴量マップを、重み係数算出部76からの帯域重み係数を用いて合成し、合成特徴量マップを生成する。すなわち、同じ特徴の帯域特徴量マップが、帯域重み係数を用いた重み付き加算により線形結合され、その特徴の合成特徴量マップとされる。
帯域特徴量マップ合成部113は、特徴ごとに生成した合成特徴量マップを、合成特徴量マップ合成部114、リファレンスマップ保持部74、およびマッチング処理部75に供給する。
合成特徴量マップ合成部114は、帯域特徴量マップ合成部113からの合成特徴量マップを、重み係数算出部76からの合成重み係数を用いて合成し、被写体マップを生成する。合成特徴量マップ合成部114は、生成した被写体マップを被写体候補領域矩形化部72に供給する。
[被写体候補領域矩形化部の構成例]
また、図2の被写体候補領域矩形化部72は、より詳細には、図4に示すように構成される。
また、図2の被写体候補領域矩形化部72は、より詳細には、図4に示すように構成される。
すなわち、被写体候補領域矩形化部72は、2値化処理部131、ラベリング処理部132、矩形領域座標算出部133、および領域情報算出部134から構成される。
2値化処理部131は、被写体マップ生成部71の合成特徴量マップ合成部114から供給された被写体マップにおける、入力画像の各画素に対応する情報を、所定の閾値に基づいて0または1の何れかの値に2値化し、ラベリング処理部132に供給する。
なお、以下においては、被写体マップ、特徴量マップ、帯域特徴量マップ、および合成特徴量マップのそれぞれにおける各領域(位置)を画素といい、その領域に対応する情報(値)を画素値ということとする。
例えば、被写体マップの画素の画素値は、その画素と同じ位置にある入力画像の画素(領域)の被写体らしさの度合いを示している。特に、2値化後の被写体マップにおいては、画素値が「1」である画素が、被写体らしい領域であり、画素値が「0」である画素は、被写体ではない領域(例えば、背景の領域)であるとされる。つまり、2値化後の被写体マップは、入力画像における被写体らしい領域を示している。
ラベリング処理部132は、2値化処理部131から供給された、2値化された被写体マップにおいて、互いに隣接する、画素値が「1」である画素からなる領域を連結領域とし、各連結領域に対してラベリングを行う。連結領域は、被写体領域の候補となる領域であり、例えばラベリングでは、各連結領域に対して、それらの連結領域を特定する番号が付加される。ラベリング処理部132は、ラベリングされた被写体マップを矩形領域座標算出部133に供給する。
矩形領域座標算出部133は、ラベリング処理部132からの被写体マップにおいて、連結領域を含む(囲む)矩形領域を被写体候補領域とし、各被写体候補領域の位置を示す座標情報を領域情報算出部134に供給する。
領域情報算出部134は、矩形領域座標算出部133からの座標情報と、合成特徴量マップ合成部114からの被写体マップとを用いて、被写体候補領域ごとに領域情報を生成し、各被写体候補領域の座標情報と領域情報を被写体領域選択部73に供給する。
[被写体領域選択部の構成例]
次に、図5を参照して、図2の被写体領域選択部73の構成例について説明する。
次に、図5を参照して、図2の被写体領域選択部73の構成例について説明する。
被写体領域選択部73は、領域情報比較部151、被写体領域決定部152、および領域情報記録部153から構成される。
領域情報比較部151は、領域情報算出部134から供給された、処理対象の現フレームの各被写体候補領域の領域情報と、領域情報記録部153に記録されている、現フレームの1フレーム前の被写体領域の領域情報とを比較する。また、領域情報比較部151は、各被写体候補領域についての領域情報の比較結果と、領域情報算出部134からの座標情報とを被写体領域決定部152に供給する。
被写体領域決定部152は、領域情報比較部151からの比較結果に基づいて、現フレームの被写体候補領域のうち、1フレーム前の被写体領域の領域情報と最も近い領域情報を有する被写体候補領域を、現フレームの被写体領域とする。すなわち、領域情報を指標とした場合に、前フレームの被写体領域と最も相関の高い(類似する)被写体候補領域が、現フレームの被写体領域とされる。
被写体領域決定部152は、決定した現フレームの被写体領域の座標情報を制御部34およびリファレンスマップ保持部74に供給するとともに、現フレームの被写体領域の領域情報を、領域情報記録部153に供給する。領域情報記録部153は、被写体領域決定部152からの領域情報を記録するとともに、記録している領域情報を領域情報比較部151に供給する。
[被写体追尾処理の説明]
ところで、ユーザが画像処理装置11に画像を撮像させようとする場合、ユーザは、ユーザインターフェース37を操作して、画像を撮像する処理の開始を指示する。すると、制御部34は、インターフェース制御部36を介してユーザインターフェース37から供給された制御信号に応じて、画像処理装置11の各部を動作させる。
ところで、ユーザが画像処理装置11に画像を撮像させようとする場合、ユーザは、ユーザインターフェース37を操作して、画像を撮像する処理の開始を指示する。すると、制御部34は、インターフェース制御部36を介してユーザインターフェース37から供給された制御信号に応じて、画像処理装置11の各部を動作させる。
例えば、制御部34は、イメージャ32に入力画像を撮像させるとともに、デジタル信号処理部33に入力画像に対する前処理等の各種の処理を実行させ、デジタル信号処理部33から入力画像を取得する。そして、制御部34は、取得した各フレームの入力画像を、順次、インターフェース制御部36を介してユーザインターフェース37に供給し、表示させる。
これにより、ユーザは、いわゆるプレビュー画像として、ユーザインターフェース37に表示された入力画像を見ながら構図を決定し、ユーザインターフェース37を操作して、静止画像等の撮像を指示することができる。
このとき、ユーザは、ユーザインターフェース37としてのボタンを操作して、画像処理装置11の動作モードを、追尾すべき被写体を囲む枠が表示される被写体追尾処理モードに遷移させることができる。被写体追尾処理モードへの遷移が指示され、ユーザにより入力画像上の所望の領域が、被写体の領域として指定されると、被写体追尾部55は、指定された被写体を追尾する被写体追尾処理を開始し、入力画像の各フレームにおける被写体領域を特定する。
そして、制御部34は、被写体追尾部55から、被写体領域の位置を示す座標情報の供給を受けると、その座標情報に基づいて、被写体領域を表す枠を、ユーザインターフェース37に供給し、表示させる。これにより、ユーザインターフェース37には、入力画像とともに被写体領域の枠が表示されることになる。
次に、図6のフローチャートを参照して、被写体追尾部55により行なわれる被写体追尾処理について説明する。この被写体追尾処理は、上述したように、被写体追尾処理モードにおいて、ユーザにより被写体の領域が指定されると開始される。
ステップS11において、被写体マップ生成部71は、被写体マップ生成処理を行って被写体マップを生成し、被写体候補領域矩形化部72に供給する。
ここで、図7乃至図11を参照して、ステップS11の処理に対応する被写体マップ生成処理の詳細について説明する。図7は、被写体マップ生成処理について説明するフローチャートである。
図7のステップS31において、被写体マップ生成部71の特徴量マップ生成部111は、処理対象の現フレームの入力画像から、輝度や色等の特徴ごとに特徴量マップを生成し、帯域特徴量マップ生成部112に供給する。
具体的には、図8に示されるように、入力画像200から、輝度に関する情報を示す輝度の特徴量マップF1、色に関する情報を示す色の特徴量マップF2乃至FK、エッジに関する情報を示すエッジの特徴量マップF(K+1)乃至FMの合計M種類の特徴量マップが生成される。
例えば、輝度の特徴量マップF1においては、入力画像の各画素から得られる輝度成分(輝度信号)Yが、入力画像の画素と同じ位置にある特徴量マップF1の画素の画素値とされる。つまり、輝度の特徴量マップF1は、輝度を特徴とする、入力画像の各領域の輝度値を示す特徴量マップである。
また、色の特徴量マップF2乃至FKにおいては、例えば、入力画像の各画素から得られる色成分(色信号)R,G,Bが、入力画像の画素と同じ位置にある特徴量マップの画素の画素値とされる。この場合、K=4とされ、特徴量マップF2乃至F4のそれぞれは、入力画像の画素のR成分、G成分、およびB成分のそれぞれを特徴とする、入力画像の各領域の各色成分の画素値を示す特徴量マップとされる。
さらに、エッジの特徴量マップF(K+1)乃至FMにおいては、例えば、入力画像の各画素における0度、45度、90度、および135度の方向のエッジ強度が、入力画像の画素と同じ位置にある特徴量マップの画素の画素値とされる。この場合、4つのエッジの方向ごとに、その方向のエッジの強さを特徴とする、入力画像の各領域のエッジ強度を示す特徴量マップが生成される。
なお、上述した特徴量マップについて、画素のR,G,Bの各成分の値の平均値を特徴量マップF1の特徴量としてもよいし、色差成分Cr,Cbや、Lab色空間におけるa*座標成分およびb*座標成分を色の特徴量マップF2乃至FKの特徴量としてもよい。また、0度、45度、90度、および135度以外の方向のエッジ強度をエッジの特徴量マップF(K+1)乃至FMの特徴量としてもよい。
ステップS32において、帯域特徴量マップ生成部112は、各特徴量マップについて、特徴量マップから特定の帯域成分を抽出して帯域特徴量マップを生成し、帯域特徴量マップ合成部113、リファレンスマップ保持部74、およびマッチング処理部75に供給する。
具体的には、図8に示されるように、輝度の特徴量マップF1における輝度情報(画素値)から、所定の帯域1乃至帯域Nの輝度情報が抽出され、それらの帯域の輝度情報を示す帯域特徴量マップR11乃至R1Nが生成される。
また、色の特徴量マップF2乃至FKにおける色情報(画素値)から、所定の帯域1乃至帯域Nの色情報が抽出され、それらの帯域の色情報を示す帯域特徴量マップR21乃至R2N,…,RK1乃至RKNが生成される。
さらに、エッジの特徴量マップF(K+1)乃至FMにおけるエッジ情報(画素値)から、所定の帯域1乃至帯域Nのエッジ情報が抽出され、それらの帯域のエッジ情報を示す帯域特徴量マップR(K+1)1乃至R(K+1)N,…,RM1乃至RMNが生成される。このように、帯域特徴量マップ生成部112は、(M×N)種類の帯域特徴量マップを生成する。
ここで、帯域特徴量マップ生成部112の処理の一例について説明する。
例えば、帯域特徴量マップ生成部112は、特徴量マップを用いて、互いに解像度の異なる複数の特徴量マップを生成し、それらの特徴量マップをその特徴量のピラミッド画像とする。例えば、レベルL1乃至レベルL8までの8つの解像度の階層のピラミッド画像が生成され、レベルL1のピラミッド画像が最も解像度が高く、レベルL1からレベルL8まで順番にピラミッド画像の解像度が低くなるものとする。
この場合、特徴量マップ生成部111により生成された特徴量マップが、レベルL1のピラミッド画像とされる。また、レベルLi(但し、1≦i≦7)のピラミッド画像における、互いに隣接する4つの画素の画素値の平均値が、それらの画素と対応するレベルL(i+1)のピラミッド画像の1つの画素の画素値とされる。したがって、レベルL(i+1)のピラミッド画像は、レベルLiのピラミッド画像に対して縦横半分(割り切れない場合は切り捨て)の画像となる。
また、帯域特徴量マップ生成部112は、複数のピラミッド画像のうち、互いに階層の異なる2つのピラミッド画像を選択し、選択したピラミッド画像の差分を求めて各特徴量の差分画像をN枚生成する。なお、各階層のピラミッド画像は、それぞれ大きさ(画素数)が異なるので、差分画像の生成時には、より小さい方のピラミッド画像が、より大きいピラミッド画像に合わせてアップコンバートされる。
例えば、帯域特徴量マップ生成部112は、各階層の特徴量のピラミッド画像のうち、レベルL6およびレベルL3、レベルL7およびレベルL3、レベルL7およびレベルL4、レベルL8およびレベルL4、並びにレベルL8およびレベルL5の各階層の組み合わせのピラミッド画像の差分を求める。これにより、合計5つの特徴量の差分画像が得られる。
具体的には、例えば、レベルL6およびレベルL3の組み合わせの差分画像が生成される場合、レベルL6のピラミッド画像が、レベルL3のピラミッド画像の大きさに合わせてアップコンバートされる。つまり、アップコンバート前のレベルL6のピラミッド画像の1つの画素の画素値が、その画素に対応する、アップコンバート後のレベルL6のピラミッド画像の互いに隣接するいくつかの画素の画素値とされる。そして、レベルL6のピラミッド画像の画素の画素値と、その画素と同じ位置にあるレベルL3のピラミッド画像の画素の画素値との差分が求められ、その差分が差分画像の画素の画素値とされる。
このようにして得られたN個の差分画像のそれぞれが、さらに必要に応じて入力画像と同じ大きさにアップコンバートされ、帯域1乃至帯域Nの帯域特徴量マップとされる。
このように、差分画像を生成することで、特徴量マップにバンドパスフィルタを用いたフィルタ処理を施すように、特徴量マップから特定の帯域成分の特徴量を抽出することができる。このようにして得られた差分画像の画素の画素値は、各レベルのピラミッド画像の画素値の差、つまり入力画像における所定の画素における特徴の特徴量と、その画素の周囲の平均的な特徴量との差分を示している。
例えば、特徴が輝度である場合には、差分画像(帯域特徴量マップ)の画素値は、入力画像の所定領域の輝度と、その周囲の領域の平均的な輝度の差を示している。一般的に、画像において周囲との輝度の差分の大きい領域は、その画像を見る人の目を引く領域であるので、その領域は被写体の領域である可能性が高い。したがって、各差分画像(帯域特徴量マップ)において、より画素値の大きい画素が、より被写体の領域である可能性の高い領域であることを示しているということができる。同様に、他の特徴についても、周囲と比べて特徴量の差が大きい領域は、ユーザの目を引く領域であるので、より被写体らしい領域であるといえる。
なお、以上の説明において、特徴量マップから抽出される帯域の幅は、差分画像を生成する際のピラミッド画像の各階層の組み合わせによって決まるが、この組み合わせは任意に決定される。また、所定の帯域成分の特徴量の抽出は、上述した差分画像による手法に限らず、他の手法を用いるようにしてもよい。
図7のフローチャートの説明に戻り、ステップS33において、マッチング処理部75は、帯域特徴量マップ生成部112から供給された帯域特徴量マップRmn(但し、1≦m≦M,1≦n≦N)と、メモリ81に記録されている帯域リファレンスマップとのマッチング処理を行う。
例えば、図9に示すように、帯域特徴量マップ生成部112では、M種類の各特徴について、N個の帯域ごとに、合計(M×N)個の帯域特徴量マップRmnが得られる。また、帯域特徴量マップ合成部113では、M種類の各特徴について、帯域特徴量マップが合成されて得られた合成特徴量マップCm(但し、1≦m≦M)が得られる。
そして、リファレンスマップ保持部74のメモリ81には、各合成特徴量マップCmにおける入力画像上の被写体領域CRと同じ位置の領域が、合成リファレンスマップRFCm(但し、1≦m≦M)として記録されている。また、メモリ81には、各帯域特徴量マップRmnにおける入力画像上の被写体領域CRと同じ位置の領域が、帯域リファレンスマップRFRmn(但し、1≦m≦M,1≦n≦N)として記録されている。
ここで、メモリ81に記録されている帯域リファレンスマップおよび合成リファレンスマップは、処理対象の現フレームよりも1つ前のフレームの帯域特徴量マップと合成特徴量マップから得られたものである。
マッチング処理部75は、帯域特徴量マップ生成部112から、現フレームの帯域特徴量マップRmnが供給されると、その帯域特徴量マップRmnから、メモリ81から読み出した前フレームの帯域リファレンスマップRFRmnと最も類似する領域を検索する。
例えば、図10に示すように、マッチング処理部75は、帯域特徴量マップRmn上の処理対象となる領域ERmn(但し、1≦m≦M,1≦n≦N)の位置を図中、左上から右下までずらしながら、各領域ERmnと帯域リファレンスマップRFRmnとのマッチングを行なう。
具体的には、マッチング処理部75は、領域ERmn内の各画素について、領域ERmnの画素の画素値と、その画素と同じ位置にある帯域リファレンスマップRFRmnの画素の画素値との差分の絶対値を求め、各画素について求めた差分の絶対値の総和(差分絶対値和)を求める。
マッチング処理部75は、帯域特徴量マップRmnの各領域ERmnのうち、帯域リファレンスマップとの差分絶対値和が最小となる領域を、最大類似領域MERmn(但し、1≦m≦M,1≦n≦N)とする。そして、マッチング処理部75は、最大類似領域MERmnの位置を示す情報を、マッチング処理の結果として重み係数算出部76に供給する。
これにより、(M×N)個の帯域特徴量マップRmnについて、それぞれ最大類似領域MERmnが特定され、それらの最大類似領域を示す情報が、重み係数算出部76に供給される。なお、マッチング処理として、差分絶対値和を利用する場合を例として説明したが、その他、差分二乗和等を利用したマッチング処理や、ヒストグラムマッチング、テンプレートマッチングなど、帯域リファレンスマップと最も類似する領域が特定できれば、どのような処理であってもよい。
図7のフローチャートの説明に戻り、ステップS34において、重み係数算出部76は、マッチング処理部75から供給された帯域特徴量マップのマッチング処理の結果に基づいて、各帯域特徴量マップの帯域重み係数wmn(但し、1≦m≦M,1≦n≦N)を算出する。
例えば、図11に示すように、重み係数算出部76は、帯域特徴量マップRmnの画素のうち、最大類似領域MERmn内にない画素の帯域重み係数wmnを予め定められた値αとする。また、重み係数算出部76は、帯域特徴量マップRmnの最大類似領域MERmn内にある画素の帯域重み係数wmnを、値αよりも大きい予め定められた値βとする。
重み係数算出部76は、このように画素ごとに定めた値αまたはβを、現フレームにおいて帯域特徴量マップRmnの各画素に乗算される、画素ごとの帯域重み係数wmnとし、帯域特徴量マップ合成部113に供給する。
このように、帯域特徴量マップの最大類似領域内の画素の帯域重み係数を、最大類似領域外の画素の帯域重み係数よりも大きい値とすることで、帯域特徴量マップを合成して合成特徴量マップを生成する場合に、最大類似領域の重みをより大きくすることができる。
最大類似領域は、現フレームの帯域特徴量マップにおいて、前フレームの被写体領域と最も類似する領域、つまり最も相関の高い領域であるから、現フレームの入力画像において、最大類似領域と同じ領域に、被写体がある可能性が高い。
そこで、前フレームの被写体領域との相関がより高く、被写体がある可能性が高い領域に対して、より大きい重みがつけられるように帯域重み係数を定めれば、より高精度に被写体を検出できる合成特徴量マップが得られるようになる。
なお、画素ごとの帯域重み係数wmnとされる値αおよびβは、(M×N)個の帯域特徴量マップごとに同じ値とされてもよいし、特徴ごとや帯域ごとに異なる値とされてもよい。また、同じ帯域特徴量マップにおいても、最大類似領域から離れた位置にある画素ほど帯域重み係数の値が小さくなるなど、画素の位置によって帯域重み係数の値が異なるようにしてもよい。
図7のフローチャートの説明に戻り、ステップS35において、帯域特徴量マップ合成部113は、帯域特徴量マップ生成部112からの帯域特徴量マップを、重み係数算出部76からの帯域重み係数群WRに基づいて特徴ごとに合成する。帯域特徴量マップ合成部113は、合成により得られた合成特徴量マップを、合成特徴量マップ合成部114、リファレンスマップ保持部74、およびマッチング処理部75に供給する。
具体的には、図8に示されるように、輝度の帯域特徴量マップR11乃至R1Nが、帯域特徴量マップごとの重みである帯域重み係数w11乃至w1Nにより重み付き加算され、合成特徴量マップC1とされる。
より詳細には、合成特徴量マップC1上の注目する画素を注目画素とすると、注目画素と同じ位置にある帯域特徴量マップR11乃至R1Nの画素の画素値のそれぞれに、帯域重み係数w11乃至w1Nが乗算される。そして、帯域重み係数が乗算された各画素値の総和が、注目画素の画素値とされる。
輝度の帯域特徴量マップと同様にして、色の帯域特徴量マップR21乃至R2N,…,RK1乃至RKNが、帯域特徴量マップごとの重みである帯域重み係数w21乃至w2N,…,wK1乃至wKNにより重み付き加算され、合成特徴量マップC2乃至CKとされる。
また、エッジの帯域特徴量マップR(K+1)1乃至R(K+1)N,…,RM1乃至RMNが、帯域特徴量マップごとの重みである帯域重み係数w(K+1)1乃至w(K+1)N,…,wM1乃至wMNにより重み付き加算され、合成特徴量マップCK+1乃至CMとされる。
このように、帯域特徴量マップ合成部113は、M種類の合成特徴量マップを生成する。なお、より詳細には、各合成特徴量マップは、画素の画素値が、例えば0から255までの間の値となるように正規化される。また、1回目の被写体マップ生成処理においては、帯域重み係数群WRの各帯域重み係数wmnは全て1とされ、帯域特徴量マップは、重みなしで加算される。
ステップS36において、マッチング処理部75は、帯域特徴量マップ合成部113から供給された合成特徴量マップCm(但し、1≦m≦M)と、メモリ81に記録されている合成リファレンスマップRFCm(但し、1≦m≦M)とのマッチング処理を行う。
ここで、合成特徴量マップCmのマッチング処理では、帯域特徴量マップのマッチング処理と同様の処理が行われる。
すなわち、例えば、マッチング処理部75は、合成特徴量マップCm上の処理対象となる領域ECm(但し、1≦m≦M)の位置をずらしながら、領域ECmと合成リファレンスマップRFCmとの画素の画素値の差分絶対値和を求める。そして、マッチング処理部75は、合成特徴量マップCmの各領域ECmのうち、合成リファレンスマップとの差分絶対値和が最小となる領域を、最大類似領域MECm(但し、1≦m≦M)とする。マッチング処理部75は、最大類似領域MECmの位置を示す情報をマッチング処理の結果として、重み係数算出部76に供給する。
ステップS37において、重み係数算出部76は、マッチング処理部75から供給された合成特徴量マップのマッチング処理の結果に基づいて、各合成特徴量マップの合成重み係数wm(但し、1≦m≦M)を算出し、合成特徴量マップ合成部114に供給する。
ここで、合成重み係数wmの算出では、帯域重み係数の算出と同様の処理が行われる。すなわち、重み係数算出部76は、合成特徴量マップCmの画素のうち、最大類似領域MECm内にない画素の合成重み係数wmを予め定められた値αとする。また、重み係数算出部76は、合成特徴量マップCmの最大類似領域MECm内の画素の合成重み係数wmを、値αよりも大きい予め定められた値βとする。
なお、合成重み係数wmの値とされる予め定められた値αおよびβは、帯域重み係数wmnとされる値αおよびβと同じ値とされるが、異なる値とされるようにしてもよい。また、合成特徴量マップCmごとの合成重み係数wmとされる値αおよびβは、合成特徴量マップによって異なる値とされるようにしてもよい。
このように、合成重み係数の算出時においても、帯域重み係数の算出と同じように、前フレームの被写体領域との相関が高い領域の重みがより大きくなるようにすることで、より高精度に被写体を検出できる被写体マップが得られるようになる。
ステップS38において、合成特徴量マップ合成部114は、帯域特徴量マップ合成部113からの合成特徴量マップを、重み係数算出部76からの合成重み係数群WCに基づいて合成することで、被写体マップを生成し、被写体候補領域矩形化部72に供給する。
具体的には、図8に示されるように、合成特徴量マップC1乃至CMは、重み係数算出部76からの合成重み係数w1乃至wMが用いられて線形結合され、さらに、得られたマップが正規化されて被写体マップ201とされる。
すなわち、これから求めようとする被写体マップ上の注目する画素を注目画素とすると、注目画素と同じ位置にある各合成特徴量マップの画素の画素値に、合成特徴量マップごとの合成重み係数が乗算され、合成重み係数の乗算された画素値の総和が、注目画素の画素値とされる。さらに、このようにして求められた被写体マップの各画素の画素値が、例えば0から255までの間の値となるように正規化されて、最終的な被写体マップとされる。
なお、1回目の被写体マップ生成処理においては、合成重み係数群WCの各合成重み係数は全て1とされ、合成特徴量マップは、重みなしで線形結合される。
被写体マップが生成されると、被写体マップ生成処理は終了し、その後、処理は、図6のステップS12に進む。
図6のフローチャートの説明に戻り、ステップS12において、被写体候補領域矩形化部72は、被写体候補領域矩形化処理を行って、被写体マップ生成部71から供給された被写体マップ上の被写体候補領域を決定する。
ここで、図12および図13を参照して、被写体候補領域矩形化処理の詳細について説明する。図12は、被写体候補領域矩形化処理について説明するフローチャートであり、図13は、被写体候補領域矩形化処理の具体例を示す図である。
図12のフローチャートのステップS51において、被写体候補領域矩形化部72の2値化処理部131は、合成特徴量マップ合成部114から供給された被写体マップの各画素の画素値を閾値処理により2値化し、ラベリング処理部132に供給する。
より具体的には、2値化処理部131は、図13に示すように、0から255までの間の値である被写体マップ201の各画素の画素値に対して、例えば、閾値「127」より小さい値の画素値を0とし、閾値「127」より大きい値の画素値を1とする。
これにより、図13の上から2番目に示される2値化マップ202が得られる。図13で示される2値化マップ202は、2値化された被写体マップであり、2値化マップ202においては、白で示される部分が、画素値が1である画素を示しており、黒で示される部分が、画素値が0である画素を示している。なお、ここでは、閾値を127であるものとしたが、他の値であってもよい。
ステップS52において、ラベリング処理部132は、2値化処理部131からの2値化マップ202に対してモルフォロジー演算等を行なって、2値化マップ202上の被写体の領域を矩形化し、得られた連結領域に対してラベリングを行なう。
すなわち、ラベリング処理部132は、2値化マップ202(2値化された被写体マップ)において、互いに隣接する、画素値が1である画素からなる連結領域に対してラベリングを行う。例えば、図13の上から3番目に示されるように、2値化マップ202上の連結領域211にラベル「1」が付加され、連結領域212にラベル「2」が付加される。ラベリング処理部132は、ラベリングされた2値化マップ(被写体マップ)を、矩形領域座標算出部133に供給する。
ステップS53において、矩形領域座標算出部133は、ラベリング処理部132から供給された2値化マップ202上の各連結領域を囲む矩形領域を被写体候補領域とし、被写体候補領域の位置を示す座標情報を生成する。
具体的には、図13の上から4番目に示されるように、2値化マップ202において、ラベル「1」が付加された連結領域211を外側から囲む矩形枠(外接枠)221が検出され、被写体候補領域とされる。そして、例えば、その被写体候補領域の図中、左上および右下の頂点の座標が求められ、その座標が座標情報とされる。
また、ラベル「2」が付加された連結領域212を外側から囲む矩形枠222が検出されて被写体候補領域とされ、その被写体候補領域の図中、左上および右下の頂点の座標が座標情報として生成される。
矩形領域座標算出部133は、各被写体候補領域の座標情報を生成すると、それらの座標情報を領域情報算出部134に供給する。
ステップS54において、領域情報算出部134は、矩形領域座標算出部133からの座標情報と、合成特徴量マップ合成部114からの被写体マップとを用いて、各被写体候補領域の領域情報を算出する。
例えば、領域情報算出部134は、被写体候補領域のサイズ(大きさ)や、被写体マップにおける被写体候補領域の中心位置の座標を領域情報として算出する。
また、領域情報算出部134は、被写体マップ上の被写体候補領域内の画素の画素値の積分値(総和)や、被写体マップ上の被写体候補領域内の画素の画素値のピーク値(最大値)を、領域情報として算出する。
領域情報算出部134は、各被写体候補領域について領域情報を算出すると、得られた各被写体候補領域の領域情報と座標情報を被写体領域選択部73に供給し、被写体候補領域矩形化処理は終了する。そして、その後、処理は、図6のステップS13へと進む。
図6のフローチャートの説明に戻り、ステップS13において、被写体領域選択部73は、被写体領域選択処理を行って、被写体候補領域のなかから被写体領域とするものを選択する。
ここで、図14のフローチャートを参照して、ステップS13の被写体領域選択処理の詳細について説明する。
ステップS71において、領域情報比較部151は、領域情報算出部134からの各被写体候補領域の領域情報と、領域情報記録部153に記録されている1フレーム前の被写体領域の領域情報とを比較する。そして、領域情報比較部151は、その比較結果と、領域情報算出部134からの各被写体候補領域の座標情報とを、被写体領域決定部152に供給する。
具体的には、例えば、領域情報として、被写体候補領域のサイズが算出された場合、領域情報比較部151は、各被写体候補領域のサイズ、つまり被写体候補領域を囲む矩形枠の大きさと、1フレーム前の被写体領域のサイズとを比較する。この場合、例えば、被写体候補領域のサイズと、被写体領域のサイズの差の絶対値が比較結果として得られる。
また、例えば、領域情報として、被写体候補領域の中心位置の座標が求められ、その中心位置の座標と、1フレーム前の被写体領域の中心位置の座標が比較された場合、それらの中心位置間の距離が、比較結果として得られる。
さらに、領域情報として、被写体候補領域内の画素の画素値のピーク値や積分値が求められた場合には、それらの被写体候補領域のピーク値や積分値と、1フレーム前の被写体領域のピーク値や積分値との差の絶対値が、比較の結果として得られることになる。
ステップS72において、被写体領域決定部152は、領域情報比較部151からの比較結果に基づいて、被写体候補領域の何れかを、処理対象の現フレームにおける被写体領域として選択する。すなわち、特定の特徴、つまり領域情報を指標とした場合に、現フレームの被写体候補領域のうち、前フレームの被写体領域との相関が最も高い被写体候補領域が、現フレームの被写体領域とされる。
具体的には、例えば、比較の結果として得られた、被写体領域に対する被写体候補領域のサイズの差、中心位置間の距離、ピーク値の差、積分値の差などの領域情報の差の絶対値が最も小さい被写体候補領域が、被写体領域として選択される。
また、被写体領域決定部152は、現フレームの被写体領域を決定すると、領域情報比較部151から供給された、被写体領域とされた被写体候補領域の座標情報を、制御部34およびリファレンスマップ保持部74に供給する。さらに、被写体領域決定部152は、その被写体領域の領域情報を領域情報記録部153に供給して記録させ、被写体領域選択処理は終了する。そして、その後、処理は図6のステップS14に進む。
なお、1回目の被写体領域選択処理においては、領域情報記録部153には、1フレーム前の被写体領域の領域情報は記録されていないので、被写体追尾処理の開始時にユーザによって選択された初期選択領域を含む被写体候補領域が被写体領域とされる。
図6のフローチャートの説明に戻り、ステップS14において、リファレンスマップ保持部74は、帯域特徴量マップ生成部112から供給された帯域特徴量マップと、被写体領域決定部152からの被写体領域の座標情報とを用いて、帯域リファレンスマップを生成する。
具体的には、リファレンスマップ保持部74は、図9を参照して説明したように、現フレームの帯域特徴量マップRmnにおける入力画像上の被写体領域と同じ領域を切り出して、帯域リファレンスマップRFRmn(但し、1≦m≦M,1≦n≦N)とする。リファレンスマップ保持部74は、生成した帯域リファレンスマップをメモリ81に供給し、記録させる。この帯域リファレンスマップは、次フレームの帯域重み係数の算出に用いられる。
ステップS15において、リファレンスマップ保持部74は、帯域特徴量マップ合成部113から供給された合成特徴量マップと、被写体領域決定部152からの被写体領域の座標情報とを用いて、合成リファレンスマップを生成する。
すなわち、帯域リファレンスマップの生成と同様に、リファレンスマップ保持部74は、現フレームの合成特徴量マップCmにおける入力画像上の被写体領域と同じ領域を切り出して、合成リファレンスマップRFCm(但し、1≦m≦M)とする。リファレンスマップ保持部74は、生成した合成リファレンスマップをメモリ81に供給し、記録させる。この合成リファレンスマップは、次フレームの合成重み係数の算出に用いられる。
ステップS15において、合成リファレンスマップが生成されると、その後、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、次のフレームについての被写体追尾処理が実行され、この処理が1フレームごとに繰り返される。
このようにして、被写体追尾部55は、フレームごとに、そのフレームの帯域特徴量マップと合成特徴量マップについて、それらのマップにおける前フレームの被写体領域と相関の高い領域を検出し、その検出結果に応じて帯域重み係数および合成重み係数を定める。すなわち、帯域特徴量マップおよび合成特徴量マップにおいて、より相関の高い領域の重みが、より大きくなるように帯域重み係数および合成重み係数が定められる。したがって、前フレームの被写体領域とより相関の高い領域が大きく重み付けされる被写体マップが生成される。
この被写体マップを用いた被写体の検出では、直前のフレームの被写体領域とより相関の高い領域が、適応的に重要視され続ける。そのため、被写体に照射される光が変化する場合や、被写体の姿勢が変化する場合など、被写体の状態が変動するような環境下でも、最初に指定された領域の特徴量を用いて追尾を行なう従来の手法と比べて、被写体をより安定して追尾することができる。
しかも、被写体マップは、入力画像から抽出された複数の特徴の特徴量から生成されるため、いくつかの特徴の特徴量が大きく変化しても、他の特徴の特徴量の変化が小さければ、充分な精度で被写体を検出することができ、安定した追尾が可能となる。
また、被写体領域は、被写体全体を含むように決定されるので、被写体の一部の領域の状態が変動するような環境下でも、被写体をより安定して追尾することができる。
特に、従来の被写体追尾の手法において、被写体領域内の何れかの座標(またはその座標を含む一部領域)が同定されるような場合では、被写体全体を追尾することができず、AF(Auto Focus)やAE(Auto Exposure)、ACC(Auto Color Control)の検波枠を正しく設定することができなかった。また、被写体領域内で特徴量が同一である同一特徴量領域が同定されるような場合では、上述の場合よりは検波枠を設定する精度を上げることができるが、同一特徴量領域は、被写体領域のごく一部に過ぎないことが多く、充分な検波精度は得られなかった。
一方、本発明の被写体追尾処理によれば、被写体全体を含む被写体領域を同定できるので、検波精度を上げることができ、ひいては、追尾結果を様々なアプリケーションに適用することが可能となる。
また、従来の被写体追尾の手法には、例えば、人間の全体像を学習により辞書に登録する等して、人間を検出・追尾するものもあるが、辞書に登録されていない人間以外の被写体を追尾することはできない。さらに、辞書に登録される情報(画像)の量は膨大な量となるため、装置規模が大きくなってしまう。
これに対して、本発明の被写体追尾処理によれば、任意の被写体を検出・追尾することができる上に、辞書等に膨大な量の情報を登録する必要がないので、装置規模をコンパクトにすることができる。
なお、選択した被写体領域において最も特徴的な合成特徴量マップが適応的に重視されるように、各合成特徴量マップに重みを付けて被写体マップを生成する手法も考えられる。この手法によれば、画像上に単一の被写体がある場合や、画像上に互いに類似する被写体がない場合には、容易に目的とする被写体を検出し続けることができる。しかしながら、目的とする被写体と特徴が類似する別の被写体が画像上にある場合には、被写体の誤検出が生じてしまうことがある。
例えば、図15の矢印F11に示すような入力画像が撮像され、矢印F12に示す被写体マップが得られたとする。矢印F11に示す入力画像には、いくつかのオブジェクトが前景として並べられており、矢印F12に示す被写体マップでは、これらのオブジェクトの特徴の特徴量が類似しているため、各オブジェクトの領域の画素の画素値がある程度大きな値となっている。
そして、このようにして得られた被写体マップから、矢印F13に示すように、被写体候補領域LR1乃至被写体候補領域LR3を含む、複数の被写体候補領域が検出されたとする。ここで、例えばユーザにより指定された追尾すべき被写体が、被写体候補領域LR1に含まれているとする。
このとき、被写体候補領域LR1と被写体候補領域LR2のサイズが近いと、被写体候補領域LR1を被写体領域として選択すべきところを、被写体候補領域LR2が選択されてしまうという誤検出が生じる可能性がある。
また、例えば、入力画像において、いくつかのオブジェクトが互いに重なっていると矩形化に失敗し、被写体候補領域LR3のように、複数のオブジェクトを含む領域が1つの被写体候補領域とされてしまうことがある。
このとき、被写体候補領域の画素の画素値の積分値が領域情報とされ、被写体候補領域LR3の積分値が、被写体候補領域LR1の積分値と近い場合には、被写体候補領域LR3が選択されてしまうという誤検出が生じる可能性もある。
これに対して、図2の被写体追尾部55では、帯域特徴量マップや合成特徴量マップごとに、現フレームにおいて、前フレームの被写体領域と最も相関の高い領域が検出され、それらの領域が適応的に重視される被写体マップが生成される。
このように、各マップの空間方向に重みをつければ、画像上に追尾すべき被写体と特徴が類似する被写体があるような場合であっても、追尾すべき被写体の領域の画素値のみが大きくなるような被写体マップを得ることができる。これにより、特徴的な合成特徴量マップ全体の重みを大きくする場合と比べて、より確実に目的とする被写体を検出することができるようになる。
なお、上述した説明においては、特徴量として、輝度成分、色成分、およびエッジ強度を用いるものとしたが、これに限らず、例えば、動き情報等を加えるようにしてもよい。また、用いられる特徴量は、例えば、輝度成分と色成分のような、相補的な関係にあるものが好適であり、適宜、選択されるようにしてもよい。
また、以上においては、(M×N)個の帯域特徴量マップ、およびM個の合成特徴量マップのそれぞれについて、重み係数を算出するようにしたが、一部のマップの重み係数のみを、適宜算出するようにしてもよい。例えば、合成特徴量マップC1乃至CMのM個の合成特徴量マップの合成重み係数のみを算出するようにしてもよい。このような場合、画像処理装置11における演算量を抑えることができる。
さらに、処理対象の現フレームにおいて、前フレームの被写体領域を含む所定の大きさの領域のみを処理対象領域として、帯域特徴量マップや合成特徴量マップのマッチング処理を行うようにしてもよい。そのような場合、処理対象領域の大きさや位置を、前フレームにおける追尾すべき被写体のサイズ(大きさ)や、被写体の移動速度に応じて変化させれば、より効率よく、かつより確実に相関の高い領域を検出することができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インターフェース305が接続されている。入出力インターフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記録部308、ネットワークインターフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。
以上のように構成されるコンピュータでは、CPU301が、例えば、記録部308に記録されているプログラムを、入出力インターフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インターフェース305を介して、記録部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記録部308にインストールすることができる。その他、プログラムは、ROM302や記録部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 55 被写体追尾部, 71 被写体マップ生成部, 72 被写体候補領域矩形化部, 73 被写体領域選択部, 74 リファレンスマップ保持部, 75 マッチング処理部, 76 重み係数算出部, 111 特徴量マップ生成部, 112 帯域特徴量マップ生成部, 113 帯域特徴量マップ合成部, 114 合成特徴量マップ合成部
Claims (6)
- 連続する複数フレームの入力画像のそれぞれについて、前記入力画像上の特定の被写体が含まれる領域を特定する画像処理装置であって、
予め定められた複数の第1の特徴ごとに、前記入力画像から前記第1の特徴の特徴量を抽出して、前記特徴量により求まる前記入力画像の各領域における前記被写体らしさを示す合成特徴量マップを生成する生成手段と、
前記第1の特徴ごとの前記合成特徴量マップを、合成重み係数を用いて線形結合し、前記入力画像の各領域における前記被写体らしさを示す被写体マップを生成する被写体マップ生成手段と、
前記被写体マップを用いて、前記被写体マップにおいて最も前記被写体らしい領域である被写体領域を特定することで、前記入力画像上の前記被写体が含まれる領域を特定する被写体領域特定手段と、
前記合成特徴量マップにおける前記被写体領域と同じ位置の領域を、合成リファレンスマップとして保持するリファレンスマップ保持手段と、
処理対象フレームの前記合成特徴量マップ上において、前記処理対象フレームよりも前のフレームの前記合成リファレンスマップと最も相関の高い合成最大類似領域を検索するマッチング処理手段と、
前記処理対象フレームの前記合成特徴量マップの前記合成最大類似領域内の画素の画素値に乗算される前記合成重み係数が、前記合成特徴量マップの前記合成最大類似領域外にある画素の画素値に乗算される前記合成重み係数よりも大きくなるように、前記合成重み係数を算出する係数算出手段と
を備える画像処理装置。 - 前記被写体領域特定手段は、
前記被写体マップの各画素の画素値に対する閾値処理を行って、前記被写体マップにおいて、前記被写体領域の候補となる被写体候補領域を抽出する候補領域抽出手段と、
前記被写体マップ上の前記被写体候補領域から第2の特徴の特徴量を抽出し、前記第2の特徴の特徴量を示す領域情報を生成する領域情報算出手段と、
前記処理対象フレームの前記被写体候補領域のうち、前記領域情報が前記前のフレームの前記被写体領域とされた前記被写体候補領域の前記領域情報と最も近い前記被写体候補領域を、前記処理対象フレームの前記被写体領域として選択する被写体領域選択手段と
を備える
請求項1に記載の画像処理装置。 - 前記生成手段は、
前記入力画像から前記第1の特徴の特徴量を抽出して、前記入力画像の各領域における前記第1の特徴の特徴量を示す特徴量マップを生成する特徴量マップ生成手段と、
複数の帯域ごとに、前記特徴量マップから前記帯域の成分を抽出して、前記帯域の成分を示す帯域特徴量マップを生成する帯域特徴量マップ生成手段と、
前記第1の特徴ごとに、帯域重み係数を用いて前記帯域特徴量マップを線形結合し、前記合成特徴量マップを生成する合成特徴量マップ生成手段と
を備える
請求項2に記載の画像処理装置。 - 前記リファレンスマップ保持手段は、前記帯域特徴量マップにおける前記被写体領域と同じ位置の領域を帯域リファレンスマップとして保持し、
前記マッチング処理手段は、前記処理対象フレームの前記帯域特徴量マップ上において、前記前のフレームの前記帯域リファレンスマップと最も相関の高い帯域最大類似領域を検索し、
前記係数算出手段は、前記処理対象フレームの前記帯域特徴量マップの前記帯域最大類似領域内の画素の画素値に乗算される前記帯域重み係数が、前記帯域特徴量マップの前記帯域最大類似領域外にある画素の画素値に乗算される前記帯域重み係数よりも大きくなるように、前記帯域重み係数を算出する
請求項3に記載の画像処理装置。 - 連続する複数フレームの入力画像のそれぞれについて、前記入力画像上の特定の被写体が含まれる領域を特定する画像処理装置であり、
予め定められた複数の第1の特徴ごとに、前記入力画像から前記第1の特徴の特徴量を抽出して、前記特徴量により求まる前記入力画像の各領域における前記被写体らしさを示す合成特徴量マップを生成する生成手段と、
前記第1の特徴ごとの前記合成特徴量マップを、合成重み係数を用いて線形結合し、前記入力画像の各領域における前記被写体らしさを示す被写体マップを生成する被写体マップ生成手段と、
前記被写体マップを用いて、前記被写体マップにおいて最も前記被写体らしい領域である被写体領域を特定することで、前記入力画像上の前記被写体が含まれる領域を特定する被写体領域特定手段と、
前記合成特徴量マップにおける前記被写体領域と同じ位置の領域を、合成リファレンスマップとして保持するリファレンスマップ保持手段と、
処理対象フレームの前記合成特徴量マップ上において、前記処理対象フレームよりも前のフレームの前記合成リファレンスマップと最も相関の高い合成最大類似領域を検索するマッチング処理手段と、
前記処理対象フレームの前記合成特徴量マップの前記合成最大類似領域内の画素の画素値に乗算される前記合成重み係数が、前記合成特徴量マップの前記合成最大類似領域外にある画素の画素値に乗算される前記合成重み係数よりも大きくなるように、前記合成重み係数を算出する係数算出手段と
を備える画像処理装置の画像処理方法であって、
前記生成手段が、前記入力画像から前記合成特徴量マップを生成し、
前記マッチング処理手段が、前記処理対象フレームの前記合成特徴量マップから前記合成最大類似領域を検索し、
前記係数算出手段が、前記合成最大類似領域の検索結果から前記合成重み係数を算出し、
前記被写体マップ生成手段が、前記合成重み係数を用いて、前記合成特徴量マップを線形結合して前記被写体マップを生成し、
前記被写体領域特定手段が、前記被写体マップを用いて前記入力画像上の前記被写体が含まれる領域を特定する
ステップを含む画像処理方法。 - 連続する複数フレームの入力画像のそれぞれについて、前記入力画像上の特定の被写体が含まれる領域を特定する画像処理用のプログラムであって、
予め定められた複数の第1の特徴ごとに、前記入力画像から前記第1の特徴の特徴量を抽出して、前記特徴量により求まる前記入力画像の各領域における前記被写体らしさを示す合成特徴量マップを生成し、
前記第1の特徴ごとの前記合成特徴量マップを、合成重み係数を用いて線形結合し、前記入力画像の各領域における前記被写体らしさを示す被写体マップを生成し、
前記被写体マップを用いて、前記被写体マップにおいて最も前記被写体らしい領域である被写体領域を特定することで、前記入力画像上の前記被写体が含まれる領域を特定し、
前記合成特徴量マップにおける前記被写体領域と同じ位置の領域を、合成リファレンスマップとして保持し、
処理対象フレームの前記合成特徴量マップ上において、前記処理対象フレームよりも前のフレームの前記合成リファレンスマップと最も相関の高い合成最大類似領域を検索し、
前記処理対象フレームの前記合成特徴量マップの前記合成最大類似領域内の画素の画素値に乗算される前記合成重み係数が、前記合成特徴量マップの前記合成最大類似領域外にある画素の画素値に乗算される前記合成重み係数よりも大きくなるように、前記合成重み係数を算出する
ステップを含む処理をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010004542A JP2011146827A (ja) | 2010-01-13 | 2010-01-13 | 画像処理装置および方法、並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010004542A JP2011146827A (ja) | 2010-01-13 | 2010-01-13 | 画像処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011146827A true JP2011146827A (ja) | 2011-07-28 |
Family
ID=44461315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010004542A Withdrawn JP2011146827A (ja) | 2010-01-13 | 2010-01-13 | 画像処理装置および方法、並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011146827A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013084593A1 (ja) | 2011-12-06 | 2013-06-13 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2013133142A1 (ja) | 2012-03-09 | 2013-09-12 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2013153883A1 (ja) | 2012-04-09 | 2013-10-17 | ソニー株式会社 | 表示制御装置、表示制御方法、プログラム |
WO2014109125A1 (ja) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2014109124A1 (ja) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
US9648229B2 (en) | 2012-04-09 | 2017-05-09 | Sony Corporation | Image processing device and associated methodology for determining a main subject in an image |
-
2010
- 2010-01-13 JP JP2010004542A patent/JP2011146827A/ja not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013084593A1 (ja) | 2011-12-06 | 2013-06-13 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
US9734580B2 (en) | 2011-12-06 | 2017-08-15 | Sony Corporation | Image processing apparatus, image processing method, and program |
US10630891B2 (en) | 2011-12-06 | 2020-04-21 | Sony Corporation | Image processing apparatus, image processing method, and program |
US10455154B2 (en) | 2012-03-09 | 2019-10-22 | Sony Corporation | Image processing device, image processing method, and program including stable image estimation and main subject determination |
WO2013133142A1 (ja) | 2012-03-09 | 2013-09-12 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
KR20140138135A (ko) | 2012-03-09 | 2014-12-03 | 소니 주식회사 | 화상 처리 장치, 화상 처리 방법, 프로그램 |
WO2013153883A1 (ja) | 2012-04-09 | 2013-10-17 | ソニー株式会社 | 表示制御装置、表示制御方法、プログラム |
US10848662B2 (en) | 2012-04-09 | 2020-11-24 | Sony Corporation | Image processing device and associated methodology for determining a main subject in an image |
US9648229B2 (en) | 2012-04-09 | 2017-05-09 | Sony Corporation | Image processing device and associated methodology for determining a main subject in an image |
US9712750B2 (en) | 2012-04-09 | 2017-07-18 | Sony Corporation | Display control device and associated methodology of identifying a subject in an image |
WO2014109124A1 (ja) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
EP3562143A1 (en) | 2013-01-09 | 2019-10-30 | SONY Corporation | Image processing device, image processing method, and program |
US10547774B2 (en) | 2013-01-09 | 2020-01-28 | Sony Corporation | Image processing device, image processing method, and program |
US9942460B2 (en) | 2013-01-09 | 2018-04-10 | Sony Corporation | Image processing device, image processing method, and program |
WO2014109125A1 (ja) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
US11012614B2 (en) | 2013-01-09 | 2021-05-18 | Sony Corporation | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8594435B2 (en) | Image processing device and method, and program therefor | |
JP5577793B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP5565041B2 (ja) | 画像処理装置および方法、並びにプログラム | |
US8818024B2 (en) | Method, apparatus, and computer program product for object tracking | |
WO2005084036A1 (ja) | 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム | |
US8565491B2 (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP2011146827A (ja) | 画像処理装置および方法、並びにプログラム | |
US9020269B2 (en) | Image processing device, image processing method, and recording medium | |
JP5429564B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP2011035636A (ja) | 画像処理装置及び方法 | |
JP2011134020A (ja) | 画像処理装置及びその制御方法 | |
JP2011146826A (ja) | 画像処理装置および方法、並びにプログラム | |
Rahman et al. | Real-time face-priority auto focus for digital and cell-phone cameras | |
JP5803058B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP6511950B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2007129591A1 (ja) | 遮蔽物映像識別装置及び方法 | |
JP5786544B2 (ja) | 画像処理装置、撮像装置、及びプログラム | |
JP2011150594A (ja) | 画像処理装置および方法、並びにプログラム | |
JP6118295B2 (ja) | マーカ埋め込み装置、マーカ検出装置、方法、及びプログラム | |
JP2021052286A (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
Masneri et al. | A new skin colour estimation method based on change detection and cluster analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |