JP2011146826A - Unit and method for processing image, and program - Google Patents
Unit and method for processing image, and program Download PDFInfo
- Publication number
- JP2011146826A JP2011146826A JP2010004541A JP2010004541A JP2011146826A JP 2011146826 A JP2011146826 A JP 2011146826A JP 2010004541 A JP2010004541 A JP 2010004541A JP 2010004541 A JP2010004541 A JP 2010004541A JP 2011146826 A JP2011146826 A JP 2011146826A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- map
- region
- feature amount
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置および方法、並びにプログラムに関し、特に、被写体をより安定して追尾するようにする画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing device and method, and a program, and more particularly, to an image processing device and method, and a program for tracking a subject more stably.
近年、撮像装置によって撮像された画像において、ユーザによって選択された被写体を追尾し、その被写体の位置に応じて撮像に関するパラメータ(焦点位置や明るさ等)を最適に調整することが行われている。 In recent years, in an image captured by an imaging device, a subject selected by a user is tracked, and parameters (focus position, brightness, etc.) relating to imaging are optimally adjusted according to the position of the subject. .
例えば、入力画像の所定のフレームにおいて、最初にユーザによって選択された被写体における、輝度情報や色情報等の特徴量を抽出し、次フレームにおいて、その特徴量に一致する特徴量を有する領域を近傍から検索することで被写体を追尾する手法がある(例えば、特許文献1参照)。 For example, in a predetermined frame of the input image, a feature amount such as luminance information or color information is extracted from the subject first selected by the user, and a region having a feature amount that matches the feature amount in the next frame There is a method of tracking a subject by searching from (see, for example, Patent Document 1).
しかしながら、上述した手法では、最初にユーザによって選択された被写体の一部の領域についての特徴量を基に被写体を追尾するので、被写体全体の領域のいずれかの座標または一部の領域しか同定できず、被写体全体を安定して追尾することはできない。 However, in the above-described method, the subject is tracked based on the feature amount of the partial region of the subject first selected by the user, so that only one coordinate or partial region of the entire subject region can be identified. Therefore, the entire subject cannot be tracked stably.
また、入力画像における、被写体への照明光(例えば、色温度、照度等)や被写体の姿勢、サイズ(撮像装置と被写体との距離)等の被写体の状態の変動によって、最初にユーザによって選択された被写体のうちの一部の領域についての特徴量が変化すると、被写体の追尾に失敗してしまう。例えば、特徴量として、最初にユーザによって選択された被写体の一部の領域の色情報が抽出された場合、その色情報を有する領域を追尾するが、被写体が回転する等して選択された、その被写体の一部が隠れてしまうと、その色情報を有する領域が入力画像から存在しなくなり、被写体の追尾に失敗してしまう。これは、特徴量としての輝度情報や色情報の出にくい低照度下でも起こり得る。 Further, in the input image, it is first selected by the user due to fluctuations in the state of the subject, such as illumination light (for example, color temperature, illuminance, etc.) to the subject, posture of the subject, and size (distance between the imaging device and the subject). If the feature amount of a part of the subject changes, tracking of the subject fails. For example, when the color information of a part of the subject initially selected by the user is extracted as the feature amount, the region having the color information is tracked, but the subject is selected by rotating, If a part of the subject is hidden, the area having the color information does not exist from the input image, and tracking of the subject fails. This can occur even under low illuminance where luminance information and color information as feature quantities are difficult to be generated.
本発明は、このような状況に鑑みてなされたものであり、特に、被写体をより安定して追尾するようにするものである。 The present invention has been made in view of such circumstances, and in particular, is intended to track a subject more stably.
本発明の一側面の画像処理装置は、入力画像が有する特徴毎の、前記入力画像の現フレームの所定領域における特徴量を示す特徴量マップから、前記特徴量毎の重み係数に基づいて、前記現フレームにおける被写体の領域らしさを示す被写体マップを生成する被写体マップ生成手段と、前記被写体マップにおいて、前記被写体の候補となる領域を含む矩形領域を求める被写体候補領域矩形化手段と、注目すべき前記被写体が含まれる前記矩形領域である被写体領域を、前記矩形領域についての領域情報に基づいて、前記矩形領域から選択する被写体領域選択手段と、前記現フレームの前記特徴量毎の前記特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する、前記現フレームより時間的に後の後フレームの特徴量マップに対して重み付けする前記重み係数を算出する重み係数算出手段とを備える。 The image processing apparatus according to one aspect of the present invention provides a feature amount map indicating a feature amount in a predetermined region of the current frame of the input image for each feature included in the input image, based on the weight coefficient for each feature amount. Subject map generation means for generating a subject map indicating the likelihood of the subject area in the current frame; subject candidate area rectangularization means for obtaining a rectangular area including the candidate area in the subject map; Subject area selection means for selecting a subject area, which is the rectangular area including the subject, from the rectangular area based on area information about the rectangular area, and the feature amount map for each feature amount of the current frame Of the current frame corresponding to the relatively large feature amount of the feature amount in the region corresponding to the subject region. And a weight coefficient calculating means for calculating the weighting factor for weighting the feature amount map frame after the post-time.
前記被写体マップ生成手段には、前記現フレームから、前記特徴量毎に前記特徴量マップを生成する特徴量マップ生成手段と、前記特徴量マップから、複数の、所定の帯域の特徴量を示す帯域特徴量マップを生成する帯域特徴量マップ生成手段と、前記特徴量毎に、前記帯域特徴量マップを合成する帯域特徴量マップ合成手段と、前記帯域特徴量マップが合成された、前記特徴量毎の合成特徴量マップを合成することで、前記被写体マップを生成する合成特徴量マップ合成手段とを設け、前記帯域特徴量マップ合成手段には、前記帯域特徴量マップに対して、前記特徴量毎および前記帯域毎の前記重み係数に基づいて重み付けして合成させ、前記重み係数算出手段には、前記現フレームの、前記所定の帯域についての前記特徴量毎の前記帯域特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する前記後フレームの帯域特徴量マップに対して重み付けする前記重み係数を算出させることができる。 The subject map generation means includes a feature quantity map generation means for generating the feature quantity map for each feature quantity from the current frame, and a band indicating a plurality of feature quantities in a predetermined band from the feature quantity map. Band feature quantity map generating means for generating a feature quantity map, band feature quantity map synthesizing means for synthesizing the band feature quantity map for each feature quantity, and for each feature quantity obtained by synthesizing the band feature quantity map. And a combined feature amount map combining unit that generates the subject map by combining the combined feature amount map, and the band feature amount map combining unit includes the band feature amount map for each feature amount. And weighting and combining based on the weighting factor for each band, and the weighting factor calculation means causes the band for each feature amount for the predetermined band of the current frame. Calculating the weighting factor for weighting the band feature map of the subsequent frame corresponding to the relatively large feature quantity among the feature quantities in the area corresponding to the subject area on the collection map. Can do.
前記被写体マップ生成手段には、前記現フレームから、前記特徴量毎に前記特徴量マップを生成する特徴量マップ生成手段と、前記特徴量マップから、複数の、所定の帯域の特徴量を示す帯域特徴量マップを生成する帯域特徴量マップ生成手段と、前記特徴量毎に、前記帯域特徴量マップを合成する帯域特徴量マップ合成手段と、前記帯域特徴量マップが合成された、前記特徴量毎の合成特徴量マップを合成することで、前記被写体マップを生成する合成特徴量マップ合成手段とを設け、前記合成特徴量マップ合成手段には、前記合成特徴量マップを、前記特徴量毎の前記重み係数に基づいて重み付けして合成させ、前記重み係数算出手段には、前記現フレームの、前記特徴量毎の前記合成特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する前記後フレームの合成特徴量マップに対して重み付けする前記重み係数を算出させることができる。 The subject map generation means includes a feature quantity map generation means for generating the feature quantity map for each feature quantity from the current frame, and a band indicating a plurality of feature quantities in a predetermined band from the feature quantity map. Band feature quantity map generating means for generating a feature quantity map, band feature quantity map synthesizing means for synthesizing the band feature quantity map for each feature quantity, and for each feature quantity obtained by synthesizing the band feature quantity map. A combined feature amount map combining unit that generates the subject map by combining the combined feature amount map, and the combined feature amount map combining unit stores the combined feature amount map for each feature amount. An area corresponding to the subject area on the combined feature value map for each feature value of the current frame is weighted and synthesized based on a weighting factor. Among definitive the feature amount, the weighting factor for weighting synthesis feature amount map of the rear frame corresponding to the relatively large the feature amount can be calculated.
前記領域情報は、前記被写体マップ上の前記矩形領域の中心座標またはサイズであり、前記被写体領域選択手段には、前記矩形領域から、前記現フレームより時間的に前の前フレームにおいて選択された前記被写体領域の中心座標またはサイズに最も近い中心座標またはサイズを有する前記矩形領域を、前記被写体領域として選択させることができる。 The area information is a center coordinate or a size of the rectangular area on the subject map, and the subject area selecting means selects the rectangular area from the rectangular area in the previous frame temporally before the current frame. The rectangular region having the center coordinate or size closest to the center coordinate or size of the subject region can be selected as the subject region.
前記領域情報は、前記被写体マップ上の前記矩形領域における前記特徴量の積分値またはピーク値であり、前記被写体領域選択手段には、前記矩形領域から、前記現フレームより時間的に前の前フレームにおいて選択された前記被写体領域における前記特徴量の積分値またはピーク値に最も近い前記特徴量の積分値またはピーク値を有する前記矩形領域を、前記被写体領域として選択させることができる。 The region information is an integral value or a peak value of the feature amount in the rectangular region on the subject map, and the subject region selecting means sends the previous frame temporally before the current frame from the rectangular region. The rectangular region having the integral value or peak value of the feature value closest to the integral value or peak value of the feature value in the subject region selected in (2) can be selected as the subject region.
本発明の一側面の画像処理方法は、入力画像が有する特徴毎の、前記入力画像の現フレームの所定領域における特徴量を示す特徴量マップから、前記特徴量毎の重み係数に基づいて、前記現フレームにおける被写体の領域らしさを示す被写体マップを生成する被写体マップ生成ステップと、前記被写体マップにおいて、前記被写体の候補となる領域を含む矩形領域を求める被写体候補領域矩形化ステップと、注目すべき前記被写体が含まれる前記矩形領域である被写体領域を、前記矩形領域についての領域情報に基づいて、前記矩形領域から選択する被写体領域選択ステップと、前記現フレームの前記特徴量毎の前記特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する、前記現フレームより時間的に後の後フレームの特徴量マップに対して重み付けする前記重み係数を算出する重み係数算出ステップとを含む。 The image processing method according to one aspect of the present invention is based on a weighting factor for each feature amount from a feature amount map indicating a feature amount in a predetermined region of the current frame of the input image for each feature of the input image. A subject map generation step for generating a subject map indicating the likelihood of the region of the subject in the current frame, a subject candidate region rectangularization step for obtaining a rectangular region including a region that is a candidate for the subject in the subject map, A subject area selection step of selecting a subject area, which is the rectangular area including the subject, from the rectangular area based on area information about the rectangular area; and on the feature quantity map for each feature quantity of the current frame Corresponding to the relatively large feature amount among the feature amounts in the region corresponding to the subject region, And a weighting coefficient calculation step for calculating the weighting factor for weighting the feature amount map frame after temporally subsequent from the frame.
本発明の一側面のプログラムは、入力画像が有する特徴毎の、前記入力画像の現フレームの所定領域における特徴量を示す特徴量マップから、前記特徴量毎の重み係数に基づいて、前記現フレームにおける被写体の領域らしさを示す被写体マップを生成する被写体マップ生成ステップと、前記被写体マップにおいて、前記被写体の候補となる領域を含む矩形領域を求める被写体候補領域矩形化ステップと、注目すべき前記被写体が含まれる前記矩形領域である被写体領域を、前記矩形領域についての領域情報に基づいて、前記矩形領域から選択する被写体領域選択ステップと、前記現フレームの前記特徴量毎の前記特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する、前記現フレームより時間的に後の後フレームの特徴量マップに対して重み付けする前記重み係数を算出する重み係数算出ステップとを含む処理をコンピュータに実行させる。 The program according to one aspect of the present invention is based on a weight map for each feature amount from a feature amount map indicating a feature amount in a predetermined area of the current frame of the input image for each feature of the input image. A subject map generating step for generating a subject map indicating the region likeness of the subject in the subject, a subject candidate region rectangularizing step for obtaining a rectangular region including a candidate region in the subject map, and the subject to be noted A subject region selection step of selecting a subject region that is the included rectangular region from the rectangular region based on region information about the rectangular region; and on the feature amount map for each feature amount of the current frame, The current amount corresponding to the relatively large feature amount among the feature amounts in the region corresponding to the subject region. To execute processing including the weighting coefficient calculating step of calculating the weighting factor for weighting the feature amount map frame after the post-frame temporally than the computer.
本発明の一側面においては、入力画像が有する特徴毎の、入力画像の現フレームの所定領域における特徴量を示す特徴量マップから、特徴量毎の重み係数に基づいて、現フレームにおける被写体の領域らしさを示す被写体マップが生成され、被写体マップにおいて、被写体の候補となる領域を含む矩形領域が求められ、注目すべき被写体が含まれる矩形領域である被写体領域が、矩形領域についての領域情報に基づいて、矩形領域から選択され、現フレームの特徴量毎の特徴量マップ上の、被写体領域に対応する領域における特徴量のうち、相対的に大きい特徴量に対応する、次フレームの特徴量マップに対して重み付けする重み係数が算出される。 In one aspect of the present invention, a region of a subject in a current frame is calculated based on a weighting factor for each feature amount from a feature amount map indicating a feature amount in a predetermined region of the current frame of the input image for each feature of the input image. A subject map indicating the likelihood is generated, a rectangular area including a candidate area is obtained in the subject map, and a subject area that is a rectangular area including a subject to be noticed is based on area information about the rectangular area. The feature amount map of the next frame corresponding to a relatively large feature amount among the feature amounts in the region corresponding to the subject region on the feature amount map for each feature amount of the current frame is selected from the rectangular region. A weighting factor for weighting is calculated.
本発明の一側面によれば、被写体をより安定して追尾することが可能となる。 According to one aspect of the present invention, it is possible to track a subject more stably.
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[画像処理装置の構成例]
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示している。
[Configuration example of image processing apparatus]
FIG. 1 shows a configuration example of an embodiment of an image processing apparatus to which the present invention is applied.
図1の画像処理装置11は、例えば、動きのある被写体を撮影するデジタルカメラ等の撮影装置に備えられる。
The
画像処理装置11は、光学系31、イメージャ32、デジタル信号処理部33、制御部34、レンズ駆動部35、インタフェース制御部36、およびユーザインタフェース37から構成される。
The
光学系31は、図示せぬ撮像レンズを含む光学系として構成される。光学系31に入射した光は、CCD(Charge Coupled Device)等の撮像素子で構成されるイメージャ32により光電変換される。イメージャ32により光電変換された電気信号(アナログ信号)は、図示せぬA/D(Analog to Digital)変換部によりデジタル信号の画像データに変換され、デジタル信号処理部33に供給される。
The
デジタル信号処理部33は、イメージャ32からのデジタル信号(画像データ)に対して、所定の信号処理を施す。デジタル信号処理部33は、前処理部51、デモザイク処理部52、YC生成部53、解像度変換部54、および被写体追尾部55を備えている。
The digital
前処理部51は、イメージャ32からの画像データに対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を施す。デモザイク処理部52は、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。YC生成部53は、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。解像度変換部54は、各種の信号処理が施された画像データに対して、解像度変換処理を実行し、制御部34や図示せぬ符号化処理部に供給する。
The
被写体追尾部55は、YC生成部53によって生成された輝度信号および色信号からなる画像データを基に、画像データに対応する入力画像(撮像画像)における被写体を検出し、追尾する被写体追尾処理を実行する。
The
ここで、被写体の検出は、ユーザが入力画像を一瞥した場合に、ユーザが注目すると推
定される入力画像上の物体、つまりユーザが目を向けると推定される物体が被写体であるとして行われる。したがって、被写体は必ずしも人物に限られる訳ではない。
Here, the detection of the subject is performed on the assumption that the object on the input image that is estimated to be noticed by the user when the user glances at the input image, that is, the object that is estimated to be looked at by the user is the subject. Therefore, the subject is not necessarily limited to a person.
被写体追尾部55は、被写体追尾処理の結果得られた、入力画像における被写体が含まれる領域を表す被写体枠についてのデータを制御部34に供給する。なお、被写体追尾部55の詳細については、図2を参照して後述する。
The
制御部34は、インタフェース制御部36から供給される制御信号を基に、画像処理装置11の各部を制御する。
The
例えば、制御部34は、デジタル信号処理部33に、各種の信号処理に用いられるパラメータ等を供給するとともに、デジタル信号処理部33からの、各種の信号処理の結果得られたデータ(画像データを含む)を取得し、インタフェース制御部36に供給する。また、制御部34は、レンズ駆動部35に、光学系31に含まれる撮像レンズを駆動させたり、絞りなどを調節するための制御信号を供給する。
For example, the
ユーザインタフェース37は、ユーザが画像処理装置11に対する指示を入力するために操作されるボタンやキーボード等の入力装置や、ユーザに対して情報を提供(表示)するLCD(Liquid Crystal Display)やマイクロホン等の出力装置から構成される。ボタンとしてのユーザインタフェース37が操作されることで、画像処理装置11に対する指示を表す制御信号が、インタフェース制御部36を介して制御部34に供給される。また、インタフェース制御部36を介して制御部34から供給された制御信号(データ)に応じた情報が、LCDとしてのユーザインタフェース37に表示される。LCDとしてのユーザインタフェース37には、例えば、画像データに対応する入力画像と、入力画像における被写体に対する被写体追尾処理の結果である被写体枠とが表示される。
The
[被写体追尾部の構成例]
次に、図2を参照して、図1の被写体追尾部55の構成例について説明する。
[Configuration example of subject tracking unit]
Next, a configuration example of the
図2の被写体追尾部55は、被写体マップ生成部71、被写体候補領域矩形化部72、被写体領域選択部73、および重み係数算出部74から構成される。
The
被写体マップ生成部71は、入力画像が有する輝度や色等の特徴毎に、入力画像の所定フレームの所定領域における特徴量を示す特徴量マップを生成し、重み係数算出部74に供給する。また、被写体マップ生成部71は、生成した特徴量マップと、重み係数算出部74から供給される特徴量毎の重み係数とに基づいて、入力画像における被写体の領域らしさを示す被写体マップを生成する。
The subject
より具体的には、被写体マップ生成部71は、特徴毎の特徴量マップの各領域の情報(特徴量)を、同じ位置にある領域毎に重み付き加算して被写体マップを生成する。被写体マップ生成部71は、生成した被写体マップを被写体候補領域矩形化部72に供給する。
More specifically, the subject
なお、各特徴量マップにおいて、より情報量の多い領域、つまり特徴量の多い領域に対応する入力画像上の領域は、被写体が含まれる可能性のより高い領域となり、したがって、各特徴量マップにより入力画像における被写体の含まれる領域を特定することができる。 In each feature amount map, a region having a larger amount of information, that is, a region on the input image corresponding to a region having a larger feature amount is a region having a higher possibility of including a subject. A region including a subject in the input image can be specified.
被写体候補領域矩形化部72は、被写体マップ生成部71からの被写体マップにおいて、被写体の候補となる領域、すなわち、被写体マップにおける情報量の多い領域を含む矩形領域を求め、その矩形領域の座標を表す座標情報を、被写体領域選択部73に供給する。また、被写体候補領域矩形化部72は、被写体マップ上で座標情報により表わされる矩形領域に関する情報(以下、領域情報という)を算出し、座標情報に対応付けて被写体領域選択部73に供給する。
The subject candidate
被写体領域選択部73は、追尾対象となる、注目すべき被写体が含まれる矩形領域である被写体領域を、被写体候補領域矩形化部72からの領域情報に基づいて矩形領域の中から選択し、その被写体領域の座標情報を制御部34(図1)および重み係数算出部74に供給する。
The subject
重み係数算出部74は、被写体マップ生成部71からの所定フレームの各特徴量マップ上の、被写体領域に対応する領域における特徴量のうち、相対的に大きい特徴量に対応する次フレームの特徴量マップを重み付けする重み係数を算出し、被写体マップ生成部71に供給する。
The weighting
このような構成により、被写体追尾部55は、入力画像のフレーム毎に、被写体領域を表す被写体枠を求めることができる。
With such a configuration, the
[被写体マップ生成部の構成例]
次に、図3を参照して、図2の被写体マップ生成部71の構成例について説明する。
[Configuration example of subject map generator]
Next, a configuration example of the subject
図3の被写体マップ生成部71は、特徴量マップ生成部111、帯域特徴量マップ生成部112、帯域特徴量マップ合成部113、および合成特徴量マップ合成部114から構成される。
3 includes a feature
特徴量マップ生成部111は、入力画像の所定フレームから、輝度や色といった特徴に関する情報(特徴量)を示す特徴量マップを特徴量毎に生成し、帯域特徴量マップ生成部112に供給する。
The feature amount
帯域特徴量マップ生成部112は、特徴量マップ生成部111からの各特徴量マップにおける特徴量から、所定の帯域成分の特徴量を所定の回数だけ抽出し、抽出したそれぞれの特徴量を示す帯域特徴量マップを生成し、重み係数算出部74および帯域特徴量マップ合成部113に供給する。
The band feature amount
帯域特徴量マップ合成部113は、帯域特徴量マップ生成部112からの帯域特徴量マップを、重み係数算出部74からの重み係数に基づいて特徴量毎に合成することで、合成特徴量マップを生成し、重み係数算出部74および合成特徴量マップ合成部114に供給する。
The band feature quantity map synthesis unit 113 synthesizes the band feature quantity map from the band feature quantity
合成特徴量マップ合成部114は、帯域特徴量マップ合成部113からの合成特徴量マップを、重み係数算出部74からの重み係数に基づいて合成することで、被写体マップを生成し、被写体候補領域矩形化部72(図2)に供給する。
The composite feature amount map combining unit 114 generates a subject map by combining the combined feature amount map from the band feature amount map combining unit 113 based on the weighting factor from the weighting
ここで、以下においては、上述した帯域特徴量マップおよび合成特徴量マップを、単に、特徴量マップともいう。 Here, in the following, the band feature amount map and the combined feature amount map described above are also simply referred to as a feature amount map.
[被写体候補領域矩形化部の構成例]
次に、図4を参照して、図2の被写体候補領域矩形化部72の構成例について説明する。
[Configuration Example of Subject Candidate Area Rectification Unit]
Next, a configuration example of the subject candidate
図4の被写体候補領域矩形化部72は、2値化処理部131、ラベリング処理部132、矩形領域座標算出部133、および領域情報算出部134から構成される。
4 includes a binarization processing unit 131, a
2値化処理部131は、被写体マップ生成部71から供給された被写体マップにおける、入力画像の各画素に対応する情報を、所定の閾値に基づいて0または1のいずれかの値に2値化して、ラベリング処理部132に供給する。ここで、以下においては、被写体マップにおいて、入力画像の各画素に対応する情報を、単に、画素ともいう。
The binarization processing unit 131 binarizes information corresponding to each pixel of the input image in the subject map supplied from the subject
ラベリング処理部132は、2値化処理部131からの、2値化された被写体マップにおいて、1の値である画素が隣接する領域(以下、連結領域という)に対してラベリングし、矩形領域座標算出部133に供給する。
In the binarized subject map from the binarization processing unit 131, the
矩形領域座標算出部133は、ラベリング処理部132からの、連結領域がラベリングされた被写体マップにおいて、連結領域を含む(囲む)矩形領域の座標を算出し、その座標を表す座標情報を、被写体マップとともに領域情報算出部134に供給する。
The rectangular area coordinate
領域情報算出部134は、矩形領域座標算出部133からの被写体マップ上で座標情報により表される矩形領域に関する情報である領域情報を算出し、座標情報に対応付けて被写体領域選択部73(図1)に供給する。
The area
[被写体領域選択部の構成例]
次に、図5を参照して、被写体領域選択部73の構成例について説明する。
[Configuration example of subject area selection unit]
Next, a configuration example of the subject
図5の被写体領域選択部73は、領域情報比較部151および被写体領域決定部152から構成される。
The subject
領域情報比較部151は、被写体候補領域矩形化部72からの各矩形領域の領域情報と、領域情報記憶部153に記憶されている1フレーム前の被写体領域の領域情報とを比較し、比較結果を被写体領域決定部252に供給する。
The region
被写体領域決定部152は、領域情報比較部151からの比較結果に基づいて、1フレーム前の被写体領域の領域情報に最も近い領域情報に対応付けられている座標情報で表される矩形領域を被写体領域とする。被写体領域決定部152は、決定した被写体領域の座標情報を制御部34(図1)および重み係数算出部74(図2)に供給するとともに、被写体領域の領域情報を、領域情報記憶部153に供給する。
Based on the comparison result from the region
領域情報記憶部153は、被写体領域決定部152からの、被写体領域の領域情報を記憶する。領域情報記憶部153に記憶された被写体領域の領域情報は、1フレーム後に、領域情報比較部151に読み出される。
The area
[被写体追尾処理]
以下においては、画像処理装置11の被写体追尾処理について説明する。
[Subject tracking processing]
In the following, the subject tracking process of the
図6は、画像処理装置11の被写体追尾処理について説明するフローチャートである。被写体追尾処理は、例えば、ボタンとしてのユーザインタフェース37がユーザに操作されることで、画像処理装置11の動作モードが被写体追尾処理を実行する被写体追尾処理モードに遷移し、LCDとしてのユーザインタフェース37に表示されている入力画像において、追尾対象としての被写体の所定領域がユーザにより選択されたときに開始される。
FIG. 6 is a flowchart for describing subject tracking processing of the
ステップS11において、被写体追尾部55の被写体マップ生成部71は、被写体マップ生成処理を行い、被写体マップを生成して、被写体候補領域矩形化部72に供給する。
In step S <b> 11, the subject
[被写体マップ生成処理]
ここで、図7および図8を参照して、被写体マップ生成処理の詳細について説明する。図7は、被写体マップ生成処理について説明するフローチャートであり、図8は、被写体マップ生成処理の具体例を示す図である。
[Subject map generation processing]
Here, the details of the subject map generation process will be described with reference to FIGS. FIG. 7 is a flowchart for describing subject map generation processing, and FIG. 8 is a diagram illustrating a specific example of subject map generation processing.
図7のフローチャートのステップS31において、被写体マップ生成部71の特徴量マップ生成部111は、入力画像の所定フレームから、輝度や色等の特徴(特徴量毎)に特徴量マップを生成し、帯域特徴量マップ生成部112に供給する。
In step S31 of the flowchart of FIG. 7, the feature amount
具体的には、図8に示されるように、入力画像200から、輝度に関する情報を示す輝度情報マップF1、色に関する情報を示す色情報マップF2乃至FK、エッジに関する情報を示すエッジ情報マップF(K+1)乃至FMの、M種類の特徴量マップが生成される。
Specifically, as shown in FIG. 8, from the
輝度情報マップF1においては、入力画像の各画素から得られる輝度成分(輝度信号)Yが、入力画像の各画素に対応する情報となり、色情報マップF2乃至FKにおいては、入力画像の各画素から得られる色成分(色信号)R,G,Bが、入力画像の各画素に対応する情報となる。また、エッジ情報マップF(K+1)乃至FMにおいては、例えば、入力画像の各画素における0度、45度、90度、および135度の方向のエッジ強度が、入力画像の各画素に対応する情報となる。 In the luminance information map F 1 , the luminance component (luminance signal) Y obtained from each pixel of the input image is information corresponding to each pixel of the input image. In the color information maps F 2 to F K , the input image Color components (color signals) R, G, and B obtained from each pixel become information corresponding to each pixel of the input image. In the edge information maps F (K + 1) to F M , for example, edge strengths in directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees in each pixel of the input image are applied to each pixel of the input image. Corresponding information.
なお、上述した特徴量マップについて、画素のR,G,Bの各成分の値の平均値を輝度情報マップF1の情報(特徴量)としてもよいし、色差成分Cr,Cbや、Lab色空間におけるa*座標成分およびb*座標成分を色情報マップF2乃至FKの情報としてもよい。また、0度、45度、90度、および135度以外の方向のエッジ強度をエッジ情報マップF(K+1)乃至FMの情報としてもよい。 In the feature amount map described above, the average value of the R, G, and B components of the pixel may be used as the information (feature amount) of the luminance information map F 1 , or the color difference components Cr, Cb, Lab color The a * coordinate component and b * coordinate component in the space may be used as information of the color information maps F 2 to F K. Further, 0 degrees, 45 degrees, 90 degrees, and the edge information in the direction of edge strength other than 135 degrees map F (K + 1) to be as the information of the F M.
ステップS32において、帯域特徴量マップ生成部112は、各特徴量マップにおける特徴量から、所定の帯域成分の特徴量をN回抽出し、抽出したそれぞれの特徴量を示す帯域特徴量マップを生成して、重み係数算出部74および帯域特徴量マップ合成部113に供給する。
In step S32, the band feature quantity
具体的には、図8に示されるように、輝度情報マップF1における輝度情報から、所定の帯域1乃至帯域Nの輝度情報が抽出され、その帯域それぞれの輝度情報を示す帯域輝度情報マップR11乃至R1Nが生成される。また、色情報マップF2乃至FKにおける色情報から、所定の帯域1乃至帯域Nの色情報が抽出され、その帯域それぞれの色情報を示す帯域色情報マップR21乃至R2N,…,RK1乃至RKNが生成される。さらに、エッジ情報マップF(K+1)乃至FMにおけるエッジ情報から、所定の帯域1乃至帯域Nのエッジ情報が抽出され、その帯域それぞれのエッジ情報を示す帯域エッジ情報マップR(K+1)1乃至R(K+1)N,…,RM1乃至RMNが生成される。このように、帯域特徴量マップ生成部112は、(M×N)種類の帯域特徴量マップを生成する。
Specifically, as shown in FIG. 8, the luminance information of a
ここで、帯域特徴量マップ生成部112の処理の一例について説明する。
Here, an example of processing of the band feature amount
例えば、帯域特徴量マップ生成部112は、各特徴量マップを用いて、互いに解像度の異なる複数の特徴量マップを生成し、それらの特徴量マップをその特徴量のピラミッド画像とする。例えば、レベルL1乃至レベルL8までの8つの解像度の階層のピラミッド画像が生成され、レベルL1のピラミッド画像が最も解像度が高く、レベルL1からレベルL8まで順番にピラミッド画像の解像度が低くなるものとする。
For example, the band feature quantity
この場合、特徴量マップ生成部111により生成された特徴量マップが、レベルL1のピラミッド画像とされる。また、レベルLi(但し、1≦i≦7)のピラミッド画像における、互いに隣接する4つの画素の画素値の平均値が、それらの画素と対応するレベルL(i+1)のピラミッド画像の1つの画素の画素値とされる。したがって、レベルL(i+1)のピラミッド画像は、レベルLiのピラミッド画像に対して縦横半分(割り切れない場合は切り捨て)の画像となる。
In this case, the feature amount map generated by the feature amount
また、帯域特徴量マップ生成部112は、複数のピラミッド画像のうち、互いに階層の異なる2つのピラミッド画像を選択し、選択したピラミッド画像の差分を求めて各特徴量の差分画像をN枚生成する。なお、各階層のピラミッド画像は、それぞれ大きさ(画素数)が異なるので、差分画像の生成時には、より小さい方のピラミッド画像が、より大きいピラミッド画像に合わせてアップコンバートされる。
Further, the band feature amount
例えば、帯域特徴量マップ生成部112は、各階層の特徴量のピラミッド画像のうち、レベルL6およびレベルL3、レベルL7およびレベルL3、レベルL7およびレベルL4、レベルL8およびレベルL4、並びにレベルL8およびレベルL5の各階層の組み合わせのピラミッド画像の差分を求める。これにより、合計5つの特徴量の差分画像が得られる。
For example, the band feature
具体的には、例えば、レベルL6およびレベルL3の組み合わせの差分画像が生成される場合、レベルL6のピラミッド画像が、レベルL3のピラミッド画像の大きさに合わせてアップコンバートされる。つまり、アップコンバート前のレベルL6のピラミッド画像の1つの画素の画素値が、その画素に対応する、アップコンバート後のレベルL6のピラミッド画像の互いに隣接するいくつかの画素の画素値とされる。そして、レベルL6のピラミッド画像の画素の画素値と、その画素と同じ位置にあるレベルL3のピラミッド画像の画素の画素値との差分が求められ、その差分が差分画像の画素の画素値とされる。 Specifically, for example, when a differential image of a combination of level L6 and level L3 is generated, the pyramid image at level L6 is up-converted according to the size of the pyramid image at level L3. That is, the pixel value of one pixel of the pyramid image of level L6 before up-conversion is the pixel value of several pixels adjacent to each other of the pyramid image of level L6 after up-conversion corresponding to that pixel. Then, the difference between the pixel value of the pixel of the level L6 pyramid image and the pixel value of the pixel of the level L3 pyramid image at the same position as the pixel is obtained, and the difference is set as the pixel value of the pixel of the difference image. The
このように、差分画像を生成することで、特徴量マップにバンドパスフィルタを用いたフィルタ処理を施すように、特徴量マップから所定の帯域成分の特徴量を抽出することができる。 In this way, by generating the difference image, it is possible to extract the feature amount of a predetermined band component from the feature amount map so that the feature amount map is subjected to filter processing using a bandpass filter.
なお、以上の説明において、特徴量マップから抽出される帯域の幅は、差分画像を求める際の、ピラミッド画像の各階層の組み合わせによって決まるが、この組み合わせは任意に決定される。 In the above description, the width of the band extracted from the feature map is determined by the combination of each layer of the pyramid image when obtaining the difference image, but this combination is arbitrarily determined.
また、所定の帯域成分の特徴量の抽出は、上述した差分画像による手法に限らず、他の手法を用いるようにしてもよい。 Further, the extraction of the feature amount of the predetermined band component is not limited to the above-described method using the difference image, and other methods may be used.
図7のフローチャートに戻り、ステップS33において、帯域特徴量マップ合成部113は、帯域特徴量マップ生成部112からの帯域特徴量マップを、重み係数算出部74からの重み係数群WRに基づいて特徴量毎に合成する。帯域特徴量マップ合成部113は、合成した帯域特徴量マップ(合成特徴量マップ)を、重み係数算出部74および合成特徴量マップ合成部114に供給する。
Returning to the flowchart of FIG. 7, in step S <b> 33, the band feature amount map synthesis unit 113 uses the band feature amount map from the band feature amount
具体的には、図8に示されるように、帯域輝度情報マップR11乃至R1Nは、重み係数算出部74からの帯域輝度情報マップ毎の重みである重み係数w11乃至w1Nにより重み付き加算され、合成特徴量マップC1が求められる。また、帯域色情報マップR21乃至R2N,…,RK1乃至RKNは、重み係数算出部74からの帯域色情報マップ毎の重みである重み係数w21乃至w2N,…,wK1乃至wKNにより重み付き加算され、合成特徴量マップC2乃至CKが求められる。さらに、帯域エッジ情報マップR(K+1)1乃至R(K+1)N,…,RM1乃至RMNは、重み係数算出部74からの帯域エッジ情報マップ毎の重みである重み係数w(K+1)1乃至w(K+1)N,…,wM1乃至wMNにより重み付き加算され、合成特徴量マップCK+1乃至CMが求められる。このように、帯域特徴量マップ合成部113は、M種類の合成特徴量マップを生成する。なお、重み係数群WRの詳細については後述するが、重み係数群WRの各重み係数は、0乃至1の値を有する。但し、1回目の被写体マップ生成処理においては、重み係数群WRの各重み係数は全て1とされ、帯域特徴量マップは、重みなしで加算される。
Specifically, as shown in FIG. 8, the band luminance information maps R 11 to R 1N are weighted by weight coefficients w 11 to w 1N that are weights for each band luminance information map from the weight
ステップS34において、合成特徴量マップ合成部114は、帯域特徴量マップ合成部113からの合成特徴量マップを、重み係数算出部74からの重み係数群WCに基づいて合成することで、被写体マップを生成し、被写体候補領域矩形化部72に供給する。
In step S34, the combined feature value map combining unit 114 combines the combined feature amount map from the band feature amount map combining unit 113 based on the weighting coefficient group W C from the weighting
具体的には、図8に示されるように、合成特徴量マップC1乃至CMは、重み係数算出部74からの帯域輝度情報マップ毎の重みである重み係数w1乃至wMを用いて線形結合される。さらに、線形結合の結果得られたマップの画素値に、予め求められた重みである被写体重みが乗算され正規化されて、被写体マップ201を求める。なお、重み係数群WCの詳細については後述するが、重み係数群WCの各重み係数は、0乃至1の値を有する。但し、1回目の被写体マップ生成処理においては、重み係数群WCの各重み係数は全て1とされ、合成特徴量マップは、重みなしで線形結合される。
Specifically, as shown in FIG. 8, the combined feature amount maps C 1 to C M use weight coefficients w 1 to w M that are weights for each band luminance information map from the weight
つまり、これから求めようとする被写体マップ上の注目する位置(画素)を注目位置とすると、各合成特徴量マップの注目位置と同じ位置(画素)の画素値に、合成特徴量マップごとの重み係数が乗算され、重み係数の乗算された画素値の総和が、注目位置の画素値とされる。さらに、このようにして求められた被写体マップの各位置の画素値に、被写体マップに対して予め求められた被写体重みが乗算されて正規化され、最終的な被写体マップとされる。例えば、正規化は、被写体マップの各画素の画素値が、0から255までの間の値となるようになされる。 In other words, if the target position (pixel) on the subject map to be obtained is the target position, the weight coefficient for each composite feature map is set to the pixel value at the same position (pixel) as the target position of each composite feature map. And the sum of the pixel values multiplied by the weighting coefficient is used as the pixel value at the target position. Further, the pixel value at each position of the subject map obtained in this way is multiplied by a subject weight obtained in advance with respect to the subject map and normalized to obtain a final subject map. For example, the normalization is performed so that the pixel value of each pixel of the subject map becomes a value between 0 and 255.
以上のようにして、被写体マップ生成部71は、特徴量マップから、帯域特徴量マップおよび合成特徴量マップを生成することにより、被写体マップを生成する。
As described above, the subject
図6のフローチャートに戻り、ステップS12において、被写体候補領域矩形化部72は、被写体候補領域矩形化処理を行い、被写体マップ生成部71からの被写体マップにおいて、被写体の候補となる領域を含む矩形領域を求める。
Returning to the flowchart of FIG. 6, in step S <b> 12, the subject candidate
[被写体候補領域矩形化処理]
ここで、図9および図10を参照して、被写体候補領域矩形化処理の詳細について説明する。図9は、被写体候補領域矩形化処理について説明するフローチャートであり、図10は、被写体候補領域矩形化処理の具体例を示す図である。
[Subject candidate area rectangle processing]
Here, with reference to FIG. 9 and FIG. 10, details of the subject candidate area rectangularization process will be described. FIG. 9 is a flowchart for describing the subject candidate area rectangularization process, and FIG. 10 is a diagram illustrating a specific example of the subject candidate area rectangularization process.
図9のフローチャートのステップS51において、被写体候補領域矩形化部72の2値化処理部131は、被写体マップ生成部71から供給された被写体マップにおける情報を、所定の閾値に基づいて0または1のいずれかの値に2値化し、ラベリング処理部132に供給する。
In step S51 of the flowchart of FIG. 9, the binarization processing unit 131 of the subject candidate
より具体的には、2値化処理部131は、図10の上から1番目に示される、0から255までの間の値である被写体マップ201の各画素の画素値に対して、例えば、閾値127より小さい値の画素値を0とし、127より大きい値の画素値を1とする。これによって、図10の上から2番目に示されるような2値化マップ202が得られる。図10で示される2値化マップ202においては、白で示される部分(画素)が1の画素値を有し、黒で示される部分(画素)が0の画素値を有している。なお、ここでは、閾値を127であるものとしたが、他の値であってもよい。
More specifically, the binarization processing unit 131 performs, for example, a pixel value of each pixel of the
ステップS52において、ラベリング処理部132は、2値化処理部131から2値化マップ202(2値化された被写体マップ)において、例えば、モルフォロジー演算等によって得られる、1である画素値の画素が隣接する連結領域に対してラベリングし、矩形領域座標算出部133に供給する。
In step S52, the
より具体的には、例えば、図10の上から3番目に示されるように、2値化マップ202においては、連結領域211が、ラベル「1」でラベリングされ、連結領域212が、ラベル「2」でラベリングされる。
More specifically, for example, as shown third from the top in FIG. 10, in the
ステップS53において、矩形領域座標算出部133は、ラベリング処理部132からの2値化マップ202において、連結領域を含む(囲む)矩形領域の座標を算出し、その座標を表す座標情報を、2値化マップ202とともに領域情報算出部134に供給する。
In step S <b> 53, the rectangular area coordinate
より具体的には、図10の上から4番目に示されるように、2値化マップ202において、ラベル「1」でラベリングされた連結領域211を外側から囲む矩形枠(外接枠)221が検出され、その矩形枠の、例えば図中左上および右下の頂点の座標が求められる。また、ラベル「2」でラベリングされた連結領域212を外側から囲む矩形枠222が検出され、その矩形枠の、例えば図中左上および右下の頂点の座標が求められる。
More specifically, as shown in the fourth from the top in FIG. 10, in the
ステップS54において、領域情報算出部134は、矩形領域座標算出部133からの座標情報と、被写体マップ生成部71からの被写体マップに基づいて、被写体マップ上で矩形枠に囲まれる矩形領域についての領域情報を算出する。
In step S <b> 54, the region
より具体的には、領域情報算出部134は、2値化マップ202における矩形枠221,222を表す、矩形領域座標算出部133からの座標情報に基づいて、矩形枠のサイズおよび中心位置の座標を、矩形領域についての領域情報として算出する。領域情報算出部134は、算出した領域情報を、矩形領域座標算出部133からの座標情報に対応付けて被写体領域選択部73に供給する。
More specifically, the area
以上のようにして、被写体候補領域矩形化部72は、被写体マップにおいて、注目すべき被写体の候補となる各領域を囲む矩形枠、および、被写体マップ上でその矩形枠で囲まれる領域の特徴を表す領域情報を求める。
As described above, the subject candidate
図6のフローチャートに戻り、ステップS13において、被写体領域選択部73は、被写体領域選択処理を行い、注目すべき被写体が含まれる矩形領域である被写体領域を、被写体領域選択部73からの領域情報に基づいて矩形領域の中から選択する。
Returning to the flowchart of FIG. 6, in step S <b> 13, the subject
[被写体領域選択処理]
ここで、図11のフローチャートを参照して、被写体領域選択処理の詳細について説明する。
[Subject area selection processing]
Here, the details of the subject area selection processing will be described with reference to the flowchart of FIG.
ステップS71において、領域情報比較部151は、被写体候補領域矩形化部72からの各矩形領域の領域情報と、領域情報記憶部153に記憶されている1フレーム前の被写体領域の領域情報とを比較し、比較結果を被写体領域決定部152に供給する。
In step S <b> 71, the region
より具体的には、例えば、領域情報比較部151は、被写体候補領域矩形化部72からの、被写体マップ上での各矩形領域を囲む矩形枠のサイズと、領域情報記憶部153に記憶されている1フレーム前の被写体領域を囲む矩形枠(被写体枠)のサイズとを比較する。また、例えば、領域情報比較部151は、被写体候補領域矩形化部72からの、被写体マップ上での各矩形領域を囲む矩形枠の中心位置の座標と、領域情報記憶部153に記憶されている1フレーム前の被写体領域を囲む矩形枠(被写体枠)の中心位置の座標とを比較する。
More specifically, for example, the region
ステップS72において、被写体領域決定部152は、領域情報比較部151からの比較結果に基づいて、1フレーム前の被写体領域を囲む矩形枠(被写体枠)のサイズまたは中心位置の座標に最も近い矩形枠のサイズまたは中心位置を有する矩形領域を被写体領域とする。被写体領域決定部152は、決定した被写体領域の座標情報を制御部34および重み係数算出部74に供給するとともに、被写体領域の領域情報(被写体枠のサイズまたは中心位置)を、領域情報記憶部153に供給する。
In step S72, the subject
但し、1回目の被写体領域選択処理において、領域情報記憶部153には、1フレーム前の被写体領域の領域情報は記憶されていないので、被写体追尾処理の開始時にユーザによって選択された被写体の所定領域(以下、初期選択領域という)を含む矩形領域が被写体領域とされる。
However, in the first subject region selection process, the region
以上のようにして、被写体領域選択部73は、被写体の候補となる矩形領域の中から、注目すべき被写体の被写体領域を選択する。
As described above, the subject
[重み係数の算出]
図6のフローチャートに戻り、ステップS14において、重み係数算出部74は、被写体マップ生成部71からの帯域特徴量マップおよび合成特徴量マップと、被写体領域選択部73からの被写体領域を表す座標情報とに基づいて、図8で示された重み係数群WR,WCを算出する。
[Calculation of weighting factor]
Returning to the flowchart of FIG. 6, in step S <b> 14, the weight
より具体的には、図12に示されるように、所定の帯域特徴量マップRmn(1≦m≦M,1≦n≦N)上の、被写体領域を表す被写体枠231に対応する矩形領域内の特徴量(情報量)の和を被写体領域特徴量和rmnとした場合、図13の上側に示されるような重み係数群WRが算出される。
More specifically, as shown in FIG. 12, a rectangular area corresponding to a
図13の重み係数群WRにおける係数のそれぞれは、図8で示された重み係数w11乃至wMNのそれぞれに対応している。なお、図13において、Max[a,…,z]は、値a乃至zのうちの最大値を表すものとする。 Each coefficient in the weight coefficient group W R of FIG. 13 corresponds to each of the weight coefficients w 11 to w MN shown in FIG. In FIG. 13, Max [a,..., Z] represents the maximum value among the values a to z.
例えば、図13の重み係数群WRにおける上から1番目の行の各係数は、図8で示された、「帯域1」である特徴量毎の帯域特徴量マップR11乃至RM1についての重み係数w11乃至wM1を示している。図13に示されるように、重み係数w11乃至wM1は、分母が帯域特徴量マップR11乃至RM1それぞれについての被写体領域特徴量和r11乃至rM1のうちの最大値とされ、分子が帯域特徴量マップR11乃至RM1それぞれについての被写体領域特徴量和r11乃至rM1とされる係数であり、0乃至1の値をとる。
For example, each coefficient of the first row from the top in the weight coefficient group W R of FIG. 13, shown in FIG. 8, "
同様に、図13の重み係数群WRにおける上からN番目の行の各係数は、図8で示された、「帯域N」である特徴量毎の帯域特徴量マップR1N乃至RMNについての重み係数w1N乃至wMNを示している。図13に示されるように、重み係数w1N乃至wMNは、分母が帯域特徴量マップR1N乃至RMNそれぞれについての被写体領域特徴量和r1N乃至rMNのうちの最大値とされ、分子が帯域特徴量マップR1N乃至RMNそれぞれについての被写体領域特徴量和r1N乃至rMNとされる係数であり、0乃至1の値をとる。 Similarly, the coefficients in the Nth row from the top in the weighting coefficient group W R in FIG. 13 are the band feature amount maps R 1N to R MN for each feature amount that is “band N” shown in FIG. The weighting factors w 1N to w MN are shown. As shown in FIG. 13, the weighting factors w 1N to w MN have the denominator as the maximum value of the subject area feature amount sums r 1N to r MN for the band feature amount maps R 1N to R MN, respectively. Are coefficients for subject area feature amount sums r 1N to r MN for the band feature amount maps R 1N to R MN, respectively, and take values of 0 to 1.
すなわち、重み係数w1n乃至wMnによれば、「帯域n」である特徴量毎の帯域特徴量マップR1n乃至RMnにおいて、被写体領域特徴量和が最大となる特徴量の帯域特徴量マップに最大値1となる重み付けがされ、その他の帯域特徴量マップには、被写体領域特徴量和に応じた重み付けがされる。 That is, according to the weighting factors w 1n to w Mn , the band feature quantity map of the feature quantity that maximizes the subject area feature quantity sum in the band feature quantity maps R 1n to R Mn for each feature quantity that is “band n”. The other band feature amount maps are weighted according to the subject region feature amount sum.
また、所定の合成特徴量マップCm(1≦m≦M)上の、被写体領域を表す矩形枠221に対応する矩形領域内の特徴量(情報量)の和を被写体領域特徴量和cmとした場合、図13の下側に示されるような重み係数群WCが算出される。
Further, the sum of the feature amounts (information amounts) in the rectangular area corresponding to the
図13の重み係数群WCにおける係数のそれぞれは、図8で示された重み係数w1乃至wMのそれぞれに対応している。 Each of the coefficients in the weight coefficient group W C in FIG. 13 corresponds to each of the weight coefficients w 1 to w M shown in FIG.
つまり、図13の重み係数群WCにおける各係数は、図8で示された、特徴量毎の合成特徴量マップC1乃至CMについての重み係数w1乃至wMを示している。図13に示されるように、重み係数w1乃至wMは、分母が合成特徴量マップC1乃至CMそれぞれについての被写体領域特徴量和c1乃至cMのうちの最大値とされ、分子が合成特徴量マップC1乃至CMそれぞれについての被写体領域特徴量和c1乃至cMとされる係数であり、0乃至1の値をとる。 That is, each coefficient in the weight coefficient group W C in FIG. 13 indicates the weight coefficients w 1 to w M for the combined feature amount maps C 1 to C M for each feature amount shown in FIG. As shown in FIG. 13, the weighting factors w 1 to w M have the denominator as the maximum value of the subject area feature amount sums c 1 to c M for the combined feature amount maps C 1 to C M, respectively. Are coefficients that are subject area feature amount sums c 1 to c M for each of the combined feature amount maps C 1 to C M , and take values of 0 to 1.
すなわち、重み係数w1乃至wmによれば、特徴量毎の合成特徴量マップC1乃至CMにおいて、被写体領域特徴量和が最大となる特徴量の合成特徴量マップに最大値1となる重み付けがされ、その他の帯域特徴量マップには、被写体領域特徴量和に応じた重み付けがされる。 In other words, according to the weighting factors w 1 to w m , the combined feature value map having the maximum subject area feature value in the combined feature value maps C 1 to C M for each feature value has a maximum value of 1. The other band feature quantity maps are weighted according to the subject area feature quantity sum.
重み係数算出部74は、算出した重み係数群WRを、被写体マップ生成部71の帯域特徴量マップ合成部113に供給するとともに、重み係数群WCを、被写体マップ生成部71の合成特徴量マップ合成部114に供給する。図6のフローチャートにおいては、ステップS14の後、処理はステップS11に戻り、次フレームについての被写体追尾処理が実行され、この処理が1フレーム毎に繰り返される。
The weighting
以上の処理によれば、入力画像の所定のフレームについての特徴量毎の特徴量マップにおける、そのフレームで選択された被写体領域に対応する領域の特徴量の相対的な大きさに応じて、次フレームについての特徴量毎の特徴量マップに対する重み係数が決定される。したがって、フレーム間で特徴量が変動するような場合であっても、複数の特徴量のうちの被写体を最もよく表す特徴量の特徴量マップが最も大きく重み付けされた被写体マップが生成されるので、被写体の状態が変動するような環境下でも、被写体をより安定して追尾することが可能となる。 According to the above processing, in the feature amount map for each feature amount for a predetermined frame of the input image, the following is performed according to the relative size of the feature amount of the region corresponding to the subject region selected in the frame. A weighting factor for the feature amount map for each feature amount of the frame is determined. Therefore, even when the feature amount varies between frames, a feature map of the feature amount that best represents the subject among the plurality of feature amounts is generated with the most weighted subject map. Even in an environment where the state of the subject fluctuates, the subject can be tracked more stably.
また、被写体領域は、被写体全体を含むように決定されるので、被写体の一部の領域の状態が変動するような環境下でも、被写体をより安定して追尾することができる。 In addition, since the subject area is determined so as to include the entire subject, the subject can be tracked more stably even in an environment in which the state of a partial area of the subject fluctuates.
特に、従来の被写体追尾の手法において、被写体領域内のいずれかの座標(またはその座標を含む一部領域)が同定されるような場合では、被写体全体を追尾することができず、AF(Auto Focus)やAE(Auto Exposure)、ACC(Auto Color Control)の検波枠を正しく設定することができなかった。また、被写体領域内で特徴量が同一である同一特徴量領域が同定されるような場合では、上述の場合よりは検波枠を設定する精度を上げることができるが、同一特徴量領域は、被写体領域のごく一部に過ぎないことが多く、十分な検波精度は得られなかった。 In particular, when any of the coordinates in the subject area (or a partial area including the coordinates) is identified in the conventional subject tracking method, the entire subject cannot be tracked, and AF (Auto The detection frame for Focus, AE (Auto Exposure), and ACC (Auto Color Control) could not be set correctly. In addition, in the case where the same feature amount region having the same feature amount in the subject region is identified, the accuracy of setting the detection frame can be improved as compared with the above case. In many cases, it was only a small part of the area, and sufficient detection accuracy could not be obtained.
一方、本発明の被写体追尾処理によれば、被写体全体を含む被写体領域を同定できるので、検波精度を上げることができ、ひいては、追尾結果を様々なアプリケーションに適用することが可能となる。 On the other hand, according to the subject tracking process of the present invention, the subject region including the entire subject can be identified, so that the detection accuracy can be improved, and the tracking result can be applied to various applications.
また、従来の被写体追尾の手法には、例えば、人間の全体像を学習により辞書に登録する等して、人間を検出・追尾するものもあるが、辞書に登録されていない人間以外の被写体を追尾することはできない。さらに、辞書に登録される情報(画像)の量は膨大な量となるため、装置規模が大きくなってしまう。 In addition, conventional subject tracking methods include, for example, a method for detecting and tracking a human by registering an entire image of a human in a dictionary by learning, but a non-human subject that is not registered in the dictionary can be detected. It cannot be tracked. Furthermore, since the amount of information (images) registered in the dictionary is enormous, the apparatus scale becomes large.
一方、本発明の被写体追尾処理によれば、任意の被写体を検出・追尾することができる上に、辞書等に膨大な量の情報を登録する必要がないので、装置規模をコンパクトにすることができる。 On the other hand, according to the subject tracking process of the present invention, an arbitrary subject can be detected and tracked, and it is not necessary to register a huge amount of information in a dictionary or the like. it can.
以上においては、特徴量として、輝度成分、色成分、およびエッジ方向を用いるものとしたが、これに限らず、例えば、動き情報等を加えるようにしてもよい。また、用いられる特徴量は、例えば、輝度成分と色成分のような、相補的な関係にあるものが好適であり、適宜、選択されるようにしてもよい。 In the above description, the luminance component, the color component, and the edge direction are used as the feature amount. However, the present invention is not limited to this, and for example, motion information or the like may be added. In addition, the feature amount used is preferably a complementary relationship such as a luminance component and a color component, and may be appropriately selected.
また、以上においては、M×(N+1)種類の特徴量マップに対応して、M×(N+1)種類の重み係数を算出するようにしたが、一部の特徴量マップに対応する重み係数のみを、適宜算出するようにすることで、画像処理装置11における演算量を抑えることができる。例えば、合成特徴量マップC1乃至CMのM種類の特徴量マップに対応する重み係数w1乃至wMのみを算出するようにしてもよい。
In the above description, M × (N + 1) types of weighting coefficients are calculated corresponding to M × (N + 1) types of feature amount maps. However, only weighting factors corresponding to some feature amount maps are calculated. Is appropriately calculated, the amount of calculation in the
さらに、以上においては、領域情報算出部134は、矩形領域の領域情報として、矩形枠のサイズおよび中心位置の座標を算出するようにしたが、矩形領域内の画素値の積分値やピーク値(最大値)を算出するようにしてもよい。この場合、被写体領域選択処理(図11)においては、1フレーム前の被写体領域内の画素値の積分値またはピーク値に最も近い領域内の画素値の積分値またはピーク値を有する矩形領域が被写体領域とされる。
Further, in the above, the area
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 14 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903 are connected to each other by a
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 901) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
11 画像処理装置, 55 被写体追尾部, 71 被写体マップ生成部, 72 被写体候補領域矩形化部, 73 被写体領域選択部, 74 重み係数算出部, 111 特徴量マップ生成部, 112 帯域特徴量マップ生成部, 113 帯域特徴量マップ合成部, 114 合成特徴量マップ合成部, 131 2値化処理部, 132 ラベリング処理部, 133 矩形領域座標算出部, 134 領域情報算出部, 151 領域情報比較部, 152 被写体領域決定部, 200 入力画像, 201 被写体マップ, 221,222 矩形領域, 231 被写体枠
DESCRIPTION OF
Claims (7)
前記被写体マップにおいて、前記被写体の候補となる領域を含む矩形領域を求める被写体候補領域矩形化手段と、
注目すべき前記被写体が含まれる前記矩形領域である被写体領域を、前記矩形領域についての領域情報に基づいて、前記矩形領域から選択する被写体領域選択手段と、
前記現フレームの前記特徴量毎の前記特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する、前記現フレームより時間的に後の後フレームの特徴量マップに対して重み付けする前記重み係数を算出する重み係数算出手段と
を備える画像処理装置。 A subject map indicating the likelihood of a subject area in the current frame based on a weighting factor for each feature amount from a feature amount map indicating a feature amount in a predetermined region of the current frame of the input image for each feature of the input image Subject map generating means for generating
In the subject map, subject candidate region rectangularization means for obtaining a rectangular region including a candidate region for the subject;
Subject region selection means for selecting a subject region that is the rectangular region including the subject to be noted from the rectangular region based on region information about the rectangular region;
Of the feature amounts in the region corresponding to the subject region on the feature amount map for each feature amount of the current frame, the feature amount corresponding to the relatively large feature amount is temporally later than the current frame. An image processing apparatus comprising: a weighting factor calculating unit that calculates the weighting factor for weighting a feature amount map of a subsequent frame.
前記現フレームから、前記特徴量毎に前記特徴量マップを生成する特徴量マップ生成手段と、
前記特徴量マップから、複数の、所定の帯域の特徴量を示す帯域特徴量マップを生成する帯域特徴量マップ生成手段と、
前記特徴量毎に、前記帯域特徴量マップを合成する帯域特徴量マップ合成手段と、
前記帯域特徴量マップが合成された、前記特徴量毎の合成特徴量マップを合成することで、前記被写体マップを生成する合成特徴量マップ合成手段と
を備え、
前記帯域特徴量マップ合成手段は、前記帯域特徴量マップに対して、前記特徴量毎および前記帯域毎の前記重み係数に基づいて重み付けして合成し、
前記重み係数算出手段は、前記現フレームの、前記所定の帯域についての前記特徴量毎の前記帯域特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する前記後フレームの帯域特徴量マップに対して重み付けする前記重み係数を算出する
請求項1に記載の画像処理装置。 The subject map generation means includes:
Feature quantity map generating means for generating the feature quantity map for each feature quantity from the current frame;
Band feature quantity map generating means for generating a plurality of band feature quantity maps indicating the feature quantities of a predetermined band from the feature quantity map;
Band feature quantity map synthesis means for synthesizing the band feature quantity map for each feature quantity;
A combined feature amount map combining unit that generates the subject map by combining the combined feature amount map for each of the feature amounts combined with the band feature amount map;
The band feature amount map combining unit weights and combines the band feature amount map based on the weighting factor for each feature amount and for each band,
The weighting factor calculating unit is configured to calculate a relatively large amount of the feature amount in the region corresponding to the subject region on the band feature amount map for each feature amount for the predetermined band of the current frame. The image processing apparatus according to claim 1, wherein the weighting coefficient for weighting the band feature quantity map of the subsequent frame corresponding to the feature quantity is calculated.
前記現フレームから、前記特徴量毎に前記特徴量マップを生成する特徴量マップ生成手段と、
前記特徴量マップから、複数の、所定の帯域の特徴量を示す帯域特徴量マップを生成する帯域特徴量マップ生成手段と、
前記特徴量毎に、前記帯域特徴量マップを合成する帯域特徴量マップ合成手段と、
前記帯域特徴量マップが合成された、前記特徴量毎の合成特徴量マップを合成することで、前記被写体マップを生成する合成特徴量マップ合成手段と
を備え、
前記合成特徴量マップ合成手段は、前記合成特徴量マップを、前記特徴量毎の前記重み係数に基づいて重み付けして合成し、
前記重み係数算出手段は、前記現フレームの、前記特徴量毎の前記合成特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する前記後フレームの合成特徴量マップに対して重み付けする前記重み係数を算出する
請求項1に記載の画像処理装置。 The subject map generation means includes:
Feature quantity map generating means for generating the feature quantity map for each feature quantity from the current frame;
Band feature quantity map generating means for generating a plurality of band feature quantity maps indicating the feature quantities of a predetermined band from the feature quantity map;
Band feature quantity map synthesis means for synthesizing the band feature quantity map for each feature quantity;
A combined feature amount map combining unit that generates the subject map by combining the combined feature amount map for each of the feature amounts combined with the band feature amount map;
The synthesized feature map synthesis means weights and synthesizes the synthesized feature map based on the weighting coefficient for each feature.
The weighting factor calculation means corresponds to the relatively large feature amount among the feature amounts in the region corresponding to the subject region on the composite feature amount map for each feature amount of the current frame. The image processing apparatus according to claim 1, wherein the weighting coefficient for weighting the composite feature amount map of the subsequent frame is calculated.
前記被写体領域選択手段は、前記矩形領域から、前記現フレームより時間的に前の前フレームにおいて選択された前記被写体領域の中心座標またはサイズに最も近い中心座標またはサイズを有する前記矩形領域を、前記被写体領域として選択する
請求項1に記載の画像処理装置。 The area information is center coordinates or size of the rectangular area on the subject map,
The subject area selecting means is configured to select the rectangular area having a center coordinate or size closest to a center coordinate or size of the subject area selected in the previous frame temporally prior to the current frame from the rectangular area. The image processing device according to claim 1, wherein the image processing device is selected as a subject area.
前記被写体領域選択手段は、前記矩形領域から、前記現フレームより時間的に前の前フレームにおいて選択された前記被写体領域における前記特徴量の積分値またはピーク値に最も近い前記特徴量の積分値またはピーク値を有する前記矩形領域を、前記被写体領域として選択する
請求項1に記載の画像処理装置。 The area information is an integral value or a peak value of the feature amount in the rectangular area on the subject map,
The subject area selection means is an integrated value of the feature quantity closest to the integral value or peak value of the feature quantity in the subject area selected in the previous frame temporally prior to the current frame from the rectangular area, or The image processing apparatus according to claim 1, wherein the rectangular area having a peak value is selected as the subject area.
前記被写体マップにおいて、前記被写体の候補となる領域を含む矩形領域を求める被写体候補領域矩形化ステップと、
注目すべき前記被写体が含まれる前記矩形領域である被写体領域を、前記矩形領域についての領域情報に基づいて、前記矩形領域から選択する被写体領域選択ステップと、
前記現フレームの前記特徴量毎の前記特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する、前記現フレームより時間的に後の後フレームの特徴量マップに対して重み付けする前記重み係数を算出する重み係数算出ステップと
を含む画像処理方法。 A subject map indicating the likelihood of a subject area in the current frame based on a weighting factor for each feature amount from a feature amount map indicating a feature amount in a predetermined region of the current frame of the input image for each feature of the input image A subject map generation step for generating
In the subject map, a subject candidate region rectangularization step for obtaining a rectangular region including a candidate region for the subject;
A subject region selection step of selecting a subject region that is the rectangular region including the subject to be noted from the rectangular region based on region information about the rectangular region;
Of the feature amounts in the region corresponding to the subject region on the feature amount map for each feature amount of the current frame, the feature amount corresponding to the relatively large feature amount is temporally later than the current frame. A weighting factor calculating step of calculating the weighting factor for weighting the feature amount map of the subsequent frame.
前記被写体マップにおいて、前記被写体の候補となる領域を含む矩形領域を求める被写体候補領域矩形化ステップと、
注目すべき前記被写体が含まれる前記矩形領域である被写体領域を、前記矩形領域についての領域情報に基づいて、前記矩形領域から選択する被写体領域選択ステップと、
前記現フレームの前記特徴量毎の前記特徴量マップ上の、前記被写体領域に対応する領域における前記特徴量のうち、相対的に大きい前記特徴量に対応する、前記現フレームより時間的に後の後フレームの特徴量マップに対して重み付けする前記重み係数を算出する重み係数算出ステップと
を含む処理をコンピュータに実行させるプログラム。 A subject map indicating the likelihood of a subject area in the current frame based on a weighting factor for each feature amount from a feature amount map indicating a feature amount in a predetermined region of the current frame of the input image for each feature of the input image A subject map generation step for generating
In the subject map, a subject candidate region rectangularization step for obtaining a rectangular region including a candidate region for the subject;
A subject region selection step of selecting a subject region that is the rectangular region including the subject to be noted from the rectangular region based on region information about the rectangular region;
Of the feature amounts in the region corresponding to the subject region on the feature amount map for each feature amount of the current frame, the feature amount corresponding to the relatively large feature amount is temporally later than the current frame. A program that causes a computer to execute processing including: a weighting factor calculating step of calculating the weighting factor that weights a feature amount map of a subsequent frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010004541A JP2011146826A (en) | 2010-01-13 | 2010-01-13 | Unit and method for processing image, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010004541A JP2011146826A (en) | 2010-01-13 | 2010-01-13 | Unit and method for processing image, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011146826A true JP2011146826A (en) | 2011-07-28 |
Family
ID=44461314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010004541A Withdrawn JP2011146826A (en) | 2010-01-13 | 2010-01-13 | Unit and method for processing image, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011146826A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013084593A1 (en) | 2011-12-06 | 2013-06-13 | ソニー株式会社 | Image processing device, image processing method, and program |
WO2013133142A1 (en) | 2012-03-09 | 2013-09-12 | ソニー株式会社 | Image processing device, image processing method, program |
WO2013153883A1 (en) | 2012-04-09 | 2013-10-17 | ソニー株式会社 | Display control device, display control method, and program |
WO2014109125A1 (en) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | Image processing device, image processing method and program |
WO2014109124A1 (en) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | Image processing device, image processing method and program |
US9648229B2 (en) | 2012-04-09 | 2017-05-09 | Sony Corporation | Image processing device and associated methodology for determining a main subject in an image |
-
2010
- 2010-01-13 JP JP2010004541A patent/JP2011146826A/en not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013084593A1 (en) | 2011-12-06 | 2013-06-13 | ソニー株式会社 | Image processing device, image processing method, and program |
US9734580B2 (en) | 2011-12-06 | 2017-08-15 | Sony Corporation | Image processing apparatus, image processing method, and program |
US10630891B2 (en) | 2011-12-06 | 2020-04-21 | Sony Corporation | Image processing apparatus, image processing method, and program |
US10455154B2 (en) | 2012-03-09 | 2019-10-22 | Sony Corporation | Image processing device, image processing method, and program including stable image estimation and main subject determination |
WO2013133142A1 (en) | 2012-03-09 | 2013-09-12 | ソニー株式会社 | Image processing device, image processing method, program |
KR20140138135A (en) | 2012-03-09 | 2014-12-03 | 소니 주식회사 | Image processing device, image processing method, program |
WO2013153883A1 (en) | 2012-04-09 | 2013-10-17 | ソニー株式会社 | Display control device, display control method, and program |
US10848662B2 (en) | 2012-04-09 | 2020-11-24 | Sony Corporation | Image processing device and associated methodology for determining a main subject in an image |
US9648229B2 (en) | 2012-04-09 | 2017-05-09 | Sony Corporation | Image processing device and associated methodology for determining a main subject in an image |
US9712750B2 (en) | 2012-04-09 | 2017-07-18 | Sony Corporation | Display control device and associated methodology of identifying a subject in an image |
WO2014109124A1 (en) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | Image processing device, image processing method and program |
EP3562143A1 (en) | 2013-01-09 | 2019-10-30 | SONY Corporation | Image processing device, image processing method, and program |
US10547774B2 (en) | 2013-01-09 | 2020-01-28 | Sony Corporation | Image processing device, image processing method, and program |
US9942460B2 (en) | 2013-01-09 | 2018-04-10 | Sony Corporation | Image processing device, image processing method, and program |
WO2014109125A1 (en) | 2013-01-09 | 2014-07-17 | ソニー株式会社 | Image processing device, image processing method and program |
US11012614B2 (en) | 2013-01-09 | 2021-05-18 | Sony Corporation | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5577793B2 (en) | Image processing apparatus and method, and program | |
JP5565041B2 (en) | Image processing apparatus and method, and program | |
US8594435B2 (en) | Image processing device and method, and program therefor | |
WO2005084036A1 (en) | Motion vector detecting apparatus, motion vector detecting method, and computer program | |
CN102480595B (en) | Image processing apparatus and image processing method | |
KR20080096006A (en) | Apparatus and method for making a panorama image and computer readable medium stored thereon computer executable instruction for performing the method | |
CN105264567A (en) | Methods of image fusion for image stabilizaton | |
US8565491B2 (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP2011146826A (en) | Unit and method for processing image, and program | |
US9020269B2 (en) | Image processing device, image processing method, and recording medium | |
JP5803058B2 (en) | Image processing apparatus and method, and program | |
JP2011035636A (en) | Image processor and method | |
JP5429564B2 (en) | Image processing apparatus and method, and program | |
JP5210198B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2011146827A (en) | Unit and method for processing image, and program | |
JP6511950B2 (en) | Image processing apparatus, image processing method and program | |
JP2011150594A (en) | Image processor and image processing method, and program | |
JP5278307B2 (en) | Image processing apparatus and method, and program | |
JP2010049444A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |