JP2011209620A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2011209620A
JP2011209620A JP2010079185A JP2010079185A JP2011209620A JP 2011209620 A JP2011209620 A JP 2011209620A JP 2010079185 A JP2010079185 A JP 2010079185A JP 2010079185 A JP2010079185 A JP 2010079185A JP 2011209620 A JP2011209620 A JP 2011209620A
Authority
JP
Japan
Prior art keywords
subject
unit
region
size
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010079185A
Other languages
English (en)
Other versions
JP5565041B2 (ja
Inventor
Masaya Kinoshita
雅也 木下
Yutaka Yoneda
豊 米田
Takashi Kametani
敬 亀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010079185A priority Critical patent/JP5565041B2/ja
Priority to TW100107796A priority patent/TW201202828A/zh
Priority to PCT/JP2011/056107 priority patent/WO2011122335A1/ja
Priority to EP11762575.6A priority patent/EP2424226B1/en
Priority to US13/321,395 priority patent/US9253388B2/en
Priority to EP18212598.9A priority patent/EP3481053B1/en
Priority to KR1020117027798A priority patent/KR101609018B1/ko
Priority to CN201180002162.3A priority patent/CN102439966B/zh
Publication of JP2011209620A publication Critical patent/JP2011209620A/ja
Application granted granted Critical
Publication of JP5565041B2 publication Critical patent/JP5565041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Image Processing (AREA)

Abstract

【課題】被写体を所望の撮影範囲でより簡単に撮像する。
【解決手段】サイズ比算出部553は、撮像された撮像画像において、注目する被写体の領域である注目領域と、注目領域に含まれる、被写体の部分の領域である部分領域とのサイズ比を算出し、レンズ駆動制御部556は、ユーザによるズーム操作に応じて、サイズ比算出部553によって算出されたサイズ比が所定値と同一または略同一になるように、撮像画像のズーム倍率を制御する。本発明は、撮像装置に適用することができる。
【選択図】図23

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、被写体を所望の撮像範囲で撮像するようにする画像処理装置および方法、並びにプログラムに関する。
近年、デジタルカメラ等の撮像装置において、人物や顔といった被写体を検出器によって検出した上で、オートフォーカス(AF)や自動露出(AE)等の機能を用いて、より好適に被写体を撮像することがなされている。
ところで、ズーム操作による撮像範囲(画角)の調整を行う撮像装置として、被写体を追尾して、その被写体が、撮像範囲の端の領域に入るとズームアウトし、撮像範囲の中央の領域に入るとズームインするようにしたものがある(特許文献1参照)。
特開2009−33450号公報
しかしながら、上述した撮像装置においては、所望の撮像範囲となるように、ズーム操作による撮像範囲の調整を、より簡単な操作で行うことはできなかった。
例えば、撮像時に、被写体との距離が変化する場合、撮像範囲における被写体の大きさを一定に保つためには、その距離に応じて微妙なズーム操作を行う必要がある。また、被写体との距離が一定であっても、撮像範囲における被写体の大きさを、所望の大きさにするためには、やはり、微妙なズーム操作を行う必要がある。
特に、近年、撮像装置の小型化に伴い、ズーム操作を行うためのボタンやレバーも小型化され、これにより、ズーム操作による撮像範囲の調整がより難しくなった。
本発明は、このような状況に鑑みてなされたものであり、特に、被写体を所望の撮像範囲でより簡単に撮像するようにするものである。
本発明の第1の側面の画像処理装置は、被写体を撮像する撮像手段と、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出手段と、ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御手段とを備える。
前記画像処理装置には、前記所定値を予め記憶する記憶手段と、前記算出手段によって算出された前記比が、前記記憶手段によって記憶されている前記所定値と同一または略同一であるか否かを、フレーム毎に判定する判定手段とをさらに設け、前記倍率制御手段には、前記判定手段によって、前記比が、前記所定値と同一または略同一であると判定されるまで、前記ズーム倍率を制御させることができる。
前記算出手段には、矩形領域としての前記注目領域および前記部分領域の高さの比を算出させることができる。
前記算出手段には、前記撮像手段によって撮像された撮像画像において、注目する前記被写体としての人物の領域である人物領域と、前記人物領域に含まれる、前記人物の顔の領域である顔領域との比を算出させることができる。
前記倍率制御手段には、前記ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が前記所定値と同一または略同一になるように、ズームレンズの駆動を制御させることができる。
前記倍率制御手段には、前記ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が前記所定値と同一または略同一になるように、前記撮像画像の電子的な拡大を制御させることができる。
前記画像処理装置には、前記撮像画像において、前記注目領域のサイズと、予め設定された目標サイズとを比較する比較手段をさらに設け、前記倍率制御手段には、前記ユーザによってズーム操作がされていない場合、前記比較手段によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御させることができる。
前記倍率制御手段には、前記注目領域のサイズと前記目標サイズとの差が、前記所定の閾値より小さくなるように前記撮像画像のズーム倍率を制御している間に、前記ユーザによってズーム操作がされたとき、前記ズーム操作に応じて前記撮像画像のズーム倍率を制御させ、前記画像処理装置には、前記ユーザによってズーム操作がされた後の前記注目領域のサイズを、前記目標サイズに設定する設定手段をさらに設けることができる。
前記画像処理装置には、前記撮像画像における前記注目領域の位置を検出する検出手段をさらに設け、前記倍率制御手段には、前記検出手段によって、前記注目領域の位置が、前記撮像画像の外端領域にあることが検出された場合、広角側へ前記撮像画像のズーム倍率を制御させることができる。
前記画像処理装置には、前記倍率制御手段の制御によって、前記撮像画像のズーム倍率が広角端になった場合、前記被写体が、前記撮像画像から外れる旨を提示する提示手段をさらに設けることができる。
本発明の第1の側面の画像処理方法は、被写体を撮像する撮像手段と、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出手段と、ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御手段とを備える画像処理装置の画像処理方法であって、前記算出手段が、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出ステップと、前記倍率制御手段が、ユーザによるズーム操作に応じて、前記算出ステップの処理によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御ステップとを含む。
本発明の第1の側面のプログラムは、被写体を撮像する撮像手段を備える画像処理装置の画像処理をコンピュータに実行させるプログラムであって、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出ステップと、ユーザによるズーム操作に応じて、前記算出ステップの処理によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御ステップとを含む処理をコンピュータに実行させる。
本発明の第1の側面においては、被写体が撮像され、撮像された撮像画像において、注目する被写体の領域である注目領域と、注目領域に含まれる、被写体の部分の領域である部分領域との比が算出され、ユーザによるズーム操作に応じて、算出された比が所定値と同一または略同一になるように、撮像画像のズーム倍率が制御される。
本発明の第2の側面の画像処理装置は、被写体を撮像する撮像手段と、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域を、所定の画像処理によって検出する検出手段と、前記検出手段によって検出された前記注目領域のサイズと、予め設定された目標サイズとを比較する比較手段と、前記比較手段によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する倍率制御手段とを備える。
本発明の第2の側面の画像処理方法は、被写体を撮像する撮像手段と、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域を、所定の画像処理によって検出する検出手段と、前記検出手段によって検出された前記注目領域のサイズと、予め設定された目標サイズとを比較する比較手段と、前記比較手段によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する倍率制御手段とを備える画像処理装置の画像処理方法であって、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域を、所定の画像処理によって検出する検出ステップと、前記検出ステップの処理によって検出された前記注目領域のサイズと、予め設定された目標サイズとを比較する比較ステップと、前記比較ステップの処理によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する倍率制御ステップとを含む。
本発明の第2の側面においては、被写体が撮像され、撮像された撮像画像において、注目する被写体の領域である注目領域が、所定の画像処理によって検出され、検出された注目領域のサイズと、予め設定された目標サイズとが比較され、比較された注目領域のサイズと目標サイズとの差が、所定の閾値より小さくなるように、撮像画像のズーム倍率が制御される。
本発明の第1および第2の側面によれば、被写体を所望の撮像範囲でより簡単に撮像することが可能となる。
本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 被写体追尾部の構成例を示すブロック図である。 被写体マップ生成部の構成例を示すブロック図である。 被写体候補領域矩形化部の構成例を示すブロック図である。 被写体領域選択部の構成例を示すブロック図である。 被写体追尾処理について説明するフローチャートである。 被写体マップ生成処理について説明するフローチャートである。 被写体マップ生成処理の具体例を示す図である。 被写体候補領域矩形化処理について説明するフローチャートである。 被写体候補領域矩形化処理の具体例を示す図である。 被写体領域選択処理について説明するフローチャートである。 帯域特徴量マップの被写体領域特徴量和について説明する図である。 重み係数について説明する図である。 撮像範囲調整処理について説明するフローチャートである。 制御部の機能構成例を示すブロック図である。 自動ズーム調整処理について説明するフローチャートである。 自動ズーム調整処理について説明するフローチャートである。 被写体が撮像される撮像範囲について説明する図である。 被写体が撮像される撮像範囲について説明する図である。 被写体が撮像される撮像範囲について説明する図である。 被写体が撮像される撮像範囲について説明する図である。 画像処理装置の他の構成例を示すブロック図である。 図22の制御部の機能構成例を示すブロック図である。 顔検出処理について説明するフローチャートである。 指定ズーム処理について説明するフローチャートである。 指定ズーム処理について説明するフローチャートである。 理想サイズ比について説明する図である。 画像処理装置のさらに他の構成例を示すブロック図である。 図28の制御部の機能構成例を示すブロック図である。 自動ズーム調整処理について説明するフローチャートである。 自動ズーム調整処理について説明するフローチャートである。 指定ズーム処理について説明するフローチャートである。 指定ズーム処理について説明するフローチャートである。 画像処理装置のさらに他の構成例を示すブロック図である。 コンピュータのハードウェアの構成例を示すブロック図である。
以下、本発明の実施の形態について図を参照して説明する。
[画像処理装置の構成例]
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
画像処理装置11は、例えば、動きのある被写体を撮像するデジタルビデオカメラや、デジタルスチルカメラなどの撮像装置に備えられる。
画像処理装置11は、光学系31、イメージャ32、デジタル信号処理部33、表示部34、制御部35、レンズ駆動部36、インタフェース制御部37、およびユーザインタフェース38から構成される。
光学系31は、図示せぬズームレンズおよびフォーカスレンズを含む光学系として構成される。光学系31に入射した光は、CCD(Charge Coupled Device)等の撮像素子で構成されるイメージャ32により光電変換される。イメージャ32により光電変換された電気信号(アナログ信号)は、図示せぬA/D(Analog to Digital)変換部によりデジタル信号の画像データに変換され、デジタル信号処理部33に供給される。
デジタル信号処理部33は、イメージャ32からのデジタル信号(画像データ)に対して、所定の信号処理を施す。デジタル信号処理部33は、前処理部51、デモザイク処理部52、YC生成部53、解像度変換部54、被写体追尾部55、およびCODEC56を備えている。
前処理部51は、前処理として、イメージャ32からの画像データに対し、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を施す。デモザイク処理部52は、前処理部51により前処理された画像データに対し、画像データの各画素がR,G,B全ての色成分を有するように、画素の色成分を補完するデモザイク処理を施す。
YC生成部53は、デモザイク処理部52によりデモザイク処理された、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。解像度変換部54は、YC生成部53で処理された画像データに対して、解像度変換処理を実行する。
被写体追尾部55は、YC生成部53によって生成された輝度信号および色信号からなる画像データを基に、画像データに対応する入力画像(撮像画像)における被写体を検出し、追尾する被写体追尾処理を実行する。
ここで、被写体の検出は、ユーザが入力画像を一瞥した場合に、ユーザが注目すると推
定される入力画像上の物体、つまりユーザが目を向けると推定される物体が被写体であるとして行われる。したがって、被写体は必ずしも人物に限られる訳ではない。
被写体追尾部55は、被写体追尾処理の結果得られた、入力画像における被写体が含まれる領域を表す被写体枠についてのデータを制御部35に供給する。なお、被写体追尾部55の詳細については、図2を参照して後述する。
CODEC56は、YC生成部53または解像度変換部54で生成された画像データを必要に応じて符号化し、図示せぬメモリに記録させたり、符号化された画像データを復号したりする。CODEC56で復号された画像データ、または解像度変換部54で得られた画像データは、表示部34に供給されて表示される。表示部34は、例えば液晶ディスプレイなどからなり、制御部35の制御に従ってデジタル信号処理部33から供給された画像データに対応する入力画像(以下、適宜、撮像画像ともいう)を表示する。
制御部35は、インタフェース制御部37から供給される制御信号に応じて、画像処理装置11の各部を制御する。
例えば、制御部35は、デジタル信号処理部33に、各種の信号処理に用いられるパラメータ等を供給するとともに、デジタル信号処理部33からの、各種の信号処理の結果得られたデータを取得し、インタフェース制御部37に供給する。
また、制御部35は、光学系31を構成するズームレンズおよびフォーカスレンズを駆動させたり、絞りなどを調節させたりするための制御信号をレンズ駆動部36に供給する。さらに制御部35は、イメージャ32による入力画像の撮像も制御する。
ユーザインタフェース38は、ユーザが画像処理装置11に対する指示を入力するときに操作されるボタンやレバー、スイッチ、マイクロホン等の入力装置、ユーザに対して情報を提示するランプやスピーカ等の出力装置などから構成される。
例えば、ユーザインタフェース38は、ユーザインタフェース38としてのボタンが操作されると、その操作に応じた制御信号を、インタフェース制御部37を介して制御部35に供給する。
[被写体追尾部の構成例]
次に、図2を参照して、図1の被写体追尾部55の構成例について説明する。
図2の被写体追尾部55は、被写体マップ生成部71、被写体候補領域矩形化部72、被写体領域選択部73、および重み係数算出部74から構成される。
被写体マップ生成部71は、入力画像が有する輝度や色等の特徴毎に、入力画像の所定フレームの所定領域における特徴量を示す特徴量マップを生成し、重み係数算出部74に供給する。また、被写体マップ生成部71は、生成した特徴量マップと、重み係数算出部74から供給される特徴量毎の重み係数とに基づいて、入力画像における被写体の領域らしさを示す被写体マップを生成する。
より具体的には、被写体マップ生成部71は、特徴毎の特徴量マップの各領域の情報(特徴量)を、同じ位置にある領域毎に重み付き加算して被写体マップを生成する。被写体マップ生成部71は、生成した被写体マップを被写体候補領域矩形化部72に供給する。
なお、各特徴量マップにおいて、より情報量の多い領域、つまり特徴量の多い領域に対応する入力画像上の領域は、被写体が含まれる可能性のより高い領域となり、したがって、各特徴量マップにより入力画像における被写体の含まれる領域を特定することができる。
被写体候補領域矩形化部72は、被写体マップ生成部71からの被写体マップにおいて、被写体の候補となる領域、すなわち、被写体マップにおける情報量の多い領域を含む矩形領域を求め、その矩形領域の座標を表す座標情報を、被写体領域選択部73に供給する。また、被写体候補領域矩形化部72は、被写体マップ上で座標情報により表わされる矩形領域に関する情報(以下、領域情報という)を算出し、座標情報に対応付けて被写体領域選択部73に供給する。
被写体領域選択部73は、追尾対象となる、注目すべき被写体が含まれる矩形領域である被写体領域を、被写体候補領域矩形化部72からの領域情報に基づいて矩形領域の中から選択し、その被写体領域の座標情報を制御部35(図1)および重み係数算出部74に供給する。
重み係数算出部74は、被写体マップ生成部71からの所定フレームの各特徴量マップ上の、被写体領域に対応する領域における特徴量のうち、相対的に大きい特徴量に対応する次フレームの特徴量マップを重み付けする重み係数を算出し、被写体マップ生成部71に供給する。
このような構成により、被写体追尾部55は、入力画像のフレーム毎に、被写体領域を表す被写体枠を求めることができる。
[被写体マップ生成部の構成例]
次に、図3を参照して、図2の被写体マップ生成部71の構成例について説明する。
図3の被写体マップ生成部71は、特徴量マップ生成部111、帯域特徴量マップ生成部112、帯域特徴量マップ合成部113、および合成特徴量マップ合成部114から構成される。
特徴量マップ生成部111は、入力画像の所定フレームから、輝度や色といった特徴に関する情報(特徴量)を示す特徴量マップを特徴量毎に生成し、帯域特徴量マップ生成部112に供給する。
帯域特徴量マップ生成部112は、特徴量マップ生成部111からの各特徴量マップにおける特徴量から、所定の帯域成分の特徴量を所定の回数だけ抽出し、抽出したそれぞれの特徴量を示す帯域特徴量マップを生成し、重み係数算出部74および帯域特徴量マップ合成部113に供給する。
帯域特徴量マップ合成部113は、帯域特徴量マップ生成部112からの帯域特徴量マップを、重み係数算出部74からの重み係数に基づいて特徴量毎に合成することで、合成特徴量マップを生成し、重み係数算出部74および合成特徴量マップ合成部114に供給する。
合成特徴量マップ合成部114は、帯域特徴量マップ合成部113からの合成特徴量マップを、重み係数算出部74からの重み係数に基づいて合成することで、被写体マップを生成し、被写体候補領域矩形化部72(図2)に供給する。
ここで、以下においては、上述した帯域特徴量マップおよび合成特徴量マップを、単に、特徴量マップともいう。
[被写体候補領域矩形化部の構成例]
次に、図4を参照して、図2の被写体候補領域矩形化部72の構成例について説明する。
図4の被写体候補領域矩形化部72は、2値化処理部131、ラベリング処理部132、矩形領域座標算出部133、および領域情報算出部134から構成される。
2値化処理部131は、被写体マップ生成部71から供給された被写体マップにおける、入力画像の各画素に対応する情報を、所定の閾値に基づいて0または1のいずれかの値に2値化して、ラベリング処理部132に供給する。ここで、以下においては、被写体マップにおいて、入力画像の各画素に対応する情報を、単に、画素ともいう。
ラベリング処理部132は、2値化処理部131からの、2値化された被写体マップにおいて、1の値である画素が隣接する領域(以下、連結領域という)に対してラベリングし、矩形領域座標算出部133に供給する。
矩形領域座標算出部133は、ラベリング処理部132からの、連結領域がラベリングされた被写体マップにおいて、連結領域を含む(囲む)矩形領域の座標を算出し、その座標を表す座標情報を、被写体マップとともに領域情報算出部134に供給する。
領域情報算出部134は、矩形領域座標算出部133からの被写体マップ上で座標情報により表される矩形領域に関する情報である領域情報を算出し、座標情報に対応付けて被写体領域選択部73(図1)に供給する。
[被写体領域選択部の構成例]
次に、図5を参照して、被写体領域選択部73の構成例について説明する。
図5の被写体領域選択部73は、領域情報比較部151および被写体領域決定部152から構成される。
領域情報比較部151は、被写体候補領域矩形化部72からの各矩形領域の領域情報と、領域情報記憶部153に記憶されている1フレーム前の被写体領域の領域情報とを比較し、比較結果を被写体領域決定部252に供給する。
被写体領域決定部152は、領域情報比較部151からの比較結果に基づいて、1フレーム前の被写体領域の領域情報に最も近い領域情報に対応付けられている座標情報で表される矩形領域を被写体領域とする。被写体領域決定部152は、決定した被写体領域の座標情報を制御部35(図1)および重み係数算出部74(図2)に供給するとともに、被写体領域の領域情報を、領域情報記憶部153に供給する。
領域情報記憶部153は、被写体領域決定部152からの、被写体領域の領域情報を記憶する。領域情報記憶部153に記憶された被写体領域の領域情報は、1フレーム後に、領域情報比較部151に読み出される。
[被写体追尾処理]
以下においては、画像処理装置11の被写体追尾処理について説明する。
図6は、画像処理装置11の被写体追尾処理について説明するフローチャートである。被写体追尾処理は、例えば、ボタンとしてのユーザインタフェース38がユーザに操作されることで、画像処理装置11の動作モードが被写体追尾処理を実行する被写体追尾処理モードに遷移し、表示部34に表示されている入力画像において、追尾対象としての被写体の所定領域がユーザにより選択されたときに開始される。
ステップS11において、被写体追尾部55の被写体マップ生成部71は、被写体マップ生成処理を行い、被写体マップを生成して、被写体候補領域矩形化部72に供給する。
[被写体マップ生成処理]
ここで、図7および図8を参照して、被写体マップ生成処理の詳細について説明する。図7は、被写体マップ生成処理について説明するフローチャートであり、図8は、被写体マップ生成処理の具体例を示す図である。
図7のフローチャートのステップS31において、被写体マップ生成部71の特徴量マップ生成部111は、入力画像の所定フレームから、輝度や色等の特徴(特徴量毎)に特徴量マップを生成し、帯域特徴量マップ生成部112に供給する。
具体的には、図8に示されるように、入力画像200から、輝度に関する情報を示す輝度情報マップF、色に関する情報を示す色情報マップF乃至F、エッジに関する情報を示すエッジ情報マップF(K+1)乃至Fの、M種類の特徴量マップが生成される。
輝度情報マップFにおいては、入力画像の各画素から得られる輝度成分(輝度信号)Yが、入力画像の各画素に対応する情報となり、色情報マップF乃至Fにおいては、入力画像の各画素から得られる色成分(色信号)R,G,Bが、入力画像の各画素に対応する情報となる。また、エッジ情報マップF(K+1)乃至Fにおいては、例えば、入力画像の各画素における0度、45度、90度、および135度の方向のエッジ強度が、入力画像の各画素に対応する情報となる。
なお、上述した特徴量マップについて、画素のR,G,Bの各成分の値の平均値を輝度情報マップFの情報(特徴量)としてもよいし、色差成分Cr,Cbや、Lab色空間におけるa*座標成分およびb*座標成分を色情報マップF乃至Fの情報としてもよい。また、0度、45度、90度、および135度以外の方向のエッジ強度をエッジ情報マップF(K+1)乃至Fの情報としてもよい。
ステップS32において、帯域特徴量マップ生成部112は、各特徴量マップにおける特徴量から、所定の帯域成分の特徴量をN回抽出し、抽出したそれぞれの特徴量を示す帯域特徴量マップを生成して、重み係数算出部74および帯域特徴量マップ合成部113に供給する。
具体的には、図8に示されるように、輝度情報マップFにおける輝度情報から、所定の帯域1乃至帯域Nの輝度情報が抽出され、その帯域それぞれの輝度情報を示す帯域輝度情報マップR11乃至R1Nが生成される。また、色情報マップF乃至Fにおける色情報から、所定の帯域1乃至帯域Nの色情報が抽出され、その帯域それぞれの色情報を示す帯域色情報マップR21乃至R2N,…,RK1乃至RKNが生成される。さらに、エッジ情報マップF(K+1)乃至Fにおけるエッジ情報から、所定の帯域1乃至帯域Nのエッジ情報が抽出され、その帯域それぞれのエッジ情報を示す帯域エッジ情報マップR(K+1)1乃至R(K+1)N,…,RM1乃至RMNが生成される。このように、帯域特徴量マップ生成部112は、(M×N)種類の帯域特徴量マップを生成する。
ここで、帯域特徴量マップ生成部112の処理の一例について説明する。
例えば、帯域特徴量マップ生成部112は、各特徴量マップを用いて、互いに解像度の異なる複数の特徴量マップを生成し、それらの特徴量マップをその特徴量のピラミッド画像とする。例えば、レベルL1乃至レベルL8までの8つの解像度の階層のピラミッド画像が生成され、レベルL1のピラミッド画像が最も解像度が高く、レベルL1からレベルL8まで順番にピラミッド画像の解像度が低くなるものとする。
この場合、特徴量マップ生成部111により生成された特徴量マップが、レベルL1のピラミッド画像とされる。また、レベルLi(但し、1≦i≦7)のピラミッド画像における、互いに隣接する4つの画素の画素値の平均値が、それらの画素と対応するレベルL(i+1)のピラミッド画像の1つの画素の画素値とされる。したがって、レベルL(i+1)のピラミッド画像は、レベルLiのピラミッド画像に対して縦横半分(割り切れない場合は切り捨て)の画像となる。
また、帯域特徴量マップ生成部112は、複数のピラミッド画像のうち、互いに階層の異なる2つのピラミッド画像を選択し、選択したピラミッド画像の差分を求めて各特徴量の差分画像をN枚生成する。なお、各階層のピラミッド画像は、それぞれ大きさ(画素数)が異なるので、差分画像の生成時には、より小さい方のピラミッド画像が、より大きいピラミッド画像に合わせてアップコンバートされる。
例えば、帯域特徴量マップ生成部112は、各階層の特徴量のピラミッド画像のうち、レベルL6およびレベルL3、レベルL7およびレベルL3、レベルL7およびレベルL4、レベルL8およびレベルL4、並びにレベルL8およびレベルL5の各階層の組み合わせのピラミッド画像の差分を求める。これにより、合計5つの特徴量の差分画像が得られる。
具体的には、例えば、レベルL6およびレベルL3の組み合わせの差分画像が生成される場合、レベルL6のピラミッド画像が、レベルL3のピラミッド画像の大きさに合わせてアップコンバートされる。つまり、アップコンバート前のレベルL6のピラミッド画像の1つの画素の画素値が、その画素に対応する、アップコンバート後のレベルL6のピラミッド画像の互いに隣接するいくつかの画素の画素値とされる。そして、レベルL6のピラミッド画像の画素の画素値と、その画素と同じ位置にあるレベルL3のピラミッド画像の画素の画素値との差分が求められ、その差分が差分画像の画素の画素値とされる。
このように、差分画像を生成することで、特徴量マップにバンドパスフィルタを用いたフィルタ処理を施すように、特徴量マップから所定の帯域成分の特徴量を抽出することができる。
なお、以上の説明において、特徴量マップから抽出される帯域の幅は、差分画像を求める際の、ピラミッド画像の各階層の組み合わせによって決まるが、この組み合わせは任意に決定される。
また、所定の帯域成分の特徴量の抽出は、上述した差分画像による手法に限らず、他の手法を用いるようにしてもよい。
図7のフローチャートに戻り、ステップS33において、帯域特徴量マップ合成部113は、帯域特徴量マップ生成部112からの帯域特徴量マップを、重み係数算出部74からの重み係数群Wに基づいて特徴量毎に合成する。帯域特徴量マップ合成部113は、合成した帯域特徴量マップ(合成特徴量マップ)を、重み係数算出部74および合成特徴量マップ合成部114に供給する。
具体的には、図8に示されるように、帯域輝度情報マップR11乃至R1Nは、重み係数算出部74からの帯域輝度情報マップ毎の重みである重み係数w11乃至w1Nにより重み付き加算され、合成特徴量マップCが求められる。また、帯域色情報マップR21乃至R2N,…,RK1乃至RKNは、重み係数算出部74からの帯域色情報マップ毎の重みである重み係数w21乃至w2N,…,wK1乃至wKNにより重み付き加算され、合成特徴量マップC乃至Cが求められる。さらに、帯域エッジ情報マップR(K+1)1乃至R(K+1)N,…,RM1乃至RMNは、重み係数算出部74からの帯域エッジ情報マップ毎の重みである重み係数w(K+1)1乃至w(K+1)N,…,wM1乃至wMNにより重み付き加算され、合成特徴量マップCK+1乃至Cが求められる。このように、帯域特徴量マップ合成部113は、M種類の合成特徴量マップを生成する。なお、重み係数群Wの詳細については後述するが、重み係数群Wの各重み係数は、0乃至1の値を有する。但し、1回目の被写体マップ生成処理においては、重み係数群Wの各重み係数は全て1とされ、帯域特徴量マップは、重みなしで加算される。
ステップS34において、合成特徴量マップ合成部114は、帯域特徴量マップ合成部113からの合成特徴量マップを、重み係数算出部74からの重み係数群Wに基づいて合成することで、被写体マップを生成し、被写体候補領域矩形化部72に供給する。
具体的には、図8に示されるように、合成特徴量マップC乃至Cは、重み係数算出部74からの帯域輝度情報マップ毎の重みである重み係数w乃至wを用いて線形結合される。さらに、線形結合の結果得られたマップの画素値に、予め求められた重みである被写体重みが乗算され正規化されて、被写体マップ201を求める。なお、重み係数群Wの詳細については後述するが、重み係数群Wの各重み係数は、0乃至1の値を有する。但し、1回目の被写体マップ生成処理においては、重み係数群Wの各重み係数は全て1とされ、合成特徴量マップは、重みなしで線形結合される。
つまり、これから求めようとする被写体マップ上の注目する位置(画素)を注目位置とすると、各合成特徴量マップの注目位置と同じ位置(画素)の画素値に、合成特徴量マップごとの重み係数が乗算され、重み係数の乗算された画素値の総和が、注目位置の画素値とされる。さらに、このようにして求められた被写体マップの各位置の画素値に、被写体マップに対して予め求められた被写体重みが乗算されて正規化され、最終的な被写体マップとされる。例えば、正規化は、被写体マップの各画素の画素値が、0から255までの間の値となるようになされる。
以上のようにして、被写体マップ生成部71は、特徴量マップから、帯域特徴量マップおよび合成特徴量マップを生成することにより、被写体マップを生成する。
図6のフローチャートに戻り、ステップS12において、被写体候補領域矩形化部72は、被写体候補領域矩形化処理を行い、被写体マップ生成部71からの被写体マップにおいて、被写体の候補となる領域を含む矩形領域を求める。
[被写体候補領域矩形化処理]
ここで、図9および図10を参照して、被写体候補領域矩形化処理の詳細について説明する。図9は、被写体候補領域矩形化処理について説明するフローチャートであり、図10は、被写体候補領域矩形化処理の具体例を示す図である。
図9のフローチャートのステップS51において、被写体候補領域矩形化部72の2値化処理部131は、被写体マップ生成部71から供給された被写体マップにおける情報を、所定の閾値に基づいて0または1のいずれかの値に2値化し、ラベリング処理部132に供給する。
より具体的には、2値化処理部131は、図10の上から1番目に示される、0から255までの間の値である被写体マップ201の各画素の画素値に対して、例えば、閾値127より小さい値の画素値を0とし、127より大きい値の画素値を1とする。これによって、図10の上から2番目に示されるような2値化マップ202が得られる。図10で示される2値化マップ202においては、白で示される部分(画素)が1の画素値を有し、黒で示される部分(画素)が0の画素値を有している。なお、ここでは、閾値を127であるものとしたが、他の値であってもよい。
ステップS52において、ラベリング処理部132は、2値化処理部131から2値化マップ202(2値化された被写体マップ)において、例えば、モルフォロジー演算等によって得られる、1である画素値の画素が隣接する連結領域に対してラベリングし、矩形領域座標算出部133に供給する。
より具体的には、例えば、図10の上から3番目に示されるように、2値化マップ202においては、連結領域211が、ラベル「1」でラベリングされ、連結領域212が、ラベル「2」でラベリングされる。
ステップS53において、矩形領域座標算出部133は、ラベリング処理部132からの2値化マップ202において、連結領域を含む(囲む)矩形領域の座標を算出し、その座標を表す座標情報を、2値化マップ202とともに領域情報算出部134に供給する。
より具体的には、図10の上から4番目に示されるように、2値化マップ202において、ラベル「1」でラベリングされた連結領域211を外側から囲む矩形枠(外接枠)221が検出され、その矩形枠の、例えば図中左上および右下の頂点の座標が求められる。また、ラベル「2」でラベリングされた連結領域212を外側から囲む矩形枠222が検出され、その矩形枠の、例えば図中左上および右下の頂点の座標が求められる。
ステップS54において、領域情報算出部134は、矩形領域座標算出部133からの座標情報と、被写体マップ生成部71からの被写体マップに基づいて、被写体マップ上で矩形枠に囲まれる矩形領域についての領域情報を算出する。
より具体的には、領域情報算出部134は、2値化マップ202における矩形枠221,222を表す、矩形領域座標算出部133からの座標情報に基づいて、矩形枠のサイズおよび中心位置の座標を、矩形領域についての領域情報として算出する。領域情報算出部134は、算出した領域情報を、矩形領域座標算出部133からの座標情報に対応付けて被写体領域選択部73に供給する。
以上のようにして、被写体候補領域矩形化部72は、被写体マップにおいて、注目すべき被写体の候補となる各領域を囲む矩形枠、および、被写体マップ上でその矩形枠で囲まれる領域の特徴を表す領域情報を求める。
図6のフローチャートに戻り、ステップS13において、被写体領域選択部73は、被写体領域選択処理を行い、注目すべき被写体が含まれる矩形領域である被写体領域を、被写体領域選択部73からの領域情報に基づいて矩形領域の中から選択する。
[被写体領域選択処理]
ここで、図11のフローチャートを参照して、被写体領域選択処理の詳細について説明する。
ステップS71において、領域情報比較部151は、被写体候補領域矩形化部72からの各矩形領域の領域情報と、領域情報記憶部153に記憶されている1フレーム前の被写体領域の領域情報とを比較し、比較結果を被写体領域決定部152に供給する。
より具体的には、例えば、領域情報比較部151は、被写体候補領域矩形化部72からの、被写体マップ上での各矩形領域を囲む矩形枠のサイズと、領域情報記憶部153に記憶されている1フレーム前の被写体領域を囲む矩形枠(被写体枠)のサイズとを比較する。また、例えば、領域情報比較部151は、被写体候補領域矩形化部72からの、被写体マップ上での各矩形領域を囲む矩形枠の中心位置の座標と、領域情報記憶部153に記憶されている1フレーム前の被写体領域を囲む矩形枠(被写体枠)の中心位置の座標とを比較する。
ステップS72において、被写体領域決定部152は、領域情報比較部151からの比較結果に基づいて、1フレーム前の被写体領域を囲む矩形枠(被写体枠)のサイズまたは中心位置の座標に最も近い矩形枠のサイズまたは中心位置を有する矩形領域を被写体領域とする。被写体領域決定部152は、決定した被写体領域の座標情報を制御部35および重み係数算出部74に供給するとともに、被写体領域の領域情報(被写体枠のサイズまたは中心位置)を、領域情報記憶部153に供給する。
但し、1回目の被写体領域選択処理において、領域情報記憶部153には、1フレーム前の被写体領域の領域情報は記憶されていないので、被写体追尾処理の開始時にユーザによって選択された被写体の所定領域(以下、初期選択領域という)を含む矩形領域が被写体領域とされる。
以上のようにして、被写体領域選択部73は、被写体の候補となる矩形領域の中から、注目すべき被写体の被写体領域を選択する。
[重み係数の算出]
図6のフローチャートに戻り、ステップS14において、重み係数算出部74は、被写体マップ生成部71からの帯域特徴量マップおよび合成特徴量マップと、被写体領域選択部73からの被写体領域を表す座標情報とに基づいて、図8で示された重み係数群W,Wを算出する。
より具体的には、図12に示されるように、所定の帯域特徴量マップRmn(1≦m≦M,1≦n≦N)上の、被写体領域を表す被写体枠231に対応する矩形領域内の特徴量(情報量)の和を被写体領域特徴量和rmnとした場合、図13の上側に示されるような重み係数群Wが算出される。
図13の重み係数群Wにおける係数のそれぞれは、図8で示された重み係数w11乃至wMNのそれぞれに対応している。なお、図13において、Max[a,…,z]は、値a乃至zのうちの最大値を表すものとする。
例えば、図13の重み係数群Wにおける上から1番目の行の各係数は、図8で示された、「帯域1」である特徴量毎の帯域特徴量マップR11乃至RM1についての重み係数w11乃至wM1を示している。図13に示されるように、重み係数w11乃至wM1は、分母が帯域特徴量マップR11乃至RM1それぞれについての被写体領域特徴量和r11乃至rM1のうちの最大値とされ、分子が帯域特徴量マップR11乃至RM1それぞれについての被写体領域特徴量和r11乃至rM1とされる係数であり、0乃至1の値をとる。
同様に、図13の重み係数群Wにおける上からN番目の行の各係数は、図8で示された、「帯域N」である特徴量毎の帯域特徴量マップR1N乃至RMNについての重み係数w1N乃至wMNを示している。図13に示されるように、重み係数w1N乃至wMNは、分母が帯域特徴量マップR1N乃至RMNそれぞれについての被写体領域特徴量和r1N乃至rMNのうちの最大値とされ、分子が帯域特徴量マップR1N乃至RMNそれぞれについての被写体領域特徴量和r1N乃至rMNとされる係数であり、0乃至1の値をとる。
すなわち、重み係数w1n乃至wMnによれば、「帯域n」である特徴量毎の帯域特徴量マップR1n乃至RMnにおいて、被写体領域特徴量和が最大となる特徴量の帯域特徴量マップに最大値1となる重み付けがされ、その他の帯域特徴量マップには、被写体領域特徴量和に応じた重み付けがされる。
また、所定の合成特徴量マップC(1≦m≦M)上の、被写体領域を表す矩形枠221に対応する矩形領域内の特徴量(情報量)の和を被写体領域特徴量和cとした場合、図13の下側に示されるような重み係数群Wが算出される。
図13の重み係数群Wにおける係数のそれぞれは、図8で示された重み係数w乃至wのそれぞれに対応している。
つまり、図13の重み係数群Wにおける各係数は、図8で示された、特徴量毎の合成特徴量マップC乃至Cについての重み係数w乃至wを示している。図13に示されるように、重み係数w乃至wは、分母が合成特徴量マップC乃至Cそれぞれについての被写体領域特徴量和c乃至cのうちの最大値とされ、分子が合成特徴量マップC乃至Cそれぞれについての被写体領域特徴量和c乃至cとされる係数であり、0乃至1の値をとる。
すなわち、重み係数w乃至wによれば、特徴量毎の合成特徴量マップC乃至Cにおいて、被写体領域特徴量和が最大となる特徴量の合成特徴量マップに最大値1となる重み付けがされ、その他の帯域特徴量マップには、被写体領域特徴量和に応じた重み付けがされる。
重み係数算出部74は、算出した重み係数群Wを、被写体マップ生成部71の帯域特徴量マップ合成部113に供給するとともに、重み係数群Wを、被写体マップ生成部71の合成特徴量マップ合成部114に供給する。図6のフローチャートにおいては、ステップS14の後、次フレームについての被写体追尾処理が実行され、この処理が1フレーム毎に繰り返される。
以上の処理によれば、入力画像の所定のフレームについての特徴量毎の特徴量マップにおける、そのフレームで選択された被写体領域に対応する領域の特徴量の相対的な大きさに応じて、次フレームについての特徴量毎の特徴量マップに対する重み係数が決定される。したがって、フレーム間で特徴量が変動するような場合であっても、複数の特徴量のうちの被写体を最もよく表す特徴量の特徴量マップが最も大きく重み付けされた被写体マップが生成されるので、被写体の状態が変動するような環境下でも、被写体をより安定して追尾することが可能となる。
また、被写体領域は、被写体全体を含むように決定されるので、被写体の一部の領域の状態が変動するような環境下でも、被写体をより安定して追尾することができる。
特に、従来の被写体追尾の手法において、被写体領域内のいずれかの座標(またはその座標を含む一部領域)が同定されるような場合では、被写体全体を追尾することができず、AF(Auto Focus)やAE(Auto Exposure)、ACC(Auto Color Control)の検波枠を正しく設定することができなかった。また、被写体領域内で特徴量が同一である同一特徴量領域が同定されるような場合では、上述の場合よりは検波枠を設定する精度を上げることができるが、同一特徴量領域は、被写体領域のごく一部に過ぎないことが多く、十分な検波精度は得られなかった。
一方、上述した被写体追尾処理によれば、被写体全体を含む被写体領域を同定できるので、検波精度を上げることができ、ひいては、追尾結果を様々なアプリケーションに適用することが可能となる。
また、従来の被写体追尾の手法には、例えば、人間の全体像を学習により辞書に登録する等して、人間を検出・追尾するものもあるが、辞書に登録されていない人間以外の被写体を追尾することはできない。さらに、辞書に登録される情報(画像)の量は膨大な量となるため、装置規模が大きくなってしまう。
一方、上述した被写体追尾処理によれば、任意の被写体を検出・追尾することができる上に、辞書等に膨大な量の情報を登録する必要がないので、装置規模をコンパクトにすることができる。
以上においては、特徴量として、輝度成分、色成分、およびエッジ方向を用いるものとしたが、これに限らず、例えば、動き情報等を加えるようにしてもよい。また、用いられる特徴量は、例えば、輝度成分と色成分のような、相補的な関係にあるものが好適であり、適宜、選択されるようにしてもよい。
また、以上においては、M×(N+1)種類の特徴量マップに対応して、M×(N+1)種類の重み係数を算出するようにしたが、一部の特徴量マップに対応する重み係数のみを、適宜算出するようにすることで、画像処理装置11における演算量を抑えることができる。例えば、合成特徴量マップC乃至CのM種類の特徴量マップに対応する重み係数w乃至wのみを算出するようにしてもよい。
さらに、以上においては、領域情報算出部134は、矩形領域の領域情報として、矩形枠のサイズおよび中心位置の座標を算出するようにしたが、矩形領域内の画素値の積分値やピーク値(最大値)を算出するようにしてもよい。この場合、被写体領域選択処理(図11)においては、1フレーム前の被写体領域内の画素値の積分値またはピーク値に最も近い領域内の画素値の積分値またはピーク値を有する矩形領域が被写体領域とされる。
ところで、画像処理装置11には、上述した被写体追尾処理の追尾結果を適用したアプリケーションの一例として、追尾した被写体を、撮像範囲における被写体の大きさを一定に保ちつつ撮像する、撮像範囲調整処理を実行させることができる。
[撮像範囲調整処理について]
ここで、図14のフローチャートを参照して、画像処理装置11の撮像範囲調整処理について説明する。撮像範囲調整処理は、例えば、ボタンとしてのユーザインタフェース38がユーザに操作されることで、画像処理装置11の動作モードが被写体を撮像する撮像モードに遷移し、表示部34に表示されている入力画像(撮像画像)において、撮像対象としての被写体の所定領域がユーザにより選択されたときに開始される。
ステップS71において、被写体追尾部55は、図6のフローチャートで説明した被写体追尾処理を実行し、被写体領域の座標情報を制御部35に供給する。
ステップS72において、制御部35は、被写体追尾部55からの被写体領域の座標情報に基づいて、レンズ駆動部36を制御することで、レンズ駆動部36に、光学系31に含まれるズームレンズを駆動させ、自動ズーム調整処理を実行する。
制御部35による自動ズーム調整処理の詳細については後述するが、以上の処理によれば、被写体との距離が変化しても、撮像範囲における被写体の大きさを一定に保つことができる。
[制御部の機能構成例]
ここで、図15を参照して、図14のフローチャートのステップS72における自動ズーム調整処理を実行する制御部35の機能構成例について説明する。
図15の制御部35は、座標情報取得部311、目標サイズ設定部312、操作判定部313、位置検出部314、比較部315、およびレンズ駆動制御部316を備えている。
座標情報取得部311は、被写体追尾部55から、入力画像の1フレーム毎に供給されてくる被写体領域の座標情報を取得し、目標サイズ設定部312、位置検出部314、および比較部315に供給する。また、座標情報取得部311は、被写体追尾部55から座標情報を取得すると、座標情報を取得した旨の情報を操作判定部313に供給する。
目標サイズ設定部312は、座標情報取得部311からの被写体領域の座標情報に基づいて、所定のフレームについての座標情報で表される被写体領域のサイズを、撮像範囲における被写体の大きさを一定に保つための目標となる目標サイズとして設定する。すなわち、制御部35は、被写体領域のサイズを常に目標サイズに近づけるように、レンズ駆動部36に、ズームレンズを駆動させる。目標サイズ設定部312は、設定した目標サイズを比較部315に供給する。
操作判定部313は、座標情報取得部311から、被写体追尾部55から座標情報を取得した旨の情報が供給されると、ユーザインタフェース制御部37からの制御信号に基づいて、ユーザインタフェース38としてのズームボタン(またはズームレバー)が操作されているか否かを判定する。操作判定部313は、判定の結果を表す情報を、目標サイズ設定部312、位置検出部314、およびレンズ駆動制御部316に供給する。
位置検出部314は、座標情報取得部311からの被写体領域の座標情報に基づいて、撮像範囲における被写体の位置を検出し、その位置に応じた情報を、比較部315、レンズ駆動制御部316、および表示部34(図1)に供給する。
比較部315は、位置検出部314から、被写体の位置に応じた情報が供給されると、座標情報取得部311からの座標情報で表される被写体領域のサイズと、目標サイズ設定部312からの目標サイズとを比較する。比較部315は、比較の結果を表す情報をレンズ駆動制御部316に供給する。
レンズ駆動制御部316は、操作判定部313からの判定の結果を表す情報や、比較部315からの比較の結果を表す情報に基づいて、レンズ駆動部36を制御し、光学系31(図1)のズームレンズを駆動させる。
[自動ズーム調整処理]
次に、図16および図17のフローチャートを参照して、図14のフローチャートのステップS72に対応する、図15の制御部35による自動ズーム調整処理について説明する。
ステップS111において、座標情報取得部311は、被写体追尾部55からの被写体領域の座標情報を取得し、目標サイズ設定部312に供給する
ステップS112において、座標情報取得部311は、初期動作か否か、すなわち、ステップS111において取得した座標情報が、撮像範囲調整処理(図14)が開始されてから最初のフレームについての被写体領域の座標情報であるか否かを判定する。
ステップS112において、初期動作であると判定された場合、座標情報取得部311は、撮像範囲調整処理が開始されてから最初のフレームについての座標情報を取得した旨の情報を、目標サイズ設定部312および操作判定部313に供給し、処理はステップS113に進む。
ステップS113において、目標サイズ設定部312は、座標情報取得部311から、最初のフレームについての被写体領域の座標情報が供給されると、その座標情報で表される、矩形領域である被写体領域のサイズを目標サイズとして設定する。具体的には、目標サイズ設定部312は、最初のフレームについての被写体領域の幅Hw(または高さHh)を、目標幅Hw_target(または目標高さHh_target)として設定する。目標サイズ設定部312は、設定した目標サイズを比較部315に供給して、処理はステップS114に進む。
一方、ステップS112において、初期動作でないと判定された場合、すなわち、ステップS111において取得した座標情報が、座標情報取得部311が、撮像範囲調整処理(図14)が開始されてから2番目以降のフレームについての被写体領域の座標情報であった場合、座標情報取得部311は、座標情報を取得した旨の情報を操作判定部313に供給し、処理はステップS114に進む。
ステップS114において、操作判定部313は、座標情報取得部311から、被写体追尾部55から座標情報を取得した旨の情報が供給されると、ユーザインタフェース制御部37からの制御信号に基づいて、ユーザによるズーム操作がされているか否かを判定する。
ステップS114において、ユーザによるズーム操作がされていると判定された場合、操作判定部313は、ユーザインタフェース制御部37からの、ズーム操作の内容を表す制御信号を、レンズ駆動制御部316に供給し、処理はステップS115に進む。
ステップS115において、操作判定部313は、内部に保持しているマニュアルフラグをONする。マニュアルフラグは、1フレーム毎に撮像範囲調整処理が実行される中で、1つ前のフレームについての撮像範囲調整処理の自動ズーム調整処理において、ユーザによりズーム操作がされていたか否かを表すフラグである。すなわち、1つ前のフレームについての自動ズーム調整処理において、ユーザによりズーム操作がされていればマニュアルフラグはONであり、ズーム操作がされていなければマニュアルフラグはOFFである。なお、撮像範囲調整処理(自動ズーム調整処理)が開始された直後においては、マニュアルフラグはOFFされている。
ステップS116において、レンズ駆動制御部316は、操作判定部313からの制御信号で表される、ユーザによるズーム操作(広角指示または望遠指示)に応じて、レンズ駆動部36を制御し、光学系31のズームレンズを、距離d1だけ駆動させる。距離d1は、レンズ駆動部36が、1フレーム分の被写体追尾処理が実行される間に、ズームレンズを移動させることのできる距離とされる。
この場合、ユーザは、撮像範囲において被写体が追尾されているか否かに関わらず、自分の好みで、撮像範囲(画角)を調整することができる。
さて、ステップS114において、ユーザによるズーム操作がされていないと判定された場合、ステップS117において、操作判定部313は、内部に保持しているマニュアルフラグがONであるか否かを判定する。
ステップS117において、マニュアルフラグがONであると判定された場合、すなわち、1つ前のフレームについての自動ズーム調整処理において、ユーザによるズーム操作がされていた場合、処理はステップS118に進む。
ステップS118において、操作判定部313は、内部に保持しているマニュアルフラグをOFFし、マニュアルフラグがOFFされたの旨の情報を、目標サイズ設定部312および位置検出部314に供給する。
ステップS119において、目標サイズ設定部312は、操作判定部313からの情報に基づいて、座標情報取得部311からの、そのときのフレームについての被写体領域の座標情報で表される被写体領域のサイズに基づいて、目標サイズを更新し、比較部315に供給する。
すなわち、直前のフレームにおいて、ユーザによって調整されていた撮像範囲(画角)における被写体の大きさ、すなわち、被写体領域のサイズが、新たに目標サイズとして設定されるようになる。
一方、ステップS117において、マニュアルフラグがONでないと判定された場合、すなわち、1つ前のフレームについての自動ズーム調整処理において、ユーザによるズーム操作がされていなかった場合、操作判定部313は、マニュアルフラグがOFFである旨の情報を、位置検出部314に供給する。
ステップS120において、位置検出部314は、操作判定部313から、マニュアルフラグがOFFである(または、OFFされた)旨の情報が供給されてくると、座標情報取得部311からの被写体領域の座標情報に基づいて、撮像範囲における被写体の位置を検出する。そして、位置検出部314は、検出された位置に基づいて、被写体が、図18に示される撮像範囲における領域A内にいるか否かを判定する。
図18は、表示部34に表示される撮像画像の、被写体が撮像される撮像範囲を表す図である。図18においては、被写体は、被写体領域を表す被写体枠Hで囲まれている。また、図18においては、破線により領域Aおよび領域Bが示されている。領域Aは、撮像範囲の中央部を含むように設定され、撮像時に、被写体がその内側にいることが望ましいとされる領域である。また、領域Bは、撮像範囲の外端領域に設定され、撮像時に、被写体がその外側にいると撮像範囲から外れてしまう(フレームアウトしてしまう)可能性があるとされる領域である。
すなわち、ステップS120において、位置検出部314は、被写体が、撮像範囲の中の、撮像に望ましい領域にいるか否かを判定する。具体的には、位置検出部314は、被写体領域を表す被写体枠Hの中心座標(または、4頂点のいずれかの座標)が、領域A内に存在するか否かを判定する。
ステップS120において、被写体が領域A内にいると判定された場合、位置検出部314は、被写体が領域A内にいる旨の情報を、比較部315に供給し、処理はステップS121に進む。
ステップS121において、比較部315は、位置検出部314から、被写体が領域A内にいる旨の情報が供給されると、座標情報取得部311からの座標情報で表される被写体領域のサイズと、目標サイズ設定部312からの目標サイズとを比較する。
ここで、図18で示された被写体枠Hのサイズを目標サイズとすると、比較部315は、目標サイズとしての、図18の被写体枠Hの目標幅Hw_target(または目標高さHh_target)と、そのときのフレームについての被写体領域のサイズとしての、被写体領域の幅Hw(または高さHh)とを比較する。
そして、比較部315は、被写体領域のサイズが目標サイズより大きいか否か、具体的には、被写体領域の幅Hw(または高さHh)が、目標幅Hw_target(または目標高さHh_target)に所定値を加算した値より大きいか否かを判定する。
ステップS121において、図19に示されるように、被写体領域のサイズが目標サイズより大きいと判定された場合、比較部315は、被写体領域のサイズが目標サイズより大きい旨の情報をレンズ駆動制御部316に供給し、処理はステップS122に進む。
ステップS122において、レンズ駆動制御部316は、比較部315からの情報に基づいて、レンズ駆動部36を制御し、光学系31のズームレンズを、広角側に距離d1だけ駆動させる。
このように、撮像範囲における被写体の大きさが目標となる大きさより大きい場合には、被写体の大きさが目標となる大きさに近づくようにズームアウトする。
一方、ステップS121において、被写体領域のサイズが目標サイズより大きくないと判定された場合、処理はステップS123に進む。
ステップS123において、比較部315は、被写体領域のサイズが目標サイズより小さいか否か、具体的には、被写体領域の幅Hw(または高さHh)が、目標幅Hw_target(または目標高さHh_target)から所定値を減算した値より小さいか否かを判定する。
ステップS123において、図20に示されるように、被写体領域のサイズが目標サイズより小さいと判定された場合、比較部315は、被写体領域のサイズが目標サイズより小さい旨の情報をレンズ駆動制御部316に供給し、処理はステップS124に進む。
ステップS124において、レンズ駆動制御部316は、比較部315からの情報に基づいて、レンズ駆動部36を制御し、光学系31のズームレンズを、望遠側に距離d1だけ駆動させる。
このように、撮像範囲における被写体の大きさが目標となる大きさより小さい場合には、被写体の大きさが目標となる大きさに近づくようにズームインする。
一方、ステップS123において、被写体領域のサイズが目標サイズより小さくないと判定された場合、すなわち、被写体領域のサイズが目標サイズと同一または略同一である場合、比較部315は何もせず、従って、レンズ駆動制御部316にはいずれの情報も供給されない。
このように、撮像範囲における被写体の大きさが目標となる大きさと同一または略同一である場合には、ズームアウトもズームインもしない。
ところで、ステップS120において、被写体が領域A内にいないと判定された場合、処理はステップS125に進み、位置検出部314は、被写体が領域B内にいるか否かを判定する。具体的には、位置検出部314は、被写体領域を表す被写体枠Hの中心座標(または、4頂点の全ての座標)が、領域Bの内側に存在するか否かを判定する。
ステップS125において、被写体が領域B内にいると判定された場合、位置検出部314は何もせず、従って、レンズ駆動制御部316にはいずれの情報も供給されない。
このように、撮像範囲において、被写体が領域Aの外側かつ領域Bの内側にいる場合にも、ズームアウトもズームインもしない。
一方、ステップS125において、被写体が領域B内にいないと判定された場合、位置検出部314は、被写体が領域B内にいない旨の情報をレンズ駆動制御部316に供給し、処理はステップS126に進む。
ステップS126において、レンズ駆動制御部316は、位置検出部314からの情報に基づいて、レンズ駆動部36を制御し、光学系31のズームレンズを、広角側に距離d2だけ駆動させる。距離d2は、距離d1よりも大きい距離であり、レンズ駆動部36が、1フレーム分の被写体追尾処理が実行される間に、ズームレンズを移動させることのできる距離とされる。
これにより、被写体が撮像範囲(画角)の端に近づいても、被写体をフレームアウトさせないように、より迅速にズームアウトすることができる。
ステップS127において、レンズ駆動制御部316は、レンズ駆動部36がズームレンズを広角側に距離d2だけ駆動させた結果、ズームレンズのレンズ位置が広角端であるか否かを判定する。
ステップS127において、ズームレンズのレンズ位置が広角端でないと判定された場合、レンズ駆動制御部316は何もしない。
一方、ステップS127において、ズームレンズのレンズ位置が広角端であると判定された場合、レンズ駆動制御部316は、ズームレンズのレンズ位置が広角端である旨の情報を位置検出部314に供給し、処理はステップS128に進む。
ステップS128において、位置検出部314は、レンズ駆動制御部316から情報が供給されてくると、被写体が撮像範囲内にいるか否かを判定する。具体的には、位置検出部314は、被写体領域を表す被写体枠Hの中心座標(または、4頂点のいずれかの座標)が、撮像範囲内であって、領域Bの外側に存在するか否かを判定する。
ステップS128において、被写体が撮像範囲内にいると判定された場合、位置検出部314は、被写体がフレームアウトしそうである旨の警告を提示するための情報を、表示部34に供給し、処理はステップS129に進む。
ステップS129において、表示部34は、位置検出部314からの情報に基づいて、被写体がフレームアウトしそうである旨の警告を提示(表示)する。
例えば、図21に示されるように、被写体領域を表す被写体枠Hの中心座標が、表示部34に表示されている撮像画像(撮像範囲)において、領域Bの右側へフレームアウトしそうな場合、表示部34は、図21の右上に示されるように、ユーザに対して撮像範囲を右側に移動することを促す矢印Pを表示する。
これにより、ユーザは、被写体がフレームアウトしそうである旨の警告を確認して、被写体をフレームアウトさせないように、画像処理装置11自体をパンさせることができる。
一方、ステップS128において、被写体が撮像範囲内にいないと判定された場合、すなわち、被写体がフレームアウトした場合、位置検出部314は、被写体がフレームアウトした旨の警告を提示するための情報を、表示部34に供給し、処理はステップS130に進む。
ステップS130において、表示部34は、位置検出部314からの情報に基づいて、被写体がフレームアウトした旨の警告を提示(表示)する。
例えば、被写体領域を表す被写体枠Hの中心座標が、表示部34に表示されている撮像画像(撮像範囲)において、領域Bの右側へ完全にフレームアウトした場合、表示部34は、図21の右上に示される矢印Pをより強調して表示する。
これにより、ユーザは、被写体がフレームアウトした旨の警告を確認して、被写体をフレームインさせるように、画像処理装置11自体をパンさせることができる。
以上の処理によれば、被写体領域のサイズが目標サイズより大きい場合には、ズームアウトするように、広角側にズームレンズを駆動させ、被写体領域のサイズが目標サイズより小さい場合には、ズームインするように、望遠側にズームレンズを駆動させることができる。したがって、撮像時に、被写体との距離が変化する場合でも、微妙なズーム操作を行うことなく、撮像範囲における被写体の大きさを略一定に保つことが可能となる。
また、ユーザによってズーム操作された場合には、ユーザの操作が優先されるので、ユーザの好みの撮像範囲に調整することもできる。そして、ユーザによるズーム操作が終了した後には、そのときの被写体領域のサイズが目標サイズとして更新されるので、目標サイズをユーザの好みのサイズに設定することができる。
なお、上述した処理においては、初期動作時の被写体領域のサイズを目標サイズとして設定するようにしたが、例えば、ユーザの操作等により、目標サイズを予め決められるようにしてもよい。
また、上述した処理においては、被写体がフレームアウトしそうな(またはフレームアウトした)旨の警告を、表示部34に表示させるようにしたが、ユーザインタフェース38としてのスピーカに音声を出力させたり、偏心されたおもりが付加されたモータにより構成される振動部を備えるようにして、その振動部を振動させるようにしてもよい。
さらに、上述した処理においては、被写体としての人物が追尾され、その人物の大きさを撮像範囲において略一定に保つようにしたが、被写体は人物に限られない。また、被写体が人物である場合、人物の顔を検出する顔検出器を備えることにより、撮像範囲における顔の大きさを略一定に保つようにすることもできる。
以上においては、撮像時に、被写体との距離が変化する場合でも、撮像範囲における被写体の大きさを略一定に保つ自動ズーム調整処理について説明してきた。しかしながら、画像処理装置11の構成では、被写体との距離が一定である場合に、撮像範囲における被写体の大きさを、所望の大きさにすることはできない。すなわち、被写体が人物である場合、撮像範囲における人物の大きさ(いわゆるショット)には、全身像を撮像するフルショット、上半身を撮像するバストショット、顔を撮像するアップショット等があるが、このようなショットになるように撮像範囲を調整することはできない。
そこで、以下においては、撮像範囲における被写体の大きさが所望の大きさになるように、撮像範囲を調整する構成について説明する。
[画像処理装置の他の構成例]
図22は、撮像範囲における被写体の大きさが所望の大きさになるように、撮像範囲を調整する画像処理装置の構成例を示している。
なお、図22の画像処理装置511において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図22の画像処理装置511において、図1の画像処理装置11と異なるのは、デジタル信号処理部33において顔検出部531を新たに設け、制御部35に代えて、制御部532を設けた点である。
顔検出部531は、YC生成部53によって生成された輝度信号および色信号からなる画像データに基づいて、画像データにより表示される入力画像において、被写体追尾部55によって検出された被写体としての人物の被写体領域から顔を検出し、顔の領域(以下、顔領域という)を表す座標情報を制御部532に供給する。
制御部532は、被写体追尾部55からの被写体領域および顔領域の座標情報に基づいて、レンズ駆動部36を制御することで、レンズ駆動部36に、光学系31に含まれるズームレンズを駆動させる。
[制御部の機能構成例]
ここで、図23を参照して、図22の制御部532の機能構成例について説明する。
図23の制御部35は、操作判定部551、座標情報取得部552、サイズ比算出部553、サイズ比判定部554、理想サイズ比記憶部555、およびレンズ駆動制御部556を備えている。
操作判定部551は、ユーザインタフェース制御部37からの制御信号に基づいて、ユーザインタフェース38としてのズームボタン(またはズームレバー)が操作されたか否かを判定する。操作判定部551は、判定の結果を表す情報を、座標情報取得部552およびサイズ比判定部554に供給する。
座標情報取得部552は、操作判定部551またはレンズ駆動制御部556からの情報に応じて、被写体追尾部55および顔検出部531から1フレーム毎に供給されてくる被写体領域および顔領域の座標情報を取得し、サイズ比算出部553に供給する。
サイズ比算出部553は、座標情報取得部552からの被写体領域および顔領域の座標情報に基づいて、被写体領域のサイズと顔領域のサイズとの比(以下、サイズ比という)を算出し、サイズ比判定部554に供給する。
サイズ比判定部554は、サイズ比算出部553からのサイズ比と、理想サイズ比記憶部555に記憶されている理想サイズ比とを比較し、比較の結果を表す情報をレンズ駆動制御部556に供給する。
理想サイズ比記憶部555は、理想的な被写体領域のサイズと顔領域のサイズとの比である理想サイズ比を記憶している。理想サイズ比は、撮像される被写体としての人物が、フルショット、バストショット、およびアップショットといった適切なショットとなるような被写体領域のサイズと顔領域のサイズとの比とされ、ユーザによって任意に設定される。理想サイズ比記憶部555に記憶されている理想サイズ比は、適宜、サイズ比判定部554に読み出される。
レンズ駆動制御部556は、サイズ比判定部554からの、比較の結果を表す情報に基づいて、レンズ駆動部36を制御し、光学系31(図22)のズームレンズを駆動させる。また、レンズ駆動制御部556は、ズームレンズを駆動させた旨の情報を、座標情報取得部552に供給する。
[顔検出処理]
ここで、図24のフローチャートを参照して、図22の画像処理装置511による顔検出処理について説明する。顔検出処理は、1フレーム毎に実行される被写体追尾部55による被写体追尾処理の後に実行される。
顔検出部531は、YC生成部53によって生成された輝度信号および色信号からなる画像データに基づいて、画像データにより表示される入力画像において、被写体追尾部55による被写体追尾処理によって検出された被写体としての人物の被写体領域から顔を検出し、顔領域を表す座標情報を制御部532に供給する。
このようにして、撮像範囲において、注目する被写体として追尾されている人物の顔を検出することができる。
[指定ズーム処理]
次に、図25および図26のフローチャートを参照して、図23の制御部532による指定ズーム処理について説明する。
ステップS311において、操作判定部551は、ユーザインタフェース制御部37からの制御信号に基づいて、ユーザによるズーム操作がされたか否かを判定する。
ステップS311においては、ユーザによりズーム操作がされるまで処理が繰り返され、ズーム操作がされたと判定された場合、操作判定部551は、ズーム操作がされた旨の情報を座標情報取得部552に供給するとともに、ユーザインタフェース制御部37からのズーム操作の内容を表す制御信号を、サイズ比判定部554に供給し、処理はステップS312に進む。
ステップS312において、座標情報取得部552は、操作判定部551から、ユーザによりズーム操作がされた旨の情報が供給されると、所定のフレームについての、被写体追尾部55からの被写体領域の座標情報、および、顔検出部531からの顔領域の座標情報を取得し、サイズ比算出部553に供給する。
ステップS313において、サイズ比算出部553は、座標情報取得部552からの被写体領域および顔領域の座標情報に基づいて、被写体領域のサイズと顔領域のサイズとのサイズ比を算出する。具体的には、サイズ比算出部553は、被写体領域の高さHh(または幅Hw)と、顔領域の高さFh(または幅Fw)との比Fh/Hh(またはFw/Hw)を、サイズ比として算出する。サイズ比算出部553は、算出したサイズ比をサイズ比判定部554に供給して、処理はステップS314に進む。
ステップS314において、サイズ比判定部554は、サイズ比算出部553からサイズ比が供給されると、操作判定部551から供給されてきた、ユーザインタフェース制御部37からの制御信号に基づいて、ユーザによるズーム操作が、望遠側のズーム操作であるか否かを判定する。
ステップS314において、ユーザによるズーム操作が、望遠側のズーム操作であると判定された場合、処理はステップS315に進む。
ステップS315において、サイズ比判定部554は、サイズ比算出部553からサイズ比が、フルショットとなる理想サイズ比より小さいか否かを判定する。
ここで、図27を参照して、理想サイズ比について説明する。
図27は、ズームレンズの駆動範囲と、入力画像における被写体の大きさとの関係を概念的に示している。
図27の上側には、ズームレンズの駆動範囲が示されており、図中、左端に広角端が、右端に望遠端が示されている。また、広角端と望遠端の間には、レンズ位置LP1乃至LP6が示されている。
また、図27の下側には、被写体としての人物が撮像されている画像a乃至cが示されている。画像a乃至cにおいては、それぞれ、被写体が、フルショット、バストショット、およびアップショットとなるように撮像されている。
ここで、画像aにおいて全身像が撮像されている被写体の被写体領域Haの高さをHahとし、顔領域Faの高さをFahとすると、フルショットとなる理想サイズ比は、Fah/Hahで表される。図27においては、この理想サイズ比Fah/Hahは、ズームレンズの駆動範囲において、ズームレンズのレンズ位置が、位置LP1乃至LP2の間にあるときに得られることが示されている。
また、画像bにおいて上半身が撮像されている被写体の被写体領域Hbの高さをHbhとし、顔領域Fbの高さをFbhとすると、バストショットとなる理想サイズ比は、Fbh/Hbhで表される。図27においては、この理想サイズ比Fbh/Hbhは、ズームレンズの駆動範囲において、ズームレンズのレンズ位置が、位置LP3乃至LP4の間にあるときに得られることが示されている。
さらに、画像cにおいて主に顔が撮像されている被写体の被写体領域Hcの高さをHchとし、顔領域Fcの高さをFchとすると、アップショットとなる理想サイズ比は、Fch/Hchで表される。図27においては、この理想サイズ比Fch/Hchは、ズームレンズの駆動範囲において、ズームレンズのレンズ位置が、位置LP5乃至LP6の間にあるときに得られることが示されている。
すなわち、図25のフローチャートのステップS315においては、サイズ比算出部553からのサイズ比Fh/Hhが、フルショットとなる理想サイズ比Fah/Hahより小さいか否かが判定される。
なお、全身像が撮像されている場合、例えば、被写体が、遠くで撮像されていても、近くで撮影されていても、サイズ比はほとんど変わらない。すなわち、図27の画像aにおいて、被写体がより遠くで撮像されているときでも、サイズ比はFah/Hahと略同じ値となる。
そこで、ステップS315においては、サイズ比算出部553からのサイズ比Fh/Hhが、フルショットとなる理想サイズ比Fah/Hahより小さく、かつ、被写体領域の高さHhが所定の閾値より大きいか否かが判定される。ここで、所定の閾値は、撮像画像(撮像範囲)の高さより小さい値であることはもちろん、撮像範囲において、被写体領域の上下に、顔領域が約1つ分入るような値などとされる。
ステップS315において、サイズ比がフルショットとなる理想サイズ比より小さいと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置が広角端とレンズ位置LP1の間にあるので、サイズ比判定部554は、ズームレンズの望遠側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS316に進む。
ステップS316において、レンズ駆動制御部556は、サイズ比判定部554からの情報に基づいて、レンズ駆動部36を制御し、光学系31のズームレンズを、望遠側に距離d1だけ駆動させる。距離d1は、上述したように、レンズ駆動部36が、1フレーム分の被写体追尾処理が実行される間に、ズームレンズを移動させることのできる距離とされる。レンズ駆動制御部556は、ズームレンズを駆動させた旨の情報を座標情報取得部552に供給する。
ステップS317において、座標情報取得部552は、レンズ駆動制御部556から、ズームレンズを駆動させた旨の情報が供給されると、次のフレームについての、被写体追尾部55からの被写体領域の座標情報、および、顔検出部531からの顔領域の座標情報を取得し、サイズ比算出部553に供給する。
ステップS318において、サイズ比算出部553は、座標情報取得部552からの被写体領域および顔領域の座標情報に基づいて、被写体領域のサイズと顔領域のサイズとのサイズ比Fh/Hhを算出する。サイズ比算出部553は、算出したサイズ比をサイズ比判定部554に供給して、処理はステップS319に進む。
ステップS319において、サイズ比判定部554は、被写体がフルショットになったか、すなわち、サイズ比算出部553からのサイズ比Fh/Hhが、フルショットとなる理想サイズ比Fah/Hahと同一または略同一で、かつ、被写体領域の高さHhが所定の閾値より大きいか否かを判定する。
ステップS319において、被写体がフルショットになっていないと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がまだ広角端とレンズ位置LP1の間にあるので、サイズ比判定部554は、ズームレンズの望遠側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS316に戻る。以降、1フレーム毎にステップS316乃至S319の処理が繰り返される。
そして、ステップS319において、被写体がフルショットになったと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP1乃至LP2になったので、サイズ比判定部554は、ズームレンズの駆動の停止を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS320に進む。
ステップS320において、レンズ駆動制御部556は、サイズ比判定部554からの情報に基づいて、レンズ駆動部36を制御し、光学系31のズームレンズの駆動を停止させる。
これにより、ユーザは、ユーザから遠い位置にいる被写体を撮像する場合であっても、望遠側のズーム操作をするだけで、適切なフルショットで撮像することができる。
一方、ステップS315において、サイズ比がフルショットとなる理想サイズ比より小さくないと判定された場合、処理はステップS321に進み、サイズ比判定部554は、サイズ比がバストショットとなる理想サイズ比より小さいか否かを判定する。具体的には、サイズ比算出部553からのサイズ比Fh/Hhが、バストショットとなる理想サイズ比Fbh/Hbhより小さいか否かが判定される。
ステップS321において、サイズ比がバストショットとなる理想サイズ比より小さいと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP1乃至LP3の間にあるので、サイズ比判定部554は、ズームレンズの望遠側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS322に進む。
ステップS322乃至S324の処理は、上述したステップS316乃至S318の処理と同様にして行われるので、その説明は省略する。
そして、ステップS325において、サイズ比判定部554は、被写体がバストショットになったか、すなわち、サイズ比算出部553からのサイズ比Fh/Hhが、バストショットとなる理想サイズ比Fbh/Hbhと同一または略同一であるか否かを判定する。
ステップS325において、被写体がバストショットになっていないと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がまだレンズ位置LP1乃至LP3の間にあるので、サイズ比判定部554は、ズームレンズの望遠側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS322に戻る。以降、1フレーム毎にステップS322乃至S325の処理が繰り返される。
そして、ステップS325において、被写体がバストショットになったと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP3乃至LP4になったので、サイズ比判定部554は、ズームレンズの駆動の停止を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS320に進む。ステップS320においては、上述したように、ズームレンズの駆動が停止する。
これにより、ユーザは、フルショットで被写体を撮像している場合であっても、望遠側のズーム操作をするだけで、適切なバストショットで撮像することができる。
一方、ステップS321において、サイズ比がバストショットとなる理想サイズ比より小さくないと判定された場合、処理はステップS326に進み、サイズ比判定部554は、サイズ比がアップショットとなる理想サイズ比より小さいか否かを判定する。具体的には、サイズ比算出部553からのサイズ比Fh/Hhが、アップショットとなる理想サイズ比Fch/Hchより小さいか否かが判定される。
ステップS326において、サイズ比がアップショットとなる理想サイズ比より小さいと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP3乃至LP5の間にあるので、サイズ比判定部554は、ズームレンズの望遠側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS327に進む。
ステップS327乃至S329の処理は、上述したステップS316乃至S318およびステップS322乃至S324の処理と同様にして行われるので、その説明は省略する。
そして、ステップS330において、サイズ比判定部554は、被写体がアップショットになったか、すなわち、サイズ比算出部553からのサイズ比Fh/Hhが、アップショットとなる理想サイズ比Fch/Hchと同一または略同一であるか否かを判定する。
ステップS330において、被写体がアップショットになっていないと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がまだレンズ位置LP3乃至LP5の間にあるので、サイズ比判定部554は、ズームレンズの望遠側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS327に戻る。以降、1フレーム毎にステップS327乃至S329の処理が繰り返される。
そして、ステップS330において、被写体がアップショットになったと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP5乃至LP6になったので、サイズ比判定部554は、ズームレンズの駆動の停止を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS320に進む。ステップS320においては、上述したように、ズームレンズの駆動が停止する。
これにより、ユーザは、バストショットで被写体を撮像している場合であっても、望遠側のズーム操作をするだけで、適切なアップショットで撮像することができる。
一方、ステップS326において、サイズ比がアップショットとなる理想サイズ比より小さくないと判定された場合、すなわち、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP6より望遠側にある場合には、何も処理されない。この場合、被写体は、アップショットかまたはそれより近い(寄った)ショットで撮像されているので、望遠側のズーム操作がされても、これ以上ズームインする必要はない。
ところで、ステップS314において、ユーザによるズーム操作が、望遠側のズーム操作でないと判定された場合、すなわち、ユーザによるズーム操作が、広角側のズーム操作であると判定された場合、処理はステップS331に進む。
ステップS331において、サイズ比判定部554は、サイズ比算出部553からサイズ比が、アップショットとなる理想サイズ比より大きいか否かを判定する。具体的には、サイズ比算出部553からのサイズ比Fh/Hhが、アップショットとなる理想サイズ比Fch/Hchより大きいか否かが判定される。
ステップS331において、サイズ比がアップショットとなる理想サイズ比より大きいと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置が望遠端とレンズ位置LP6の間にあるので、サイズ比判定部554は、ズームレンズの広角側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS332に進む。
ステップS332において、レンズ駆動制御部556は、サイズ比判定部554からの情報に基づいて、レンズ駆動部36を制御し、光学系31のズームレンズを、広角側に距離d1だけ駆動させる。レンズ駆動制御部556は、ズームレンズを駆動させた旨の情報を座標情報取得部552に供給する。
ステップS333において、座標情報取得部552は、レンズ駆動制御部556から、ズームレンズを駆動させた旨の情報が供給されると、次のフレームについての、被写体追尾部55からの被写体領域の座標情報、および、顔検出部531からの顔領域の座標情報を取得し、サイズ比算出部553に供給する。
ステップS334において、サイズ比算出部553は、座標情報取得部552からの被写体領域および顔領域の座標情報に基づいて、被写体領域のサイズと顔領域のサイズとのサイズ比Fh/Hhを算出する。サイズ比算出部553は、算出したサイズ比をサイズ比判定部554に供給して、処理はステップS335に進む。
ステップS335において、サイズ比判定部554は、被写体がアップショットになったか、すなわち、サイズ比算出部553からのサイズ比Fh/Hhが、アップショットとなる理想サイズ比Fch/Hchと同一または略同一であるか否かを判定する。
ステップS335において、被写体がアップショットになっていないと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がまだ望遠端とレンズ位置LP6の間にあるので、サイズ比判定部554は、ズームレンズの広角側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS332に戻る。以降、1フレーム毎にステップS332乃至S334の処理が繰り返される。
そして、ステップS335において、被写体がアップショットになったと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP6乃至LP5になったので、サイズ比判定部554は、ズームレンズの駆動の停止を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS320に進む。ステップS320においては、上述したように、ズームレンズの駆動が停止する。
これにより、ユーザは、ユーザからごく近い位置にいる被写体を撮像する場合であっても、広角側のズーム操作をするだけで、適切なアップショットで撮像することができる。
一方、ステップS331において、サイズ比がアップショットとなる理想サイズ比より大きくないと判定された場合、処理はステップS336に進み、サイズ比判定部554は、サイズ比がバストショットとなる理想サイズ比より大きいか否かを判定する。具体的には、サイズ比算出部553からのサイズ比Fh/Hhが、バストショットとなる理想サイズ比Fbh/Hbhより大きいか否かが判定される。
ステップS336において、サイズ比がバストショットとなる理想サイズ比より大きいと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP6乃至LP4の間にあるので、サイズ比判定部554は、ズームレンズの広角側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS337に進む。
ステップS337乃至S340の処理は、上述したステップS332乃至S334の処理と同様にして行われるので、その説明は省略する。
そして、ステップS340において、サイズ比判定部554は、被写体がバストショットになったか、すなわち、サイズ比算出部553からのサイズ比Fh/Hhが、バストショットとなる理想サイズ比Fbh/Hbhと同一または略同一であるか否かを判定する。
ステップS340において、被写体がバストショットになっていないと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がまだレンズ位置LP6乃至LP4の間にあるので、サイズ比判定部554は、ズームレンズの広角側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS337に戻る。以降、1フレーム毎にステップS337乃至S340の処理が繰り返される。
そして、ステップS340において、被写体がバストショットになったと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP4乃至LP3になったので、サイズ比判定部554は、ズームレンズの駆動の停止を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS320に進む。ステップS320においては、上述したように、ズームレンズの駆動が停止する。
これにより、ユーザは、アップショットで被写体を撮像している場合であっても、望遠側のズーム操作をするだけで、適切なバストショットで撮像することができる。
一方、ステップS336において、サイズ比がバストショットとなる理想サイズ比より大きくないと判定された場合、処理はステップS341に進み、サイズ比判定部554は、サイズ比がフルショットとなる理想サイズ比より大きいか否かを判定する。具体的には、サイズ比算出部553からのサイズ比Fh/Hhが、フルショットとなる理想サイズ比Fah/Hahより大きいか否かが判定される。
ステップS341において、サイズ比がフルショットとなる理想サイズ比より大きいと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP4乃至LP2の間にあるので、サイズ比判定部554は、ズームレンズの広角側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS342に進む。
ステップS342乃至S344の処理は、上述したステップS332乃至S334およびステップS337乃至S339の処理と同様にして行われるので、その説明は省略する。
そして、ステップS345において、サイズ比判定部554は、被写体がフルショットになったか、すなわち、サイズ比算出部553からのサイズ比Fh/Hhが、フルショットとなる理想サイズ比Fah/Hahと同一または略同一であるか否かを判定する。
ステップS345において、被写体がフルショットになっていないと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がまだレンズ位置LP4乃至LP2の間にあるので、サイズ比判定部554は、ズームレンズの広角側への駆動を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS342に戻る。以降、1フレーム毎にステップS342乃至S344の処理が繰り返される。
そして、ステップS345において、被写体がフルショットになったと判定された場合、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP2乃至LP1になったので、サイズ比判定部554は、ズームレンズの駆動の停止を指示する旨の情報を、レンズ駆動制御部556に供給し、処理はステップS320に進む。ステップS320においては、上述したように、ズームレンズの駆動が停止する。
これにより、ユーザは、バストショットで被写体を撮像している場合であっても、広角側のズーム操作をするだけで、適切なフルショットで撮像することができる。
一方、ステップS341において、サイズ比がフルショットとなる理想サイズ比より大きくないと判定された場合、すなわち、図27のズームレンズの駆動範囲において、ズームレンズのレンズ位置がレンズ位置LP1より広角側にある場合には、何も処理されない。この場合、被写体は、フルショットかまたはそれより遠い(引いた)ショットで撮像されているので、広角側のズーム操作がされても、これ以上ズームアウトする必要はない。
以上の処理によれば、ズーム操作がされたときに、ズーム操作の内容に応じて、被写体領域と顔領域とのサイズ比が、予め決められた理想サイズ比に近づくように、ズームレンズの駆動が制御される。結果として、被写体(人物)のショットにかかわらず、ズーム操作の内容に応じて、被写体が、フルショット、バストショット、アップショット等の適切なショットになるように撮像範囲を調整することができる。すなわち、微妙なズーム操作を行うことなく、撮像範囲における被写体の大きさを、所望の大きさにすることが可能となる。
また、上述した指定ズーム処理において、サイズ比を、被写体領域および顔領域の高さまたは幅により算出するようにしたが、図27の画像a乃至cに示されるように、それぞれの領域の高さを用いた方が、サイズ比として値の変化が大きく表れるので、被写体が人物である場合には、理想サイズ比との比較・判定において有効である。
なお、上述した指定ズーム処理においては、被写体としての人物とその被写体の一部である顔の大きさの比によって撮像範囲を調整するようにしたが、被写体全体とその一部をそれぞれ検出することができるような被写体であれば、本発明を適用することができる。例えば、顔を検出する顔検出器と、目や鼻などの顔のパーツを検出する顔パーツ検出器を備えることにより、撮像範囲における顔の大きさを所望の大きさにするように、撮像範囲を調整することが可能となる。
また、上述した指定ズーム処理を、図16および図17で説明した自動ズーム調整処理において、ユーザによるズーム操作がされたときに実行するようにしてもよい。
[画像処理装置のさらに他の構成例]
ここで、図28を参照して、自動ズーム調整処理において、ユーザによるズーム操作がされたときに指定ズーム処理を実行する画像処理装置の構成例について説明する。
なお、図28の画像処理装置611において、図22の画像処理装置511に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図28の画像処理装置611において、図22の画像処理装置511と異なるのは、制御部532に代えて、制御部631を設けた点である。
[制御部の機能構成例]
ここで、図29を参照して、図28の制御部631の機能構成例について説明する。
なお、図29の制御部631において、図15の制御部35に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図29の制御部631において、図15の制御部35と異なるのは、サイズ比算出部553、サイズ比判定部554、および理想サイズ比記憶部555を新たに設け、座標情報取得部311、操作判定部313、およびレンズ駆動制御部316に代えて、座標情報取得部651、操作判定部652、およびレンズ駆動制御部653を設けた点である。
また、図29の制御部631において、サイズ比算出部553、サイズ比判定部554、および理想サイズ比記憶部555は、図23の制御部532に設けられたものと同様であるので、その説明は省略するものとする。
そして、図29の制御部631において、座標情報取得部651は、図15の座標情報取得部311と同様の機能を備える他、図23の座標情報取得部552と同様の機能をさらに備える。
操作判定部652は、図15の操作判定部313と同様の機能を備える他、図23の操作判定部551と同様の機能をさらに備える。
レンズ駆動制御部653は、図15のレンズ駆動制御部316と同様の機能を備える他、図23のレンズ駆動制御部556と同様の機能をさらに備える。
[自動ズーム調整処理]
次に、図30および図31のフローチャートを参照して、図29の制御部631による自動ズーム調整処理について説明する。
なお、図30,31のフローチャートのステップS411乃至S415,S417乃至S430の処理は、図16,17のフローチャートのステップS111乃至S115,S117乃至S130の処理と基本的に同様であるので、その説明は省略する。
すなわち、ステップS416において、制御部631は、指定ズーム処理を実行する。
[指定ズーム処理]
次に、図32および図33のフローチャートを参照して、図29の制御部631による指定ズーム処理について説明する。
ステップS511において、座標情報取得部651は、操作判定部652から、ユーザによりズーム操作がされた旨の情報が供給されると、所定のフレームについての顔検出部531からの顔領域の座標情報を取得し、サイズ比算出部553に供給する。つまり、被写体追尾部55からの被写体領域の座標情報は、図30のフローチャートのステップS411において取得されているので、座標情報取得部651は、顔領域の座標情報のみを取得する。
なお、フローチャートのステップS512以降の処理は、図25,26のフローチャートのステップS313以降の処理と基本的に同様であるので、その説明は省略する。
また、指定ズーム処理は、サイズ比が理想サイズ比と略同一になるまで、複数フレームに亘って実行される。図30,31で示される自動ズーム調整処理は、基本的には1フレーム毎に実行されるが、ステップS416においては、複数フレームに亘って指定ズーム処理が実行され、自動ズーム調整処理に戻るようになる。
以上の処理によれば、被写体領域のサイズが目標サイズより大きい場合には、ズームアウトするように、広角側にズームレンズを駆動させ、被写体領域のサイズが目標サイズより小さい場合には、ズームインするように、望遠側にズームレンズを駆動させることができる。したがって、撮像時に、被写体との距離が変化する場合でも、微妙なズーム操作を行うことなく、撮像範囲における被写体の大きさを略一定に保つことが可能となる。
また、ユーザによってズーム操作された場合には、ズーム操作の内容に応じて、被写体領域と顔領域とのサイズ比が、予め決められた理想サイズ比に近づくように、ズームレンズの駆動が制御される。結果として、被写体としての人物のショットにかかわらず、ズーム操作の内容に応じて、被写体が、フルショット、バストショット、アップショット等の適切なショットになるように撮像範囲を調整することができる。すなわち、微妙なズーム操作を行うことなく、撮像範囲における被写体の大きさを、所望の大きさにすることが可能となる。
そして、ユーザによるズーム操作が終了した後には、所望の大きさとなった被写体領域のサイズが目標サイズとして更新されるので、被写体との距離が変化する場合でも、撮像範囲における被写体の大きさを、所望の大きさ(ショット)で略一定に保つことができる。
以上のようにして、被写体を所望の撮像範囲でより簡単に撮像することが可能となる。
なお、以上においては、画像処理装置に、被写体領域を検出・追尾する被写体追尾部55を備えるようにしたが、フレーム毎に被写体を検出することができれば、他の被写体検出部を備えるようにしてもよい。
また、上述した自動ズーム調整処理においては、ズームレンズの駆動を制御することで、いわゆる光学ズームを調整するようにしたが、画像処理によって画像の拡大することで、いわゆる電子ズームを調整するようにしてもよい。
[制御部のさらに他の機能構成例]
ここで、図34を参照して、電子ズームを調整するようにした画像処理装置の制御部の機能構成例について説明する。
なお、図34の制御部631において、図29の制御部631に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図34の制御部631において、図29の制御部631と異なるのは、レンズ駆動制御部653に代えて、倍率制御部731を設けた点である。
倍率制御部731は、レンズ駆動制御部653および電子ズーム制御部751を備えている。
レンズ駆動制御部653は、図29の制御部631に設けられたものと同様の機能を有するので、その説明は省略する。
電子ズーム制御部751は、操作判定部313からの判定の結果を表す情報や、比較部315からの比較の結果を表す情報に基づいて、解像度変換部54を制御し、画像データにより表示部34に表示される入力画像(撮像画像)の倍率を変化させる。また、電子ズーム制御部751は、サイズ比判定部554からの、比較の結果を表す情報に基づいて、解像度変換部54を制御し、画像データにより表示部34に表示される入力画像の倍率を変化させる。
図34の制御部631においても、図29の制御部631と同様の作用効果を奏することができる。なお、図34の制御部631による自動ズーム調整処理については、図30乃至33のフローチャートを参照して説明した、図29の制御部631の処理と基本的に同様であるので、その説明は省略する。特に、レンズ駆動制御部653の制御により、ズームレンズのレンズ位置が望遠端になった場合でも、電子ズーム制御部751の制御により、さらに望遠側に画像を拡大することができるので、撮像範囲の調整の幅を広げることが可能となる。
なお、以上においては、本発明を適用した画像処理装置は、動きのある被写体を撮像するデジタルビデオカメラやデジタルスチルカメラなどの撮像装置に備えられるものとして説明してきたが、撮像装置に限らず、所定の情報処理装置から入力されてきた動画像を、表示装置等の出力装置に出力する画像処理装置に適用することができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図35は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 34 表示部, 35 制御部, 55 被写体追尾部, 71 被写体マップ生成部, 72 被写体候補領域矩形化部, 73 被写体領域選択部, 74 重み係数算出部, 111 特徴量マップ生成部, 112 帯域特徴量マップ生成部, 113 帯域特徴量マップ合成部, 114 合成特徴量マップ合成部, 131 2値化処理部, 132 ラベリング処理部, 133 矩形領域座標算出部, 134 領域情報算出部, 151 領域情報比較部, 152 被写体領域決定部, 200 入力画像, 201 被写体マップ, 221,222 矩形領域, 231 被写体枠, 311 座標情報取得部, 312 目標サイズ設定部, 313 操作判定部, 314 位置検出部, 315 比較部, 316 レンズ駆動制御部, 511 画像処理装置, 531 顔検出部, 532 制御部, 551 操作判定部, 552 座標情報取得部, 553 サイズ比算出部, 554 サイズ比判定部, 555 理想サイズ比記憶部, 556 レンズ駆動制御部, 631 制御部, 651 座標情報取得部, 652 操作判定部, 653 レンズ駆動制御部, 731 倍率制御部, 751 電子ズーム制御部

Claims (14)

  1. 被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出手段と、
    ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御手段と
    を備える画像処理装置。
  2. 前記所定値を予め記憶する記憶手段と、
    前記算出手段によって算出された前記比が、前記記憶手段によって記憶されている前記所定値と同一または略同一であるか否かを、フレーム毎に判定する判定手段とをさらに備え、
    前記倍率制御手段は、前記判定手段によって、前記比が、前記所定値と同一または略同一であると判定されるまで、前記ズーム倍率を制御する
    請求項1に記載の画像処理装置。
  3. 前記算出手段は、矩形領域としての前記注目領域および前記部分領域の高さの比を算出する
    請求項1に記載の画像処理装置。
  4. 前記算出手段は、前記撮像手段によって撮像された撮像画像において、注目する前記被写体としての人物の領域である人物領域と、前記人物領域に含まれる、前記人物の顔の領域である顔領域との比を算出する
    請求項1に記載の画像処理装置。
  5. 前記倍率制御手段は、前記ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が前記所定値と同一または略同一になるように、ズームレンズの駆動を制御する
    請求項1に記載の画像処理装置。
  6. 前記倍率制御手段は、前記ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が前記所定値と同一または略同一になるように、前記撮像画像の電子的な拡大を制御する
    請求項1に記載の画像処理装置。
  7. 前記撮像画像において、前記注目領域のサイズと、予め設定された目標サイズとを比較する比較手段をさらに備え、
    前記倍率制御手段は、前記ユーザによってズーム操作がされていない場合、前記比較手段によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する
    請求項1に記載の画像処理装置。
  8. 前記倍率制御手段は、前記注目領域のサイズと前記目標サイズとの差が、前記所定の閾値より小さくなるように前記撮像画像のズーム倍率を制御している間に、前記ユーザによってズーム操作がされたとき、前記ズーム操作に応じて前記撮像画像のズーム倍率を制御し、
    前記ユーザによってズーム操作がされた後の前記注目領域のサイズを、前記目標サイズに設定する設定手段をさらに備える
    請求項7に記載の画像処理装置。
  9. 前記撮像画像における前記注目領域の位置を検出する検出手段をさらに備え、
    前記倍率制御手段は、前記検出手段によって、前記注目領域の位置が、前記撮像画像の外端領域にあることが検出された場合、広角側へ前記撮像画像のズーム倍率を制御する
    請求項7に記載の画像処理装置。
  10. 前記倍率制御手段の制御によって、前記撮像画像のズーム倍率が広角端になった場合、前記被写体が、前記撮像画像から外れる旨を提示する提示手段をさらに備える
    請求項9に記載の画像処理装置。
  11. 被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出手段と、
    ユーザによるズーム操作に応じて、前記算出手段によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御手段と
    を備える画像処理装置の画像処理方法において、
    前記算出手段が、前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出ステップと、
    前記倍率制御手段が、ユーザによるズーム操作に応じて、前記算出ステップの処理によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御ステップと
    を含む画像処理方法。
  12. 被写体を撮像する撮像手段を備える画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、
    前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域と、前記注目領域に含まれる、前記被写体の部分の領域である部分領域との比を算出する算出ステップと、
    ユーザによるズーム操作に応じて、前記算出ステップの処理によって算出された前記比が所定値と同一または略同一になるように、前記撮像画像のズーム倍率を制御する倍率制御ステップと
    を含む処理をコンピュータに実行させるプログラム。
  13. 被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域を、所定の画像処理によって検出する検出手段と、
    前記検出手段によって検出された前記注目領域のサイズと、予め設定された目標サイズとを比較する比較手段と、
    前記比較手段によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する倍率制御手段と
    を備える画像処理装置。
  14. 被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域を、所定の画像処理によって検出する検出手段と、
    前記検出手段によって検出された前記注目領域のサイズと、予め設定された目標サイズとを比較する比較手段と、
    前記比較手段によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する倍率制御手段とを備える画像処理装置の画像処理方法において、
    前記撮像手段によって撮像された撮像画像において、注目する前記被写体の領域である注目領域を、所定の画像処理によって検出する検出ステップと、
    前記検出ステップの処理によって検出された前記注目領域のサイズと、予め設定された目標サイズとを比較する比較ステップと、
    前記比較ステップの処理によって比較された前記注目領域のサイズと前記目標サイズとの差が、所定の閾値より小さくなるように、前記撮像画像のズーム倍率を制御する倍率制御ステップと
    を含む画像処理方法。
JP2010079185A 2010-03-30 2010-03-30 画像処理装置および方法、並びにプログラム Active JP5565041B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2010079185A JP5565041B2 (ja) 2010-03-30 2010-03-30 画像処理装置および方法、並びにプログラム
TW100107796A TW201202828A (en) 2010-03-30 2011-03-08 Image-processing apparatus and method, and program
EP11762575.6A EP2424226B1 (en) 2010-03-30 2011-03-15 Image-processing apparatus and method, and program
US13/321,395 US9253388B2 (en) 2010-03-30 2011-03-15 Image processing device and method, and program
PCT/JP2011/056107 WO2011122335A1 (ja) 2010-03-30 2011-03-15 画像処理装置および方法、並びにプログラム
EP18212598.9A EP3481053B1 (en) 2010-03-30 2011-03-15 Image processing device and method, and program
KR1020117027798A KR101609018B1 (ko) 2010-03-30 2011-03-15 화상 처리 장치 및 방법, 및 기록 매체
CN201180002162.3A CN102439966B (zh) 2010-03-30 2011-03-15 图像处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079185A JP5565041B2 (ja) 2010-03-30 2010-03-30 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011209620A true JP2011209620A (ja) 2011-10-20
JP5565041B2 JP5565041B2 (ja) 2014-08-06

Family

ID=44712056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079185A Active JP5565041B2 (ja) 2010-03-30 2010-03-30 画像処理装置および方法、並びにプログラム

Country Status (7)

Country Link
US (1) US9253388B2 (ja)
EP (2) EP2424226B1 (ja)
JP (1) JP5565041B2 (ja)
KR (1) KR101609018B1 (ja)
CN (1) CN102439966B (ja)
TW (1) TW201202828A (ja)
WO (1) WO2011122335A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120948A (ja) * 2012-12-17 2014-06-30 Olympus Imaging Corp 撮像装置、告知方法、告知プログラム、及び記録媒体
JP2015043558A (ja) * 2013-07-24 2015-03-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体
JP2015043557A (ja) * 2013-07-24 2015-03-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体
JP2016025375A (ja) * 2014-07-16 2016-02-08 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5237721B2 (ja) * 2008-08-13 2013-07-17 ペンタックスリコーイメージング株式会社 撮像装置
JP5620142B2 (ja) * 2010-04-28 2014-11-05 オリンパスイメージング株式会社 撮像装置および撮像方法
US20130155305A1 (en) * 2011-12-19 2013-06-20 Sony Corporation Orientation of illustration in electronic display device according to image of actual object being illustrated
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
US9253410B2 (en) * 2013-04-25 2016-02-02 Canon Kabushiki Kaisha Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
JP6429454B2 (ja) * 2013-11-28 2018-11-28 キヤノン株式会社 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム
JP6277981B2 (ja) * 2015-03-13 2018-02-14 株式会社デンソー 情報コード画像表示システム、情報コード画像表示端末、情報コード画像表示プログラム
CN106296578B (zh) * 2015-05-29 2020-04-28 阿里巴巴集团控股有限公司 一种图像处理方法及装置
JP6574645B2 (ja) 2015-08-28 2019-09-11 キヤノン株式会社 撮像装置を制御する制御装置、撮像装置の制御方法、及びプログラム
US20190142254A1 (en) * 2016-05-17 2019-05-16 Kairos Co., Ltd. Endoscope device
JP6437066B2 (ja) * 2017-09-08 2018-12-12 キヤノン株式会社 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム
CN108024056B (zh) * 2017-11-30 2019-10-29 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
CN110874547B (zh) * 2018-08-30 2023-09-12 富士通株式会社 从视频中识别对象的方法和设备
CN109034136B (zh) * 2018-09-06 2021-07-20 湖北亿咖通科技有限公司 图像处理方法、装置、摄像设备及存储介质
WO2020107372A1 (zh) * 2018-11-30 2020-06-04 深圳市大疆创新科技有限公司 拍摄设备的控制方法、装置、设备及存储介质
JP7145440B2 (ja) * 2020-03-26 2022-10-03 パナソニックIpマネジメント株式会社 学習データ生成方法、学習データ生成装置、及び、プログラム
US20240163544A1 (en) * 2022-11-15 2024-05-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318515A (ja) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
JP2009010888A (ja) * 2007-06-29 2009-01-15 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2009033450A (ja) * 2007-07-26 2009-02-12 Casio Comput Co Ltd 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム
JP2009232151A (ja) * 2008-03-24 2009-10-08 Sony Corp 撮像装置、その制御方法およびプログラム
JP2010048994A (ja) * 2008-08-21 2010-03-04 Hoya Corp 撮像装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292852A (ja) * 1999-04-02 2000-10-20 Toshiba Corp 顔画像撮影装置
DE60045263D1 (de) 1999-09-14 2010-12-30 Toshiba Kk Vorrichtung und Verfahren zur Gesichtsphotographie
JP2009175744A (ja) * 1999-11-26 2009-08-06 Toshiba Corp 顔画像撮影装置および顔画像撮影方法
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
KR20060035198A (ko) * 2004-10-21 2006-04-26 주식회사 팬택앤큐리텔 얼굴인식 기법을 이용한 카메라 자동 줌 시스템 및 이를탑재한 이동통신 단말기 및 얼굴인식 기법을 이용한카메라 자동 줌 방법
JP2007272685A (ja) * 2006-03-31 2007-10-18 Fujifilm Corp 自動トリミング方法および装置ならびにプログラム
JP4655054B2 (ja) * 2007-02-26 2011-03-23 富士フイルム株式会社 撮像装置
JP4804398B2 (ja) 2007-03-30 2011-11-02 三洋電機株式会社 撮像装置及び撮影方法
CN101453568A (zh) * 2007-12-03 2009-06-10 佛山普立华科技有限公司 成像系统及其成像方法
JP5237721B2 (ja) 2008-08-13 2013-07-17 ペンタックスリコーイメージング株式会社 撮像装置
JP2010147715A (ja) * 2008-12-17 2010-07-01 Hoya Corp 撮像装置
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP5397059B2 (ja) 2009-07-17 2014-01-22 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP2011160379A (ja) 2010-02-04 2011-08-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011176748A (ja) 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP5803058B2 (ja) 2010-03-30 2015-11-04 ソニー株式会社 画像処理装置および方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318515A (ja) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
JP2009010888A (ja) * 2007-06-29 2009-01-15 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2009033450A (ja) * 2007-07-26 2009-02-12 Casio Comput Co Ltd 撮影装置、被写体追尾ズーミング方法及び被写体追尾ズーミングプログラム
JP2009232151A (ja) * 2008-03-24 2009-10-08 Sony Corp 撮像装置、その制御方法およびプログラム
JP2010048994A (ja) * 2008-08-21 2010-03-04 Hoya Corp 撮像装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120948A (ja) * 2012-12-17 2014-06-30 Olympus Imaging Corp 撮像装置、告知方法、告知プログラム、及び記録媒体
US9894277B2 (en) 2012-12-17 2018-02-13 Olympus Corporation Imaging device, announcing method, and recording medium for indicating whether or not a main subject is only within a first area of an image
US10250807B2 (en) 2012-12-17 2019-04-02 Olympus Corporation Imaging device, imaging method, and recording medium
JP2015043558A (ja) * 2013-07-24 2015-03-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体
JP2015043557A (ja) * 2013-07-24 2015-03-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体
JP2016025375A (ja) * 2014-07-16 2016-02-08 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体

Also Published As

Publication number Publication date
WO2011122335A1 (ja) 2011-10-06
JP5565041B2 (ja) 2014-08-06
KR101609018B1 (ko) 2016-04-04
TW201202828A (en) 2012-01-16
KR20130008441A (ko) 2013-01-22
CN102439966A (zh) 2012-05-02
US9253388B2 (en) 2016-02-02
EP3481053B1 (en) 2020-05-27
EP3481053A1 (en) 2019-05-08
EP2424226B1 (en) 2019-02-20
US20120062769A1 (en) 2012-03-15
CN102439966B (zh) 2015-04-01
EP2424226A1 (en) 2012-02-29
EP2424226A4 (en) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5565041B2 (ja) 画像処理装置および方法、並びにプログラム
JP5577793B2 (ja) 画像処理装置および方法、並びにプログラム
US9456135B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
JP2007072606A (ja) 画像処理装置及び方法
US20110188758A1 (en) Image processing device and method, and program therefor
US20150070526A1 (en) Display control device, display control method, and program
JP2011097246A (ja) 画像処理装置および方法、並びにプログラム
US9020269B2 (en) Image processing device, image processing method, and recording medium
JP5803058B2 (ja) 画像処理装置および方法、並びにプログラム
JP2011146826A (ja) 画像処理装置および方法、並びにプログラム
JP2011146827A (ja) 画像処理装置および方法、並びにプログラム
JP2017143354A (ja) 画像処理装置及び画像処理方法
KR20150032752A (ko) 촬상 장치, 촬상 방법 및 촬상 프로그램
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP2002277730A (ja) 電子カメラの自動焦点制御方法、装置及びプログラム
JP2005203880A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R151 Written notification of patent or utility model registration

Ref document number: 5565041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250