JP2009284462A - 撮像装置及び測距領域制御方法 - Google Patents

撮像装置及び測距領域制御方法 Download PDF

Info

Publication number
JP2009284462A
JP2009284462A JP2008325883A JP2008325883A JP2009284462A JP 2009284462 A JP2009284462 A JP 2009284462A JP 2008325883 A JP2008325883 A JP 2008325883A JP 2008325883 A JP2008325883 A JP 2008325883A JP 2009284462 A JP2009284462 A JP 2009284462A
Authority
JP
Japan
Prior art keywords
subject
distance
unit
amount
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008325883A
Other languages
English (en)
Other versions
JP4561919B2 (ja
Inventor
Mamoru Sugiura
守 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008325883A priority Critical patent/JP4561919B2/ja
Priority to US12/404,696 priority patent/US8228383B2/en
Publication of JP2009284462A publication Critical patent/JP2009284462A/ja
Application granted granted Critical
Publication of JP4561919B2 publication Critical patent/JP4561919B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被写体の動き量に応じて測距領域の大きさを制御する撮像装置及び測距領域制御方法を提供する。
【解決手段】被写体の動き量を検出する動き量検出部161と、動き量検出部161により検出した被写体の動き量に基づいて、被写体が撮影画面内を移動する距離を予測する移動距離予測部164と、移動距離予測部164により予測した被写体が撮影画面内を移動する距離を包含するように測距領域の大きさを制御する測距領域制御部165とを備える。
【選択図】図3

Description

本発明は、被写体の動き量に応じて測距領域の大きさを制御する撮像装置及び測距領域制御方法に関する。
従来、動きのある被写体への測距動作については、動体検出機能として提供されている。例えば動体検出機能としては、被写体の動きを検出して合焦動作(測距動作)を行うための領域(以下、測距領域という。)を切り替える手法が提案されている(例えば、特許文献1参照)。
特開平07−23272号公報
しかしながら、従来の動体検出機能では、測距領域を切り替えてその大きさを可変できるものの、撮影画面内を動く被写体に対する測距領域の追従動作が適正にされていなかった。
本発明は、上記従来の課題を解決するものであり、撮影画面内を動く被写体に対して測距領域の追従動作を適正に行う撮像装置及び測距領域制御方法を提供することを目的とする。
すなわち、本発明に係る撮像装置は、被写体の画像信号に基づいて被写体の動き量を検出する動き量検出部と、上記被写体の種別を検出するための複数の種別情報を記憶する種別情報記憶部と、上記種別情報記憶部に記憶された上記種別情報と上記被写体の画像信号とに基づいて、上記被写体の種別を検出する種別検出部と、上記動き量検出部により検出した上記被写体の動き量と上記種別検出部により検出した上記被写体の種別とに基づいて、上記被写体が撮影画面内を移動する距離を予測する移動距離予測部と、上記移動距離予測部により予測した上記被写体が撮影画面内を移動する距離に基づいて、測距領域の大きさを制御する測距領域制御部とを備える。
また、本発明に係る撮像装置は、被写体の画像信号に基づいて被写体の動き量を検出する動き量検出部と、上記動き量検出部により検出した被写体の動き量に基づいて、上記被写体が撮影画面内を移動する距離を予測する移動距離予測部と、上記移動距離予測部により予測した上記被写体が撮影画面内を移動する距離に基づいて、測距領域の大きさを制御する測距領域制御部とを備える。
また、本発明に係る測距領域制御方法は、被写体の画像信号に基づいて被写体の動き量を検出する動き量検出工程と、上記被写体の動き量に基づいて、上記被写体が撮影画面内を移動する距離を予測する移動距離予測工程と、上記予測した被写体が撮影画面内を移動する距離に基づいて、測距領域の大きさを制御する測距領域制御工程とを有する。
本発明によれば、動きのある被写体に対する測距領域を正確に限定できるため、被写体の測距を正確に行うことが可能となる。
以下、図面を参照しながら、発明を実施するための最良の形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.撮像装置の構成
2.カメラ信号処理部の構成
3.カメラ制御部の構成
4−1.本実施の形態に係る測距領域制御方法
4−2.測距枠の移動量及び測距枠の大きさの計算方法
4−3.具体的な測距領域制御方法
<1.撮像装置の構成>
まず、撮像装置1の構成例について、図1を参照して説明する。撮像装置1は、光学系10と、露出駆動部11と、撮像素子12と、カメラ信号処理部13と、バッファメモリ14と、画像処理部15と、カメラ制御部16と、レンズドライバ17と、モータ18と、モータ19と、ヒューマンインターフェイス制御部(以下、HI制御部)20と、シャッタボタン21と、選択位置検出部22とから構成される。
光学系10は、例えばレンズ等によって構成され、被写体像を入射する。露出駆動部11では、光学系10を介して入射した被写体像を適切な露出制御のなされた入射光として撮像素子12に供給する。
撮像素子12は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)で構成され、露出駆動部11から供給される被写体像に基づく光信号を電気信号に変換する処理、いわゆる光電変換処理を実行する。撮像素子12は、光電変換によって生成された電気信号をカメラ信号処理部13に供給する。
カメラ信号処理部13には、撮像素子12により光電変換された電気信号が供給される。カメラ信号処理部13は、撮像素子12から供給された電気信号に対して、所定の処理を実行して画像信号を生成する。カメラ信号処理部13は、例えば、リニアマトリクス処理、ホワイトバランス処理、γ補正処理等を実行する。カメラ信号処理部13は、生成した画像信号をバッファメモリ14を介して画像処理部15に供給する。また、カメラ信号処理部13は、カメラ制御に必要な情報をカメラ制御部16に供給する。
画像処理部15は、バッファメモリ14から供給された画像信号に対して、目的に応じた画像処理を実行する。画像処理部15は、画像処理として、例えば、色調補正や輝度補正といった画像処理、ビデオ信号の生成、エンコード処理等を実行する。画像処理部15は、所定の画像処理を施した画像信号をHI制御部20、図示しない記録部、EVF(Electronic View Finder)に供給する。記録部は、例えば半導体メモリ、ハードディスク等の光磁気ディスク、光ディスクで構成することができる。
カメラ制御部16は、カメラ信号処理部13及びHI制御部20から供給された情報に基づいて、レンズドライバ17を介してモータ18、モータ19を駆動させ、レンズの位置制御による焦点制御や焦点距離制御を実行する。具体的に、カメラ制御部16は、後に詳述するカメラ信号処理部13の検波回路132から供給される検波結果に基づいて、フォーカス制御パラメータ、焦点制御パラメータ等のカメラ制御パラメータを算出するための演算処理を行う。そして、カメラ制御部16は、演算処理により決定した制御パラメータに基づいて焦点制御や焦点距離制御を実行する。また、カメラ制御部16は、カメラ信号処理部13及びHI制御部20から供給された情報に基づいて、露出駆動部11により露出制御を実行する。
また、カメラ制御部16は、後に詳述するように、被写体の動き量を検出し、被写体の動き量に基づいて被写体が移動する距離を予測し、予測した被写体が移動する距離に基づいて測距領域の大きさを制御する。すなわち、カメラ制御部16は、被写体が移動する距離を包含するように測距領域の大きさを制御する。したがって、撮像装置1は、動きのある被写体に対する測距領域を正確に限定できるため、被写体の測距を正確に行うことが可能となる。
HI制御部20には、例えば画像処理部15からの画像信号と、カメラ制御部16からの制御情報と、シャッタボタン21からの記録開始及び停止情報と、選択位置検出部22からの情報とが供給される。HI制御部20は、選択位置検出部22で選択された位置を検出する。また、HI制御部20は、例えばシャッタボタン21からの情報に基づいて画像処理部15に対して制御情報を供給し、データ記録の制御を実行する。
シャッタボタン21は、ユーザによって操作可能なスイッチであり、例えば2段階スイッチで構成される。シャッタボタン21は、画像の記録開始、終了に関する情報をHI制御部20に供給する。
選択位置検出部22は、画像処理部15から供給される画像データを表示するEVF等の表示部(図示せず)に表示される被写体の画像を選択するための部位である。選択位置検出部22は、例えばタッチパネルで構成され、表示部に重ねて構成される。選択位置検出部22は、選択された座標情報をHI制御部20に供給する。
<2.カメラ信号処理部の構成>
続いて、カメラ信号処理部13の詳細な構成例について説明する。図2に示すように、カメラ信号処理部13は、I/F回路131、検波回路132、カメラ画像信号処理回路133、顔検出回路134、メモリI/F回路135、I/F回路136とから構成される。
I/F回路131には、図1に示す撮像素子12により光電変換された電気信号が供給される。I/F回路131は、光電変換された電気信号をバス137に結合された検波回路132と、カメラ画像信号処理回路133とに供給する。
検波回路132には、I/F回路131から撮像素子12により光電変換された電気信号が供給される。検波回路132は、I/F回路131から供給された電気信号に対して所定の検波処理を行い、検波結果をI/F回路136を介してカメラ制御部16に供給する。
カメラ画像信号処理回路133には、I/F回路131から撮像素子12により光電変換された電気信号が供給される。カメラ画像信号処理回路133は、I/F回路131から供給された電気信号に対して、所定の信号処理を施して画像信号を生成する。カメラ画像信号処理回路133は、例えばリニアマトリクス処理、ホワイトバランス処理、γ補正処理等のカメラ信号処理を実行する。カメラ画像信号処理回路133は、生成した画像信号を顔検出回路134とメモリI/F回路135とに供給する。
顔検出回路134には、カメラ画像信号処理回路133から画像信号が供給される。
顔検出回路134は、カメラ画像信号処理回路133から供給された画像信号に基づいて顔検出処理を実行し、顔検出処理の結果をI/F回路136を介してカメラ制御部16に供給する。顔検出回路134では、例えば撮影画像の色彩判定処理等の既存技術により顔検出処理を実行する。
メモリI/F回路135では、カメラ画像信号処理回路133から供給された画像信号をバッファメモリ14に供給する。I/F回路136は、バス138を介して検波回路132、カメラ画像信号処理回路133、及び顔検出回路134に結合されており、例えばカメラ制御部16から出力された測距領域制御情報を検波回路132に供給する。
<3.カメラ制御部の構成>
続いて、カメラ制御部16の構成例について図3を用いて説明する。すなわち、カメラ制御部16は、動き量検出部161と、種別情報記憶部162と、種別検出部163と、移動距離予測部164と、測距領域制御部165とを備える。なお、図3に示すカメラ制御部16の構成は一例であり、これに限定されるものではない。例えば、カメラ制御部16は、上述したハードウェアによる機能をソフトウェアで実現するようにしてもよい。
動き量検出部161は、被写体の画像信号に基づいて被写体の動き量を検出する。動き量検出部161は、例えば、カメラ信号処理部13から供給された画像信号に基づいて画像の動きベクトル(移動量及び方向)を検出する。動き量検出部161は、検出した被写体の動き量に関する情報を移動距離予測部164に供給する。
動き量検出部161は、例えば、被写体の動き量が現在の被写体の検波領域の大きさの半分以上であるかどうかを判断する。動き量検出部161は、被写体の動き量が現在の被写体の検波領域の大きさの半分以上である場合には、検出した被写体の動き量に関する情報を移動距離予測部164に供給する。また、動き量検出部161は、被写体の動き量が現在の被写体の検波領域の半分より小さい場合には、処理速度を向上させるために、そのままの座標情報をカメラ信号処理部13の検波回路132に供給する。なお、動き量検出部161は、選択位置検出部22のタッチにより合焦動作を行うモードにあるとき、HI制御部20から選択位置検出部22により検出した座標情報に基づく被写体の動き量を検出するようにしてもよい。
種別情報記憶部162は、被写体の種別を検出するための複数の種別情報を記憶する。種別情報記憶部162には、種別情報として、例えば顔乃至身体、年齢、車両、動物等の動きのある被写体に関する情報が記憶されている。種別情報記憶部162は、これらの種別情報を種別検出部163に供給する。
種別検出部163は、種別情報記憶部162に記憶された種別情報とカメラ信号処理部13から供給された被写体の画像信号とに基づいて被写体の種別を検出し、被写体の種別に関する検出結果を移動距離予測部164に供給する。
近年、顔検出機能によって測距領域を被写体に追従させる機能を備えるカメラが提案されている。しかしながら、一般的に、被写体の種別によって動き方が異なるため、被写体の測距精度を向上させるためには、被写体の種別に応じて動きの予測量を補正することが好ましい。そこで、種別検出部163では、例えば、カメラ信号処理部13から供給された被写体の画像信号と種別情報記憶部162に記憶された種別情報とに基づいて、例えば、顔乃至身体、年齢、車両、動物等の被写体の種別を検出する。
被写体種別の検出の一例として、被写体が人間の大人であるか子供であるかを判定する場合について説明する。種別検出部163は、顔検出回路134から出力された顔画像における基準位置として両目の位置に基づいて正規化を行い、正規化した顔画像の特徴量として各部における輝度を抽出する。そして、種別検出部163は、顔画像の各部における輝度の値と、種別情報記憶部162に記憶された情報とに基づいて大人であるか子供であるかの判定処理を行う。なお、この例では、基準位置として両目の位置を用いることとしたが、顔に含まれる両目以外の他の器官を用いるようにしてもよい。例えば、顔に含まれる鼻の位置や、両目及び鼻のように複数の器官の位置を用いるようにしてもよい。
移動距離予測部164には、動き量検出部161により検出した被写体の動き量と種別検出部163により検出した被写体の種別情報とが供給される。移動距離予測部164は、これらの被写体の動き量と被写体の種別情報とに基づいて被写体が移動する距離を予測し、予測結果を測距領域制御部165に供給する。例えば、図4に示すように、選択位置検出部22で検出した被写体の顔が選択され、選択後に逐次行われる検出結果に応じて合焦動作の対象となる範囲を示す枠30を被写体の顔に追尾させる際の移動距離予測部164の動作について説明する。この場合、移動距離予測部164は、画面中で人の顔が移動するときに予測される速度の範囲内で、被写体の動き予測量を制限する。
また、移動距離予測部164は、種別検出部163による種別検出結果に応じて、撮影画面内における被写体の動き予測量を補正する。移動距離予測部164は、例えば種別検出部163により検出した被写体の顔が低年齢である場合や動物である場合には、激しい動きに応じた予測量に補正する。この場合、移動距離予測部164は、測距枠が被写体の動きの方向だけでなく、その反対方向に動くことも考慮して、測距枠を大きめに設定する。すなわち、移動距離予測部164は、被写体が現在の動き方向及びその反対方向に動くことを考慮して、測距枠を広範囲に設定する。また、移動距離予測部164は、検出した被写体が車両である場合には、速度が大きいものの一定方向の動きである確率が高いため、概ね一定方向に予測をするようにしてもよい。
このように撮像装置1では、被写体の種別に応じて被写体の動き量を補正することで、動きのある被写体への測距領域を正確に限定することができるため、測距をより正確に行うことが可能となる。
また、移動距離予測部164は、焦点距離に応じて被写体移動距離の予測量を補正するようにしてもよい。一般的に、焦点距離が長くなるとカメラがぶれやすく、手振れ等の影響を受けやすいため、画面内の被写体の動き量も大きくなる。そこで、移動距離予測部164は、焦点距離を考慮して、例えば焦点距離が長くなる場合、すなわち、ズームの場合には被写体の移動量を多めに予測する。また、移動距離予測部164は、焦点距離が短くなる場合、すなわち、ワイドの場合には画面内の被写体の動き量が比較的小さくなるため、焦点距離が長くなる場合と比べて被写体の移動量を少なめに予測する。このようにして、移動距離予測部164は、焦点距離に応じて被写体の移動量の予測量を補正することで、被写体の移動量の予測精度を向上させることができる。なお、上述した移動距離予測部164における処理については、次に説明する測距領域制御部165において行うようにしてもよい。
測距領域制御部165には、移動距離予測部164による予測結果が供給される。測距領域制御部165は、移動距離予測部164により予測した被写体が移動する距離に基づいて、合焦動作を行う領域を示す測距領域の位置及び大きさを制御する。すなわち、測距領域制御部165は、移動距離予測部164により予測した被写体が移動する距離を包含するように測距領域の位置及び大きさを制御する。
続いて、測距領域制御部165は、決定した測距領域の位置及び大きさ等の制御パラメータをカメラ信号処理部13の検波回路132に供給する。
<4−1.本実施の形態に係る測距領域制御方法>
続いて、被写体として人間の顔を追尾する場合を例にして、本実施の形態に係る測距領域制御方法を、従来の測距領域制御方法と比較しながら説明する。
まず、図5を参照しながら、従来の測距領域制御方法について説明する。図5(A)に示すように、被写体となる顔28を検出し、顔28を囲むように枠30を設定する。この従来の測距領域制御方法においては、枠30で囲まれた領域が、合焦動作の対象となる範囲(測距領域)となる。続いて、図5(B)に示すように、顔28が移動すると、図5(C)に示すように再び顔28を検出して枠30を表示する。
このように従来の方法では、枠30に囲まれた領域を測距領域としているため、図5(B)に示すように顔28が移動し始めてから再び図5Cに示すように枠30が表示されるまでの間、検波処理を行うことができない。つまり、従来の方法では、検波処理を行う際に時間を要するととともに、被写体が移動している間の焦点制御等を正確に行うことができない。
そこで、本実施の形態に係る測距領域制御方法では、被写体の動き量と被写体の種別(属性)とに基づいて被写体が移動する距離を予測し、予測結果に基づいて測距領域の位置及び大きさを制御する。続いて、本実施の形態に係る測距領域制御方法について、図6を参照しながら説明する。
例えば、図6(A)に示すように、カメラ制御部16は、被写体となる人間の顔28を検出し、顔28を囲むように検出枠32を設定する。また、図6(A)の状態において、カメラ制御部16は、単位時間△T内における顔28の動きベクトル34を検出するとともに、動きベクトル34と被写体の種別とに基づいて次回の単位時間△Tにおける測距領域となる測距枠35を設定する。この測距枠35の設定方法に関しては、後に詳述する。続いて、カメラ制御部16は、図6(B)に示すように顔28が移動すると、図6(C)に示すように、顔28を再び検出して検出枠32を設定する。また、図6(C)に示す状態においては、カメラ制御部16は、検出した動きベクトル34と被写体の種別とに基づいて次回の測距領域を示す測距枠35を設定する。
このように、本実施の形態に係る測距領域制御方法では、図6(A)に示すように、検出した動きベクトル34と被写体の種別とに基づいて次回の単位時間△Tにおける測距枠35を設定することにより、リアルタイムで検波処理を行うことが可能となる。また、本実施の形態に係る測距領域制御方法では、検出した被写体の種別に関する情報を次回の測距に利用することで、より正確に次の単位時間△T後に予測される測距領域を設定することができる。したがって、本実施の形態に係る測距領域制御方法によれば、従来の方法と比較して、より正確に合焦動作を行うことが可能となる。
続いて、撮像装置1による測距領域制御処理の一例について、図7に示すフローチャートを参照しながら説明する。
ステップS10では、カメラ制御部16は、測距領域を決定する処理を開始する。例えば被写体の動き量に応じて測距領域を変化させるモードに設定されているときにシャッタボタン21が押下されると、カメラ制御部16は、測距動作を開始する。
ステップS11では、カメラ制御部16は、座標情報を取得する。具体的に、カメラ制御部16は、座標情報として、例えば、検波する予定の位置や大きさに関する情報を取得する。なお、カメラ制御部16は、測距領域を決定する処理の開始直後は所定の初期化情報を取得し、次回からの処理ではその直前の座標情報、すなわち直前の測距領域の位置及び大きさに関する情報を取得する。
ステップS12では、カメラ制御部16は、被写体検出がされているか否かを判断する。カメラ制御部16は、被写体が検出されていると判断した場合には、ステップS13の処理に進み、被写体が検出されていないと判断した場合には、ステップS16の処理に進む。
ステップS13では、カメラ制御部16は、被写体の動き量が所定量以上であるか否かを判断する。具体的には、カメラ制御部16は、動き量検出部161により被写体の動き量の大きさが所定量以上であると判断した場合(ステップS13:Yes)には、ステップS14の処理に進む。また、カメラ制御部16は、動き量検出部161により被写体の動き量の大きさが所定量より小さいと判断した場合(ステップS13:No)には、ステップS16の処理に進む。なお、カメラ制御部16は、このステップS13における処理を後述する図8に示すステップS21の処理の後に行うようにしてもよい。
ステップS14では、カメラ制御部16は、被写体の動き量に基づいて測距中の被写体の移動量を予測する。例えば、移動距離予測部164は、動き量検出部161から供給された被写体の動き量に基づいて、被写体が撮影画面内を移動する距離を予測する。具体的には、後に詳述するように、カメラ制御部16は、測距枠の移動量及び次回の測距枠の大きさを計算する。
ステップS15では、カメラ制御部16は、測距領域座標に予測した移動量を加算する。すなわち、測距領域制御部165は、移動距離予測部164により予測した被写体が撮影画面内を移動する距離に基づいて測距領域座標の位置と大きさを変更する。
ステップS16では、カメラ制御部16は、座標情報を検波回路132へ出力する。すなわち、カメラ制御部16は、ステップS15の処理で得られた測距領域座標を検波回路132へ出力する。
ステップS17では、カメラ制御部16は、被写体の測距領域を決定する処理を終了する。
このように、撮像装置1によれば、従来の動体検出機能により測距枠を追従させる場合と比較して、動きのある被写体に対する測距領域を正確に限定できるため、測距動作をより正確に行うことが可能となる。
続いて、図8に示すフローチャートを参照しながら図7に示すステップS14の詳細な処理、すなわち、カメラ制御部16による動き量予測処理の一例について説明する。
ステップS20では、カメラ制御部16は、被写体の動き量の予測処理を開始する。
ステップS21では、カメラ制御部16は、被写体の種別が検出されているか否かを判断する。カメラ制御部16は、種別検出部163により被写体の種別が検出されている場合(ステップS21:Yes)には、ステップS22の処理に進み、被写体の種別が検出されていない場合(ステップS21:No)には、ステップS23の処理に進む。
ステップS22では、カメラ制御部16は、被写体の種別に応じて移動量の予測量を補正する。具体的には、後に詳述するように、例えば、被写体の種別に応じてパラメータを変更することにより、移動量の予測量を補正する。移動距離予測部164は、例えば被写体が子供である場合には、一般的に大人よりも動き量が多いと予想されるため、動きの予測量を正方向、すなわち現在の被写体の移動方向に補正する。このように、移動距離予測部164は、被写体種別に応じて動きの予測量を補正することで、動きの予測精度を向上させることができる。
ステップS23では、カメラ制御部16は、移動距離予測部164により焦点距離に応じて被写体の移動量の予測量を補正する。このようにして、カメラ制御部16は、焦点距離に応じて被写体の移動量の予測量を補正することで、被写体の移動量の予測精度を向上させることができる。
なお、カメラ制御部16は、図8に示す動き量予測処理において、被写体種別が検出された場合に種別に応じて移動量の予測量を補正するものとしたが、この例に限定されるものではない。例えば、カメラ制御部16は、図7に示すステップS12において、被写体の検出とともに被写体種別を検出するようにしてもよい。
<4−2.測距枠の移動量及び測距枠の大きさの計算方法>
続いて、図9のフローチャートを参照しながら、上述した図7のステップS14で実行される測距枠の移動量及び測距枠の大きさの計算方法の一例について説明する。
ステップS41では、カメラ制御部16は、被写体の動きベクトルに基づいて次回の測距枠の中心座標を決定する。例えば、図10に示すように水平方向の右向きをx軸の正方向、垂直方向の下向きをy軸の正方向、被写体の中心座標を(x,y)としたとき、カメラ制御部16は、次のようにして測距枠の中心座標を決定する。すなわち、カメラ制御部16は、単位時間△T内の動きベクトル34aと下記の(1)式及び(2)式とにしたがって、次の単位時間△T後に予測される測距枠35aの中心座標(x,y)を決定する。
=x+aA−sgn(A)c (1)
=y+bA−sgn(A)d (2)
(1)式及び(2)式において、Aはx方向の動きベクトル、Aはy方向の動きベクトルを表している。また、a、b、c及びdは、それぞれ定数であり、例えば被写体の種別に応じて変更可能である。また、sgn(A)及びsgn(A)は、符号関数を示しており、A及びAに対しその符号に応じて1、−1、0のいずれかを返す関数である。例えば、A>0の場合には、sgn(A)=1となり、A=0の場合には、sgn(A)=0となり、A<1の場合には、sgn(A)−1となる。
ステップS42では、カメラ制御部16は、被写体の種別に基づいて測距枠の大きさを決定する。図11に示すように、被写体の検出枠32bのx軸方向(水平方向)の長さをα、y軸方向(垂直方向)の長さをβとしたとき、カメラ制御部16は、単位時間△T内の動きベクトル34bと下記(3)式及び(4)式とにしたがって、次の△T後に予測される測距枠35bのα及びβを決定する。
α=α+e|A| e|A|≧0 (3)
β=β+f|A| f|A|≧0 (4)
(3)式及び(4)式において、Aはx軸方向の動きベクトル、Aはy軸方向の動きベクトルを表している。また、e及びfは、それぞれ定数であり、例えば被写体の種別に応じて変更可能である。
また、カメラ制御部16は、上記(3)式及び(4)式の代わりに、下記(5)式及び(6)式を用いて、測距枠35bのα及びβを決定してもよい。
α=α+g(|A|+1) g(|A|+1)≧1 (5)
β=β+h(|A|+1) h(|A|+1)≧1 (6)
(5)式及び(6)式において、Aはx軸方向の動きベクトル、Aはy軸方向の動きベクトルを表している。また、g及びhは、それぞれ定数であり、例えば被写体の種別に応じて変更可能である。
ステップS43では、カメラ制御部16は、被写体の移動速度が一定の閾値以下であるかどうかを判断する。カメラ制御部16は、例えば、単位時間△Tあたりの撮影画面内を移動する被写体の移動量に基づいて、被写体の移動速度が一定の閾値以下であるかどうかを判断する。カメラ制御部16は、被写体の移動速度が一定の閾値以下であると判断した場合(S43:Yes)には、ステップS44の処理に進み、被写体の移動速度が一定の閾値より大きいと判断した場合(S43:No)には、一連の処理を終了する。なお、このステップS43の処理は、上述した図7のステップS13の処理に相当する。
ステップS44では、カメラ制御部16は、測距枠の中心座標及び測距枠の大きさを補正する。
このように、本実施の形態に係る測距領域制御方法によれば、検出した動きベクトルと被写体の種別とに基づいて次回の測距領域を決定することにより、リアルタイムで検波処理を行うことが可能となる。また、本実施の形態に係る測距領域制御方法によれば、被写体の種別に関する情報を次回の測距に利用することで、より正確に次の単位時間△Tにおける測距領域を決定することができる。
また、本実施の形態に係る測距領域制御方法では、被写体の検出枠の端部を基準座標として、次回の測距領域を設定してもよい。続いて、図12に示すフローチャートを参照しながら、検出枠の端部を基準座標とした場合の次回の測距領域を設定するための処理方法の一例について説明する。
ステップS51では、カメラ制御部16は、動きベクトルに基づいて開始点、つまり、次回の測距枠の位置及び/又は大きさを決定する際に基準となる検出枠の座標を決定する。例えば、カメラ制御部16は、図13に示すように検出枠32cと動きベクトル34cを検出した場合には、検出枠32cの端部であって、被写体の移動方向とは反対方向の端部の座標(x,y)を基準座標として決定する。
ステップS52では、カメラ制御部16は、被写体の移動速度が一定の閾値以下であるかどうかを判断する。カメラ制御部16は、被写体の移動速度が一定の閾値より大きいと判断した場合(S52:No)には、ステップS53の処理に進み、被写体の移動速度が一定の閾値以下であると判断した場合(S52:Yes)には、ステップS54の処理に進む。このステップS52の処理は、上述した図9のステップS43の処理に相当するものである。
ステップS53では、カメラ制御部16は、例えば、図13に示すように水平方向の右向きをx軸の正方向、垂直方向の下向きをy軸の正方向としたとき、次のようにして測距枠の基準座標を決定する。すなわち、カメラ制御部16は、単位時間△T内の動きベクトル34cと上述した(1)式及び(2)式とにしたがって次の単位時間△T後に予測される測距枠35cの開始点の座標(x,y)を設定する。
ステップS54では、カメラ制御部16は、動きベクトルのベクトル方向とは反対方向に測距枠の大きさを拡大させる。
続いて、図14に示すフローチャートを参照しながら、検出枠の端部を基準座標として測距枠の大きさを設定する場合の処理方法の一例について説明する。
ステップS61では、カメラ制御部16は、動きベクトルに基づいて開始点、つまり、変更する際の基準となる座標を決定する。このステップS61の処理は、上述した図12のステップS51の処理に相当するものである。
ステップS62では、カメラ制御部16は、被写体の種別と単位時間△T内の動きベクトルとに基づいて、次の単位時間△T後に予測される測距枠の大きさを計算する。例えば、カメラ制御部16は、上述した図9のステップS42における処理と同様に、上記(3)式及び(4)式若しくは(5)式及び(6)式にしたがって測距枠の大きさを計算する。
<4−3.具体的な測距領域制御方法>
以下、図15〜図20を参照しながら、被写体の種別毎に本実施の形態に係る測距領域制御方法を説明する。
まず、図15を参照しながら、被写体として人間の顔を追尾する場合のカメラ制御部16の処理動作の一例について説明する。例えば、カメラ制御部16は、被写体が顔の場合には、上述した動物を追尾する場合と同様に、被写体となる顔を検出枠36、その中心38のように検出する。また、カメラ制御部16は、単位時間△T内の動きベクトル40が検出されたとき、次の△T後に予測される測距領域を示す測距枠42の中心44を、動きベクトル40に合わせて移動させる。例えば、測距領域制御部165は、動きベクトル40と上記(1)式及び(2)式とにしたがって次の△T後に予測される測距枠42の中心座標を移動させる。
また、カメラ制御部16は、中心44を有する測距枠42を、動きベクトル40に合わせて検出枠36よりも拡大させるため、被写体の動き量を加味した係数を検出枠35の高さと幅にかける。例えば、測距領域制御部165は、上記(3)式及び(4)若しくは上記(5)式及び(6)式にしたがって測距枠42の大きさを決定する際の定数を変化させる。また、測距領域制御部165は、例えば被写体の動き量が小さい場合には、被写体となる顔が反対方向に動くことを考慮して、上述した図12のステップS54の処理で説明したように移動方向と反対の方向にも測距枠42を拡大させてもよい。
続いて、図16を参照しながら、被写体として人間の身体を追尾する場合のカメラ制御部16の処理動作の一例について説明する。なお、図16において、図15と同一の構成については同一の符号を付すものとし、詳細な説明を省略する。例えば、カメラ制御部16では、被写体となる身体46を検出枠48及びその中心50として検出する。そして、測距領域制御部165は、単位時間△T内の動きベクトル52が検出されたとき、次の△T後に予測される測距枠54の中心56を動きベクトル52に合わせて移動させる。また、測距領域制御部165は、中心56を有する測距枠54を、動きベクトル52に合わせて検出枠48よりも拡大させるため、身体46の動き量を加味した係数を枠の高さと幅にかける。
ここで、被写体が身体の場合には、垂直より水平方向の動き量が比較的大きくなり、かつ、検出枠48が垂直方向に長くなる。そこで、測距領域制御部165は、測距枠54の高さ方向への係数、例えば、上記(3)式及び(4)若しくは上記(5)式及び(6)式における定数を微小とするか、又は、測距枠54の高さ方向への係数をかけないようにしてもよい。また、測距領域制御部165は、被写体の動き量が小さいときには、例えば、被写体となる身体が移動方向とは反対方向に動くことを考慮して、移動方向とは反対方向にも測距枠を拡大させるようにしてもよい。
また、移動距離予測部164は、複数の被写体が検出された場合には、被写体の大きさに応じた重みづけを行うようにしてもよい。例えば、図16に示すように、カメラ制御部16において顔と身体を同時に検出する場合には、検出枠36の△T内の動きベクトル40及び検出枠48の△T内の動きベクトル52を加味して次の△T後の測距枠42及び測距枠54を決定する。
一例として、検出枠36が図17に示す通常時の固定された大きさのAF枠58よりも小さい場合の測距領域制御方法について説明する。移動距離予測部164は、例えば検出枠36の高さ方向の長さβfが、AF枠58の高さ方向の長さβcよりも小さい場合には、動きベクトル40及び動きベクトル52を単純に平均するのではなく、動きベクトル52の方に重み付けするのが好ましい。このように、移動距離予測部164はが検出枠36の高さ方向の長さβfがAF枠58の高さ方向の長さβcよりも小さい場合等には、検出枠36の検出精度の信用度が検出枠48よりも低いとみなすことで、測距時の計算コストを抑えることができる。また、測距領域制御部165は、移動距離予測部164により検出枠36の高さ方向の長さβfがAF枠58の高さ方向の長さβcよりも小さい場合には、動きベクトル52のみで測距枠42及び測距枠54の移動量及び方向を決定してもよい。
また、カメラ制御部16は、顔のみ、身体のみ又は顔と身体との双方が存在する場合において、被写体が大人であるか子供であるかを検出できた場合は、この検出結果を△T後の測距枠の動きベクトルを決定する際に加味してもよい。例えば、測距領域制御部165は、被写体が子供の場合には、移動量が比較的大きく移動方向も変わりやすいため、被写体が大人の場合よりも△T後の測距枠を大きく取るようにしてもよい。また、測距領域制御部165は、被写体が子供の場合には、移動方向とは逆方向へ移動する可能性も高くなるため、△T後の測距枠42又は測距枠54を現在の移動方向とは逆方向へも拡大させてもよい。
また、被写体の検出が可能であったとしても、被写体が小さい場合、人の体や動物等のように被写体の大きさや形が限定しにくい形状である場合や、検出した被写体の数が多く、被写体を群として捉えた方が良い場合がある。このような場合に、測距領域制御部165は、例えば、選択位置検出部22としてタッチパネルの画面中心を基準にして測距枠の大きさや位置を変化させることで、測距時の計算コストを抑えることができる。例えば、測距領域制御部165は、検出された人の数が多いとき、画面内の人の分布や動き量に合わせて測距枠の大きさや位置を変化させる。このように被写体が人である場合には、画面の水平方向への移動が多いと考えられるため、測距領域制御部165は、測距枠をその高さより幅の大きさを多めに拡大させるようにすることが好ましい。
具体的に、図18を参照しながら、複数の顔が検出された場合について説明する。測距領域制御部165は、例えば複数の顔59a〜59dが検出され、それぞれの顔59a〜59dに枠60a〜60dが設定されているとき、これらの顔59a〜59dを包含するように測距枠61を設定する。この場合において、測距領域制御部165は、顔59a〜59dを全て包含するように測距枠61を設定してもよいが、例えば背景へのピント引かれ等の影響を軽減するために、必ずしも全ての顔59a〜59dを包含させなくてもよい。また、測距領域制御部165は、例えば顔59a〜59dが、それぞれ単位時間△Tあたりの動きベクトル63a〜63dを有するとき、動きベクトル63a〜63dを包含するように、次回△T後の測距枠62を設定することができる。
続いて、図19を参照しながら、動物を追尾する場合のカメラ制御部16の処理動作について説明する。例えば、測距領域制御部165は、被写体となる動物を検出枠70と、その検出枠70の中心71のように検出し、かつ、その単位時間△T内の動きベクトル72があったとき、次の△T後に予測される検出枠の中心74を動きベクトル72に合わせて移動させる。そして、測距領域制御部165は、中心74を有する次回の測距枠73を動きベクトル72に合わせて検出枠70よりも拡大させるため、動物の動き量を加味した係数を検出枠70の高さと幅にかける。なお、測距領域制御部165は、被写体の動き量が小さいときには、例えば、被写体となる動物が反対方向に動くことを考慮して、現在の移動方向とは反対方向にも測距枠73を拡大させるようにしてもよい。
続いて、図20を参照しながら、被写体として車両を追尾する場合のカメラ制御部16の処理動作の一例について説明する。種別検出部163では、例えば、被写体となる車両79を種別情報記憶部162に記憶された車両の前後左右等のテンプレートに基づいて検出する。そして、測距領域制御部165は、車両を検出枠80及び検出枠80の中心81として検出し、かつ、単位時間△T内の車両79の動きベクトル82が検出されたとき、次の△T後に予測される測距枠83の中心84を動きベクトル82に合わせて移動させる。また、測距領域制御部165は、動き量に基づいて次回の測距枠83を検出枠80よりも拡大させるため、動き量を加味した係数を測距枠83の枠の高さと幅にかける。ここで、例えば、車両のように被写体の動きが速い場合には、時間ごとの動き量の差が小さく、かつ、急激に逆方向へ動く可能性もないと考えられる。そこで、測距領域制御部165は、車両79の動き以上に測距枠83を拡大させなくてもよい。
このように、撮像装置1は、被写体の種別を考慮して移動距離予測部164により予測した被写体が移動する距離を包含するように、測距領域制御部165により被写体の測距領域の位置及び大きさを制御する。したがって、撮像装置1では、動きのある被写体に対する測距領域を正確に限定することが可能となる。つまり、撮像装置1は、例えば被写体ではなく背景の高周波成分のレベルが高い、つまり背景のコントラストが強い場所等での撮影でも、フォーカスのボケや背景にピントが合ったりすることを防止することができるため、測距をより正確に行うことが可能となる。
続いて、図21に示すフローチャートを参照しながら、選択位置検出部22としてタッチパネルを用いた場合の被写体選択処理の一例について説明する。
ステップS70では、HI制御部20は、例えば撮像装置1が画面のタッチにより合焦動作を行うモードにあるとき、タッチパネル処理を開始する。
ステップS71では、HI制御部20は、座標情報を初期化する。すなわち、HI制御部20は、内部の座標情報バッファを初期化する。
ステップS72では、HI制御部20は、タッチパネルでタッチ動作が行われているか否かを判断する。具体的には、HI制御部20は、タッチ動作が行われている場合(ステップS72:Yes)には、ステップS73の処理に進み、タッチ動作が行われていない場合(ステップS72:No)には、ステップS75の処理に進む。
ステップS73では、HI制御部20は、タッチパネルでタッチされた位置の座標を取得する。
ステップS74では、HI制御部20は、タッチパネルでタッチされた位置を画面上に表示する。HI制御部20は、例えば図4に示すように、タッチパネルでタッチされた位置に応じて合焦動作の対象となる範囲を示す枠30を表示する。
ステップS75では、HI制御部20は、座標情報をカメラ制御部16に出力する。具体的に、HI制御部20は、ステップS72において、タッチパネルでタッチがされていないと判断した場合には、タッチされた座標情報がないため初期化された情報のままカメラ制御部16に出力する。なお、HI制御部20は、カメラ制御部16に出力する情報として、座標情報とは別にタッチされたか否かを示すフラグを設定しておき、カメラ制御部16へ出力することにより、タッチの有無を伝達するようにしてもよい。
ステップS76では、HI制御部20は、タッチパネル処理を終了する。
続いて、図22に示すフローチャートを参照しながら、HI制御部20から座標情報を取得したカメラ制御部16による検波座標処理の一例について説明する。
ステップS80では、カメラ制御部16は、検波座標の処理を開始する。具体的に、カメラ制御部16は、撮像装置1が画面のタッチにより合焦動作を行うタッチ合焦処理モードにあるとき、合焦処理を開始する。
ステップS81では、カメラ制御部16には、HI制御部20から座標情報が入力される。すなわち、HI制御部20から入力される座標情報は、図21に示すステップS75において、HI制御部20がカメラ制御部16に出力するものに相当する。
ステップS82では、カメラ制御部16は、座標情報があるかどうかを判断する。具体的に、カメラ制御部16は、座標情報がある場合(ステップS82:Yes)には、タッチパネルでタッチが行われたものと判断して、ステップS83の処理に進む。また、カメラ制御部16は、座標情報がない場合(ステップS82:No)には、タッチパネルでタッチが行われていないものと判断して、ステップS84の処理に進む。なお、カメラ制御部16は、タッチの有無の判断をするために、上述したタッチの有無を示すフラグを使用するようにしてもよい。
ステップS83では、カメラ制御部16は、HI制御部20から供給された座標情報に応じて、タッチされた座標を検波座標とする。
ステップS84では、カメラ制御部16は、座標情報がないため、通常状態の検波座標とする。すなわち、カメラ制御部16は、デフォルトされた枠位置を検波座標とする。
ステップS85では、カメラ制御部16は、検波座標処理を終了する。
このように、撮像装置1によれば、画面内に複数の被写体を自動的に検出した場合に、ユーザに選択された被写体の動き量を検出することで、ユーザの意図に反した優先順位づけがなされてしまうのを防止することができる。すなわち、撮像装置1は、ユーザの意図に応じた測距動作を実行することを可能とする。
本実施形態に係る撮像装置の構成例を示すブロック図である。 本実施形態に係る撮像装置のカメラ信号処理部の構成例を示すブロック図である。 本実施形態に係る撮像装置のカメラ制御部の構成例を示すブロック図である。 本実施形態に係る撮像装置の表示画面の一例を示す図である。 従来の測距領域制御方法について説明するための図である。 本実施形態に係る測距領域制御方法の一例について説明するための図である。 本実施の形態に係る測距領域決定処理の一例を説明するためのフローチャートである。 本実施の形態に係る動き量予測処理の一例を説明するためのフローチャートである。 本実施の形態に係る測距枠の移動量及び測距枠の大きさの決定方法の一例を説明するためのフローチャートである。 本実施の形態に係る測距枠の中心座標の決定方法の一例を説明するための図である。 本実施の形態に係る測距枠の大きさの決定方法の一例を説明するための図である。 本実施の形態に係る測距枠の移動量及び測距枠の大きさの決定方法の一例を説明するためのフローチャートである。 本実施の形態に係る測距枠の座標の決定方法の一例を説明するための図である。 本実施の形態に係る測距枠の大きさの決定方法の一例を説明するためのフローチャートである。 人間の顔を追尾する場合のカメラ制御部の処理動作の一例を説明するための図である。 人間の顔及び身体を追尾する場合のカメラ制御部の処理動作の一例を説明するための図である。 固定AF枠を説明するための図である。 複数の顔が検出された場合のカメラ制御部の処理動作の一例を説明するための図である。 動物を追尾する場合のカメラ制御部の処理動作の一例を説明するための図である。 車両を追尾する場合のカメラ制御部の処理動作の一例を説明するための図である。 本実施の形態に係る撮像装置によるタッチパネル処理の一例を説明するためのフローチャートである。 本実施の形態に係る撮像装置による検波座標処理の一例を説明するためのフローチャートである。
符号の説明
1 撮像装置、10 光学系、11 露出駆動部、12 撮像素子、13 カメラ信号処理部、14 バッファメモリ、15 画像処理部、16 カメラ制御部、17 レンズドライバ、18 モータ、19 モータ、20 HI制御部、21 シャッタボタン、22 選択位置検出部、131 I/F回路、132 検波回路、133 カメラ画像信号処理回路、134 顔検出回路、135 メモリI/F回路、136 I/F回路、161 動き量検出部、162 種別情報検出部、163 種別検出部、164 移動距離予測部、165 測距領域制御部

Claims (8)

  1. 被写体の画像信号に基づいて被写体の動き量を検出する動き量検出部と、
    上記被写体の種別を検出するための複数の種別情報を記憶する種別情報記憶部と、
    上記種別情報記憶部に記憶された上記種別情報と上記被写体の画像信号とに基づいて、上記被写体の種別を検出する種別検出部と、
    上記動き量検出部により検出した上記被写体の動き量と上記種別検出部により検出した上記被写体の種別とに基づいて、上記被写体が撮影画面内を移動する距離を予測する移動距離予測部と、
    上記移動距離予測部により予測した上記被写体が撮影画面内を移動する距離に基づいて、測距領域の大きさを制御する測距領域制御部と
    を備える撮像装置。
  2. 上記測距領域制御部は、上記被写体が複数検出された場合には、上記複数の被写体の分布に基づいて上記測距領域の大きさを制御する請求項1記載の撮像装置。
  3. 上記測距領域制御部は、上記動き量検出部により検出した上記被写体の動き量が所定量以下である場合には、上記測距領域を所定の大きさに固定する請求項1記載の撮像装置。
  4. 上記移動距離予測部は、焦点距離に応じて上記被写体移動距離の予測量を補正する請求項1記載の撮像装置。
  5. 上記移動距離予測部は、上記被写体が複数検出された場合には、上記被写体の大きさに応じて重みづけを行って、上記被写体移動距離の予測量を求める請求項1記載の撮像装置。
  6. 上記被写体の画像を表示する表示部と、
    上記表示部に表示された上記被写体の画像をユーザの操作に応じて選択する選択部と、
    上記選択部により選択した位置を検出する選択位置検出部とをさらに備え、
    上記動き量検出部は、上記選択位置検出部により検出した被写体の動き量を検出する請求項1記載の撮像装置。
  7. 被写体の画像信号に基づいて被写体の動き量を検出する動き量検出部と、
    上記動き量検出部により検出した被写体の動き量に基づいて、上記被写体が撮影画面内を移動する距離を予測する移動距離予測部と、
    上記移動距離予測部により予測した上記被写体が撮影画面内を移動する距離に基づいて、測距領域の大きさを制御する測距領域制御部と
    を備える撮像装置。
  8. 被写体の画像信号に基づいて被写体の動き量を検出する動き量検出工程と、
    上記被写体の動き量に基づいて、上記被写体が撮影画面内を移動する距離を予測する移動距離予測工程と、
    上記予測した被写体が撮影画面内を移動する距離に基づいて、測距領域の大きさを制御する測距領域制御工程と
    を有する測距領域制御方法。
JP2008325883A 2008-04-21 2008-12-22 撮像装置、画像処理装置及び画像処理方法 Expired - Fee Related JP4561919B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008325883A JP4561919B2 (ja) 2008-04-21 2008-12-22 撮像装置、画像処理装置及び画像処理方法
US12/404,696 US8228383B2 (en) 2008-04-21 2009-03-16 Image pickup apparatus and method for controlling ranging area based on detected object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008110746 2008-04-21
JP2008325883A JP4561919B2 (ja) 2008-04-21 2008-12-22 撮像装置、画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2009284462A true JP2009284462A (ja) 2009-12-03
JP4561919B2 JP4561919B2 (ja) 2010-10-13

Family

ID=41200805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008325883A Expired - Fee Related JP4561919B2 (ja) 2008-04-21 2008-12-22 撮像装置、画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US8228383B2 (ja)
JP (1) JP4561919B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133016A (ja) * 2010-12-20 2012-07-12 Canon Inc 自動合焦装置、その制御方法及びプログラム
JP2012137675A (ja) * 2010-12-27 2012-07-19 Canon Inc 画像処理装置及びその制御方法、プログラム並びに記憶媒体
JP2012242759A (ja) * 2011-05-23 2012-12-10 Canon Inc 撮像装置、その制御方法及びプログラム
JP2014126670A (ja) * 2012-12-26 2014-07-07 Canon Inc 撮像装置及びその制御方法、並びにプログラム
WO2015182021A1 (ja) * 2014-05-26 2015-12-03 ソニー株式会社 撮像制御装置、撮像装置および撮像制御方法
JP2019045768A (ja) * 2017-09-05 2019-03-22 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP7034585B2 (ja) 2016-12-02 2022-03-14 キヤノン株式会社 フォーカス制御装置、撮像装置、フォーカス制御方法およびフォーカス制御プログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2479835B (en) * 2008-10-31 2013-09-18 Hewlett Packard Development Co Method and digital imaging appliance adapted for selecting a focus setting
WO2010085221A1 (en) * 2009-01-21 2010-07-29 Thomson Licensing Method to control media with face detection and hot spot motion
JP5322799B2 (ja) * 2009-06-18 2013-10-23 オリンパスイメージング株式会社 撮像装置及び撮像方法
KR20110087530A (ko) * 2010-01-26 2011-08-03 주식회사 팬택 목표물에 대한 위치 정보 획득이 가능한 이동통신 단말기 및 이동통신 단말기를 이용한 목표물의 정보 획득 방법
JP5609270B2 (ja) * 2010-05-28 2014-10-22 ソニー株式会社 撮像装置、撮像システム、撮像装置の制御方法およびプログラム
EP2614413B1 (en) * 2010-07-02 2017-03-01 Thomson Licensing Method and apparatus for object tracking and recognition
KR101710624B1 (ko) 2010-07-27 2017-02-27 삼성전자주식회사 객체의 모션 벡터를 이용하여 자동 촬영 기능을 수행하는 디지털 영상 촬영 방법, 디지털 영상 촬영 장치 및 상기 방법을 기록한 기록 매체
TWI475471B (zh) * 2011-09-19 2015-03-01 Acer Inc 利用觸控螢幕輔助視訊壓縮的方法及監控系統
CN103037210B (zh) * 2011-09-30 2016-07-06 宏碁股份有限公司 利用触控屏幕辅助视频压缩的方法及监控系统
WO2013081985A1 (en) * 2011-11-28 2013-06-06 Magna Electronics, Inc. Vision system for vehicle
JP2013191163A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9779305B2 (en) * 2012-04-05 2017-10-03 Panasonic Intellectual Property Corporation Of America Video analyzing device, video analyzing method, program, and integrated circuit
TWI511547B (zh) * 2012-04-10 2015-12-01 Acer Inc 利用旋轉操作輔助視訊壓縮的方法及其影像擷取裝置
CN103279943B (zh) * 2013-04-18 2017-01-25 深圳市中瀛鑫科技股份有限公司 目标入侵检测方法及装置、视频监控系统
IN2015CH03209A (ja) * 2015-06-25 2015-07-10 Wipro Ltd
JP7172601B2 (ja) * 2016-11-25 2022-11-16 ソニーグループ株式会社 フォーカス制御装置とフォーカス制御方法とプログラムおよび撮像装置
JP6551491B2 (ja) * 2017-11-06 2019-07-31 京セラドキュメントソリューションズ株式会社 監視システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03149512A (ja) * 1989-11-07 1991-06-26 Sony Corp フォーカス制御回路
JPH05328204A (ja) * 1992-05-22 1993-12-10 Canon Inc 自動焦点調節装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2209901B (en) * 1987-09-11 1992-06-03 Canon Kk Image sensing device
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
JP3149512B2 (ja) 1992-03-26 2001-03-26 セイコーエプソン株式会社 液晶表示装置及び電子機器
JPH0723272A (ja) 1993-06-30 1995-01-24 Canon Inc カメラ
US5801778A (en) * 1996-05-23 1998-09-01 C-Cube Microsystems, Inc. Video encoding with multi-stage projection motion estimation
EP0878965A3 (en) * 1997-05-14 2000-01-12 Hitachi Denshi Kabushiki Kaisha Method for tracking entering object and apparatus for tracking and monitoring entering object
US6363160B1 (en) * 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6901110B1 (en) * 2000-03-10 2005-05-31 Obvious Technology Systems and methods for tracking objects in video sequences
EP1134981A1 (en) * 2000-03-17 2001-09-19 STMicroelectronics S.r.l. Automatic setting of optimal search window dimensions for motion estimation
US6760465B2 (en) * 2001-03-30 2004-07-06 Intel Corporation Mechanism for tracking colored objects in a video sequence
KR100459476B1 (ko) * 2002-04-04 2004-12-03 엘지산전 주식회사 차량의 대기 길이 측정 장치 및 방법
US6757434B2 (en) * 2002-11-12 2004-06-29 Nokia Corporation Region-of-interest tracking method and device for wavelet-based video coding
US7251346B2 (en) * 2002-11-19 2007-07-31 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program
US7333133B2 (en) * 2003-03-31 2008-02-19 Spatial Integrated Systems, Inc. Recursive least squares approach to calculate motion parameters for a moving camera
CN100448267C (zh) * 2004-02-06 2008-12-31 株式会社尼康 数码相机
US7733412B2 (en) * 2004-06-03 2010-06-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
US8159536B2 (en) * 2004-06-14 2012-04-17 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system
WO2007044044A2 (en) * 2004-12-21 2007-04-19 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
JP4515332B2 (ja) * 2005-05-30 2010-07-28 オリンパス株式会社 画像処理装置及び対象領域追跡プログラム
US7580560B2 (en) * 2005-07-18 2009-08-25 Mitutoyo Corporation System and method for fast template matching by adaptive template decomposition
JP4516516B2 (ja) * 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
EP1966648A4 (en) * 2005-12-30 2011-06-15 Nokia Corp METHOD AND DEVICE FOR ADJUSTING THE AUTOFOCUS OF A VIDEO CAMERA BY FOLLOWING A REGION OF INTEREST
US7840085B2 (en) * 2006-04-06 2010-11-23 Qualcomm Incorporated Electronic video image stabilization
KR100803611B1 (ko) * 2006-11-28 2008-02-15 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US8401304B2 (en) * 2007-07-27 2013-03-19 Sportvision, Inc. Detecting an object in an image using edge detection and morphological processing
JP4930302B2 (ja) * 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP2009075868A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 画像から対象を検出する装置、方法およびプログラム
US8374388B2 (en) * 2007-12-28 2013-02-12 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
US7924317B2 (en) * 2008-03-12 2011-04-12 Aptina Imaging Corporation Method and apparatus for reducing motion blur in digital images
JP4687772B2 (ja) * 2008-11-06 2011-05-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03149512A (ja) * 1989-11-07 1991-06-26 Sony Corp フォーカス制御回路
JPH05328204A (ja) * 1992-05-22 1993-12-10 Canon Inc 自動焦点調節装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133016A (ja) * 2010-12-20 2012-07-12 Canon Inc 自動合焦装置、その制御方法及びプログラム
JP2012137675A (ja) * 2010-12-27 2012-07-19 Canon Inc 画像処理装置及びその制御方法、プログラム並びに記憶媒体
JP2012242759A (ja) * 2011-05-23 2012-12-10 Canon Inc 撮像装置、その制御方法及びプログラム
JP2014126670A (ja) * 2012-12-26 2014-07-07 Canon Inc 撮像装置及びその制御方法、並びにプログラム
WO2015182021A1 (ja) * 2014-05-26 2015-12-03 ソニー株式会社 撮像制御装置、撮像装置および撮像制御方法
CN106464783A (zh) * 2014-05-26 2017-02-22 索尼公司 图像拾取控制设备、图像拾取设备和图像拾取控制方法
JPWO2015182021A1 (ja) * 2014-05-26 2017-04-20 ソニー株式会社 撮像制御装置、撮像装置および撮像制御方法
US10277796B2 (en) 2014-05-26 2019-04-30 Sony Corporation Imaging control apparatus, imaging apparatus, and imaging control method
CN106464783B (zh) * 2014-05-26 2020-01-21 索尼公司 图像拾取控制设备、图像拾取设备和图像拾取控制方法
JP7034585B2 (ja) 2016-12-02 2022-03-14 キヤノン株式会社 フォーカス制御装置、撮像装置、フォーカス制御方法およびフォーカス制御プログラム
JP2019045768A (ja) * 2017-09-05 2019-03-22 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP7005236B2 (ja) 2017-09-05 2022-01-21 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
US8228383B2 (en) 2012-07-24
JP4561919B2 (ja) 2010-10-13
US20090262230A1 (en) 2009-10-22

Similar Documents

Publication Publication Date Title
JP4561919B2 (ja) 撮像装置、画像処理装置及び画像処理方法
JP5159515B2 (ja) 画像処理装置およびその制御方法
US9311712B2 (en) Image processing device and image processing method
US8373761B2 (en) Shake correcting apparatus and method thereof in digital photographing apparatus
US8682040B2 (en) Image processing apparatus, image processing method, and image capturing apparatus
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
US8994783B2 (en) Image pickup apparatus that automatically determines shooting mode most suitable for shooting scene, control method therefor, and storage medium
US8648960B2 (en) Digital photographing apparatus and control method thereof
US11184524B2 (en) Focus control device, focus control method, program, and imaging device
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
US11388331B2 (en) Image capture apparatus and control method thereof
US10284782B2 (en) Image stabilization apparatus, control method thereof, and image capture apparatus
KR101538654B1 (ko) 손 떨림 보정 동작을 제어하는 디지털 촬영장치 및 이의제어방법
US9383626B2 (en) Imaging apparatus, focus control method, and program
JP2008283379A (ja) 撮像装置及びプログラム
US9143684B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
EP2690859B1 (en) Digital photographing apparatus and method of controlling same
US11523048B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法
US20230370714A1 (en) Image processing apparatus, image processing method, and image capture apparatus
JP2023099384A (ja) 画像処理装置、画像処理方法および撮像装置
JP2020021250A (ja) 撮像装置およびその制御方法
JP2022140058A (ja) 画像処理装置および画像処理方法
JP2019220889A (ja) 撮像装置、撮像装置の制御方法、および、プログラム
JP2010206275A (ja) 電子カメラ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4561919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees