JP2022099120A - 被写体追尾装置およびその制御方法 - Google Patents

被写体追尾装置およびその制御方法 Download PDF

Info

Publication number
JP2022099120A
JP2022099120A JP2020212895A JP2020212895A JP2022099120A JP 2022099120 A JP2022099120 A JP 2022099120A JP 2020212895 A JP2020212895 A JP 2020212895A JP 2020212895 A JP2020212895 A JP 2020212895A JP 2022099120 A JP2022099120 A JP 2022099120A
Authority
JP
Japan
Prior art keywords
motion vector
subject
image
region
subject tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020212895A
Other languages
English (en)
Other versions
JP2022099120A5 (ja
Inventor
勇太 川村
Yuta Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020212895A priority Critical patent/JP2022099120A/ja
Priority to US17/549,632 priority patent/US20220198683A1/en
Publication of JP2022099120A publication Critical patent/JP2022099120A/ja
Publication of JP2022099120A5 publication Critical patent/JP2022099120A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Abstract

【課題】 被写体が複数の動きで構成されている場合でも、リアルタイムに高精度な被写体追尾を行うことを可能とする。【解決手段】 画像間の動きベクトルを算出する動きベクトル算出手段と、画像から特徴量領域を決定する特徴量領域決定手段と、前記動きベクトル及び前記特徴量領域を基に、前記動きベクトルが算出された領域ごとの重みの分布である重みマップを作成する重みマップ作成手段と、前記重みマップを基に、被写体の追尾を行う被写体追尾手段と、を備えることを特徴とする被写体追尾装置。【選択図】 図2

Description

本発明は撮像された画像内の被写体を検出および追尾する機能を有する被写体追尾装置およびその制御方法に関する。
デジタルカメラにおいて、得られた画像データから画像の特定の領域の特徴量についてテンプレートを作成し、テンプレートマッチングを行うことで被写体を追尾し、その被写体に対してピント、明るさ、色を好適な状態に合わせて撮影する手法が知られている。
特許文献1では、追尾に利用する特徴量を持った領域をテンプレートとし、追尾対象とする領域に変化があった場合でも、テンプレートに重みを付けることで、精度よく追尾を行うことができる。
特開2012-69084号公報
しかし、この手法は変化が多く発生する部分を事前に把握しておく必要があり、例えば、走っている人のような複数の動きから構成され、変化部分を事前に把握できない被写体を精度よく追尾するのは困難という問題がある。
上記課題に鑑み、本発明は、複数の動きから構成される被写体の追尾であっても高精度で行うことができる被写体追尾装置およびその制御方法を提供することを目的とする。
上記課題を解決するために、本発明の被写体追尾装置は、画像間の動きベクトルを算出する動きベクトル算出手段と、画像から特徴量領域を決定する特徴量領域決定手段と、前記動きベクトル及び前記特徴量領域を基に、前記動きベクトルが算出された領域ごとの重みの分布である重みマップを作成する重みマップ作成手段と、前記重みマップを基に、被写体の追尾を行う被写体追尾手段と、を備えることを特徴とする。
また、本発明の被写体追尾装置の制御方法は、画像間から動きベクトルを算出する動きベクトル算出ステップと、画像から特徴量領域を決定する特徴量領域決定ステップと、前記動きベクトル及び前記特徴量領域を基に、前記動きベクトルが算出された領域ごとの重みの分布である重みマップを作成する重みマップ作成ステップと、前記重みマップを基に、被写体の追尾を行う被写体追尾ステップと、を有することを特徴とする。
本発明によれば、被写体が複数の動きから構成されている場合でも高精度な被写体追尾を行うことが可能となる。
第1の実施形態の撮像装置の構成を示すブロック図 第1の実施形態の被写体追尾部の構成を示すブロック図 第1の実施形態の全体の処理のフローチャート 第1の実施形態の被写体追尾のフローチャート 第1の実施形態の重みマップ作成に関する図 第1の実施形態におけるテンプレートマッチングに関する図
以下、添付画像を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴のすべてが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付画像においては、同一もしくは同様に構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
(撮像装置の構成)
図1は、本実施形態における被写体追尾装置の一例である撮像装置100の機能構成例を示すブロック図である。撮像装置100は動画および静止画の撮影ならびに記録が可能である。撮像装置100内の各機能ブロックは、バス160を介して互いに通信可能に接続されている。撮像装置100の動作は、CPU151(中央演算処理装置)がプログラムを実行して各機能ブロックを制御することにより実現される。
本実施形態の撮像装置100は、撮像された画像から特定の被写体を検出し、検出した被写体を継続して複数の画像で追尾する被写体追尾部161を有する。被写体追尾部161では、撮像対象の被写体の位置やサイズを検出する被写体検出機能、検出された領域と類似した領域の探索を継続的に実行することにより追尾する被写体追尾機能、画像間の動きベクトルを求める動きベクトル検出機能を備える。被写体追尾部161の構成及び動作の詳細については後述する。
撮影レンズ101(レンズユニット)は、固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、フォーカスレンズ131、ズームモータ112、絞りモータ104、およびフォーカスモータ132を有する。固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、フォーカスレンズ131は撮像光学系を構成する。なお、便宜上レンズ102、111、121、131を1枚のレンズとして図示しているが、それぞれ複数のレンズで構成されてもよい。また、撮影レンズ101は撮像装置100に着脱可能な交換レンズとして構成されてもよい。
絞り制御部105は絞り103を駆動する絞りモータ104の動作を制御し、絞り103の開口径を変更する。ズーム制御部113は、ズームレンズ111を駆動するズームモータ112の動作を制御し、撮影レンズ101の焦点距離(画角)を変更する。
フォーカス制御部133は、撮像素子141から得られる1対の焦点検出用信号(A像およびB像)の位相差に基づいて撮影レンズ101のデフォーカス量およびデフォーカス方向を算出する。そしてフォーカス制御部133は、デフォーカス量およびデフォーカス方向をフォーカスモータ132の駆動量および駆動方向に変換する。この駆動量および駆動方向に基づいてフォーカス制御部133はフォーカスモータ132の動作を制御し、フォーカスレンズ131を駆動することにより、撮影レンズ101の焦点状態を制御する。このように、フォーカス制御部133は位相差検出方式の自動焦点検出(AF)を実施する。なお、フォーカス制御部133は撮像素子141から得られる画像信号から得られるコントラスト評価値に基づくコントラスト検出方式のAFを実行してもよい。
撮影レンズ101によって撮像素子141の結像面に形成される被写体像は、撮像素子141に配置された複数の画素のそれぞれが有する光電変換素子により電気信号(画像信号)に変換される。本実施形態では、撮像素子141に、水平方向にm、垂直方向にn(n,mは複数)の画素が行列状に配置されており、各画素には2つの光電変換素子(光電変換領域)が設けられている。撮像素子141からの信号読み出しは、CPU151からの指示に従って撮像制御部143が制御する。
撮像素子141から読み出された画像信号は撮像信号処理部142に供給される。撮像信号処理部142は、ノイズ低減処理、A/D変換処理、自動利得制御処理などの信号処理を画像信号に適用し、撮像制御部143に出力する。撮像制御部143は撮像信号処理部142から受信した画像信号をRAM(ランダム・アクセス・メモリ)154に蓄積する。
変化取得部162は、例えばジャイロや加速度センサ、電子コンパス等の位置姿勢センサにより構成され、撮像装置の撮影シーンに対する位置姿勢変化を計測する。取得した位置姿勢変化はRAM154に保存され、被写体追尾部161から参照される。
画像処理部152は、RAM154に蓄積された画像データに対して予め定められた画像処理を適用する。画像処理部152が適用する画像処理には、ホワイトバランス調整処理、色補間(デモザイク)処理、ガンマ補正処理といった所謂現像処理のほか、信号形式変換処理、スケーリング処理などがあるが、これらに限定されない。また、自動露出制御(AE)に用いるための、被写体輝度に関する情報なども画像処理部152で生成することができる。特定の被写体領域に関する情報は、被写体追尾部161より供給され、例えばホワイトバランス調整処理に利用してもよい。なお、コントラスト検出方式のAFを行う場合、AF評価値を画像処理部152が生成してもよい。画像処理部152は、処理した画像データをRAM154に保存する。
RAM154に保存された画像データを記録する場合、CPU151は画像処理データに例えば所定のヘッダを追加するなどして、記録形式に応じたデータファイルを生成する。この際、CPU151は必要に応じて圧縮解凍部153で画像データを符号化して情報量を圧縮する。CPU151は、生成したデータファイルを例えばメモリカードのような記録媒体157に記録する。
また、RAM154に保存された画像データを表示する場合、CPU151は表示部150での表示サイズに適合するように画像データを画像処理部152でスケーリングした後、RAM154のうちビデオメモリとして用いる領域(VRAM領域)に書き込む。表示部150は、RAM154のVRAM領域から表示用の画像データを読み出し、例えばLCDや有機ELディスプレイなどの表示装置に表示する。
本実施形態の撮像装置100は、動画撮影時(撮影スタンバイ状態や動画記録中)に、撮影された動画を表示部150に即時表示することにより、表示部150を電子ビューファインダー(EVF)として機能させる。表示部150をEVFとして機能させる際に表示する動画像およびそのフレーム画像を、ライブビュー画像もしくはスルー画像と呼ぶ。また、撮像装置100は、静止画撮影を行った場合、撮影結果をユーザが確認できるように、直前に撮影した静止画を一定時間表示部150に表示する。これらの表示動作についても、CPU151の制御によって実現される。
操作部156は、ユーザが撮像装置100に指示を入力するためのスイッチ、ボタン、キー、タッチパネルなどである。操作部156を通じた入力はバス160を通じてCPU151が検知し、CPU151は入力に応じた動作を実現するために各部を制御する。
CPU151は例えばCPUやMPUなどのプログラマブルプロセッサを1つ以上有し、例えば記憶部155に記憶されたプログラムをRAM154に読み込んで実行することにより各部を制御し、撮像装置100の機能を実現する。CPU151はまた、被写体輝度の情報に基づいて露出条件(シャッタースピードもしくは蓄積時間、絞り値、感度)を自動的に決定するAE処理を実行する。被写体輝度の情報は例えば画像処理部152から取得することができる。CPU151は、例えば人物の顔など、特定被写体の領域を基準として露出条件を決定することもできる。
CPU151は、動画撮影時には絞りは固定とし、電子シャッタスピード(蓄積時間)とゲインの大きさで露出を制御する。CPU151は決定した蓄積時感とゲインの大きさを撮像制御部143に通知する。撮像制御部143は通知された露出条件に従った撮影が行われるように撮像素子141の動作を制御する。
被写体追尾部161の結果は、例えば焦点検出領域の自動設定に用いることができる。この結果、特定の被写体領域に対する追尾AF機能を実現できる。また、焦点検出領域の輝度情報に基づいてAE処理を行ったり、焦点検出領域の画素値に基づいて画像処理(例えばガンマ補正処理やホワイトバランス調整処理など)を行ったりすることもできる。ほかにも、被写体追尾部161にて算出された画像間の動きベクトルを利用して、像ブレの補正を行うこともできる。具体的には、被写体追尾部161にて算出された画像間の動きベクトルを画像処理部152が参照し、撮像装置のブレによる成分を算出する。そのブレを補正するように撮影レンズ101中のレンズを駆動することで像ブレの補正を行うことが可能である。また、不図示ではあるが、撮像素子141に駆動素子を設け、撮像装置のブレを補正するように撮像素子141の位置を制御することも可能である。
なお、CPU151は、現在の被写体領域の位置を表す指標(例えば領域を囲む矩形枠)を表示画像に重畳表示させてもよい。
バッテリ159は、電源管理部158により管理され、撮像装置100の全体に電源を供給する。記憶部155は、CPU151が実行するプログラム、プログラムの実行に必要な設定値、GUIデータ、ユーザ設定値などを記憶する。例えば操作部156の操作により電源OFF状態から電源ON状態への移行が指示されると、記憶部155に格納されたプログラムがRAM154の一部に読み込まれ、CPU151がプログラムを実行する。
(被写体追尾部の構成)
図2は、被写体追尾部161の機能構成例を示すブロック図である。
被写体検出部201は、画像処理部152から時系列に画像信号が順次供給され、各画像に含まれる撮像対象の特定の被写体を検出し、検出した被写体が含まれる被写体領域を特定する。被写体検出部201は、被写体検出結果として、画像内における被写体領域の位置情報、検出精度の信頼性などの情報を出力する。
特徴量登録部202は、被写体検出部201によって検出された被写体領域の画像データを特徴量領域として登録する。
動きベクトル算出部203は、逐次供給される画像から、画像間の動きベクトルを算出する。
被写体動きベクトル算出部204は、特徴量登録部202によって登録された特徴量領域の全体の動きベクトルを算出する。
被写体の局所領域の動きベクトル算出部205は、特徴量登録部202によって登録された特徴量領域の局所領域の動きベクトルを算出する。
信頼度算出部206は、動きベクトル算出部203によって算出された動きベクトルの信頼度を算出する。
重みマップ作成部207は、被写体の局所領域の動きベクトル算出部205によって算出された特徴量領域の局所領域の動きベクトルと、信頼度算出部206によって算出された信頼度を使用し、登録された特徴量領域の重みマップの作成を行う。
追尾部208では、重みマップ作成部207に作成された重みマップを使用し、逐次供給される画像から特徴量登録部202によって登録された特徴量領域との類似度の高い領域を被写体領域として探索する。探索結果は、画像内における被写体領域、信頼性、被写体の動きベクトルなどの情報を備え、CPU151など各種処理ブロックで利用される。
(撮像装置の処理の流れ)
図3のフローチャートを参照して、本実施形態の撮像装置100による、被写体検出、被写体追尾、画像間の動きベクトルを検出する動きベクトル検出処理を伴う動画撮影動作に関して説明する。本フローチャートの各フローは、CPU151あるいはCPU151の指示により各部が実行する。動画撮影動作は、撮影スタンバイ時や動画記録時に実行される。なお、撮影スタンバイ時と動画記録時とでは取り扱う画像(フレーム)の解像度など、細部において異なる。一方で、被写体検出、被写体追尾、被写体及び背景の動きベクトルを検出する動きベクトル検出処理に係る処理の内容は基本的に同様であるため、以下では特に区別せずに説明する。
S301でCPU151は撮像装置100の電源がONかどうか判定し、ONと判定されなければ処理を終了し、ONと判定されれば処理をS302に進める。
S302でCPU151は各部を制御し、1フレーム分の撮像処理を実行して処理をS303に進める。ここでは1対の視差画像と、1画面分の撮像画像が生成され、RAM154に格納される。
S303でCPU151は、被写体追尾部161に被写体検出、被写体追尾、画像間の動きベクトルを検出する動きベクトル検出処理を実行させる。処理の詳細については後述する。被写体追尾部161から被写体領域の位置、大きさ、動きベクトルがCPU151に通知され、RAM154に格納される。CPU151は通知された被写体領域に基づいて焦点検出領域を設定する。
S304でCPU151は、フォーカス制御部133に焦点検出処理を実行させる。フォーカス制御部133は、1対の視差画像のうち焦点検出領域に含まれる複数の画素のうち、同一行に配置された複数の画素から得られる複数のA信号をつなぎ合わせてA像(信号)を、複数のB信号をつなぎ合わせてB像(信号)を生成する。そして、フォーカス制御部133は、A像とB像との相対的な位置をずらしながらA像とB像の相関量を演算し、A像とB像との類似度が最も高くなる相対位置をA像とB像との位相差(ずれ量)として求める。さらに、フォーカス制御部133は位相差をデフォーカス量およびデフォーカス方向に変換する。
S305でフォーカス制御部133はS304で求めたデフォーカス量およびデフォーカス方向に対応するレンズ駆動量および駆動方向に従ってフォーカスモータ132を駆動し、フォーカスレンズ131を移動させる。レンズ駆動処理が終了すると、処理をS301に戻す。
以後、S301で電源スイッチがONであると判定されなくなるまで、S302~S305の処理を繰り返し実行する。これにより、時系列的な複数の画像に対して被写体領域の探索が行われ、被写体追尾機能が実現される。なお、図3では被写体追尾処理を毎フレーム実行するものとしているが、処理負荷や消費電力の軽減を目的として数フレームごとに行うようにしてもよい。
(被写体追尾処理の流れ)
図4のフローチャートを参照して被写体追尾部161の処理の流れについて説明する。本フローチャートの各フローは、CPU151あるいはCPU151の指示により各部が実行する。
まずS401において、撮像制御部143から被写体追尾部161へ入力画像が供給される。
S402において、被写体検出部201は、撮像制御部143から入力された画像に対して、中心位置とサイズが異なる複数の評価領域を設定し各々の評価領域から被写体を検出する。被写体検出の手法は任意の公知の手法を用いてよい。例えば、CNN(Convolutinal Neutral Networks)による特定被写体の特徴抽出処理を用いて自動で検出しても良いし、操作部156からのタッチ操作の信号を入力とし、ユーザが指定しても良い。
S403において、特徴量登録部202は、被写体検出部201によって検出された被写体領域もしくは、後述する追尾部206によって検出され、RAM154に格納されている、前フレームの被写体領域を特徴量領域として登録する。本実施形態では特徴量領域の登録方法は、1フレーム目は被写体検出部201の結果を採用し、以降のフレームでは前フレームの追尾部206の結果を採用する。
S404において、動きベクトル算出部203は、S401によって逐次供給される画像から、現フレームと1フレーム前の画像を使用し、各画素の動きベクトル(第1の動きベクトル)を算出する。第1の動きベクトル算出方法は、任意の公知の手法を用いて良く、本実施例では、LucasKanade法を用いる。時刻tのフレームにおける、座標(x,y)の輝度Y(x,y,t)とし、Δt後のフレームにおける、移動後の画素の輝度をY(x+Δx,y+Δy,t+Δt)とし、数式1を解くことで、ΔxとΔyを各画素の動きベクトルとして算出する。
[数式1]
Y(x,y,t)=Y(x+Δx,y+Δy,t+Δt)
なお、ここで算出される第1の動きベクトルは、連続した撮像画像の単位時間当たりの移動量、すなわち撮像装置の移動量を示すものである。この第1の動きベクトルの値を画像処理部152が参照し、レンズの駆動を行うことで、像ブレの補正の制御を行うことが可能である。
S405において、被写体全体の動きベクトル(第2の動きベクトル)を算出する被写体動きベクトル算出部204は、S404において算出された第1の動きベクトルと、S403において登録された特徴量領域から、被写体の動きベクトルを1本算出する。第2の動きベクトル算出方法は、S404において算出した複数ベクトルを、特徴量領域内において、ヒストグラム処理をし、最大個数のビンを被写体の動きベクトルとして1本算出する。
S406において、被写体の局所領域の動きベクトル(第3のベクトル)を算出する被写体の局所領域の動きベクトル算出部205は、S404によって算出された第1の動きベクトルと、S405において算出された第2の動きベクトルから、S403において登録された特徴量領域の局所領域の動きベクトルを第3の動きベクトルとして算出する。第3の動きベクトル算出方法は、S404によって算出された第1の動きベクトルと、S405において算出された第2の動きベクトルの差分値を第3の動きベクトルとして算出する。
S407において、信頼度算出部206は、S404において算出された第1の動きベクトルにおいて信頼度を算出する。Lucas Kanade法では、数式1を解くことで第1の動きベクトルと同時に信頼度を取得することができるため、これを使用しても良い。他にもエッジ抽出処理を行い、低コントラスト領域を判定し、低コントラスト領域の信頼度を低くする手法や、オクルージョン判定を行い、オクルージョン領域の信頼度を低くする手法としても良く、その手法は問わない。
S408において、重みマップ作成部207は、S406によって算出された第3の動きベクトルと、S407において算出した信頼度に基づき、S403において登録された特徴量領域の重みマップの作成を行う。図5に動きベクトルを使用した重みマップ作成の概要図を示す。図5(a)が1フレーム前画像、図5(b)を現フレームとしたとき、S404によって図5(c)のような動きベクトルが算出される。
図5(d)はS407によって算出された信頼度マップである。501の黒い領域は、各画素が1フレーム前の画像の位置から現フレームの画像のどの位置に移動したかについて判定した際に、各画素の移動結果の信頼度が高いと評価された領域を示している。一方、502の白い領域は各画素が1フレーム前の画像の位置から現フレームの画像のどの位置に移動したかについて判定した際に、各画素の移動結果の信頼度が低いと評価された領域を示している。
図5(e)がS403によって登録された特徴量領域であるとき、図5(f)は信頼度と、第1の動きベクトルと、第2の動きベクトルから作成された重みマップとなる。このとき使用する動きベクトルの大きさは、S406において、S404において算出された第1の動きベクトルから、S405において算出された第2の動きベクトルを打ち消した第3の動きベクトルを使用する。503の黒い領域は、信頼度が高く、かつ第3の動きベクトルが少ない領域であり、重みを1とする。504の斜線の領域は、信頼度が高く、第3の動きベクトルが大きい領域であり、重みを0.5とする。505の白い領域は、第3の動きベクトルに関わらず信頼度が低い領域であり、重みを0とする。本実施例では、第3の動きベクトルの大きさを大小の2値で表したが、多値で表現し、第3の動きベクトルが大きくなるにつれ、重みを0に近づけ、第3の動きベクトルが小さくなるにつれ重みを1に近づけても良い。同様に本実施例では、信頼度を高低の2値で表現したが、多値で表現し、信頼度が上がるにつれ、重みを1に近づけ、信頼度が下がるにつれ重みを0に近づけても良い。すなわち、重みマップは動きベクトルが算出された領域ごとの重みの分布を示したマップとなっている。
S409において、追尾部208では、逐次供給される画像から、S403によって登録された特徴量領域と、S408において作成した重みマップを使用して被写体の追尾を行う。被写体追尾の詳細な処理については後述する。
(被写体追尾処理の詳細)
図6を参照して、図4のS408における追尾処理について説明する。
ステップS403において登録した特徴量領域を用いて被写体領域を探索する。探索結果が追尾部208の出力情報となる。本実施例では、特徴量領域をテンプレートとした、テンプレートマッチングによる探索方法を適用するものとし、図6を用いて説明する。テンプレートマッチングは、画素パターンをテンプレートとして設定し、テンプレートとの類似度が最も高い領域を画像内で探索する技術である。テンプレートと画像領域との類似度として、対応画素間の差分絶対値和のような相関量を用いることができる。
図6(a)は、テンプレート601とその構成例602を模式的に示す。テンプレートマッチングを行う場合、テンプレートとして用いる画素パターンが特徴量領域604として予め設定されている。ここでは、テンプレート601が水平画素数W、垂直画素数Hの大きさであり、テンプレート601に含まれる画素の輝度値を用いて、追尾部605においてパターンマッチングを行う。
パターンマッチングに用いるテンプレート601の特徴量T(i,j)は、テンプレート601内の座標を図6(a)に示すような座標系で表すと、以下の数式2で表現できる。
[数式2]
T(i,j)={T(0,0),T(1,0),・・・,T(W-1,H-1)}
図6(b)は、被写体領域の探索領域603とその構成605の例を示す。探索領域603は画像内でパターンマッチングを行う範囲であり、画像の全体もしくは一部であってよい。探索領域603内の座標は(x,y)で表すものとする。領域604はテンプレート601と同じ大きさ(水平画素数W、垂直画素数H)を有し、テンプレート601との類似度を算出する対象である。追尾部208は領域604に含まれる画素の輝度値と、テンプレート601に含まれる輝度値との類似度を算出する。
従って、パターンマッチングに用いる領域604の特徴量S(i,j)は、テンプレート601内の座標を図6(b)に示すような座標系で表すと、以下の数式3で表現できる。
[数式3]
S(i,j)={S(0,0),S(1,0),・・・,S(W-1,H-1)}
図6(c)は、重みマップ606とその構成例607を模式的に示す。ここでは、領域607はテンプレート601と同じ大きさ(水平画素数W、垂直画素数H)を有し、テンプレート601と探索領域603との類似度に対して重みをかける対象である。
従って、パターンマッチングに用いる重みマップ606の重みA(i,j)は、テンプレート601内の座標を図6(c)に示すような座標系で表すと、以下の数式4で表現できる。
[数式4]
A(i,j)={A(0,0),A(1,0),・・・,A(W-1,H-1)}
テンプレート601と領域604との類似性を、重みマップ606によって重みをかけた評価値をV(x,y)として、以下の数式5に示す差分絶対和(SAD:Sum of Absolute Difference)値を算出する。
Figure 2022099120000002
ここで、V(x,y)は、領域604の左上頂点の座標(x,y)における評価値を表す。追尾部208は、領域604を探索領域603の左上から右方向に1画素ずつ、またx=(X-1)(W-1)に達すると次にX=0として下方向に1画素ずつ、それぞれずらしながら、各位置で評価値V(x,y)を算出する。算出された評価値V(x,y)が最小値を示す座標(x,y)がテンプレート601と最も類似した画素パターンを有する領域604の位置を示す。評価値V(x,y)が最小値を示す領域604を、探索領域内に存在する被写体領域として検出する。なお、探索結果の信頼性が低い場合(例えば評価値V(x,y)の最小値が閾値を超える場合)には、被写体領域が見つからなかったと判定してもよい。
ここではパターンマッチングに輝度値の特徴量を用いる例を示したが、複数の値(例えば明度、色相、彩度)を有する特徴量を用いてもよい。また、類似度の評価値としてSADを用いる例を示したが、他の評価値、例えば正規化相互相関(NCC:Normalized Cross-Correlation)やZNCCなどを用いてもよい。
(効果)
以上説明したように本実施形態によれば、特徴量領域を動きベクトルに基づき重みをかけることで、被写体が複数の動きを持つような場合でも、被写体追尾の性能を向上させることができる。
(他の実施形態)
また本発明は、上述の実施形態の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処置でも実現できる。
100 撮像装置
101 レンズユニット
102 固定1群レンズ
103 絞り
104 絞りモータ
105 絞り制御部
111 ズームレンズ
112 ズームモータ
113 ズーム制御部
121 固定3群レンズ
131 フォーカスレンズ
132 フォーカスモータ
133 フォーカス制御部
141 撮像素子
142 撮像信号処理部
143 撮像制御部
150 モニタディスプレイ
151 CPU
152 画像処理部
153 圧縮解凍部
154 RAM
155 フラッシュメモリ
156 操作スイッチ
157 画像記録媒体
158 電源管理部
159 バッテリ
160 バス
161 被写体追尾部
162 変化取得部

Claims (12)

  1. 画像間の動きベクトルを算出する動きベクトル算出手段と、
    画像から特徴量領域を決定する特徴量領域決定手段と、
    前記動きベクトル及び前記特徴量領域を基に、前記動きベクトルが算出された領域ごとの重みの分布である重みマップを作成する重みマップ作成手段と、
    前記重みマップを基に、被写体の追尾を行う被写体追尾手段と、
    を備えることを特徴とする被写体追尾装置。
  2. 前記重みマップ作成手段は、
    前記画像間の動きベクトルと、前記特徴量領域の動きベクトルの差分を基に、
    前記特徴量領域の動きベクトルにおける局所領域の動きベクトルを算出し、
    前記局所領域の動きベクトルを用いて重みマップを作成することを特徴とする、
    請求項1に記載の被写体追尾装置。
  3. 前記特徴量領域の動きベクトルは、前記画像間の動きベクトルを前記特徴量領域内においてヒストグラム処理し、最大個数のビンとして算出されたものであることを特徴とする、請求項1か2に記載の被写体追尾装置。
  4. 前記画像間の動きベクトルおよび、前記特徴量領域の動きベクトルの信頼度を評価する動きベクトル信頼度評価手段を有し、
    前記重みマップ作成手段は、前記信頼度と前記局所領域の動きベクトルを基に、前記重みマップを作成することを特徴とする、請求項1乃至3のいずれか1項に記載の被写体追尾装置。
  5. 前記重みマップ作成手段は、
    前記局所領域の動きベクトルが大きい領域の重みを低くすることを特徴とする、請求項1乃至4のいずれか1項に記載の被写体追尾装置。
  6. 前記重みマップ作成手段は、
    前記信頼度が低い領域の重みを低くすることを特徴とする、請求項1乃至5のいずれか1項に記載の被写体追尾装置。
  7. 撮像光学系を介して結像した被写体像の撮像画像を得る撮像手段と、
    請求項1乃至6のいずれか1項に記載の被写体追尾装置と、
    を有することを特徴とする撮像装置。
  8. 画像間の動きベクトルを画像処理部が参照し、
    前記撮像光学系に備えられたレンズを移動することで像ブレの補正を行うことを特徴とする請求項7に記載の撮像装置。
  9. 前記画像間の動きベクトルを画像処理部が参照し、
    前記撮像装置に備えられた撮像素子の位置を制御することで像ブレの補正を行うことを特徴とする請求項7か8に記載の撮像装置。
  10. 画像間から動きベクトルを算出する動きベクトル算出ステップと、
    画像から特徴量領域を決定する特徴量領域決定ステップと、
    前記動きベクトル及び前記特徴量領域を基に、前記動きベクトルが算出された領域ごとの重みの分布である重みマップを作成する重みマップ作成ステップと、
    前記重みマップを基に、被写体の追尾を行う被写体追尾ステップと、
    を有することを特徴とする被写体追尾装置の制御方法。
  11. コンピュータを、請求項1乃至6のいずれか1項に記載の被写体追尾装置の各手段として機能させるためのプログラム。
  12. コンピュータを、請求項1乃至6のいずれか1項に記載の被写体追尾装置の各手段として機能させるためのプログラムを格納したコンピュータが読取り可能な記憶媒体。
JP2020212895A 2020-12-22 2020-12-22 被写体追尾装置およびその制御方法 Pending JP2022099120A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020212895A JP2022099120A (ja) 2020-12-22 2020-12-22 被写体追尾装置およびその制御方法
US17/549,632 US20220198683A1 (en) 2020-12-22 2021-12-13 Object tracking apparatus and control method thereof using weight map based on motion vectors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212895A JP2022099120A (ja) 2020-12-22 2020-12-22 被写体追尾装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2022099120A true JP2022099120A (ja) 2022-07-04
JP2022099120A5 JP2022099120A5 (ja) 2023-12-22

Family

ID=82023679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212895A Pending JP2022099120A (ja) 2020-12-22 2020-12-22 被写体追尾装置およびその制御方法

Country Status (2)

Country Link
US (1) US20220198683A1 (ja)
JP (1) JP2022099120A (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674439B1 (en) * 2015-12-02 2017-06-06 Intel Corporation Video stabilization using content-aware camera motion estimation
US10943141B2 (en) * 2016-09-15 2021-03-09 Mitsubishi Electric Corporation Object detection device and object detection method

Also Published As

Publication number Publication date
US20220198683A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
JP4755490B2 (ja) ブレ補正方法および撮像装置
JP5589548B2 (ja) 撮像装置、画像処理方法、及びプログラム記憶媒体
US8310553B2 (en) Image capturing device, image capturing method, and storage medium having stored therein image capturing program
JP2016140030A (ja) 画像処理装置、撮像装置、及び画像処理プログラム
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JP6924064B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
CN113556464A (zh) 拍摄方法、装置及电子设备
CN110944101A (zh) 摄像装置及图像记录方法
JP2016123044A (ja) 被写体追跡装置、その制御方法およびプログラム
KR102592745B1 (ko) 자세 추정 장치, 자세 추정 방법 및 기록 매체에 저장된 컴퓨터 프로그램
JP2017098843A (ja) 撮像装置、物体追尾方法、及びプログラム
JP2021111929A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2020136774A (ja) 動きベクトルを検出する画像処理装置およびその制御方法ならびにプログラム
JP2019191661A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2022099120A (ja) 被写体追尾装置およびその制御方法
JP2019062340A (ja) 像振れ補正装置および制御方法
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP7278737B2 (ja) 撮像装置及びその制御方法、並びにプログラム
JP2009027437A (ja) 画像処理装置,画像処理方法及び撮像装置
JP2021105850A (ja) 画像処理装置及び方法、及び撮像装置
JP2019176261A (ja) 画像処理装置
US20220270264A1 (en) Image processing device, control method thereof, imaging device, and recording medium
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
JP4919165B2 (ja) 画像合成装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213