JP2008123416A - 被写体追跡プログラム、被写体追跡装置、およびカメラ - Google Patents

被写体追跡プログラム、被写体追跡装置、およびカメラ Download PDF

Info

Publication number
JP2008123416A
JP2008123416A JP2006308940A JP2006308940A JP2008123416A JP 2008123416 A JP2008123416 A JP 2008123416A JP 2006308940 A JP2006308940 A JP 2006308940A JP 2006308940 A JP2006308940 A JP 2006308940A JP 2008123416 A JP2008123416 A JP 2008123416A
Authority
JP
Japan
Prior art keywords
template
subject
image
matching
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006308940A
Other languages
English (en)
Other versions
JP4961965B2 (ja
Inventor
Hiroyuki Abe
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006308940A priority Critical patent/JP4961965B2/ja
Priority to US12/311,472 priority patent/US8144207B2/en
Priority to PCT/JP2007/072195 priority patent/WO2008059926A1/ja
Publication of JP2008123416A publication Critical patent/JP2008123416A/ja
Application granted granted Critical
Publication of JP4961965B2 publication Critical patent/JP4961965B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】テンプレートマッチングを行ってフレーム間で被写体を追跡すること。
【解決手段】テンプレートマッチング部104aは、入力画像の各フレームに対して、複数のテンプレート画像のそれぞれを用いてテンプレートマッチングを行って、複数のテンプレート画像のそれぞれと最も類似度が高い複数の領域をマッチング結果として入力画像内から抽出する。そして、マッチング結果として抽出した複数の領域を、各領域の入力画像内における距離に基づいて、入力画像内における被写体位置を特定するために用いる領域とそれ以外の領域とに分類し、被写体位置を特定するために用いる領域として分類された領域の入力画像内における位置に基づいて被写体位置を特定する。被写体追跡部104bは、被写体位置をフレーム間で追跡することによって、複数フレームの画像間で被写体の動きを追跡する。
【選択図】図1

Description

本発明は、複数のフレーム間で被写体の追跡を行う被写体追跡プログラム、被写体追跡装置、およびカメラに関する。
次のような物体追跡装置が知られている。この物体追跡装置は、入力される各フレームの画像を、あらかじめ用意したテンプレート画像を用いてマッチング処理することによって、画像内に存在する被写体をフレーム間で追跡するものである(例えば、特許文献1)。
2001−60269号公報
しかしながら、従来の装置では、入力される各フレームの画像の時間的な変化が激しい場合には、擬似マッチングが発生しやすく、被写体の追跡精度が低下する可能性があった。
本発明は、入力画像の各フレームに対して、複数のテンプレート画像のそれぞれを用いてテンプレートマッチングを行って、入力画像内から複数のテンプレート画像のそれぞれと最も類似度が高い複数の領域を抽出し、抽出した複数の領域を、各領域間の入力画像内における距離に基づいて、入力画像内における被写体位置を特定するために用いる領域と、それ以外の領域とに分類し、被写体位置を特定するために用いる領域として分類された領域の入力画像内における位置に基づいて、被写体位置を特定し、被写体位置をフレーム間で追跡することによって、複数フレームの画像間で被写体の動きを追跡することを特徴とする。
本発明では、被写体位置を特定するために用いる領域内に設定した代表点間の重心位置を被写体位置として特定してもよい。
また、本発明を、複数のテンプレート画像のそれぞれは、異なる時間に撮影された複数の更新用テンプレート画像を含むように構成することもできる。この場合、マッチング結果が更新用テンプレート画像を更新するための更新条件を満たすか否かを判断し、更新条件を満たすと判断したときに、更新用テンプレート画像の少なくとも1枚を更新する。
本発明による被写体追跡プログラムでは、上述した特徴的な方法をコンピュータで実行する。また、本発明による被写体追跡装置では、その被写体追跡プログラムを実行することにより、被写体を追跡する。さらに、本発明によるカメラでは、撮像して得られた画像を用いて、上記被写体追跡装置により被写体を追跡する。
本発明によれば、精度の高い被写体追跡を行うことができる。
―第1の実施の形態―
図1は、第1の実施の形態における被写体追跡装置としてカメラを使用した場合の一実施の形態の構成を示すブロック図である。カメラ100は、入力スイッチ101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。
入力スイッチ101は、使用者によって操作される種々の入力部材を含んでいる。例えば、この入力スイッチ101には、レリーズスイッチやデジタルカメラ100を操作するための種々の操作ボタンが含まれる。
レンズ102は、複数の光学レンズ群から構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSが用いられ、レンズ102を通して入力される被写体像を撮像して、撮像して得た画像データを制御装置104へ出力する。なお、第1の実施の形態におけるカメラ100においては、撮像素子103は、使用者による入力スイッチ101に含まれるレリーズボタンが押下されることにより被写体像の撮像を行う。このとき、レリーズボタンが押下された時点の1フレームの画像を静止画像として撮像することもでき、また、レリーズボタンが押下されてから次にレリーズボタンが押下されるまでの間、被写体像を所定の時間間隔で連続して複数フレーム撮像することによって、動画像を撮影することもできる。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、撮像素子103から入力される画像データ(静止画像データまたは動画像データ)をモニタ106に出力して表示し、さらにメモリカードスロット105に挿入されているメモリカード内に記憶する。
制御装置104は、テンプレートマッチング部104aと、被写体追跡部104bとを機能的に有している。そして、これらの各部による処理によって、撮像素子103から動画像データが入力された場合に、動画像データを構成する各フレームの画像内に存在する被写体をフレーム間で追跡することができる。この追跡結果は、フレーム間で被写体を追跡する必要がある処理、例えば、カメラ100が有する自動焦点調節機能(AF機能)や自動露出調節機能(AE機能)などを実現するための処理に用いられる。以下、撮像素子103から動画像データが入力された場合のフレーム間での被写体追跡処理について説明する。
テンプレートマッチング部104aは、テンプレートマッチング処理の基準となる複数のテンプレート画像と、撮像素子103から時系列で入力される各フレームの画像データ(ターゲット画像)とのマッチング演算を行う。テンプレートマッチングの手法は公知であるため詳細な説明は省略するが、例えば相互相関法や残差逐次検定法などの手法を用いればよい。
テンプレートマッチング部104aは、ターゲット画像上にテンプレート画像とのマッチングを行うための矩形枠をターゲット領域として設定し、ターゲット領域の位置をターゲット画像内で所定量ずつ、例えば1画素ずつ移動させながらそれぞれの位置におけるターゲット領域内の画像とテンプレート画像との類似度を算出する。そして、テンプレートマッチング部104aは、ターゲット画像全体に対してテンプレートマッチング処理を実行した結果、ターゲット画像内でテンプレート画像との類似度が最も高い所定領域(マッチング領域)をマッチング結果として抽出する。そして、マッチング結果に基づいて、ターゲット画像内における被写体の位置(被写体位置)を特定する。
被写体追跡部104bは、テンプレートマッチング部104aによって特定された被写体位置をフレーム間で追跡することによって、撮像素子103から入力される動画像データ内で追跡対象の被写体を追跡する。
第1の実施の形態では、単一の被写体を追跡するために複数のテンプレート画像を用いる。この複数のテンプレート画像は、使用者によって撮影された追跡対象とする被写体を含む画像の中から抽出され、あらかじめ準備されている。例えば、ターゲット画像内の人物の顔の動きをフレーム間で追跡する場合には、図2に示すように、使用者は追跡対象の被写体としての人物の顔を含むテンプレート抽出用画像2aをあらかじめ撮影しておく。
そして、テンプレート抽出用画像2a内に追跡対象とする人物の顔を含む矩形枠201を設定し、これを1枚目のテンプレート画像(テンプレート画像201)とする。また、テンプレート抽出用画像2a内に、追跡対象とする人物の顔を含み、さらに矩形枠201よりも大きい矩形枠202、例えば面積が矩形枠201の2倍となる矩形枠202を設定して、これを2枚目のテンプレート画像(テンプレート画像202)とする。また、テンプレート抽出用画像2a内に、追跡対象とする人物の顔を含み、さらに矩形枠201よりも小さい矩形枠203、例えば面積が矩形枠201の1/2倍の大きさとなる矩形枠203を設定して、これを3枚目のテンプレート画像(テンプレート画像203)とする。このとき、テンプレート画像201〜203は、それぞれテンプレート抽出用画像2aからはみ出さない範囲で抽出される。
なお、テンプレート抽出用画像2aからのテンプレート画像201〜203の抽出は、あらかじめ使用者が手作業で行ってもよく、テンプレートマッチング部104aがテンプレート抽出用画像2aを読み込んで自動的に行ってもよい。
テンプレートマッチング部104aは、撮像素子103から動画像データの入力が開始されると、各フレームの画像をターゲット画像とし、このターゲット画像とテンプレート画像201〜203の3枚のテンプレート画像のそれぞれとをマッチング処理してテンプレートマッチングを行う。すなわち、テンプレートマッチング部104aは、ターゲット画像内に各テンプレート画像と同じ大きさのターゲット領域を設定し、各テンプレート画像と、各テンプレート画像と同じ大きさのターゲット領域内の画像とをテンプレートマッチングする。
そして、テンプレートマッチング部104aは、ターゲット画像全体に対してテンプレートマッチング処理を実行した結果、ターゲット画像内でテンプレート画像201との類似度が最も高いターゲット領域、テンプレート画像202との類似度が最も高いターゲット領域、およびテンプレート画像203との類似度が最も高いターゲット領域をマッチング結果として抽出する。その結果、例えば図3に示すように、テンプレートマッチング部104aは、テンプレート画像201のマッチング結果としてマッチング領域301を抽出する。また、テンプレート画像202のマッチング結果としてマッチング領域302を抽出し、テンプレート画像203のマッチング結果としてマッチング領域303を抽出する。
そして、テンプレートマッチング部104aは、3つのテンプレート画像のマッチング結果として抽出した3つのマッチング領域を、後述する処理で被写体位置を特定するために用いる領域(被写体位置特定用領域)と、それ以外の領域とに分類する。本実施の形態では、3つのマッチング領域を、それぞれの領域間の距離に基づいて分類する場合について説明する。
具体的には、テンプレートマッチング部104aは、3つのテンプレート画像のマッチング結果として抽出した3つのマッチング領域のうち、マッチング領域間の距離が近い2つのマッチング領域を被写体位置特定用領域に分類する。例えば、図3に示す例では、領域間の距離が近いマッチング領域302とマッチング領域303とを被写体位置特定用領域に分類する。これによって、追跡対象の被写体である人物の顔を捉えているマッチング領域302および303を被写体位置特定用領域とすることができ、追跡対象の被写体である人物の顔から外れているマッチング領域301は、被写体位置特定用領域から除外することができる。
テンプレートマッチング部104aは、被写体位置特定用領域として採用(選択)した2つのマッチング領域に基づいて、追跡対象の被写体のターゲット画像3a内における位置、すなわち被写体位置を特定する。具体的には、テンプレートマッチング部104aは、図4に示すように、被写体位置特定用領域として採用したマッチング領域302の中心点4aと、マッチング領域303の中心点4bとをそれぞれのマッチング領域の代表点として設定し、代表点間の重心位置4cを被写体位置として特定する。
なお、この被写体位置特定方法はあくまでも一例であり、テンプレートマッチング部104aは、その他の方法で被写体位置を特定してもよい。例えば、マッチング領域302とマッチング領域303の左上、左下、右上、右下のいずれかの点をそれぞれ結ぶ直線の中央点を被写体位置として特定してもよい。また、重心位置4cを被写体位置とせずに、重心位置4cを中心とした所定領域を被写体位置として特定してもよい。
図5は、第1の実施の形態におけるカメラ100の処理を示すフローチャートである。図5に示す処理は、使用者によって入力スイッチ101が操作され、動画像の撮影が開始されると、制御装置104がメモリに記憶されている被写体追跡プログラムを起動することによって実行される。
ステップS10において、テンプレートマッチング部104aは、上述したように、3枚のテンプレート画像のそれぞれと、ターゲット画像3a内に設定したターゲット領域とをマッチング処理して、それぞれのテンプレート画像に対するマッチング結果を得る。その後、ステップS20へ進み、3つのテンプレートのマッチング結果として抽出した3つのマッチング領域のうち、マッチング領域間の距離が近い2つのマッチング領域を被写体位置特定用領域とすることで、マッチング領域を被写体特定用領域とそれ以外の領域とに分類する。その後、ステップS30へ進む。
ステップS30では、テンプレートマッチング部104aは、上述したように、被写体位置特定用領域として採用した2つのマッチング領域に基づいて、追跡対象の被写体のターゲット画像3a内における位置、すなわち被写体位置を特定する。その後、ステップS40へ進み、被写体追跡部104bは、テンプレートマッチング部104aで特定したターゲット画像3a内における被写体位置をフレーム間で追跡して、撮像素子103から入力される動画像データ内で追跡対象の被写体を追跡して、ステップS50へ進む。
ステップS50では、撮像素子103からの動画像データの入力が終了したか否かを判断する。動画像データの入力が終了していないと判断した場合にはステップS10へ戻って処理を繰り返す。これに対して、動画像データの入力が終了したと判断した場合には処理を終了する。
以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)テンプレートマッチング部104aは、大きさの異なる複数のテンプレート画像を用いてテンプレートマッチングを行い、入力画像内から各テンプレートごとのマッチング領域を抽出する。そして、マッチング領域間の距離に基づいて、抽出したマッチング領域を被写体位置特定用領域とそれ以外の領域とに分類し、被写体位置特定用領域の入力画像内の位置に基づいて、入力画像内における被写体位置を特定するようにした。被写体追跡部104bは、特定された被写体位置をフレーム間で追跡することで、フレーム間での被写体の動きを追跡するようにした。これによって、複数のテンプレートによるマッチング結果の中から、被写体位置を特定するために用いるマッチング領域のみを抽出して被写体位置を特定することができ、精度高く被写体位置を特定することができる。これに伴って精度の高い被写体追跡を行うことができる。
(2)被写体位置特定用領域の代表点間の重心位置を入力画像内における被写体位置として特定するようにした。これによって、簡易な演算で被写体位置を特定することができる。
―第2の実施の形態―
第2の実施の形態では、第1の実施の形態で上述したテンプレート画像201〜203のそれぞれを更新しながら、撮像素子103から入力される動画像データ内で追跡対象の被写体を追跡する場合について説明する。なお、図2〜図4については、第1の実施の形態と同様のため説明を省略する。
テンプレート画像を用いたマッチング処理を行って、動画像データに含まれる追跡対象の被写体を追跡する場合、追跡対象の被写体が動いている場合には、被写体の形状がフレーム間で変化する。このため、あらかじめ準備したテンプレート画像を継続して使用した場合には、被写体形状の変化に伴って各テンプレート画像とターゲット領域内の画像との類似度が次第に低下していくことになる。これに伴って、被写体追跡部104bによる被写体追跡の精度が次第に低下していく可能性が高い。したがって、第2の実施の形態では、被写体の動きに応じてテンプレート画像を逐次更新することによって、被写体の形状が時々刻々変化する場合でもテンプレートマッチングの精度を向上させて、精度高く物体の追跡を行えるようにする。
図6は、第2の実施の形態における被写体追跡装置としてカメラを使用した場合の一実施の形態の構成を示すブロック図である。なお、図6においては、第1の実施の形態で図1に示したブロック図と同じ構成要素には同じ符号を付加し、相違点を中心に説明する。
制御装置104は、テンプレート更新部104cをさらに有している。テンプレート更新部104cは、後述するように、テンプレートマッチングに使用するテンプレート画像が所定の更新条件を満たした場合に、テンプレート画像を置き換えて更新する。本実施の形態では、第1の実施の形態で上述した、大きさが異なる3枚のテンプレート画像201〜203のそれぞれごとに、追跡対象とする被写体を異なる時刻に撮影した複数の画像を用意し、これらの画像をテンプレート画像とする。
すなわち、図2に示したように、テンプレート抽出用画像2a内に追跡対象とする人物の顔を含む矩形枠201を設定し、これをテンプレート画像201とする。さらに、異なる時間に撮影したテンプレート抽出用画像2a内に追跡対象とする人物の顔を含む矩形枠201を設定し、これもテンプレート画像201とする。このように、異なる時間に撮影したテンプレート抽出用画像2aを複数取得して、それぞれのテンプレート抽出用画像2aからテンプレート画像201を抽出することによって、異なる時間に撮影した複数枚のテンプレート画像201を用意することができる。同様に、テンプレート画像202および203についても、異なる時間に撮影した複数枚のテンプレート画像(更新用テンプレート画像)を用意する。
本実施の形態では、テンプレート画像201〜203として、それぞれ異なる時間に撮影した4枚の画像を使用する場合について説明し、それぞれのテンプレート画像を区別するために各テンプレート画像に次の(A)〜(D)ように名前を付ける。なお、(A)〜(D)では、代表してテンプレート画像201を例に説明する。
(A)INITIAL
4枚のテンプレート画像201の中で、最も時間的に前に撮影されたテンプレート抽出用画像2aから抽出したテンプレート画像201を「INITIAL」と呼ぶ。
(B)OLD
4枚のテンプレート画像201の中で、時間的に2番目に撮影されたテンプレート抽出用画像2aから抽出したテンプレート画像201を「OLD」と呼ぶ。
(C)CURRENT
4枚のテンプレート画像201の中で、時間的に3番目に撮影されたテンプレート抽出用画像2aから抽出したテンプレート画像201を「CURRENT」と呼ぶ。
(D)NEW
4枚のテンプレート画像201の中で、時間的に4番目に撮影されたテンプレート抽出用画像2aから抽出したテンプレート画像201、すなわち最も時間的に遅く撮影されたテンプレート抽出用画像2aから抽出したテンプレート画像201を「NEW」と呼ぶ。
同様に、複数枚のテンプレート画像202、および複数枚のテンプレート画像203についても、それぞれ「INITIAL」、「OLD」、「CURRENT」、および「NEW」のテンプレート画像がそれぞれ用意される。なお、「INITIAL」、「OLD」、「CURRENT」、および「NEW」は、後述するテンプレート更新部104cによるテンプレート更新処理において、更新を行う対象を明確にするために便宜的に付与した名称であり、各テンプレート画像の名称は必ずしもこれに限定されるものではない。
図7は、第2の実施の形態におけるターゲット画像およびテンプレート画像201の具体例を示す図である。なお、以下の説明では、テンプレート画像201について代表して説明するが、テンプレート画像202および203についても、テンプレート画像201とは画像の大きさが異なるだけで、後述するテンプレートの種類、マッチング処理の内容、および更新処理の内容等に相違はない。
図7に示すように、ターゲット画像7a内の人物の動きをフレーム間で追跡する場合には、使用者は、被写体としての人物を異なる時刻に撮影した4枚のテンプレート抽出用画像2aをあらかじめ用意し、これを用いて異なる時刻に撮影されたテンプレート画像201a〜201dを準備しておく。このとき、テンプレート画像201a〜201dのうち、最も古い時刻に撮影されたテンプレート画像201aを「INITIAL」、その次の古い時刻に撮影されたテンプレート画像201bを「OLD」、その次の古い時刻に撮影されたテンプレート画像201cを「CURRENT」、最新の時刻に撮影されたテンプレート画像201dを「NEW」と設定する。
被写体を異なる時刻に撮影した4枚のテンプレート抽出用画像2aをあらかじめ用意することができない場合には、被写体を撮影した1枚のテンプレート抽出用画像2aから、複数枚のテンプレート画像201a〜201dを擬似的に作成してもよい。例えば、1枚のテンプレート抽出用画像2aを拡大・縮小することにより複数枚のテンプレート画像201a〜201dを擬似的に作成してもよく、1枚のテンプレート抽出用画像2aの濃度を変更することにより複数枚のテンプレート画像201a〜201dを擬似的に作成してもよい。
1枚のテンプレート抽出用画像2aを拡大・縮小することにより複数枚のテンプレート画像201a〜201dを擬似的に作成する場合には、テンプレート抽出用画像2aから抽出したテンプレート画像を「INITIAL」201aとし、テンプレート抽出用画像2aを所定の倍率で拡大または縮小した画像から「OLD」201bを抽出する。また、テンプレート抽出用画像2aを「OLD」201bを抽出したときとは異なる倍率で拡大または縮小した画像から「CURRENT」201cを抽出し、さらにそれとは異なる倍率で拡大または縮小した画像から「NEW」201dを抽出すればよい。
また、1枚のテンプレート抽出用画像2aの濃度を変更することにより複数枚のテンプレート画像201a〜201dを擬似的に作成する場合には、テンプレート抽出用画像2aから抽出したテンプレート画像を「INITIAL」201aとし、「INITIAL」を明るくした画像や暗くした画像をそれぞれ「OLD」201b、「CURRENT」201c、「NEW」201dとすることで、それぞれ濃度(明るさ)が異なる複数枚のテンプレート画像201a〜201dを擬似的に作成すればよい。
テンプレートマッチング部104aは、第1の実施の形態と同様に、撮像素子103から動画像データの入力が開始されると、各フレームの画像をターゲット画像7aとし、このターゲット画像7aとテンプレート画像201〜203とのマッチング処理を行う。このとき、テンプレートマッチング部104aは、図7に示すように、ターゲット画像7a内に設定したターゲット領域7bと、「INITIAL」201a、「OLD」201b、「CURRENT」201c、および「NEW」201dの4枚のテンプレート画像とをマッチング処理する。
同様に、テンプレート画像202を用いてマッチング処理する場合には、ターゲット画像7a内に設定したターゲット領域と、「INITIAL」202a、「OLD」202b、「CURRENT」202c、および「NEW」202dの4枚のテンプレート画像とをマッチング処理する。また、テンプレート画像203を用いてマッチング処理する場合には、ターゲット画像7a内に設定したターゲット領域と、「INITIAL」203a、「OLD」203b、「CURRENT」203c、および「NEW」203dの4枚のテンプレート画像とをマッチング処理する。すなわち、第2の実施の形態では、テンプレートマッチング部104aは、合計12枚のテンプレート画像を用いてマッチング処理を行う。
そして、テンプレートマッチング部104aは、ターゲット画像7a全体に対してテンプレートマッチング処理を実行した結果、ターゲット画像7a内で「INITIAL」201aとの類似度が最も高いターゲット領域、「OLD」201bとの類似度が最も高いターゲット領域、「CURRENT」201cとの類似度が最も高いターゲット領域、および「NEW」201dとの類似度が最も高いターゲット領域をそれぞれ抽出する。そして、テンプレートマッチング部104aは、これらの中で最も類似度が高いテンプレート画像とターゲット領域の組をマッチング結果として選択し、選択したテンプレート画像を選択テンプレート画像、選択したターゲット領域をマッチング領域とする。
テンプレートマッチング部104aは、この処理をテンプレート画像202a〜202d、およびテンプレート画像203a〜203dに対しても実行し、テンプレート画像202のマッチング結果、およびテンプレート画像203のマッチング結果を得る。そして、第1の実施の形態と同様に、テンプレートマッチング部104aは、3つのテンプレート画像のマッチング結果として選択した3つのマッチング領域のうち、マッチング領域間の距離が近い2つのマッチング領域を被写体位置特定用領域とする。
テンプレートマッチング部104aは、第1の実施の形態と同様に、被写体位置特定用領域として採用した2つのマッチング領域に基づいて、追跡対象の被写体のターゲット画像7a内における位置、すなわち被写体位置を特定する。そして、被写体追跡部104bは、テンプレートマッチング部104aによって特定された被写体位置をフレーム間で追跡することによって、撮像素子103から入力される動画像データ内で追跡対象の被写体を追跡する。
テンプレート更新部104cは、テンプレートマッチング部104aによるテンプレートマッチング処理の結果に基づいて、「OLD」、「CURRENT」、「NEW」の各テンプレート画像の内、少なくとも1枚を更新する。なお。「INITIAL」は、更新の対象から除外する。すなわち、テンプレート更新部104cは、「INITIAL」を更新を行なわない恒久のテンプレート画像(非更新テンプレート画像)として扱う。
以下、テンプレート更新部104cが、「OLD」201b、「CURRENT」201c、および「NEW」201dを更新する例について説明する。なお、テンプレート画像202の「OLD」202b、「CURRENT」202c、および「NEW」202dを更新する処理、およびテンプレート画像203の「OLD」203b、「CURRENT」203c、および「NEW」203dを更新する処理も、以下に説明するテンプレート画像201の場合と同様である。
上述したように、「OLD」201b、「CURRENT」201c、および「NEW」201dの各テンプレート画像は、処理開始時にはあらかじめ撮影された画像、または擬似的に作成された画像が設定されているが、テンプレート更新部104cによってテンプレート更新処理が実行されることによって、次の(A)〜(C)に示すテンプレート画像に置き換えられ、逐次更新されていく。
(A)「CURRENT」201c(現テンプレート画像)
「CURRENT」201cとしては、直近のテンプレート更新時に、テンプレート画像201のマッチング結果として選択された選択テンプレート画像が設定される。
(B)「OLD」201b(旧選択テンプレート画像)
「OLD」201bとしては、直近のテンプレート更新時に、(A)の「CURRENT」201cが設定されるまでの間「CURRENT」201cに設定されていたテンプレート画像が設定される。すなわち、一世代前の「CURRENT」201cが「OLD」201bとして設定される。
(C)「NEW」201d(新テンプレート画像)
「NEW」201dとしては、直近のテンプレート更新時に、ターゲット画像7a上で「CURRENT」201cに設定されたテンプレート画像と最も類似度が高いと判定されたターゲット領域内の画像、すなわちテンプレート画像201のマッチング結果として選択されたマッチング領域内の画像が取り込まれて設定される。
テンプレート更新部104cは、テンプレートマッチング部104aによるテンプレートマッチング処理の結果が、所定の更新条件を満たす場合にのみ、(A)〜(C)の条件に合致する画像を各テンプレート画像として更新する。具体的には、以下の(a)〜(d)で説明するように、テンプレートマッチング部104aによるマッチング処理の結果が更新条件を満たしているか否かを判断し、マッチング処理の結果に応じたテンプレート画像の更新処理を行う。
(a)テンプレートマッチング部104aによるテンプレートマッチング処理の結果、「INITIAL」201aが選択テンプレート画像として選択された場合の処理
この場合には、テンプレート更新部104cは、所定回数以上、例えば7回以上「INITIAL」201aが連続して選択テンプレート画像として選択され、かつその間の類似度の平均が所定の類似度以上、例えば一致を表す類似度が1であり、不一致を示す類似度が0である場合には、0.8以上であるという更新条件を満たすか否かを判断する。テンプレート更新部104cは、上記更新条件を満たさないと判断した場合には、テンプレート画像の更新は行わずに、「OLD」201b、「CURRENT」201c、「NEW」201dの各テンプレート画像の設定を維持する。
これに対して、上記更新条件を満たすと判断した場合には、次のようにテンプレート画像を更新する。すなわち、今まで「CURRENT」201cに設定されていたテンプレート画像を「OLD」201bに設定し、今まで「INITIAL」201aに設定されていたテンプレート画像を「CURRENT」201cに設定する。これによって、選択テンプレート画像を「CURRENT」201cに設定し、一世代前の「CURRENT」201cを「OLD」201bに設定することができる。さらに、テンプレート更新部104cは、テンプレート画像201のマッチング結果として選択されたマッチング領域内の画像を取り込んで、新たに「NEW」201dに設定する。
(b)テンプレートマッチング部104aによるテンプレートマッチング処理の結果、「CURRENT」201cが選択テンプレート画像として選択された場合の処理
この場合には、テンプレート更新部104cは、テンプレート画像の更新は行わずに、「OLD」201b、「CURRENT」201c、「NEW」201dの各テンプレート画像の設定を維持する。すなわち、前回のテンプレート更新時に最も類似度が高いと判定されたテンプレート画像が現在も最も類似度が高いと判定されていることから、被写体の動きが少なくテンプレート画像の更新の必要はないと判断して、テンプレート画像の更新は行わない。
(c)テンプレートマッチング部104aによるテンプレートマッチング処理の結果、「OLD」201cが選択テンプレート画像として選択された場合の処理
この場合には、テンプレート更新部104cは、所定回数以上、例えば7回以上「OLD」201cが連続して選択テンプレート画像として選択され、かつその間の類似度の平均が所定の類似度以上、例えば、0.8以上であるという更新条件を満たすか否かを判断する。テンプレート更新部104cは、上記更新条件を満たさないと判断した場合には、テンプレート画像の更新は行わずに、「OLD」201b、「CURRENT」201c、および「NEW」201dの各テンプレート画像の設定を維持する。
これに対して、上記更新条件を満たすと判断した場合には、テンプレート更新部104cは、次のようにテンプレート画像を更新する。すなわち、今まで「OLD」201bに設定されていたテンプレート画像を「CURRENT」201cに設定し、今まで「CURRENT」201cに設定されていたテンプレート画像を「OLD」201bに設定する。これによって、選択テンプレート画像を「CURRENT」201cに設定し、一世代前の「CURRENT」201cを「OLD」201bに設定することができる。さらに、テンプレート更新部104cは、テンプレート画像201のマッチング結果として選択されたマッチング領域内の画像を取り込んで、新たに「NEW」201dに設定する。
(d)テンプレートマッチング部104aによるテンプレートマッチング処理の結果、「NEW」201dが選択テンプレート画像として選択された場合の処理
この場合には、テンプレート更新部104cは、所定回数以上、例えば7回以上「NEW」201dが連続して選択テンプレート画像として選択され、かつその間の類似度の平均が所定の類似度以上、例えば0.8以上であるという更新条件を満たすか否かを判断する。テンプレート更新部104cは、上記更新条件を満たさないと判断した場合には、テンプレート画像の更新は行わずに、「OLD」201b、「CURRENT」201c、および「NEW」201dの各テンプレート画像の設定を維持する。
これに対して、上記更新条件を満たすと判断した場合には、テンプレート更新部104cは、次のようにテンプレート画像を更新する。すなわち、今まで「NEW」201dに設定されていたテンプレート画像を「CURRENT」201cに設定し、今まで「CURRENT」201cに設定されていたテンプレート画像を「OLD」201bに設定する。これによって、選択テンプレート画像を「CURRENT」201cに設定し、一世代前の「CURRENT」201cを「OLD」201bに設定することができる。さらに、テンプレート更新部104cは、テンプレート画像201のマッチング結果として選択されたマッチング領域内の画像を取り込んで、新たに「NEW」201dに設定する。
このようにテンプレート画像を更新することによって、被写体の動きに応じた被写体形状の変化に対応して、精度の高いテンプレートマッチング処理を行うことができる。また、「INITIAL」201a、「OLD」201b、または「NEW」201dが所定回数以上連続して選択テンプレート画像として選択され、かつその間の類似度の平均が所定の類似度以上である場合にのみテンプレート画像の更新を行うようにしたので、フレームごとにテンプレート画像の更新を行う従来の手法と比較して、テンプレート画像の更新頻度を抑えて安定したテンプレートマッチング処理を行うことができる。
例えば、600フレームの静止画で構成される動画像を従来の手法により各フレームごとにテンプレート画像を更新した場合には、600回のテンプレート画像の更新が発生するが、本実施の形態による手法を使用することにより、テンプレート画像の更新回数を30回程度まで減らすことが可能となり、処理の負荷を低減することができる。
図8は、第2の実施の形態におけるカメラ100の処理を示すフローチャートである。図8に示す処理は、使用者によって入力スイッチ101が操作され、動画像の撮影が開始されると、制御装置104がメモリに記憶されている被写体追跡プログラムを起動することによって実行される。なお、図8においては、第1の実施の形態で上述した図5と同一の処理については同じステップ番号を付与して説明を省略し、相違点を中心に説明する。
ステップS41において、テンプレート更新部104cは、(a)〜(d)に示したように、テンプレートマッチング部104aによるマッチング処理の結果が更新条件を満たしているか否かを判断する。更新条件を満たしていないと判断した場合には、ステップS50へ進む。これに対して、更新条件を満たしていると判断した場合には、ステップS42へ進む。ステップS42では、テンプレート更新部104cは、(a)〜(d)に示したように、テンプレートマッチング部104aによるマッチング処理の結果に応じたテンプレート画像の更新処理を行って、ステップS50へ進む。
以上説明した第2の実施の形態によれば、第1の実施の形態における作用効果に加えて、以下のような効果を得ることができる。
(1)テンプレート画像201〜203として、それぞれ異なる時間に撮影した複数枚の画像を用意し、各テンプレート画像をテンプレートマッチング結果に応じて更新するようにした。これによって、被写体が動くことによって発生する被写体形状の変化に対応して、精度の高いテンプレートマッチング処理を行うことができる。
(2)複数のテンプレート画像の内、「INITIAL」を更新しない恒久のテンプレートとするようにした。このため、ダイナミックなテンプレート画像の更新処理で発生しがちな情報の誤差蓄積を防止することができる。
(3)テンプレート画像の更新を行うに際しては、「INITIAL」、「OLD」、または「NEW」が所定回数以上連続して選択テンプレート画像として選択され、かつその間の類似度の平均が所定の類似度以上である場合にのみテンプレート画像の更新を行うようにした。これによって、例えばフレームごとにテンプレート画像の更新を行う従来の手法と比較して、テンプレート画像の更新頻度を抑えて安定したテンプレートマッチング処理を行うことができる。
(4)「INITIAL」、「OLD」、「CURRENT」、および「NEW」として、被写体を異なる時刻に撮影した複数枚のテンプレート画像をあらかじめ用意することができない場合には、1枚のテンプレート抽出用画像2aを用いて複数枚のテンプレート画像を擬似的に作成するようにした。これによって、被写体を異なる時刻に撮影して、複数枚のテンプレート画像を準備することができない場合であっても、本発明のテンプレートマッチング処理を行って被写体の追跡を行うことができる。
―変形例―
なお、上述した実施の形態の被写体追跡装置は、以下のように変形することもできる。
(1)上述した第1の実施の形態では、テンプレート画像201〜203の3枚のテンプレート画像を用いて被写体を追跡する場合について説明した。しかしながら、4枚以上の複数のテンプレート画像を用いてもよい。この場合のテンプレートマッチング部104aによる処理は次のようになる。
テンプレートマッチング部104aは、マッチング処理の結果抽出した複数のマッチング領域を、各領域のターゲット画像内における距離の近さに応じて、被写体位置特定用領域とするマッチング領域と、それ以外のマッチング領域とに分類する。例えば、複数のマッチング領域のそれぞれの間で、2つのマッチング領域間の距離を算出する。そして、算出した距離が短いマッチング領域の組を抽出して、これらを被写体位置特定用領域とする。例えば、テンプレートマッチング部104aは、被写体位置特定用領域として、m個のマッチング領域を抽出する。
なお、mは、例えば次式(1)によって算出され、次式(1)において、floorは小数点以下を切り捨てる関数、nはマッチングに用いるテンプレート画像の数である。
m=floor(n/2)+1 ・・・(1)
例えば、6枚のテンプレート画像を用いた場合には、最終的に4個のマッチング領域が抽出される。そして、テンプレートマッチング部104aは、抽出したm個のマッチング領域のそれぞれに代表点を設定し、各代表点間の重心位置を追跡対象の被写体の位置(被写体位置)として特定する。なお、代表点は、例えばマッチング領域内の中心点とする。
(2)上述した第1および第2の実施の形態では、撮像素子103から入力される動画像データ、すなわち時系列で入力される複数フレームの画像データをテンプレートマッチングおよび被写体追跡の対象データとして処理を実行する例について説明した。しかしこれに限定されず、連写機能によって静止画像が時系列で複数フレーム入力された場合に、各フレーム間で被写体を追跡する場合にも本発明は適用可能である。
(3)上述した第2の実施の形態では、テンプレート画像201、202、および203のそれぞれごとに、「INITIAL」、「OLD」、「CURRENT」、「NEW」の4枚のテンプレート画像を使用する例について説明した。しかしこれに限定されず、テンプレート画像201、202、および203のそれぞれごとに5枚以上のテンプレート画像を使用するようにしてもよい。この場合には、「OLD」の枚数を増やして、複数世代前の「CURRENT」をテンプレート画像として使用するようにすればよい。
(4)上述した第2の実施の形態では、テンプレート更新部104cは、テンプレート画像の更新条件として、「INITIAL」、「OLD」、または「NEW」が所定回数以上、例えば7回以上連続して選択テンプレート画像として選択され、かつその間の類似度の平均が所定の類似度以上、例えば0.8以上であるか否かを判断する例について説明した。しかしこれに限定されず、「INITIAL」、「OLD」、または「NEW」が所定回数以上連続して選択テンプレート画像として選択され、かつその間の全ての類似度が所定の類似度以上であるか否かを判断するようにしてもよい。また、テンプレート更新部104cは、「INITIAL」、「OLD」、または「NEW」が所定回数以上連続して選択テンプレート画像として選択されたことのみを更新条件として、テンプレート画像の更新を行うようにしてもよい。
(5)上述した第2の実施の形態では、テンプレート更新部104cは、テンプレート画像の更新条件を満たすと判断した場合には、その条件に応じて「CURRENT」と「OLD」または「NEW」とを入れ替えることによって、テンプレート画像を更新する例について説明した。しかしこれに限定されず、更新前のテンプレート画像の対応する画素の所定の割合に相当する画素のみを更新後のテンプレート画像で上書きすることによってテンプレート画像を更新するようにしてもよい。例えば、今まで「OLD」として設定されていたテンプレート画像を「CURRENT」に設定する代わりに、「CURRENT」の全画素のm%と、「OLD」の全画素の(100−m)%とを加算することによって、テンプレート画像を更新するようにしてもよい。
(6)上述した第1および第2の実施の形態では、被写体追跡装置としてカメラ100を使用し、カメラ100が供える制御装置104によって、被写体追跡プログラムを実行する例について説明した。しかしながら、被写体追跡装置として他の装置を使用するようにしてもよい。例えば、パソコンを被写体追跡装置として使用し、パソコンが備えるハードディスクドライブなどの記録媒体に被写体追跡プログラムを記録しておき、CPUが被写体追跡プログラムをメモリ上に読み込んで実行するようにしてもよい。また、施設内を監視するセキュリティ装置(監視装置)を被写体追跡装置として使用してもよい。
セキュリティ装置として使用する場合には、例えば、図9に示すように、セキュリティ装置200は、複数台のカメラ201と、制御装置104と、メモリ105と、モニタ106とを備えるようにすればよい。そして、制御装置104は、上述した第1および第2の実施の形態と同様に、被写体追跡プログラムを実行してカメラ201から時系列で入力される各フレームの画像間で被写体追跡を行い、施設内に進入してくる不審者を特定するようにしてもよい。このとき、モニタ106を複数設けて、複数のモニタ106で監視を行なえるようにしてもよい。また、被写体追跡装置としてカメラ付き携帯電話などを用いることも可能である。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
第1の実施の形態における被写体追跡装置としてカメラを使用した場合の一実施の形態の構成を示すブロック図である。 テンプレート画像の具体例を示す図である。 ターゲット画像内におけるマッチング結果の具体例を示す図である。 被写体位置の特定方法を示す図である。 第1の実施の形態におけるカメラ100の処理を示すフローチャート図である。 第2の実施の形態における被写体追跡装置としてカメラを使用した場合の一実施の形態の構成を示すブロック図である。 第2の実施の形態におけるターゲット画像およびテンプレート画像の具体例を示す図である。 第2の実施の形態におけるカメラ100の処理を示すフローチャート図である。 被写体追跡装置としてセキュリティ装置を用いた場合の一実施の形態の構成を示すブロック図である。
符号の説明
100、201 カメラ、101 入力スイッチ、102 レンズ、103 撮像素子、104 制御装置、104a テンプレートマッチング部、104b 被写体追跡部104b テンプレート更新部、105 メモリカードスロット、106 モニタ、200 セキュリティ装置

Claims (5)

  1. 時系列で入力される複数フレームの画像間で被写体の動きを追跡するための被写体追跡プログラムであって、
    コンピュータに、
    入力画像の各フレームに対して、複数のテンプレート画像のそれぞれを用いてテンプレートマッチングを行って、前記入力画像内から前記複数のテンプレート画像のそれぞれと最も類似度が高い複数の領域を抽出するテンプレートマッチング手順と、
    抽出した前記複数の領域を、各領域間の前記入力画像内における距離に基づいて、前記入力画像内における被写体位置を特定するために用いる領域と、それ以外の領域とに分類する分類手順と、
    前記分類手順で前記被写体位置を特定するために用いる領域として分類された領域の前記入力画像内における位置に基づいて、前記被写体位置を特定する特定手順と、
    前記被写体位置をフレーム間で追跡することによって、前記複数フレームの画像間で被写体の動きを追跡する被写体追跡手順とを実行させるための被写体追跡プログラム。
  2. 請求項1に記載の被写体追跡プログラムにおいて、
    前記特定手順は、前記被写体位置を特定するために用いる領域内に設定した代表点間の重心位置を前記被写体位置として特定することを特徴とする被写体追跡プログラム。
  3. 請求項1または2に記載の被写体追跡プログラムにおいて、
    前記複数のテンプレート画像のそれぞれは、異なる時間に撮影された複数の更新用テンプレート画像を含み、
    コンピュータに、
    前記テンプレートマッチング手順によるマッチング結果が、前記更新用テンプレート画像を更新するための更新条件を満たすか否かを判断する判断手順と、
    前記判断手順が前記更新条件を満たすと判断したときに、前記更新用テンプレート画像の少なくとも1枚を更新する更新手順とを実行させるための被写体追跡プログラム。
  4. 請求項1〜3のいずれか一項に記載の被写体追跡プログラムを実行する実行手段を備えることを特徴とする被写体追跡装置。
  5. 被写体像を撮像して、画像信号を出力する撮像手段と、
    請求項1〜3のいずれか一項に記載の被写体追跡プログラムを実行する実行手段とを備え、
    前記実行手段は、前記撮像手段から出力される画像信号に基づいて、時系列で入力される複数フレームの画像間で被写体の動きを追跡することを特徴とするカメラ。
JP2006308940A 2006-11-15 2006-11-15 被写体追跡プログラム、被写体追跡装置、およびカメラ Active JP4961965B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006308940A JP4961965B2 (ja) 2006-11-15 2006-11-15 被写体追跡プログラム、被写体追跡装置、およびカメラ
US12/311,472 US8144207B2 (en) 2006-11-15 2007-11-15 Computer program product for photographic subject tracking, photographic subject tracking device, and camera
PCT/JP2007/072195 WO2008059926A1 (fr) 2006-11-15 2007-11-15 Produit de programme informatique de suivi d'objet, dispositif de suivi d'objet et caméra

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006308940A JP4961965B2 (ja) 2006-11-15 2006-11-15 被写体追跡プログラム、被写体追跡装置、およびカメラ

Publications (2)

Publication Number Publication Date
JP2008123416A true JP2008123416A (ja) 2008-05-29
JP4961965B2 JP4961965B2 (ja) 2012-06-27

Family

ID=39401730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006308940A Active JP4961965B2 (ja) 2006-11-15 2006-11-15 被写体追跡プログラム、被写体追跡装置、およびカメラ

Country Status (3)

Country Link
US (1) US8144207B2 (ja)
JP (1) JP4961965B2 (ja)
WO (1) WO2008059926A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145966A (ja) * 2008-12-22 2010-07-01 Fujinon Corp オートフォーカスシステム
JP2010145965A (ja) * 2008-12-22 2010-07-01 Fujinon Corp オートフォーカスシステム
JP2010191590A (ja) * 2009-02-17 2010-09-02 Honda Motor Co Ltd 対象物の位置検出装置及び位置検出方法
JP2011028375A (ja) * 2009-07-22 2011-02-10 Konica Minolta Holdings Inc 画像処理装置、画像処理方法および画像処理プログラム
JP2011130384A (ja) * 2009-12-21 2011-06-30 Canon Inc 被写体追跡装置及びその制御方法
JP2011135427A (ja) * 2009-12-25 2011-07-07 Olympus Imaging Corp 動き検出装置および動き検出方法
JP2013021726A (ja) * 2012-10-18 2013-01-31 Canon Inc 被写体追跡装置及びその制御方法
EP2574040A2 (en) 2011-09-26 2013-03-27 Sony Mobile Communications Japan, Inc. Image photography apparatus
US8509482B2 (en) 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP2015041383A (ja) * 2013-08-23 2015-03-02 株式会社リコー 対象追跡方法及び対象追跡装置
CN111766964A (zh) * 2019-04-02 2020-10-13 南京瀚宇彩欣科技有限责任公司 电子装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3462727B1 (en) * 2007-06-14 2020-05-13 FUJIFILM Corporation Photographing apparatus
WO2009006931A1 (en) * 2007-07-11 2009-01-15 Cairos Technologies Ag Video tracking method and apparatus arrangement for performing the method
JP2011040993A (ja) * 2009-08-11 2011-02-24 Nikon Corp 被写体追尾プログラム、およびカメラ
US10133950B2 (en) * 2011-03-04 2018-11-20 Qualcomm Incorporated Dynamic template tracking
WO2012133058A1 (ja) * 2011-03-28 2012-10-04 株式会社ニコン 電子機器及び情報伝達システム
EP2693398A4 (en) * 2011-03-29 2015-04-29 Fujitsu Frontech Ltd BIOMETRIC AUTHENTICATION DEVICE, BIOMETRIC AUTHENTICATION SYSTEM AND BIOMETRIC AUTHENTICATION PROCESS
CA2861212A1 (en) * 2012-03-07 2013-09-12 Sony Corporation Image processing device and method, and program
JP5873378B2 (ja) * 2012-04-10 2016-03-01 キヤノン株式会社 撮像装置およびその制御方法
EP2872261B1 (en) * 2012-07-12 2016-09-14 Tata Steel UK Limited Microwave curing of multi-layer coatings
CN109640059A (zh) * 2019-01-10 2019-04-16 哈尔滨理工大学 一种基于视觉跟踪的网络监控方法
CN112184750A (zh) * 2019-06-13 2021-01-05 北京四维图新科技股份有限公司 基于视频图像的对象跟踪方法及装置
US11164333B2 (en) * 2020-01-31 2021-11-02 Gracenote, Inc. Monitoring icon status in a display from an external device
JP7113469B1 (ja) * 2021-12-24 2022-08-05 学校法人明治大学 物体認識システム、物体認識プログラム及び、物体認識方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041473A (ja) * 1990-04-17 1992-01-06 Oki Electric Ind Co Ltd 疑似エンジン回転角度信号発生装置
JP2004118485A (ja) * 2002-09-26 2004-04-15 Toshiba Corp 画像追跡装置および方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041473U (ja) * 1990-04-19 1992-01-08
JPH08279044A (ja) 1995-03-14 1996-10-22 Imeeji Joho Kagaku Kenkyusho パターン認識装置およびジェスチャ認識装置
US6493465B2 (en) * 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5943442A (en) * 1996-06-12 1999-08-24 Nippon Telegraph And Telephone Corporation Method of image processing using parametric template matching
US6445409B1 (en) * 1997-05-14 2002-09-03 Hitachi Denshi Kabushiki Kaisha Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
JP3768073B2 (ja) 1999-06-15 2006-04-19 株式会社日立国際電気 物体追跡方法及び物体追跡装置
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
JP4616120B2 (ja) * 2005-08-08 2011-01-19 株式会社日立ハイテクノロジーズ 画像処理装置及び検査装置
JP4626493B2 (ja) * 2005-11-14 2011-02-09 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041473A (ja) * 1990-04-17 1992-01-06 Oki Electric Ind Co Ltd 疑似エンジン回転角度信号発生装置
JP2004118485A (ja) * 2002-09-26 2004-04-15 Toshiba Corp 画像追跡装置および方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145966A (ja) * 2008-12-22 2010-07-01 Fujinon Corp オートフォーカスシステム
JP2010145965A (ja) * 2008-12-22 2010-07-01 Fujinon Corp オートフォーカスシステム
US8363108B2 (en) 2008-12-22 2013-01-29 Fujinon Corporation Autofocus system
JP2010191590A (ja) * 2009-02-17 2010-09-02 Honda Motor Co Ltd 対象物の位置検出装置及び位置検出方法
JP2011028375A (ja) * 2009-07-22 2011-02-10 Konica Minolta Holdings Inc 画像処理装置、画像処理方法および画像処理プログラム
JP2011130384A (ja) * 2009-12-21 2011-06-30 Canon Inc 被写体追跡装置及びその制御方法
US8509482B2 (en) 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP2011135427A (ja) * 2009-12-25 2011-07-07 Olympus Imaging Corp 動き検出装置および動き検出方法
EP2574040A2 (en) 2011-09-26 2013-03-27 Sony Mobile Communications Japan, Inc. Image photography apparatus
US9137444B2 (en) 2011-09-26 2015-09-15 Sony Corporation Image photography apparatus for clipping an image region
EP3445036A1 (en) 2011-09-26 2019-02-20 Sony Mobile Communications Japan, Inc. Image photography apparatus
US10771703B2 (en) 2011-09-26 2020-09-08 Sony Corporation Image photography apparatus
US11252332B2 (en) 2011-09-26 2022-02-15 Sony Corporation Image photography apparatus
JP2013021726A (ja) * 2012-10-18 2013-01-31 Canon Inc 被写体追跡装置及びその制御方法
JP2015041383A (ja) * 2013-08-23 2015-03-02 株式会社リコー 対象追跡方法及び対象追跡装置
CN111766964A (zh) * 2019-04-02 2020-10-13 南京瀚宇彩欣科技有限责任公司 电子装置

Also Published As

Publication number Publication date
US8144207B2 (en) 2012-03-27
WO2008059926A1 (fr) 2008-05-22
JP4961965B2 (ja) 2012-06-27
US20090322894A1 (en) 2009-12-31

Similar Documents

Publication Publication Date Title
JP4961965B2 (ja) 被写体追跡プログラム、被写体追跡装置、およびカメラ
JP5018767B2 (ja) 被写体追跡プログラム、被写体追跡装置、およびカメラ
JP5067418B2 (ja) 被写体追跡プログラム、被写体追跡装置、およびカメラ
JP6800628B2 (ja) 追跡装置、追跡方法、及びプログラム
JP5699432B2 (ja) 画像処理装置
US8284994B2 (en) Image processing apparatus, image processing method, and storage medium
JP2008054295A (ja) 撮影装置および方法並びにプログラム
CN103945109A (zh) 摄像装置及其控制方法、远程控制装置及其控制方法
JP2009141475A (ja) カメラ
JP2008109344A (ja) 特定被写体像の検出方法およびデジタルカメラ
JP2021132362A (ja) 被写体追尾装置、被写体追尾方法、コンピュータプログラム及び記憶媒体
JP2023041734A (ja) 被写体追尾装置
JP2009060355A (ja) 撮像装置、撮像方法、およびプログラム
JP2014186580A (ja) 認証装置、撮像装置、認証用データの登録方法、プログラム、および、記憶媒体
JP2021105850A (ja) 画像処理装置及び方法、及び撮像装置
JP2010200270A (ja) 画像処理装置、カメラおよびプログラム
JP4926757B2 (ja) 撮像装置及び制御方法
JP2009188480A (ja) 被写体追跡プログラム、被写体追跡装置、およびカメラ
JP5404172B2 (ja) 画像処理装置、その制御方法及びプログラム
JP2010157792A (ja) 被写体追跡装置
JP5383207B2 (ja) 情報処理装置、制御方法、コンピュータプログラム、および記憶媒体
JP5380833B2 (ja) 撮像装置、被写体検出方法及びプログラム
JP4810440B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
CN107431756B (zh) 自动图像帧处理可能性检测的方法和装置
CN114342350B (zh) 成像控制装置、成像控制方法、程序以及成像设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

R150 Certificate of patent or registration of utility model

Ref document number: 4961965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250