JP2009141475A - カメラ - Google Patents

カメラ Download PDF

Info

Publication number
JP2009141475A
JP2009141475A JP2007313451A JP2007313451A JP2009141475A JP 2009141475 A JP2009141475 A JP 2009141475A JP 2007313451 A JP2007313451 A JP 2007313451A JP 2007313451 A JP2007313451 A JP 2007313451A JP 2009141475 A JP2009141475 A JP 2009141475A
Authority
JP
Japan
Prior art keywords
subject
similarity
frame
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007313451A
Other languages
English (en)
Inventor
Hiroyuki Abe
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007313451A priority Critical patent/JP2009141475A/ja
Priority to PCT/JP2008/071144 priority patent/WO2009072403A1/ja
Priority to US12/682,427 priority patent/US8436900B2/en
Publication of JP2009141475A publication Critical patent/JP2009141475A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】テンプレートマッチングを行ってフレーム間で被写体を追跡すること。
【解決手段】被写体追跡部104aは、動画像データの各フレーム内に設定した探索対象領域C内で探索枠Bを移動させながら、各探索枠位置における探索枠B内の画像とテンプレート画像との類似度を算出し、算出した類似度が最も高い探索枠Bの位置を各フレームにおける被写体位置として特定する。そして、特定した被写体位置を、各フレーム間で追跡する。また、合焦/測距部104bは、被写体距離を測定し、被写体追跡部104aは、合焦/測距部104bによる測距結果を加味して類似度を算出する。
【選択図】図1

Description

本発明は、カメラに関する。
次のようなパターン・マッチング方法が知られている。このパターン・マッチング方法は、画像を複数の領域に分割し、各領域ごとにテンプレートマッチング処理を行って、最も類似度が高い領域をマッチング領域として抽出する(例えば、特許文献1)。
特開平5−81433号公報
しかしながら、従来のパターン・マッチング方法を用いて被写体位置を特定しようとした場合、画像上でのマッチング結果に基づいて被写体位置を特定するため、特定精度が高くないという問題が生じていた。
本発明によるカメラは、被写体像を撮像して画像データを取得し、時系列で入力される各フレーム内に設定した探索対象領域内で探索枠を移動させながら、各探索枠位置における探索枠内の画像とテンプレート画像との類似度を算出し、類似度算出手段で算出した類似度が最も高い探索枠の位置を各フレームにおける被写体位置として特定し、特定した被写体位置を、各フレーム間で追跡し、カメラと被写体までの距離(被写体距離)を測定し、測距結果を加味して前記類似度を算出することを特徴とする。
本発明では、特定した前記被写体位置に基づいて、各フレームにおける測距位置を決定するようにしてもよい。
測距結果のうち、前フレームで算出した被写体距離に最も近い値を優先して加味して、類似度を算出するようにしてもよく、測距結果のうち、最も至近の被写体距離を優先して加味して、類似度を算出するようにしてもよい。
本発明によれば、被写体距離の測距結果を加味して算出した類似度に基づいて被写体位置を特定するため、被写体位置の特定精度を向上させることができる。
図1は、本実施の形態における被写体追跡装置としてカメラを使用した場合の一実施の形態の構成を示すブロック図である。カメラ100は、入力スイッチ101と、レンズ102と、撮像素子103と、制御装置104と、メモリ105と、メモリカードスロット106と、モニタ107とを備えている。
入力スイッチ101は、使用者によって操作される種々の入力部材を含んでいる。例えば、この入力スイッチ101には、レリーズボタンやカメラ100を操作するための種々の操作ボタンが含まれる。
レンズ102は、複数の光学レンズ群から構成されるが、図1では代表して1枚のレンズで表している。
撮像素子103は、例えばCCDであり、レンズ102を通して入力される被写体像を撮像して、撮像した画像データを制御装置104へ出力する。なお、本実施の形態におけるカメラ100では、撮像素子103は、使用者による入力スイッチに含まれるレリーズボタンが押下されることにより、被写体像の撮像を行う。このとき、レリーズボタンが押下された時点の1フレームの画像を静止画像として撮像することもでき、また、レリーズボタンが押下されてから次にレリーズボタンが押下されるまでの間、被写体像を所定の時間間隔で連続して複数フレーム撮像することによって、動画像を撮影することもできる。
メモリ105は、例えば不揮発性のフラッシュメモリであって、このメモリ105には、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。
メモリカードスロット106は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
モニタ107は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ107には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、撮像素子103から入力される画像データ(静止画像データまたは動画像データ)をモニタ107に出力して表示し、さらにメモリカードスロット106に挿入されているメモリカード内に記録する。なお、制御装置104を構成するメモリには、ROMやRAMが含まれる。
制御装置104はまた、被写体追跡部104aと、合焦/測距部104bとを機能的に有している。本実施の形態では、これらの各部による処理を行って、撮像素子103から動画像データが入力された場合に、動画像データを構成する各フレームの画像内に存在する被写体をフレーム間で追跡し、かつ各フレームのピント合わせを行うことができる。以下、撮像素子103から動画像データが入力された場合の制御装置104の処理について詳細に説明する。
被写体追跡部104aは、テンプレートマッチング処理の基準となるテンプレート画像と、撮像素子103から時系列で入力される各フレームの画像データ(ターゲット画像)とのマッチング演算を行う。具体的には、図2に示すように、テンプレート画像Aを用いてターゲット画像I内における被写体位置を特定する。テンプレート画像Aは、使用者からの指示に基づいて取得する。
例えば、使用者は、動画像データの最初のフレームがモニタ107に表示されたときに、入力スイッチ101を操作して、最初のフレーム内で、フレーム間で追跡したい被写体を含む範囲を指定する。または、探索枠Bを画面の中央に固定しておき、使用者は、被写体が画面上の探索枠B内に収まるように構図を決定した状態で入力スイッチ101を操作することにより、被写体を含む範囲を指定してもよい。
被写体追跡部104aは、使用者によって指定された範囲内の画像をテンプレート画像Aとして抽出して、ROMに記録する。被写体追跡部104aは、撮像素子103からの動画像データの入力が開始されると、各フレーム(コマ)の画像をターゲット画像Iとし、当該ターゲット画像I上の所定の位置にテンプレート画像と同じ大きさの探索枠Bを設定する。
被写体追跡部104aは、設定した探索枠Bをターゲット画像I内で1画素ずつ移動させながら、各位置における探索枠B内の画像(探索部分画像)と、テンプレート画像Aとのマッチング演算を行なう。被写体追跡部104aは、マッチング演算の結果、テンプレート画像Aと探索部分画像との類似度が最も高い探索枠Bの位置を被写体位置として特定する。被写体追跡部104aは、この処理を入力される動画像データの各フレームについて行うことにより、フレーム間で被写体追跡を行うことができる。
なお、被写体追跡部104aは、ターゲット画像Iの全体ではなく、図3の範囲Cに示すような部分画像を対象としてテンプレートマッチングを行うようにする。ここでは、範囲Cを検索エリアと呼ぶ。これによって、テンプレートマッチングを行う範囲を、ターゲット画像I内の被写体が存在している可能性が高い範囲に限定することができ、処理を高速化することができる。なお、ターゲット画像I内における検索エリアCの位置は、探索エリアCの中心座標Dを探索枠Bと中心座標Dと一致させるように設定する。
また、探索エリアCの大きさは、最初のフレームはあらかじめ設定されたデフォルトの大きさとし、2フレーム目以降は、前のフレームで算出した最高類似度に応じて変更するようにする。例えば、被写体追跡部104aは、前のフレームで算出された最高類似度が大きい場合には、前フレームで設定した探索エリアC内に被写体が存在している可能性が高いため、特定した被写体位置を中心にその近傍を探索するように探索エリアCの大きさを小さくする。これに対して、被写体追跡部104aは、前のフレームで算出された最高類似度が小さい場合には、探索エリアC内に被写体が存在している可能性が低いため、探索エリアCの大きさを大きくして広範囲を探索するようにする。これによって、被写体を見失わず、無駄のない被写体追跡処理が可能となる。
なお、テンプレートマッチングの手法は公知であるため詳細な説明は省略するが、例えば次式(1)に示す残差和や次式(2)に示す正規化相関により類似度を算出すればよい。次式(1)に示す残差和により類似度を算出した場合は、算出されるrが小さいほどテンプレート画像Aと探索部分画像との類似度が高いことを示している。一方、次式(2)に示す正規化相関により類似度を算出した場合は、算出されるrが大きいほどテンプレート画像Aと探索部分画像との類似度が高いことを示している。
Figure 2009141475
Figure 2009141475
合焦/測距部104bは、探索枠B内を対象としてピント合わせと距離測定(測距)を行う。本実施の形態では、合焦/測距部104bは、位相差方式によってピント合わせを行う場合について説明する。図4は、位相差方式によるピント合わせに用いるAF(オートフォーカス)専用のセンサー(AFセンサー)を模式的に示した図である。図4の例では、縦12×横18の216個のAFセンサーが配置されている。
図5は、これらのAFセンサーをファインダー像と重ねて示した図である。この図5に示す例では、例えば、競技者の顔の周りのAFセンサー5a、5b、5cの3つのAFセンサーが測距に使用されることが好ましい。しかしながら、一般的には、使用者によって選択されたAF枠内に配置されているAFセンサー、または被写体までの距離が最も近いもの(最至近のもの)を選択して、選択したAFセンサーを測距に使用する。このため、この図5に示す競技者のように、被写体が高速に移動している場合には、使用者がAF枠を選択するのは難しく、また、最至近のものを自動的に選択すると左ひざのAFセンサー5dが選択されてしまう可能性がある。
このような不都合を回避するために、本実施の形態では、合焦/測距部104bは、図6に示すように、被写体追跡部104aで被写体位置として特定された探索枠B内に配置されているAFセンサーを用いて測距を行う。これによって、常に使用者が注目している被写体を対象として測距を行って、被写体に対してピントを合わせることができる。なお、図7(a)は、図6における検索エリアC内を拡大して示した図である。また、図7(b)は、探索エリアC内をファインダー像を消去して示した図である。
図7(b)を用いて説明すると、合焦/測距部104bは、探索枠B内の9個のAFセンサーを用いて測距を行い、9個の測距値の中から1つの代表値を選択して、その代表値に基づいてピント合わせを行う。例えば、合焦/測距部104bは、9個の測距値のうち、もっとも値が小さいもの、すなわち最至近の値を代表値として選択し、これを被写体距離とする。
この場合、本実施の形態では、被写体追跡部104aは、上述したように探索枠Bを探索エリアC内で1画素ずつ移動させながらマッチング処理を行っているため、図8に示すように、被写体位置として特定された探索枠B内には、例えば、AFセンサーEのように、その一部しか含まれないAFセンサーも含まれる。したがって、合焦/測距部104bは、探索枠B内に配置されているAFセンサーのうち、探索枠B内に全体が収まっているAFセンサーのみを対象として測距値を算出し、その中からもっとも値が小さいもの、すなわち最至近の値を代表値として選択するようにする。
なお、本実施の形態におけるカメラ100では、被写体追跡部104aは、合焦/測距部104bによる測距結果を加味して上述した類似度を算出する。これによって、合焦/測距部104bによる測距結果を反映させて類似度を算出することができ、マッチング処理の精度を向上することができる。具体的には、被写体追跡部104aは、以下に説明する処理Aおよび処理Bのいずれかを実行する。なお、以下の処理Aおよび処理Bは、図7(b)を用いて説明する。
(処理A)
被写体追跡部104aは、測距結果のうち、前フレームで算出した被写体距離に最も近い値を優先して加味して類似度を算出する。このために、被写体追跡部104aは、測距結果が前フレームで算出した被写体距離に最も近いAFセンサーを優先して類似度を算出する。具体的には、被写体追跡部104aは、上述したように、探索枠Bを移動させながらマッチング処理を行って類似度を算出し、これを類似度1とする。そして、被写体追跡部104aは、各位置において、探索枠Bに含まれるAFセンサーのうち、中心Dに最も近い位置に配置されているAFセンサーを代表センサーとし、前フレームにおける被写体距離と、現フレームで算出された代表センサーの測距値の差分を算出して、これを類似度2とする。被写体追跡部104aは、上記類似度1と類似度2の平均値、または類似度1と類似度2に重みを付けた後に平均した重み付け平均値のいずれかを、最終的な類似度として算出する。
(処理B)
被写体追跡部104aは、測距結果のうち、最も至近の被写体距離を優先して加味して類似度を算出する。このために、被写体追跡部104aは、上述した処理で合焦/測距部104bによって、その測距値が代表値として選択されたAFセンサーを優先して類似度を算出する。具体的には、被写体追跡部104aは、上述したように、探索枠Bを移動させながらマッチング処理を行って類似度を算出し、これを類似度1とする。そして、被写体追跡部104aは、各位置において、探索枠Bに含まれるAFセンサーのうち、中心Dに最も近い位置に配置されているAFセンサーを代表センサーとし、前フレームにおける測距値の代表値と現フレームで算出された代表センサーの測距値の差分を算出して、これを類似度2とする。被写体追跡部104aは、上記類似度1と類似度2の平均値、または類似度1と類似度2に重みを付けた後に平均した重み付け平均値のいずれかを、最終的な類似度として算出する。
図9は、本実施の形態におけるカメラ100の処理を示すフローチャートである。図9に示す処理は、撮像素子103から動画像データの入力が開始されると起動するプログラムとして、制御装置104によって実行される。
ステップS10において、合焦/測距部104bは、前フレームで被写体追跡部104aによって被写体位置として特定された探索枠B内に配置されているAFセンサーのうち、探索枠B内に全体が収まっているAFセンサーのみを対象として測距値を算出する。そして、その中から被写体までの距離が最も近いもの(最至近のもの)を選択して被写体距離として検出する。なお、最初のフレームでは、前フレームの被写体位置を特定することができないため、本実施の形態では、最初のフレームに限って、使用者が被写体位置を指示するものとする。その後、ステップS20へ進む。
ステップS20では、被写体追跡部104aは、上述した処理Aまたは処理Bのいずれかの処理を実行して、合焦/測距部104bによる測距結果を加味して類似度を算出する。その後、ステップS30へ進み、被写体追跡部104aは、算出した類似度に基づいて被写体位置を特定して、ステップS40へ進む。ステップS40では、被写体追跡部104aは、その被写体位置をフレーム間で追跡することによって、被写体追跡を行う。その後、ステップS50へ進む。
ステップS50では、被写体追跡部104aは、撮像素子103からの動画像データの入力が終了したか否かを判断する。否定判断した場合には、ステップS10へ戻って、次のフレームを対象として、ステップS10からステップS40までの処理を繰り返す。これに対して、ステップS50で肯定判断した場合には、処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)被写体追跡部104aは、動画像データの各フレーム内に設定した探索対象領域C内で探索枠Bを移動させながら、各探索枠位置における探索枠B内の画像とテンプレート画像との類似度を算出し、算出した類似度が最も高い探索枠Bの位置を各フレームにおける被写体位置として特定する。そして、特定した被写体位置を、各フレーム間で追跡する。また、合焦/測距部104bは、カメラと被写体までの距離(被写体距離)を測定し、被写体追跡部104aは、合焦/測距部104bによる測距結果を加味して類似度を算出するようにした。これによって、被写体距離の測距結果を加味して算出した類似度に基づいて被写体位置を特定することができるため、被写体位置の特定精度を向上させることができる。
(2)合焦/測距部104bは、被写体追跡部104aによって特定された被写体位置に基づいて、各フレームにおける測距位置を決定するようにした。これによって、測距に使用するAFセンサーを限定することができ、処理速度を向上することができる。
(3)被写体追跡部104aは、合焦/測距部104bによる測距結果のうち、前フレームで算出した被写体距離に最も近い値を優先して加味して類似度を算出するようにした(処理A)。あるいは、合焦/測距部104bによる測距結果のうち、最も至近の被写体距離を優先して加味して類似度を算出するようにした(処理B)。これによって、現フレームにおいて被写体が存在している可能性が高い位置に配置されているAFセンサーによる測距結果を、類似度の算出に用いることができる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、被写体追跡部104aは、撮像素子103から入力される動画像データを対象として被写体を追跡する例について説明した。しかしながら、撮像素子103によって時系列で取得されてモニタ107に表示されるスルー画の各フレーム間で被写体を追跡するようにしてもよい。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
カメラの一実施の形態の構成を示すブロック図である。 ターゲット画像I、テンプレート画像A、および探索枠Bの具体例を示す図である。 ターゲット画像I内に設定した探索エリアCの具体例を示す図である。 AFセンサーの配置例を示す図である。 AFセンサーをファインダー像と重ねて示した図である。 AFセンサーをファインダー像と重ねて示した図に探索枠Bと探索エリアCとを表示した図である。 検索エリアC内を拡大して示した第1の図である。 検索エリアC内を拡大して示した第2の図である。 カメラ100の処理を示すフローチャート図である。
符号の説明
100 カメラ、101 入力スイッチ、102 レンズ、103 撮像素子、104 制御装置、104a 被写体追跡部、104b 合焦/測距部、105 メモリ、106 メモリカードスロット、107 モニタ

Claims (4)

  1. 被写体像を撮像して画像データを取得する撮像手段と、
    前記撮像手段から時系列で入力される各フレーム内に設定した探索対象領域内で探索枠を移動させながら、各探索枠位置における前記探索枠内の画像とテンプレート画像との類似度を算出する類似度算出手段と、
    前記類似度算出手段で算出した前記類似度が最も高い前記探索枠の位置を各フレームにおける被写体位置として特定する被写体位置特定手段と、
    前記被写体位置特定手段で特定した前記被写体位置を、前記各フレーム間で追跡する被写体追跡手段と、
    カメラと前記被写体までの距離(被写体距離)を測定する測距手段とを備え、
    前記類似度算出手段は、前記測距手段による測距結果を加味して前記類似度を算出することを特徴とするカメラ。
  2. 請求項1に記載のカメラにおいて、
    前記測距手段は、前記被写体位置特定手段で特定した前記被写体位置に基づいて、前記各フレームにおける測距位置を決定することを特徴とするカメラ。
  3. 請求項1または2に記載のカメラにおいて、
    前記類似度算出手段は、前記測距手段による測距結果のうち、前フレームで算出した前記被写体距離に最も近い値を優先して加味して、前記類似度を算出することを特徴とするカメラ。
  4. 請求項1または2に記載のカメラにおいて、
    前記類似度算出手段は、前記測距手段による測距結果のうち、最も至近の前記被写体距離を優先して加味して、前記類似度を算出することを特徴とするカメラ。
JP2007313451A 2007-12-04 2007-12-04 カメラ Pending JP2009141475A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007313451A JP2009141475A (ja) 2007-12-04 2007-12-04 カメラ
PCT/JP2008/071144 WO2009072403A1 (ja) 2007-12-04 2008-11-20 カメラ
US12/682,427 US8436900B2 (en) 2007-12-04 2008-11-20 Pattern matching camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007313451A JP2009141475A (ja) 2007-12-04 2007-12-04 カメラ

Publications (1)

Publication Number Publication Date
JP2009141475A true JP2009141475A (ja) 2009-06-25

Family

ID=40717585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007313451A Pending JP2009141475A (ja) 2007-12-04 2007-12-04 カメラ

Country Status (3)

Country Link
US (1) US8436900B2 (ja)
JP (1) JP2009141475A (ja)
WO (1) WO2009072403A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995909B2 (en) 2008-12-12 2011-08-09 Samsung Electro-Mechanics Co., Ltd. Auto-focusing method
JP2012063455A (ja) * 2010-09-14 2012-03-29 Nikon Corp 画像追尾装置及び撮像装置
JP2013054429A (ja) * 2011-09-01 2013-03-21 Renesas Electronics Corp オブジェクト追跡装置
WO2013073168A1 (ja) * 2011-11-17 2013-05-23 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9204823B2 (en) * 2010-09-23 2015-12-08 Stryker Corporation Video monitoring system
CN103988490B (zh) * 2011-12-13 2018-05-22 索尼公司 图像处理装置、图像处理方法和记录介质
US9219856B2 (en) * 2012-09-11 2015-12-22 Sony Corporation Imaging control device, imaging apparatus, and control method performed by imaging control device
JP6922821B2 (ja) * 2018-04-13 2021-08-18 オムロン株式会社 画像解析装置、方法およびプログラム
CN109104573B (zh) * 2018-09-29 2021-01-08 维沃移动通信(杭州)有限公司 一种确定对焦点的方法及终端设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196858A (ja) * 1992-01-22 1993-08-06 Fuji Photo Film Co Ltd カメラ
JP2001195582A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2006254321A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 人物追尾装置及び人物追尾プログラム
JP2007094536A (ja) * 2005-09-27 2007-04-12 Konica Minolta Holdings Inc 対象物追跡装置及び対象物追跡方法
JP2007233544A (ja) * 2006-02-28 2007-09-13 Nippon Telegr & Teleph Corp <Ntt> 対象物位置追跡方法、装置、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3146232B2 (ja) 1991-09-20 2001-03-12 ヤマハ発動機株式会社 パターン・マッチング法
JP3774495B2 (ja) * 1995-11-01 2006-05-17 キヤノン株式会社 画像情報抽出装置および方法
DE69635101T2 (de) * 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
DE60037360T2 (de) * 1999-05-28 2008-12-04 Nippon Telegraph And Telephone Corp. Verfahren und Vorrichtung zur Geschwindigkeitsmessung von Fahrzeugen mit ein Bildverarbeitungssystem
US6775411B2 (en) * 2002-10-18 2004-08-10 Alan D. Sloan Apparatus and method for image recognition
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
MX2007016203A (es) 2005-06-29 2008-03-10 Compumedics Ltd Ensamble de sensor con puente conductivo.
EP1748378B1 (en) * 2005-07-26 2009-09-16 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
JP4553384B2 (ja) 2005-09-20 2010-09-29 キヤノン株式会社 撮像装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2007102634A (ja) * 2005-10-06 2007-04-19 Sony Corp 画像処理装置
EP2015251B1 (en) * 2006-04-28 2012-01-25 Nikon Corporation Object extracting, object tracking and image synthesizing
EP2059026A4 (en) * 2006-08-30 2010-12-29 Nikon Corp APPARATUS AND METHOD FOR ALIGNING IMAGE AND CAMERA
US7831098B2 (en) * 2006-11-07 2010-11-09 Recognition Robotics System and method for visual searching of objects using lines
JP5164368B2 (ja) * 2006-12-07 2013-03-21 キヤノン株式会社 画像処理装置、画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05196858A (ja) * 1992-01-22 1993-08-06 Fuji Photo Film Co Ltd カメラ
JP2001195582A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2006254321A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 人物追尾装置及び人物追尾プログラム
JP2007094536A (ja) * 2005-09-27 2007-04-12 Konica Minolta Holdings Inc 対象物追跡装置及び対象物追跡方法
JP2007233544A (ja) * 2006-02-28 2007-09-13 Nippon Telegr & Teleph Corp <Ntt> 対象物位置追跡方法、装置、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995909B2 (en) 2008-12-12 2011-08-09 Samsung Electro-Mechanics Co., Ltd. Auto-focusing method
JP2012063455A (ja) * 2010-09-14 2012-03-29 Nikon Corp 画像追尾装置及び撮像装置
JP2013054429A (ja) * 2011-09-01 2013-03-21 Renesas Electronics Corp オブジェクト追跡装置
WO2013073168A1 (ja) * 2011-11-17 2013-05-23 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
JPWO2013073168A1 (ja) * 2011-11-17 2015-04-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像処理装置、撮像装置および画像処理方法
US9171222B2 (en) 2011-11-17 2015-10-27 Panasonic Intellectual Property Corporation Of America Image processing device, image capturing device, and image processing method for tracking a subject in images

Also Published As

Publication number Publication date
WO2009072403A1 (ja) 2009-06-11
US8436900B2 (en) 2013-05-07
US20100214407A1 (en) 2010-08-26

Similar Documents

Publication Publication Date Title
JP4182117B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP5564987B2 (ja) 被写体追尾装置及び撮像装置
JP2009141475A (ja) カメラ
JP5054063B2 (ja) 電子カメラ、画像処理装置及び画像処理方法
JP4732299B2 (ja) 特定被写体像の検出方法およびデジタルカメラ
JP5713055B2 (ja) 撮像装置、撮像方法及びプログラム
JP5699432B2 (ja) 画像処理装置
JP2007328212A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP2009268086A (ja) 撮像装置
JP2014081420A (ja) 追尾装置及びその方法
JP2017138379A (ja) 像振れ補正装置およびその制御方法、撮像装置、プログラム、記憶媒体
JP2009053448A (ja) 電子カメラ
JP2003241072A (ja) カメラ
JP6525809B2 (ja) 焦点検出装置及びその制御方法
JP4506779B2 (ja) 撮像装置及びプログラム
JP2008282031A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP2010081357A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
JP5499531B2 (ja) 電子カメラ
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JPWO2012093663A1 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2012034069A (ja) 画像処理装置、および画像処理プログラム
JP2019008706A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP2008054031A (ja) デジタルカメラ及び表示制御方法
JP4632417B2 (ja) 撮像装置、及びその制御方法
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111202

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120807