JP2011040993A - 被写体追尾プログラム、およびカメラ - Google Patents

被写体追尾プログラム、およびカメラ Download PDF

Info

Publication number
JP2011040993A
JP2011040993A JP2009186530A JP2009186530A JP2011040993A JP 2011040993 A JP2011040993 A JP 2011040993A JP 2009186530 A JP2009186530 A JP 2009186530A JP 2009186530 A JP2009186530 A JP 2009186530A JP 2011040993 A JP2011040993 A JP 2011040993A
Authority
JP
Japan
Prior art keywords
subject
frame
procedure
subject position
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009186530A
Other languages
English (en)
Inventor
Hiroyuki Abe
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009186530A priority Critical patent/JP2011040993A/ja
Priority to US12/853,670 priority patent/US8400520B2/en
Publication of JP2011040993A publication Critical patent/JP2011040993A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches

Abstract

【課題】フレーム内の被写体位置を特定して被写体追尾を行うこと。
【解決手段】制御装置104は、フレーム内に各粒子の散布位置に基づいて設定した探索枠内を対象としてテンプレートマッチング処理を行うことによってフレーム内における被写体位置を推定し、推定した被写体位置に仮の被写体枠を表示する。そして、制御装置104は、推定した被写体位置に基づいて設定した探索枠内を対象としてテンプレートマッチング処理を行うことによってフレーム内における被写体位置を特定し、特定した被写体位置に被写体枠を表示する。
【選択図】図1

Description

本発明は、被写体追尾プログラム、およびカメラに関する。
次のような侵入物体追跡方法が知られている。この方法では、テンプレート画像を用いたテンプレートマッチングを行うことにより、撮像視野内の進入物体を検出し、検出結果を表示する(例えば、特許文献1)。
特開2003−111063号公報
しかしながら、従来の侵入物体追跡方法によれば、撮像視野内の全体を対象としたテンプレートマッチングが終了した後でないと検出結果を表示できないため、検出結果の表示に遅れが生じるという問題があった。
本発明による被写体追尾プログラムは、コンピュータに、フレームから抽出した複数の部分領域のそれぞれを対象としてテンプレートマッチング処理を行うことによって、フレーム内における被写体位置を推定する推定手順と、推定手順が推定した被写体位置に仮の被写体枠を表示する第1の表示手順と、推定手順が推定した被写体位置を含んだ部分領域を対象としてテンプレートマッチング処理を行うことによって、フレーム内における被写体位置を特定する特定手順と、特定手順が特定した被写体位置に被写体枠を表示する第2の表示手順と、特定手順が特定した被写体位置を複数フレーム間で追尾する追尾手順とを実行させることを特徴とする。
本発明では、推定手順は、前のフレームで推定手順が推定した被写体位置に基づいて、フレームからの複数の部分領域の抽出位置を決定するようにしてもよい。
推定手順は、パーティクルフィルタを用いて被写体位置を推定するようにしてもよい。
本発明によるカメラは、上記いずれかの被写体追尾プログラムを実行する実行手段を備えることを特徴とする。
本発明によれば、仮被写体枠を高速に表示することができる。
カメラの一実施の形態の構成を示すブロック図である。 被写体追尾処理の流れを示すフローチャート図である。 パーティクルフィルタを用いた被写体位置の推定方法を模式的に示す図である。
図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。
制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。本実施の形態では、本画像データとサムネイル画像データとは、いずれもRGB表色系で表された画像データであるものとする。
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100のモードが撮影モードに設定されると、撮像素子103から時系列で取得した画像の表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。
本実施の形態では、制御装置104は、撮像素子103から入力されるスルー画の各フレームに対して、あらかじめ用意したテンプレート画像を用いたテンプレートマッチング処理を行うことによって、フレーム内からテンプレート画像と類似する画像領域を被写体位置として特定する。そして、制御装置104は、モニタ106に表示しているスルー画上で特定した被写体位置を枠で囲うことによって被写体位置を使用者に明示するとともに、特定した被写体位置をフレーム間で追尾することによって、被写体追尾処理を行う。
なお、ここで用いるテンプレート画像は、あらかじめ使用者からの指示に基づいて取得される。例えば、使用者は、スルー画の最初のフレームがモニタ106に表示されたときに、操作部材101を操作して、最初のフレーム内で、フレーム間で追尾したい被写体を含む範囲を指定する。制御装置104は、使用者によって指定された範囲内の画像をテンプレート画像として抽出して、SDRAMに記憶する。このように、使用者が追尾したい被写体を含んだテンプレート画像を用いてテンプレートマッチング処理を行い、特定した被写体位置をフレーム間で追尾することにより、使用者が指定した追尾対象を追尾することができる。
ここで、スルー画上に被写体位置を示す枠(被写体枠)を表示するに当たって、上述したように、フレーム全体を対象としてテンプレートマッチング処理を行って正確な被写体位置を特定した後に、被写体枠を表示するようにした場合には、テンプレートマッチング処理が完了するまで被写体枠を表示することができず、被写体枠の表示に遅れが生じてしまう。本実施の形態では、このような問題点を解消するために、フレーム内の一部を対象としてテンプレートマッチング処理を行って被写体位置を推定して、推定位置に仮の被写体枠を表示するようにする。
具体的には、制御装置104は、次のように処理を行う。図2は、本実施の形態における被写体追尾処理の流れを示すフローチャートである。なお、図2に示す処理は、撮像素子103からのスルー画の入力が開始されると起動するプログラムとして、制御装置104によって実行される。
ステップS10において、制御装置104は、パーティクルフィルタを用いた被写体位置の推定を行う。パーティクルフィルタとは、時系列フィルタの一種であって、多数のパーティクル(粒子)を用いて、前状態と現在の観測情報から現在の状態を推定するために用いられる。このパーティクルフィルタを用いた被写体位置の推定方法について、図3を用いて説明する。なお、図3は、パーティクルフィルタを用いた被写体位置の推定方法を模式的に示した図であり、説明の簡略化のために1次元で表している。
パーティクルフィルタを用いた被写体位置の推定方法においては、図3に示すように、各フレームに対して、予測3a、観測3b、対象推定3c、選択3dという4つの操作を行う。具体的には、制御装置104は、次のように処理を行う。まず、上記4つの操作のうち、予測3a、観測3b、対象推定3cまでの操作がフレーム内における被写体位置を推定するための操作であるため、これらの操作について説明する。
予測3aにおいては、制御装置104は、フレーム内のある点、例えば、使用者によって指定されたフレーム上の点や、フレームの中心点等を基準点として、この基準点から乱数Gを用いてあらかじめ設定された数の粒子をフレーム内に散布する。図3に示す例では、散布する粒子の数が7個の場合を示しており、上記散布の結果、粒子31〜37がフレーム上に散布されている。なお、上述したように、図3は1次元で表しているが、実際に被写体位置を推定する画像は2次元であるため、上述した粒子は2次元空間上に散布される。また、図3に示す例では、説明の簡略化のために、散布する粒子の数を7個に限定してあるが、散布する粒子の数は7個に限定されない。制御装置104は、フレーム内におけるこれらの粒子の散布位置を被写体位置と予測して、これら散布位置を対象として以下に説明する観察3bを行う。
観察3bにおいては、制御装置104は、複数の粒子を散布することによって抽出したフレーム内の複数の点、すなわち各粒子の散布位置を中心とした部分領域を囲んだ探索枠を設定し、この探索枠内で上述したテンプレート画像を移動させながら探索枠内の画像とテンプレート画像のマッチング処理を行うことによりテンプレートマッチング処理を行って、各粒子の散布位置におけるテンプレート画像との類似度を算出する。なお、類似度の算出方法については、公知の処理のため詳細な説明は省略するが、例えば、探索枠内の画像とテンプレート画像との差分値、または相関値に基づいて算出される。
制御装置104は、算出した類似度に基づいて次式(1)により尤度を算出し、算出した尤度に基づいて、被写体位置を推定する際に用いる重み値を、各々の尤度を全尤度加算値で割ることにより正規化した尤度として次式(2)により算出する。
Figure 2011040993
Figure 2011040993
なお、式(1)および(2)においては、πは尤度を、wは重み値を、tは時刻を、iは粒子ナンバーをそれぞれ表す。すなわち、式(1)により、粒子ナンバーi(例えば1〜7)のときの時刻tにおける尤度π (i)が算出される。また、式(2)により、粒子ナンバーi(例えば1〜7)のときの時刻tにおける重み値w (i)が算出される。この重み値w (i)は、テンプレート画像との類似度が高い粒子位置ほど値は大きくなる。
その後、制御装置104は、対象推定3cにおいて、観察3bで算出した重み値w (i)と、時刻(t)において散布された各粒子のフレーム内における位置X (i)とを用いて、次式(3)により時刻tにおけるフレーム内での被写体の中心位置Pを算出する。この次式(3)により算出された被写体の中心位置Pが、フレーム内における被写体の推定位置となる。
Figure 2011040993
以上説明した、予測3a、観測3b、対象推定3cの操作により、フレーム内における被写体位置の推定を行うことができる。
図3では、式(3)により算出した重み値w (i)と、各粒子位置X (i)との積算結果の大きさを粒子の大きさを変えて表すことによって模式的に示している。すなわち、図3に示す例では、粒子34の粒子位置X (i)における積算結果が最も大きく、次に粒子33及び35の粒子位置X (i)における積算結果が大きく、その次に粒子32及び36の粒子位置X (i)における積算結果が大きく、粒子31及び37の粒子位置X (i)における積算結果が最も小さいことを示している。
その後、ステップS20へ進み、制御装置104は、上述したステップS10における処理によって推定した被写体位置、すなわち対象推定3cにおいて算出した被写体の中心位置Pを中心とした所定範囲を囲むように、仮の被写体枠を表示する。これによって、制御装置104は、フレーム全体を対象としてテンプレートマッチング処理を行うことなく、高速に仮の被写体枠を表示することができる。
その後、ステップS30へ進み、制御装置104は、ステップS10で推定した被写体位置を含んだフレーム内の部分領域を囲んだ探索枠を設定して、ステップS40へ進む。ステップS40では、制御装置104は、ステップS30で設定した探索枠内を対象として、上述したテンプレートマッチング処理を行う。その後、ステップS50へ進み、制御装置104は、ステップS40でのテンプレートマッチング処理の結果に基づいて、フレーム内における正確な被写体位置を特定して、ステップS60へ進む。
ステップS60では、制御装置104は、フレーム内のステップS50で特定した正確な被写体位置に正確な被写体枠を表示して、ステップS70へ進む。ステップS70では、制御装置104は、スルー画の入力が終了したか否かを判断する。ステップS70で否定判断した場合には、ステップS10へ戻り、次フレームを対象として上述したステップS10からステップS70の処理を繰り返す。一方、ステップS70で否定判断した場合には、処理を終了する。
なお、次フレームを対象としてステップS10の処理を実行する場合には、予測3aにおいて、前フレームを対象として実行したステップS10の対象推定3cの結果に基づいて、決められた数の粒子を散布することになる。この場合、制御装置104は、上述した対象推定3cでの積算結果が最も大きかった粒子34の粒子位置において、粒子の散布位置Xt−1 (i)と被写体の移動速度νt−1と乱数Gとを用いて7つの粒子の散布を次式(4)または(5)により行う。
Figure 2011040993
Figure 2011040993
なお、被写体の移動速度νt−1は、1フレーム前の被写体の中心位置Pt−1と2フレーム前の被写体の中心位置Pt−2との単位時間t当たりの位置変化に基づいて、次式(6)により算出される。
Figure 2011040993
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、フレーム内に各粒子の散布位置に基づいて設定した探索枠内を対象としてテンプレートマッチング処理を行うことによってフレーム内における被写体位置を推定し、推定した被写体位置に仮の被写体枠を表示するようにした。また、制御装置104は、推定した被写体位置に基づいて設定した探索枠内を対象としてテンプレートマッチング処理を行うことによってフレーム内における被写体位置を特定し、特定した被写体位置に被写体枠を表示するようにした。これによって、フレーム内全体を対象としたテンプレートマッチング処理を実行することなく、簡易なテンプレートマッチング処理によって仮の被写体枠を表示することができるため、被写体枠を高速に表示させることができる。
(2)制御装置104は、前のフレームで推定した被写体位置に基づいて、次フレームにおいて粒子を散布する基準点を設定するようにした。これによって、被写体が存在している可能性が高い位置を基準点として粒子を散布することができ、次フレームにおける被写体位置の推定精度を向上することができる。
(3)制御装置104は、パーティクルフィルタを被写体位置の推定用に用いるようにした。このように、高い精度を要求されない被写体位置の推定のためにパーティクルフィルタを用いる場合には、数百といった大量の粒子を使用せずに、少量の粒子の使用で足りるため、短い処理時間で被写体位置の推定を行うことができる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、制御装置104は、スルー画を対象として被写体追尾を行う例について説明した。しかしながら、カメラ100が動画撮影機能を備えている場合には、制御装置104は、スルー画ではなく、撮影済みの動画のフレーム間で被写体追尾を行うようにしてもよい。
(2)上述した実施の形態では、本発明をカメラ100に適用する場合について説明した。しかしながら、撮影機能を備えた他の機器、例えばカメラ付き携帯電話機やビデオカメラ等にも本発明は適用可能である。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。
100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、105 メモリカードスロット、106 モニタ

Claims (4)

  1. 時系列で入力される複数フレーム間で被写体追尾を行うための被写体追尾プログラムであって、
    コンピュータに、
    前記フレームから抽出した複数の部分領域のそれぞれを対象としてテンプレートマッチング処理を行うことによって、フレーム内における被写体位置を推定する推定手順と、
    前記推定手順が推定した被写体位置に仮の被写体枠を表示する第1の表示手順と、
    前記推定手順が推定した被写体位置を含んだ部分領域を対象としてテンプレートマッチング処理を行うことによって、フレーム内における被写体位置を特定する特定手順と、
    前記特定手順が特定した被写体位置に被写体枠を表示する第2の表示手順と、
    前記特定手順が特定した被写体位置を前記複数フレーム間で追尾する追尾手順とを実行させるための被写体追尾プログラム。
  2. 請求項1に記載の被写体追尾プログラムにおいて、
    前記推定手順は、前のフレームで前記推定手順が推定した被写体位置に基づいて、前記フレームからの前記複数の部分領域の抽出位置を決定することを特徴とする被写体追尾プログラム。
  3. 請求項1または2に記載の被写体追尾プログラムにおいて、
    前記推定手順は、パーティクルフィルタを用いて被写体位置を推定することを特徴とする被写体追尾プログラム。
  4. 請求項1〜3のいずれか一項に記載の被写体追尾プログラムを実行する実行手段を備えることを特徴とするカメラ。
JP2009186530A 2009-08-11 2009-08-11 被写体追尾プログラム、およびカメラ Pending JP2011040993A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009186530A JP2011040993A (ja) 2009-08-11 2009-08-11 被写体追尾プログラム、およびカメラ
US12/853,670 US8400520B2 (en) 2009-08-11 2010-08-10 Subject tracking program and camera using template matching processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186530A JP2011040993A (ja) 2009-08-11 2009-08-11 被写体追尾プログラム、およびカメラ

Publications (1)

Publication Number Publication Date
JP2011040993A true JP2011040993A (ja) 2011-02-24

Family

ID=43768311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186530A Pending JP2011040993A (ja) 2009-08-11 2009-08-11 被写体追尾プログラム、およびカメラ

Country Status (2)

Country Link
US (1) US8400520B2 (ja)
JP (1) JP2011040993A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015939A1 (ja) * 2013-08-01 2015-02-05 日産自動車株式会社 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
JP2016057409A (ja) * 2014-09-08 2016-04-21 キヤノン株式会社 撮像装置および撮像装置の制御方法
RU2649962C1 (ru) * 2016-12-08 2018-04-10 Федеральное государственное унитарное предприятие "Центральный ордена Трудового Красного Знамени научно-исследовательский автомобильный и автомоторный институт "НАМИ" (ФГУП "НАМИ") Способ управления автоматическим транспортным средством
JP2018200628A (ja) * 2017-05-29 2018-12-20 Kddi株式会社 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US8687104B2 (en) 2012-03-27 2014-04-01 Amazon Technologies, Inc. User-guided object identification
JP2014241505A (ja) * 2013-06-11 2014-12-25 ソニー株式会社 撮影装置および撮影方法、テンプレート生成装置およびテンプレート生成方法、並びにプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011490A (ja) * 2005-06-28 2007-01-18 Toyota Motor Corp 道路パラメータ検出装置および道路パラメータ検出方法
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
JP2009087090A (ja) * 2007-09-28 2009-04-23 Sony Computer Entertainment Inc 対象物追跡装置および対象物追跡方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
JP4564634B2 (ja) * 2000-08-14 2010-10-20 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
JP3857558B2 (ja) 2001-10-02 2006-12-13 株式会社日立国際電気 物体追跡方法及び装置
US6999599B2 (en) * 2002-06-07 2006-02-14 Microsoft Corporation System and method for mode-based multi-hypothesis tracking using parametric contours
JP4382597B2 (ja) 2003-07-10 2009-12-16 株式会社国際電気通信基礎技術研究所 推定装置、推定方法および推定プログラム
JP2005165688A (ja) 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
KR100612858B1 (ko) * 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
US7720257B2 (en) * 2005-06-16 2010-05-18 Honeywell International Inc. Object tracking system
US7835542B2 (en) * 2005-12-29 2010-11-16 Industrial Technology Research Institute Object tracking systems and methods utilizing compressed-domain motion-based segmentation
WO2007099762A1 (ja) * 2006-03-01 2007-09-07 Nikon Corporation 被写体追跡コンピュータプログラム製品、被写体追跡装置、およびカメラ
JP2008026974A (ja) 2006-07-18 2008-02-07 Mitsubishi Electric Corp 人物追跡装置
JP4961965B2 (ja) * 2006-11-15 2012-06-27 株式会社ニコン 被写体追跡プログラム、被写体追跡装置、およびカメラ
US20090097704A1 (en) * 2007-10-10 2009-04-16 Micron Technology, Inc. On-chip camera system for multiple object tracking and identification
US8311276B2 (en) * 2008-01-07 2012-11-13 JVC Kenwood Corporation Object tracking apparatus calculating tendency of color change in image data regions
JP5213486B2 (ja) * 2008-03-14 2013-06-19 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
US8131068B2 (en) * 2008-06-06 2012-03-06 Nikon Corporation Image matching device and camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011490A (ja) * 2005-06-28 2007-01-18 Toyota Motor Corp 道路パラメータ検出装置および道路パラメータ検出方法
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
JP2009087090A (ja) * 2007-09-28 2009-04-23 Sony Computer Entertainment Inc 対象物追跡装置および対象物追跡方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015939A1 (ja) * 2013-08-01 2015-02-05 日産自動車株式会社 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
CN105593776A (zh) * 2013-08-01 2016-05-18 日产自动车株式会社 车辆位置姿势角推定装置及车辆位置姿势角推定方法
JP6020729B2 (ja) * 2013-08-01 2016-11-02 日産自動車株式会社 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
RU2626424C1 (ru) * 2013-08-01 2017-07-27 Ниссан Мотор Ко., Лтд. Устройство оценки позиции и угла пространственной ориентации транспортного средства и способ оценки позиции и угла пространственной ориентации транспортного средства
US10363940B2 (en) 2013-08-01 2019-07-30 Nissan Motor Co., Ltd. Vehicle position attitude-angle estimation device and vehicle position attitude-angle estimation method
JP2016057409A (ja) * 2014-09-08 2016-04-21 キヤノン株式会社 撮像装置および撮像装置の制御方法
RU2649962C1 (ru) * 2016-12-08 2018-04-10 Федеральное государственное унитарное предприятие "Центральный ордена Трудового Красного Знамени научно-исследовательский автомобильный и автомоторный институт "НАМИ" (ФГУП "НАМИ") Способ управления автоматическим транспортным средством
JP2018200628A (ja) * 2017-05-29 2018-12-20 Kddi株式会社 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法

Also Published As

Publication number Publication date
US20110109759A1 (en) 2011-05-12
US8400520B2 (en) 2013-03-19

Similar Documents

Publication Publication Date Title
JP5589548B2 (ja) 撮像装置、画像処理方法、及びプログラム記憶媒体
JP2011040993A (ja) 被写体追尾プログラム、およびカメラ
JP5872981B2 (ja) 撮影機器,動体の撮影方法,撮影プログラム
JP2009053815A (ja) 被写体追跡プログラム、および被写体追跡装置
JP5246078B2 (ja) 被写体位置特定用プログラム、およびカメラ
JP5699432B2 (ja) 画像処理装置
JP6141829B2 (ja) 動画解析装置、動画解析方法、プログラム、及び集積回路
JP2006129453A (ja) 画像再生装置、および画像再生プログラム
JP5279635B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP2009231967A (ja) 画像記録方法、画像記録装置、およびプログラム
KR20140090078A (ko) 이미지 처리 방법 및 그 방법을 처리하는 전자 장치
JP2009141475A (ja) カメラ
KR20160111757A (ko) 영상 촬영 장치 및 이의 촬영 방법
JP5024116B2 (ja) 被写体追跡プログラム、および被写体追跡装置
WO2012014946A1 (ja) 画像処理装置、および画像処理プログラム
JP2009260671A (ja) 画像処理装置及び撮像装置
JP2010015548A (ja) 被写体追跡装置、およびカメラ
JP2005204298A (ja) 画像取り込み中に露出情報を示すシステムおよび方法
JP5484129B2 (ja) 撮像装置
JP5365327B2 (ja) 被写体追尾装置、およびカメラ
JP2010157792A (ja) 被写体追跡装置
JP2017016592A (ja) 主被写体検出装置、主被写体検出方法及びプログラム
JP2010141911A (ja) 画像記録方法、画像記録装置、およびプログラム
JP5573353B2 (ja) 撮影装置、画像表示装置、および画像表示プログラム
JP2015156189A (ja) 画像評価装置、および画像評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120522