JP2015041383A - 対象追跡方法及び対象追跡装置 - Google Patents

対象追跡方法及び対象追跡装置 Download PDF

Info

Publication number
JP2015041383A
JP2015041383A JP2014164040A JP2014164040A JP2015041383A JP 2015041383 A JP2015041383 A JP 2015041383A JP 2014164040 A JP2014164040 A JP 2014164040A JP 2014164040 A JP2014164040 A JP 2014164040A JP 2015041383 A JP2015041383 A JP 2015041383A
Authority
JP
Japan
Prior art keywords
tracking
feature set
target
tracking template
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014164040A
Other languages
English (en)
Other versions
JP6458394B2 (ja
Inventor
リアン リンイェヌ
Lingyan Liang
リアン リンイェヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2015041383A publication Critical patent/JP2015041383A/ja
Application granted granted Critical
Publication of JP6458394B2 publication Critical patent/JP6458394B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象追跡方法及び装置を提供する。
【解決手段】対象追跡方法は、画像を順次に入力するステップと、1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、第1位置及び第2位置に基づいて、対象の入力画像における最終位置を決定するステップと、を含み、第1追跡テンプレートは所定数のフレームごとに更新され、第2追跡テンプレートは予め設定された規則に基づいて更新され、第2追跡テンプレートと第1追跡テンプレートとは個別に更新され、第2追跡テンプレートの更新頻度は第1追跡テンプレートの更新頻度よりも低い。
【選択図】図2

Description

本発明は、画像処理に関し、具体的にはコンピュータ視覚技術における対象追跡方法及び装置に関する。
現在、人間とコンピュータのインタラクション制御システムは、操作モードがユーザーにとって非常に容易かつ便利であることから、人々に幅広く重視されている。特に、手振り制御システムはユーザーにとって、特に便利である。有効な手振り認識システムは自然かつ有効なインタラクション形態を提供することができる。手振り認識システムにおいて、非常に重要且つキーとなる部分は手の追跡である。
手追跡システムは、ユーザーの操作を便利にさせるためには、ユーザーにいかなる特殊な設備、例えば特殊手袋、カラーマーカー等の着用を要求すべきではない。同時に、手は非剛性物体であり、動きが速く、歪みやすく、自己遮蔽等の特徴を有し、従って、手追跡技術は非常に挑戦的な仕事である。
米国特許出願公開第US20100310127A1号(特許文献1)には、物体追跡方法が開示されている。該特許においては、初期テンプレートと動的テンプレートの2種の異なるテンプレートを用いて追跡を行う。追跡結果は初期テンプレート追跡結果と動的テンプレート追跡結果のうちの1つ又は2つに決定される。同時に方策マークユニットは動的テンプレートを更新する必要があるかどうかを判断する。動的テンプレートは初期テンプレートと現在目標画像により更新を行う。該特許においては、初期テンプレートはいつでも更新せず、動的テンプレートは初期テンプレートと目標画像に応じて更新を行う。従って、追跡環境の変化が非常に速い時、初期テンプレートは現在環境に適用しなくなる可能性があり、従って、該追跡方法は堅牢ではない。
2008年2月にImage Processing、IEEE Transactionson(Volume:17、Issue:2)に発表された、作者がJunqiu Wang等で名称が「Integrating Color and Shape−Texture Features for Adaptive Real−Time Object Tracking」(非特許文献1)の文章においては適応性のある特徴基づいて選択された新目標テンプレート更新方法を提案した。該追跡方法は、連合ヒストグラムにより最もよい2種特徴を組み合わせる。該文章においては、8〜12フレームごとに一回の特徴選択を行う。現在テンプレートと初期テンプレートの間の類似度を計算することにより、目標テンプレートに対して更新を行う。該文章に二者択一の更新方法を提案し、初期テンプレート、以前テンプレート及び現在候補画像の間の関係を配慮する。該文章においては、初期テンプレートは固定テンプレートであり、追跡スタートアップ前に人工画定された、又は検出して得られた対象で形成され、全過程においていつでも更新されない。
従来の技術中、多くの研究者は追跡過程全体においては、初期追跡テンプレートが信頼され、且つ汚染されず、従って初期追跡テンプレートが普通追跡過程全体に使用され且つ変化しないと考えている。しかし、発明者は、追跡環境が多く変化した時、初期追跡テンプレートはノイズになる可能性があり、これによりシステムの堅牢性を低下させることが発見した。
一方、追跡方法の堅牢性を向上させるために、追跡テンプレートの更新は特に必要である。現在、2類のよく用いられるテンプレート更新方法がある。第1類は現在追跡結果画像によりテンプレート更新を行い、該方法は強い環境適応性を有するが、ノイズを導入しやすくて追跡シフトをもたらす。第2類方法は現在候補画像と以前テンプレートによりテンプレート更新を行い、該方法は更新する過程においては、目標と背景の不完全分類のため、ノイズをゆっくり導入して、テンプレートシフトをもたらす。
従って、安定性と自己適応性とをともに確保できる対象追跡方法の提供を要求されている。
本発明の一の態様によれば、画像を順次に入力するステップと、1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、前記第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定するステップと、を含み、前記第1追跡テンプレートは所定数のフレームごとに更新され、前記第2追跡テンプレートは予め設定された規則に基づいて更新され、前記第2追跡テンプレートと前記第1追跡テンプレートとは個別に更新され、前記第2追跡テンプレートの更新頻度は前記第1追跡テンプレートの更新頻度よりも低い、対象追跡方法を提供する。
本発明の他の態様では、画像を順次に入力する画像入力部と、1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定する第1追跡テンプレート位置決定部と、前記第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定する第2追跡テンプレート位置決定部と、前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定する対象最終位置決定部と、所定数のフレームごとに前記第1追跡テンプレートを更新する第1追跡テンプレート更新部と、予め設定された規則に基づいて前記第2追跡テンプレートを更新する第2追跡テンプレート更新部と、を含み、前記第2追跡テンプレートと前記第1追跡テンプレートとは個別に更新され、前記第2追跡テンプレートの更新頻度は前記第1追跡テンプレートの更新頻度よりも低い、対象追跡装置を提供する。
本発明に記載の対象追跡方法及び装置は2種の追跡テンプレート、即ち第1追跡テンプレートと第2追跡テンプレートをコンバインした。第1追跡テンプレートと第2追跡テンプレートは異なる特徴を用いて作成して得られた。同時に、本発明における2種の追跡テンプレートの更新頻度は異なり、両者は個別に更新を行い、第2追跡テンプレートの更新の頻度は第1追跡テンプレートよりも低く、このように第1追跡テンプレートはより多く自己適応性を体現し、第2追跡テンプレートはより多く安定性を配慮すると同時に状況に応じて必要な時更新を行う。従って最終に形成された追跡テンプレートはより良好に異なる環境に適応し且つ十分な堅牢を保証することができ、互いに補完することで追跡方法の堅牢性を向上させる。
さらに、発明者は、実際に、追跡成功又は失敗が、物体をその周囲背景からどう分離するかに依存し、有効に物体と背景を分離することは使用する特徴に直接かかわる、と認識した。従って、異なる時刻、異なる背景下でいずれも最適な特徴を得るように、リアルタイムに特徴の選択を行うことは特に必要であり、同時に追跡シフト問題を応対するために、追跡テンプレートを更新することも特に必要である。
このために、さらに、1つの実施例において、該対象追跡方法(及び装置)は、決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割するステップと、対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップと、区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定するステップと、前記第1候補特徴集合を用いて前記第1特徴集合を更新するか否かを判断し、前記第2候補特徴集合を用いて前記第2特徴集合を更新するか否かを判断するステップと、前記第1候補特徴集合を用いて前記第1特徴集合を更新すると判断された場合、前記第1特徴集合を更新し、該更新された第1特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第1追跡テンプレートを再構築し、そうでない場合は、所定数のフレームの画像ごとに前記第1追跡テンプレートを更新し、前記第1特徴集合をそのままにするステップと、前記第2候補特徴集合を用いて前記第2特徴集合を更新すると判断された場合、前記第2特徴集合を更新し、該更新された第2特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第2追跡テンプレートを再構築するステップと、をさらに含む。
これによって、前記対象追跡方法及び装置は、リアルタイムに特徴の選択を行い、従って、異なる時刻と異なる環境に適応して最適な特徴を採用することができるとともに、追跡するテンプレートを更新することで、追跡システムをさらに堅牢させることができる。
以下、図面を参照した本発明の実施例の詳細説明から、本発明のこれらの及び/又は他の面及びメリットはさらにはっきりになって、より理解しやすくなる。
本発明の1つの実施例による手追跡技術を人間とコンピュータのインタラクションに用いられるシーンを模式的に示す模式図である。 本発明の実施例による対象追跡装置100を示す配置ブロック図である。 本発明1つの実施例による対象追跡方法200を示す全体フローチャートである。 図4(a)〜(c)は手の位置情報を決定し、奥行き情報を過程中の手部領域と背景領域の分割に用いられる分割方法を示す模式図である。 図5(a)〜(d)は例示性特徴評価過程の1つを示す模式図である。 本発明の実施例による入力画像に基づいて対象位置決めを行う例示性過程を示す図である。 図7(a)〜(c)は本発明の実施例による第1追跡テンプレートと第2追跡テンプレートに基づいて入力画像に対して対象位置決めを行う過程をパータン的に模式的に示す図である。 本発明第2実施例による例示性対象追跡方法300を示す全体フローチャートである。 別の視点から第3実施例の対象追跡方法の過程を模式的に示す図である。 本発明実施形態を実現するための例示性計算システム600を示すブロック図である。
当業者により良好に更好地理解本発明、以下、図面と具体的には実施形態を参照しながら、本発明をさらに詳しく説明する。
下記の順序で説明を行う。
1、応用シーン例示
2、対象追跡装置
3、対象追跡方法の第1実施例
4、対象追跡方法の第2実施例
5、対象追跡を行うための計算システム
下記の説明中、追跡対象を手として説明し、これは例示に過ぎず、実際に、本発明は追跡する対象が制限されない。
<1、応用シーン例示>
図1は本発明の1つの実施例による手追跡技術を人間とコンピュータのインタラクションに用いられるシーンを模式的に示す模式図である。図1に示すように、一台のカメラをコンピュータ上方に置き、ユーザーはカメラ範囲内に立つ。ユーザーがカメラ範囲内に彼/彼女の手を移動する時、コンピュータは手の真実の位置情報を計算して、手に対するリアルタイム追跡の目的を達することができ、手の異なる時刻での位置点は図1に示す。
好適的に、該カメラはカラー図と奥行きマップの採集を行い、例えば双眼カメラである。本領域要員が公知したように、奥行き画像(Depth image)は画像中の画素点の値が奥行きである画像である。グレー画像に比べて、奥行き画像は物体の奥行き(距離)情報を有することで特に立体情報が必要な各種応用に適合である。また、公知のように、1つの画素点の奥行き値と視差値との間に簡単な換算関係を有することで本発明の奥行き情報の意味は広義的であり、視差情報を含む。
ただし、図1は1つの示意性例示であり、手を追跡するための設備はコンピュータに限らず、例えばゲーム機、プロジェクター、テレビ等であってもよい。
<2、対象追跡装置>
以下、図2を参照しながら本発明の実施例による対象追跡装置の配置例示を説明する。
図2は本発明の実施例による対象追跡装置100を示す配置ブロック図である。
図2に示すように、対象追跡装置100は、順次に画像、例えば、双眼カメラからカラー画像及び奥行き画像を入力する画像入力部110、第1特徴集合に基づく第1追跡テンプレート180を用いて対象の入力画像中の第1位置を決定する第1追跡テンプレート位置決定部120、第1特徴集合と異なる第2特徴集合に基づく第2追跡テンプレート190を用いて対象の入力画像中の第2位置を決定する第2追跡テンプレート位置決定部130、該第1位置と第2位置に基づいて、対象の入力画像中の最終位置を決定する対象最終位置決定部140、所定数のフレームの画像ごとに第1追跡テンプレート180を更新する第1追跡テンプレート更新部150、及び予め設定された規則に基づいて第2追跡テンプレート190を更新する第2追跡テンプレート更新部160を備えてもよい。第2追跡テンプレート190と第1追跡テンプレート180は個別に更新され、第2追跡テンプレート190の更新頻度は第1追跡テンプレート180よりも低い。また、第1特徴集合と第2特徴集合のそれぞれが1つ又は複数の特徴を有する。
好ましくは、対象追跡装置100は、特徴適応更新部170を備え、図2における破線ボックスと破線矢印に示すように、該特徴適応更新部170は、対象最終位置決定部140が決定した対象の入力画像における最終位置に基づいて、対象と背景領域を分割し、対象と背景領域を分析することにより、各候補特徴集合の対象と背景領域を区分する能力を評価し、区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定し、第1候補特徴集合を用いて第1特徴集合を更新するかを判断し、第2候補特徴集合を用いて第2特徴集合を更新するかを判断し、第1候補特徴集合を用いて第1特徴集合を更新すると決定した場合、第1特徴集合を更新し、及び第1追跡テンプレート更新部150は該更新された第1特徴集合に基づいて第1追跡テンプレートを再構築し、第2候補特徴集合を用いて第2特徴集合を更新すると決定した場合、第2特徴集合を更新し、及び第2追跡テンプレート更新部160は該更新された第2特徴集合に基づいて第2追跡テンプレートを再構築してもよい。
なお、前記対象追跡装置100の各部はソフトウェアプログラムで実現することができ、例えば汎用コンピュータにおけるCPUによりRAMとROM等、及びそのうち運行しているソフトウェアコードを結合して実現することができる。ソフトウェアプログラムは例えばフラッシュメモリ、フロッピー(登録商標)ディスク、ハードディスク、光ディスク等の記憶媒体上に記憶してもよく、運行する時例えばランダムアクセスメモリRAM上にローディングしてCPUで実行される。また、汎用コンピュータのほか、さらに専用集積回路とソフトウェアの間の協力により実現することができる。前記集積回路は、例えばMPU(マイクロプロセッサユニット)、DSP(デジタル信号プロセッサー)、FPGA(フィールドプログラマブルゲートアレイ)、ASIC(専用集積回路)等のうちの少なくとも1つを備える。このような汎用コンピュータ又は専用集積回路等は例えば結像設備例えばカメラと通信して、カメラが撮影して取得したカラー画像及び/又は斜視図像を処理して対象追跡結果を取得することができ、及び選択可能に、対象追跡結果に基づいて運行している応用を制御することができる。また、対象追跡装置100の各部は専門のハードウェア、例えば特定のフィールドプログラマブルゲートアレイ、専用集積回路等で実現することができる。また、対象追跡装置100の各部はソフトウェアとハードウェアの結合により実現することができる。
なお、図2に示す矢印は2つの構成部の機能の間にロジック関係が存在していることのみを意味し、2つの構成部の間は直接又は間接に操作的に接続することができる。また、図2中のある2つの構成部の間にある方向の矢印接続を示していなくても、両者の間に必ず該方向のロジック関係が存在していないと意味せず、逆に、両者の間は操作的な接続関係が存在してもよく、例えば第1追跡テンプレート更新部150及び第2追跡テンプレート更新部160と、画像入力部110との間にはロジック関連が存在してもよく、そのうち第1追跡テンプレート更新部150と第2追跡テンプレート更新部160は操作過程においては画像入力部110が入力された一フレーム又はマルチフレーム画像を利用する必要がある可能性がある。
前記対象追跡装置100における各ユニットの構成と数量は本発明の範囲を制限しない。本発明の1つの実施例によれば、前記画像入力部110、第1追跡テンプレート位置決定部120、第2追跡テンプレート位置決定部130、対象最終位置決定部140、第1追跡テンプレート更新部150と第2追跡テンプレート更新部160は1つの独立した部に合併して相応な機能及び操作を実行して実現することができ、又は画像入力部110、第1追跡テンプレート位置決定部120、第2追跡テンプレート位置決定部130、対象最終位置決定部140、第1追跡テンプレート更新部150と第2追跡テンプレート更新部160をさらにより小さいユニットに分割してこれらの各自の機能と操作を実現することができる。
なお、図2中に示す構成は排他的ではなく、逆に、対象追跡装置100他の部、例えば対象最終位置決定部140が処理した後の結果を表示するための表示部、及び例えば関連情報及び/又は中間処理結果を外部等に伝達するための通信部を備えてもよい。
<3、対象追跡方法の第1実施例>
以下、詳しく対象追跡装置100の各部の機能と操作の例示を説明する。上記のように、手を追跡対象として説明する。
図3は本発明1つの実施例による対象追跡方法200を示す全体フローチャートである。
図3に示すように、ステップS210においては、画像入力部110は順次に画像を入力する。
例えば普通カメラ、双眼カメラ、双眼カメラ、ステレオカメラにより画像を撮影し、次に画像入力部110に入力することができる。画像入力部110に入力された画像はRGBカラー画像のみを備えてもよく、RGBカラー画像とともに奥行き画像を備えてもよい。
選択可能に、ローカルで直接にカメラから画像を入力することの代わりに、有線ネットワーク又は無線ネットワークによりリモートから画像を受信することもできる。
ステップS220においては、第1追跡テンプレート位置決定部120は第1追跡テンプレートを用いて対象の入力画像中の第1位置を決定し、及び第2追跡テンプレート位置決定部130は第2追跡テンプレートを用いて対象の入力画像中の第2位置を決定し、そのうち第1追跡テンプレートが第1特徴集合に基づいて形成され、第2追跡テンプレートが第2特徴集合に基づいて形成され、第1特徴集合が第2特徴集合と異なり、第1特徴集合と第2特徴集合のそれぞれが1つ又は複数の特徴を有する。
<3.1特徴集合の評価及び追跡テンプレート的決定>
追跡スタート前の初期第1と第2追跡テンプレートの決定に対して、まず対応する第1特徴集合と第2特徴集合を決定することができる。
そのため、1枚又は複数枚画像に対して自動の手検出結果又は人工画定により手及びその周囲背景画像を取得し、即ち対象領域と背景領域の分けを実現し、こうして1つ又は複数の標識又は分類された手部領域画像と背景領域画像のサンプルを得る。次にこれらのサンプルに基づいて関連候補特徴集合の対象と背景の区分能力を評価することができる。
以下、図4(a)〜(c)を参照しながら手の位置情報を決定し、奥行き情報を過程中の手部領域と背景領域の分割に用いられる分割方法例示を説明する。
まず初歩的に手と背景領域を位置決めし、例えば従来の「中央リングサラウンド法」を用いて初歩的に手領域及び手の対応する背景領域を分け、図4中の(a)図に示すように、記号1が示す矩形枠(以下、長方形枠1と略称する)内に初歩的に手領域として分け、長方形枠1と記号2が示す長方形枠(以下、長方形枠2と略称する)の間の領域は背景領域として分ける。図4の(a)においては、観察できるように、長方形枠1内に、真の手に属する画像画素の他、さらに部分背景領域画素を備え、長方形枠1全体内の画素を手前景画素とすると、部分ノイズを導入する。効果的に背景ノイズを削除するために、本実施例は奥行き情報を加え、奥行き情報に基づいて、真の手領域画素を得ることができ、図4中の(b)に示す通りである。従って、図4中の(c)に示すように、長方形枠2内に、真の手画素のほか、残りの画素は背景画素として定義される。図4中の(c)においては定義された手領域画素と背景画素に基づいて、最も手及びその背景画素を区分できる画像特徴を選択することができる。
手の有効特徴に基づいて、1つのシード特徴ライブラリを決定することができ、各シード特徴、例えば色特徴、形状特徴、輪郭特徴、面積特徴等はいずれも一定の状況下で手を背景から区分する可能性がある。各シード特徴の間の可能組合せは各候補特徴集合を形成する。各候補特徴集合の形成においては、事先にいくつの制限を加えて検索範囲を小さくして計算効率を向上させることができ、例えば特徴集合中の元素点数が1個又は2個である、特徴集合の元素が色特徴と形状特徴から選択される等と制限することができる。1つの例示においては、予めに興味のある各候補特徴集合を形成することができ、例えば色特徴で1つの候補特徴集合を形成し、形状特徴で別の候補特徴集合を形成し、輪郭特徴でさらに別の候補特徴集合を形成し、又はある特徴組合せで他の候補特徴集合を形成する。後続の第1特徴集合と第2特徴集合はこのような予め形成した興味のある各候補特徴集合から選択し、こうして検索効率を向上させることができる。
このように、手部領域と背景領域画像のサンプルを有し、及び候補特徴集合を有し、初期の第1特徴集合と第2特徴集合の選択を行うことができる。ただし、最初の第1特徴集合と第2特徴集合の決定に対して、人工で経験により決定することができ、特徴集合の対象と背景領域区分の能力(以下、適当に特徴又は特徴集合の区分能力と略称する)を自動評価し、区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定してそれぞれ第1特徴集合と第2特徴集合とする。
1つの実施例においては、後続の追跡過程中に、絶え間なく新たに各候補特徴集合の対象と背景領域区分の能力を評価し、予め決められた規則に基づいて第1特徴集合と第2特徴集合の更新を行うことができる。
特徴集合の対象と背景領域区分の能力の評価方法に対して、例えば開放試験(CHI)、情報ゲイン(information gain、IG)、相互情報量(mutual information、MI)、主成分分析(Principle Component Analysis、PCA)等の方法を利用することができる。
能力区分を評価することにより第1特徴集合と第2特徴集合を選定した後、これらの特徴に基づいて、訓練サンプルを学習することにより、対応する第1追跡テンプレートと第2追跡テンプレートを取得することができる。例えば、訓練サンプルに基づいて、すべての特徴の平均値と分散を計算して追跡テンプレートを形成することができる。
以下、対数類似度関数の分散比を最適特徴評価裏付けとして第1特徴集合と第2特徴集合を決定する方法例示を紹介し、及びさらにその後対象と背景のヒストグラム分布の対数尤度比(log like lihood ratio)を用いて追跡テンプレートを構造する方法例示を紹介する。対数類似度関数の分散比を用いて最適評価裏付けとすることに関する詳しい紹介は作者がRobert T.Collins等のIEEE transacti on sonpattern analysis and machine intelligence、vol.27、no.10、2005年10月に発表されたテーマが「Online Selection of Discriminative Tracking Features」の文章を参照することができる。
以下、シード特徴ライブラリがR、G、B三種類の色特徴を有し、最後に選択した特徴集合中に1種色特徴のみを含むと仮定し、図5を参照しながら特徴選択過程(後続追跡過程中にオンライン使用することができる)の1つの方法例示を説明する。
図5(a)〜(d)は例示性特徴評価過程の1つを示す模式図である。
(1)まず、対象画素領域と背景画素領域を分割し、図5(a)に示すように、具体的な過程は例えば図4に示す通りである。
(2)シード特徴ライブラリから1種特徴fを抽出し、それぞれ該特徴fの対象画素と背景画素上のヒストグラム分布を計算する。以下、それぞれHobjとHbgを用いて被追跡対象と背景領域画素の各特徴値での対応するヒストグラム分布を表す。図5(a)においては対応する対象と背景画素を例とし、R、G、B三種類の色特徴を算用して例示とすると仮定し、そのヒストグラム分布を計算し、図5(b)に示すように、その記号1が示す曲線は対象画素の異なる特徴値での対応するヒストグラム分布を表し、記号2が示す曲線はその背景画素の異なる特徴値上の対応するヒストグラム分布を表す。
(3)特徴評価関数により計算してスコアしてシーケンスして、最も区分能力を有する特徴を見つける。本実施例においては分散比(variance ratio)評価方法を用いて、まず各特徴の各特徴値iの対応する対数類似度割合値L(i)を計算し、計算公式は式(1)に示すように、次に公式(2)により分散比(variance ratio)を計算し、最後に分散比基づいて、区分能力順位が前である特徴を見つけ、そのうち分散比が大きくなるほど、該特徴区分能力が強くなることを表す。
公式(1)においては、Hobj(i)とHbg(i)はそれぞれ対応する特徴の対象と背景上の特徴値がiであるヒストグラム統計値を表す。例えば、特徴値i=100と仮定し、対応する追跡対象上で特徴値が100の画素個数は200個であり、このようにHObj(100)=200である。通常の状況下で、ヒストグラム統計値を正規化させる必要があり、正規化範囲は[0、1]の間である。例えばHobj(100)=200と仮定し、対象画素トータルが1000であり、このように正規化された後HObj(100)=0.2である。Sは非常に小さい数であり、主に除数が0であることを防止、Sは0.0001又はさらに小さい値に設定してもよい。
公式(2)は分散比(varianceratio)を計算することに用いられる。公式(3)は公式(2)中に示すvar(L、H)を計算することに用いられる。
前記分散比公式(2)裏の直観物理意義は、対象と背景上の画素の対数尤度値が緊密的にクラスタリング(言い換えれば、同一類間の分散が低い)されると同時に、2つのクラスタリング(即ち対象と背景)の間ができる限り分離(異なる類間の分散が高い)することを我々が希望している。
分散比に基づいて、シード特徴ライブラリ中のすべてのシード特徴の現在画像中での区分能力を評価し、現在画像にとって最も区分特性を有する特徴を見つける。例えば、図5(d)においては、R、G、B三種類の簡単な色特徴を例とし、分散比計算結果に基づいて、現在画像中物体と背景に対して最もよい区分能力を有する特徴はB、その次はR、最後はGである。
1つの例示においては、信頼度図(confidence map)を用いて異なる特徴の同一画像上で表す区分能力を表し、例えば図5(c)と図5(d)に示す通りである。信頼度図は明らかほど、該特徴区分特性がよくなると表す。最終に生成された信頼度図の明瞭度に基づいて、分散比を用いて特徴区分能力を評価する効果性を検証し、最終にシーケンス結果は図5(d)に示す。
このように、第1特徴集合と第2特徴集合内に元素個数が1である場合、言い換えれば、第1追跡テンプレートと第2追跡テンプレートそれぞれ1つの特徴是に基づいて構築された場合、区分能力が最も強い前の2つの特徴を選択して第1最適特徴と第2最適特徴とし、それぞれ第1追跡テンプレートと第2追跡テンプレートを構築することができる。
サンプル数がS1(S1フレーム画像)である場合、即ちS1個対象と背景ヒストグラム分布対(Hobj1、Hbg1)、(Hobj2、Hbg2)、...、(HobjS1、HbgS1)が存在し、言い換えれば、(Hobj1、H0bj2、...H0bjs1)はS1フレームにおいては対象画素の異なる特徴値で対応するヒストグラム分布であり、(Hbg1、Hbg2、...Hbgs1)はS1フレームにおける背景画素の異なる特徴値上の対応するヒストグラム分布である。なお、フレーム数S1は1フレームであってもよい。好ましくは、該S1個サンプルにおいて、各サンプル特徴に対する評価結果は、いずれも第1最適特徴が、区分能力が最も強い特徴である。しかし、必ずそうではなく、必要に応じて、第1最適特徴がすべてのS1個サンプル中にいずれも区分能力が最も強い特徴として表現することを要求しない。
第1追跡テンプレートが基づく第1最適特徴、及び第1サンプル集合(Hobj1、Hbg1)、(Hobj2、Hbg2)、...、(HobjS1、HbgS1)を決定した場合、訓練学習により初期第1追跡テンプレートT1を作成することができ、公式(4)に示す通りである。訓練学習方法に関して、例えばサポートベクターマシン、ランダムフォレスト等がある。
公式(4)中のF1は該第1追跡テンプレートT1の構築が第1最適特徴F1に基づくことを表す。
本発明の1つの実施例において、公式(1)に類似する下記の式(5)により第1追跡テンプレートT1を構築する。
(γ、γ、...γS1)は異なる物体ヒストグラム統計(Hobj1、Hobj2、...HobjS1)が対応する重み係数を表し、(ρ、ρ、...ρs1)は異なる背景ヒストグラム(Hbg1、Hbg2、...Hbgs1)が対応する重み系数値を表す。1つの例示においては、S1個サンプル中の各サンプルは初期追跡テンプレートの形成に対して同等作用を有すると仮定することで、(γ、γ、...γS1)と(ρ、ρ、...ρs1)の重み係数値は同じ且つ1/Slと設定される。
類似的に、S2個の第2追跡テンプレートを構築するためのサンプル(即ちS2フレーム画像)が存在すると仮定し、即ちS2個対象と背景のヒストグラム分布対(HObj1、Hbg1)、(Hobj2、Hbg2)、...、(Hobjs2、HbgS2)が存在し、言い換えれば、(H0bj1、Hobj2、...HobjS2)はS2フレームにおいては対象画素の対応するヒストグラム分布であり、(Hbg1、Hbg2、...HbgS2)はS2フレームにおいては背景画素の対応するヒストグラム分布である。ただし、S2は1であってもよい。好ましくは、該S2個サンプルにおいては、各サンプル特徴を評価する結果、いずれも第2最適特徴は区分能力が第2の強い特徴である。しかし、これは必要不可欠なものではなく、実際の必要と制限等によるものであり、必ず第2最適特徴が、すべてのS2個サンプルにおいていずれも区分能力が第2強い特徴として表現されることを要求するものではない。
公式(4)に類似し、第2最適特徴F2と第2サンプル集合S2に基づいて、下記公式(6)に基づいて訓練学習により第2追跡テンプレートT2を構造することができる。
公式(6)中のFは該追跡テンプレート構築が第2最適特徴F2に基づくことを表す。
特に、公式(5)に類似し、1つの例示においては、下記の式(7)に基づいて第2追跡テンプレートT2を構築することができる。
(α、α、...αS2)は異なる物体ヒストグラム統計(Hobj1、Hobj2、...HobjS2)の対応する重み係数であり、(β、β、..βS2)は異なる背景ヒストグラム(Hbg1、Hbg2、...HbgS2)の対応する重み係数値である。1つの例示においては、S2個サンプル中の各サンプルは初期追跡テンプレートの形成に対して同等作用を有すると仮定することで(α、α、...αS2)と(β、β、..βS2)の重み係数値は同じ且つ1/S2と設定される。
また、第1追跡テンプレートと第2追跡テンプレートの構築は同じ又は異なる(又は独立的な)サンプル集合に基づくことができる。しかし、第1追跡テンプレートが基づく特徴又は特徴集合はかならず第2追跡テンプレートが基づく特徴又は特徴集合と異なる。
また、上記説明中、第1追跡テンプレートは第1最適特徴(区分能力が最も強い特徴)に基づき、第2追跡テンプレートは第2最適特徴(区分能力が第2強い特徴)に基づくと説明した。しかし、これらは例示に過ぎず、実際上に、両者は互いに交換してもよく、即ち第1追跡テンプレートは第2最適特徴(区分能力が第2強い特徴)に基づき、第2追跡テンプレートは第1最適特徴(区分能力が最も強い特徴)に基づくと説明してもよく。さらに又は、第1追跡テンプレートと第2追跡テンプレートはかならず区分能力が前の2名の特徴に基づくことがなく、ある配慮のため区分能力さらに次の他の特徴に基づいてもよい。普通、毎回選択した特徴は好ましくが区分能力が比較的強い特徴であり、しかし、特徴が比較的強い区分能力を持つかどうかを判断するには、異なる評価標準を有してもよく、従ってこの評価標準は異なり、得られた特徴区分能力シーケンスも異なる。例えば、色特徴が一定状況下で比較的強い区分能力有するがいくつの状況下で非常に弱いと仮定し、形状特徴区分能力が強くなく、しかし、いつでも一定の区分能力を有することで、安定性を重視する状況下で、形状特徴は区分能力が色特徴より強いと見なす。
また、ヒストグラムの具体形式、例えば画素の値を取る可能な数に基づいて、数学から見れば、HObjは実際上に多次元ベクトルであり、例えば選択したのがR色特徴である場合、その特徴値が256個、0〜255であり、HObjは実際上にRの値が0の画素個数、R値が1の画素個数、...、R値が255の画素個数のような256次元ベクトルの形式と表現する。もちろん、必要に応じて、値区間を設定して、統計を行うことができ、例えばRの値は[0、7]、[8、15]、...[248、255]の区間に分けられ、この時HObjは32次元ベクトルと表現する。注意すべきなのは、公式(1)、(5)、(7)の演算は各次元に対していずれも独立に行われる。
また、前記例示は各特徴集合内の元素が1つの特徴であることを例として説明を行ったが、これらは例示に過ぎず、実際上に各特徴集合内の元素は1つより多くてもよい。依然として上記のR、G、B色特徴を例として、この時2つの色特徴を選択して特徴集合を構成する。依然として上記のヒストグラム分布で特徴の対象と背景の区分能力を計算して及び特徴を選択する場合、2つの特徴のヒストグラムでジョイントヒストグラム(joint histogram)又は二次元ヒストグラムを構成して、次に前記の類似の処理を行うことができる。類似的に、3つ又は更に多い特徴を選択して特徴集合を構成してもよく、例えば3つ又はそれ以上の特徴のヒストグラムでジョイントヒストグラム又は対応次元数のヒストグラムを構成して、次に前記の類似の処理を行うことができる。
以上、第1特徴集合と第2特徴集合を選択し、及び初期第1追跡テンプレートと第2追跡テンプレートを構築する方法の例を説明した。前述したように、これらは例示に過ぎず、他の特徴選択方法とテンプレート構築方法も本発明に用いることができる。
<3.2手の位置決め>
第1追跡テンプレートと第2追跡テンプレートを決定した後、入力画像に対して、それぞれ第一追跡テンプレートと第2追跡テンプレートを用いて対象の入力画像中の位置を決定又は検索し、第1位置と第2位置を取得することができる。
1つの例示においては、第1追跡テンプレートと第2追跡テンプレートを用いて対象の入力画像中の位置を決定又は検索することは、対象出現領域の予測操作を行い、次に後続で該予測して得られた対象出現領域内に対象を検索することを含んでもよい。
例えば、対象の以前の運動情報、例えば速度、加速度等に基づいて、対象の入力画像中の候補出現領域を予測することができる。
具体的には、例えば、局所範囲内に、手運動が等速運動に近似し、運動速度を予測裏付けとすると、現在画像中、手が出現する可能性のある位置は公式(8)と(9)に基づいて計算することができる。現在、よく使われる運動予測方法はkalmanフィルタリング、粒子フィルタリング等があり、本実施例はいずれか1種予測方法を用いてもよい。
公式(8)において、(Sx、t-1、Sy、t-1)は前の1つのフレーム中(t−1時刻)における手の位置点の横座標と縦座標であり、(Sx、t、Sy、t)は現在画像(t時刻)において手が出現する可能性のある位置点の横座標と縦座標である。Δtは連続的な両フレームの間の時間間隔である。公式(9)は運動速度計算公式を示す。
別の例示において、位置領域の予測は奥行き(又は距離)の予測をさらに備える。この場合、前記公式(8)と(9)はそれぞれ以下の公式(10)と(11)に変化する。
候補領域の予測により、処理時間を低下させると同時にシステムの堅牢性を増強させることができ、本発明の1つの実施例においては常用のkalman予測方法を採用し、予測して得られた候補領域は図6に示す画像中の長方形枠を参照することができる。本発明の実施例による入力画像に基づいて対象位置決めを行う例示性過程を示す図である
次に、対象候補領域内に、2種の異なる追跡テンプレートに基づいて、それぞれ対象の位置を位置決めする。
追跡テンプレートの相違に基づいて、対象位置決め方法も異なってもよい。例えば、一般的な対象位置決め方法又は検索方法は、所定の大きさの摺動ウインドで対象候補領域を遍歴し、追跡テンプレートと摺動ウインドの所在する領域の間のマッチング度(又は類似度)を計算し、マッチング度(類似度)が最も高いウインド領域を検索された対象領域とし、さらに対象位置を決定することができる。
1つの例示において、それぞれ第1追跡テンプレートと第2追跡テンプレートに基づいて逆投影法を用いて候補領域に対応する第1信頼度図と第2信頼度図を計算し、図6中の段階2を参照する。次に異なる信頼度図に基づいて、平均値シフト法(mean shift)を用いて信頼度図の重心即ち手の可能な追跡位置点を計算し、図6中の段階3を参照する。逆投影法で計算して得られた信頼度図は現在画像領域の対応する画素が目標画像のヒストグラム分布程度を満たすことを反映し、目標ヒストグラム分布に符合するほど、該画素が目標画素に属する可能性がより大きいことを表明する。図7(a)は1つの例示において第1追跡テンプレートと第2追跡テンプレートで現在候補領域(左図のボックスに示す)を計算してそれぞれ得られた第1信頼度図と第2信頼度図を模式的に示す図である。信頼度図において対応する画素値が大きければ大きいほど(明るければ明るいほど)、該画素が目標物体に属する可能性が大きくなることを表明し、画素値が小さければ小さいほど(暗ければ暗いほど)、該画素が背景に属する可能性が大きくなることを表明する。図7(b)は該例示において平均値シフト法で計算して得られた第1信頼度図の重心(手の第1位置に対応する)と第2信頼度図の信頼度図(手の第2位置に対応する)を模式的に示す図である。
対数尤度比特徴に基づいて対象と背景区分の能力と平均値シフト(meanshift)を評価する追跡アルゴリズムに関する詳しい紹介は、2008年2月Image Processing、IEEE Transactions on(Volume:17、Issue:2)に発表された、作者がJunqiu Wang等、テーマが「Integrating Color and Shape−Texture Features for Adaptive Real−Time Object Tracking」の文章を参照することができる。
図3に戻り、ステップS220においてそれぞれ第1追跡テンプレートと第2追跡テンプレートを用いて対象の入力画像中の位置を決定することで第1位置と第2位置を取得した後、図3に示す過程はステップS230に移行する。
ステップS230において、該第1位置と第2位置に基づいて、対象の入力画像中の最終位置を決定する。
このステップは第1位置と第2位置を組み合せ、最後の位置点を取得し、図6における段階4を参照する。
1つの例示において、公式(12)を用いて第1位置locationfirstと第2位置locationsecondを組み合わせ、最後の位置点new locationを取得する。
公式(12)に、αとβはそれぞれ第1位置locationfirstと第2位置locationsecondの対応する重み係数を表し、そのうちα、β∈[0、1]且つα+β=1である。第1位置locationfirstと第2位置locationsecondはいずれも同等で信頼的だと判断された時、α=β=0.5に設定してもよく、それ以外の場合はリアルタイムに重み係数を調整することができる。図7(c)に第1位置と第2位置を組み合わせることにより得られた最終位置点を示す模式図である。第1位置locationfirstと第2位置locationsecondの信頼性に対して、主に追跡結果の信頼性に基づいて判断することができ、例えば主に先験的な知識法を用いて追跡結果、例えば形状情報(手のアスペクト比例値)、面積情報、奥行き情報、手領域全体の平均奥行き値等を判断することができる。
ステップS230の後、ステップS240に移行する。
ステップS240において、所定数のフレームごとに第1追跡テンプレート更新を行い、及び予め設定された規則に基づいて、第2追跡テンプレートを更新し、第2追跡テンプレートと第1追跡テンプレートは個別に更新を行い、且つ第2追跡テンプレートの更新頻度は第1追跡テンプレートよりも低い。
第1追跡テンプレートの自己適応性を保証するために、所定フレーム数ごとに第1追跡テンプレート更新を行い、例えばフレームごとに第1追跡テンプレート更新を行い、又は計算経営資源とリアルタイムニーズ等の要素を配慮して、例えば両フレームごと又はさらに多いフレームごとに第1追跡テンプレートの更新を行うことができる。
具体的には、1つの例示において、公式(13)に基づいて第1追跡テンプレート更新を行うことができる。
公式(13)において、Tlは更新された後の第1追跡テンプレートであり、Tlcandidateは現在候補目標であり、Tli-1は前の1つのフレームに使用する追跡テンプレートであり、αは類似度重み値であり、その値はTlcandidateとTli-1の間の類似度に基づいて決定することができる。
初期第1追跡テンプレートTlは例えば前記公式(4)を用いて学習して得ることができる。
また、第2追跡テンプレートの堅牢性を保障するために、且つ同時に始終に不変な第2追跡テンプレートを用いて環境等の変化に適合しなくなることをもたらすことを防止するために、予め設定された規則に基づいて第2追跡テンプレートを更新し、第2追跡テンプレートと第1追跡テンプレートは独立に更新を行い、且つ第2追跡テンプレートの更新頻度は第1追跡テンプレートより低い。
例えば、1つの例示において、n2フレームおきに第2追跡テンプレートを更新することができ、且つ、nlフレームおきに第1追跡テンプレートを更新すると仮定し、n2>nlを保証すべきである。
別の例示において、第2追跡テンプレートが追跡した追跡結果の信頼性を評価することができ、該信頼性が所定閾値より低いと、第2追跡テンプレートを更新することを決定する。
別の例示において、下記のように、第2追跡テンプレートが基づく第2特徴集合を更新するかどうかを評価することができ、且つ第2特徴集合を更新すると判定し且つすでに第2特徴集合を更新した場合のみで、更新された第2特徴集合に基づいて第2追跡テンプレートを更新する(又は再構築する)。
どの予め設定された規則に基づいて第2追跡テンプレートを更新するにもかかわらず、第2追跡テンプレートと第1追跡テンプレートの間の更新はいずれも独立的であり、且つ第2追跡テンプレートの更新頻度は第1追跡テンプレートより低い。
ステップS240において第1と第2追跡テンプレートを更新するかどうかを判断し、及び必要があれば第1と第2追跡テンプレートを更新した後、処理を終了させることができ、又は必要があれば続けて追跡を行い、ステップS210に戻って、前記処理を繰り返すことができる。
本発明の前述の実施例の対象追跡方法は、2種の追跡テンプレート、即ち第1追跡テンプレートと第2追跡テンプレートを総合し、第1追跡テンプレートと第2追跡テンプレートは異なる特徴集合を用いて作成して得られたものである。同時に、本発明の実施例中の2種の追跡テンプレートの更新頻度は異なり、両者は独立に更新を行い、第2追跡テンプレート更新の頻度は第1追跡テンプレートより低い。このように、第1追跡テンプレートはより多く自己適応性を保証し、環境の変化、例えば光照条件変化、形状変化、背景変化等に適応し、第2追跡テンプレートは一定の範囲で追跡テンプレートの安定性を維持し且つノイズに汚染されず、同時に状況に応じて必要な時に更新を行うことができる。従って最終に形成された追跡テンプレートはより良好に異なる環境に適応し且つ十分な安定を保証し、互いに補完することで追跡方法の堅牢性を向上させることができる。
<4、対象追跡方法の第2実施例>
前記第1実施例ではテンプレート更新を行うことのみを説明した。以下、説明しようとする第2実施例の対象追跡方法はオンラインテンプレート更新を行うとともにオンライン特徴更新も行う。
以下、図8を参照しながら本発明第2実施例による例示性対象追跡方法300の全体フローチャートを説明する。
図8は本発明第2実施例による例示性対象追跡方法300を示す全体フローチャートである。図8に示す第2実施例の対象追跡方法300は図3に示す対象追跡方法200の相違がステップS340〜S390にあり、以下、ステップS340〜S390を重点として説明し、他のステップS310、S320及びS330は図3を参照しながら説明したステップS210、S220及びS230とほとんど同じ、ここでは繰り返して説明しない。
図に示すように、ステップS340において、第1特徴集合を更新するかどうかを判断する。
1つの実施例において、第1特徴集合を更新するかどうかを判断することは、現在追跡結果(ステップS330に得られた対象位置)に基づいて、新たに各候補特徴集合の対象と背景領域区分の能力を評価し、且つ評価して得られた最も強い特徴集合が以前使用する第1特徴集合と異なると発見したと、特徴更新を配慮することができる。別の実施例に、連続的にマルチフレームの特徴集合の新たに評価して得られた最も強い特徴集合はいずれも同じ、且つ以前使用する特徴集合と異なることを配慮し、且つ同時に満たす場合のみで、特徴集合更新を配慮する。
具体的には、1つの例示において、下記のように第1特徴集合を更新するかどうかを判定することができる。
(1)決定された対象の入力画像中の最終位置に基づいて、対象と背景領域を分割すること、
(2)対象と背景領域を分析することにより、各候補特徴集合の対象と背景領域を区分する能力を評価すること、
(3)区分能力が最も強い第1候補特徴集合を決定すること、
(4)現在に決定された区分能力が最も強い第1候補特徴集合は現在に使用している第1特徴集合と異なると、該区分能力が最も強い第1候補特徴集合を保存し、且つ現在画像を候補サンプルとして保存する。該第1候補特徴集合が後続の連続のmlフレームにおいていずれも区分能力が最も強い候補特徴集合であると評価されると、現在に使用する第1特徴集合が現在追跡環境に適合しなくなったと考えられ、第1特徴集合を更新することを決定し、それ以外の場合は第1特徴集合を更新しないと考えられる。mlは正整数であり、その大きさは人工設定され又は学習により決定されてもよい。
ステップS340において第1特徴集合を更新すると判定した場合、ステップS350に移行する。
ステップS350において、現在の第1特徴集合の代わりに、第1候補特徴集合を使用し、且つ相応的に第1追跡テンプレートを再構築する。本文中に、更新は広義的に解釈されてもよく、従って再構築も更新の1種と見なす。
第1追跡テンプレートを再構築する方法について、第1特徴集合とサンプル集合(前記各候補サンプルからなる)を有するため、1つの例示中に、前記の初期第1追跡テンプレートを構築する方法に基づいて第1追跡テンプレート(例えば、前記公式(4)と(5)を参照)を再構築することができる。
ステップS350が完成した後、ステップS370に移行する。
一方、ステップS340において第1特徴集合を更新する必要がないと決定した場合、ステップS360に移行する。
ステップS360において、図3を参照したステップS240中の一部に説明したことに類似し、所定フレーム数ごとに第1追跡テンプレートを更新する。
ただし、第1特徴集合更新と第1追跡テンプレート更新を経たと、この時のフレーム数カウントはクリアして新たに統計することができる。
次に、ステップS370において、第2特徴集合を更新するかどうかを判定する。前記ステップS340と類似し、1つの例示において、下記のように第2特徴集合を更新するかどうかを判定することができる。
(1)決定された対象の入力画像中の最終位置に基づいて、対象と背景領域を分割すること、
(2)対象と背景領域を分析することにより、各候補特徴集合の対象と背景領域を区分する能力を評価すること、
(3)区分能力が第2強い第2候補特徴集合を決定すること、
(4)現在に決定された区分能力が第2強い第1候補特徴集合は現在に使用している第2特徴集合と異なると、該区分能力が最も強い第2候補特徴集合を保存し、且つ現在画像を候補サンプルとして保存する。該第2候補特徴集合が後続の連続のm2フレームにおいていずれも区分能力が第2強い候補特徴集合であると評価されると、現在に使用する第2特徴集合が現在追跡環境に適合しなくなったと考えられ、第2特徴集合を更新することを決定し、それ以外の場合は第2特徴集合を更新しないと考えられる。m2は正整数であり、その大きさは人工設定され又は学習により決定されてもよい。
ただし、本ステップS370と前記ステップS340に、それぞれ、区分能力が第1強い特徴集合を第1特徴集合の代替候補とし、区分能力が第2強い特徴集合を第2特徴集合の代替候補とする。しかし、これらは例示に過ぎず、実際上に初期の第1特徴集合と第2特徴集合を選択する規則の相違に基づいて、後続の代替候補として決定する規則も異なる。
ステップS370において、第2特徴集合を更新すると決定した場合、ステップS380に移行する。
ステップS380において、現在の第1特徴集合の代わりに、第2候補特徴集合を使用し、且つ相応的に第2追跡テンプレートを再構築する。注意すべきなのは、本文中に、更新は広義的に解釈されてもよく、従って再構築も更新の1種と見なす。
第2追跡テンプレートの再構築方法について、第2特徴集合とサンプル集合(前記各候補サンプルからなる)有するため、1つの例示中に、前記の初期第2追跡テンプレートを構築する方法に基づいて第2追跡テンプレート(例えば、前記公式(6)と(7)を参照)を再構築することができる。
ステップS370中に、第2特徴集合を更新する必要がないと決定した場合、ステップS390に移行する。
ステップS390中に、図3を参照したステップS240中と第2追跡テンプレート更新に関連する一部に説明したことに類似し、予め設定された規則に基づいて第2追跡テンプレートを更新する。例えば、前記したように、1つの例示中に、n2フレームおきに第2追跡テンプレートを更新することができ、且つnlフレームおきに第1追跡テンプレートを更新すると仮定し、n2>n1を保証すべきである。
別の例示において、第2追跡テンプレートが追跡した追跡結果の信頼性を評価することができ、該信頼性が所定閾値より低いと、第2追跡テンプレートを更新することを決定する。
また、前述したように、予め設定された規則は、第2特徴集合を更新すると判定し且つすでに第2特徴集合を更新した場合のみで、更新された第2特徴集合に基づいて第2追跡テンプレートを更新する(又は再構築する)ことであると、ステップS380においてすでに第2追跡テンプレートを再構築(又は更新)したため、この時ステップS380とS390は1つのステップに合併することができ、又はステップS390にいかなる更新操作を行わない。
ステップS380又はS390の後に、処理を終了させることができ、又は引き続き対象追跡を行う必要があると、ステップS310中に戻り、次に前記処理を繰り返すことができる。
理解の便宜上、図9は別の視点から第3実施例の対象追跡方法の過程を模式的に示す図である。図9に示すように、現在位置で、画像中の長方形枠に示す対象と背景の分割結果を取得し、次に各候補特徴集合の対象と背景区分の能力を評価することにより、第1候補特徴集合と第2候補特徴集合を取得し、第1候補特徴集合で第1特徴集合を更新する条件を満たすかどうかを判断し、満たすと、第1特徴集合を更新し且つ第1追跡テンプレートを新たに構築し、それ以外の場合は所定フレーム数ごとに第1追跡テンプレートを更新し、類似的に第2候補特徴集合で第2特徴集合を更新する条件を満たすかどうかを判断し、満たすと、第2特徴集合を更新し且つ第2追跡テンプレートを新たに構築し、それ以外の場合は予め設定された規則に基づいて第2追跡テンプレート(第2追跡テンプレートを更新しないことを含む)を更新する。
こうして、前記対象追跡方法はリアルタイムに特徴の選択を行い、従って異なる時刻と異なる環境に適応して最適の特徴を採用すると同時に、追跡するテンプレートを更新することができ、さらにさらなるバランスの自己適応性と安定性を提供することができる。
<5、対象追跡を行うための計算システム>
本発明はさらに対象追跡を行うための計算システムにより実施することができる。図10は本発明実施形態を実現するための例示性計算システム600を示すブロック図である。図10に示すように、計算システム600は、CPU(中央処理ユニット)601、RAM(ランダムアクセスする記憶器)602、ROM(読み出し専用メモリ)603、システムバス604、ハードディスクコントローラ605、キーボードコントローラ606、シリアルインタフェースコントローラ607、並行インタフェースコントローラ608、表示コントローラ609、ハードディスク610、キーボード611、シリアル外部設備612、並行外部設備613及びディスプレイ614を備えても良い。これらの設備において、システムバス604にカップリングされたのはCPU601、RAM602、ROM603、ハードディスクコントローラ605、キーボードコントローラ606、シリアルコントローラ607、並行コントローラ608及び表示コントローラ609である。ハードディスク610はハードディスクコントローラ605にカップリングされ、キーボード611はキーボードコントローラ606にカップリングされ、シリアル外部設備612はシリアルインタフェースコントローラ607にカップリングされ、並行外部設備613は並行インタフェースコントローラ608にカップリングされ、及びディスプレイ614は表示コントローラ609にカップリングされる。図16に記載の構成ブロック図は例示の目的のために過ぎず、本発明範囲を制限するものではないと理解すべきである。いくつの場合、具体的な状況に応じていくつの設備を増加又は減少させることができる。
属する技術分野の当業者は、本発明がシステム、装置、方法又はコンピュータプログラム製品として実現することができると分かる。従って、本発明の具体的な実現は以下の形式であり、即ち、完全なハードウェアであってもよく、完全なソフトウェア(ファームウエア、常駐ソフトウェア、マイクロコード等を含む)であってもよく、さらにハードウェアとソフトウェアの結合形式であってもよく、本文は普通「回路」、「モジュール」、「装置」又は「システム」と称する。また、いくつの実施例において、本発明は1つの又は複数のコンピュータ可読媒体中のコンピュータプログラム製品の形式として実現することもでき、該コンピュータ可読媒体中にコンピュータ可読のプログラムコードを含む。
1つの又は複数のコンピュータ可読媒体を用いて任意に組み合わせることができる。コンピュータ可読媒体はコンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は例えば電、磁、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又は任意の上記の組合せであってもよいがそれらに限らない。コンピュータ可読記憶媒体の更なる具体的な例(非網羅的なリスト)は、1つの又は複数のリード線を有する電気接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、携帯型コンパクトディスク読み出し専用メモリ(CD−ROM)、光メモリ件、磁記憶装置、又は前記の任意の適切な組合せを含む。本ファイルにおいて、コンピュータ可読記憶媒体はいかなるプロクラムを含む又は記憶する有形媒体であってもよく、該プログラムは命令実行システム、装置又はデバイスに使用され又はそれと結合して使用されることができる。
コンピュータ可読の信号媒体はベースバンド中に又は搬送波の一部として伝播するデータ信号を含んでも良く、そのうちコンピュータ可読のプログラムコードを携帯している。このような伝播するデータ信号は多種の形式を用いてもよく、電磁信号、光信号又は前記の任意の適切な組合せを含むがこれらに限らない。コンピュータ可読の信号媒体はさらにコンピュータ可読記憶媒体の他のいかなるコンピュータ可読媒体であってもよく、該コンピュータ可読媒体は命令実行システム、装置又はデバイスに使用され又はそれと結合して使用されるプログラムを送信、伝播又は伝送することができる。
コンピュータ可読媒体上に含むプログラムコードはいかなる適当な媒体伝送に用いてもよく、無線、電線、光ファイバーケーブル、光ケーブル、RF等、又は前記のいかなる適切な組合せを含むが、これらに限らない。
1種又は多種プログラミング言語又はその組合せで本発明操作を実行するためのコンピュータプログラムコードを書くことができ、前記プログラミング言語は対象向けのプログラミング言語―――例えばJava(登録商標)、Smalltalk、C++を備え、通常の過程式プログラミング言語―――例えば「C」言語又は類似するプログラミング言語をさらに備える。プログラムコードは完全にユーザーコンピュータ上に実行され、一部がユーザーコンピュータ上に実行され、1つの独立したソフトウェアパッケージとして実行され、一部がユーザーコンピュータ上に一部がリモートコンピュータ上に実行され、又は完全にリモートコンピュータ又はサーバー上に実行されてもよい。リモートコンピュータにかかわる場合、リモートコンピュータはいかなる種類のネットワーク―――ローカルエリアネットワーク(LAN)又はウィメンズアクションネットワーク(WAN)を含む―――によりユーザーコンピュータ、又は、外部コンピュータ(例えばインターネットサービス提供者を用いてインターネットにより接続する)に接続することができる。
以上、本発明の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら本発明を説明した。フローチャート及び/又はブロック図の各ボックス及びフローチャート及び/又はブロック図における各ボックスの組合せは、コンピュータプログラム命令により実現することができると理解すべきである。これらのコンピュータプログラム命令は汎用コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置の処理器に提供して1種の機器を生産することができ、これらのコンピュータプログラム命令はコンピュータ又は他のプログラマブルデータ処理装置により実行され、フローチャート及び/又はブロック図におけるボックス中に規定の機能/操作を実現する装置を生じる。
これらのコンピュータプログラム命令をコンピュータ又は他のプログラマブルデータ処理装置を特定形態で作動させるコンピュータ可読媒体中に記憶してもよく、このように、コンピュータ可読媒体中に記憶している命令はフローチャート及び/又はブロック図中のボックスに規定の機能/操作を実現する命令装置(instruction means)を含む製造品(manufacture)を生じる。
コンピュータプログラム命令をコンピュータ、他のプログラマブルデータ処理装置、又は他の設備上にローディングして、コンピュータ、他のプログラマブルデータ処理装置又は他の設備上に一連の操作ステップを行わせ、コンピュータ実現の過程を発生させ、従ってコンピュータ又は他のプログラマブル装置上に実行する命令にフローチャート及び/又はブロック図中のボックス中に規定の機能/操作を実現する過程を提供させることができる。
前記は説明用に過ぎず、多くの修正及び/又は取り替えを行うことができる。
例えば、前記説明において、追跡対象例示は手であり、しかし、これは例示に過ぎず、追跡対象は人の顔、体全体、他の能動的な物体等であってもよい。
さらに例えば、前記説明において、色特徴を例として特徴評価、特徴選択及びテンプレート構築を説明したが、これは例示に過ぎない。実際上に、採用する特徴は特に制限されず、形状特徴、輪郭特徴、面積特徴等であってもよい。
さらに前記説明において、分散比率を用いて特徴の対象と背景区分の能力を評価し、実際上に他の方法、例えば開放試験(CHI)、情報ゲイン(informationgain、IG)、相互情報量(mutualinformation、MI)、主成分分析(PrincipleComponentAnalysis、PCA)等の方法を用いて特徴を評価してもよい。
さらに例えば、前記説明において、対象位置決め方法は逆投影を用いて、信頼度を取得し、次に平均値シフト方法を用いて対象の位置を決定するように説明した。実際上に他の対象位置きめ方法、例えばユークリッド距離計算、他の類似度計算方法等を採用することができる。
図面中のフローチャート及びブロック図は本発明の複数の実施例によるシステム、方法及びコンピュータプログラム製品が実現可能なシステムアーキテクチャ、機能及び操作を示す。この点で、フローチャート又はブロック図における各ボックスは1つのモジュール、ブロック又はコードの一部を代表することができ、前記モジュール、ブロック又はコードの一部は1つの又は複数の所定のロジック機能を実現するための実行可能な命令を含む。注意すべきなのは、いくつの取り替えとしての実現において、ボックス中にマークする機能は図面中にマークした順序と異なる順序で発生することができる。例えば、2つの連続的なボックスは実際上に基本的に並行して実行することができ、これらは逆の順序で実行できる場合もあり、これはかかわる機能により決まる。ともに注意すべきなのは、ブロック図及び/又はフローチャート中の各ボックス、及びブロック図及び/又はフローチャート中のボックスの組合せは、所定の機能又は操作を実行するための専用的なハードウェアに基づくシステムで実現してもよく、又は専用ハードウェアとコンピュータ命令の組合せで実現してもよい。
以上は、本発明の各実施例を説明したが、前記説明は例示的であり、網羅的ではなく、且つ披露した各実施例に限らない。説明した各実施例の範囲と趣旨から脱逸しない場合、本技術分野の一般の当業者にとって、多くの修正及び変更は容易に想到しえるものである。本文中に使用する用語の選択は、最善的に各実施例の原理、実際応用又は市場における技術への改良を解釈し、又は本技術分野の他の一般の当業者に本文に披露した各実施例を理解させられることを目的とする。
米国特許出願公開第US20100310127A1号
Junqiu Wangら、「Integrating Color and Shape−Texture Features for Adaptive Real−Time Object Tracking」、Image Processing、IEEE Transactionson、2008年2月、Volume17、Issue2

Claims (18)

  1. 画像を順次に入力するステップと、
    1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、前記第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、
    前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定するステップと、を含み、
    前記第1追跡テンプレートは所定数のフレームごとに更新され、前記第2追跡テンプレートは予め設定された規則に基づいて更新され、前記第2追跡テンプレートと前記第1追跡テンプレートとは個別に更新され、前記第2追跡テンプレートの更新頻度は前記第1追跡テンプレートの更新頻度よりも低い、対象追跡方法。
  2. 決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割するステップと、
    対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップと、
    区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定するステップと、
    前記第1候補特徴集合を用いて前記第1特徴集合を更新するか否かを判断し、前記第2候補特徴集合を用いて前記第2特徴集合を更新するか否かを判断するステップと、
    前記第1候補特徴集合を用いて前記第1特徴集合を更新すると判断された場合、前記第1特徴集合を更新し、該更新された第1特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第1追跡テンプレートを再構築し、そうでない場合は、所定数のフレームの画像ごとに前記第1追跡テンプレートを更新し、前記第1特徴集合をそのままにするステップと、
    前記第2候補特徴集合を用いて前記第2特徴集合を更新すると判断された場合、前記第2特徴集合を更新し、該更新された第2特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第2追跡テンプレートを再構築するステップと、をさらに含む請求項1に記載の対象追跡方法。
  3. 前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップは、
    対象の運動情報に基づいて、対象の入力画像における候補出現領域を予測するステップと、
    前記候補出現領域において、前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、前記第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、を含む請求項1に記載の対象追跡方法。
  4. 所定数のフレームごとに前記第1追跡テンプレートを更新する際に、各フレームの入力画像ごとに前記第1追跡テンプレートを更新する請求項1に記載の対象追跡方法。
  5. 前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップは、
    それぞれ前記第1追跡テンプレート及び前記第2追跡テンプレートに基づいて、対象の入力画像における候補領域に対応する第1信頼度図及び第2信頼度図を計算するステップと、
    それぞれ前記第1信頼度図及び前記第2信頼度図に基づいて、平均値シフト法により対象の前記第1信頼度図における第1位置及び対象の前記第2信頼度図における第2位置を前記対象の入力画像における第1位置と前記対象の入力画像における第2位置として取得するステップと、を含む請求項1に記載の対象追跡方法。
  6. 前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定するステップは、
    それぞれ前記第1位置の信頼性及び前記第2位置の信頼性を決定するステップと、
    前記第1位置の信頼性及び前記第2位置の信頼性に基づいて、前記第1位置が占める重み及び前記第2位置が占める重みを決定するステップと、
    前記第1位置の重み及び前記第2位置の重みに基づいて、前記第1位置と前記第2位置の加重和を、前記対象の入力画像における最終位置として計算するステップと、を含む請求項1に記載の対象追跡方法。
  7. 前記所定数のフレームごとに第一追跡テンプレートを更新する際に、
    現在の追跡テンプレート及び現在の追跡された対象の加重和に基づいて、更新された第1追跡テンプレートを取得する請求項1に記載の対象追跡方法。
  8. 前記各候補特徴集合は独立した1つの特徴又は複数の特徴の組合せからなり、
    前記対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップは、
    それぞれ各候補特徴集合の対象領域及び背景領域画素についてのヒストグラム分布を計算するステップと、
    特徴評価関数により前記各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップと、を含む請求項2に記載の対象追跡方法。
  9. 前記入力された画像は奥行き情報を含み、
    前記決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割するステップは、奥行き情報に基づいて前記対象領域と背景領域を分割するステップを含む請求項2に記載の対象追跡方法。
  10. 画像を順次に入力する画像入力部と、
    1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定する第1追跡テンプレート位置決定部と、
    前記第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定する第2追跡テンプレート位置決定部と、
    前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定する対象最終位置決定部と、
    所定数のフレームごとに前記第1追跡テンプレートを更新する第1追跡テンプレート更新部と、
    予め設定された規則に基づいて前記第2追跡テンプレートを更新する第2追跡テンプレート更新部と、を含み、
    前記第2追跡テンプレートと前記第1追跡テンプレートとは個別に更新され、前記第2追跡テンプレートの更新頻度は前記第1追跡テンプレートの更新頻度よりも低い、対象追跡装置。
  11. 決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割する分割部と、
    対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価する評価部と、
    区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定する決定部と、
    前記第1候補特徴集合を用いて前記第1特徴集合を更新するか否かを判断し、前記第2候補特徴集合を用いて前記第2特徴集合を更新するか否かを判断する判断部と、
    前記第1候補特徴集合を用いて前記第1特徴集合を更新すると判断された場合、前記第1特徴集合を更新し、該更新された第1特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第1追跡テンプレートを再構築し、そうでない場合は、所定数のフレームの画像ごとに前記第1追跡テンプレートを更新し、前記第1特徴集合をそのままにする第1更新部と、
    前記第2候補特徴集合を用いて前記第2特徴集合を更新すると判断された場合、前記第2特徴集合を更新し、該更新された第2特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第2追跡テンプレートを再構築する第2更新部と、をさらに含む請求項10に記載の対象追跡装置。
  12. 対象の運動情報に基づいて、対象の入力画像における候補出現領域を予測し、
    前記第1追跡テンプレート位置決定部は、前記候補出現領域において、前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、
    前記第2追跡テンプレート位置決定部は、前記候補出現領域において、前記第2追跡テンプレートを用いて対象の入力画像における第2位置を決定する請求項10に記載の対象追跡装置。
  13. 前記第1追跡テンプレート更新部は、各フレームの入力画像ごとに前記第1追跡テンプレートを更新する請求項10に記載の対象追跡装置。
  14. それぞれ前記第1追跡テンプレート及び前記第2追跡テンプレートに基づいて、対象の入力画像における候補領域に対応する第1信頼度図及び第2信頼度図を計算し、
    前記第1追跡テンプレート位置決定部は、前記第1信頼度図に基づいて、平均値シフト法により対象の前記第1信頼度図における第1位置を、前記対象の入力画像における第1位置として取得し、
    前記第2追跡テンプレート位置決定部は、前記第2信頼度図に基づいて、平均値シフト法により対象の前記第2信頼度図における第2位置を、前記対象の入力画像における第2位置として取得する請求項10に記載の対象追跡装置。
  15. 対象最終位置決定部は、
    それぞれ前記第1位置の信頼性及び前記第2位置の信頼性を決定し、
    前記第1位置の信頼性及び前記第2位置の信頼性に基づいて、前記第1位置が占める重み及び前記第2位置が占める重みを決定し、
    前記第1位置の重み及び前記第2位置の重みに基づいて、前記第1位置と前記第2位置の加重和を、前記対象の入力画像における最終位置として計算する請求項10に記載の対象追跡装置。
  16. 前記第1追跡テンプレート更新部は、現在の追跡テンプレート及び現在の追跡された対象の加重和に基づいて、更新された第1追跡テンプレートを取得する請求項10に記載の対象追跡装置。
  17. 前記各候補特徴集合は独立した1つの特徴又は複数の特徴の組合せからなり、
    前記評価部は、
    それぞれ各候補特徴集合の対象領域及び背景領域画素についてのヒストグラム分布を計算し、
    特徴評価関数により前記各候補特徴集合の対象領域と背景領域を区分する能力を評価する請求項11に記載の対象追跡装置。
  18. 前記入力された画像は奥行き情報を含み、
    前記分割部は、奥行き情報に基づいて前記対象領域と背景領域を分割する請求項11に記載の対象追跡装置。
JP2014164040A 2013-08-23 2014-08-12 対象追跡方法及び対象追跡装置 Expired - Fee Related JP6458394B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310373327.9A CN104424634B (zh) 2013-08-23 2013-08-23 对象跟踪方法和装置
CN201310373327.9 2013-08-23

Publications (2)

Publication Number Publication Date
JP2015041383A true JP2015041383A (ja) 2015-03-02
JP6458394B2 JP6458394B2 (ja) 2019-01-30

Family

ID=52480416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014164040A Expired - Fee Related JP6458394B2 (ja) 2013-08-23 2014-08-12 対象追跡方法及び対象追跡装置

Country Status (3)

Country Link
US (1) US9311534B2 (ja)
JP (1) JP6458394B2 (ja)
CN (1) CN104424634B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135079A (ja) * 2019-02-13 2020-08-31 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム
JP2020135078A (ja) * 2019-02-13 2020-08-31 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679743B (zh) * 2012-09-06 2016-09-14 索尼公司 目标跟踪装置和方法,以及照相机
JP6072892B2 (ja) * 2013-02-27 2017-02-01 日立オートモティブシステムズ株式会社 撮像装置及び車両制御装置
CN104794733B (zh) 2014-01-20 2018-05-08 株式会社理光 对象跟踪方法和装置
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US10092220B2 (en) * 2014-03-20 2018-10-09 Telecom Italia S.P.A. System and method for motion capture
CN105096259B (zh) 2014-05-09 2018-01-09 株式会社理光 深度图像的深度值恢复方法和系统
EP3057046A1 (en) * 2015-02-13 2016-08-17 Tata Consultancy Services Limited Method and system for employee assesment
JP6800628B2 (ja) * 2016-06-22 2020-12-16 キヤノン株式会社 追跡装置、追跡方法、及びプログラム
CN107610157B (zh) * 2016-07-12 2020-10-09 深圳雷柏科技股份有限公司 一种无人机目标追踪方法及系统
US10380756B2 (en) * 2016-09-08 2019-08-13 Sony Corporation Video processing system and method for object detection in a sequence of image frames
CN107729848B (zh) * 2017-10-20 2019-10-25 北京大学 对象检测方法及装置
CN109753846A (zh) * 2017-11-03 2019-05-14 北京深鉴智能科技有限公司 目标跟踪硬件实现系统和方法
CN108230359B (zh) * 2017-11-12 2021-01-26 北京市商汤科技开发有限公司 目标检测方法和装置、训练方法、电子设备、程序和介质
CN108229307B (zh) * 2017-11-22 2022-01-04 北京市商汤科技开发有限公司 用于物体检测的方法、装置和设备
CN108009506A (zh) * 2017-12-07 2018-05-08 平安科技(深圳)有限公司 入侵检测方法、应用服务器及计算机可读存储介质
CN109033955B (zh) * 2018-06-15 2020-08-14 中国科学院半导体研究所 一种人脸跟踪方法和系统
WO2020014901A1 (zh) * 2018-07-18 2020-01-23 深圳前海达闼云端智能科技有限公司 一种目标跟踪方法、装置、电子设备和可读存储介质
CN109271854B (zh) * 2018-08-07 2021-02-02 北京市商汤科技开发有限公司 基于视频处理方法及装置、视频设备及存储介质
CN110895819B (zh) * 2018-09-12 2022-11-29 长沙智能驾驶研究院有限公司 目标跟踪方法、装置、计算机可读存储介质和计算机设备
CN109658434B (zh) * 2018-12-26 2023-06-16 成都纵横自动化技术股份有限公司 一种目标跟踪的方法及装置
CN109785385B (zh) * 2019-01-22 2021-01-29 中国科学院自动化研究所 视觉目标跟踪方法及系统
CN109886997B (zh) * 2019-01-23 2023-07-11 平安科技(深圳)有限公司 基于目标检测的识别框确定方法、装置及终端设备
US11106949B2 (en) * 2019-03-22 2021-08-31 Microsoft Technology Licensing, Llc Action classification based on manipulated object movement
CN112184750A (zh) * 2019-06-13 2021-01-05 北京四维图新科技股份有限公司 基于视频图像的对象跟踪方法及装置
CN110660081B (zh) * 2019-09-18 2022-02-11 西安交通大学 一种基于自适应的特征选择的目标跟踪方法
US11238314B2 (en) * 2019-11-15 2022-02-01 Salesforce.Com, Inc. Image augmentation and object detection
CN110930428B (zh) * 2020-02-19 2020-08-14 成都纵横大鹏无人机科技有限公司 目标跟踪方法、装置、电子设备及存储介质
CN111340845B (zh) * 2020-02-25 2020-12-29 上海黑眸智能科技有限责任公司 基于深度视觉传感器的自动跟踪方法、系统、终端以及介质
CN111696132B (zh) * 2020-05-15 2023-12-29 深圳市优必选科技股份有限公司 目标跟踪方法、装置、计算机可读存储介质及机器人
CN111640140B (zh) * 2020-05-22 2022-11-25 北京百度网讯科技有限公司 目标跟踪方法、装置、电子设备及计算机可读存储介质
CN112967310B (zh) * 2021-02-04 2023-07-14 成都国翼电子技术有限公司 一种基于fpga的模板匹配加速方法
CN113129335B (zh) * 2021-03-25 2023-03-14 西安电子科技大学 一种基于孪生网络的视觉跟踪算法及多模板更新策略
CN117376456A (zh) * 2023-11-23 2024-01-09 广州城市理工学院 一种网关数据模板筛选方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236508A (ja) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法
JP2008021266A (ja) * 2006-07-14 2008-01-31 Matsushita Electric Ind Co Ltd 顔向き検出装置、顔向き検出方法、および顔向き検出プログラム
JP2008123416A (ja) * 2006-11-15 2008-05-29 Nikon Corp 被写体追跡プログラム、被写体追跡装置、およびカメラ
WO2009098894A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 電子カメラおよび画像処理方法
JP2011258180A (ja) * 2010-05-10 2011-12-22 Casio Comput Co Ltd 被写体追跡装置、被写体追跡方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4798259B2 (ja) * 2009-06-08 2011-10-19 株式会社ニコン 被写体追尾装置、およびカメラ
CN101763515B (zh) * 2009-09-23 2012-03-21 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
CN101853071B (zh) * 2010-05-13 2012-12-05 重庆大学 基于视觉的手势识别方法及系统
CN102184417A (zh) * 2011-05-10 2011-09-14 韩祎 一种数字图像中物体检测方法及装置
CN102855637A (zh) * 2012-07-17 2013-01-02 沈阳大学 一种用于视频图像的融合双边滤波的协方差跟踪方法
CN102831439B (zh) * 2012-08-15 2015-09-23 深圳先进技术研究院 手势跟踪方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236508A (ja) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法
JP2008021266A (ja) * 2006-07-14 2008-01-31 Matsushita Electric Ind Co Ltd 顔向き検出装置、顔向き検出方法、および顔向き検出プログラム
JP2008123416A (ja) * 2006-11-15 2008-05-29 Nikon Corp 被写体追跡プログラム、被写体追跡装置、およびカメラ
WO2009098894A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 電子カメラおよび画像処理方法
JP2011258180A (ja) * 2010-05-10 2011-12-22 Casio Comput Co Ltd 被写体追跡装置、被写体追跡方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135079A (ja) * 2019-02-13 2020-08-31 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム
JP2020135078A (ja) * 2019-02-13 2020-08-31 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム
JP7283734B2 (ja) 2019-02-13 2023-05-30 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム
JP7283735B2 (ja) 2019-02-13 2023-05-30 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム

Also Published As

Publication number Publication date
CN104424634A (zh) 2015-03-18
US9311534B2 (en) 2016-04-12
US20150055829A1 (en) 2015-02-26
JP6458394B2 (ja) 2019-01-30
CN104424634B (zh) 2017-05-03

Similar Documents

Publication Publication Date Title
JP6458394B2 (ja) 対象追跡方法及び対象追跡装置
TWI754855B (zh) 人臉圖像識別方法、裝置、電子設備及儲存介質
US10733431B2 (en) Systems and methods for optimizing pose estimation
US10796452B2 (en) Optimizations for structure mapping and up-sampling
CN108140032B (zh) 用于自动视频概括的设备和方法
WO2019218824A1 (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
CN109035304B (zh) 目标跟踪方法、介质、计算设备和装置
He et al. A global sampling method for alpha matting
US10572072B2 (en) Depth-based touch detection
AU2014218444B2 (en) Dynamic feature selection for joint probabilistic recognition
US20150347846A1 (en) Tracking using sensor data
KR102177412B1 (ko) 이미지와 텍스트간 유사도 매칭 시스템 및 방법
EP3602424A1 (en) Sensor data processor with update ability
US20200012887A1 (en) Attribute recognition apparatus and method, and storage medium
Couprie et al. Convolutional nets and watershed cuts for real-time semantic labeling of rgbd videos
Fang et al. Deep3DSaliency: Deep stereoscopic video saliency detection model by 3D convolutional networks
CN113033458B (zh) 动作识别方法和装置
CN113283368B (zh) 一种模型训练方法、人脸属性分析方法、装置及介质
WO2023109361A1 (zh) 用于视频处理的方法、系统、设备、介质和产品
JP6448212B2 (ja) 認識装置及び認識方法
CN115170464A (zh) 肺图像的处理方法、装置、电子设备和存储介质
Venegas et al. Automatic ladybird beetle detection using deep-learning models
Ramachandra et al. Perceptual metric learning for video anomaly detection
Teixeira et al. Object segmentation using background modelling and cascaded change detection
CN111968030B (zh) 信息生成方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6458394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees