JP2018500645A - オブジェクトをトラッキングするためのシステムおよび方法 - Google Patents

オブジェクトをトラッキングするためのシステムおよび方法 Download PDF

Info

Publication number
JP2018500645A
JP2018500645A JP2017525350A JP2017525350A JP2018500645A JP 2018500645 A JP2018500645 A JP 2018500645A JP 2017525350 A JP2017525350 A JP 2017525350A JP 2017525350 A JP2017525350 A JP 2017525350A JP 2018500645 A JP2018500645 A JP 2018500645A
Authority
JP
Japan
Prior art keywords
electronic device
landmark
tracking
object position
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017525350A
Other languages
English (en)
Inventor
サーキス、ミシェル・アディブ
チ、インヨン
モハメド、マグディ・アブエルガシム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018500645A publication Critical patent/JP2018500645A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

電子デバイスによってオブジェクトをトラッキングするための方法が説明されている。方法は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することを含む。方法はまた、その検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することを含む。方法はさらに、その1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測することを含む。方法は加えて、オブジェクトトラッキングが見失われているかどうかを決定することを含む。方法はまた、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行するのを回避することを含む。【選択図】 図2

Description

[0001]本開示は概して、電子デバイスに関する。より具体的には、本開示は、オブジェクトをトラッキングするためのシステムおよび方法に関する。
[0002]過去数十年で、電子デバイスの使用は一般的になってきた。特に電子技術の進歩は、ますます複雑な、かつ有用な電子デバイスのコストを削減してきた。コスト削減および消費者の需要は、電子デバイスの使用を、それらが現代社会において事実上ユビキタス(ubiquitous)になるように急増させてきた。電子デバイスの使用が拡大するにつれ、電子デバイスの新しく、かつ改善された特徴を求める需要も拡大してきた。より具体的には、新たな機能を実行する、および/またはより迅速に、より効率的に、もしくはより信頼性高く機能を実行する電子デバイスが度々追求される。
[0003]いくつかの電子デバイスは画像を利用する。例えば、スマートフォンは、デジタル画像をキャプチャおよび処理することができる。しかしながら、画像を処理することは、多大なリソース(例えば、時間および電力)を要求する複雑な動作を伴いうる。この議論から観測されうるように、画像処理を改善するシステムおよび方法が有益でありうる。
[0004]電子デバイスによってオブジェクトをトラッキングするための方法が説明される。方法は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することを含む。方法はまた、その検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することを含む。方法はさらに、その1つ以上の目印ポジション(landmark positions)に基づいて、後続のフレームにおけるオブジェクトポジションを予測することを含む。方法は加えて、オブジェクトトラッキングが見失われている(lost)かどうかを決定することを含む。方法はまた、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行するのを回避することを含む。オブジェクトトラッキングが見失われているかどうかを決定することは、1つ以上の目印ポジションおよびオブジェクトポジション予測のうちの少なくとも1つに基づきうる。方法は、単一の画像シーケンスのある時間での1つのフレームに対して動作しうる。
[0005]オブジェクトポジション検出およびオブジェクトポジション予測は独立していることがある。オブジェクトポジションを予測することは、前のフレームからの1つ以上の目印ポジションに基づきうる。目印ポジションの構造は予め定義されうる。目印ポジションは、オブジェクトの構造内にありうる。
[0006]速度モデルが予測中に利用され得、変位モデルが測定中に利用されうる。速度モデルおよび変位モデルの各々は、オブジェクトの構造に対応しうる。速度モデルおよび変位モデルは、いずれの厳しい制約も含まないことがある。
[0007]方法は、前のフレームの目印からのオブジェクトポジション予測のために速度モデルをトレーニングすることを含むことができる。方法は、現在のフレームにおける予測された境界ボックスポジションからの、または現在のフレームにおける検出された境界ボックスポジションからの目印測定のために変位モデルをトレーニングすることを含むことができる。
[0008]オブジェクトをトラッキングするための電子デバイスもまた説明される。電子デバイスは、プロセッサ、およびプロセッサと電子通信状態にあるメモリを含む。電子デバイスはまた、メモリに記憶された命令を含む。命令は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出するようにプロセッサによって実行可能である。命令はまた、その検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定するようにプロセッサによって実行可能である。命令はさらに、その1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測するようにプロセッサによって実行可能である。命令は加えて、オブジェクトトラッキングが見失われているかどうかを決定するようにプロセッサによって実行可能である。命令はまた、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行するのを回避するようにプロセッサによって実行可能である。
[0009]オブジェクトをトラッキングするためのコンピュータプログラム製品もまた説明される。コンピュータプログラム製品は、命令を持つ非一時的な有形のコンピュータ可読媒体を含む。命令は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することを電子デバイスに行わせるためのコードを含む。命令はまた、その検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することを電子デバイスに行わせるためのコードを含む。命令はさらに、その1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測することを電子デバイスに行わせるためのコードを含む。命令は加えて、オブジェクトトラッキングが見失われているかどうかを決定することを電子デバイスに行わせるためのコードを含む。命令はまた、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行するのを回避することを電子デバイスに行わせるためのコードを含む。
[0010]オブジェクトをトラッキングするための装置もまた説明される。装置は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出するための手段を含む。装置はまた、その検出されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定するための手段を含む。装置はさらに、その1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測するための手段を含む。装置は加えて、オブジェクトトラッキングが見失われているかどうかを決定するための手段を含む。装置はまた、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行するのを回避するための手段を含む。
オブジェクトをトラッキングするためのシステムおよび方法がインプリメントされうる電子デバイスの一構成を例示するブロック図である。 オブジェクトをトラッキングするための方法の一構成を例示するフロー図である。 オブジェクトをトラッキングするための方法のより具体的な構成を例示するフロー図である。 オブジェクトをトラッキングするための方法の別のより具体的な構成を例示するフロー図である。 オブジェクトポジションを予測するためにトレーニングするための方法の一構成を例示するフロー図である。 目印のセットの分布を例示するグラフを含む。 目印運動を例示する3つの例を含む。 目印図を含む。 オブジェクト検出器から取得された境界ボックスまたは予測されたオブジェクトポジションに基づく目印測定の一例を例示する図である。 本明細書で開示されているシステムおよび方法の検証に関する結果の一例を例示するグラフである。 本明細書で開示されているシステムおよび方法のブラインドテストに関する結果の一例を例示するグラフである。 顔をトラッキングするための既知の手法を例示する2つのフロー図を含む。 オブジェクトをトラッキングするためのシステムおよび方法がインプリメントされうるワイヤレス通信デバイスの一構成を例示するブロック図である。 電子デバイス内に含まれうるある特定のコンポーネントを例示する例示している。 目印測定のために変位モデルをトレーニングするための方法の一構成を例示するフロー図である。
発明の詳細な説明
[0026]オブジェクトをトラッキングするためのシステムおよび方法が本明細書で説明される。例えば、本明細書で開示されるシステムおよび方法は、一連の画像(例えば、ビデオ、単眼ビデオ等)における1つ以上のオブジェクトをトラッキングするためにインプリメントされ(implemented)うる。いくつかの構成では、トラッキングすることは、シーケンシャルなサンプリングフィルタの制御されたカスケードを介して実行されうる。
[0027]既知の手法では、オブジェクトトラッキングメカニズムは、時間的な滑らかさ(smoothness)を維持し、精度を改善するために、カルマンフィルタ、粒子フィルタ、またはミーンシフト(mean-shift)フィルタのようなトラッキングフィルタとオブジェクト検出器を組み合わせることを要求する。これらの手法は、多重解像度および様々なポーズにおけるオブジェクト検出が非常に費用のかかるタスクであるので、高い計算需要(high computational demand)を要求しうる。
[0028]いくつかの構成では、シーケンシャルなサンプリングフィルタの制御されたキャスケードがこの問題を克服するために利用されうる。本明細書で開示されるシステムおよび方法は、常にまたは定期的にオブジェクト検出器を使用することを要求しない。いくつかの構成では、本明細書で開示されるシステムおよび方法は、オブジェクト検出器を使用することによってスタートし得、そして(例えば、トラッキングが見失われていない限りは)以後、トラッキングメカニズムにだけ依存しうる。加えて、本明細書で開示されるシステムおよび方法は、考慮中のオブジェクトが見失われてしまったかどうかをインテリジェントに、かつ自動的に検出することができる。このケースでは、トラッキングすることは、オブジェクト検出器を使用することを自動的に再初期化し、トラッキングを継続することができる。本明細書で開示されるシステムおよび方法のいくつかの構成は自動的であり得、いずれの手動の介在も要求しない。コンセプトのいくつかは、例となるオブジェクトとして人間の顔を使用して本明細書で説明されうる。しかしながら、本明細書で開示されるシステムおよび方法が他のオブジェクトに適用されうることは、留意されるべきである。例えば、本明細書で開示されるシステムおよび方法は、認識可能な目印の構造またはパターンを有するいずれのオブジェクトにも適用されうる。分析、比較、およびテストもまた、本明細書で提示される。
[0029]本明細書で開示されるシステムおよび方法は、目印トラッキングを可能にしうる。目印は、オブジェクトまたは形状の上の位置またはポイントである。いくつかの構成では、目印のセットが特定のオブジェクトに対して定義されうる。例えば、1つ以上の顔に対する目印のセットは、目の縁、虹彩、唇の縁、鼻の縁、耳の縁、顔の輪郭のポイント等を含むことができる。本明細書で開示されるシステムおよび方法が他のコンテキストで適用されうることは、留意されるべきである。例えば、目印のセットは、変形可能または変形不可能な形状またはオブジェクト(例えば、人の顔、人間の全身、箱、三角形、文字、車等)上の交点(vertices)のセットを含むことができる。
[0030]いくつかの構成では、本明細書で開示されるシステムおよび方法は、顔トラッキングに適用されうる。顔が検出されることを想定すると、対応する高密度の顔の目印を位置付けることが多くのアプリケーションに対して利用されうる。アプリケーションの例は、オートフォーカス、ホワイトバランス、顔認識、美化(beautification)のような顔変換および/またはモーフィング(morphing)、自動関連付け(auto-related)アプリケーションのための顔方向推定、モデルベースのビデオコーディングおよびアバターベースのビデオ電話通信(telephony)等を含む。本明細書で開示されるシステムおよび方法は、既知の手法に好ましく匹敵する。
[0031]顔トラッキングに関する問題の定義付けは以下の通り説明される。顔が画像(例えば、ビデオ)中で動くため、それは様々な変換を強いられる。変換は、大域トランスレーション(global translation)、大域スケーリング(global scaling)、およびアフィン変換(例えば、大域ローテーションおよび局所運動または変形)を含むことができる。標準のトラッキング手法(例えば、粒子フィルタ、カルマンフィルタ等)のいくつかを使用して顔をトラッキングする際、顔検出器は常に用いられる必要がある。このことは、算出を非常に費用の高いものにしうる。加えて、既知の手法での顔検出器の出力は、時間的に滑らかでないことがある。顔をトラッキングするための別の既知の手法(例えば、オプティカルフロー)は、顔検出器を定期的に用いなければならないことがある。
[0032]本明細書で開示されるシステムおよび方法のいくつかの構成は、シーケンシャルなサンプリングフィルタの制御されたカスケードを通じてこれらの問題を扱いうる。制御されたシーケンシャルなサンプリングフィルタを利用する手法は、予測、測定、および制御のうちの1つ以上の態様を含むことができる。
[0033]様々な構成が図を参照して次に説明され、ここで同様の参照番号は、機能的に類似した要素を示すことができる。本明細書で概して説明および図に例示されるシステムおよび方法は、幅広い異なる構成で配列および設計されることができるだろう。したがって、図で表されるような、いくつかの構成の以下に続くより詳細な説明は、請求されるような範囲を限定するように意図されておらず、単にシステムおよび方法を代表するものにすぎない。
[0034]図1は、オブジェクトをトラッキングするためのシステムおよび方法がインプリメントされうる電子デバイス102の一構成を例示するブロック図である。電子デバイス102の例は、スマートフォン、カメラ(例えば、静止カメラ、ビデオカメラ等)、コンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ等)、タブレットデバイス、セルラ電話、テレビ、ゲームシステム、電気器具等を含む。電子デバイス102は、画像取得モジュール104、オブジェクト検出モジュール106、目印測定モジュール108、トラッキングロス決定モジュール110、および/またはオブジェクト予測モジュール112を含むことができる。「モジュール」は、ハードウェア(例えば、回路)、またはハードウェアとソフトウェアとの組合せ(例えば、命令を用いるプロセッサ)でインプリメントされうる。モジュール104、106、108、110、112のうちの1つ以上は、トラッカ(tracker)でインプリメントされうる。
[0035]画像取得モジュール104は、画像(例えば、デジタル画像)を取得することができる。例えば、画像取得モジュール104は、1つ以上の画像センサおよび/またはカメラを使用して、1つ以上の画像(例えば、ビデオ)をキャプチャすることができる。画像センサ(複数を含む)および/またはカメラ(複数を含む)は、電子デバイス102に含まれうる、および/または電子デバイス102に結合されうる。加えて、または代わりとして、画像取得モジュール104は、別のデバイス(例えば、メモリカード、外部記憶デバイス、ウェブカメラ、デジタルカメラ、スマートフォン、コンピュータ、ビデオカメラ等)から1つ以上の画像(例えば、ビデオ)を受け取ることができる。1つ以上の画像は、ビデオフレームでありうる。例えば、画像取得モジュール104によって取得される1つ以上の画像における各画像は、画像(例えば、ビデオ)のシーケンスにおけるフレームでありうる。
[0036]電子デバイス102は、初期フレームに対して1つ以上の演算を実行しうる。「初期フレーム」は、フレームまたは画像(例えば、ビデオ)のシーケンスにおける初期フレームまたは画像でありうる。オブジェクト検出モジュール106は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することができる。例えば、オブジェクト検出モジュール106は、オブジェクトのサイズおよびポジションを示す境界ボックスのサイズおよび位置(例えば、中央ポイント)を決定することができる。いくつかのオブジェクト検出器は、当該技術分野において既知である。顔では、例が、Viola-Jones検出器、オムロン顔検出器、およびその他のものを含む。一般的なオブジェクト検出器では、例が、様々なオブジェクト(例えば、人、バイク、車等)に採用されうる変形パーツモデル(deformable parts model)のような手法を含む。これらのスキームは、様々な画像位置で、特徴記述子(例えば、勾配のサインのヒストグラム(HSG:histogram of signs of gradients)、勾配方向のヒストグラム(HOG:histogram of oriented gradients)、スケール不変特徴変換(SIFT:scale-invariant feature transform)、スピードアップロバスト特徴(SURF:speeded up robust features)、勾配位置および方向ヒストグラム(GLOH:gradient location and orientation histogram)、Bag of Words(BoW)等)を算出することができる。これらのスキームは、機械学習方法(例えば、サポートベクターマシン(Support Vector Machines)、ブースティング(Boosting)、動的計画法(Dynamic Programming)等)を使用する研究下で、オブジェクトに最も高い可能性で対応する位置を発見することができる。
[0037]初期フレームに関して、目印測定モジュール108は、検出されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる。例えば、目印測定モジュール108は、画像におけるオブジェクトに対応する目印のセットのポジションを決定することができる。いくつかの構成では、1つ以上の目印ポジションを測定することは、オブジェクト検出モジュール106によって決定された境界ボックスに基づきうる。例えば、初期フレームでは、またはトラッキングが見失われているフレームでは、オブジェクト検出モジュール106は、境界ボックスを決定しうる。境界ボックスは、1つ以上の目印ポジションを測定するために利用されうる。いくつかの構成では、トラッキングが維持されているフレームでは(例えば、初期フレームの後の1つ以上のフレームでは)、オブジェクト検出モジュール106は、オブジェクト検出を実行しないことがある。このケースでは、目印は、例えば、オブジェクト予測モジュール112によって決定された境界ボックスに基づいて測定されうる。
[0038]いくつかの構成では、トラッキングロス決定モジュール110は、オブジェクトトラッキングが初期フレームに関して見失われているかどうかを決定しないことがある。初期フレームでは、例えば、オブジェクト検出がオブジェクト検出モジュール106(例えば、オブジェクト検出器)によって実行されているので、トラッキングは見失われていないことがある。
[0039]電子デバイス102は、1つ以上の後続のフレーム(例えば、初期フレームの後の1つ以上のフレーム)に関して1つ以上の演算を実行することができる。オブジェクト予測モジュール112は、その1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測することができる。例えば、オブジェクト予測モジュール112は、時間kでのフレームにおける顔ポジションを、(例えば、フレームk−1における)それの前の目印ポジションを前提とすると、決定することができる。いくつかの構成では、オブジェクトポジション予測は、数式(1)にしたがって実行されうる。
ここで使用される場合、pはオブジェクトポジションベクトル(例えば、顔ポジションベクトル、顔境界ボックスの中央等)であり、lは目印ポジションベクトルであり、fおよびgは非線形関数であり、εはプロセスノイズであり、wは重みベクトルであり、Tは転置演算子(transpose operator)を意味し、kはフレーム番号である。
[0040]いくつかの構成では、オブジェクト予測モジュール112は、以下にしたがって、オブジェクトポジション(例えば、顔境界ボックス)を予測することができる。目的は、新たなオブジェクトポジション(例えば、顔ポジション)を、前のフレームにおけるそれの目印の推定値を前提として推定することである。以下の非線形速度モデルは、数式(2)で提供されるように想定されうる。
ここで使用される場合、εはプロセスノイズを表し、kは時間またはフレーム番号であり、Δkはフレームの数または時間ステップである(それは、いくつかの構成では1でありうる)。各目印の変位Δlは、時間k−1から時間kまでの目印の速度モデルを表す、M(1k−1)によって乗算された目印における特徴記述子
の関数である。特徴記述子の例は、勾配のサインのヒストグラム(HSG、勾配方向のヒストグラム(HOG)、スケール不変特徴変換(SIFT)、ハフ変換、スピードアップロバスト特徴(SURF)、勾配ロケーションおよび方向ヒストグラム(GLOH)等を含むことができる。量
は、ピクセルで変位Δlを表すことができ、量
は、(ピクセル/時間ステップΔkで)速度を表すことができる。
[0041]この式に関する1つの問題は、lとM(1k−1)との両方が既知でなくありうることである。この問題に対する1つの解決策は、lが注釈付きデータ(annotated data)を通じて既知であることが想定される場合に、M(1k−1)がオフラインで学習されうることである。例えば、M(1k−1)は、例えば、式(3)を解くことによってトレーニング中に取得されうる。
ここで使用される場合、Yはあら予め割り当てられた重み付け因数(factor)であり、
を意味する。最小値を持つ他のコスト関数が(例えば、二乗の
の代わりに
または絶対値を使用して等で)代わりに利用されうる。トレーニングに関する追加の詳細は、図5−8に関連して以下で与えられる。
[0042]HSG特徴記述子に関するより多くの詳細は以下の通り与えられる。上で説明されたように、HSGは、本明細書で開示されているシステムおよび方法にしたがって利用されうる特徴記述子の一例である。HSGの基本的な意図は、直交ベースでエッジ成分のサインを使用することである。例えば、画像(例えば、画像フレーム)の勾配は、(例えば、Sobel演算子、Sharr演算子、または別の手法を使用して)算出されうる。エッジサイン成分の各々は、ポジティブまたはネガティブのどちらかでありうる。したがって、2つの方向エッジ(例えば、次元)に関してピクセルごとに4つの可能性が存在する。特に各次元における各ピクセルの勾配は、サイン(ポジティブ「+」またはネガティブ「−」)を有することができる。これらは、4つの異なる値でコーディングされうる(例えば、−−は0としてコーディングされ、+−は1としてコーディングされ、++は2としてコーディングされ、−+は3としてコーディングされる)。いくつかの構成では、追加の次元(例えば、45度)がコーディングされうる。
[0043]目印測定モジュールは、(例えば、予測された顔ポジションに基づいて後続のフレームにおける)1つ以上の目印ポジションを測定することができる。いくつかの構成では、目印測定モジュール108は、式(4)にしたがって予測されたオブジェクトポジションを前提とすると、目印の新しいポジションを測定することができる。
ここで使用される場合、hは非線形関数であり、σはプロセスノイズである。
[0044]いくつかの構成では、1つ以上の目印は、以下にしたがって測定されうる。予測されたオブジェクトポジション(例えば、境界ボックス)を用いて、1つ以上の目印(例えば、顔の目印)が、平均形状(ms:mean shape)から始めて測定されうる。非線形変位モデルは、数式(5)で提供されるように想定されうる。
ここで使用される場合、σはプロセスノイズを表し、lk,msはフレームkにおける平均形状(ms)での目印ポジションであり、U(lk,ms)は予測された境界ボックスでの平均形状ポジションからの目印の変位モデルである。オンライン測定およびトレーニングのための予測におけるものと同様の派生するもの(derivation)が行われうることは留意されるべきである。例えば、変位モデルは、図15に関連して説明されるようにトレーニングされうる。
[0045]いくつかの構成では、変位モデルは、目印測定のためにトレーニングされうる。例えば、変位モデルは、現在のフレーム(例えば、画像)での予測されたオブジェクトポジション(例えば、予測された境界ボックスポジション)に基づいて、または現在のフレーム(例えば、画像)での測定もしくは検出されたオブジェクトポジション(例えば、検出された境界ボックスポジション)に基づいて、目印測定のためにトレーニングされうる。測定または検出された境界ボックスポジションは、オブジェクト検出モジュール106(例えば、オブジェクト検出器)によって提供されうる。予測された境界ボックスポジションは、オブジェクト予測モジュール112によって提供されうる。したがって、目印は、(例えば、式(2)からの)トレーニングされた速度モデルを使用することによって、検出されたオブジェクトポジションまたは予測されたオブジェクトポジションから測定されうる。
[0046]変位および/または速度モデルのうちのいずれのトレーニングも、いくつかの構成では、電子デバイス102によって実行されうる。例えば、電子デバイス102は、図1に関連して説明されたモジュールのうちの1つ以上とは別個でありうるか、またはモジュールのうちの1つ以上内に含まれうる変位モデルトレーニングモジュールを含むことができる。いくつかの構成では、目印測定のための変位モデルは、図9および15のうちの1つ以上に関連して説明されたようにトレーニングされうる。加えて、または代わりとして、電子デバイス102は、図1に関連して説明されたモジュールのうちの1つ以上とは別個でありうるか、またはモジュールのうちの1つ以上内に含まれうる速度モデルトレーニングモジュールを含むことができる。いくつかの構成では、オブジェクトポジション予測のための速度モデルは、図5に関連して説明されたようにトレーニングされうる。
[0047]トラッキングロス決定モジュール110は、オブジェクトトラッキングが見失われているかどうかを決定することができる。このことは、トラッキングが見失われているかどうかを推定することによる制御の態様を提供することができる。例えば、トラッキングロス決定モジュール110は、1つ以上の目印ポジションが、オブジェクトに高い可能性で対応するか否かを決定することができる。いくつかの構成では、トラッキングロス決定モジュール110は、1つ以上の目印ポジションのうちの1つ以上が、オブジェクトの構造に対応する統計モデルに一致する度合いを決定することができる。1つ以上の目印ポジションが、そのモデルへの一致に関して低確率を反映する場合、トラッキングロス決定モジュール110は、トラッキングが見失われてしまったことを決定することができる。例えば、トラッキングロス決定モジュール110は、一致の確率が確率しきい値よりも下回るかどうかを決定することができる。
[0048]いくつかの構成では、統計モデルは、1つ以上の目印属性(例えば、目印の局所運動、形状動力学(shape dynamics)の統計等)に対応する1つ以上の統計分布に基づきうる。例えば、モデルは、大域トランスレーションのための分布、大域スケールのための分布、および/または大域ローテーションのための分布に基づきうる。例えば、モデルは、大域トランスレーションに関して15%の標準偏差(deviation)を想定するガウス分布、および大域スケールに関して5%の標準偏差を想定するガウス分布に基づきうる。いくつかのインプリメンテーションでは、現在のフレームにおける目印が、15%よりも大きい大域トランスレーションおよび/または5%よりも大きい大域スケーリングを示す場合、トラッキングロス決定モジュール110は、トラッキングが見失われてしまったと決定することができる。
[0049]オブジェクトトラッキングが維持されている(例えば、見失われていない)ケースでは、電子デバイス102は、後続のフレームに関してオブジェクト検出を実行するのを回避することができる。例えば、電子デバイス102(例えば、オブジェクト検出モジュール106)は、オブジェクトトラッキングが維持されている場合、後続のフレームに関してオブジェクト検出を実行しないことがある。このように、例えば、オブジェクトポジション予測は、トラッキングが維持されているときにオブジェクトポジション検出の代わりに利用されうる。この手法は、良好な効率性の改善した精度を提供することができる。
[0050]トラッキングが見失われているケースでは、オブジェクト検出モジュール106は、オブジェクトポジション(例えば、顔ポジション)を検出(例えば、再検出)することができる。例えば、オブジェクトトラッキングが見失われているケースでは(例えば、トラッキングロス決定モジュール110が、オブジェクトトラッキングが見失われていることを示す場合)、オブジェクト検出モジュール106は、後続のフレームにおけるオブジェクトポジションを検出することができる。
[0051]既知の手法と比較して、本明細書で開示されているシステムおよび方法は、1つ以上の特異な(distinct)特徴を提供することができ、それらは以下の通り説明される。いくつかの構成では、オブジェクト検出およびオブジェクト予測は独立している。例えば、オブジェクトポジション検出は、オブジェクト予測がオブジェクトトラッキングを維持してきたフレームに関して実行されないことがある。したがって、オブジェクト検出は、オブジェクトトラッキングが維持されている限り、初期フレームの後、実行されないことがある。さらに、オブジェクト検出は、オブジェクトトラッキングが見失われているフレームに関してオブジェクト予測を再び置きうる(replace)。例えば、オブジェクト予測またはオブジェクト検出のうちの1つのみが、各フレームにおける目印測定のために使用されるオブジェクトポジション(例えば、p)を最終的に提供することになる。したがって、オブジェクト検出モジュール106(例えば、顔検出器)は、必要とされるときにのみ呼び出されうる。別の特異な特徴は、電子デバイス102(例えば、トラッキングロス決定モジュール110)が、オブジェクトトラッキングが見失われているかどうかを検出することができることでありうる。別の特異な特徴は、目印がオブジェクト位置予測(例えば、顔ポーズ予測)のために使用されうることでありうる。
[0052]図2は、オブジェクトをトラッキングするための方法200の一構成を例示するフロー図である。方法200は、電子デバイス102によって実行されうる。電子デバイス102は、検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することができる202。このことは、図1に関連して上で説明されたように達成されうる。
[0053]電子デバイス102は、1つ以上の目印ポジションを測定することができる204。このことは、図1に関連して上で説明されたように達成されうる。初期フレームでは、例えば、電子デバイス102は、検出されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる204。オブジェクトトラッキングが維持されている後続のフレームでは、例えば、電子デバイス102は、予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる204。オブジェクトトラッキングが見失われている後続のフレームでは、例えば、電子デバイス102は、検出(例えば、再検出)されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる204。
[0054]いくつかの構成では、目印ポジションは、オブジェクトの構造内にありうる。例えば、各目印ポジションは、構造(例えば、顔の構造、形状等)上の特定のポイントに関連付けられうる。目印ポジションの構造は予め定義されうる。例えば、特定の構造(例えば、顔の構造、形状等)が、オブジェクトトラッキングを開始する前に予め定義されうる。具体的には、ある特定の構造(例えば、顔の構造、虹彩、手、箱、三角形、パターン等)が、ランタイムの前にトラッキングのために予め定義されうる。
[0055]電子デバイス102は、その1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測することができる206。このことは、図1に関連して上で説明されたように達成されうる。例えば、電子デバイス102は、重みベクトルおよび目印ポジションの非線形関数に基づいて、オブジェクトポジション(例えば、顔ポジションベクトル、境界ボックス等)を予測することができる206。オブジェクトポジションを予測すること206は、前のフレーム(例えば、k−1)からの1つ以上の目印ポジションに基づきうる。
[0056]電子デバイス102は、オブジェクトトラッキングが見失われているかどうかを決定することができる208。このことは、図1に関連して上で説明されたように達成されうる。オブジェクトトラッキングが見失われているかどうかを決定すること208は、1つ以上の目印ポジションおよび/またはオブジェクトポジション予測に基づきうる。例えば、電子デバイス102は、1つ以上の目印属性(例えば、大域トランスレーション、大域スケール、大域ローテーション等)が1つ以上のしきい値を超える(例えば、15%よりも大きい大域トランスレーションおよび/または5%よりも大きい大域スケーリング)ことを決定することができる。加えて、または代わりとして、電子デバイス102(例えば、トラッキングロス決定モジュール110)は、予測されたオブジェクトポジションがオブジェクトに対応する複合確率(combined probability)を(例えば、大域トランスレーション、大域スケール、および/または大域ローテーション等に基づいて)決定することができる。代わりとして、複合確率は、例えば、予測されたオブジェクト予測に基づいて測定された目印から決定されうる。複合確率が確率しきい値を上回る(例えば、以上である)場合、電子デバイス102(例えば、トラッキングロス決定モジュール110)は、トラッキングが維持されていることを決定することができる。複合確率が確率しきい値を下回る(例えば、より少ない)場合、電子デバイス102(例えば、トラッキングロス決定モジュール110)は、トラッキングが見失われていることを決定することができる。
[0057]電子デバイス102は、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行するのを回避することができる210。このことは、図1に関連して上で説明されたように達成されうる。例えば、電子デバイス102は、オブジェクトトラッキングが維持されているケースでは、後続のフレームに関してオブジェクト検出を実行しないことがある。オブジェクトトラッキングが見失われているケースでは、電子デバイス102は、後続のフレームに関してオブジェクトポジションを検出(例えば、再検出)することができる。したがって、電子デバイス102は、トラッキングが維持されている限り、オブジェクトポジションを検出するように戻らないことがある。言い換えると、電子デバイス102は、オブジェクトトラッキングが見失われない限り、いずれの後続のフレームに関してもオブジェクトポジションを検出しないことがある。
[0058]方法200のステップのうちの1つ以上が異なる順序で実行され得ることは留意されるべきである。一構成では、例えば、電子デバイス102は、オブジェクトポジション予測の後であるがフレームに関する目印測定の前に、オブジェクトトラッキングが見失われているかどうかを決定することができる208。別の構成では、電子デバイス102は、フレームに関する目印測定の後に、オブジェクトトラッキングが見失われているかどうかを決定することができる208。また別の構成では、電子デバイス102は、オブジェクトポジション予測の後と目印測定の後との両方に、オブジェクトトラッキングが見失われているかどうかを決定することができる208。
[0059]モデルがトラッキング中に利用されうることもまた留意されるべきである。モデルは、オブジェクトの構造に対応しうる。例えば、オブジェクトは、モデル化されうる特定の構造(例えば、顔構造、形状等)を有することができる。具体的には、オブジェクト構造は、互いの間の位置関係を確立した目印のセットでモデル化されうる。いくつかの構成では、位置関係は、1つ以上の確率分布(例えば、ある目印のポジションの、別の目印のポジションに対する条件付き確率)の観点から定義されうる。いくつかの構成では、モデルは、いずれの厳しい制約(例えば、アクティブな形状および/または外観モデル)も含まないことがある。モデルは、ソフト統計(例えば、確率分布)の観点から定義されうる。
[0060]いくつかの構成では、方法200は、単一の画像シーケンス(例えば、1つのビデオ)に対して動作しうる。いくつかの例では、方法200は、単一の画像シーケンスのある時間での1つのフレームに対して動作しうる。例えば、オブジェクトポジションが検出され得202、目印ポジションが測定され得204、オブジェクトポジションが予測され得206、および/またはオブジェクトトラッキングがある時間での1つのフレーム上でのみ見失われているかどうかが決定されうる208。
[0061]いくつかの構成では、方法200は、前のフレームの目印からのオブジェクトポジション予測のために、および/またはトラッキングのために速度モデルをトレーニングすることを含むことができる。トレーニングは、いくつかの手法ではオフラインで(例えば、ランタイムの前に)実行されうる。
[0062]いくつかの構成では、方法200は、現在のフレームにおける予測された境界ボックスポジションに基づく、または現在のフレームにおける検出された境界ボックスポジションからの目印測定のために変位モデルをトレーニングすることを含むことができる。このことは、例えば、図1に関連して説明されたように達成されうる。
[0063]図3は、オブジェクトをトラッキングするための方法300のより具体的な構成を例示するフロー図である。図3に関連して説明されている方法300は、図2に関連して説明された方法200の一例でありうる。方法300は、電子デバイス102によって実行されうる。電子デバイス102は、検出されたオブジェクトポジションを作り出すために、オブジェクトポジションを検出することができる302。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。いくつかの構成では、電子デバイス102は、フレームkに関するオブジェクトポジションpを検出することができる。
[0064]電子デバイス102は、1つ以上の目印ポジションを測定することができる304。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。初期フレームでは、例えば、デバイス102は、初期フレームに関する検出されたオブジェクトポジション(例えば、境界ボックス)に基づいて、1つ以上の目印ポジションを測定することができる304。オブジェクトトラッキングが維持されている後続のフレーム(例えば、初期フレームの後のあらゆるフレーム)では、例えば、電子デバイス102は、予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる304。オブジェクトトラッキングが見失われている後続のフレームでは、例えば、電子デバイス102は、検出(例えば、再検出)されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる304。
[0065]電子デバイス102は、オブジェクトトラッキングが見失われているかどうかを決定することができる306。このことは、図1に関連して上で説明されたように達成されうる。例えば、電子デバイス102は、1つ以上の目印ポジションに基づいて、オブジェクトトラッキングが見失われているかどうかを決定することができる306。例えば、電子デバイス102は、図1−2のうちの1つ以上に関連して上で説明されたように、1つ以上の目印属性(例えば、大域トランスレーション、大域スケール、大域ローテーション等)に基づいて、オブジェクトトラッキングが見失われているかどうかを決定することができる306。いくつかの構成では、オブジェクトトラッキングが見失われているかどうかを決定すること306は、初期フレームまたはオブジェクト検出が実行されてしまっているフレームに関して、スキップされうる(例えば、実行されうる)。
[0066]オブジェクトトラッキングが維持されている(例えば、オブジェクトトラッキングが見失われていない)ケースでは、電子デバイス102は、後続のフレームに関してオブジェクト検出を実行するのを回避することができる。図3における構成で例示されているように、電子デバイス102は、1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測することができる308。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。例えば、電子デバイス102は、重みベクトルおよび目印ポジションの非線形関数に基づいて、オブジェクトポジション(例えば、顔ポジションベクトル、境界ボックス等)を予測することができる308。電子デバイス102は、オブジェクトポジションを検出する302ように戻ることなく、(後続のフレームに関して)1つ以上の目印ポジションを測定する304ように戻ることができる。したがって、電子デバイス102は、トラッキングが維持されている限り、オブジェクトポジションを検出する302ように戻らないことがある。言い換えると、電子デバイス102は、オブジェクトトラッキングが見失われない限り、いずれの後続のフレームに関してもオブジェクトポジションを検出しないことがある。いくつかの構成では、フレームは、オブジェクトトラッキングが維持されていると決定する際にインクリメントしうる(例えば、k=k+1)。したがって、後続のフレームにおけるオブジェクトポジション(例えば、後続のフレームkに関するオブジェクトポジションp)を予測すること308は、1つ以上の目印ポジションlk−1に基づきうる。オブジェクトトラッキングが見失われているケースでは、電子デバイス102は、後続のフレームに関してオブジェクトポジションを検出(例えば、再検出)する302ように戻ることができる。
[0067]図4は、オブジェクトをトラッキングするための方法400の別のより具体的な構成を例示するフロー図である。図4に関連して説明されている方法400は、図2に関連して説明された方法200の一例でありうる。方法400は、電子デバイス102によって実行されうる。電子デバイス102は、検出されたオブジェクトポジションを作り出すために、オブジェクトポジションを検出することができる402。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。
[0068]電子デバイス102は、1つ以上の目印ポジションを測定することができる404。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。初期フレームでは、例えば、デバイス102は、初期フレームに関する検出されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる404。オブジェクトトラッキングが維持されている後続のフレーム(例えば、初期フレームの後のあらゆるフレーム)では、例えば、電子デバイス102は、予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる404。オブジェクトトラッキングが見失われている後続のフレームでは、例えば、電子デバイス102は、検出(例えば、再検出)されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することができる404。いくつかの構成では、方法400は、1つ以上の目印ポジションを測定した404後(および例えば、オブジェクトポジションを予測する406前)に次のフレーム(例えば、k=k+1)に進むことができる。
[0069]図4における構成で例示されているように、電子デバイス102は、1つ以上の目印ポジションに基づいて、後続のフレームにおけるオブジェクトポジションを予測することができる406。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。例えば、電子デバイス102は、重みベクトルおよび目印ポジションの非線形関数に基づいて、オブジェクトポジション(例えば、顔ポジションベクトル、境界ボックス等)を予測することができる406。
[0070]電子デバイス102は、オブジェクトトラッキングが見失われているかどうかを決定することができる408。このことは、図1−2のうちの1つ以上に関連して上で説明されたように達成されうる。例えば、電子デバイス102は、1つ以上の目印ポジションに基づいて、および/または(例えば、1つ以上の目印ポジションに基づく)予測されたオブジェクトポジションに基づいて、オブジェクトトラッキングが見失われているかどうかを決定することができる408。例えば、電子デバイス102は、図1−2のうちの1つ以上に関連して上で説明されたように、1つ以上の目印属性(例えば、大域トランスレーション、大域スケール、大域ローテーション等)に基づいて、オブジェクトトラッキングが見失われているかどうかを決定することができる408。加えて、または代わりとして、電子デバイス102は、予測されたオブジェクトポジション(例えば、境界ボックス)に基づいて、オブジェクトトラッキングが見失われているかどうかを決定することができる408。
[0071]オブジェクトトラッキングが維持されている(例えば、オブジェクトトラッキングが見失われていない)ケースでは、電子デバイス102は、後続のフレームに関してオブジェクト検出を実行するのを回避することができる。電子デバイス102は、オブジェクトポジションを検出する402ように戻ることなく、(後続のフレームに関して)1つ以上の目印ポジションを測定する404ように戻ることができる。したがって、電子デバイス102は、トラッキングが維持されている限り、オブジェクトポジションを検出する402ように戻らないことがある。言い換えると、電子デバイス102は、オブジェクトトラッキングが見失われない限り、いずれの後続のフレームに関してもオブジェクトポジションを検出しないことがある。オブジェクトトラッキングが見失われているケースでは、電子デバイス102は、後続のフレームに関してオブジェクトポジションを検出(例えば、再検出)する402ように戻ることができる。
[0072]いくつかの構成では、オブジェクトトラッキングが見失われている場合、電子デバイス102は、同じフレームに関してオブジェクトポジションを検出することができる402。他の構成では、オブジェクトトラッキングが見失われている場合、電子デバイス102は、次のフレームに移動する(および、例えば、次のフレームに関してオブジェクトポジションを検出する402)ことができる。いくつかのインプリメンテーションでは、両方のオプションが提供されうる。例えば、電子デバイス102が、トラッキングが見失われてしまった同じフレームにおけるオブジェクトポジションを検出する402かどうか、または電子デバイス102が次のフレームに移動する(および、例えば、次のフレームに関してオブジェクトポジションを検出する402)かどうかは、(例えば、ユーザによって、および/またはユーザ入力に基づいて)調整可能または選択可能でありうる。オブジェクトがフレームを離れた場合、トラッキングは見失われうることは留意されるべきである。このシナリオでは、電子デバイス102は、オブジェクト検出器(例えば、オブジェクト検出モジュール106)を使用して、オブジェクト(例えば、新しいオブジェクト)を検出するように試みうる。このことは、1つ以上の後続のフレームにおいて生じうる。一度オブジェクトが検出されると、トラッキングは再初期化されうる(例えば、オブジェクトポジション予測は、1つ以上の後続のフレームに関して試みられうる)。
[0073]いくつかの構成では、図3−4に関連して説明された手法が組み合されうることは留意されるべきである。例えば、電子デバイス102は、オブジェクトポジション予測に続いて、および目印測定に続いての両方に、トラッキングが見失われたかどうかを決定することができるだろう。
[0074]図5は、オブジェクトポジションを予測するためにトレーニングするための方法500の一構成を例示するフロー図である。方法500は、電子デバイス(例えば、図1に関連して説明された電子デバイス102)によって実行されうる。方法500は、前のフレームの目印からのオブジェクトポジション予測のために、および/またはトラッキングのために速度モデルをトレーニングすることを含むことができる。例えば、方法500は、オブジェクトポジション予測(例えば、顔境界ボックス予測)のために利用されうる重み(例えば、w)および/または速度モデル(例えば、M(lk−1))を取得するためのトレーニング手法でありうる。いくつかの構成では、方法500および/またはその1つ以上のステップは、図2に関連して説明された方法200に含まれうる。
[0075]電子デバイス102は、初期形状ポジションを生成することができる502。例えば、電子デバイス102は、初期目印(例えば、
)を生成することができる502。いくつかの構成では、電子デバイス102は、目印ポジションの1つ以上の確率分布に基づいて、初期目印を生成することができる502。例えば、電子デバイス102は、1つ以上の確率分布(例えば、大域トランスレーション分布、大域スケール分布、および/または局所運動分布)に基づいて、変形された目印ポジションをランダムに生成する関数を利用することができる。いくつかの構成では、このことは、図6−7に関連して上で説明されたように達成されうる。
[0076]電子デバイス102は、オブジェクト記述子を算出することができる504。オブジェクト記述子は、形状ポジション(例えば、目印)に基づいて算出されうる504。例えば、電子デバイス102は、オブジェクト記述子
を、それが収束するまで反復jの度に(at every iteration j)算出することができる504。オブジェクト記述子の一例はHSGである。オブジェクト記述子の他の例は、HOG、SIFT、ハフ変換、SURF、およびGLOHを含む。
[0077]電子デバイス102は、速度モデルを解くことができる506。例えば、電子デバイス102は、
を解くことができる506。いくつかの構成では、速度モデルは、収束まで反復方式で式(3)に関連して上で説明されたように、
として解かれうる506。このケースでは、各反復jに対して、速度モデル
が算出されうる。
[0078]電子デバイス102は、各反復において目印を更新することができる508。例えば、電子デバイス102は、式(6)にしたがって各反復において目印ポジションを更新することができる508。
ここで使用される場合、
は、
によって取得される目印の変位ベクトルである。いくつかの構成では、変位ベクトルは、オブジェクト予測モジュール112に関する上記の式(2)にしたがって取得されうる。変位ベクトルは、オブジェクト測定モジュール(例えば、目印測定モジュール108)に関する上記の式(5)にしたがって取得されうる。例えば、トレーニングの2つの形式が、本明細書で説明されているシステムおよび方法にしたがって実行および/または利用されうる:1つはオブジェクトポジション予測に関し、1つは目印測定に関する。
[0079]電子デバイス102は、関数(例えば、オブジェクト記述子
)が収束してしまっているかどうかを決定することができる510。例えば、電子デバイス102は、変位ベクトル
が予め定義されたしきい値よりも低い(例えば、5%よりも小さい変化)場合に関数が収束したかどうかを決定することができる510。
[0080]関数が収束していなかったケースでは、電子デバイス102は、次の反復に関するオブジェクト記述子(例えば、
)を算出する504ように戻ることができる。例えば、オブジェクト記述子は、(jがインクリメントされる、例えばj=j+1、j++等の場合)更新された目印で算出されうる504。図5で例示されているように、オブジェクト記述子を算出すること504、速度モデルを解くこと506、および目印を更新すること508は、関数が収束するまで反復されうる。
[0081]関数が収束してしまっているケースでは、電子デバイス102は、重み(例えば、モデル重み値)を算出することができる512。例えば、電子デバイス102は、式(7)にしたがって重みを算出することができる。
式(7)では、
は、トレーニングプロセスにおいて使用される注釈付き値
からの推定された目印lの標準偏差関数を意味する。速度モデルのセット(例えば、
)および/または重み(例えば、w)は、図1−4のうちの1つ以上に関連して説明されたように、オブジェクトポジション予測において適用されうる。いくつかの構成では、図1に関連して説明された電子デバイス102が、方法500を実行することができる。他の構成では、別個の電子デバイス(例えば、コンピュータ)が、方法500を実行することができる、および/または電子デバイス102にトレーニング結果(例えば、速度モデルのセット
および/または重みw)を提供することができる。いくつかの構成では、方法500は、「オフライン」で(例えば、図2−4に関連して説明された方法200、300、400のうちの1つ以上を実行する前、ランタイム前、等に)実行されうる。
[0082]図6は、目印のセットの分布を例示するグラフを含む。目印のセットの分布はまた、形状動力学のソフト統計とも称されうる。グラフは、(ピクセル、インチ、ミリメータ等のような単位に関連しうる)幅616および高さ614で例示されている。グラフは、トレーニングの際の各目印に関するオブジェクト局所運動初期化(例えば、各目印の、オブジェクトの他の目印に対する動き確率)の例を提供している。例えば、オブジェクト(例えば、顔)運動初期化は、図6によって指定された各目印の、大域トランスレーション、大域スケール、および/または条件付き局所運動を含むことができる。具体的には、グラフで例示されているポイントの各グループは、画像(例えば、ビデオ)のシーケンスにおいて生じうる(顔の構造に対応する)目印の局所運動(例えば、統計的変動)を例示している。例えば、(三角形として例示されている)グラフの左上部分上に例示されているポイント618のグループは、耳および顔の最上部の交差点に対応する目印の局所運動を例示している。他のグループのシンボル(例えば、丸、アスタリスク、三角形、逆三角形、ひし形、星、および正方形)は、他の目印の分布を表す。
[0083]いくつかの構成では、目印の大域トランスレーションは、(例えば、15%の標準偏差を持つ)ガウス分布としてモデル化されうる。目印の大域スケールは、(例えば、5%の標準偏差を持つ)ガウス分布としてモデル化されうる。目印の局所運動は、図6で例示されているような形状の動力学の統計で特徴付けられうる。特にソフト統計に基づくモデルは、本明細書で開示されているシステムおよび方法にしたがって利用されうる。モデルは、構造(例えば、顔の構造、形状等)の変形に対応する目印に関する局所運動の統計分布を反映することができる。例えば、図6で例示されているポイントのグループの各々は、互いに対する条件付の確率分布を提供している。このことは、アクティブな形状および/または外観モデルのような厳しい制約を想定する既知の手法とは区別できる。目印の各々の確率分布(例えば、標準偏差および/または条件付き分布)は、(例えば、モンテカルロ解析を使用して)形状変形を生成するために使用されうる。例えば、確率分布に基づく関数は、目印をランダムに変形するために利用されうる。
[0084]図7は、目印運動を例示する3つの例720a−cを含む。特に図7は、トレーニングのためのオブジェクト(例えば、顔)運動初期化に関する1つの手法を例示している。例720a−cの各々において、丸ポイントは、目印のセット(例えば、
)に関する注釈付きグラウンドトゥルース(ground truth)を例示している。例720a−cの各々において、ひし形ポイントは、(例えば、図6に関連して説明されたような)目印の確率分布に基づいて生成される目印のセットに関する異なる形状ポジションを例示している。例A720aでは、目印ポジションが対応するグラウンドトゥルース目印より下かつ左側にあることが観測されうる。例B720bでは、目印ポジションが対応するグラウンドトゥルース目印より上かつ右側にあることが観測されうる。例C720cでは、目印ポジションが対応するグラウンドトゥルース目印の左側にあることが観測されうる。これらの目印ポジションは、上で説明された目印の確率分布に基づいて、目印をランダムに変形させる関数によって生成されうる。加えて、例720a−cのいずれでも、図6で図示されているソフト統計にしたがって、形状が取り替えられているだけでなく変形もされていることが観測されうる。
[0085]図8は、目印図824を含む。特に図8は、顔構造上の目印825a−h、827a−j、829a−i、831a−f、833a−gの例を提供している。いくつかの構成では、顔境界ボックスの予測は、以下の通り達成されうる。オンライン目印予測子では、およびnトレーニング反復を想定すると、各フレームでの目印予測は、式(8)で例示されているように表現されうる。
[0086]顔境界ボックスポジションpおよび長さskは、式(9)−(10)にしたがって決定されうる。
ここで使用される場合、xは第1の次元における(例えば、水平次元における)ピクセルポジションであり得、yは第2の次元における(例えば、垂直次元における)ピクセルポジションでありうる。(例えば、上で説明されたように)wが、各目印のトレーニング誤差の分布から推定されうることは留意されるべきである。
[0087]目印図824は、顔構造に対応する目印のセット825a−h、827a−j、829a−i、831a−f、833a−gを例示している。例えば、目印のセットは、眉毛に対応する1つ以上の目印825a−h、目に対応する1つ以上の目印827a−j、鼻に対応する1つ以上の目印829a−i、唇/口に対応する1つ以上の目印831a−f、および/または顔の輪郭(例えば、頬、顎、耳等)に対応する1つ以上の目印833a−gを含むことができる。例えば、1つの目印833aは、目印図824の左側の耳と顔の間の上部の交差点に対応する。各目印が関連付けられた重み(例えば、正規化された重み)を有することができることは留意されるべきである。いくつかの構成では、輪郭の目印833a−g(例えば、顔の構造の外縁上の目印833a−g)は、最も信頼性が低くあり得、それにより、最も小さい重みに関連付けられうる。図8が目印の一例を例示しているけれども、より少ない、より多い、および/または異なる目印が、本明細書で開示されているシステムおよび方法にしたがって利用されうることが留意されるべきである。
[0088]図9は、オブジェクト検出器から取得された境界ボックスまたは予測されたオブジェクトポジションに基づく目印測定の一例を例示する図である。特に図9は、予測された境界ボックスに基づいて、顔上の目印を測定することの一例を例示している。図1(例えば、式(5))に関連して上で説明されたように、顔の目印は、平均形状932から始めて測定されうる。具体的には、目印のセットに関する平均形状932は、画像A930aにおける境界ボックス934aで例示されている。式(5)に関連して上で説明された非線形変位モデルは、目印測定のために利用されうる。画像B930bで例示されているように、目印936は、顔上の正しい位置に対応して測定される。境界ボックス934bもまた、画像B930bで例示されている。
[0089]図10は、本明細書で開示されているシステムおよび方法の検証に関する結果の一例を例示するグラフである。具体的には、グラフは、本明細書で開示されているシステムおよび方法にしたがって、トラッカ1042の累積した誤差分布を例示している。グラフの縦軸は、データ比率1038を表し、横軸は、(例えばピクセルにおける)256×256の顔スケールで算出されたピクセルにおける二乗平均平方根誤差(RMSE)1040を表す。
[0090]トラッカ1042の精度は、他の手法のそれをしのぎうる。この例では、結果は、注釈付きトレーニング画像上で2分割交差確認(2-Fold cross validation)を使用して取得された。スピードに関して、本明細書で開示されているシステムおよび方法の一例は、例えば、(ランダムアクセスメモリ(RAM)の8ギガバイト(GB)および2.6ギガヘルツ(GHz)プロセッサを持つ)Cインプリメンテーションにおいてアベレージで顔ごとにおおよそ20ミリ秒(ms)かかった(took)。この例では、6反復が予測のために使用され、4反復が測定のために使用された。
[0091]図11は、本明細書で開示されているシステムおよび方法のブラインドテストに関する結果の一例を例示するグラフである。具体的には、グラフは、オンラインビデオのブラインドテストの累積した分布誤差を例示している。グラフは、本明細書で開示されているシステムおよび方法にしたがって、トラッカ1142のパフォーマンスを例示している。グラフの縦軸は、データ比率1138を表し、横軸は、(例えばピクセルにおける)256×256の顔スケールで算出されたピクセル(12つの目印ポイントのピクセル)におけるRMSE1140を表す。
[0092]トラッカ1142の精度は、他の手法のそれをしのぎうる。言い換えると、トラッカ1142は、他の手法と比較して、より良好な精度を見せる。この例では、テストするためのプラットフォームは、RAMの8GBを持つ2.6GHzのプロセッサであった。表(1)は、損なわれた(missed)フレームの数および時間の観点でのトラッカパフォーマンスの例を提供している。
[0093]既知の手法と比較される本明細書で開示されているシステムおよび方法の1つ以上の特徴的な(例えば、新規の)特徴は、以下の通り与えられる。本明細書で開示されているシステムおよび方法は、オブジェクト(例えば、オブジェクトモデル、顔)に対して厳しい制約を利用しないことがある。本明細書で開示されているシステムおよび方法は、目印運動に対して厳しい制約を利用しないことがある。例えば、いくつかの既知の手法は、アクティブな形状および/または外観モデルのような厳しい制約を想定する。
[0094]本明細書で開示されているシステムおよび方法は、いつトラッキングが見失われているかを検出するために適用されうる。本明細書で開示されているシステムおよび方法にしたがって、オブジェクト検出器が、必要とされるとき(例えば、トラッキングが見失われているときにのみ)利用される(例えば、呼び出される)だけでありうる。
[0095]本明細書で開示されているシステムおよび方法にしたがって、オブジェクトポジション予測(例えば、顔ポーズ予測)がオブジェクトポジション検出(例えば、顔検出)から独立していることがある。本明細書で開示されているシステムおよび方法のいくつかの構成は、組み込まれたシステム上でインプリメントまたは実現するのに安価であり得る。いくつかの構成では、本明細書で開示されているシステムおよび方法は、SIFTの2分の1であり得るHSG記述子を利用しうる。スピードに関して、本明細書で開示されているシステムおよび方法の1つのインプリメンテーションは、Cプログラミング言語でインプリメントされるとき、顔ごとに20ms(20 ms/face)がかかる。このことは、例えば、ラップトップ上で1秒に50つよりも多い顔(more than 50 faces/second)のトラッキングを可能にしうる。
[0096]精度に関して、本明細書で開示されるシステムおよび方法は、既知の手法よりも性能が優れうる(outperform)。例えば、本明細書で開示されているシステムおよび方法の一例では、データの60%は、
を有する。既知の手法では、データの40%のみが
を有する。
[0097]図12は、顔をトラッキングするための既知の手法1200a−bを例示する2つのフロー図を含む。比較すると、本明細書で開示されているシステムおよび方法は、これらの既知の手法1200a−bとは区別できる。第1の既知の手法1200aでは、顔ポジションが検出される1202a。その後、トラッキングフィルタ(例えば、粒子フィルタ、カルマンフィルタ、ミーンシフトフィルタ等)が適用される1204a。その後、目印が測定される1206a。第1の既知の手法1200aで例示されているように、顔ポジションは、トラッキングフィルタの適用のためにすべてのフレームで検出されなければならない。このことは、オブジェクトポジションが、トラッキングが維持されているフレームで検出されない本明細書で開示されているシステムおよび方法とは区別できる。
[0098]第2の既知の手法1200bでは、顔ポジションが検出される1202b。その後、顔ポーズが光学フローを介してトラッキングされる1204b。その後、目印が測定される1206b。第2の既知の手法1200bで例示されるように、顔ポジションは、設定された数のフレームに関して定期的に検出されなければならない。このことは、オブジェクトポジションが、トラッキングが維持されている限り(初期フレーム後に)検出されないことがある本明細書で開示されているシステムおよび方法とは区別できる。
[0099]図13は、オブジェクトをトラッキングするためのシステムおよび方法がインプリメントされうるワイヤレス通信デバイス1302の一構成を例示するブロック図である。図13で例示されているワイヤレス通信デバイス1302は、本明細書で説明されている電子デバイスのうちの1つ以上の例でありうる。ワイヤレス通信デバイス1302は、アプリケーションプロセッサ1321を含むことができる。アプリケーションプロセッサ1321は概して、ワイヤレス通信デバイス1302上で関数を実行するために命令を処理する(例えば、プログラムを動かす)。いくつかの例では、アプリケーションプロセッサ1321は、オブジェクトトラッキングモジュール1392を含むことができる。オブジェクトトラッキングモジュール1392は、図1に関連して説明されたモジュールのうちの1つ以上を含むことができる、および/または図1−9に関連して説明された関数、プロシージャ、またはステップのうちの1つ以上を実行することができる。例えば、オブジェクトトラッキングモジュール1392は、図2−5および15のうちの1つ以上に関連して説明された方法200、300、400、500、1500のうちの1つ以上をインプリメントすることができる。いくつかの構成では、オブジェクトトラッキングモジュール1392は、アプリケーションプロセッサ1321とは別個にインプリメントされうる。アプリケーションプロセッサ1321は、音声コーダ/デコーダ(コデック)1319に結合されうる。
[00100]オーディオコデック1319は、オーディオ信号をコーディングおよび/または復号するために使用されうる。オーディオコデック1319は、少なくとも1つのスピーカ1311、イヤピース1313、出力ジャック1315、および/または少なくとも1つのマイクロフォン1317に結合されうる。スピーカ1311は、電気または電子信号を音響信号にコンバートする1つ以上の電子音響トランスデューサを含むことができる。例えば、スピーカ1311は、音楽を再生するか、またはスピーカフォン会話を出力する、等のために使用されうる。イヤピース1313は、ユーザに音響信号(例えば、音声信号)を出力するために使用されうる別のスピーカまたは電子音響トランスデューサでありうる。例えば、イヤピース1313は、1ユーザのみが音響信号を信頼性高く聞くことができるように使用されうる。出力ジャック1315は、オーディオを出力するために、ワイヤレス通信デバイス1302に、ヘッドフォンのような他のデバイスを結合するために使用されうる。スピーカ1311、イヤピース1313、および/または出力ジャック1315は概して、オーディオコデック1319からオーディオ信号を出力するために使用されうる。少なくとも1つのマイクロフォン1317は、オーディオコデック1319に提供される電気または電子信号に(ユーザのボイスのような)音響信号をコンバートする音響電気トランスデューサでありうる。
[00101]アプリケーションプロセッサ1321はまた、電力管理回路1394に結合されうる。電力管理回路1394の一例は、ワイヤレス通信デバイス1302の電力(electrical power)消費を管理するために使用されうる電力管理集積回路(PMIC)である。電力管理回路1394は、バッテリ1396に結合されうる。バッテリ1396は概して、ワイヤレス通信デバイス1302に電力を供給することができる。例えば、バッテリ1396および/または電力管理回路1394は、ワイヤレス通信デバイス1302に含まれる要素のうちの少なくとも1つに結合されうる。
[00102]アプリケーションプロセッサ1321は、入力を受信するために少なくとも1つの入力デバイス1398に結合されうる。入力デバイス1398の例は、赤外線センサ、画像センサ、加速度計センサ、タッチセンサ、キーパッド等を含む。入力デバイス1398は、ワイヤレス通信デバイス1302とのユーザ相互動作を可能にしうる。アプリケーションプロセッサ1321はまた、1つ以上の出力デバイス1301に結合されうる。出力デバイス1301の例は、プリンタ、プロジェクタ、スクリーン、触覚デバイス等を含む。出力デバイス1301は、ワイヤレス通信デバイス1302が、ユーザによって経験されうる出力を作り出すことを可能にしうる。
[00103]アプリケーションシステム1321は、アプリケーションメモリ1303に結合されうる。アプリケーションメモリ1303は、電子情報を記憶する能力を有するいずれの電子デバイスでもありうる。アプリケーションメモリ1303の例は、ダブルデータレートシンクロナス動的ランダムアクセスメモリ(DDRAM)、シンクロナス動的ランダムアクセスメモリ(SDRAM)、フラッシュメモリ等を含む。アプリケーションメモリ1303は、アプリケーションプロセッサ1321にストレージを提供することができる。例えば、アプリケーションメモリ1303は、アプリケーションプロセッサ1321上で動かされるプログラムを機能させることのためのデータおよび/または命令を記憶することができる。
[00104]アプリケーションプロセッサ1321は、ディスプレイコントローラ1305に結合され得、ディスプレイコントローラ1305は、今度はディスプレイ1307に結合されうる。ディスプレイコントローラ1305は、ディスプレイ1307上に画像を生成するために使用されるハードウェアブロックでありうる。例えば、ディスプレイコントローラ1305は、命令および/またはデータを、アプリケーションプロセッサ1321から、ディスプレイ1307上に提示されうる画像にトランスレートすることができる。ディスプレイ1307の例は、液晶ディスプレイ(LCD)パネル、発光ダイオード(LED)パネル、ブラウン管(CRT)ディスプレイ、プラズマディスプレイ等を含む。
[00105]アプリケーションシステム1321は、ベースバンドプロセッサ1323に結合されうる。ベースバンドプロセッサ1323は概して、通信信号を処理する。例えば、ベースバンドプロセッサ1323は、受信された信号を復調および/または復号することができる。加えて、または代わりとして、ベースバンドプロセッサ1323は、送信に向けて準備している信号を符号化および/または変調することができる。
[00106]ベースバンドプロセッサ1323は、ベースバンドメモリ1309に結合されうる。ベースバンドメモリ1309は、SDRAM、DDRAM、フラッシュメモリ等のような、電子情報を記憶する能力を有するいずれの電子デバイスでもありうる。ベースバンドプロセッサ1323は、ベースバンドメモリ1309から情報(例えば、命令および/もしくはデータ)を読み取る、ならびに/またはベースバンドメモリ1309に情報を書き込むことができる。加えて、または代わりとして、ベースバンドプロセッサ1323は、通信動作を実行するためにベースバンドメモリ1309に記憶された命令および/またはデータを使用することができる。
[00107]ベースバンドプロセッサ1323は、無線周波数(RF)トランシーバ1325に結合されうる。RFトランシーバ1325は、電力増幅器1327および1つ以上のアンテナ1329に結合されうる。RFトランシーバ1325は、無線周波数信号を送信および/または受信することができる。例えば、RFトランシーバ1325は、電力増幅器1327および少なくとも1つのアンテナ1329を使用してRF信号を送信することができる。RFトランシーバ1325はまた、1つ以上のアンテナ1329を使用してRF信号を受信することができる。
[00108]図14は、電子デバイス1402内に含まれうるある特定のコンポーネントを例示する。図14に関連して説明されている電子デバイス1402は、本明細書で説明されている電子デバイスのうちの1つ以上の例でありうる、および/または本明細書で説明されている電子デバイスのうちの1つ以上にしたがってインプリメントされうる。
[00109]電子デバイス1402はプロセッサ1447を含む。プロセッサ1447は、汎用のシングルまたはマルチチップマイクロプロセッサ(例えば、ARM)、専用マイクロプロセッサ(例えば、デジタルシグナルプロセッサ(DSP))、マイクロコントローラ、プログラマブルゲートアレイ等でありうる。プロセッサ1447は、中央処理ユニット(CPU)と称されうる。図14の電子デバイス1402には単一のプロセッサ1447だけが図示されているけれども、代わりの構成では、プロセッサの組合せ(例えば、ARMとDSP)が使用されうるだろう。
[00110]電子デバイス1402はまた、プロセッサ1447と電子通信状態にあるメモリ1431を含む(すなわち、プロセッサ1447は、メモリ1431から情報を読み取ることおよび/またはメモリ1431に情報を書き込むことができる)。メモリ1431は、電子情報を記憶する能力を有するいずれの電子コンポーネントでもありうる。メモリ1431は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、磁気ディスク記憶媒体、光学記憶媒体、RAMにおけるフラッシュメモリデバイス、プロセッサとともに含まれるオンボードメモリ、プログラマブル読取専用メモリ(PROM)、消去可能プログラマブル読取専用メモリ(EPROM)、電気的消去可能PROM(EEPROM(登録商標))、レジスタ、およびその他であり得、それらの組み合わせも含みうる。
[00111]データ1433および命令1435は、メモリ1431に記憶されうる。命令1435は、1つ以上のプログラム、ルーチン、サブルーチン、関数、プロシージャ、コード等を含むことができる。命令1435は、単一のコンピュータ可読ステートメントまたは多数のコンピュータ可読ステートメントを含むことができる。命令1435は、本明細書で説明されている方法のうちの1つ以上をインプリメントするようにプロセッサ1447によって実行可能でありうる。命令1435を実行することは、メモリ1431に記憶されているデータ1433の使用を伴うことができる。図14は、いくつかの命令1435aおよびデータ1433aがプロセッサ1447にロードされることを図示している。
[00112]電子デバイス1402はまた、電子デバイス1402と遠隔ロケーション(例えば、ワイヤレス通信デバイス、基地局等)との間の信号の送信および受信を可能にするための送信機1443および受信機1445を含むことができる。送信機1443および受信機1445は、集合的にトランシーバ1441と称されうる。アンテナ1439は、トランシーバ1441に電気的に結合されうる。電子デバイス1402はまた、複数の送信機、複数の受信機、複数のトランシーバ、および/または複数のアンテナ(図示せず)を含むことができる。
[00113]電子デバイス1402の様々なコンポーネントは、電力バス、制御信号バス、ステータス信号バス、データバス等を含むことができる、1つ以上のバスによって互いに結合されうる。簡略化のために、様々なバスが、バスシステム1437として図14で例示されている。
[00114]図15は、目印測定のために変位モデルをトレーニングするための方法1500の一構成を例示するフロー図である。方法1500は、電子デバイス(例えば、図1に関連して説明された電子デバイス102)によって実行されうる。方法1500は、目印測定のために変位モデルをトレーニングすることを含むことができる。例えば、方法1500は、目印測定のために利用されうる重み(例えば、ω)および/または変位モデル(例えば、U(l))を取得するためのトレーニング手法でありうる。いくつかの構成では、方法1500および/またはその1つ以上のステップは、図2に関連して説明された方法200に含まれうる。
[00115]電子デバイス102は、初期平均形状ポジションを生成することができる1502。例えば、電子デバイス102は、オブジェクトポジション(例えば、境界ボックス)に基づいて、平均形状(例えば、lk,ms)を生成することができる1502。目印は、同じフレーム内の平均形状から始まりうる。いくつかの構成では、電子デバイス102は、目印ポジションの1つ以上の確率分布に基づいて、平均形状を生成することができる1502。例えば、平均形状(例えば、lk,ms)の初期目印の各々は、その目印に対応する確率分布の平均(例えば、アベレージ)でありうる。平均形状の一例は、図9の画像A930aで与えられる。
[00116]電子デバイス102は、オブジェクト記述子(例えば、
)を算出することができる1504。オブジェクト記述子は、目印ポジションに基づいて算出されうる1504。例えば、電子デバイス102は、オブジェクト記述子
を、それが収束するまで算出することができる1504。オブジェクト記述子の一例はHSGである。オブジェクト記述子の他の例は、HOG、SIFT、ハフ変換、SURF、およびGLOHを含む。
[00117]電子デバイス102は、変位モデルを解くことができる1506。例えば、電子デバイス102は、U(lk,ms)を解くことができる1506。いくつかの構成では、変位モデルは、収束まで反復方式で式(3)に関連して速度モデルに関して与えられたものと同様の手法で解かれうる1506。このケースでは、反復(例えば、i)ごとに、速度モデルU(lk,ms)が算出されうる。
[00118]電子デバイス102は、各反復iにおいて目印を更新することができる1508。例えば、電子デバイス102は、式(11)にしたがって各反復において目印ポジションを更新することができる1508。
ここで使用される場合、
は、
によって取得される目印の変位ベクトルである。いくつかの構成では、変位ベクトルは、オブジェクト測定モジュール(例えば、目印測定モジュール108)に関する上記の式(5)にしたがって取得されうる。
[00119]電子デバイス102は、関数(例えば、オブジェクト記述子
)が収束してしまっているかどうかを決定することができる1510。例えば、電子デバイス102は、変位ベクトル
が予め定義されたしきい値よりも低い(例えば、5%よりも小さい変化)場合に関数が収束したかどうかを決定することができる1510。
[00120]関数が収束していなかったケースでは、電子デバイス102は、次の反復に関するオブジェクト記述子(例えば、
)を算出する1504ように戻ることができる。例えば、オブジェクト記述子は、(iがインクリメントされる、例えばi=i+1、i++等の場合)更新された目印で算出されうる1504。図15で例示されているように、オブジェクト記述子を算出すること1504、変位モデルを解くこと1506、および目印を更新すること1508は、関数が収束するまで反復されうる。
[00121]関数が収束してしまっているケースでは、電子デバイス102は、重み(例えば、モデル重み値)を算出することができる1512。例えば、電子デバイス102は、式(12)にしたがって重みを算出することができる。
式(12)では、
は、トレーニングプロセスにおいて使用される注釈付き値
からの推定された目印lの標準偏差関数を意味する。変位モデルのセット(例えば、
)および/または重み(例えば、ω)は、図1−4のうちの1つ以上に関連して説明されたように、目印測定において適用されうる。いくつかの構成では、図1に関連して説明された電子デバイス102が、方法1500を実行することができる。他の構成では、別個の電子デバイス(例えば、コンピュータ)が、方法1500を実行することができる、および/または電子デバイス102にトレーニング結果(例えば、変位モデルのセット
および/または重みω)を提供することができる。いくつかの構成では、方法1500は、「オフライン」で(例えば、図2−4に関連して説明された方法200、300、400のうちの1つ以上を実行する前、ランタイム前、等に)実行されうる。
[00122]上記の説明では、参照番号は、時に、様々な用語に関連して使用されている。用語が参照番号に関連して使用されている場合、これは、図のうちの1つ以上で図示されている特定の要素を指すように意味されうる。用語が参照番号なしに使用されている場合、これは、いずれの特定の図にも限定することなく用語を一般的に指すように意味されうる。
[00123]「決定すること」という用語は、幅広い種類のアクションを含み、それにより、「決定すること」は、計算すること、算出すること、処理すること、導出すること、調査すること、ルックアップすること(looking up)(例えば、表、データベース、または別のデータ構造においてルックアップすること)、確定すること、および同様のことを含むことができる。また「決定すること」は、受信すること(例えば、情報を受信すること)、アクセスすること(例えば、メモリ中のデータにアクセスすること)、および同様のことを含むことができる。また、「決定すること」は、解決すること(resolving)、選択すること(selecting)、選ぶこと(choosing)、確立すること(establishing)、および同様のことを含むことができる。
[00124]「に基づいて」というフレーズは、別の形で明示的に指定されない限り、「にのみ基づいて」を意味しない。言い換えれば、「に基づいて」というフレーズは、「にのみ基づいて」および「に少なくとも基づいて」の両方を説明する。
[00125]本明細書で説明されている構成のうちの任意の1つに関連して説明されている特徴、機能、プロシージャ、コンポーネント、要素、構造等のうちの1つ以上は、互換性がある場合、本明細書で説明されている他の構成のうちの任意のものに関連して説明されている機能、プロシージャ、コンポーネント、要素、構造等のうちの1つ以上と組み合わせられうることは留意されるべきである。言い換えると、本明細書で説明されている機能、プロシージャ、コンポーネント、要素等のあらゆる互換性のある組み合わせが、本明細書で開示されているシステムおよび方法にしたがってインプリメントされうる。
[00126]本明細書で説明されている機能は、プロセッサ可読またはコンピュータ可読媒体上に、1つ以上の命令として記憶されうる。「コンピュータ可読媒体」という用語は、コンピュータまたはプロセッサによってアクセスされうるあらゆる利用可能な媒体を指す。限定ではなく例として、そのような媒体は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、フラッシュメモリ、コンパクトディスク読取専用メモリ(CD−ROM)または他の光学ディスクストレージ、磁気ディスクストレージまたは他の磁気記憶デバイス、あるいはデータ構造または命令の形式で所望のプログラムコードを記憶するために使用されることができ、かつコンピュータによってアクセスされることができる、あらゆる他の媒体を備えることができる。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光学ディスク(disc)、デジタル多目的ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイ(登録商標)ディスク(disc)を含み、ここでディスク(disk)が大抵磁気的にデータを再生する一方で、ディスク(disc)は、レーザーを用いて光学的にデータを再生する。コンピュータ可読媒体が有形および非一時的でありうることは留意されるべきである。「コンピュータプログラム製品」という用語は、コンピューティングデバイスまたはプロセッサによって実行、処理、または算出されうるコードまたは命令(例えば、「プログラム」)と組み合わされたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用される場合、「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能であるソフトウェア、命令、コード、またはデータを指しうる。
[00127]ソフトウェアまたは命令はまた、送信媒体によって送信されうる。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波のようなワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波のようなワイヤレス技術は、送信媒体の定義に含まれる。
[00128]本明細書で開示されている方法は、説明されている方法を遂げるための1つ以上のステップまたはアクションを備える。方法のステップおよび/またはアクションは、請求項の範囲から逸脱することなく互いに置き換えられうる。言い換えると、ステップまたはアクションの特定の順序が、説明されている方法の適切な動作のために要求されない限り、特定のステップおよび/またはアクションの順序および/または使用は、請求項の範囲から逸脱することなく修正されうる。
[00129]請求項が、上で例示された精密な構成およびコンポーネントに限定されないことは理解されるものとする。様々な修正、変更、および、変形が、本明細書で説明されているシステム、方法、および装置の、配置、動作、および詳細において、請求項の範囲から逸脱することなく行われうる。
[00129]請求項が、上で例示された精密な構成およびコンポーネントに限定されないことは理解されるものとする。様々な修正、変更、および、変形が、本明細書で説明されているシステム、方法、および装置の、配置、動作、および詳細において、請求項の範囲から逸脱することなく行われうる。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
電子デバイスによってオブジェクトをトラッキングするための方法であって、
検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することと、
前記検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することと、
前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測することと、
オブジェクトトラッキングが見失われているかどうかを決定することと、
オブジェクトトラッキングが維持されているケースでは、前記後続のフレームに関してオブジェクト検出を実行するのを回避することと、を含む、方法。
[C2]
前記目印ポジションが前記オブジェクトの構造内にある、C1に記載の方法。
[C3]
オブジェクトポジション検出およびオブジェクトポジション予測は独立している、C1に記載の方法。
[C4]
前記オブジェクトポジションを予測することは、前のフレームからの1つ以上の目印ポジションに基づく、C1に記載の方法。
[C5]
前記目印ポジションの構造は予め定義される、C1に記載の方法。
[C6]
オブジェクトトラッキングが見失われているかどうかを決定することは、1つ以上の目印ポジションおよびオブジェクトポジション予測のうちの少なくとも1つに基づく、C1に記載の方法。
[C7]
速度モデルは予測中に利用され、変位モデルは測定中に利用され、ここにおいて、前記速度モデルおよび変位モデルの各々は、前記オブジェクトの構造に対応する、C1に記載の方法。
[C8]
前記速度モデルおよび前記変位モデルは、いずれの厳しい制約も含まない、C7に記載の方法。
[C9]
前記方法は、単一の画像シーケンスのある時間での1つのフレームに対して動作する、C1に記載の方法。
[C10]
前のフレームの目印からのオブジェクトポジション予測のために速度モデルをトレーニングすることをさらに備える、C1に記載の方法。
[C11]
現在のフレームにおける予測された境界ボックスポジションからの、または前記現在のフレームにおける検出された境界ボックスポジションからの目印測定のために変位モデルをトレーニングすることをさらに備える、C1に記載の方法。
[C12]
オブジェクトをトラッキングするための電子デバイスであって、
プロセッサと、
前記プロセッサと電子通信状態にあるメモリと、
前記メモリに記憶された命令と
を備え、前記命令は、
検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することと、
前記検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することと、
前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測することと、
オブジェクトトラッキングが見失われているかどうかを決定することと、
オブジェクトトラッキングが維持されているケースでは、前記後続のフレームに関してオブジェクト検出を実行するのを回避することと、を行うように前記プロセッサによって実行可能である、電子デバイス。
[C13]
前記目印ポジションが前記オブジェクトの構造内にある、C12に記載の電子デバイス。
[C14]
オブジェクトポジション検出およびオブジェクトポジション予測は独立している、C12に記載の電子デバイス。
[C15]
前記オブジェクトポジションを予測することは、前のフレームからの1つ以上の目印ポジションに基づく、C12に記載の電子デバイス。
[C16]
前記目印ポジションの構造は予め定義される、C12に記載の電子デバイス。
[C17]
オブジェクトトラッキングが見失われているかどうかを決定することは、1つ以上の目印ポジションおよびオブジェクトポジション予測のうちの少なくとも1つに基づく、C12に記載の電子デバイス。
[C18]
速度モデルは予測中に利用され、変位モデルは測定中に利用され、ここにおいて、前記速度モデルおよび変位モデルの各々は、前記オブジェクトの構造に対応する、C12に記載の電子デバイス。
[C19]
前記速度モデルおよび前記変位モデルは、いずれの厳しい制約も含まない、C18に記載の電子デバイス。
[C20]
前記電子デバイスは、単一の画像シーケンスのある時間での1つのフレームに対して動作する、C12に記載の電子デバイス。
[C21]
前記命令は、前のフレームの目印からのオブジェクトポジション予測のために速度モデルをトレーニングするように前記プロセッサによってさらに実行可能である、C12に記載の電子デバイス。
[C22]
前記命令は、現在のフレームにおける予測された境界ボックスポジションからの、または前記現在のフレームにおける検出された境界ボックスポジションからの目印測定のために変位モデルをトレーニングするように前記プロセッサによってさらに実行可能である、C12に記載の電子デバイス。
[C23]
命令を記憶した非一時的な有形のコンピュータ可読媒体を備える、オブジェクトをトラッキングするためのコンピュータプログラム製品であって、
検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することを電子デバイスに行わせるためのコードと、
前記検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することを前記電子デバイスに行わせるためのコードと、
前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測することを前記電子デバイスに行わせるためのコードと、
オブジェクトトラッキングが見失われているかどうかを決定することを前記電子デバイスに行わせるためのコードと、
オブジェクトトラッキングが維持されているケースでは、前記後続のフレームに関してオブジェクト検出を実行するのを回避することを前記電子デバイスに行わせるためのコードと、
を備える、コンピュータプログラム製品。
[C24]
前記目印ポジションが前記オブジェクトの構造内にある、C23に記載のコンピュータプログラム製品。
[C25]
オブジェクトポジション検出およびオブジェクトポジション予測は独立している、C23に記載のコンピュータプログラム製品。
[C26]
前記オブジェクトポジションを予測することを前記電子デバイスに行わせるためのコードは、前のフレームからの1つ以上の目印ポジションに基づく、C23に記載のコンピュータプログラム製品。
[C27]
オブジェクトをトラッキングするための装置であって、
検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出するための手段と、
前記検出されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定するための手段と、
前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測するための手段と、
オブジェクトトラッキングが見失われているかどうかを決定するための手段と、
オブジェクトトラッキングが維持されているケースでは前記後続のフレームに関してオブジェクト検出を実行するのを回避するための手段と、
を備える、装置。
[C28]
前記目印ポジションが前記オブジェクトの構造内にある、C27に記載の装置。
[C29]
オブジェクトポジション検出およびオブジェクトポジション予測は独立している、C27に記載の装置。
[C30]
前記オブジェクトポジションを予測するための手段は、前のフレームからの1つ以上の目印ポジションに基づく、C27に記載の装置。

Claims (30)

  1. 電子デバイスによってオブジェクトをトラッキングするための方法であって、
    検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することと、
    前記検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することと、
    前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測することと、
    オブジェクトトラッキングが見失われているかどうかを決定することと、
    オブジェクトトラッキングが維持されているケースでは、前記後続のフレームに関してオブジェクト検出を実行するのを回避することと、
    を含む、方法。
  2. 前記目印ポジションが前記オブジェクトの構造内にある、請求項1に記載の方法。
  3. オブジェクトポジション検出およびオブジェクトポジション予測は独立している、請求項1に記載の方法。
  4. 前記オブジェクトポジションを予測することは、前のフレームからの1つ以上の目印ポジションに基づく、請求項1に記載の方法。
  5. 前記目印ポジションの構造は予め定義される、請求項1に記載の方法。
  6. オブジェクトトラッキングが見失われているかどうかを決定することは、1つ以上の目印ポジションおよびオブジェクトポジション予測のうちの少なくとも1つに基づく、請求項1に記載の方法。
  7. 速度モデルは予測中に利用され、変位モデルは測定中に利用され、ここにおいて、前記速度モデルおよび変位モデルの各々は、前記オブジェクトの構造に対応する、請求項1に記載の方法。
  8. 前記速度モデルおよび前記変位モデルは、いずれの厳しい制約も含まない、請求項7に記載の方法。
  9. 前記方法は、単一の画像シーケンスのある時間での1つのフレームに対して動作する、請求項1に記載の方法。
  10. 前のフレームの目印からのオブジェクトポジション予測のために速度モデルをトレーニングすることをさらに備える、請求項1に記載の方法。
  11. 現在のフレームにおける予測された境界ボックスポジションからの、または前記現在のフレームにおける検出された境界ボックスポジションからの目印測定のために変位モデルをトレーニングすることをさらに備える、請求項1に記載の方法。
  12. オブジェクトをトラッキングするための電子デバイスであって、
    プロセッサと、
    前記プロセッサと電子通信状態にあるメモリと、
    前記メモリに記憶された命令と
    を備え、前記命令は、
    検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することと、
    前記検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することと、
    前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測することと、
    オブジェクトトラッキングが見失われているかどうかを決定することと、
    オブジェクトトラッキングが維持されているケースでは、前記後続のフレームに関してオブジェクト検出を実行するのを回避することと、
    を行うように前記プロセッサによって実行可能である、電子デバイス。
  13. 前記目印ポジションが前記オブジェクトの構造内にある、請求項12に記載の電子デバイス。
  14. オブジェクトポジション検出およびオブジェクトポジション予測は独立している、請求項12に記載の電子デバイス。
  15. 前記オブジェクトポジションを予測することは、前のフレームからの1つ以上の目印ポジションに基づく、請求項12に記載の電子デバイス。
  16. 前記目印ポジションの構造は予め定義される、請求項12に記載の電子デバイス。
  17. オブジェクトトラッキングが見失われているかどうかを決定することは、1つ以上の目印ポジションおよびオブジェクトポジション予測のうちの少なくとも1つに基づく、請求項12に記載の電子デバイス。
  18. 速度モデルは予測中に利用され、変位モデルは測定中に利用され、ここにおいて、前記速度モデルおよび変位モデルの各々は、前記オブジェクトの構造に対応する、請求項12に記載の電子デバイス。
  19. 前記速度モデルおよび前記変位モデルは、いずれの厳しい制約も含まない、請求項18に記載の電子デバイス。
  20. 前記電子デバイスは、単一の画像シーケンスのある時間での1つのフレームに対して動作する、請求項12に記載の電子デバイス。
  21. 前記命令は、前のフレームの目印からのオブジェクトポジション予測のために速度モデルをトレーニングするように前記プロセッサによってさらに実行可能である、請求項12に記載の電子デバイス。
  22. 前記命令は、現在のフレームにおける予測された境界ボックスポジションからの、または前記現在のフレームにおける検出された境界ボックスポジションからの目印測定のために変位モデルをトレーニングするように前記プロセッサによってさらに実行可能である、請求項12に記載の電子デバイス。
  23. 命令を記憶した非一時的な有形のコンピュータ可読媒体を備える、オブジェクトをトラッキングするためのコンピュータプログラム製品であって、
    検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出することを電子デバイスに行わせるためのコードと、
    前記検出されたオブジェクトポジションまたは予測されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定することを前記電子デバイスに行わせるためのコードと、
    前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測することを前記電子デバイスに行わせるためのコードと、
    オブジェクトトラッキングが見失われているかどうかを決定することを前記電子デバイスに行わせるためのコードと、
    オブジェクトトラッキングが維持されているケースでは、前記後続のフレームに関してオブジェクト検出を実行するのを回避することを前記電子デバイスに行わせるためのコードと、
    を備える、コンピュータプログラム製品。
  24. 前記目印ポジションが前記オブジェクトの構造内にある、請求項23に記載のコンピュータプログラム製品。
  25. オブジェクトポジション検出およびオブジェクトポジション予測は独立している、請求項23に記載のコンピュータプログラム製品。
  26. 前記オブジェクトポジションを予測することを前記電子デバイスに行わせるためのコードは、前のフレームからの1つ以上の目印ポジションに基づく、請求項23に記載のコンピュータプログラム製品。
  27. オブジェクトをトラッキングするための装置であって、
    検出されたオブジェクトポジションを作り出すために、初期フレームにおけるオブジェクトポジションを検出するための手段と、
    前記検出されたオブジェクトポジションに基づいて、1つ以上の目印ポジションを測定するための手段と、
    前記1つ以上の目印ポジションに基づいて、後続のフレームにおける前記オブジェクトポジションを予測するための手段と、
    オブジェクトトラッキングが見失われているかどうかを決定するための手段と、
    オブジェクトトラッキングが維持されているケースでは前記後続のフレームに関してオブジェクト検出を実行するのを回避するための手段と、
    を備える、装置。
  28. 前記目印ポジションが前記オブジェクトの構造内にある、請求項27に記載の装置。
  29. オブジェクトポジション検出およびオブジェクトポジション予測は独立している、請求項27に記載の装置。
  30. 前記オブジェクトポジションを予測するための手段は、前のフレームからの1つ以上の目印ポジションに基づく、請求項27に記載の装置。
JP2017525350A 2014-11-12 2015-10-13 オブジェクトをトラッキングするためのシステムおよび方法 Pending JP2018500645A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/539,617 US9665804B2 (en) 2014-11-12 2014-11-12 Systems and methods for tracking an object
US14/539,617 2014-11-12
PCT/US2015/055225 WO2016077000A1 (en) 2014-11-12 2015-10-13 Systems and methods for tracking an object

Publications (1)

Publication Number Publication Date
JP2018500645A true JP2018500645A (ja) 2018-01-11

Family

ID=54360567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017525350A Pending JP2018500645A (ja) 2014-11-12 2015-10-13 オブジェクトをトラッキングするためのシステムおよび方法

Country Status (5)

Country Link
US (1) US9665804B2 (ja)
EP (1) EP3218873A1 (ja)
JP (1) JP2018500645A (ja)
CN (1) CN107077738B (ja)
WO (1) WO2016077000A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727786B2 (en) * 2014-11-14 2017-08-08 Intel Corporation Visual object tracking system with model validation and management
US10445885B1 (en) 2015-10-01 2019-10-15 Intellivision Technologies Corp Methods and systems for tracking objects in videos and images using a cost matrix
CN106920251A (zh) 2016-06-23 2017-07-04 阿里巴巴集团控股有限公司 人手检测跟踪方法及装置
US10360456B2 (en) 2016-08-12 2019-07-23 Qualcomm Incorporated Methods and systems of maintaining lost object trackers in video analytics
US10896495B2 (en) * 2017-05-05 2021-01-19 Boe Technology Group Co., Ltd. Method for detecting and tracking target object, target object tracking apparatus, and computer-program product
KR102256110B1 (ko) * 2017-05-26 2021-05-26 라인 가부시키가이샤 영상 압축 방법 및 영상 복원 방법
US10580148B2 (en) * 2017-12-21 2020-03-03 Microsoft Technology Licensing, Llc Graphical coordinate system transform for video frames
CN108334811B (zh) * 2017-12-26 2021-06-04 大唐软件技术股份有限公司 一种人脸图像处理方法及装置
US10970425B2 (en) * 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
WO2020114585A1 (en) * 2018-12-05 2020-06-11 Telefonaktiebolaget Lm Ericsson (Publ) Object location determination in frames of a video stream
US11030774B2 (en) 2019-03-19 2021-06-08 Ford Global Technologies, Llc Vehicle object tracking
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
WO2021084165A1 (fr) 2019-11-03 2021-05-06 St37 Sport Et Technologie Procede et systeme de caracterisation d'un mouvement d'une entite en mouvement
EP4149636A4 (en) * 2020-05-15 2024-06-05 3M Innovative Properties Company PERSONAL PROTECTIVE EQUIPMENT TRAINING SYSTEM WITH CONSTRUCTION AND RENDERING OF USER-SPECIFIC AUGMENTED REALITY CONTENT
CN112037247A (zh) * 2020-08-27 2020-12-04 浙江大华技术股份有限公司 一种目标跟踪的方法、装置及计算机存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03170805A (ja) * 1989-11-30 1991-07-24 Olympus Optical Co Ltd 目標物体の移動位置演算装置
WO2014116485A1 (en) * 2013-01-22 2014-07-31 Qualcomm Incorporated Systems and methods for tracking and detecting a target object

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
BR9909611B1 (pt) * 1998-04-13 2012-08-07 mÉtodo e aparelho para detectar caracterÍsticas faciais em uma sequÊncia de quadros de imagem compreendendo uma imagem de um rosto.
EP1580684B1 (en) 1998-04-13 2008-12-31 Google Inc. Face recognition from video images
US6643387B1 (en) * 1999-01-28 2003-11-04 Sarnoff Corporation Apparatus and method for context-based indexing and retrieval of image sequences
US6567775B1 (en) * 2000-04-26 2003-05-20 International Business Machines Corporation Fusion of audio and video based speaker identification for multimedia information access
AU2002342067A1 (en) * 2001-10-12 2003-04-22 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
WO2005066897A1 (ja) * 2004-01-06 2005-07-21 Sony Corporation 画像処理装置および方法、記録媒体、並びにプログラム
JP4478510B2 (ja) * 2004-06-03 2010-06-09 キヤノン株式会社 カメラシステム、カメラ、及びカメラの制御方法
US7508990B2 (en) 2004-07-30 2009-03-24 Euclid Discoveries, Llc Apparatus and method for processing video data
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
GB0502369D0 (en) * 2005-02-04 2005-03-16 British Telecomm Classifying an object in a video frame
US7860162B2 (en) 2005-09-29 2010-12-28 Panasonic Corporation Object tracking method and object tracking apparatus
GB0607143D0 (en) * 2006-04-08 2006-05-17 Univ Manchester Method of locating features of an object
TW200919336A (en) * 2007-10-25 2009-05-01 Ind Tech Res Inst Method for positioning a non-structural object in a series of continuing images
JP5446546B2 (ja) * 2009-07-28 2014-03-19 ソニー株式会社 撮像制御装置、撮像制御方法、プログラム、撮像システム
US8116527B2 (en) * 2009-10-07 2012-02-14 The United States Of America As Represented By The Secretary Of The Army Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
CN102640168B (zh) * 2009-12-31 2016-08-03 诺基亚技术有限公司 用于基于局部二进制模式的面部特征定位的方法和设备
JP5488076B2 (ja) 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
US8396268B2 (en) 2010-03-31 2013-03-12 Isis Innovation Limited System and method for image sequence processing
CN103270535B (zh) * 2010-06-23 2016-05-25 诺基亚技术有限公司 用于跟踪脸部部分的方法、装置
WO2012009789A2 (en) * 2010-07-19 2012-01-26 Smart Technologies Ulc Interactive input system having a 3d input space
US9582896B2 (en) * 2011-09-02 2017-02-28 Qualcomm Incorporated Line tracking with automatic model initialization by graph matching and cycle detection
US9141196B2 (en) 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03170805A (ja) * 1989-11-30 1991-07-24 Olympus Optical Co Ltd 目標物体の移動位置演算装置
WO2014116485A1 (en) * 2013-01-22 2014-07-31 Qualcomm Incorporated Systems and methods for tracking and detecting a target object

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
小池 淳、外2名: ""フレーム間の動きの拘束を用いたスネークによる顔動画像からの形状変化の追跡"", 電子情報通信学会技術研究報告, vol. 91, no. 508, JPN6017044822, 10 March 1992 (1992-03-10), JP, pages 1 - 8 *
松田 龍英、外3名: ""顔形状の制約を考慮したLinear Predictorsによる特徴点自動検出"", SSII2011 第17回 画像センシングシンポジウム講演論文集, JPN6017044819, 8 June 2011 (2011-06-08), JP, pages 1 - 6 *
河合 将吾、外3名: ""顔追跡精度向上のための画像局所特徴量評価"", 電子情報通信学会技術研究報告, vol. 113, no. 493, JPN6017044818, 6 March 2014 (2014-03-06), JP, pages 197 - 202 *

Also Published As

Publication number Publication date
US20160133022A1 (en) 2016-05-12
US9665804B2 (en) 2017-05-30
CN107077738B (zh) 2018-12-07
WO2016077000A1 (en) 2016-05-19
EP3218873A1 (en) 2017-09-20
CN107077738A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
JP2018500645A (ja) オブジェクトをトラッキングするためのシステムおよび方法
US10198823B1 (en) Segmentation of object image data from background image data
EP3467707B1 (en) System and method for deep learning based hand gesture recognition in first person view
US11557085B2 (en) Neural network processing for multi-object 3D modeling
US10394318B2 (en) Scene analysis for improved eye tracking
CN110706266B (zh) 一种基于YOLOv3的空中目标跟踪方法
JP6794436B2 (ja) 非障害物エリア検出のためのシステムおよび方法
RU2685020C2 (ru) Слежение за взглядом на основе адаптивного гомографического сопоставления
US10282913B2 (en) Markerless augmented reality (AR) system
JP6793885B1 (ja) 画像処理システム及び画像処理方法
JP7151488B2 (ja) 移動物体検出装置、移動物体検出方法及びプログラム
JP2018508078A (ja) オブジェクト追跡のためのシステムおよび方法
CN109583391B (zh) 关键点检测方法、装置、设备及可读介质
CN108229494B (zh) 网络训练方法、处理方法、装置、存储介质和电子设备
WO2020124993A1 (zh) 活体检测方法、装置、电子设备及存储介质
US20210015376A1 (en) Electronic device and method for measuring heart rate
CN108875506B (zh) 人脸形状点跟踪方法、装置和系统及存储介质
CN112384974A (zh) 电子装置和用于提供或获得用于训练电子装置的数据的方法
CN111079588A (zh) 一种图像处理方法、装置及存储介质
JP2017033556A (ja) 画像処理方法及び電子機器
CN113168700A (zh) 电子装置及其控制方法
CN114066980A (zh) 对象检测方法、装置、电子设备及自动驾驶车辆
US11481036B2 (en) Method, system for determining electronic device, computer system and readable storage medium
KR20170067398A (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
WO2019198233A1 (ja) 動作認識装置、動作認識方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180206