JP2022502809A - ユーザ指定初期化点に基づくオブジェクトトラッキング - Google Patents

ユーザ指定初期化点に基づくオブジェクトトラッキング Download PDF

Info

Publication number
JP2022502809A
JP2022502809A JP2021543597A JP2021543597A JP2022502809A JP 2022502809 A JP2022502809 A JP 2022502809A JP 2021543597 A JP2021543597 A JP 2021543597A JP 2021543597 A JP2021543597 A JP 2021543597A JP 2022502809 A JP2022502809 A JP 2022502809A
Authority
JP
Japan
Prior art keywords
feature
points
motion estimation
image frame
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021543597A
Other languages
English (en)
Other versions
JP7100306B2 (ja
Inventor
フーマン ラストガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022502809A publication Critical patent/JP2022502809A/ja
Application granted granted Critical
Publication of JP7100306B2 publication Critical patent/JP7100306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

ユーザ指定初期化点に基づくオブジェクトトラッキングのための電子デバイスが提供される。前記電子デバイスは、第1の画像フレーム及び第2の画像フレームを含む一連の画像フレームを記憶する。前記電子デバイスは、前記第1の画像フレーム内の第1の特徴点の組と前記第2の画像フレーム内の第2の特徴点の組との間の特徴対応点の組を推定する。前記電子デバイスは、前記特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成し、更に、前記異なる特徴対応点の群から、前記第1の画像フレーム及び前記第2の画像フレーム内の前記関心オブジェクトに対応する複数のインライア特徴対応点を推定する。前記電子デバイスは、最適の動き推定モデルとして第2の動き推定モデルを生成し、前記第2の動き推定モデルに基づいて、前記一連の画像フレーム内の前記関心オブジェクトを追跡する。【選択図】図4A

Description

〔関連出願との相互参照/引用による組み入れ〕
[0001] なし
[0002] 本開示の様々な実施形態は、画像処理技術に関する。具体的には、本開示の様々な実施形態は、ユーザ指定初期化点に基づくオブジェクトトラッキングのための電子デバイスに関する。
[0003] 最近のデジタル画像処理の分野の進歩は、ビデオにおいてオブジェクトを追跡するための様々な方法及び技術の開発をもたらしている。従来のオブジェクトトラッキングシステムでは、一連のフレームを通して追跡することができる関心オブジェクトを選択するために、初期化パラメータとして、ユーザ入力が必要とされる場合がある。例えば、ユーザ入力は、関心オブジェクトを表現するパッチの選択に対応することができる。ユーザ入力を提供するために、ユーザは、関心オブジェクトを囲む全体のバウンディングボックスを生成する必要がある。手動の初期化は、第1のフレームに対して実行することができ、囲まれた画像画素を用いて、ターゲットモデルをトレーニングすることができ、次に、ターゲットモデルを用いて、後続のフレームにおいて最適なオブジェクト位置を探索することができる。しかしながら、動画編集又は監視などの多くの現実の用途では、ユーザは、関心オブジェクトの完全なバウンディングボックスを作成する能力を有さない場合がある。というのは、特に、関心オブジェクトが車両などの高速で移動するオブジェクトである場合、ユーザが関心オブジェクトの周囲に矩形のバウンディングボックスを手動で作成することは、骨が折れて面倒であるすなわち実現不可能である場合があるからである。また、いくつかの場合では、関心オブジェクトの完全なバウンディングボックスが見えない場合があるので、完全なバウンディングボックスの作成は、オブジェクトトラッキングシステムを初期化するための実現可能な解決策ではない場合があり、更に、ユーザに不便をかける場合がある。
[0004] 当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的方法の更なる制限及び不利点が明らかになるであろう。
[0006] 少なくとも1つの図に実質的に示し、及び/又はこれらの図に関連して説明し、特許請求の範囲に更に完全に示す、ユーザ指定初期化点に基づくオブジェクトトラッキングのための電子デバイス及び方法を提供する。
[0007] 全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態による、ユーザ指定初期化点に基づいてオブジェクトを追跡する電子デバイスのための例示的な環境を示すブロック図である。 本開示の実施形態による、ユーザ指定初期化点に基づくオブジェクトトラッキングのための例示的な電子デバイスのブロック図である。 本開示の実施形態による、図2の電子デバイスの実装のための第1の例示的なシナリオを示す図である。 本開示の実施形態による、図2の電子デバイスの実装のための第1の例示的なシナリオを示す図である。 本開示の実施形態による、ユーザ指定初期化点に基づくオブジェクトトラッキングのための例示的な方法を示すフローチャートである。 本開示の実施形態による、ユーザ指定初期化点に基づくオブジェクトトラッキングのための例示的な方法を示すフローチャートである。
[0013] ユーザ指定初期化点に基づくオブジェクトトラッキングのための開示される電子デバイス及び方法では、以下の説明される実装を見出すことができる。本開示の例示的な態様は、ライブビデオフィード又は予め録画されたビデオの一連の画像フレームにおけるオブジェクトのリアルタイム又は近リアルタイムのトラッキングのためのデバイスとして働くことができる電子デバイスを提供することができる。開示される電子デバイスは、シーン内の関心オブジェクトを選択して追跡するために、ユーザ入力が必要であるときはいつも、ユーザのオーバヘッドを低減して、シーン内の関心オブジェクトに十分に注釈をつけるための解決策を提供する。開示される電子デバイスは、デジタル写真撮影におけるオートフォーカス用途、ライブ又は録画ビデオフィードにおける関心オブジェクトの監視、ビデオ編集用途、ビデオへの特殊効果の追加、及びドローンのナビゲーションなどの異なる用途において利用することができる。
[0014] 開示される電子デバイスは、ランダムサンプリング・コンセンサスフレームワークにおけるロバストな推定を介して、関心オブジェクトのサポート領域を動的に見つけるための解決策を提供する。提案されるロバストな推定は、第1の画像フレーム内の関心オブジェクトの最新の既知の位置(又は第1の画像フレームの場合、ユーザクリックの位置)との近接度に加えて、最良の変換モデルを強調することができるロバストなスコアリングモデルを用いることができる。
[0015] 開示される電子デバイスは、更に、ユーザが手動で、第1の画像フレームにおいて矩形のバウンディングボックスで十分に関心オブジェクトに注釈をつける必要を除去する解決策を提供する。従来、このように手動で注釈をつけることは、ユーザにとって困難な問題があった。というのは、マウス又は他のデバイスで、関心オブジェクトの周囲に矩形のバウンディングボックスを描画することは、難題であったからである。したがって、開示される電子デバイスでは、一連の画像フレームにおいて関心オブジェクトのトラッキングを初期化するためには、関心オブジェクトの領域内の任意の点でのユーザクリックで十分であることができる。所望の関心オブジェクトのオブジェクトトラッキングのために、従来の解決策は、トラッキング動作の初期化の遅延を招く複雑な初期化プロセスを有する。開示される電子デバイスは、更に、この問題及びビデオにおいて移動する関心オブジェクトを追跡し続ける必要がある様々なシステムを解決する。
[0016] 図1は、本開示の実施形態による、ユーザ指定初期化点に基づいてオブジェクトを追跡する電子デバイスのための例示的な環境を示すブロック図である。図1を参照すると、電子デバイス102と、サーバ104と、通信ネットワーク106とを含むネットワーク環境100が示されている。ある実施形態によれば、電子デバイス102は、画像取り込み装置とすることができる。このような場合、電子デバイス102は、1又は2以上の画像センサ(例えば画像センサ108)を含むことができ、画像センサ108は、画像センサ108の有効視野(FoV)内のシーンの一連の画像フレーム110を取り込むように構成することができる。
[0017] 電子デバイス102は、ビデオからの連続画像などの一連の画像フレーム110において1又は2以上の関心オブジェクトを追跡するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。一例として、第1の画像フレーム112A及び第2の画像フレーム112Bにおいて、それぞれ、関心オブジェクト114を追跡することができる。電子デバイス102は、第1の画像フレーム内のユーザ指定初期化点(例えば、初期化点116)に基づいて、一連の画像フレーム110のうちの連続画像フレームにおける関心オブジェクトのためのオブジェクトトラッキング動作を初期化するように構成することができる。ユーザ指定初期化点は、ユーザ入力(例えば、マウスクリックイベント又は画面タッチイベント)に対応することができる。電子デバイス102の例としては、以下に限定されるわけではないが、撮像装置(例えばデジタルカメラ及びビデオカメラ)、モーションキャプチャシステム、カメラ付き携帯電話、プロジェクタ、コンピュータワークステーション、メインフレームコンピュータ、ハンドヘルドコンピュータ、パーソナルコンピュータ、ラップトップ、タブレット、ヘッドマウントディスプレイ(HMD)装置及び/又はウェアラブル装置(例えば、拡張現実/仮想現実/複合現実(AR/VR/MR)装置)、サーバ、セルラ電話/携帯電話、スマート家電、ビデオプレーヤー、スマート家庭用モニタリング装置、交通カメラ、テレビ(例えば、スマートTV)、及び他のコンピュータ装置を挙げることができる。
[0018] サーバ104は、録画又はライブメディアコンテンツに関連する一連の画像フレーム110を記憶して、ユーザインターフェイス(UI)(これを介してユーザ入力を受け取ることができる)をディスプレイ画面上に表示するように構成できる好適な回路、インターフェイス及び/又はコードを含むことができる。ユーザ入力は、ディスプレイ画面上に表示されるUIから受け取られる、第1の画像フレーム内の関心オブジェクトに関連する初期化点に対応することができる。サーバ104は、通信ネットワーク106を介して電子デバイス102と通信するように構成することができる。サーバ104の例としては、以下に限定されるわけではないが、アプリケーションサーバ、クラウドサーバ、ウェブサーバ、データベースサーバ、ファイルサーバ、ゲームサーバ、メインフレームサーバ、又はこれらの組み合わせを挙げることができる。ある実施形態によれば、電子デバイス102によって実行される動作の機能及び一部は、サーバ104に実装することができる。代替実施形態では、サーバ104によって実行される動作の機能及び一部は、電子デバイス102に実装することができる。
[0019] 通信ネットワーク106は、媒体を含むことができ、これを介して、電子デバイス102は、サーバ104及び/又は簡潔のために本開示から省略することができる他のコンピュータ装置と通信することができる。通信ネットワーク106の例としては、以下に限定されるわけではないが、インターネット、クラウドネットワーク、ロングタームエボリューション(LTE)ネットワーク、無線ローカルエリアネットワーク(WLAN)、ローカルエリアネットワーク(LAN)、電話回線(POTS)、及び/又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って、通信ネットワーク106に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定されるわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE 802.11、ライトフィデリティ(Li−Fi)、802.16、IEEE 802.11s、IEEE 802.11g、マルチホップ通信、無線アクセスポイント(AP)、装置間通信、セルラ通信プロトコル、又はBluetooth(BT)通信プロトコル、又はこれらの組み合わせの少なくとも1つを含むことができる。
[0020] 画像センサ108は、画像センサ108の有効視野(FoV)内のシーンの画像フレーム又は一連の画像フレーム110(例えば、ビデオからの一連の画像フレーム)を取り込むように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。画像センサ108は、取り込まれた一連の画像フレーム110を、電子デバイス102への入力として通信するように構成することができる。画像センサ108は、相補型金属酸化膜半導体(CMOS)センサなどのアクティブ画素センサとして実装することができる。いくつかの実施形態では、画像センサ108は、アクティブ画素センサの代わりに、パッシブ画素センサ(例えば、電荷結合素子(CCD)センサ、オーバーサンプリングバイナリ画像センサ、平面フーリエキャプチャアレイ(PFCA)、裏面照射型(BSI又はBI)センサ等)の1つとして実装することができる。
[0021] 図示しないが、画像センサ108は、画像センサ108からの画像データに応じて動作するように構成することができる専用マイクロプロセッサ(又はマイクロコントローラ)、フレームバッファに記憶される画像を処理するためのグラフィック処理ユニット(GPU)、深度センサ、及び/又は画像センサ108と一体化されるメモリを含むこともできる。
[0022] 動作時に、電子デバイス102は、メモリ内のローカルストレージ、画像センサ108のストレージ及びサーバ104などの1又は2以上のソースからシーン(又は複数のシーン)の一連の画像フレーム110を検索するように構成することができる。一連の画像フレーム110は、実際の環境に関連するシーン(又は複数のシーン)に対応することができる。代替的に、一連の画像フレーム110は、アニメーション環境などの仮想現実環境、拡張現実環境、又は複合現実環境から取ることができる。
[0023] ある実施形態によれば、画像センサ108は、画像センサ108のFoVから一連の画像フレーム110を取り込むように構成することができる。このような場合、一連の画像フレーム110は、閉回路テレビジョン(CCTV)映像などのライブビデオフィードに対応することができる。ライブビデオフィード(すなわち、一連の画像フレーム110を含むもの)は、画像センサ108のFoV内で動いている場合がある複数のオブジェクト(例えば、人間、動物、車両等)を含むことができる。一例として、一連の画像フレーム110は、第1の画像フレーム112A及び第2の画像フレーム112Bを含むことができる。
[0024] 特定の実施形態では、電子デバイス102は、取り込まれた一連の画像フレーム110のライブプレビューを、スマートテレビ、スマートフォン、発光ダイオード(LED画面)、又は液晶表示(LCD)画面などの表示装置に表示するように構成することができる。表示装置は、更に、入力/出力(I/O)インターフェイスとして働くことができる追加の構成要素、例えば、ジェスチャセンサ、表示装置のディスプレイ画面のためのタッチパネル、音声入力のためのスマートスピーカを含むことができる。表示装置は、電子デバイス102と一体化することができるか又は電子デバイス102と周辺で結合することができる。
[0025] 電子デバイス102は、ユーザから第1の入力を受け取るように構成することができる。第1の入力は、表示されたライブプレビューの1又は2以上の画像フレーム内にあることができる関心オブジェクトに関連する情報を含むことができる。第1の入力は、一連の画像フレーム110において関心オブジェクト(例えば、関心オブジェクト114)の位置、占める領域又は移動を追跡するように、ユーザの関心を示すことができる。第1の入力は、電子デバイス102に内蔵される又は周辺で結合されることができる入力装置を介して受け取ることができる。いくつかのシナリオでは、入力装置は、光学式マウスとすることができ、第1の入力は、一連の画像フレーム110の第1の画像フレーム上の特定の点上へのクリック入力とすることができる。特定の点は、一連の画像フレーム110内の関心オブジェクトに対応することができるユーザ指定初期化点(例えば、初期化点116)とすることができる。他のシナリオでは、入力装置は、表示装置上のタッチ画面又はユーザからのジェスチャ入力を第1の画像フレーム上の特定の点に変換することができるジェスチャセンサとすることができる。このようなシナリオでは、タッチ画面は、第1の入力として、タッチ画面の特定の部分からのタッチ入力を受け取るように構成することができる。タッチ画面の特定の部分は、第1の画像フレーム内の関心オブジェクトに対応することができ、例えば、第1の画像フレーム112A内の関心オブジェクト114は、表示装置に表示される第1の画像フレーム112Aの一部に対応することができる。
[0026] 電子デバイス102は、第1の入力に基づいて、第1の画像フレーム内の初期化点を選択するように構成することができる。初期化点は、ユーザ指定初期化点とすることができる。電子デバイス102は、選択された初期化点を基準点として識別して、一連の画像フレーム110内の関心オブジェクト(例えば、道を歩いているところが示される人)を追跡するように構成することができる。初期化点(例えば、初期化点116)は、第1の画像フレーム(例えば第1の画像フレーム112A)の第1の領域内に位置することができ、第1の領域は、第1の画像フレーム内の関心オブジェクトを表現することができる。代替的に、電子デバイス102は、一連の画像フレーム110の再生時(例えば、ライブプレビュー)に、ユーザ指定初期化点を受け取るように構成することができる。ユーザ指定初期化点は、第1の画像フレーム内の関心オブジェクトの位置に対応することができる。
[0027] 電子デバイス102は、第1の画像フレームから第1の特徴点の組(例えば、第1の特徴点の組118)を、第2の画像フレームから第2の特徴点の組(例えば、第2の特徴点の組120)を抽出するように構成することができる。第1の特徴点の組及び第2の特徴点の組は、第1の入力の受け取りに応答して抽出することができる。例示的な実施形態では、第1の特徴点の組及び第2の特徴点の組は、BRISK技術に基づいて、第1の画像フレーム及び第2の画像フレームからそれぞれ抽出されるBinary Robust Invariant Scalable Key−points(BRISK)とすることができる。いくつかの実施形態では、第1の特徴点の組及び第2の特徴点の組は、特徴抽出技術に基づいて抽出することができる。異なる特徴抽出技術の例としては、以下に限定されるわけではないが、Harrisコーナー、スケール不変特徴変換(SIFT)、Oriented Fast and Rotated−Brief(ORB)、及びSpeeded−Up Robust Features(SURF)を挙げることができる。特徴抽出技術の詳細は、当業者に周知である場合があるので、説明は、簡潔のために本開示から省略した。
[0028] 第1の特徴点の組及び第2の特徴点の組が、それぞれ、選択された初期化点から第1の閾値距離及び第2の閾値距離内に存在するように、第1の特徴点の組及び第2の特徴点を抽出することができる。第1の画像フレームに対する第1の閾値距離は、第2の画像フレームに対する第2の閾値距離と異なることができる。一例として、第1の特徴点の組及び第2の特徴点の組は、それぞれ、セット(P1)及びセット(P2)として表すことができる。セット(P1)及びセット(P2)は、以下のような関係式(1)及び(2)によって与えられることができる。
Figure 2022502809
ここで、
Figure 2022502809
は、一連の画像フレーム110のm番目のフレーム内のn番目の特徴点を表し、例えば、m=0は、第1の画像フレームを表し、m=1は、第2の画像フレームを表し、
||.||は、x0又はx1とsとの差分から生じるベクトルのノルムを表し、
sは、第1の画像フレーム内の初期化点116の位置を表し、
1は、第1の閾値距離であり、例えば第1の画像フレームの幅の「20パーセント」であり、
2は、d1のサイズの2倍(オブジェクトの速度によっては、それ以上)である第2の閾値距離(例えば、第1の画像フレームの幅の「40パーセント」)である。
[0029] ユーザ指定初期化点は、関心オブジェクト上の点しか表示することができないので、連続画像フレームにおける関心オブジェクトの大きさの知識なしで、連続画像フレームにおいて関心オブジェクト全体を追跡するには不十分である場合がある。また、多くの場合、第1の特徴点の組又は第2の特徴点の組における全ての特徴点が、第1の画像フレーム及び第2の画像フレームにおいてそれぞれ関心オブジェクトに属するとは限らない場合がある。しかしながら、第1の画像フレーム内の特徴点のいくつかは、第2の画像フレーム内の対応する特徴点にマップすることができる。一例として、第1の特徴点の組118及び第2の特徴点の組120からの特徴点のいくつかのマッピングを点線で示す。
[0030] BRISK又はSURFなどの異なる特徴比較技術を用いて、第1の特徴点の組と第2の特徴点の組との比較に基づいて、第1の画像フレームの特徴点を、第2の画像フレームの特徴点にマップすることができる。一例として、第1の画像フレーム内の特徴点は、第1の画像フレームから第2の画像フレーム内に再び出現する第2の画像フレーム内の当該特徴点にのみマップすることができる。このような特徴点のためのマッピングの存在は、一連の画像フレーム110の連続画像フレームにおける、関心オブジェクトの動き、変形、回転、又はスケールなどの異なる効果に対するロバスト性及び不変性を示すことができる。
[0031] 電子デバイス102は、第1の特徴点の組のうちの1又は2以上の特徴点と第2の特徴点の組のうちの1又は2以上の特徴点との間の特徴対応点の組を推定するように構成することができる。特徴対応点の組は、第1の特徴点の組のうちの1又は2以上の特徴点と第2の特徴点の組のうちの1又は2以上の特徴点との間の空間関係、位置ベースの関係、パターンベースの関係、形状ベースの関係、又は特徴ベースの関係などの関係を表現することができる。特徴対応点の組は、SIFTベースの特徴点抽出又はSURFベースの特徴点抽出などの1又は2以上のコンピュータビジョン技術に基づいて推定することができる。一例として、特徴対応点の組((L1)で示す)は、以下のような式(3)で与えられる、第1の特徴点の組(P1)及び第2の特徴点の組(P2)からの順序付けられた特徴点のペアの組とすることができる。
Figure 2022502809
[0032] 例えば、第1の画像フレーム112Aの第1の特徴点118Aは、第2の画像フレーム112Bの第1の特徴点120Aとの対応を持つことができる。同様に、第1の画像フレーム112Aの第2の特徴点118Bは、第2の画像フレーム112Bの第2の特徴点120Bとの対応を持つことができる。
[0033] 一連の画像フレーム110のうちの第2の画像フレーム又は連続画像フレーム内の関心オブジェクトの位置を識別するために、電子デバイス102は、ランダムサンプリング・コンセンサス(RANSAC)動作を反復的に実行するように構成することができる。RANSAC動作は、推定された特徴対応点の組(例えばL1)に属する順序付けられた特徴点のペアに対して実行することができる。RANSAC動作では、電子デバイス102は、更に、異なる特徴対応点の群から確率的に特徴対応点の群を選択するように構成することができる。選択された特徴対応点の群は、推定された特徴対応点の組(例えばL1)からの(ノイズが多い場合がある)データ点のランダムサンプルに対応することができる。特徴対応点の群の選択は、第1の特徴点の組及び第2の特徴点の組からの特徴点の群の選択に対応することができる。異なる特徴対応点の群から選択された各特徴対応点の群は、推定された特徴対応点の組から確率的に選択される2又は3以上の特徴対応点を含むことができる。
[0034] RANSAC動作における各反復では、第1の画像フレーム及び第2の画像フレームにそれぞれ属する特徴点の群の間に、類似度変換を適用することができる。特徴点の群は、確率的に選択された特徴対応点の群に対応することができる。電子デバイス102は、異なる特徴対応点の群について異なる第1の動き推定モデルを生成するように構成することができる。異なる第1の動き推定モデルは、異なる特徴点の群に対する類似度変換動作の適用に基づいて生成することができる。一例として、線形回帰、多変量回帰、又はロジスティック回帰などの異なるモデリング及び予測技術を用いて、その後、異なる特徴点の群に対して類似度変換をフィッティングさせることによって、異なる第1の動き推定モデルを生成することができる。特定のシナリオでは、異なる特徴対応点の群の各特徴対応点の群について生成される異なる第1の類似度行列によって、異なる第1の動き推定モデルを表現することができる。
[0035] RANSAC動作では、電子デバイス102は、更に、異なる特徴対応点の群から、第1の画像フレーム及び第2の画像フレーム内の関心オブジェクトに対応する複数のインライア特徴対応点を推定するように構成することができる。複数のインライア特徴対応点は、異なる第1の動き推定モデルに基づいて推定することができる。推定された複数のインライア特徴対応点は、第1の画像フレーム及び第2の画像フレーム内の関心オブジェクトの位置の変化を表現することができる特徴点の組を含むことができる。複数のインライア特徴対応点の推定の詳細については、例えば、図2、図3A及び図3Bで詳細に説明している。
[0036] 電子デバイス102は、更に、推定された複数のインライア特徴対応点に基づいて、異なる第1の動き推定モデルの最適化された動き推定モデルとすることができる第2の動き推定モデルを生成するように構成することができる。線形回帰、多変量回帰、又はロジスティック回帰などの異なるモデリング及び予測技術を用いることによって、推定された複数のインライア特徴対応点に対応する特徴点の組に対して類似度変換をフィッティングさせることによって、第2の動き推定モデルを生成することができる。最適化された動き推定モデル(すなわち、第2の動き推定モデル)は、(単複の)連続画像フレームにおいて全てのインライア点の動きの正確な記述をそれに基づいて予測することができるモデルに対応することができる。電子デバイス102は、更に、第2の動き推定モデルに基づいて、一連のフレーム内の関心オブジェクトを追跡するように構成することができる。より具体的には、第1の画像フレーム内の異なるインライア特徴点の位置を用いて、第1の画像フレーム内のインライア特徴点の位置に第2の動き推定モデルを適用することによって、第2の画像フレーム内のインライア特徴点の位置を識別することができる。電子デバイス102の動作については、例えば、図2、図3A及び図3Bで更に詳細に説明している。
[0037] 図2は、本開示の実施形態による、ユーザ指定初期化点に基づくオブジェクトトラッキングのための例示的な電子デバイスのブロック図である。図2の説明は、図1の要素に関連して行う。図2を参照すると、制御回路202を含む電子デバイス102のブロック図200が示されている。電子デバイス102は、更に、メモリ204と、入力/出力(I/O)装置206と、ネットワークインターフェイス208とを含む。
[0038] 制御回路202は、メモリ204に記憶される命令セットを実行するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。制御回路202は、一連の画像フレーム、例えば、ビデオの連続画像フレームにおいて1又は2以上の関心オブジェクトを追跡するように構成することができる。制御回路202は、第1の画像フレーム内のユーザ指定初期化点に基づいて、一連の画像フレームのうちの連続画像フレームにおける関心オブジェクトのためのオブジェクトトラッキング動作を初期化するように構成することができるトラッカー回路とすることができる。ユーザ指定初期化点は、ユーザ入力(例えば、マウスクリックイベント又は画面タッチイベント)に対応することができる。制御回路202は、更に、一連の画像フレームのうちの連続画像フレームにおける1又は2以上の関心オブジェクトのトラッキングを管理するように構成することができる。制御回路202の実装の例は、X86ベースのプロセッサ、グラフィックス処理ユニット(GPU)、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、コプロセッサ、マイクロコントローラ、中央処理装置(CPU)、及び/又はその他の制御回路とすることができる。
[0039] メモリ204は、制御回路202が実行可能な命令セットを記憶するように構成できる好適なロジック、回路、及び/又はインターフェイスを含むことができる。メモリ204は、更に、画像センサ108によって取り込まれる一連の画像フレームを記憶するように構成することができる。メモリ204の実装の例としては、以下に限定されるわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスクドライブ(HDD)、及び/又はセキュアデジタル(SD)カードを挙げることができる。
[0040] I/O装置206は、ユーザから複数の入力を受け取るように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。I/O装置206は、電子デバイス102及びサーバ104と通信するように構成することができる様々な入出力装置を含むことができる。入力装置の例としては、以下に限定されるわけではないが、タッチ画面、キーボード、マウス、ジョイスティック、マイク、及び/又は画像センサ108(図1)を挙げることができる。出力装置の例としては、以下に限定されるわけではないが、ディスプレイ画面(例えば、液晶ディスプレイ(LCD)又は発光ダイオード(LED)ディスプレイ)及び/又はスピーカを挙げることができる。
[0041] ネットワークインターフェイス208は、通信ネットワーク106を介して電子デバイス102とサーバ104との間の通信を可能にするように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ネットワークインターフェイス208は、通信ネットワーク106との有線又は無線通信をサポートするための公知技術を実装することができる。ネットワークインターフェイス208としては、以下に限定されるわけではないが、アンテナ、周波数変調(FM)トランシーバ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ・デコーダ(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを挙げることができる。
[0042] ネットワークインターフェイス208は、インターネット、イントラネット、及び/又はセルラ電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと無線通信を介して通信することができる。無線通信は、ロングタームエボリューション(LTE)、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、無線フィデリティ(Wi−Fi)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g及び/又はIEEE802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メールプロトコル、インスタントメッセージング、及び/又はショートメッセージサービス(SMS)などの複数の通信規格、通信プロトコル及び通信技術のいずれかを使用することができる。
[0043] 動作時に、制御回路202は、第1の特徴点の組及び第2の特徴点の組に対してRANSAC動作(すなわち、反復ランダムサンプリング)を実行するように構成することができる。RANSAC動作では、制御回路202は、異なる特徴対応点の群から確率的に特徴対応点の群を選択するように構成することができる。選択された特徴対応点の群は、推定された特徴対応点の組(例えばL1)からの(ノイズが多い場合がある)データ点のランダムサンプルに対応することができる。換言すれば、制御回路202は、更に、第1の特徴点の組及び第2の特徴点の組から特徴点の群を選択するように構成することができる。特徴対応点の群の選択は、第1の特徴点の組及び第2の特徴点の組からの特徴点の群の選択に対応することができる。異なる特徴対応点の群からの各特徴対応点の群は、推定された特徴対応点の組から確率的に選択される2又は3以上の特徴対応点を含むことができる。例えば、式(3)を参照して、以下のような式(4)によって、異なる特徴対応点の群(G)を与えることができる。
Figure 2022502809
ここで、
iは、iが1からNに変化する場合の異なる特徴対応点の群(G)からのi番目の特徴対応点の群を表し、
(xj,xk)及び(xp,xq)は、第1の画像フレーム及び第2の画像フレームからの特徴点の群(xj,xk,xp,及びxq)を含む2つの特徴対応点を表す。
[0044] いくつかの実施形態では、各特徴対応点の群について、いくつかの特徴対応点は、関心オブジェクトの動きパラメータに基づいて選択することができる。関心オブジェクトの動きパラメータの例としては、以下に限定されるわけではないが、関心オブジェクトに関連する平行移動パラメータ、回転パラメータ、剪断パラメータ、屈曲パラメータ、変形パラメータ、又は自由度を挙げることができる。
[0045] RANSAC動作では、各反復において、第1の画像フレーム及び第2の画像フレームにそれぞれ属する特徴点の群の間に、類似度変換を適用することができる。制御回路202は、異なる特徴対応点の群(すなわち、確率的に選択された異なる特徴対応点の群)について異なる第1の動き推定モデルを生成するように構成することができる。より具体的には、異なる第1の動き推定モデルは、異なる特徴点の群に対する類似度変換動作の適用に基づいて生成することができる。異なる特徴点の群の各々は、異なる特徴対応点の群の1又は2以上に対応することができる。生成された異なる第1の動き推定モデルは、第1の特徴点の組の位置に対する第2の特徴点の組の位置の変化を表現することができる。
[0046] 異なる第1の動き推定モデルは、第1の特徴点の組と第2の特徴点の組との間の類似度の尺度として働くことができる。第1の画像フレーム内の特定の特徴点の類似度の尺度は、第1の画像フレーム内の特定の特徴点の異なる属性、例えば、位置、形状又はサイズが、第2の画像フレーム内の対応する特徴点と異なる程度を示すことができる。
[0047] ある実施形態によれば、異なる第1の動き推定モデルは、異なる特徴対応点の群の確率的に選択された各特徴対応点の群について、制御回路202によって生成される異なる類似度行列とすることができる。したがって、異なる類似度行列からの第1の類似度行列は、異なる動き推定モデルのうちの第1の動き推定モデルに対応することができる。また、第1の類似度行列(Hで示す)は、確率的に選択された特徴対応点の群に対応する特徴点の群についての類似度の尺度を示すことができる。
[0048] 制御回路202は、更に、対応する第1の動き推定モデル(H)及び対応する特徴対応点の群に対するスコアリングモデルの適用に基づいて、異なる第1の動き推定モデルの各々についてスコアを計算するように構成することができる。換言すれば、スコアは、特徴点の群について生成される各第1の類似度行列に対して計算することができる。一例として、異なる第1の動き推定モデルの各々についてのスコアは、以下のような式(5)によって与えることができるスコアリングモデル(S(H,L1)で示す)を用いて計算することができる。
Figure 2022502809
ここで、
Hは、第1の動き推定モデル、すなわち、生成された第1の類似度行列を表し、
1は、特徴対応点の組を表し、
Figure 2022502809
は、第1の画像フレーム((t−1)番目のフレーム)からの特徴点の群におけるi番目の特徴点を表し、
Figure 2022502809
は、第2の画像フレーム(t番目のフレーム)からの特徴点の群におけるi番目の特徴点を表し、
αは、2つの特徴点の間の距離の測定の誤差の強調を示す第1のパラメータであり、
δは、スコアリングモデルの指数成分がどのくらいの速さで減衰するかを制御する第2のパラメータである。
[0049] 計算されたスコアは、対応する第1の動き推定モデルに対する特徴点の群が、ユーザ指定初期化点に近接して、且つ関心オブジェクトの動きの描写においてより低い誤差で出現するべきであることを強調することができる。したがって、異なる第1の動き推定モデルの各第1の動き推定モデルについて計算されたスコアは、ユーザ指定初期化点の近くにあるように特徴点を強調する指数成分(式(4)で与えられる)に依存することができる。異なる第1の動き推定モデルの各第1の動き推定モデルについて計算されたスコアは、更に、選択された特徴点の群に対する線形回帰の適用に基づいて取得される選択された特徴点の群の残差に依存することができる。
[0050] 制御回路202は、更に、異なる第1の動き推定モデルの各第1の動き推定モデル(すなわち類似度行列)について位置推定誤差を計算するように構成することができる。各第1の動き推定モデル(すなわち類似度行列)の位置推定誤差は、いくつかの画素の偏差(該偏差だけ、第1の特徴点の組における特徴点の実際の位置が、第2の特徴点の組における同じ特徴点の推定位置からずれる)に対応することができる。一例として、各類似度行列(H)について、すなわち、各第1の動き推定モデルについて、位置推定誤差
Figure 2022502809
は、以下のような式(6)によって推定することができる。
Figure 2022502809
ここで、
||.||は、xi t-1及びHxi t-1のノルムを表し、
Figure 2022502809
は、第1の画像フレーム((t−1)で示す)の第1の特徴点の組における特徴点を表し、
Figure 2022502809
は、第2の画像フレーム(tで示す)の第2の特徴点の組における特徴点を表し、
Hは、類似度行列を表す。
[0051] 各第1の動き推定モデル(すなわち各類似度行列(H))について、制御回路202は、更に、(式(5)からの)位置推定誤差
Figure 2022502809
と画素ベースの閾値(T)との比較に基づいて、インライア特徴対応点の組(E(H))を推定するように構成することができる。したがって、各第1の動き推定モデルについて、インライア特徴対応点の組(E(H))は、以下のような式(7)によって推定することができる。
Figure 2022502809
ここで、
Tは、画素ベースの閾値を画素の数に換算して表し、
Figure 2022502809
は、位置推定誤差を表す。一例として、式(6)及び式(7)に基づいて、制御回路202は、位置推定誤差
Figure 2022502809
が「4」画素の画素ベースの閾値よりも小さいインライア特徴対応点の組を推定するように構成することができる。
[0052] 制御回路202は、更に、異なる特徴対応点の群から、第1の画像フレーム及び第2の画像フレーム内の関心オブジェクトに対応する複数のインライア特徴対応点を推定するように構成することができる。制御回路202は、更に、異なる第1の動き推定モデルの各々について計算されたスコアの最大を決定するように構成することができる。推定された複数のインライア特徴対応点は、計算されたスコアが最大であるインライア特徴対応点の組における特徴対応点とすることができる。換言すれば、(推定された複数のインライア特徴対応点に関連する)インライア特徴点の組(E)は、最大の計算されたスコアを有する異なる第1の動き推定モデルからの1又は2以上の第1の動き推定モデルに関連することができる。
[0053] 推定された複数のインライア特徴対応点は、インライア特徴点の組(E)を含むことができる。インライア特徴点の組(E)は、第1の画像フレーム及び第2の画像フレーム内の関心オブジェクトの位置の変化を表現することができる。複数のインライア特徴対応点は、異なる第1の動き推定モデルに基づいて推定することができる。複数のインライア特徴対応点の推定は、異なる特徴対応点の群に対応する異なる特徴点の群に対する線形回帰の適用による異なる第1の動き推定モデルのフィッティングに対応することができる。
[0054] 制御回路202は、異なる第1の動き推定モデルの最適化された動き推定モデルとすることができる第2の動き推定モデル(Ht)を生成するように構成することができる。第2の動き推定モデルは、推定された複数のインライア特徴対応点に基づいて生成することができる。第2の動き推定モデルの生成は、推定された複数のインライア特徴対応点に対応するインライア特徴点の組(E)に基づく最適の類似度行列の生成に対応することができる。(第2の動き推定モデルに対応する)最適の類似度行列は、(単複の)連続画像フレームにおいて全てのインライア点の動きの正確な記述をそれに基づいて予測することができる類似度行列に対応することができる。ある実施形態によれば、第2の動き推定モデル(Ht)は、推定された複数のインライア特徴対応点におけるインライア特徴点の組(E)に対する回帰モデル(例えば線形回帰モデル)の適用によって生成することができる。回帰モデルは、第2の動き推定モデル(Ht)に対する最小二乗(LS)又は正規化LSの推定を含むことができる。第2の動き推定モデル(Ht)すなわち再計算された類似度行列は、一連の画像フレームにおける関心オブジェクトの動きを最適に表現することができる。
[0055] 一例として、インライア特徴点の組(E)について、第2の動き推定モデル(Ht)すなわち最適の類似度行列は、第1の画像フレーム及び第2の画像フレーム内の特徴点の組(E)のノルム(例えばL2ノルム又はユークリッドノルム)の最小和に基づいて推定することができる。第2の動き推定モデル(Ht)は、以下のような式(8)によって推定することができる。
Figure 2022502809
ここで、
Figure 2022502809
は、第2の特徴点の組のインライア特徴点を表し、
Figure 2022502809
は、第1の特徴点の組のインライア特徴点を表し、
Figure 2022502809
は、ノルム
Figure 2022502809
の和が最小値を得る引き数を表す。
[0056] ある実施形態によれば、いったん第2の動き推定モデル(Ht)が推定されると、制御回路202は、更に、第2の画像フレームに属する第2の特徴点の組におけるインライア特徴点の位置を更新するように構成することができる。インライア特徴点の位置は、推定された第2の動き推定モデル(Ht)に基づいて更新することができる。第2の画像フレームのインライア特徴点の更新された位置は、以下のような式(9)によって与えられることができる。
Figure 2022502809
ここで、
t-1は、インライア特徴点の組(E)におけるインライア特徴点の更新された位置であり、
tは、インライア特徴点の組(E)におけるインライア特徴点の実際の位置である。
[0057] 制御回路202は、更に、第2の動き推定モデル(Ht)に基づいて、一連の画像フレーム内の関心オブジェクトを追跡するように構成することができる。いくつかの実施形態では、関心オブジェクトの経路は、連続フレームにおいて、全ての連続フレームのペアにおけるインライア特徴点の位置の更新に基づいて追跡することができる。ある実施形態によれば、制御回路202は、更に、一連の画像フレームのうちの連続画像フレームにおいて追跡された関心オブジェクト上にオブジェクト情報を重ねるように構成することができる。一例として、重ねられたオブジェクト情報は、オブジェクトラベルと、一連の画像フレーム内の関心オブジェクトが占める領域を囲むバウンディングボックスとを含むことができる。
[0058] 従来のオブジェクトトラッキングの解決策は、ユーザがコンピュータマウスなどのポインティングデバイスを用いて、関心オブジェクトの周囲にバウンディングボックスを描画する必要がある場合がある。従来の解決策とは対照的に、制御回路202は、ユーザからユーザ入力として受け取られる単一の初期化点のみに基づくトラッキングのために関心オブジェクトを選択するように構成することができる。
[0059] 他の従来の解決策では、関心オブジェクトを追跡するために、従来のオブジェクトトラッキング装置は、一連の画像フレームのうちの画像フレームから、(関心オブジェクトに対応する)画像領域をセグメント化することができる。従来のオブジェクトトラッキング装置は、顕著性ベースのオブジェクトセグメンテーション又はパターンベースのオブジェクトセグメンテーションなどの様々なオブジェクトセグメンテーション技術を用いて、画像領域をセグメント化することができる。このようなオブジェクトセグメンテーション技術の適用による関心オブジェクトのセグメンテーションは、計算的に資源集約的である場合があり、ライブビデオにおいて関心オブジェクトを追跡するのに適していない場合がある。これに対して、制御回路202は、一連の画像フレームのうちの連続画像フレーム内のインライア特徴点及びアウトライア特徴点の識別に基づいて、関心オブジェクトを追跡するように構成することができる。
[0060] 図3A及び図3Bは、本開示の実施形態による、図2の電子デバイスの実装のための第1の例示的なシナリオをまとめて示す。図3A及び図3Bの説明は、図1及び図2の要素に関連してまとめて行う。制御回路202は、画像センサ108を用いて一連の画像フレームを取り込み、更に、取り込まれた一連の画像フレームを表示装置上でI/O装置206のユーザに表示するように構成することができる。
[0061] 302Aにおいて、表示装置に表示される第1の画像フレーム304A上で、第1の入力を受け取ることができる。第1の入力は、制御回路202によって、ユーザからI/O装置206を介して受け取ることができる。第1の入力は、初期化点306に対応することができる。制御回路202は、一連の画像フレーム内の関心オブジェクト308に対するトラッキング動作の初期化のための基準点として、初期化点306を選択するように構成することができる。初期化点306は、第1の画像フレーム304A内の関心オブジェクト308に関連する領域上のインライア点とすることができる。
[0062] 302Bにおいて、第1の画像フレーム304A及び第2の画像フレーム304Bからそれぞれ第1の特徴点の組310及び第2の特徴点の組312を抽出することができる。制御回路202は、初期化点306から第1の画像フレーム304A内の第1の特徴点の組310までの距離が第1の閾値距離よりも小さい又はそれに等しいように、第1の特徴点の組310を抽出するように構成することができる。同様に、制御回路202は、初期化点306から第2の画像フレーム304B内の第2の特徴点の組312までの距離が第2の閾値距離よりも小さい又はそれに等しいように、第2の特徴点の組312を抽出するように構成することができる。一例として、第1の閾値距離は、第1の画像フレーム304Aの幅の「20パーセント」とすることができ、第2の閾値距離は、第1の閾値距離のサイズの2倍(関心オブジェクト308の速度によっては、それ以上)、例えば第1の画像フレーム304Aの幅の「40パーセント」とすることができる。第1の画像フレーム304Aに対する第1の閾値距離は、第2の画像フレーム304Bに対する第2の閾値距離と異なることができる。
[0063] 302Cにおいて、第1の特徴点の組310と第2の特徴点の組312との間の特徴対応点の組(点線314で示す)を推定することができる。制御回路202は、(図1に記載するように)BRISK、SIFT、SURF、ORBなどの画像特徴抽出技術の適用に基づいて、特徴対応点の組(すなわち、対応データ点又は順序付けられた特徴点のペア)を推定するように構成することができる。制御回路202は、第1の特徴点の組310及び第2の特徴点の組312に対するRANSAC動作に基づいて、第1の画像フレーム304A及び第2の画像フレーム304Bから複数のインライア特徴対応点を推定するように構成することができる。RANSAC動作の詳細については、例えば、図1及び図2で詳細に説明している。制御回路202は、第1の画像フレーム304A及び第2の画像フレーム304Bから複数のインライア特徴対応点を識別するように構成することができる。複数のインライア特徴対応点は、第1の画像フレーム304A及び第2の画像フレーム304Bのインライア特徴点の組(点線のボックス316内に示す)に対応することができる。制御回路202は、更に、インライア特徴点の組にフィットする最適の類似度行列を生成し、更に、最適の類似度行列に基づいて、一連の画像フレーム内の関心オブジェクト308を追跡するように構成することができる。いくつかの実施形態では、関心オブジェクト308の経路は、連続フレームにおいて、全ての連続フレームのペアにおけるインライア特徴点の位置の更新に基づいて追跡することができる。
[0064] 302Dにおいて、制御回路202は、一連の画像フレームのうちの連続画像フレーム304Cにおいて追跡された関心オブジェクト308上にオブジェクト情報を重ねるように構成することができる。一例として、重ねられたオブジェクト情報は、オブジェクトラベル(例えば「オブジェクトA」)と、一連の画像フレーム内の関心オブジェクト308が占める領域を囲むバウンディングボックス318とを含むことができる。
[0065] 図4A及び図4は、本開示の実施形態による、ユーザ指定初期化点に基づくオブジェクトトラッキングのための例示的な方法を示すフローチャートをまとめて示す。図4A及び図4Bを参照すると、フローチャート400が示されている。フローチャート400の説明は、図1、図2、図3A及び図3Bに関連して行う。方法は、402から開始して、404に進む。
[0066] 404において、画像センサ108の有効視野(FoV)内のシーンから一連の画像フレームを取り込むことができる。画像センサ108は、図1で説明したように、画像センサ108の有効視野(FoV)内のシーンから一連の画像フレームを取り込むように構成することができる。
[0067] 406において、メモリ204に、一連の画像フレームを記憶することができる。一例として、一連の画像フレーム110は、第1の画像フレーム112A及び第2の画像フレーム112Bを含むことができる。制御回路202は、メモリ204に一連の画像フレームを記憶するように構成することができる。
[0068] 408において、I/O装置206上に、一連の画像フレームを表示することができる。一連の画像フレーム110は、閉回路テレビジョン(CCTV)映像などのライブビデオとすることができる。制御回路202は、スマートテレビ、スマートフォン、発光ダイオード(LED画面)又は液晶表示(LCD)画面などの表示装置に、一連の画像フレームをライブプレビューとして表示するように構成することができる。
[0069] 410において、I/O装置206を介して、電子デバイス102に関連するユーザから第1の入力を受け取ることができる。第1の入力は、第1の画像フレーム112A内の初期化点116の位置に対応することができる。制御回路202は、I/O装置206を介して、電子デバイス102に関連するユーザから第1の入力を受け取るように構成することができる。
[0070] 412において、第1の入力に応答して、一連の画像フレームの再生時に、ユーザ指定初期化点を受け取ることができる。ユーザ指定初期化点は、一連の画像フレームのうちの第1の画像フレーム内の関心オブジェクトの位置に対応することができる。制御回路202は、第1の入力に応答して、一連の画像フレームの再生時に、ユーザ指定初期化点を受け取るように構成することができる。第1の画像フレーム内のユーザ指定初期化点は、オブジェクトトラッキング動作のための初期化点とすることができる。初期化点は、第1の画像フレームの第1の画像領域内に位置することができ、第1の画像フレーム内の関心オブジェクトを表現する。
[0071] 414において、第1の入力に応答して、第1の画像フレーム及び第2の画像フレームから第1の特徴点の組及び第2の特徴点の組を抽出することができる。第1の特徴点の組及び第2の特徴点の組は、ユーザ指定初期化点から第1の閾値距離及び第2の閾値距離内にそれぞれ存在することができる。制御回路202は、第1の入力に応答して、第1の画像フレーム及び第2の画像フレームから第1の特徴点の組及び第2の特徴点の組を抽出するように構成することができる。
[0072] 416において、第1の特徴点の組と第2の特徴点の組との間の特徴対応点の組を推定することができる。制御回路202は、第1の特徴点の組と第2の特徴点の組との間の特徴対応点の組を推定するように構成することができる。
[0073] 418において、推定された特徴対応点の組から確率的に特徴対応点の群を選択することができる。制御回路202は、図1及び図2で説明したように、推定された特徴対応点の組から確率的に特徴対応点の群を選択するように構成することができる。特徴対応点の群の選択は、第1の特徴点の組及び第2の特徴点の組からの特徴点の群の選択に対応することができる。異なる特徴対応点の群からの各特徴対応点の群は、推定された特徴対応点の組から確率的に選択される2又は3以上の特徴対応点を含むことができる。
[0074] 420において、特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成することができる。制御回路202は、特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成するように構成することができる。異なる第1の動き推定モデルは、第1の特徴点の組と第2の特徴点の組との間の類似度変換に換算して、第1の特徴点の組に対する第2の特徴点の組の位置の変化を表現することができる。各第1の動き推定モデルは、第1の類似度行列によって表現することができる。第1の類似度行列は、異なる特徴対応点の群の各群について生成することができる。
[0075] 422において、異なる第1の動き推定モデルに基づいて、複数のインライア特徴対応点を推定することができる。制御回路202は、図1及び図2で説明したように、異なる第1の動き推定モデルに基づいて、複数のインライア特徴対応点を推定するように構成することができる。複数のインライア特徴対応点は、第1の画像フレーム及び第2の画像フレーム内の関心オブジェクトに対応することができる。
[0076] 424において、推定された複数のインライア特徴対応点に基づいて、第2の動き推定モデルを生成することができる。第2の動き推定モデルは、異なる第1の動き推定モデルの最適化された動き推定モデルとすることができる。制御回路202は、推定された複数のインライア特徴対応点に基づいて、第2の動き推定モデルを生成するように構成することができる。
[0077] 426において、第2の動き推定モデルに基づいて、一連の画像フレームにおいて関心オブジェクトを追跡することができる。制御回路202は、第2の動き推定モデルに基づいて、一連の画像フレーム110内の関心オブジェクトを追跡するように構成することができる。制御は終了に進む。
[0078] 本開示の様々な実施形態は、電子デバイス102などの機械及び/又はコンピュータが実行できる機械コード及び/又は命令セットを記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体、及び/又は非一時的機械可読媒体及び/又は記憶媒体を提供することができる。電子デバイス102において、命令セットは、機械及び/又はコンピュータに、第1の画像フレーム及び第2の画像フレームを含む一連の画像フレームを記憶することを含む動作を実行させることができる。動作は、更に、第1の画像フレーム内の第1の特徴点の組と第2の画像フレーム内の第2の特徴点の組との間の特徴対応点の組を推定することを含むことができる。第1の特徴点の組は、ユーザ指定初期化点から第1の閾値距離内に存在することができる。ユーザ指定初期化点は、一連の画像フレーム内の関心オブジェクトに対応することができる。動作は、更に、推定された特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成することを含むことができる。異なる第1の動き推定モデルは、第1の特徴点の組と第2の特徴点の組との間の類似度変換に換算して、第1の特徴点の組に対する第2の特徴点の組の位置の変化を表現することができる。動作は、更に、異なる特徴対応点の群から、異なる第1の動き推定モデルに基づいて、第1の画像フレーム及び第2の画像フレーム内の関心オブジェクトに対応する複数のインライア特徴対応点を推定することを含むことができる。動作は、更に、第2の動き推定モデルを生成することを含み、更に、第2の動き推定モデルに基づいて、一連のフレーム内の関心オブジェクトを追跡することができる。第2の動き推定モデルは、推定された複数のインライア特徴対応点に基づいて生成される、異なる第1の動き推定モデルの最適化された動き推定モデルとすることができる。
[0079] ユーザ指定初期化点(例えば初期化点116)に基づくオブジェクトトラッキングのための電子デバイス(例えば電子デバイス102)において、本開示の様々な実施形態を見出すことができる。電子デバイスは、メモリ(例えばメモリ204)と、制御回路(例えば制御回路202)とを含むことができる。前記メモリは、第1の画像フレーム(例えば第1の画像フレーム112A)及び第2の画像フレーム(例えば第2の画像フレーム112B)を含む一連の画像フレームを記憶するように構成することができる。前記制御回路は、前記第1の画像フレーム内の第1の特徴点の組と前記第2の画像フレーム内の第2の特徴点の組との間の特徴対応点の組を推定するように構成することができる。前記第1の特徴点の組は、ユーザ指定初期化点から第1の閾値距離内に存在することができる。前記ユーザ指定初期化点は、前記一連の画像フレーム内の関心オブジェクトに対応することができる。前記制御回路は、更に、前記推定された特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成するように構成することができる。前記異なる第1の動き推定モデルは、前記第1の特徴点の組と前記第2の特徴点の組との間の類似度変換に換算して、前記第1の特徴点の組に対する前記第2の特徴点の組の位置の変化を表現することができる。前記制御回路は、更に、前記異なる特徴対応点の群から、前記異なる第1の動き推定モデルに基づいて、前記第1の画像フレーム及び前記第2の画像フレーム内の前記関心オブジェクトに対応する複数のインライア特徴対応点を推定するように構成することができる。前記制御回路は、更に、第2の動き推定モデルを生成し、更に、前記第2の動き推定モデルに基づいて、前記一連の画像フレーム内の前記関心オブジェクトを追跡するように構成することができる。前記第2の動き推定モデルは、前記推定された複数のインライア特徴対応点に基づいて生成される、前記異なる第1の動き推定モデルの最適化された動き推定モデルとすることができる。
[0080] ある実施形態によれば、前記電子デバイスは、更に、画像センサ(例えば画像センサ108)を含むことができる。前記画像センサは、前記画像センサの有効視野(FoV)内のシーンの一連の画像フレームを取り込むように構成することができる。
[0081] ある実施形態によれば、前記制御回路は、更に、第1の入力に応答して、前記一連の画像フレームの再生時に、前記ユーザ指定初期化点を受け取るように構成することができる。前記ユーザ指定初期化点は、前記一連の画像フレームのうちの前記第1の画像フレーム内の前記関心オブジェクトの位置に対応することができる。前記制御回路は、更に、前記第1の入力に応答して、前記第1の画像フレームから前記第1の特徴点の組を、前記第2の画像フレームから前記第2の特徴点の組を抽出するように構成することができる。前記第2の特徴点の組は、前記ユーザ指定初期化点から第2の閾値距離内に存在することができる。
[0082] ある実施形態によれば、前記制御回路は、更に、前記異なる特徴対応点の群から確率的に特徴対応点の群を選択するように構成することができる。前記特徴対応点の群の選択は、前記第1の特徴点の組及び前記第2の特徴点の組からの特徴点の群の選択に対応する。前記異なる特徴対応点の群における各特徴対応点の群は、前記推定された特徴対応点の組から確率的に選択される2又は3以上の特徴対応点を含むことができる。ある実施形態によれば、各特徴対応点の群におけるいくつかの特徴対応点は、前記関心オブジェクトに関連する動きパラメータに基づいて選択されることができる。前記動きパラメータは、前記関心オブジェクトに関連する平行移動パラメータ、回転パラメータ、剪断パラメータ、屈曲パラメータ、変形パラメータ、又は自由度のうちの少なくとも1つとすることができる。
[0083] ある実施形態によれば、前記制御回路は、更に、前記異なる特徴対応点の群の各特徴対応点の群について第1の類似度行列を生成するように構成することができ、各特徴対応点の群について、前記第1の類似度行列は、前記異なる第1の動き推定モデルのうちの第1の動き推定モデルである。
[0084] ある実施形態によれば、前記制御回路は、更に、対応する第1の動き推定モデル及び対応する特徴対応点の群に対するスコアリングモデルの適用に基づいて、前記異なる第1の動き推定モデルの各々についてスコアを計算するように構成することができる。前記スコアの計算は、前記対応する動き推定モデルに対する特徴点の群と前記ユーザ指定初期化点との近接度に基づいて実行することができる。
[0085] ある実施形態によれば、前記制御回路は、更に、前記異なる第1の動き推定モデルの各第1の動き推定モデルについてインライア特徴対応点の組を推定するように構成することができる。前記インライア特徴対応点の組は、前記異なる第1の動き推定モデルの各第1の動き推定モデルの位置推定誤差と画素ベースの閾値との比較に基づいて推定されることができる。前記異なる第1の動き推定モデルの各第1の動き推定モデルの前記位置推定誤差は、いくつかの画素の偏差(前記偏差だけ、実際の位置が、前記第1の特徴点の組及び前記第2の特徴点の組における各特徴点の推定位置からずれる)に対応することができる。前記制御回路は、更に、前記異なる第1の動き推定モデルの各々についての前記計算されたスコアの最大を決定するように構成することができる。前記推定された複数のインライア特徴対応点は、前記計算されたスコアが前記最大である前記インライア特徴対応点の組における特徴対応点とすることができる。
[0086] ある実施形態によれば、前記第2の動き推定モデルは、前記推定された複数のインライア特徴対応点におけるインライア特徴点の組に対する回帰モデルの適用によって生成されることができる。
[0087] 本開示は、ハードウェアの形で実現することも、又はハードウェアとソフトウェアの組み合わせの形で実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアの形で実現することができる。
[0088] 本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。特定の実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することができると理解するであろう。また、本開示の範囲から逸脱することなく、本開示の教示に特定の状況又は内容を適合させるための多くの変更を行うこともできる。したがって、本開示は、開示した特定の実施形態に限定されるものではなく、特許請求の範囲に該当する全ての実施形態を含むことが意図されている。
100 ネットワーク環境
102 電子デバイス
104 サーバ
106 通信ネットワーク
108 画像センサ
110 一連の画像フレーム
112A 第1の画像フレーム
112B 第2の画像フレーム
114 関心オブジェクト
116 初期化点
118 第1の特徴点の組
118A 第1の特徴点
118B 第2の特徴点
120 第2の特徴点の組
120A 第1の特徴点
120B 第2の特徴点
200 ブロック図
202 制御回路
204 メモリ
206 入力/出力(I/O)装置
208 ネットワークインターフェイス
304A 第1の画像フレーム
306 初期化点
308 関心オブジェクト
310 第1の特徴点の組
312 第2の特徴点の組
314 特徴対応点の組
316 インライア特徴点の組
318 バウンディングボックス
400 フローチャート
402 開始
404 画像センサの有効視野(FoV)内のシーンから一連の画像フレームを取り込む
406 メモリに一連の画像フレームを記憶
408 I/O装置上に一連の画像フレームを表示
410 I/O装置を介して、電子デバイスに関連するユーザから第1の入力を受け取る
412 第1の入力に応答して、一連の画像フレームの再生時にユーザ指定初期化点を受け取る
414 第1の入力に応答して、第1の画像フレーム及び第2の画像フレームから第1の特徴点の組及び第2の特徴点の組を抽出
416 第1の特徴点の組と第2の特徴点の組との間の特徴対応点の組を推定
418 推定された特徴対応点の組から確率的に特徴対応点の群を選択
420 特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成
422 異なる第1の動き推定モデルに基づいて、複数のインライア特徴対応点を推定
424 推定された複数のインライア特徴対応点に基づいて、第2の動き推定モデルを生成
426 第2の動き推定モデルに基づいて、一連の画像フレームにおいて関心オブジェクトを追跡

Claims (20)

  1. 電子デバイスであって、
    第1の画像フレーム及び第2の画像フレームを含む一連の画像フレームを記憶するように構成されるメモリと、
    制御回路であって、前記制御回路は、
    前記第1の画像フレーム内の第1の特徴点の組と前記第2の画像フレーム内の第2の特徴点の組との間の特徴対応点の組を推定し、
    前記第1の特徴点の組は、前記一連の画像フレーム内の関心オブジェクトに対応するユーザ指定初期化点から第1の閾値距離内に存在し、
    前記推定された特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成し、
    前記異なる第1の動き推定モデルは、前記第1の特徴点の組と前記第2の特徴点の組との間の類似度変換に換算して、前記第1の特徴点の組に対する前記第2の特徴点の組の位置の変化を表現し、
    前記異なる特徴対応点の群から、前記異なる第1の動き推定モデルに基づいて、前記第1の画像フレーム及び前記第2の画像フレーム内の前記関心オブジェクトに対応する複数のインライア特徴対応点を推定し、
    前記推定された複数のインライア特徴対応点に基づいて、前記異なる第1の動き推定モデルの最適化された動き推定モデルである第2の動き推定モデルを生成し、
    前記第2の動き推定モデルに基づいて、前記一連の画像フレーム内の前記関心オブジェクトを追跡する、
    ように構成される、制御回路と、
    を含むことを特徴とする電子デバイス。
  2. 更に、画像センサの有効視野(FoV)内のシーンの一連の画像フレームを取り込むように構成される画像センサを含むことを特徴とする、請求項1に記載の電子デバイス。
  3. 前記制御回路は、更に、第1の入力に応答して、前記一連の画像フレームの再生時に、前記ユーザ指定初期化点を受け取るように構成され、前記ユーザ指定初期化点は、前記一連の画像フレームのうちの前記第1の画像フレーム内の前記関心オブジェクトの位置に対応することを特徴とする、請求項1に記載の電子デバイス。
  4. 前記制御回路は、更に、前記第1の入力に応答して、前記第1の画像フレームから前記第1の特徴点の組を、前記第2の画像フレームから前記第2の特徴点の組を抽出するように構成されることを特徴とする、請求項3に記載の電子デバイス。
  5. 前記第2の特徴点の組は、前記ユーザ指定初期化点から第2の閾値距離内に存在することを特徴とする、請求項1に記載の電子デバイス。
  6. 前記制御回路は、更に、前記異なる特徴対応点の群から確率的に特徴対応点の群を選択するように構成され、前記特徴対応点の群の選択は、前記第1の特徴点の組及び前記第2の特徴点の組からの特徴点の群の選択に対応することを特徴とする、請求項1に記載の電子デバイス。
  7. 前記異なる特徴対応点の群における各特徴対応点の群は、前記推定された特徴対応点の組から確率的に選択される2又は3以上の特徴対応点を含むことを特徴とする、請求項1に記載の電子デバイス。
  8. 各特徴対応点の群におけるいくつかの特徴対応点は、前記関心オブジェクトに関連する動きパラメータに基づいて選択されることを特徴とする、請求項7に記載の電子デバイス。
  9. 前記動きパラメータは、前記関心オブジェクトに関連する平行移動パラメータ、回転パラメータ、剪断パラメータ、変形パラメータ、又は自由度のうちの少なくとも1つであることを特徴とする、請求項8に記載の電子デバイス。
  10. 前記制御回路は、更に、前記異なる特徴対応点の群の各特徴対応点の群について第1の類似度行列を生成し、各特徴対応点の群について、前記第1の類似度行列は、前記異なる第1の動き推定モデルのうちの第1の動き推定モデルに対応することを特徴とする、請求項1に記載の電子デバイス。
  11. 前記制御回路は、更に、対応する第1の動き推定モデル及び対応する特徴対応点の群に対するスコアリングモデルの適用に基づいて、前記異なる第1の動き推定モデルの各々についてスコアを計算するように構成されることを特徴とする、請求項1に記載の電子デバイス。
  12. 前記スコアの計算は、前記対応する第1の動き推定モデルに対する特徴点の群と前記ユーザ指定初期化点との近接度に基づくことを特徴とする、請求項11に記載の電子デバイス。
  13. 前記制御回路は、更に、前記異なる第1の動き推定モデルの各第1の動き推定モデルについてインライア特徴対応点の組を推定するように構成され、
    前記インライア特徴対応点の組は、前記異なる第1の動き推定モデルの各第1の動き推定モデルの位置推定誤差と画素ベースの閾値との比較に基づいて推定される、
    ことを特徴とする、請求項11に記載の電子デバイス。
  14. 前記異なる第1の動き推定モデルの各第1の動き推定モデルの前記位置推定誤差は、いくつかの画素の偏差(前記偏差だけ、実際の位置が、前記第1の特徴点の組及び前記第2の特徴点の組における各特徴点の推定位置からずれる)に対応することを特徴とする、請求項13に記載の電子デバイス。
  15. 前記制御回路は、更に、前記異なる第1の動き推定モデルの各々についての前記計算されたスコアの最大を決定するように構成され、
    前記推定された複数のインライア特徴対応点は、前記計算されたスコアが前記最大である前記インライア特徴対応点の組における特徴対応点である、
    ことを特徴とする、請求項13に記載の電子デバイス。
  16. 前記第2の動き推定モデルは、前記推定された複数のインライア特徴対応点におけるインライア特徴点の組に対する回帰モデルの適用によって生成されることを特徴とする、請求項1に記載の電子デバイス。
  17. 方法であって、
    電子デバイスにおいて、
    一連の画像フレームのうちの第1の画像フレーム内の第1の特徴点の組と前記一連の画像フレームのうちの第2の画像フレーム内の第2の特徴点の組との間の特徴対応点の組を推定するステップであって、
    前記第1の特徴点の組は、前記一連の画像フレーム内の関心オブジェクトに対応するユーザ指定初期化点から第1の閾値距離内に存在する、ステップと、
    前記推定された特徴対応点の組のうちの異なる特徴対応点の群について異なる第1の動き推定モデルを生成するステップであって、
    前記異なる第1の動き推定モデルは、前記第1の特徴点の組と前記第2の特徴点の組との間の類似度変換に換算して、前記第1の特徴点の組に対する前記第2の特徴点の組の位置の変化を表現する、ステップと、
    前記異なる特徴対応点の群から、前記異なる第1の動き推定モデルに基づいて、前記第1の画像フレーム及び前記第2の画像フレーム内の前記関心オブジェクトに対応する複数のインライア特徴対応点を推定するステップと、
    前記推定された複数のインライア特徴対応点に基づいて、前記異なる第1の動き推定モデルの最適化された動き推定モデルである第2の動き推定モデルを生成するステップと、
    前記第2の動き推定モデルに基づいて、前記一連の画像フレーム内の前記関心オブジェクトを追跡するステップと、
    を含むことを特徴とする方法。
  18. 前記方法は、更に、第1の入力に応答して、前記一連の画像フレームの再生時に、前記ユーザ指定初期化点を受け取るステップを含み、前記ユーザ指定初期化点は、前記一連の画像フレームのうちの前記第1の画像フレーム内の前記関心オブジェクトの位置に対応することを特徴とする、請求項17に記載の方法。
  19. 更に、前記第1の入力に応答して、前記第1の画像フレームから前記第1の特徴点の組を、前記第2の画像フレームから前記第2の特徴点の組を抽出するステップを含むことを特徴とする、請求項18に記載の方法。
  20. 前記第2の特徴点の組は、前記ユーザ指定初期化点から第2の閾値距離内に存在することを特徴とする、請求項17に記載の方法。
JP2021543597A 2018-11-15 2019-09-18 ユーザ指定初期化点に基づくオブジェクトトラッキング Active JP7100306B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/191,884 US10839531B2 (en) 2018-11-15 2018-11-15 Object tracking based on a user-specified initialization point
US16/191,884 2018-11-15
PCT/IB2019/057834 WO2020099951A1 (en) 2018-11-15 2019-09-18 Object tracking based on a user-specified initialization point

Publications (2)

Publication Number Publication Date
JP2022502809A true JP2022502809A (ja) 2022-01-11
JP7100306B2 JP7100306B2 (ja) 2022-07-13

Family

ID=68104715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021543597A Active JP7100306B2 (ja) 2018-11-15 2019-09-18 ユーザ指定初期化点に基づくオブジェクトトラッキング

Country Status (6)

Country Link
US (1) US10839531B2 (ja)
EP (1) EP3864622A1 (ja)
JP (1) JP7100306B2 (ja)
KR (1) KR102572986B1 (ja)
CN (1) CN112771572B (ja)
WO (1) WO2020099951A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180075224A (ko) * 2016-12-26 2018-07-04 삼성전자주식회사 객체의 인식 결과를 제공하는 방법 및 전자 장치
JP7105369B2 (ja) * 2019-03-28 2022-07-22 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
WO2020194664A1 (ja) 2019-03-28 2020-10-01 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
US11836870B1 (en) * 2021-01-19 2023-12-05 United Services Automobile Association (Usaa) Systems and methods for virtual physical distancing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309746A (ja) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2015212861A (ja) * 2014-05-01 2015-11-26 日本電信電話株式会社 多関節物体追跡装置、多関節物体追跡方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8446468B1 (en) * 2007-06-19 2013-05-21 University Of Southern California Moving object detection using a mobile infrared camera
US8374388B2 (en) 2007-12-28 2013-02-12 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
KR101129328B1 (ko) * 2010-03-03 2012-03-26 광주과학기술원 타겟 추적 장치 및 방법
TWI420906B (zh) * 2010-10-13 2013-12-21 Ind Tech Res Inst 興趣區域之追蹤系統與方法及電腦程式產品
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
KR20140061266A (ko) 2012-11-11 2014-05-21 삼성전자주식회사 다중 경로 궤적 분석을 이용한 영상 객체 추적 방법 및 장치
US20140169663A1 (en) 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
KR20140108828A (ko) * 2013-02-28 2014-09-15 한국전자통신연구원 카메라 트래킹 장치 및 방법
US9277129B2 (en) 2013-06-07 2016-03-01 Apple Inc. Robust image feature based video stabilization and smoothing
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US10262426B2 (en) * 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
EP3029631A1 (en) 2014-12-04 2016-06-08 Thomson Licensing A method and apparatus for assisted object selection in video sequences
KR101703515B1 (ko) * 2015-05-19 2017-02-07 국방과학연구소 영상의 표적 추적 장치 및 방법
KR101885839B1 (ko) * 2017-03-14 2018-08-06 중앙대학교 산학협력단 객체추적을 위한 특징점 선별 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309746A (ja) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2015212861A (ja) * 2014-05-01 2015-11-26 日本電信電話株式会社 多関節物体追跡装置、多関節物体追跡方法、及びプログラム

Also Published As

Publication number Publication date
US20200160540A1 (en) 2020-05-21
KR20210069686A (ko) 2021-06-11
JP7100306B2 (ja) 2022-07-13
WO2020099951A1 (en) 2020-05-22
US10839531B2 (en) 2020-11-17
KR102572986B1 (ko) 2023-09-01
EP3864622A1 (en) 2021-08-18
CN112771572B (zh) 2024-03-12
CN112771572A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
JP7100306B2 (ja) ユーザ指定初期化点に基づくオブジェクトトラッキング
US10380756B2 (en) Video processing system and method for object detection in a sequence of image frames
US10643336B2 (en) Image processing apparatus and method for object boundary stabilization in an image of a sequence of images
EP3327668B1 (en) Image-processing device and method for foreground mask correction for object segmentation
CN109788189B (zh) 将相机与陀螺仪融合在一起的五维视频稳定化装置及方法
US10839517B2 (en) Multiple neural networks-based object segmentation in a sequence of color image frames
US9760791B2 (en) Method and system for object tracking
JP7015017B2 (ja) 適応的前景マスクアップサンプリングに基づく一連のカラー画像フレームのオブジェクトセグメンテーション
US10621730B2 (en) Missing feet recovery of a human object from an image sequence based on ground plane detection
US10122912B2 (en) Device and method for detecting regions in an image
US10163212B2 (en) Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames
US11557086B2 (en) Three-dimensional (3D) shape modeling based on two-dimensional (2D) warping
US10089721B2 (en) Image processing system and method for object boundary smoothening for image segmentation
US20210082122A1 (en) Image-based mask frame interpolation
US20230222677A1 (en) Sequence stabalization of 3d point cloud frames using motion information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220614

R151 Written notification of patent or utility model registration

Ref document number: 7100306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151