JP2022521540A - オンライン学習を利用した物体追跡のための方法およびシステム - Google Patents

オンライン学習を利用した物体追跡のための方法およびシステム Download PDF

Info

Publication number
JP2022521540A
JP2022521540A JP2021549487A JP2021549487A JP2022521540A JP 2022521540 A JP2022521540 A JP 2022521540A JP 2021549487 A JP2021549487 A JP 2021549487A JP 2021549487 A JP2021549487 A JP 2021549487A JP 2022521540 A JP2022521540 A JP 2022521540A
Authority
JP
Japan
Prior art keywords
target
learning
classifier model
computer system
object tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021549487A
Other languages
English (en)
Other versions
JP7192143B2 (ja
Inventor
カン,ミョング
ウィ,ドンユン
ペ,スンミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2022521540A publication Critical patent/JP2022521540A/ja
Application granted granted Critical
Publication of JP7192143B2 publication Critical patent/JP7192143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

オンライン学習を利用した物体追跡のための方法およびシステムを提供する。物体追跡方法において、グローバルパターンマッチング(global pattern matching)を利用して分類器(classifier)モデルを学習する段階、および前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する段階を含む。

Description

以下の説明は、物体追跡(object tracking)技術に関する。
物体の姿勢推定は、コンピュータビジョン、マンマシンインタフェース、およびその他の関連領域において重要な内容である。例えば、推定される物体をユーザの頭と見なせば、ユーザの頭の連続的な姿勢を推定することにより、ユーザが表現したい豊かな個性化情報を知ることができるようになる。また、物体(例えば、頭)の姿勢推定の結果は、マンマシンインタフェースを実行するために使用することもできるが、例えば、頭の姿勢を推定することによってユーザの視線焦点を得ることができ、より効果的なマンマシンインタフェースをサポートすることができる。
物体姿勢推定技術の一例として、特許文献1(公開日2008年8月12日)には、入力ビデオ映像から物体の動きをリアルタイムで自動追跡して物体の姿勢を判断する技術が開示されている。
現在使用されている物体姿勢推定方法は、一般的には、追跡(tracking)に基づく方法と学習に基づく方法とに分けられる。
追跡に基づく方法は、ビデオシーケンスにある現在フレーム(Current Frame)と前フレーム(Previous Frame)との間に1つの対(paired)マッチング方法によって物体の姿勢を推定する。
学習に基づく方法は、一般的に、物体姿勢推定を分類(classify)方式または復帰方式として定義し、ラベルを含むサンプルを利用したトレーニングによって得られたトレーニングモデルを利用して物体の姿勢を推定する。
韓国特許出願公開第10-2008-0073933号公報
各ターゲットのID(識別番号)を分類する分類器(classifier)が追加されたオンライン学習モデルを利用して各ターゲットのグローバルパターン(global pattern)を学習することを提供する。
時間軸とともに累積する各ターゲットの学習データを生成し、これを利用して分類器モデルを学習することを提供する。
ローカルパターン(local pattern)によるモーションファクタ(motion factor)とグローバルパターンによる外観ファクタ(appearance factor)を追跡にともに利用することを提供する。
コンピュータシステムが実行する物体追跡方法であって、前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記物体追跡方法は、前記少なくとも1つのプロセッサにより、グローバルパターンマッチング(global pattern matching)を利用して分類器(classifier)モデルを学習する段階、および前記少なくとも1つのプロセッサにより、前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する段階を含む、物体追跡方法を提供する。
一側面によると、前記学習する段階は、各ターゲットを分類する分類器が追加された学習モデルを利用して各ターゲットのグローバルパターンを学習する段階を含んでよい。
他の側面によると、前記学習する段階は、サンプルマイニング(sample mining)によって時間軸とともに累積する各ターゲットの学習データを生成し、累積した学習データを利用して前記分類器モデルを繰り返し学習する段階を含んでよい。
また他の側面によると、前記学習する段階は、入力ビデオの連続する区間全体からターゲットが存在する有効区間(valid period)を区分する段階、前記有効区間のうちのいずれか1つの有効区間をラベリングした後に学習データを生成して前記分類器モデルを学習する段階、および次の有効区間のラベリングの後に学習データを生成して以前に生成された学習データと併合し、累積した学習データを生成して前記分類器モデルを繰り返し学習する段階を含んでよい。
また他の側面によると、前記ラベリングは、ターゲットのグローバルパターンによる外観ファクタ(appearance factor)に基づいて計算された前記分類器モデルの類似度マトリックスを利用してよい。
また他の側面によると、前記学習する段階は、前記有効区間以外の無効区間(invalid period)に対し、前記有効区間に学習された前記分類器モデルを利用してラベリングを実行する段階をさらに含んでよい。
また他の側面によると、前記追跡する段階は、入力ビデオのすべてのフレームに対してターゲットの位置を検出して各ターゲットのキーポイント(keypoint)の座標を求める段階、各ターゲットのキーポイントの座標を利用して隣接するフレームにおけるターゲット間のマッチングスコア(matchings core)を求める段階、および前記ターゲット間のマッチングスコアを基準としてフレーム間の姿勢マッチングを実行する段階を含んでよい。
また他の側面によると、前記姿勢マッチングを実行する段階は、ターゲットの位置を示すボックスに対するモーションファクタ(motion factor)に基づいて計算された類似度マトリックスを利用して前記姿勢マッチングを実行してよい。
また他の側面によると、前記マッチングスコアは、前フレームでのターゲットと次フレームでのターゲット間の近さ程度を示してよい。
また他の側面によると、前記追跡する段階は、ターゲットの位置を示す境界ボックスに基づくエラー測定によって前記姿勢マッチングのエラーを除去する過程、補間法(interpolation)を利用して前記姿勢マッチングのエラーを補正する過程、および移動平均(moving average)に基づいて前記姿勢マッチングに対する平滑化(smoothing)を実行する過程のうちの少なくとも1つの後処理過程を実行する段階をさらに含んでよい。
前記物体追跡方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする、コンピュータ読み取り可能な記録媒体を提供する。
コンピュータシステムであって、メモリ、および前記メモリと連結し、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、グローバルパターンマッチングを利用して分類器モデルを学習する過程、および前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡過程を処理する、コンピュータシステムを提供する。
本発明の実施形態によると、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルを利用することで、各ターゲットのグローバルパターンを学習することができる。
本発明の実施形態によると、時間軸とともに累積する各ターゲットの学習データを生成し、これを利用して分類器モデルを学習することができる。
本発明の実施形態によると、ローカルパターンによるモーションファクタとグローバルパターンによる外観ファクタを追跡にともに利用することができる。
本発明の一実施形態における、コンピュータシステムの内部構成の一例を説明するためのブロック図である。 本発明の一実施形態における、コンピュータシステムのプロセッサが含むことのできる構成要素の例を示した図である。 本発明の一実施形態における、コンピュータシステムが実行することのできる物体追跡方法の例を示したフローチャートである。 本発明の一実施形態における、ターゲットのキーポイント座標を求める過程の例を示した図である。 本発明の一実施形態における、領域間の重畳程度を示すIoUの測定の例を示した図である。 本発明の一実施形態における、ターゲットのグローバルパターンを学習する過程の例を示した図である。 本発明の一実施形態における、ターゲットのグローバルパターンを学習する過程の例を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態は、オンライン学習モデルを利用して物体位置を追跡する技術に関する。
本明細書に具体的に開示される事項などを含む実施形態は、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルを利用して各パターンのグローバルパターンを学習することができ、これにより、正確性、効率性、費用節減などの側面において相当な長所を達成することができる。
図1は、本発明の一実施形態における、コンピュータシステムの内部構成の一例を説明するためのブロック図である。例えば、本発明の実施形態に係る物体追跡システムは、図1のコンピュータシステム100によって実現されてよい。
図1に示すように、コンピュータシステム100は、物体追跡方法を実行するための構成要素として、プロセッサ110、メモリ120、永続的記録装置130、バス140、入力/出力インタフェース150、ネットワークインタフェース160を含んでよい。
プロセッサ110は、物体追跡のための構成要素として、命令語のシーケンスを処理することのできる任意の装置を含んでもよいし、その一部であってもよい。プロセッサ110は、例えば、コンピュータプロセッサ、移動装置または他の電子装置内のプロセッサ、および/またはデジタルプロセッサを含んでよい。プロセッサ110は、例えば、サーバコンピューティングデバイス、サーバコンピュータ、一連のサーバコンピュータ、サーバファーム、クラウドコンピュータ、コンテンツプラットフォームなどに含まれてよい。プロセッサ110は、バス140を介してメモリ120に接続してよい。
メモリ120は、コンピュータシステム100によって使用されるか、コンピュータシステム100から出力される情報を記録するための揮発性メモリ、永続的メモリ、仮想メモリ、またはその他のメモリを含んでよい。メモリ120は、例えば、RAM(random access memory)および/またはDRAM(Dynamic RAM)を含んでよい。メモリ120は、コンピュータシステム100の状態情報のような任意の情報を記録するために使用されてよい。メモリ120は、例えば、物体追跡のための命令語を含むコンピュータシステム100の命令語を記録するために使用されてもよい。コンピュータシステム100は、必要な場合あるいは適切な場合に1つ以上のプロセッサ110を含んでよい。
バス140は、コンピュータシステム100の多様なコンポーネントの相互作用を可能にする通信基盤の構造を含んでよい。バス140は、例えば、コンピュータシステム100のコンポーネント間に、例えば、プロセッサ110とメモリ120の間にデータを運搬してよい。バス140は、コンピュータシステム100のコンポーネント間の無線および/または有線通信媒体を含んでよく、並列、直列、または他のトポロジ配列を含んでよい。
永続的記録装置130は、(例えば、メモリ120に比べて)所定の延長された区間のデータを保存するためにコンピュータシステム100によって使用されるもののようなメモリまたは他の永続的記録装置のようなコンポーネントを含んでよい。永続的記録装置130は、コンピュータシステム100内のプロセッサ110によって使用されるもののような不揮発性メインメモリを含んでよい。永続的記録装置130は、例えば、フラッシュメモリ、ハードディスク、光ディスク、または他のコンピュータ読み取り可能媒体を含んでよい。
入力/出力インタフェース150は、キーボード、マウス、音声命令入力、ディスプレイ、または他の入力または出力装置に対するインタフェースを含んでよい。構成命令および/または物体追跡のための入力は、入力/出力インタフェース150に受信されてよい。
ネットワークインタフェース160は、近距離ネットワークまたはインターネットのようなネットワークに対する1つ以上のインタフェースを含んでよい。ネットワークインタフェース160は、有線または無線接続に対するインタフェースを含んでよい。構成命令および/または物体追跡のための入力は、ネットワークインタフェース160に受信されてよい。
また、他の実施形態において、コンピュータシステム100は、図1の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術の構成要素を明確に図に示す必要はない。例えば、コンピュータシステム100は、上述した入力/出力インタフェース150と連結する入力/出力装置のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。
実際の映像で物体追跡を実行する場合、他の物体によって物体が隠れたり(occlusion)、速い動きによって物体にぶれが生じたりすることによって適切な比較がなされず、同じ物体であっても異なる物体として認識されるという問題が発生することがある。
このような理由により、既存の物体追跡に利用される姿勢推定(pose estimation)は、正確度が100%でなく、ローカルパターンをもつ類似位置によって推定がなされるしかなかった。これにより、ターゲットのIDがシフト(shift)されるという問題が起こるようになり、このような小さなエラーが積み重なることによってターゲット物体から遠ざかる結果をもたらしていた。
本発明では、グローバルパターンマッチングを利用したオンライン学習モデルを利用することにより、ターゲット物体をより正確に追跡できるようにする。
本明細書では人物追跡を代表的な例として説明しているが、これに限定されてはならず、人物の他にも、各種事物や他の種類の物体を対象にして適用することも可能である。
図2は、本発明の一実施形態における、コンピュータシステムのプロセッサが含むことのできる構成要素の例を示した図であり、図3は、本発明の一実施形態における、コンピュータシステムが実行することのできる物体追跡方法の例を示したフローチャートである。
図2に示すように、プロセッサ110は、推定部210、類似度計算部220、マッチング部230、後処理部240、および位置提供部250を含んでよい。このようなプロセッサ110の構成要素は、少なくとも1つのプログラムコードによって提供される制御命令にしたがってプロセッサ110によって実行される互いに異なる機能(different functions)の表現であってよい。例えば、プロセッサ110が姿勢推定を実行するようにコンピュータシステム100を制御するために動作する機能的表現として、推定部210が使用されてよい。
プロセッサ110およびプロセッサ110の構成要素は、図3の物体追跡方法が含む段階310~350を実行してよい。例えば、プロセッサ110およびプロセッサ110の構成要素は、メモリ120が含むオペレーティングシステムのコードと、上述した少なくとも1つのプログラムコードとによる命令(instruction)を実行するように実現されてよい。ここで、少なくとも1つのプログラムコードは、物体追跡方法を処理するために実現されたプログラムのコードに対応してよい。
物体追跡方法は、図に示した順に発生しなくてもよいし、段階のうちの一部が省略されたり、追加の過程がさらに含まれたりしてもよい。
プロセッサ110は、物体追跡方法のためのプログラムファイルに記録されたプログラムコードをメモリ120にロードしてよい。例えば、物体追跡方法のためのプログラムファイルは、図1を参照しながら説明した永続的記録装置130に記録されていてよく、プロセッサ110は、バスを介して永続的記録装置130に記録されたプログラムファイルからプログラムコードがメモリ120にロードされるようにコンピュータシステム100を制御してよい。このとき、プロセッサ110およびプロセッサ110が含む推定部210、類似度計算部220、マッチング部230、後処理部240、および位置提供部250それぞれは、メモリ120にロードされたプログラムコードのうちの対応する部分の命令を実行し、以後の段階310~350を実行するためのプロセッサ110の互いに異なる機能的表現であってよい。段階310~350の実行のために、プロセッサ110およびプロセッサ110の構成要素は、制御命令による演算を直接処理してもよいし、コンピュータシステム100を制御してもよい。
段階310で、推定部210は、ビデオファイルが入力されれば、入力ビデオを対象に姿勢推定を実行してよい。このとき、推定部210は、入力ビデオのすべてのフレームに対してターゲット物体に該当する人物の位置を検出し、各人物のキーポイント(keypoint)の座標を求めてよい。
例えば、図4を参照すると、入力ビデオを構成するすべてのフレームからターゲットとなる人物の位置を検出した後、該当の人物の頭、左/右肩、左/右肘、左/右手、左/右膝、左/右足などの17ヶ所の座標をキーポイントとして活用してよい。一例として、推定部210は、YOLO(you only look once)基盤の人物検出(human detection)アルゴリズムを利用してフレームから人物を検出してよく、トップ-ダウン(top-down)方式によって各人物のキーポイントの座標を求めてよい。
再び図3において、段階320で、類似度計算部220は、各フレームの各人物のキーポイント座標に基づき、隣接するフレーム間の姿勢類似度(pose similarity)を計算してよい。言い換えれば、類似度計算部220は、隣接する2つのフレームの人物の姿勢類似度を示すマッチングスコア(matching score)を求めてよい。ここで、マッチングスコアとは、n番目のフレームのK人の人物が、n+1番目のフレームのK’人の人物とそれぞれどのくらい近いかを示す指標を意味してよい。
特に、本発明において姿勢類似度を示すマッチングスコアは、ローカルパターンによるモーションファクタとグローバルパターンによる外観ファクタを含んでよい。マッチングスコアを計算するためのモデルは、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルによって実現されてよく、該当のオンライン学習モデルを利用して各ターゲットのグローバルパターンが学習されてよい。
本発明に係る分類器モデルは、時間軸とともに各ターゲットの学習データを累積してよく、学習データの一例としては、ターゲットのすべてのキーポイントを含んでよい。言い換えれば、分類器モデルを利用することで各ターゲットのグローバルパターンが学習されてよい。このとき、グローバルパターンを学習するための分類器としては、分類(classification)が可能なすべてのネットワークモデルが適用されてよい。
モーションファクタは、ターゲットの位置領域を示す境界ボックス(bounding box)IoU(Intersection Over Union)と姿勢IoUに基づいて求められてよい。このとき、IoUとは、図5に示すように、2つの領域の重畳程度を示すものであり、これにより、地上検証(ground truth)(実際の物体の境界)を有する物体検出で予測値がどのくらい正確であるかを測定してよい。また、外観ファクタは、客観的確率を判断するためのサンプルマイニング(sample mining)とオンライン学習に基づくグローバルパターンマッチングを利用して求められてよい。
再び図3において、段階330で、マッチング部230は、段階320の結果を利用してフレーム間の姿勢マッチングを実行してよい。言い換えれば、マッチング部230は、姿勢類似度を示すマッチングスコアを基準に、実際にn番目のフレームのi番目のボックス(すなわち、ターゲット位置)とn+1番目のフレームのj番目のボックスとをマッチングしてよい。
マッチング部230は、ハンガリアンメソッド(Hungarian method)などのマッチングアルゴリズムを利用して姿勢マッチングを実行してよい。マッチング部230は、先ずは隣接するフレームの類似度マトリックスを計算した後、これをハンガリアンメソッドに最適化して各ボックスをマッチングしてよい。このとき、姿勢マッチングのための類似度マトリックスは、IoUを示すモーションファクタを利用して計算してよい。
段階340で、後処理部240は、段階330の姿勢マッチング結果に対して誤検出の排除などを含む後処理過程を実行してよい。一例として、後処理部240は、境界ボックスIoU基盤のエラー測定によってマッチングエラーを除去してよい。または、後処理部240は、補間法(interpolation)を利用してマッチングエラーを補正してもよいし、移動平均(moving average)などに基づいて姿勢マッチングに対する平滑化(smoothing)を経てもよい。
段階350で、位置提供部250は、追跡結果として姿勢マッチングによる各ターゲットの位置を提供してよい。位置提供部250は、各ターゲットの座標値を出力として提供してよい。ターゲットの位置を表示した領域は境界ボックスと呼ばれるが、このとき、ターゲットの位置は、境界ボックスのフレーム内の位置座標として与えられてよい。ターゲットの位置座標は、[左線のX座標、右線のY座標、右線のX座標、下線のY座標]、[左線のX座標、右線のY座標、四角形の幅、四角形の高さ]などの形態で表記されてよい。
図6~7は、本発明の一実施形態における、ターゲットのグローバルパターンを学習する過程の例を示した図である。
図6~7は、サンプルマイニング過程を示している。
図6を参照すると、1.モデル結果値は、モーションファクタを使用した既存の追跡技術を適用した結果であり、本発明では、既存の追跡を一次として適用した後、二次として外観ファクタを計算して物体追跡に利用してよい。
2.全体動画内で有効区間(valid period)と無効区間(invalid period)を定義して区分してよい。ここで、有効区間とは、すべてのターゲットが存在する区間を意味するものであり、図6の斜線部分が有効区間を示す。
図7を参照すると、3.モデル訓練を繰り返し、該当のモデルを利用して次の有効区間に対してラベルを指定して学習例を追加してよい。
学習データは、複数のフレームからなる連続する区間全体を利用する。このとき、学習モデルの入力単位は、連続する区間全体からサンプリングされたミニバッチ(mini-batch)となってよく、ミニバッチの大きさは、事前に定められたデフォルト値が定められてもよいし、ユーザによって定められてもよい。
学習データは、ターゲット位置を含むボックスイメージと、該当のターゲットのIDを含む。ここで、ボックスイメージとは、全体イメージで各人物の位置を示す領域だけを切り取ったイメージを意味する。
学習モデル(ネットワーク)の出力は、任意の人物が含まれたボックスイメージが与えられたとき、該当のボックスイメージの各ターゲットIDに対する確率値となる。
図7に示すように、学習の第1段階(1st)では、最も長い有効区間710を利用して1つ目の区間の学習データを生成し、1つ目の区間の学習データを利用してモデルを学習させる。このときの学習データは、既存の物体追跡技術によって得られた結果をそのままラベリングしたものであってもよいし、ボックスイメージとターゲットIDを学習データとして使用してもよい。
第2段階(2nd)では、1つ目の区間で学習させたモデルを利用して次の対象区間、すなわち、2番目に長い有効区間720をラベリングさせた後、2つ目の区間の学習データを生成する。この後、1つ目の区間と2つ目の区間の学習データを併合して累積した学習データを生成し、これを利用してモデルを再び学習させる。
このような方式を繰り返しながら有効区間に対する学習が終わった後、無効区間に対しては、有効区間で学習させたモデルを利用しながら予測(ラベリング)を実行するようになる。
上述したラベリング過程は、分類器モデルのための類似度マトリックスを計算した後、これを利用して各ボックスをマッチングしてよい。このとき、分類器モデルの類似度は、モーションファクタでなく外観ファクタを利用して計算されてよい。
このように、本発明の実施形態によると、各ターゲットのIDを分類する分類器が追加されたオンライン学習モデルを利用して各ターゲットのグローバルパターンを学習することができ、時間軸とともに累積する各ターゲットの学習データを生成して利用することで分類器モデルを学習することができ、これにより、ローカルパターンによるモーションファクタとグローバルパターンによる外観ファクタを物体追跡にともに利用することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (15)

  1. コンピュータシステムが実行する物体追跡方法であって、
    前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
    前記物体追跡方法は、
    前記少なくとも1つのプロセッサにより、グローバルパターンマッチングを利用して分類器モデルを学習する段階、および
    前記少なくとも1つのプロセッサにより、前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する段階
    を含む、物体追跡方法。
  2. 前記学習する段階は、
    各ターゲットを分類する分類器が追加された学習モデルを利用して各ターゲットのグローバルパターンを学習する段階
    を含む、請求項1に記載の物体追跡方法。
  3. 前記学習する段階は、
    サンプルマイニングによって時間軸とともに累積する各ターゲットの学習データを生成し、累積した学習データを利用して前記分類器モデルを繰り返し学習させる段階
    を含む、請求項1に記載の物体追跡方法。
  4. 前記学習する段階は、
    入力ビデオの連続する区間全体からすべてのターゲットが存在する有効区間を区分する段階、
    前記有効区間のうちのいずれか1つの有効区間をラベリングした後、学習データを生成して前記分類器モデルを学習させる段階、および
    次の有効区間をラベリングした後、学習データを生成して以前に生成された学習データと併合して累積した学習データを生成して前記分類器モデルを繰り返し学習させる段階
    を含む、請求項1に記載の物体追跡方法。
  5. 前記ラベリングは、ターゲットのグローバルパターンによる外観ファクタに基づいて計算された前記分類器モデルの類似度マトリックスを利用する
    請求項4に記載の物体追跡方法。
  6. 前記学習する段階は、
    前記有効区間以外の区間に対し、前記有効区間によって学習された前記分類器モデルを利用してラベリングを実行する段階
    をさらに含む、請求項4に記載の物体追跡方法。
  7. 前記追跡する段階は、
    入力ビデオのすべてのフレームに対してターゲットの位置を検出して各ターゲットのキーポイントの座標を求める段階、
    各ターゲットのキーポイントの座標を利用して隣接するフレームのターゲット間のマッチングスコアを求める段階、および
    前記ターゲット間のマッチングスコアを基準としてフレーム間の姿勢マッチングを実行する段階
    を含む、請求項1に記載の物体追跡方法。
  8. 請求項1~7のうちのいずれか一項に記載の物体追跡方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体。
  9. コンピュータシステムであって、
    メモリ、および
    前記メモリと連結し、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサは、
    グローバルパターンマッチングを利用して分類器モデルを学習させる過程、および
    前記分類器モデルを含んだオンライン学習によって各ターゲットを分類して追跡する過程
    を処理する、コンピュータシステム。
  10. 前記学習する過程は、
    各ターゲットを分類する分類器が追加された学習モデルを利用して各ターゲットのグローバルパターンを学習する
    請求項9に記載のコンピュータシステム。
  11. 前記学習する過程は、
    サンプルマイニングによって時間軸とともに累積する各ターゲットの学習データを生成し、累積した学習データを利用して前記分類器モデルを繰り返し学習させる
    請求項9に記載のコンピュータシステム。
  12. 前記学習する過程は、
    入力ビデオの連続する区間全体からすべてのターゲットが存在する有効区間を区分する過程、
    前記有効区間のうちのいずれか1つの有効区間をラベリングした後、学習データを生成して前記分類器モデルを学習させる過程、および
    次の有効区間をラベリングした後、学習データを生成して以前に生成された学習データと併合して累積した学習データを生成して前記分類器モデルを繰り返し学習させる過程
    を含む、請求項9に記載のコンピュータシステム。
  13. 前記ラベリングは、ターゲットのグローバルパターンによる外観ファクタに基づいて計算された前記分類器モデルの類似度マトリックスを利用する
    請求項12に記載のコンピュータシステム。
  14. 前記学習する過程は、
    前記有効区間以外の区間に対し、前記有効区間によって学習された前記分類器モデルを利用してラベリングを実行する過程
    をさらに含む、請求項12に記載のコンピュータシステム。
  15. 前記追跡する過程は、
    入力ビデオのすべてのフレームに対してターゲットの位置を検出して各ターゲットのキーポイントの座標を求める過程、
    各ターゲットのキーポイントの座標を利用して隣接するフレームのターゲット間のマッチングスコアを求める過程、および
    前記ターゲット間のマッチングスコアを基準としてフレーム間の姿勢マッチングを実行する過程
    を含む、請求項9に記載のコンピュータシステム。
JP2021549487A 2019-02-28 2020-02-11 オンライン学習を利用した物体追跡のための方法およびシステム Active JP7192143B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190023916A KR102198920B1 (ko) 2019-02-28 2019-02-28 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
KR10-2019-0023916 2019-02-28
PCT/KR2020/001866 WO2020175818A1 (ko) 2019-02-28 2020-02-11 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템

Publications (2)

Publication Number Publication Date
JP2022521540A true JP2022521540A (ja) 2022-04-08
JP7192143B2 JP7192143B2 (ja) 2022-12-19

Family

ID=72240109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021549487A Active JP7192143B2 (ja) 2019-02-28 2020-02-11 オンライン学習を利用した物体追跡のための方法およびシステム

Country Status (5)

Country Link
US (1) US11972578B2 (ja)
JP (1) JP7192143B2 (ja)
KR (1) KR102198920B1 (ja)
CN (1) CN113454640A (ja)
WO (1) WO2020175818A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092511A1 (ko) * 2020-10-30 2022-05-05 에스케이텔레콤 주식회사 3차원 맵을 생성하는 방법 및 생성된 3차원 맵을 이용하여 사용자 단말의 포즈를 결정하는 방법
KR20220076048A (ko) * 2020-11-30 2022-06-08 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102614895B1 (ko) * 2021-02-09 2023-12-19 주식회사 라온버드 동적 카메라 영상 내의 객체를 실시간 추적하는 시스템 및 방법
CN116416413A (zh) * 2021-12-31 2023-07-11 杭州堃博生物科技有限公司 支气管镜的运动导航方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343791A (ja) * 2005-06-07 2006-12-21 Hitachi Ltd 顔画像データベース作成方法
JP2016066187A (ja) * 2014-09-24 2016-04-28 Kddi株式会社 画像処理装置
JP2017010224A (ja) * 2015-06-19 2017-01-12 キヤノン株式会社 物体追尾装置、物体追尾方法及びプログラム
JP2017117139A (ja) * 2015-12-24 2017-06-29 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2520726A1 (en) * 2003-04-30 2004-11-18 E.I. Du Pont De Nemours And Company Method for tracking and tracing marked articles
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
KR20080073933A (ko) 2007-02-07 2008-08-12 삼성전자주식회사 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
CN103177269B (zh) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 用于估计对象姿态的设备和方法
US9600717B1 (en) * 2016-02-25 2017-03-21 Zepp Labs, Inc. Real-time single-view action recognition based on key pose analysis for sports videos
KR101925907B1 (ko) * 2016-06-03 2019-02-26 (주)싸이언테크 신경망 생성 모델을 이용한 객체 움직임 패턴 학습장치 및 그 방법
KR101917354B1 (ko) * 2016-07-18 2018-11-09 단국대학교 천안캠퍼스 산학협력단 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343791A (ja) * 2005-06-07 2006-12-21 Hitachi Ltd 顔画像データベース作成方法
JP2016066187A (ja) * 2014-09-24 2016-04-28 Kddi株式会社 画像処理装置
JP2017010224A (ja) * 2015-06-19 2017-01-12 キヤノン株式会社 物体追尾装置、物体追尾方法及びプログラム
JP2017117139A (ja) * 2015-12-24 2017-06-29 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIANG ZHENG ET AL.: "MARS: A Video Benchmark for Large-ScalePerson Re-Identification", [ONLINE], JPN7022003626, 17 September 2016 (2016-09-17), ISSN: 0004842464 *

Also Published As

Publication number Publication date
JP7192143B2 (ja) 2022-12-19
WO2020175818A1 (ko) 2020-09-03
KR102198920B1 (ko) 2021-01-06
KR20200105157A (ko) 2020-09-07
US20210390347A1 (en) 2021-12-16
US11972578B2 (en) 2024-04-30
CN113454640A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
JP2022521540A (ja) オンライン学習を利用した物体追跡のための方法およびシステム
Hannuna et al. Ds-kcf: a real-time tracker for rgb-d data
US10572072B2 (en) Depth-based touch detection
JP6888484B2 (ja) 検索プログラム、検索方法、及び、検索プログラムが動作する情報処理装置
US11880985B2 (en) Tracking multiple objects in a video stream using occlusion-aware single-object tracking
US11501110B2 (en) Descriptor learning method for the detection and location of objects in a video
CN114222986A (zh) 使用社交图网络进行的随机轨迹预测
CN109544516B (zh) 图像检测方法及装置
Yang et al. Online multi-object tracking combining optical flow and compressive tracking in Markov decision process
Yang et al. Robust and real-time pose tracking for augmented reality on mobile devices
Kerdvibulvech A methodology for hand and finger motion analysis using adaptive probabilistic models
JP6821751B2 (ja) 仮想キーボードの誤タイピングを補正するための方法、システム、およびコンピュータプログラム
Jiang et al. High speed long-term visual object tracking algorithm for real robot systems
CN114820765A (zh) 图像识别方法、装置、电子设备及计算机可读存储介质
CN109325387B (zh) 图像处理方法、装置、电子设备
Cai et al. 3D vehicle detection based on LiDAR and camera fusion
US20200279103A1 (en) Information processing apparatus, control method, and program
KR102029860B1 (ko) 실시간 다중 객체 추적 방법과 이를 수행하기 위한 장치
CN114417965A (zh) 图像处理模型的训练方法、目标检测方法及相关装置
Han et al. Text kernel calculation for arbitrary shape text detection
KR102637343B1 (ko) 오브젝트 추적 방법 및 장치
Li et al. Soccer Field Registration Based on Geometric Constraint and Deep Learning Method
US11972610B2 (en) Multi-pass object tracking system utilizing single object tracking in a multi object tracking use case for higher accuracy
Wang et al. Improved CT algorithm based on target block division and feature points matching
WO2023044661A1 (en) Learning reliable keypoints in situ with introspective self-supervision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7192143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150