JP2019095975A - 追跡装置及び追跡プログラム - Google Patents

追跡装置及び追跡プログラム Download PDF

Info

Publication number
JP2019095975A
JP2019095975A JP2017223642A JP2017223642A JP2019095975A JP 2019095975 A JP2019095975 A JP 2019095975A JP 2017223642 A JP2017223642 A JP 2017223642A JP 2017223642 A JP2017223642 A JP 2017223642A JP 2019095975 A JP2019095975 A JP 2019095975A
Authority
JP
Japan
Prior art keywords
frame
cost
correspondence
vector
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017223642A
Other languages
English (en)
Other versions
JP6550442B2 (ja
Inventor
孝之 瀬光
Takayuki Seko
孝之 瀬光
尭理 中尾
Takamasa Nakao
尭理 中尾
領 菊池
Ryo Kikuchi
領 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017223642A priority Critical patent/JP6550442B2/ja
Priority to PCT/JP2018/031577 priority patent/WO2019102675A1/ja
Priority to GB2006880.5A priority patent/GB2581715B/en
Publication of JP2019095975A publication Critical patent/JP2019095975A/ja
Application granted granted Critical
Publication of JP6550442B2 publication Critical patent/JP6550442B2/ja
Priority to US16/834,015 priority patent/US11189038B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】グラフ理論を用いて映像データ中の対象物を精度よく追跡可能にする。【解決手段】グラフ生成部21は、映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成する。ベクトル計算部22は、対象フレームから検出された対象物と、対象フレームの前のフレームから検出された対象物との対応関係に基づき、対象フレームから検出された対象物の速度ベクトルを計算する。コスト計算部23は、速度ベクトルに基づき、追跡グラフにおける対象フレームと対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算する。対応特定部24は、追跡グラフ及びコストに基づき、対象フレームと次のフレームとの間の対象物の対応関係を特定する。【選択図】図1

Description

この発明は、映像データから検出された人を追跡する技術に関する。
監視カメラといった撮影装置によって取得された映像データに映っている人等の対象物を追跡する追跡技術がある。追跡技術では、映像データを構成する複数のフレームから検出された対象物について、フレーム間での対応関係が特定され、対象物が追跡される。
追跡技術としてグラフ理論を用いた方式がある(非特許文献1参照)。グラフ理論を用いた方式では、検出された物体が対象物である確率と、映像データを構成するフレーム間で対象物が同一である確率といった情報をグラフのエッジのコストとして、最小費用問題を解くことにより対象物の追跡が行なわれる。最小費用問題を解く場合には、グラフを構成する全ての辺のコストが予め分かっている必要がある。
Pirsiavash, Hamed, Deva Ramanan, and Charless C. Fowlkes. "Globally−optimal greedy algorithms for tracking a variable number of objects." Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011.
従来のグラフ理論を用いた追跡技術では、グラフを構成する全ての辺のコストが予め分かっている必要があったため、過去の対象物の移動を考慮したコストの計算ができなかった。そのため、コストが適切に設定されず、精度よく対象物を追跡することができなかった。
この発明は、グラフ理論を用いて精度よく対象物を追跡可能にすることを目的とする。
この発明に係る追跡装置は、
映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成部と、
前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算部と、
前記ベクトル計算部によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算部と、
前記追跡グラフと、前記コスト計算部によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定部と
を備える。
前記コスト計算部は、前記速度ベクトルから特定される位置に近い前記次のフレームにおける対象物を表すノードと結ばれたエッジほど低くなるようにコストを計算し、
前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する。
前記ベクトル計算部は、前記対象フレームと前記次のフレームとの間の対象物の対応関係が特定されると、前記次のフレームを新たな対象フレームとして、前記新たな対象フレームから検出された対象物の速度ベクトルを計算する。
前記ベクトル計算部は、前記対象フレームから検出された対象物の加速度ベクトルを計算し、
前記コスト計算部は、前記加速度ベクトルに基づき、前記エッジのコストを計算する。
前記コスト計算部は、前記速度ベクトル及び前記加速度ベクトルから特定される位置に近い前記次のフレームにおける対象物と結ばれたエッジほど低くなるようにコストを計算し、
前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する。
この発明に係る追跡プログラムは、
映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成処理と、
前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算処理と、
前記ベクトル計算処理によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算処理と、
前記追跡グラフと、前記コスト計算処理によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定処理と
をコンピュータに実行させる。
この発明では、対象フレームと前のフレームとの対応関係に基づき、対象フレームから検出された対象物の速度ベクトルを計算し、計算された速度ベクトルに基づき、対象フレームと次のフレームとの間のエッジのコストを計算する。そして、計算されたコストに基づき、対象フレームと次のフレームとの間の対応関係を特定する。過去の対象物の移動を考慮してコストが計算されるので、精度よく対象物を追跡可能になる。
実施の形態1に係る追跡装置10の構成図。 実施の形態1に係る追跡装置10の全体的な動作のフローチャート。 実施の形態1に係る追跡グラフ40の説明図。 実施の形態1に係るノード41の他の例を示す図。 実施の形態1に係る速度ベクトル34の説明図。 実施の形態1の効果の説明図。 変形例1に係る追跡装置10の構成図。 実施の形態2の効果の説明図。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る追跡装置10の構成を説明する。
追跡装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。
追跡装置10は、通信インタフェース14を介して、撮影装置141と、表示装置142とに接続されている。
追跡装置10は、機能構成要素として、グラフ生成部21と、ベクトル計算部22と、コスト計算部23と、対応特定部24とを備える。追跡装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、追跡装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、追跡装置10の各機能構成要素の機能が実現される。
図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図2から図6を参照して、実施の形態1に係る追跡装置10の動作を説明する。
実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡方法に相当する。また、実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡プログラムの処理に相当する。
図2を参照して、実施の形態1に係る追跡装置10の全体的な動作を説明する。
ここでは、時間的に前のフレーム31から順に対象物32間の対応関係を特定するものとして説明する。したがって、以下の説明では、あるフレーム31の次のフレーム31とは、あるフレーム31の時間的に1つ後のフレーム31であり、あるフレーム31の前のフレーム31とは、あるフレーム31の時間的に1つ前のフレーム31である。
しかし、時間的に後のフレーム31から順に対象物32間の対応関係を特定することも可能である。この場合には、あるフレーム31の次のフレーム31とは、あるフレーム31の時間的に1つ前のフレーム31であり、あるフレーム31の前のフレーム31とは、あるフレーム31の時間的に1つ後のフレーム31である。
(図2のステップS1:グラフ生成処理)
グラフ生成部21は、映像データ30を構成する複数のフレーム31から検出された複数の対象物32それぞれをノード41とし、連続する2つのフレーム31間で対象物32を結ぶエッジ42を設けて追跡グラフ40を生成する。
具体的には、グラフ生成部21は、通信インタフェース14を介して、撮影装置141から映像データ30を取得する。グラフ生成部21は、取得された映像データ30を構成する各フレーム31から人等の対象物32を抽出する。対象物32は、人に限らず、鞄といった物体であってもよい。グラフ生成部21は、図3に示すように、抽出された対象物32をノード41とし、連続する2つのフレーム間で対象物32を結ぶエッジ42をノード41間に設けて、追跡グラフ40を生成する。また、グラフ生成部21は、開始用のノードsと、終了用のノードtとを設け、ノードsと各ノード41との間と、ノードtと各ノード41との間とにもエッジ42を設ける。グラフ生成部21は、各エッジ42を対象として、対象のエッジ42が繋ぐ2つのノード41が表す対象物32の特徴の一致度等から、対象のエッジ42のコスト43を計算する。グラフ生成部21は、計算されたコスト43を対象のエッジ42に割り当てる。グラフ生成部21は、各エッジ42にコスト43が割り当てられた追跡グラフ40をメモリ12に書き込む。
グラフ生成部21は、図4に示すように、各ノード41を2つのノード411とその間を繋ぐエッジ412として表してもよい。そして、グラフ生成部21は、エッジ412に、ノード41が対象物32を表す確率等から計算されたコスト413を割り当ててもよい。
(ステップS2:第1対応特定処理)
対応特定部24は、時間的に最も前のフレーム31と、時間的に前から2番目のフレーム31との間で、対象物32間の対応関係を特定する。
具体的には、対応特定部24は、メモリ12から追跡グラフ40を読み出す。対応特定部24は、ノードsからノードtまでの最短経路問題を、動的計画法を用いて時間的に前から2番目のフレーム31まで解く。動的計画法は、時間的に一方向に最短経路が決まっていく。動的計画法は、例えば、非特許文献1に記載がある。対応特定部24は、決定された経路で接続されている対象物32同士が対応するものと特定する。対応特定部24は、特定された対応関係をメモリ12に書き込む。
以下のステップS3からステップS5の処理が時間的に前から2番目のフレーム31から最後のフレーム31まで1つのフレーム31ずつ順に対象として実行される。
(ステップS3:ベクトル計算処理)
ベクトル計算部22は、複数のフレーム31のうち対象フレーム33から検出された対象物32と、対象フレーム33の前のフレーム31から検出された対象物32との対応関係に基づき、対象フレーム33から検出された対象物32の速度ベクトル34を計算する。
具体的には、ベクトル計算部22は、対象フレーム33から検出された対象物32と、対象フレーム33の前のフレーム31から検出された対象物32との対応関係をメモリ12から読み出す。ベクトル計算部22は、読み出された対応関係が示すように、前のフレーム31における対象物32の位置から対象フレーム33における対象物32の位置に対象物32が移動したとして、対象物32の速度ベクトル34を計算する。つまり、ベクトル計算部22は、図5に示すように、1つのフレーム31当たりに、前のフレーム31における対象物32の位置51から対象フレーム33における対象物32の位置52までの距離だけ、位置51から位置52の方向に移動することを示す速度ベクトル34を計算する。すなわち、ベクトル計算部22は、図5のT=1の時点からT=2の時点における距離及び方向(1)と同じ距離及び方向(2)だけ、T=2の時点からT=3の時点にも移動することを示す速度ベクトル34を計算する。ベクトル計算部22は、計算された速度ベクトル34をメモリ12に書き込む。
(ステップS4:コスト計算処理)
コスト計算部23は、ステップS3で計算された速度ベクトル34に基づき、追跡グラフ40における対象フレーム33と対象フレーム33の次のフレーム31との間で対象物32を結ぶエッジ42のコスト43を再計算する。
具体的には、コスト計算部23は、速度ベクトル34から特定される位置に近いノード41であって、次のフレーム31における対象物32を表すノード41と結ばれたエッジ42ほど低くなるようにコスト43を再計算する。コスト計算部23は、ステップS1でメモリ12に書き込まれたコスト43のうち再計算の対象になったエッジ42のコスト43を、再計算されたコスト43で更新する。
例えば、コスト計算部23は、対象フレーム33と対象フレーム33の次のフレーム31との間で対象物32を結ぶ各エッジ42を対象として、速度ベクトル34から特定される位置に近いノード41と結ばれたエッジ42ほど低い値Xを対象のエッジ42に割り当てる。そして、コスト計算部23は、対象フレーム33と対象フレーム33の次のフレーム31との間で対象物32を結ぶ各エッジ42を対象として、割り当てられた値Xと、ステップS1で計算されているコスト43とに重み付けをした上で合計して、コスト43を再計算する。つまり、コスト計算部23は、ステップS1で計算されているコスト43をYとし、再計算されるコスト43をZとし、α及びβを重み(α+β=1)として、Z=αX+βYによってコスト43を再計算する。
(ステップS5:第2対応特定処理)
対応特定部24は、追跡グラフ40と、ステップS4で再計算されたコスト43とに基づき、対象フレーム33と次のフレーム31との間の対象物32の対応関係を特定する。
具体的には、対応特定部24は、メモリ12から再計算されたコスト43が割り当てられた追跡グラフ40を読み出す。対応特定部24は、ノードsからノードtまでの最短経路問題を、動的計画法を用いて時間的に前から対象フレーム33の次のフレーム31まで解く。なお、時間的に先頭のフレーム31から対象フレーム33までの経路は、ステップS2及び過去に実行されたステップS5の処理で計算済である。したがって、ここでは、対象フレーム33から次のフレーム31への経路が計算される。対応特定部24は、決定された経路で接続されている、対象フレーム33における対象物32と、次のフレーム31における対象物32とが対応するものと特定する。対応特定部24は、特定された対応関係をメモリ12に書き込む。対応特定部24は、特定された対応関係を表示装置142に出力して、表示させてもよい。
***実施の形態1の効果***
以上のように、実施の形態1に係る追跡装置10は、速度ベクトル34を用いて追跡グラフ40におけるエッジ42のコスト43を計算する。そのため、対象物32の過去の移動を考慮した適切なコスト43をエッジ42に割り当てることができる。その結果、精度よく対象物32を追跡することが可能である。
グラフ理論を用いた追跡技術では、最小費用問題を解くことにより対象物の追跡が行なわれる。そのため、事前に全てのエッジのコストが特定されている必要がある。
しかし、実施の形態1に係る追跡装置10では、動的計画法を用いて、時間的に一方向に順に経路を特定する。これにより、後に計算される経路を構成するエッジ42のコスト43を、既に計算済の経路の情報を用いて再計算することが可能である。つまり、対象物32の過去の移動を考慮した適切なコスト43をエッジ42に割り当てることができる。
図6に示すように、映像データ30には、対象物として人物A及び人物Bが映っているとする。
ここで、時刻T=3における人物Aの位置と、時刻T=2における人物Bの位置とが近い。すると、従来のように、速度ベクトル34を用いていない場合には、距離の近い対象物同士を対応付けする傾向があるため、時刻T=2における人物Bと時刻T=3における人物Aとが対応付けされる可能性がある。つまり、時刻T=2における人物Bの位置を基準とする距離d1及び距離d2のうち短い方が優先され、時刻T=2における人物Bと時刻T=3における人物Aとが対応付けされる可能性がある。
しかし、実施の形態1に係る追跡装置10では、速度ベクトル34を考慮してコスト43を計算する。そのため、速度ベクトル34が示す時刻T=3における人物Bの予測位置Pに近い時刻T=3における人物Bが、時刻T=2における人物Bと対応付けされる。つまり、時刻T=3における人物Bの予測位置Pを基準とする距離d3及び距離d4のうち短い方が優先され、時刻T=3における人物Bが、時刻T=2における人物Bと対応付けされる。
このように、速度ベクトル34を考慮してコスト43を計算することにより、移動軌跡の滑らかさ、つまり同じ速度で同じ方向に移動していることを追跡基準に加えることが可能になる。
***他の構成***
<変形例1>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
図7を参照して、変形例1に係る追跡装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、追跡装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
<変形例2>
変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
実施の形態2は、速度ベクトル34に加えて、あるいは、速度ベクトル34に代えて、速度ベクトル34の変化を表す加速度ベクトル35を考慮してコスト43を計算する点が実施の形態1と異なる。
***動作の説明***
図2を参照して、実施の形態2に係る追跡装置10の動作を説明する。
実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡方法に相当する。また、実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡プログラムの処理に相当する。
ここでは、速度ベクトル34に加えて加速度ベクトル35を考慮してコスト43を計算する場合の処理を説明する。
ステップS1からステップS2の処理と、ステップS5の処理とは、実施の形態1と同じである。
(ステップS3:ベクトル計算処理)
時間的に前から2番目のフレーム31を対象フレーム33とする場合には、ベクトル計算部22は、実施の形態1と同様に、速度ベクトル34を計算する。時間的に前から3番目以降のフレーム31を対象フレーム33とする場合には、ベクトル計算部22は、速度ベクトル34だけでなく、加速度ベクトル35も計算する。
速度ベクトル34を計算する場合には、2つのフレーム31についての対応関係が分かれば計算できた。しかし、加速度ベクトル35を計算する場合には、3つのフレーム31についての対応関係が必要となる。そのため、時間的に前から2番目のフレーム31を対象フレーム33とする場合には、加速度ベクトル35を計算することができない。
(ステップS4:コスト計算処理)
コスト計算部23は、速度ベクトル34と、ステップS3で加速度ベクトル35が計算された場合には加速度ベクトル35も考慮して、コスト43を再計算する。具体的には、コスト計算部23は、速度ベクトル34及び加速度ベクトル35から特定される位置に近い次のフレーム31における対象物32を表すノード41と結ばれたエッジ42ほど低くなるようにコスト43を再計算する。
以上のように、実施の形態2に係る追跡装置10は、加速度ベクトル35を考慮してコスト43を計算した。そのため、より適切なコスト43をエッジ42に割り当てることができる。その結果、精度よく対象物32を追跡することが可能である。
具体的には、対象物32が加速度一定の運動をする場合には精度よく対象物32を追跡することができる。具体例としては、対象物32が放物線を描く運動をする場合は、加速度一定の運動をする場合である。カーブを曲る場合は、放物線に近い軌跡を描く。
例えば、図8に示すように、速度ベクトル34のみを考慮する場合には、T=2,3の時点における位置から計算された速度ベクトル34が示す予測位置Xに基づきコスト43が計算される。しかし、加速度ベクトル35も考慮する場合には、T=2,3の時点における位置から計算された速度ベクトル34と、T=1〜3の時点における位置から計算された加速度ベクトル35とが示す予測位置Yに基づきコスト43が計算される。そのため、加速度一定の運動をする場合には、加速度ベクトル35を考慮した方が予測位置と現実の位置が近くなり、コスト43が小さくなる。そのため、正しく対応付けされる可能性が高くなる。
<変形例3>
実施の形態2では、速度ベクトル34の変化を表す加速度ベクトル35を考慮してコスト43を計算した。しかし、加速度ベクトル35に限らず、加速度ベクトル35の変化を表すベクトル等を考慮してコスト43を計算してもよい。
10 追跡装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 グラフ生成部、22 ベクトル計算部、23 コスト計算部、24 対応特定部、30 映像データ、31 フレーム、32 対象物、33 対象フレーム、34 速度ベクトル、35 加速度ベクトル、40 追跡グラフ、41 ノード、411 ノード、412 エッジ、413 コスト、42 エッジ、43 コスト。

Claims (6)

  1. 映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成部と、
    前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算部と、
    前記ベクトル計算部によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算部と、
    前記追跡グラフと、前記コスト計算部によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定部と
    を備える追跡装置。
  2. 前記コスト計算部は、前記速度ベクトルから特定される位置に近い前記次のフレームにおける対象物を表すノードと結ばれたエッジほど低くなるようにコストを計算し、
    前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する
    請求項1に記載の追跡装置。
  3. 前記ベクトル計算部は、前記対象フレームと前記次のフレームとの間の対象物の対応関係が特定されると、前記次のフレームを新たな対象フレームとして、前記新たな対象フレームから検出された対象物の速度ベクトルを計算する
    請求項1又は2に記載の追跡装置。
  4. 前記ベクトル計算部は、前記対象フレームから検出された対象物の加速度ベクトルを計算し、
    前記コスト計算部は、前記加速度ベクトルに基づき、前記エッジのコストを計算する
    請求項1から3までのいずれか1項に記載の追跡装置。
  5. 前記コスト計算部は、前記速度ベクトル及び前記加速度ベクトルから特定される位置に近い前記次のフレームにおける対象物と結ばれたエッジほど低くなるようにコストを計算し、
    前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する
    請求項4に記載の追跡装置。
  6. 映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成処理と、
    前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算処理と、
    前記ベクトル計算処理によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算処理と、
    前記追跡グラフと、前記コスト計算処理によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定処理と
    をコンピュータに実行させる追跡プログラム。
JP2017223642A 2017-11-21 2017-11-21 追跡装置及び追跡プログラム Active JP6550442B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017223642A JP6550442B2 (ja) 2017-11-21 2017-11-21 追跡装置及び追跡プログラム
PCT/JP2018/031577 WO2019102675A1 (ja) 2017-11-21 2018-08-27 追跡装置及び追跡プログラム
GB2006880.5A GB2581715B (en) 2017-11-21 2018-08-27 Tracking device and tracking program
US16/834,015 US11189038B2 (en) 2017-11-21 2020-03-30 Tracking apparatus and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223642A JP6550442B2 (ja) 2017-11-21 2017-11-21 追跡装置及び追跡プログラム

Publications (2)

Publication Number Publication Date
JP2019095975A true JP2019095975A (ja) 2019-06-20
JP6550442B2 JP6550442B2 (ja) 2019-07-24

Family

ID=66631507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223642A Active JP6550442B2 (ja) 2017-11-21 2017-11-21 追跡装置及び追跡プログラム

Country Status (4)

Country Link
US (1) US11189038B2 (ja)
JP (1) JP6550442B2 (ja)
GB (1) GB2581715B (ja)
WO (1) WO2019102675A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139559A (zh) * 2020-01-17 2021-07-20 初速度(苏州)科技有限公司 一种目标检测模型的训练方法、数据的标注方法和装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705793B2 (en) 2009-10-08 2014-04-22 University Of Southern California Object tracking by hierarchical association of detection responses
WO2013128852A1 (ja) 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム
WO2014112407A1 (ja) 2013-01-16 2014-07-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US11373272B2 (en) * 2015-06-05 2022-06-28 MindAptiv, LLC Digital gradient signal processing system and method for signals comprising at least three dimensions
US10229347B2 (en) * 2017-05-14 2019-03-12 International Business Machines Corporation Systems and methods for identifying a target object in an image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139559A (zh) * 2020-01-17 2021-07-20 初速度(苏州)科技有限公司 一种目标检测模型的训练方法、数据的标注方法和装置
CN113139559B (zh) * 2020-01-17 2022-06-24 魔门塔(苏州)科技有限公司 一种目标检测模型的训练方法、数据的标注方法和装置

Also Published As

Publication number Publication date
JP6550442B2 (ja) 2019-07-24
US20200226766A1 (en) 2020-07-16
US11189038B2 (en) 2021-11-30
GB2581715B (en) 2021-03-24
GB2581715A (en) 2020-08-26
WO2019102675A1 (ja) 2019-05-31
GB202006880D0 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
US10824916B2 (en) Weakly supervised learning for classifying images
US20210090327A1 (en) Neural network processing for multi-object 3d modeling
US11379519B2 (en) Query response device and method
US10013628B2 (en) Information processing apparatus and information processing method
EP2973427B1 (en) Continuous interaction learning and detection in real-time
EP3218873A1 (en) Systems and methods for tracking an object
WO2016120132A1 (en) Method and apparatus for generating an initial superpixel label map for an image
KR20190013162A (ko) 컨볼루션 뉴럴 네트워크를 위한 하드웨어 가속기 및 컨볼루션 연산량 감소 방법
US20140297989A1 (en) Information processing apparatus and memory control method
JP6550442B2 (ja) 追跡装置及び追跡プログラム
CN112396085A (zh) 识别图像的方法和设备
US9824462B2 (en) Method for detecting object and object detecting apparatus
JP2017010255A (ja) 画像認識装置および画像認識方法
KR101555876B1 (ko) 영상 합성을 위한 객체 추적 방법 및 시스템
KR20210052844A (ko) 주목도 기반 객체 분할을 이용한 비지도 비디오 객체 분할장치 및 방법
TW202026949A (zh) 物件偵測方法及其相關電腦系統
US20210374543A1 (en) System, training device, training method, and predicting device
CN115310277A (zh) 模型训练的方法、系统、设备及存储介质
CN115731607A (zh) 对铰接式对象执行遮挡感知全局3d姿势和形状估计
JP2023553630A (ja) キーポイントベースの行動位置特定
JP6427650B1 (ja) 追跡装置及び追跡プログラム
WO2022024294A1 (ja) 行動特定装置、行動特定方法及び行動特定プログラム
JP2018022315A (ja) 画像認識装置、画像認識システム、及び画像認識方法
US11922710B2 (en) Character recognition method, character recognition device and non-transitory computer readable medium
JPWO2020110272A1 (ja) 機械学習装置、機械学習方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R150 Certificate of patent or registration of utility model

Ref document number: 6550442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250