JP2019095975A - 追跡装置及び追跡プログラム - Google Patents
追跡装置及び追跡プログラム Download PDFInfo
- Publication number
- JP2019095975A JP2019095975A JP2017223642A JP2017223642A JP2019095975A JP 2019095975 A JP2019095975 A JP 2019095975A JP 2017223642 A JP2017223642 A JP 2017223642A JP 2017223642 A JP2017223642 A JP 2017223642A JP 2019095975 A JP2019095975 A JP 2019095975A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- cost
- correspondence
- vector
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 claims abstract description 93
- 238000004364 calculation method Methods 0.000 claims abstract description 46
- 230000001133 acceleration Effects 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 14
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、グラフ理論を用いて精度よく対象物を追跡可能にすることを目的とする。
映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成部と、
前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算部と、
前記ベクトル計算部によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算部と、
前記追跡グラフと、前記コスト計算部によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定部と
を備える。
前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する。
前記コスト計算部は、前記加速度ベクトルに基づき、前記エッジのコストを計算する。
前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する。
映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成処理と、
前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算処理と、
前記ベクトル計算処理によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算処理と、
前記追跡グラフと、前記コスト計算処理によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定処理と
をコンピュータに実行させる。
***構成の説明***
図1を参照して、実施の形態1に係る追跡装置10の構成を説明する。
追跡装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
追跡装置10は、通信インタフェース14を介して、撮影装置141と、表示装置142とに接続されている。
ストレージ13には、追跡装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、追跡装置10の各機能構成要素の機能が実現される。
図2から図6を参照して、実施の形態1に係る追跡装置10の動作を説明する。
実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡方法に相当する。また、実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡プログラムの処理に相当する。
ここでは、時間的に前のフレーム31から順に対象物32間の対応関係を特定するものとして説明する。したがって、以下の説明では、あるフレーム31の次のフレーム31とは、あるフレーム31の時間的に1つ後のフレーム31であり、あるフレーム31の前のフレーム31とは、あるフレーム31の時間的に1つ前のフレーム31である。
しかし、時間的に後のフレーム31から順に対象物32間の対応関係を特定することも可能である。この場合には、あるフレーム31の次のフレーム31とは、あるフレーム31の時間的に1つ前のフレーム31であり、あるフレーム31の前のフレーム31とは、あるフレーム31の時間的に1つ後のフレーム31である。
グラフ生成部21は、映像データ30を構成する複数のフレーム31から検出された複数の対象物32それぞれをノード41とし、連続する2つのフレーム31間で対象物32を結ぶエッジ42を設けて追跡グラフ40を生成する。
具体的には、グラフ生成部21は、通信インタフェース14を介して、撮影装置141から映像データ30を取得する。グラフ生成部21は、取得された映像データ30を構成する各フレーム31から人等の対象物32を抽出する。対象物32は、人に限らず、鞄といった物体であってもよい。グラフ生成部21は、図3に示すように、抽出された対象物32をノード41とし、連続する2つのフレーム間で対象物32を結ぶエッジ42をノード41間に設けて、追跡グラフ40を生成する。また、グラフ生成部21は、開始用のノードsと、終了用のノードtとを設け、ノードsと各ノード41との間と、ノードtと各ノード41との間とにもエッジ42を設ける。グラフ生成部21は、各エッジ42を対象として、対象のエッジ42が繋ぐ2つのノード41が表す対象物32の特徴の一致度等から、対象のエッジ42のコスト43を計算する。グラフ生成部21は、計算されたコスト43を対象のエッジ42に割り当てる。グラフ生成部21は、各エッジ42にコスト43が割り当てられた追跡グラフ40をメモリ12に書き込む。
対応特定部24は、時間的に最も前のフレーム31と、時間的に前から2番目のフレーム31との間で、対象物32間の対応関係を特定する。
具体的には、対応特定部24は、メモリ12から追跡グラフ40を読み出す。対応特定部24は、ノードsからノードtまでの最短経路問題を、動的計画法を用いて時間的に前から2番目のフレーム31まで解く。動的計画法は、時間的に一方向に最短経路が決まっていく。動的計画法は、例えば、非特許文献1に記載がある。対応特定部24は、決定された経路で接続されている対象物32同士が対応するものと特定する。対応特定部24は、特定された対応関係をメモリ12に書き込む。
ベクトル計算部22は、複数のフレーム31のうち対象フレーム33から検出された対象物32と、対象フレーム33の前のフレーム31から検出された対象物32との対応関係に基づき、対象フレーム33から検出された対象物32の速度ベクトル34を計算する。
具体的には、ベクトル計算部22は、対象フレーム33から検出された対象物32と、対象フレーム33の前のフレーム31から検出された対象物32との対応関係をメモリ12から読み出す。ベクトル計算部22は、読み出された対応関係が示すように、前のフレーム31における対象物32の位置から対象フレーム33における対象物32の位置に対象物32が移動したとして、対象物32の速度ベクトル34を計算する。つまり、ベクトル計算部22は、図5に示すように、1つのフレーム31当たりに、前のフレーム31における対象物32の位置51から対象フレーム33における対象物32の位置52までの距離だけ、位置51から位置52の方向に移動することを示す速度ベクトル34を計算する。すなわち、ベクトル計算部22は、図5のT=1の時点からT=2の時点における距離及び方向(1)と同じ距離及び方向(2)だけ、T=2の時点からT=3の時点にも移動することを示す速度ベクトル34を計算する。ベクトル計算部22は、計算された速度ベクトル34をメモリ12に書き込む。
コスト計算部23は、ステップS3で計算された速度ベクトル34に基づき、追跡グラフ40における対象フレーム33と対象フレーム33の次のフレーム31との間で対象物32を結ぶエッジ42のコスト43を再計算する。
具体的には、コスト計算部23は、速度ベクトル34から特定される位置に近いノード41であって、次のフレーム31における対象物32を表すノード41と結ばれたエッジ42ほど低くなるようにコスト43を再計算する。コスト計算部23は、ステップS1でメモリ12に書き込まれたコスト43のうち再計算の対象になったエッジ42のコスト43を、再計算されたコスト43で更新する。
例えば、コスト計算部23は、対象フレーム33と対象フレーム33の次のフレーム31との間で対象物32を結ぶ各エッジ42を対象として、速度ベクトル34から特定される位置に近いノード41と結ばれたエッジ42ほど低い値Xを対象のエッジ42に割り当てる。そして、コスト計算部23は、対象フレーム33と対象フレーム33の次のフレーム31との間で対象物32を結ぶ各エッジ42を対象として、割り当てられた値Xと、ステップS1で計算されているコスト43とに重み付けをした上で合計して、コスト43を再計算する。つまり、コスト計算部23は、ステップS1で計算されているコスト43をYとし、再計算されるコスト43をZとし、α及びβを重み(α+β=1)として、Z=αX+βYによってコスト43を再計算する。
対応特定部24は、追跡グラフ40と、ステップS4で再計算されたコスト43とに基づき、対象フレーム33と次のフレーム31との間の対象物32の対応関係を特定する。
具体的には、対応特定部24は、メモリ12から再計算されたコスト43が割り当てられた追跡グラフ40を読み出す。対応特定部24は、ノードsからノードtまでの最短経路問題を、動的計画法を用いて時間的に前から対象フレーム33の次のフレーム31まで解く。なお、時間的に先頭のフレーム31から対象フレーム33までの経路は、ステップS2及び過去に実行されたステップS5の処理で計算済である。したがって、ここでは、対象フレーム33から次のフレーム31への経路が計算される。対応特定部24は、決定された経路で接続されている、対象フレーム33における対象物32と、次のフレーム31における対象物32とが対応するものと特定する。対応特定部24は、特定された対応関係をメモリ12に書き込む。対応特定部24は、特定された対応関係を表示装置142に出力して、表示させてもよい。
以上のように、実施の形態1に係る追跡装置10は、速度ベクトル34を用いて追跡グラフ40におけるエッジ42のコスト43を計算する。そのため、対象物32の過去の移動を考慮した適切なコスト43をエッジ42に割り当てることができる。その結果、精度よく対象物32を追跡することが可能である。
しかし、実施の形態1に係る追跡装置10では、動的計画法を用いて、時間的に一方向に順に経路を特定する。これにより、後に計算される経路を構成するエッジ42のコスト43を、既に計算済の経路の情報を用いて再計算することが可能である。つまり、対象物32の過去の移動を考慮した適切なコスト43をエッジ42に割り当てることができる。
ここで、時刻T=3における人物Aの位置と、時刻T=2における人物Bの位置とが近い。すると、従来のように、速度ベクトル34を用いていない場合には、距離の近い対象物同士を対応付けする傾向があるため、時刻T=2における人物Bと時刻T=3における人物Aとが対応付けされる可能性がある。つまり、時刻T=2における人物Bの位置を基準とする距離d1及び距離d2のうち短い方が優先され、時刻T=2における人物Bと時刻T=3における人物Aとが対応付けされる可能性がある。
しかし、実施の形態1に係る追跡装置10では、速度ベクトル34を考慮してコスト43を計算する。そのため、速度ベクトル34が示す時刻T=3における人物Bの予測位置Pに近い時刻T=3における人物Bが、時刻T=2における人物Bと対応付けされる。つまり、時刻T=3における人物Bの予測位置Pを基準とする距離d3及び距離d4のうち短い方が優先され、時刻T=3における人物Bが、時刻T=2における人物Bと対応付けされる。
このように、速度ベクトル34を考慮してコスト43を計算することにより、移動軌跡の滑らかさ、つまり同じ速度で同じ方向に移動していることを追跡基準に加えることが可能になる。
<変形例1>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、追跡装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、速度ベクトル34に加えて、あるいは、速度ベクトル34に代えて、速度ベクトル34の変化を表す加速度ベクトル35を考慮してコスト43を計算する点が実施の形態1と異なる。
図2を参照して、実施の形態2に係る追跡装置10の動作を説明する。
実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡方法に相当する。また、実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡プログラムの処理に相当する。
ステップS1からステップS2の処理と、ステップS5の処理とは、実施の形態1と同じである。
時間的に前から2番目のフレーム31を対象フレーム33とする場合には、ベクトル計算部22は、実施の形態1と同様に、速度ベクトル34を計算する。時間的に前から3番目以降のフレーム31を対象フレーム33とする場合には、ベクトル計算部22は、速度ベクトル34だけでなく、加速度ベクトル35も計算する。
速度ベクトル34を計算する場合には、2つのフレーム31についての対応関係が分かれば計算できた。しかし、加速度ベクトル35を計算する場合には、3つのフレーム31についての対応関係が必要となる。そのため、時間的に前から2番目のフレーム31を対象フレーム33とする場合には、加速度ベクトル35を計算することができない。
コスト計算部23は、速度ベクトル34と、ステップS3で加速度ベクトル35が計算された場合には加速度ベクトル35も考慮して、コスト43を再計算する。具体的には、コスト計算部23は、速度ベクトル34及び加速度ベクトル35から特定される位置に近い次のフレーム31における対象物32を表すノード41と結ばれたエッジ42ほど低くなるようにコスト43を再計算する。
具体的には、対象物32が加速度一定の運動をする場合には精度よく対象物32を追跡することができる。具体例としては、対象物32が放物線を描く運動をする場合は、加速度一定の運動をする場合である。カーブを曲る場合は、放物線に近い軌跡を描く。
例えば、図8に示すように、速度ベクトル34のみを考慮する場合には、T=2,3の時点における位置から計算された速度ベクトル34が示す予測位置Xに基づきコスト43が計算される。しかし、加速度ベクトル35も考慮する場合には、T=2,3の時点における位置から計算された速度ベクトル34と、T=1〜3の時点における位置から計算された加速度ベクトル35とが示す予測位置Yに基づきコスト43が計算される。そのため、加速度一定の運動をする場合には、加速度ベクトル35を考慮した方が予測位置と現実の位置が近くなり、コスト43が小さくなる。そのため、正しく対応付けされる可能性が高くなる。
実施の形態2では、速度ベクトル34の変化を表す加速度ベクトル35を考慮してコスト43を計算した。しかし、加速度ベクトル35に限らず、加速度ベクトル35の変化を表すベクトル等を考慮してコスト43を計算してもよい。
Claims (6)
- 映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成部と、
前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算部と、
前記ベクトル計算部によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算部と、
前記追跡グラフと、前記コスト計算部によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定部と
を備える追跡装置。 - 前記コスト計算部は、前記速度ベクトルから特定される位置に近い前記次のフレームにおける対象物を表すノードと結ばれたエッジほど低くなるようにコストを計算し、
前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する
請求項1に記載の追跡装置。 - 前記ベクトル計算部は、前記対象フレームと前記次のフレームとの間の対象物の対応関係が特定されると、前記次のフレームを新たな対象フレームとして、前記新たな対象フレームから検出された対象物の速度ベクトルを計算する
請求項1又は2に記載の追跡装置。 - 前記ベクトル計算部は、前記対象フレームから検出された対象物の加速度ベクトルを計算し、
前記コスト計算部は、前記加速度ベクトルに基づき、前記エッジのコストを計算する
請求項1から3までのいずれか1項に記載の追跡装置。 - 前記コスト計算部は、前記速度ベクトル及び前記加速度ベクトルから特定される位置に近い前記次のフレームにおける対象物と結ばれたエッジほど低くなるようにコストを計算し、
前記対応特定部は、前記コストが低いエッジを優先して選択することにより、前記対応関係を特定する
請求項4に記載の追跡装置。 - 映像データを構成する複数のフレームから検出された複数の対象物それぞれをノードとし、連続する2つのフレーム間で対象物を結ぶエッジを設けて追跡グラフを生成するグラフ生成処理と、
前記複数のフレームのうち対象フレームから検出された対象物と、前記対象フレームの前のフレームから検出された対象物との対応関係に基づき、前記対象フレームから検出された対象物の速度ベクトルを計算するベクトル計算処理と、
前記ベクトル計算処理によって計算された速度ベクトルに基づき、前記追跡グラフにおける前記対象フレームと前記対象フレームの次のフレームとの間で対象物を結ぶエッジのコストを計算するコスト計算処理と、
前記追跡グラフと、前記コスト計算処理によって計算された前記コストとに基づき、前記対象フレームと前記次のフレームとの間の対象物の対応関係を特定する対応特定処理と
をコンピュータに実行させる追跡プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223642A JP6550442B2 (ja) | 2017-11-21 | 2017-11-21 | 追跡装置及び追跡プログラム |
PCT/JP2018/031577 WO2019102675A1 (ja) | 2017-11-21 | 2018-08-27 | 追跡装置及び追跡プログラム |
GB2006880.5A GB2581715B (en) | 2017-11-21 | 2018-08-27 | Tracking device and tracking program |
US16/834,015 US11189038B2 (en) | 2017-11-21 | 2020-03-30 | Tracking apparatus and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223642A JP6550442B2 (ja) | 2017-11-21 | 2017-11-21 | 追跡装置及び追跡プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019095975A true JP2019095975A (ja) | 2019-06-20 |
JP6550442B2 JP6550442B2 (ja) | 2019-07-24 |
Family
ID=66631507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017223642A Active JP6550442B2 (ja) | 2017-11-21 | 2017-11-21 | 追跡装置及び追跡プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11189038B2 (ja) |
JP (1) | JP6550442B2 (ja) |
GB (1) | GB2581715B (ja) |
WO (1) | WO2019102675A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139559A (zh) * | 2020-01-17 | 2021-07-20 | 初速度(苏州)科技有限公司 | 一种目标检测模型的训练方法、数据的标注方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8705793B2 (en) | 2009-10-08 | 2014-04-22 | University Of Southern California | Object tracking by hierarchical association of detection responses |
WO2013128852A1 (ja) | 2012-02-29 | 2013-09-06 | 日本電気株式会社 | 動線情報生成システム、動線情報生成方法および動線情報生成プログラム |
WO2014112407A1 (ja) | 2013-01-16 | 2014-07-24 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
US11373272B2 (en) * | 2015-06-05 | 2022-06-28 | MindAptiv, LLC | Digital gradient signal processing system and method for signals comprising at least three dimensions |
US10229347B2 (en) * | 2017-05-14 | 2019-03-12 | International Business Machines Corporation | Systems and methods for identifying a target object in an image |
-
2017
- 2017-11-21 JP JP2017223642A patent/JP6550442B2/ja active Active
-
2018
- 2018-08-27 WO PCT/JP2018/031577 patent/WO2019102675A1/ja active Application Filing
- 2018-08-27 GB GB2006880.5A patent/GB2581715B/en active Active
-
2020
- 2020-03-30 US US16/834,015 patent/US11189038B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139559A (zh) * | 2020-01-17 | 2021-07-20 | 初速度(苏州)科技有限公司 | 一种目标检测模型的训练方法、数据的标注方法和装置 |
CN113139559B (zh) * | 2020-01-17 | 2022-06-24 | 魔门塔(苏州)科技有限公司 | 一种目标检测模型的训练方法、数据的标注方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6550442B2 (ja) | 2019-07-24 |
US20200226766A1 (en) | 2020-07-16 |
US11189038B2 (en) | 2021-11-30 |
GB2581715B (en) | 2021-03-24 |
GB2581715A (en) | 2020-08-26 |
WO2019102675A1 (ja) | 2019-05-31 |
GB202006880D0 (en) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10824916B2 (en) | Weakly supervised learning for classifying images | |
US20210090327A1 (en) | Neural network processing for multi-object 3d modeling | |
US11379519B2 (en) | Query response device and method | |
US10013628B2 (en) | Information processing apparatus and information processing method | |
EP2973427B1 (en) | Continuous interaction learning and detection in real-time | |
EP3218873A1 (en) | Systems and methods for tracking an object | |
WO2016120132A1 (en) | Method and apparatus for generating an initial superpixel label map for an image | |
KR20190013162A (ko) | 컨볼루션 뉴럴 네트워크를 위한 하드웨어 가속기 및 컨볼루션 연산량 감소 방법 | |
US20140297989A1 (en) | Information processing apparatus and memory control method | |
JP6550442B2 (ja) | 追跡装置及び追跡プログラム | |
CN112396085A (zh) | 识别图像的方法和设备 | |
US9824462B2 (en) | Method for detecting object and object detecting apparatus | |
JP2017010255A (ja) | 画像認識装置および画像認識方法 | |
KR101555876B1 (ko) | 영상 합성을 위한 객체 추적 방법 및 시스템 | |
KR20210052844A (ko) | 주목도 기반 객체 분할을 이용한 비지도 비디오 객체 분할장치 및 방법 | |
TW202026949A (zh) | 物件偵測方法及其相關電腦系統 | |
US20210374543A1 (en) | System, training device, training method, and predicting device | |
CN115310277A (zh) | 模型训练的方法、系统、设备及存储介质 | |
CN115731607A (zh) | 对铰接式对象执行遮挡感知全局3d姿势和形状估计 | |
JP2023553630A (ja) | キーポイントベースの行動位置特定 | |
JP6427650B1 (ja) | 追跡装置及び追跡プログラム | |
WO2022024294A1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
JP2018022315A (ja) | 画像認識装置、画像認識システム、及び画像認識方法 | |
US11922710B2 (en) | Character recognition method, character recognition device and non-transitory computer readable medium | |
JPWO2020110272A1 (ja) | 機械学習装置、機械学習方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6550442 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |