JP2020086879A - 座標変換行列推定方法及びコンピュータプログラム - Google Patents
座標変換行列推定方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2020086879A JP2020086879A JP2018219735A JP2018219735A JP2020086879A JP 2020086879 A JP2020086879 A JP 2020086879A JP 2018219735 A JP2018219735 A JP 2018219735A JP 2018219735 A JP2018219735 A JP 2018219735A JP 2020086879 A JP2020086879 A JP 2020086879A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- person
- node
- detection result
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011159 matrix material Substances 0.000 title claims abstract description 124
- 230000009466 transformation Effects 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004590 computer program Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 212
- 238000003384 imaging method Methods 0.000 claims abstract description 46
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000006243 chemical reaction Methods 0.000 claims description 68
- 238000012545 processing Methods 0.000 description 133
- 238000010276 construction Methods 0.000 description 34
- 230000002093 peripheral effect Effects 0.000 description 25
- 238000011156 evaluation Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
Description
一方で、解析の対象となり得る潜在的なスポーツ映像の規模は極めて大きく、これらを全て人手で分析するには膨大なコストと時間がかかる。スポーツ映像の分析を機械で自動的に行うことができれば、大規模なデータに潜む有益な知見をもれなく収集することが可能になると考えられる。したがって、スポーツ映像の自動分析の実現に寄与する技術の産業価値は極めて高い。
非特許文献1では、各映像フレームに撮像されているフィールド中の特徴的な領域(例えば、ラインやサークル)を予め検出しておき、特徴的な領域を複数の映像フレーム間で対応付けることで座標変換行列のパラメータを推定している。
また、非特許文献2では、画像中の各ピクセルを「センターサークル」、「サイドライン」、「芝」などといったクラスに割り当てるニューラルネットワークを事前に学習しておき、その出力に基づいて映像フレームを対応付けて座標変換行列のパラメータを推定している。
上記事情に鑑み、本発明は、座標変換行列の推定精度を向上させることができる技術の提供を目的としている。
(第1の実施形態)
図1は、第1の実施形態における画像処理システム100の機能構成を示す図である。画像処理システム100は、撮像装置1及び画像処理装置10を備える。
撮像装置1は、撮影対象領域2を撮影する。撮影対象領域2は、例えばサッカーやラグビー等のスポーツが行われる競技場である。撮像装置1は、例えばカメラである。撮像装置1は、撮影対象領域2を動画で撮影することによって、撮影対象領域2の一部又は全てが撮像された複数の映像フレームを生成し、生成した複数の映像フレームを画像処理装置10に出力する。映像フレームは、撮像装置によって撮像された静止画像の一例である。
画像処理装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置10は、画像取得部101、物体検出部102、物体対応付け部103、変換行列推定部104及び画像処理部105を備える装置として機能する。なお、画像処理装置10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)やGPU(Graphics Processing Unit)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
物体検出部102は、画像取得部101によって取得された複数枚の映像フレームそれぞれから、映像フレームに撮像されている物体を検出する。ここで、物体とは、人物、動物、ロボット、乗り物等の自律又は操作に応じて移動可能な移動物体である。以下の説明では、物体が人物である場合を例に説明する。
(参考文献1:Joseph Redmon, Ali Farhadi, “YOLOv3: An Incremental Improvement”, In arXiv, 2018)
変換行列推定部104は、物体検出部102による人物の検出結果と、物体対応付け部103による対応付け結果とに基づいて、映像フレームIt及びIt+t0の座標変換行列Ht,t+t0を推定する。
(参考文献2:Martin A. Fischler, Robert C. Bolles, “Random Sample Consensus: A paradigm for model fitting with applications to image analysis and automated cartography”, In Communications of the ACM, 1981)
画像取得部101は、複数枚の映像フレームを取得する(ステップS101)。画像取得部101は、取得した複数枚の映像フレームを物体検出部102に出力する。物体検出部102は、複数枚の映像フレームそれぞれに撮像されている人物を検出する(ステップS102)。第1の実施形態における物体検出部102は、上述したように特定物体検出器であり、映像フレームに撮像されている特定人物のラベルを矩形四隅の座標値とともに人物検出結果として物体対応付け部103及び変換行列推定部104に出力する。
映像フレーム20では、4人の人物21−1〜21−4が検出されている。検出された人物21−1〜21−4には、特定物体検出器により各人物を特定するためのラベルが付与される。図3(A)では、人物21−1が物体検出部102により“人物1”に分類されて“人物1”のラベルが付与され、人物21−2が物体検出部102により“人物2”に分類されて“人物2”のラベルが付与され、人物21−3が物体検出部102により“人物3”に分類されて“人物3”のラベルが付与され、人物21−4が物体検出部102により“人物4”に分類されて“人物4”のラベルが付与されたことが示されている。
物体検出部102は、映像フレーム20の人物検出結果として、各人物21−1〜21−4の分類結果を示すラベルと、各人物21−1〜21−4を囲う領域22−1〜22−4の矩形四隅の座標値を取得する。
物体検出部102は、映像フレーム30の人物検出結果として、各人物31−1〜31−3の分類結果を示すラベルと、各人物31−1〜31−3を囲う領域32−1〜32−3の矩形四隅の座標値を取得する。
物体対応付け部103は、複数枚の映像フレームから、所定の時間間隔差で撮像された対応付け対象となる複数枚(例えば、2つ)の映像フレームを抽出する(ステップS104)。なお、物体対応付け部103が抽出する映像フレームの抽出開始タイミング及び所定の時間間隔は、予め設定される。物体対応付け部103は、抽出した映像フレームにおける物体検出部102から出力された人物検出結果に基づいて、映像フレーム20における人物の検出結果と、映像フレーム30における人物の検出結果とを対応付ける(ステップS104)。具体的には、物体対応付け部103は、対応付け対象として抽出した複数枚の映像フレームそれぞれにおいて人物検出結果として得られたラベルを用いて映像フレーム20における人物の検出結果と、映像フレーム30における人物の検出結果とを対応付ける。例えば、物体対応付け部103は、同じ情報を示すラベルが付与されている人物検出結果を同一の人物の検出結果として対応付ける。物体対応付け部103は、対応付け結果を変換行列推定部104に出力する。
また、図3に示す例では、映像フレーム20における人物21−3と、映像フレーム30における人物31−1とには、“人物1”を示すラベルが付与されている。そこで、物体対応付け部103は、映像フレーム20における人物21−3と、映像フレーム30における人物31−1とを同一の人物の検出結果として対応付ける。
画像処理装置10が備える一部の機能部は、別の筐体で構成されてもよい。例えば、画像取得部101、物体検出部102、物体対応付け部103及び変換行列推定部104、又は、物体対応付け部103及び変換行列推定部104が、別の筐体で座標変換行列推定装置として構成されてもよい。このように構成される場合、画像処理装置10は、座標変換行列推定装置から座標変換行列を取得して、映像フレームの画像処理を行う。
第2の実施形態では、画像処理装置が、一般物体検出器を用いて映像フレームから人物検出を行い、その結果を用いて座標変換行列のパラメータを推定する構成について説明する。第2の実施形態において、画像処理システム100全体の構成については第1の実施形態と同様であり、画像処理装置の構成のみが異なる。
画像処理装置10aは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置10aは、画像取得部101、物体検出部102a、物体対応付け部103a、変換行列推定部104及び画像処理部105を備える装置として機能する。なお、画像処理装置10aの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
1つ目の方法として、暫定対応付け部1031は、参考文献2に開示された方法により、映像フレームItにおける人物検出結果から抽出された画像特徴量と、映像フレームIt+t0における人物検出結果から抽出された画像特徴量との類似度を算出し、類似度が第1の閾値以上の人物検出結果同士を暫定的に対応付ける。
画像取得部101は、複数枚の映像フレームを取得する(ステップS201)。画像取得部101は、取得した複数枚の映像フレームを物体検出部102aに出力する。物体検出部102aは、複数枚の映像フレームそれぞれに撮像されている人物を検出する(ステップS202)。第2の実施形態における物体検出部102aは、上述したように一般物体検出器であり、検出された人物を囲う矩形四隅の座標値を人物検出結果として暫定対応付け部1031及び変換行列推定部104に出力する。
映像フレーム20では、4人の人物21−1〜21−4が検出されている。物体検出部102aは、映像フレーム20の検出結果として、各人物21−1〜21−4を囲う領域22−1〜22−4の矩形四隅の座標値を取得する。
映像フレーム30では、3人の人物31−1〜31−3が検出されている。物体検出部102aは、映像フレーム30の検出結果として、各人物31−1〜31−3を囲う領域32−1〜32−3の矩形四隅の座標値を取得する。
暫定対応付け部1031は、複数枚の映像フレームから、所定の時間間隔差で撮像された対応付け対象となる複数枚(例えば、2つ)の映像フレームを抽出する(ステップS203)。なお、暫定対応付け部1031が抽出する映像フレームの抽出開始タイミング及び所定の時間間隔は、予め設定される。暫定対応付け部1031は、抽出した映像フレームにおける物体検出部102aから出力された人物検出結果に基づいて、映像フレーム20における人物の検出結果と、映像フレーム30における人物の検出結果とを暫定的に対応付ける(ステップS204)。暫定対応付け部1031は、暫定対応付けの結果をグラフ構築部1032に出力する。
グラフ構築部1032は、暫定対応付け部1031で得られた暫定対応付けされた人物検出結果の組それぞれをノードとして仮想上に配置することによって、暫定対応付けされた人物検出結果の組それぞれをノードとして仮想上に配置したグラフを構築する(ステップS205)。
図9の上部には暫定対応付け部1031で得られた暫定対応付けの結果が示され、図9の下部には暫定対応付けの結果それぞれをノードとし、各ノードが配置されたグラフが示されている。ノード40−21は、人物21−2の検出結果と、人物31−1の検出結果との対応付けを示すノードである。ノード40−41は、人物22−2の検出結果と、人物31−3の検出結果との対応付けを示すノードである。
一方、エッジ42で接続されていないノード40−21、40−33、40−12及び40−41は、グラフにおけるノードペアの中で幾何的な一貫性がないとして評価されたことが示されている。
選択部1033は、グラフ構築部1032から出力された情報に基づいて、クラスタ抽出処理を実行する(ステップS206)。クラスタ抽出処理とは、正しい対応付けと予想されるノードを含むクラスタを抽出する処理である。クラスタ抽出処理の詳細については図11で説明する。
選択部1033は、グラフ構築部1032によって構築されたエッジを含むグラフにおいて、最も次数の高いノードを選択する(ステップS301)。ここで次数とは、ノードに接続されているエッジの数を表す。エッジの数が多いということは、接続しているノードが多いということである。すなわち、選択部1033は、グラフにおいて、接続しているノードが最も多いノードを選択する。例えば、図10の場合、エッジの数が多いノードは、ノード40−41、40−31及び40−42である。そのため、選択部1033は、ノード40−41、40−31及び40−42のいずれかを選択する。
一方、選択したノードの次数が第3の閾値以上である場合(ステップS302−YES)、選択部1033はクラスタの初期化を行う(ステップS304)。具体的には、選択部1033は、空集合でクラスタを初期化する。これにより、クラスタにはノードがいずれも含まれなくなる。選択部1033は、クラスタの初期化後に周辺ノードに対してランキング付けを行う(ステップS305)。周辺ノードとは、ステップS301の処理で選択されたノード以外のノードである。
(参考文献3:Reid Andersen, Fan Chung, Kevin Lang, “Local Graph Partitioning using PageRank Vectors”, In Proc. IEEE Annual Symposium on Foundations of Computer Science (FOCS), 2006)
一方、選択部1033は、選択した周辺ノードを構成する人物の検出結果が、既にクラスタに含まれているノードを構成する人物の検出結果として使用されていない場合には、選択した周辺ノードをクラスタへの追加条件を満たすと判定する。
一方、評価値scoreが前回の評価値scoreよりも高くなっている場合(ステップS313−YES)、選択部1033は前回の評価値scoreを算出した際のクラスタを選択する。そして、選択部1033は、選択したクラスタを最適なクラスタとして抽出する(ステップS314)。なお、選択部1033は、前回の評価値scoreが記憶されていない場合には、比較ができないため高くなっていないと判定する。
一方、抽出したクラスタのサイズが第4の閾値以上である場合(ステップS315−YES)、選択部1033は選択したクラスタをクラスタ抽出処理の結果として出力する(ステップS316)。選択部1033で出力されるクラスタは、クラスタに含まれる全てのノードに対応する人物検出結果が、クラスタに含まれるノード間で共有されないという制約を満たしている。
図12に示すように、図11の処理で選択されたクラスタ41には、ノード40−41、40−31及び40−42が含まれている。変換行列推定部104では、選択部1033によって抽出されたクラスタ41に含まれるノード40−41、40−31及び40−42で示される映像フレーム間の対応付けの結果を用いて座標変換行列を推定する。
画像処理装置10aが備える一部の機能部は、別の筐体で構成されてもよい。例えば、画像取得部101、物体検出部102a、物体対応付け部103a及び変換行列推定部104、又は、物体対応付け部103a及び変換行列推定部104が、別の筐体で座標変換行列推定装置として構成されてもよい。このように構成される場合、画像処理装置10aは、座標変換行列推定装置から座標変換行列を取得して、映像フレームの画像処理を行う。
選択部1033は、周辺ノード全てに対してクラスタへの追加条件を満たすか否かの判定を行うように構成されてもよい。このように構成される場合、選択部1033は、図11のステップS313の処理に代えて、ランキング付けされた周辺ノード全てに対して処理を行ったか否かを判定する。そして、ランキング付けされた周辺ノード全てに対して処理を行っていない場合には、選択部1033はステップS309以降の処理を実行する。一方。ランキング付けされた周辺ノード全てに対して処理を行った場合には、選択部1033は評価値が最小となるクラスタを構成するノードの組み合わせを選択する。そして、選択部1033は、選択したノードの組み合わせで構成されるクラスタを処理結果として抽出する。評価値が最小となるクラスタが複数ある場合には、選択部1033は評価値が最小となるクラスタの中からランダムにクラスタを選択してもよい。
第1の実施形態で説明したように、特定物体人物検出器を用いた場合には特定人物毎のラベルがあるが、学習の精度が低い場合には誤ったラベルが付与されてしまうことや、複数の人物に同じラベルが付与されてしまうことも想定される。そのような場合に第1の実施形態のようにラベルに基づいて人物の検出結果の対応付けを行ってしまうと、座標変換行列のパラメータの推定精度が低下してしまう場合もある。そこで、第3の実施形態では、第1の実施形態のように特定物体人物検出器により特定の人物を検出した後に、第2の実施形態のように暫定対応付けを行って座標変換行列を推定する。
画像処理装置10bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置10aは、画像取得部101、物体検出部102、物体対応付け部103b、変換行列推定部104及び画像処理部105を備える装置として機能する。なお、画像処理装置10bの各機能の全て又は一部は、ASICやPLDやFPGAやGPU等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
画像処理装置10bが備える一部の機能部は、別の筐体で構成されてもよい。例えば、画像取得部101、物体検出部102、物体対応付け部103b及び変換行列推定部104、又は、物体対応付け部103b及び変換行列推定部104が、別の筐体で座標変換行列推定装置として構成されてもよい。このように構成される場合、画像処理装置10bは、座標変換行列推定装置から座標変換行列を取得して、映像フレームの画像処理を行う。
第4の実施形態では、複数台のカメラを用いて、異なる視点(例えば、相対する方向)で撮影した複数の画像を用いる場合を例に説明する。
図14は、第4の実施形態における画像処理システム100cの機能構成を示す図である。画像処理システム100cは、複数の撮像装置1、3及び画像処理装置10cを備える。撮像装置1及び3は、例えば撮影対象領域2を挟んで相対する向きに設置される。なお、複数の撮像装置1及び3の設置位置と撮影方向の向きは既知である。
撮像装置3は、撮影対象領域2を撮影する。撮像装置3は、例えばカメラである。撮像装置3は、撮影対象領域2を撮像することによって映像フレームを生成し、生成した映像フレームを画像処理装置10cに出力する。
画像処理装置10cは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置10cは、画像取得部101c、物体検出部102c、物体対応付け部103c、変換行列推定部104c及び画像処理部105を備える装置として機能する。なお、画像処理装置10cの各機能の全て又は一部は、ASICやPLDやFPGAやGPU等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
撮像装置1及び3は、同じ方向を撮影するように設置されてもよいし、異なる方向を撮影するように設置されてもよい。撮像装置1及び3が同じ方向を撮影するように設置される場合、画像取得部101cはカメラIDによる判定処理を行う必要はない。撮像装置1及び3が異なる方向を撮影するように設置される場合、例えば撮像装置1と撮像装置3とは、直交する方向を向くように設置される。
画像取得部101,101cは、映像フレームを撮像装置以外から取得するように構成されてもよい。具体的には、画像取得部101,101cは、撮影対象領域2の一部又は全てが撮像されている映像フレームを記憶する記憶装置から映像フレームを取得してもよいし、USB(Universal Serial Bus)やSDカードのように持ち運び可能な記録媒体から映像フレームを取得してもよいし、ネットワーク上から映像フレームを取得してもよい。
Claims (8)
- 複数枚の画像それぞれから物体を検出する検出ステップと、
前記複数枚の画像から所定の時間間隔差で撮像された又は、同時刻に異なる撮像装置で撮像された対応付け対象となる複数枚の画像を抽出する抽出ステップと、
前記対応付け対象として抽出された複数枚の画像間における物体の検出結果を対応付ける物体対応付けステップと、
前記物体対応付けステップにおける対応付け結果と、前記物体の検出結果とに基づいて前記画像間の座標変換行列を推定する変換行列推定ステップと、
を有する座標変換行列推定方法。 - 前記検出ステップにおいて、前記物体を検出し、検出した前記物体の分類の判定を行うことによって前記物体を分類し、
前記画像間の物体の検出結果に前記物体の分類結果を示す情報が含まれる場合、前記物体対応付けステップにおいて、前記画像間で同一の分類結果を示す情報が含まれる物体の検出結果を同一の物体の検出結果として対応付ける、請求項1に記載の座標変換行列推定方法。 - 前記物体対応付けステップは、
前記画像間の物体の検出結果を暫定的に対応付ける暫定対応付けステップと、
前記暫定対応付けステップにおいて暫定的に対応付けられた前記画像間の物体の検出結果の組それぞれをノードとしたグラフを構築するグラフ構築ステップと、
前記グラフにおける複数のノードのうち、ノード間で関係性が高い順に割り当てられる優先度の高いノードから順番に、正しい対応付けであると想定される対応付けのノードを含むクラスタへの追加条件を満たすか否かを判定することによって、正しい対応付けであると想定される対応付けのノードを選択する選択ステップと、
を有する請求項1に記載の座標変換行列推定方法。 - 前記検出ステップにおいて、前記物体を検出した後に、検出した前記物体の分類の判定を行うことによって前記物体を分類し、
前記画像間の物体の検出結果に前記物体の分類結果を示す情報が含まれる場合、前記暫定対応付けステップにおいて、前記画像間で同一の分類結果を示す情報が含まれる物体の検出結果を同一の物体の検出結果として暫定的に対応付ける、請求項3に記載の座標変換行列推定方法。 - 前記グラフ構築ステップにおいて、構築した前記グラフに含まれるノードペアの幾何的な一貫性の有無を評価し、幾何的な一貫性があると評価したノードペア間をエッジで接続し、
前記選択ステップにおいて、前記エッジで接続されている数が多いノードを優先度の高いノードとして前記正しい対応付けであると想定される対応付けのノードを選択する、請求項3又は4に記載の座標変換行列推定方法。 - 前記選択ステップにおいて、優先度の高いノードから順番に、前記ノードの特徴点が、既にクラスタに追加されているノードにおける特徴点として使用されていない場合に前記クラスタへの追加条件を満たすと判定し、前記クラスタへの追加条件を満たしたノードを前記クラスタに追加する、請求項3から5のいずれか一項に記載の座標変換行列推定方法。
- 複数の撮像装置によって相対する方向で撮影対象領域が撮影された複数枚の画像それぞれに撮像されている物体の検出結果が入力された場合、
前記物体対応付けステップにおいて、一方の物体の検出結果を逆転させた後に対応付けを行う、請求項1から6のいずれか一項に記載の座標変換行列推定方法。 - 請求項1〜7のいずれか一項に記載の座標変換行列推定方法を実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219735A JP7195892B2 (ja) | 2018-11-22 | 2018-11-22 | 座標変換行列推定方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219735A JP7195892B2 (ja) | 2018-11-22 | 2018-11-22 | 座標変換行列推定方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020086879A true JP2020086879A (ja) | 2020-06-04 |
JP7195892B2 JP7195892B2 (ja) | 2022-12-26 |
Family
ID=70909997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018219735A Active JP7195892B2 (ja) | 2018-11-22 | 2018-11-22 | 座標変換行列推定方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7195892B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114125178A (zh) * | 2021-11-16 | 2022-03-01 | 阿里巴巴达摩院(杭州)科技有限公司 | 视频拼接方法、设备和可读介质 |
JP7497223B2 (ja) | 2020-06-16 | 2024-06-10 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017130889A (ja) * | 2016-01-22 | 2017-07-27 | Kddi株式会社 | カメラのキャリブレーション装置、方法及びプログラム |
-
2018
- 2018-11-22 JP JP2018219735A patent/JP7195892B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017130889A (ja) * | 2016-01-22 | 2017-07-27 | Kddi株式会社 | カメラのキャリブレーション装置、方法及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7497223B2 (ja) | 2020-06-16 | 2024-06-10 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN114125178A (zh) * | 2021-11-16 | 2022-03-01 | 阿里巴巴达摩院(杭州)科技有限公司 | 视频拼接方法、设备和可读介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7195892B2 (ja) | 2022-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shen et al. | Multiobject tracking by submodular optimization | |
CN111462200B (zh) | 一种跨视频行人定位追踪方法、系统及设备 | |
US9117147B2 (en) | Marginal space learning for multi-person tracking over mega pixel imagery | |
Tran et al. | Optimal spatio-temporal path discovery for video event detection | |
Ren et al. | Multi-camera video surveillance for real-time analysis and reconstruction of soccer games | |
CN110781733B (zh) | 图像去重方法、存储介质、网络设备和智能监控系统 | |
Ratan et al. | Object detection and localization by dynamic template warping | |
Kumar et al. | Discriminative label propagation for multi-object tracking with sporadic appearance features | |
Xu et al. | Wide-baseline multi-camera calibration using person re-identification | |
JP7195892B2 (ja) | 座標変換行列推定方法及びコンピュータプログラム | |
Hsieh et al. | Abnormal scene change detection from a moving camera using bags of patches and spider-web map | |
Huang et al. | Tracking multiple deformable objects in egocentric videos | |
JP7334058B2 (ja) | 幾何パラメータ推定装置、幾何パラメータ推定システム、幾何パラメータ推定方法及びコンピュータプログラム | |
Gad et al. | Crowd density estimation using multiple features categories and multiple regression models | |
Chen et al. | Player trajectory reconstruction for tactical analysis | |
CN113793362B (zh) | 基于多镜头视频的行人轨迹提取方法和装置 | |
Kim et al. | Directional pedestrian counting with a hybrid map-based model | |
Yu et al. | Playfield and ball detection in soccer video | |
Chen et al. | Player trajectory reconstruction from broadcast basketball video | |
Arbués-Sangüesa et al. | Multi-Person tracking by multi-scale detection in Basketball scenarios | |
CN111191524A (zh) | 运动人群计数方法 | |
Fu et al. | Crowd counting via head detection and motion flow estimation | |
JP7253969B2 (ja) | 幾何パラメータ推定装置、幾何パラメータ推定システム、幾何パラメータ推定方法及びコンピュータプログラム | |
Malon et al. | Story comparison for estimating field of view overlap in a video collection | |
Hassen et al. | Mono-camera person tracking based on template matching and covariance descriptor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7195892 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |