JP7253967B2 - 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム - Google Patents
物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7253967B2 JP7253967B2 JP2019082242A JP2019082242A JP7253967B2 JP 7253967 B2 JP7253967 B2 JP 7253967B2 JP 2019082242 A JP2019082242 A JP 2019082242A JP 2019082242 A JP2019082242 A JP 2019082242A JP 7253967 B2 JP7253967 B2 JP 7253967B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- feature
- frame
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
上記事情に鑑み、本発明は、フレーム間で精度よく同一の物体を対応付けることができる技術の提供を目的としている。
(第1の実施形態)
図1は、第1の実施形態における物体対応付け装置10の機能構成を表す概略ブロック図である。
物体対応付け装置10は、複数のフレームに基づいて、各フレームから対象物体の特徴を抽出し、抽出した複数の特徴を用いて、フレーム間で同一物体の対応付けを行う。ここで、フレームとは、映像を構成する1コマの画像である。例えば、物体対応付け装置10は、撮影時刻の異なる2枚のフレームに基づいてフレーム間の物体の対応付けを行う。なお、2枚のフレームはそれぞれ異なる映像から取得されてもよい。
(参考文献1:Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, “Deep Residual Learning for Image Recognition”, 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).)
(参考文献2:Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich, “Going Deeper with Convolutions”, 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).)
まず、領域抽出部103は、参考文献3で開示されているRegion Proposal Network、又は、参考文献4で開示されているSelective Searchを用いて、物体候補領域を推定する。次に、領域抽出部103は、入力した特徴マップから、物体候補領域に対応する物体候補領域の特徴(以下「領域特徴」という。)を、参考文献5で開示されているRoI Pool、又は、参考文献6で開示されているRoI Alignを用いて抽出する。そして、領域抽出部103は、抽出した領域特徴を用いて、物体候補領域が対象物体を捉えているか否かを多層パーセプトロンやサポートベクターマシン等で分類することによって、物体候補領域を抽出する。
領域抽出部103は、抽出した物体候補領域と、参考文献7で開示されている方法とを用いて、対象物体に相当する前景領域を推定する。そして、領域抽出部103は、推定した前景領域に対応する画素に1の値を割り当て、その他の領域に対応する画素に0の値を割り当てることによって領域マスクを抽出する。又は、領域抽出部103は、参考文献6のようにRoI PoolやRoI Alignによって得られた物体候補領域内の領域特徴を入力として、FCN(Fully Convolutional Network)により対象物体に相当する前景領域を推定する。FCNなどの方法を用いた場合、推定された領域マスクの要素値は実数であるが、これをそのまま出力としてもよいし、あるいは所定の閾値を用いて二値化したものを出力してもよい。
(参考文献3:Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, in NIPS, 2015.)
(参考文献4:J.R.R. Uijlings, K.E.A. van de Sande, T. Gevers, A.W.M. Smeulders, “Selective Search for Object Recognition”, in IJCV, 2013.)
(参考文献5:Ross Girshick, “Fast R-CNN”, ICCV, 2015.)
(参考文献6:Kaiming He, Georgia Gkioxari, Piotr Dollar, Ross Girshick, “Mask R-CNN”, ICCV, 2017.)
(参考文献7:Carsten Rother, Vladimir Kolmogorov, Andrew Blake, ““GrabCut” - Interactive Foreground Extraction using Iterated Graph Cuts”, SIGGRAPH, 2004.)
まず、領域特徴抽出部104は、入力された特徴マップのうち、領域抽出部103から出力された物体候補領域に対応する領域の特徴マップ(以下「領域特徴マップ」という。)を抽出する。領域特徴マップの抽出には、例えば、参考文献5で開示されているRoI Poolや参考文献6で開示されているRoI Alignが用いられてもよい。例えば、領域特徴抽出部104が領域特徴マップの抽出にRoI Alignを用いた場合、領域特徴マップの次元数は7×7×2048である。
図2において、符号201は特徴マップを表し、符号202はフレームを表し、符号203は対象物体の物体候補領域(矩形領域)を表し、符号204は領域マスクを表し、符号205は領域特徴マップを表し、符号206はサイズ調整後の領域マスクを表し、符号207は領域マスクによって重み付けされた領域特徴マップを表し、符号208は領域特徴を表す。特徴マップ201は、空間の空間的構造を特徴化したマップであり、例えば図2に示すように、縦h´、横w´、チャンネル方向の長さc´で構成される。チャンネル方向の長さc´は、次元数に応じて変化する。領域特徴抽出部104は、特徴マップ201から、対象物体の物体候補領域203に対応する領域を領域特徴マップ205として抽出する。図2では、対象物体の物体候補領域203が1つのため、領域特徴マップ205を1つ示しているが、対象物体の物体候補領域203が複数の場合には領域特徴マップ205が特徴マップ201から複数個抽出される。
以上で、領域特徴の抽出方法についての説明を終了する。
画像取得部101は、撮影装置から映像を構成する1コマ分のフレームを取得する(ステップS101)。画像取得部101は、取得したフレームを特徴マップ抽出部102に出力する。
領域抽出部103は、特徴マップ抽出部102から出力された特徴マップを入力として、特徴マップに対応するフレームから対象物体の物体候補領域を抽出する(ステップS103)。また、領域抽出部103は、抽出した対象物体の物体候補領域から対象物体の領域マスクを生成する(ステップS104)。領域抽出部103は、物体候補領域及び領域マスクを領域特徴抽出部104に出力する。
一方、物体対応付け処理を終了しない場合(ステップS108-NO)、物体対応付け装置10はステップS101以降の処理を実行する。この場合、画像取得部101は、バッファにフレームが蓄積されている場合、バッファに蓄積されているフレームのうち古いフレームから順番に読み出す。そして、画像取得部101は、読み出したフレームを特徴マップ抽出部102に出力する。また、画像取得部101は、バッファにフレームが蓄積されていない場合、撮影装置から新たにフレームを取得すると、取得したフレームを特徴マップ抽出部102に出力する。
物体対応付け装置10が備える一部の機能部は、別の筐体に実装されてもよい。例えば、画像取得部101、特徴マップ抽出部102、領域抽出部103及び領域特徴抽出部104が、別の筐体で特徴抽出装置として構成されてもよい。このように構成される場合、物体対応付け装置10は、特徴抽出装置から領域特徴を取得して、各フレームに撮像されている物体の対応付けを行う。
物体対応付け装置10は、同じ時刻又は異なる時刻に異なる撮影装置によって撮影された複数のフレームを入力して、フレーム間の人物の対応付けを行ってもよい。
第2の実施形態では、物体対応付け装置が、有向グラフを利用して、フレーム間の物体の対応付けを行う構成について説明する。また、第2の実施形態における物体対応付け装置は、オフラインの物体追跡を想定した装置である。そのため、第2の実施形態における物体対応付け装置は、処理対象となる全てのフレームが入力された後に、フレーム間で物体の対応付けを行う。
物体対応付け装置10aは、バスで接続されたCPUやメモリや補助記憶装置などを備え、対応付けプログラムを実行する。対応付けプログラムの実行によって、物体対応付け装置10aは、画像取得部101a、特徴マップ抽出部102、領域抽出部103、領域特徴抽出部104、物体対応付け部105aを備える装置として機能する。なお、物体対応付け装置10aの各機能の全て又は一部は、ASICやPLDやFPGAやGPU等のハードウェアを用いて実現されてもよい。また、対応付けプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、対応付けプログラムは、電気通信回線を介して送受信されてもよい。
物体対応付け部105aは、処理対象となる全フレームそれぞれで抽出された複数の領域特徴を用いて、フレーム間の物体の対応付けを行う。
画像取得部101aは、処理対象となる映像を構成する全てのフレームを取得する(ステップS201)。例えば、画像取得部101aは、処理対象となる映像を構成する全てのフレームを、ネットワーク上、又は、記録媒体や記憶装置から取得する。画像取得部101aは、取得した全てのフレームを特徴マップ抽出部102に出力する。ステップS102~ステップS105の処理が実行されると、処理対象となる全フレームそれぞれで抽出された複数の領域特徴が物体対応付け部105aに入力される。
(2)各対象物体候補の第二ノード35-2及び36-2から終了ノード38の方向
(3)各対象物体候補の第一ノード35-1及び36-1から第二ノード35-2及び36-2の方向
(4)フレームI(t-1)に含まれる各対象物体の第二ノード35-2及び36-2からフレームItに含まれる各対象物体の第一ノード35-1及び36-1の方向
(参考文献8:Hamed Pirsiavash, Deva Ramanan, Charless C. Fowlkes, “Globally-Optimal Greedy Algorithms for Tracking a Variable Number of Objects”, CVPR, 2011.)
図7に示すように、有向グラフにおける費用最小流の推定に基づく方法により、フレーム間の物体の対応付けがなされていることが確認できる。
また、第2の実施形態における物体対応付け装置10aは、処理対象となる全フレームを用いて、フレーム間の同一物体の識別を行い、同一物体候補の対応付けを行う。そのため、オフラインの複数物体追跡方法にも組み合わせて用いることができる。
物体対応付け装置10aが備える一部の機能部は、別の筐体に実装されてもよい。例えば、画像取得部101a、特徴マップ抽出部102、領域抽出部103及び領域特徴抽出部104が、別の筐体で特徴抽出装置として構成されてもよい。このように構成される場合、物体対応付け装置10aは、特徴抽出装置から領域特徴を取得して、各フレームに撮像されている物体の対応付けを行う。
第3の実施形態では、物体対応付け装置が備える一部又は全ての機能部が、クラウド上のサーバに実装され、クラウド上のサーバでフレーム間の物体の対応付けを行う構成について説明する。
図8は、第3の実施形態における物体対応付けシステム100のシステム構成を示す図である。物体対応付けシステム100は、物体対応付け装置10b及び画像取得装置20を備える。物体対応付け装置10b及び画像取得装置20は、ネットワーク30を介して通信可能に接続される。ネットワーク30は、例えばインターネットである。
画像取得装置20は、フレームを取得し、取得したフレームを物体対応付け装置10bに提供する。例えば、画像取得装置20は、映像を構成する複数枚のフレームを、撮像装置から取得してもよいし、ネットワーク上から取得してもよいし、複数枚のフレームを記録している記録媒体や記憶装置から取得してもよい。
まず物体対応付け装置10bの機能構成について説明する。物体対応付け装置10bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、対応付けプログラムを実行する。対応付けプログラムの実行によって、物体対応付け装置10bは、特徴マップ抽出部102b、領域抽出部103、領域特徴抽出部104、物体対応付け部105を備える装置として機能する。なお、物体対応付け装置10bの各機能の全て又は一部は、ASICやPLDやFPGAやGPU等のハードウェアを用いて実現されてもよい。また、対応付けプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、対応付けプログラムは、電気通信回線を介して送受信されてもよい。
特徴マップ抽出部102bは、通信部106によって受信されたフレームに撮像されている空間の空間構造を保存した特徴マップを抽出する。
通信部202は、画像取得部201から出力されたフレームを、ネットワークを介して物体対応付け装置10bに送信する。
物体対応付け装置10bが備える一部の機能部は、他の装置(例えば、画像取得装置20)に実装されてもよい。例えば、画像取得装置20が特徴マップ抽出部102b、領域抽出部103及び領域特徴抽出部104を備え、物体対応付け装置10bが物体対応付け部105及び通信部106を備えるように構成されてもよい。このように構成される場合、画像取得装置20が領域特徴の抽出処理まで行い、物体対応付け装置10bがフレーム間の対象物体の対応付けのみを行う。
Claims (6)
- 複数枚のフレームそれぞれから、前記フレームに撮像されている空間の空間的構造を特徴化した特徴マップを抽出する特徴マップ抽出部と、
前記複数枚のフレームそれぞれに基づいて、前記フレームに撮像されている対象物体を捉えた物体候補領域と、前記対象物体の領域を示す領域マスクとを抽出する領域抽出部と、
前記特徴マップと、前記物体候補領域と、前記領域マスクとに基づいて、前記物体候補領域の特徴を表す領域特徴を前記フレーム毎に抽出する領域特徴抽出部と、
前記フレーム毎に抽出された複数の領域特徴を用いて、前記フレーム間の物体の対応付けを行う物体対応付け部と、
を備え、
前記領域特徴抽出部は、前記特徴マップから前記物体候補領域に対応する物体領域特徴マップを抽出し、前記物体領域特徴マップの大きさに基づいて前記領域マスクをリサイズし、調整後の前記領域マスクで、抽出した前記物体領域特徴マップを重み付けした上で、プーリングすることによって前記領域特徴を抽出する物体対応付け装置。 - 前記物体対応付け部は、前記特徴マップ抽出部に新たにフレームが入力される度に、前記特徴マップ抽出部に新たに入力された最新フレームから前記領域特徴抽出部が抽出した領域特徴と、前記最新フレームの直前に入力されたフレームから前記領域特徴抽出部が抽出した領域特徴とを用いて、前記最新フレームと前記最新フレームの直前に入力されたフレーム間の物体の対応付けを行う、請求項1に記載の物体対応付け装置。
- 前記物体対応付け部は、所定期間分の全てのフレームから抽出された複数の領域特徴を用いて、前記フレーム間の物体の対応付けを行う、請求項1に記載の物体対応付け装置。
- 複数枚のフレームそれぞれから、前記フレームに撮像されている空間の空間的構造を特徴化した特徴マップを抽出する特徴マップ抽出部と、
前記複数枚のフレームそれぞれに基づいて、前記フレームに撮像されている対象物体を含む所定の大きさの物体候補領域と、前記対象物体の領域を示す領域マスクとを抽出する領域抽出部と、
前記特徴マップと、前記物体候補領域と、前記領域マスクとに基づいて、前記物体候補領域の特徴を表す領域特徴を前記フレーム毎に抽出する領域特徴抽出部と、
前記フレーム毎に抽出された複数の領域特徴を用いて、前記フレーム間の物体の対応付けを行う物体対応付け部と、
を備え、
前記領域特徴抽出部は、前記特徴マップから前記物体候補領域に対応する物体領域特徴マップを抽出し、前記物体領域特徴マップの大きさに基づいて前記領域マスクをリサイズし、調整後の前記領域マスクで、抽出した前記物体領域特徴マップを重み付けした上で、プーリングすることによって前記領域特徴を抽出する物体対応付けシステム。 - コンピュータが、
複数枚のフレームそれぞれから、前記フレームに撮像されている空間の空間的構造を特徴化した特徴マップを抽出する特徴マップ抽出ステップと、
前記複数枚のフレームそれぞれに基づいて、前記フレームに撮像されている対象物体を捉えた物体候補領域と、前記対象物体の領域を示す領域マスクとを抽出する領域抽出ステップと、
前記特徴マップと、前記物体候補領域と、前記領域マスクとに基づいて、前記物体候補領域の特徴を表す領域特徴を前記フレーム毎に抽出する領域特徴抽出ステップと、
前記フレーム毎に抽出された複数の領域特徴を用いて、前記フレーム間の物体の対応付けを行う物体対応付けステップと、
を有し、
前記領域特徴抽出ステップにおいて、前記特徴マップから前記物体候補領域に対応する物体領域特徴マップを抽出し、前記物体領域特徴マップの大きさに基づいて前記領域マスクをリサイズし、調整後の前記領域マスクで、抽出した前記物体領域特徴マップを重み付けした上で、プーリングすることによって前記領域特徴を抽出する物体対応付け方法。 - 複数枚のフレームそれぞれから、前記フレームに撮像されている空間の空間的構造を特徴化した特徴マップを抽出する特徴マップ抽出ステップと、
前記複数枚のフレームそれぞれに基づいて、前記フレームに撮像されている対象物体を捉えた物体候補領域と、前記対象物体の領域を示す領域マスクとを抽出する領域抽出ステップと、
前記特徴マップと、前記物体候補領域と、前記領域マスクとに基づいて、前記物体候補領域の特徴を表す領域特徴を前記フレーム毎に抽出する領域特徴抽出ステップと、
前記フレーム毎に抽出された複数の領域特徴を用いて、前記フレーム間の物体の対応付けを行う物体対応付けステップと、
をコンピュータに実行させ、
前記領域特徴抽出ステップにおいて、前記特徴マップから前記物体候補領域に対応する物体領域特徴マップを抽出し、前記物体領域特徴マップの大きさに基づいて前記領域マスクをリサイズし、調整後の前記領域マスクで、抽出した前記物体領域特徴マップを重み付けした上で、プーリングすることによって前記領域特徴を抽出させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019082242A JP7253967B2 (ja) | 2019-04-23 | 2019-04-23 | 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019082242A JP7253967B2 (ja) | 2019-04-23 | 2019-04-23 | 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020181268A JP2020181268A (ja) | 2020-11-05 |
JP7253967B2 true JP7253967B2 (ja) | 2023-04-07 |
Family
ID=73024664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019082242A Active JP7253967B2 (ja) | 2019-04-23 | 2019-04-23 | 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7253967B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023170772A1 (ja) * | 2022-03-08 | 2023-09-14 | 日本電気株式会社 | 学習装置、学習方法、追跡装置、追跡方法、及び、記録媒体 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019001481A1 (zh) | 2017-06-28 | 2019-01-03 | 北京市商汤科技开发有限公司 | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 |
-
2019
- 2019-04-23 JP JP2019082242A patent/JP7253967B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019001481A1 (zh) | 2017-06-28 | 2019-01-03 | 北京市商汤科技开发有限公司 | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 |
Non-Patent Citations (1)
Title |
---|
加藤直樹,外4名,追跡軌跡の再同定を用いたオンライン複数物体追跡,The Journal of the Institute of Image Electronics Engineers of Japan,日本,2018年,Vol.47 No.4 |
Also Published As
Publication number | Publication date |
---|---|
JP2020181268A (ja) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI750498B (zh) | 視訊流的處理方法和裝置 | |
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
Maddalena et al. | Towards benchmarking scene background initialization | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及系统 | |
JP5675229B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6494253B2 (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
WO2016034059A1 (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
JP6654789B2 (ja) | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 | |
CN104376575B (zh) | 一种基于多摄像头监控的行人计数方法和装置 | |
CN112514373B (zh) | 用于特征提取的图像处理装置和方法 | |
Gálai et al. | Feature selection for Lidar-based gait recognition | |
WO2023159898A1 (zh) | 一种动作识别系统、方法、装置及模型训练方法、装置、计算机设备及计算机可读存储介质 | |
CN112883940A (zh) | 静默活体检测方法、装置、计算机设备及存储介质 | |
Kim et al. | Spatio-temporal weighting in local patches for direct estimation of camera motion in video stabilization | |
CN111738211A (zh) | 基于动态背景补偿与深度学习的ptz摄像机运动目标检测与识别方法 | |
Sokolova et al. | Human identification by gait from event-based camera | |
Angelo | A novel approach on object detection and tracking using adaptive background subtraction method | |
Xie et al. | Fast detecting moving objects in moving background using ORB feature matching | |
JP7253967B2 (ja) | 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム | |
KR20180092453A (ko) | Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법 | |
Selim et al. | Image Quality-aware Deep Networks Ensemble for Efficient Gender Recognition in the Wild. | |
Salehpour et al. | 3D face reconstruction by KLT feature extraction and model consistency match refining and growing | |
JP6555940B2 (ja) | 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法 | |
CN114694204A (zh) | 社交距离检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7253967 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |