JP6991958B2 - オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム - Google Patents

オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム Download PDF

Info

Publication number
JP6991958B2
JP6991958B2 JP2018226400A JP2018226400A JP6991958B2 JP 6991958 B2 JP6991958 B2 JP 6991958B2 JP 2018226400 A JP2018226400 A JP 2018226400A JP 2018226400 A JP2018226400 A JP 2018226400A JP 6991958 B2 JP6991958 B2 JP 6991958B2
Authority
JP
Japan
Prior art keywords
area
model
specified
tracking information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018226400A
Other languages
English (en)
Other versions
JP2020091519A (ja
Inventor
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018226400A priority Critical patent/JP6991958B2/ja
Publication of JP2020091519A publication Critical patent/JP2020091519A/ja
Application granted granted Critical
Publication of JP6991958B2 publication Critical patent/JP6991958B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラムに関する。
従来、マーケティングや監視等を目的として、店舗内等の所定エリアに設置されている撮像装置により撮像した画像を解析して、所定エリアに存在する人物の位置を特定する技術が開発されている。
例えば、特許文献1及び2においては、遮蔽物により追跡中の人物の足元を隠蔽された場合に、検出されている当該人物の頭部を用いて、当該人物の位置を特定する技術が開示されている。
具体的には、特許文献1に開示の方式では、人物の頭部を示す頭部領域と、人物の全身を示す全身領域とのいずれもが検出できたフレームにおいて、全身に対する頭部の位置を特定する。そして、特許文献1に開示の方式では、足元が遮蔽されたフレームにおいて、検出した頭部領域の位置と、前フレームで特定した全身に対する頭部の位置とから、人物の正確な足元位置を特定する。
特許文献2に開示の方式では、全身領域が検出できたフレームにおいて、全身領域の上端及び下端と画像内の消失点(2本の平行線の交点)との位置関係から人物の身長を特定しておき、足元が隠蔽されていると判定した場合に、検出した全身領域の上部と、特定した人物の身長とに基づいて、当該人物の足元位置を特定する。
特開2018―18234号公報 特開2010-237872号公報
ところで、特許文献1及び2に示される従来の方式では、所定エリアに対して斜め下方向を撮像した画像において、人物の頭部が画像内の上に、人物の足元が画像内の下に写っていることを前提としている。図16は、従来の方式において想定される撮像画像の一例を示す図である。
しかしながら、店舗内等の所定エリアにおける人物等のオブジェクトの動線解析においては、所定エリアの天井に設置され、真下方向を撮像する撮像装置(例えば、全方位カメラ)を用いることが多い。図17は、全方位カメラにより撮像された撮像画像の一例を示す図である。図17に示すように、全方位カメラにより撮像された撮像画像では、頭部と足元との上下関係が逆転したり、撮像画像の中心領域では頭頂部のみが写ったりする場合があり、従来方式を適用することができないという問題がある。
そこで、本発明はこれらの点に鑑みてなされたものであり、撮像装置の種類及び撮像角度に関わらず、オブジェクトの全体が検出できなかった場合であってもオブジェクトの動線追跡を行うことができるオブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラムを提供することを目的とする。
本発明の第1の態様に係るオブジェクト追跡装置は、所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する撮像画像取得部と、前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するオブジェクト領域特定部と、前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するモデル領域特定部と、前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得する追跡情報取得部と、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新する更新部と、を備える。
前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトの前記第1オブジェクト領域と、前記第1時刻に撮像された撮像画像に映る一以上のオブジェクトの前記第1領域を内包するサイズを有する前記第2領域に対応する前記第2オブジェクト領域とを特定し、前記モデル領域特定部は、特定された前記第1オブジェクト領域のうち、前記第2オブジェクト領域に内包されない前記第1オブジェクト領域について、前記対応関係に基づいて前記第2モデル領域を特定してもよい。
前記オブジェクト領域特定部は、前記第2オブジェクト領域に内包される前記第1オブジェクト領域を当該第2オブジェクト領域に統合し、前記モデル領域特定部は、前記オブジェクト領域特定部により統合されなかった前記第1オブジェクト領域について、前記対応関係に基づいて前記第2モデル領域を特定してもよい。
前記オブジェクト追跡装置は、前記三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合に前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1モデル領域と、前記第2モデル領域との対応関係を特定する対応関係特定部をさらに備え、前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定してもよい。
前記対応関係特定部は、前記オブジェクトが取り得る複数のサイズのそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定してもよい。
前記対応関係特定部は、前記オブジェクトが取り得る複数の形状のそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定してもよい。
前記対応関係特定部は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合してもよい。
前記モデル領域特定部は、特定された前記第1オブジェクト領域と、前記第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第1の距離が短くなるように前記第1の距離を算出してもよい。
前記モデル領域特定部は、前記第1オブジェクト領域を示す位置と相対的に近い位置を有する複数の前記第1モデル領域を特定し、特定した複数の前記第1モデル領域のうち、特定された前記第1オブジェクト領域との前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定してもよい。
前記更新部は、取得された前記追跡情報に対応する前記第2オブジェクト領域と、特定された前記第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第2の距離が短くなるように前記第2の距離を算出してもよい。
前記追跡情報取得部は、複数のオブジェクトのそれぞれに対応する前記追跡情報を取得し、前記更新部は、前記追跡情報に対応する複数の前記第2オブジェクト領域のそれぞれと、特定された複数の第2モデル領域との前記第2の距離を算出し、前記第2オブジェクト領域と、特定された複数の第2モデル領域との前記第2の距離の総和が相対的に小さくなる複数の前記第2オブジェクト領域と、特定された複数の第2モデル領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定してもよい。
前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る複数のオブジェクトの前記第1オブジェクト領域と、前記第2オブジェクト領域とを特定し、前記更新部は、前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離を算出し、前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定した後、当該組み合わせに選択されなかった前記追跡情報に対応する前記第2オブジェクト領域と、前記第2モデル領域との組み合わせを選択してもよい。
前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る複数のオブジェクトの前記第1オブジェクト領域と、前記第2オブジェクト領域とを特定し、前記更新部は、複数の前記第2モデル領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる複数の前記第2モデル領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定した後、前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、当該組み合わせに選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との前記第2の距離を算出し、前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との組み合わせを選択することにより、選択されなかった前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定してもよい。
前記更新部は、特定された複数の前記第2モデル領域のうち、前記追跡情報に対応する前記第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域の位置に基づいて、前記所定エリア内に新たに出現したオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成してもよい。
前記オブジェクト追跡装置は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合するとともに、統合した複数の第1モデル領域に対応する前記三次元モデルの位置の範囲を特定する対応関係特定部をさらに備え、前記更新部は、前記追跡情報に対応する前記第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域のうち、当該第2モデル領域に対応する前記三次元モデルの位置の範囲が所定の範囲内である第2モデル領域の位置に基づいて、前記所定エリア内に新たに出現したオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成してもよい。
前記モデル領域特定部は、統合した複数の第1モデル領域のそれぞれに対応する前記三次元モデルの位置を含む円を、統合した複数の第1モデル領域に対応する前記三次元モデルの位置の範囲として特定してもよい。
前記更新部は、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域に対応する前記三次元モデルの配置位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における前記所定エリア上の位置を特定し、当該第1時刻における前記所定エリア上の位置を示す位置情報を前記追跡情報に含めることにより、前記追跡情報を更新してもよい。
前記更新部は、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の前記撮像画像における位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における前記撮像画像上の位置を特定し、当該第1時刻における前記撮像画像上の位置を示す位置情報を前記追跡情報に含めることにより、前記追跡情報を更新してもよい。
本発明の第2の態様に係るオブジェクト追跡方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得するステップと、前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するステップと、前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するステップと、前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得するステップと、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新するステップと、を備える。
本発明の第3の態様に係るオブジェクト追跡プログラムは、コンピュータを、所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する撮像画像取得部、前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するオブジェクト領域特定部、前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するモデル領域特定部、前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得する追跡情報取得部、及び、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新する更新部、として機能させる。
本発明によれば、撮像装置の種類及び撮像角度に関わらず、オブジェクトの位置の特定精度を向上することができるという効果を奏する。
本実施形態に係るオブジェクト追跡装置の概要を示す図である。 本実施形態に係るオブジェクト追跡装置の構成を示す図である。 本実施形態に係るオブジェクト追跡装置における処理の流れを示すフローチャートである。 追跡情報に対応し、第1時刻とは異なる時刻におけるオブジェクトの追跡状態を示す図である。 本実施形態に係る所定エリアの複数の位置のそれぞれにおけるオブジェクトと、当該オブジェクトの第1オブジェクト領域及び第2オブジェクト領域の関係を示す図である。 検出モデルを用いて、第1オブジェクト領域及び第2オブジェクト領域を特定した結果の一例を示す図である。 本実施形態に係る三次元モデルの一例を示す図である。 本実施形態に係る第1モデル領域と、第2モデル領域とを特定する例を示す図である。 本実施形態に係る異なるサイズの複数の三次元モデルの一例を示す図である。 同一の中心位置を有する第1モデル領域の一例を示す図である。 統合した複数の第1オブジェクト領域に対応する三次元モデルの位置の範囲を特定する例を示す図である。 本実施形態に係るモデル領域特定部が第2モデル領域を特定する例を説明する図である。 図6に示す第1オブジェクト領域及び第2オブジェクト領域を特定した結果に対して、複数の第2モデル領域を特定した例を示す図である。 本実施形態に係る距離行列の一例を図である。 第1時刻におけるオブジェクトの追跡状態を示す図である。 従来の方式において想定される撮像画像の一例を示す図である。 全方位カメラにより撮像された撮像画像の一例を示す図である。
[オブジェクト追跡装置1の概要]
図1は、本実施形態に係るオブジェクト追跡装置1の概要を示す図である。オブジェクト追跡装置1は、所定エリアにおけるオブジェクトの位置を追跡するコンピュータである。オブジェクト追跡装置1は、撮像装置が撮像した第1時刻における所定エリアの撮像画像を取得する(図1の(1))。所定エリアは、例えば店舗内の空間である。オブジェクトは、例えば、所定エリア内を行動する店員や顧客である。
撮像装置は、例えば、所定エリアの天井に設置され、真下方向を撮像する全方位カメラである。なお、本実施形態では、撮像装置が真下方向を撮像する全方位カメラであることとするが、これに限らない。撮像装置は、全方位カメラとは異なる通常のカメラであってもよく、撮像装置の撮像角度も、任意の角度であってもよい。
オブジェクト追跡装置1は、第1時刻とは異なる時刻に撮像装置が撮像した撮像画像におけるオブジェクトの追跡情報を取得する(図1の(2))。オブジェクト追跡装置1は、第1時刻に撮像された撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域を少なくとも特定する(図1の(3))。図1では、第1時刻における撮像画像において、破線の矩形領域で示される2つの第1オブジェクト領域Dh1、Dh2が示されている。
オブジェクト追跡装置1は、オブジェクトに対応する三次元モデルを、所定エリアを示す三次元空間の複数の位置のそれぞれに仮想的に配置した場合に撮像画像に映る三次元モデルの投影領域のうち、第1領域に対応する複数の第1モデル領域(図1には不図示)と、第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定した第1オブジェクト領域に対し、相対的に近い位置の第1モデル領域に対応する第2モデル領域を特定する(図1の(4))。図1では、第1時刻における撮像画像に対し、実線の矩形領域で示される2つの第2モデル領域Dfm1、Dfm2が示されている。なお、対応関係としては、1つの第1モデル領域と、1つの第2モデル領域との関係を示す場合と、1つの第1モデル領域と、複数の第2モデル領域との関係を示す場合とがあるものとする。
オブジェクト追跡装置1は、追跡情報に含まれ、第2領域に対応する第2オブジェクト領域との距離が相対的に短い第2モデル領域の位置に基づいて、第1時刻におけるオブジェクトの位置を特定する(図1の(5))。図1に示す例では、追跡情報に対応する撮像情報に示される第2オブジェクト領域Tfに対し、相対的に距離が短い第2モデル領域として、Dfm1が特定される。その後、オブジェクト追跡装置1は、特定した第1時刻におけるオブジェクトの位置に基づいて追跡情報を更新する(図1の(6))。
このようにすることで、オブジェクト追跡装置1は、オブジェクトの第1領域と、第2領域との適切な位置関係を示す第1モデル領域と、第2モデル領域との対応関係に基づいて、撮像画像中において第1オブジェクト領域しか特定できなかった場合であっても、当該第1オブジェクト領域に対応するオブジェクトの位置を特定することができる。
また、第1モデル領域と、第2モデル領域との対応関係は、撮像装置が撮像した撮像画像に対する三次元モデルの投影領域に基づいて規定されるものである。したがって、オブジェクト追跡装置1は、撮像装置の種類及び撮像角度に関わらず、オブジェクトの位置の特定精度を維持することができる。
[オブジェクト追跡装置1の構成]
続いて、オブジェクト追跡装置1の構成を説明する。図2は、本実施形態に係るオブジェクト追跡装置1の構成を示す図である。図2に示すように、オブジェクト追跡装置1は、記憶部11と、制御部12とを備える。
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、オブジェクト追跡装置1を、追跡情報取得部121、撮像画像取得部122、オブジェクト領域特定部123、対応関係特定部124、モデル領域特定部125、及び更新部126として機能させるオブジェクト追跡プログラムを記憶している。
制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたオブジェクト追跡プログラムを実行することにより、追跡情報取得部121、撮像画像取得部122、オブジェクト領域特定部123、対応関係特定部124、モデル領域特定部125、及び更新部126として機能する。
追跡情報取得部121、撮像画像取得部122、オブジェクト領域特定部123、対応関係特定部124、モデル領域特定部125、及び更新部126の詳細を説明する前に、オブジェクトに対応する領域について説明する。本実施形態において、オブジェクトに対応する領域として、第1領域と、第2領域とがある。第1領域は、例えばオブジェクトとしての人物の頭部を示す領域であり、第2領域は、人物の全身を示す領域である。第2領域のサイズは、第1領域を内包するサイズである。
続いて、オブジェクト追跡装置1における処理の流れを示す図3を参照しながら、追跡情報取得部121、撮像画像取得部122、オブジェクト領域特定部123、対応関係特定部124、モデル領域特定部125、及び更新部126の詳細について説明する。図3は、本実施形態に係るオブジェクト追跡装置1における処理の流れを示すフローチャートである。
追跡情報取得部121は、第1時刻とは異なる時刻に撮像装置が撮像した撮像画像におけるオブジェクトの位置を示す位置情報を含む追跡情報を取得する(S1)。ここで、第1時刻とは異なる時刻は、例えば、第1時刻よりも前の時刻である。例えば、追跡情報は、記憶部11に予め記憶されており、追跡情報取得部121は、記憶部11に記憶されている追跡情報を取得する。追跡情報には、オブジェクトの第2領域に対応する第2オブジェクト領域の位置を示す情報として、撮像画像上の第2オブジェクト領域の位置及び大きさを示す4次元のベクトル(u,v,w,h)が含まれている。さらに、所定エリア上の位置を示す位置情報(X,Y)が含まれていてもよい。ここで、u,vは、第2オブジェクト領域を示す矩形の中心位置を示す情報であり、w,hは、当該矩形の横幅及び高さを示す情報である。以下の説明において、矩形を示す4次元のベクトルを矩形情報ともいう。
図4は、追跡情報に対応し、第1時刻とは異なる時刻におけるオブジェクトの追跡状態を示す図である。図4に示す例では、オブジェクトとして、P1からP6までの6人の人物が写っており、このうちの4人がAからDまでの人物IDを割り当てた第2オブジェクト領域Tf1~Tf4により追跡されている。なお、オブジェクトP5及びP6は、未追跡である。
撮像画像取得部122は、所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する(S2)。例えば、撮像装置が第1時刻に撮像した撮像画像は、記憶部11に予め記憶されている。撮像画像取得部122は、記憶部11に記憶されている第1時刻に撮像された撮像画像を取得する。
オブジェクト領域特定部123は、撮像画像取得部122が取得した撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域と、撮像画像に映る一以上のオブジェクトのそれぞれの第2領域である第2オブジェクト領域とを特定する(S3)。オブジェクト領域特定部123は、撮像画像取得部122が取得した撮像画像から、第1オブジェクト領域と第2オブジェクト領域とを、一以上特定する。
例えば、オブジェクト領域特定部123は、第1領域を示す矩形情報(u,v,w,h)を特定することにより、第1オブジェクト領域を特定する。同様に、オブジェクト領域特定部123は、第2領域を示す矩形情報を特定することにより、第2オブジェクト領域を特定する。以下、各領域を矩形により表す場合を例として説明するが、オブジェクト領域特定部123は、他の任意の形状により各領域を特定してもよい。
オブジェクト領域特定部123は、撮像画像中の第1オブジェクト領域及び第2オブジェクト領域のそれぞれについて正解の矩形情報を付与して学習した機械学習(例えば、Support Vector Machine)や深層学習(例えば、Convolutional Neural Network)の検出モデルを用いることにより、撮像画像に含まれる第1オブジェクト領域と、第2オブジェクト領域とを特定する。図5は、本実施形態に係る所定エリアの複数の位置のそれぞれにおけるオブジェクトと、当該オブジェクトの第1オブジェクト領域及び第2オブジェクト領域の関係を示す図である。オブジェクト領域特定部123は、図5に示すように、撮像画像に対し、矩形情報を手動で付与した情報を用いて、予め学習を行い、検出モデルを作成することができる。
なお、オブジェクト領域特定部123は、第1オブジェクト領域と第2オブジェクト領域とを個別に学習した2つの検出モデルを用いてもよいが、推論時間の観点では、第1オブジェクト領域を1クラス目、第2オブジェクト領域を2クラス目として学習させ、第1オブジェクト領域と第2オブジェクト領域とを一度に検出することが可能な単一の検出モデルを使用することが望ましい。
図6は、検出モデルを用いて、第1オブジェクト領域及び第2オブジェクト領域を特定した結果の一例を示す図である。図6に示される撮像画像は、図4に示す撮像画像よりも後の時刻に撮像された画像であり、6つのオブジェクトP1~P6が、図4に示す状態から移動している。図4に示す撮像画像の撮像時刻を時刻t-1、図6に示す撮像画像の撮像時刻、すなわち、第1時刻を時刻tとする。図6では、オブジェクトP2の足元に遮蔽物Oが存在する。図6に示す例では、3つの第1オブジェクト領域Dh1~Dh3と、2つの第2オブジェクト領域Df1、Df2とが特定されていることが確認できる。一方で、オブジェクトP1、P4の第1オブジェクト領域及び第2オブジェクト領域と、オブジェクトP2、P5の第2オブジェクト領域と、オブジェクトP6の第1オブジェクト領域とは、未検出(False Negative)である。
ここで、オブジェクト領域特定部123は、内包関係を有する領域を統合する重複率に基づくNMS(Non-Maximum Suppression)により、第2オブジェクト領域に内包される第1オブジェクト領域を、当該第2オブジェクト領域に統合してもよい。
NMSとは、同一のオブジェクトから検出された複数の検出結果を1つの検出結果に統合する処理である。オブジェクト領域特定部123は、統合する領域をそれぞれAとBとした場合に、NMS処理を行うことにより、一般的に(A∩B)/(A∪B)が所定値以上の領域を1つに統合する。
しかしながら、図6に示されるオブジェクトP3のように、同一のオブジェクトから特定された第1オブジェクト領域及び第2オブジェクト領域は、大きさが異なるため、上記の計算式に基づくNMS処理では1つに統合されない。
そこで、オブジェクト領域特定部123は、同一のオブジェクトから検出された第1オブジェクト領域及び第2オブジェクト領域を統合することを目的として、max(A/(A∪B),B/(A∪B))に基づくNMS処理を行う。ここで、max()は、内部に渡される2つの数値のうち、大きい数値を選択する関数である。これにより、包含関係を有する領域が1つに統合されることになり、後段の処理においてオブジェクトの過検出を抑制できる。
なお、オブジェクト領域特定部123は、第1オブジェクト領域と、第2オブジェクト領域とを1つの矩形に統合する場合に、検出モデルが出力するスコアが高いオブジェクト領域に統合してもよい。本実施形態において、オブジェクト領域特定部123は、図6に示す第1オブジェクト領域Dh3を、第2オブジェクト領域Df1に統合したものとする。
対応関係特定部124は、オブジェクトを模した三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合に、撮像画像に映る三次元モデルの領域である投影領域のうち、第1領域に対応する第1モデル領域と、第2領域に対応する第2モデル領域との対応関係を特定する(S4)。
図7は、本実施形態に係る三次元モデルの一例を示す図である。例えば、オブジェクトとしての特定の身長の人物のみが所定エリアに存在し、かつ、全ての人物が直立状態と仮定し、使用する三次元モデルの高さを一定値(例えば、1.7m)とする。三次元モデルの形状は簡易的なものであってもよく、図7に示すように、頭部を球体、胴体部分を円柱により構成してもよい。また、人物の身長が1.7mであり、7等身であると想定した場合、図7に示すように、頭部に対応する球体の直径を0.2mとしてもよい。
対応関係特定部124は、所定エリア上の位置に三次元モデルを仮想的に配置した場合に、撮像装置が撮像した画像に含まれる三次元モデルの投影領域を算出する。例えば、記憶部11に、三次元モデルを構成する点群を示す点群情報を記憶させておくとともに、撮像装置により撮像された画像の一点と三次元空間における一点との対応関係を示す撮像装置のキャリブレーションに関するパラメータを記憶させておく。ここで、三次元モデルを構成する点群を構成する複数の点のそれぞれは、三次元空間における座標により表現される。また、パラメータには、撮像装置の設置位置及び設置方向によって定まる外部パラメータと、撮像装置の画像歪みに関する内部パラメータとが含まれる。
対応関係特定部124は、記憶部11から当該点群情報と当該パラメータとを取得し、所定エリア上の位置に三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該パラメータに基づいて、撮像装置が撮像する画像上への投影点を算出する。そして、対応関係特定部124は、第1領域(頭部)に対応する投影点の点群を含む領域の輪郭を近似する多角形領域の外接矩形を第1モデル領域として特定するとともに、第2領域(全身)に対応する投影点の点群を含む領域の輪郭を近似する多角形領域の外接矩形を第2モデル領域として特定する。
図8は、本実施形態に係る第1モデル領域と、第2モデル領域とを特定する例を示す図である。図8に示すように、対応関係特定部124は、例えば、所定エリアの一平面上(Z=0)の位置(X,Y)に三次元モデルを仮想的に配置した場合に、第1モデル領域Dhmを示す撮像画像上の位置を示す矩形情報(u_h,v_h,w_h,h_h)と、第2モデル領域Dfmを示す撮像画像上の位置を示す矩形情報(u_f,v_f,w_f,h_f)とが特定されていることが確認できる。ここで、u_h,v_h、及びu_f,v_fは、外接矩形の中心座標を示す情報である。また、w_h及びw_fは、外接矩形の横幅を示す情報である。また、h_h及びh_fは、外接矩形の高さを示す情報である。
対応関係特定部124は、第1モデル領域を示す矩形情報及び第2モデル領域を示す矩形情報との対応関係を示す情報として、以下に示す8次元のベクトルを生成する。
(u_h,v_h,w_h,h_h,u_f,v_f,w_f,h_f)
対応関係特定部124は、所定エリアの複数の位置に三次元モデルを仮想的に配置したときの第1モデル領域と第2モデル領域との関係を示す8次元のベクトルを特定することにより、複数の第1モデル領域と、複数の第2モデル領域との対応関係を特定する。対応関係特定部124は、特定した複数の8次元のベクトルをモデル情報として記憶部11に記憶させる。
なお、本実施形態において、対応関係特定部124は、オブジェクト領域特定部123の処理の後に、対応関係を特定することとしたが、これに限らない。オブジェクト領域特定部123は、第1モデル領域と第2モデル領域の対応関係を予め特定し、モデル情報を記憶部11に記憶させるようにしてもよい。また、対応関係特定部124は、後述するモデル領域特定部125が、第1オブジェクト領域に対応する第2モデル領域を特定する際の計算コストを抑えるため、モデル情報が示す8次元のベクトルを参照されるデータとして、参照時のクエリとする最初の2次元データを、kd(k-dimensional)木によりインデックス化しておいてもよい。
なお、所定エリア内に多様な身長の人物が存在する場合や、人物の姿勢が変化する場合がある。この場合に、所定エリア内におけるオブジェクトのサイズや形状を一定と仮定すると、オブジェクトの位置特定の精度が低下するという問題がある。そこで、対応関係特定部124は、オブジェクトが取り得る複数のサイズ及び複数の形状のそれぞれに対応する三次元モデルに対応する第1モデル領域と第2モデル領域との対応関係を特定してもよい。
図9は、本実施形態に係る異なるサイズの複数の三次元モデルの一例を示す図である。なお、本実施形態では、異なるサイズの複数の三次元モデルの一例について説明するが、異なる形状の三次元モデルについても、同様に実施できるため、詳細な説明を省略する。図9に示す例では、オブジェクトとしての人物の身長の範囲を1.3m~1.7mと仮定し、0.2m間隔で3つの三次元モデルを規定している。この場合、対応関係特定部124は、所定エリアにおける1つの位置について、3つの三次元モデルのそれぞれに対応して、以下に示すように、第1モデル領域を示す撮像画像上の位置を示す矩形情報と、第2モデル領域を示す撮像画像上の位置を示す矩形情報とを特定する。
オブジェクトの高さが1.7m
第1モデル領域の矩形情報:(u1_h,v1_h,w1_h,h1_h)
第2モデル領域の矩形情報:(u1_f,v1_f,w1_f,h1_f)
オブジェクトの高さが1.5m
第1モデル領域の矩形情報:(u2_h,v2_h,w2_h,h2_h)
第2モデル領域の矩形情報:(u2_f,v2_f,w2_f,h2_f)
オブジェクトの高さが1.3m
第1モデル領域の矩形情報:(u3_h,v3_h,w3_h,h3_h)
第2モデル領域の矩形情報:(u3_f,v3_f,w3_f,h3_f)
そして、対応関係特定部124は、所定エリアにおける1つの位置について、以下に示す3つのモデル情報を生成することができる。
(u1_h、v1_h,w1_h,h1_h,u1_f,v1_f,w1_f,h1_f)
(u2_h、v2_h,w2_h,h2_h,u2_f,v2_f,w2_f,h2_f)
(u3_h、v3_h,w3_h,h3_h,u3_f,v3_f,w3_f,h3_f)
三次元モデルの高さの範囲を大きくするほど、また、複数の三次元モデルの高さの間隔を狭くするほど、後述する更新部126において高精度にオブジェクトの位置を特定することが可能である。その一方で、特定したモデル情報の容量が増加するという問題、及び、後述するモデル領域特定部125において第1オブジェクト領域に対応する第2モデル領域を特定するための計算コストが増大するという問題がある。
そこで、対応関係特定部124は、相対的に近い位置の複数の第1モデル領域に対応する第1モデル領域と第2モデル領域との対応関係を統合してもよい。例えば、対応関係特定部124は、複数の第1モデル領域に対応する矩形情報を参照し、相対的に近い中心位置を有する複数の第1モデル領域を特定し、当該複数の第1モデル領域のそれぞれに対応する複数の対応関係を統合する。
図10は、同一の中心位置を有する第1モデル領域の一例を示す図である。図10に示す例では、異なる配置位置及び異なるサイズの3つの三次元モデルの第1モデル領域Dhm1~Dhm3の中心位置が同一である例を示している。ここで、3つの第1モデル領域Dhm1~Dhm3の中心位置が同一であることから、第1モデル領域Dhm1~Dhm3の中心位置を示す情報(u1_h、v1_h)、(u2_h、v2_h)、(u3_h、v3_h)において、以下の関係が成り立つ。
u1_h=u2_h=u3_h
v1_h=v2_h=v3_h
この場合、対応関係特定部124は、例えば、以下のように構成した20次元のベクトルを、同一の中心位置を有する対応関係を示すモデル情報として記憶部11に記憶させる。このようにすることで、モデル情報の参照時に計算コストを抑えることができるとともに、記憶量も削減できる。
(u1_h,v1_h,w1_h,h1_h,u1_f,v1_f,w1_f,h1_f,
w2_h,h2_h,u2_f,v2_f,w2_f,h2_f,
w3_h,h3_h,u3_f,v3_f,w3_f,h3_f)
対応関係特定部124は、統合した複数の第1オブジェクト領域について対応する三次元モデルの位置の範囲を特定してもよい。ここで、三次元モデルの位置の範囲は、オブジェクトのサイズ又は形状が未知の場合に、第1オブジェクト領域から所定エリア上の人物位置を特定した際に想定される特定誤差を示す情報であり、後述する更新部126においてオブジェクト追跡の検出率(Recall)を向上するために用いられる。具体的には、対応関係特定部124は、同一の中心位置を有する第1モデル領域に対応する第2モデル領域のそれぞれについて、対応する所定エリア上の位置(X,Y)を特定する。
図11は、統合した複数の第1オブジェクト領域に対応する三次元モデルの位置の範囲を特定する例を示す図である。図11に示すように、3種類の三次元モデルを統合した場合、対応関係特定部124は、3種類の三次元モデルのそれぞれに対応する所定エリア上の位置(X1,Y1)~(X3,Y3)を特定する。対応関係特定部124は、図11に示すように、統合した複数の第1モデル領域のそれぞれに対応する三次元モデルの所定エリア上の位置(X1,Y1)~(X3,Y3)を含む円を、統合した複数の第1モデル領域に対応する三次元モデルの位置の範囲として特定してもよい。対応関係特定部124は、円の大きさとして、円の直径を用いてもよい。特定した位置の範囲の活用方法については、更新部126の機能説明において述べる。
モデル領域特定部125は、三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合における撮像画像に映る三次元モデルの領域である投影領域のうち、第1領域に対応する複数の第1モデル領域と、第2領域に対応する複数の第2モデル領域との対応関係に基づいて、オブジェクト領域特定部123が特定した一以上の第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を一以上特定する(S5)。
具体的には、モデル領域特定部125は、対応関係特定部124が特定し、記憶部11に記憶されているモデル情報に基づいて、特定された第1オブジェクト領域のうち、第2オブジェクト領域に内包されず、統合されなかった第1オブジェクト領域について、当該第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。
モデル領域特定部125は、特定された第1オブジェクト領域と、第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど第1の距離が短くなるように第1の距離を算出する。例えば、モデル領域特定部125は、1から重複率を減算した値を、第1の距離として算出する。ここで、重複率は、IoU(Intersection over Union)である。特定した第1オブジェクト領域をA、第1モデル領域をBとした場合、重複率は、(A∩B)/(A∪B)により表される。モデル領域特定部125は、記憶部11に記憶されているモデル情報を参照し、第1オブジェクト領域との第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。
なお、モデル領域特定部125は、特定された第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定してもよい。このようにすることで、モデル領域特定部125は、特定された第1オブジェクト領域に対し、異なるサイズ及び姿勢を有する三次元モデルに対応する複数の第2モデル領域を特定することができる。
また、モデル領域特定部125は、kd木を用いたモデル情報を参照し、特定した第1オブジェクト領域の中心位置との距離が相対的に短い第1モデル領域を特定してもよい。ここで、kd木を用いることにより、第1モデル領域の特定を高速に行うことができるものの、特定された第1モデル領域は、第1オブジェクト領域との重複率が大きいとは限らない。そこで、モデル領域特定部125は、まず、第1オブジェクト領域を示す位置と、相対的に近い中心位置を有する一以上の第1モデル領域を特定し、その後、特定した一以上の第1モデル領域と、特定された第1オブジェクト領域との重複率を算出することにより、第1の距離が相対的に短い第1モデル領域を特定してもよい。
図12は、本実施形態に係るモデル領域特定部125が第2モデル領域を特定する例を説明する図である。図12に示すように、例えば、モデル領域特定部125は、第1オブジェクト領域の中心位置との距離が相対的に短い第1モデル領域として、図12に示す4つの第1モデル領域を特定したとする。この場合に、モデル領域特定部125は、第1オブジェクト領域と、4つの第1モデル領域のそれぞれとの第1の距離を算出する。例えば、第1オブジェクト領域と、矩形情報が(u3_h,V3_h,w3_h,h3_h)である第1モデル領域との第1の距離が最も短い場合、モデル領域特定部125は、当該第1モデル領域に関連付けられている第2モデル領域として、矩形情報が(u3_f,V3_f,w3_f,h3_f)の第2モデル領域を特定する。
モデル領域特定部125は、オブジェクト領域特定部123が特定した一以上の第1オブジェクト領域のうち、統合されなかった第1オブジェクト領域のそれぞれに対し、第2モデル領域を特定する。図13は、図6に示す第1オブジェクト領域及び第2オブジェクト領域を特定した結果に対して、複数の第2モデル領域を特定した例を示す図である。図13に示すように、第1オブジェクト領域Dh1に対して、3種類のサイズに対応した第2モデル領域Dfm1~Dfm3が特定されているとともに、第1オブジェクト領域Dh2に対して、3種類のサイズに対応した第2モデル領域Dfm4~Dfm6が特定されていることが確認できる。なお、図13では、第1モデル領域の表示は省略している。
更新部126は、オブジェクト領域特定部123により特定された複数の第2オブジェクト領域及びモデル領域特定部125により特定された複数の第2モデル領域のうち、取得された追跡情報に対応する第2オブジェクト領域との距離を示す第2の距離が相対的に短い第2オブジェクト領域又は第2モデル領域を特定し、当該第2オブジェクト領域又は第2モデル領域の位置に基づいて、取得された追跡情報に対応するオブジェクトの第1時刻における位置を特定する(S6)。そして、更新部126は、当該第1時刻における位置を示す位置情報に基づいて追跡情報を更新する(S7)。なお、以下の説明において、更新部126は、第1時刻における位置を示す位置情報を追跡情報に含めることにより、追跡情報を更新する例について説明するが、更新部126は、第1時刻における位置を示す位置情報を追跡情報に含めないようにしてもよい。例えば、更新部126は、第1時刻における位置を示す位置情報を観測結果とし、カルマンフィルタにより現在位置を推測してもよい。また、以下の説明において、オブジェクト領域特定部123により特定された複数の第2オブジェクト領域を、第1時刻に対応する第2オブジェクト領域ともいう。
図4及び図13を用いて、更新部126の処理について説明する。図4に示されるように、追跡情報に含まれている第2オブジェクト領域は、Tf1~Tf4である。図13に示されるように、オブジェクト領域特定部123により特定された第2オブジェクト領域は、Df1、Df2である。また、モデル領域特定部125により特定された第2モデル領域は、Dfm1~Dfm6である。
更新部126は、第2の距離を要素に含む距離行列と、ハンガリアンアルゴリズムとを用いて、追跡情報に対応する複数の第2オブジェクト領域のいずれか1つと、特定された複数の第2オブジェクト領域及び第2モデル領域のいずれか1つとを組み合わせる。すなわち、更新部126は、追跡情報に対応する複数の第2オブジェクト領域のそれぞれと、第1時刻に対応する複数の第2オブジェクト領域及び第2モデル領域との第2の距離を算出する。そして、更新部126は、追跡情報に対応する第2オブジェクト領域と、第1時刻に対応する複数の第2オブジェクト領域及び第2モデル領域との第2の距離の総和が相対的に小さくなる追跡情報に対応する、複数の第2オブジェクト領域と第1時刻に対応する複数の第2オブジェクト領域及び第2モデル領域との組み合わせを選択することにより、追跡情報に対応する複数のオブジェクトの第1時刻における位置を特定する。
なお、オブジェクト追跡装置1は、ハンガリアンアルゴリズムに限らず、距離行列に基づいて最適な組み合わせを特定する任意の手法を用いることができる。ハンガリアンアルゴリズムは、オンライン処理手法であるが、他のオフライン処理手法を用いても良い。以下、ハンガリアンアルゴリズムを用いる場合を一例として説明する。
図14は、本実施形態に係る距離行列の一例を図である。dijは、追跡情報に含まれるj番目の第2オブジェクト領域と、第1時刻に対応するi番目の第2オブジェクト領域及び第2モデル領域との第2の距離を示す。各行は、一つひとつの第2オブジェクト領域及び第2モデル領域に対応するものとするが、同一の第1オブジェクト領域から特定した複数の第2モデル領域については、追跡情報に含まれる第2オブジェクト領域との第2の距離が最小である第2モデル領域を特定する等により、当該複数の第2モデル領域を一行に対応させてもよい。
例えば、図14に示すように、第1オブジェクト領域Dh1に対応する第2モデル領域Dfm1~Dfm3については、追跡情報に含まれる第2オブジェクト領域との第2の距離が最小である第2モデル領域を特定することにより、複数の第2モデル領域Dfm1~Dfm3を一行に対応させる(図14の距離行列の2行目)。なお、図14に示す例では、第2モデル領域Dfm1~Dfm3のうち、第2の距離が最小である第2モデル領域として、第2モデル領域Dfm1が特定されたものとする。
同様に、第1オブジェクト領域Dh2に対応する第2モデル領域Dfm4~Dfm6については、追跡情報に含まれる第2オブジェクト領域との第2の距離が最小である第2モデル領域を特定することにより、複数の第2モデル領域Dfm4~Dfm6を一行に対応させる(図14の距離行列の3行目)。なお、図14に示す例では、第2モデル領域Dfm4~Dfm6のうち、第2の距離が最小である第2モデル領域として、第2モデル領域Dfm5が特定されたものとする。
更新部126は、取得された追跡情報に対応する第2オブジェクト領域と、第1時刻に対応する第2オブジェクト領域及び第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど第2の距離が短くなるように第2の距離を算出する。例えば、d11については、以下に示す式により特定される。
d11=1-(Df1∩Tf1)/(Df1∪Tf1)
また、d21については、以下に示す式により特定される。ここで、min()は、内部に渡される複数の数値のうち、最も小さい数値を選択する関数である。
d21=min(1-(Dfm1∩Tf1)/(Dfm1∪Tf1),
1-(Dfm2∩Tf1)/(Dfm2∪Tf1),
1-(Dfm3∩Tf1)/(Dfm3∪Tf1))
更新部126は、生成した距離行列をハンガリアンアルゴリズムに入力することにより、各行に示される第1時刻に対応する第2オブジェクト領域又は第2モデル領域と、各列に示される追跡情報に対応する第2オブジェクト領域とを関連付ける。例えば、図14に示す距離行列をハンガリアンアルゴリズムに入力した場合に、d31、d22、d13及びd44が最小コストとして選択され、以下に示すように、追跡情報に対応する第2オブジェクト領域と、第1時刻に対応する第2オブジェクト領域又は第2モデル領域との組み合わせが選択される。
d31:第2オブジェクト領域Tf1と、第2モデル領域Dfm5
d22:第2オブジェクト領域Tf2と、第2モデル領域Dfm1
d13:第2オブジェクト領域Tf3と、第2オブジェクト領域Df1
d44:第2オブジェクト領域Tf4と、第2オブジェクト領域Df2
更新部126は、ハンガリアンアルゴリズムにより特定された最小コストを構成する各第2の距離について、当該第2の距離が所定値以下のもののみ、第1時刻に対応する第2オブジェクト領域又は第2モデル領域と、各列に示される追跡情報に対応する第2オブジェクト領域とを組み合わせてもよい。図14に示す例では、d31及びd44が所定値を越えたものとし、以下に示すように、追跡情報に対応する第2オブジェクト領域と、第1時刻に対応する第2オブジェクト領域又は第2モデル領域との組み合わせが選択されたものとする。
d22:第2オブジェクト領域Tf2と、第2モデル領域Dfm1
d13:第2オブジェクト領域Tf3と、第2オブジェクト領域Df1
なお、第2オブジェクト領域は、オブジェクト領域特定部123が撮像画像から直接特定するものであることから、モデル情報に基づいて第1オブジェクト領域から特定される第2モデル領域に比べて、オブジェクトの位置を正確に特定できている可能性が高い。
そこで、更新部126は、オブジェクト領域特定部123が特定した複数の第2オブジェクト領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせを選択した後、当該組み合わせに選択されなかった追跡情報に対応する第2オブジェクト領域と、第2モデル領域との組み合わせを選択してもよい。
具体的には、更新部126は、オブジェクト領域特定部123が特定した複数の第2オブジェクト領域のみを行成分として構成する距離行列にハンガリアンアルゴリズムを適用することにより、オブジェクト領域特定部123が特定した複数の第2オブジェクト領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせを選択する。その後、更新部126は、モデル領域特定部125が特定した複数の第2モデル領域のみを行成分とするとともに、組み合わせに選択されなかった追跡情報に対応する第2オブジェクト領域のみを列成分とする距離行列にハンガリアンアルゴリズムを適用することにより、複数の第2モデル領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせを選択する。このようにすることで、オブジェクト追跡装置1は、追跡情報に対応する第2オブジェクト領域と、第1時刻に対応する第2オブジェクト領域又は第2モデル領域との関連付けを精度良く行うことができる。
なお、オブジェクト領域特定部123が特定した複数の第2オブジェクト領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせを先に選択すると、異なる2つのオブジェクトに対応する第2オブジェクト領域が組み合わされてしまうことがある。そこで、更新部126は、モデル領域特定部125が特定した複数の第2モデル領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせを選択した後、当該組み合わせに選択されなかった追跡情報に対応する第2オブジェクト領域と、オブジェクト領域特定部123が特定した複数の第2オブジェクト領域との組み合わせを選択してもよい。
この場合、更新部126は、複数の第2モデル領域と、追跡情報に対応する複数の第2オブジェクト領域との第2の距離の総和が相対的に小さくなる複数の第2モデル領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせを選択することにより、追跡情報に対応する複数のオブジェクトの第1時刻における位置を特定する。その後、更新部126は、第1時刻に対応する第2オブジェクト領域と、当該組み合わせに選択されなかった追跡情報に対応する第2オブジェクト領域との第2の距離を算出し、第1時刻に対応する第2オブジェクト領域と、選択されなかった追跡情報に対応する第2オブジェクト領域との第2の距離の総和が相対的に小さくなる第1時刻に対応する第2オブジェクト領域と、選択されなかった追跡情報に対応する第2オブジェクト領域との組み合わせを選択することにより、選択されなかった追跡情報に対応するオブジェクトの第1時刻における位置を特定する。
続いて、更新部126は、第1時刻に対応する複数の第2オブジェクト領域及び第2モデル領域と、追跡情報に対応する複数の第2オブジェクト領域との組み合わせに基づいて、追跡情報を更新する。更新部126は、組み合わせとして選択された第1時刻における第2オブジェクト領域又は第2モデル領域の撮像画像における位置に基づいて、追跡情報に対応するオブジェクトの第1時刻における撮像画像上の位置を特定し、当該第1時刻における撮像画像上の位置を示す位置情報を追跡情報に含めることにより、追跡情報を更新する。ここで、更新前の追跡情報としては、図4に示すように、4つのオブジェクトの第2オブジェクト領域が特定されているものとする。
時刻t-1
ID:A、第2オブジェクト領域:Tf1
ID:B、第2オブジェクト領域:Tf2
ID:C、第2オブジェクト領域:Tf3
ID:D、第2オブジェクト領域:Tf4
また、第1時刻に対応する複数の第2オブジェクト領域及び第2モデル領域と、追跡情報に対応する複数の第2オブジェクト領域とは、以下に示す組み合わせが選択されている。
第2オブジェクト領域Tf2と、第2モデル領域Dfm1
第2オブジェクト領域Tf3と、第2オブジェクト領域Df1
更新部126は、上記の組み合わせに基づいて、第1時刻におけるIDがBのオブジェクトの第2オブジェクト領域を、第2モデル領域Dfm1に、IDがCのオブジェクトの第2オブジェクト領域を、第2オブジェクト領域Df1に更新する。
また、更新部126は、組み合わせとして選択された第2モデル領域に対応する三次元モデルの所定エリアにおける配置位置に基づいて、追跡情報に対応するオブジェクトの第1時刻における所定エリア上の位置を特定し、当該第1時刻における所定エリア上の位置を示す位置情報を追跡情報に含めることにより、追跡情報を更新してもよい。例えば、第2モデル領域を示す矩形情報と、当該第2モデル領域に対応する三次元モデルが配置されている所定エリア上の位置(X,Y)とを関連付けて、位置対応関係情報(u_f,v_f,w_f,h_f,X,Y)として記憶部11に予め記憶させておく。なお、所定エリア上の位置(X,Y)は、第1モデル領域と第2モデル領域との対応関係を示すモデル情報に関連付けられていてもよい。
更新部126は、位置対応関係情報を参照して、更新した追跡情報に含まれる第2オブジェクト領域に対して第2の距離が相対的に小さい第2モデル領域を特定し、当該第2モデル領域に対応する所定エリア上の位置(X,Y)を特定する。結果として、以下に示す追跡情報が得られる。
時刻t-1
ID:A、第2オブジェクト領域:Tf1、所定エリア上の位置:(X1,Y1)
ID:D、第2オブジェクト領域:Tf4、所定エリア上の位置:(X4,Y4)
時刻t
ID:B、第2オブジェクト領域:Dfm1、所定エリア上の位置:(X2,Y2)
ID:C、第2オブジェクト領域:Df1、所定エリア上の位置:(X3,Y3)
更新部126は、特定された複数の第2オブジェクト領域のうち、追跡情報に対応する第2オブジェクト領域の位置の特定に用いられなかった第2オブジェクト領域の位置に基づいて、所定エリア内に新たに出現したオブジェクトの第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成してもよい。
図14に示す例において、追跡情報に対応する第2オブジェクト領域の位置の特定に用いられなかった第2オブジェクト領域は、第2オブジェクト領域Df2である。更新部126は、時刻t-1までにA~DのIDが使用されているため、第2オブジェクト領域Df2に対応するオブジェクトに対し、ID:Eを新規に割り当て、以下のように追跡情報を更新する。
時刻t-1
ID:A、第2オブジェクト領域:Tf1、所定エリア上の位置:(X1,Y1)
ID:D、第2オブジェクト領域:Tf4、所定エリア上の位置:(X4,Y4)
時刻t
ID:B、第2オブジェクト領域:Dfm1、所定エリア上の位置:(X2,Y2)
ID:C、第2オブジェクト領域:Df1、所定エリア上の位置:(X3,Y3)
ID:E、第2オブジェクト領域:Df2、所定エリア上の位置:(X5,Y5)
また、更新部126は、特定された複数の第2モデル領域のうち、追跡情報に対応する第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域の位置に基づいて、所定エリア内に新たに出現したオブジェクトの第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成してもよい。ここで、更新部126は、追跡情報に対応する第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域のうち、当該第2モデル領域に対応する三次元モデルの位置の範囲が所定の範囲内である第2モデル領域の位置に基づいて、所定エリア内に新たに出現したオブジェクトの第1時刻における位置を特定してもよい。
図14に示す例において、追跡情報に対応する第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域は、第2モデル領域Dfm4~Dfm6である。これらの第2モデル領域Dfm4~Dfm6については、モデル領域特定部125において、三次元モデルの位置の範囲が特定されている。三次元モデルの位置の範囲が所定の範囲内に存在するということは、第1オブジェクト領域からオブジェクトの位置を特定する際に適当に設定したサイズを用いたとしてもオブジェクトの位置の推定誤差が小さいということを意味している。そこで、更新部126は、三次元モデルの位置の範囲が所定の範囲内に存在する場合、三次元モデルのサイズを一定のサイズ(例えば、第2モデル領域Dfm6に対応する三次元モデルのサイズである1.7m)とみなして、オブジェクトの位置を特定する。更新部126は、既にA~EのIDが使用されているため、第2モデル領域Dfm6に対応するオブジェクトに対し、ID:Fを新規に割り当て、以下のように追跡情報を更新する。
時刻t-1
ID:A、第2オブジェクト領域:Tf1、所定エリア上の位置:(X1,Y1)
ID:D、第2オブジェクト領域:Tf4、所定エリア上の位置:(X4,Y4)
時刻t
ID:B、第2オブジェクト領域:Dfm1、所定エリア上の位置:(X2,Y2)
ID:C、第2オブジェクト領域:Df1、所定エリア上の位置:(X3,Y3)
ID:E、第2オブジェクト領域:Df2、所定エリア上の位置:(X5,Y5)
ID:F、第2オブジェクト領域:Dfm6、所定エリア上の位置:(X6,Y6)
図15は、第1時刻におけるオブジェクトの追跡状態を示す図である。図15に示すように、結果として、第1時刻tではB、C、E及びFのIDを割り当てた4つのオブジェクトが追跡中となる。
本実施形態に係るオブジェクト追跡装置1は、複数の撮像画像を取得してもよい。そして、オブジェクト追跡装置1は、撮像画像を取得する毎に、上述した処理を繰り返し実行することにより、オブジェクトの動線情報を精度良く生成することができる。
[本実施形態における効果]
以上説明したように、本実施形態に係るオブジェクト追跡装置1は、所定エリアの撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域を特定する。オブジェクト追跡装置1は、オブジェクトを模した三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合に撮像画像に映る三次元モデルの投影領域のうち、第1領域に対応する第1モデル領域と第2領域に対応する第2モデル領域との対応関係に基づいて、特定した第1オブジェクト領域との距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。そして、オブジェクト追跡装置1は、追跡情報に対応する第2オブジェクト領域との第2の距離が相対的に短い第2モデル領域の位置に基づいて、追跡情報に対応するオブジェクトの第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報を追跡情報に含めることにより、追跡情報を更新する。このようにすることで、オブジェクト追跡装置1は、撮像装置の種類及び撮像角度に関わらず、オブジェクトの全体が検出できなかった場合であってもオブジェクトの動線追跡を行うことができる。
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。例えば、上記実施形態において、第2領域は、オブジェクトとしての人の全身を示す領域であることとしたが、これに限らない。第2領域は、人の胴体を示す領域であってもよい。また、第2領域のサイズは、第1領域を内包するサイズでなくてもよい。
また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
1・・・オブジェクト追跡装置、11・・・記憶部、12・・・制御部、121・・・追跡情報取得部、122・・・撮像画像取得部、123・・・オブジェクト領域特定部、124・・・対応関係特定部、125・・・モデル領域特定部、126・・・更新部

Claims (20)

  1. 所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する撮像画像取得部と、
    前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するオブジェクト領域特定部と、
    前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するモデル領域特定部と、
    前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得する追跡情報取得部と、
    特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新する更新部と、
    を備えるオブジェクト追跡装置。
  2. 前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトの前記第1オブジェクト領域と、前記第1時刻に撮像された撮像画像に映る一以上のオブジェクトの前記第1領域を内包するサイズを有する前記第2領域に対応する前記第2オブジェクト領域とを特定し、
    前記モデル領域特定部は、特定された前記第1オブジェクト領域のうち、前記第2オブジェクト領域に内包されない前記第1オブジェクト領域について、前記対応関係に基づいて前記第2モデル領域を特定する、
    請求項1に記載のオブジェクト追跡装置。
  3. 前記オブジェクト領域特定部は、前記第2オブジェクト領域に内包される前記第1オブジェクト領域を当該第2オブジェクト領域に統合し、
    前記モデル領域特定部は、前記オブジェクト領域特定部により統合されなかった前記第1オブジェクト領域について、前記対応関係に基づいて前記第2モデル領域を特定する、
    請求項2に記載のオブジェクト追跡装置。
  4. 前記三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合に前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1モデル領域と、前記第2モデル領域との対応関係を特定する対応関係特定部をさらに備え、
    前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する、
    請求項1から3のいずれか1項に記載のオブジェクト追跡装置。
  5. 前記対応関係特定部は、前記オブジェクトが取り得る複数のサイズのそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、
    前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定する、
    請求項4に記載のオブジェクト追跡装置。
  6. 前記対応関係特定部は、前記オブジェクトが取り得る複数の形状のそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、
    前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定する、
    請求項4又は5に記載のオブジェクト追跡装置。
  7. 前記対応関係特定部は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合する、
    請求項4から6のいずれか1項に記載のオブジェクト追跡装置。
  8. 前記モデル領域特定部は、特定された前記第1オブジェクト領域と、前記第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第1の距離が短くなるように前記第1の距離を算出する、
    請求項1から7のいずれか1項に記載のオブジェクト追跡装置。
  9. 前記モデル領域特定部は、前記第1オブジェクト領域を示す位置と相対的に近い位置を有する複数の前記第1モデル領域を特定し、特定した複数の前記第1モデル領域のうち、特定された前記第1オブジェクト領域との前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する、
    請求項8に記載のオブジェクト追跡装置。
  10. 前記更新部は、取得された前記追跡情報に対応する前記第2オブジェクト領域と、特定された前記第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第2の距離が短くなるように前記第2の距離を算出する、
    請求項1から9のいずれか1項に記載のオブジェクト追跡装置。
  11. 前記追跡情報取得部は、複数のオブジェクトのそれぞれに対応する前記追跡情報を取得し、
    前記更新部は、前記追跡情報に対応する複数の前記第2オブジェクト領域のそれぞれと、特定された複数の第2モデル領域との前記第2の距離を算出し、前記第2オブジェクト領域と、特定された複数の第2モデル領域との前記第2の距離の総和が相対的に小さくなる複数の前記第2オブジェクト領域と、特定された複数の第2モデル領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定する、
    請求項1から10のいずれか1項に記載のオブジェクト追跡装置。
  12. 前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る複数のオブジェクトの前記第1オブジェクト領域と、前記第2オブジェクト領域とを特定し、
    前記更新部は、前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離を算出し、前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定した後、当該組み合わせに選択されなかった前記追跡情報に対応する前記第2オブジェクト領域と、前記第2モデル領域との組み合わせを選択する、
    請求項11に記載のオブジェクト追跡装置。
  13. 前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る複数のオブジェクトの前記第1オブジェクト領域と、前記第2オブジェクト領域とを特定し、
    前記更新部は、複数の前記第2モデル領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる複数の前記第2モデル領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定した後、前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、当該組み合わせに選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との前記第2の距離を算出し、前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との組み合わせを選択することにより、選択されなかった前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定する、
    請求項11に記載のオブジェクト追跡装置。
  14. 前記更新部は、特定された複数の前記第2モデル領域のうち、前記追跡情報に対応する前記第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域の位置に基づいて、前記所定エリア内に新たに出現したオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成する、
    請求項1から13のいずれか1項に記載のオブジェクト追跡装置。
  15. 相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合するとともに、統合した複数の第1モデル領域に対応する前記三次元モデルの位置の範囲を特定する対応関係特定部をさらに備え、
    前記更新部は、前記追跡情報に対応する前記第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域のうち、当該第2モデル領域に対応する前記三次元モデルの位置の範囲が所定の範囲内である第2モデル領域の位置に基づいて、前記所定エリア内に新たに出現したオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成する、
    請求項1から14のいずれか1項に記載のオブジェクト追跡装置。
  16. 前記モデル領域特定部は、統合した複数の第1モデル領域のそれぞれに対応する前記三次元モデルの位置を含む円を、統合した複数の第1モデル領域に対応する前記三次元モデルの位置の範囲として特定する、
    請求項15に記載のオブジェクト追跡装置。
  17. 前記更新部は、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域に対応する前記三次元モデルの配置位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における前記所定エリア上の位置を特定し、当該第1時刻における前記所定エリア上の位置を示す位置情報を前記追跡情報に含めることにより、前記追跡情報を更新する、
    請求項1から16のいずれか1項に記載のオブジェクト追跡装置。
  18. 前記更新部は、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の前記撮像画像における位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における前記撮像画像上の位置を特定し、当該第1時刻における前記撮像画像上の位置を示す位置情報を前記追跡情報に含めることにより、前記追跡情報を更新する、
    請求項1から17のいずれか1項に記載のオブジェクト追跡装置。
  19. コンピュータが実行する、
    所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得するステップと、
    前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するステップと、
    前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するステップと、
    前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得するステップと、
    特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新するステップと、
    を備えるオブジェクト追跡方法。
  20. コンピュータを、
    所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する撮像画像取得部、
    前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するオブジェクト領域特定部、
    前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するモデル領域特定部、
    前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得する追跡情報取得部、及び、
    特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新する更新部、
    として機能させるオブジェクト追跡プログラム。
JP2018226400A 2018-12-03 2018-12-03 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム Active JP6991958B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018226400A JP6991958B2 (ja) 2018-12-03 2018-12-03 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018226400A JP6991958B2 (ja) 2018-12-03 2018-12-03 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム

Publications (2)

Publication Number Publication Date
JP2020091519A JP2020091519A (ja) 2020-06-11
JP6991958B2 true JP6991958B2 (ja) 2022-01-13

Family

ID=71012841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018226400A Active JP6991958B2 (ja) 2018-12-03 2018-12-03 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム

Country Status (1)

Country Link
JP (1) JP6991958B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784730B (zh) * 2020-07-01 2024-05-03 杭州海康威视数字技术股份有限公司 一种对象跟踪方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117244A (ja) 2015-12-24 2017-06-29 Kddi株式会社 カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117244A (ja) 2015-12-24 2017-06-29 Kddi株式会社 カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法

Also Published As

Publication number Publication date
JP2020091519A (ja) 2020-06-11

Similar Documents

Publication Publication Date Title
CN106407947B (zh) 用于无人驾驶车辆的目标物体识别方法和装置
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US7003136B1 (en) Plan-view projections of depth image data for object tracking
Filliat et al. RGBD object recognition and visual texture classification for indoor semantic mapping
WO2018051944A1 (ja) 人流推定装置、人流推定方法および記録媒体
JP7201909B2 (ja) データセット作成方法、データセット作成装置、及びデータセット作成プログラム
CN111105495A (zh) 一种融合视觉语义信息的激光雷达建图方法及系统
JP2019125057A (ja) 画像処理装置及びその方法、プログラム
WO2020248458A1 (zh) 一种信息处理方法、装置及存储介质
WO2020225562A1 (en) Processing captured images
JP6773829B2 (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
US11748998B1 (en) Three-dimensional object estimation using two-dimensional annotations
WO2022099528A1 (zh) 点云法向量计算方法、装置、计算机设备和存储介质
Martins et al. Extending maps with semantic and contextual object information for robot navigation: a learning-based framework using visual and depth cues
CN111695497B (zh) 基于运动信息的行人识别方法、介质、终端和装置
JP6991958B2 (ja) オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム
JP2019211981A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
WO2021250808A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7304235B2 (ja) 学習済みモデル、学習装置、学習方法、及び学習プログラム
JP6773825B2 (ja) 学習装置、学習方法、学習プログラム、及び対象物認識装置
JP6991955B2 (ja) オブジェクト位置特定装置、オブジェクト位置特定方法、及びオブジェクト位置特定プログラム
Hasan et al. Gesture feature extraction for static gesture recognition
JP2019066909A (ja) 物体分布推定装置
JP7234378B2 (ja) 回転仮説を決定することによって画像を処理する方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R150 Certificate of patent or registration of utility model

Ref document number: 6991958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150