JP6991958B2 - オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム - Google Patents
オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム Download PDFInfo
- Publication number
- JP6991958B2 JP6991958B2 JP2018226400A JP2018226400A JP6991958B2 JP 6991958 B2 JP6991958 B2 JP 6991958B2 JP 2018226400 A JP2018226400 A JP 2018226400A JP 2018226400 A JP2018226400 A JP 2018226400A JP 6991958 B2 JP6991958 B2 JP 6991958B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- model
- specified
- tracking information
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
前記対応関係特定部は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合してもよい。
図1は、本実施形態に係るオブジェクト追跡装置1の概要を示す図である。オブジェクト追跡装置1は、所定エリアにおけるオブジェクトの位置を追跡するコンピュータである。オブジェクト追跡装置1は、撮像装置が撮像した第1時刻における所定エリアの撮像画像を取得する(図1の(1))。所定エリアは、例えば店舗内の空間である。オブジェクトは、例えば、所定エリア内を行動する店員や顧客である。
続いて、オブジェクト追跡装置1の構成を説明する。図2は、本実施形態に係るオブジェクト追跡装置1の構成を示す図である。図2に示すように、オブジェクト追跡装置1は、記憶部11と、制御部12とを備える。
(u_h,v_h,w_h,h_h,u_f,v_f,w_f,h_f)
第1モデル領域の矩形情報:(u1_h,v1_h,w1_h,h1_h)
第2モデル領域の矩形情報:(u1_f,v1_f,w1_f,h1_f)
第1モデル領域の矩形情報:(u2_h,v2_h,w2_h,h2_h)
第2モデル領域の矩形情報:(u2_f,v2_f,w2_f,h2_f)
第1モデル領域の矩形情報:(u3_h,v3_h,w3_h,h3_h)
第2モデル領域の矩形情報:(u3_f,v3_f,w3_f,h3_f)
(u1_h、v1_h,w1_h,h1_h,u1_f,v1_f,w1_f,h1_f)
(u2_h、v2_h,w2_h,h2_h,u2_f,v2_f,w2_f,h2_f)
(u3_h、v3_h,w3_h,h3_h,u3_f,v3_f,w3_f,h3_f)
u1_h=u2_h=u3_h
v1_h=v2_h=v3_h
(u1_h,v1_h,w1_h,h1_h,u1_f,v1_f,w1_f,h1_f,
w2_h,h2_h,u2_f,v2_f,w2_f,h2_f,
w3_h,h3_h,u3_f,v3_f,w3_f,h3_f)
d11=1-(Df1∩Tf1)/(Df1∪Tf1)
d21=min(1-(Dfm1∩Tf1)/(Dfm1∪Tf1),
1-(Dfm2∩Tf1)/(Dfm2∪Tf1),
1-(Dfm3∩Tf1)/(Dfm3∪Tf1))
d22:第2オブジェクト領域Tf2と、第2モデル領域Dfm1
d13:第2オブジェクト領域Tf3と、第2オブジェクト領域Df1
d44:第2オブジェクト領域Tf4と、第2オブジェクト領域Df2
d13:第2オブジェクト領域Tf3と、第2オブジェクト領域Df1
ID:A、第2オブジェクト領域:Tf1
ID:B、第2オブジェクト領域:Tf2
ID:C、第2オブジェクト領域:Tf3
ID:D、第2オブジェクト領域:Tf4
第2オブジェクト領域Tf2と、第2モデル領域Dfm1
第2オブジェクト領域Tf3と、第2オブジェクト領域Df1
ID:A、第2オブジェクト領域:Tf1、所定エリア上の位置:(X1,Y1)
ID:D、第2オブジェクト領域:Tf4、所定エリア上の位置:(X4,Y4)
時刻t
ID:B、第2オブジェクト領域:Dfm1、所定エリア上の位置:(X2,Y2)
ID:C、第2オブジェクト領域:Df1、所定エリア上の位置:(X3,Y3)
ID:A、第2オブジェクト領域:Tf1、所定エリア上の位置:(X1,Y1)
ID:D、第2オブジェクト領域:Tf4、所定エリア上の位置:(X4,Y4)
時刻t
ID:B、第2オブジェクト領域:Dfm1、所定エリア上の位置:(X2,Y2)
ID:C、第2オブジェクト領域:Df1、所定エリア上の位置:(X3,Y3)
ID:E、第2オブジェクト領域:Df2、所定エリア上の位置:(X5,Y5)
ID:A、第2オブジェクト領域:Tf1、所定エリア上の位置:(X1,Y1)
ID:D、第2オブジェクト領域:Tf4、所定エリア上の位置:(X4,Y4)
時刻t
ID:B、第2オブジェクト領域:Dfm1、所定エリア上の位置:(X2,Y2)
ID:C、第2オブジェクト領域:Df1、所定エリア上の位置:(X3,Y3)
ID:E、第2オブジェクト領域:Df2、所定エリア上の位置:(X5,Y5)
ID:F、第2オブジェクト領域:Dfm6、所定エリア上の位置:(X6,Y6)
以上説明したように、本実施形態に係るオブジェクト追跡装置1は、所定エリアの撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域を特定する。オブジェクト追跡装置1は、オブジェクトを模した三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合に撮像画像に映る三次元モデルの投影領域のうち、第1領域に対応する第1モデル領域と第2領域に対応する第2モデル領域との対応関係に基づいて、特定した第1オブジェクト領域との距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。そして、オブジェクト追跡装置1は、追跡情報に対応する第2オブジェクト領域との第2の距離が相対的に短い第2モデル領域の位置に基づいて、追跡情報に対応するオブジェクトの第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報を追跡情報に含めることにより、追跡情報を更新する。このようにすることで、オブジェクト追跡装置1は、撮像装置の種類及び撮像角度に関わらず、オブジェクトの全体が検出できなかった場合であってもオブジェクトの動線追跡を行うことができる。
Claims (20)
- 所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する撮像画像取得部と、
前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するオブジェクト領域特定部と、
前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するモデル領域特定部と、
前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得する追跡情報取得部と、
特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新する更新部と、
を備えるオブジェクト追跡装置。 - 前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトの前記第1オブジェクト領域と、前記第1時刻に撮像された撮像画像に映る一以上のオブジェクトの前記第1領域を内包するサイズを有する前記第2領域に対応する前記第2オブジェクト領域とを特定し、
前記モデル領域特定部は、特定された前記第1オブジェクト領域のうち、前記第2オブジェクト領域に内包されない前記第1オブジェクト領域について、前記対応関係に基づいて前記第2モデル領域を特定する、
請求項1に記載のオブジェクト追跡装置。 - 前記オブジェクト領域特定部は、前記第2オブジェクト領域に内包される前記第1オブジェクト領域を当該第2オブジェクト領域に統合し、
前記モデル領域特定部は、前記オブジェクト領域特定部により統合されなかった前記第1オブジェクト領域について、前記対応関係に基づいて前記第2モデル領域を特定する、
請求項2に記載のオブジェクト追跡装置。 - 前記三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合に前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1モデル領域と、前記第2モデル領域との対応関係を特定する対応関係特定部をさらに備え、
前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する、
請求項1から3のいずれか1項に記載のオブジェクト追跡装置。 - 前記対応関係特定部は、前記オブジェクトが取り得る複数のサイズのそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、
前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定する、
請求項4に記載のオブジェクト追跡装置。 - 前記対応関係特定部は、前記オブジェクトが取り得る複数の形状のそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、
前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定する、
請求項4又は5に記載のオブジェクト追跡装置。 - 前記対応関係特定部は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合する、
請求項4から6のいずれか1項に記載のオブジェクト追跡装置。 - 前記モデル領域特定部は、特定された前記第1オブジェクト領域と、前記第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第1の距離が短くなるように前記第1の距離を算出する、
請求項1から7のいずれか1項に記載のオブジェクト追跡装置。 - 前記モデル領域特定部は、前記第1オブジェクト領域を示す位置と相対的に近い位置を有する複数の前記第1モデル領域を特定し、特定した複数の前記第1モデル領域のうち、特定された前記第1オブジェクト領域との前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する、
請求項8に記載のオブジェクト追跡装置。 - 前記更新部は、取得された前記追跡情報に対応する前記第2オブジェクト領域と、特定された前記第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第2の距離が短くなるように前記第2の距離を算出する、
請求項1から9のいずれか1項に記載のオブジェクト追跡装置。 - 前記追跡情報取得部は、複数のオブジェクトのそれぞれに対応する前記追跡情報を取得し、
前記更新部は、前記追跡情報に対応する複数の前記第2オブジェクト領域のそれぞれと、特定された複数の第2モデル領域との前記第2の距離を算出し、前記第2オブジェクト領域と、特定された複数の第2モデル領域との前記第2の距離の総和が相対的に小さくなる複数の前記第2オブジェクト領域と、特定された複数の第2モデル領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定する、
請求項1から10のいずれか1項に記載のオブジェクト追跡装置。 - 前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る複数のオブジェクトの前記第1オブジェクト領域と、前記第2オブジェクト領域とを特定し、
前記更新部は、前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離を算出し、前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる前記オブジェクト領域特定部が特定した複数の前記第2オブジェクト領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定した後、当該組み合わせに選択されなかった前記追跡情報に対応する前記第2オブジェクト領域と、前記第2モデル領域との組み合わせを選択する、
請求項11に記載のオブジェクト追跡装置。 - 前記オブジェクト領域特定部は、前記第1時刻に撮像された前記撮像画像に映る複数のオブジェクトの前記第1オブジェクト領域と、前記第2オブジェクト領域とを特定し、
前記更新部は、複数の前記第2モデル領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる複数の前記第2モデル領域と、前記追跡情報に対応する複数の前記第2オブジェクト領域との組み合わせを選択することにより、前記追跡情報に対応する複数のオブジェクトの前記第1時刻における位置を特定した後、前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、当該組み合わせに選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との前記第2の距離を算出し、前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との前記第2の距離の総和が相対的に小さくなる前記オブジェクト領域特定部が特定した前記第2オブジェクト領域と、選択されなかった前記追跡情報に対応する前記第2オブジェクト領域との組み合わせを選択することにより、選択されなかった前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定する、
請求項11に記載のオブジェクト追跡装置。 - 前記更新部は、特定された複数の前記第2モデル領域のうち、前記追跡情報に対応する前記第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域の位置に基づいて、前記所定エリア内に新たに出現したオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成する、
請求項1から13のいずれか1項に記載のオブジェクト追跡装置。 - 相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合するとともに、統合した複数の第1モデル領域に対応する前記三次元モデルの位置の範囲を特定する対応関係特定部をさらに備え、
前記更新部は、前記追跡情報に対応する前記第2オブジェクト領域の位置の特定に用いられなかった第2モデル領域のうち、当該第2モデル領域に対応する前記三次元モデルの位置の範囲が所定の範囲内である第2モデル領域の位置に基づいて、前記所定エリア内に新たに出現したオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における当該オブジェクトの位置を示す位置情報を含む追跡情報を生成する、
請求項1から14のいずれか1項に記載のオブジェクト追跡装置。 - 前記モデル領域特定部は、統合した複数の第1モデル領域のそれぞれに対応する前記三次元モデルの位置を含む円を、統合した複数の第1モデル領域に対応する前記三次元モデルの位置の範囲として特定する、
請求項15に記載のオブジェクト追跡装置。 - 前記更新部は、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域に対応する前記三次元モデルの配置位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における前記所定エリア上の位置を特定し、当該第1時刻における前記所定エリア上の位置を示す位置情報を前記追跡情報に含めることにより、前記追跡情報を更新する、
請求項1から16のいずれか1項に記載のオブジェクト追跡装置。 - 前記更新部は、特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の前記撮像画像における位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における前記撮像画像上の位置を特定し、当該第1時刻における前記撮像画像上の位置を示す位置情報を前記追跡情報に含めることにより、前記追跡情報を更新する、
請求項1から17のいずれか1項に記載のオブジェクト追跡装置。 - コンピュータが実行する、
所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得するステップと、
前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するステップと、
前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するステップと、
前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得するステップと、
特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新するステップと、
を備えるオブジェクト追跡方法。 - コンピュータを、
所定エリアを撮像する撮像装置が第1時刻に撮像した撮像画像を取得する撮像画像取得部、
前記第1時刻に撮像された前記撮像画像に映る一以上のオブジェクトのそれぞれの第1領域に対応する第1オブジェクト領域を特定するオブジェクト領域特定部、
前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第1領域とは異なる第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された一以上の前記第1オブジェクト領域のそれぞれに対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定するモデル領域特定部、
前記第1時刻とは異なる時刻に前記撮像装置が撮像した撮像画像におけるオブジェクトの前記第2領域に対応する第2オブジェクト領域の位置を示す位置情報を含む追跡情報を取得する追跡情報取得部、及び、
特定された複数の前記第2モデル領域のうち、取得された前記追跡情報に対応する前記第2オブジェクト領域との距離を示す第2の距離が相対的に短い前記第2モデル領域を特定し、当該第2モデル領域の位置に基づいて、前記追跡情報に対応するオブジェクトの前記第1時刻における位置を特定し、当該第1時刻における位置を示す位置情報に基づいて前記追跡情報を更新する更新部、
として機能させるオブジェクト追跡プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226400A JP6991958B2 (ja) | 2018-12-03 | 2018-12-03 | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018226400A JP6991958B2 (ja) | 2018-12-03 | 2018-12-03 | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091519A JP2020091519A (ja) | 2020-06-11 |
JP6991958B2 true JP6991958B2 (ja) | 2022-01-13 |
Family
ID=71012841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018226400A Active JP6991958B2 (ja) | 2018-12-03 | 2018-12-03 | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6991958B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784730B (zh) * | 2020-07-01 | 2024-05-03 | 杭州海康威视数字技术股份有限公司 | 一种对象跟踪方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017117244A (ja) | 2015-12-24 | 2017-06-29 | Kddi株式会社 | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 |
-
2018
- 2018-12-03 JP JP2018226400A patent/JP6991958B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017117244A (ja) | 2015-12-24 | 2017-06-29 | Kddi株式会社 | カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020091519A (ja) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106407947B (zh) | 用于无人驾驶车辆的目标物体识别方法和装置 | |
JP6977730B2 (ja) | 人流推定装置、人流推定方法およびプログラム | |
CN107292234B (zh) | 一种基于信息边缘和多模态特征的室内场景布局估计方法 | |
JP5380789B2 (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
US7003136B1 (en) | Plan-view projections of depth image data for object tracking | |
JP7201909B2 (ja) | データセット作成方法、データセット作成装置、及びデータセット作成プログラム | |
CN111105495A (zh) | 一种融合视觉语义信息的激光雷达建图方法及系统 | |
JP2019125057A (ja) | 画像処理装置及びその方法、プログラム | |
WO2020248458A1 (zh) | 一种信息处理方法、装置及存储介质 | |
WO2020225562A1 (en) | Processing captured images | |
JP6872044B2 (ja) | 対象物の外接枠を決定するための方法、装置、媒体及び機器 | |
US11748998B1 (en) | Three-dimensional object estimation using two-dimensional annotations | |
JP6773829B2 (ja) | 対象物認識装置、対象物認識方法、及び対象物認識プログラム | |
Martins et al. | Extending maps with semantic and contextual object information for robot navigation: a learning-based framework using visual and depth cues | |
WO2022099528A1 (zh) | 点云法向量计算方法、装置、计算机设备和存储介质 | |
CN111695497B (zh) | 基于运动信息的行人识别方法、介质、终端和装置 | |
CN111709988A (zh) | 一种物体的特征信息的确定方法、装置、电子设备及存储介质 | |
WO2021250808A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6991958B2 (ja) | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム | |
JP2019211981A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2019066909A (ja) | 物体分布推定装置 | |
JP6991955B2 (ja) | オブジェクト位置特定装置、オブジェクト位置特定方法、及びオブジェクト位置特定プログラム | |
Hasan et al. | Gesture feature extraction for static gesture recognition | |
CN115683109A (zh) | 基于cuda和三维栅格地图的视觉动态障碍物检测方法 | |
JP7234378B2 (ja) | 回転仮説を決定することによって画像を処理する方法及びシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6991958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |