JP6546057B2 - 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム - Google Patents

複数のカメラ間での人物の追跡装置、追跡方法及びプログラム Download PDF

Info

Publication number
JP6546057B2
JP6546057B2 JP2015190304A JP2015190304A JP6546057B2 JP 6546057 B2 JP6546057 B2 JP 6546057B2 JP 2015190304 A JP2015190304 A JP 2015190304A JP 2015190304 A JP2015190304 A JP 2015190304A JP 6546057 B2 JP6546057 B2 JP 6546057B2
Authority
JP
Japan
Prior art keywords
person
camera
detected
area
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015190304A
Other languages
English (en)
Other versions
JP2017068375A (ja
Inventor
智史 上野
智史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015190304A priority Critical patent/JP6546057B2/ja
Publication of JP2017068375A publication Critical patent/JP2017068375A/ja
Application granted granted Critical
Publication of JP6546057B2 publication Critical patent/JP6546057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数のカメラ間での人物の追跡技術に関する。
監視用途や、店舗内における来客やスタッフの行動を理解するために、カメラで撮影した動画像を用いて、移動する人物の実空間位置を追跡することが提案されている。なお、この様な用途には全方位カメラの様な広い範囲を撮影可能なカメラが使用される。しかしながら、全方位カメラであっても1台で室内の全領域を撮影することができないため、通常は、複数のカメラを設置して人物の実空間位置の追跡を行う。
複数のカメラを使用する場合、カメラ間において人物の同一性を判定する必要がある。つまり、あるカメラの撮影範囲内にいた人物が他のカメラの撮影範囲内に移動した場合においても、当該人物が同一人であると判定して追跡を行う必要がある。このため非特許文献1は、2次元画像空間の人物領域と、図3に示す人物の円柱モデルを2次元画像空間に投影した領域に基づき、人物の3次元実空間内の位置を判定し、3次元実空間内で人物を追跡する構成を開示している。
Osawa,Tatsuya, et al."Human tracking by particle filtering using full 3d model of both target and environment",IEEE 18th International Conference on Pattern Recognition(ICPR 2006),vol.2,pp.25−28,2006年
しかしながら、カメラ間における人物の同一性をより精度良く判定して追跡を行うことが求められている。
本発明は、カメラ間における人物の同一性を精度良く判定して人物の追跡を行う追跡装置、追跡方法及びプログラムを提供するものである。
本発明の一側面によると、複数のカメラのそれぞれが撮影する動画像により人物を追跡する追跡装置は、前記複数のカメラのそれぞれが撮影する動画像内の人物を検出する検出手段と、前記検出手段が検出した人物の実空間位置及び向きを算出する算出手段と、前記複数のカメラの内の第1カメラと第2カメラの撮影範囲の重複領域において、前記第1カメラにより検出された人物と前記第2カメラにより検出された人物の異同を判定する判定手段と、を備えており、前記判定手段は、前記第1カメラにより前記重複領域において検出された第1人物の実空間位置に人型モデルを前記第1人物の向きと同じ向きに向けて設置したときの、前記第2のカメラが撮影する画像空間内における前記人型モデルの輪郭を求め、前記第2のカメラにより前記重複領域において検出された第2人物の前記画像空間内における輪郭と前記人型モデルの輪郭との類似度に基づき、前記第2カメラにより前記重複領域において検出された第2人物の内、前記第1人物と同じ人物を判定することを特徴とする。
カメラ間における人物の同一性を精度良く判定して人物の追跡を行うことができる。
一実施形態による追跡装置の構成図。 一実施形態によるカメラの設置状態を示す図。 一実施形態による人物の円柱モデルを示す図。 一実施形態による人物の円柱モデルを2次元画像空間に投影した状態を示す図。 一実施形態による通常処理部における処理のフローチャート。 一実施形態による人物モデルを示す図。 一実施形態による人物モデルを2次元画像空間に投影した状態を示す図。 一実施形態による人物モデルを2次元画像空間に投影した状態を示す図。
以下、本発明の例示的な実施形態について図面を参照して説明する。なお、以下の実施形態は例示であり、本発明を実施形態の内容に限定するものではない。また、以下の各図においては、実施形態の説明に必要ではない構成要素については図から省略する。
<第一実施形態>
図1は、本実施形態による追跡装置の構成図である。追跡装置は、複数のカメラ1−1及び1−2が撮影する動画データに基づき人物の追跡を行う。なお、図1においては図の簡略化のため、カメラ1−1及びカメラ1−2の2つのみを表示している。また、以下の説明においてカメラ1−1及びカメラ1−2を区別する必要がない場合には纏めてカメラ1として記述する。他の構成要素についても同様とする。カメラ1は、例えば、広角な範囲の動画を撮影する全方位カメラであり、人物を追跡すべき追跡範囲の総てをカバーする様に複数のカメラ1は設置される。図2は、カメラ1の設置状態の一例を示している。図2に示す様に、カメラ1−1及びカメラ1−2は、垂直下向きをその撮影範囲の中心とする様に天井等に固定される。なお、本実施形態において、隣接して設置される2つのカメラ1の撮影範囲に重複領域を設ける。なお、重複領域内の少なくとも一部の領域においては、両カメラ1により人物の頭から足元までが撮影される様に、重複領域を設定する。なお、設置される総てのカメラ1に対しては、事前にキャリブレーションを行っておき、各カメラ1の内部パラメータおよび外部パラメータは既知であるものとする。
図1に戻り、追跡装置は、各カメラ1に対応する人物検出部2を有する。人物検出部2は、対応するカメラ1から受け取る動画像データの各フレームの人物領域を検出する。人物領域の検出には、背景差分による前景検出技術と、円柱モデルを使用したモデルマップとを使用することができる。
具体的には、人物検出部2は、対応するカメラ1の撮影範囲の背景画像を示す画像データを保持している。そして、人物検出部2は、対応するカメラ1からの動画像データが示す各フレームの画像と、背景画像との差分により人物領域を含む前景領域を抽出する。さらに、前景領域から人物領域を抽出するため、図3に示す人物の円柱モデルを使用する。具体的には、対応するカメラ1の撮影範囲内における3次元実空間の各位置に円柱モデルを設置したと仮定した場合に、対応するカメラ1が撮影する2次元画像空間内において円柱モデルがどの様な形状となるかを、対応するカメラ1の内部パラメータ及び外部パラメータに基づき計算する。図4は、円柱モデルを3次元実空間内の各位置に設置した場合における、当該円柱モデルの2次元画像空間内における形状を示している。なお、円柱モデルを設置したと仮定する3次元実空間の位置とその数は、計算量と位置検出の精度に基づき予め決定しておく。
人物検出部2は、背景差分により検出した前景領域と、円柱モデルの2次元画像空間への投影領域それぞれの重複領域を求め、この重複領域の当該前景領域に対する重複率を求める。ここで、最も高い重複率でも、その値が所定値以下である場合、当該前景領域は人物領域ではないと判定する。一方、最も高い重複率が当該所定値より大きい場合、当該前景領域を人物領域と判定する。
図1に戻り、追跡装置は、各人物検出部2に対応する情報算出部3を有する。情報算出部3は、あるフレームにおいて対応する人物検出部2が検出した人物領域に対応する人物の3次元実空間位置とその向きを判定する。具体的には、まず、対応する人物検出部2が検出した人物領域との重複率が最も高かった円柱モデルの3次元実空間の位置を、当該人物の3次元実空間位置と判定する。また、情報算出部3は、人物領域の動きベクトルを算出する。具体的には、人物領域の複数の特徴点を求め、連続する2つのフレームの対応する特徴点の差から、特徴点毎の動きベクトルを算出する。そして、1つの人物領域の各動きベクトルの平均ベクトルを当該人物領域に対応する人物の移動方向かつ向きとする。或いは、時間的に連続する少なくとも2つのフレームの同じ人物に対応する人物領域の位置の差から当該人物領域の動きベクトルを算出しても良い。なお、2つのフレームの人物領域の人物の対応関係は、以下に説明する通常処理部4が判定するため、その情報を使用する。なお、本実施形態において人物の向きとは、人物の胸部に対して垂直な方向とする。
情報管理部4は、各情報算出部3から各人物の位置と、その向きとを示す情報を受け取る。情報管理部4の通常処理部4は、まず、各カメラ1が撮影した撮影範囲毎に図5の処理を行う。図5の処理は、カメラ1によりあるフレームにおいて検出された人物と、当該カメラ1により1つ前のフレームにおいて検出された人物との異同を判定する処理である。なお、1つ前のフレームにおいて検出された人物についての情報はデータベース部(DB)41に登録されている。まず、通常処理部42は、S10で、情報算出部3があるフレームにおいて検出した人物と、DB41に登録されている、当該情報算出部3に対応するカメラ1の撮影範囲内の各人物との3次元実空間における距離を求める。そして、通常処理部42は、S11で、情報算出部3があるフレームにおいて検出した人物それぞれについて、DB41に登録されている総ての人物との距離を第1閾値と比較する。ここで、情報算出部3があるフレームにおいて検出したある人物と、DB41に登録されている各人物との距離の総てが第1閾値以上であると、通常処理部42は、情報算出部3が当該フレームにおいて検出した当該ある人物が新規人物であると判定する。この場合、通常処理部42は、S13で、当該人物に新規の識別子(ID)を付与し、付与したIDを、当該人物の位置及び向きと関連付けてDB41に登録する。なお、この場合、向きについては検出されないため、向きについては"不明"を示す値を登録しておく。一方、情報算出部3があるフレームにおいて検出したある人物と、DB41に登録されている各人物との距離に第1閾値未満のものがあると、通常処理部42は、S12で、当該人物が、DB41に登録された人物の内、距離の最も近い人物と同一であると判定し、DB41に登録されている人物の位置及び向きを当該フレームで検出した値に更新する。
この様に、DB41は、カメラ1それぞれに対して、その撮影範囲内にいる人物の位置及び向きと、そのIDを管理している。
その後、重複領域処理部43は、各カメラ1の撮影範囲の重複領域において検出されている人物についての処理を行う。以下では、カメラ1−1とカメラ1−2の重複領域においてそれぞれのカメラ1が2人の人物を検出している場合について説明する。ここで、カメラ1−1が検出している2人の人物を、それぞれ、人物1A及び1Bとし、カメラ1−2が検出している2人の人物を人物2X及び2Yとする。
まず、人物1Aの位置と、人物2X及び2Yの距離を第2閾値と比較する。各距離が共に第2閾値以上であると、人物1Aは、カメラ1−2により撮影されていないとする。これは、カメラ1−1とカメラ1−2の重複領域の端部に人物1Aがいることにより、カメラ1−2では人物1Aの一部のみが撮影されており、よって、カメラ1−2が撮影した動画から人物を検出する人物検出部2−2では、人物1Aが人物として検出されなかった場合に対する処理である。
一方、人物1Aの位置と、人物2X及び人物2Yとの距離の1つの距離が第2閾値未満である場合、例えば、人物1Aと人物2Xとの距離が第2閾値未満であるが、人物1Aと人物2Yとの距離が第2閾値以上であると、人物1Aと人物2Xは同一であると判定する。この場合、重複領域処理部43は、人物1Aと人物2Xの3次元実空間位置の例えば中間位置を人物1A(=人物2X)の3次元実空間位置とする。また、付与している識別子を統一する。例えば、カメラ1−1では以前から人物1Aを撮影しており、カメラ1−2で人物2Xが新規に検出された場合、図5のS13の処理で人物2Xに付与したIDを削除し、代わりに、人物1Aに付与したIDを人物2Xに与える様にDB41を更新する。また、人物1A(=人物2X)の向きは、人物1Aの向きと人物2Xの向きの中間の向きとする。なお、人物2Xの向きが不明である場合には、人物1Aの向きをそのまま使用する。なお、カメラ1−2では、重複領域において3人以上の人物が検出されている場合、1つの距離が第2閾値未満であり、他の総ての距離が第2閾値以上であると、第2閾値未満の距離となる人物を人物1Aと同一であると判定する。
一方、人物1Aと人物2Xとの距離と、人物1Aと人物2Yとの距離とのそれぞれが第2閾値未満であると、重複領域処理部43は、3次元人型モデルにより人物1Aが、人物2Xと人物2Yのどちらと同一であるかを判定する。図6は、3次元人型モデルの一例を示している。なお、3次元人型モデルを示すデータは、予め重複領域処理部43に保持させておく。図6に示す様に、3次元人型モデルは、人物の顔、胴体、手及び足を含む、人型の3次元のモデルデータである。
まず、重複領域処理部43は、人物1Aの3次元実空間位置に3次元人型モデルを、その向きを、人物1Aの向きに合わせて設置したと仮定した場合において、カメラ1−2が取得する2次元画像空間内での3次元人型モデルの輪郭(領域)を、カメラ1−2の外部パラメータ及び内部パラメータより求める。そして、カメラ1−2が取得する2次元画像空間内における人物2X及び2Yの輪郭(領域)との類似度を求める。そして、重複領域処理部43は、人物2X及び2Yの内の類似度が大きい方を、人物1Aと同一であると判定する。類似度の判定には、3次元人型モデルの領域と、人物2X及び2Yの領域の重複度を使用することができる。或いは、輪郭をベクトルとして表現しそのベクトルの類似度で算出することができる。さらには、「Veltkamp, Remco C."Shape matching:Similarity measures and algorithms."IEEE International Conference on Shape Modeling and Applications (SMI2001),pp.188−197,2001年」に記載の方法を使用することもできる。
なお、カメラ1−1で検出された人物が新規であり、その方向が判定できない場合には、カメラ1−2で検出された人物の3次元実空間位置に対して3次元人型モデルを設置したと仮定して同様の処理を行うことができる。或いは、当該フレームでの処理をスキップし、次のフレームにおいてカメラ1−1で検出された人物の向きが確定してからカメラ間での人物の対応関係の判定を行っても良い。
重複領域処理部43は、人物1Aと同一であると判定した人物2X又は2YのIDを統一する様に、DB41を更新する。例えば、人物1Aと人物2Xが同一であると判定すると、カメラ1−1が撮影している人物1Aと、カメラ1−2が撮影している人物2XのIDが同一となる様にDB41を更新する。さらには、人物1A及び人物2Xの位置を、カメラ1−1が撮影した画像から判定した3次元実空間位置と、カメラ1−2が撮影した画像から判定した3次元実空間位置の例えば中間位置としてDB41を更新する。さらには、人物1A及び人物2Xの向きを、カメラ1−1が撮影した画像から判定した向きと、カメラ1−2が撮影した画像から判定した向きの例えば中間の向きとしてDB41を更新する。
なお、重複領域において3人以上の人物が検出されている場合、距離が閾値未満である人物それぞれに対する類似度を判定し、類似度が最も大きい人物が同一であると判定する。以上の処理は、カメラ1−1が撮影した画像内のカメラ1−2との重複領域内において検出された人物に対して順に行う。このとき、重複領域内において検出された人物の内、既に2つのカメラでの同一性が判定された人物については除外する。重複領域処理部43は、以上の処理を各カメラ1の重複領域毎に行うことで、カメラ間における人物の同一性を判定する。
図7及び図8は、3次元人型モデルを同じ位置に立たせた場合であってもその向きにより、カメラ1−2が取得する2次元画像空間内での3次元人型モデルの輪郭が異なる事を示している。本実施形態では、3次元人型モデルを使用し、この3次元人型モデルの2次元画像空間内における輪郭を算出するに当たり、その向きをも考慮する。したがって、重複領域に複数の人物が存在する場合において、カメラ間における人物の対応関係を精度良く判定することができる。
なお、本発明による追跡装置は、コンピュータを上記追跡装置として動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。
1:カメラ、2:人物検出部、3:情報算出部、42:通常処理部、43:重複領域算出部

Claims (10)

  1. 複数のカメラのそれぞれが撮影する動画像により人物を追跡する追跡装置であって、
    前記複数のカメラのそれぞれが撮影する動画像内の人物を検出する検出手段と、
    前記検出手段が検出した人物の実空間位置及び向きを算出する算出手段と、
    前記複数のカメラの内の第1カメラと第2カメラの撮影範囲の重複領域において、前記第1カメラにより検出された人物と前記第2カメラにより検出された人物の異同を判定する判定手段と、
    を備えており、
    前記判定手段は、前記第1カメラにより前記重複領域において検出された第1人物の実空間位置に人型モデルを前記第1人物の向きと同じ向きに向けて設置したときの、前記第2カメラが撮影する画像空間内における前記人型モデルの輪郭を求め、前記第2カメラにより前記重複領域において検出された第2人物の前記画像空間内における輪郭と、前記人型モデルの輪郭との類似度に基づき、前記第2カメラにより前記重複領域において検出された第2人物の内、前記第1人物と同じ人物を判定することを特徴とする追跡装置。
  2. 前記判定手段は、前記第1カメラにより前記重複領域において検出された第1人物の実空間位置と、前記第2カメラにより前記重複領域において検出された第2人物それぞれの実空間位置との距離を求めて閾値と比較し、
    前記閾値未満の距離が1つの場合、前記閾値未満の距離に対応する第2人物が前記第1人物と同じ人物であると判定し、
    前記閾値未満の距離が複数ある場合、前記閾値未満の距離に対応する第2人物それぞれの前記画像空間内における輪郭と前記人型モデルの輪郭との類似度に基づき、前記閾値未満の距離に対応する第2人物の中から前記第1人物と同じ人物を判定することを特徴とする請求項1に記載の追跡装置。
  3. 前記判定手段は、前記閾値未満の距離がない場合、前記第2人物の中には前記第1人物と同じ人物がいないと判定することを特徴とする請求項2に記載の追跡装置。
  4. 前記検出手段は、前記複数のカメラそれぞれの背景画像を保持しており、前記複数のカメラのそれぞれが撮影する動画像と対応する背景画像との差分により前景領域を検出し、
    前記検出手段は、カメラの撮影範囲内の実空間位置に人物の円柱モデルを設置した場合に当該カメラが撮影する画像の画像空間内での前記円柱モデルの領域を、当該カメラの撮影範囲内の複数の実空間位置それぞれについて求め、当該カメラにより検出された前景領域と求めた各領域との重複率に所定値より大きいものがあると、当該前景領域を人物として検出することを特徴とする請求項1から3のいずれか1項に記載の追跡装置。
  5. 前記算出手段は、人物であると検出した前景領域との重複率が最も高い領域に対応する、前記円柱モデルの実空間位置を当該人物の実空間位置とすることを特徴とする請求項4に記載の追跡装置。
  6. 前記算出手段は、同じカメラが撮影した連続する第1フレーム及び第2フレームにおいて人物であると検出した前景領域の1つ以上の特徴点を判定し、前記第1フレームの前記1つ以上の特徴点と前記第2フレームの前記1つ以上の特徴点との差から、前記1つ以上の特徴点それぞれの動きベクトルを算出し、算出した動きベクトルの平均ベクトルから当該人物の向きを算出することを特徴とする請求項4又は5に記載の追跡装置。
  7. 前記算出手段は、同じカメラが撮影した連続する第1フレーム及び第2フレームにおいて検出された人物それぞれの実空間位置の差に基づき前記第1フレーム及び前記第2フレームで検出された人物の異同を判定することを特徴とする請求項1から6のいずれか1項に記載の追跡装置。
  8. 前記算出手段は、同じカメラが撮影した連続する第1フレーム及び第2フレームにおける同じ人物の実空間位置の差に基づき当該人物の向きを判定することを特徴とする請求項7に記載の追跡装置。
  9. 複数のカメラのそれぞれが撮影する動画像により人物を追跡する追跡装置における追跡方法であって、
    前記複数のカメラのそれぞれが撮影する動画像内の人物を検出する検出ステップと、
    前記検出ステップにおいて検出した人物の実空間位置及び向きを算出する算出ステップと、
    前記複数のカメラの内の第1カメラと第2カメラの撮影範囲の重複領域において、前記第1カメラにより検出された人物と前記第2カメラにより検出された人物の異同を判定する判定ステップと、
    を含み、
    前記判定ステップは、
    前記第1カメラにより前記重複領域において検出された第1人物の実空間位置に人型モデルを前記第1人物の向きと同じ向きに向けて設置したときの、前記第2カメラが撮影する画像空間内における前記人型モデルの輪郭を求めるステップと、
    前記第2カメラにより前記重複領域において検出された第2人物の前記画像空間内における輪郭と前記人型モデルの輪郭との類似度に基づき、前記第2カメラにより前記重複領域において検出された第2人物の内、前記第1人物と同じ人物を判定するステップと、
    を含むことを特徴とする追跡方法。
  10. 請求項1から8のいずれか1項に記載の追跡装置としてコンピュータを機能させることを特徴とするプログラム。
JP2015190304A 2015-09-28 2015-09-28 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム Active JP6546057B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015190304A JP6546057B2 (ja) 2015-09-28 2015-09-28 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015190304A JP6546057B2 (ja) 2015-09-28 2015-09-28 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017068375A JP2017068375A (ja) 2017-04-06
JP6546057B2 true JP6546057B2 (ja) 2019-07-17

Family

ID=58492573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015190304A Active JP6546057B2 (ja) 2015-09-28 2015-09-28 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6546057B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468576B2 (en) 2020-02-21 2022-10-11 Nec Corporation Tracking within and across facilities
CN113012199B (zh) * 2021-03-23 2024-01-12 北京灵汐科技有限公司 运动目标追踪的系统和方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249889A (ja) * 2006-03-20 2007-09-27 Yazaki Corp ガス警報器
JP6221390B2 (ja) * 2013-06-18 2017-11-01 富士通株式会社 画像処理装置、プログラム、および画像処理方法
JP6117089B2 (ja) * 2013-12-12 2017-04-19 セコム株式会社 人物検出装置
JP6139447B2 (ja) * 2014-03-20 2017-05-31 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
JP2017068375A (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6295645B2 (ja) 物体検出方法及び物体検出装置
US9330470B2 (en) Method and system for modeling subjects from a depth map
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8965050B2 (en) Behavior analysis device
US20100033574A1 (en) Method and System for Object Surveillance and Real Time Activity Recognition
KR101380628B1 (ko) 복수의 카메라를 사용한 객체 추적 방법 및 장치
Chattopadhyay et al. Frontal gait recognition from occluded scenes
US11645777B2 (en) Multi-view positioning using reflections
JP6280020B2 (ja) 移動物体追跡装置
US11501462B2 (en) Multi-view three-dimensional positioning
CN112633096A (zh) 客流的监测方法、装置、电子设备及存储介质
JP6546057B2 (ja) 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム
Rao et al. Crowd density estimation based on optical flow and hierarchical clustering
CN111797652A (zh) 对象跟踪方法、设备及存储介质
JP3520050B2 (ja) 移動物体追跡装置
JP2019121019A (ja) 情報処理装置、3次元位置推定方法、コンピュータプログラム、及び記憶媒体
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
Pham et al. Fusion of wifi and visual signals for person tracking
JP3401512B2 (ja) 移動物体追跡装置
US20220156977A1 (en) Calibration apparatus, calibration method, and non-transitory computer readable medium storing program
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
JP2017097549A (ja) 画像処理装置、方法、及びプログラム
JP6504711B2 (ja) 画像処理装置
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Zhu et al. Keeping smart, omnidirectional eyes on you [adaptive panoramic stereovision]

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190620

R150 Certificate of patent or registration of utility model

Ref document number: 6546057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150