JP6925295B2 - オブジェクト追跡装置、方法およびプログラム - Google Patents
オブジェクト追跡装置、方法およびプログラム Download PDFInfo
- Publication number
- JP6925295B2 JP6925295B2 JP2018059010A JP2018059010A JP6925295B2 JP 6925295 B2 JP6925295 B2 JP 6925295B2 JP 2018059010 A JP2018059010 A JP 2018059010A JP 2018059010 A JP2018059010 A JP 2018059010A JP 6925295 B2 JP6925295 B2 JP 6925295B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- matching
- frame
- map
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 69
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 101100459256 Cyprinus carpio myca gene Proteins 0.000 description 4
- 101100459261 Cyprinus carpio mycb gene Proteins 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
Gi:カメラ映像Iciに基づいて構築したグラフ
Vi:グラフGiの頂点群
N,M:各頂点を識別する序数
Ei:グラフGiのエッジ群
vn:n番目の頂点
emn:m番目の頂点とn番目の頂点とを関連付けるエッジ
p':フロアマップ上での位置
c:オブジェクトの色特徴量
θ:2つの頂点間の方向角度
d:2つの頂点間の距離
vn[p]:n番目の頂点のカメラビュー上での位置属性
vn[p']:n番目の頂点のフロアマップ上での位置属性
vn[c]:n番目の頂点に対応したオブジェクトの色特徴
emn[θ]:m番目の頂点とn番目の頂点とを関連付けるエッジの方向属性
emn[d]:m番目の頂点とn番目の頂点とを関連付けるエッジの長さ属性
Vi[p']:グラフGi内の全頂点のフロアマップ上での位置属性のセット
Vi[c]:グラフGi内の全頂点に対応したオブジェクトの色属性のセット
Ei[θ]:グラフGi内の全エッジの方向属性のセット
Ei[d]:グラフGi内の全エッジの長さ属性のセット
フレーム間マッチング部107は、前回フレームで抽出されたオブジェクトと今回フレームで抽出されたオブジェクト間で、一方のカメラビュー上での位置属性、他のカメラビュー上での位置属性およびマッピング先のフロアマップ上での位置属性に基づいてオブジェクトマッチングを実施する。
図7は、前記マッチング結果処理部108によるマッチング結果の修正手順を示したフローチャートであり、ステップS701では、今回フレームから抽出されてマッチング結果Match(x,y)がセットされているオブジェクトの個数N1が取得される。ステップS702では、今回フレームと前回フレームとの各オブジェクトの類似度指標値Distに関する行列が取得される。
ステップS703では、同一列の全てのエントリに関して処理が完了したか否かが判断され、最初は完了していないと判断されるのでステップS704へ進み、同一行の全てのエントリに関して処理が完了したか否かが判断される。完了していなければステップS705へ進み、今回の注目エントリ(x,y)のDist(x,y)値およびマッチング結果Match(x,y)が取得される。
ステップS706では、マッチング結果Match(x,y)が参照され、セット(対応するオブジェクトとして登録されている)されていればステップS707へ進む。ステップS707では、注目エントリ(x,y)と同一列での全エントリのDist値の最小値Distx|minおよび同一行での全エントリのDist値の最小値Disty|minが探索される。
ステップS708では、注目エントリ(x,y)のDist(x,y)値が前記最小値Distx|minおよび最小値Disty|minのいずれとも一致するか否かが判断される。いずれとも一致すれば、現在のマッチング結果Match(x,y)=1を維持したままステップS704へ戻る。これに対して、少なくとも一方と一致しなければ、重複マッチングの可能性があるのでステップS709へ進み、マッチング結果Match(x,y)をリセットした後にステップS704へ戻る。
一方、前記ステップS706において、マッチング結果Match(x,y)がセットされていないと判断されるとステップS710へ進み、注目エントリ(x,y)と同一列での全エントリのDist(x,y)値の最小値Distx|minおよび同一行での全エントリのDist(x,y)値の最小値Disty|minであって、かつそのDist値がマッチング判定の閾値に準ずる程度に小さい(本実施形態では、2.8<Dist値<<100)エントリが探索される。
ステップS711では、探索結果が今回の注目エントリ(x,y)と同一であるか否かが判断される。同一であれば、ステップS712へ進んでマッチング結果Match(x,y)がセットされ、同一でなければ、現在のマッチング結果Match(x,y)=0を維持したままステップS704へ戻る。
上記の処理が全てのエントリに対して完了するとステップS713へ進み、今回フレームから抽出されてマッチング結果Match(x,y)がセットされているオブジェクトの個数N2が改めて取得される。ステップS714では、N1とN2とが比較され、N1=N2であれば当該処理を終了する。
これに対して、N1≠N2であればステップS715へ進み、オブジェクトの入退室の有無が判断される。オブジェクトの入退室が検知されていなければステップS702へ戻って当該処理が繰り返される。これに対して、オブジェクトの入退室が検知されていれば、N1≠N2の原因が当該入退室にあり、マッチング結果は正当なので当該処理を終了する。
すなわち、オブジェクトのフロアマップ上での位置p'をオブジェクト領域の中心位置または重心位置で代表したような場合、同一のオブジェクトであってもフレーム間でオブジェクト領域の大きさが異なる場合がある。そして、オブジェクト領域が大きくなるほど、オブジェクトの実際の位置とオブジェクト領域の中心位置(重心位置)との距離が大きくなる傾向があるため、フレーム間での距離が同一オブジェクトにかかわらず大きくなってマッチング関係に無いと誤判断される場合がある。
そこで、本実施形態ではこのような誤判断を修正すべく、注目エントリのDist(x,y)が同一列、同一行内で最小値であり、かつマッチング判定の閾値に準ずる程度に小さければ、マッチング結果をセットするようにした。
本実施形態では、撮影範囲の出入口近傍の所定範囲内でオブジェクトの個数を検知してフレーム間で比較し、前回フレーフとの比較で今回フレームのオブジェクト数が増えていれオブジェクトの入室があったと判断し、オブジェクト数が減っていれオブジェクトの退室があったと判断するようにしている。
よび退出を検知して処理する。
Claims (6)
- 視野が重なる複数のカメラ映像のフレーム画像に基づいてオブジェクトを追跡する装置において、
各カメラ映像からフレームごとに抽出したオブジェクトを共通のフロアマップにマッピングする手段と、
オブジェクト間のフロアマップ上での距離を表すマップベース距離を算出する手段と、
オブジェクト間の色の相違を表す色ベース距離を算出する手段と、
前記マップベース距離および色ベース距離に基づいて、一のカメラ映像から抽出したオブジェクトと他の一のカメラ映像から抽出したオブジェクトとのマッチングを実行するカメラ間マッチング手段と、
前記カメラ間のマッチング結果に基づいて、今回フレームから抽出したオブジェクトと前回フレームから抽出したオブジェクトとのマッチングを実行するフレーム間マッチング手段とを具備し、
前記カメラ間マッチング手段は、
マップベース距離に基づいてマッチングを行い、
前記マップベース距離に基づくマッチング結果に応じて前記色ベース距離に基づいてカメラ間マッチングを行い、
前記フレーム間マッチング手段は、
フロアマップ上での各オブジェクト間の距離を算出し、
各カメラ映像上での各オブジェクト間の距離をそれぞれ算出し、
前記各距離に基づいてオブジェクト間の相対距離を算出し、
前記相対距離を行列要素とする相対距離行列に基づいてフレーム間マッチングを実行することを特徴とするオブジェクト追跡装置。 - 前記カメラ間マッチング手段は、
注目エントリのマップベース距離が第1位置閾値未満であるか否かを判別する第1手順と、
第1位置閾値未満であると、前記注目エントリと同一列上および同一行上の各エントリのマップベース距離の最小値を探索する第2手順と、
前記注目エントリのマップベース距離が前記各最小値と等しければ当該注目エントリのマッチング結果をセットする第3手順とを含むことを特徴とする請求項1に記載のオブジェクト追跡装置。 - 前記カメラ間マッチング手段は、
前記注目エントリのマップベース距離が前記第1位置閾値未満でないと当該第1位置閾値よりも大きい第2位置閾値未満であるか否かを判別する第4手順と、
前記第4手順で前記第2位置閾値未満と判別されると、前記注目エントリと同一列上に当該注目エントリよりもマップベース距離の小さいエントリが存在するか否かを判定する第5手順と、
前記第5手順において、前記マップベース距離の小さいエントリが存在すると判定されると、当該エントリの色ベース距離が同一列上で最小であるか否かを判定する第6手順と、
前記第6手順で最小であると判定されると当該エントリのマッチング結果をセットすることを特徴とする請求項2に記載のオブジェクト追跡装置。 - 視野空間へ出入口近傍でのオブジェクト数の変化に基づいてオブジェクトの視野空間への入退を監視し、入退の有無に基づいて前記フレーム間マッチングを評価することを特徴とする請求項1ないし3のいずれかに記載のオブジェクト追跡装置。
- 視野が重なる複数のカメラ映像のフレーム画像に基づいてコンピュータがオブジェクトを追跡する方法において、
各カメラ映像からフレームごとに抽出したオブジェクトを共通のフロアマップにマッピングし、
オブジェクト間のフロアマップ上での距離を表すマップベース距離を算出し、
オブジェクト間の色の相違を表す色ベース距離を算出し、
前記マップベース距離および色ベース距離に基づいて、一のカメラ映像から抽出したオブジェクトと他の一のカメラ映像から抽出したオブジェクトとのカメラ間マッチングを実行し、
前記カメラ間のマッチング結果に基づいて、今回フレームから抽出したオブジェクトと前回フレームから抽出したオブジェクトとのフレーム間マッチングを実行し、
前記カメラ間マッチングでは、
マップベース距離に基づいてマッチングを行い、
前記マップベース距離に基づくマッチング結果に応じて前記色ベース距離に基づいてカメラ間マッチングを行い、
前記フレーム間マッチングでは、
フロアマップ上での各オブジェクト間の距離を算出し、
各カメラ映像上での各オブジェクト間の距離をそれぞれ算出し、
前記各距離に基づいてオブジェクト間の相対距離を算出し、
前記相対距離を行列要素とする相対距離行列に基づいてフレーム間マッチングを実行することを特徴とするオブジェクト追跡方法。 - 視野が重なる複数のカメラ映像のフレーム画像に基づいてオブジェクトを追跡するプログラムにおいて、
各カメラ映像からフレームごとに抽出したオブジェクトを共通のフロアマップにマッピングする処理と、
オブジェクト間のフロアマップ上での距離を表すマップベース距離を算出する処理と、
オブジェクト間の色の相違を表す色ベース距離を算出する処理と、
前記マップベース距離および色ベース距離に基づいて、一のカメラ映像から抽出したオブジェクトと他の一のカメラ映像から抽出したオブジェクトとのカメラ間マッチングと、
前記カメラ間のマッチング結果に基づいて、今回フレームから抽出したオブジェクトと前回フレームから抽出したオブジェクトとのフレーム間マッチングと、をコンピュータに実行させ、
前記カメラ間マッチングが、
マップベース距離に基づいてマッチングを行う処理と、
前記マップベース距離に基づくマッチング結果に応じて前記色ベース距離に基づいてマッチングを行う処理とを含み、
前記フレーム間マッチングが、
フロアマップ上での各オブジェクト間の距離を算出する処理と、
各カメラ映像上での各オブジェクト間の距離をそれぞれ算出する処理と、
前記各距離に基づいてオブジェクト間の相対距離を算出する処理とを含み、
前記相対距離を行列要素とする相対距離行列に基づいてフレーム間マッチングを実行させることを特徴とするオブジェクト追跡プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018059010A JP6925295B2 (ja) | 2018-03-26 | 2018-03-26 | オブジェクト追跡装置、方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018059010A JP6925295B2 (ja) | 2018-03-26 | 2018-03-26 | オブジェクト追跡装置、方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019174868A JP2019174868A (ja) | 2019-10-10 |
JP2019174868A5 JP2019174868A5 (ja) | 2020-03-19 |
JP6925295B2 true JP6925295B2 (ja) | 2021-08-25 |
Family
ID=68166897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018059010A Active JP6925295B2 (ja) | 2018-03-26 | 2018-03-26 | オブジェクト追跡装置、方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6925295B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020294259B2 (en) * | 2020-08-01 | 2022-06-30 | Sensetime International Pte. Ltd. | Object association method, apparatus and system, electronic device, storage medium and computer program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004072628A (ja) * | 2002-08-08 | 2004-03-04 | Univ Waseda | 複数カメラを用いた移動体追跡システム及びその方法 |
JP2016026355A (ja) * | 2015-09-18 | 2016-02-12 | 株式会社ニコン | システム |
-
2018
- 2018-03-26 JP JP2018059010A patent/JP6925295B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019174868A (ja) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20110134221A1 (en) | Object recognition system using left and right images and method | |
WO2012101962A1 (ja) | 姿勢状態推定装置および姿勢状態推定方法 | |
CN110728754B (zh) | 刚体标记点识别方法、装置、设备及存储介质 | |
US11380010B2 (en) | Image processing device, image processing method, and image processing program | |
JP2015215877A (ja) | ステレオ画像の対において物体を検出する方法 | |
CN104615998B (zh) | 一种基于多视角的车辆检索方法 | |
JP6280020B2 (ja) | 移動物体追跡装置 | |
Tanke et al. | Iterative greedy matching for 3d human pose tracking from multiple views | |
US20190087687A1 (en) | Method for locating one or more candidate digital images being likely candidates for depicting an object | |
KR101460313B1 (ko) | 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법 | |
EP3100177A1 (en) | Method for recognizing objects | |
Führ et al. | Camera self-calibration based on nonlinear optimization and applications in surveillance systems | |
CN105447869B (zh) | 基于粒子群优化算法的摄像机自标定方法及装置 | |
Lee et al. | RS-SLAM: RANSAC sampling for visual FastSLAM | |
JP6925295B2 (ja) | オブジェクト追跡装置、方法およびプログラム | |
US20220156977A1 (en) | Calibration apparatus, calibration method, and non-transitory computer readable medium storing program | |
CN107563344B (zh) | 一种基于语义区域测度学习的行人再识别方法 | |
Fahmy et al. | Stereo vision based depth estimation algorithm in uncalibrated rectification | |
JP2017068375A (ja) | 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム | |
CN114581875A (zh) | 一种封闭场景下slam自主导航识别方法 | |
Mizotin et al. | Robust matching of aerial images with low overlap | |
Kim et al. | Directional pedestrian counting with a hybrid map-based model | |
Ohta | Performance evaluation of image feature detectors and descriptors for outdoor-scene visual navigation | |
Caramazana et al. | Visual odometry correction based on loop closure detection | |
Song et al. | Learning Local Feature Descriptor with Motion Attribute For Vision-based Localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6925295 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |