JP2017151582A - カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法 - Google Patents

カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法 Download PDF

Info

Publication number
JP2017151582A
JP2017151582A JP2016031624A JP2016031624A JP2017151582A JP 2017151582 A JP2017151582 A JP 2017151582A JP 2016031624 A JP2016031624 A JP 2016031624A JP 2016031624 A JP2016031624 A JP 2016031624A JP 2017151582 A JP2017151582 A JP 2017151582A
Authority
JP
Japan
Prior art keywords
person
foreground image
image
area
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016031624A
Other languages
English (en)
Other versions
JP6548306B2 (ja
Inventor
小林 達也
Tatsuya Kobayashi
達也 小林
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016031624A priority Critical patent/JP6548306B2/ja
Publication of JP2017151582A publication Critical patent/JP2017151582A/ja
Application granted granted Critical
Publication of JP6548306B2 publication Critical patent/JP6548306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】1台のカメラによる撮影画像であっても、移動速度の異なる複数人の人物間オクルージョンに対してロバストに追跡を継続する画像処理装置等を提供する。【解決手段】画像解析装置は、連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する前景画像抽出手段と、最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、マッチングによって人物領域を検出する人物領域検出手段と、最低更新頻度の前景画像i=nに人物領域が映った後、当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ人物領域追跡手段と、複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する人物領域識別手段とを有する。【選択図】図4

Description

本発明は、カメラの撮影画像に映る人物を追跡する画像解析の技術に関する。
従来、カメラによる撮影画像を解析し、その撮影画像に映る人物を検出し追跡する技術がある。このような技術は、例えば所定の撮影対象範囲における人の混雑度調査や、動線解析、監視のための不審者検知等に利用される。例えば、単眼カメラの映像から、登録された人物領域候補をマッチングさせることによって、人物を検出し追跡する技術がある(例えば特許文献1参照)。撮影画像内に人物の全身がはっきりと映り込む場合、比較的容易に人物領域を検出することができる。
しかしながら、実際の利用シーンでは、撮影画像内に複数の人物同士が重なる遮蔽(人物間オクルージョン)が発生した際に、人物を検出することが難しい。このとき、人物の追跡が途切れたり、追跡中の人物の動線が入れ替わることも生じる。特許文献1に記載の技術によれば、人物間オクルージョンによって追跡精度が劣化してしまう。
これに対し、複数のカメラを用いて撮影した撮影画像の前景画像から、視差を用いた視体積交差法によって、人物領域を3次元的に推定する技術がある(例えば特許文献2参照)。
また、複数のカメラで個々に追跡した人物動線を統合することにより、追跡の失敗や動線の入れ替わりを防ぐ技術もある(例えば特許文献3参照)。
更に、複数のカメラを用いることなく、連続的な追跡結果からオクルージョンが発生している前景画像を分割することによって個々の人物領域に分離して、人物間オクルージョンを解消する技術もある(例えば特許文献4参照)。
更に、オクルージョン領域を輝度変化に基づいて領域分割することにより、個々の人物領域に分離し、正確な人数を計測する技術もある(例えば特許文献5参照)。この技術によれば、天井に設置されたカメラを想定し、撮影画像から抽出した前景画像から、人物の頭部領域のみを検出する。これによって、非人物の雑音領域を除外し、人物領域を高精度に検出することができる。
特開2010−257441号公報 特開2014−164525号公報 特開2010−063001号公報 特開2013−206262号公報 特開2014−229068号公報
特許文献2及び3に記載の技術によれば、複数のカメラが重複して撮影できていない撮影対象範囲については、人物間オクルージョンに対して頑健(ロバスト)に人物を追跡することができない。また、撮影対象範囲が広くなるほど、複数のカメラで重複して撮影できるようにするためには、カメラの設置コストも問題となる。
特許文献4及び5の記載の技術によれば、単一のカメラで人物間オクルージョンを解消することができるが、前景画像を領域分割することで複数人を検出しているために、完全なオクルージョン(一方の人物が他方の人物によって完全に遮蔽される状況)が発生した場合には、領域分割で失敗する。
図1は、人物間オクルージョンの発生を表す画像である。
図1によれば、室内の天井にパノラマカメラが設置され、床面全域が撮影されている。また、その撮影画像に基づくフレームt-4の前景画像からは、4人の人物が検出できる。しかしながら、フレームt-3〜t+1の前景画像によれば、各人物が移動することによって、人物間オクルージョンが発生している。また、フレームtの前景画像によれば、完全な人物間オクルージョンが発生しており、人物領域を検出することが極めて難しい。
図2は、完全な人物間オクルージョンの発生によって人物の追跡失敗を表す説明図である。
図2によれば、フレームt-1の前景画像では、人物A、B、Cが検出できる。しかしながら、フレームtの前景画像では、人物Cを完全に見失っている。このとき、人物Cは、人物間オクルージョンによって、他の人物A又はBに完全に遮蔽されたと推定することもできる。しかしながら、人物Cは、人物A又は人物Bのいずれに遮蔽されたか?まで推定することはできない。
図3は、部分的な人物間オクルージョンの発生によって人物の入れ替わりを表す説明図である。
図3によれば、フレームtの前景画像では、人物領域候補とマッチングすることによって、人物B及び人物Cで、人物間オクルージョンが発生していることを認識することができる。しかしながら、人物追跡の過程で、人物B及び人物Cが入れ替わって認識される恐れがある。人物追跡で、人物間オクルージョンが発生した後に、各人物の識別子が入れ替わって認識してしまうという問題がある。
そこで、本発明は、1台のカメラによる撮影画像であっても、移動速度の異なる複数人の人物間オクルージョンに対してロバストに追跡を継続することができる画像解析装置、プログラム及び方法を提供することを目的とする。
本発明によれば、カメラによる連続的な撮影画像の中から人物を追跡する画像解析装置において、
連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する前景画像抽出手段と、
最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、人物領域を検出する人物領域検出手段と、
当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ人物領域追跡手段と、
複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する人物領域識別手段と
を有することを特徴とする。
本発明の画像解析装置における他の実施形態によれば、
人物領域追跡手段は、当該人物領域が最低更新頻度の前景画像i=nから検出されない場合、当該人物領域の動線を除外することも好ましい。
本発明の画像解析装置における他の実施形態によれば、
人物領域検出手段は、同一時刻のフレームについて、当該前景画像iよりも更新頻度が高い先の前景画像(<i)で既に検出された人物領域で、当該前景画像iを画像的にマスクすることも好ましい。
本発明の画像解析装置における他の実施形態によれば、
人物領域追跡手段は、最低更新頻度の前景画像i=nに人物領域が最初に映り込んだ際に、当該人物領域の動線の追跡を開始することも好ましい。
本発明の画像解析装置における他の実施形態によれば、
人物領域識別手段は、
移動中の人物の後方で、静止中の人物が遮蔽された場合、移動中の人物における人物領域の動線は、静止中の人物における人物領域の動線と異なり、
次の時刻のフレームで、移動中の人物による遮蔽が解消した静止中の人物における人物領域の動線は、最高更新頻度の前景画像i=1に映り込む
ことによってオクルージョン発生時の人物を識別することも好ましい。
本発明の画像解析装置における他の実施形態によれば、
人物領域識別手段は、
静止中の人物の後方で、移動中の人物が遮蔽された場合、移動中の人物における人物領域の動線と、静止中の人物における人物領域の動線とが一致し、
次の時刻のフレームで、静止中の人物による遮蔽が解消した移動中の人物における人物領域の動線は、最高更新頻度の前景画像i=1に映り込む
ことによってオクルージョン発生時の人物を識別することも好ましい。
本発明の画像解析装置における他の実施形態によれば、
人物領域検出手段は、先の時刻のフレームの中で動線を結ぶ前景画像に映る当該人物領域の画像特徴量を用いて、次の時刻のフレームについて、最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまで順に、マッチングによって人物領域を検出することも好ましい。
本発明の画像解析装置における他の実施形態によれば、
前景画像抽出手段は、最低更新頻度の前景画像i=nの段階nについて、
人物領域追跡手段によって検出された動線の数(追跡中の人数)に応じて、
人物領域識別手段によって検出されたオクルージョン領域の最大人数に応じて、
又は、
人物領域識別手段によって検出されたオクルージョン領域の最大面積に応じて
可変されることも好ましい。
本発明の画像解析装置における他の実施形態によれば、
人物領域検出手段は、前景画像iについて、前景画像i=nに映る人物領域以外の部分を、残像領域として除外することも好ましい。
本発明によれば、カメラによる連続的な撮影画像の中から人物を識別する装置に搭載されたコンピュータを機能させる画像解析用のプログラムにおいて、
連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する前景画像抽出手段と、
最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、人物領域を検出する人物領域検出手段と、
当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ人物領域追跡手段と、
複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する人物領域識別手段と
してコンピュータを機能させることを特徴とする。
本発明によれば、カメラによる連続的な撮影画像の中から人物を識別する装置の画像解析方法において、
装置は、
連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する第1のステップと、
最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、人物領域を検出する第2のステップと、
当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ第3のステップと、
複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する第4のステップと
を実行することを特徴とする。
本発明の画像処理装置、プログラム及び方法によれば、1台のカメラによる撮影画像であっても、移動速度の異なる複数人の人物間オクルージョンに対してロバストに追跡を継続することができる。具体的には、各人物を、移動速度及び静止状態に応じて複数の前景画像に分散させて認識することができるために、複数人物が同じ時間に固まって移動しない状況である限り、高精度にオクルージョン領域の人物同士を検出することができる。
人物間オクルージョンの発生を表す画像である。 完全な人物間オクルージョンの発生によって人物の追跡失敗を表す説明図である。 部分的な人物間オクルージョンの発生によって人物の入れ替わりを表す説明図である。 本発明における画像解析装置の機能構成図である。 部分的な人物間オクルージョンを表す説明図である。 完全な人物間オクルージョンを表す説明図である。 本発明による人物追跡を表す第1の説明図である。 本発明による人物追跡を表す第2の説明図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
図4は、本発明における画像解析装置の機能構成図である。
画像解析装置1は、1台のカメラによる撮影画像の中から人物を検出する。撮影画像は、予め録画されたものであってもよいし、インタフェースを介して外部から時系列に入力されるもの(例えばライブ映像)であってもよい。インタフェースは、ネットワークに接続する通信インタフェースであってもよいし、カメラからの入力インタフェースであってもよい。
カメラは、何ら限定されることなく、既存のものであってもよい。室内の人物を追跡する場合、例えば広い画角を1フレームとして撮影するパノラマカメラであることも好ましい。具体的には、室内の天井から床面全域を撮影することができる全方位カメラであってもよい。
カメラの内部パラメータA及び外部パラメータWは、事前にキャリブレーションによって取得されたものであり、基本的に撮影中は変化しないと想定している。但し、複数種類のパラメータを事前に用意するか、又は、公知の動的キャリブレーション技術を利用することによって、内部パラメータの動的変化(パン・チルト・ズームなどの変化)や、移動カメラにも適用することができる。
本発明の画像解析装置は、1台のカメラによる撮影画像であっても、移動速度の異なる人物同士の人物間オクルージョン(完全なオクルージョンも含む)に対してロバスト(頑健)な追跡を継続することができる。画像解析装置1は、前景画像抽出部11と、人物領域検出部12と、人物領域追跡部13と、人物領域識別部14とを有する。これら一連の機能部は、時間経過に伴うフレーム毎に、フィードバックして実行される。
尚、これら機能構成部は、画像解析装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成からなる処理の流れは、装置における画像解析方法としても理解される。
[前景画像抽出部11]
前景画像抽出部11は、連続的な撮影画像から、異なる頻度で更新される複数の背景モデルを用いた背景差分によって、前景画像を抽出する。例えば背景差分やフレーム間差分のような公知技術を用いたものであってもよいし、前述した特許文献5の記載の技術を用いたものであってもよい。尚、背景差分法の中でも、例えば混合ガウス分布(MoG)を用いる場合、「学習率」や「サンプリングレート」が、「静止した前景画像が背景とみなされる速さ」を調整するパラメータに相当する。
「背景差分(background subtraction)」とは、現時刻の撮影画像と過去時刻の撮影画像とを比較して、過去時刻の撮影画像に映らない物体を抽出する技術をいう。このとき、過去時刻の撮影画像を背景画像と称す。また、背景画像に存在しない物体が占める領域を「前景領域」、それ以外を「背景領域」と称す。具体的には、事前に過去の複数枚の撮影画像から背景画像を作成しておき、その差分となる前景画像を抽出することも好ましい。前景画像には、静止物体は映り込むことなく除外され、人物のような移動物体のみが映り込む。前景画像とは、一般に前景と推定されたピクセルの輝度値を255、背景と推定されたピクセルの輝度値を0とした画像の形で表される。具体的な前景画像は、前述した図1の下段のように表される。
前景画像抽出部11は、連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する。iは、前景画像のインデックスを表す。
前景画像i=1は、最高頻度で更新される(最も高い場合は毎フレーム更新される)背景画像に基づいて抽出される。
同様に、前景画像i=nは、最低頻度で更新される(最も低い場合は、実行中に一切更新されない)背景画像に基づいて抽出される。
従来技術によれば、前景画像は、撮影画像に対して1枚生成されるのに対し、本発明によれば、複数枚生成される。
前景画像i=1には、移動中の人物の人物領域のみが映り込むことが期待される(静止中の人物は背景画像となって検出されない)。前景画像i=1は、d1(d1>0)フレーム前の画像とのフレーム差分(d=d1)を取る。例えばd1=1とすることができる。
前景画像i=2は、d2(d2>d1)フレーム前の画像とのフレーム差分(d=2)を取る。例えばd2=2とすることができる。
・・・・・
前景画像i=nは、静止中及び移動中の全ての人物の人物領域が映り込むことが期待される。前景画像i=nによれば、前景画像nは、人物が存在しない過去(dnフレーム前)の背景画像とのフレーム差分(d=dn, dn>dn-1)を取る。又は、背景モデルを更新しない場合、dn=ts(tsは初期フレームからの経過時間)としてもよいし、別途入力される背景画像(事前に無人の撮影シーンを撮影することで取得することが望ましい)との差分を取ってもよい。
例えば、背景モデルの更新頻度や、フレーム差分の間隔d1、d2、・・・、dn[frame]を調整することによって、前景画像を抽出する人物の移動時間の範囲を調整することができる。また、実行中にd1、d2、・・・、dnを動的に調整することも可能である。
尚、本発明によれば、前景画像の枚数(背景モデルの種類)nは、最低n=2であるが、その枚数は任意であってもよい。
但し、前景画像の枚数が増えるほど処理負荷が増加するため、リアルタイム性が要求される。そのために、前景画像の枚数nは、必要最小限の数に抑えることが好ましい。勿論、撮影画像中の人物が1人である場合、オクルージョンは発生しないために、その時間帯に限っては前景画像n=1として処理することが好ましい。
<最低更新頻度の前景画像i=nの段階nを可変する実施形態>
前景画像抽出部11は、最低更新頻度の前景画像i=nの段階nについて、以下の3つの実施形態に応じて可変とすることも好ましい。これにより、処理負荷とロバスト性の両立が可能となる。
(段階制御1)人物領域追跡部13からフィードバックされた動線の数(追跡中の人数)に応じて、前景画像の段階nを可変する。例えば追跡人数が少ないほど、前景画像の段階を少なくする。
(段階制御2)人物領域識別部14からフィードバックされたオクルージョン領域の最大人数に応じて、前景画像の段階nを可変する。例えばオクルージョン領域の最大人数が少ないほど、前景画像の段階を少なくする。例えば、前景画像の段階nを、追跡人数と同数に設定してもよい。
(段階制御3)人物領域識別部14からフィードバックされたオクルージョン領域の最大面積に応じて、前景画像の段階nを可変する。例えばオクルージョン領域の最大面積が小さいほど、前景画像の段階を少なくする。
そして、前景画像抽出部11は、抽出した複数枚の前景画像i=1〜nを、人物領域検出部12へ出力する。
[人物領域検出部12]
人物領域検出部12は、最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、マッチングによって人物領域を検出する。
人物領域検出部12は、例えば、撮影画像中で当該人物が占めると想定される輪郭画像を「人物領域候補」として予め記憶したものであってもよい。人物領域候補は、事前に、3次元空間に配置した人物の3次元モデルを、カメラパラメータを用いて撮影画像中に投影して作成したものであってもよい。即ち、前景画像の中から、人物領域候補の外縁領域とマッチングして、類似度が最も高い人物領域を探索する。勿論、例えば特許文献5の記載の技術を用いたものであってもよい。また、類似度としては、人物領域における画像特徴量や、移動時間、移動量、これら組み合わせに基づくものであってもよい。
人物領域検出部12は、同一時刻のフレームについて、当該前景画像iよりも更新頻度が高い先の前景画像(<i)で既に検出された人物領域で、当該前景画像iを画像的にマスクする。マスクは、具体的には輝度値を0にする。即ち、人物領域の検出対象となる前景画像は、先の前景画像(<i)によって検出された人物領域を含まない画像とする。これによって、人物領域の重複検出を避けることができる。
図5は、部分的な人物間オクルージョンを表す説明図である。
図6は、完全な人物間オクルージョンを表す説明図である。
図5に及び図6によれば、更新頻度が高い前景画像から順に、人物領域を検出し、検出した人物領域を更新頻度が低い前景画像からマスクしたものである。部分的な人物間オクルージョンを表す図5によれば、マスク後も、前景画像i=n=2に人物Bの人物領域の一部が映り込んでおり、人物Bを検出することができる。一方で、完全な人物間オクルージョンを表す図6によれば、マスクによって、前景画像i=n=2から人物Bが完全に消えてしまう。このような状態にあっても、後述する人物領域追跡部13及び人物識別部14によって、人物B及びCを区別して、人物の追跡を可能とする。
<残像領域を除外する実施形態>
撮影画像に移動中の人物が映る場合、更新頻度の高い前景画像ほど、実際に人物が存在する実像領域と、実際には人物が存在しない残像領域とが映り込む。残像領域とは、実際に人物が存在していないにも拘わらず、背景画像内の人物が移動したことによって前景画像として検出されたものである。
前景画像に残像領域が映り込む場合、人物識別の精度が劣化する場合がある。そのために、人物領域検出部12は、前景画像iについて、前景画像i=nに映る人物領域以外の部分は、残像領域であるとして除外することも好ましい。残像領域をできる限り除外することによって、人物識別の精度を高めることができる。
尚、背景画像が人物を含むことによって、各前景画像iについて、人物領域が(背景画像に含まれる自身の影響で)一部欠けることも起こりうる。そのため、人物が存在すると判定された場合に、当該前景画像を包含する前景画像i=n内の前景画像を当該前景画像と置き換えてもよい。
<前景画像に対する人物領域のマッチングの実施形態>
前景画像から人物領域候補のマッチングは、3次元距離最小のペアを対応付けてもよいし、以下のような式で表される領域の重複率に基づいて対応付けてもよい。
12=(A1∩A2)/(A1∪A2
12:領域A1とA2との一致度(重複率)
1∩A2:領域A1とA2との重複領域の面積
1∪A2:領域A1とA2との包含領域の面積
即ち、マッチングとは、前景画像から抽出された人物領域の集合の中で、重複率が最も高い人物領域候補を探索することを意味する。
尚、本発明ではマッチング方法について具体的に特定しないが、一般的な「貪欲法」を用いたものであってもよい。
まず、人物領域の集合の中で、重複率が最も高い人物領域ペアを対応付ける。次に、選択したそのペアを人物領域の集合から取り除き、再び、重複率が最も高い人物領域ペアを対応付ける。これを、重複率が所定閾値を超えるペアが無くなるまで、又は、一方のフレームの人物領域の集合の全人物領域の選択を完了するまで、繰り返す。これによって、人物領域のフレーム間を追跡(対応付け)することできる。
尚、貪欲法以外にも、ハンガリアン法等、選択する全ペアの重複率の総和が最大となるようにマッチングする方法や、選択するペア数が最大となるようにマッチングする方法もある。
<先の時刻のフレームに基づく前景画像を用いた人物領域のマッチングの実施形態>
人物領域検出部12は、先の時刻のフレームt-1の中で動線を結ぶ前景画像に映る当該人物領域の画像特徴量を用いて、次の時刻のフレームtについて、最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまで順に、マッチングによって人物領域を検出する。ここで、画像特徴量は、人物領域の外縁形状又は面積であってもよい。
<オクルージョンの判定>
例えば図6によれば、人物Bの人物領域は、前景画像i=n=2ではマッチングによって検出されない。このとき、他の人物によって完全に遮蔽された可能性を考慮し、オクルージョンを判定する。具体的には、より上位の前景画像に映り込む人物Bの人物領域を用いて、例えば以下の式によって判定する。
12=A1/(A1∪A2
12:領域A1とA2との包含率
1:領域A1の面積(例えば上位の前景画像に映る人物Bの人物領域)
1∪A2:領域A1とA2との包含領域の面積
(前景画像nに映るオクルージョン領域)
例えば図6によれば、人物Bの人物領域を、マッチング済みの人物Cの人物領域が包含するために、人物Bは人物Cに完全に遮蔽されたと判定する。
<コストを用いたマッチング方法>
完全な遮蔽が発生している領域の構成人数がnpの場合、ある1通りのマッチング方法を、以下のものとする。
Mi=[m1,・・・,mj,・・・,mnp](i=1,・・・,NM
ここで、以下の式のコスト最小化によって、類似度の総和(例えば総積)を最大化するマッチング方法を選択することができる。
cost=Σnp jD(mj
D(mj)は、マッチングした1つのペアの距離を表し、画像特徴のユークリッド距離や、移動時間の差の絶対値、移動量の差のノルム等を用いることができる。人物の画像特徴の抽出については、HOG特徴量や色ヒストグラムなどの、公知の技術を用いることができる。
ここで、遮蔽される後方側の人物の画像特徴は、遮蔽する前方側の人物の影響で正確に抽出することができない。そのために、人物領域検出部12は、遮蔽する前方側の人物の画像特徴のみを用いることによって、高精度なマッチングを実現することができる。
又は、遮蔽が発生する前の画像をテンプレートとして保存しておき、遮蔽される後方側の人物については、テンプレートの画像特徴と、人物領域候補の画像特徴との類似度を評価してもよい。
[人物領域追跡部13]
人物領域追跡部13は、最低更新頻度の前景画像i=nに人物領域が最初に映り込んだ際に、当該人物領域の動線の追跡を開始する。前景画像i=nについて、更新頻度が高い前景画像でマッチングされない(残っている)人物領域は、新規に撮影画像内に映り込んだ人物の可能性が高い。これらを新規の人物として動線の追跡を開始する。また、精度を高めるために、別途信頼性の高い人物判定の処理を実行し、人物と判定されたもののみを人物領域として検出してもよい。
そして、人物領域追跡部13は、最低更新頻度の前景画像i=nに人物領域が映った後、当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ。人物の動線とは、同一の人物について前フレームから現フレームへの追跡を表す。人物領域追跡部13は、各人物の人物領域毎に、前フレームのいずれの前景画像iに動線が結ばれていたかを記憶する。
また、人物領域追跡部13は、当該人物領域が最低更新頻度の前景画像i=nから検出されない場合、当該人物領域の動線を除外する。その人物は既に、撮影画像に映り込んでいないためである。
[人物領域識別部14]
人物領域識別部14は、複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する。即ち、人物間オクルージョンが発生しても、動線が相違する限り、各人物の動線を識別する。
人物領域識別部14は、オクルージョン発生時の人物を、以下の2つの条件によって識別する。
(条件1)移動中の人物の後方で、静止中の人物が遮蔽された場合の条件
移動中の人物における人物領域の動線は、静止中の人物における人物領域の動線と異なる。この場合、次の時刻のフレームで、移動中の人物による遮蔽が解消した静止中の人物における人物領域の動線は、最高更新頻度の前景画像i=1に映り込む。
(条件2)静止中の人物の後方で、移動中の人物が遮蔽された場合の条件
移動中の人物における人物領域の動線と、静止中の人物における人物領域の動線とが一致する。この場合、次の時刻のフレームで、静止中の人物による遮蔽が解消した移動中の人物における人物領域の動線は、最高更新頻度の前景画像i=1に映り込む。
従来技術によれば、完全なオクルージョンが解消した場合、人物に付与する人物識別子が入れ替わる恐れがあった。これに対し、本発明によれば、オクルージョン発生後の人物領域が、最高更新頻度の前景画像i=1に映り込むか、又は、最低更新頻度の前景画像i=nに映り込むかによって、人物を明確に識別し、ロバストに追跡することができる。
図7は、本発明による人物追跡を表す第1の説明図である。図7によれば、フレームtについて、移動中の人物Cの後方で、静止中の人物Aが遮蔽された場合の条件1を表す。
図8は、本発明による人物追跡を表す第2の説明図である。フレームtについて、静止中の人物Aの後方で、移動中の人物Cが遮蔽された場合の条件2を表す。
人物領域識別部14は、完全な人物間オクルージョンが発生しても、以下のように判定することができる。
図7によれば、移動中の人物の後方で、静止中の人物が遮蔽された場合、移動中の人物における人物領域の動線と、静止中の人物における人物領域の動線とが一致する。
図8によれば、静止中の人物の後方で、移動中の人物が遮蔽された場合、移動中の人物における人物領域の動線は、静止中の人物における人物領域の動線と異なっている。
図7及び図8によれば、前景画像n=3とし、3人の人物A、B、Cの移動が撮影画像に映り込む例を表す。
図7及び図8について、フレームt-5〜t-1までは全く同じ人物追跡となっている。
[フレームt-5]撮影画像には、人物Aのみが映り込んでいる。
(前景画像i=1)人物Aの人物領域と、その近くに人物Aの残像領域とが映り込んでいる。人物Aの残像領域に当たる前景領域は、当該領域がi=3に映り込んでいないことで残像領域と判別できるため、人物領域とは見なされずに除外される。以下の説明でも、残像領域は、人物領域とは見なされずに除外されることとする。
(前景画像i=2)人物Aの人物領域のみが映り込んでいる。
(前景画像i=3)人物Aの人物領域のみが映り込んでいる。最低更新頻度の前景画像i=3に初めて人物検出を開始したために、その後、人物Aの動線の追跡を開始する。
[フレームt-4]撮影画像には、左から右方向へ移動している人物Aのみが映り込んでいる。
(前景画像i=1)人物Aの人物領域と、その近くに残像領域とが映り込んでいる。
(前景画像i=2)人物Aの人物領域と、少し離れて残像領域とが映り込んでいる。ここで、前景画像i=2から、前景画像i=1に映り込む人物領域を、画像的にマスクする。
(前景画像i=3)人物Aの人物領域のみが映り込んでいるが、前景画像i=3から、前景画像i=1に映り込む人物領域を、画像的にマスクしている。このとき、当該人物領域が映る更新頻度が最も高い前景画像i=1を時間経過に応じて動線で結ぶ。人物Aについて、t-5の前景画像i=3から、t-4の前景画像i=1に動線を結ぶ。
[フレームt-3]人物Aが静止し、撮影画像に新たに人物Bが映り込んだとする。
(前景画像i=1)新たな人物Bの人物領域は検出されるが、人物Aの人物領域は、静止によって背景画像と一致して検出できない。
(前景画像i=2)人物A及びBの人物領域が検出されると共に、少し離れて残像領域も検出される。ここでは、前景画像i=2は、前景画像i=1よりも更新頻度が低いために、静止した人物Aはまだ検出できる。
(前景画像i=3)人物Aの人物領域と、人物Bの人物領域とが映り込んでいる。その上で、前景画像i=3から、前景画像i=2に映り込む人物Aの人物領域を、画像的にマスクする。
人物Aについて、t-4の前景画像i=1から、t-3の前景画像i=2に動線を結ぶ。
人物Bについて、最低更新頻度の前景画像i=3に初めてその人物領域(人物B)が映り込んだために、その後、当該人物Bの動線の追跡を開始する。
[フレームt-2]人物Aが静止し、人物Bが左から右へ移動し、撮影画像に新たに人物Cが映り込んだとする。
(前景画像i=1)人物B及びCの人物領域は検出されるが、人物Aの人物領域は、静止によって背景画像と一致して検出できない。また、人物Bの人物領域の左横には、その人物Bの残像領域が映り込んでいる。
(前景画像i=2)人物B及びCの人物領域が検出される。人物Aの人物領域は、静止によって背景画像と一致して検出できない。その上で、前景画像i=2から、前景画像i=1に映り込む人物Bの人物領域を、画像的にマスクする。
(前景画像i=3)人物A、B、Cの人物領域が映り込んでいる。その上で、前景画像i=3から、前景画像i=1に映り込む人物Bの人物領域を、画像的にマスクする。
前景画像i=3は、前景画像i=2よりも更新頻度が低いために、静止した人物Aの人物領域は、まだ検出できている。
人物Aについて、t-3の前景画像i=2から、t-2の前景画像i=3に動線を結ぶ。
人物Bについて、t-3の前景画像i=3から、t-2の前景画像i=1に動線を結ぶ。
人物Cについて、最低更新頻度の前景画像i=3に初めてその人物領域(人物C)が映り込んだために、その後、当該人物Cの動線の追跡を開始する。
[フレームt-1]人物A、Bが静止し、人物Cが右下へ移動したとする。
(前景画像i=1)人物Cの人物領域は検出できるが、人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。また、人物Cの左上には、その人物Cの残像領域が映り込んでいる。
(前景画像i=2)人物B及びCの人物領域が検出される。人物Aの人物領域は、静止によって背景画像と一致して検出できない。また、人物Bの人物領域の左横には、その人物Bの残像領域が映り込んでいる。その上で、前景画像i=2から、前景画像i=1に映り込む人物Cの人物領域を、画像的にマスクする。
(前景画像i=3)人物A、B、Cの人物領域が映り込んでいる。その上で、前景画像i=3から、前景画像i=1,2に映り込む人物B及びCの人物領域を、画像的にマスクする。
前景画像i=3は、前景画像i=2よりも更新頻度が低いために、静止した人物Aの人物領域は、まだ検出できている。
人物Aについて、t-2の前景画像i=3から、t-1の前景画像i=3に動線を結ぶ。
人物Bについて、t-2の前景画像i=1から、t-1の前景画像i=2に動線を結ぶ。
人物Cについて、t-2の前景画像i=3から、t-1の前景画像i=1に動線を結ぶ。
人物の人物領域は、その移動速度が速くなるほど、更新頻度の高い前景画像から順に映り込み、静止するほど、更新頻度の低い前景画像のみに映り込む。本発明のようにマスクすることによって、人物の人物領域は、その移動速度が速くなるほど、更新頻度の高い前景画像のみに映り込む。
<図7:移動中の人物の後方で、静止中の人物が遮蔽された場合>
[フレームt]移動中の人物Cの後方で、静止中の人物Bが遮蔽されたとする。
(前景画像i=1)人物Cの人物領域は検出できるが、人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。また、人物Cの人物領域の左横には、その人物Cの残像領域が映り込んでいる。
(前景画像i=2)人物Cの人物領域が検出される。人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。また、人物Cの人物領域から少し離れて、その人物Cの残像領域が映り込んでいる。その上で、前景画像i=2から、前景画像i=1に映り込む人物Cの人物領域を、画像的にマスクする。
(前景画像i=3)人物A、B、Cの人物領域が映り込んでいるが、人物A及びCが完全なオクルージョンを発生している。ここで、前景画像i=3から、前景画像i=1に映り込む人物Cの人物領域を、画像的にマスクする。
人物Aについて、人物Cと完全なオクルージョンが発生したことを認識したために、t-1の前景画像i=3から、tの前景画像i=3のオクルージョン部分に動線を結ぶ。
人物Bについて、t-1の前景画像i=2から、tの前景画像i=3に動線を結ぶ。
人物Cについて、t-1の前景画像i=1から、tの前景画像i=1に動線を結ぶ。
[フレームt+1]人物Cが、右へ移動したとする。
(前景画像i=1)人物Cの人物領域が検出されると共に、オクルージョンが解消し、遮蔽されていた静止中の人物Aの人物領域が新たに映り込む。即ち、オクルージョン解消後の時刻t+1について、オクルージョンを発生していた人物A及び人物Cの両方が、前景画像i=1に映り込む。
(前景画像i=2)人物Cの人物領域が検出される。人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。また、人物Cの人物領域から少し離れて、その人物Cの残像領域が映り込んでいる。その上で、前景画像i=2から、前景画像i=1に映り込む人物Cの人物領域を、画像的にマスクする。
(前景画像i=3)人物A、B、Cの人物領域が映り込んでいる。ここで、前景画像i=3から、前景画像i=1に映り込む人物B及びCの人物領域を、画像的にマスクする。
人物Aについて、tの前景画像i=3から、t+1の前景画像i=1に動線を結ぶ。
人物Bについて、tの前景画像i=3から、t+1の前景画像i=3に動線を結ぶ。
人物Cについて、tの前景画像i=1から、t+1の前景画像i=1に動線を結ぶ。
このように、フレームt及びフレームt+1から、完全なオクルージョンを発生した人物A及びCを識別して追跡することができる。
[フレームt+2]移動によって人物Cが撮影画像に映り込まなくなったとする。人物A及びBは静止したままである。
(前景画像i=1)人物Cの人物領域は検出されない。また、人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。但し、人物Cの残像領域のみが映り込んでいる。
(前景画像i=2)人物Aの人物領域のみが検出される。人物Bの人物領域は、静止によって背景画像と一致して検出できない。
(前景画像i=3)人物A、Bの人物領域が映り込んでいる。その上で、前景画像i=3から、前景画像i=2に映り込む人物Aの人物領域を、画像的にマスクする。
人物Aについて、t+1の前景画像i=1から、t+2の前景画像i=2に動線を結ぶ。
人物Bについて、t+1の前景画像i=3から、t+2の前景画像i=3に動線を結ぶ。
人物Cについて、t+2の前景画像i=3にも映り込んでおらず、追跡が終了される。
[フレームt+3]人物A及びBは静止したままである。
(前景画像i=1)人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。
(前景画像i=2)人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。但し、人物Cの残像領域のみが映り込んでいる。
(前景画像i=3)人物A、Bの人物領域が映り込んでいる。
人物Aについて、t+2の前景画像i=2から、t+3の前景画像i=3に動線を結ぶ。
人物Bについて、t+2の前景画像i=3から、t+3の前景画像i=3に動線を結ぶ。
<図8:静止中の人物の後方で、移動中の人物が遮蔽された場合>
[フレームt]静止中の人物Aの後方で、移動中の人物Cが遮蔽されたとする。
(前景画像i=1)人物Cの人物領域は検出できない。人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。但し、人物Cの残像領域のみが映り込んでいる。
(前景画像i=2)人物Cの人物領域は検出できない。人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。但し、人物Cの残像領域のみが映り込んでいる。
(前景画像i=3)人物A、B、Cの人物領域が映り込んでいるが、人物A及びCが完全なオクルージョンを発生している。
人物Aについて、t-1の前景画像i=3から、tの前景画像i=3に動線を結ぶ。
人物Bについて、t-1の前景画像i=2から、tの前景画像i=3に動線を結ぶ。
人物Cについて、人物Aと完全なオクルージョンが発生したことを認識したために、t-1の前景画像i=3から、tの前景画像i=3のオクルージョン部分に動線を結ぶ。
[フレームt+1]人物Cが、右へ移動したとする。
(前景画像i=1)オクルージョンが解消し、遮蔽されていた人物Cの人物領域が検出される。人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。即ち、オクルージョン解消後の時刻t+1について、オクルージョンの後方で遮蔽されていた人物Cのみが、前景画像i=1に映り込む。
(前景画像i=2)人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。また、人物Cの人物領域から少し離れて、その人物Cの残像領域が映り込んでいる。その上で、前景画像i=2から、前景画像i=1に映り込む人物Cの人物領域を、画像的にマスクする。
(前景画像i=3)人物A、B、Cの人物領域が映り込んでいる。ここで、前景画像i=3から、前景画像i=1に映り込む人物Cの人物領域を、画像的にマスクする。
人物Aについて、tの前景画像i=3から、t+1の前景画像i=3に動線を結ぶ。
人物Bについて、tの前景画像i=3から、t+1の前景画像i=3に動線を結ぶ。
人物Cについて、tの前景画像i=3から、t+1の前景画像i=1に動線を結ぶ。
このように、フレームt及びフレームt+1から、完全なオクルージョンを発生した人物A及びCを識別して追跡することができる。
[フレームt+2]移動によって人物Cが撮影画像に映り込まなくなったとする。人物A及びBは静止したままである。
(前景画像i=1)人物Cの人物領域は検出されない。また、人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。但し、人物Cの残像領域のみが映り込んでいる。
(前景画像i=2)人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。
(前景画像i=3)人物A、Bの人物領域が映り込んでいる。
人物Aについて、t+1の前景画像i=3から、t+2の前景画像i=3に動線を結ぶ。
人物Bについて、t+1の前景画像i=3から、t+2の前景画像i=3に動線を結ぶ。
人物Cについて、t+1の前景画像i=3にも映り込んでおらず、追跡が終了される。
[フレームt+3]人物A及びBは静止したままである。
(前景画像i=1)人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。
(前景画像i=2)人物A及びBの人物領域は、静止によって背景画像と一致して検出できない。但し、人物Cの残像領域のみが映り込んでいる。
(前景画像i=3)人物A、Bの人物領域が映り込んでいる。
人物Aについて、t+2の前景画像i=3から、t+3の前景画像i=3に動線を結ぶ。
人物Bについて、t+2の前景画像i=3から、t+3の前景画像i=3に動線を結ぶ。
以上、詳細に説明したように、本発明の画像処理装置、プログラム及び方法によれば、1台のカメラによる撮影画像であっても、移動速度の異なる複数人の人物間オクルージョンに対してロバストに追跡を継続することができる。具体的には、各人物を、移動速度及び静止状態に応じて複数の前景画像に分散させて認識することができるために、複数人物が同じ時間に固まって移動しない状況である限り、高精度にオクルージョン領域の人物同士を検出することができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 画像解析装置、画像解析サーバ
11 前景画像抽出部
12 人物領域検出部
13 人物領域追跡部
14 人物領域識別部
2 全方位カメラ

Claims (11)

  1. カメラによる連続的な撮影画像の中から人物を追跡する画像解析装置において、
    連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する前景画像抽出手段と、
    最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、人物領域を検出する人物領域検出手段と、
    当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ人物領域追跡手段と、
    複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する人物領域識別手段と
    を有することを特徴とする画像解析装置。
  2. 前記人物領域追跡手段は、当該人物領域が最低更新頻度の前景画像i=nから検出されない場合、当該人物領域の動線を除外する
    ことを特徴とする請求項1に記載の画像解析装置。
  3. 前記人物領域検出手段は、同一時刻のフレームについて、当該前景画像iよりも更新頻度が高い先の前景画像(<i)で既に検出された人物領域で、当該前景画像iを画像的にマスクする
    ことを特徴とする請求項1又は2に記載の画像解析装置。
  4. 前記人物領域追跡手段は、最低更新頻度の前景画像i=nに人物領域が最初に映り込んだ際に、当該人物領域の動線の追跡を開始する
    ことを特徴とする請求項1から3のいずれか1項に記載の画像解析装置。
  5. 前記人物領域識別手段は、
    移動中の人物の後方で、静止中の人物が遮蔽された場合、移動中の人物における人物領域の動線は、静止中の人物における人物領域の動線と異なり、
    次の時刻のフレームで、移動中の人物による遮蔽が解消した静止中の人物における人物領域の動線は、最高更新頻度の前景画像i=1に映り込む
    ことによってオクルージョン発生時の人物を識別する
    ことを特徴とする請求項4に記載の画像解析装置。
  6. 前記人物領域識別手段は、
    静止中の人物の後方で、移動中の人物が遮蔽された場合、移動中の人物における人物領域の動線と、静止中の人物における人物領域の動線とが一致し、
    次の時刻のフレームで、静止中の人物による遮蔽が解消した移動中の人物における人物領域の動線は、最高更新頻度の前景画像i=1に映り込む
    ことによってオクルージョン発生時の人物を識別する
    ことを特徴とする請求項4又は5に記載の画像解析装置。
  7. 前記人物領域検出手段は、先の時刻のフレームの中で動線を結ぶ前景画像に映る当該人物領域の画像特徴量を用いて、次の時刻のフレームについて、最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまで順に、マッチングによって人物領域を検出する
    ことを特徴とする請求項1から6のいずれか1項に記載の画像解析装置。
  8. 前記前景画像抽出手段は、最低更新頻度の前景画像i=nの段階nについて、
    前記人物領域追跡手段によって検出された動線の数(追跡中の人数)に応じて、
    前記人物領域識別手段によって検出されたオクルージョン領域の最大人数に応じて、
    又は、
    前記人物領域識別手段によって検出されたオクルージョン領域の最大面積に応じて
    可変される
    ことを特徴とする請求項1から7のいずれか1項に記載の画像解析装置。
  9. 前記人物領域検出手段は、前景画像iについて、前景画像i=nに映る人物領域以外の部分を、残像領域として除外する
    ことを特徴とする請求項1から8のいずれか1項に記載の画像解析装置。
  10. カメラによる連続的な撮影画像の中から人物を識別する装置に搭載されたコンピュータを機能させる画像解析用のプログラムにおいて、
    連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する前景画像抽出手段と、
    最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、人物領域を検出する人物領域検出手段と、
    当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ人物領域追跡手段と、
    複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する人物領域識別手段と
    してコンピュータを機能させることを特徴とする画像解析用のプログラム。
  11. カメラによる連続的な撮影画像の中から人物を識別する装置の画像解析方法において、
    前記装置は、
    連続的な撮影画像から、異なる頻度で更新される複数の背景画像を用いた背景差分によって、同一時刻のフレームに対して複数の前景画像i(i=1〜n、n>1)を抽出する第1のステップと、
    最高更新頻度の前景画像i=1から最低更新頻度の前景画像i=nまでの全ての前景画像から、人物領域を検出する第2のステップと、
    当該人物領域が映る更新頻度が最も高い前景画像iを、フレームの時間経過に応じて動線で結ぶ第3のステップと、
    複数の人物領域同士でオクルージョンが発生した際に、人物領域毎の動線の相違によって人物を識別する第4のステップと
    を実行することを特徴とする装置の画像解析方法。
JP2016031624A 2016-02-23 2016-02-23 カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法 Active JP6548306B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016031624A JP6548306B2 (ja) 2016-02-23 2016-02-23 カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016031624A JP6548306B2 (ja) 2016-02-23 2016-02-23 カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2017151582A true JP2017151582A (ja) 2017-08-31
JP6548306B2 JP6548306B2 (ja) 2019-07-24

Family

ID=59738927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016031624A Active JP6548306B2 (ja) 2016-02-23 2016-02-23 カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP6548306B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033374A (ja) * 2019-08-15 2021-03-01 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
WO2021038800A1 (ja) 2019-08-29 2021-03-04 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007174A (ja) * 2002-05-31 2004-01-08 Toshiba Corp 画像処理システム、画像処理方法、画像処理プログラム
JP2009075802A (ja) * 2007-09-20 2009-04-09 Giken Torasutemu Kk 人物行動検索装置
JP2010193458A (ja) * 2009-02-19 2010-09-02 Sony Europe Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2013033317A (ja) * 2011-08-01 2013-02-14 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP2013240013A (ja) * 2012-05-17 2013-11-28 Canon Inc 映像処理装置、追尾物体の管理方法、および、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007174A (ja) * 2002-05-31 2004-01-08 Toshiba Corp 画像処理システム、画像処理方法、画像処理プログラム
JP2009075802A (ja) * 2007-09-20 2009-04-09 Giken Torasutemu Kk 人物行動検索装置
JP2010193458A (ja) * 2009-02-19 2010-09-02 Sony Europe Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2013033317A (ja) * 2011-08-01 2013-02-14 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP2013240013A (ja) * 2012-05-17 2013-11-28 Canon Inc 映像処理装置、追尾物体の管理方法、および、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
和田 亮 AKIRA WADA: "複数人物の行動軌跡自動抽出法に関する一検討 An Automatic Extraction Method for Motion Loci of Severa", 映像情報メディア学会技術報告 VOL.23 NO.33 ITE TECHNICAL REPORT, vol. 第23巻, JPN6019015080, 18 May 1999 (1999-05-18), JP, pages 7 - 12, ISSN: 0004024806 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033374A (ja) * 2019-08-15 2021-03-01 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP7349290B2 (ja) 2019-08-15 2023-09-22 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
WO2021038800A1 (ja) 2019-08-29 2021-03-04 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置

Also Published As

Publication number Publication date
JP6548306B2 (ja) 2019-07-24

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
CN110334569B (zh) 客流量进出识别方法、装置、设备及存储介质
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
CN112883819A (zh) 多目标跟踪方法、装置、系统及计算机可读存储介质
KR20180032400A (ko) 다중 카메라 영상의 객체 정보 기반 다중 객체 추적 장치 및 그 방법
CN109784130B (zh) 行人重识别方法及其装置和设备
US9704264B2 (en) Method for tracking a target in an image sequence, taking the dynamics of the target into consideration
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN108596157B (zh) 一种基于运动检测的人群惊扰场景检测方法及系统
JP6789601B2 (ja) 所定画像領域をマスクした撮影映像を学習映像として選択する学習映像選択装置、プログラム及び方法
CN110675426B (zh) 人体跟踪方法、装置、设备及存储介质
CN110175553B (zh) 基于步态识别与人脸识别建立特征库的方法及装置
CN106920250A (zh) 基于rgb‑d视频的机器人目标识别与定位方法及系统
JP2017117244A (ja) カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法
CN110334568B (zh) 轨迹生成与监控方法、装置、设备及存储介质
KR20230081016A (ko) 복수의 카메라를 이용하여 객체를 추적하는 장치, 방법 및 컴퓨터 프로그램
JP2017151582A (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
Mohedano et al. Robust 3d people tracking and positioning system in a semi-overlapped multi-camera environment
CN114677608A (zh) 身份特征生成方法、设备及存储介质
KR20080079506A (ko) 촬영장치 및 이의 대상 추적방법
Wang et al. Automatic detection and tracking of precast walls from surveillance construction site videos
JP2017068375A (ja) 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム
JP6504711B2 (ja) 画像処理装置
CN111368608B (zh) 一种人脸识别方法、装置及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190621

R150 Certificate of patent or registration of utility model

Ref document number: 6548306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150