JP6779410B2 - 映像解析装置、映像解析方法、及びプログラム - Google Patents
映像解析装置、映像解析方法、及びプログラム Download PDFInfo
- Publication number
- JP6779410B2 JP6779410B2 JP2020518898A JP2020518898A JP6779410B2 JP 6779410 B2 JP6779410 B2 JP 6779410B2 JP 2020518898 A JP2020518898 A JP 2020518898A JP 2020518898 A JP2020518898 A JP 2020518898A JP 6779410 B2 JP6779410 B2 JP 6779410B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- narrowing
- rule
- tracking
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Description
特許文献1に示された技術は次のようなものである。すなわち、監視空間内に設置された監視カメラによって、監視空間を所定の時間間隔で撮影する。対象物を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである対象物モデルを記憶させる。記憶された対象物モデルを撮影された監視空間の候補位置に所定の姿勢で仮想的に配置する。対象物モデルを投影条件に基づいて透視投影して、部分モデルが投影される部分モデル可視領域を部分モデル毎に求める。撮影された監視空間の監視画像から部分モデル可視領域に対応する部分を対象物の構成部分画像として抽出する。構成部分画像の所定の画像特徴から対象物の存在を判定する。
しかし、所定の時間間隔で撮影した監視カメラの監視画像(シーン)によっては人物検出の精度が下がってしまうため、対象物モデルの精度を高める必要があり、適用先のシーンにおいて検出したい対象のサンプルを収集し、対象物モデルを更新するなどの必要があった。
実施の形態1.
この発明の実施の形態1について、図1から図6を用いて説明する。
まず、最初に、この発明の実施の形態1に係る映像解析装置1を備えた映像解析システムについて図1を用いて説明する。
撮像装置2a〜2cはそれぞれ対応した監視空間内を撮影する。この実施の形態1では撮像装置2a〜2cは監視カメラで有り、以下、総称して監視カメラ2と称す。
なお、ネットワーク3は有線又は無線などの形態である。
また、映像解析装置1は、ネットワーク3を介して監視カメラ2の映像情報を受信するものを示したが、これに限るものではなく、監視カメラ2の映像情報をビデオに読み込み、ビデオに読み込まれた監視カメラ2の映像情報を入力するものでも良い。
人物検出部11は、ネットワーク3を介して受信、つまり入力した監視カメラ2からの映像情報から人物画像を検出する。この検出は、見え方(画像、空間方向)に関するルールに基づくものであり、例えばCNN(Convolutional Neural Network)をベースにした機械学習の技術により実現される。
人物画像の検出結果は、人物画像の矩形情報、検出結果の信頼度、判定に使った特徴マップなどの中間生成物などの人物画像情報として出力される。
人物画像の検出に際し、属性判定も同時に行なわれる。属性判定としては、性別、年齢、表情、服装などを推定することにより行なわれる。例えば、車両では車掌を、ビルにおいては警備員を、高齢者及び白杖を持っている人(視覚障害者)を、係員などを認識、つまり人物の属性を認識する。
この人物の属性の認識結果も、人物画像情報とともに人物の属性情報として得られる。
人物絞り込み部12は、シーン、つまり、監視カメラ2にて撮像された一画像(フレーム)において、監視空間の床面と監視カメラ2の幾何的関係に基づき計算された人物矩形高さ絞り込みルールを用いて、矩形の高さにより、人物矩形候補をスクリーニングする。絞り込みルールデータベース(DB)13に記憶された人物絞り込みルールは、この人物矩形高さ絞り込みルールを含む。
図3において、Hは全身が映っている場合の人物の高さ、hはピンホールカメラに撮像された投射面における人物画像の大きさ、Z1はピンホールカメラから人物画像までの奥行き、Z2はピンホールカメラから投影面までの距離である。
投射面における人物の大きさhは次式(1)にて現せる。
h=H*Z2/Z1 (1)
この式(1)から理解されるように、人物の高さH及びピンホールカメラから投影面までの距離Z2を固定して考えれば、人物画像の大きさhは人物までの奥行きZ1に反比例する。
この場合、2つの条件が必要である。第1に、ピンホールカメラの内部行列を求めるため、実世界上の座標の相対関係が判っているパターン、例えばチェスボードなどをピンホールカメラにて複数撮影し、撮影した画像からの対応点の抽出である。第2に、ピンホールカメラと床面の幾何関係(外部行列)を計算するため、床面の複数点、具体的には3つ以上の点と画面上の対応点との関係を求めることである。
すなわち、カメラにて撮影された映像から人物の映っている画面上の高さと矩形の高さの関係を抽出する方法である。
図4は、一つの例として、身長170cmの人物に関する画面の高さと人物矩形の高さとの関係を示している。このようにして求めた画面の高さと人物矩形の高さとの関係から、人物の身長について誤差の上限と下限を設定することで受容する画面上の矩形高さ範囲を設定する。例えば、画面の高さごとに求められた人物矩形の高さの上限及び下限を20%までを許容すれば、画面上の各高さにおいてデータを170cmの人物でとっていた場合には136cm〜204cmまでの人物を検出範囲としていることになる。
また、画面の高さと人物矩形の高さの関係について、実際に測定した結果を用いてもよく、また、図4からも理解されるように実測値と推定値がほぼ一致していることから、画面の高さ位置ごとに身長を設定し、推定値によって決定しても良い。
すなわち、人物絞り込みルールデータベース13に保管される人物矩形高さ絞り込みルールの一つとして、人物絞り込み部12によって身長170cmの人物を絞り込む場合、身長136cm〜204cmまでの人物を検出範囲とし、人物矩形の高さの検出範囲を、身長136cm〜204cmまでの検出範囲に対応させる。
このようにして求められた人物矩形の高さの検出範囲は、人物矩形高さ絞り込みルールの一つとして人物絞り込みルールデータベース13の人物絞り込みルールとして保管される。
人物絞り込みルールデータベース13に保管された人物矩形高さ絞り込みルールである人物矩形の高さの検出範囲に基づいて、人物絞り込み部12は、シーン毎に人物検出部11からの人物画像情報を絞り込む。
このように、人物矩形高さ絞り込みルールである身長に対して上限値及び下限値を20%まで許容するとの身長に対する上限値及び下限値を設定した人物矩形の高さにより、人物絞り込み部12により人物画像情報を絞り込む、言い換えれば、上限値及び下限値が設定された人物矩形の高さの範囲から外れた人物矩形を誤認識として抑制するようにしたので、異なったシーン毎に検出したい対象人物のサンプルを抽出して映像解析装置1に学習させることをせずとも、人物画像情報の絞り込みの精度を向上できる。
追跡結果は、以下のようにして得る。すなわち、一シーンである監視カメラ2にて撮像された一画像(フレーム)毎に、現フレームと前フレームの人物矩形の間の二部グラフのマッチング問題と捉え、グラフ問題として解くことにより対応付けを行う。
このように、検出された人物矩形を基に対応付け問題として人物追跡を行う枠組みはtracking-by-detectionと呼ばれ、カルマンフィルター及び人物ごとの追跡器を学習する方式に比べた時、多人数が登場し互いにすれ違うような複雑なシナリオでもより頑健に処理が可能という利点がある。
動きベクトル情報を用いることにより、例えば、イベント会場では客の離着席、通路の移動などが動きとして検出可能であり、ビル及び商業施設では利用者の動きが検出可能である。また、物を持つ、手を挙げるなどの要素行動も認識可能である。
なお、指定する高齢者の情報はイベント判定用データベース16に保管された情報であっても良い。
この場合、イベント判定用データベース16に、係員の情報、係員の情報と人物追跡部14からの人物矩形の軌跡情報との関係などルールを記憶しておく。
映像解析装置1は図5に示したように、CPU101と、ROM102と、RAM103と、及びHDDなどの二次記憶装置104と、入力装置105と、出力装置106と、これら装置101から106間を接続するバス107を備える。
CPU101は、ROM102又はRAM103に記録されたプログラムを読み込み、処理を実行する。
この実施の形態1では、図6に示す、映像解析装置1におけるイベント認識の処理フローを示すフローチャートを実行するプログラムを記憶している。
ステップST1からステップST4と図2に示した映像解析装置1における人物検出部11、人物絞り込み部12、人物追跡部14、イベント判定部15との関係は次のようになっている。
すなわち、人物検出ステップST1は、人物検出部11によって実行されるステップに相当し、監視カメラ2からの映像情報から人物画像を、例えばCNNをベースにした機械学習の技術により、見え方(画像、空間方向)に関するルールに基づき検出し、人物画像の検出結果としての人物画像情報及びその人物画像情報に対応した人物の属性情報を得るステップである。
入力装置105はユーザからの入力を受け付けるキーボード及びマウスなどの装置であり、入力された情報はバス107を介してCPU101に通知される。
出力装置106は結果を出力する装置で、バス107を介して得たCPU101による処理結果を表示装置4に描画するために出力し、また、他の装置に結果ファイルとして転送するためにCPU101による処理結果を出力する。
まず、入力装置105から映像解析開始の指示を受けると、CPU101はROM102から人物検出手順のプログラムを読み出し、人物検出ステップST1を実行する。
その結果、人物画像の検出結果としての人物画像情報及びその人物画像情報に対応した人物の属性情報が得られる。
その結果、絞り込まれた人物画像情報及びそれに対応した人物の属性情報を、シーン毎に追跡し、追跡結果と追跡結果の対象となった人物の属性情報が得られる。
この時、入力装置105によるイベントの指示情報に基づき、指示情報に沿った処理がCPU101によって行なわれる。例えば、人物の動きの有無、例えば危険領域への侵入の有無、指定した人物の有無、不審人物の有無などの指示情報に基づき、指示情報に基づいた判定を行い、イベントの検出結果が出力装置106を介して出力される。
出力された結果は、表示装置4に表示され、ユーザに認識されることになる。
さらに、人物絞り込み部12によって人物絞り込みルールの人物矩形高さ絞り込みルールに基づき、人物画像情報を絞り込むので、人物の誤認識を効率的に削減できる。その結果、異なったシーン毎に検出したい対象人物のサンプルを抽出して映像解析装置1に学習させることをせずとも、人物画像情報の絞り込みの精度を向上できるという効果がある。
次のこの発明の実施の形態2について説明する。
実施の形態2に係る映像解析装置1は、実施の形態1にて示した映像解析装置1と基本的構成が同じ、つまり、図2に示した機能構成図及び図5に示した構成図と基本的構成が同じである。相違する点は、人物絞り込みルールデータベース13、ハード的には二次記憶装置104に記憶される人物絞り込みルールとして、さらに、監視空間内に通路が存在し、通路内に人物が現れた場合に人物を検出する通路内絞り込みルールを、実施の形態1にて示した映像解析装置1に追加したものである。
この人物絞り込みルールは、人物絞り込みルールデータベース13、ハード的には二次記憶装置104に記憶される。
この発明の実施の形態3について、図9から図11を用いて説明する。実施の形態3に係る映像解析装置1は、実施の形態1にて示した映像解析装置1に対して絞り込みルール生成部17を追加したものである。その他の構成要素については同じである。
なお、図9から図11において、図1から図6に示された符号と同一符号は同一又は相当部分を示す。
以下、絞り込みルール生成部17を中心に説明する。
設定された絞り込み基準は、第1に、人物の追跡結果として現れた人物矩形がランダムな位置に断続的に登場する人物矩形であると誤検出、誤追跡として除き、第2に、人物の追跡結果として現れた人物矩形が同じ位置に滞留している人物矩形を、この人物矩形が誤検出であるか人物が存在するかに係らず、絞り込みルール生成に有用な情報を与えないため除く。
すなわち、登場人物数が閾値以下の時間帯、つまり、監視カメラ2にて撮像された映像に人物が少ない場合、人物絞り込み部12にて用いる人物の矩形情報に対する、対応付けの候補としての映像における人物が少なく、対応付け精度が高くなり、結果として、人物追跡部14からの人物の追跡結果の精度が高くなる。
時間当たりの登場人物数の時間当たりは、監視カメラ2にて撮像された画像の一フレームの時間でもよいし、複数のフレームが現れる時間でも良い。
この自己生成絞り込みルールの生成は、フレームごとに実施してもよいし、日中データを取りためておいて夜間に実施するなど、処理頻度を下げてもよい。
図10に示すフローチャートは、人物検出ステップST1と、人物絞り込みステップST2と、人物追跡ステップST3と、イベント判定ステップST4、絞り込みルール生成ステップST21により構成される。
すなわち、人物検出ステップST1は、人物検出部11によって実行されるステップに相当し、人物絞り込みステップST2は、人物絞り込み部12によって実行されるステップに相当し、人物追跡ステップST3は、人物追跡部14によって実行されるステップに相当し、イベント判定ステップST4は、イベント判定部15によって実行されるステップに相当する。
二次記憶装置104に記憶される人物絞り込みルールは、初期状態として実施の形態1に示したと同様に自己生成絞り込みルールを含まない人物絞り込みルールでもよく、また、人物絞り込みルールに自己生成絞り込みルールを持たせた状態でも良い。
以下、自己生成絞り込みルールを持たない状態で説明するが、実施の形態1に示した映像解析装置1に自己生成絞り込みルールを記憶された状態からでも同様にして自己生成絞り込みルールは更新される。
その後、CPU101はROM102から絞り込みルール生成手順のプログラムを読み出し、絞り込みルール生成ステップST21を実行する。
その結果、上記した基準に基づき自己生成絞り込みルールが生成され、生成された自己生成絞り込みルールを二次記憶装置104に人物絞り込みルールの一つとして記憶される。
このような処理が繰り返されることにより、二次記憶装置104に記憶される人物絞り込みルールの自己生成絞り込みルールは精度が向上し、人物画像情報の絞り込みの精度も高まる。
人物画像情報の絞り込みの精度が高まった状態で、人物追跡及びイベントの判定が行なわれることになる。
次に、この発明の実施の形態4について説明する。
実施の形態4に係る映像解析装置1は、実施の形態3にて示した映像解析装置1と基本的構成が同じ、つまり、図9に示した機能構成図及び図5に示した構成図と基本的構成が同じである。相違する点は、人物絞り込みルールデータベース13、ハード的には二次記憶装置104に記憶される人物絞り込みルールとして、さらに、監視空間内に通路が存在し、通路内に人物が現れた場合に人物を検出する通路内絞り込みルールを、実施の形態3にて示した映像解析装置1に追加したものである。
この人物絞り込みルールの通路内絞り込みルールは、人物絞り込みルールデータベース13、ハード的には二次記憶装置104に記憶される。
まず、絞り込みルール生成部17にてマスク画像を初期化し、領域指定がされていない、例えば黒塗り状態とするマスク画像情報とする。
その後、絞り込みルール生成部17は、人物追跡部14からの人物の追跡結果における人物矩形ごとに底辺の中点を足元位置として求め、人物絞り込みルールデータベース13に記憶されたマスク画像に対して、足元位置を中心に白の円を描く。この時、円の半径は一定の値でもよいし、矩形の大きさに比例するように決めてもよい。また、円でなくてほかの図形、例えば矩形の形を描いてもよい。人物の追跡結果における人物矩形のすべてについて、白の図形の描画を終えた時、マスク画像上の白い領域を通路領域と定義する。このようにして求め、白い領域を通路領域として定義したマスク画像情報を通路内絞り込みルールとして人物絞り込みルールデータベース13に記憶させる。
なお、円の描画において、白色で描画するのではなく、描画された回数を加算する。具体的には描画対象(フレーム)の画素ごとにカウンタに1加算する方式でもよい。このようにして求めた画素ごとのカウントは人物の登場頻度に比例した値になっており、例えば人物検出結果の信頼度と積を取り、ある一定の閾値を超えたもののみ検出結果として採用することで領域による人物の登場しやすさを考慮した検出ができる。
Claims (10)
- 監視カメラからの映像情報から人物画像を検出し、人物画像の検出結果としての人物画像情報及びその人物画像情報に対応した人物の属性情報を得る人物検出部と、
前記人物検出部によって得られた人物画像情報及び人物の属性情報を、人物絞り込みルールに基づき、人物画像情報の絞り込みを行い、絞りこまれた人物画像情報及びそれに対応した人物の属性情報を得る人物絞り込み部と、
前記人物絞り込み部によって絞り込まれた人物画像情報及びそれに対応した人物の属性情報における追跡結果と追跡結果の対象となった人物の属性情報を得る人物追跡部と、
前記人物追跡部によって得られた人物の追跡結果とその人物の属性情報を基にイベントの検出を行うイベント判定部と、
前記人物追跡部によって得られた人物の追跡結果とその人物の属性情報を、設定された絞り込み基準により、自己生成絞り込みルールを生成する絞り込みルール生成部と、
を備え、
前記人物絞り込みルールは前記自己生成絞り込みルールを含み、
前記自己生成絞り込みルールは、前記人物追跡部によって得られた人物の追跡結果として現れた時間当たりの人物矩形の数が閾値以下の時間帯に、前記人物追跡部によって得られた人物の追跡結果として現れた人物矩形の内、ランダムな位置に断続的に登場する人物矩形及び同じ位置に滞留している人物矩形を除いた人物矩形に基づくルールであることを特徴とする映像解析装置。 - 前記人物絞り込みルールは、人物の身長に対応して上限値及び下限値が設定された人物矩形の高さの検出範囲から外れた人物矩形を誤認識として抑制する人物矩形高さ絞り込みルールを含むことを特徴とする請求項1記載の映像解析装置。
- 前記人物絞り込みルールは、人物矩形の足元情報が前記監視カメラによる監視空間の通路情報内に位置すると判定したものに絞り込む通路内絞り込みルール含むことを特徴とする請求項1記載の映像解析装置。
- 前記通路内絞り込みルールは、前記絞り込みルール生成部により生成され、前記人物追跡部からの人物の追跡結果における人物矩形の足元位置情報に基づき通路領域として定義したマスク画像情報であることを特徴とする請求項3記載の映像解析装置。
- 監視カメラからの映像情報から人物画像を検出し、人物画像の検出結果としての人物画像情報及びその人物画像情報に対応した人物の属性情報を得る人物検出ステップと、
前記人物検出ステップによって得られた人物画像情報及び人物の属性情報を、人物絞り込みルールに基づき、人物画像情報を絞り込み、絞りこまれた人物画像情報及びそれに対応した人物の属性情報を得る人物絞り込みステップと、
前記人物絞り込みステップによって絞り込まれた人物画像情報及びそれに対応した人物の属性情報における追跡結果と追跡結果の対象となった人物の属性情報を得る人物追跡ステップと、
前記人物追跡ステップによって得られた人物の追跡結果とその人物の属性情報を基にイベントの検出を行うイベント判定ステップと、
前記人物追跡ステップによって得られた人物の追跡結果とその人物の属性情報を、設定された絞り込み基準により、自己生成絞り込みルールを生成する絞り込みルール生成ステップと、
を備え、
前記人物絞り込みルールは前記自己生成絞り込みルールを含み、
前記自己生成絞り込みルールは、前記人物追跡ステップによって得られた人物の追跡結果として現れた時間当たりの人物矩形の数が閾値以下の時間帯に、前記人物追跡ステップによって得られた人物の追跡結果として現れた人物矩形の内、ランダムな位置に断続的に登場する人物矩形及び同じ位置に滞留している人物矩形を除いた人物矩形に基づくルールであることを特徴とする映像解析方法。 - 前記人物絞り込みルールは、人物の身長に対応して上限値及び下限値が設定された人物矩形の高さの検出範囲から外れた人物矩形を誤認識として抑制する人物矩形高さ絞り込みルールを含むことを特徴とする請求項5記載の映像解析方法。
- 前記人物絞り込みルールは、人物矩形の足元情報が前記監視カメラによる監視空間の通路情報内に位置すると判定したものに絞り込む通路内絞り込みルールを含むことを特徴とする請求項5又は請求項6記載の映像解析方法。
- コンピュータに、
監視カメラからの映像情報から人物画像を検出し、人物画像の検出結果としての人物画像情報及びその人物画像情報に対応した人物の属性情報を得る人物検出手順と、
前記人物検出手順によって得られた人物画像情報及び人物の属性情報を、人物絞り込みルールに基づき、人物画像情報を絞り込み、絞りこまれた人物画像情報及びそれに対応した人物の属性情報を得る人物絞り込み手順と、
前記人物絞り込み手順によって絞り込まれた人物画像情報及びそれに対応した人物の属性情報における追跡結果と追跡結果の対象となった人物の属性情報を得る人物追跡手順と、
前記人物追跡手順によって得られた人物の追跡結果とその人物の属性情報を基にイベントの検出を行うイベント判定手順と、
前記人物追跡手順によって得られた人物の追跡結果とその人物の属性情報を、設定された絞り込み基準により、自己生成絞り込みルールを生成する絞り込みルール生成手順と、
を実行させ、
前記人物絞り込みルールは前記自己生成絞り込みルールを含み、
前記自己生成絞り込みルールは、前記人物追跡手順によって得られた人物の追跡結果として現れた時間当たりの人物矩形の数が閾値以下の時間帯に、前記人物追跡手順によって得られた人物の追跡結果として現れた人物矩形の内、ランダムな位置に断続的に登場する人物矩形及び同じ位置に滞留している人物矩形を除いた人物矩形に基づくルールであることを特徴とするプログラム。 - 前記人物絞り込みルールは、人物の身長に対応して上限値及び下限値が設定された人物矩形の高さの検出範囲から外れた人物矩形を誤認識として抑制する人物矩形高さ絞り込みルールを含むことを特徴とする請求項8記載のプログラム。
- 前記人物絞り込みルールは、人物矩形の足元情報が前記監視カメラによる監視空間の通路情報内に位置すると判定したものに絞り込む通路内絞り込みルールを含むことを特徴とする請求項8又は請求項9記載のプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/019102 WO2019220589A1 (ja) | 2018-05-17 | 2018-05-17 | 映像解析装置、映像解析方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019220589A1 JPWO2019220589A1 (ja) | 2020-10-22 |
JP6779410B2 true JP6779410B2 (ja) | 2020-11-04 |
Family
ID=68539844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020518898A Active JP6779410B2 (ja) | 2018-05-17 | 2018-05-17 | 映像解析装置、映像解析方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11417134B2 (ja) |
JP (1) | JP6779410B2 (ja) |
GB (1) | GB2587555C (ja) |
WO (1) | WO2019220589A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10634506B2 (en) * | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
JP7419090B2 (ja) | 2020-02-06 | 2024-01-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP7363758B2 (ja) * | 2020-12-23 | 2023-10-18 | 株式会社デンソー | 状態監視装置及び状態監視プログラム |
CN113850168A (zh) * | 2021-09-16 | 2021-12-28 | 百果园技术(新加坡)有限公司 | 人脸图片的融合方法、装置、设备及存储介质 |
WO2023148971A1 (ja) * | 2022-02-07 | 2023-08-10 | 日本電気株式会社 | 管理装置、管理方法、およびコンピュータ可読媒体 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4707019B2 (ja) * | 2006-03-31 | 2011-06-22 | サクサ株式会社 | 映像監視装置及び方法 |
JP4958600B2 (ja) * | 2007-03-30 | 2012-06-20 | パナソニック株式会社 | 見守りシステムおよびマスキング処理方法 |
JP5027741B2 (ja) | 2008-06-18 | 2012-09-19 | セコム株式会社 | 画像監視装置 |
US9092675B2 (en) * | 2012-03-29 | 2015-07-28 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
US10248868B2 (en) | 2012-09-28 | 2019-04-02 | Nec Corporation | Information processing apparatus, information processing method, and information processing program |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
JP6488647B2 (ja) | 2014-09-26 | 2019-03-27 | 日本電気株式会社 | 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体 |
US20160196728A1 (en) * | 2015-01-06 | 2016-07-07 | Wipro Limited | Method and system for detecting a security breach in an organization |
JP2017041022A (ja) | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2018
- 2018-05-17 JP JP2020518898A patent/JP6779410B2/ja active Active
- 2018-05-17 GB GB2017860.4A patent/GB2587555C/en active Active
- 2018-05-17 WO PCT/JP2018/019102 patent/WO2019220589A1/ja active Application Filing
-
2020
- 2020-11-12 US US17/096,470 patent/US11417134B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210064857A1 (en) | 2021-03-04 |
GB2587555A (en) | 2021-03-31 |
WO2019220589A1 (ja) | 2019-11-21 |
GB2587555B (en) | 2021-10-27 |
GB2587555C (en) | 2021-11-17 |
JPWO2019220589A1 (ja) | 2020-10-22 |
GB202017860D0 (en) | 2020-12-30 |
US11417134B2 (en) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6779410B2 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
US10776627B2 (en) | Human flow analysis method, human flow analysis apparatus, and human flow analysis system | |
JP6276519B2 (ja) | 人数計測装置および人物動線解析装置 | |
JP5390322B2 (ja) | 画像処理装置、及び画像処理方法 | |
JP5657113B2 (ja) | 映像内のオブジェクトの意味解析 | |
KR101788269B1 (ko) | 이상 상황을 감지하는 장치 및 방법 | |
US20160086023A1 (en) | Apparatus and method for controlling presentation of information toward human object | |
JP2014182480A (ja) | 人物認識装置、及び方法 | |
JP5027741B2 (ja) | 画像監視装置 | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
KR20190118965A (ko) | 시선 추적 시스템 및 방법 | |
JP2011209794A (ja) | 対象物認識システム及び該システムを利用する監視システム、見守りシステム | |
JP6786837B2 (ja) | 動体計数装置及びプログラム | |
JP2005250692A (ja) | 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 | |
CN115661903A (zh) | 一种基于空间映射协同目标过滤的识图方法及装置 | |
KR101355206B1 (ko) | 영상분석을 이용한 출입 계수시스템 및 그 방법 | |
WO2021140590A1 (ja) | 人体検出装置、人体検出方法、及び、記録媒体 | |
JP6851246B2 (ja) | 物体検出装置 | |
JP2019029747A (ja) | 画像監視システム | |
JP7280335B1 (ja) | 立位座位分離計数装置及び立位座位分別処理方法 | |
US20220138458A1 (en) | Estimation device, estimation system, estimation method and program | |
EP4207097A1 (en) | Information processing program, information processing method, and information processing apparatus | |
JP7208051B2 (ja) | 状態認識装置 | |
JP7152651B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
US20230206639A1 (en) | Non-transitory computer-readable recording medium, information processing method, and information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200617 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200617 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201013 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6779410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |