JP7218416B2 - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7218416B2
JP7218416B2 JP2021190723A JP2021190723A JP7218416B2 JP 7218416 B2 JP7218416 B2 JP 7218416B2 JP 2021190723 A JP2021190723 A JP 2021190723A JP 2021190723 A JP2021190723 A JP 2021190723A JP 7218416 B2 JP7218416 B2 JP 7218416B2
Authority
JP
Japan
Prior art keywords
subject
information
imaging means
statistical information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021190723A
Other languages
English (en)
Other versions
JP2022028861A (ja
Inventor
健二 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017087205A external-priority patent/JP2018186397A/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021190723A priority Critical patent/JP7218416B2/ja
Publication of JP2022028861A publication Critical patent/JP2022028861A/ja
Application granted granted Critical
Publication of JP7218416B2 publication Critical patent/JP7218416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
監視対象空間内に設置された複数の監視カメラを使って物体を検出してカメラ間で同定し、追跡する監視システムが提案されている。特許文献1では監視対象空間内にある監視カメラ映像内の被写体を検出して特徴量を算出し、得られた特徴量を基にカメラ間で被写体を同定し、追跡する方法が提案されている。
特許第4700477号公報
しかしながら、特許文献1の監視システムでは1つの監視対象空間内で被写体を追跡することを想定しており、被写体が別の監視対象空間へと移動した場合、別の映像監視システムにおいて被写体を検出・同定して追跡することになる。そこで、ある映像監視システムで追跡している被写体情報を別の映像監視システムに送信して追跡することが考えられるが、その場合、検出した被写体情報をシステム外部に送信する必要がある。しかし、追跡結果や被写体の情報を不特定の外部監視システムへ送信すると大きな通信コストがかかってしまっていた。
本発明の情報処理装置は、第1の撮像手段によって撮像された画像から抽出した被写体の特徴量を含む被写体情報を記憶する記憶手段と、前記第1の撮像手段によって撮像された現在の画像から、過去に検出された被写体が検出されなかった場合に、前記第1の撮像手段とは異なる第2の撮像手段によって撮像された画像から検出された被写体の属性に関する統計情報を受信する受信手段と、前記統計情報に基づいて、前記被写体情報の一部を選択する選択手段と、前記選択された前記被写体情報の一部を前記第2の撮像手段が属する外部装置へ送信する送信手段と、を有する。
本発明によれば、通信コストを減らしつつ、異なる映像監視システムにおいても簡便に被写体を追跡することができる。
映像監視システムのハードウェア構成の一例を示す図である。 映像監視システムの機能構成等の一例を示す図である。 それぞれの監視対象空間で映像監視を行っている一例を示す図である。 被写体DBに登録されている被写体情報の一例を示す図である。 統計情報の一例を示す図である。 被写体情報の一例を示す図である。 情報処理の一例を示すフローチャートである。 出現確率の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態に係る映像監視システムは、監視カメラの映像内の人物を検出し、検出した人物の特徴量を抽出して別の監視カメラの映像内で検出された人物の特徴量と比較して同定し、監視カメラ間で被写体を追跡する。追跡している被写体が映像監視システムの監視空間内から出た場合、映像監視システムは、外部の映像監視システムから統計情報を取得し、統計情報と類似する被写体情報を選択して外部の映像監視システムへ送信する。外部の映像監視システムは、取得した人物の特徴量を用いて人物を同定し、追跡を継続して行う。
図1は、映像監視システム100のハードウェア構成の一例を示す図である。映像監視システム100は、各種のユニット(10~14)を含んで構成される。CPU(Central Processing Unit)10は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM(Random Access Memory)11は、各種の情報を記憶するユニットである。また、RAM11は、CPU10の一時的な作業記憶領域としても利用されるユニットである。ROM(Read Only Memory)12は、各種のプログラム等を記憶するユニットである。例えば、CPU10は、ROM12に記憶されているプログラムをRAM11にロードしてプログラムを実行する。
加えて、CPU10がフラッシュメモリ、HDD(Hard Disk Drive)、又はSSD(Solid State Disk)といった外部記憶装置に記憶されているプログラムに基づき処理を実行する。これにより、図2に示されるような映像監視システム100又は映像監視システム110を構成するソフトウェア構成及び後述する図7の1又は複数のフローチャートの各ステップの処理が実現される。
映像監視システム100、映像監視システム110の機能及び後述する図7のフローチャートの各ステップの処理の全部又は一部については専用のハードウェアを用いて実現されてもよい。
NIC(Network Interface Card)205は、映像監視システム100をネットワークに接続するためのユニットである。
映像監視システム100は、図1に示したように1つの装置、又はコンピュータで実現されてもよいし、複数の装置、又はコンピュータで実現されてもよい。
図2は、映像監視システムの機能構成等の一例を示す図である。本実施形態では映像監視システム100から映像監視システム110へと被写体情報を送信する場合について説明を行う。図2に示されるように、本実施形態のシステムは、映像監視システム100と映像監視システム110とを含み、映像監視システム100と映像監視システム110とがネットワーク20を介して通信可能に接続されている。
また、映像監視システム100と映像監視システム110とでは概略構成は同一のものであるため、構成の各項目の詳細な説明について重複する場合は省略する。
映像監視システム100及び映像監視システム110は、機能構成として、映像取得部101と、被写体検出部102と、特徴抽出部103と、被写体同定部104と、被写体データベース(被写体DB)105と、統計情報生成部106と、を含む。また、映像監視システム100及び映像監視システム110は、機能構成として、統計情報送受信部107と、被写体選択部108と、被写体情報送受信部109と、を含む。
映像取得部101は、設置された監視カメラ等で撮影された映像を取得する。図3では、マップ200において映像監視システム100の監視対象空間210と映像監視システム110の監視対象空間220とで映像監視を実行していることを表している。このとき、映像監視システム100の映像取得部101~101-nが監視カメラ群211~216に対応し、映像監視システム110の映像取得部101~101―nが監視カメラ群221~225に対応する。
また、監視カメラで撮影された映像をレコーダに保存しておき、映像取得部101は、レコーダから保存された映像を取得するものでもよい。映像取得部101は、取得した映像を被写体検出部102へ出力する。
被写体検出部102は、得られた映像に対して被写体検出の処理を行う。被写体検出部102は、予め用意された背景画像と撮影において撮像された各画像(撮像画像)との画素値を比較し、背景画像と異なる画素値を抽出し、抽出した画素に対して、隣接する画素を連結させることで被写体として検出する。
被写体検出部102は、例えば非特許文献1の方法を用いて、予め用意された人物モデルを画像に対してスライドさせながら比較演算するスライディングウィンドウ処理を実行して、画像の各領域と人物モデルとを比較し、画像の各領域が人物であるか判定することで、人物を検出することもできる。
(非特許文献1)Histograms of oriented gradients for human detetction,N.Dalal,CVPR2005
ここでは、被写体検出部102は、これらの方法に限定するわけではなく、他の方法で人物検出を行ってもよい。
被写体検出部102は、検出された人物の領域画像を特徴抽出部103へと送る。
特徴抽出部103は、被写体検出部102で検出された人物画像に対して、特徴量を抽出する。特徴抽出部103は、得られた人物画像を一定のサイズに正規化し、特徴抽出部103は、正規化した人物画像を既定サイズの小領域に分割して、各小領域で色ヒストグラムを作成する。特徴抽出部103は、各小領域の色ヒストグラムを連結してベクトルとすることで特徴量にすることができる。特徴量の抽出方法はこれらに限定するわけではない。特徴抽出部103は、他の方法を用いて特徴量を抽出してもよい。
特徴抽出部103は、得られた人物の特徴量を含む特徴情報を被写体同定部104へと送る。
被写体同定部104は、得られた各被写体の特徴量を、異なるカメラ間で比較して、特徴量の類似度から同一の人物か否かを判定する。
被写体同定部104は、例えば、以下の(式1)に示すコサイン類似度を用いて類似度を算出することができる。
Figure 0007218416000001
また、類似度の算出にはコサイン類似度に限定するわけではない。被写体同定部104は、SSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)等を用いてもよく、別の評価値を算出してもよい。被写体同定部104は、算出した類似度が最も高い値の場合、2つの比較している人物同士を同一人物として同定する。
被写体同定部104は、同定した被写体の被写体ID、カメラID、画像、特徴量、属性、位置情報等を被写体情報として被写体DB105へ登録する。図4は、被写体DB105に登録されている被写体情報の一例を示す図である。図4は、被写体情報の一例であって、図4に示した情報以外に、被写体情報として推定した被写体の性別、年齢や、被写体画像を取得した監視カメラのパラメータ、監視カメラの設置条件、位置情報等を含んでいてもよい。
統計情報生成部106は、映像内の被写体に関する統計情報を生成する。
図5は、監視カメラ221の映像441と監視カメラ222の映像442とで検出された人物のクラス(正面向き、右向き、左向き、後ろ向き)別の生成結果の統計情報451、452の一例を示す図である。例えば、図5(a)の映像441からは図5(c)に示されるように正面向きの被写体が他の向きより多く検出された統計情報が得られる。また、図5(b)の映像442からは図5(d)に示されるように右向きの被写体が他の向きより多く検出された統計情報が得られる。また、統計情報生成部106は、この統計情報を各監視カメラからの映像に基づき生成する際、時間帯等を指定して生成してもよい。また、統計情報生成部106は、特徴抽出部103で得た各被写体検出結果に対する特徴量を用いて年齢、性別等の属性を判定し、年齢ごとの被写体の向きの統計情報や、性別ごとの被写体の向きの統計情報を生成してもよい。統計情報生成部106は、特徴量をSVM(Support Vector Machine)で学習したモデルと比較して、判別結果から属性を取得することもできる。
統計情報生成部106は、生成した監視カメラの統計情報を統計情報送受信部107へ出力する。ここで、また、統計情報生成部106は、カメラパラメータ、監視カメラの設置条件等を取得し、カメラパラメータ、監視カメラの設置条件等と統計情報とを統計情報送受信部107へ出力するようにしてもよい。以下、説明の簡略化のため、カメラパラメータや監視カメラの設置条件を示す情報等は統計情報に含まれるものとして説明する。
統計情報送受信部107は、例えば、映像監視システム100において追跡している被写体が、被写体検出部102によって検出されなくなると、被写体が監視対象空間内から出た(撮影範囲から出た)と判断して、外部の映像監視システム110に対して統計情報を送信するように要求する。映像監視システム110は、映像監視システム110の要求に基づいて統計情報生成部106で生成した各監視カメラの統計情報を映像監視システム100に送信する。このとき、映像監視システム110は、映像監視システム110の全監視カメラの統計情報を送信してもよいし、ユーザが予め選択しておいた監視カメラの統計情報を送信してもよい。例えば、CPU10は、入力装置等を介して選択された監視カメラの識別情報をHDD13等の保持しておき、この識別情報に基づき選択された監視カメラの統計情報を送信するようにしてもよい。
統計情報送受信部107は、受信した統計情報を被写体選択部108へ出力する。
被写体選択部108は、統計情報送受信部107から受信した統計情報451、452を基に、被写体DB105から追跡している被写体IDと統計情報451、452とで同じ属性の情報を選択する。図6に示す情報561は選択された被写体情報である。被写体選択部108は、受信した統計情報451、452から、統計値が最も高い正面向きと右向きとの被写体情報を選択する。被写体選択部108は、選択した被写体情報を被写体情報送受信部109へ出力する。被写体選択部108は、統計情報送受信部107から受信した統計情報に応じた被写体情報を選択する。例えば、被写体選択部108は、統計情報451、452と共に、統計情報送受信部107からカメラパラメータを受信した場合、カメラパラメータと統計情報451、452とに応じた被写体情報を選択する。同様に、被写体選択部108は、統計情報451、452と共に、統計情報送受信部107から監視カメラの設置条件を受信した場合、監視カメラの設置条件と統計情報451、452とに応じた被写体情報を選択する。
被写体情報送受信部109は、映像監視システム100において選択された被写体情報561を映像監視システム110へ送信する。映像監視システム110では被写体情報561を受信した場合、被写体同定部104へ出力し、被写体の同定処理を実行する。
以上が、本実施形態に係る構成である。これによりある映像監視システム100から別の映像監視システム110に移動した被写体の追跡を効率的に継続して行うことができる。映像監視システムは、2つに限られるものではなく、ネットワーク20を介して2以上の映像監視システムが互いに通信可能に接続されていてもよい。
図7に示したフローチャートを用いて、本実施形態における映像監視システム100及び映像監視システム110が行う情報処理について説明する。
本実施形態での情報処理は、被写体の追跡処理・被写体情報の送信処理、統計情報生成処理、被写体情報受信・追跡処理の3つに分けられる。
まずは被写体の追跡処理・被写体情報の送信処理について説明する。
(追跡処理・被写体情報の送信処理)
図7(a)は、映像監視システム100における追跡処理・被写体情報の送信処理の一例を示すフローチャートである。
ステップS601において、映像取得部101は、映像を取得する。映像取得部101は、設置された監視カメラから映像を取得してもよいし、レコーダに保存されている映像を取得してもよい。映像取得部101は、取得した映像を被写体検出部102へと送る。ステップS601の後、処理はステップS602に進む。
ステップS602において、被写体検出部102は、受信した映像に対して被写体検出の処理を行う。例えば、被写体検出部102は、予め用意された人物モデルを用いてスライディングウィンドウ処理を行って画像の各領域と人物モデルとを比較し、人物モデルとの類似度が設定された閾値より高い領域を人物として検出する。被写体検出部102は、その他の方法を用いて被写体の検出を行ってもよい。被写体検出部102は、人物検出の結果を特徴抽出部103へと送る。ステップS602の後、処理はステップS603に進む。
ステップS603において、特徴抽出部103は、人物検出の結果を用いて特徴量を抽出する。例えば、特徴抽出部103は、被写体検出部102で得られた人物画像を設定されたサイズに正規化し、正規化した人物画像を小領域に分割し、各小領域に対して色ヒストグラムを抽出し、ヒストグラムを連結させたベクトルを特徴量として抽出する。特徴抽出部103は、他の特徴抽出方法を用いて特徴量を抽出してもよい。特徴抽出部103は、抽出した特徴量を被写体同定部104へと送る。ステップS603の後、処理はステップS604に進む。
ステップS604において、被写体同定部104は、検出された被写体と同一の被写体を同定する。例えば、被写体同定部104は、ユーザが指定した被写体と得られた被写体との特徴量のコサイン類似度を算出し、最も類似度が高い被写体を同一被写体と判定し、被写体を同定する。同定された被写体に対しては引き続き追跡処理が行われる。被写体同定部104は、同定した被写体情報を被写体DB105に登録する。ステップS604の後、処理はステップS605に進む。
ステップS605において、統計情報送受信部107は、追跡している被写体が監視対象空間内の外部へ出たかどうかを判定する。統計情報送受信部107は、映像監視システム100内で監視カメラの画像領域内で被写体が未検出になった場合、監視対象空間内の外部に出た(監視カメラの撮影範囲から出た)と判定する。統計情報送受信部107は、追跡している被写体が外部に出たと判定した場合、処理をステップS606へと進め、外部に出ていないと判定した場合、図7(a)に示すフローチャートの処理を終了する。
ステップS606において、統計情報送受信部107は、外部の映像監視システム110に統計情報を送信するよう要求し、映像監視システム110より統計情報451、452を取得する。統計情報送受信部107は、統計情報の取得が完了したら、統計情報451、452を被写体選択部108へ出力する。ステップS606の後、処理はステップS607に進む。
ステップS607において、被写体選択部108は、統計情報送受信部107から受信した外部の映像監視システム110の各監視カメラの統計情報451、452を用いて、追跡していた被写体情報を選択する。被写体選択部108は、統計情報451、452において統計値が最も高い正面向き、右向きの追跡被写体の属性を選択し、被写体情報561を作成し、選択する。被写体選択部108は、選択した被写体情報561を、被写体情報送受信部109へ出力する。ステップS607の後、処理はステップS608に進む。
ステップS608において、被写体情報送受信部109は、被写体選択部108で選択された被写体情報561を外部の映像監視システム110へ送信する。
映像監視システム110における追跡処理は<被写体情報受信・追跡処理>において説明を後述する。
被写体情報送受信部109は、送信処理を完了すると、図7(a)に示すフローチャートの処理を終了する。
以上が被写体追跡・被写体情報の送信処理である。続いて統計情報生成処理について説明する。
(統計情報生成処理)
図7(b)は、映像監視システム110における統計情報生成処理の一例を示すフローチャートである。
ステップS601~S603は図7(a)の処理と同様であるため説明を省略する。
ステップS614において、統計情報生成部106は、監視カメラの映像内の被写体に関する統計情報を生成する。例えば、統計情報生成部106は、各監視カメラの映像441、442それぞれの被写体検出結果のクラスのヒストグラムを生成して、それを統計情報451、452とする。統計情報生成部106は、他の情報を用いて統計情報を作成してもよい。ステップS614の後、処理はステップS615に進む。
ステップS615において、統計情報送受信部107は、外部から統計情報451、452の送信要求を受信したか否かを判定する。例えば映像監視システム110の統計情報送受信部107は、映像監視システム100からの統計情報の送信要求を受信した場合、処理をステップS616へと進め、送信要求を受信していない場合、処理をステップS601へと戻す。
ステップS616において、統計情報送受信部107は、統計情報生成部106で生成された統計情報451、452を取得し、送信要求元の外部の映像監視システム100へ送信する。統計情報送受信部107は、統計情報451、452の送信が完了すると、図7(b)に示すフローチャートの処理を終了する。
以上が、統計情報生成処理である。続いて、監視システムでの被写体情報受信・追跡処理について説明する。
(被写体情報受信・追跡処理)
図7(c)は、被写体情報受信・追跡処理の一例を示すフローチャートである。
ステップS601~S603は図7(a)の処理と同様であるため、説明を省略する。
ステップS624において、映像監視システム110の被写体情報送受信部109は、外部の監視システムから被写体情報561を受信したかを判定する。被写体情報送受信部109は、外部から被写体情報561を受信しなかった場合、図7(c)のフローチャートの処理を終了し、外部から被写体情報561を受信した場合、被写体同定部104に被写体情報を送り、ステップS625に進む。
ステップS625において、被写体同定部104は、受信した被写体情報561を用いて、映像監視システム110内で検出している人物との同定処理を行い、被写体を追跡する。被写体同定部104は、被写体情報561の特徴量と特徴抽出部103から得られた被写体の特徴量との類似度を算出して、最も高い類似度の被写体を被写体情報561と同一の人物として同定し、追跡を行う。被写体同定部104は、類似度が設定された値以下であれば、被写体が同定できなかったとして追跡を行わない。被写体同定部104は、被写体を同定した場合、同定した被写体の統計情報を含む同定結果を映像監視システム110の被写体DB105へと保存する。さらに、同定した被写体の追跡依頼を映像監視システム110に対して送信し、図7(c)に示すフローチャートの処理を終了する。
以上が被写体情報受信・追跡処理である。
これにより、映像監視システム100から特定の映像監視システム110へ、映像監視システム100で追跡している被写体の被写体情報を選択し、送信することで送信コストを低減しつつ、映像監視システム110で追跡を簡便に継続して行うことができる。
<実施形態2>
統計情報生成部106は、被写体DB105に保存されている被写体情報を基に、被写体が映像監視システム100のどの監視カメラから外部に出て、映像監視システム110のどの監視カメラに出現したかという統計情報を併せて生成する。
それには、映像監視システム100の被写体情報送受信部109は、最後に同定された被写体のカメラIDを併せて被写体情報を映像監視システム110に送信する。映像監視システム110の被写体情報送受信部109は、受信した被写体情報を基に、被写体同定部104で最初に同定されたカメラIDを併せて被写体DB105に記録する。
統計情報生成部106は、被写体DB105からこれまでに映像監視システム100、映像監視システム110間で同定・追跡した被写体情報を取得する。そして、統計情報生成部106は、登録されているカメラIDの関係を基に、映像監視システム100の監視カメラから外部に出て映像監視システム110の監視カメラに出現する確率を統計情報として生成する。図8は、統計情報生成部106が、監視カメラ213から外部に出て、監視カメラ群221~225に出現する確率を統計情報711として算出した一例を示す図である。統計情報生成部106は、監視カメラ213に限定して確率を算出するわけではなく、他の監視カメラも同様に算出する。
また統計情報生成部106は、被写体DB105に登録されている被写体IDの情報を基に被写体が映像監視システム100で最後に同定された時刻と映像監視システム110で最初に同定された時刻とを基に、映像監視システム100、110間の移動時間を算出する。統計情報生成部106は、被写体が消失した時刻と現在の時刻との差分から移動時間を算出し、算出した移動時間に応じた監視カメラの統計情報を選択するようにしてもよい。統計情報生成部106は、生成した統計情報451、452、711を統計情報送受信部107に出力する。統計情報送受信部107は、統計情報451、452、711を映像監視システム100へ送信する。統計情報送受信部107は、統計情報生成部106から統計情報451、452、711と移動時間とを受け取った場合、統計情報451、452、711と移動時間とを映像監視システム100へ送信するようにしてもよい。
映像監視システム100の統計情報送受信部107は、映像監視システム110から統計情報451、452、711を受信し、受信した情報を被写体選択部108へ出力する。
被写体選択部108は、統計情報451、452、711を用いて追跡している被写体情報を選択する。このとき、被写体選択部108は、統計情報711の出現確率が閾値以上の監視カメラの統計情報451、452を選択して、類似する属性の被写体情報を選択する。また、被写体選択部108は、監視カメラ間での統計情報711をそれぞれの監視カメラの統計情報451、452の各統計値に掛けた値が閾値以上であれば、その検出クラスの被写体情報を選択するようにしてもよい。
被写体選択部108は、選択した被写体情報を被写体情報送受信部109へ出力する。被写体情報送受信部109は受け取った被写体情報を外部の映像監視システム110へ送信する。
これにより、被写体が現れるときの情報を選択して送信する情報量を減らすことができる。
図7に示したフローチャートを用いて、本実施形態における映像監視システム100及び映像監視システム110が行う情報処理について説明する。
(追跡処理・被写体情報の送信処理)
ステップS607において、被写体選択部108は、統計情報送受信部107から取得した統計情報451、452と統計情報711とを用いて、追跡していた被写体情報を選択する。このとき、被写体選択部108は、統計情報711の出現確率が閾値以上の監視カメラの統計情報451を選択して、類似する属性の被写体情報を作成し、選択する。被写体選択部108は、選択した被写体情報を被写体情報送受信部109へ出力する。ステップS607の後、処理はステップS608に進む。
(統計情報生成処理)
ステップS614において、統計情報生成部106は、統計情報451、452に加えて、監視カメラ間に関する統計情報711を生成する。統計情報生成部106は、被写体DB105にある被写体の追跡情報を用いて、映像監視システム100において最後に同定されているカメラIDと映像監視システム110において最初に同定された登録されたカメラIDとを抽出する。統計情報生成部106は、抽出したカメラIDを基に監視カメラ間での同定された被写体の統計情報711を統計情報として生成する。
また、統計情報生成部106は、監視システム間での移動時間を被写体DB105に登録されている被写体情報を基に算出し、その移動時間に応じて統計情報451、452を選択してもよい。統計情報生成部106は、統計情報451、452、711を生成すると、処理をステップS615へ進める。
以上が、本実施形態に係る情報処理である。
これにより、監視システム間での被写体の移動に係る出現確率を統計情報として用いることで、被写体の特徴量をより正確に選択することができる。なお、本実施形態では被写体を人物として説明を記述しているが、他の物体を被写体としてもよい。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した映像監視システムの機能構成の一部又は全てはハードウェア構成として映像監視システムに実装してもよい。また、映像監視システムのハードウェア構成としてCPU、ROM、RAM、HDD、NIC等は1つである必要はない。複数のCPUがプログラムに基づき、複数のRAM、ROM、HDDに記憶されたデータ等を用いながら処理を実行することで映像監視システムの機能等を実現するようにしてもよい。また、CPUに替えてGPU(Graphics Processing Unit)を用いることとしてもよい。
以上、上述した各実施形態の処理によれば、通信コストを減らしつつも、異なる映像監視システムにおいても被写体を追跡可能とすることができる。
10 CPU
13 HDD
100 映像監視システム

Claims (18)

  1. 第1の撮像手段によって撮像された画像から抽出した被写体の特徴量を含む被写体情報を記憶する記憶手段と、
    前記第1の撮像手段によって撮像された現在の画像から、過去に検出された被写体が検出されなかった場合に、前記第1の撮像手段とは異なる第2の撮像手段によって撮像された画像から検出された被写体の属性に関する統計情報を受信する受信手段と、
    前記統計情報に基づいて、前記被写体情報の一部を選択する選択手段と、
    前記選択された前記被写体情報の一部を前記第2の撮像手段が属する外部装置へ送信する送信手段と、
    を有する情報処理装置。
  2. 前記被写体情報は、前記被写体の特徴量と、被写体の属性とを対応付けて記憶した情報であって、
    前記選択手段は、前記統計情報に基づいて、前記第2の撮像手段によって撮像された画像において所定の閾値以上の頻度で検出された属性を有する前記被写体の特徴量を選択する請求項1に記載の情報処理装置。
  3. 前記第1の撮像手段によって撮像された画像から検出されなかった前記被写体について、該被写体が最後に検出された時刻に基づいて、該被写体の出現確率が閾値以上となる前記第2の撮像手段を抽出する抽出手段と、を更に有し、
    前記受信手段は、前記抽出された前記第2の撮像手段から前記統計情報を受信する請求項1または2に記載の情報処理装置。
  4. 前記第1の撮像手段によって撮像された画像から検出した被写体の属性についての内部統計情報を生成する生成手段を更に有する請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記外部装置は、前記送信された被写体情報に基づいて、前記第1の撮像手段によって撮像された被写体と前記第2の撮像手段によって撮像された被写体とが同一であるか否かを判定する判定手段、を更に有する請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記統計情報は、前記第2の撮像手段によって撮像された画像から検出された前記被写体について、前記被写体の属性毎に集計した結果である請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記統計情報は、前記第2の撮像手段によって撮像された画像から検出された物体の属性毎のヒストグラムを含む請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記被写体の属性は、前記被写体の顔の向き、年齢、性別のうち少なくともいずれか1つを示す請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記第1の撮像手段によって撮像された現在の画像から、ユーザによって指定された被写体を検出する検出手段を更に有し、
    前記検出手段は、ユーザによって指定された被写体の特徴量と、前記第1の撮像手段によって撮像された現在の画像から抽出された特徴量と、の類似度が設定された値より大きい場合は、ユーザによって指定された被写体が追尾されていることを判定し、前記類似度が前記設定された値以下の場合は、ユーザによって指定された被写体が前記第1の撮像手段によって撮像された領域から出たことを判定する請求項1乃至7のいずれか1項に記載の情報処理装置。
  10. 前記送信手段は、前記選択手段によって選択されなかった前記被写体情報は前記外部装置には送信しない請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 第1の撮像手段を有する第1システムと、前記第1の撮像手段とは異なる第2の撮像手段を有する第2システムと、を含む情報処理システムであって、
    前記第1システムは、
    前記第1の撮像手段によって撮像された画像から抽出した被写体の特徴量を含む被写体情報を記憶する第1の記憶手段と、
    前記第1の撮像手段によって撮像された現在の画像から、過去に検出された被写体が検出されなかった場合に、前記第2の撮像手段によって撮像された画像から検出された被写体の属性に関する統計情報を前記第2システムから受信する受信手段と、
    前記統計情報に基づいて、前記被写体情報の一部を選択する選択手段と、
    前記選択された前記被写体情報の一部を前記第2システムに送信する第1の送信手段と、
    を有する情報処理システム。
  12. 前記被写体情報は、前記被写体の特徴量と、被写体の属性とを対応付けて記憶した情報であって、
    前記選択手段は、前記統計情報に基づいて、前記第2の撮像手段によって撮像された画像において所定の閾値以上の頻度で検出された属性を有する前記被写体の特徴量を選択する請求項11に記載の情報処理システム。
  13. 前記第1の撮像手段によって撮像された画像から検出されなかった前記被写体について、該被写体が最後に検出された時刻に基づいて、該被写体の出現確率が閾値以上となる前記第2システムを抽出する抽出手段と、を更に有し、
    前記受信手段は、前記抽出された前記第2システムから前記統計情報を受信する請求項11または12に記載の情報処理システム。
  14. 前記第2システムは、
    前記第2の撮像手段によって撮像された画像から検出された被写体の属性の頻度を示す前記統計情報を生成する生成手段と、
    前記第1システムより前記統計情報の送信要求を受信すると、前記生成手段により生成された前記統計情報を前記第1システムに送信する第2の送信手段と、
    を有する請求項11乃至13のいずれか1項に記載の情報処理システム。
  15. 前記第2システムは、
    前記第2の撮像手段によって撮像された画像から抽出した被写体の特徴量を記憶する第2の記憶手段と、
    前記第1システムより前記選択された前記被写体情報を受信すると、前記第1システムより受信した前記被写体情報と前記第2の記憶手段によって記憶された被写体の特徴量とに基づいて、前記第1の撮像手段によって撮像された被写体と前記第2の撮像手段によって撮像された被写体とが同一であるか否かを判定する判定手段と、を更に有する請求項11乃至14のいずれか1項に記載の情報処理システム。
  16. 第1の撮像手段によって撮像された画像から抽出した被写体の特徴量を含む被写体情報を取得する取得工程と、
    前記第1の撮像手段によって撮像された現在の画像から、過去に検出された被写体が検出されなかった場合に、前記第1の撮像手段とは異なる第2の撮像手段によって撮像された画像から検出された被写体の属性に関する統計情報を受信する受信工程と、
    前記統計情報に基づいて、前記被写体情報の一部を選択する選択工程と、
    前記選択された前記被写体情報の一部を前記第2の撮像手段が属する外部装置へ送信する送信工程と、
    を有する情報処理方法。
  17. 前記被写体情報は、前記被写体の特徴量と、被写体の属性とを対応付けて記憶した情報であって、
    前記選択工程は、前記統計情報に基づいて、前記第2の撮像手段によって撮像された画像において所定の閾値以上の頻度で検出された属性を有する前記被写体の特徴量を選択する請求項16に記載の情報処理方法。
  18. コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2021190723A 2017-04-26 2021-11-25 情報処理装置、情報処理システム、情報処理方法及びプログラム Active JP7218416B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021190723A JP7218416B2 (ja) 2017-04-26 2021-11-25 情報処理装置、情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017087205A JP2018186397A (ja) 2017-04-26 2017-04-26 情報処理装置、映像監視システム、情報処理方法及びプログラム
JP2021190723A JP7218416B2 (ja) 2017-04-26 2021-11-25 情報処理装置、情報処理システム、情報処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017087205A Division JP2018186397A (ja) 2017-04-26 2017-04-26 情報処理装置、映像監視システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022028861A JP2022028861A (ja) 2022-02-16
JP7218416B2 true JP7218416B2 (ja) 2023-02-06

Family

ID=87852562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021190723A Active JP7218416B2 (ja) 2017-04-26 2021-11-25 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7218416B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135093A (ja) 2005-11-11 2007-05-31 Sony Corp 映像監視システム及び方法
JP2017063266A (ja) 2015-09-24 2017-03-30 富士通株式会社 情報処理方法、情報処理装置、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135093A (ja) 2005-11-11 2007-05-31 Sony Corp 映像監視システム及び方法
JP2017063266A (ja) 2015-09-24 2017-03-30 富士通株式会社 情報処理方法、情報処理装置、及びプログラム

Also Published As

Publication number Publication date
JP2022028861A (ja) 2022-02-16

Similar Documents

Publication Publication Date Title
US10212324B2 (en) Position detection device, position detection method, and storage medium
US9898819B2 (en) System and method for detecting region of interest
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10353954B2 (en) Information processing apparatus, method of controlling the same, and storage medium
KR102335045B1 (ko) 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치
CN108921098B (zh) 人体运动分析方法、装置、设备及存储介质
JP2019062527A (ja) エッジ演算を用いる多カメラシステムでのリアルタイムの対象再識別
US20160217326A1 (en) Fall detection device, fall detection method, fall detection camera and computer program
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
KR20190118619A (ko) 보행자 추적 방법 및 전자 디바이스
US10467461B2 (en) Apparatus for searching for object and control method thereof
US10664523B2 (en) Information processing apparatus, information processing method, and storage medium
US10762133B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2019149006A (ja) 画像選択プログラム、情報処理装置、システム、および画像選択方法
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP2018186397A (ja) 情報処理装置、映像監視システム、情報処理方法及びプログラム
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
KR101412369B1 (ko) 영상의 객체 검출 방법 및 장치
JP7218416B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2018013851A (ja) 行動認識装置、および、行動認識方法
KR20220082433A (ko) 크라우드소싱 환경에서 객체 정보 분석 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230125

R151 Written notification of patent or utility model registration

Ref document number: 7218416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151