JP5397014B2 - 監視システム、撮像装置、解析装置及び監視方法 - Google Patents

監視システム、撮像装置、解析装置及び監視方法 Download PDF

Info

Publication number
JP5397014B2
JP5397014B2 JP2009123413A JP2009123413A JP5397014B2 JP 5397014 B2 JP5397014 B2 JP 5397014B2 JP 2009123413 A JP2009123413 A JP 2009123413A JP 2009123413 A JP2009123413 A JP 2009123413A JP 5397014 B2 JP5397014 B2 JP 5397014B2
Authority
JP
Japan
Prior art keywords
metadata
analysis
unit
camera
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009123413A
Other languages
English (en)
Other versions
JP2010273125A (ja
Inventor
英人 竹内
晃弘 保木本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009123413A priority Critical patent/JP5397014B2/ja
Priority to US12/765,390 priority patent/US8982208B2/en
Priority to TW099113362A priority patent/TWI435279B/zh
Priority to CN201010180846.XA priority patent/CN101895727B/zh
Publication of JP2010273125A publication Critical patent/JP2010273125A/ja
Application granted granted Critical
Publication of JP5397014B2 publication Critical patent/JP5397014B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視システム、撮像装置、解析装置及び監視方法に関する。
監視システムには、有線や無線のLAN機能を有する監視カメラ(以下、IPカメラともいう。)と、複数のIPカメラを制御し監視する監視装置(以下、センターサーバともいう。)からなるものがあり、IPカメラとセンターサーバはネットワークを介して接続される。監視システムにおいて、IPカメラは、撮影した映像データを、ネットワークを介してセンサーサーバに送信する。センターサーバは、受信した映像データを記録するとともに、映像データを解析することで異常の発生を検出し、アラームを出力する。これにより、監視員は、モニタに表示される映像や、センサーサーバが出力したアラームの内容を確認しながら監視をすることができる。
特許文献1には、監視装置において映像データを監視しアラームを出力する際の物体の認識に関する技術が開示されている。
特許第4148285号公報
ところで、監視システムにおいて、システム全体で処理を分散させるために、IPカメラ内に解析処理(例えば動体検知等の処理)を搭載し、IPカメラでメタデータやイベントを生成する場合がある。
また、監視員は、監視センター(センターサーバ)において、各IPカメラの画像をオンライン、もしくはオフラインで監視をする。近年では、多数のカメラを簡単に監視するために、個々のIPカメラごとに解析機能を持たせ、IPカメラから得られる、解析結果(メタデータやイベント)のみを監視員が監視するようになっている。
しかし、IPカメラ内のリソース(CPU性能、メモリ量等)だけで解析処理をすると十分な処理が行なえない。個々のIPカメラに解析処理をさせるためには、IPカメラ内に高性能なCPU、メモリ等のハードウエアが求められる。
現状では、動体検知等のより簡単な処理は、IPカメラ内蔵が行われているが、更に複雑な処理、例えば顔検知、車検知等の処理や、大量のメモリを必要とする照合処理等は、IPカメラ内では行われていない。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、撮像装置を有する監視システムにおいて解析処理を効率的に実行させることが可能な、新規かつ改良された監視システム、撮像装置、解析装置及び監視方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成する基礎解析部と、第1のメタデータ及び第1のメタデータと異なる第2のメタデータを、ネットワークを介してネットワークに接続された監視装置に出力する第1メタデータ出力部とを有する撮像装置と、撮像装置から受けた画像データに基づいて基礎解析部と異なる解析処理をして第2のメタデータを生成する拡張解析部と、第2のメタデータを撮像装置に出力する第2メタデータ出力部とを有する解析装置とを備える監視システムが提供される。
複数の撮像装置を備え、解析装置は、1つの撮像装置からの画像データに基づいて生成された第2のメタデータと、別の撮像装置からの画像データに基づいて生成された第2のメタデータを合成するメタデータ合成部を更に有し、第2メタデータ出力部は合成メタデータを撮像装置に出力してもよい。
上記解析装置は、複数の拡張解析部を備え、それぞれの拡張解析部は異なる解析処理をしてそれぞれ異なる第2のメタデータを生成し、それぞれの拡張解析部で生成された第2のメタデータを合成し、合成メタデータを生成するメタデータ合成部を更に有し、第2メタデータ出力部は合成メタデータを撮像装置に出力してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成する基礎解析部と、第1のメタデータ、及び撮像装置から受けた画像データに基づいて基礎解析部と異なる解析処理をして解析装置の拡張解析部において生成された第2のメタデータを、ネットワークを介してネットワークに接続された監視装置に出力する第1メタデータ出力部と
を有する撮像装置が提供される。
上記第1のメタデータと第2のメタデータを合成し、合成メタデータを生成するメタデータ合成部を更に有し、第1メタデータ出力部は監視装置に合成メタデータを出力してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成する基礎解析部と、第1のメタデータ及び第1のメタデータと異なる第2のメタデータを、ネットワークを介してネットワークに接続された監視装置に出力する第1メタデータ出力部とを有する複数の撮像装置から受けた画像データに基づいて基礎解析部と異なる解析処理をして第2のメタデータを生成する拡張解析部と、第2のメタデータを撮像装置に出力する第2メタデータ出力部とを有する解析装置が提供される。
上記解析装置は、1つの撮像装置からの画像データに基づいて生成された第2のメタデータと、別の撮像装置からの画像データに基づいて生成された第2のメタデータを合成するメタデータ合成部を更に有し、第2メタデータ出力部は合成メタデータを撮像装置に出力してもよい。
上記解析装置は、複数の拡張解析部を備え、それぞれの拡張解析部は異なる解析処理をしてそれぞれ異なる第2のメタデータを生成し、それぞれの拡張解析部で生成された第2のメタデータを合成し、合成メタデータを生成するメタデータ合成部を更に有し、第2メタデータ出力部は合成メタデータを撮像装置に出力してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、撮像装置が被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成するステップと、解析装置が撮像装置から受けた画像データに基づいて解析処理をして第1のメタデータと異なる第2のメタデータを生成するステップと、解析装置が第2のメタデータを撮像装置に出力するステップと、撮像装置が第1のメタデータ及び第2のメタデータを、ネットワークを介してネットワークに接続された監視装置に出力するステップとを有する監視方法が提供される。
本発明によれば、撮像装置を有する監視システムにおいて解析処理を効率的に実行させることができる。
本発明の一実施形態に係る監視システムの構成及び接続例を示す説明図である。 センターサーバ10とIPカメラ100と解析サーバ130の関係を示す接続ブロック図である。 IPカメラ100と解析サーバ130の間の能力交換の実施例を示すフローチャートである。 同実施形態に係る監視システムの検知処理を示すフローチャートである。 同実施形態に係るIPカメラ100を示すブロック図である。 同実施形態に係る解析サーバ130を示すブロック図である。 同実施形態に係る監視システムの解析サーバ130を用いた検知処理の動作を示すフローチャートである。 IPカメラ100の設置例を示す説明図である。 各IPカメラ100が捉えた人Obj1又は車Obj2の撮影画像例を示す説明図である。 同実施形態に係る複数のIPカメラ100と解析サーバ130を示すブロック図である。 同実施形態に係る複数のIPカメラ100と解析サーバ130の連携に関する動作を示すフローチャートである。 モニタ12や画面に表示されたビューアー180を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.一実施形態について
1−1 監視システムの構成
1−2 IPカメラ100と解析サーバ130を使った解析処理方法
1−3 解析サーバ130によるメタデータ生成方法
1−4 監視システムの検知処理
1−5 監視システムの解析サーバ130を用いた検知処理
1−6 IPカメラ100と解析サーバ130の連携方法
1−7 複数のIPカメラ100と解析サーバ130の関係
1−8 複数のIPカメラ100と解析サーバ130の連携に関する動作
1−9 ビューアーについて
1−10 本実施形態の効果
<1.一実施形態について>
[監視システムの構成]
まず、本発明の一実施形態に係る監視システムの構成について説明する。図1は、本実施形態に係る監視システムの構成及び接続例を示す説明図である。
本実施形態に係る監視システムは、例えば、複数台のIPカメラ100と、解析サーバ130と、IPカメラ100をセンターで制御するセンターサーバ10と、モニタ12と、センターサーバ10にアクセス可能なクライアント端末30と、IPカメラ100のデータを中継するプロキシサーバ20と、データの伝送に使用されるネットワークなどからなる。IPカメラ100は撮像装置の一例であり、解析サーバ130は解析装置の一例である。また、センターサーバは監視装置の一例である。
従来技術に対する対策として、監視システムの一部の解析処理を外部の解析サーバに任せる方法が考えられる。しかし、サーバを利用したとしても、各サーバの負荷や、接続できるカメラ台数の増加に対応するために、より効率的に、解析サーバの負担を減少させる必要がある。そこで、本実施形態では、IPカメラ100のリソースを補う解析サーバ130を監視システムに追加する。この解析サーバ130は、複数台のIPカメラ100と直接接続され、センターサーバ10からはIPカメラ100のみと接続しているかのように機能する。
本実施形態は、この複数のIPカメラ100の各設置関連情報を元に、各IPカメラ100内で生成された解析処理結果を、解析サーバ130内で統合し、各IPカメラ100に戻すことによって、センターサーバ10では、あたかも1台のIPカメラ100が全ての処理を行って生成したかのようなメタデータ、イベントを受け取ることができることを特徴とする。
[IPカメラ100と解析サーバ130を使った解析処理方法]
まず、IPカメラ100と解析サーバ130を使った解析処理方法について述べる。
IPカメラ100は、IP(インターネットプロトコル)に従い、ネットワークに接続されるカメラである。
本明細書では、監視員が直接監視するモニタ12と接続され、モニタ12に表示可能なビューアーが搭載されているサーバをセンターサーバ10と呼ぶ。センターサーバ10は、ビューアーを介して全てのIPカメラ100をモニタリングでき、また、レコーダを備えて全てのカメラの記録データの管理ができる。
解析サーバ130は、複数台のIPカメラ100ごとに用意され、IPカメラ100には搭載できなかった解析処理を担うサーバである。
プロキシサーバ20は、いくつかのIPカメラ100をまとめて管理し、センターサーバ10とIPカメラ100間のデータを中継するサーバである。
監視員は、センターサーバ10からそれぞれのIPカメラ100に検知要求を出し、IPカメラ100からのメタデータやイベントを、ビューアーを通して監視する。このとき、監視員(センターサーバ10)は、解析サーバ130の存在を意識する必要はない。センターサーバ10からは、直接接続しているのはIPカメラ100であると認識される。なお、監視員は、クライアント端末30を用いて監視などの作業をしてもよい。
図2に、各サーバの関係を示す。図2は、センターサーバ10とIPカメラ100と解析サーバ130の関係を示す接続ブロック図である。ここでは、簡単のため、プロキシサーバ20の説明は省く。プロキシサーバ20は、その基本性能として、センターサーバ10とIPカメラ100の間に入り、検知要求と、メタデータを転送する役割を持つ。
センターサーバ10は、GUI(Graphical User Interface)やコマンドを使用することで、ユーザーの指示によって、IPカメラ100へ対象の検知要求を出す。IPカメラ100は、指示に従い検知結果をメタデータとしてセンターサーバ10へ転送する。また、通常の監視機能として、IPカメラ100で撮影された画像の画像データが、センターサーバ10へ送られる。また、検知要求以外のカメラ制御コマンド等もセンターサーバ10からIPカメラ100へ送出される。
IPカメラ100から転送されるメタデータの形式はあらかじめ決められている。例えば、バイナリ形式やXMLが使用される。送られる内容は、例えば、人を検知する場合、表1に示すような内容のメタデータを送出する。
Figure 0005397014
同様に、車を検知する場合は、進行方向、色、車種、ナンバープレートなどのメタデータを送出する。また、例えば、メタデータを解析し、ある領域内に対象が入った、ある仮想ラインを対象が通過した等のイベントがルールエンジンにより判定された場合には、それを送出する。
現状のIPカメラでは、このようなメタデータを全て処理できる解析処理機能を1台のカメラ内に持つことは、CPU,メモリ等の制約により難しい。例えば、現状、画面内で動く箇所を検出する動体検知機能が、IPカメラ内に搭載されるようになってきているが、それ以上の機能をカメラにもたせることは、リソース不足により実現できていないのが現状である。
[解析サーバ130によるメタデータ生成方法]
次に、IPカメラ100の能力を補う解析サーバ130を用いたメタデータ生成方法について説明する。
図2に示すように、IPカメラ100は、センターサーバ10からの要求に対し、メタデータを返す。この際、IPカメラ100は、解析サーバ130と能力交換を行う。そして、IPカメラ100では足りない解析処理を解析サーバ130が行い、その結果をIPカメラ100が解析サーバ130から受け取り、IPカメラ100がセンターサーバ10へメタデータとして返送する。
なお、事前にIPカメラ100と解析サーバ130の間で、どのような能力があるかを交換しておくこともできる。例えば、図3のようなやり取りで、能力交換をすることができる。図3は、IPカメラ100と解析サーバ130の間の能力交換の実施例を示すフローチャートである。図3では、ソフトウェア同士がメッセージ(オブジェクト)を交換するためのプロトコルであるSOAP(ソープ)を使用した例を示す。
まず、解析サーバ130がIPカメラ100の呼び出し(ステップS101)、それに対してIPカメラ100が応答する(ステップS102)。そして、解析サーバ130がステップS102で応答したIPカメラ100に応答する(ステップS103)。
[監視システムの検知処理]
次に、本実施形態に係る監視システムの検知処理について説明する。図4は、本実施形態に係る監視システムの検知処理を示すフローチャートである。
まず、センターサーバ10が、IPカメラ100に対して検知要求を出す(ステップS111)。そして、IPカメラ100が、要求の解析を行う(ステップS112)。要求の解析によって、IPカメラ100は、IPカメラ100単独で対応できるか判断する(ステップS113)。対応可能であれば、IPカメラ100のみで対応する(ステップS121)。
一方、対応可能でなければ、IPカメラ100は、解析サーバ130を探査する(ステップS114)。解析サーバ130を見つけられない場合(ステップS115)は、IPカメラ100は、自分の持っている能力だけでメタデータを作成し、返信する(ステップS121)。この際、足らない部分のメタデータは空、又は無視して、送信する。
解析サーバ130を発見できた場合(ステップS115)は、IPカメラ100と解析サーバ130の間で能力を交換する(ステップS116)。要求するものと解析サーバ130の処理できる分野(人用又は車用等)が異なるなど、解析サーバ130の能力がない場合(ステップS117)は、IPカメラ100は、自分の持っている能力だけでメタデータを作成し、返信する。この際、足らない部分のメタデータは空、又は無視して送信する。
一方、解析サーバ130の能力がある場合は、検知処理をする(ステップS118)。解析サーバ130を用いた検知処理については後述する。
[監視システムの解析サーバ130を用いた検知処理]
次に、本実施形態に係る監視システムの解析サーバ130を用いた検知処理について説明する。図5は、本実施形態に係るIPカメラ100を示すブロック図である。図6は、本実施形態に係る解析サーバ130を示すブロック図である。簡単のため、IPカメラ100と解析サーバ130の関係を中心に示す。なお、図及び図中やこれらの図を参照して説明する際、「……A」はIPカメラ100側が処理したことを示し、「……B」は解析サーバ130側が処理したことを示す。また、「……C」はデータを合成したことを示す。更に、メタデータやイベントの末尾に付した数字は、各機能ブロック(「……部」)を通過するごとに、数を1ずつ増加させて示したが、基本的には同じデータである。
センターサーバ10からの検知要求が、IPカメラ100の解析制御部102に送られる。解析制御部102は、要求に従い、基礎解析部104及びカメラ・サーバ間通信部A106に制御信号を送る。
解析制御部102が、解析サーバ130を必要と判定した場合、カメラ・サーバ間通信部Aは、解析サーバ130と能力交換し、解析サーバ130の解析サーバ能力データ部に保持されている解析サーバ能力を得る。能力交換は、検知要求が変わらない限り、再度繰り返す必要はない。得られた解析サーバ能力は、解析サーバ能力データ記録部108に記録される。IPカメラ100は解析サーバ能力に見合った解析サーバ130と通信する。
入力画像は、レンズなどの光学系や撮像素子(例えばCMOS撮像素子やCCD撮像素子等)などからなる撮像部を介して基礎解析部104に送られる。基礎解析部104は、入力画像を使用して、例えば、動体検知処理を行い、メタデータA1を生成する。この際、動体検知処理により、例えば、上述した表1のメタデータのうち、外接矩形の情報を得る。
IPカメラ100の基礎解析部104で作られたメタデータA1は、カメラ・サーバ間通信部A106に送られる。IPカメラ100側のカメラ・サーバ間通信部A106は、解析サーバ130側のカメラ・サーバ間通信部B132とデータのやり取りをする。
IPカメラ100は、解析サーバ130に画像データ、カメラステータス、メタデータA2、制御コマンドA1等を送る。画像データは、入力画像である。入力画像は、JPEG等に変換されていてもよく、また、画像サイズの変更がされていてもよい。カメラステータスは、例えば、カメラのパンチルトズームの現在の値を示す。メタデータA2は、IPカメラ100の基礎解析部104で生成されたメタデータを示す。制御コマンドA1は、解析サーバ130で解析に使用するパラメータを示す。
解析サーバ130は、IPカメラ100にメタデータB2、イベントB2、制御コマンドB1を送る。メタデータB2は、解析サーバ130の拡張解析部136で生成されたメタデータである。拡張解析部136は、例えば、顔検知処理をし、上述した表1のメタデータのうち、頭部位置、頭部向き、顔パーツ位置、顔スコア等の情報を生成する。また、顔解析処理によって、男性・女性、年齢、等の顔属性が得られる。また、顔照合処理に用いられる、顔特徴量も得られる。
イベントB2は、メタデータB1を、一定のルールに従うか否かによって生成された情報である。ルールエンジン部B138は、例えば、画像内の一定のエリアに対象が入った、又は、ある仮想線を対象が通過した等のルールを適用し、ルールに従うか、又は従わないかに応じて、イベントB1を生成する。なお、イベントの生成や処理は、本実施形態では、必須の機能ではない。
制御コマンドB1は、例えば、トラッキング処理が行われる場合のIPカメラ100のパンチルトズーム機能を変更させるコマンドである。トラッキング処理は、IPカメラ100がメカ制御機構を使用して対象の追跡をする処理である。
メタデータ合成部112は、解析サーバ130からIPカメラ100に送られたメタデータB3と、IPカメラ100内の基礎解析部104から得られたメタデータA1を合成し、メタデータCを生成する。メタデータCは、メタデータ通信部114(第1メタデータ出力部)に送られ、メタデータストリームとして、センターサーバ10に送られる。なお、メタデータA1,メタデータB3を、IPカメラ100内で合成せずに個別に送出し、センターサーバ10側で合成することも可能である。
メタデータCは、ルールエンジン部A116によって、イベントA1に変換され、イベント通信部11によって、イベントストリームとしてセンターサーバ10へ送出される。また、入力画像は、画像通信部122で変換され、画像ストリームとして、センターサーバ10へ送出される。
センターサーバ10は、受け取った各ストリームをGUIで表示する等して、ユーザーにアラートとして提示したり、録画・記録を行ったりする。
なお、図5では、IPカメラ100は、センターサーバ10と解析サーバ130が、別のネットワークを介して繋がっているような表現になっている。即ち、図5では、各機能の役割をサーバ向けごとに明確にするために別個の機能ブロックとして表現している。しかし、本実施形態はこの構成に限定されない。例えば、IPカメラ100は、センターサーバ10か、解析サーバ130かで送出するアドレスを切り替えて、同一の機能ブロックを介してネットワーク接続されるように実装してもよい。つまり、カメラ・サーバ間通信部A106に、画像通信部122、メタデータ通信部114の機能が含まれ、同一の機能ブロックにまとめることができる。
次に、本実施形態に係る監視システムの解析サーバ130を用いた検知処理の動作について説明する。図7は、本実施形態に係る監視システムの解析サーバ130を用いた検知処理の動作を示すフローチャートである。
図7は、図4のステップS118の検知処理の部分に関するフローチャートを示したものである。なお、図7では、メタデータの流れを中心に示す。そのため、ルールエンジン部A116、ルールエンジン部B138に関連する記述は省く。
IPカメラ100は、IPカメラ100の基礎解析部104が解析処理をして検知処理をする(ステップS131)。また、基礎解析部104は、メタデータA1を生成する(ステップS132)。
その後、IPカメラ100のカメラ・サーバ間通信部A106から解析サーバ130のカメラ・サーバ間通信部B132(第2メタデータ出力部)に検知元情報に関する必要な情報が転送される(ステップS141)。ここで、必要な情報とは、画像データ、カメラステータス、メタデータA2、制御コマンドA1を示す。
検知処理は、IPカメラ100側と解析サーバ130側で並行して行われる。
解析サーバ130は、拡張解析部136が解析処理をして検知処理をする(ステップS142)。また、拡張解析部136がメタデータB1を生成する(ステップS143)。解析サーバ130は、拡張解析部136で生成されたメタデータB1を、カメラ・サーバ間通信部B132に送り、カメラ・サーバ間通信部B132からメタデータB2をIPカメラ100に転送する(ステップS144)。
その後、IPカメラ100において、メタデータ合成部112が、メタデータA1とメタデータB3を合成し、メタデータCを生成する(ステップS133)。なお、メタデータA1とメタデータB3をIPカメラ100内で合成せずに、センターサーバ10で合成してもよい。
そして、IPカメラ100は、センターサーバ10にメタデータCを転送する(ステップS134)。以上の作業は、処理フレームごとに行う。処理フレームは、通常の画像フレームと同一のフレーム数でもよいし、画像フレームを適宜間引いたフレーム数でもよい。
[IPカメラ100と解析サーバ130の連携方法]
次に、複数台のIPカメラ100と解析サーバ130を接続した場合の効率的な連携方法について述べる。図8は、IPカメラ100の設置例を示す説明図である。図8では、警戒するエリアの外周に沿った複数台(ここでは、IPカメラ100−1、IPカメラ100−2、IPカメラ100−3の3台)のIPカメラ100が配置されている。
図9は、各IPカメラ100が捉えた人Obj1又は車Obj2の撮影画像例を示す説明図である。
各IPカメラ100が位置キャリブレーションを施されていると、各IPカメラ100間に映っている動領域が同一であるかが算出可能である。又は、対象の色情報・形状情報を参照し、同定することも可能である。このことを利用して、IPカメラ100−3からの画像データに基づいて拡張解析部136で生成されたメタデータを、IPカメラ100−1に基づくメタデータと合成する。その結果、例えば、a−1)のようにIPカメラ100−1では、対象(人Obj1)が小さくて求められない対象(人Obj1)の顔属性をIPカメラ100−1のメタデータとして出力することも可能である。
既に説明したように、センターサーバ10は、IPカメラ100とのみ接続しているかのように振舞う。これは、解析サーバ130とIPカメラ100−3によって生成された、IPカメラ100−1では生成できないメタデータも、IPカメラ100−1で生成されたかのように出力できることによる。
同様に、例えば、b−1)のように、映像内では小さくてナンバープレートの認識に適していない対象(車Obj2)であっても、ナンバープレート情報を付加したメタデータを解析サーバ130とIPカメラ100−3で生成し、IPカメラ100−1から出力することができる。
[複数のIPカメラ100と解析サーバ130の関係]
次に、本実施形態に係る複数のIPカメラ100と解析サーバ130の関係について説明する。図10は、本実施形態に係る複数のIPカメラ100と解析サーバ130を示すブロック図である。図10に示す例では、IPカメラ100が第1カメラ100−1、第2カメラ100−2、第3カメラ100−3の3台である場合について説明する。なお、IPカメラ100の設置台数は図10に示す例に限定されない。
第1カメラ100−1(同様に第2カメラ100−2、第3カメラ100−3)の基礎解析部104は、メタデータA1−1(メタデータA1−2、メタデータA1−3)を生成する。
カメラ・サーバ間通信部A106は、生成されたメタデータA1−1(メタデータA1−2、メタデータA1−3)や画像データ等を受け取り、メタデータA2−1(メタデータA2−2、メタデータA2−3)や画像データ等を解析サーバ130に転送する。また、カメラ・サーバ間通信部A106は、解析サーバ130から、解析サーバ130で生成されたメタデータE2を受信する。
解析サーバ130のカメラ・サーバ間通信部B132は、各IPカメラ100(第1カメラ100−1、第2カメラ100−2、第3カメラ100−3)のメタデータA2(メタデータA2−1、メタデータA2−2、メタデータA2−3)及び画像データを受信する。また、カメラ・サーバ間通信部B132は、各IPカメラ100にメタデータE2を転送する。
解析サーバ130のカメラ連携情報部142は、予め、各IPカメラ100(第1カメラ100−1、第2カメラ100−2、第3カメラ100−3)の位置キャリブレーションデータ等の連携情報を、各IPカメラ100から受け取り保持しておく。
同定部144は、各IPカメラ100からのメタデータを元に、各IPカメラ100で生成されたメタデータで表される対象物が、互いに同一であるかを判定する。
拡張解析部(N)136−Nは、人検知、顔検知、顔認証等の解析処理を行い、メタデータB1を生成する。拡張解析部(N)136−Nは、個々の機能ブロックごとに異なる機能を有することを示している。例えば、拡張解析部(1)136−1は人検知、拡張解析部(2)136−2は顔検知、拡張解析部(3)136−3は顔認証……などである。
メタデータ合成部B148は、各IPカメラ100からのデータに基づいて生成されたそれぞれのメタデータに、他のIPカメラ100で得られたメタデータの情報を、同定部144で生成された同定信号に基づいて合成する。例えば、メタデータ合成部B148は、第1カメラ100−1からのデータに基づいて生成されたメタデータに、第2カメラ100−2や第3カメラ100−3で得られたメタデータの情報を、同定部144で生成された同定信号に基づいて合成する。
メタデータバッファ部146は、他のIPカメラ100のメタデータや、自身のIPカメラ100の別の時刻のメタデータを保持しておき、合成時に使用する。
[複数のIPカメラ100と解析サーバ130の連携に関する動作]
複数のIPカメラ100と解析サーバ130の連携に関する動作を説明する。図11は、本実施形態に係る複数のIPカメラ100と解析サーバ130の連携に関する動作を示すフローチャートである。なお、図11に示すフローチャートには、事前の解析サーバ130へのカメラ連携情報の転送は含まれない。また、各IPカメラ100は、同じ処理フローになるため、このフローチャートでは省略して説明する。図11は、図4のステップS118の検知処理の部分に関するフローチャートを示したものである。
まず、各IPカメラ100は、IPカメラ100の基礎解析部104が解析処理をして検知処理をする(ステップS131)。また、基礎解析部104は、メタデータA1を生成する(ステップS132)。
その後、IPカメラ100のカメラ・サーバ間通信部A106から解析サーバ130のカメラ・サーバ間通信部B132に検知元情報に関する必要な情報が転送される(ステップS141)。ここで、必要な情報とは、画像データ、カメラステータス、メタデータA2、制御コマンドA1を示す。
検知処理は、IPカメラ100側と解析サーバ130側で並行して行われる。また、解析サーバ130側では、2種類のフローが並行に行われる。
解析サーバ130は、拡張解析部136において解析処理をして検知処理をする(ステップS142)。また、拡張解析部がメタデータB1を生成する(ステップS143)。
生成されたメタデータB1は、メタデータバッファ部146に保存される(ステップS151)。保存されたメタデータB1は、ステップS162でメタデータDとしてメタデータ合成部B148に呼び出される。
一方、IPカメラ100から解析サーバ130に送られカメラ・サーバ間通信部B132を介してきたメタデータA3と、カメラ連携情報部142に保持されているカメラ連携情報を使用して同定処理する(ステップS161)。同定処理では、メタデータバッファ部146の他のカメラや、別の時刻の自カメラのメタデータの中から同一の対象を探し出す。
そして、複数のIPカメラ100間で同一とみなされた対象が、メタデータバッファ部146から呼び出される(ステップS162)。
その後、メタデータ合成部B148は、拡張解析部136−Nにおいて生成されたメタデータB1と、メタデータバッファ部146から呼び出されたメタデータDとを合成処理する(ステップS171)。
解析サーバ130は、拡張解析部136で生成されたメタデータB1を、カメラ・サーバ間通信部B132に送り、カメラ・サーバ間通信部B132からメタデータB2をIPカメラ100に転送する(ステップS144)。
その後、IPカメラ100側において、メタデータ合成部112が、IPカメラ100内で生成されたメタデータA1と、解析サーバ130から転送されたメタデータB3を合成し、メタデータCを生成する(ステップS133)。なお、メタデータA1とメタデータB3をIPカメラ100内で合成せずに、センターサーバ10で合成してもよい。
そして、IPカメラ100は、センターサーバ10に合成されたメタデータCを転送する(ステップS134)。以上の作業は、処理フレームごとに行う。処理フレームは、通常の画像フレームと同一のフレーム数でもよいし、画像フレームを適宜間引いたフレーム数でもよい。
[ビューアーについて]
次に、本実施形態に係る監視システムのモニタ12やクライアント30の画面において表示されるビューアーについて説明する。図12は、モニタ12や画面に表示されたビューアー180を示す説明図である。
ビューアー180は、例えば、カメラ映像パネル182、コントロールパネル184、アラートリストパネル186などからなる。
カメラ映像パネル182は、複数のIPカメラ100の映像を並べて表示する。図12では2x2のマトリクスであるが、本実施形態はこれに限定されない。例えば、1つのみでもよいし、16x16のマトリクス、2x3のマトリクスでもよい。ここでは、1台のモニタ12内でカメラ画像を分割して表示しているが、各IPカメラ100の画像を複数のモニタ12に個別に表示してもよい。例えば、1台のIPカメラ100の映像を1台のモニタ12に表示できる。
コントロールパネル184は、例えば、IPカメラ100のPTZ設定やセンターサーバ10のレコーディング設定等の制御をするGUIからなる。
アラートリストパネル186は、IPカメラ100内、又はセンターサーバ10内で生成されたアラートをリストで表示する。
図12(A)は、解析サーバ130の検知処理がオフにされたときの状態を示す説明図である。解析サーバ130がオフのときは、カメラ映像パネル182の各IPカメラの対象物に検知枠192(破線部分)が表示される。また、同時にアラートリストパネル186に、アラート及びメタデータが表示される。
図12(B)は、解析サーバ130の検知処理がオンにされたときの状態を示す説明図である。解析サーバ130がオンのときは、カメラ映像パネル182の各IPカメラの対象物に検知枠192が表示され、更に付加情報194が表示できる。例えば、人の場合、他のIPカメラ100に基づいて確認され、データーベースに登録されている名前が付加情報194として表示される。また、車の場合、他のIPカメラ100で確認されたナンバープレート情報が付加情報194として表示される。また、同時にアラートリストパネル194に、アラート及びメタデータがより細かに登録された名前やナンバーを付加して表示される。
[本実施形態の効果]
以上説明した通り、本実施形態は、センターサーバ10からの要求により、IPカメラ100で生成されるメタデータの生成方法に関する。本実施形態は、複数台のIPカメラ100と解析サーバ130で、効率的に処理を分担させ、メタデータを生成する。
本実施形態によれば、センターサーバ10は、解析サーバ130の存在を意識することなくオペレーションを行える。解析サーバ130とIPカメラ100の接続が行われた際は、センターサーバ10から見ると、要求したメタデータの情報量・コンテンツ量が増える。一方、解析サーバ130とIPカメラ100の接続がないときには、センターサーバ10から見ると、要求したメタデータが最低限の情報量・コンテンツ量になる。
複数のIPカメラ100が解析サーバ130に接続されている場合は、該当IPカメラでは通常得ることができない情報も、他のIPカメラ100で同一の対象を捉えられていれば、解析サーバ130を通してメタデータにその情報を付加することができる。その結果、1台のIPカメラ100自体が高度な解析能力を持たなくても、センターサーバ10から見ると、あたかも高度な解析能力を持っているようなカメラとして振舞うことが可能になる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例即ち修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 センターサーバ
12 モニタ
20 プロキシサーバ
30 クライアント端末
100 IPカメラ
102 解析制御部
104 基礎解析部
106 カメラ・サーバ間通信部A
108 解析サーバ能力データ記憶部
112 メタデータ合成部
114 メタデータ通信部
116 ルールエンジン部A
118 イベント通信部
130 解析サーバ
132 カメラ・サーバ間通信部B
134 解析サーバ能力データ部
136 拡張解析部
138 ルールエンジン部
142 カメラ連携情報部
144 同定部
146 メタデータバッファ部
148 メタデータ合成部B

Claims (9)

  1. 被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成する基礎解析部と、前記第1のメタデータ及び前記第1のメタデータと異なる第2のメタデータを、ネットワークを介して前記ネットワークに接続された監視装置に出力する第1メタデータ出力部とを有する、複数の撮像装置と、
    前記撮像装置から受けた前記画像データに基づいて前記基礎解析部と異なる解析処理をして前記第2のメタデータを生成する拡張解析部と、前記第2のメタデータを前記撮像装置に出力する第2メタデータ出力部とを有する解析装置と
    を備え
    前記解析装置は、1つの前記撮像装置からの前記画像データに基づいて生成された前記第2のメタデータと、別の前記撮像装置からの前記画像データに基づいて生成された前記第2のメタデータを合成するメタデータ合成部を更に有し、
    前記第2メタデータ出力部は前記合成された第2のメタデータを前記撮像装置に出力する、監視システム。
  2. 前記解析装置は、複数の前記拡張解析部を備え、それぞれの前記拡張解析部は異なる解析処理をしてそれぞれ異なる前記第2のメタデータを生成し、
    前記メタデータ合成部は、それぞれの前記拡張解析部で生成された前記第2のメタデータを合成し
    前記第2メタデータ出力部は前記合成された第2のメタデータを前記撮像装置に出力する、請求項1に記載の監視システム。
  3. 前記撮像装置は、前記解析装置にて前記第2のメタデータを解析するか否かを決定する決定部を更に有する請求項1または2に記載の監視システム。
  4. 被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成する基礎解析部と、
    前記第1のメタデータ、及び、複数の撮像装置のうち、1つの撮像装置及び別の撮像装置のそれぞれから受けた前記画像データに基づいて前記基礎解析部と異なる解析処理をして解析装置の拡張解析部において生成された第2のメタデータを合成し、合成された第2のメタデータを、ネットワークを介して前記ネットワークに接続された監視装置に出力する第1メタデータ出力部と
    を有する、撮像装置。
  5. 前記第1のメタデータと前記合成された第2のメタデータを合成し、合成メタデータを生成するメタデータ合成部を更に有し、
    前記第1メタデータ出力部は前記監視装置に前記合成メタデータを出力する、請求項4に記載の撮像装置。
  6. 前記解析装置にて前記第2のメタデータを解析するか否かを決定する決定部を更に有する請求項4または5に記載の撮像装置。
  7. 被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成する基礎解析部と、前記第1のメタデータ及び前記第1のメタデータと異なる第2のメタデータを、ネットワークを介して前記ネットワークに接続された監視装置に出力する第1メタデータ出力部とを有する複数の撮像装置から受けた前記画像データに基づいて前記基礎解析部と異なる解析処理をして前記第2のメタデータを生成する拡張解析部と、
    前記第2のメタデータを前記撮像装置に出力する第2メタデータ出力部と、
    1つの前記撮像装置からの前記画像データに基づいて生成された前記第2のメタデータと、別の前記撮像装置からの前記画像データに基づいて生成された前記第2のメタデータを合成するメタデータ合成部と
    を有し、
    前記第2メタデータ出力部は前記合成された第2のメタデータを前記撮像装置に出力する、解析装置。
  8. 前記解析装置は、複数の前記拡張解析部を備え、それぞれの前記拡張解析部は異なる解析処理をしてそれぞれ異なる前記第2のメタデータを生成し、
    それぞれの前記拡張解析部で生成された前記第2のメタデータを合成し、合成メタデータを生成するメタデータ合成部を更に有し、
    前記第2メタデータ出力部は前記合成メタデータを前記撮像装置に出力する、請求項に記載の解析装置。
  9. 複数の撮像装置が被写体を撮影する撮像部から入力された画像データに基づいて解析処理をして第1のメタデータを生成するステップと、
    解析装置が前記撮像装置から受けた前記画像データに基づいて解析処理をして前記第1のメタデータと異なる第2のメタデータを生成するステップと、
    前記解析装置が、1つの前記撮像装置からの前記画像データに基づいて生成された前記第2のメタデータと、別の前記撮像装置からの前記画像データに基づいて生成された前記第2のメタデータを合成するステップと、
    前記解析装置が前記合成された第2のメタデータを前記撮像装置に出力するステップと、
    前記撮像装置が前記第1のメタデータ及び前記合成された第2のメタデータを、ネットワークを介して前記ネットワークに接続された監視装置に出力するステップと
    を有する、監視方法。
JP2009123413A 2009-05-21 2009-05-21 監視システム、撮像装置、解析装置及び監視方法 Active JP5397014B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009123413A JP5397014B2 (ja) 2009-05-21 2009-05-21 監視システム、撮像装置、解析装置及び監視方法
US12/765,390 US8982208B2 (en) 2009-05-21 2010-04-22 Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
TW099113362A TWI435279B (zh) 2009-05-21 2010-04-27 監控系統,影像擷取裝置,分析裝置及監控方法
CN201010180846.XA CN101895727B (zh) 2009-05-21 2010-05-14 监视系统、摄像设备、分析设备和监视方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009123413A JP5397014B2 (ja) 2009-05-21 2009-05-21 監視システム、撮像装置、解析装置及び監視方法

Publications (2)

Publication Number Publication Date
JP2010273125A JP2010273125A (ja) 2010-12-02
JP5397014B2 true JP5397014B2 (ja) 2014-01-22

Family

ID=43104773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009123413A Active JP5397014B2 (ja) 2009-05-21 2009-05-21 監視システム、撮像装置、解析装置及び監視方法

Country Status (4)

Country Link
US (1) US8982208B2 (ja)
JP (1) JP5397014B2 (ja)
CN (1) CN101895727B (ja)
TW (1) TWI435279B (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090031381A1 (en) * 2007-07-24 2009-01-29 Honeywell International, Inc. Proxy video server for video surveillance
US9047464B2 (en) 2011-04-11 2015-06-02 NSS Lab Works LLC Continuous monitoring of computer user and computer activities
US9092605B2 (en) 2011-04-11 2015-07-28 NSS Lab Works LLC Ongoing authentication and access control with network access device
US8904473B2 (en) 2011-04-11 2014-12-02 NSS Lab Works LLC Secure display system for prevention of information copying from any display screen system
WO2012149176A2 (en) * 2011-04-26 2012-11-01 Infocus Corporation Interactive and collaborative computing device
KR101747218B1 (ko) * 2012-12-03 2017-06-15 한화테크윈 주식회사 감시 시스템에서의 호스트 장치의 동작 방법, 및 이 방법을 채용한 감시 시스템
US9852275B2 (en) 2013-03-15 2017-12-26 NSS Lab Works LLC Security device, methods, and systems for continuous authentication
JP6327816B2 (ja) 2013-09-13 2018-05-23 キヤノン株式会社 送信装置、受信装置、送受信システム、送信装置の制御方法、受信装置の制御方法、送受信システムの制御方法、及びプログラム
JP6431257B2 (ja) 2013-10-21 2018-11-28 キヤノン株式会社 ネットワークシステム及びネットワークデバイスの管理方法、ネットワークデバイスおよびその制御方法とプログラム、管理システム
JP6371511B2 (ja) * 2013-10-22 2018-08-08 キヤノン株式会社 ネットワークシステムおよびデバイス管理方法
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
CN104506526B (zh) * 2014-12-22 2018-05-22 叶广明 一种打猎相机、对其进行监控的方法、系统及后台系统
US10146797B2 (en) 2015-05-29 2018-12-04 Accenture Global Services Limited Face recognition image data cache
JP2018525866A (ja) * 2015-07-08 2018-09-06 クロード クラウディング コーポレイション カメラからの信号を安全に伝送するためのシステムおよび方法
US10848666B2 (en) 2017-08-08 2020-11-24 Canon Kabushiki Kaisha Image capturing device and control method
JP7107596B2 (ja) * 2018-08-20 2022-07-27 株式会社音楽館 駅監視システム及び駅監視方法
RU2688757C1 (ru) * 2018-08-29 2019-05-22 ООО "Ай Ти Ви групп" Устройство и способ для анализа импортированного видео
JP7205457B2 (ja) * 2019-12-23 2023-01-17 横河電機株式会社 装置、システム、方法およびプログラム
CN111818299B (zh) * 2020-06-15 2022-02-15 浙江大华技术股份有限公司 一种目标识别方法及装置、拍照设备
US20230029566A1 (en) * 2021-07-27 2023-02-02 Electronics And Telecommunications Research Institute Method and system for detecting unmanned aerial vehicle using plurality of image sensors

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04148285A (ja) 1990-10-08 1992-05-21 Nec Corp 図形処理システムにおけるクリップ処理方式
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
JPH08251573A (ja) * 1995-03-13 1996-09-27 Matsushita Electric Ind Co Ltd 分散画像処理装置
US6028611A (en) * 1996-08-29 2000-02-22 Apple Computer, Inc. Modular digital image processing via an image processing chain
JP3990771B2 (ja) * 1997-07-23 2007-10-17 キヤノン株式会社 カメラ制御システム、カメラサーバ、カメラ制御方法、及び記憶媒体
US6360234B2 (en) * 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
US7634662B2 (en) * 2002-11-21 2009-12-15 Monroe David A Method for incorporating facial recognition technology in a multimedia surveillance system
US6833865B1 (en) * 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
US6438576B1 (en) * 1999-03-29 2002-08-20 International Business Machines Corporation Method and apparatus of a collaborative proxy system for distributed deployment of object rendering
JP2002165210A (ja) * 2000-08-04 2002-06-07 Matsushita Electric Ind Co Ltd データ送信端末及びデータ送受信装置
US7327396B2 (en) * 2002-04-10 2008-02-05 National Instruments Corporation Smart camera with a plurality of slots for modular expansion capability through a variety of function modules connected to the smart camera
JP4036051B2 (ja) * 2002-07-30 2008-01-23 オムロン株式会社 顔照合装置および顔照合方法
US20040113933A1 (en) * 2002-10-08 2004-06-17 Northrop Grumman Corporation Split and merge behavior analysis and understanding using Hidden Markov Models
DE60330898D1 (de) * 2002-11-12 2010-02-25 Intellivid Corp Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen
CN1322691C (zh) * 2002-11-15 2007-06-20 北京中星微电子有限公司 自动监控装置以及基于该装置的监控系统和监控方法
JP2007525068A (ja) * 2003-06-19 2007-08-30 エル3 コミュニケーションズ コーポレイション 拡張可能なマルチカメラ分散ビデオ処理および可視化監視システムを提供する方法および装置
JP4819380B2 (ja) * 2004-03-23 2011-11-24 キヤノン株式会社 監視システム、撮像設定装置、制御方法、及びプログラム
WO2006006081A2 (en) * 2004-07-09 2006-01-19 Emitall Surveillance S.A. Smart video surveillance system ensuring privacy
US7562299B2 (en) * 2004-08-13 2009-07-14 Pelco, Inc. Method and apparatus for searching recorded video
JP4716744B2 (ja) * 2005-02-01 2011-07-06 株式会社日立製作所 映像監視配信装置
CN1816139A (zh) * 2005-02-05 2006-08-09 关大俊 监视系统
JP4449782B2 (ja) * 2005-02-25 2010-04-14 ソニー株式会社 撮像装置および画像配信方法
US7710452B1 (en) * 2005-03-16 2010-05-04 Eric Lindberg Remote video monitoring of non-urban outdoor sites
US7982795B2 (en) * 2005-04-11 2011-07-19 Panayotis B. SPATHARIS Image acquisition and exploitation camera system and methods therefore
JP2007060446A (ja) * 2005-08-26 2007-03-08 Sony Corp メタデータ生成装置、情報処理装置、撮像装置、テレビ会議システム、セキュリティシステム、メタデータ生成方法及びプログラム
JP4936504B2 (ja) * 2005-09-26 2012-05-23 キヤノン株式会社 クレードル装置と操作端末とのそのプログラム、及びカメラシステム
JP2007158421A (ja) * 2005-11-30 2007-06-21 Matsushita Electric Ind Co Ltd 監視カメラシステム及び顔画像追跡記録方法
CN101047836A (zh) * 2006-03-30 2007-10-03 英保达股份有限公司 监控系统及方法
US20080036917A1 (en) * 2006-04-07 2008-02-14 Mark Pascarella Methods and systems for generating and delivering navigatable composite videos
JP4363421B2 (ja) * 2006-06-30 2009-11-11 ソニー株式会社 監視システム、監視システム用サーバ及び監視方法
JP4148285B2 (ja) * 2006-07-27 2008-09-10 ソニー株式会社 監視装置、フィルタ較正方法及びフィルタ較正プログラム
JP2008085832A (ja) * 2006-09-28 2008-04-10 Sony Corp 監視カメラ、監視カメラの制御方法および監視カメラシステム
JP4966039B2 (ja) * 2007-02-01 2012-07-04 キヤノン株式会社 ネットワーク対応機器及び機能提供方法
US8214746B2 (en) * 2007-03-15 2012-07-03 Accenture Global Services Limited Establishment of message context in a collaboration system
US7460149B1 (en) * 2007-05-28 2008-12-02 Kd Secure, Llc Video data storage, search, and retrieval using meta-data and attribute data in a video surveillance system
KR101378372B1 (ko) * 2007-07-12 2014-03-27 삼성전자주식회사 디지털 이미지 처리장치, 그 제어방법 및 제어방법을실행시키기 위한 프로그램을 저장한 기록매체
US20090132583A1 (en) * 2007-11-16 2009-05-21 Fuji Xerox Co., Ltd. System and method for capturing, annotating, and linking media
US7953686B2 (en) * 2008-03-17 2011-05-31 International Business Machines Corporation Sensor and actuator based validation of expected cohort behavior
US8885047B2 (en) * 2008-07-16 2014-11-11 Verint Systems Inc. System and method for capturing, storing, analyzing and displaying data relating to the movements of objects
US8195830B2 (en) * 2009-06-24 2012-06-05 Ricoh Company, Ltd. Efficient file transfer on web service-enabled image forming device
JP5523027B2 (ja) * 2009-09-02 2014-06-18 キヤノン株式会社 情報送信装置及び情報送信方法

Also Published As

Publication number Publication date
CN101895727B (zh) 2014-04-30
TW201126426A (en) 2011-08-01
US8982208B2 (en) 2015-03-17
JP2010273125A (ja) 2010-12-02
US20100295944A1 (en) 2010-11-25
TWI435279B (zh) 2014-04-21
CN101895727A (zh) 2010-11-24

Similar Documents

Publication Publication Date Title
JP5397014B2 (ja) 監視システム、撮像装置、解析装置及び監視方法
George et al. Mez: An adaptive messaging system for latency-sensitive multi-camera machine vision at the iot edge
JP7036493B2 (ja) 監視方法及び装置
AU2005251372B2 (en) Modular immersive surveillance processing system and method
US8063936B2 (en) Modular immersive surveillance processing system and method
TWI767763B (zh) 資料管線裝置
JP5693162B2 (ja) 画像処理システム、撮像装置、画像処理装置及びそれらの制御方法、プログラム
JP2008016895A (ja) 監視システム、監視システム用サーバ及び監視方法
US20180098034A1 (en) Method of Data Exchange between IP Video Camera and Server
JP2018207222A (ja) カメラ及びパラメータ登録方法
US11188758B2 (en) Tracking sequences of events
JP2009193169A5 (ja)
JP5088463B2 (ja) 監視システム
JP7107596B2 (ja) 駅監視システム及び駅監視方法
JPWO2018037665A1 (ja) 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2014212443A (ja) 画像処理装置及び画像処理方法
WO2020079807A1 (ja) 物体追跡装置、物体追跡方法、およびプログラム
JP2008085832A (ja) 監視カメラ、監視カメラの制御方法および監視カメラシステム
JPH1115981A (ja) 広域監視装置及び広域監視システム
TW201508651A (zh) 人臉偵測之雲端智慧監視系統
CN116382813B (zh) 用于智慧城市管理的视频实时处理ai引擎系统
JP2024089849A (ja) 情報処理装置、情報処理装置の制御方法、プログラム、及び情報処理システム
KR20230019582A (ko) IoT 기반의 네트워크 카메라 및 모니터링 장치
JP2023076115A (ja) 判定装置、判定システム、判定方法及びプログラム
JP6041470B2 (ja) 情報処理システム、情報処理装置、それらの制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131007

R151 Written notification of patent or utility model registration

Ref document number: 5397014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250