JP5709367B2 - 画像処理装置、および画像処理方法 - Google Patents

画像処理装置、および画像処理方法 Download PDF

Info

Publication number
JP5709367B2
JP5709367B2 JP2009244830A JP2009244830A JP5709367B2 JP 5709367 B2 JP5709367 B2 JP 5709367B2 JP 2009244830 A JP2009244830 A JP 2009244830A JP 2009244830 A JP2009244830 A JP 2009244830A JP 5709367 B2 JP5709367 B2 JP 5709367B2
Authority
JP
Japan
Prior art keywords
event
detected
person
image data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009244830A
Other languages
English (en)
Other versions
JP2011091705A5 (ja
JP2011091705A (ja
Inventor
大矢 崇
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009244830A priority Critical patent/JP5709367B2/ja
Priority to US12/908,725 priority patent/US9288451B2/en
Priority to CN201610438547.9A priority patent/CN106027974B/zh
Priority to CN201010527870.6A priority patent/CN102045543B/zh
Publication of JP2011091705A publication Critical patent/JP2011091705A/ja
Publication of JP2011091705A5 publication Critical patent/JP2011091705A5/ja
Application granted granted Critical
Publication of JP5709367B2 publication Critical patent/JP5709367B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は画像から検知された物体にマスク処理や暗号化などの変更処理を施す技術に関する。
施設の異常確認や犯罪防止を目的としたモニタリングシステムにおいて、撮影画像をネットワークに配信するネットワークカメラの導入が進んでいる。これに伴い公共施設や街頭へのネットワークカメラの設置が増えている。また、観光地やレジャー施設の宣伝のためにネットワークカメラを利用する例がある。これらの適用例では画像を公開する対象に応じた、適切なプライバシー保護が求められる。
特許文献1には、通常時はプライバシーを保護したい領域の映像信号を変更処理(加工処理)することで隠蔽し、火災などの事象が発生すると、前記加工処理を解除することが開示されている。
特開2004−180236号公報
しかしながら、検知された事象に関連する物体を変更処理がされない状態で表示させようとした場合、検知された事象に関連する物体を確認できない恐れがあった。
例えば、画面内の複数の人物のそれぞれに変更処理を行い、持ち去りの検知に応じて、持ち去りを行った人物のみ、変更処理を解除すれば、他の人物のプライバシーを守ることができるが、持ち去りを行った人物を特定できないと、事象に関連する人物を確認できない。
また、事象の発生から、該事象の発生を検知するまでに時間がかかる場合、事象の検知に応じて変更処理を解除しても、事象に関連する物体を確認できない恐れがあった。
例えば、物体の置き去りを検知した時点において、置き去りに関連する人物(置き去りを行った人物)が、すでに画面外に出てしまっていると、検知された事象(置き去り)に関連する人物を確認することができない。
また、例えば、物体の持ち去りを検知した時点において、持ち去りに関連する人物(持ち去りを行った人物)が、すでに画面外に出てしまっていると、検知された事象(持ち去り)に関連する人物を確認することができない。
本発明は上記の課題に鑑みてなされたものであり、その目的は、検知された事象に関連する物体を確認できる可能性を向上させることである。
上記の課題を解決するために、本発明の画像処理装置は、例えば以下の構成を有する。すなわち、画像データをクライアント装置に送信する画像処理装置であって、画像データに基づいて物体を検知する物体検知手段と、前記物体検知手段の検知結果に基づいて事象の発生を検知する事象検知手段と、前記事象検知手段が事象の発生を検知したフレームより前のフレームの画像データから前記物体検知手段により検知された人物は、前記クライアント装置において特定できないように、画像データを処理する処理手段とを有し、前記処理手段は、フレームの画像データから前記物体検知手段により人物でないと判定された物体は、前記クライアント装置において特定できるように、画像データを処理し、前記フレームの画像データから前記物体検知手段により人物でないと判定された物体に基づいて前記事象検知手段が事象の発生を検知した場合、前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられた第1の人物は、前記事象の発生を検知した以降は、前記クライアント装置において特定できるように、画像データを処理し、前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられていない第2の人物は、前記事象の発生を検知した以降も、前記クライアント装置において特定できないように、画像データを処理することを特徴とする。
本発明によれば、検知された事象に関連する物体を確認できる可能性を向上させることができる。
実施形態のシステム構成図 ネットワークカメラと表示装置の内部構成図 事象発生と被写体のプライバシー保護解除処理の説明図 物体の追尾処理とプライバシー保護解除処理との関係説明図 ネットワークカメラにおけるプライバシー保護解除処理 背景差分による物体検知・追尾処理の処理 事象検知のための処理 事象検知のための物体状態判定ルールの設定例 プライバシー保護に暗号化処理を行う場合のシステム構成図 カメラ側で物体検知を行い画像処理装置で事象検知を行う場合のシステム構成図 カメラ側で物体検知を行い画像処理装置で事象検知を行う場合のネットワークカメラと画像処理装置と表示装置の内部構成図 メタデータの内容を説明するための表 XMLによるメタデータの記述例
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
本実施形態では、画像中の人物の領域に対してマスク処理を行い、クライアント(ビューワや録画装置)に配信するシステムを対象とする。本形態のネットワークカメラは、画像中の異常(事象)を検知した場合、該事象に関連する人物の変更処理を解除した画像データを送信する。ここで変更処理とは、マスク処理(モザイクやぼかしなど)や、暗号化などがあるが、本形態ではマスク処理の例について説明する。また、検知される事象(異常)とは、例えば禁止領域への侵入や、物体の置き去り、持ち去り、うろつきなどである。
本実施形態におけるシステム構成を図1に示す。システムはネットワークカメラ100、表示装置(ビューワ)200、録画サーバ400(録画装置)がネットワーク経由で接続されている。本形態において、表示装置200、録画サーバ400は、ネットワークカメラ100から画像データを受信するクライアントである。ネットワークカメラ100は、物体を検知する機能や、物体の検知結果に基づいて事象の発生を検知する機能を有する。ネットワークカメラ100は、表示装置200及び録画サーバ400に対して画像データ120とメタデータ130を配信する。メタデータ130には物体情報や事象情報が含まれる。物体情報は、例えば、検知された物体の表示位置、面積、外接矩形、存在時間、物体の移動距離(軌跡長)、マスク処理の有無などのうちの少なくともいずれかの情報である。また、事象情報は、事象(異常)が発生したことを示す情報である。メタデータ130は画像データ120に添付してもよいし、画像データ120とメタデータ130を別ストリームで配信してもよい。
表示装置200は、画像データ120とメタデータ130を受信し、画像データ120に応じた画像を表示させると共に、物体情報に応じた情報(例えば物体の枠)を重畳して表示することができる。また、表示装置200は、事象情報に応じて、警報を鳴らすなどしてユーザに事象の発生を通知することができる。また、録画サーバ400は画像データ120とメタデータ130を蓄積する。
次に図2を用いて、本実施形態におけるネットワークカメラ100と表示装置200の構成を説明する。ネットワークカメラ100は撮影部101、画像保護部102、符号化部103、画像送信部104、物体検知部105、事象検知部106、通信インターフェース110から構成される。
撮影部101は、光学系、撮像素子、A/D変換機能を有し、画像データを取得する。取得された画像データは物体検知部105に送られる。物体検知部105は、画像データから物体を検知する。また、物体検知部105は、検知した物体が人物であるか否かを、不図示の物体識別データベースを参照して判定する。ただし、物体検知部105は、人物であるか否かだけでなく、物体をより多くの種別に分類することも可能である。本形態の物体検知部105は、検知した物体のうち、人物であると判定された物体を、クライアントにおいて特定されないようにすべき非特定対象の物体とする。
また、物体検知部105は、検知された物体とそれよりも前のフレームで検知された物体とを関連付ける。これを追尾処理と呼ぶ。例えば、物体検知部105は、隣接するフレームからそれぞれ検知された人物であって、表示位置と外接矩形がほぼ等しい人物を同一人物として関連付ける。すなわち、物体検知部105は、検知された物体の表示領域に基づいて、複数の物体を関連付ける。
また、物体検知部105が行う追尾処理には、物体の分離・統合処理も含まれる。例えば、物体検知部105は、第1のフレームで検知された複数の物体が、それより前の第2のフレームで検知された1つの物体から分離されたことを検知すると、第1のフレームで検知された複数の物体と、第2のフレームで検知された1つの物体を関連付ける。また、物体検知部105は、第1のフレームで検知された1つの物体が、それより前の第2のフレームで検知された複数の物体が統合された物体であることを検知すると、第1のフレームの1つの物体と、第2のフレームの複数の物体を関連付ける。なお、分離・統合処理においても、検知された物体の表示領域に基づいて、検知された物体が関連付けられる。また、物体検知部105は、検知した物体、及び、物体の関連付けの履歴を不図示の物体履歴データベースに保存する。
事象検知部106は、物体検知部105による物体の検知結果を用いて画像データを解析し、置き去り、持ち去りなどの事象を検知する。そして、事象検知部106は、事象に関連する非特定対象の物体(人物)のうち、クライアントで監視すべき監視対象の物体を、クライアントにおいて特定可能にすることを決定する。そして、事象検知部106は、監視対象の物体でない非特定対象(人物)の表示位置情報を画像保護部102に通知し、マスク処理させることで、クライアントにおいて特定されないようにする。人物をマスク処理(変更処理)することにより、クライアント(表示装置)側で視聴しているユーザによる人物の特定、及び、表示装置による人物の特定処理で人物が特定されないようにできる。
事象検知部106は、例えば、ある物体から分離された物体であって、軌跡長(移動距離)が短い物体が所定時間以上、画面内に存在する場合、置き去りを検知する。事象検知部106は、物体検知部105により人物であると判定された物体(非特定対象の物体)のうち、検知された事象に関連しない物体の表示位置情報を、画像保護部102に通知する。一方、事象検知部106は、検知された事象に関連する非特定対象の物体(監視対象の物体)の表示位置情報は、画像保護部102に通知しない。
画像保護部102は、事象検知部106によって通知された表示位置情報に対応する表示位置をマスク処理する。すなわち、画像保護部102は、物体検知部105により検知された非特定対象の物体(人物)を、クライアント(表示装置200、録画サーバ400)で特定されないように変更処理(マスク処理)する。本形態において、非特定対象の物体とは、クライアントにおいて特定されないようにすべき物体である。
例えば、事象検知部106は、物体検知部105により検知された人物のうち、置き去りをした人物(監視対象の物体)以外の人物の表示位置情報を画像保護部102に通知し、置き去りをした人物(監視対象の物体)の表示位置情報を通知しない。そして、画像保護部102は、通知された表示位置情報に対応する表示位置のマスク処理を行う。
すなわち、事象検知部106は、物体検知部105による検知結果に基づいて特定される物体(置き去りされた物体)に関連付けられた物体(置き去った人物)を、画像保護部102による変更処理がされない状態で表示装置200で表示可能にすることを決定する。言い換えると、事象検知部106は、監視対象の物体(置き去った人物)を、クライアントで特定可能にすることを決定する。
一方、画像保護部102による変更処理がされない状態で表示可能にすること決定されていない人物は、画像保護部102による変更処理がされた状態で表示される。なお、本実施形態では、非特定対象の物体が人物である場合の例を示しているが、これに限らず、例えば、車のナンバープレートや、家の表札なども非特定対象の物体としても良い。
また、事象検知部106は、複数の事象の同時検知が可能である。また、ユーザは、複数の事象の検知条件を、設定・変更することが可能である。事象検知部106は、物体検知部105によって検知された物体の物体情報と、検知した事象の事象情報を含むメタデータ130を、必要に応じて符号化し、通信インターフェース110を介して表示装置等に送信する。
画像保護部102は、物体検知部105により検知された人物の表示を変更するための変更処理(マスク処理)を行う。本形態の画像保護部102は物体検知部105により検知された物体のうち、人物の変更処理をするが、この例に限らず、例えば、車のナンバープレートや、家の表札など、プライバシーの侵害となり得る物体の表示の変更処理を行うようにしても良い。このようにすれば、人物以外のプライバシー保護と共に、事象に関連する物体の監視を行うことができる。
符号化部103は、画像保護部102により変更処理が行われた画像データを符号化する。本発明は特定の符号化方式に依存するものではないが、JPEG、MPEG−4、H.264/AVCなどを用いることができる。符号化部103によって符号化された画像データは、適宜パケット化され、画像送信部104、および、通信インターフェース110を経由して表示装置200に送信される。すなわち、本実施形態のネットワークカメラ100は、画像データを送信する画像処理装置である。
表示装置200は、通信インターフェース210、画像受信部221、画像復号化部222、画像表示部223から構成される。この他に不図示のディスプレイ、キーボード、マウスなどの入出力装置が接続される。表示装置200はネットワークカメラ100からのメタデータ130に含まれる物体情報を取り出し、画像中の物体周囲に枠を重畳して表示することができる。
ネットワークカメラ100から表示装置200に画像データ120とメタデータ130が送信される一方で、表示装置200からネットワークカメラ100には各種の制御要求や設定要求が送信される。これらの通信は例えば、HTTPのGETメソッドや、SOAPを用いて行う。
本実施形態における人物のマスク処理について説明する。図3において、(a1)〜(a4)の4枚のフレームは同一シーンの複数のフレームであり、(b1)〜(b4)の4枚のフレームは前記各フレームに対応したマスク処理の説明図である。フレーム(a1)において2人の人物11,12が物体検知部105により検知され、フレーム(a2)において2人の人物21,22と、物体23が検知される。ここで物体23は人物22によって置き去りにされた荷物である。しかしながら、事象検知部106は、フレーム(a2)の段階では、まだ人物22と物体23の距離が十分に離れていないため、置き去り状態と判定しない。事象検知部106は、フレーム(a3)のように、人物32と物体33とが十分に離れたことによって、物体33は置き去りされたと判定し、事象(置き去り)を検知する。フレーム(a4)において置き去りを行った人物は、画面外に出る。
尚、本形態の物体検知部105は、フレーム(a1)〜(a4)における人物12、22、32を、同一人物であるとしてそれぞれを関連付けている。また、物体検知部105は、人物11、21、31、41を同一人物であるとしてそれぞれを関連付けている。また、人物22と物体23は、それぞれ同じ人物12から分離した物体としてそれぞれが関連付けられている。人物32と物体33も、同様に関連付けられている。
フレーム(a1)から(a4)のマスク処理の例を、フレーム(b1)から(b4)を用いて説明する。ここで、フレーム(b1)では人物11と12が、それぞれマスク領域14と15のようにマスク処理される。フレーム(b2)においても同様に、人物21と22が、それぞれマスク領域24、25のようにマスク処理されて表示される。ただし、物体26は物体検知部105によって物体として検知されるが、人物ではないのでマスク処理が行われない状態で表示される。事象検知部106は、フレーム(b2)と(b3)の表示の間のタイミングで、事象(置き去り)の発生を検知する。
そして、事象検知部106は、検知された事象(置き去り)に関連する人物(監視対象の物体)を表示装置200側で特定可能にすることを決定する。つまり、事象検知部106は、画像データの解析結果に基づいて特定される物体33に関連付けられた物体(人物32)を、監視対象の物体としてクライアントにおいて特定可能にすることを決定する。事象検知部106は、人物32がマスク処理されない状態で表示されるように、人物32の表示位置を示す表示位置情報を画像保護部102に通知する。なお、人物11、21、31、41は、事象検知部106によって検知された事象とは無関係の非特定対象の物体なので、クライアントにおいて特定されないように、マスク処理される。
次に追尾処理の説明として、図3に登場する物体の関係を、図4のタイムラインを用いて詳細に説明する。図4の人物aは図3の人物11,21,31,41,14,24,34,44に対応し、図4の人物bは図3の人物12,22,32,15,25,35に対応し、物体cは荷物23,33,43,26,36,46に対応する。ここで人物aは時刻t1で出現し、時刻t8まで存在し続ける。人物bは時刻t2で出現し、時刻t6で消失する(画面外に出る)。また物体cは時刻t4で出現し、時刻t8まで存在し続ける。この物体cは時刻t4において、人物bから分離された物体である。物体cは時刻t5で置き去り状態と判定される。このため、時刻t5〜t6の間、人物bはマスク対象から除外される。このように、物体検知部105が追尾処理によって物体の分離、統合履歴を記憶させることにより、事象を検知した場合に、当該事象に関連する人物に限定してマスク処理を解除し、その他の人物のプライバシーを保護できる。
本実施形態におけるマスク処理の流れを図5〜7を用いて説明する。図5は全体の処理の流れを示すフローチャートである。図6は物体検知部105の処理の流れを示すフローチャートであり、図7は事象検知部106による事象検知処理の流れを示すフローチャートである。
図5のステップS501において、撮影部101は画像取得を行う。そしてステップS502(検知手順)において、物体検知部105は物体検知処理を、ステップS503(解析手順)において、事象検知部106は事象検知処理を行う。すなわち、物体検知部105は、ステップS502において、クライアントにおいて特定されないようにすべき非特定対象の物体(人物)を含む物体を検知する。また、ステップS503において、事象検知部106は、ステップS502における物体の検知結果を用いて画像データを解析する。ステップS502、S503の処理の詳細は、それぞれ図6、図7を用いて後述する。
ステップS504において、事象検知部106は、ステップS502で検知された物体が人物かどうかを判定する。物体検知部105は、ステップS502において、検知した物体が人物であるか否かを、物体識別データベースを参照することで判定している。従って、ステップS504において、事象検知部106は、物体検知部105による物体の判定結果を取得することで、ステップS502で検知された物体が人物か否かを判定する。
ステップS505(決定手順)において、事象検知部106は、ステップS504で人物と判定された物体が、監視対象の物体であるか否かを判定する。監視対象の物体は、マスク処理を解除するべき事象に関連する人物(非特定対象の物体)であり、マスク処理を解除するべき事象は使用者によって予め指定される。すなわち、事象検知部106は、ステップS505において、クライアントで監視すべき監視対象の物体である人物をクライアントにおいて特定可能にすることを決定する。
例えば、マスクを解除するべき事象として置き去りが指定されている場合に置き去りが検知されると、置き去りに関連する人物(置き去りを行った人物)が監視対象の物体となる。また、例えば、マスクを解除するべき事象として持ち去りが指定されている場合に持ち去りが検知されると、持ち去りに関連する人物(持ち去りを行った人物)が監視対象の物体となる。マスク処理を解除するべき事象は、複数指定することが可能である。
ネットワークカメラ100は、ステップS502の物体検知結果とS503の事象検知結果に応じて、過去に検知された事象に関連する物体を記憶している。また、物体検知部105は、ステップS502の物体追尾処理によって、現在のフレームで検知された物体と、過去のフレームで検知された物体との関連付けを行っている。従って、事象検知部106は、ステップS504で人物であると判定された物体が監視対象の物体であるか否かを判定できる。ステップS504で人物であると判定された物体が、ステップS505において監視対象の物体でないと判定された場合、事象検知部106は、当該物体の表示位置情報を画像保護部102に通知する。
ステップS506(処理手順)において、画像保護部102は、マスク処理を行う。すなわち、ステップS506において、画像保護部102は、物体検知部105により検知された非特定対象の物体(人物)の表示を変更するための変更処理(マスク処理)をする。ステップS506で変更処理される物体は、ステップS502で検知され、ステップS504で人物と判定された物体のうち、ステップS505で監視対象の物体ではないと判定された物体である。
ステップS507において、物体検知部105は、ステップS502で検知した全ての物体についてステップS504からS506までの処理を終了したかどうかを判定する。終了していないと判定された場合(S507でN)、物体検知部105は、S504に戻って次の物体に対してステップS504の判定を行う。一方、終了したと判定された場合(S507でY)、符号化部103がステップS508で現在のフレームの画像データの符号化処理を行なう。そして、ステップS509において画像送信部104は、符号化部103により符号化された画像データを画像要求のあった表示装置200、録画サーバに対して送信する。
次に図6を用いて、物体検知部105による物体検知処理と物体追尾処理を説明する。これらの処理は、図5のステップS502の処理に対応する。なお、本形態の物体検知部105は、背景差分を用いた物体検知処理を行う。背景差分とは、現在の画像を過去の画像から生成した背景モデルと比較することによって物体を検知する手法である。本実施形態ではJPEGの8画素×8画素の各ブロックのDCT(Discrete Cosine Transform、離散コサイン変換)係数から求めた複数の特徴量を、背景モデルに利用する。なお、JPEGは、Joint Photographic Coding Expert Groupの略である。
また、特徴量としては、1ブロックから算出されるDCT係数の絶対値和や、隣接フレームの対応するブロックのDCT係数の各成分の差分和などがある。ただし、DCT係数から背景モデルを求める方法に限らず、例えば、画素単位の濃度分布から背景モデルを求めて物体検知を行う手法なども利用可能である。
図6のステップS601において、物体検知部105は、撮影部101によって取得された画像データからDCT係数を算出して特徴量を抽出する。本形態の物体検知部105は、Y,U,Vの各成分から求められるDCT係数のうち、低周波数成分から特徴量を抽出する。
ステップS602において、物体検知部105は、ステップS601で抽出された特徴量を既存の背景モデルと比較する。すなわち、物体検知部105は、ステップS602において、ステップS601で抽出された特徴量と、過去の複数のフレームから抽出された特徴量から求まる特徴量とを差分演算する。尚、本形態の物体検知部105は、過去のフレームから抽出された特徴量から、複数の背景モデル(モード)を生成している。つまり、物体検知部105は、過去の複数のフレームのそれぞれから抽出された特徴量のうち、類似した複数の特徴量が1つの背景モデル(モード)となるように、複数のモードを生成している。そして、物体検知部105は、ステップS601で現在のフレームから抽出された特徴量と、複数の背景モデル(モード)のそれぞれに対応する特徴量との差分演算を行う。
ステップS603において、物体検知部105は、ステップS602における差分演算の結果に基づいて、現在のフレームに類似するモードが存在するか否かを判定する。類似するモードが存在すると判定された場合(S603でY)はステップS604へ進み、物体検知部105は、類似するモードの特徴量を更新する。これはステップS601で新規に抽出された特徴量と、ステップS603で類似すると判定された既存の特徴量を一定比率で混合することによる。
一方、ステップS603において類似するモードが存在しないと判定された場合(S603でN)はステップS605に進み、物体検知部105は、特徴量を抽出したブロックが影か否かを判定する。物体検知部105は、特徴量の算出に用いたY,U,Vの各成分のうち、色に起因する成分(U,V成分)の変化が所定値以下である場合に影であると判定する。
ステップS605で影と判定された場合はステップS606に進み、物体検知部105が既存の特徴量を更新せずにステップS608に進む。一方、影でないと判定された場合はステップS607に進み、物体検知部105が新規のモードを生成してステップS608に進む。
ステップS608において、物体検知部105は、現在のフレームの全てのブロックの処理が終了したか判定する。すべてのブロックの処理が終了したと判定された場合はステップS609に進み、すべてのブロックの処理が終了していないと判定された場合はステップS601に戻り、物体検知部105は、未処理のブロックの処理を行う。
ステップS609において、物体検知部105は、現在のフレームの各ブロックを、背景ブロックと物体などの前景ブロックとに分離する。物体検知部105は、例えば類似する背景モデル(モード)がないと判定されたブロックを前景ブロックとする。また、物体検知部105は、例えば類似する背景モデルがあると判定されたブロックを背景ブロックとする。
ステップS610において、物体検知部105は、前景ブロックの隣接連結による領域生成処理を行う。すなわち、物体検知部105は、ステップS609で前景ブロックと判定した隣接するブロックを連結して前景ブロックの領域を生成する。
ステップS611において、物体検知部105は、小領域をノイズとして除去する。すなわち、ステップS610で生成された前景ブロックの領域の面積が所定面積以下である場合、当該領域を背景ブロックとみなすように処理する。
ステップS612において、物体検知部105は、前景ブロックの領域を物体として検知すると共に、検知された物体の物体情報を取得する。上述のように、画像データの送信先に送信される物体情報は、例えば、検知された物体の位置、面積、外接矩形、存在時間、物体の移動距離(軌跡長)、領域マスクの有無などのうちの少なくともいずれかの情報である。画像データの送信先に送信される物体情報のうち、例えば、存在時間の情報は、ステップS613の処理完了時に抽出可能である。また、マスク処理の有無に関する情報は、ステップS613の処理完了時、又は、後述する事象検知処理の完了時に抽出可能である。
また、ステップS612において、物体検知部105は、検知された物体が人物であるか否かを不図示の物体識別データベースを参照して判定する。例えば、物体検知部105は、検知した物体の画像パターンに、物体識別データベースに含まれる顔の画像パターンが含まれるか否かにより、物体が人物であるか否かを判定する。また、例えば、物体検知部105は、検知した物体の形状が、物体識別データベースに含まれる人物の形状に対応するか否かにより、物体が人物であるか否かを判定することも可能である。
ステップS613において、物体検知部105は、物体の追尾処理を行う。すなわち、物体検知部105は、ステップS613において、現在のフレームから検知された物体とそれよりも前のフレームから検知された物体とを関連付ける処理を行う。
なお、ステップS613で行われる物体追尾処理とは、フレーム内、及び、隣接するフレーム間における物体の関連付けを行う処理である。この関連付けには、物体の分離・統合による物体の関連付けを含む。すなわち、物体検知部105は、ステップS612で検知された物体と同じ画像特徴を持つ物体が以前のフレームから検知されていた場合、それらの物体を関連付ける。ここで画像特徴として、色分布、テクスチャ、テンプレート、アスペクト比などを利用することが可能である。
また、物体検知部105は、ステップS612で検知された物体と同じフレーム内の近接する物体と関連付ける。例えば、物体検知部105は、人物と、置き去られた物体を関連付ける。すなわち、物体検知部105は、検知された物体の表示位置に基づいて、複数の物体を関連付ける。
また、物体検知部105は、ステップS612で検知された物体と、それよりも前のフレームのほぼ同位置で検知された物体を関連付ける。すなわち、物体検知部105は、第1のフレームから検知された物体の表示位置と、それよりも前の第2のフレームで検知された物体の表示位置との距離が所定の距離以下である場合、それらを関連付ける。
また、物体検知部105は、ステップS612で検知された物体と同じ画像特徴をもつ物体も、ほぼ同位置で検知された物体も、これまでのフレームから検知されていない場合、ステップS612で検知された物体を新規物体として登録する。
例えば、図3における人物11,21,31,41は、それぞれ同じ画像特徴を持つ物体として、それぞれ関連付けられる。なお、人物が荷物を置き去りした場合、あるフレーム(第1のフレーム)で検知された複数の物体(人物と荷物)が、それより前のフレーム(第2のフレーム)で検知された物体(荷物を持った人物)から分離されたことがステップS613で検知される。この場合、物体検知部105は、第1のフレームで検知された複数の物体(人物と荷物)と、第2のフレームで検知された物体(荷物を持った人物)を関連付ける。
次に図7、図8を用いて、本形態の事象検知部106による事象検知処理について説明する。この処理は、図5のステップS503の処理に対応する。事象検知処理は物体の検知結果に基づいて、物体の置き去り、持ち去り、出現、消失などの事象を検知する処理である。本形態の事象検知部106は、物体検知部105で検知された物体の表示位置、面積、存在時間、移動距離が所定の範囲にあるか否かを判定することによって事象の発生を検知する。図8に事象を検知するための条件の設定例を示す。図8はID、設定値名、各内容の説明、値の例を示している。
本形態のネットワークカメラ100は、事象を検知するための条件として、ルール名(ID00、ID01)、有効フラグ(ID02)、面積(ID03、ID04)、存在時間(ID05、ID06)を設定可能である。また、ネットワークカメラ100は、移動距離(ID07、ID08)、条件合致物体数(ID09、ID10)、検知領域頂点数( ID20 )、検知領域頂点情報(ID21〜ID28)を設定可能である。また、図示していないが、ネットワークカメラ100は、物体検知部105により検知された物体が、分離された物体であるか、統合された物体であるか等を示すフラグを設定している。
事象検知部106は、上記の条件のうち、物体検知部105が検知した物体が満たした条件に基づいて事象の検知を行う。なお、事象検知部106は、物体検知部105によって関連付けられた物体を1つの物体として存在時間などの判定を行う。
例えば、事象検知部106は、画面内の所定範囲内で1つの物体から分離され、一定時間以上静止している物体が検知された場合、置き去りの発生を検知する。より具体的には、事象検知部106は、画面端ではない領域で1つの物体から分離され、存在時間が所定時間に達し、移動距離が所定距離以下の物体が検知された場合、置き去りを検知する。すなわち、事象検知部106は、ID21〜28で示される各頂点の座標、存在時間下限、移動距離上限の条件を満たし、分離されたことを示すフラグがオンになっている物体が検知された場合、置き去りを検知する。
また、事象検知部106は、面積が所定範囲内で、存在時間が所定時間に達し、移動距離が所定距離に達する物体が検知された場合、うろつきの発生を検知する。すなわち、事象検知部106は、図8の面積下限、面積上限、存在時間下限、移動距離下限の条件を満たす物体が検知された場合、うろつきを検知する。
また、事象検知部106は、以下の条件の新規物体が新たに検知された場合、持ち去りを検知する。すなわち、事象検知部106は、所定の検知対象領域との重複領域の面積と、検知対象領域の面積の割合が所定値以上で、検知対象領域との面積の差分が所定値以下で、存在時間が所定時間以上の新規物体を検知した場合、持ち去りを検知する。なお、事象検知部106は、検知対象物体の境界を囲むように検知対象領域を設定する。そして、検知対象物体の持ち去りが行われると、もともとの背景が露出し、それが新規物体として検知される。なお、検知対象領域で検知される新規物体の面積や外接矩形は、検知対象物体の面積や外接矩形とほぼ等しくなる。
すなわち、事象検知部106は、図8の面積下限、面積上限、ID21〜28で示される各頂点、存在時間下限の条件を満たす物体が検知された場合、持ち去りを検知する。ただし、上記の条件をいずれかを用いて持ち去りを検知することも可能である。なお、事象検知部106は、検知したい事象ごとに値を設定する。例えば、置き去りを検知するための条件としての存在時間と、うろつきを検知するための条件としての存在時間の値は、それぞれ別に設定する。
また、事象検知部106は、画面端で新規物体を検知した場合、出現を検知する。また、事象検知部106は、これまで検知されていた物体が画面端において検知されなくなった場合、消失を検知する。このように、事象検知部106は、物体検知部105によって検知された物体が、図8に示す条件のうちの少なくとも1つの条件を満たすか否かに基づいて、事象の発生を検知する。
図7は、事象検知部106による事象検知処理の流れを説明するためのフローチャートである。なお、事象検知部106は、検知する事象ごとに、ステップS701〜708の処理を行う。図7のステップS701において、事象検知部106は、物体検知部105によって検知された物体の表示位置が設定された範囲内にあるか判定する。具体的には、事象検知部106は、物体の表示位置(X座標とY座標)の上限と下限を事象ごとに予め設定しており、検知された物体の表示位置の値がその範囲内にあるか判定する。表示位置の判定を行わない場合は、事象検知部106は、表示位置の上限と下限をそれぞれとりうる値の最大値と最小値に設定する。これにより、検知された物体の表示位置が、常に条件に合致するようになる。
また、事象検知部106は、ステップS702で物体の画面上のサイズ(面積)について、ステップS703で存在時間について、ステップS704で移動距離について、それぞれ設定された範囲内にあるか判定する。事象検知部106は、判定を行う必要がない条件については、ステップS701と同様に、上限と下限をそれぞれ取り得る値の最大値と最小値に設定する。
ステップS705において、事象検知部106は、物体検知部105により検知された全ての物体に対して判定処理が終了したかどうかを判定する。すべての物体の判定が終了したと判定された場合は、ステップS706に進み、すべての物体の判定が終了していないと判定された場合はステップS701に戻り、別の物体の判定処理を行う。
ステップS706において、事象検知部106は、ステップS701〜S704の条件に合致する物体数が設定された範囲内であるか否かを判定する。例えば、ステップS701〜S704までの処理で置き去りの条件に合致すると判定された物体の数が2個で、置き去りについて設定された物体数の範囲が1〜5個である場合、事象検知部106は、条件に合致する物体数が設定された範囲内であると判定する。また、例えば、ステップS701〜S704までの処理で持ち去りの条件に合致すると判定された物体の数が6個で、持ち去りについて設定された物体数の範囲が1〜2個の場合、事象検知部106は、条件に合致する物体数が設定された範囲内でないと判定する。
ステップS706において、条件に合致する物体の数が設定された範囲内であると事象検知部106が判定した場合はステップS707に進む。一方、条件に合致する物体数が設定された範囲内でないと事象検知部106が判定した場合はステップS708に進む。
ステップS707において、事象検知部106は、事象判定結果を真(イベント状態ON)にする。図3の例において、事象検知部106は、検知された事象(置き去り)に関連する非特定対象の物体(人物32)をクライアント(表示装置200)において特定可能とすることを決定する。つまり、事象検知部106は、人物32を画像保護部102による変更処理がされない状態で表示装置200で表示可能となるように、人物32の表示位置情報を画像保護部102に通知しないことを決定する。すなわち、ステップS707において、事象検知部106は、物体検知部105による物体の検知結果に基づいて特定される物体(物体33)に関連する物体(人物32)を、監視対象の物体として、クライアントで特定可能とすることを決定する。
また、事象検知部106は、物体検知部105により検知された人物のうち、ステップS707で監視対象の物体であると判定されていない非特定対象の物体が、クライアントにおいて特定されないように、物体のマスク処理をさせる。
ステップS708において事象検知部106はすべての事象についてステップS701〜707の処理を終了したか判定し、終了したと判定された場合は現在のフレームに対する事象検知処理を終了する。
なお、本形態のネットワークカメラ100は、画像データの送信先であるビューワ(表示装置)や録画サーバに応じてマスク処理を解除するか否かを切り替える。例えば、画像保護部102は、通常のビューワに対しては、事象発生の有無に関係なく、すべての人物にマスク処理を施した画像データを送信する。一方、画像保護部102は、限定されたビューワに対しては、事象に関連する人物のマスク処理を解除する。さらに、画像保護部102は、管理者用のビューワに対しては、事象の有無に関係なく、常にすべての人物のマスク処理を解除した画像データを送信する。このように、ネットワークカメラ100は、クライアント(ビューワ)の権限に応じて、事象に関連する非特定対象の物体のマスク処理を解除するか否かを切り替える。
また本実施形態では、物体検知部105に人体検知機能が備わる例を説明したが、人体検知機能が無い構成とすることも可能である。この場合、物体検知部105は、例えば図3において、人物21,22と荷物23を、すべて物体21,22,23として検知する。その結果、画像保護部102は、マスク領域24,25だけでなく、物体26にも変更処理(マスク処理)を行う。また図4において、画像保護部102は、時刻t4からt5までの間、物体cのマスク処理を行い、時刻t5以降は物体cのマスク処理を解除する。
以上では、検知された事象に関連する人物の変更処理を解除することを中心に説明したが、本形態のネットワークカメラ100は、事象検知前のフレームから検知された人物のうち、事象に関連する人物の変更処理を解除した画像データを送信することもできる。例えば、図4において、時刻t5において置き去りが検知されると、画像送信部104は、時刻t5以降の人物bの変更処理を解除した画像データを送信するが、これに加えて、時刻t5以前の人物bの変更処理を解除した画像データを送信する。この場合、すでに送信したフレームと同じ再生順序(シーケンスナンバー)のフレームの画像データが表示装置200に送信される。
表示装置200は、すでに受信したフレームと同じ再生順序のフレームの画像データを受信し、その再生順序のフレームをまだ再生していない場合、あとに受信されたフレームの画像データを再生する。このようにすることで、検知された事象に関連する人物(監視対象の物体)を確認できる可能性が向上する。また、録画サーバの画像データを再生するときには、事象に関連する物体が変更処理されていない状態で表示できる。
この場合、事象検知部106は、図7のステップS707(決定手順)において、図4の時刻t5のフレーム(第1のフレーム)で検知された事象(置き去り)に関連する物体(人物32)をクライアントにおいて特定可能にすることを決定する。さらに、事象検知部106は、人物32に関連付けられた物体であって、時刻t5よりも前のフレーム(第2のフレーム)における物体(人物22)を特定可能にすることを決定する。そして、事象検知部106は、第2のフレームの識別情報と、人物22の表示位置情報を画像保護部102に通知する。画像保護部102は、すでに変更処理し、表示装置200へ送信した第2のフレームの画像データから、人物22の変更処理を解除した画像データを生成する。生成された画像データは、符号化部103、画像送信部104を介して、表示装置200へ送信される。
すなわち、ステップS707において、事象検知部106は、物体検知部105による物体の検知結果に基づいて、第1のフレームの画像データから検知された物体のうち、監視対象の物体(事象に関連する人物)をクライアントにおいて特定可能にすることを決定する。また、事象検知部106は、第2のフレームの画像データから検知された物体であって、第1のフレームの画像データから検知された監視対象の物体に関連付けられた物体をクライアントにおいて特定可能にすることを決定する。
置き去り以外の事象の例として、うろつきが検知された場合について説明する。上述のように、うろつきは、検知物体の面積下限、面積上限、存在時間下限、移動距離下限の条件を満たす場合に検知される事象である。ステップS706において事象検知部106が人物Aのうろつきを検知した場合、うろつきを検知したフレーム(第1のフレーム)よりも前のフレーム(第2のフレーム)から第1のフレームまでの間で検知された人物Aの変更処理を解除することを決定する。すなわち、事象検知部106は、第1のフレームから検知された人物Aに関連する物体が第2のフレームから第1のフレームまでの画像データから継続して検知される場合、当該関連する物体をクライアントで特定可能にすることを決定する。
また、置き去りが検知された場合について説明する。上述のように、置き去りは、物体の各頂点の座標、存在時間下限、移動距離上限の条件を満たし、分離されたことを示すフラグがオンになっている物体の検知に応じて検知される事象である。また、人物Aが物体Aを置き去った場合、置き去られた物体(物体A)と置き去った物体(人物A)は、物体検知部105によって関連付けられている。すなわち、第1のフレームよりも前の第2のフレームの画像データから検知された物体(人物A)に関連付けられる複数の物体(人物A、物体A)が、第1のフレームから検知される。この場合、事象検知部106は、第1のフレームから検知された複数の物体の少なくとも1つ(人物A)をクライアントで特定可能にすることを決定し、第2のフレームから検知された人物Aを特定可能にすることを決定する。
また、持ち去りが検知された場合について説明する。上述のように、持ち去りは、検知対象領域との重複領域の面積と、検知対象領域の面積の割合が所定値以上で、検知対象領域との面積の差分が所定値以下で、存在時間が所定時間以上の新規物体を検知した場合に検知される事象である。すなわち、事象検知部106は、第3のフレームから第1のフレームまでの検知対象領域の画像データが、第2のフレームの検知対象領域の画像データと継続して異なる場合、事象検知部106は持ち去りを検知する。ここで第3のフレームは、第1のフレームと、それよりも前の第2のフレームの間のフレームである。
すなわち、第3のフレームは、第1のフレームよりも第1の所定フレーム数前の第2のフレームよりも後のフレームであって、第1のフレームよりも第2の所定フレーム数前のフレームである。なお、新たに検知された物体が持ち去りの条件を満たす場合、物体検知部105は、該新たに検知された物体に表示領域が近接(又は重複)した物体を、該新たに検知された物体と関連付けている。
ステップS706において、事象検知部106が第1のフレームにおいて物体Bの持ち去りを検知した場合、第1のフレームの画像データから検知された人物のうち、物体Bに関連付けられた人物をクライアントにおいて特定可能にすることを決定する。また、事象検知部106は、第2のフレームの画像データから検知された物体であって第1のフレームから検知された物体Bに関連付けられる物体をクライアントで特定可能にすることを決定する。
なお、画像保護部102は、物体検知部105によって検知された非特定対象の物体(人物)のうち、クライアントにおいて特定可能にする物体(監視対象の物体)以外の物体が、クライアントで特定されないように、変更処理(マスク処理)を行う。
上記のような構成により、例えば事象を検知した時点ですでに事象に関連する物体が消失してしまった場合であっても、事象に関連する物体を確認できる可能性を向上させることができる。
以上説明したように、本実施形態のネットワークカメラは、画像中で検知された人物を単位としてマスク処理すると共に、特定の事象に関連した人物のマスク処理を除外する。これにより検知された事象に関連する物体を確認できる可能性を向上させることができる。また、本形態のネットワークカメラによれば、プライバシーにも配慮したモニタリングシステムを構築できる。
<実施形態2>
次に第2の実施形態について、第1の実施形態との差異を中心に説明する。本形態におけるネットワークカメラ150と表示装置250の構成を図9に示す。なお、ネットワークカメラ150は、画像データのリクエストを行った表示装置250と不図示の録画サーバに対して画像データを送信する。
本形態のネットワークカメラ150は暗号化機能を備え、表示装置250(ビューワ)と録画装置は暗号化解除機能を備える。ネットワークカメラ150は各人物(非特定対象の物体)を暗号化した画像データを表示装置250に送信する。ネットワークカメラ150は、事象を検知すると、事象に関連する人物の暗号化を受信側が解除するための鍵情報を表示装置250や録画装置に送信する。表示装置250や録画装置は、ネットワークカメラ150から送られた鍵情報を用いて、人物の暗号化を解除して表示する。なお、本形態では、検知された人物を暗号化する例について説明するが、人物以外の物体を暗号化することも可能である。
第1の実施形態の画像保護部102は、プライバシー保護を目的として、モザイクやぼかしなどのマスク処理を行った。これに対し、本実施形態の画像保護部113は、暗号化を行う。この暗号化処理により、クライアント(表示装置250)において、人物が特定されなくなる。そして、ネットワークカメラ150は、事象の検知と表示装置250の権限に応じて、人物の暗号化を解除するための鍵情報を送付する。例えば、複数の表示装置250のうち、特定の権限を有する表示装置250に対しては、検知された事象に関連する人物の暗号化を解除するための鍵情報を送付する。一方、特定の権限を有しない表示装置250に対しては、事象が検知されても、その事象に関連する人物の暗号化を解除するための鍵情報を送付しない。
この手法によれば、権限が異なる複数の表示装置250に画像データを送る場合であっても、複数の異なるストリームを生成することなく、画像データを送信できる。
図9において、符号化部112は、物体検知部105によって検知された非特定対象の物体(人物)を単位として符号化を行う。画像保護部113は、符号化部112によって符号化された各人物を暗号化する。画像保護部113は、各人物をそれぞれ異なる暗号化鍵で暗号化する。人物と暗号化に使用した暗号化鍵の対応は、暗号鍵データベース111に保存される。また鍵送信部114は、事象検知部106によって事象が検知されたときに、当該事象に関連する人物の暗号化を解除するための鍵情報を、表示装置250や、不図示の録画サーバに送信する。すなわち、鍵送信部114は、事象検知部106がクライアント(表示装置250)で特定可能にすると決定した物体の変更処理を画像保護部113が行う前の画像データを生成するための鍵情報を、表示装置250に送信する。
表示装置250は、鍵受信部230、保護解除部231を備えている点が第1の実施形態の表示装置200と異なる。保護解除部231は、鍵受信部230によって受信された鍵情報を用いて、当該鍵情報に対応する人物の暗号化の解除処理を行う。
鍵情報のやり取りの手法として、例えば、以下の方法を用いることができる。すなわち、ネットワークカメラ150は、検知された事象に関連する人物の暗号化を解除するための鍵情報を、表示装置250との共通鍵を用いて暗号化して送信する。保護解除部231は、共通鍵で暗号化された鍵情報を受信すると、共通鍵を用いて復号化し、得られた鍵情報を用いて事象に関連する人物の暗号化を解除する。
他の方法として、鍵送信部114は、例えば、画像データのヘッダ領域に鍵情報を入れて送ることも可能である。また、例えば、鍵送信部114は、異常メッセージとして鍵情報を送ることも可能である。この場合、鍵送信部114は、SOAP(Simple Object Access Protocol)のメッセージ、SMTP(Simple Mail Transfer Protocol)によるメールへの添付などの方法で、鍵情報を送信する。
以上説明したように、本実施形態のネットワークカメラ150の画像保護部113は、画像データから検知された各人物が、画像データの送信先(表示装置250)で変更処理(暗号化)された状態で表示されるように、各人物をそれぞれ暗号化する。事象検知部106は、事象を検知すると、該事象に関連する人物(監視対象の物体)を特定するための特定情報を、鍵送信部114に通知する。鍵送信部114は、特定情報に対応する人物(監視対象の物体)の暗号化を解除するための鍵情報を暗号鍵データベース111から読み出して、表示装置250に送信する。すなわち、事象検知部106は、検知された事象に関連する人物(監視対象の物体)を画像保護部113による変更処理(暗号化)がされない状態で表示装置250で表示させると決定する。言い換えると、事象検知部106は、非特定対象の物体(人物)のうち、事象に関連する監視対象の物体をクライアント(表示装置250)において特定可能にすることを決定する。
表示装置250の画像受信部221は、ネットワークカメラ150から画像データを受信する。また、表示装置250の鍵受信部230は、ネットワークカメラ150から鍵情報を受信する。保護解除部231は、鍵受信部230が受信した鍵情報を用いて、画像受信部221が受信した画像データ中の人物のうち、事象に関連する人物の暗号化を解除する。これにより、画像表示部223は、ネットワークカメラ150において検知された事象に関連する物体(監視対象の物体)を、暗号化されていない状態で表示できる。
本実施形態によれば、例えば、検知された事象に関連する物体の変更処理を、表示装置が有するプライバシーに関する権限に応じて解除させる場合に、送信する画像データを統一することができる。すなわち、本形態のネットワークカメラ150の鍵送信部114は、プライバシーに関する権限を有する表示装置250には事象に関連する人物の暗号化を解除するための鍵情報を送信し、権限を有さない表示装置には鍵情報を送信しない。これにより、ネットワークカメラ150から、権限を有する表示装置と権限を有しない表示装置に対して同じ画像データを送信し、権限を有する表示装置でのみ、事象に関連する物体の変更処理を鍵情報によって解除した画像を表示可能にできる。
また、本実施形態によれば、表示装置250は、すでに受信された画像データ内の人物(非特定対象の物体)のうち、ネットワークカメラ150で検知された事象に関連する物体(監視対象の物体)の変更処理(暗号化)を解除することができる。
<実施形態3>
次に第3の実施形態について、第1、第2の実施形態との差異を中心に説明する。本形態では、画像処理装置を用いて処理の分散を行う。すなわち、ネットワークカメラで物体の検知処理を行い、画像処理装置で事象の検知や画像の保護処理を行う。これにより、ネットワークカメラの処理能力が不十分であっても、物体ごとの変更処理の切り替えを実現できる。本形態の画像保護部305が行う人物の変更処理は、第1の実施形態と同様のマスク処理とする。本実施形態のシステム構成を図10に示す。本形態のシステムには、図1の構成に加えて、画像処理装置300がある。
図11は本実施形態のネットワークカメラ160、画像処理装置300、表示装置200の構成例である。なお、表示装置200は第1の実施形態における表示装置と同様の構成である。
ネットワークカメラ160は、撮影部101、符号化部103、画像送信部104、物体検知部107、メタデータ送信部108、通信インターフェース110、不図示の物体識別データベースから構成される。本形態の物体検知部107は、物体識別データベースを参照することにより、検知した物体が、人物であるか否かを判定する。
メタデータ送信部108は、物体検知部107によって検知された物体の位置、面積(サイズ)、外接矩形などの物体情報を含むメタデータを生成し、画像処理装置300に送信する。また、メタデータ送信部108は、物体検知部107によって人物であると判定された物体の個人を特定するために用いる顔検知情報を含むメタデータを生成し、画像処理装置300に送信する。メタデータの内容などの詳細は後述する。
画像処理装置300は、通信インターフェース310、メタデータ受信部302、物体追尾部303、事象検知部304、画像受信部301、画像保護部305、符号化部306、画像送信部307、個人認証データベース311から構成される。
メタデータ受信部302は、ネットワークカメラ160からメタデータを受信する。物体追尾部303は、第1の実施形態の物体検知部105と同様の物体追尾処理を行う。事象検知部304は、ネットワークカメラからのメタデータを用いて事象の発生を検知する。事象検知部304は、メタデータに顔検知情報が含まれる場合、個人認証データベース311を用いて個人を特定する。画像受信部301は、ネットワークカメラ160から画像データを受信し復号化する。画像保護部305、符号化部306、画像送信部307は、図2の画像保護部102、符号化部103、画像送信部104と同様である。
ネットワークカメラ160から画像処理装置300に送信されるメタデータの内容を、図12を用いて説明する。図12には、ID、メタデータの識別子、メタデータの内容の説明、データの書式の例を示している。
メタデータは、フレーム情報(ID10〜13)、物体情報(ID20〜28)、物体領域マスク情報(ID30〜32)から構成される。フレーム情報はID10から13で記述される。ID10は、これからフレーム情報が始まることを示す識別子である。ID11はフレーム番号、ID12はフレーム時刻、ID13は物体の存在する空間のサイズを記述する。
物体情報は、ID20から28で記述される。ID20は、これから物体情報が始まることを示す識別子である。ID21は物体数、ID22は物体サイズ、ID23は外接矩形、ID24は代表点、ID25は存在時間、ID26は軌跡長(移動距離)、ID27は動き(物体の速度)を記述する。ID21からID28は物体(人物)ごとにデータが存在する。
代表点(ID24)は、物体の表示位置を示す座標情報であり、重心点でもよい。存在時間(ID25)は、物体が検知されてからの経過時間である。軌跡長(ID26)は、画面上を物体が移動した距離である。動き(ID27)は、物体の速度を示し、例えば、前フレームで検知された物体の表示位置を用いて求めることができる。物体識別結果(ID28)は、人物、車、などの、物体を識別した結果である。
物体領域マスク情報は、ID30から32で記述される。ID30はこれから物体領域マスク情報が始まることを示す識別子である。ID31は圧縮方式であり、非圧縮や、ランレングス符号化などの可逆圧縮方式を示す。ID32は、マスク処理された物体領域を、ブロック番号の配列で記述したものである。
なお、メタデータの送信方法として、メタデータをXML形式で表現して画像とは別に送る方式や、バイナリ形式で表現して画像データに添付して送る方式がある。XMLの方式によれば、画像データとメタデータを別のフレームレートで送信することが容易に行えるという利点がある。すなわち、メタデータ送信部108は、XMLの方式を用いれば、例えば、1つのフレームから多数の物体が検知された場合に、1フレームに関するメタデータを複数に分けて送信することを容易に行える。一方、バイナリ形式の方式によれば、メタデータと画像データの同期を容易に行えるため、JPEGなどの符号化方式に特に有効であるという利点がある。
図13は、メタデータをXML形式で表現した場合の例である。これは、1フレームから2つの物体が検知された場合のメタデータの例である。本形態のネットワークカメラ160は、このようなメタデータを送信することにより、画像処理装置300で、事象の検知処理と、その結果に基づく監視対象物体のマスク処理の解除を行うことができる。
図11に戻って、本実施形態における、ネットワークカメラ160、画像処理装置300、表示装置200間の処理の流れを述べる。ネットワークカメラ160は、画像データから物体検知、および、メタデータの生成を行い、符号化された画像データとメタデータを画像処理装置300に送信する。
画像処理装置300の画像受信部301は、受信した画像データを復号化する。また、物体追尾部303は、メタデータ受信部302により受信されたメタデータに基づいて、物体追尾処理を行い、事象検知部304は事象の検知処理を行う。物体追尾処理は、図6のステップS613の処理に対応する。また、事象の検知処理は、図7の処理に対応する。さらに画像保護部305は、第1の実施形態の画像保護部102と同様に変更処理(マスク処理)を行う。すなわち、画像保護部305は、ネットワークカメラ160の物体検知部107で検知された物体のうち、事象検知部304で検知された事象に関連する人物(監視対象の物体)を変更処理せず、検知された事象に関連しない人物を変更処理する。そして、符号化部306は、画像保護部305からの画像データを符号化し、符号化された画像データを画像送信部307が表示装置200に対して送信する。これにより、表示装置200は、事象に関連する物体(監視対象の物体)を変更処理されない状態で表示し、事象に関連しない非特定対象の物体(人物)を変更処理された状態で表示する。
なお、本実施形態の画像処理装置300は、個人認証データベース311を搭載することにより、高度な事象判定処理を行う。すなわち、画像処理装置300は、例えば、物体検知部107が個人認証データベース311に未登録の人物を検知したときのみ、当該人物を監視対象の物体と判定する。そして、画像処理装置300は、監視対象の物体と判定された人物がクライアント(表示装置200)で特定されないように変更処理する。
また、例えば、うろつきの条件を満たす人物が、個人認証データベース311に未登録であった場合のみ、事象検知部304は、うろつきが発生したと判定し、事象に関連する物体(うろついている人物)を変更処理されない状態で表示されるようにする。
以上説明したように、第1の実施形態のネットワークカメラが行う処理のうち、事象検知処理をネットワークカメラとは別の画像処理装置で行うことにより、カメラの処理リソースが不十分でも高度な事象検知処理を実現できる。
<実施形態4>
本実施形態では、実施形態1のネットワークカメラ100と表示装置200の構成を例にとって、置き去り検知以外の事象の検知に応じて変更処理(マスク処理や暗号化)を解除することについて詳細に説明する。
例えば、持ち去りが検知された場合、事象検知部106が持ち去りを検知したときには、持ち去りを行った人物は、すでに検知対象物体1(持ち去られた物体)が存在していた位置から離れている。しかしながら、物体検知部105の追尾処理により、持ち去り後に検知対象物体1の領域に出現した物体と持ち去り行為を行った人物とが関連付けられているため、持ち去り行為を行った人物をクライアントにおいて特定可能にすることができる。
また、物体検知部105が複数人物の集合を検知した場合、事象検知部106は、集合した人物がどこから来てどこに行ったのかを確認できるように、それらの人物の変更処理を解除することを決定する。すなわち、事象検知部106は、検知対象領域における人物の数を計数し、一定人数以上になった場合には集合イベントとして検知する。また、事象検知部106は、集合イベントを検知したときに検知対象領域に存在した人物が、画面外に退出するまで、変更処理(マスク処理、暗号化)を解除することを決定する。このようにすることで、画像データを受信するクライアントにおいて事象(集合イベント)に関連する人物を特定することが可能になる。
また、検知すべき事象の例として、ひったくりや暴行などの傷害行為がある。このような傷害行為に関連する人物を特定できるようにするため、本形態の事象検知部106は、傷害行為を検知する。事象検知部106は、例えば、2人の人物が近づいてから所定時間以上静止した後、一方の人物が画面外へ出て行き、他方の人物が静止を続けていることが物体検知部105により検知された場合、傷害行為を検知する。
このようにすることで、事象検知部106は、例えば、以下のようなシーンが発生したときに、傷害行為の発生を検知することができる。すなわち、人物1が人物2の背後から近づき、十数秒間の傷害行為に及んだ上で、画面外に逃走する。一方、人物2はその場にうずくまり動かない。
また、事象検知部106は、上記のような傷害行為の発生を検知した場合、人物1、人物2双方の変更処理を解除する。すなわち、事象検知部106は、傷害行為に関連する物体(人物1、2)を画像保護部102による変更処理が行われない状態で表示装置200で表示させることを決定する。言い換えると、事象検知部106は、物体検知部105により検知された非特定対象の物体(人物)のうち、傷害行為に関連する人物(人物1、2)を、監視対象の物体として、クライアント(表示装置)で特定可能にすることを決定する。
以上説明したように、本形態の事象検知部106は、複数の物体や人物の検知状況に基づいて様々な事象を検知できる。そして当該事象に関連した人物の変更処理を解除することで、事象に関連する人物をクライアントにおいて特定きるようになる。
なお、本形態の画像保護部102は、物体検知部105によって検知された物体のうち、人物を変更処理する場合の例について説明したが、人物以外の物体も変更処理し、事象に関連する人物、及び物体の変更処理を解除する構成も可能である。例えば、事象に関連しない車のナンバープレートや家の表札は、クライアントで特定されないように変更処理し、事象に関連するナンバープレートや表札は、変更処理を解除することにより、クライアントで特定可能にすることができる。これにより、プライバシー保護と共に、事象に関連する物体の監視が可能となる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1. 画像データをクライアント装置に送信する画像処理装置であって、
    画像データに基づいて物体を検知する物体検知手段と、
    前記物体検知手段の検知結果に基づいて事象の発生を検知する事象検知手段と、
    前記事象検知手段が事象の発生を検知したフレームより前のフレームの画像データから前記物体検知手段により検知された人物は、前記クライアント装置において特定できないように、画像データを処理する処理手段とを有し、
    前記処理手段は、
    フレームの画像データから前記物体検知手段により人物でないと判定された物体は、前記クライアント装置において特定できるように、画像データを処理し、
    前記フレームの画像データから前記物体検知手段により人物でないと判定された物体に基づいて前記事象検知手段が事象の発生を検知した場合、
    前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられた第1の人物は、前記事象の発生を検知した以降は、前記クライアント装置において特定できるように、画像データを処理し、
    前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられていない第2の人物は、前記事象の発生を検知した以降も、前記クライアント装置において特定できないように、画像データを処理する
    ことを特徴とする画像処理装置。
  2. 前記処理手段は、前記事象の発生を検知する元になった物体と前記第1の人物を関連付ける追尾処理を行う
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記処理手段は、前記画像データ中の人物が前記クライアント装置において特定できないように、画像データを変更処理する
    ことを特徴とする請求項1記載の画像処理装置。
  4. 前記第1の人物は、前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と分離したことが検知された
    ことを特徴とする請求項1記載の画像処理装置。
  5. 前記処理手段は、前記クライアント装置において特定できるようにする物体に対応する画像データは変更処理しない
    ことを特徴とする請求項1記載の画像処理装置。
  6. 前記処理手段は、画像データ中の人物を前記クライアント装置において特定できるようにするための鍵情報を、前記クライアント装置に送信することを特徴とする請求項1記載の画像処理装置。
  7. 画像データをクライアント装置に送信する画像処理装置が行う画像処理方法であって、
    画像データに基づいて物体を検知する物体検知工程と、
    前記物体検知工程の検知結果に基づいて事象の発生を検知する事象検知工程と、
    前記事象検知工程が事象の発生を検知したフレームより前のフレームの画像データから前記物体検知工程により検知された人物は、前記クライアント装置において特定できないように、画像データを処理する処理工程とを有し、
    前記処理工程は、
    フレームの画像データから前記物体検知工程により人物でないと判定された物体は、前記クライアント装置において特定できるように、画像データを処理し、
    前記フレームの画像データから前記物体検知工程により人物でないと判定された物体に基づいて前記事象検知工程が事象の発生を検知した場合、
    前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられた第1の人物は、前記事象の発生を検知した以降は、前記クライアント装置において特定できるように、画像データを処理し、
    前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられていない第2の人物は、前記事象の発生を検知した以降も、前記クライアント装置において特定できないように、画像データを処理する
    ことを特徴とする画像処理方法。
  8. 前記第1の人物は、前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と分離したことが検知された
    ことを特徴とする請求項記載の画像処理方法。
  9. 画像データをクライアントに送信するコンピュータに、
    画像データに基づいて物体を検知する物体検知手順と、
    前記物体検知手順の検知結果に基づいて事象の発生を検知する事象検知手順と、
    前記事象検知手順が事象の発生を検知したフレームより前のフレームの画像データから前記物体検知手順により検知された人物は、前記クライアント装置において特定できないように、画像データを処理する処理手順とを実行させ
    前記処理手順は、
    フレームの画像データから前記物体検知手順により人物でないと判定された物体は、前記クライアント装置において特定できるように、画像データを処理し、
    前記フレームの画像データから前記物体検知手順により人物でないと判定された物体に基づいて前記事象検知手順が事象の発生を検知した場合、
    前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられた第1の人物は、前記事象の発生を検知した以降は、前記クライアント装置において特定できるように、画像データを処理し、
    前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と関連付けられていない第2の人物は、前記事象の発生を検知した以降も、前記クライアント装置において特定できないように、画像データを処理する
    ことを特徴とするプログラム。
  10. 前記第1の人物は、前記事象の発生を検知したフレームより前のフレームにおいて前記事象の発生を検知する元になった物体と分離したことが検知された
    ことを特徴とする請求項記載のプログラム。
JP2009244830A 2009-10-23 2009-10-23 画像処理装置、および画像処理方法 Active JP5709367B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009244830A JP5709367B2 (ja) 2009-10-23 2009-10-23 画像処理装置、および画像処理方法
US12/908,725 US9288451B2 (en) 2009-10-23 2010-10-20 Image processing apparatus and image processing method
CN201610438547.9A CN106027974B (zh) 2009-10-23 2010-10-22 图像处理装置及图像处理方法
CN201010527870.6A CN102045543B (zh) 2009-10-23 2010-10-22 图像处理装置及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009244830A JP5709367B2 (ja) 2009-10-23 2009-10-23 画像処理装置、および画像処理方法

Publications (3)

Publication Number Publication Date
JP2011091705A JP2011091705A (ja) 2011-05-06
JP2011091705A5 JP2011091705A5 (ja) 2012-11-29
JP5709367B2 true JP5709367B2 (ja) 2015-04-30

Family

ID=43898450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009244830A Active JP5709367B2 (ja) 2009-10-23 2009-10-23 画像処理装置、および画像処理方法

Country Status (3)

Country Link
US (1) US9288451B2 (ja)
JP (1) JP5709367B2 (ja)
CN (2) CN106027974B (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5787485B2 (ja) * 2010-03-08 2015-09-30 Toa株式会社 監視装置、及びプログラム
US10509466B1 (en) * 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
CN104054329B (zh) * 2012-02-01 2017-06-13 日立麦克赛尔株式会社 内容接收装置、内容接收方法和数字广播收发系统
US9940525B2 (en) 2012-11-19 2018-04-10 Mace Wolf Image capture with privacy protection
US20140140575A1 (en) * 2012-11-19 2014-05-22 Mace Wolf Image capture with privacy protection
JP2014182476A (ja) * 2013-03-18 2014-09-29 Fuji Xerox Co Ltd 操作履歴情報保存装置、画像処理装置、操作履歴情報保存制御プログラム
US9635317B1 (en) * 2013-05-08 2017-04-25 Surround.IO Permission based camera with encrypted photo and video output
JP6468725B2 (ja) * 2013-08-05 2019-02-13 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6327816B2 (ja) * 2013-09-13 2018-05-23 キヤノン株式会社 送信装置、受信装置、送受信システム、送信装置の制御方法、受信装置の制御方法、送受信システムの制御方法、及びプログラム
US20150106195A1 (en) 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling inserted data into captured images
US10013564B2 (en) 2013-10-10 2018-07-03 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images
US20150104004A1 (en) 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for delivering image data from captured images to devices
US10346624B2 (en) * 2013-10-10 2019-07-09 Elwha Llc Methods, systems, and devices for obscuring entities depicted in captured images
US9799036B2 (en) 2013-10-10 2017-10-24 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy indicators
US20150106950A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images
US10185841B2 (en) 2013-10-10 2019-01-22 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy beacons
JP6289027B2 (ja) * 2013-10-24 2018-03-07 日本放送協会 人物検出装置及びプログラム
WO2015151449A1 (ja) 2014-03-31 2015-10-08 日本電気株式会社 画像処理システム、画像処理装置、画像処理方法および記録媒体
JP6437217B2 (ja) * 2014-06-02 2018-12-12 株式会社東芝 画像出力装置、画像管理システム、画像処理方法及びプログラム
CN106575027B (zh) * 2014-07-31 2020-03-06 麦克赛尔株式会社 摄像装置及其被摄体跟踪方法
JP6024999B2 (ja) * 2014-11-26 2016-11-16 パナソニックIpマネジメント株式会社 撮像装置、録画装置および映像出力制御装置
JP6375213B2 (ja) * 2014-11-27 2018-08-15 セコム株式会社 画像管理システムおよび監視カメラ
JP5988225B2 (ja) * 2015-02-25 2016-09-07 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
JP6124223B2 (ja) * 2015-04-16 2017-05-10 パナソニックIpマネジメント株式会社 事件映像ログデータ生成装置、事件映像処理システム、事件映像ログデータ生成方法、及びプログラム
US20180225831A1 (en) * 2015-08-07 2018-08-09 Nec Corporation Image processing device, image restoring device, and image processing method
US9912838B2 (en) * 2015-08-17 2018-03-06 Itx-M2M Co., Ltd. Video surveillance system for preventing exposure of uninteresting object
JP6504364B2 (ja) * 2015-11-27 2019-04-24 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP6241796B2 (ja) 2015-12-25 2017-12-06 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
KR102443214B1 (ko) * 2016-01-08 2022-09-15 삼성전자 주식회사 영상처리장치 및 그 제어방법
JP6390860B2 (ja) * 2016-01-25 2018-09-19 パナソニックIpマネジメント株式会社 置去り物体監視装置およびこれを備えた置去り物体監視システムならびに置去り物体監視方法
WO2017129804A1 (en) * 2016-01-29 2017-08-03 Kiwisecurity Software Gmbh Methods and apparatus for using video analytics to detect regions for privacy protection within images from moving cameras
JP6758918B2 (ja) * 2016-05-27 2020-09-23 キヤノン株式会社 画像出力装置、画像出力方法及びプログラム
JP6099025B1 (ja) * 2016-06-20 2017-03-22 パナソニックIpマネジメント株式会社 モニタリングシステム、マスク処理設定方法及びコンピュータプログラム
CN106204743B (zh) * 2016-06-28 2020-07-31 Oppo广东移动通信有限公司 一种增强现实功能的控制方法、装置及移动终端
JP6176619B2 (ja) * 2016-09-26 2017-08-09 パナソニックIpマネジメント株式会社 撮像装置、録画装置、映像表示方法およびコンピュータプログラム
WO2018096806A1 (ja) * 2016-11-24 2018-05-31 コニカミノルタ株式会社 被監視者監視装置用設定装置および該方法ならびに被監視者監視システム
WO2018096805A1 (ja) * 2016-11-24 2018-05-31 コニカミノルタ株式会社 被監視者監視装置用設定装置および該方法ならびに被監視者監視システム
JP6928240B2 (ja) * 2016-12-08 2021-09-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP7002846B2 (ja) * 2017-03-03 2022-01-20 キヤノン株式会社 画像処理装置およびその制御方法
EP3379471A1 (en) * 2017-03-21 2018-09-26 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
US11164006B2 (en) 2017-03-30 2021-11-02 Nec Corporation Information processing apparatus, control method, and program
JP6954416B2 (ja) * 2017-03-30 2021-10-27 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017184288A (ja) * 2017-06-29 2017-10-05 パナソニックIpマネジメント株式会社 撮像装置、録画装置、映像表示方法およびコンピュータプログラム
GB2560393B (en) 2017-07-31 2019-01-30 Matthew Russell Iain Unmanned aerial vehicles
JP6938270B2 (ja) * 2017-08-09 2021-09-22 キヤノン株式会社 情報処理装置および情報処理方法
JP6532043B2 (ja) * 2017-10-26 2019-06-19 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
US11003916B2 (en) * 2017-11-03 2021-05-11 Toyota Research Institute, Inc. Systems and methods for object historical association
EP3514760B1 (en) * 2018-01-23 2020-06-17 Honda Research Institute Europe GmbH Method and system for privacy compliant data recording
JP6887132B2 (ja) * 2018-04-12 2021-06-16 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム及び映像処理方法
JP2020072456A (ja) * 2018-11-02 2020-05-07 アツミ電氣株式会社 映像録画制御装置及び映像録画制御装置の制御方法
US11482005B2 (en) * 2019-05-28 2022-10-25 Apple Inc. Techniques for secure video frame management
JP2020022177A (ja) * 2019-09-18 2020-02-06 日本電気株式会社 映像監視システム及び映像監視方法
JP7055785B2 (ja) * 2019-12-18 2022-04-18 矢崎総業株式会社 車載装置
JP7335424B2 (ja) * 2020-03-31 2023-08-29 日本電気株式会社 管理装置、管理システム、監視システム、推定方法、およびプログラム
CN111654668B (zh) * 2020-05-26 2021-08-13 山东摄云信息技术有限公司 监控设备同步方法、装置及计算机终端
WO2022244062A1 (ja) * 2021-05-17 2022-11-24 Eizo株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN114189598B (zh) * 2022-01-11 2024-05-10 深圳市怡化时代科技有限公司 数据加密处理方法、装置、计算机设备和存储介质
JP7489448B1 (ja) 2022-12-15 2024-05-23 イオンディライト株式会社 監視カメラ画像視聴管理システム、監視カメラ画像視聴管理サーバ装置、監視カメラ画像視聴管理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245395A (ja) * 1988-03-28 1989-09-29 Toshiba Corp 画像監視システム
JP4444452B2 (ja) * 2000-06-08 2010-03-31 キヤノン株式会社 撮像装置
DE10158990C1 (de) * 2001-11-30 2003-04-10 Bosch Gmbh Robert Videoüberwachungssystem
AU2002361483A1 (en) * 2002-02-06 2003-09-02 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
JP2003319158A (ja) * 2002-04-18 2003-11-07 Toshiyuki Tani 画像処理システム
JP4036051B2 (ja) * 2002-07-30 2008-01-23 オムロン株式会社 顔照合装置および顔照合方法
WO2004045215A1 (en) * 2002-11-12 2004-05-27 Intellivid Corporation Method and system for tracking and behavioral monitoring of multiple objects moving throuch multiple fields-of-view
JP2004180236A (ja) 2002-11-29 2004-06-24 Hitachi Ltd ネットワーク監視カメラおよびネットワーク監視カメラシステム
JP4171310B2 (ja) * 2003-01-17 2008-10-22 株式会社日立国際電気 侵入物体検出方法及び侵入物体検出装置
US20040196369A1 (en) * 2003-03-07 2004-10-07 Canon Kabushiki Kaisha Monitoring system
JP4292891B2 (ja) * 2003-06-26 2009-07-08 ソニー株式会社 撮像装置、画像記録装置および画像記録方法
GB0326375D0 (en) * 2003-11-12 2003-12-17 British Telecomm Object tracking within video images
US8558892B2 (en) * 2004-01-20 2013-10-15 Honeywell International Inc. Object blocking zones to reduce false alarms in video surveillance systems
US20060114322A1 (en) * 2004-11-30 2006-06-01 Romanowich John F Wide area surveillance system
CN101189868A (zh) * 2005-04-27 2008-05-28 富士胶片株式会社 图像捕捉装置、图像捕捉方法和程序
JP4975272B2 (ja) * 2005-05-30 2012-07-11 京セラ株式会社 ユーザ端末
US8214516B2 (en) * 2006-01-06 2012-07-03 Google Inc. Dynamic media serving infrastructure
JP2007334631A (ja) * 2006-06-15 2007-12-27 Sony Corp 画像監視システムおよび物体領域追跡方法
JP4201025B2 (ja) * 2006-06-30 2008-12-24 ソニー株式会社 監視装置、監視システム及びフィルタ設定方法、並びに監視プログラム
JP5159381B2 (ja) * 2008-03-19 2013-03-06 セコム株式会社 画像配信システム
CN101299274B (zh) 2008-06-18 2010-06-09 北京中星微电子有限公司 一种移动固定目标的检测方法及系统

Also Published As

Publication number Publication date
CN102045543B (zh) 2016-06-22
US20110096922A1 (en) 2011-04-28
CN102045543A (zh) 2011-05-04
CN106027974B (zh) 2019-08-23
CN106027974A (zh) 2016-10-12
JP2011091705A (ja) 2011-05-06
US9288451B2 (en) 2016-03-15

Similar Documents

Publication Publication Date Title
JP5709367B2 (ja) 画像処理装置、および画像処理方法
US20220329571A1 (en) Security for Scene-Based Sensor Networks, with Access Control
JP5523027B2 (ja) 情報送信装置及び情報送信方法
JP6964647B2 (ja) オブジェクトのプライバシが保護されるイメージフレームのシーケンスをエンコーディング及びデコーディングする方法及びデバイス
Padilla-López et al. Visual privacy protection methods: A survey
EP0998814B1 (en) System for preventing playback of unauthorized digital video recordings
JP2024019238A (ja) 映像監視方法、映像監視システム、映像監視端末、情報処理装置及びプログラム
JP2005236464A (ja) 監視カメラ映像配信システム
US20070286496A1 (en) Image Processing Apparatus
JP2009239718A (ja) 動画像分離装置、動画像結合装置および動画像分離・結合システム
WO2017026356A1 (ja) 画像処理装置、画像復元装置、画像処理方法および画像復元方法
Cheung et al. Protecting and managing privacy information in video surveillance systems
KR101951605B1 (ko) 영상의 유출을 방지하기 위한 cctv 영상 보안 시스템
US20100259644A1 (en) Apparatus and method for processing image information
JP5693147B2 (ja) 撮影妨害検知方法、妨害検知装置及び監視カメラシステム
KR101487461B1 (ko) 개인영상 정보보호 기능이 탑재된 얼굴인식 보안 관제 시스템
JP7084795B2 (ja) 画像処理装置、画像提供装置、それらの制御方法及びプログラム
JP4112509B2 (ja) 画像暗号システム及び画像暗号方法
Zhang et al. Privacy preserving video surveillance using pedestrian tracking mechanism
Kobayashi et al. Surveillance camera system to achieve privacy protection and crime prevention
KR101746168B1 (ko) 차량용 블랙박스의 영상 처리를 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체
JP6665590B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR102530463B1 (ko) 보행자 얼굴 검출 정보를 매개로 한 영상 보안 장치 및 그 방법
Kumaki et al. Hierarchical-Masked Image Filtering for Privacy-Protection
KR101902687B1 (ko) 영상실명 보안시스템 및 보안방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150303

R151 Written notification of patent or utility model registration

Ref document number: 5709367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151