JP2011130271A - Imaging device and video processing apparatus - Google Patents
Imaging device and video processing apparatus Download PDFInfo
- Publication number
- JP2011130271A JP2011130271A JP2009287984A JP2009287984A JP2011130271A JP 2011130271 A JP2011130271 A JP 2011130271A JP 2009287984 A JP2009287984 A JP 2009287984A JP 2009287984 A JP2009287984 A JP 2009287984A JP 2011130271 A JP2011130271 A JP 2011130271A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- video
- mask
- region
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、映像監視システムに用いられる撮像装置や映像処理装置に関し、特に撮像により得られた映像の一部にマスク処理を行う装置に関する。 The present invention relates to an imaging device and a video processing device used in a video surveillance system, and more particularly to a device that performs mask processing on a part of a video obtained by imaging.
店舗、集合住宅、道路、商店街等に設けられる映像監視システムは、監視カメラによる撮像により得られた映像をモニタリングしたり記録したりすることで、非常時の速やかな対処を可能としたり、事後の問題解決を容易にしたりする。ただし、監視カメラによる撮像範囲(監視範囲)内には、プライバシーを保護すべき被写体が存在する場合があり、そのような被写体の映像を除外する必要がある。
特許文献1には、監視カメラからの映像にプライバシー保護領域を設定し、該プライバシー保護領域をマスク処理して表示されないようにする一方、該保護領域内に監視対象の被写体が入り込んだ場合にはマスク処理を解除する映像監視システムが開示されている。また、特許文献2には、マスク処理を行った後の映像上で動き領域を検出することに応じて、該マスク処理を解除する映像処理装置が開示されている。
Video surveillance systems installed in stores, apartment buildings, roads, shopping streets, etc. can monitor and record video captured by surveillance cameras, enabling quick response in an emergency or after the fact. To make it easier to solve problems. However, there may be a subject whose privacy should be protected within the imaging range (monitoring range) of the surveillance camera, and it is necessary to exclude the video of such subject.
In Patent Document 1, a privacy protection area is set on a video from a surveillance camera, and the privacy protection area is masked so as not to be displayed. On the other hand, when a subject to be monitored enters the protection area, A video surveillance system for canceling mask processing is disclosed. Further, Patent Document 2 discloses a video processing apparatus that cancels the mask process in response to detecting a motion region on the video after the mask process.
しかしながら、特許文献1にて開示されたシステムでは、保護領域内の映像は、たとえ該保護領域内に保護すべきではない又は保護する必要のない被写体が存在していてもすべてマスクされてしまう。このため、保護領域内に監視が必要な不審者が入り込んだときに、この不審者の映像までがマスクされてしまい、監視カメラとして役に立たなくなる。
また、特許文献2の映像処理装置のように動き領域の検出に応じてマスク処理を解除すると、頻繁に人や車が行き交う場所を監視する場合に、必要なマスク処理を維持することができない。
本発明は、撮像により得られた映像において、プライバシー保護領域でのマスク処理を維持しつつ、該保護領域内に入った監視対象の被写体がマスクされないようにすることができる映像処理装置を提供する。
However, in the system disclosed in Patent Document 1, all images in the protected area are masked even if there is a subject that should not be protected or need not be protected in the protected area. For this reason, when a suspicious person who needs to be monitored enters the protected area, even the image of the suspicious person is masked, making it useless as a surveillance camera.
Further, when the mask process is canceled according to the detection of the motion area as in the video processing apparatus of Patent Document 2, the necessary mask process cannot be maintained when monitoring a place where people and vehicles frequently come and go.
The present invention provides a video processing apparatus capable of maintaining a mask process in a privacy protection area and preventing a subject to be monitored entering the protection area from being masked in an image obtained by imaging. .
本発明の一側面としての映像処理装置は、撮像装置による第1の被写体を含むシーンの撮像により生成された映像のうち該第1の被写体が写った第1の領域にマスク処理を行うマスク処理手段と、撮像装置から被写体までの距離に関する情報を用いて、映像における第1の領域内に第1の被写体よりも近い距離に位置する第2の被写体が写ったことを検出する検出手段とを有する。そして、マスク処理手段は、第1の領域のうち、第2の被写体が写っている第2の領域でのマスク処理を解除し、該第2の領域以外の領域でのマスク処理を維持した出力映像を生成することを特徴とする。 An image processing apparatus according to one aspect of the present invention performs mask processing for performing mask processing on a first region in which a first subject is captured in an image generated by imaging a scene including the first subject by the imaging device. And detecting means for detecting that the second subject located at a distance closer to the first subject in the first region in the video is captured using the information related to the distance from the imaging device to the subject. Have. Then, the mask processing means cancels the mask processing in the second region in which the second subject is captured in the first region, and maintains the mask processing in the region other than the second region. An image is generated.
本発明によれば、プライバシー保護領域等の第1の領域においてマスクをすべき第1の被写体に対するマスク処理は維持しつつ、該第1の領域内に入ったより近い距離の第2の被写体(例えば、監視対象の被写体)に対するマスク処理を解除することができる。第2の被写体に対するマスク処理を解除する条件を、該第2の被写体が第1の領域内に入った被写体であって、該第1の被写体よりも近い距離の被写体である場合に制限することで、マスク処理を解除する領域と維持する領域とを適切に切り分けることができる。 According to the present invention, while maintaining the mask process for the first subject to be masked in the first region such as the privacy protection region, the second subject (for example, a closer distance that has entered the first region (for example, , The mask process for the subject to be monitored) can be canceled. The condition for canceling the mask processing for the second subject is limited to a case where the second subject is a subject that falls within the first area and is a subject closer to the first subject. Thus, the area for canceling the mask process and the area to be maintained can be appropriately separated.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図7には、本発明の実施例1であるネットワークカメラおよびクライアントコンピュータにより構成されるネットワークカメラシステムの構成を示す。図7において、701は様々な被写体を含むシーン(撮像範囲)702を撮像して映像データを生成するネットワークカメラ(映像サーバ)である。ネットワークカメラ701は生成した映像データを出力(送信)する。ネットワークカメラ701は、本発明にいう映像処理装置として機能する撮像装置である。
705は利用者及び管理者がネットワークカメラ701から転送された映像データを受信して表示するとともに、ネットワークカメラ701を制御するパーソナルコンピュータ(PC)等のクライアント端末である。703はインターネット等のネットワークであり、該ネットワーク703を介してネットワークカメラ701とクライアント端末705は映像データやカメラ制御信号等を送受信することができる。
撮像された映像データ704は、予め設定されたマスキング処理が施され、ネットワーク703を介して、クライアント端末705に伝送される。
図1には、ネットワークカメラ(以下、単にカメラという)701の構成を示している。101は固定の前玉レンズ(第1レンズ)である。102はズームレンズ(第2レンズ)であり、ステッピングモータ117によって光軸方向に移動されてズーム動作を行う。103はアイリス(絞り)であり、104は固定の第3レンズである。105はフォーカスレンズ(第4レンズ)であり、ステッピングモータ119によって光軸方向に移動されて焦点調節を行う。前玉レンズ101〜フォーカスレンズ105により撮影光学系が構成される。
106はCCDセンサやCMOSセンサ等の光電変換素子により構成され、撮影光学系により形成された被写体像を光電変換する撮像素子である。109は同期信号発生部(TG)、107は自動利得制御部(CDS/AGC)、108はA/D変換部、110は信号処理部、124は撮像に必要な各種データやプログラムが記憶されたメモリである。
122は撮影光学系からの光の中の不要な赤外成分を除去する赤外カットフィルタであり、121はダミーガラスである。ダミーガラス121は、シーンの輝度が低く、赤外カットフィルタ122を用いると十分な明るさの映像が得られない場合に赤外カットフィルタ122に置き換えられる。
123はカメラ701の動作の制御を司るマイクロコンピュータ(コントローラ)である。
125はカメラ701のパンニングおよびチルティングを行って撮影方向を変更する雲台である。116はAE(自動露出)/AWB(オートホワイトバランス)の評価値を検出するAE/AWB処理部である。115はAF(オートフォーカス)の評価値を検出するAF処理部である。
シーン701中の被写体からの光は、撮影光学系を通って撮像素子106の撮像面上に被写体像を形成する。被写体像は撮像素子106によって電気信号(アナログ信号)に変換され、該アナログ信号はAGC部107に入力される。AGC部107で信号増幅が行われたアナログ信号は、A/D変換部108でデジタル信号に変換される。
A/D変換部108からのデジタル信号に対して、信号処理部110にて色分離、ホワイトバランス、ガンマ補正等の映像処理が施されることで映像データ(映像信号)が生成される。撮像素子106、AGC部107、A/D変換部108および信号処理部110により撮像系が構成される。
信号処理部110から出力された映像データには、撮影情報付加部111にて、シャッタースピード等の撮影情報が付加される。そして、この映像データは、画像圧縮部112で圧縮される。
圧縮された映像データは、ネットワークインターフェース113およびネットワーク703を介して、図1に示したクライアント端末(以下、クライアントPCという)705に伝送される。
AF処理部115は、全画面の映像信号のうち所定のAF枠内の映像信号から高周波成分を抽出して該映像信号の鮮鋭度を示すAF評価値を生成する。AF評価値は、コントローラ123に供給され、コントローラ123はAF評価値が最大となるようにフォーカスレンズ105を移動させ、合焦対象の被写体にピントを合わせる。
映像データ上にてマスク処理が行われるプライバシー保護領域(第1の領域)は、例えばクライアントPC705上のアプリケーションを使用して設定され、カメラ701に転送される。また、パンニング、チルティング、ズーミング操作を行った場合でも、適切にプライバシー保護領域をマスキングできるように、映像データに対して随時補正が行われる。
図4(a)には、本実施例のカメラ701による撮像により得られる映像の例を示している。ここでは、カメラ701によって建物の玄関フロア(シーン)の内部を撮像する。この場合に、玄関ドアを通して建物の外に存在する自動車(第1の被写体)601を含む領域をプライバシー保護領域602として設定すると、図4(b)に示すようにプライバシー保護領域602にマスク処理が施された(マスクがかかった)出力映像が得られる。
ここで、映像中に玄関フロア内のカメラ701と玄関ドアとの間を横切る人物(第2の被写体)603が表れた場合、従来のマスク処理では以下のような問題があった。すなわち、プライバシー保護領域602が建物の外の自動車601に対して設定されているにもかかわらず、それよりも近い距離に位置する人物603にも、図5(a)に示すようにマスクがかかってしまい、人物603の一部(又は全体)を表示することができない。
このため、本実施例では、プライバシー保護対象に後述する距離に関する情報を付加することで、プライバシー保護領域602内(第1の領域内)に自動車601よりも近い距離に位置する人物603が写ったことを検出する。人物603はカメラ701を通じた監視対象である。したがって、図5(b)に示すように、自動車601に対するマスク処理を維持しつつ、人物603に対するマスク処理を解除する。これにより、人物603の全体を表示しながら自動車601にマスクがかかった出力映像が得られる。
映像中に人物603が写ったことを検出するための方法の例を以下に説明する。本実施例では、まず映像中の動きを検出する。具体的には、カメラ701からの映像データを構成するフレーム画像を複数(多数)の小領域に分割し、該分割された1つ1つの小領域の平均輝度を求める。そして、第1の時刻で求めた平均輝度と、第1の時刻から所定時間が経過した後の第2の時刻で求めた同じ小領域の平均輝度とを比較し、これらの間に所定の変化が生じたか否かを判定する。そして、このような変化があった小領域がひとかたまりの群を成している場合に、その群の領域で人物等の被写体が動いていると判定する。さらに、本実施例では、該動いている被写体までの距離が所定の近距離範囲に入っているかも判定する。これにより、図5に示すように、自動車601よりも近い距離に位置する人物603がプライバシー保護領域602内に入った(写った)ことを検出することができる。
次に、図2のフローチャートを用いて本実施例のカメラ701(主としてコントローラ123)の動作について説明する。この動作は、コントローラ123内に格納されたコンピュータプログラムに従って実行される。コントローラ123は、距離情報取得手段と、マスク処理手段と、被写体検出手段の機能を有する。
ステップ201では、コントローラ123は、マスク領域の設定データを読み出す。撮像により生成された映像データにおいてマスク処理を行う領域としてのマスク領域(図4および図5に示したプライバシー保護領域602)は、ユーザがクライアントPC705において任意に設定することができる。マスク領域の設定データは、クライアントPC705からネットワーク703を介してカメラ701に送信され、コントローラ123は、受信したマスク領域の設定データを読み出す。なお、マスク領域の設定は、カメラ701において行うことも可能である。
ステップ202では、コントローラ123は、マスクをかける第1の被写体(図4中の自動車601)に対してAFによるピント合わせを行う。そして、ピントが合った状態でのズームレンズ102およびフォーカスレンズ105の位置から、カメラ701から第1の被写体までの距離に関する情報を算出する。なお、ここにいう距離に関する情報とは、1つの数値としての距離であってもよいし、ある幅を持った距離範囲であってもよい。また、必ずしも直接、距離を示す情報でなくてもよく、距離に対応した情報であればよい。以下の説明においては、距離に関する情報が1つの数値としての距離を示すものとし、第1の被写体までの距離を、マスク領域距離という。
ステップ203では、コントローラ123は、雲台125におけるパン角度とチルト角度およびカメラ701のズーム位置(画角)を読み出す。
ステップ204では、コントローラ123は、ステップ201で読み出したマスク領域の設定データとステップ203で読み出したパン角度、チルト角度およびズーム位置とに基づいて、映像データ上にマスク領域を設定し、該マスク領域に対してマスク処理を行う。これにより、例えば図4(b)に示した映像が得られる。
次にステップ205では、コントローラ123は、前述した方法によって映像中(ただし、マスク領域中)の動きを検出する。
ステップ206では、コントローラ123は、マスク領域中において動き、つまりは動く第2の被写体(図5中の人物603)が検出された動き領域(第2の領域)を設定する。
ステップ207では、コントローラ123は、AFによって第2の被写体にピント合わせを行う。そして、ピントが合った状態でのズームレンズ102およびフォーカスレンズ105の位置から、カメラ701から第2の被写体までの距離情報(距離に関する情報)を算出する。ここでの距離情報も、第1の被写体までの距離情報と同様に、1つの数値としての距離であってもよいし、ある幅を持った距離範囲であってもよい。また、必ずしも直接、距離を示す情報でなくてもよく、距離に対応した情報であればよい。
以下の説明においては、距離に関する情報が1つの数値としての距離を示すものとし、第2の被写体までの距離を、動き領域距離という。
ステップ208では、コントローラ123は、動き領域距離が、ステップ202で得られたマスク領域距離よりも所定値以上近い距離範囲内の距離か否かを判定する。図4および図5の例では、マスク領域距離(自動車601までの距離)が5mを示し、所定値を1m(玄関ドアを含む距離範囲)とする場合、動き領域距離情報(人物703までの距離)が4m以下の近距離範囲内の距離を示すか否かを判定する。動き領域距離がマスク領域距離よりも所定値以上近い距離範囲内の距離であればステップ210に進み、そうでなければステップ209に進む。
ステップ209では、コントローラ123は、マスク領域全体のマスク処理を維持した出力映像を生成する。そして、ステップ211に進む。
ステップ210では、コントローラ123は、マスク領域のうち動き領域ではマスク処理を解除し、動き領域以外(第2の領域以外)の領域(人物703が存在せずに自動車601のみが存在している領域)ではマスク処理を維持した出力映像を生成する。そして、ステップ211に進む。
ステップ211では、コントローラ123は、生成した出力映像をネットワーク703を介してクライアントPC705に配信する。
以上説明したように、本実施例によれば、プライバシー保護領域に距離情報を付加することにより、プライバシー保護対象と監視対象との判別が容易となる。このため、プライバシー保護対象についてはマスクをかけ、監視対象についてはマスクをかけることなく表示する出力映像を生成することができる。
また、前述したように、本実施例では、動き領域距離がマスク領域距離よりも所定値以上近い距離範囲内の距離である場合に限って動き領域のマスク処理を解除する。これにより、図6に示すように、建物の外であるが自動車601よりも手前(近い距離の位置)に人物604が表れた場合に、この人物604に対するマスク処理が解除されてしまうことを回避できる。すなわち、人物604が表れた場合でも、図5(b)に示すような出力映像が得られる。
なお、本実施例では、ズームレンズ102およびフォーカスレンズ105の位置から被写体までの距離情報を算出(取得)する場合について説明したが、不図示の外部測距センサを用いて被写体までの距離情報を取得するようにしてもよい。
FIG. 7 shows a configuration of a network camera system including the network camera and the client computer that are Embodiment 1 of the present invention. In FIG. 7, reference numeral 701 denotes a network camera (video server) that captures a scene (imaging range) 702 including various subjects and generates video data. The network camera 701 outputs (transmits) the generated video data. The network camera 701 is an imaging device that functions as a video processing device according to the present invention.
Reference numeral 705 denotes a client terminal such as a personal computer (PC) that controls the network camera 701 while receiving and displaying the video data transferred from the network camera 701 by the user and the administrator. Reference numeral 703 denotes a network such as the Internet, and the network camera 701 and the client terminal 705 can transmit and receive video data, camera control signals, and the like via the network 703.
The captured video data 704 is subjected to a masking process set in advance and is transmitted to the client terminal 705 via the network 703.
FIG. 1 shows a configuration of a network camera (hereinafter simply referred to as a camera) 701. Reference numeral 101 denotes a fixed front lens (first lens). A zoom lens (second lens) 102 is moved in the optical axis direction by a stepping motor 117 to perform a zoom operation. Reference numeral 103 denotes an iris (aperture), and reference numeral 104 denotes a fixed third lens. A focus lens (fourth lens) 105 is moved in the optical axis direction by a stepping motor 119 to perform focus adjustment. The front lens 101 to the focus lens 105 constitute a photographing optical system.
Reference numeral 106 denotes an image sensor that is composed of a photoelectric conversion element such as a CCD sensor or a CMOS sensor and photoelectrically converts a subject image formed by the photographing optical system. 109 is a sync signal generator (TG), 107 is an automatic gain controller (CDS / AGC), 108 is an A / D converter, 110 is a signal processor, and 124 stores various data and programs necessary for imaging. It is memory.
Reference numeral 122 denotes an infrared cut filter for removing unnecessary infrared components in the light from the photographing optical system, and reference numeral 121 denotes a dummy glass. The dummy glass 121 is replaced with the infrared cut filter 122 when the brightness of the scene is low and an image with sufficient brightness cannot be obtained when the infrared cut filter 122 is used.
Reference numeral 123 denotes a microcomputer (controller) that controls the operation of the camera 701.
Reference numeral 125 denotes a pan head for changing the shooting direction by performing panning and tilting of the camera 701. Reference numeral 116 denotes an AE / AWB processing unit that detects an evaluation value of AE (automatic exposure) / AWB (auto white balance). Reference numeral 115 denotes an AF processing unit that detects an AF (autofocus) evaluation value.
Light from the subject in the scene 701 forms a subject image on the imaging surface of the image sensor 106 through the photographing optical system. The subject image is converted into an electrical signal (analog signal) by the image sensor 106, and the analog signal is input to the AGC unit 107. The analog signal subjected to signal amplification by the AGC unit 107 is converted into a digital signal by the A / D conversion unit 108.
The digital signal from the A / D conversion unit 108 is subjected to video processing such as color separation, white balance, and gamma correction in the signal processing unit 110 to generate video data (video signal). The imaging device 106, the AGC unit 107, the A / D conversion unit 108, and the signal processing unit 110 constitute an imaging system.
Shooting information such as shutter speed is added to the video data output from the signal processing unit 110 by the shooting information adding unit 111. The video data is compressed by the image compression unit 112.
The compressed video data is transmitted to the client terminal (hereinafter referred to as client PC) 705 shown in FIG. 1 via the network interface 113 and the network 703.
The AF processing unit 115 extracts a high-frequency component from the video signal within a predetermined AF frame from the video signal of the entire screen, and generates an AF evaluation value indicating the sharpness of the video signal. The AF evaluation value is supplied to the controller 123. The controller 123 moves the focus lens 105 so that the AF evaluation value is maximized, and focuses on the subject to be focused.
The privacy protection area (first area) on which the mask processing is performed on the video data is set using, for example, an application on the client PC 705 and transferred to the camera 701. Even when panning, tilting, and zooming operations are performed, the video data is corrected as needed so that the privacy protection area can be appropriately masked.
FIG. 4A shows an example of an image obtained by imaging with the camera 701 of this embodiment. Here, the inside of the entrance floor (scene) of the building is imaged by the camera 701. In this case, if an area including the automobile (first subject) 601 existing outside the building through the entrance door is set as the privacy protection area 602, the privacy protection area 602 is masked as shown in FIG. 4B. An output image with a mask applied is obtained.
Here, when a person (second subject) 603 crossing between the camera 701 and the entrance door in the entrance floor appears in the video, the conventional mask processing has the following problems. That is, even though the privacy protection area 602 is set for the automobile 601 outside the building, the person 603 located at a closer distance than that is also masked as shown in FIG. Therefore, a part (or the whole) of the person 603 cannot be displayed.
For this reason, in this embodiment, by adding information about the distance described later to the privacy protection target, the person 603 located at a distance closer to the automobile 601 is shown in the privacy protection area 602 (in the first area). Detect that. A person 603 is a monitoring target through the camera 701. Therefore, as shown in FIG. 5B, the mask process for the person 603 is canceled while the mask process for the automobile 601 is maintained. As a result, an output image in which the automobile 601 is masked while displaying the entire person 603 is obtained.
An example of a method for detecting that the person 603 is captured in the video will be described below. In this embodiment, first, a motion in a video is detected. Specifically, the frame image constituting the video data from the camera 701 is divided into a plurality (large number) of small areas, and the average luminance of each of the divided small areas is obtained. Then, the average luminance obtained at the first time is compared with the average luminance of the same small area obtained at the second time after a predetermined time has elapsed from the first time, and a predetermined change is made between them. It is determined whether or not an error has occurred. When the small areas having such changes form a group, it is determined that a subject such as a person is moving in the group area. Furthermore, in this embodiment, it is also determined whether the distance to the moving subject is within a predetermined short distance range. As a result, as shown in FIG. 5, it is possible to detect that a person 603 located closer to the distance than the automobile 601 has entered (taken into) the privacy protection area 602.
Next, the operation of the camera 701 (mainly the controller 123) of this embodiment will be described using the flowchart of FIG. This operation is executed according to a computer program stored in the controller 123. The controller 123 has functions of a distance information acquisition unit, a mask processing unit, and a subject detection unit.
In step 201, the controller 123 reads the mask area setting data. A user can arbitrarily set a mask area (privacy protection area 602 shown in FIGS. 4 and 5) as an area to be masked in video data generated by imaging on the client PC 705. The mask area setting data is transmitted from the client PC 705 to the camera 701 via the network 703, and the controller 123 reads the received mask area setting data. Note that the mask area can also be set by the camera 701.
In step 202, the controller 123 performs AF focusing on the first subject to be masked (the car 601 in FIG. 4). Then, information regarding the distance from the camera 701 to the first subject is calculated from the positions of the zoom lens 102 and the focus lens 105 in a focused state. Note that the distance-related information referred to here may be a distance as a single numerical value, or a distance range having a certain width. Further, the information may not necessarily be information directly indicating the distance, and may be information corresponding to the distance. In the following description, it is assumed that the information regarding the distance indicates a distance as one numerical value, and the distance to the first subject is referred to as a mask area distance.
In step 203, the controller 123 reads the pan angle and tilt angle of the camera platform 125 and the zoom position (view angle) of the camera 701.
In step 204, the controller 123 sets a mask area on the video data based on the mask area setting data read in step 201 and the pan angle, tilt angle, and zoom position read in step 203. Mask processing is performed on Thereby, for example, an image shown in FIG. 4B is obtained.
Next, in step 205, the controller 123 detects the movement in the video (however, in the mask area) by the method described above.
In step 206, the controller 123 sets a motion region (second region) in which a motion, that is, a moving second subject (person 603 in FIG. 5) is detected in the mask region.
In step 207, the controller 123 focuses on the second subject by AF. Then, distance information (information regarding distance) from the camera 701 to the second subject is calculated from the positions of the zoom lens 102 and the focus lens 105 in a focused state. The distance information here may be a distance as one numerical value, or a distance range having a certain width, like the distance information to the first subject. Further, the information may not necessarily be information directly indicating the distance, and may be information corresponding to the distance.
In the following description, it is assumed that the information regarding the distance indicates a distance as one numerical value, and the distance to the second subject is referred to as a motion region distance.
In step 208, the controller 123 determines whether or not the motion region distance is within a distance range that is closer than the mask region distance obtained in step 202 by a predetermined value or more. 4 and 5, when the mask area distance (distance to the car 601) indicates 5 m and the predetermined value is 1 m (distance range including the front door), the movement area distance information (distance to the person 703) ) Indicates a distance within a short distance range of 4 m or less. If the movement area distance is within a distance range that is closer than the mask area distance by a predetermined value or more, the process proceeds to step 210; otherwise, the process proceeds to step 209.
In step 209, the controller 123 generates an output video that maintains the mask processing of the entire mask area. Then, the process proceeds to Step 211.
In step 210, the controller 123 cancels the mask processing in the motion area of the mask area, and the area other than the motion area (other than the second area) (the person 703 does not exist and only the automobile 601 exists). ) Generates an output video maintaining the mask processing. Then, the process proceeds to Step 211.
In step 211, the controller 123 distributes the generated output video to the client PC 705 via the network 703.
As described above, according to the present embodiment, by adding distance information to the privacy protection area, it becomes easy to distinguish between the privacy protection target and the monitoring target. Therefore, it is possible to generate an output video to be displayed without masking the privacy protection target and without masking the monitoring target.
Further, as described above, in this embodiment, the masking process of the motion area is canceled only when the motion area distance is a distance within a distance range that is closer than the mask area distance by a predetermined value or more. As a result, as shown in FIG. 6, when the person 604 appears outside the building but in front of the car 601 (closer distance), the mask process for the person 604 is prevented from being released. it can. That is, even when the person 604 appears, an output video as shown in FIG. 5B is obtained.
In this embodiment, the case of calculating (acquiring) the distance information from the position of the zoom lens 102 and the focus lens 105 to the subject has been described. However, the distance information to the subject is calculated using an external distance measuring sensor (not shown). You may make it acquire.
図3のフローチャートには、本発明の実施例2であるネットワークカメラの動作を示している。本実施例のネットワークカメラおよびこれを含むネットワークカメラシステムの構成は実施例1と基本的に同じであるので、ここでの説明は省略する。また、実施例1と共通する又は同様の機能を有する構成要素には、実施例1と同じ符号を付す。
本実施例では、マスク領域を複数のブロックに細分化し、マスク領域距離よりも近い距離の範囲において動き検出がなされていない状態のフレーム画像をブロック単位で基準情報(言い換えれば、基準画像)として設定し、不図示の画像メモリに保存する。そして、ブロックごとに、順次得られるフレーム画像の輝度、色相およびAF評価値(鮮鋭度)を基準情報のそれらと比較し、差が発生した場合にマスク領域中に新たな被写体(第2の被写体)が表れた(写った)と判定する。この新たな被写体は、静止した被写体であってもよい。
ステップ301からステップ305での処理は、実施例1(図2)にて説明したステップ201からステップ205での処理と同じである。
ステップ306では、コントローラ123は、実施例1のステップ206〜208と同様にして、マスク領域距離よりも近距離範囲において動きが検出されたか否かを判定する。動きが検出された場合はステップ308に進み、検出されない場合はステップ307に進む。
ステップ307では、コントローラ123は、上述した基準情報を画像メモリに取り込む(更新する)。
ステップ308では、コントローラ123は、現在のフレーム画像の輝度、色相およびAF評価値を基準情報のそれらと比較する。すなわち、映像の輝度、色相およびAF評価値における変化を検出する。
ステップ309では、コントローラ123は、映像の変化がマスク領域内で発生したか否かを判定する。マスク領域内で映像の変化が発生した場合はステップ311に進み、マスク領域外で映像の変化が発生した場合はステップ310に進む。
ステップ310では、コントローラ123は、マスク領域全体のマスク処理を維持した出力映像を生成する。そして、ステップ312に進む。
ステップ311では、コントローラ123は、マスク領域のうち映像の変化が発生した領域(第2の領域)についてはマスク処理を解除し、動き領域以外の領域についてはマスク処理を維持した出力映像を生成する。そして、ステップ312に進む。
ステップ312では、コントローラ123は、生成した出力映像をネットワーク703を介してクライアントPC705に配信する。
本実施例によれば、マスク領域中に基準画像に対して相違する部分が発生した場合にはその相違部分のマスク処理を解除するので、マスク領域内に危険物(静止物)が置き去りにされたような場合でもこれを検出することが可能となる。
なお、基準画像に対する各フレーム画像中の相違部分の発生の有無は、前述した輝度、色相およびAF評価値だけでなく、被写体までの距離情報や画像の高調波成分の評価によっても検出が可能である。
The flowchart of FIG. 3 shows the operation of the network camera that is Embodiment 2 of the present invention. Since the configuration of the network camera of the present embodiment and the network camera system including the same are basically the same as those of the first embodiment, description thereof is omitted here. In addition, the same reference numerals as those in the first embodiment are given to components having the same or similar functions as those in the first embodiment.
In this embodiment, the mask area is subdivided into a plurality of blocks, and a frame image in a state where motion detection is not performed within a distance range closer to the mask area distance is set as reference information (in other words, a reference image) in units of blocks. And stored in an image memory (not shown). Then, the luminance, hue, and AF evaluation value (sharpness) of the frame image obtained sequentially for each block are compared with those of the reference information, and if a difference occurs, a new subject (second subject) is created in the mask area. ) Appears (shown). This new subject may be a stationary subject.
The processing from step 301 to step 305 is the same as the processing from step 201 to step 205 described in the first embodiment (FIG. 2).
In step 306, the controller 123 determines whether or not a motion is detected in a range closer to the mask area than in the steps 206 to 208 in the first embodiment. If motion is detected, the process proceeds to step 308, and if not detected, the process proceeds to step 307.
In step 307, the controller 123 takes (updates) the above-described reference information into the image memory.
In step 308, the controller 123 compares the brightness, hue, and AF evaluation value of the current frame image with those of the reference information. That is, changes in the luminance, hue, and AF evaluation value of the video are detected.
In step 309, the controller 123 determines whether or not a video change has occurred in the mask area. If a video change occurs within the mask area, the process proceeds to step 311, and if a video change occurs outside the mask area, the process proceeds to step 310.
In step 310, the controller 123 generates an output video that maintains the mask processing of the entire mask area. Then, the process proceeds to step 312.
In step 311, the controller 123 cancels the mask process for the area (second area) in which the image change has occurred in the mask area, and generates an output image in which the mask process is maintained for areas other than the motion area. . Then, the process proceeds to step 312.
In step 312, the controller 123 distributes the generated output video to the client PC 705 via the network 703.
According to the present embodiment, when a different portion from the reference image occurs in the mask area, the mask processing of the different portion is canceled, so that a dangerous object (stationary object) is left in the mask area. Even in such a case, this can be detected.
Note that the presence / absence of a different portion in each frame image with respect to the reference image can be detected not only by the above-described luminance, hue, and AF evaluation value, but also by evaluation of distance information to the subject and harmonic components of the image. is there.
本発明の実施例3であるネットワークカメラシステムについて説明する。本実施例のネットワークカメラシステムの構成は実施例1(図7)と同じである。また、ネットワークカメラの構成も基本的には実施例1(図1)と同じである。
図7において、クライアントPC705は、利用者及び管理者がネットワークカメラ701から転送された映像データを受信して記録する録画サーバとして機能する。また、クライアントPC705は、該映像データを表示するとともに、ネットワークカメラ701を制御する。録画サーバは、監視映像、マスキング設定領域およびマスキングデータの送信を行う。録画サーバ上でも、通常再生時には、マスク処理を施した上で表示を行う。
プライバシー保護領域での監視対象の被写体に対するマスキングの解除処理は、クライアントPC705、つまりは録画サーバ上でも可能である。これにより、映像情報がマスキングによって欠落することなく伝送でき、かつ暗号化を施すことで、画像の流出等も防止できる。また、必要であれば、マスク設定を解除することで、映像を欠落することなく精査可能となる。
図8のフローチャートには、本実施例のネットワークカメラ701の動作を示している。
ステップ401からステップ409での処理は、実施例2(図3)にて説明したステップ301からステップ309での処理と同じである。
ステップ409において映像の変化がマスク領域内で発生したと判定した場合は、コントローラ123はステップ411に進み、マスク領域外で映像の変化が発生したと判定した場合はステップ410に進む。
ステップ410では、コントローラ123は、マスク領域全体のマスク処理を維持した出力映像を生成する。そして、ステップ412に進む。
ステップ411では、コントローラ123は、マスク領域のうち映像の変化が発生した領域(第2の領域)についてはマスク処理を解除し、動き領域以外の領域についてはマスク処理を維持した出力映像を生成する。そして、ステップ412に進む。
ステップ412では、コントローラ123は、ステップ410,411におけるマスク処理(またはその解除処理)に関する情報(以下、マスク処理情報という)を付加した出力映像を暗号化する。
そして、ステップ412では、コントローラ123は、暗号化した出力映像とマスク処理情報をネットワーク703を介してクライアントPC705に配信する。
図9のフローチャートには、本実施例のクライアントPC705の動作を示している。
ステップ501では、クライアントPC705は、ネットワークカメラ701から転送された、暗号化された映像データおよびマスク処理情報を受信する。本実施例では、コントローラ123およびクライアントPC705がマスク処理手段として機能する。
ステップ502では、クライアントPC705は、映像データの暗号を解除する。
そして、ステップ503では、クライアントPC705は、マスク処理情報を読み出す。
ステップ504では、クライアントPC705は、マスク処理を行わないことを示すマスク解除コードが入力されたか否かを判定する。該マスク解除コードが入力されない場合はステップ505に進み、該マスク解除コードが入力された場合はステップ506に進む。
ステップ505では、クライアントPC705は、マスク処理情報に従って、映像データに対するマスク処理を行う。そして、ステップ506に進む。
ステップ506では、マスク処理がなされた又はマスク処理がなされていない映像データをモニタに表示する。そして、本処理を終了する。
このように、ネットワークを前提としたネットワークカメラシステムでは、ネットワークカメラとクライアントとの間での暗号化通信が可能であり、保存した映像データにもセキュリティを施すことが可能である。そして、再生時に常にマスキングした画像を表示さすることが可能である。
また、アクセス権のレベルを設定することにより、プライバシー保護領域を解除した映像の再生も可能となる。
プライバシー保護領域に距離情報を加えることで、動き検出された監視対象の測距により、プライバシー保護領域内での動体か、監視対象の動きかを見分けることが可能となり、より正確なマスク解除が可能となる。
A network camera system that is Embodiment 3 of the present invention will be described. The configuration of the network camera system of the present embodiment is the same as that of the first embodiment (FIG. 7). The configuration of the network camera is basically the same as that of the first embodiment (FIG. 1).
In FIG. 7, a client PC 705 functions as a recording server that receives and records video data transferred from the network camera 701 by a user and an administrator. The client PC 705 displays the video data and controls the network camera 701. The recording server transmits the monitoring video, the masking setting area, and the masking data. Even on the recording server, during normal playback, display is performed after masking.
The masking cancellation processing for the subject to be monitored in the privacy protection area can also be performed on the client PC 705, that is, the recording server. Thereby, the video information can be transmitted without being lost by masking, and the outflow of the image can be prevented by performing the encryption. Further, if necessary, it is possible to examine the image without missing the image by canceling the mask setting.
The flowchart of FIG. 8 shows the operation of the network camera 701 of this embodiment.
The processing from step 401 to step 409 is the same as the processing from step 301 to step 309 described in the second embodiment (FIG. 3).
If it is determined in step 409 that a video change has occurred in the mask area, the controller 123 proceeds to step 411, and if it is determined that a video change has occurred outside the mask area, the process proceeds to step 410.
In step 410, the controller 123 generates an output video that maintains the mask processing of the entire mask area. Then, the process proceeds to Step 412.
In step 411, the controller 123 cancels the mask process for the area (second area) in which the video change has occurred in the mask area, and generates an output video in which the mask process is maintained for areas other than the motion area. . Then, the process proceeds to Step 412.
In step 412, the controller 123 encrypts the output video to which information (hereinafter referred to as mask processing information) related to the mask processing (or its cancellation processing) in steps 410 and 411 is added.
In step 412, the controller 123 delivers the encrypted output video and mask processing information to the client PC 705 via the network 703.
The flowchart of FIG. 9 shows the operation of the client PC 705 of this embodiment.
In step 501, the client PC 705 receives the encrypted video data and mask processing information transferred from the network camera 701. In this embodiment, the controller 123 and the client PC 705 function as mask processing means.
In step 502, the client PC 705 removes the encryption of the video data.
In step 503, the client PC 705 reads mask processing information.
In step 504, the client PC 705 determines whether or not a mask release code indicating that mask processing is not performed has been input. If the mask release code is not input, the process proceeds to step 505. If the mask release code is input, the process proceeds to step 506.
In step 505, the client PC 705 performs mask processing on the video data according to the mask processing information. Then, the process proceeds to step 506.
In step 506, video data that has been masked or not masked is displayed on the monitor. Then, this process ends.
As described above, in the network camera system based on the network, encrypted communication can be performed between the network camera and the client, and the stored video data can be secured. It is possible to display a masked image at all times during reproduction.
Also, by setting the level of access right, it is possible to reproduce the video without the privacy protection area.
By adding distance information to the privacy protection area, it is possible to distinguish between a moving object in the privacy protection area and a movement of the monitoring object by measuring the distance of the monitoring object whose motion has been detected. It becomes.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment when the present invention is implemented.
撮像により得られた映像においてプライバシー保護領域でのマスク処理を維持しつつ、該保護領域内に入った監視対象の被写体がマスクされない映像処理装置を提供できる。 It is possible to provide an image processing apparatus that maintains mask processing in a privacy protection area in an image obtained by imaging and does not mask a subject to be monitored that enters the protection area.
123 コントローラ
601,603 被写体
602 マスク領域(プライバシー保護領域)
701 ネットワークカメラ
705 クライアント端末(PC)
123 controller 601 603 subject 602 mask area (privacy protection area)
701 Network camera 705 Client terminal (PC)
Claims (3)
第1の被写体を含むシーンの撮像により生成された映像のうち該第1の被写体が写った第1の領域にマスク処理を行うマスク処理手段と、
前記撮像を行う撮像装置から被写体までの距離に関する情報を用いて、前記映像における前記第1の領域内に前記第1の被写体よりも近い距離に位置する第2の被写体が写ったことを検出する被写体検出手段とを有し、
前記マスク処理手段は、前記第1の領域のうち、前記第2の被写体が写っている第2の領域での前記マスク処理を解除し、該第2の領域以外の領域での前記マスク処理を維持した出力映像を生成することを特徴とする映像処理装置。 A video processing device for processing video generated by imaging,
Mask processing means for performing mask processing on a first region in which the first subject is captured in an image generated by imaging a scene including the first subject;
Using information on the distance from the imaging device that performs the imaging to the subject, it is detected that the second subject located at a distance closer to the first subject in the first region in the video is captured. Subject detection means,
The mask processing means cancels the mask processing in a second region in which the second subject is reflected in the first region, and performs the mask processing in a region other than the second region. An image processing apparatus for generating a maintained output image.
請求項1又は2に記載の映像処理装置とを有することを特徴とする撮像装置。 An imaging system for generating an image by imaging;
An imaging apparatus comprising the video processing apparatus according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009287984A JP2011130271A (en) | 2009-12-18 | 2009-12-18 | Imaging device and video processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009287984A JP2011130271A (en) | 2009-12-18 | 2009-12-18 | Imaging device and video processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011130271A true JP2011130271A (en) | 2011-06-30 |
JP2011130271A5 JP2011130271A5 (en) | 2013-02-07 |
Family
ID=44292345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009287984A Pending JP2011130271A (en) | 2009-12-18 | 2009-12-18 | Imaging device and video processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011130271A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651794A (en) * | 1992-07-28 | 1994-02-25 | Matsushita Electric Works Ltd | Speech recognition system |
JPH0865425A (en) * | 1994-08-26 | 1996-03-08 | Ricoh Co Ltd | Digital copying machine network system |
JPH0928410A (en) * | 1995-07-15 | 1997-02-04 | Morita Sangyo Kk | Footwear insole |
JP2011138409A (en) * | 2009-12-28 | 2011-07-14 | Sogo Keibi Hosho Co Ltd | Image sensor, monitoring system, and image processing method of the image sensor |
JP6098963B1 (en) * | 2016-06-20 | 2017-03-22 | パナソニックIpマネジメント株式会社 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
JP6098964B1 (en) * | 2016-06-20 | 2017-03-22 | パナソニックIpマネジメント株式会社 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
JP6112436B1 (en) * | 2016-06-20 | 2017-04-12 | パナソニックIpマネジメント株式会社 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
JP2017201745A (en) * | 2016-05-02 | 2017-11-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10755388B2 (en) | 2018-05-03 | 2020-08-25 | Axis Ab | Method, device and system for a degree of blurring to be applied to image data in a privacy area of an image |
SE1951220A1 (en) * | 2019-10-25 | 2021-04-26 | Assa Abloy Ab | Controlling camera-based supervision of a physical space |
WO2023175728A1 (en) * | 2022-03-15 | 2023-09-21 | 日本電気株式会社 | Processing device, processing method, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003061076A (en) * | 2001-08-10 | 2003-02-28 | Sogo Keibi Hosho Co Ltd | Supervisory device, supervisory method and program for making computer execute the method |
JP2006304250A (en) * | 2005-03-23 | 2006-11-02 | Victor Co Of Japan Ltd | Image processor |
JP2007243509A (en) * | 2006-03-08 | 2007-09-20 | Hitachi Ltd | Image processing device |
JP2009225398A (en) * | 2008-03-19 | 2009-10-01 | Secom Co Ltd | Image distribution system |
-
2009
- 2009-12-18 JP JP2009287984A patent/JP2011130271A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003061076A (en) * | 2001-08-10 | 2003-02-28 | Sogo Keibi Hosho Co Ltd | Supervisory device, supervisory method and program for making computer execute the method |
JP2006304250A (en) * | 2005-03-23 | 2006-11-02 | Victor Co Of Japan Ltd | Image processor |
JP2007243509A (en) * | 2006-03-08 | 2007-09-20 | Hitachi Ltd | Image processing device |
JP2009225398A (en) * | 2008-03-19 | 2009-10-01 | Secom Co Ltd | Image distribution system |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651794A (en) * | 1992-07-28 | 1994-02-25 | Matsushita Electric Works Ltd | Speech recognition system |
JPH0865425A (en) * | 1994-08-26 | 1996-03-08 | Ricoh Co Ltd | Digital copying machine network system |
JPH0928410A (en) * | 1995-07-15 | 1997-02-04 | Morita Sangyo Kk | Footwear insole |
JP2011138409A (en) * | 2009-12-28 | 2011-07-14 | Sogo Keibi Hosho Co Ltd | Image sensor, monitoring system, and image processing method of the image sensor |
JP2017201745A (en) * | 2016-05-02 | 2017-11-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6112436B1 (en) * | 2016-06-20 | 2017-04-12 | パナソニックIpマネジメント株式会社 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
JP6098964B1 (en) * | 2016-06-20 | 2017-03-22 | パナソニックIpマネジメント株式会社 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
JP6098963B1 (en) * | 2016-06-20 | 2017-03-22 | パナソニックIpマネジメント株式会社 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
JP2017228855A (en) * | 2016-06-20 | 2017-12-28 | パナソニックIpマネジメント株式会社 | Monitoring system, video display method, and computer program |
JP2017228854A (en) * | 2016-06-20 | 2017-12-28 | パナソニックIpマネジメント株式会社 | Monitoring system, video display method, and computer program |
JP2017228852A (en) * | 2016-06-20 | 2017-12-28 | パナソニックIpマネジメント株式会社 | Monitoring system, video display method, and computer program |
US10755388B2 (en) | 2018-05-03 | 2020-08-25 | Axis Ab | Method, device and system for a degree of blurring to be applied to image data in a privacy area of an image |
SE1951220A1 (en) * | 2019-10-25 | 2021-04-26 | Assa Abloy Ab | Controlling camera-based supervision of a physical space |
WO2023175728A1 (en) * | 2022-03-15 | 2023-09-21 | 日本電気株式会社 | Processing device, processing method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011130271A (en) | Imaging device and video processing apparatus | |
JP2011130271A5 (en) | ||
KR102010228B1 (en) | Image processing apparatus, image processing method, and program | |
JP6732902B2 (en) | Imaging device and imaging system | |
JP4614653B2 (en) | Monitoring device | |
US7916182B2 (en) | Imaging device and method which performs face recognition during a timer delay | |
JP4942185B2 (en) | Imaging apparatus, pan head control method, program, and storage medium | |
US20060170772A1 (en) | Surveillance system and method | |
KR102183903B1 (en) | Surveillance camera and control method thereof | |
JP2005175853A (en) | Imaging apparatus and imaging system | |
JP2006081125A (en) | Imaging system and imaging method | |
JP2022189835A (en) | Imaging apparatus | |
KR100995949B1 (en) | Image processing device, camera device and image processing method | |
JP5187275B2 (en) | Photographing method and photographing apparatus | |
JP2006184065A (en) | Object detector | |
JP2009229584A (en) | Autofocus system | |
JP2010072134A (en) | Imaging apparatus | |
JP2008187590A (en) | Photographing apparatus, and photographing method | |
JP2016219905A (en) | Imaging apparatus, and control method and control program of the same | |
KR102009924B1 (en) | System for monitoring image and operating method thereof | |
KR101299988B1 (en) | Tracking control system using audio/video information | |
JP2011176868A (en) | Imaging apparatus | |
KR101648561B1 (en) | Security camera | |
JP2010087676A (en) | Video camera system having feature determination function | |
JP2004236235A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131112 |