JP2005294912A - Method of generating monitoring image - Google Patents

Method of generating monitoring image Download PDF

Info

Publication number
JP2005294912A
JP2005294912A JP2004102839A JP2004102839A JP2005294912A JP 2005294912 A JP2005294912 A JP 2005294912A JP 2004102839 A JP2004102839 A JP 2004102839A JP 2004102839 A JP2004102839 A JP 2004102839A JP 2005294912 A JP2005294912 A JP 2005294912A
Authority
JP
Japan
Prior art keywords
image
private
area
monitoring
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004102839A
Other languages
Japanese (ja)
Other versions
JP4311255B2 (en
Inventor
Shintaro Otsuka
真太郎 大塚
Kohei Yamashita
浩平 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004102839A priority Critical patent/JP4311255B2/en
Publication of JP2005294912A publication Critical patent/JP2005294912A/en
Application granted granted Critical
Publication of JP4311255B2 publication Critical patent/JP4311255B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize a method of generating a monitoring image which can synthesize a private region image photographed in the past with an image other than a currently photographed private region, and naturally displaying the composite image. <P>SOLUTION: A region deciding means 121 sets a boundary frame having a predetermined boundary width in the photographing region of a monitoring camera, and an image extracting means 124 extracts the private region image designated by the boundary frame and a region excluding image surrounded by the inner side of the boundary frame from a photographic image of the monitoring camera. A motion determining means 129 compares the private region image with the past private region past image, and the private region image photographed in the past is acquired as a private protection image if the position of an object has not changed, and the private region past image is acquired as the private protection image if it has changed. An adder 337 sequentially switches the private protection image and the private region excluding image to generate a replaced monitoring image. Thus, the monitoring image signal generating device is realized. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、プライバシー保護のため、予め撮像を禁止する被写領域を設定し、その設定部分の画像をマスクする機能を備えた監視画像の生成方法に関するものである。   The present invention relates to a method for generating a monitoring image having a function of previously setting a subject area for which imaging is prohibited for privacy protection and masking an image of the set portion.

近年、カメラとカメラの回転台とをドーム型のハウジングに収めたドームカメラと呼ばれるカメラが監視用カメラとして用いられるようになってきた。このドームカメラは、カメラが固定される回転台の動きにより水平方向の回転(パン)及び垂直方向の回転(チルト)を行いながら監視映像の撮影を行う。パン方向には360度のエンドレス回転を、チルト方向には0度から90度の上下方向の回転を行う。そのドームカメラを野外や建物の天井などに設置し、ユーザは接続されるコントローラを操作することにより、所望の視野角の画像を監視する。   In recent years, a camera called a dome camera in which a camera and a camera turntable are housed in a dome-shaped housing has been used as a surveillance camera. This dome camera shoots a surveillance video while performing horizontal rotation (panning) and vertical rotation (tilting) by the movement of a turntable to which the camera is fixed. An endless rotation of 360 degrees is performed in the pan direction, and a vertical rotation of 0 to 90 degrees is performed in the tilt direction. The dome camera is installed outdoors or on the ceiling of a building, and the user monitors an image with a desired viewing angle by operating a connected controller.

図6に、ネットワークカメラを用いた監視システムの構成図を示し説明する。
ネットワークカメラ31で撮像した画像はMPEG−4などの方式で圧縮符号化され、ネットワーク32を介してPC33に供給される。そこで復号化がなされて得られる画像信号がモニタ34に表示される。そのPC33のモニタ画面34には、ネットワークカメラ31で撮像した画像のほか、撮影の方向を指示する操作部として画面下部にテンキー34a、上下左右ボタン34b、ズームボタン34c、及びメニューボタン34dが表示されている。
FIG. 6 illustrates a configuration diagram of a monitoring system using a network camera.
An image captured by the network camera 31 is compressed and encoded by a method such as MPEG-4 and supplied to the PC 33 via the network 32. Therefore, an image signal obtained by decoding is displayed on the monitor 34. On the monitor screen 34 of the PC 33, in addition to the image taken by the network camera 31, a numeric keypad 34a, up / down / left / right buttons 34b, a zoom button 34c, and a menu button 34d are displayed at the bottom of the screen as an operation unit for instructing the shooting direction. ing.

ネットワークカメラ31は、例えば店舗の出入り口、キャッシャー、窓など、通常監視を行う場所の撮影には、プリセットポジション用の番号が振られ、その方向が登録されている。モニタ画面34のテンキー34aの番号をマウスでクリックすると、ネットワークカメラ31はその番号のプリセットポジションを向いて撮影を行う。   The network camera 31 is assigned a number for a preset position and registers the direction for shooting in a place where normal monitoring is performed, such as a store entrance / exit, a cashier, and a window. When the number of the numeric keypad 34a on the monitor screen 34 is clicked with the mouse, the network camera 31 takes a picture by facing the preset position of that number.

またプリセットポジション以外のところを監視する場合は、モニタ画面34の上下左右ボタン34bを操作して、カメラを任意の方向に向けられる。上下左右ボタン34bをクリックすると、ネットワークカメラ31はボタンをクリックした回数に応じた角度だけチルト方向に回転する。左右の方向にはボタンをクリックした回数に応じた角度だけパンする。操作者はモニタに表示される画像を見ながら、モニタに所望の画像が映し出されたとき、上下左右ボタン35のクリックをやめてカメラの回転を停止させる。また画面を拡大や縮小したい場合は、ズームボタン36をクリックすると、ネットワークカメラ31のズームレンズが駆動されるようになっている。   When monitoring a position other than the preset position, the up / down / left / right button 34b of the monitor screen 34 is operated to point the camera in an arbitrary direction. When the up / down / left / right button 34b is clicked, the network camera 31 rotates in the tilt direction by an angle corresponding to the number of times the button is clicked. Pan left and right by an angle corresponding to the number of clicks on the button. While viewing the image displayed on the monitor, the operator stops clicking the up / down / left / right button 35 and stops the rotation of the camera when the desired image is displayed on the monitor. When the user wants to enlarge or reduce the screen, the zoom lens of the network camera 31 is driven when the zoom button 36 is clicked.

上記のネットワークカメラ31は観光地を紹介するため屋外に設置することがある。そのネットワークカメラはインターネットを通して誰でもアクセスできることが多い。プライバシーを保護するため近隣の民家などが画面に表示されないようにするためプライベートマスクを設定する必要がある。   The network camera 31 may be installed outdoors to introduce sightseeing spots. The network camera is often accessible by anyone over the Internet. In order to protect privacy, it is necessary to set a private mask in order to prevent neighboring private houses from being displayed on the screen.

特許文献1には以下の記述がある。360度のパン回転及び90度を超えるチルト回転が可能な監視カメラとその制御装置とを備える監視カメラ装置において、監視カメラが画像に映るプライバシーゾーンをマスキングするマスクデータを保持する。監視カメラはそのマスクデータに従って撮影される画像の一部をマスキングする。マスキングされた画像は撮影される画像の一部をマスキングするのみであるため、監視機能を損なわずにプライバシーを守ることができる。この監視カメラ装置は、マスキングデータを監視カメラ自体に持たせるようにし、撮影された画像のマスキング処理に係る時間遅れが生じないようにしている。   Patent Document 1 has the following description. In a surveillance camera device comprising a surveillance camera capable of 360-degree pan rotation and tilt-rotation exceeding 90 degrees and its control device, the surveillance camera holds mask data for masking a privacy zone reflected in an image. The surveillance camera masks a part of the image taken according to the mask data. Since the masked image only masks a part of the captured image, privacy can be protected without impairing the monitoring function. In this surveillance camera device, the surveillance camera itself is provided with masking data so as not to cause a time delay related to the masking processing of the photographed image.

プライベートマスクは、あらかじめ撮影される画像を見ながら、撮影を禁止する部分を設定し、設定されたマスクデータをドームカメラのメモリに記憶する。そのプライベートマスクに設定された領域をドームカメラで撮影すると、ドームカメラの制御部は、カメラの向き(パン、チルト)とマスクデータとを比較して、その領域のみを画面上で白や灰色などのマスクデータで塗りつぶして撮影画面を表示しないようにしている。
特開2001−69494号公報
The private mask sets a portion for which shooting is prohibited while viewing an image shot in advance, and stores the set mask data in the memory of the dome camera. When shooting the area set in the private mask with the dome camera, the control unit of the dome camera compares the camera direction (pan, tilt) with the mask data, and only the area is white or gray on the screen. The shooting screen is not displayed by painting with the mask data.
JP 2001-69494 A

しかしながら、従来の監視システムにおいてはマスクされる画像部分に対しても重要度の違いをまったく考慮していないため、単なる背景部分も重要部分と同じ情報量で記録してしまう。記録容量の無駄が生じるなどにより監視目的の画像を事件が解決するまでの長時間に渡り保存するのが困難という課題があった。   However, since the conventional monitoring system does not consider the difference in importance even for the masked image portion, the simple background portion is recorded with the same amount of information as the important portion. There is a problem that it is difficult to store an image for monitoring for a long time until the incident is solved due to waste of recording capacity.

また、監視カメラが公共の場所に置かれ、プライベートマスクを用いるプライバシー保護の方法では、使用者がモニター画面を見ると一瞥してマスクしている部分がわかってしまう。使用者はそのマスク部分に興味を有してしまう。使用者は監視すべき場所とは異なるマスクの周辺部の画像を注視してしまうため、監視画像は監視目的外に使用されてしまうことになる。監視画像に対する監視の注意がそがれてしまい十分な監視ができないという課題があった。   Also, in a privacy protection method using a surveillance camera placed in a public place and using a private mask, when the user looks at the monitor screen, the part masked at a glance is known. The user is interested in the mask portion. Since the user gazes at the peripheral image of the mask that is different from the place to be monitored, the monitoring image is used for purposes other than monitoring. There has been a problem that sufficient monitoring cannot be performed because the monitoring attention on the monitoring image is distracted.

そこで本発明は、プライバシーの保護が必要な画像部分を、監視画像を監視するために支障とならない画像を用いてマスキングする。マスキング画像は、その撮影された部分の画像がプライバシー上問題なく、且つデータ量の少ない画像により表示可能なときに、監視目的に合った監視画像として生成する監視画像の生成方法を提供しようとするものである。   Therefore, the present invention masks an image portion that needs privacy protection using an image that does not hinder the monitoring image. The masking image seeks to provide a method for generating a monitoring image that is generated as a monitoring image suitable for a monitoring purpose when the captured image can be displayed as an image with little data amount and no privacy problem. Is.

本発明は、上記課題を解決するために以下の手段より成るものである。
すなわち、
The present invention comprises the following means in order to solve the above problems.
That is,

監視カメラが撮影する撮影領域内に設定したプライベート領域で撮影した撮影画像が所定の時間内に動きがあるときには、当該撮影画像の代わりに動きがないときに撮影した画像に置換してプライベート保護監視画像として生成する監視画像の生成方法であって、
前記監視カメラの撮影領域内に、所定の境界幅を有する境界枠で前記プライベート領域を設定する第1のステップ(121、122、123)と、
前記監視カメラの撮影画像から前記第1のステップで設定した前記境界枠で指定されたプライベート領域画像を取得すると共に、前記監視カメラの撮影画像から前記第1のステップで設定した前記境界枠で指定されたプライベート領域でない領域であるプライベート領域除去画像を取得する第2のステップ(124、125)と、
前記第2のステップで取得した前記プライベート領域画像と過去に取得したプライベート領域過去画像とを比較し、前記プライベート領域画像の被写体の位置が過去と現在とで変化していないとして検出されるときは前記プライベート領域画像を前記動きがないときに撮影した画像として取得し、又は前記プライベート領域画像の被写体の位置が過去と現在とで変化しているとして検出されるときには被写体の位置が変化していないとして取得したプライベート領域過去画像を前記動きがないときに撮影した画像として取得する第3のステップ(13、129、126)と、
前記第3のステップで取得した前記動きがないときに撮影した画像と前記第2のステップで取得した前記プライベート領域除去画像とを、前記第1のステップで設定した境界領域枠内で徐々に切換えて前記プライベート保護監視画像を生成する第4のステップ(335、336、337)とを有することを特徴とする監視画像の生成方法。
When the captured image captured in the private area set in the capturing area captured by the surveillance camera moves within a predetermined time, it is replaced with the image captured when there is no movement instead of the captured image. A method of generating a monitoring image generated as an image,
A first step (121, 122, 123) of setting the private area within a border frame having a predetermined border width within the photographing area of the surveillance camera;
The private area image specified by the boundary frame set in the first step is acquired from the captured image of the monitoring camera, and specified by the boundary frame set in the first step from the captured image of the monitoring camera. A second step (124, 125) of acquiring a private area removal image that is an area that is not a private area
When the private area image acquired in the second step is compared with the private area past image acquired in the past, and it is detected that the position of the subject of the private area image has not changed between the past and the present The private area image is acquired as an image taken when there is no movement, or the subject position does not change when it is detected that the subject position of the private area image has changed between the past and the present A third step (13, 129, 126) of acquiring the private area past image acquired as a captured image when there is no movement;
The image captured when there is no movement acquired in the third step and the private area removed image acquired in the second step are gradually switched within the boundary area frame set in the first step. And a fourth step (335, 336, 337) for generating the private protection monitoring image.

本発明の監視画像の生成方法によれば、以下に示す効果を提供することができる。
すなわち、
According to the monitoring image generation method of the present invention, the following effects can be provided.
That is,

本生成方法により生成した置換監視画像は、プライベート領域で撮影される画像を過去に撮影したプライベート領域過去画像と比較し、撮影対象に動きのないプライベート領域画像又はプライベート領域過去画像と、プライベートでない領域であるプライベート領域除去画像とを所定の領域幅で切換えるようにして置換監視画像を生成している。そのため、過去に撮影したプライベート領域過去画像と現在撮影しているプライベート領域除去画像を合成するに際し、時間差のために生じる監視カメラの視野角変動又は視野角誤差の影響を受け難く、且つプライベート領域を自然画像で表示することのできる監視画像の生成方法を実現できる。   The replacement monitoring image generated by this generation method compares the image captured in the private area with the private area past image captured in the past, and the private area image or the private area past image that does not move in the imaging target and the non-private area The replacement monitoring image is generated in such a manner that the private region removed image is switched with a predetermined region width. Therefore, when the past private image captured in the past and the private region removed image currently captured are combined, it is difficult to be affected by the viewing angle fluctuation or viewing angle error of the surveillance camera caused by the time difference, and the private region A method of generating a monitoring image that can be displayed as a natural image can be realized.

以下、本発明の監視画像の生成方法に係る実施の形態につき、好ましい実施例により説明する。
図1に、その監視画像の生成方法を搭載したネットワークカメラシステムの概略構成を示し、図面を参照し、その動作について述べる。
Hereinafter, preferred embodiments of the method for generating a monitoring image according to the present invention will be described.
FIG. 1 shows a schematic configuration of a network camera system equipped with the monitoring image generation method, and the operation thereof will be described with reference to the drawings.

同図に示すネットワークカメラシステムは領域指定部11、カメラCPU12、内蔵メモリ13、雲台駆動部14、ネットワークカメラ15、符号化部16、及びインタフェース17よりなるドームカメラ1と、PC33と、テンキー35a、セットボタン35b、ジョイスティック35c、WIDEボタン35D、TELEボタン35E、及びメニューボタン35fよりなるコントローラ35とより構成される。   The network camera system shown in FIG. 1 includes a dome camera 1 including an area specifying unit 11, a camera CPU 12, a built-in memory 13, a pan head driving unit 14, a network camera 15, an encoding unit 16, and an interface 17, a PC 33, and a numeric keypad 35a. The controller 35 includes a set button 35b, a joystick 35c, a WIDE button 35D, a TELE button 35E, and a menu button 35f.

ドームカメラ1とコントローラ35はネットワーク32で接続され、TCP/IP(Transmission Control Protocol/Internet Protocol)やUDP(User Datagram Protocol)などの通信プロトコルが用いられて動作する。ドームカメラ1の動作はコントローラ35によって制御される。ネットワークカメラシステムからの映像出力はモニタ34に入力され、表示される。   The dome camera 1 and the controller 35 are connected via a network 32 and operate using a communication protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol) or UDP (User Datagram Protocol). The operation of the dome camera 1 is controlled by the controller 35. Video output from the network camera system is input to the monitor 34 and displayed.

まず、ネットワークカメラ15により視野領域内の画像が撮影され、撮影して得られた画像信号は符号化部16で、例えばMPEG(moving picture experts group)−4に規定される圧縮符号化方法により符号化される。符号化して得られたビットストリームはインタフェース17及びネットワーク32を介してPC33に伝送される。   First, an image in the field of view is photographed by the network camera 15, and an image signal obtained by photographing is coded by a coding unit 16 by a compression coding method defined in, for example, MPEG (moving picture experts group) -4. It becomes. The bit stream obtained by encoding is transmitted to the PC 33 via the interface 17 and the network 32.

PC33に入力されたビットストリームは復号化され、復号化して得られたビデオ信号はモニタ34に入力され、表示される。その表示画面には監視すべき監視領域と監視してはいけないプライベート領域とがある。使用者によりコントローラ35のジョイスティック35cが操作される。   The bit stream input to the PC 33 is decoded, and the video signal obtained by the decoding is input to the monitor 34 and displayed. The display screen includes a monitoring area to be monitored and a private area that should not be monitored. The joystick 35c of the controller 35 is operated by the user.

その操作によりコントローラ35で発生されたコントロール信号はPC33、ネットワーク32、インタフェース17、及びカメラCPU12を介して雲台駆動部14に伝送される。伝送されたコントロール信号は雲台駆動部14を上下左右に回転する。回転された位置で撮影される画像がプライベート領域の中心位置になるようにネットワークカメラ31の撮影方向が調整される。   A control signal generated by the controller 35 by the operation is transmitted to the camera platform drive unit 14 via the PC 33, the network 32, the interface 17, and the camera CPU 12. The transmitted control signal rotates the pan / tilt head drive unit 14 in the vertical and horizontal directions. The shooting direction of the network camera 31 is adjusted so that the image shot at the rotated position becomes the center position of the private area.

次に、WIDEボタン35D及びTELEボタン35Eが操作され、表示されている画像上でプライベート領域の大きさが指定される。セットボタン35bが押されるてプライベート領域が決定される。決定されたプライベート領域の位置情報は、雲台駆動部14より検出される図示しない回転位置検出部から出力される角度情報、及び画面に表示される位置情報を基にPC33で求められる。そのプライベート領域位置情報は領域指定部11に供給され、そこに記憶される。   Next, the WIDE button 35D and the TELE button 35E are operated to specify the size of the private area on the displayed image. The private area is determined by pressing the set button 35b. The determined position information of the private area is obtained by the PC 33 based on the angle information output from the rotational position detection unit (not shown) detected by the camera platform drive unit 14 and the position information displayed on the screen. The private area position information is supplied to the area designating unit 11 and stored therein.

ネットワークカメラ15から符号化部16に入力された監視画像は、領域指定部11に記憶されるプライベート領域位置情報を基にプライベート領域画像とその他の領域である監視領域画像に区分される。それぞれの領域画像は、MPEG−4で規定される任意形状のビデオ・オブジェクト(VO;Video Object)としてそれぞれが指定される。   The monitoring image input from the network camera 15 to the encoding unit 16 is divided into a private region image and a monitoring region image that is another region based on the private region position information stored in the region specifying unit 11. Each region image is designated as a video object (VO; Video Object) having an arbitrary shape defined by MPEG-4.

そのビデオオブジェクトは、オブジェクトごとに独立し、且つ最適な符号化が可能な境界を有する画像の単位である。そして画像オブジェクトは、各オブジェクトごとに独立した操作ができ、そのオブジェクトごとの画像精細度の設定、画像位置の移動、拡大、及び消去などが可能なものである。   The video object is a unit of an image having a boundary which is independent for each object and can be optimally encoded. The image object can be operated independently for each object, and the image definition for each object can be set, the image position can be moved, enlarged, and deleted.

ここで、監視領域の画像オブジェクトは低圧縮の画像データとして高い品質で符号化される。プライベート領域の画像オブジェクトは高圧縮された画像データとして符号化される。符号化されたそれらの画像データは時分割多重化され、インタフェース17、及びネットワーク32を介してPC33に送信される。   Here, the image object in the monitoring area is encoded with high quality as low-compression image data. The image object in the private area is encoded as highly compressed image data. The encoded image data is time-division multiplexed and transmitted to the PC 33 via the interface 17 and the network 32.

送出された信号はPC33で受信される。PC33では、受信された信号はMPEG−4規格に基づいてそれぞれの任意形状ビデオオブジェクトとして復号化される。復号化された任意形状のビデオオブジェクトは後述の方法により所定の配置に並べられて合成され、ひとつの監視画像として出力される。   The transmitted signal is received by the PC 33. In the PC 33, the received signal is decoded as each arbitrarily shaped video object based on the MPEG-4 standard. Decoded arbitrary-shaped video objects are arranged and synthesized in a predetermined arrangement by a method described later, and output as one monitoring image.

監視すべき画像部分は十分な情報量を持つように符号化するのに比し、プライベート領域画像は、例えば画像の解像度(画素数)を低くする、フレームレートを少なくする、及び符号化時の圧縮率を高くするなどにより高圧縮された信号として生成する。プライベート領域画像は、撮影される人の動きが判別できないようにする画像であり、例えば1分間に1フレーム以下の画像を伝送するようにしても良い。高圧縮された信号はネットワーク32の伝送帯域を縮減すると共に、伝送された監視画像データを記憶する場合は、記憶媒体の容量を削減する。   Compared to encoding the image portion to be monitored to have a sufficient amount of information, the private area image, for example, lowers the resolution (number of pixels) of the image, reduces the frame rate, and It is generated as a highly compressed signal by increasing the compression rate. The private area image is an image that prevents the movement of the photographed person from being discriminated. For example, an image of one frame or less may be transmitted per minute. The highly compressed signal reduces the transmission band of the network 32 and reduces the capacity of the storage medium when the transmitted monitoring image data is stored.

以上、ネットワークカメラシステムの概略構成と、その動作について述べた。次に、マスク領域の設定方法について述べる。
図2に、マスク領域設定時にモニタ34に順次表示されるそれぞれの画面(a)〜(f)を示し、説明する。
The general configuration and operation of the network camera system have been described above. Next, a mask area setting method will be described.
FIG. 2 shows and explains the respective screens (a) to (f) sequentially displayed on the monitor 34 when the mask area is set.

まず、使用者はコントローラ35のジョイスティック35cを操作し、マスク領域として指定すべき領域を含めて撮影し、撮影された画像をモニタ34に表示する。次に、コントローラ35のメニューボタン35fを操作し、画面(a)の「MENU」画面を表示する。   First, the user operates the joystick 35c of the controller 35 to take an image including an area to be designated as a mask area, and displays the taken image on the monitor 34. Next, the menu button 35f of the controller 35 is operated to display the “MENU” screen of the screen (a).

同図のモニタ34に表示される画面(a)は、コントローラ35のメニューボタン35fを操作したときに表示されるメニュー画面である。メニューモードとしてはネットワークカメラ15のフォーカス制御、撮影画像の明るさ制御に係るアイリスモード、撮影画像の色温度に係るホワイトバランス、及びマスク領域の設定に係るプライベートマスクの各モードがある。   A screen (a) displayed on the monitor 34 in FIG. 5 is a menu screen displayed when the menu button 35 f of the controller 35 is operated. The menu mode includes a focus control of the network camera 15, an iris mode related to brightness control of the captured image, a white balance related to the color temperature of the captured image, and a private mask mode related to the mask area setting.

使用者はジョイスティック35cを操作し、「 > 」のマークにより表示されるカーソルを上下に動かし、「PRIVATE MASK」を選択し、セットボタン35bを押す。画面(b)のID(Identification)の入力要求が表示される。使用者は予め登録されているIDナンバーをテンキー35aを操作して入力する。   The user operates the joystick 35c, moves the cursor displayed by the “>” mark up and down, selects “PRIVATE MASK”, and presses the set button 35b. An input request for ID (Identification) on the screen (b) is displayed. The user inputs a previously registered ID number by operating the numeric keypad 35a.

入力されたIDが登録されている正規の使用者のものと一致するとして判定される場合は、画面(c)の「PRIVATE MASK」画面がモニタ34に表示される。ジョイスティック35cを用いてカーソルを動かし、「PRIVATE MASK」画面の中から「MASK NUMBER」を選択してセットボタン35bを押す。画面(d)の「MASK NUMBER」画面が表示される。   If it is determined that the input ID matches that of the registered regular user, the “PRIVATE MASK” screen of screen (c) is displayed on the monitor 34. Move the cursor using the joystick 35c, select "MASK NUMBER" from the "PRIVATE MASK" screen, and press the set button 35b. The “MASK NUMBER” screen of screen (d) is displayed.

ここに示す実施例では、ひとつのネットワークカメラにつき、8つのマスク領域が設定可能である。既に設定されているマスク領域があるときには「MASK NUMBER」画面の数字の横に「*」印が表示される。この例では1から3までのマスク領域が既に設定されているので、マーク「 > 」を移動させ、新たなマスク領域の番号4を選択する。   In the embodiment shown here, eight mask areas can be set for one network camera. When there is a mask area that has already been set, a “*” mark is displayed next to the number on the “MASK NUMBER” screen. In this example, since the mask areas from 1 to 3 are already set, the mark “>” is moved and the number 4 of the new mask area is selected.

次に、セットボタン35bを押し、画面(e)の「MASK NO4」の画面を表示する。「MASK NO4」の画面で「MASK EDIT」を選択してセットボタン35bを押す。画面(f)が表示される。画面(f)はマスク領域を設定するための画面である。   Next, the set button 35b is pressed to display the “MASK NO4” screen on the screen (e). Select "MASK EDIT" on the "MASK NO4" screen and press the set button 35b. Screen (f) is displayed. Screen (f) is a screen for setting a mask area.

画面(f)の中央に半透明のマスク画面が表示される。ジョイスティック35cを操作し、マスク画面を上下左右に移動する。ネットワークカメラ15が撮影している画面をマスク領域として設定すべき中心位置に合わせる。さらにTELEボタン35Eを押してマスクを拡大し、又はWIDEボタン35Dを押してマスクを縮小する。マスクされる領域がプライベート保護領域を含むよう、マスク領域を設定する。   A translucent mask screen is displayed at the center of the screen (f). The joystick 35c is operated to move the mask screen up / down / left / right. The screen shot by the network camera 15 is adjusted to the center position to be set as the mask area. Further, the TELE button 35E is pressed to enlarge the mask, or the WIDE button 35D is pressed to reduce the mask. The mask area is set so that the masked area includes the private protection area.

マスク領域を設定した後にセットボタン35bを押し、マスク領域を決定する。その決定に従い、カメラCPU12は雲台駆動部14に内蔵されている図示しない角度センサから、パン及びチルトに係る角度情報のデータを得る。   After setting the mask area, the set button 35b is pressed to determine the mask area. In accordance with the determination, the camera CPU 12 obtains angle information data related to panning and tilting from an angle sensor (not shown) built in the pan head driving unit 14.

一方、マスク領域が画面の中央部分から移動された位置に設定されている場合もあるため、水平方向の移動量を水平方向の角度に変換し上記水平角度を補正し、同様に垂直方向の移動量を基に上記垂直角度のデータを補正する。それらの補正された角度データにより、マスク領域の角度情報はモニタ画面の中央に表示させるための角度データとして得られる。   On the other hand, since the mask area may be set to a position moved from the center of the screen, the horizontal movement amount is converted into a horizontal angle to correct the horizontal angle, and the vertical movement is similarly performed. The vertical angle data is corrected based on the amount. From these corrected angle data, the angle information of the mask area is obtained as angle data for display at the center of the monitor screen.

補正された水平及び垂直の角度データ、及びマスク領域に係る大きさ(視野角)のデータは第2の任意形状ビデオオブジェクトの領域データとして、マスクナンバと共に内蔵メモリ13に記憶される。   The corrected horizontal and vertical angle data and the size (viewing angle) data related to the mask area are stored in the built-in memory 13 together with the mask number as area data of the second arbitrary shape video object.

その記憶以降にネットワークカメラ15で撮影される画像は、内蔵メモリ13に記憶される領域データを基にしてプライベート領域画像とプライベート領域を含まない監視領域画像に分割される。それぞれの分割された画像は個別に符号化されてPC33に伝送される。そこで圧縮された画像の復号化、及び復号化して得られた画像の合成がなされる。   An image captured by the network camera 15 after the storage is divided into a private area image and a monitoring area image not including the private area based on the area data stored in the built-in memory 13. Each divided image is individually encoded and transmitted to the PC 33. Therefore, the compressed image is decoded and the image obtained by decoding is synthesized.

ここで、プライベート画像は高圧縮された画像であり、フレームレートを小さくして伝送する。フレームレートを小さくして符号化したプライベート領域画像と、ネットワークカメラ15と同一のフレームレートで符号化した監視領域画像とを合成するときには、異なる時間に撮影された画像が合成されることになる。その間にネットワークカメラ15の撮影方向が、例えば外部からの振動等により変化したときなどには、合成画像の境界で画像が2重になる、又は欠けてしまうことがある。   Here, the private image is a highly compressed image and is transmitted with a reduced frame rate. When a private area image encoded with a reduced frame rate and a monitoring area image encoded at the same frame rate as the network camera 15 are combined, images captured at different times are combined. In the meantime, when the shooting direction of the network camera 15 changes due to, for example, external vibration, the image may be doubled or missing at the boundary of the composite image.

そこで、監視領域画像とプライベート領域画像の間に所定幅の境界領域を配置し、その境界領域により両画像の位置ずれによる画像の乱れを吸収する。
図3に、監視画像のそれぞれの領域について示す。
Therefore, a boundary region having a predetermined width is arranged between the monitoring region image and the private region image, and the disturbance of the image due to the positional deviation of both images is absorbed by the boundary region.
FIG. 3 shows each area of the monitoring image.

同図において、モニタ画面341は、監視領域画像341a、プライベート領域画像341b、及び境界領域341cよりなっている。
ここで、境界領域は水平な線と垂直な線により囲まれている。それは、境界領域を符号化時に用いるマクロブロックの領域により定めていることによる。
In the figure, the monitor screen 341 includes a monitoring area image 341a, a private area image 341b, and a boundary area 341c.
Here, the boundary region is surrounded by a horizontal line and a vertical line. This is because the boundary area is defined by the area of the macroblock used at the time of encoding.

即ち、MPEGなど、画像データを離散コサイン変換して符号化する画像の単位として垂直及び水平のそれぞれを16画素づつに区切ったマクロブロックを用いる。従って、マクロブロックの幅を境界領域の幅とし、その幅の領域で監視領域画像とプライベート領域画像をフェードイン/フェードアウトするように重ね合わせると、重ね合わせ処理が容易である。モニタ画面341を構成する走査線341bでの信号レベルについて更に述べる。   That is, a macro block such as MPEG in which image data is encoded by discrete cosine transform and divided vertically and horizontally into 16 pixels is used. Therefore, when the width of the macro block is set as the width of the boundary area and the monitoring area image and the private area image are overlapped so as to fade in / out in the area of the width, the overlapping process is easy. The signal level at the scanning line 341b constituting the monitor screen 341 will be further described.

図4に、走査線の水平位置に対する画像信号のレベル特性を示す。
同図において、h0〜h1及びh4〜h9には監視領域画像が表示され、h2〜h3にはプライベート領域画像が表示される。h1〜h2及びh3〜h4は境界領域であり、その領域内で監視領域画像及びプライベート領域画像のレベルが変化している。
FIG. 4 shows the level characteristic of the image signal with respect to the horizontal position of the scanning line.
In the figure, monitoring area images are displayed on h0 to h1 and h4 to h9, and private area images are displayed on h2 to h3. h1 to h2 and h3 to h4 are boundary areas, and the levels of the monitoring area image and the private area image are changed in the boundary area.

ここで、h1〜h2及びh3〜h4のそれぞれの間隔はマクロブロックの大きさと同じ16画素である。監視画像のh0〜h1の間には複数のマクロブロックが存在している。即ち、その間の画素数は16の正数倍である。同様にしてh2〜h3の間も16画素の整数倍である。   Here, the interval between h1 to h2 and h3 to h4 is 16 pixels, which is the same as the size of the macroblock. A plurality of macro blocks exist between h0 to h1 of the monitoring image. That is, the number of pixels in between is a positive multiple of 16. Similarly, the interval between h2 and h3 is an integral multiple of 16 pixels.

プライベート領域画像に監視領域画像を加算して合成画像を作成するときには図に示すレベルで重み付けされた画像を加算して合成画像を得ることができる。また、監視画像に半透明のプライベート領域画像を重ね合わせて合成画像を得るには、プライベート領域画像をh0〜h1は透明にし、h1からh2にかけて徐々に透明度を下げると共にプライベート領域画像のレベルを上げ、h2〜h3では不透明なプライベート領域画像として監視領域画像に重ね合わせる方法がある。   When creating a composite image by adding a monitoring area image to a private area image, a composite image can be obtained by adding an image weighted at the level shown in the figure. Also, in order to obtain a composite image by superimposing a semi-transparent private area image on a monitoring image, h0 to h1 are made transparent in the private area image, the transparency is gradually lowered from h1 to h2, and the level of the private area image is increased. , H2 to h3 include a method of superimposing the monitoring area image as an opaque private area image.

後者の方法では、毎フレーム伝送される監視画像を加工することなく、上記の特性を有するプライベート領域画像を重ね合わせることにより合成画像を得ることができる。撮影されたプライベート領域画像を、専用のハードウエアを用いることなくソフト的に半透明処理を実行できる。   In the latter method, a composite image can be obtained by superimposing private area images having the above characteristics without processing a monitoring image transmitted every frame. The photographed private area image can be translucently processed in software without using dedicated hardware.

図5に、画像を分割して行う符号化、及び復号化して得られる画像の合成を実行するための機能をブロックで示し、同図を参照して説明する。前述の図1に示した要素と同じ機能部分には同一の番号を付し説明を略す。   FIG. 5 is a block diagram showing functions for executing coding by dividing an image and synthesis of an image obtained by decoding, and will be described with reference to FIG. The same functional parts as those of the elements shown in FIG.

同図において、カメラCPU12aは領域決定部121、外領域枠部122、内領域枠部123、内画像抽出部124、外画像抽出部125、内画像符号化部126、外画像符号化部127、マルチプレックス部(MUX)128、及び動判定部129より構成される。PC33aはデマルチプレックス部(DEMUX)331、領域枠部332、内画像復号部333、外画像復号部334、内領域フィルタ部335、外領域フィルタ部336、及び画像合成部(MIX)337より構成される。   In the figure, the camera CPU 12a includes an area determination unit 121, an outer region frame unit 122, an inner region frame unit 123, an inner image extraction unit 124, an outer image extraction unit 125, an inner image encoding unit 126, an outer image encoding unit 127, A multiplex unit (MUX) 128 and a motion determination unit 129 are included. The PC 33a includes a demultiplexing unit (DEMUX) 331, a region frame unit 332, an inner image decoding unit 333, an outer image decoding unit 334, an inner region filter unit 335, an outer region filter unit 336, and an image composition unit (MIX) 337. Is done.

まず、コントローラ35が操作されてネットワークカメラ15の視野角が変更されたときにカメラの方向に係る情報が雲台駆動部14から領域決定部121に入力される。領域決定部121では、カメラCPU12aで撮影される画像にプライベート保護の必要な領域があるか否かを領域指定部11に蓄積される情報を基に検出する。   First, when the controller 35 is operated to change the viewing angle of the network camera 15, information related to the direction of the camera is input from the camera platform drive unit 14 to the region determination unit 121. The area determination unit 121 detects whether there is an area that needs private protection in the image captured by the camera CPU 12 a based on information stored in the area designation unit 11.

プライベート領域画像が撮影されているとして検出されたときにはプライベート領域枠を決定する。プライベート領域枠は境界領域341cの外側の枠(点h1及びh4を含む枠)及び内側の枠(点h2及びh3を含む枠)の両方の位置情報を決定する。   When it is detected that a private area image is captured, a private area frame is determined. The private area frame determines the position information of both the outer frame (the frame including the points h1 and h4) and the inner frame (the frame including the points h2 and h3) of the boundary region 341c.

なお、枠の幅が1マクロブロックして定められているときには内側及び外側のいずれか、例えば外側の枠を決定してもよい。また、画面に対する枠は走査線方向及び走査線に対する直角な方向として定められているときには、例えば外側枠の対角の位置を有効画素の位置により指定できる。マクロブロックの位置により指定する方法によっても良い。   Note that when the width of the frame is determined to be one macroblock, either the inside or the outside, for example, the outside frame may be determined. When the frame for the screen is defined as the scanning line direction and the direction perpendicular to the scanning line, for example, the diagonal position of the outer frame can be designated by the position of the effective pixel. A method of specifying by the position of the macroblock may be used.

外領域枠部122では、領域決定部121で定められた内側の枠情報を基にネットワークカメラ31で撮像された画面の位置に対する内領域枠の位置信号を作成する。内領域枠部123は同様に外領域枠の位置信号を作成する。   The outer region frame unit 122 creates a position signal of the inner region frame with respect to the position of the screen imaged by the network camera 31 based on the inner frame information determined by the region determination unit 121. Similarly, the inner area frame unit 123 creates a position signal of the outer area frame.

内画像抽出部124では作成された内領域枠の位置信号を基に、ネットワークカメラ31で撮影された画像のうち、外領域枠で囲まれる内画像を抽出する。外画像抽出部125では、ネットワークカメラ31で撮影された画像のうち、内領域枠で囲まれる内画像を除いた外画像を抽出する。   The inner image extraction unit 124 extracts an inner image surrounded by the outer region frame from the images captured by the network camera 31 based on the created position signal of the inner region frame. The outer image extraction unit 125 extracts an outer image from images taken by the network camera 31 excluding the inner image surrounded by the inner area frame.

符号化部126では内画像を低レートの符号化信号を得るように符号化する。低レートの符号化は、例えば粗い量子化により、間引いた画素に対する符号化、ないしは低フレームレートの信号としての符号化である。符号化された画像は内蔵メモリ13に入力され、そこに一時記憶される。   The encoding unit 126 encodes the inner image so as to obtain a low-rate encoded signal. The low-rate encoding is, for example, encoding for pixels thinned out by rough quantization or encoding as a low frame rate signal. The encoded image is input to the built-in memory 13 and temporarily stored therein.

そして、動判定部129では、例えば1秒前に符号化された画像と現在符号化された画像との間での画像の異なりがあるかが分析される。その結果、人の動きにより生じる動き量がないとして検出されるときには、符号化された画像にはプライベート保護上の問題がないとして判定される。その画像はMUX128に供給される。   Then, the motion determination unit 129 analyzes, for example, whether there is an image difference between the image encoded one second ago and the currently encoded image. As a result, when it is detected that there is no movement amount caused by the movement of a person, it is determined that the encoded image has no problem in private protection. The image is supplied to the MUX 128.

所定レベル以上の動き量が検出されるときには、その画像に人が撮影されている可能性があるので、今回符号化した内画像に代えて過去に符号化した内画像データのうち所定レベル以下の動き量として検出された画像が内蔵メモリ13から得られて、MUX128に供給される。   When a motion amount of a predetermined level or more is detected, there is a possibility that a person has been photographed in the image. Therefore, the internal image data encoded in the past instead of the internal image encoded this time is below the predetermined level. An image detected as the amount of motion is obtained from the built-in memory 13 and supplied to the MUX 128.

次に、外画像は、符号化部127で標準的な圧縮符号化パラメータが用いられて符号化される。領域決定部121から得られたプライベート領域枠情報、内画像符号化部126で符号化された上記のプライベート領域の画像、及び外画像符号化部127で符号化された監視用画像はマルチプレックス部128で時分割多重される。インタフェース17及びネットワーク32を介してPC33aに伝送される。   Next, the outer image is encoded by the encoding unit 127 using standard compression encoding parameters. The private area frame information obtained from the area determination unit 121, the image of the private area encoded by the inner image encoding unit 126, and the monitoring image encoded by the outer image encoding unit 127 are multiplex units. 128 is time-division multiplexed. The data is transmitted to the PC 33a via the interface 17 and the network 32.

デマルチプレックス部331では入力された信号からプライベート領域枠情報、プライベート領域画像、及び監視用画像のそれぞれが分離される。領域枠部332ではプライベート領域枠情報を基に内領域枠及び外領域枠信号が生成される。内画像復号部333ではプライベート領域画像が復号化され、外画像復号部334では監視用画像が復号化される。   The demultiplex unit 331 separates the private area frame information, the private area image, and the monitoring image from the input signal. In the area frame portion 332, an inner area frame signal and an outer area frame signal are generated based on the private area frame information. The inner image decoding unit 333 decodes the private area image, and the outer image decoding unit 334 decodes the monitoring image.

内領域フィルタ部335では図4に示したプライベート領域画像のレベル特性が復号化されたプライベート領域画像に与えられる。外領域フィルタ部336では図4に示した監視画像のレベル特性が復号化された監視用画像に与えられる。画像合成部337ではフィルタ処理のなされたプライベート領域画像及び監視用画像が加算され、モニタ34表示用の画像として生成される。   The inner area filter 335 gives the level characteristics of the private area image shown in FIG. 4 to the decoded private area image. In the outer region filter unit 336, the level characteristic of the monitoring image shown in FIG. 4 is given to the decoded monitoring image. In the image composition unit 337, the filtered private area image and the monitoring image are added to generate an image for display on the monitor 34.

以上、ネットワークカメラシステムの構成と動作について詳細に説明した。なお、ここでは内領域フィルタ部335及び外領域フィルタ部336を用いて境界領域で徐々に画像を切換える方法について述べた。   The configuration and operation of the network camera system have been described in detail above. Here, the method of gradually switching images in the boundary region using the inner region filter unit 335 and the outer region filter unit 336 has been described.

同様の画像符号化及び復号化はMPEG−4方式により、プライベート領域の画像を第1のビデオオブジェクト、監視用画像を第2のビデオオブジェクトとして扱うことにより、同様の画像の符号化、伝送、復号化、及び合成画像の生成を行うことが出来る。   Similar image encoding and decoding are performed by the MPEG-4 system, and the private image is handled as the first video object and the monitoring image is handled as the second video object, thereby encoding, transmitting and decoding the same image. And generation of a composite image.

即ち、任意形状の画像信号は画素値信号、形状信号、透過度信号の3つで構成される。画素値信号及び形状信号によりプライベート領域画像及び監視領域画像が表現され、透明度信号は領域画像及び監視領域画像の重ね合わせ時に生じる位置誤差を吸収するためのガード領域の信号処理として用いられる。   In other words, the image signal having an arbitrary shape is composed of three pixel value signals, shape signals, and transparency signals. The private area image and the monitoring area image are expressed by the pixel value signal and the shape signal, and the transparency signal is used as signal processing of the guard area for absorbing the position error generated when the area image and the monitoring area image are superimposed.

なお、上記において、内領域フィルタ部335及び外領域フィルタ部336は内画像復号部333及び外画像復号部334の後に配置するとして述べたが、内画像抽出部124及び外画像抽出部125の後に配置するようにしても良い。   In the above description, the inner region filter unit 335 and the outer region filter unit 336 are described as being arranged after the inner image decoding unit 333 and the outer image decoding unit 334. However, after the inner image extraction unit 124 and the outer image extraction unit 125, It may be arranged.

また、プライベート領域画像はネットワークカメラ31の撮影方向などが変更されない限り過去に撮影した、動きの検出されない画像を用いても良い。内画像復号部333は復号された画像を記憶する図示しない画像メモリを有している。プライベート領域画像は必要に応じて伝送しても良く、その場合のプライベート領域画像は静止画として出力されることになる。
そしてまた、更に符号量を削減する場合は、プライベート領域画像は伝送せず、受信側で塗りつぶした画像を生成して合成するようにしてもよい。
The private area image may be an image that has been captured in the past and in which no motion is detected unless the shooting direction of the network camera 31 is changed. The inner image decoding unit 333 has an image memory (not shown) that stores the decoded image. The private area image may be transmitted as necessary, and the private area image in that case is output as a still image.
Further, when the code amount is further reduced, the private area image may not be transmitted, and a solid image may be generated and combined on the receiving side.

撮像される画像の所定部分の画像を、異なる時刻に撮影した同一視野角の画像に置換することによりプライベート保護処理を行うことのできる監視カメラ装置の実現に利用できる。   The present invention can be used to realize a surveillance camera device that can perform private protection processing by replacing an image of a predetermined portion of an image to be captured with an image of the same viewing angle taken at a different time.

本発明の実施例に係る、ネットワークカメラシステムの概略構成を示した図である。It is the figure which showed schematic structure of the network camera system based on the Example of this invention. 本発明の実施例に係る、マスク領域設定のための表示画面を示した図である。FIG. 6 is a diagram illustrating a display screen for setting a mask area according to an embodiment of the present invention. 本発明の実施例に係る、監視画像の領域について示した図である。It is the figure shown about the area | region of the monitoring image based on the Example of this invention. 本発明の実施例に係る、走査線の水平位置に対する画像信号のレベル特性を示した図である。It is the figure which showed the level characteristic of the image signal with respect to the horizontal position of a scanning line based on the Example of this invention. 本発明の実施例に係る、画像の領域分割及び合成に係る構成を示した図である。It is the figure which showed the structure which concerns on the area division | segmentation and composition of an image based on the Example of this invention. 従来のドームカメラを用いた監視システムの構成を示す図である。It is a figure which shows the structure of the monitoring system using the conventional dome camera.

符号の説明Explanation of symbols

1 ドームカメラ
11 領域指定部
12、12a カメラCPU
13 内蔵メモリ
14 雲台駆動部
15 ネットワークカメラ
16 符号化部
17 インタフェース
31 ネットワークカメラ
32 ネットワーク
33、33a PC
34 モニタ
34a テンキー
34b 上下左右ボタン
34c ズームボタン
34d メニューボタン
35 コントローラ
35a テンキー
35b セットボタン
35c ジョイスティック
35D WIDEボタン
35E TELEボタン
35f メニューボタン
121 領域決定部
122 内領域枠部
123 外領域枠部
124 内画像抽出部
125 外画像抽出部
126 内画像符号化部
127 外画像符号化部
128 マルチプレックス部
129 動判定部
331 デマルチプレックス部
332 領域枠部
333 内画像復号部
334 外画像復号部
335 内領域フィルタ部
336 外領域フィルタ部
337 画像合成部
1 Dome Camera 11 Area Designation Unit 12, 12a Camera CPU
13 Built-in memory 14 Head drive unit 15 Network camera 16 Encoding unit 17 Interface 31 Network camera 32 Network 33, 33a PC
34 monitor 34a numeric keypad 34b up / down / left / right button 34c zoom button 34d menu button 35 controller 35a numeric keypad 35b set button 35c joystick 35D WIDE button 35E TELE button 35f menu button 121 area determination section 122 inner area frame section 123 outer area frame section 124 inner image extraction Unit 125 outer image extraction unit 126 inner image encoding unit 127 outer image encoding unit 128 multiplex unit 129 motion determination unit 331 demultiplex unit 332 region frame unit 333 inner image decoding unit 334 outer image decoding unit 335 inner region filter unit 336 Outer region filter unit 337 Image composition unit

Claims (1)

監視カメラが撮影する撮影領域内に設定したプライベート領域で撮影した撮影画像が所定の時間内に動きがあるときには、当該撮影画像の代わりに動きがないときに撮影した画像に置換してプライベート保護監視画像として生成する監視画像の生成方法であって、
前記監視カメラの撮影領域内に、所定の境界幅を有する境界枠で前記プライベート領域を設定する第1のステップと、
前記監視カメラの撮影画像から前記第1のステップで設定した前記境界枠で指定されたプライベート領域画像を取得すると共に、前記監視カメラの撮影画像から前記第1のステップで設定した前記境界枠で指定されたプライベート領域でない領域であるプライベート領域除去画像を取得する第2のステップと、
前記第2のステップで取得した前記プライベート領域画像と過去に取得したプライベート領域過去画像とを比較し、前記プライベート領域画像の被写体の位置が過去と現在とで変化していないとして検出されるときは前記プライベート領域画像を前記動きがないときに撮影した画像として取得し、又は前記プライベート領域画像の被写体の位置が過去と現在とで変化しているとして検出されるときには被写体の位置が変化していないとして取得したプライベート領域過去画像を前記動きがないときに撮影した画像として取得する第3のステップと、
前記第3のステップで取得した前記動きがないときに撮影した画像と前記第2のステップで取得した前記プライベート領域除去画像とを、前記第1のステップで設定した境界領域枠内で徐々に切換えて前記プライベート保護監視画像を生成する第4のステップとを有することを特徴とする監視画像の生成方法。
When the captured image captured in the private area set in the capturing area captured by the surveillance camera moves within a predetermined time, it is replaced with the image captured when there is no movement instead of the captured image. A method of generating a monitoring image generated as an image,
A first step of setting the private area with a boundary frame having a predetermined boundary width within the imaging area of the surveillance camera;
The private area image specified by the boundary frame set in the first step is acquired from the captured image of the monitoring camera, and specified by the boundary frame set in the first step from the captured image of the monitoring camera. A second step of obtaining a private area removal image that is a non-private area
When the private area image acquired in the second step is compared with the private area past image acquired in the past, and it is detected that the position of the subject of the private area image has not changed between the past and the present The private area image is acquired as an image taken when there is no movement, or the subject position does not change when it is detected that the subject position of the private area image has changed between the past and the present A third step of acquiring the private region past image acquired as a captured image when there is no movement;
The image captured when there is no movement acquired in the third step and the private area removed image acquired in the second step are gradually switched within the boundary area frame set in the first step. And a fourth step of generating the private protection monitoring image.
JP2004102839A 2004-03-31 2004-03-31 How to generate surveillance images Expired - Lifetime JP4311255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004102839A JP4311255B2 (en) 2004-03-31 2004-03-31 How to generate surveillance images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004102839A JP4311255B2 (en) 2004-03-31 2004-03-31 How to generate surveillance images

Publications (2)

Publication Number Publication Date
JP2005294912A true JP2005294912A (en) 2005-10-20
JP4311255B2 JP4311255B2 (en) 2009-08-12

Family

ID=35327409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004102839A Expired - Lifetime JP4311255B2 (en) 2004-03-31 2004-03-31 How to generate surveillance images

Country Status (1)

Country Link
JP (1) JP4311255B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243268A (en) * 2006-03-06 2007-09-20 Sony Corp System and program for monitoring video image
JP2008191884A (en) * 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processor, image processing program and computer-readable recording medium with the program recorded thereon
US7995844B2 (en) 2006-11-22 2011-08-09 Canon Kabushiki Kaisha Control apparatus, control method, and program for implementing the method
JP2012090157A (en) * 2010-10-21 2012-05-10 Canon Inc Display control device and display control method
US9491416B2 (en) 2010-10-16 2016-11-08 Canon Kabushiki Kaisha Server apparatus and method of transmitting video data
CN106131513A (en) * 2016-08-30 2016-11-16 常州宝仪机电设备有限公司 Boiler drum level monitoring synthesizes segmenting devices with two pictures

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243268A (en) * 2006-03-06 2007-09-20 Sony Corp System and program for monitoring video image
US7995844B2 (en) 2006-11-22 2011-08-09 Canon Kabushiki Kaisha Control apparatus, control method, and program for implementing the method
JP2008191884A (en) * 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processor, image processing program and computer-readable recording medium with the program recorded thereon
JP4672680B2 (en) * 2007-02-05 2011-04-20 日本電信電話株式会社 Image processing method, image processing apparatus, image processing program, and computer-readable recording medium recording the program
US9491416B2 (en) 2010-10-16 2016-11-08 Canon Kabushiki Kaisha Server apparatus and method of transmitting video data
JP2012090157A (en) * 2010-10-21 2012-05-10 Canon Inc Display control device and display control method
US9532008B2 (en) 2010-10-21 2016-12-27 Canon Kabushiki Kaisha Display control apparatus and display control method
CN106131513A (en) * 2016-08-30 2016-11-16 常州宝仪机电设备有限公司 Boiler drum level monitoring synthesizes segmenting devices with two pictures

Also Published As

Publication number Publication date
JP4311255B2 (en) 2009-08-12

Similar Documents

Publication Publication Date Title
KR101113844B1 (en) A supervisory camera and a privacy protecting method of the supervisory camera
JP4940820B2 (en) Network camera
JP4804378B2 (en) Video display device and video display method
JP2004023373A (en) Image processor and processing method, and computer program and computer-readable storage medium
US9065986B2 (en) Imaging apparatus and imaging system
US20070022455A1 (en) Image display device, image display method and image display system
KR20120108747A (en) Monitoring camera for generating 3 dimensional scene and method thereof
JP2006245746A (en) Monitoring system
JP2008219484A (en) Monitoring camera, display control device, and monitoring system
JP4311255B2 (en) How to generate surveillance images
JP2007288354A (en) Camera device, image processing apparatus, and image processing method
JP2006033380A (en) Monitoring system
JP2009021983A (en) Monitor image recording apparatus
JP2014042357A (en) Imaging device and image processing device
JP3809788B2 (en) Video transmission / reception device and video transmission / reception program
JP2005175970A (en) Imaging system
US11936920B2 (en) Method and system for transmitting a video stream
JP2009100259A (en) Monitoring camera and image monitoring system
JP4573158B2 (en) Monitoring image generation method and monitoring image generation apparatus
JP2001251608A (en) Remote monitoring camera system
TW202220436A (en) Alert generation based on event detection in a video feed
JP2005328333A (en) Monitor system
KR20170011928A (en) Camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it
JP2006197098A (en) Image transmission system of network camera
JPH0946710A (en) Picture communication system and picture communication equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090504

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4311255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4