JP2011053005A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2011053005A
JP2011053005A JP2009200084A JP2009200084A JP2011053005A JP 2011053005 A JP2011053005 A JP 2011053005A JP 2009200084 A JP2009200084 A JP 2009200084A JP 2009200084 A JP2009200084 A JP 2009200084A JP 2011053005 A JP2011053005 A JP 2011053005A
Authority
JP
Japan
Prior art keywords
image
intruder
monitoring system
monitoring
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009200084A
Other languages
Japanese (ja)
Other versions
JP5370009B2 (en
Inventor
Keita Kosaka
啓太 小阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2009200084A priority Critical patent/JP5370009B2/en
Publication of JP2011053005A publication Critical patent/JP2011053005A/en
Application granted granted Critical
Publication of JP5370009B2 publication Critical patent/JP5370009B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of measuring a distance to an intruder, without using an exclusive device such as a distance-measuring sensor. <P>SOLUTION: A monitoring system 3 includes a monitoring device 1 and a surveillance camera 2. From an image photographed by the surveillance camera 2, the monitoring device 1 creates a distance image. When the monitoring device becomes in a monitoring state, the monitoring device 1 detects an intruder from the image photographed by the surveillance camera 2. When the monitoring device detects the intruder, the monitoring device 1 subsequently identifies a grounding position on the image of the intruder. When the monitoring device 1 identifies the grounding position, the distance to the grounding position is identified by lapping the grounding position on the distance image created previously. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、侵入者までの距離を測定する技術に関する。詳しくは、監視カメラが撮像した画像を用いて侵入者までの距離を測定する技術に関する。   The present invention relates to a technique for measuring a distance to an intruder. Specifically, the present invention relates to a technique for measuring a distance to an intruder using an image captured by a surveillance camera.

ビルや家屋などの施設に、監視カメラが設置されている。監視カメラで撮像した画像を解析することで、侵入者を検知することができる。侵入者を検知した場合には、警報を鳴らすなどの対処がとられる。あるいは、監視カメラで撮像した画像を記録し、後で、記録された撮像画像を閲覧することで、施設内の状況を把握することができる。   Surveillance cameras are installed in facilities such as buildings and houses. An intruder can be detected by analyzing the image captured by the surveillance camera. When an intruder is detected, countermeasures such as sounding an alarm are taken. Alternatively, it is possible to grasp the situation in the facility by recording an image captured by the surveillance camera and later viewing the recorded captured image.

人物までの距離を測定する技術がある。たとえば、レーザーセンサを用いて人物までの距離を測定する技術、ステレオ画像を利用して人物までの距離を測定する技術などがある。これらは、専用の装置が必要となるため、システムコストが比較的高くなる。   There is a technique for measuring the distance to a person. For example, there are a technique for measuring a distance to a person using a laser sensor and a technique for measuring a distance to a person using a stereo image. Since a dedicated device is required for these, the system cost is relatively high.

下記特許文献1および特許文献2においては、撮像画像を利用して人物までの距離を測定する技術が開示されている。   In the following Patent Document 1 and Patent Document 2, a technique for measuring a distance to a person using a captured image is disclosed.

特許文献1においては、高さと位置が分かっている基準物体の画像と、人物画像とを比較することにより、人物までの距離を特定している。基準物体の画像と人物画像とを比較するときには、消失点から物体の下端までの距離を利用することで、人物の身長に依存しない評価を行うようにしている。   In Patent Document 1, a distance to a person is specified by comparing an image of a reference object whose height and position are known with a person image. When comparing the image of the reference object and the person image, an evaluation independent of the height of the person is performed by using the distance from the vanishing point to the lower end of the object.

特許文献2においては、頭部の画像上の位置と床部分の座標とを対応付けた変換テーブルを利用している。撮像画像から頭部の位置を特定することで、変換テーブルを利用して、人物の位置を特定するようにしている。   In Patent Document 2, a conversion table that associates the position of the head image on the image with the coordinates of the floor portion is used. By specifying the position of the head from the captured image, the position of the person is specified using the conversion table.

特開2008−286638号公報JP 2008-286638 A 特許第3637360号公報Japanese Patent No. 3637360

本発明は、レーザーセンサなど距離測定用の専用装置を別途設けることなく、撮像した画像を用いて侵入者までの距離を測定する技術を提供することを課題とする。   An object of the present invention is to provide a technique for measuring a distance to an intruder using a captured image without separately providing a dedicated device for distance measurement such as a laser sensor.

請求項1記載の発明は、所定の領域を撮像するよう撮像範囲が設定された撮像装置と、前記撮像装置により撮像した前記所定の領域の画像上の座標に、実空間における前記撮像装置からの距離を対応させた距離画像を記憶する記憶装置と、前記所定の領域を監視中、前記撮像装置により前記所定の領域の監視画像を取得し、前記監視画像から侵入者を検出する侵入者検出部と、前記監視画像において前記侵入者の接地位置を特定する接地位置特定部と、前記距離画像と前記接地位置とから前記侵入者までの距離を特定する距離特定部と、を備えることを特徴とする。   According to the first aspect of the present invention, an imaging device in which an imaging range is set so as to capture a predetermined region, and coordinates on the image of the predetermined region captured by the imaging device from the imaging device in real space. A storage device that stores a distance image corresponding to a distance, and an intruder detection unit that acquires a monitoring image of the predetermined region by the imaging device and detects an intruder from the monitoring image while monitoring the predetermined region A grounding position identifying unit that identifies the grounding position of the intruder in the monitoring image; and a distance identifying unit that identifies a distance from the distance image and the grounding position to the intruder. To do.

請求項2記載の発明は、請求項1に記載の監視システムにおいて、前記侵入者検出部は、前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、を比較し、輝度値の変化が第1の閾値を超える領域を移動体領域として抽出する抽出部と、前記移動体領域の高さが第2の閾値を超える場合、前記移動体領域を前記侵入者の領域として判定する侵入者判定部と、を含むことを特徴とする。   According to a second aspect of the present invention, in the monitoring system according to the first aspect, the intruder detection unit compares the monitoring image with a reference image captured without an intruding object in the predetermined area. And an extraction unit that extracts an area where the change in luminance value exceeds the first threshold as a moving body area, and when the height of the moving body area exceeds a second threshold, the moving body area is And an intruder determination unit that determines the area.

請求項3記載の発明は、請求項1に記載の監視システムにおいて、前記侵入者検出部は、前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、の差分画像を生成する差分生成部と、前記差分画像と、人物の特定の場所の特徴を表す特定パターン画像とのマッチングを行い、前記監視画像に含まれている前記侵入者の領域を決定するマッチング部と、を含むことを特徴とする。   According to a third aspect of the present invention, in the monitoring system according to the first aspect, the intruder detection unit is configured such that the difference between the monitoring image and a reference image captured without an intruding object in the predetermined area. A difference generating unit that generates an image, and a matching unit that performs matching between the difference image and a specific pattern image that represents a feature of a specific place of a person, and determines the area of the intruder included in the monitoring image It is characterized by including these.

請求項4記載の発明は、請求項2に記載の監視システムにおいて、前記接地位置特定部は、前記移動体領域の最下位点を接地位置として特定することを特徴とする。   According to a fourth aspect of the present invention, in the monitoring system according to the second aspect, the grounding position specifying unit specifies the lowest point of the moving body region as the grounding position.

請求項5記載の発明は、請求項3に記載の監視システムにおいて、前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングに成功した場合、前記足パターン画像とマッチングした領域の最下位点を接地位置として特定することを特徴とする。   According to a fifth aspect of the present invention, in the monitoring system according to the third aspect, when the ground contact position specifying unit succeeds in matching the difference image with a foot pattern image representing a feature of a person's foot, the foot The lowest point of the area matched with the pattern image is specified as the ground contact position.

請求項6記載の発明は、請求項2に記載の監視システムにおいて、前記接地位置特定部は、前記移動体領域の最下位点が前記監視画像の最下位領域と一致する場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする。   According to a sixth aspect of the present invention, in the monitoring system according to the second aspect, when the lowest point of the moving body region coincides with the lowest region of the monitoring image, the grounding position specifying unit , It is determined that the camera is approaching within a predetermined distance from the imaging device.

請求項7記載の発明は、請求項2に記載の監視システムにおいて、前記侵入者検出部は、検出した前記侵入者のサイズを記憶するサイズ記憶部、を含み、前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上小さくなっている場合、前記カレントフレームに含まれる前記侵入者の頭の位置を基準として、前記過去フレームに含まれる前記侵入者のサイズを考慮することで、前記接地位置を特定することを特徴とする。   According to a seventh aspect of the present invention, in the monitoring system according to the second aspect, the intruder detection unit includes a size storage unit that stores a size of the detected intruder, and the grounding position specifying unit is a current If the size of the intruder included in the frame is smaller than the intruder size included in the previous frame one frame before by a predetermined percentage or more, the position of the head of the intruder included in the current frame is determined. As a reference, the ground contact position is specified by considering the size of the intruder included in the past frame.

請求項8記載の発明は、請求項2に記載の監視システムにおいて、前記侵入者検出部は、検出した前記侵入者のサイズを記憶するサイズ記憶部、を含み、前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上大きくなっている場合、前記過去フレームに含まれる前記侵入者のサイズを考慮することなく、前記カレントフレームに基づいて前記接地位置を特定することを特徴とする。   The invention according to claim 8 is the monitoring system according to claim 2, wherein the intruder detection unit includes a size storage unit that stores a size of the detected intruder, and the grounding position specifying unit is a current When the size of the intruder included in the frame is larger than the size of the intruder included in the previous frame one frame before, a size of the intruder included in the past frame is considered. And the ground contact position is specified based on the current frame.

請求項9記載の発明は、請求項3に記載の監視システムにおいて、前記接地位置特定部は、前記差分画像の下端領域において、前記差分画像と、人物の上半身の特徴を表す上半身パターン画像とのマッチングに成功した場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする。   According to a ninth aspect of the present invention, in the monitoring system according to the third aspect, in the lower end region of the difference image, the grounding position specifying unit is configured to perform a difference between the difference image and an upper body pattern image representing a characteristic of the upper body of the person. When the matching is successful, it is determined that the intruder is approaching within a predetermined distance from the imaging device.

請求項10記載の発明は、請求項3に記載の監視システムにおいて、前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所に、人物全体の特徴を表す人物全体パターン画像をあてはめることで前記接地位置を特定することを特徴とする。   According to a tenth aspect of the present invention, in the monitoring system according to the third aspect, when the ground contact position specifying unit fails to match the difference image with a foot pattern image representing a feature of a person's foot, matching is performed. The ground contact position is specified by applying a whole person pattern image representing the characteristics of the whole person to another place of the person who has succeeded.

請求項11記載の発明は、請求項3に記載の監視システムにおいて、さらに、人物の平均的な体型の比率を示す比率情報を記憶する比率記憶部、を備え、前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする。   The invention according to claim 11 is the monitoring system according to claim 3, further comprising a ratio storage unit that stores ratio information indicating a ratio of an average figure of the person, When matching between the difference image and the foot pattern image representing the characteristics of the person's foot could not be performed, by applying the ratio indicated by the ratio information to the size of the other place of the person who succeeded in matching, The ground contact position is specified.

請求項12記載の発明は、請求項3に記載の監視システムにおいて、さらに、人物の平均的な顔のサイズと全身のサイズとの比率を示す比率情報を記憶する比率記憶部、を備え、前記接地位置特定部は、前記監視画像に対して顔認識処理を行い、顔のサイズを取得する顔抽出部と、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、顔抽出部で抽出した顔のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする。   The invention according to claim 12 is the monitoring system according to claim 3, further comprising a ratio storage unit that stores ratio information indicating a ratio between the average face size of the person and the size of the whole body, The contact position specifying unit performs face recognition processing on the monitoring image, and cannot perform matching between the face extraction unit that acquires the size of the face, the difference image, and a foot pattern image that represents a feature of a person's foot In this case, the ground contact position is specified by applying the ratio indicated by the ratio information to the size of the face extracted by the face extraction unit.

本発明の監視システムを用いることで、距離測定用のセンサなどを用いることなく、撮像画像を利用して侵入者までの距離を測定することができる。   By using the monitoring system of the present invention, the distance to the intruder can be measured using the captured image without using a distance measuring sensor or the like.

監視システムの全体図である。1 is an overall view of a monitoring system. 監視装置のブロック図である。It is a block diagram of a monitoring apparatus. 監視エリアに設置された目印物体を示す図である。It is a figure which shows the mark object installed in the monitoring area. 距離画像を示す図である。It is a figure which shows a distance image. 監視エリアに配置された目印ラインを示す図である。It is a figure which shows the mark line arrange | positioned in the monitoring area. 人物を含む監視画像の部分拡大図である。It is the elements on larger scale of the surveillance picture containing a person. 人物を含む輝度画像の部分拡大図である。It is the elements on larger scale of the luminance image containing a person. 輝度画像から抽出された人物の最下位点を示す図である。It is a figure which shows the lowest point of the person extracted from the brightness | luminance image. 輝度画像から抽出された人物の最下位点を示す図である。It is a figure which shows the lowest point of the person extracted from the brightness | luminance image. 人物の移動前後に関わる監視画像を示す図である。It is a figure which shows the monitoring image in connection with before and behind a person's movement. 人物の移動前後に関わる輝度画像を示す図である。It is a figure which shows the brightness | luminance image in connection with before and behind a person's movement. 距離画像上に示された接地位置を示す図である。It is a figure which shows the grounding position shown on the distance image. 接地位置と監視エリア境界線とを示す図である。It is a figure which shows a contact position and a monitoring area boundary line. 基準画像を示す図である。It is a figure which shows a reference | standard image. 人物を含む監視画像を示す図である。It is a figure which shows the monitoring image containing a person. 基準画像と監視画像との差分画像を示す図である。It is a figure which shows the difference image of a reference | standard image and a monitoring image. 差分画像と人物パターン画像とのマッチング方法を示す図である。It is a figure which shows the matching method of a difference image and a person pattern image. 差分画像と足パターン画像とのマッチング方法を示す図である。It is a figure which shows the matching method of a difference image and a foot pattern image. 人物が撮像エリアの下端に位置する監視画像を示す図である。It is a figure which shows the monitoring image in which a person is located in the lower end of an imaging area. 人物が障害物の陰に隠れた状態の監視画像を示す図である。It is a figure which shows the monitoring image of the state where the person was hidden behind the obstacle. 上半身の画像に下半身の画像を適用させた状態を示す図である。It is a figure which shows the state which applied the image of the lower body to the image of the upper body. 上半身の長さから全身の長さを推定する方法を示す図である。It is a figure which shows the method of estimating the length of the whole body from the length of an upper body. 顔の長さから全身の長さを推定する方法を示す図である。It is a figure which shows the method of estimating the length of the whole body from the length of a face.

{第1の実施の形態}
以下、図面を参照しつつ本発明の実施の形態に係る監視システム3について説明する。図1は、監視システム3の全体図である。監視システム3は、建物5の敷地内を監視するようセッティングされている。監視システム3は、建物5の中に設置された監視装置1と監視カメラ2とを備えて構成されている。
{First embodiment}
Hereinafter, a monitoring system 3 according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an overall view of the monitoring system 3. The monitoring system 3 is set to monitor the site of the building 5. The monitoring system 3 includes a monitoring device 1 and a monitoring camera 2 installed in a building 5.

図2に示すように、監視装置1は、CPU、メモリなどを備える制御部11と記憶装置12とを備える。制御部11には、監視カメラ2が接続されている。監視カメラ2は、たとえばCCD撮像素子を備え、建物5の周辺領域を撮像可能である。監視カメラ2は、図1に示す監視エリア6を撮像可能となるように、高さ、方向などが固定されている。このように、監視カメラ2は、固定された撮像範囲内の画像を撮像する。   As shown in FIG. 2, the monitoring device 1 includes a control unit 11 including a CPU, a memory, and the like, and a storage device 12. A monitoring camera 2 is connected to the control unit 11. The surveillance camera 2 includes a CCD image sensor, for example, and can image a peripheral region of the building 5. The monitoring camera 2 has a fixed height, direction, and the like so that the monitoring area 6 shown in FIG. 1 can be imaged. In this way, the surveillance camera 2 captures an image within the fixed imaging range.

以下、監視カメラ2から侵入者までの距離を特定する監視システム3のシステムの動作、構成について、
<1.距離画像の作成>
<2.侵入者の検出>
<3.接地位置の特定>
<4.距離の特定>
の順に説明する。
Hereinafter, regarding the operation and configuration of the monitoring system 3 that specifies the distance from the monitoring camera 2 to the intruder,
<1. Creating a distance image>
<2. Intruder detection>
<3. Identifying the grounding location>
<4. Identification of distance>
Will be described in the order.

<1.距離画像の作成>
距離画像の作成プロセスについて説明する。本実施の形態の監視システム3を実際に稼動させる前に、あらかじめ距離画像を作成する。
<1. Creating a distance image>
The distance image creation process will be described. Before actually operating the monitoring system 3 of the present embodiment, a distance image is created in advance.

距離画像を作成するために、図3に示すように、監視エリア6内に、距離測定用の複数の目印物体71、72および73が設置される。目印物体71は、監視カメラ2の設置場所から15mの距離の場所に設置されている。目印物体72は、監視カメラ2の設置場所から10mの距離の場所に設置されている。目印物体73は、監視カメラ2の設置場所から5mの距離の場所に設置されている。目印物体71、72および73は、監視カメラ2からの距離を地面の高さ(画像での縦方向の位置)で測ることを目的としているので、なるべく高さの低い物体を選ぶ方がよい。   In order to create a distance image, a plurality of landmark objects 71, 72, and 73 for distance measurement are installed in the monitoring area 6 as shown in FIG. The mark object 71 is installed at a location 15 m away from the installation location of the surveillance camera 2. The mark object 72 is installed at a distance of 10 m from the installation place of the monitoring camera 2. The mark object 73 is installed at a distance of 5 m from the installation place of the monitoring camera 2. The landmark objects 71, 72, and 73 are intended to measure the distance from the monitoring camera 2 by the height of the ground (vertical position in the image), so it is better to select an object that is as low as possible.

監視エリア6内に目印物体71、72および73を配置した上で、監視カメラ2により画像81を撮像する。図4に示すように、撮像された画像81には、目印物体71、72および73が含まれている。この画像81上で、複数の目印物体71間を結ぶことにより、監視カメラ2から距離15mの地点を示すライン811が描かれる。同様に、複数の目印物体72間および目印物体73間を結ぶことにより、監視カメラ2からそれぞれ距離10m、5mの地点を示すライン811が描かれる。   After the landmark objects 71, 72 and 73 are arranged in the monitoring area 6, an image 81 is taken by the monitoring camera 2. As shown in FIG. 4, the captured image 81 includes landmark objects 71, 72, and 73. On this image 81, a line 811 indicating a point 15 m away from the surveillance camera 2 is drawn by connecting a plurality of landmark objects 71. Similarly, by connecting between the plurality of landmark objects 72 and between the landmark objects 73, lines 811 indicating points of a distance of 10 m and 5 m from the monitoring camera 2 are drawn.

距離画像データ121は、画像81を利用して生成される。距離画像データ121は、画像81と同じ画素数を有する。距離画像データ121の各画素には、監視カメラ2からの距離が対応付けられる。距離画像データ121において、目印物体71間を結ぶライン811上の画素に距離15mが対応付けられる。距離画像データ121において、目印物体72間および目印物体73間を結ぶライン811上の画素にそれぞれ距離10m、5mが対応付けられる。   The distance image data 121 is generated using the image 81. The distance image data 121 has the same number of pixels as the image 81. Each pixel of the distance image data 121 is associated with a distance from the monitoring camera 2. In the distance image data 121, the distance 15m is associated with the pixels on the line 811 connecting the landmark objects 71. In the distance image data 121, distances 10m and 5m are associated with pixels on the line 811 connecting the mark objects 72 and the mark objects 73, respectively.

さらに、図4に示すように、目印物体71間を結ぶライン811と目印物体72を結ぶライン811の間に距離12.5mに対応するライン811を推定で描いている。同様に、距離7.5m、距離17.5mなどのライン811も推定で描かれている。距離画像データ121において、目印物体71、72および73に基づいて作成されたライン811上の画素と、推定されたライン811上の画素に、それぞれ距離が対応付けられている。   Furthermore, as shown in FIG. 4, a line 811 corresponding to a distance of 12.5 m is drawn between the line 811 connecting the mark objects 71 and the line 811 connecting the mark objects 72 by estimation. Similarly, a line 811 such as a distance of 7.5 m and a distance of 17.5 m is also drawn by estimation. In the distance image data 121, distances are associated with the pixels on the line 811 created based on the landmark objects 71, 72, and 73 and the estimated pixels on the line 811.

目印物体をどの程度の間隔で設置するのか、ライン811をどの程度まで細かく推定するのかなどは、自由に設定することができる。   It is possible to freely set the intervals at which the mark objects are installed and the extent to which the line 811 is estimated in detail.

距離測定用に目印物体71、72および73を設置する場合を例に説明したが、図5に示すように、距離測定用のライン75を監視エリア6内に描画してもよい。たとえば、白線などのライン75を監視エリア6内に描画すればよい。ライン75には、監視カメラ2からの距離が、5m、10m、15mなどの距離に目印ポイント76がつけ加えられている。距離画像データ121において、目印ポイント76間を結ぶライン上の画素に距離が対応付けられる。さらに、目印ポイント76間を結ぶライン間に、推定されたラインを補完し、推定されたライン上の画素にも距離が対応付けられる。   Although the case where the mark objects 71, 72, and 73 are installed for distance measurement has been described as an example, a distance measurement line 75 may be drawn in the monitoring area 6 as shown in FIG. For example, a line 75 such as a white line may be drawn in the monitoring area 6. A mark point 76 is added to the line 75 at a distance of 5 m, 10 m, 15 m, or the like from the surveillance camera 2. In the distance image data 121, the distance is associated with the pixels on the line connecting the landmark points 76. Further, the estimated line is complemented between the lines connecting the mark points 76, and the distance is also associated with the pixels on the estimated line.

以上のような作業を行うことで、距離画像データ121が作成される。距離画像データ121は、監視カメラ2が撮像した画像データに基づいて、監視プログラム120が実行することで作成される。ライン811の間隔などは、適宜、入力装置からユーザが設定可能となっている。   The distance image data 121 is created by performing the above operations. The distance image data 121 is created by the monitoring program 120 executing based on the image data captured by the monitoring camera 2. The interval between the lines 811 can be appropriately set by the user from the input device.

距離画像データ121の作成が終了したら、目印物体71、72および73は撤去してよい。あるいは、ライン75および目印ライン76を消去してよい。   When the creation of the distance image data 121 is completed, the landmark objects 71, 72, and 73 may be removed. Alternatively, the line 75 and the mark line 76 may be deleted.

<2.侵入者の検出>
距離画像データ121を記憶装置12に格納した上で、監視システム3は、監視状態に移行する。監視状態に入ると、監視カメラ2は、たとえば、2〜5フレーム/秒などのレートで監視エリア6内の画像を撮像する。撮像された画像は、撮像画像データ122として記憶装置12に格納される。
<2. Intruder detection>
After storing the distance image data 121 in the storage device 12, the monitoring system 3 shifts to the monitoring state. When entering the monitoring state, the monitoring camera 2 captures an image in the monitoring area 6 at a rate of 2 to 5 frames / second, for example. The captured image is stored in the storage device 12 as captured image data 122.

以下、監視プログラム120によって実行される侵入者の検出処理の内容について説明する。   The contents of the intruder detection process executed by the monitoring program 120 will be described below.

図6は、撮像画像データ122の部分拡大図82Nおよび82(N+1)を示す。部分拡大図82Nは、第Nフレームに撮像された撮像画像データ122の中で、人物部分を拡大した図である。部分拡大図82(N+1)は、第(N+1)フレームに撮像された撮像画像データ122の中で、人物部分を拡大した図である。第Nフレームから第(N+1)フレームにかけて、人物が移動していることが分かる。   FIG. 6 shows partially enlarged views 82N and 82 (N + 1) of the captured image data 122. FIG. The partial enlarged view 82N is an enlarged view of a person part in the captured image data 122 captured in the Nth frame. Partial enlarged view 82 (N + 1) is an enlarged view of a person portion in captured image data 122 captured in the (N + 1) th frame. It can be seen that the person is moving from the Nth frame to the (N + 1) th frame.

図7は、輝度画像を示す。輝度画像92Nは、第Nフレームの輝度画像の部分拡大図である。つまり、図6の部分拡大図82Nに対応する輝度画像である。輝度画像92(N+1)は、第(N+1)フレームの輝度画像の部分拡大図である。つまり、図6の部分拡大図82(N+1)に対応する輝度画像である。   FIG. 7 shows a luminance image. The luminance image 92N is a partially enlarged view of the luminance image of the Nth frame. That is, it is a luminance image corresponding to the partially enlarged view 82N of FIG. The luminance image 92 (N + 1) is a partially enlarged view of the luminance image of the (N + 1) th frame. That is, the luminance image corresponds to the partial enlarged view 82 (N + 1) in FIG.

輝度画像92Nおよび92(N+1)に示している数値は、輝度値である。ただし、図に示す輝度値は実際の輝度値ではない。図に示した輝度値は、説明を簡単にするために、1桁程度の小さな数値で表しており、数値が大きいほど、輝度が高いことを示している。また、輝度画像は、全画素に輝度値を対応付けてもよいが、図6および図7で示す例では、複数の画素からなるブロックに対して輝度値を対応付けている。たとえば、各ブロックの輝度値は、ブロックに含まれる全画素の輝度値の平均値を利用すればよい。   The numerical values shown in the luminance images 92N and 92 (N + 1) are luminance values. However, the luminance values shown in the figure are not actual luminance values. In order to simplify the explanation, the luminance values shown in the figure are expressed by numerical values as small as one digit, and the larger the numerical value, the higher the luminance. In the luminance image, luminance values may be associated with all pixels, but in the examples illustrated in FIGS. 6 and 7, luminance values are associated with blocks composed of a plurality of pixels. For example, as the luminance value of each block, an average value of luminance values of all pixels included in the block may be used.

監視プログラム120は、輝度画像92Nと輝度画像92(N+1)とを比較し、輝度変化が所定の閾値を上回る領域を移動体領域921として特定する。図7において、ハッチングで示されているのが移動体領域921である。具体的には、第Nフレームから第(N+1)フレームに変化するにつれて、輝度値が所定の閾値以上、上昇した領域を移動体領域921として特定する。   The monitoring program 120 compares the luminance image 92N and the luminance image 92 (N + 1), and identifies an area where the luminance change exceeds a predetermined threshold as the moving body area 921. In FIG. 7, the moving body region 921 is indicated by hatching. Specifically, an area where the luminance value has increased by a predetermined threshold or more as the Nth frame changes to the (N + 1) th frame is specified as the moving body area 921.

続いて、監視プログラム120は、移動体領域921の高さが、所定の閾値を上回るか否かを判定する。監視プログラム120は、移動体領域921の高さが、所定の閾値を上回る場合には、移動体領域921が侵入者の検知領域であると判定する。   Subsequently, the monitoring program 120 determines whether or not the height of the moving object region 921 exceeds a predetermined threshold value. The monitoring program 120 determines that the moving body area 921 is an intruder detection area when the height of the moving body area 921 exceeds a predetermined threshold.

移動体領域921の高さが、所定の閾値を下回る場合には、侵入者はないと判断し、次のフレームに対する処理に移行する。移動体領域921の高さが所定の閾値を下回る場合とは、たとえば、犬や猫が監視エリア6に侵入した場合などが考えられる。このような場合には、誤って侵入者ありとして誤検知することを防止できる。   If the height of the moving object region 921 is below a predetermined threshold, it is determined that there is no intruder, and the process moves to the next frame. The case where the height of the moving body region 921 falls below a predetermined threshold value may be, for example, a case where a dog or cat has entered the monitoring area 6. In such a case, it is possible to prevent erroneous detection that there is an intruder.

<3.接地位置の特定>
移動体領域から侵入者の存在が確認されると、監視プログラム120は、次に、侵入者の接地位置を特定する。
<3. Identifying the grounding location>
When the presence of the intruder is confirmed from the mobile object area, the monitoring program 120 next specifies the grounding position of the intruder.

図8は、輝度画像93Aを示す。輝度画像93Aには、移動体領域931が検出されている。移動体領域931の高さは所定の閾値を上回っているため、侵入者であると判定されている。監視プログラム120は、移動体領域931の最下位位置932を侵入者の接地位置であると判定する。   FIG. 8 shows a luminance image 93A. A moving body region 931 is detected in the luminance image 93A. Since the height of the mobile body region 931 exceeds a predetermined threshold, it is determined that the mobile object region 931 is an intruder. The monitoring program 120 determines that the lowest position 932 of the moving body region 931 is the ground contact position of the intruder.

図8で示した例は、移動体領域931の全体が撮像範囲内に収まっている。つまり、侵入者の全身が、監視カメラ2による撮像範囲に収まっている。これに対して、図9で示した例では、移動体領域931は撮像範囲内の下端に位置している。つまり、侵入者の上半身のみが撮像範囲に収まっている。   In the example shown in FIG. 8, the entire moving body region 931 is within the imaging range. That is, the entire body of the intruder is within the imaging range of the surveillance camera 2. On the other hand, in the example shown in FIG. 9, the moving body region 931 is located at the lower end in the imaging range. That is, only the upper body of the intruder is within the imaging range.

このようなケースでは、移動体領域933の最下位位置934を侵入者の接地位置と判定するのは不適切である。このようなケースでは、監視プログラム120は、最下位位置934を接地位置とは判定しない。監視プログラム120は、監視カメラ2からの距離が所定の値以下のエリアまで侵入者が近づいていると判定する。たとえば、侵入者が監視カメラ2から5mの範囲以内に入っているという判定を行う。   In such a case, it is inappropriate to determine the lowest position 934 of the moving body region 933 as the ground contact position of the intruder. In such a case, the monitoring program 120 does not determine the lowest position 934 as the ground contact position. The monitoring program 120 determines that an intruder is approaching an area where the distance from the monitoring camera 2 is a predetermined value or less. For example, it is determined that the intruder is within a range of 5 m from the surveillance camera 2.

別のケースを説明する。図10および図11は、侵入者が障害物の陰に隠れた場合のケースを示す図である。図10は、フレーム画像83Cとフレーム画像83Dとを示す図である。フレーム画像83Cは、第Nフレームの画像であり、フレーム画像83Dは、第(N+1)フレームの画像である。   Another case will be described. 10 and 11 are diagrams illustrating a case where an intruder is hidden behind an obstacle. FIG. 10 is a diagram showing a frame image 83C and a frame image 83D. The frame image 83C is an Nth frame image, and the frame image 83D is an (N + 1) th frame image.

図11は、輝度画像93Cと輝度画像93Dとを示す図である。輝度画像93Cは、フレーム画像83Cに対応する輝度画像である。つまり、第Nフレームの輝度画像である。輝度画像93Dは、フレーム画像83Dに対応する輝度画像である。つまり、第(N+1)フレームの輝度画像である。   FIG. 11 is a diagram showing a luminance image 93C and a luminance image 93D. The luminance image 93C is a luminance image corresponding to the frame image 83C. That is, the luminance image of the Nth frame. The luminance image 93D is a luminance image corresponding to the frame image 83D. That is, it is a luminance image of the (N + 1) th frame.

図10に示すように、フレーム画像83Cにおいては、侵入者831の全身が監視カメラ2で撮像されている。これに対応して、図11に示すように、輝度画像93Cにおいても、移動体領域931は撮像範囲の中に収まっている。   As shown in FIG. 10, the whole body of the intruder 831 is captured by the monitoring camera 2 in the frame image 83C. Correspondingly, as shown in FIG. 11, the moving body region 931 is also within the imaging range in the luminance image 93 </ b> C.

図10に示すように、フレーム画像83Dにおいては、侵入者831は、障害物の後ろに隠れ、上半身だけが監視カメラ2によって撮像されている。これに対応して、図11に示すように、輝度画像93Dにおける移動体領域931のサイズは、輝度画像93Cの移動体領域931のサイズよりも小さくなっている。   As shown in FIG. 10, in the frame image 83D, the intruder 831 is hidden behind the obstacle, and only the upper body is imaged by the surveillance camera 2. Correspondingly, as shown in FIG. 11, the size of the moving object region 931 in the luminance image 93D is smaller than the size of the moving object region 931 in the luminance image 93C.

図11に示す輝度画像93Dにおいて、最下位位置を接地位置とするのは不適切である。このように、移動体領域のサイズが小さくなった場合には、監視プログラム120は、前フレームの移動体領域のサイズを利用することとしている。   In the luminance image 93D shown in FIG. 11, it is inappropriate to set the lowest position as the ground contact position. As described above, when the size of the moving object region is reduced, the monitoring program 120 uses the size of the moving object region of the previous frame.

図2に示すように、監視装置1は、記憶装置12にサイズデータ123を格納している。サイズデータ123は、移動体領域のサイズである。移動体領域のサイズとしては、移動体領域の高さを利用すればよい。記憶装置12には、移動体領域が検出されるたびに、移動体領域のサイズデータ123が格納される。サイズデータ123として、最新のものが更新されるようにして記録される。   As shown in FIG. 2, the monitoring device 1 stores size data 123 in the storage device 12. The size data 123 is the size of the moving object area. As the size of the mobile object region, the height of the mobile object region may be used. Each time the moving body area is detected, the storage device 12 stores size data 123 of the moving body area. The size data 123 is recorded so that the latest data is updated.

監視プログラム120は、移動体のサイズが所定の割合以上小さくなった場合、前フレームの移動体領域のサイズをカレントフレームに適用する。具体的には、カレントフレームの移動体領域の最上位位置を頭部とみなす。そして、前フレームで取得されている移動体領域のサイズ分だけ、最上位位置から下方に向かって領域を推定し、推定された領域の最下位位置を接地位置とするのである。このようにして、侵入者が障害物に隠れている場合であっても、接地位置を推定することができる。   The monitoring program 120 applies the size of the moving body area of the previous frame to the current frame when the size of the moving body becomes smaller than a predetermined ratio. Specifically, the highest position of the moving body area of the current frame is regarded as the head. Then, the area is estimated downward from the highest position by the size of the moving object area acquired in the previous frame, and the lowest position of the estimated area is set as the ground contact position. In this way, even when an intruder is hidden by an obstacle, the ground contact position can be estimated.

監視プログラム120は、移動体のサイズが所定の割合以上大きくなった場合、前フレームの移動体領域のサイズを適用せず、カレントフレームの移動体領域を分析する。そして、図8で示したような処理を行うことで、移動体領域の最下位位置を接地位置として特定する。   The monitoring program 120 analyzes the moving body area of the current frame without applying the moving body area size of the previous frame when the size of the moving body becomes larger than a predetermined ratio. And the lowest position of a mobile body area | region is pinpointed as a grounding position by performing the process as shown in FIG.

<4.距離の特定>
監視プログラム120は、以上の処理を実行することにより、侵入者の接地位置を特定する。接地位置を特定すると、距離画像データ121上に接地位置をあてはめ、侵入者が存在する位置の監視カメラ2からの距離を特定する。
<4. Identification of distance>
The monitoring program 120 specifies the ground contact position of the intruder by executing the above processing. When the contact position is specified, the contact position is applied to the distance image data 121, and the distance from the monitoring camera 2 at the position where the intruder exists is specified.

図12は、距離の特定の仕方を示す図である。距離画像データ121上に接地位置87をあてはめ、侵入者の接地位置、つまり、監視カメラ2からの距離を特定する。接地位置87が、ライン811上にあれば、そのままライン811に対応付けられている距離が、接地位置までの距離となる。   FIG. 12 is a diagram illustrating a method of specifying the distance. The ground contact position 87 is applied on the distance image data 121, and the ground contact position of the intruder, that is, the distance from the monitoring camera 2 is specified. If the ground contact position 87 is on the line 811, the distance directly associated with the line 811 is the distance to the ground contact position.

接地位置87が、ライン811上にない場合には、図に示すように、ライン811と接地位置87との位置関係から距離を推定する。図の例であれば、接地位置87から12.5mの距離までが距離871であり、接地位置87から10mの距離までが距離872である。距離871と距離872の比から10mの距離と12.5mの距離を内分する点を接地位置と考え、距離を求める。あるいは、処理を簡素化するのであれば、接地位置87がライン811上にない場合、最も近いライン811上の距離を適用させてもよい。   If the contact position 87 is not on the line 811, the distance is estimated from the positional relationship between the line 811 and the contact position 87 as shown in the figure. In the illustrated example, the distance 871 is a distance from the ground contact position 87 to 12.5 m, and the distance 872 is a distance from the ground contact position 87 to 10 m. The point that internally divides the distance of 10 m and the distance of 12.5 m from the ratio of the distance 871 and the distance 872 is considered as the ground contact position, and the distance is obtained. Alternatively, in order to simplify the processing, when the ground contact position 87 is not on the line 811, the closest distance on the line 811 may be applied.

図13に示すように、距離13mが監視エリア境界線88となっているとする。この場合、距離13mよりも近くに侵入者が入った場合には、侵入者ありとして警戒状態に入る必要がある。たとえば、移動体領域の接地位置が、図の接地位置87Aである場合には、13mの監視エリア境界線88よりも遠いため、警戒状態には遷移しない。移動体の接地位置が、図の接地位置87Bである場合には、13mの監視エリア境界線88よりも近いため、警戒状態に遷移する。   As shown in FIG. 13, it is assumed that a distance 13 m is a monitoring area boundary line 88. In this case, when an intruder enters near the distance 13 m, it is necessary to enter a warning state as an intruder exists. For example, when the ground contact position of the mobile object region is the ground contact position 87A in the figure, it is farther than the 13 m monitoring area boundary line 88, so that it does not transition to the alert state. When the grounding position of the moving body is the grounding position 87B in the figure, it is closer to the monitoring area boundary line 88 of 13 m, so that it shifts to a warning state.

警戒状態に入ると、監視システム1は様々な動作を行う。たとえば、警報音を鳴らすことで、侵入者を威嚇するとともに、周囲に侵入者がいることを通知する。あるいは、警報用の照明をONにしてもよい。また、撮像画像データ121のフレームレートを高めて、保存するようにしてもよい。   When entering the alert state, the monitoring system 1 performs various operations. For example, an alarm sound is sounded to threaten the intruder and notify that there are intruders around. Alternatively, the warning light may be turned on. Further, the frame rate of the captured image data 121 may be increased and stored.

{第2の実施の形態}
次に、本発明の第2の実施の形態について説明する。第2の実施の形態においては、侵入者の検出の方法などが異なる。
{Second Embodiment}
Next, a second embodiment of the present invention will be described. In the second embodiment, an intruder detection method is different.

第2の実施の形態において、<1.距離画像の作成>、<4.距離の特定>は、第1の実施の形態と同様である。以下、<2.侵入者の検出>および<3.接地位置の特定>について説明する。   In the second embodiment, <1. Creation of range image>, <4. Specifying the distance> is the same as in the first embodiment. Hereinafter, <2. Intruder detection> and <3. Next, the specification of the grounding position will be described.

<2.侵入者の検出>
図14、図15および図16は、侵入者の検出方法を示す図である。図14は、撮像エリア6内を撮像した基準画像83Eを示す。基準画像83Eは、監視状態に入る前に、あらかじめ撮像される。基準画像83Eは、撮像エリア6内に人などの移動体がいない状態で撮像される。基準画像83Eは、図2に示すように、基準画像データ124として記憶装置12に格納される。
<2. Intruder detection>
FIG. 14, FIG. 15 and FIG. 16 are diagrams showing an intruder detection method. FIG. 14 shows a reference image 83E obtained by imaging the imaging area 6. The reference image 83E is captured in advance before entering the monitoring state. The reference image 83E is captured in a state where there is no moving body such as a person in the imaging area 6. The reference image 83E is stored in the storage device 12 as reference image data 124 as shown in FIG.

基準画像83Eが保存されている状態で、監視カメラ2が撮像エリア6の撮像を開始する。撮像された画像は、撮像画像データ122として記憶装置12に格納される。図15は、侵入者831が撮像エリア6に侵入した状態で撮像された監視画像83Fを示す。   With the reference image 83E stored, the surveillance camera 2 starts imaging the imaging area 6. The captured image is stored in the storage device 12 as captured image data 122. FIG. 15 shows a monitoring image 83 </ b> F captured while the intruder 831 has entered the imaging area 6.

監視プログラム120は、監視画像83Fと基準画像83Eの差分を抽出し、差分画像83Gを生成する。図16は、差分画像83Gを示す。差分画像83Gは、図に示すように、背景部分が除去され差分領域831が抽出されている。以下の説明において、適宜侵入者831を差分領域831と呼ぶことにする。   The monitoring program 120 extracts a difference between the monitoring image 83F and the reference image 83E, and generates a difference image 83G. FIG. 16 shows a difference image 83G. In the difference image 83G, as shown in the figure, the background portion is removed and the difference area 831 is extracted. In the following description, the intruder 831 will be referred to as a difference area 831 as appropriate.

監視プログラム120は、差分画像83Gを生成すると、次に、パターン画像データ125から抽出したパターン画像を用いて差分画像83Gとのマッチングを行う。   After generating the difference image 83G, the monitoring program 120 next performs matching with the difference image 83G using the pattern image extracted from the pattern image data 125.

パターン画像データ125は、図2に示すように、記憶装置12に格納されている。パターン画像データ125は、人物の全身の特徴を示すパターン画像が含まれている。監視プログラム120は、全身の特徴を示すパターン画像データ125から、適宜、任意の場所のパターン画像を抽出してマッチングに利用することができる。たとえば、頭の特徴を示す頭パターン、上半身の特徴を示す上半身パターン、足の特徴を示す足パターンなど、任意の場所を任意の範囲で抽出してパターン画像として利用することができる。   The pattern image data 125 is stored in the storage device 12 as shown in FIG. The pattern image data 125 includes a pattern image indicating the characteristics of the person's whole body. The monitoring program 120 can appropriately extract a pattern image at an arbitrary place from the pattern image data 125 indicating the characteristics of the whole body and use it for matching. For example, an arbitrary place such as a head pattern indicating a head feature, an upper body pattern indicating an upper body feature, and a foot pattern indicating a foot feature can be extracted in an arbitrary range and used as a pattern image.

図17は、マッチングの方法を示す図である。たとえば、差分領域831に対して、上半身パターン101や、胴体パターン102などをマッチングさせる。監視プログラム120は、いずれかのパターンが差分領域831とマッチングすれば差分領域831を侵入者831であると判定する。いずれか1つのパターンと一致した場合に、マッチング成功と判断してもよいし、たとえば2箇所など複数の場所のパターンが一致した場合に、マッチング成功と判断してもよい。   FIG. 17 is a diagram illustrating a matching method. For example, the upper body pattern 101 and the body pattern 102 are matched with the difference region 831. If any pattern matches the difference area 831, the monitoring program 120 determines that the difference area 831 is the intruder 831. If it matches any one of the patterns, it may be determined that the matching is successful. For example, if the patterns at a plurality of places such as two places match, it may be determined that the matching is successful.

<3.接地位置の特定>
監視プログラム120は、差分領域831が侵入者831であると判定した場合には、次に、接地位置の特定を行う。図18は、接地位置の特定方法を示す図である。監視プログラム120は、差分領域831と足パターン103とのマッチングを行う。足パターン103とマッチングできた場合には、マッチングできた足の最下位位置を接地位置と特定することができる。
<3. Identifying the grounding location>
If the monitoring program 120 determines that the difference area 831 is the intruder 831, the monitoring program 120 next specifies the ground contact position. FIG. 18 is a diagram illustrating a method for specifying the ground contact position. The monitoring program 120 performs matching between the difference area 831 and the foot pattern 103. When matching with the foot pattern 103 is possible, the lowest position of the matched foot can be specified as the ground contact position.

図18で示した例では、侵入者831の全身が撮像領域に収まっているケースである。これに対して、図19で示す例では、侵入者831の一部が撮像領域に収まっている。つまり、差分領域831が撮像範囲の下端に位置している。   In the example illustrated in FIG. 18, the entire body of the intruder 831 is within the imaging region. On the other hand, in the example shown in FIG. 19, a part of the intruder 831 is within the imaging area. That is, the difference area 831 is located at the lower end of the imaging range.

監視プログラム120は、図17で示したように、パターン画像データ125から様々な特徴パターンを抽出し、差分領域831とマッチングを行う。図19の場合であれば、上半身パターン101とのマッチングに成功する。マッチングに成功することで、監視プログラム120は、差分領域831が侵入者831であると判定する。   As illustrated in FIG. 17, the monitoring program 120 extracts various feature patterns from the pattern image data 125 and performs matching with the difference area 831. In the case of FIG. 19, matching with the upper body pattern 101 is successful. When the matching is successful, the monitoring program 120 determines that the difference area 831 is the intruder 831.

しかし、図19で示す例では、差分画像83Hに含まれる差分領域831は、撮像範囲の下端に位置している。この場合、監視プログラム120は、差分領域831と足パターン103とのマッチングに失敗する。監視プログラム120は、足パターン103以外の特徴パターンとのマッチングには成功したが、足パターン103とのマッチングに失敗した場合には、侵入者831が監視カメラ2から所定の距離よりも近くに位置すると判定する。言い換えると、監視プログラム120は、撮像領域の下端位置において上半身パターン101とのマッチングに成功した場合、侵入者831が監視カメラ2から所定の距離よりも近くに位置すると判定する。   However, in the example shown in FIG. 19, the difference area 831 included in the difference image 83H is located at the lower end of the imaging range. In this case, the monitoring program 120 fails to match the difference area 831 and the foot pattern 103. The monitoring program 120 succeeds in matching with a feature pattern other than the foot pattern 103, but if the matching with the foot pattern 103 fails, the intruder 831 is positioned closer than the predetermined distance from the monitoring camera 2. Judge that. In other words, the monitoring program 120 determines that the intruder 831 is located closer than the predetermined distance from the monitoring camera 2 when the matching with the upper body pattern 101 is successful at the lower end position of the imaging region.

図20は、別のケースを示す図である。監視画像83Iは、侵入者831が障害物の陰に隠れた状態で撮像された画像である。このようなケースで、監視プログラム120が、差分領域を抽出し、上半身パターン101とのマッチングを行えば、マッチングに成功する。しかし、監視プログラム120は、差分領域と足パターン103とのマッチングには失敗する。   FIG. 20 is a diagram showing another case. The monitoring image 83I is an image captured in a state where the intruder 831 is hidden behind an obstacle. In such a case, if the monitoring program 120 extracts a difference area and performs matching with the upper body pattern 101, matching is successful. However, the monitoring program 120 fails to match the difference area and the foot pattern 103.

このとき、監視プログラム120は、図21に示すように、差分画像83Jに含まれる上半身のみの差分領域831に、足パターン103をあてはめることで足部分を補完する。そして、この補完に使われた足パターン103の足の最下位位置を接地位置として特定するのである。   At this time, as shown in FIG. 21, the monitoring program 120 complements the foot portion by applying the foot pattern 103 to the difference region 831 of only the upper body included in the difference image 83J. Then, the lowest position of the foot of the foot pattern 103 used for this complementation is specified as the ground contact position.

ここでは、上半身のみの差分領域831に足パターンを補完すると説明したが、実質的には、パターン画像データ125は、全身の特徴を示すパターンを保有しているので、上半身のみの差分領域831に、全身パターンを重ね合わせる操作と変わりない。全身パターンを差分領域831に重ね合わせること、つまり、上半身部分をマッチングさせながら全身パターンを重ねた上で、足の最下位位置を接地位置と特定することができる。   Here, it has been described that the foot pattern is complemented to the difference area 831 of only the upper body. However, since the pattern image data 125 substantially includes a pattern indicating the characteristics of the whole body, the difference area 831 of only the upper body is included. This is the same as the operation to superimpose the whole body pattern. By superimposing the whole body pattern on the difference area 831, that is, by superposing the whole body pattern while matching the upper body part, the lowest position of the foot can be specified as the ground contact position.

図22は、足パターンとのマッチングが行えない場合に、接地位置を特定する別の方法を示す。この方法は、差分領域831に含まれる人の一部と全身との比率から接地位置を特定する方法である。図22に示す差分画像83Kには、上半身の差分領域831が抽出されている。そして、足パターンとのマッチングには失敗している。   FIG. 22 shows another method of specifying the contact position when matching with the foot pattern cannot be performed. This method is a method for identifying the ground contact position from the ratio of the part of the person included in the difference area 831 to the whole body. A difference area 831 of the upper body is extracted from the difference image 83K shown in FIG. And matching with the foot pattern has failed.

制御部11は、あらかじめ平均的な体型の比率データを保有している。したがって、上半身のサイズから比率データに基づいて全身のサイズを推定することができる。ここで、サイズとしては、たとえば、領域の高さを用いればよい。   The control unit 11 holds average body ratio data in advance. Therefore, the size of the whole body can be estimated from the size of the upper body based on the ratio data. Here, as the size, for example, the height of the region may be used.

たとえば、上半身である差分領域831の高さをL1とし、上半身と全身の高さ(長さ)の比をRaとすれば、全身の高さL2は、L1×Raで表される。監視プログラム120は、推定された全身の高さL2を利用して、接地位置を特定する。   For example, if the height of the difference region 831 that is the upper body is L1, and the ratio of the height (length) of the upper body and the whole body is Ra, the whole body height L2 is expressed by L1 × Ra. The monitoring program 120 specifies the ground contact position using the estimated whole body height L2.

図23は、足パターンとのマッチングが行えない場合に、接地位置を特定する別の方法を示す。この方法は、差分領域に含まれる顔領域と全身との比率から接地位置を特定する方法である。たとえば、目、鼻、口、耳などの特徴部分から顔認識が行われ、顔領域のサイズが算出される。   FIG. 23 shows another method of specifying the contact position when matching with the foot pattern cannot be performed. This method is a method of specifying the ground contact position from the ratio of the face area and the whole body included in the difference area. For example, face recognition is performed from features such as eyes, nose, mouth, and ears, and the size of the face area is calculated.

制御部11は、あらかじめ顔のサイズと全身のサイズとの比率データを保有している。ここで、サイズとは、顔および全身の高さ(長さ)を用いればよい。顔の高さをL3、顔と全身の高さとの比をRbとすれば、全身の高さL4は、L3×Rbで表される。監視プログラム120は、全身の高さL4から、接地位置を特定する。   The control unit 11 holds ratio data between the face size and the whole body size in advance. Here, the size may be the height (length) of the face and the whole body. If the height of the face is L3 and the ratio between the height of the face and the whole body is Rb, the whole body height L4 is represented by L3 × Rb. The monitoring program 120 specifies the ground contact position from the height L4 of the whole body.

以上説明したように、本実施の形態の監視システム3によれば、監視カメラ2が撮像した画像を利用して、侵入者までの距離を測定することができる。   As described above, according to the monitoring system 3 of the present embodiment, the distance to the intruder can be measured using the image captured by the monitoring camera 2.

なお、図2に示した監視装置1の記憶装置12には、第1の実施の形態と第2の実施の形態の両方の処理が可能となるように全てのデータが記憶されているが、これに限られない。たとえば、監視システム3が第1の実施の形態のみ実行すればよいのであれば、基準画像データ124やパターン画像データ125を記憶しておく必要はない。   The storage device 12 of the monitoring device 1 shown in FIG. 2 stores all data so that both the first embodiment and the second embodiment can be processed. It is not limited to this. For example, if the monitoring system 3 only needs to execute the first embodiment, it is not necessary to store the reference image data 124 and the pattern image data 125.

1 監視装置
2 監視カメラ
3 監視システム
6 撮像領域
1 Monitoring Device 2 Monitoring Camera 3 Monitoring System 6 Imaging Area

Claims (12)

所定の領域を撮像するよう撮像範囲が設定された撮像装置と、
前記撮像装置により撮像した前記所定の領域の画像上の座標に、実空間における前記撮像装置からの距離を対応させた距離画像を記憶する記憶装置と、
前記所定の領域を監視中、前記撮像装置により前記所定の領域の監視画像を取得し、前記監視画像から侵入者を検出する侵入者検出部と、
前記監視画像において前記侵入者の接地位置を特定する接地位置特定部と、
前記距離画像と前記接地位置とから前記侵入者までの距離を特定する距離特定部と、
を備えることを特徴とする監視システム。
An imaging device in which an imaging range is set to image a predetermined area;
A storage device that stores a distance image in which a distance from the imaging device in real space is associated with coordinates on the image of the predetermined region captured by the imaging device;
While monitoring the predetermined area, an intruder detection unit that acquires a monitoring image of the predetermined area by the imaging device and detects an intruder from the monitoring image;
A grounding position identifying unit that identifies the grounding position of the intruder in the monitoring image;
A distance specifying unit for specifying a distance from the distance image and the ground contact position to the intruder;
A monitoring system comprising:
請求項1に記載の監視システムにおいて、
前記侵入者検出部は、
前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、を比較し、輝度値の変化が第1の閾値を超える領域を移動体領域として抽出する抽出部と、
前記移動体領域の高さが第2の閾値を超える場合、前記移動体領域を前記侵入者の領域として判定する侵入者判定部と、
を含むことを特徴とする監視システム。
The monitoring system according to claim 1,
The intruder detection unit
An extraction unit that compares the monitoring image with a reference image captured in a state where there is no intruding object in the predetermined region, and extracts a region in which a change in luminance value exceeds a first threshold as a moving body region;
An intruder determination unit that determines the moving body area as the intruder area when the height of the moving body area exceeds a second threshold;
A monitoring system comprising:
請求項1に記載の監視システムにおいて、
前記侵入者検出部は、
前記監視画像と、前記所定の領域に侵入物体がない状態で撮像された基準画像と、の差分画像を生成する差分生成部と、
前記差分画像と、人物の特定の場所の特徴を表す特定パターン画像とのマッチングを行い、前記監視画像に含まれている前記侵入者の領域を決定するマッチング部と、
を含むことを特徴とする監視システム。
The monitoring system according to claim 1,
The intruder detection unit
A difference generating unit that generates a difference image between the monitoring image and a reference image captured in a state where there is no intruding object in the predetermined region;
A matching unit that performs matching between the difference image and a specific pattern image representing characteristics of a specific place of a person, and determines a region of the intruder included in the monitoring image;
A monitoring system comprising:
請求項2に記載の監視システムにおいて、
前記接地位置特定部は、前記移動体領域の最下位点を接地位置として特定することを特徴とする監視システム。
The monitoring system according to claim 2,
The monitoring system characterized in that the grounding position specifying unit specifies the lowest point of the moving body region as a grounding position.
請求項3に記載の監視システムにおいて、
前記接地位置特定部は、
前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングに成功した場合、
前記足パターン画像とマッチングした領域の最下位点を接地位置として特定することを特徴とする監視システム。
The monitoring system according to claim 3,
The grounding position specifying unit is
When the difference image is successfully matched with a foot pattern image representing the characteristics of a person's foot,
A monitoring system, characterized in that the lowest point of an area matched with the foot pattern image is specified as a ground contact position.
請求項2に記載の監視システムにおいて、
前記接地位置特定部は、前記移動体領域の最下位点が前記監視画像の最下位領域と一致する場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする監視システム。
The monitoring system according to claim 2,
The ground contact position specifying unit determines that the intruder is approaching within a predetermined distance from the imaging device when the lowest point of the moving body region coincides with the lowest region of the monitoring image. A characteristic surveillance system.
請求項2に記載の監視システムにおいて、
前記侵入者検出部は、
検出した前記侵入者のサイズを記憶するサイズ記憶部、
を含み、
前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上小さくなっている場合、前記カレントフレームに含まれる前記侵入者の頭の位置を基準として、前記過去フレームに含まれる前記侵入者のサイズを考慮することで、前記接地位置を特定することを特徴とする監視システム。
The monitoring system according to claim 2,
The intruder detection unit
A size storage unit for storing the size of the detected intruder,
Including
The grounding position specifying unit is included in the current frame when the size of the intruder included in the current frame is smaller than a predetermined ratio than the size of the intruder included in the previous frame of the previous frame. The monitoring system, wherein the ground contact position is specified by taking into account the size of the intruder included in the past frame with reference to the position of the head of the intruder.
請求項2に記載の監視システムにおいて、
前記侵入者検出部は、
検出した前記侵入者のサイズを記憶するサイズ記憶部、
を含み、
前記接地位置特定部は、カレントフレームに含まれる前記侵入者のサイズが、1フレーム前の過去フレームに含まれる前記侵入者のサイズより所定の割合以上大きくなっている場合、前記過去フレームに含まれる前記侵入者のサイズを考慮することなく、前記カレントフレームに基づいて前記接地位置を特定することを特徴とする監視システム。
The monitoring system according to claim 2,
The intruder detection unit
A size storage unit for storing the size of the detected intruder,
Including
The grounding position specifying unit is included in the past frame when the size of the intruder included in the current frame is larger than a predetermined ratio than the size of the intruder included in the previous frame one frame before. The monitoring system, wherein the ground contact position is specified based on the current frame without considering the size of the intruder.
請求項3に記載の監視システムにおいて、
前記接地位置特定部は、前記差分画像の下端領域において、前記差分画像と、人物の上半身の特徴を表す上半身パターン画像とのマッチングに成功した場合、前記侵入者が、前記撮像装置から所定の距離以内に近づいていると判断することを特徴とする監視システム。
The monitoring system according to claim 3,
In the lower end region of the difference image, the grounding position specifying unit, when the matching between the difference image and the upper body pattern image representing the upper body feature of the person is successful, the intruder is a predetermined distance from the imaging device A monitoring system characterized by being determined to be approaching within.
請求項3に記載の監視システムにおいて、
前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所に、人物全体の特徴を表す人物全体パターン画像をあてはめることで前記接地位置を特定することを特徴とする監視システム。
The monitoring system according to claim 3,
If the difference image and the foot pattern image representing the feature of the person's foot could not be matched, the ground contact position specifying unit may display the whole person representing the feature of the whole person in another place of the person who succeeded in matching A monitoring system that identifies the ground contact position by applying a pattern image.
請求項3に記載の監視システムにおいて、さらに、
人物の平均的な体型の比率を示す比率情報を記憶する比率記憶部、
を備え、
前記接地位置特定部は、前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、マッチングに成功した人物の他の場所のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする監視システム。
The monitoring system according to claim 3, further comprising:
A ratio storage unit that stores ratio information indicating a ratio of an average figure of a person;
With
When the difference image and the foot pattern image representing the feature of the person's foot cannot be matched, the contact position specifying unit is indicated by the ratio information in the size of the other place of the person who has succeeded in matching. The monitoring system is characterized in that the ground contact position is specified by applying the ratio.
請求項3に記載の監視システムにおいて、さらに、
人物の平均的な顔のサイズと全身のサイズとの比率を示す比率情報を記憶する比率記憶部、
を備え、
前記接地位置特定部は、
前記監視画像に対して顔認識処理を行い、顔のサイズを取得する顔抽出部と、
前記差分画像と、人物の足の特徴を表す足パターン画像とのマッチングができなかった場合、顔抽出部で抽出した顔のサイズに、前記比率情報で示された比率を適用させることで、前記接地位置を特定することを特徴とする監視システム。
The monitoring system according to claim 3, further comprising:
A ratio storage unit that stores ratio information indicating a ratio between the average face size of the person and the size of the whole body;
With
The grounding position specifying unit is
A face extraction unit that performs face recognition processing on the monitoring image and acquires a face size;
When the difference image and the foot pattern image representing the feature of the person's foot cannot be matched, the ratio indicated by the ratio information is applied to the size of the face extracted by the face extraction unit, A monitoring system characterized by specifying a grounding position.
JP2009200084A 2009-08-31 2009-08-31 Monitoring system Expired - Fee Related JP5370009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009200084A JP5370009B2 (en) 2009-08-31 2009-08-31 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009200084A JP5370009B2 (en) 2009-08-31 2009-08-31 Monitoring system

Publications (2)

Publication Number Publication Date
JP2011053005A true JP2011053005A (en) 2011-03-17
JP5370009B2 JP5370009B2 (en) 2013-12-18

Family

ID=43942180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009200084A Expired - Fee Related JP5370009B2 (en) 2009-08-31 2009-08-31 Monitoring system

Country Status (1)

Country Link
JP (1) JP5370009B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226909A (en) * 2011-04-18 2012-11-15 Lixil Corp Human body detection sensor and automatic faucet
JP2013019721A (en) * 2011-07-08 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> Position detector, position detection method, and computer program
JP2014016839A (en) * 2012-07-09 2014-01-30 Nippon Telegr & Teleph Corp <Ntt> Mobile object tracking device
JP2015108999A (en) * 2013-12-05 2015-06-11 三菱電機株式会社 Dynamic state management system
JP2016024191A (en) * 2014-07-21 2016-02-08 ジック アーゲー Distance measuring sensor for recognition of object and distance measurement
CN111062366A (en) * 2019-12-30 2020-04-24 中祖建设安装工程有限公司 Method and system for detecting postures of personnel in control room

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62136989A (en) * 1985-12-10 1987-06-19 Matsushita Electric Works Ltd Abnormality monitoring device
JPH0261793A (en) * 1988-08-26 1990-03-01 Matsushita Electric Works Ltd Intruder detecting device
JP2002042142A (en) * 2000-07-28 2002-02-08 Matsushita Electric Ind Co Ltd Distance measurement device and monitoring device using it
JP3637360B2 (en) * 2001-12-17 2005-04-13 株式会社シーイーシー Surveillance camera system and information providing system using the same
JP2006221610A (en) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device
JP2007213181A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Privacy protection image generation device
JP2008182459A (en) * 2007-01-24 2008-08-07 Megachips System Solutions Inc Passage monitoring system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62136989A (en) * 1985-12-10 1987-06-19 Matsushita Electric Works Ltd Abnormality monitoring device
JPH0261793A (en) * 1988-08-26 1990-03-01 Matsushita Electric Works Ltd Intruder detecting device
JP2002042142A (en) * 2000-07-28 2002-02-08 Matsushita Electric Ind Co Ltd Distance measurement device and monitoring device using it
JP3637360B2 (en) * 2001-12-17 2005-04-13 株式会社シーイーシー Surveillance camera system and information providing system using the same
JP2006221610A (en) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device
JP2007213181A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Privacy protection image generation device
JP2008182459A (en) * 2007-01-24 2008-08-07 Megachips System Solutions Inc Passage monitoring system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226909A (en) * 2011-04-18 2012-11-15 Lixil Corp Human body detection sensor and automatic faucet
JP2013019721A (en) * 2011-07-08 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> Position detector, position detection method, and computer program
JP2014016839A (en) * 2012-07-09 2014-01-30 Nippon Telegr & Teleph Corp <Ntt> Mobile object tracking device
JP2015108999A (en) * 2013-12-05 2015-06-11 三菱電機株式会社 Dynamic state management system
JP2016024191A (en) * 2014-07-21 2016-02-08 ジック アーゲー Distance measuring sensor for recognition of object and distance measurement
CN111062366A (en) * 2019-12-30 2020-04-24 中祖建设安装工程有限公司 Method and system for detecting postures of personnel in control room
CN111062366B (en) * 2019-12-30 2023-12-15 中祖建设安装工程有限公司 Method and system for detecting gesture of personnel in control room

Also Published As

Publication number Publication date
JP5370009B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5040258B2 (en) Video surveillance apparatus, video surveillance system, and image processing method
US20230410621A1 (en) Intrusion detection system, intrusion detection method, and computer-readable medium
JP6650677B2 (en) Video processing apparatus, video processing method, and program
CN108476304B (en) Discarded object monitoring device, discarded object monitoring system provided with same, and discarded object monitoring method
WO2014199941A1 (en) Information processing device, information processing method, and program
JP5370009B2 (en) Monitoring system
JP6732522B2 (en) Image processing apparatus, image processing method and program
JP2008217602A (en) Suspicious behavior detection system and method
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
KR20190046351A (en) Method and Apparatus for Detecting Intruder
JP2018156408A (en) Image recognizing and capturing apparatus
JP6512793B2 (en) Imaging device, surveillance camera system, control method and program for imaging device
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
JP2008026998A (en) Obstacle location calculation system and method
JP5626099B2 (en) Pedestrian detection device
JP2018148402A (en) Image monitoring device and image monitoring method
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP4707019B2 (en) Video surveillance apparatus and method
JP4993281B2 (en) Monitoring area setting device
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method
JP3994954B2 (en) Object detection apparatus and object detection method
JP6737262B2 (en) Abnormal state detection device, abnormal state detection method, and abnormal state detection program
KR101224534B1 (en) Fire detection device based on image processing with motion detect function
KR102407202B1 (en) Apparatus and method for intelligently analyzing video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5370009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees