JP4610005B2 - Intruding object detection apparatus, method and program by image processing - Google Patents

Intruding object detection apparatus, method and program by image processing Download PDF

Info

Publication number
JP4610005B2
JP4610005B2 JP2005199990A JP2005199990A JP4610005B2 JP 4610005 B2 JP4610005 B2 JP 4610005B2 JP 2005199990 A JP2005199990 A JP 2005199990A JP 2005199990 A JP2005199990 A JP 2005199990A JP 4610005 B2 JP4610005 B2 JP 4610005B2
Authority
JP
Japan
Prior art keywords
image
intruding object
monitoring
line
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005199990A
Other languages
Japanese (ja)
Other versions
JP2007018324A (en
Inventor
慶人 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central Research Institute of Electric Power Industry
Original Assignee
Central Research Institute of Electric Power Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central Research Institute of Electric Power Industry filed Critical Central Research Institute of Electric Power Industry
Priority to JP2005199990A priority Critical patent/JP4610005B2/en
Publication of JP2007018324A publication Critical patent/JP2007018324A/en
Application granted granted Critical
Publication of JP4610005B2 publication Critical patent/JP4610005B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理の方法および装置およびプログラムに関する。更に詳述すると本発明は、画像処理により照明変化や背景変化がある場所での使用に適した侵入物体検出装置および方法、プログラムに関する。   The present invention relates to an image processing method, apparatus, and program. More specifically, the present invention relates to an intruding object detection apparatus, method, and program suitable for use in a place where there is an illumination change or a background change by image processing.

侵入者の監視方法として、画像処理を用いた侵入検出方式が知られている。これはITVカメラ等で撮影した画像内に人物が侵入すると画像内に輝度変化が発生することを利用したもので、その輝度変化を捉える方法が広く利用されている。特に、輝度変化を捉える方法としては、予め準備した背景画像と撮影画像の輝度値の差分を使う背景差分や、同一背景の時間的にわずかに離れた画像の画像間で画素値の差分を検出することにより、差分画像を作成するフレーム間差分がある。また、近くの物体を検出する場合には、フレーム間差分が有効であり、遠方の物体を検出する場合には、背景差分が有効であることから両方式を組み合わせたハイブリッド方式を用いた侵入検出方式が提案されている。(特許文献1参考)。   As an intruder monitoring method, an intrusion detection method using image processing is known. This utilizes the fact that a luminance change occurs in an image when a person enters the image taken by an ITV camera or the like, and a method of capturing the luminance change is widely used. In particular, as a method of capturing changes in brightness, a background difference that uses a difference between the brightness values of a background image and a captured image prepared in advance or a difference in pixel values between images of the same background that are slightly separated in time is detected. By doing so, there is an inter-frame difference for creating a difference image. In addition, when detecting nearby objects, inter-frame difference is effective, and when detecting distant objects, background difference is effective, so intrusion detection using a hybrid method that combines both methods. A scheme has been proposed. (See Patent Document 1).

一方、ITVカメラで撮影した画像から、人体テンプレートとの比較により人物を検出する方法が提案されている(非特許文献1参照)。ここでは照度変化や背景変化に対し安定に人物検出が可能であることが示されている。   On the other hand, a method for detecting a person from an image taken by an ITV camera by comparison with a human body template has been proposed (see Non-Patent Document 1). Here, it is shown that it is possible to detect a person stably against a change in illuminance or a change in background.

特開2002−176640号JP 2002-176640 A A. Mohan, C. Papageorgiou and T. Poggio: Example-based Object Detection in Images by Components, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No. 4,349-361, 2001A. Mohan, C. Papageorgiou and T. Poggio: Example-based Object Detection in Images by Components, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No. 4,349-361, 2001

しかしながら、上述した背景差分、フレーム間差分、ハイブリッド方式を用いた侵入検出方式では、屋外での照明変化や草木の動き等の背景変化を検出する誤検出が多く発生する可能性がある。また、人物等を検出するには、画像全体を差分処理した後、さらに、ノイズ除去やラベリング処理により人物がいる候補領域を決定し、その候補領域に人物判定処理を行う必要があるためデータ処理量が多くなり、リアルタイム処理に向かないという問題点が存在する。   However, in the intrusion detection method using the background difference, the interframe difference, and the hybrid method described above, there may be many false detections for detecting background changes such as outdoor illumination changes and vegetation movements. In addition, in order to detect a person or the like, it is necessary to perform a difference process on the entire image, and further determine a candidate area where a person is present by noise removal or labeling processing, and perform person determination processing on the candidate area. There is a problem that the amount increases and it is not suitable for real-time processing.

また、静止画像を利用し、人体テンプレートとの比較により人物を検出する方法においては、静止画像全体に人体テンプレートをスキャンさせながら比較処理するため、画像全体のデータ処理が必要となり、データ処理量が多くなる。このため、データ処理に時間がかかり、侵入物体の検出と同時に警報を発するといった実時間処理には向かず、監視装置としての機能を果たせないことがある。   In addition, in the method of detecting a person by using a still image and comparing it with a human body template, since the comparison process is performed while scanning the human body template over the still image, data processing of the entire image is required, and the amount of data processing is large. Become more. For this reason, it takes time for data processing, and it is not suitable for real-time processing such as issuing an alarm simultaneously with detection of an intruding object, and may not function as a monitoring device.

そこで、本発明は、誤検出を減らすことができ、さらに、データ処理量を軽減することにより処理時間の短縮化を図り、実時間処理を可能とする侵入物体検出装置および方法、並びにプログラムを提供することを目的とする。   Therefore, the present invention provides an intruding object detection apparatus and method, and a program that can reduce false detection and further reduce the processing time by reducing the amount of data processing and enable real-time processing. The purpose is to do.

かかる目的を達成するため、請求項1記載の侵入物体検出方法は、撮影画像内に少なくとも一本以上の線分領域を設定する監視ライン設定処理と、前記線分領域上で、輝度値変化が大きい画素を抽出するライン監視処理と、前記撮影画像を一定区画に分割し、前記ライン監視処理により抽出された画素を含み、かつ移動速度が速い侵入物体が存在していると推定される区画順に優先順位を付ける優先区画決定処理と、前記優先区画決定処理により設定された前記区画の優先順位に従って、前記区画に撮影された画像と予め用意された侵入物体テンプレートとのマッチングにより前記区画内に侵入物体が存在しているか否かを判定する侵入物体判定処理とを行うようにしている。   In order to achieve such an object, the intruding object detection method according to claim 1 includes a monitoring line setting process for setting at least one line segment area in a captured image, and a luminance value change on the line segment area. Line monitoring processing for extracting large pixels, and the captured image is divided into predetermined sections, and in order of sections in which it is estimated that an intruding object including pixels extracted by the line monitoring processing and having a high moving speed exists. According to the priority section determination process for assigning priorities and the priority of the sections set by the priority section determination process, the image captured in the section and the intruding object template prepared in advance are intruded into the section. Intrusion object determination processing for determining whether or not an object exists is performed.

また、請求項8記載の侵入物体検出装置は、撮影画像内に少なくとも一本以上の線分領域を設定する監視ライン設定手段と、前記線分領域上で、画素の輝度値変化が大きい画素を抽出するライン監視手段と、前記撮影画像を一定区画に分割し、前記ライン監視処理により抽出された画素を含み、かつ移動速度が速い侵入物体が存在していると推定される区画順に優先順位を付ける優先区画決定手段と、前記優先区画決定手段により設定された前記区画の優先順位に従って、前記区画に撮影された画像と予め用意された侵入物体テンプレートとのマッチングにより前記区画内に侵入物体が存在しているか否かを判定する侵入物体判定手段とを備えるようにしている。   The intruding object detection device according to claim 8 is a monitor line setting unit that sets at least one line segment area in a captured image, and a pixel having a large change in luminance value of the pixel on the line segment area. The line monitoring means for extracting, the captured image is divided into fixed sections, and the priority order is determined in the order of the sections including the pixels extracted by the line monitoring processing and presumed that an intruding object having a high moving speed exists. An intruding object exists in the section by matching a pre-prepared intrusion object template with an image captured in the section in accordance with the priority section determining means to be attached and the priority order of the section set by the priority section determining means. An intruding object determination means for determining whether or not

また、請求項15記載の侵入物体検出プログラムは、撮影画像を表示する出力装置上で設定された線分領域に対応する部分のアドレスを監視ラインとして主記憶装置に記憶する監視ライン設定手段と、前記線分領域上で輝度値変化が大きい画素のアドレスを主記憶装置に記憶するライン監視手段と、前記撮影画像をあらかじめ一定区画に分割して主記憶装置に記憶し、前記ライン監視手段により記憶された画素のアドレスを含み、かつ移動速度が速い侵入物体が存在していると推定される区画順に優先順位を付け、該優先順位を主記憶装置に記憶する優先区画決9定手段と、前記優先区画決定手段により主記憶装置に記憶された前記区画の優先順位に従って、前記区画に撮影された画像と、補助記憶装置から読み出した侵入物体テンプレートをマッチングにより前記区画内に侵入物体が存在しているか否かを判定する侵入物体判定手段としてコンピュータを機能させるようにしている。   The intruding object detection program according to claim 15 is a monitoring line setting means for storing, in the main storage device, an address of a portion corresponding to a line segment area set on an output device for displaying a captured image, as a monitoring line; Line monitoring means for storing the address of a pixel having a large change in luminance value on the line segment area in a main storage device, and the captured image is divided into predetermined sections and stored in the main storage device, and stored by the line monitoring means. A priority partition determination unit for assigning priorities in the order of the partitions in which it is estimated that an intruding object having a high moving speed is included, and storing the priorities in the main storage device, In accordance with the priority order of the sections stored in the main storage device by the priority section determining means, the image photographed in the sections and the intruding object template read from the auxiliary storage device So that causes a computer to function as determining intruding object determination unit configured to determine whether the intruding object is present in said compartment by matching.

したがって、侵入物体例えば不正侵入者等が線分領域(以下、監視ラインという)上を通過すると、監視ライン上の画素の輝度値変化が起こる。この輝度値変化が大きい画素を抽出し、さらに撮影画像をあらかじめ一定の区画に分割したうちの輝度値変化が大きい画素を含む区画を抽出し、該区画に対して優先順位を設定し、その区画の優先順位に従って、区画内に撮影された画像と予め用意された侵入物体テンプレートとのマッチングにより区画内に侵入物体が存在しているか否かを判定するようにしている。このようにして、データ処理範囲を監視ライン上の画素に限定し、さらに、監視ライン上での画素の輝度値変化が大きい画素のみを抽出し、処理の対象とすることで、静止している物体や、動きの少ない物体を除いて、侵入物体の可能性のある画素のみをデータ処理の対象とすることとしている。データ処理量を減らすことにより、データ処理時間を大幅に短縮し、実時間処理(約30画像/秒)を可能とし、かつ誤検出の少ない侵入物体の検出を実現している。   Therefore, when an intruding object such as an unauthorized intruder passes through a line segment area (hereinafter referred to as a monitoring line), the luminance value of the pixel on the monitoring line changes. Pixels with a large change in luminance value are extracted, and a section including pixels with a large change in luminance value is extracted from the captured image divided in advance, and priorities are set for the sections. In accordance with the priorities, it is determined whether or not an intruding object exists in the section by matching an image photographed in the section with an intruding object template prepared in advance. In this way, the data processing range is limited to the pixels on the monitoring line, and only pixels with a large change in luminance value of the pixels on the monitoring line are extracted and set as processing targets, so that they are stationary. Except for objects and objects with little movement, only pixels that may be intruding objects are targeted for data processing. By reducing the data processing amount, the data processing time is greatly shortened, real-time processing (approximately 30 images / second) is possible, and detection of an intruding object with few false detections is realized.

請求項2記載の発明は、請求項1記載の侵入物体検出方法において、前記監視ライン設定処理は、前記線分領域を撮影画像内の必要に応じた位置と傾きに設定するようにしている。また、請求項9記載の発明は、請求項8記載の侵入物体検出装置において、前記監視ライン設定処理は、前記線分領域を撮影画像内の必要に応じた位置と傾きに設定するものである。したがって、侵入物体の検出には、侵入物体が監視ラインを通過することが必要となるので、侵入物体が通過する可能性の高い部分に、必要に応じて、侵入物体の検出が可能な位置と傾きで監視ラインを設定できるようにしている。   According to a second aspect of the present invention, in the intruding object detection method according to the first aspect, the monitoring line setting process sets the line segment region to a position and an inclination according to necessity in the captured image. According to a ninth aspect of the present invention, in the intruding object detection device according to the eighth aspect, the monitoring line setting process sets the line segment region to a position and an inclination according to necessity in the captured image. . Therefore, since it is necessary for the intruding object to pass through the monitoring line in order to detect the intruding object, a position where the intruding object can be detected is set in a portion where the intruding object is likely to pass as necessary. The monitoring line can be set by tilting.

請求項3記載の発明は、請求項1または2記載の侵入物体検出方法において、前記ライン監視処理は、前記線分領域毎に、前記線分領域上のすべての画素を任意の記録時間に渡って記録した時空間画像を作成し、前記線分領域上の画素位置での輝度値が該画素位置で求めた任意の記録時間に渡る輝度値の平均値に対して予め設定した標準偏差の閾値倍の範囲を超える輝度値となる画素を検出し、前記検出された画素によって前記時空間画像上に形成される線分の長さを求めるようにしている。また、請求項10記載の発明は、請求項8または9記載の侵入物体検出装置において、前記ライン監視手段は、前記線分領域毎に、前記線分領域上のすべての画素を任意の記録時間に渡って記録した時空間画像を作成し、前記線分領域上の画素位置での輝度値が該画素位置で求めた任意の記録時間に渡る輝度値の平均値に対して予め設定した標準偏差の閾値倍の範囲を超える輝度値となる画素を検出し、前記検出された画素によって前記時空間画像上に形成される線分の長さを求めるものである。したがって、監視ライン上の全画素を任意の記録時間に渡ってすべて記憶して時空間画像を作成し、さらに、侵入物体が監視ライン上を通過する際に、画素の輝度値変化が起こることを用いて、監視ライン上の画素位置での輝度値が予め設定した閾値を超える輝度値となった画素を検出し、その検出された画素によって時空間画像上に形成される線分の長さを求めるようにしている。監視ライン上の画素のデータ処理に限定して、データ処理量を減らすこととしている。   According to a third aspect of the present invention, in the intruding object detection method according to the first or second aspect, in the line monitoring process, for each line segment area, all pixels on the line segment area are arranged over an arbitrary recording time. A threshold value of a standard deviation set in advance with respect to an average value of luminance values over an arbitrary recording time obtained at a pixel position on the line segment area. A pixel having a luminance value exceeding the double range is detected, and the length of a line segment formed on the spatiotemporal image by the detected pixel is obtained. The invention according to claim 10 is the intruding object detection apparatus according to claim 8 or 9, wherein the line monitoring means sets all the pixels on the line segment area to an arbitrary recording time for each line segment area. A standard deviation set in advance with respect to an average value of luminance values over an arbitrary recording time obtained at a pixel position on the line segment region is created by creating a spatio-temporal image recorded over A pixel having a luminance value exceeding the range of the threshold times is detected, and the length of the line segment formed on the spatiotemporal image by the detected pixel is obtained. Therefore, all the pixels on the monitoring line are memorized over an arbitrary recording time to create a spatiotemporal image, and further, when the intruding object passes on the monitoring line, the change in the luminance value of the pixel occurs. And detecting a pixel whose luminance value at a pixel position on the monitoring line exceeds a preset threshold value, and determining a length of a line segment formed on the spatiotemporal image by the detected pixel. I want to ask. The amount of data processing is reduced only for pixel data processing on the monitoring line.

請求項4記載の発明は、請求項3記載の侵入物体検出方法において、前記ライン監視処理は、前記検出された画素を予め設定した閾値以上の画像フレーム数に渡って検出した場合に、前記時空間画像上に形成される線分として抽出するようにしている。また、請求項11記載の発明は、請求項10記載の侵入物体検出装置において、前記ライン監視手段は、前記検出された画素を予め設定した閾値以上の画像フレーム数に渡って検出した場合に、前記時空間画像上に形成される線分として抽出するものである。したがって、輝度値が大きく変化した画素が、予め設定した閾値以上の画像フレーム数にわたって検出された場合に、時空間画像上で線分として検出することとしている。輝度値の単発的な変化の検出を除くものである。   According to a fourth aspect of the present invention, in the method for detecting an intruding object according to the third aspect, the line monitoring process is performed when the detected pixels are detected over a number of image frames equal to or greater than a preset threshold. It is extracted as a line segment formed on the spatial image. The invention according to claim 11 is the intruding object detection device according to claim 10, wherein the line monitoring means detects the detected pixels over a predetermined number of image frames or more. This is extracted as a line segment formed on the spatiotemporal image. Therefore, when a pixel whose luminance value has changed greatly is detected over the number of image frames equal to or greater than a preset threshold, it is detected as a line segment on the spatiotemporal image. This excludes the detection of a single change in luminance value.

請求項5記載の発明は、請求項4記載の侵入物体検出方法において、前記優先区画決定処理は、前記ライン監視処理により求めた前記線分の長さと、撮影フレーム数から前記線分の傾きを求め、該傾きの大きさから侵入物体の移動速度を推定するようにしている。また、請求項12記載の発明は、請求項11記載の侵入物体検出装置において、前記優先区画決定手段は、前記ライン監視手段により求めた前記線分の長さと、撮影フレーム数から前記線分の傾きを求め、該傾きの大きさから侵入物体の移動速度を推定するものである。したがって、線分の長さと、撮影フレーム数から線分の傾きを求めて、傾きの大きい線分ほど侵入物体の移動速度は速く、傾きの小さい線分ほど侵入物体の移動速度は遅いものとして、監視ライン上の画素のデータ処理だけで、侵入物体の移動速度を推定することとしている。   According to a fifth aspect of the present invention, in the method for detecting an intruding object according to the fourth aspect, the priority section determining process is performed by calculating the length of the line segment obtained by the line monitoring process and the slope of the line segment from the number of shooting frames. Then, the moving speed of the intruding object is estimated from the magnitude of the inclination. According to a twelfth aspect of the present invention, in the intruding object detection device according to the eleventh aspect, the priority section determining unit determines the line segment from the length of the line segment obtained by the line monitoring unit and the number of frames taken. The inclination is obtained, and the moving speed of the intruding object is estimated from the magnitude of the inclination. Therefore, the inclination of the line segment is obtained from the length of the line segment and the number of frames taken, and the moving speed of the intruding object is faster for the line segment with the larger inclination, and the moving speed of the intruding object is slower for the line segment with the smaller inclination. The moving speed of the intruding object is estimated only by data processing of pixels on the monitoring line.

請求項6記載の発明は、請求項5記載の侵入物体検出方法において、前記優先区画決定処理は、前記線分の傾きの大きさに従って前記線分領域上の画素に対して重み値を設定し、重み値の高い画素を含む前記区画に優先順位を設定するようにしている。また、請求項13記載の発明は、請求項12記載の侵入物体検出装置において、前記優先区画決定手段は、前記線分の傾きの大きさに従って前記線分領域上の画素に対して重み値を設定し、重み値の高い画素を含む前記区画に優先順位を設定するものである。したがって、線分の傾きの大きい監視ライン上の画素に対して高い重み値を設定して、高い重み値を含む区画に対して、侵入物体判定処理をおこなうための優先順位を高く設定することで、移動速度の速い侵入物体が存在すると推定される区画に対して高い優先順位を設定することとしている。   According to a sixth aspect of the present invention, in the intruding object detection method according to the fifth aspect of the invention, the priority section determining process sets a weight value for pixels on the line segment area in accordance with the slope of the line segment. The priority order is set for the section including pixels having a high weight value. The invention according to claim 13 is the intruding object detection device according to claim 12, wherein the priority section determining means assigns a weight value to the pixels on the line segment area according to the inclination of the line segment. The priority order is set for the section including pixels having a high weight value. Therefore, by setting a high weight value for the pixels on the monitoring line having a large inclination of the line segment and setting a high priority for performing the intruding object determination process for the section including the high weight value, A high priority is set for a section in which an intruding object having a high moving speed is estimated to exist.

請求項7記載の発明は、請求項6記載の侵入物体検出方法において、前記優先区画決定処理は、前記侵入物体判定処理での優先区画内に侵入物体が存在していないと判定した場合に、該優先区画に対して、前記重み値を低い値に更新し、前記優先順位を抑制するようにしている。また、請求項14記載の発明は、請求項13記載の侵入物体検出装置において、前記優先区画決定手段は、前記侵入物体判定手段での優先区画内に侵入物体が存在していないと判定した場合に、該優先区画に対して、前記重み値を低い値に更新し、前記優先順位を抑制するものである。したがって、前のフレームで侵入物体が存在しないと判定した場合は、重み値を低い値に更新することで、次のフレーム処理での優先順位をさげることとして、一旦侵入物体が存在しないと判定した区画については、しばらく侵入物体判定処理を行わないこととしている。   According to a seventh aspect of the present invention, in the intruding object detection method according to the sixth aspect, when it is determined that the intruding object does not exist in the priority section in the intruding object determination process, the priority section determining process For the priority partition, the weight value is updated to a low value to suppress the priority. According to a fourteenth aspect of the present invention, in the intruding object detection device according to the thirteenth aspect, the priority section determining means determines that no intruding object exists in the priority section of the intruding object determining means. In addition, for the priority section, the weight value is updated to a low value to suppress the priority order. Therefore, if it is determined that there is no intruding object in the previous frame, it is determined that there is no intruding object once by updating the weight value to a lower value to reduce the priority in the next frame processing. For the section, the intruding object determination process is not performed for a while.

以上説明したように、請求項1記載の侵入物体検出方法、請求項8記載の侵入物体検出装置、請求項15記載の侵入物体検出プログラムによれば、侵入物体の監視を監視ライン上に限定し、監視ライン上の画像データ処理により、侵入者の検出を行うようにしているため、画像全体を処理する従来の方式に比べてデータ処理量を減らすことができる。また、侵入物体テンプレートとのマッチングを行う範囲を、監視画像上の優先区画に限定しているので、撮影画像全体に対してマッチング処理する方式に比べ、データ処理量を減らすことができる。即ち、データ処理量を減らすことにより、データ処理時間を大幅に短縮することができ、より高速に処理を行うことが可能となる。これにより、実時間処理(約30画像/秒)が可能となり、監視装置の侵入物体を検出すると同時に警報等を発することができるようになる。また、既存の監視カメラを用いてソフトウェアにより実現可能としているので、新たな監視設備が必要となるものではなく、設備投資コストを抑えることができる。また、テンプレートマッチングを行うことにより、誤検出を減らすことができる。   As described above, according to the intruding object detection method according to claim 1, the intruding object detection device according to claim 8, and the intruding object detection program according to claim 15, monitoring of the intruding object is limited to the monitoring line. Since the intruder is detected by image data processing on the monitoring line, the data processing amount can be reduced as compared with the conventional method for processing the entire image. In addition, since the matching range with the intruding object template is limited to the priority section on the monitoring image, the data processing amount can be reduced as compared with the method of performing the matching process on the entire captured image. That is, by reducing the amount of data processing, the data processing time can be greatly shortened and processing can be performed at higher speed. As a result, real-time processing (about 30 images / second) is possible, and an alarm or the like can be issued simultaneously with detection of an intruding object of the monitoring device. Moreover, since it can be realized by software using an existing surveillance camera, a new monitoring facility is not required, and the capital investment cost can be suppressed. Further, false detection can be reduced by performing template matching.

また、請求項2記載の侵入物体検出方法、請求項9記載の侵入物体検出装置によれば、撮影画像内において侵入物体の動きを考慮して、侵入物体の検出が可能な位置と傾きに監視ラインを設定することができる。   In addition, according to the intruding object detection method according to claim 2 and the intruding object detection device according to claim 9, monitoring the position and inclination at which the intruding object can be detected in consideration of the movement of the intruding object in the captured image. Line can be set.

また、請求項3記載の侵入物体検出方法、請求項10記載の侵入物体検出装置によれば、線分領域上の画素のデータ処理に限定して、侵入物体の検出を行うようにしているので、撮影画像全体をデータ処理する必要がなく、処理時間を短縮し、実時間処理を可能とすることができる。   In addition, according to the intruding object detection method according to claim 3 and the intruding object detection device according to claim 10, the intruding object is detected only by the pixel data processing on the line segment area. This eliminates the need for data processing of the entire photographed image, shortens the processing time, and enables real-time processing.

また、請求項4記載の侵入物体検出方法、請求項11記載の侵入物体検出装置によれば、単発的な輝度値の変化の検出を除くことで、ノイズの除去を行うことができる。   Further, according to the intruding object detection method according to claim 4 and the intruding object detection apparatus according to claim 11, noise can be removed by removing detection of a single change in luminance value.

また、請求項5記載の侵入物体検出方法、請求項12記載の侵入物体検出装置によれば、監視ライン上の画素のデータ処理のみによって侵入物体の移動速度を推定することができる。   According to the intruding object detection method of claim 5 and the intruding object detection device of claim 12, the moving speed of the intruding object can be estimated only by data processing of pixels on the monitoring line.

また、請求項6記載の侵入物体検出方法、請求項13記載の侵入物体検出装置によれば、、監視ライン上の画素のデータ処理のみによって移動速度の速い侵入物体から侵入物体判定処理を行うことを可能にしている。画像全体をデータ処理する方式に比べ、データ処理量を減らすことができる。   According to the intruding object detection method according to claim 6 and the intruding object detection device according to claim 13, the intruding object determination process is performed from the intruding object having a high moving speed only by the data processing of the pixels on the monitoring line. Is possible. Compared with the method of processing the entire image, the data processing amount can be reduced.

また、請求項7記載の侵入物体検出方法、請求項14記載の侵入物体検出装置によれば、前のフレームでの侵入物体判定処理の結果により、前記優先順位を抑制することができるので、一旦侵入物体が存在しないと判定した区画については、しばらく侵入物体判定処理を行わないことができ、効率的なデータ処理を可能としている。   Further, according to the intruding object detection method according to claim 7 and the intruding object detection device according to claim 14, the priority can be suppressed by the result of the intruding object determination process in the previous frame. For the section determined that there is no intruding object, the intruding object determination processing can not be performed for a while, and efficient data processing is possible.

以下、本発明の構成を図面に示す実施形態に基づいて詳細に説明する。   Hereinafter, the configuration of the present invention will be described in detail based on embodiments shown in the drawings.

図1から図29に本発明の画像処理による侵入物体検出方法および装置およびプログラムの実施の一形態を示す。この侵入物体検出方法は、まず撮影画像内に監視ラインを設定し、監視ラインごとに時空間画像を作成し、監視ライン上で画素の輝度値の時系列変化が大きい画素を検出して、検出された画素によって時空間画像上に形成される線分(以下、変化パスという)の傾きの大きさを求める。更に、求められた変化パスの傾きの大きさによって、侵入物体の移動速度を推定し、移動速度の速い侵入物体を捉えた監視ライン上の画素を含む、撮影画像を予め分割しておいた区画に優先順位を設定し、その区画の優先順位に従って、区画内に撮影された画像と予め用意された侵入物体テンプレートとのマッチングにより区画内に侵入物体が存在しているか否かを判定するようにしている。   FIG. 1 to FIG. 29 show an embodiment of an intruding object detection method and apparatus and program by image processing according to the present invention. This intruding object detection method first sets a monitoring line in the captured image, creates a spatio-temporal image for each monitoring line, detects pixels on the monitoring line that have large time-series changes in pixel luminance values, and detects them. The magnitude of the slope of a line segment (hereinafter referred to as a change path) formed on the spatio-temporal image by the obtained pixels is obtained. Further, a section in which a captured image is divided in advance, including pixels on a monitoring line that estimates the moving speed of an intruding object based on the obtained gradient of the change path and captures an intruding object having a high moving speed. In accordance with the priority order of the section, it is determined whether or not an intruding object exists in the section by matching an image photographed in the section with a prepared intruding object template. ing.

本発明の画像処理による侵入物体検出方法および装置およびプログラムは、例えば、図1に示すように、監視ライン設定(S1)、新規撮影画像入力(S2)、ライン監視処理(S3)、優先区画決定処理(S4)と、侵入物体判定処理(S5)と、侵入物体検知画像記録(S6)からなる。尚、図21に侵入物体検出装置のハードウェア構成図の一例を示す。   As shown in FIG. 1, for example, as shown in FIG. 1, an intruding object detection method, apparatus, and program according to the present invention are used for monitoring line setting (S1), new captured image input (S2), line monitoring processing (S3), and priority section determination. The process includes a process (S4), an intruding object determination process (S5), and an intruding object detection image recording (S6). FIG. 21 shows an example of a hardware configuration diagram of the intruding object detection device.

監視ライン設定(S1)は、利用者がディスプレイなどの出力装置14で、マウス、タブレット等の入力インターフェース11を用いて画像上の必要な位置と傾きに線分領域を任意に設定するものである。出力装置14には、監視画像が表示されているものとする。監視ラインの設定は、出力装置14上で、線分の始点と終点をマウス等で指定する、または、マウス等でドラッグして線分を引くことにより設定される。主記憶装置13は、指定された線分領域に対応する部分の監視画像上のアドレスを監視ラインとしてに記憶する。   In the monitoring line setting (S1), the user arbitrarily sets a line segment area at a necessary position and inclination on an image using the output device 14 such as a display and the input interface 11 such as a mouse or a tablet. . It is assumed that a monitoring image is displayed on the output device 14. The setting of the monitoring line is set on the output device 14 by designating the start point and end point of the line segment with a mouse or the like, or dragging the line segment with the mouse or the like. The main storage device 13 stores the address on the monitoring image of the part corresponding to the designated line segment area as the monitoring line.

本発明は、監視ライン上を侵入物体が通過することにより、当該侵入物体を検出するものである。そのため、監視ラインは、侵入物体の立ち入りや通過が禁止されている、または、制限されている箇所に、侵入物体が通過するような位置と傾きで設定する必要がある。そのためには、監視ラインの設定は、特定の位置や傾きにおいてのみ設定が可能であるのではなく、任意の位置と傾きで設定が可能であることが望ましい。本発明では、必要に応じた位置と傾きで監視画像上に監視ラインを設定することができるものとしているので、侵入物体の通過を捉えるために必要な位置と傾きで設定することができる。尚、監視ラインの設定数は特に限られるものではなく、一つの監視画像に対して必要な本数分を設定することができる。   In the present invention, an intruding object is detected when the intruding object passes on a monitoring line. For this reason, it is necessary to set the monitoring line with a position and an inclination so that the intruding object passes through a place where the entering or passing of the intruding object is prohibited or restricted. For this purpose, it is desirable that the monitoring line can be set not only at a specific position and inclination but also at an arbitrary position and inclination. In the present invention, since it is assumed that a monitoring line can be set on the monitoring image with a position and an inclination according to necessity, it can be set with a position and an inclination necessary for capturing the passage of an intruding object. Note that the number of monitoring lines set is not particularly limited, and a necessary number of monitoring lines can be set for one monitoring image.

監視ラインは、監視画像上に入力インターフェース11を用いて設定するものであるが、例えば、侵入物体が通過する可能性の高い通路に設定したり、侵入禁止区域を囲むように複数設定することが効果的である。監視対象物が人物である場合には、立ち入り禁止区域や立ち入り制限区域に監視ラインを設定することが効果的である。具体的には、立ち入り禁止区域に通じる通路に設定することで侵入者を未然に検出することができる。また、監視ラインを立ち入り禁止区域を囲むように複数設定することで当該区域への侵入者を検出することができる。なお、監視対象は人物に限られるものではなく、車両、動物などであってもよい。例えば、監視対象が車両であれば、車両通過禁止区域に監視ラインを設定することで、車両の通過の検出を行うことができ、また、監視対象が動物であれば、動物園における動物の行動監視などにも用いることができるものである。   The monitoring lines are set on the monitoring image by using the input interface 11. For example, a plurality of monitoring lines may be set so as to be a passage through which an intruding object is likely to pass or to surround an intrusion prohibited area. It is effective. When the monitoring target is a person, it is effective to set a monitoring line in the restricted entry area or restricted entry area. Specifically, an intruder can be detected in advance by setting it in a passage that leads to a restricted area. Further, by setting a plurality of monitoring lines so as to surround the prohibited entry area, it is possible to detect an intruder into the area. The monitoring target is not limited to a person, and may be a vehicle, an animal, or the like. For example, if the monitoring target is a vehicle, it is possible to detect the passing of the vehicle by setting a monitoring line in the vehicle passage prohibition area. If the monitoring target is an animal, monitoring the behavior of animals in a zoo It can also be used for such as.

図5に監視ラインの設定の一例を示す。本実施形態では、例えば、電力会社内の充電部への人物の接近監視や侵入禁止領域での侵入監視を行うものとし、電力会社内の充電部への人物の接近を監視する監視画像から、侵入者の検出を行うものとしている。電力会社構内にある充電部は、人物が不用意に接近することは危険であるので立ち入り制限がされている場所である。このような場合は、電気所構内の充電部を囲むように監視ラインを設定することにより、人物の充電部への接近を検出することができ、事故を未然に防ぐことが可能となる。尚、本実施形態では、屋外での監視を行っているが、監視場所は屋外に限られるものではなく、屋内での監視も可能である。例えば、電気所構内の充電部を囲むように3本の監視ラインを設定することができる。このように、人物の立ち入りが制限されている場所を囲むように、任意の位置と傾きで監視ラインを設定することができることとしている。   FIG. 5 shows an example of monitoring line settings. In the present embodiment, for example, it is assumed that the monitoring of the approach of the person to the charging unit in the power company and the intrusion monitoring in the intrusion prohibited area, and from the monitoring image for monitoring the approach of the person to the charging unit in the power company, It is supposed to detect intruders. The charging unit in the power company premises is a place where access is restricted because it is dangerous for a person to approach carelessly. In such a case, by setting a monitoring line so as to surround the charging unit in the electric premises, it is possible to detect the approach of the person to the charging unit and to prevent an accident. In this embodiment, monitoring is performed outdoors, but the monitoring location is not limited to the outdoors, and indoor monitoring is also possible. For example, three monitoring lines can be set so as to surround the charging unit in the electric facility. As described above, the monitoring line can be set at an arbitrary position and inclination so as to surround a place where the entry of persons is restricted.

新規撮影画像入力(S2)は、監視カメラにより撮影された監視画像(例えば、720×480画素)をTVレート(30画像/秒)で、取得するものとする。尚、撮像手段は監視カメラに限定されるものではなくビデオカメラ等の撮像装置であってもよい。また、撮像手段は、本装置とは別途設置されていてもよく、例えば、撮影画像はインターネット網等を通じて取得するようにしても良い。また、フレームレート数もTVレートに限るものではない。尚、撮影画像はカラー画像であっても、グレースケール画像であっても良い。また、解像度も上記の解像度に限定されるものではない。   In the newly-captured image input (S2), a monitoring image (for example, 720 × 480 pixels) captured by the monitoring camera is acquired at a TV rate (30 images / second). The imaging means is not limited to the monitoring camera, and may be an imaging device such as a video camera. In addition, the imaging unit may be installed separately from the present apparatus. For example, the captured image may be acquired through the Internet network or the like. Further, the number of frame rates is not limited to the TV rate. The captured image may be a color image or a gray scale image. Also, the resolution is not limited to the above resolution.

ライン監視処理(S3)は、監視ライン毎に時空間画像を作成するものとする。図2に時空間画像の一例を示す。時空間画像2とは、監視画像1上に設定された監視ライン3上のすべての画素を撮影フレーム(1からn番目まで)順に並べて作成する画像をいう。ここで、nは監視画像のフレーム数を示している。時空間画像は、更新されるものであり、nフレーム分の監視画像を取得したら、その後は常に更新されていくものである。尚、nはパラメータであり任意に設定することができる。尚、フレーム数とフレームレート数から記録時間t(撮影時間)も求めることができる。   The line monitoring process (S3) creates a spatiotemporal image for each monitoring line. FIG. 2 shows an example of a spatiotemporal image. The spatio-temporal image 2 refers to an image created by arranging all the pixels on the monitoring line 3 set on the monitoring image 1 in order of shooting frames (from 1 to n). Here, n indicates the number of frames of the monitoring image. The spatio-temporal image is updated, and after monitoring images for n frames are acquired, the space-time image is constantly updated thereafter. Note that n is a parameter and can be arbitrarily set. The recording time t (shooting time) can also be obtained from the number of frames and the number of frame rates.

図3及び図4に、人物が通過した監視画像上のある画素値における輝度値の変化を計測した結果を示す。図4は、図3で示す監視画像内の×点部分8の輝度値(約600フレーム分)の時系列変化を示したものである。図4は、約400〜500フレームにかけて人物が通過する様子を示している。人物が通過するときに輝度値が大きく変化する(400〜500フレームにかけての標準偏差11.4)が、その他のフレームでは平均輝度値を前後しながら微小な変化(100画像分の輝度値の標準偏差1.4)であることがわかった。×点部分8には、通常、アスファルトが撮影されている。同一の背景が撮影されている間は、画素の輝度値もほとんど変化しないが、侵入物体(人物)が×点部分を通過する地点で、大きな輝度値の変化が捉えられた。これにより、ある画素における輝度値のフレームごとの時系列変化を捉えることで、侵入物体の検出に用いることができることがわかった。   FIG. 3 and FIG. 4 show the results of measuring the change in luminance value at a certain pixel value on the monitoring image through which a person passes. FIG. 4 shows a time-series change in the luminance value (about 600 frames) of the x point portion 8 in the monitoring image shown in FIG. FIG. 4 shows how a person passes through about 400 to 500 frames. When a person passes, the luminance value changes greatly (standard deviation 11.4 over 400 to 500 frames), but in other frames, a slight change (standard luminance value for 100 images) changes before and after the average luminance value. The deviation was found to be 1.4). X Asphalt is usually photographed at the point portion 8. While the same background was photographed, the luminance value of the pixel hardly changed, but a large change in the luminance value was captured at a point where the intruding object (person) passed the x point. As a result, it has been found that it can be used for detecting an intruding object by capturing a time-series change in luminance value of each pixel in each frame.

以上より、監視ライン上における画素の輝度値の時系列変化は、侵入物体が通過をしたときに大きな変化を示すことがわかった(図3及び図4)。即ち、撮影画像に設けられた監視ライン上の各画素の輝度値が一定時間の時系列変化が大きく変化した画素を抽出することにより、侵入物体の検出を行うことができることとなる。本実施形態では、画素の輝度値の時系列変化を捉えるため、監視画像上の画素の輝度値が予め設定した閾値以上となる画素を検出するようにしている。尚、本実施形態では、時系列変化を捉える基準として、画素の輝度値を基準としているが、各画素の色彩情報を基準として予め設定した閾値以上となる画素を抽出しても良い。   From the above, it has been found that the time-series change of the luminance value of the pixel on the monitoring line shows a large change when the intruding object passes (FIGS. 3 and 4). In other words, an intruding object can be detected by extracting a pixel in which the luminance value of each pixel on the monitoring line provided in the photographed image has changed significantly over time. In the present embodiment, in order to capture the time series change of the luminance value of the pixel, a pixel in which the luminance value of the pixel on the monitoring image is equal to or greater than a preset threshold value is detected. In the present embodiment, the luminance value of the pixel is used as a reference as a reference for capturing the time-series change. However, a pixel that is equal to or more than a preset threshold value based on the color information of each pixel may be extracted.

監視ライン上において、輝度値が大きく変化した画素(以下、変化点という)を抽出するようにしている。本実施形態においては、変化点を抽出するために、標準偏差を用いたシグマバンドを用いている。具体的には、時空間画像に新規に追加された監視画像の監視ラインの各画素位置の輝度値と1フレーム前までの各画素位置で求めた輝度値の平均値との差が、1フレーム前までの各画素位置での輝度値の平均値に対して求めた標準偏差の予め設定した閾値倍以内に収まるかで否かで変化点の抽出を行うものとしている。これにより、新規に追加された監視画像の監視ラインの各画素位置の輝度値が、同一の画素位置での輝度値に対して、どれくらいの変化をしているかを判断し、大きな変化をしたものを捉えることとしている。   Pixels whose luminance values have changed greatly (hereinafter referred to as change points) are extracted on the monitoring line. In the present embodiment, a sigma band using standard deviation is used to extract the change point. Specifically, the difference between the luminance value at each pixel position of the monitoring line of the monitoring image newly added to the spatiotemporal image and the average value of the luminance values obtained at each pixel position one frame before is one frame. The change point is extracted depending on whether or not it falls within a preset threshold value multiple of the standard deviation obtained with respect to the average value of the luminance values at each previous pixel position. As a result, it is judged how much the luminance value at each pixel position of the monitoring line of the newly added monitoring image has changed with respect to the luminance value at the same pixel position, and has changed greatly. To capture.

なお、標準偏差に対して設定する閾値は任意に設定することが可能であり、侵入物体、背景変化に応じて適宜設定することができる。例えば、閾値を低く設定しておけば、より微小な輝度値の変化を検出することができるので、ノイズの少ない屋内での監視の場合等には有効である。また、検出する侵入物体に応じて最も効果的に検出可能な閾値を予め実験等により求めておくことで、ノイズの誤検出を減らすことができる。尚、本実施形態では、シグマバンドを用いて変化点の抽出を行っているが、変化点の抽出は、これに限られるものではない。例えば、輝度値平均から予め設定した閾値以上離れた輝度値を示した画素を変化点として抽出しても良い。尚、閾値の設定は必ずしも必要なものでなく、閾値の設定をせずに、標準偏差(1σ)を超えた画素を抽出するようにしても良い。   Note that the threshold value set for the standard deviation can be arbitrarily set, and can be set as appropriate according to the intruding object and the background change. For example, if the threshold value is set low, a smaller change in luminance value can be detected, which is effective for indoor monitoring with little noise. In addition, it is possible to reduce erroneous detection of noise by previously obtaining a threshold value that can be detected most effectively according to an intruding object to be detected through experiments or the like. In this embodiment, extraction of change points is performed using a sigma band, but extraction of change points is not limited to this. For example, a pixel that indicates a luminance value that is more than a preset threshold value from the average luminance value may be extracted as a change point. Note that it is not always necessary to set the threshold value, and pixels exceeding the standard deviation (1σ) may be extracted without setting the threshold value.

また、本実施形態においては、変化点を複数フレームに渡って検出した場合(以下、基準とするフレーム数を変化判定画像数とする)にのみ、その連続した変化点を変化パスとして抽出することとしている。変化点は、侵入物体の通過だけでなく、ノイズ(ブラックノイズ、太陽光の変化、陽炎、カメラ前での虫や鳥の通過など)による単発的な輝度値の変化によっても起こりうる。このため、変化判定画像数以上に渡って変化点を検出した場合のみ変化パスとして抽出することで、単発的な輝度値の変化を除くこととしている。これにより、ノイズの除去を行うこととしている。尚、変化判定画像数は任意に設定可能なパラメータであるので、撮影環境、監視対象物に応じて任意に設定することができる。   Further, in the present embodiment, only when the change points are detected over a plurality of frames (hereinafter, the reference frame number is referred to as the change determination image number), the continuous change points are extracted as change paths. It is said. The change point can be caused not only by the passage of an intruding object but also by a single change in luminance value due to noise (black noise, change in sunlight, heat, passage of insects and birds in front of the camera, etc.). For this reason, only a change in the brightness value is extracted by extracting as a change path only when change points are detected over the number of change determination images. As a result, noise is removed. Since the number of change determination images is a parameter that can be set arbitrarily, it can be set arbitrarily according to the shooting environment and the monitoring target.

また、複数フレームに渡り連続する変化点を変化パスとして抽出することとしているが、侵入物体の通過により変化点が連続して捉えられている場合でも、ノイズの発生により逆に変化点として検出されない範囲の輝度値を示してしまうことで、変化点として抽出されず変化点の連続が途切れてしまう場合がある。この場合、変化パスとして抽出されない場合も起こりうるので、監視ライン上の変化点を周辺の画素に拡張しておく処理を行っている。例えば、本実施形態では、監視ライン上で変化点として検出された画素位置の監視ライン上の両隣に位置する画素も変化点として記録しておく処理をしている。このように、変化点の拡張処理をしておくことで、変化点の連続が途切れて、変化パスとして検出されなくなることを防いでいる。尚、拡張範囲は、任意に設定することができるものであり、両隣の画素に限られるものではない。本拡張処理は、必ずしも必要な処理ではない。例えば、ノイズの発生が少ないと考えられる場合などにおいては、省略してもよい。   In addition, although continuous change points over a plurality of frames are extracted as change paths, even if change points are continuously captured due to the passage of an intruding object, they are not detected as change points due to the occurrence of noise. By indicating the luminance value of the range, there are cases where the continuation of change points is interrupted without being extracted as change points. In this case, since it may occur that the change path is not extracted, a process of extending the change point on the monitoring line to the surrounding pixels is performed. For example, in the present embodiment, processing is performed in which the pixels located on both sides of the pixel position detected as the change point on the monitor line are also recorded as the change point. In this way, the change point extension process prevents the change points from being interrupted and not being detected as a change path. The extended range can be arbitrarily set, and is not limited to the pixels on both sides. This extended process is not necessarily a necessary process. For example, it may be omitted when it is considered that the generation of noise is small.

なお、時空間画像の更新は、First In First Out(以下、FIFOという)を用いておこなうこととしている。時空間画像の作成フレーム数nは、予め任意に設定することができる。例えば、60画像にすれば、60フレーム(2秒間)に渡る時空間画像を記録しておくことができる。時空間画像の更新は、具体的には、最新の撮影画像の監視ライン上の画素を時空間画像の最下位行に追加し、最上位行(最も前の撮影画像)を削除する処理を行うものである。これにより、常に最新フレームについてデータ処理を行い、一定時間経過後のフレームを削除することとしているので、複数フレームを同時に処理する方式に比べて、データ処理量を減らすことができる。尚、時空間画像の更新方式はFIFOに限られるものではなく、例えば、複数フレームを同時に追加、削除を行っても良い。   The space-time image is updated using First In First Out (hereinafter referred to as FIFO). The number n of frames for creating the spatiotemporal image can be arbitrarily set in advance. For example, with 60 images, a spatiotemporal image over 60 frames (2 seconds) can be recorded. Specifically, the update of the spatiotemporal image is performed by adding a pixel on the monitoring line of the latest captured image to the lowest row of the spatiotemporal image and deleting the uppermost row (the previous captured image). Is. As a result, data processing is always performed on the latest frame, and frames after a certain period of time are deleted, so that the amount of data processing can be reduced compared to a method of simultaneously processing a plurality of frames. Note that the spatio-temporal image update method is not limited to FIFO, and for example, a plurality of frames may be added and deleted simultaneously.

次に、図6に時空間画像における侵入物体と静止物体の変化点を記録し、線分として示したもの(以下、変化点記録ラインという)を示す。監視画像1上の監視ライン3から作成した時空間画像2を示している。尚、4aは侵入物体の変化点記録ライン、変化5は静止物体の変化点記録ラインを示している。例えば、変化点記録ライン4aは、侵入物体6が矢印の方向に進んだ場合の変化点記録ラインを表している。侵入物体6が、監視ライン上を通過することに伴って、変化点も監視ライン上を移動をするが、時空間画像は絶えず更新されていくので、変化点の連続を捉えた変化点記録ラインは線分4aのような傾きを持つ線分を描くこととなる。尚、監視ライン3は、実際は線分領域であるが、理解を容易にするために、図6及び図7においては、一定の幅を持たせた記載としている。   Next, FIG. 6 shows the change points of the intruding object and the stationary object in the spatiotemporal image, which are shown as line segments (hereinafter referred to as change point recording lines). A spatiotemporal image 2 created from a monitoring line 3 on the monitoring image 1 is shown. Reference numeral 4a denotes a change point recording line for an intruding object, and change 5 denotes a change point recording line for a stationary object. For example, the change point recording line 4a represents a change point recording line when the intruding object 6 advances in the direction of the arrow. As the intruding object 6 passes on the monitoring line, the changing point also moves on the monitoring line, but since the spatiotemporal image is constantly updated, the changing point recording line that captures the continuation of the changing point. Draws a line segment having an inclination like the line segment 4a. Note that the monitoring line 3 is actually a line segment area, but in order to facilitate understanding, in FIG. 6 and FIG. 7, it is described with a certain width.

また、監視ライン3上において侵入物体が通過していない部分は、撮影時間に渡って、同じ背景や建物などの静止物体が撮影されているので、画素の輝度値の変化は微小である。本来であれば、静止物体の画素値はほとんど変化しないので変化点としては、抽出されないが、ここでは、理解を容易にするために静止物体の画素値を抽出し、時空間画像上で侵入物体と同様に静止物体の変化点記録ライン5を示すと、時系列方向に平行に近似した垂線を描くこととなる。即ち、時空間画像上では、侵入物体は傾きを持つ線分を描き、静止物体は垂線を描くことがわかる。   Further, in the part where the intruding object does not pass on the monitoring line 3, since the stationary object such as the same background or building is photographed over the photographing time, the change in the luminance value of the pixel is minute. Originally, since the pixel value of a stationary object hardly changes, it is not extracted as a change point, but here, in order to facilitate understanding, the pixel value of a stationary object is extracted and an intruding object is displayed on a spatio-temporal image. Similarly, when the change point recording line 5 of the stationary object is shown, a perpendicular line drawn in parallel with the time series direction is drawn. That is, on the spatio-temporal image, it can be seen that the intruding object draws a line segment having an inclination and the stationary object draws a perpendicular line.

また、図7に時空間画像における2つの侵入物体の変化点記録ラインの一例を示す。侵入物体の変化点記録ライン4bは、記録時間tに渡り監視ラインを通過したことを示す。また、侵入物体の変化点記録ライン4cは、記録時間tの約1/2分の時間で監視ラインを通過したことを示している。即ち、移動速度が速い侵入物体は、監視ライン上を短い時間で通過するので、侵入物体4cの方が侵入物体4bよりも移動速度が速いことが推定される。ここで、本実施形態では、変化点が変化判定画像数c(例えばc=4)以上に渡って記録された場合に変化パスとして抽出することとしている。変化パス7bと変化パス7cに着目すると、変化パス7bは、変化点記録ライン4bの4画像分の線分であり、変化パス7cは、変化点記録ライン4cの4画像分の線分である。ここで、監視ラインと、変化パスとの間の角度に注目すると、変化パス7cの方が変化パス7bより傾きが大きい(監視ラインと、変化パスとの間の角度が小さい)ことがわかる。侵入物体の変化パスは、移動速度が速いほど、変化パスの傾きは大きくなり(監視ラインと、変化パスとの間の角度が小さくなる)、逆に、移動速度が遅い侵入物体の変化パスは傾きが小さくなる(監視ラインと、変化パスとの間の角度が大きくなる)こととなる。本発明は、これを利用して、時空間画像内での変化パスの傾きの大きさから侵入物体の移動速度を推定することとしている。本実施形態では、監視ライン上の各画素位置で、監視ラインと変化パスとの間の角度に比例する変数を求め、これを記憶装置等に記録することとしている。   FIG. 7 shows an example of change point recording lines of two intruding objects in the spatiotemporal image. The change point recording line 4b of the intruding object indicates that it has passed through the monitoring line over the recording time t. Further, the change point recording line 4c of the intruding object indicates that it has passed through the monitoring line in about half the recording time t. That is, since the intruding object having a high moving speed passes through the monitoring line in a short time, it is estimated that the intruding object 4c has a higher moving speed than the intruding object 4b. Here, in this embodiment, when the change point is recorded over the change determination image number c (for example, c = 4) or more, the change point is extracted as a change path. Focusing on the change path 7b and the change path 7c, the change path 7b is a line segment for four images of the change point recording line 4b, and the change path 7c is a line segment for four images of the change point recording line 4c. . Here, focusing on the angle between the monitoring line and the change path, it can be seen that the change path 7c has a larger inclination than the change path 7b (the angle between the monitoring line and the change path is smaller). As the moving speed of the intruding object changes faster, the inclination of the changing path increases (the angle between the monitoring line and the changing path decreases). The inclination becomes small (the angle between the monitoring line and the change path becomes large). The present invention uses this to estimate the moving speed of the intruding object from the magnitude of the gradient of the change path in the spatiotemporal image. In the present embodiment, at each pixel position on the monitoring line, a variable proportional to the angle between the monitoring line and the change path is obtained and recorded in a storage device or the like.

また、侵入物体が監視ラインに対し、垂直に通過した場合は、変化パスは垂線を描くので、検出できない場合も考え得るが、現実には侵入物体は、一定の幅を持つ物体であるので監視ラインに対してまったくの垂直に通過する(数フレーム間に渡って垂直である)ことは起こりにくい。また、本発明では、このような事態を避けるよう、監視ラインの設定をすることができることとしている。例えば、2本の監視ラインを傾きを変えて並べて設定しておけば、垂直に通過する物体もどちらかの監視ラインで検出可能である。更に、上記述べているデータ処理は、すべて撮影画像の1フレーム分での処理であり、現実には、撮影フレーム分処理が繰り返されるものである。このため、あるフレームにおいて、たまたま侵入物体が監視ラインに対し垂直に移動し、監視ラインと変化パスとの間の角度が大きくなって移動速度を遅いものと検出したとする。この場合、侵入物体の移動速度がどんなに速くても、侵入物体が通過するまでには、数フレームに渡って撮影されるものである。これを考慮すれば、1フレームの処理において検出を失敗しても、侵入物体の通過中のいずれかのフレームで検出処理が可能であれば、監視装置としての役割を果たすことができることとなる。   In addition, if the intruding object passes perpendicular to the monitoring line, the change path draws a perpendicular line, so it may be impossible to detect it, but in reality the intruding object is an object with a certain width, so it is monitored. Passing completely perpendicular to the line (perpendicular for several frames) is unlikely. In the present invention, the monitoring line can be set so as to avoid such a situation. For example, if two monitoring lines are set side by side with different inclinations, an object passing vertically can be detected by either monitoring line. Furthermore, the data processing described above is all processing for one frame of a captured image, and in reality, the processing for the captured frame is repeated. For this reason, it is assumed that, in a certain frame, the intruding object happens to move vertically with respect to the monitoring line, and the angle between the monitoring line and the change path increases to detect that the moving speed is slow. In this case, no matter how fast the moving speed of the intruding object is, the image is taken over several frames before the intruding object passes. Considering this, even if the detection fails in the processing of one frame, if the detection processing is possible in any frame during the passage of the intruding object, it can serve as a monitoring device.

また、侵入物体は、一定の幅を持つ物体であるので、侵入物体が監視ラインを通過する際に検出される変化点は、通常、監視ライン上の複数の画素に連続して検出されることとなる。即ち、検出された変化点のすべてについて変化パスを求めても、隣接する画素であれば同一の物体を検出していることとなるので、本実施形態においては、変化点の連続する時空間画像上の画素の0行地点での中点と、c行(c=変化判定画像数)地点での中点を繋いで変化パスとして抽出することとしている。これにより、一の侵入物体につき一の変化パスを抽出することとしている。   In addition, since the intruding object is an object having a certain width, the change point detected when the intruding object passes through the monitoring line is usually detected continuously by a plurality of pixels on the monitoring line. It becomes. That is, even if the change path is obtained for all of the detected change points, the same object is detected if it is an adjacent pixel. Therefore, in this embodiment, the spatiotemporal image in which the change points are continuous is detected. The middle point at the 0th row point of the upper pixel and the middle point at the cth row (c = number of change determination images) are connected to be extracted as a change path. Thereby, one change path is extracted for one intruding object.

優先区画決定処理(S4)は、監視画像を少なくとも一以上の区画に予め分割し、分割された区画に対して、侵入物体判定処理(S5)を行うための優先順位を設定するためのものである。監視ライン上で変化パスが検出できた全画素に対して侵入物体判定処理を行うとデータ処理量が大きくなり、迅速な処理ができない。そこで、監視画像を少なくとも一以上の区画に分割し、当該区画に優先順位を設定して、その優先順位の高い区画から順番に侵入物体判定処理をおこなうことで、監視画像全体に侵入物判定処理をすることなく、侵入物体の検出を行うこととしている。これにより監視画像全体をデータ処理する方式に比べ、データ処理量を減らすことができ、実時間処理を可能にしている。   The priority section determination process (S4) is for dividing the monitoring image into at least one section in advance and setting a priority order for performing the intruding object determination process (S5) for the divided sections. is there. If an intruding object determination process is performed on all pixels for which a change path can be detected on the monitoring line, the amount of data processing increases, and a rapid process cannot be performed. Therefore, the monitoring image is divided into at least one or more sections, priorities are set for the sections, and the intruding object determination process is performed on the entire monitoring image in order from the higher priority section. It is supposed to detect an intruding object without doing. As a result, the amount of data processing can be reduced and real-time processing is possible as compared with a method in which the entire monitoring image is processed.

尚、監視画像の分割は予め設定しておくものとする。監視画像の分割は、例えば、監視画像をm画素単位の、p×q個の区画に分割するものである。例えば、画像全体が100×100画素の場合は、p=10、q=10と設定すれば、100画素単位に100区画に分類するものである。尚、区画は、出力装置14等でp、qを指定し、監視画像の区画を主記憶装置13に記憶させることによって設定する。尚、区画の設定方法は、これに限られるものではない。例えば、分割する区画数を入力することにより、区画の設定を行っても良い。   Note that the division of the monitoring image is set in advance. The monitoring image is divided, for example, by dividing the monitoring image into p × q sections in units of m pixels. For example, when the entire image is 100 × 100 pixels, if p = 10 and q = 10 are set, the image is classified into 100 sections in units of 100 pixels. The section is set by designating p and q on the output device 14 or the like and storing the section of the monitoring image in the main storage device 13. The section setting method is not limited to this. For example, the division may be set by inputting the number of divisions to be divided.

本実施形態では、優先順位の設定は、移動速度の速い侵入物体を見逃さないようにするため、分割された各区画内に速い侵入物体が含まれる順に優先順位を決定するものとしている。移動速度が速い侵入物体が、監視対象としている侵入物体である可能性が高いと考えられるので、より効果的に監視を行うことができるからである。移動速度が速い侵入物体の時空間画像内での変化パスは、傾きが大きくなるので、傾きの大きな変化パスを含む区画の順番にしたがって優先順位を決定するものとしている。   In the present embodiment, the priority order is set such that the priority order is determined in the order in which the fast intruding objects are included in each of the divided sections so as not to miss the intruding objects having a high moving speed. This is because it is considered that an intruding object with a high moving speed is likely to be an intruding object to be monitored, and thus monitoring can be performed more effectively. Since the change path in the spatio-temporal image of the intruding object having a high moving speed has a large inclination, the priority order is determined according to the order of the sections including the change path having a large inclination.

前記ライン監視処理(S3)により求めた監視ラインと変化パスとの間の角度に比例する変数に、後述する侵入物体判定処理で設定される重み係数(一つ前のフレームでの侵入物体判定処理の結果により定まる係数)をかけて監視ライン上の各画素に対する重み値を求めることとしている。次に、区画内で最大となる画素の重み値を、その区画の区画値として設定し、区画値の大きい順に区画に優先順位を設定するものとしている。尚、監視画像全体を分割した区画のうち、データ処理の対象とするのは、監視ラインを含んでいる区画のみである。具体的には、監視ライン設定(S1)で記憶された、線分領域(監視ライン)の画素のアドレスを、一つでも含んでいる区画を抽出して、さらに、そのうちで移動速度が速い侵入物体を含む区画に対して、移動速度の速い順番に優先順位を設定し、優先順位に従って、侵入物体判定処理を行うものとしている。優先順位は、例えば、侵入物体の移動速度が速い順に1,2,3…と順番に区画に優先順位をつけてもよいが、優先順位の付与方法は、これに限られるものではない。尚、優先順位に対して、実際に侵入物体判定処理を行うための閾値を設定することも可能である。例えば、閾値を3とした場合、優先順位が3までの3つの区画に対し、次の侵入物体判定処理を行うこととする。閾値を1とし、撮影画像の1フレーム分の処理において最大の区画値を示した区画についてだけ侵入物体判定処理を行うこともできる。尚、優先順位を設定せずに、監視ライン上で変化パスを検出した、すべての画素において侵入物体判定処理を行うようにしても良い。   A weight coefficient (intrusion object determination process in the previous frame) set in the intrusion object determination process described later in a variable proportional to the angle between the monitoring line and the change path obtained in the line monitoring process (S3). The weight value for each pixel on the monitoring line is obtained by multiplying the coefficient determined by the result (1). Next, the weight value of the pixel that is maximum in the section is set as the section value of the section, and the priority order is set in the order of the section value in descending order. Of the sections obtained by dividing the entire monitoring image, only the section including the monitoring line is targeted for data processing. Specifically, a section containing at least one pixel address of the line segment area (monitor line) stored in the monitor line setting (S1) is extracted, and further, an intrusion with a fast moving speed is extracted. Priorities are set in descending order of movement speed for sections including objects, and intruding object determination processing is performed according to the priorities. For example, the priority order may be given to the sections in order of increasing moving speed of the intruding object, such as 1, 2, 3,..., But the method of assigning the priority order is not limited to this. Note that it is also possible to set a threshold for actually performing the intruding object determination process for the priority order. For example, when the threshold is set to 3, the next intruding object determination process is performed for three sections with priority levels up to 3. It is also possible to set the threshold value to 1 and perform the intruding object determination process only for the section showing the maximum section value in the processing for one frame of the captured image. Note that the intruding object determination process may be performed on all pixels that have detected a change path on the monitoring line without setting the priority order.

監視ラインを含む区画に限定してデータ処理を行っているので、画像全体をデータ処理を行う必要がなくデータ処理量を減らすことができる。さらに、優先順位が設定された区画についてだけ、侵入物体判定処理を行うこととしているので、データ処理量を大幅に減らすことができる。尚、変化パスが検出されたすべての画素について侵入物体判定処理を行っても良い。また、予め監視画像全体を区画に分割しているのは、区画が重複して、同一の画素に対するデータ処理の重複を避けることができるという理由によるものである。したがって、重複部分の画素のデータ処理を除く処理を行う、又は重複部分のデータ処理を複数回行うようにすれば、撮影画像のうち監視ライン近辺のみを区画に分割して、その区画を優先区画として設定するようにしても良い。   Since data processing is limited to the section including the monitoring line, it is not necessary to perform data processing for the entire image, and the data processing amount can be reduced. Furthermore, since the intruding object determination process is performed only for the sections for which priority is set, the data processing amount can be greatly reduced. Note that the intruding object determination process may be performed for all pixels in which the change path is detected. The reason why the entire monitoring image is divided into sections in advance is that the sections are overlapped, so that it is possible to avoid duplication of data processing for the same pixel. Therefore, if processing for excluding overlapping pixel data processing is performed, or if overlapping portion data processing is performed a plurality of times, only the vicinity of the monitoring line in the captured image is divided into sections, and the sections are prioritized sections. You may make it set as.

侵入物体判定処理(S5)は、優先区画決定処理(S4)において設定された優先順位に従って、区画と侵入物体テンプレートをテンプレートマッチングにより判定する処理を行う。侵入物体判定処理の結果、区画内に侵入物体がいないと判定した場合と、侵入物体が存在すると判断した場合により、重み係数に異なる値を設定することとしている。重み係数は、次フレームの画像処理において、変化パスの傾きに比例する変数を求める際に用いられ、変数の値を更新する。これにより、優先順位を決定する重み値が更新されるので、結果として、区画の優先順位が更新されるものである。   The intruding object determination process (S5) performs a process of determining a section and an intruding object template by template matching according to the priority set in the priority section determination process (S4). As a result of the intruding object determination process, a different value is set for the weighting factor depending on whether it is determined that there is no intruding object in the section and when it is determined that there is an intruding object. The weighting coefficient is used when obtaining a variable proportional to the gradient of the change path in the image processing of the next frame, and updates the value of the variable. As a result, the weight value for determining the priority order is updated. As a result, the priority order of the partitions is updated.

本実施例では、予めサポートベクタマシンに学習用データとして記憶させた侵入物体の画像を判定処理に用いることとしている。これにより、精度の高い侵入物体判定処理を行うことを可能としている。尚、侵入物体の画像に加えて、侵入物体以外の画像(背景画像等)も学習用データとして同様に記憶させることにより、判定結果の精度を上げることができる。具体的には、侵入物体画像と侵入物体以外の2種類の画像集合を、例えば、Haarウェブレット方式で変換した画像を用いてサポートベクタマシンで侵入物体テンプレートを事前に作成しておくことによる。尚、Haarウェブレットとは、最も単純なウェブレット関数の一つである。尚、侵入物体テンプレートは、サポートベクタマシンで作成されたテンプレートに限られるものではなく、既存のテンプレートを予め計算機の記憶装置等に記憶させておく、または、本装置とは別途、外部の記憶装置に記憶させておいても良い。   In this embodiment, an image of an intruding object stored in advance as learning data in a support vector machine is used for determination processing. This makes it possible to perform highly accurate intruding object determination processing. Note that in addition to the image of the intruding object, an image other than the intruding object (background image or the like) is also stored as learning data in the same manner, so that the accuracy of the determination result can be improved. Specifically, an intruding object template is created in advance by a support vector machine using an image obtained by converting two types of image sets other than the intruding object image and the intruding object using, for example, the Haar weblet method. The Haar weblet is one of the simplest weblet functions. The intruding object template is not limited to a template created by a support vector machine, and an existing template is stored in advance in a storage device of a computer, or an external storage device separately from this device. It may be remembered.

また、本実施形態では、テンプレートマッチングに際し、人物画像と人物以外の画像(人物が撮影されていない監視画像の背景画像から任意に採取した画像)の2種類の画像集合を準備することとしているが、人物以外の画像は、必ずしも必要ではなく、人物画像のテンプレートがあれば判定可能である。人物以外の画像を予めサポートベクタマシンに記憶させておくことにより判定精度を上げることができる。また、車両の監視を行う際には、人物画像に代えて車両の画像を、動物の監視を行う際には、動物の画像を用意することにより、同様にテンプレートマッチングを行うものである。   In the present embodiment, two types of image sets are prepared for the template matching: a person image and an image other than a person (an image obtained arbitrarily from a background image of a monitoring image in which no person is photographed). Images other than a person are not necessarily required, and can be determined if there is a person image template. Determination accuracy can be improved by storing images other than a person in the support vector machine in advance. In addition, when performing vehicle monitoring, template matching is performed in the same manner by preparing a vehicle image instead of a person image and preparing an animal image when monitoring an animal.

また、マッチング方式は例えば、監視カメラで撮影した画像から、侵入物体テンプレートとの比較により人物を検出する方法(非特許文献1参照)を用いることととしているが、これに限定されるものではない。例えば、面積相関法などの他のテンプレートマッチング手法を用いても良い。   In addition, the matching method uses, for example, a method (see Non-Patent Document 1) of detecting a person by comparing with an intruding object template from an image taken by a monitoring camera, but is not limited thereto. . For example, other template matching methods such as an area correlation method may be used.

侵入物体検知画像記録(S6)は、監視画像のうち、侵入物体が検出された画像を記憶するものである。尚、監視画像は、侵入物体の検出の有無にかかわらず、撮影中継続して記録しても良い。また、一定時間ごとに、監視画像の記憶領域を更新しながら、監視画像の記録をおこなってもよい。尚、侵入物体検知画像の記録は、侵入物体の記録を残すためのものであるので、実時間処理が可能な本発明においては、侵入物体の検出と同時に警報を出すことができるので、必ずしも画像の記録は必要ではない。また、画像を記録する際も、本装置により行う必要はなく、例えば、インターネット網を通じて他のハードウェアで記録し、通報をおこなうようにしてもよい。   The intruding object detection image recording (S6) stores an image in which an intruding object is detected among the monitoring images. The monitoring image may be continuously recorded during shooting regardless of whether or not an intruding object is detected. Alternatively, the monitoring image may be recorded while updating the monitoring image storage area at regular time intervals. In addition, since the recording of the intruding object detection image is for recording the intruding object, in the present invention capable of real-time processing, an alarm can be issued simultaneously with the detection of the intruding object. Recording of is not necessary. In addition, when recording an image, it is not necessary to use this apparatus. For example, the image may be recorded by other hardware through the Internet network and notified.

本発明は、実時間処理(約30画像/秒)が可能で、既存のソフトウェアによる人物検知に比べ高速な方式を実現している。そのため、充電部接近監視などの監視処理速度が要求される場面に活用できると考えられる。また、ソフトウェアで実現しているため、既存の画像監視システムに導入が容易である。例えば、現在、発電所1箇所あたり約30台以上の監視カメラが設置されている。今後は、さらにインターネット網を利用した監視カメラが増えると考えられるが、それらのカメラ全てに充電部接近判定用の安全監視装置を専用に準備することはコストがかかりすぎるため、実施は困難である。この点、本発明では、既設の監視カメラに接続している既存のハードウェアを用いて、ソフトウェアにより実現可能としているので、新たな設備投資の投資を行うことなく、実時間処理を可能とする監視を実現している。   The present invention is capable of real-time processing (about 30 images / second), and realizes a high-speed method compared to human detection using existing software. For this reason, it can be used in situations where a monitoring processing speed such as monitoring of the charging unit is required. Moreover, since it is realized by software, it can be easily introduced into an existing image monitoring system. For example, about 30 or more monitoring cameras are currently installed per power plant. In the future, the number of surveillance cameras that use the Internet network is expected to increase. However, it is difficult to implement a dedicated safety surveillance device for determining the proximity of live parts for all of these cameras because it is too expensive. . In this regard, in the present invention, since realization is possible by software using existing hardware connected to an existing surveillance camera, real-time processing can be performed without investing in new capital investment. Monitoring is realized.

さらに、本発明によれば、画素の値の変化から画像内の一部を侵入物体領域候補を抽出し、その侵入物体領域候補内で侵入物体テンプレートとの照合を行う方式としている。また、撮影画像内に監視ラインを設定することで、侵入物体の検出前における画像処理範囲を監視ライン上に限定している。このため、画像全体を処理する従来の方式に比べてデータ処理量を減らすことができる。したがって、データ処理時間を短縮することができ、侵入物体を検出すると同時に警報等を発することができるようになる。   Furthermore, according to the present invention, a method for extracting a part of an intruding object area from a change in the value of a pixel and collating with an intruding object template within the intruding object area candidate. Further, by setting a monitoring line in the captured image, the image processing range before the detection of the intruding object is limited to the monitoring line. For this reason, the data processing amount can be reduced as compared with the conventional method of processing the entire image. Therefore, the data processing time can be shortened, and an alarm or the like can be issued simultaneously with detecting an intruding object.

以上に説明した侵入物体検出方法は、例えば周知のコンピュータを用いて、侵入物体検出装置として装置化できる。例えば図21に侵入物体検出装置10を示す。監視画像が撮影された映像が入力される入力インターフェース11と、原画像やテンプレート画像等のデータが記録される外部記憶装置12としてのハードディスクと、一時的な作業データ等が記録される主記憶装置13としてのRAMと、異常が検出された画像等が出力される出力装置14と、中央処理演算装置(CPU)15等を備えている。上記のハードウェア資源は例えばバス16を通じて電気的に接続されている。入力インターフェース11は、例えば監視カメラから入力される又は映像が記録されたDVD等の媒体から読み込まれる信号をコンピュータでの処理が可能なデータに変換する機能や、映像を構成する各フレームをそれぞれ画像データとして外部記憶装置12に記録する機能を有する。このような入力インターフェース11として、例えば既存のNTSC−RGBコンバータやフレームグラバまたはパーソナルコンピュータ用画像取り込みボード等を利用して良い。出力装置14は、例えばディスプレイであり、異常が検出された画像やユーザインターフェース画面などが表示される。また、外部記憶装置12には本発明の侵入物体検出プログラムが記録されており、当該プログラムがCPU15に読み込まれ実行されることによって、コンピュータが侵入物体検出装置10として機能する。   The intruding object detection method described above can be implemented as an intruding object detection device using, for example, a known computer. For example, FIG. 21 shows the intruding object detection device 10. An input interface 11 to which a video image of a monitoring image is input, a hard disk as an external storage device 12 in which data such as original images and template images are recorded, and a main storage device in which temporary work data and the like are recorded 13, a RAM 14, an output device 14 for outputting an image in which an abnormality is detected, a central processing unit (CPU) 15, and the like. The hardware resources are electrically connected through the bus 16, for example. The input interface 11 converts, for example, a signal input from a surveillance camera or read from a medium such as a DVD on which video is recorded into data that can be processed by a computer, and each frame constituting the video is an image. It has a function of recording in the external storage device 12 as data. As such an input interface 11, for example, an existing NTSC-RGB converter, a frame grabber, an image capturing board for a personal computer, or the like may be used. The output device 14 is a display, for example, and displays an image in which an abnormality is detected, a user interface screen, and the like. Further, the intruding object detection program of the present invention is recorded in the external storage device 12, and the computer functions as the intruding object detection device 10 when the program is read and executed by the CPU 15.

次に、本実施形態の侵入物体検出プログラムによって、侵入物体検出装置10が人物の侵入を監視する場合に実行する処理の一例を、図22から図29までに示すフローチャートに沿って説明する。図22に侵入物体検出装置10が実行する処理の概要フローチャートを示す。まず、監視カメラから撮影画像を取り込みを行う(S101)。次に、監視ラインの設定を行う(S102)。尚、[no]は、監視ラインを示すプログラム上の変数である。監視ライン[no]は複数設定することができるので、設定した監視ライン数分、以下の処理(S104からS108)の処理を繰り返す(S103)。尚、S103にある、「no=1,監視ライン数,1」の記載は、一本目の監視ライン[no]から、設定する監視ライン数まで、noに1ずつ加えながら(以下、インクリメントという)、ループ処理を行うことを示している。(「a,b,c」の記載は、aにcずつ加えながらbまで処理をループさせることを意味している。以下、同様とする。)次に、監視ラインでの各画素位置で輝度値の標準偏差を算出し(S104)、監視ラインの時空間画像の更新と変化点の検出し(S105)、監視ラインの時空間画像内での変化点の拡張(S106)処理を行う。そして、指定フレーム数(変化判定画像数)に渡る変化があれば(S107;Yes)、時空間画像内での変化の長さ(傾き)の検出を行い(S108)、変化がなければ(S107;No)時空間画像内での変化の長さ(傾き)の検出処理は行わない。そして、全監視ラインから変化が重み値が最大である画素を含む区画を選択し(S109)、人体テンプレートとのマッチングを行い、人物判定を行うこととしている(S110)。人物判定結果により重み係数を更新するようにしている(S111)。人物判定結果について結果の出力(S112)を行う。人物を検出した場合は、検出結果の出力と同時に警報を発する処理を行うこととしている。尚、上記の処理は、監視画像のすべてのフレームについて実行されるものであるので、監視画像を撮影している間に渡って実行されるものである。監視画像が終了した場合に、本処理は終了する。   Next, an example of processing executed when the intruding object detection apparatus 10 monitors the intrusion of a person by the intruding object detection program according to the present embodiment will be described with reference to the flowcharts shown in FIGS. FIG. 22 shows a schematic flowchart of processing executed by the intruding object detection device 10. First, a captured image is captured from the surveillance camera (S101). Next, the monitoring line is set (S102). [No] is a program variable indicating a monitoring line. Since a plurality of monitoring lines [no] can be set, the following processing (S104 to S108) is repeated for the set number of monitoring lines (S103). In addition, the description of “no = 1, number of monitoring lines, 1” in S103 is performed by adding 1 to no from the first monitoring line [no] to the number of monitoring lines to be set (hereinafter referred to as increment). , Loop processing is performed. (The description of “a, b, c” means that the process is looped up to b while adding c to a. The same applies hereinafter.) Next, the luminance at each pixel position on the monitoring line. The standard deviation of the value is calculated (S104), the spatiotemporal image of the monitoring line is updated and the changing point is detected (S105), and the changing point is expanded (S106) in the spatiotemporal image of the monitoring line. If there is a change over the specified number of frames (the number of change determination images) (S107; Yes), the change length (slope) in the spatiotemporal image is detected (S108), and if there is no change (S107). No) The processing for detecting the length (inclination) of the change in the spatiotemporal image is not performed. A section including a pixel whose change has the maximum weight value is selected from all the monitoring lines (S109), matching with the human body template is performed, and person determination is performed (S110). The weighting coefficient is updated based on the person determination result (S111). The result of the person determination result is output (S112). When a person is detected, a process for issuing an alarm simultaneously with the output of the detection result is performed. Since the above processing is executed for all the frames of the monitoring image, it is executed while the monitoring image is captured. This process ends when the monitoring image ends.

図23に、監視ラインの設定処理(S102)を詳細化したフローチャートを示す。侵入物体検出装置10は、出力装置14上で指定された始点と終点の画像上のアドレスを記憶し(S102−2)、始点と終点の指定により確定する線分領域の画像上のすべてのアドレスを主記憶装置に記憶する(S102−3)。以上の処理(S102−2からS102−3まで)を設定する監視ライン数分繰り返す(S102−1)。以上で監視ライン設定処理を終了する。   FIG. 23 shows a detailed flowchart of the monitoring line setting process (S102). The intruding object detection device 10 stores the addresses on the start point and end point images designated on the output device 14 (S102-2), and all the addresses on the image of the line segment area determined by the designation of the start point and end point. Is stored in the main memory (S102-3). The above processing (from S102-2 to S102-3) is repeated for the number of monitoring lines to be set (S102-1). This completes the monitoring line setting process.

監視ライン設定処理の終了後、ライン監視処理を行なう(S103からS108まで)。図24にライン監視処理を詳細化したフローチャートのうち、平均値、標準偏差の算出処理を示すフローチャートを示す。この処理では、先ず、平均値カウンタaを0にセットする(S104−2)。そして、水平画素位置xでの輝度値を平均値カウンタaに加える処理(S104−4)を、記録時間t(垂直画素方向)分繰り返す(S104−3)。その結果得た、平均値カウンタaを記録時間tで割って、水平画素位置xでの平均輝度を算出している(S104−5)。次に、標準偏差カウンタsに0をセットする(S104−6)。各画素位置での輝度値と平均値との差を二乗した値を標準偏差カウンタsに加えていく処理(S104−8)を記録時間t分繰り返す(104−7)。その結果得られた、標準偏差カウンタsをデータ数(t−1)で割り平方根をとって標準偏差を算出している処理(S104−9)をしている。なお、上記の処理(S104−2からS104−9まで)を、監視ライン上のすべての画素位置で標準偏差を求める処理を繰り返す(S104−1)。以上でライン監視処理のうち平均値、標準偏差の算出処理を終了する。   After the monitoring line setting process is completed, a line monitoring process is performed (S103 to S108). FIG. 24 shows a flowchart showing a calculation process of an average value and a standard deviation among the flowcharts detailing the line monitoring process. In this process, first, the average value counter a is set to 0 (S104-2). Then, the process of adding the luminance value at the horizontal pixel position x to the average value counter a (S104-4) is repeated for the recording time t (vertical pixel direction) (S104-3). The average value counter a obtained as a result is divided by the recording time t to calculate the average luminance at the horizontal pixel position x (S104-5). Next, 0 is set to the standard deviation counter s (S104-6). The process of adding the square value of the difference between the luminance value and the average value at each pixel position to the standard deviation counter s (S104-8) is repeated for the recording time t (104-7). The standard deviation counter s obtained as a result is divided by the number of data (t-1) and the square root is calculated to calculate the standard deviation (S104-9). The above processing (from S104-2 to S104-9) is repeated for obtaining standard deviation at all pixel positions on the monitoring line (S104-1). This completes the average value and standard deviation calculation processing in the line monitoring processing.

図25にライン監視処理を詳細化したフローチャートのうち、時空間画像の更新処理(S105)を示すフローチャートを示す。この処理では、最新の撮影画像を取得して、時空間画像上で最も時間が経過した画像を削除する処理(FIFO)を行うものである。まず、監視ラインの水平画素位置xの輝度値を、時空間画像の垂直画素方向に対し−1行に設定する(S105−2)。そして、新規追加分の輝度値と、各画素平均との標準偏差とのずれがの予め設定された閾値であるα倍以内であれば(S105−3;Yes)、記録用画像DIFの各画素に対応するフラグ領域に0を代入する(S105−4)。以下、フラグ領域とはデータ構造のうちフラグデータを格納する領域をいうものとする。α倍を超えれば(S105−3;No)、記録用画像DIFの各画素に対応するフラグ領域に1を代入し(S105−5)、変化点としている。なお、上記の処理(S105−2からS105−5まで)を、監視ラインの各画素位置で繰り返す(S105−1)。次に、時空間画像を垂直画素方向に対して上に1行シフトさせる処理(S105−7)を、時空間画像の全ての画素で繰り返す(S105−6)。以上で時空間画像の更新処理を終了する。   FIG. 25 is a flowchart showing the spatiotemporal image update process (S105) in the detailed flowchart of the line monitoring process. In this process, the latest captured image is acquired, and a process (FIFO) for deleting the image on which the most time has elapsed on the spatiotemporal image is performed. First, the luminance value at the horizontal pixel position x of the monitoring line is set to -1 row in the vertical pixel direction of the spatiotemporal image (S105-2). If the deviation between the newly added luminance value and the standard deviation from the average of each pixel is within α times which is a preset threshold (S105-3; Yes), each pixel of the recording image DIF 0 is substituted into the flag area corresponding to (S105-4). Hereinafter, the flag area refers to an area for storing flag data in the data structure. If it exceeds α times (S105-3; No), 1 is substituted into the flag area corresponding to each pixel of the recording image DIF (S105-5), and the point is changed. The above process (from S105-2 to S105-5) is repeated at each pixel position on the monitoring line (S105-1). Next, the process of shifting the spatiotemporal image by one line upward in the vertical pixel direction (S105-7) is repeated for all the pixels of the spatiotemporal image (S105-6). The spatio-temporal image update processing is thus completed.

本実施形態の監視ラインの時空間画像内での変化点の拡張処理では、記録用画像DIFの線分をx座標に対し1座標分ずつ加算して線分を拡張し、これを作業用配列BWとして新たに記録している。さらに、作業用配列BW内の任意の指定時間(変化判定画像数c)に渡って連続的に変化する部分(作業用配列BWのフラグ領域が連続して1である部分)を検出する。具体的には、作業用配列BWの0行からc行まで作業用配列BWのフラグ領域が1である部分が連続して検出できるかどうかを判断する。c行に渡る変化点の連続を変化パスとして検出し、変化パスが検出された場合に示す時空間画像内での傾き検出処理を行うものとしている。   In the extension process of the change point in the spatio-temporal image of the monitoring line of this embodiment, the line segment is expanded by adding the line segment of the recording image DIF by one coordinate to the x coordinate, and this is expanded into the working array. Newly recorded as BW. Furthermore, a portion that continuously changes over an arbitrary designated time (number of change determination images c) in the work array BW (a portion in which the flag area of the work array BW is 1 continuously) is detected. Specifically, it is determined whether or not the portion where the flag area of the work array BW is 1 can be continuously detected from the 0th line to the cth line of the work array BW. A series of change points over line c is detected as a change path, and an inclination detection process in the spatiotemporal image shown when the change path is detected is performed.

図26にライン監視処理を詳細化したフローチャートのうち、監視ラインの時空間画像内での変化点の拡張処理(S106)を示すフローチャートを示す。この処理では、まず作業用配列BWのフラグ領域を、初期化する(S106−1)。次に、記録用画像DIFのフラグ領域が1であれば(S106−4;Yes)、時空間画像内の変化点の領域の拡張を行う(S106−5)。なお、上記(S106−4からS106−5まで)の処理を、時空間画像のすべての画素で繰り返す(S106−2、S106−3)。以上で監視ラインの時空間画像内での変化点の拡張処理を終了する。   FIG. 26 shows a flowchart showing the extension process (S106) of the changing point in the spatiotemporal image of the monitoring line, out of the detailed flowcharts of the line monitoring process. In this process, first, the flag area of the work array BW is initialized (S106-1). Next, if the flag area of the recording image DIF is 1 (S106-4; Yes), the change point area in the spatiotemporal image is expanded (S106-5). The above processing (from S106-4 to S106-5) is repeated for all the pixels of the spatiotemporal image (S106-2, S106-3). This completes the process of extending the changing point in the spatiotemporal image of the monitoring line.

図27にライン監視処理を詳細化したフローチャートのうち、変化判定画像数cに渡る変化を判定する処理(S107)を示すフローチャートを示す。時空間画像内に0行目から変化判定画像数cまで連続した変化があるかどうか判定し(S107−1からS107−2まで)、変化判定画像数c行間に渡り変化が続いた部分があれば(S107−4;Yes)、処理A(図28)へ、変化判定画像数c行間に渡る変化が続いた部分がなければ(S107−4;No)、処理B(図28)へ進むものとする。この操作を監視ライン上のすべての画素で繰り返す処理(S107−3)を行う。以上で、変化判定画像数cに渡る変化を判定する処理を終了する。   FIG. 27 shows a flowchart showing a process (S107) for determining a change over the number c of change determination images among the detailed flowcharts of the line monitoring process. It is determined whether or not there is a continuous change from the 0th line to the change determination image number c in the spatiotemporal image (from S107-1 to S107-2), and there is a portion where the change continues between the change determination image number c lines. If (S107-4; Yes), the process A (FIG. 28) proceeds to the process B (FIG. 28) if there is no portion where the change between the change determination image count c lines continues (S107-4; No). . A process of repeating this operation for all the pixels on the monitoring line (S107-3) is performed. Above, the process which determines the change over the change determination image number c is complete | finished.

図28にライン監視処理を詳細化したフローチャートのうち、時空間画像内での傾き検出処理(S108)を示すフローチャートを示す。この処理では、時空間画像内に0行目から変化判定画像数cまで連続した変化を変化パスとして検出する(S108−1)。次に、変化パスの本数を数える処理(S108−2)をし、変化パスに通し番号を付与する(S108−3)。次に、番号が付与されたパスの0行での中点と、t行での中点を求める(S108−4、S108−5)。さらに、番号を付与された変化パスの長さを計算する処理(S108−6)をし、パスの長さを計測する処理(S108−7)をおこなうものである。以上で、時空間画像内での傾き検出処理を終了する。   FIG. 28 is a flowchart showing the inclination detection process (S108) in the spatiotemporal image, out of the detailed flowcharts of the line monitoring process. In this process, a continuous change from the 0th row to the change determination image number c in the spatiotemporal image is detected as a change path (S108-1). Next, a process of counting the number of changed paths (S108-2) is performed, and serial numbers are assigned to the changed paths (S108-3). Next, the midpoint of line 0 and the midpoint of line t are obtained (S108-4, S108-5). Further, the process of calculating the length of the change path given the number (S108-6) and the process of measuring the path length (S108-7) are performed. This completes the tilt detection process in the spatiotemporal image.

図29に優先区画決定処理(S109)、人物判定処理(S110)、重み更新処理(S111)のフローチャートを示す。xに監視ラインの画素の監視画像内でのx座標、yに監視ラインの画素の監視画像内でのy座標を代入し(S109−2)、各画素位置で変化パスの長さが最大値を示す画素を設定する処理(S109−3)を行う。上記処理(S109−2からS109−3まで)を監視ラインの全画素で処理をループさせる(S109−1)。次に、重み値が0以上であり(S109−5;Yes)、変化パスの長さが0であれば(S109−6;Yes)、重み値ωからパラメータγを引いた値を重み値ωとする(ただし、最小値は0としている。)処理(S109−7)を行う。変化パスの長さが0でなければ(S109−6;No)、重み値ωを重み係数βに変化パスの長さを乗じた値を代入する(ただし、ωの最大値は2としている。)処理(S109−7)を行う。上記の処理(S109−5からS109−9まで)を繰り返す処理(S109−4)を行う。さらに、重み係数βの値を初期化し(S109−10から109−11まで)、重み値ωが最大となる監視画像上の座標を検出する(S109−12)。その座標を含む区画と人物テンプレート画像とのテンプレートマッチングを行う(S110)。その結果、人物であれば重み係数βに1.0を、人物以外であれば重み係数βに0.5を代入して(S111−1、S−111−2)重み係数を更新することとしている。本実施形態の侵入物体検出プログラムにより侵入物体検出装置10が実行する監視画像1フレーム分の処理は以上で終了となり、次のフレームの処理へ移る。また、人物を判定した場合には、判定結果について結果の出力(S112)を行い、検出結果の出力と同時に警報を発する処理を行うこととしている。   FIG. 29 shows a flowchart of the priority section determination process (S109), the person determination process (S110), and the weight update process (S111). The x coordinate in the monitoring image of the pixel of the monitoring line is substituted for x and the y coordinate in the monitoring image of the pixel of the monitoring line is substituted for y (S109-2), and the length of the change path is the maximum value at each pixel position. The process which sets the pixel which shows (S109-3) is performed. The above processing (S109-2 to S109-3) is looped over all the pixels of the monitoring line (S109-1). Next, if the weight value is 0 or more (S109-5; Yes) and the length of the change path is 0 (S109-6; Yes), the value obtained by subtracting the parameter γ from the weight value ω is set as the weight value ω. (However, the minimum value is 0) (S109-7). If the length of the change path is not 0 (S109-6; No), a value obtained by multiplying the weight value ω by the weight coefficient β and the length of the change path is substituted (however, the maximum value of ω is 2). ) Process (S109-7) is performed. A process (S109-4) for repeating the above process (from S109-5 to S109-9) is performed. Further, the value of the weight coefficient β is initialized (from S109-10 to 109-11), and the coordinates on the monitoring image where the weight value ω is maximum are detected (S109-12). Template matching is performed between the section including the coordinates and the person template image (S110). As a result, if the person is a person, 1.0 is assigned to the weighting coefficient β, and if the person is not a person, 0.5 is assigned to the weighting coefficient β (S111-1, S-111-2). Yes. The processing for one frame of the monitoring image executed by the intruding object detection device 10 by the intruding object detection program according to the present embodiment is completed as described above, and the processing proceeds to the next frame. When a person is determined, the result of the determination result is output (S112), and a process for issuing an alarm simultaneously with the output of the detection result is performed.

本発明は、実時間処理(約30画像/秒)が可能で、既存のソフトウェアによる人物検知に比べ高速な方式となっている。そのため、充電部接近監視などの監視処理速度が要求される場面に活用できると考えられる。また、ソフトウェアで実現しているため、既存の画像監視システムに導入が容易である。   The present invention is capable of real-time processing (about 30 images / second), and is a high-speed method compared to human detection using existing software. For this reason, it can be used in situations where a monitoring processing speed such as monitoring of the charging unit is required. Moreover, since it is realized by software, it can be easily introduced into an existing image monitoring system.

また、監視領域を監視ライン上に限定することで、画像のデータ処理範囲を限定し、処理の高速化を実現している。さらに、特にデータ処理量が多くなり時間のかかる侵入物体判定処理においても、はじめに侵入物体が存在する可能性が高い区画を絞り込んだうえで、可能性が高い区画のみにパターン認識を行うことで、データ処理量を減らしている。このように、データ処理量を減らすことで処理の高速化を実現し、実時間処理を可能としている。   Also, by limiting the monitoring area to the monitoring line, the data processing range of the image is limited, and the processing speed is increased. Furthermore, even in the intruding object determination processing, which requires a large amount of data processing and takes a long time, by first narrowing down the sections where there is a high possibility that an intruding object exists, by performing pattern recognition only on the sections where there is a high possibility, The amount of data processing is reduced. As described above, the processing speed is increased by reducing the data processing amount, and real-time processing is possible.

なお、上述の実施形態は本発明の好適な実施の一例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変形実施可能である。例えば、上述の実施形態ではカラー画像を原画像として各処理を行なったが、グレースケール画像を原画像として各処理を行なっても良い。また、閾値などの各パラメータ、例えば標準偏差の閾値などは、撮影条件などに合わせて適宜調節してよい。また、例えば、監視ラインを通過して検出された侵入物体の数をカウントして外部記憶装置12に記憶させておいても良い。これにより、侵入物体の検出数の記録を残すことも可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention, but is not limited thereto, and various modifications can be made without departing from the gist of the present invention. For example, in the above-described embodiment, each process is performed using a color image as an original image, but each process may be performed using a grayscale image as an original image. Further, each parameter such as a threshold value, for example, a standard deviation threshold value, may be appropriately adjusted in accordance with imaging conditions. Further, for example, the number of intruding objects detected through the monitoring line may be counted and stored in the external storage device 12. Thereby, it is also possible to record the number of detected intruding objects.

(実施例)
変化点の抽出には、標準偏差を用いたシグマバンドを用いた。まず、監視ライン上の各画素の輝度値について、時空間画像の高さに対する平均値と標準偏差の値を求めた(数式1)。次に、新規撮影画像を用い時空間画像を更新する際に時空間画像の下位行に新規追加する画素の輝度値が、平均からどの程度ずれているかを、上記求めた標準偏差σを用いたシグマバンドにより判定した(数式2)。
(Example)
A sigma band using standard deviation was used for extraction of change points. First, with respect to the luminance value of each pixel on the monitoring line, an average value and a standard deviation value with respect to the height of the spatiotemporal image were obtained (Formula 1). Next, when the spatio-temporal image is updated using a new captured image, the above-described standard deviation σ is used to determine how much the luminance value of the pixel to be newly added to the lower row of the spatio-temporal image deviates from the average. Judgment was made using a sigma band (Formula 2).

ここでkはk番目の新規入力画像を示し、M k−1とI は、1画像前までのn画像分の輝度値の平均値と標準偏差を示す。各画素iの新規入力値と1画像前までの平均値との差が標準偏差の一定倍率α以内に収まるかどうかで判定をした。標準偏差の一定倍率α倍以上である場合にパラメータに1を、そうでなければパラメータに0を入れるものとした。尚、本実施例では、α=4とした。これにより、標準偏差の4倍の範囲のシグマバンドを超えた輝度値を示した画素を変化点として抽出した。 Here, k represents the k-th new input image, and M i k−1 and I i k represent the average value and standard deviation of the luminance values of n images up to the previous image. Judgment was made based on whether or not the difference between the new input value of each pixel i and the average value of the previous image was within a certain magnification α of the standard deviation. It is assumed that 1 is set in the parameter when the standard magnification is equal to or larger than the constant magnification α times, and 0 is set in the parameter otherwise. In this embodiment, α = 4. As a result, a pixel having a luminance value exceeding the sigma band in the range of four times the standard deviation was extracted as a change point.

次に、パラメータが1である画素を変化点として検出し、変化点が変化判定画像数以上連続して検出された場合、即ち、変化点の連続部分(変化パス)を検出した場合に監視ラインに進入物体が現れたものと判断することとした。尚、本実施例では、毎秒約7.5画像以上の処理速度で人物検知ができるように変化判定画像数を4画像(c=4)に設定した。これにより、ノイズの除去が可能であることがわかった。   Next, when a pixel having a parameter of 1 is detected as a change point and the change points are detected continuously for the number of change determination images, that is, when a continuous portion (change path) of the change points is detected, a monitoring line is detected. It was decided that an approaching object had appeared. In this embodiment, the number of change determination images is set to 4 images (c = 4) so that a person can be detected at a processing speed of about 7.5 images or more per second. As a result, it was found that noise can be removed.

次に、侵入物体の移動速度に比例する変数λ は、以下の方法により求めた。図8に時空間画像の一例を示す。時空間画像で侵入物体が作り出す変化パスの傾き角をθとし、侵入物体の移動速度を時空間画像を使い以下のように計測した。監視ラインの各画素iでの時空間画像内での線分の傾きθに比例する変数λ とし、以下の式により求めた。尚、cは変化判定画像数、c’は変化判定画像数c画像内での移動軌跡長(≧c)である。β k−1は、1フレーム前の侵入物体判定処理で決定された重み係数であり、侵入物体を検出した場合と、検出しなかった場合で、それぞれ異なる重み係数を設定する。重み係数は侵入物体判定処理で決定されるものである。 Next, the variable λ i k proportional to the moving speed of the intruding object was obtained by the following method. FIG. 8 shows an example of a spatiotemporal image. The inclination angle of the change path created by the intruding object in the spatiotemporal image was θ i, and the moving speed of the intruding object was measured as follows using the spatiotemporal image. The variable λ i k is proportional to the slope θ i of the line segment in the spatiotemporal image at each pixel i of the monitoring line, and is obtained by the following equation. Here, c is the number of change determination images, and c ′ is the number of change determination images c and the movement trajectory length (≧ c) in the image. β i k−1 is a weighting factor determined in the intruding object determination process one frame before, and a different weighting factor is set when the intruding object is detected and when it is not detected. The weight coefficient is determined by the intruding object determination process.

次に、監視ライン上の各画素に対する重み値ω は、数式4により求めた。尚、λ 監視ラインの各画素iでの時空間画像内での線分の傾きθに比例する変数である。また、重み係数βは侵入物体判定処理の判定結果により決定された重み係数であり、侵入物体を検出した場合と、検出しなかった場合で、それぞれ異なる重み係数を設定した。(本実施例においては、人物と判断したときは1.0、人物でないと判断したときには0.5を設定し、重み値ω の上限値は2.0とした。) Next, the weight value ω i k for each pixel on the monitoring line was obtained by Equation 4. Note that this is a variable proportional to the slope θ i of the line segment in the spatiotemporal image at each pixel i of the λ i k monitoring line. The weighting factor β is a weighting factor determined based on the determination result of the intruding object determination process, and different weighting factors are set depending on whether the intruding object is detected or not. (In this embodiment, 1.0 is set when it is determined to be a person, 0.5 is set when it is determined that it is not a person, and the upper limit value of the weight value ω i k is set to 2.0.)

<数4>
ω = min(λ ,2.0)
<Equation 4>
ω i k = min (λ i k , 2.0)

ただし、数式4を用いて、重み値ω を求めるのはλ ≠0(変化パスの長さが0でない)の場合に限られるものとした。λ =0(変化パスの長さが0)である画素値は、変化パスが検出できていないが、侵入物体がその場に立ち止まった等の理由が考えられる。そのため、数式5により求めるものとした。(本実施例においては、ω の最小値は0とし、演算結果が0以下であれば0とするものとした。重み値を負に設定してしまうと、正しい優先順位の設定ができないからである。)尚、γはパラメータであり、任意に設定できるものとした。これにより、侵入物体の短時間の停止にも対応できるようにしている。パラメータγの値を大きくすると、重み値ω の値が低くなるので、しばらくの間、優先区画として抽出され難くなる。即ち、パラメータγにより変化パスが検出されなかった部分の重み値を、どの程度下げるかをコントロールして、優先順位をどの程度下げるかをコントロールできることとしている。 However, it is assumed that the weight value ω i k is obtained using Equation 4 only when λ i k ≠ 0 (change path length is not 0). For pixel values where λ i k = 0 (change path length is 0), the change path cannot be detected, but the intruding object may have stopped on the spot. For this reason, it was determined by Equation 5. (In this embodiment, the minimum value of ω i k is set to 0, and is set to 0 if the calculation result is 0 or less. If the weight value is set negative, the correct priority cannot be set. Note that γ is a parameter and can be set arbitrarily. This makes it possible to cope with a short stoppage of an intruding object. When the value of the parameter γ is increased, the weight value ω i k is decreased, and therefore, it is difficult to be extracted as a priority section for a while. That is, it is possible to control how much the weight value of the portion where the changed path is not detected by the parameter γ is lowered and how much the priority order is lowered.

<数5>
ω = max(ω k−1−γ,0)
<Equation 5>
ω i k = max (ω i k−1 −γ, 0)

本実施例においては、数式4または、数式5により求められた、重み値ω の値が各区画内で最大値を示す画素の重み値を該区画の区画値として設定し、該区画値の大きい順に優先順位を決定するものとした。 In this embodiment, the weight value of the pixel whose weight value ω i k is the maximum value in each section obtained by Expression 4 or 5 is set as the section value of the section, and the section value Priorities were decided in descending order.

図9にサポートベクタマシンでの学習に利用した人物画像例を示す画像を示す。本実施例では、予めサポートベクタマシンで作成された人体テンプレートと区画Rmaxとのテンプレートマッチングをおこなった。(区画Rmaxは、区画のうち区画値が最大となる区画を示す。)区間Rmaxの領域にウェブレット変換を行い、人体テンプレートとのマッチングを実施した。   FIG. 9 shows an image showing an example of a person image used for learning in the support vector machine. In this embodiment, template matching between a human body template created in advance by a support vector machine and a section Rmax is performed. (The section Rmax indicates a section having the maximum section value among the sections.) Weblet conversion was performed on the region of the section Rmax, and matching with the human body template was performed.

本実施例では画像監視形態として、電力会社構内を撮影した監視カメラ画像によって、構内の充電部への人物接近監視を実時間処理で行うこと実験を行った。なお、人物は縦横30×25画素から120×60画素程度の大きさで撮影され、毎フレーム6画素から15画素程度の歩行速度を想定した。これは、TVレート(30画像/秒)で、歩行者を想定した状況である。そのため、あるポイントで人物の通過を判定するには、最低でも毎秒7.5画像程度の処理が必要となる。以下に実験結果を示す。   In this embodiment, as an image monitoring mode, an experiment was performed in which real-time processing was performed to monitor a person approaching a charging unit on a premises using a monitoring camera image obtained by photographing the premises of an electric power company. The person was photographed in a size of about 30 × 25 pixels to 120 × 60 pixels, and assumed a walking speed of about 6 to 15 pixels per frame. This is a situation where a pedestrian is assumed at a TV rate (30 images / second). Therefore, in order to determine the passage of a person at a certain point, processing of about 7.5 images per second is required at the minimum. The experimental results are shown below.

図10(a)〜(c)に示す3種類の撮影画像による実験結果を示す。図10(a)に示す監視画像についての実験では、本システムの処理速度を調べるため、設備近傍を歩行する1名の被験者の検知速度を計測した。また、図10(b)に示す監視画像についての実験では撮影画像15分の前半部分(7分)で収集した人物画像を使い、後半8分の不特定多数の人物検知を行った。特に、電力会社構内では設備以外にアスファルトや花壇等が背景になる場合があるため、背景が異なった場合の人物検知を比較した。また、図10(c)に示す監視画像についての実験では、状況変化に対する頑健性を調べるため、図10(b)で学習したシステムを用いて電力設備周辺での接近監視を行った。尚、本実験は監視カメラから監視画像(720×480画素)をIEEE1394で読込み、1GBのメモリを搭載した計算機(CPUクロック数:2.4GHz)で実施した。それぞれの監視画像について、約1分4秒(1900画像)の人物検知実験により、本システムの処理速度を計測した。   The experimental result by three types of picked-up images shown to Fig.10 (a)-(c) is shown. In the experiment on the monitoring image shown in FIG. 10A, the detection speed of one subject walking in the vicinity of the equipment was measured in order to examine the processing speed of the system. Further, in the experiment on the monitoring image shown in FIG. 10B, the human images collected in the first half (7 minutes) of the captured image 15 minutes were used to detect an unspecified number of people in the second half 8 minutes. Especially, in the power company premises, asphalt and flower beds may be the background in addition to the equipment, so we compared human detection when the backgrounds were different. Further, in the experiment on the monitoring image shown in FIG. 10C, in order to examine the robustness against the change in the situation, the proximity monitoring around the power facility was performed using the system learned in FIG. 10B. In this experiment, a monitoring image (720 × 480 pixels) was read from the monitoring camera with IEEE 1394, and the experiment was performed with a computer (CPU clock number: 2.4 GHz) equipped with a 1 GB memory. About each monitoring image, the processing speed of this system was measured by the person detection experiment of about 1 minute 4 second (1900 images).

図10(a)は曇りの日に撮影した照度変化の少ない画像であり、1名の被験者が電力設備に接近したり離れたりを繰返すシーンで構成されている。尚、表1に処理速度計測実験で利用した各種パラメータを示す。人物判定処理の学習に使う人物画像は、図10(a)の約1分のビデオ画像から切り出した551画像を利用した。図9に学習に使用した人物画像の一例を示す。また、学習に利用する人物画像以外の背景画像は、図10(a)の無人背景から切り出した2838画像を利用した。尚、監視ラインは画像内の電力設備フェンスを囲むように3本設定した(図11)。   FIG. 10A is an image with little change in illuminance photographed on a cloudy day, and consists of a scene in which one subject repeats approaching and leaving the power facility. Table 1 shows various parameters used in the processing speed measurement experiment. As a person image used for learning of the person determination process, a 551 image cut out from a video image of about 1 minute in FIG. FIG. 9 shows an example of a person image used for learning. Moreover, 2838 images cut out from the unmanned background of FIG. 10A were used as background images other than the person images used for learning. Three monitoring lines were set so as to surround the power equipment fence in the image (FIG. 11).

図11に人物の検知例を示し、図12に撮影画像全シーンに対する人物検知の時系列結果を示す。図12のグラフ上側はライン監視処理が変化を検知した画像番号を示し、下側は人物判定処理が人物を検知した画像番号を示している。また、表2に人物が監視ラインに入ってから出るまでに一度でも反応があれば正解、監視ラインに入ってから出るまでに1度も反応がなければ未反応、人物以外の要因で反応した場合を誤反応として集計した結果を示す。(以下、この集計結果を「実験の要約結果」とする。)ライン監視処理では、3件の誤反応があるが、人物判定処理では、誤反応は0件であった。実験の結果、本システムにより実時間で人物検知ができることが分かった。また、実験画像の中から抽出した学習用の人物画像と背景画像を使うことで、人物をより高精度に検知できることが分かった。   FIG. 11 shows an example of person detection, and FIG. 12 shows a time-series result of person detection for all scenes taken. The upper side of the graph in FIG. 12 indicates an image number in which the line monitoring process detects a change, and the lower side indicates an image number in which the person determination process detects a person. Also, in Table 2, if a person responds at least once before entering the monitoring line and then exits, the answer is correct. If there is no reaction before entering the monitoring line and then exits, no reaction occurs. The results of counting cases as false reactions are shown. (Hereinafter, this tabulated result is referred to as “experiment summary result.”) In the line monitoring process, there are three erroneous reactions, but in the person determination process, there were zero erroneous reactions. As a result of experiments, it was found that this system can detect people in real time. It was also found that the person can be detected with higher accuracy by using the learning person image and the background image extracted from the experimental image.

これにより、約1分4秒の撮影画像(約1900画像)を実時間処理(30画像/秒)により処理が可能であることがわかった。表3に約1分4秒の撮影画像(約1900画像)に対する人物検知の正解率等を示す。表3のライン監視処理欄は、人物による変化を正しく検知した画像数(正解反応)、人物以外で誤反応を示した画像数(誤反応)と、人物の通過中に反応を示さなかった画像数(未反応)を示している。人物判定処理欄は、ライン監視処理に反応した470画像に対し、人物判定処理を行った結果を示している。最終結果欄では、人物が現れない画像を含め全1900画像での反応割合を示している。   Thus, it was found that a captured image (about 1900 images) of about 1 minute 4 seconds can be processed by real-time processing (30 images / second). Table 3 shows the correct rate of person detection for a captured image (approximately 1900 images) of approximately 1 minute 4 seconds. The line monitoring processing column in Table 3 shows the number of images in which a change by a person is correctly detected (correct answer), the number of images that show a false reaction other than a person (false reaction), and an image that does not show a response while passing a person. The number (unreacted) is shown. The person determination process column shows the result of performing the person determination process on the 470 images that have reacted to the line monitoring process. In the final result column, reaction ratios in all 1900 images including images in which no person appears are shown.

次に、別の人物の画像を利用した不特定多数の人物検知実験結果を示す。また、屋外での監視ではアスファルトのような人工的な部分や、樹木が背景となる場合が多い。そこで、2種の背景に対しする実験結果を示す。本実験では、図10(b)の約15分の画像のうち前半7分から切り出した25人分の画像1486枚と、マサチューセッツ工科大学の歩行者画像データベース(924人分)の2410枚を人物の学習画像とした。背景画像として、人物が写っていない図10(b)の9281画像を機械学習に利用した。その後、残り8分の画像に現れる不特定多数の人物検知実験を行った。なお、表1に実験に使用した各種パラメータを示す。   Next, an unspecified number of person detection experiment results using another person's image will be shown. In addition, when monitoring outdoors, artificial parts such as asphalt and trees are often the background. Therefore, experimental results for two types of background are shown. In this experiment, 1486 images of 25 people cut out from the first half of the image of about 15 minutes in FIG. 10B and 2410 images of the pedestrian image database (924 people) of Massachusetts Institute of Technology A learning image was used. As a background image, the 9281 image of FIG. 10B in which no person is shown was used for machine learning. Thereafter, an unspecified number of person detection experiments appearing in the remaining 8 minutes of images were performed. Table 1 shows various parameters used in the experiment.

図10(b)の15分のビデオ画像は、太陽が雲で隠れるなどの大きい照度変化を多数含む画像であり、不特定多数の人物が画像中を通過するシーンである。アスファルトと樹木を背景にした実験結果を示す。   The video image of 15 minutes in FIG. 10B is an image including many large illuminance changes such as the sun being hidden by clouds, and is a scene in which an unspecified number of people pass through the image. The experimental results against asphalt and trees are shown.

図13に、アスファルトを背景とした監視結果例を示す。また、表4にビデオ画像後半8分(14400画像)の正解率等を示す。また、図14に14400画像に対する提案方式の時系列結果を示す。また、表5に実験の要約結果を示す。表4に示すように、ライン監視処理では人物以外の影響で155画像の誤反応が観測された。いずれも、太陽が雲に隠れるときと現れるときに発生した誤反応であったが、人物判定処理では、誤反応は0件であった。これにより、太陽光の変化によるライン監視処理の誤反応を人物判定処理で完全に排除できることがわかった。   FIG. 13 shows an example of monitoring results with asphalt in the background. Table 4 shows the accuracy rate of the latter half of the video image (14400 images). FIG. 14 shows the time series results of the proposed method for 14400 images. Table 5 shows the summary results of the experiment. As shown in Table 4, in the line monitoring process, an erroneous reaction of 155 images was observed due to the influence of people other than people. Both were false reactions that occurred when the sun was hidden and appearing in the clouds, but there were no false reactions in the person determination process. As a result, it has been found that an erroneous reaction of the line monitoring process due to a change in sunlight can be completely eliminated by the person determination process.

次に、図15に樹木を背景とした監視結果例を示し、表6に正解率等を示す。また、図16に14400画像に対する提案方式の時系列結果を示す。さらに、表7に実験の要約結果を示す。表4に示すアスファルト部分での監視では、輝度値のばらつきが小さいため日陰であっても太陽光の変化に反応しライン監視処理で誤反応を起こしていたが、樹木を背景とした表6の結果は、樹木部分の輝度のばらつきが大きいため、太陽光の変化にアスファルト部分よりも追従する結果が得られたが、ライン監視処理の誤反応はいずれも人物判断処理で排除できる結果となった。本実験結果により、学習事例と異なる不特定の人物に対して、安定に人物検知ができることを確認できた。また、背景がアスファルトや樹木であっても、安定した人物検知ができることが確認できた。   Next, FIG. 15 shows an example of a monitoring result with a tree as a background, and Table 6 shows a correct answer rate and the like. FIG. 16 shows the time series results of the proposed method for 14400 images. Table 7 shows the summary results of the experiment. In the monitoring at the asphalt portion shown in Table 4, the variation in luminance value was small, so even in the shade, it reacted to changes in sunlight and caused a false reaction in the line monitoring process. The result shows that the variation in the brightness of the tree part is large, so the result of following the change in sunlight compared to the asphalt part was obtained, but any false reaction of the line monitoring process could be eliminated by the person judgment process . From the results of this experiment, we were able to confirm that human detection can be performed stably for unspecified persons different from the learning examples. It was also confirmed that stable human detection was possible even when the background was asphalt or trees.

以上の実験による人物画像と背景画像で学習した結果を、図10(c)の撮影画像へ適用する。図10(c)の撮影画像は、3人の被験者がフェンスを触ったり登ったり、あるいはフェンスの前で立ち止まるシーンが含まれている。監視ラインは電力設備のフェンスを囲むように3本設定し(図17)、表1に各種パラメータを示す。   The learning result of the person image and the background image obtained by the above experiment is applied to the photographed image of FIG. The captured image in FIG. 10C includes a scene in which three subjects touch or climb the fence or stop in front of the fence. Three monitoring lines are set so as to surround the fence of the power equipment (FIG. 17), and Table 1 shows various parameters.

図18に監視実験結果例を示す。また、表8に図10(c)の6000画像に対する正解率等を示す。さらに、図19に時系列結果を、表11に実験の要約結果を示す。監視ライン上で静止した場合、人物が背景とみなされるため、ライン監視処理が反応しない。そのため、監視ライン上で人物が静止している91画像でライン監視処理が未反応となった。しかし、監視ラインへの出入りでは必ず反応があり、監視ラインへの侵入時変化を考慮すると未検出が0となる(表9)。移動しないで監視ラインに入ることは不可能なので、充電部接近監視目的は達成できることがわかった。   FIG. 18 shows an example of the monitoring experiment result. Table 8 shows the accuracy rate for the 6000 image in FIG. Further, FIG. 19 shows time-series results, and Table 11 shows experimental summary results. If the person stops on the monitoring line, the person is regarded as the background, so the line monitoring process does not respond. For this reason, the line monitoring process is unresponsive to 91 images in which a person is still on the monitoring line. However, there is always a reaction when entering and exiting the monitoring line, and the non-detection becomes 0 when considering the change upon entering the monitoring line (Table 9). Since it is impossible to enter the monitoring line without moving, it was found that the objective of monitoring the approach to live parts could be achieved.

また、フェンスの揺れにより人物以外でライン監視処理が誤反応し、その近傍を人物判定処理で人物と誤判定した画像が発生したが、監視ライン近傍で、人物判定処理が誤判定を起こす場所を調べるため、監視ライン近傍全体に10画素飛びに人物判定処理を実施した。図20にその結果を示す。図20から、人物以外に背景の柱を人物として誤検出していることが分かる。尚、図20の誤検出位置は、表9で示す1件の誤反応が発生した場所である。本実験では、図10(b)の1枚の無人画像から得た背景画像のみを学習したシステムを用いた。そのため、学習に利用した背景画像にない柱を人物として誤判定しているが、フェンスや電力設備等のより多様な背景画像を学習することで人物判定の誤判定をなくし、より高い精度での検出が可能と考えられる。 In addition, the line monitoring process misreacts outside the person due to the shaking of the fence, and an image was generated in which the neighborhood was misjudged as a person in the person judgment process. In order to investigate, the person determination process was performed every 10 pixels in the vicinity of the monitoring line. FIG. 20 shows the result. It can be seen from FIG. 20 that the background column is erroneously detected as a person in addition to the person. 20 is a place where one erroneous reaction shown in Table 9 has occurred. In this experiment, a system in which only a background image obtained from one unmanned image in FIG. 10B was learned was used. For this reason, a pillar that is not in the background image used for learning is misjudged as a person, but by learning more diverse background images such as fences and power facilities, misjudgment of person judgment is eliminated, with higher accuracy. Detection is considered possible.

本実施例におけるサポートベクタマシンでの人物判定式を数式6に示す。また、表10に、図10(a)に示す監視画像から取得した画像を使ったサポートベクタマシンによる学習結果を示す。線形サポートベクタマシンの学習率の結果は97.7%であった。尚、線形サポートベクタマシンによる人物判定処理の1回の処理速度は特徴算出も含め約0.013秒であった。尚、線形カーネルK(x,y)=x・y(内積)を、数式7により予め求めておくことで、φの計算を行わず、カーネル関数の計算に置き換え(カーネルトリックという)、φを直接計算せずに、処理の高速化を図っている。尚、表11に、図10(b)の監視画像から取得した画像を使ったサポートベクタマシンによる学習結果を示す。   A person determination formula in the support vector machine in this embodiment is shown in Formula 6. Table 10 shows a learning result by a support vector machine using an image acquired from the monitoring image shown in FIG. The learning rate result for the linear support vector machine was 97.7%. Note that the processing speed of one person determination process by the linear support vector machine was about 0.013 seconds including the feature calculation. Note that the linear kernel K (x, y) = x · y (inner product) is obtained in advance by Equation 7, so that φ is not calculated but replaced with a kernel function calculation (referred to as kernel trick), and φ is The processing is speeded up without calculating directly. Table 11 shows the learning result by the support vector machine using the image acquired from the monitoring image of FIG.

<数7>
φ = Σd
<Equation 7>
φ = Σd i x i

ここでxが事例画像(人体テンプレート画像)、xが新たな入力画像(人物候補画像)、dはパラメータ、Kは事例画像と入力画像の距離を計算するカーネル関数を示す。前記人物判定式f(x)の符号により、人物の可否を決定する。本実施例においては、入力画像xは入力画像のわずかな変化に影響を受けないように、画像をHaarウェブレット変換で変換した画像を用いている。 Here, x i is a case image (human body template image), x is a new input image (person candidate image), d i is a parameter, and K is a kernel function for calculating the distance between the case image and the input image. Whether or not a person is permitted is determined by the sign of the person determination formula f (x). In this embodiment, the input image x is an image obtained by converting the image by Haar Weblet transform so that the input image x is not affected by slight changes in the input image.

本実施例では、監視ライン上での検知に失敗すると侵入物体の侵入を見過ごす可能性がある。より検知の精度をあげるには、重要な部分に2重の監視ラインを設けるなどの運用上の工夫が必要であることがわかった。また、侵入物体判定の精度の向上のためには、侵入物体の画像や背景画像をより多く用意して、監視シーンごとにサポートベクタマシンに学習を行う等の運用が有効となると考えられる。   In this embodiment, if the detection on the monitoring line fails, there is a possibility that an intruding object is overlooked. In order to improve detection accuracy, it was found that operational measures such as providing double monitoring lines at important parts were necessary. Also, in order to improve the accuracy of intruding object determination, it is considered that operations such as preparing more images of intruding objects and background images and learning the support vector machine for each monitoring scene are effective.

侵入物体検出方法の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the intruding object detection method. 時空間画像を説明する概念図である。It is a conceptual diagram explaining a spatiotemporal image. 画素の輝度値の時系列変化を計測するための実験に用いた画像である。It is the image used for the experiment for measuring the time series change of the luminance value of a pixel. 図3の×印の画素位置での輝度値の時系列変化を示すグラフの一例であり、グラフの縦軸は輝度値を示し、横軸はフレーム数を示す。FIG. 4 is an example of a graph showing a time-series change in luminance value at a pixel position indicated by a cross in FIG. 3, where the vertical axis indicates the luminance value and the horizontal axis indicates the number of frames. 電力会社構内の充電部を囲む形で3本の監視ラインを設定した画像の一例である。It is an example of the image which set the three monitoring lines in the form surrounding the charge part in an electric power company premise. 時空間画像での、侵入物体と静止物体の変化点記録ラインを説明する概念図である。It is a conceptual diagram explaining the change point recording line of an intruding object and a stationary object in a spatiotemporal image. 時空間画像での、侵入物体の変化点記録ラインと変化パスを説明する概念図である。It is a conceptual diagram explaining the change point recording line and change path of an intruding object in a spatiotemporal image. 時空間画像内で、侵入物体が作り出す変化パスの傾きを示した画像である。It is an image showing the inclination of the change path created by the intruding object in the spatiotemporal image. サポートベクタマシンでの学習に利用した人物画像の一例を示す画像である。It is an image which shows an example of a person picture used for learning with a support vector machine. 監視画像の一例を示す画像であり、(a)は電力設備周辺を上部から撮影した監視画像の一例であり、(b)は背景にアスファルトを含む監視画像の一例であり、(c)は電力設備周辺での監視画像の一例である。It is an image which shows an example of a monitoring image, (a) is an example of the monitoring image which image | photographed the electric power equipment periphery from the upper part, (b) is an example of the monitoring image containing asphalt in the background, (c) is electric power It is an example of the monitoring image around equipment. 人物の検出画像の一例を示す画像である。It is an image which shows an example of a person's detection image. 図11の画像での輝度値の時系列変化の一例を示したグラフである。12 is a graph illustrating an example of a time-series change in luminance value in the image of FIG. 11. アスファルトを背景とする監視画像の一例を示す画像である。It is an image which shows an example of the monitoring image which uses asphalt as a background. 図13の画像での輝度値の時系列変化の一例を示したグラフである。It is the graph which showed an example of the time-sequential change of the luminance value in the image of FIG. 樹木を背景とする監視画像の一例を示す画像である。It is an image which shows an example of the monitoring image which uses a tree as a background. 図15の画像での輝度値の時系列変化の一例を示したグラフである。It is the graph which showed an example of the time-sequential change of the luminance value in the image of FIG. 本発明での人物の検出画像の一例を示す画像である。It is an image which shows an example of the detection image of a person in the present invention. 本発明での人物の検出画像の一例を示す画像である。It is an image which shows an example of the detection image of a person in the present invention. 図17の画像での輝度値の時系列変化の一例を示したグラフである。It is the graph which showed an example of the time-sequential change of the luminance value in the image of FIG. 本発明での人物の検出画像の一例を示す画像である。It is an image which shows an example of the detection image of a person in the present invention. 侵入物体検出装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an intruding object detection apparatus. 侵入物体検出処理の全体を示すフローチャートである。It is a flowchart which shows the whole intruding object detection process. 監視ライン設定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the monitoring line setting process. ライン監視処理での平均値、標準偏差の算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of the average value in a line monitoring process, and a standard deviation. ライン監視処理での監視ラインの時空間画像の更新と変化点の検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the update of the spatio-temporal image of the monitoring line in a line monitoring process, and the detection process of a change point. ライン監視処理での監視ラインの時空間画像内での変化点の拡張処理の一例を示すフローチャートである。It is a flowchart which shows an example of the expansion process of the change point in the spatiotemporal image of the monitoring line in a line monitoring process. ライン監視処理での一定の検査時間に渡る変化判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the change determination process over the fixed test | inspection time in a line monitoring process. ライン監視処理での時空間画像内での傾き検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the inclination detection process in the spatiotemporal image in a line monitoring process. 優先区画決定処理、人物判定処理、重み更新処理の一例のフローチャートである。It is a flowchart of an example of a priority division determination process, a person determination process, and a weight update process.

符号の説明Explanation of symbols

10 侵入物体検出装置
10 Intruder detection device

Claims (15)

撮影画像内に少なくとも一本以上の線分領域を設定する監視ライン設定処理と、前記線分領域上で、輝度値変化が大きい画素を抽出するライン監視処理と、前記撮影画像を一定区画に分割し、前記ライン監視処理により抽出された画素を含み、かつ移動速度が速い侵入物体が存在していると推定される区画順に優先順位を付ける優先区画決定処理と、前記優先区画決定処理により設定された前記区画の優先順位に従って、前記区画に撮影された画像と予め用意された侵入物体テンプレートとのマッチングにより前記区画内に侵入物体が存在しているか否かを判定する侵入物体判定処理とを行うことを特徴とする画像処理による侵入物体検出方法。 A monitoring line setting process for setting at least one line segment area in the captured image, a line monitoring process for extracting pixels having a large luminance value change on the line segment area, and dividing the captured image into fixed sections In addition, a priority section determination process that prioritizes a section order that includes pixels extracted by the line monitoring process and that is estimated to have an intruding object with a high moving speed, and is set by the priority section determination process. In accordance with the priority order of the sections, an intruding object determination process is performed to determine whether or not an intruding object exists in the section by matching an image captured in the section with a prepared intruding object template. An intruding object detection method using image processing. 前記監視ライン設定処理は、前記線分領域を撮影画像内の必要に応じた位置と傾きに設定するようにしたことを特徴とする請求項1記載の画像処理による侵入物体検出方法。 2. The method for detecting an intruding object by image processing according to claim 1, wherein in the monitoring line setting process, the line segment area is set to a position and an inclination in a captured image as required. 前記ライン監視処理は、前記線分領域毎に、前記線分領域上のすべての画素を任意の記録時間に渡って記録した時空間画像を作成し、前記線分領域上の画素位置での輝度値が該画素位置で求めた任意の記録時間に渡る輝度値の平均値に対して予め設定した標準偏差の閾値倍の範囲を超える輝度値となる画素を検出し、前記検出された画素によって前記時空間画像上に形成される線分の長さを求めるようにしたことを特徴とする請求項1または2記載の画像処理による侵入物体検出方法。 The line monitoring process creates a spatio-temporal image in which all pixels on the line segment area are recorded over an arbitrary recording time for each line segment area, and the luminance at the pixel position on the line segment area is determined. A pixel having a luminance value that exceeds a threshold value times a preset standard deviation with respect to an average value of luminance values over an arbitrary recording time obtained at the pixel position is detected, and the detected pixel detects the pixel The method for detecting an intruding object by image processing according to claim 1 or 2, wherein the length of a line segment formed on the spatiotemporal image is obtained. 前記ライン監視処理は、前記検出された画素を予め設定した閾値以上の画像フレーム数に渡って検出した場合に、前記時空間画像上に形成される線分として抽出するようにしたことを特徴とする請求項3記載の画像処理による侵入物体検出方法。 The line monitoring process is characterized in that when the detected pixel is detected over a number of image frames equal to or greater than a preset threshold, it is extracted as a line segment formed on the spatiotemporal image. A method for detecting an intruding object by image processing according to claim 3. 前記優先区画決定処理は、前記ライン監視処理により求めた前記線分の長さと、撮影フレーム数から前記線分の傾きを求め、該傾きの大きさから侵入物体の移動速度を推定するようにしたことを特徴とする請求項4記載の画像処理による侵入物体検出方法。 In the priority zone determination process, the slope of the line segment is obtained from the length of the line segment obtained by the line monitoring process and the number of shooting frames, and the moving speed of the intruding object is estimated from the magnitude of the slope. The method for detecting an intruding object by image processing according to claim 4. 前記優先区画決定処理は、前記線分の傾きの大きさに従って前記線分領域上の画素に対して重み値を設定し、重み値の高い画素を含む前記区画に優先順位を設定するようにしたことを特徴とする請求項5記載の画像処理による侵入物体検出方法。 In the priority section determination process, a weight value is set for pixels on the line segment area according to the slope of the line segment, and a priority order is set for the section including pixels having a high weight value. The method for detecting an intruding object by image processing according to claim 5. 前記優先区画決定処理は、前記侵入物体判定処理での優先区画内に侵入物体が存在していないと判定した場合に、該優先区画に対して、前記重み値を低い値に更新し、前記優先順位を抑制することを特徴とする請求項6記載の画像処理による侵入物体検出方法。 In the priority zone determination process, when it is determined that no intruding object exists in the priority zone in the intrusion object determination process, the priority value is updated to a low value for the priority zone, and the priority The method of detecting an intruding object by image processing according to claim 6, wherein the order is suppressed. 撮影画像内に少なくとも一本以上の線分領域を設定する監視ライン設定手段と、前記線分領域上で、画素の輝度値変化が大きい画素を抽出するライン監視手段と、前記撮影画像を一定区画に分割し、前記ライン監視処理により抽出された画素を含み、かつ移動速度が速い侵入物体が存在していると推定される区画順に優先順位を付ける優先区画決定手段と、前記優先区画決定手段により設定された前記区画の優先順位に従って、前記区画に撮影された画像と予め用意された侵入物体テンプレートとのマッチングにより前記区画内に侵入物体が存在しているか否かを判定する侵入物体判定手段とを備えることを特徴とする侵入物体検出装置。 Monitoring line setting means for setting at least one line segment area in the photographed image, line monitoring means for extracting pixels having a large change in luminance value of the pixels on the line segment area, and a predetermined section of the photographed image A priority section determining means for assigning priorities in order of sections estimated to include an intruding object that includes pixels extracted by the line monitoring process and has a high moving speed; and the priority section determining means An intruding object determining means for determining whether or not an intruding object exists in the section by matching an image photographed in the section with a prepared intruding object template according to the set priority order of the section; An intruding object detection device comprising: 前記監視ライン設定手段は、前記線分領域を撮影画像内の必要に応じた位置と傾きに設定するものである請求項8記載の侵入物体検出装置。 The intruding object detection device according to claim 8, wherein the monitoring line setting unit sets the line segment region at a position and an inclination according to necessity in the captured image. 前記ライン監視手段は、前記線分領域毎に、前記線分領域上のすべての画素を任意の記録時間に渡って記録した時空間画像を作成し、前記線分領域上の画素位置での輝度値が該画素位置で求めた任意の記録時間に渡る輝度値の平均値に対して予め設定した標準偏差の閾値倍の範囲を超える輝度値となる画素を検出し、前記検出された画素によって前記時空間画像上に形成される線分の長さを求めるものである請求項8または9記載の侵入物体検出装置。 The line monitoring means creates, for each line segment area, a spatiotemporal image in which all the pixels on the line segment area are recorded over an arbitrary recording time, and the luminance at the pixel position on the line segment area A pixel having a luminance value that exceeds a threshold value times a preset standard deviation with respect to an average value of luminance values over an arbitrary recording time obtained at the pixel position is detected, and the detected pixel detects the pixel The intruding object detection device according to claim 8 or 9, wherein a length of a line segment formed on the spatiotemporal image is obtained. 前記ライン監視手段は、前記検出された画素を予め設定した閾値以上の画像フレーム数に渡って検出した場合に、前記時空間画像上に形成される線分として抽出するものである請求項10記載の侵入物体検出装置。 The line monitoring means extracts the detected pixels as line segments formed on the spatiotemporal image when the detected pixels are detected over a number of image frames equal to or greater than a preset threshold value. Intrusion object detection device. 前記優先区画決定手段は、前記ライン監視手段により求めた前記線分の長さと、撮影フレーム数から前記線分の傾きを求め、該傾きの大きさから侵入物体の移動速度を推定するものである請求項11記載の侵入物体検出装置。 The priority section determining means obtains the inclination of the line segment from the length of the line segment obtained by the line monitoring means and the number of captured frames, and estimates the moving speed of the intruding object from the magnitude of the inclination. The intruding object detection device according to claim 11. 前記優先区画決定手段は、前記線分の傾きの大きさに従って前記線分領域上の画素に対して重み値を設定し、重み値の高い画素を含む前記区画に優先順位を設定するものである請求項12記載の侵入物体検出装置。 The priority section determining means sets a weight value for pixels on the line segment area according to the slope of the line segment, and sets a priority order for the section including pixels having a high weight value. The intruding object detection device according to claim 12. 前記優先区画決定手段は、前記侵入物体判定手段での優先区画内に侵入物体が存在していないと判定した場合に、該優先区画に対して、前記重み値を低い値に更新し、前記優先順位を抑制するものである請求項13記載の侵入物体検出装置。 The priority section determining means updates the weight value to a low value for the priority section when the intruding object determination means determines that no intruding object exists in the priority section, and the priority section The intruding object detection device according to claim 13, which suppresses the rank. 撮影画像を表示する出力装置上で設定された線分領域に対応する部分のアドレスを監視ラインとして主記憶装置に記憶する監視ライン設定手段と、前記線分領域上で輝度値変化が大きい画素のアドレスを主記憶装置に記憶するライン監視手段と、前記撮影画像をあらかじめ一定区画に分割して主記憶装置に記憶し、前記ライン監視手段により記憶された画素のアドレスを含み、かつ移動速度が速い侵入物体が存在していると推定される区画順に優先順位を付け、該優先順位を主記憶装置に記憶する優先区画決定手段と、前記優先区画決定手段により主記憶装置に記憶された前記区画の優先順位に従って、前記区画に撮影された画像と、補助記憶装置から読み出した侵入物体テンプレートをマッチングにより前記区画内に侵入物体が存在しているか否かを判定する侵入物体判定手段としてコンピュータを機能させることを特徴とする侵入物体検出プログラム。
Monitoring line setting means for storing, in the main memory, the address of the portion corresponding to the line segment area set on the output device for displaying the photographed image, and for the pixel having a large change in luminance value on the line segment area; Line monitoring means for storing addresses in the main storage device, and the captured image is previously divided into predetermined sections and stored in the main storage device, including pixel addresses stored by the line monitoring means, and has a high moving speed. Priorities are determined in order of partitions in which an intruding object is presumed to exist, and priority partition determination means for storing the priorities in the main storage device; and the priority storage determination means stored in the main storage device by the priority partition determination means. According to the priority order, there is an intruding object in the section by matching the image captured in the section with the intruding object template read from the auxiliary storage device. Intruding object detecting program for causing a computer to function as determining intruding object determination means for determining whether or not.
JP2005199990A 2005-07-08 2005-07-08 Intruding object detection apparatus, method and program by image processing Expired - Fee Related JP4610005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005199990A JP4610005B2 (en) 2005-07-08 2005-07-08 Intruding object detection apparatus, method and program by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005199990A JP4610005B2 (en) 2005-07-08 2005-07-08 Intruding object detection apparatus, method and program by image processing

Publications (2)

Publication Number Publication Date
JP2007018324A JP2007018324A (en) 2007-01-25
JP4610005B2 true JP4610005B2 (en) 2011-01-12

Family

ID=37755438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005199990A Expired - Fee Related JP4610005B2 (en) 2005-07-08 2005-07-08 Intruding object detection apparatus, method and program by image processing

Country Status (1)

Country Link
JP (1) JP4610005B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010062942A (en) * 2008-09-04 2010-03-18 Sanyo Electric Co Ltd Abnormality detecting apparatus
JP5208893B2 (en) * 2009-09-14 2013-06-12 セコム株式会社 Moving object tracking device
US10497131B2 (en) 2015-03-23 2019-12-03 Nec Corporation Monitoring apparatus, monitoring system, monitoring method, and computer-readable storage medium
EP3376468B1 (en) 2015-12-02 2020-01-29 Mitsubishi Electric Corporation Object detection device and object detection method
JP6653719B2 (en) * 2018-01-30 2020-02-26 三菱電機インフォメーションシステムズ株式会社 State determination device and state determination program
KR102201241B1 (en) * 2019-10-31 2021-01-12 인천대학교 산학협력단 Apaptive Object Recognizing Apparatus and Method for Processing Data Real Time In Multi Channel Video
CN111191631A (en) * 2020-01-08 2020-05-22 哈尔滨融智爱科智能科技有限公司 Video monitoring supervision area multi-device linkage method based on image domain template matching

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293670A (en) * 1999-04-08 2000-10-20 Asia Air Survey Co Ltd Method and device for automatically recognizing road sign of video picture and storage medium storing program for automatically recognizing road sign
JP2003110935A (en) * 2001-09-28 2003-04-11 Fujitsu General Ltd Ccd camera
JP2004258927A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Human detection method and device
JP2005056406A (en) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd Image movement detection apparatus and computer program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569992B2 (en) * 1995-02-17 2004-09-29 株式会社日立製作所 Mobile object detection / extraction device, mobile object detection / extraction method, and mobile object monitoring system
JP3567066B2 (en) * 1997-10-31 2004-09-15 株式会社日立製作所 Moving object combination detecting apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293670A (en) * 1999-04-08 2000-10-20 Asia Air Survey Co Ltd Method and device for automatically recognizing road sign of video picture and storage medium storing program for automatically recognizing road sign
JP2003110935A (en) * 2001-09-28 2003-04-11 Fujitsu General Ltd Ccd camera
JP2004258927A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Human detection method and device
JP2005056406A (en) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd Image movement detection apparatus and computer program

Also Published As

Publication number Publication date
JP2007018324A (en) 2007-01-25

Similar Documents

Publication Publication Date Title
Ahmed et al. A robust features-based person tracker for overhead views in industrial environment
AU2015243016B2 (en) Tracking Moving Objects using a Camera Network
KR101788269B1 (en) Method and apparatus for sensing innormal situation
US20190333241A1 (en) People flow analysis apparatus, people flow analysis system, people flow analysis method, and non-transitory computer readable medium
US7460685B2 (en) Method and apparatus for computerized image background analysis
JP4610005B2 (en) Intruding object detection apparatus, method and program by image processing
JP4764172B2 (en) Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program
US10719717B2 (en) Scan face of video feed
KR20190046351A (en) Method and Apparatus for Detecting Intruder
CN109886129B (en) Prompt message generation method and device, storage medium and electronic device
WO2019220589A1 (en) Video analysis device, video analysis method, and program
US20170053172A1 (en) Image processing apparatus, and image processing method
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
KR20160093253A (en) Video based abnormal flow detection method and system
JP5679760B2 (en) Intruder detection device
CN113920585A (en) Behavior recognition method and device, equipment and storage medium
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
JP6275022B2 (en) Image monitoring device
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JP4528103B2 (en) Image recognition device
CN110287929B (en) Method, device, equipment and storage medium for determining number of targets in group area
WO2020139071A1 (en) System and method for detecting aggressive behaviour activity
Deepak et al. Human recognition for surveillance systems using bounding box
JP2019029747A (en) Image monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees