JP5962297B2 - Camera field of view detection device - Google Patents

Camera field of view detection device Download PDF

Info

Publication number
JP5962297B2
JP5962297B2 JP2012164593A JP2012164593A JP5962297B2 JP 5962297 B2 JP5962297 B2 JP 5962297B2 JP 2012164593 A JP2012164593 A JP 2012164593A JP 2012164593 A JP2012164593 A JP 2012164593A JP 5962297 B2 JP5962297 B2 JP 5962297B2
Authority
JP
Japan
Prior art keywords
image
foreground
unit
camera
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012164593A
Other languages
Japanese (ja)
Other versions
JP2014026372A (en
Inventor
真史 村上
真史 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012164593A priority Critical patent/JP5962297B2/en
Publication of JP2014026372A publication Critical patent/JP2014026372A/en
Application granted granted Critical
Publication of JP5962297B2 publication Critical patent/JP5962297B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラの撮影視野変動検知装置に関し、特に、定点監視システムなどに利用される定点カメラの撮影視野の変動を検知する技術に関する。   The present invention relates to a camera field-of-view variation detection device, and more particularly to a technique for detecting a variation in field of view of a fixed-point camera used in a fixed-point monitoring system.

防犯カメラや街頭設置カメラなどでは、定点カメラが広く利用されている。この定点カメラの役割は、同一の場所において同一の視野を一定期間にわたって継続して撮影することにあり、特定箇所を継続して監視する用途等に利用されている。したがって、所定箇所に設置した定点カメラは、本来、その撮影視野を一定期間にわたって維持しなければならない。   Fixed point cameras are widely used in security cameras and street-mounted cameras. The role of this fixed point camera is to continuously photograph the same field of view for a certain period at the same place, and is used for the purpose of continuously monitoring a specific location. Therefore, a fixed-point camera installed at a predetermined location must originally maintain its field of view for a certain period.

ところが、不測の事態が発生すると、定点カメラの向きが変動し、その結果、撮影視野に変動が生じることになる。たとえば、鳥、犬、猫などの動物がカメラの上に載ったり、子供がカメラに衝突したりすると、カメラの向きが変化する。また、強風、豪雨、地震などの自然現象や、通過車両の振動の影響によっても、カメラの向きが変化することになる。あるいは、遠隔操作によって向きを調節する機能を備えたカメラの場合、オペレータの誤操作によって向きが変化してしまうこともある。   However, if an unexpected situation occurs, the orientation of the fixed point camera changes, and as a result, the shooting field of view changes. For example, when an animal such as a bird, a dog, or a cat is placed on the camera, or when a child collides with the camera, the direction of the camera changes. In addition, the orientation of the camera changes due to natural phenomena such as strong winds, heavy rains, and earthquakes, and the influence of vibration of passing vehicles. Alternatively, in the case of a camera having a function of adjusting the direction by remote operation, the direction may change due to an operator's erroneous operation.

定点カメラは、特定の撮影視野内を一定期間にわたって撮影し続ける目的で設置されているため、上例のような不測の事態によって撮影視野が変動するのは好ましくない。たとえば、定点カメラが、特定の場所をリアルタイムで監視するための監視カメラとして設置されていた場合、撮影視野が本来の監視場所から外れてしまうと、監視カメラとして正常な機能を果たすことができない。また、定点カメラが撮影した路面の画像に基づいて交通量を自動解析する処理を行っていた場合、撮影視野が当該路面から外れてしまうと、正しい解析を行うことができない。   Since the fixed point camera is installed for the purpose of continuously photographing within a specific photographing field for a certain period, it is not preferable that the photographing field fluctuates due to an unexpected situation as in the above example. For example, when a fixed point camera is installed as a monitoring camera for monitoring a specific place in real time, if the field of view is deviated from the original monitoring place, a normal function as the monitoring camera cannot be achieved. In addition, when the processing for automatically analyzing the traffic volume is performed based on the road surface image captured by the fixed point camera, the correct analysis cannot be performed if the photographing field of view deviates from the road surface.

一般に、カメラの撮影視野の変動を検出する方法としては、手ぶれ補正を行うための技術として、様々なセンサを利用した方法が提案されている。たとえば、下記の特許文献1には、カメラに内蔵した角速度センサによって手ぶれ検出を行う技術が開示されており、特許文献2には、角速度センサの代わりに加速度センサを用いた手ぶれ検出方法が開示されている。また、特許文献3には、監視カメラに角速度センサを組み込み、撮影視野の変動を検知する技術が開示されている。一方、特許文献4には、フレーム単位で得られる撮影画像を解析することにより、シーンチェンジを検出する技術が開示されている。   In general, as a technique for performing camera shake correction, a method using various sensors has been proposed as a method for detecting a change in the field of view of a camera. For example, the following Patent Document 1 discloses a technique for detecting camera shake using an angular velocity sensor built in a camera, and Patent Document 2 discloses a method for detecting camera shake using an acceleration sensor instead of the angular velocity sensor. ing. Patent Document 3 discloses a technique for detecting a change in photographing field of view by incorporating an angular velocity sensor into a surveillance camera. On the other hand, Patent Document 4 discloses a technique for detecting a scene change by analyzing a captured image obtained in units of frames.

特開平6−148730号公報JP-A-6-148730 特開2006−098533号公報JP 2006-098533 A 特開2000−285328号公報JP 2000-285328 A 特許第4698754号公報Japanese Patent No. 4698754

上述したとおり、カメラの撮影視野の変動を検知する方法としては、角速度センサや加速度センサなどを利用する方法が一般的である。しかしながら、これらセンサを用いる方法は、手ぶれ補正を行うためにデジタルカメラに組み込んで利用するのには適しているが、定点カメラの撮影視野変動の検出に利用するには必ずしも適切ではない。   As described above, a method using an angular velocity sensor, an acceleration sensor, or the like is generally used as a method for detecting a change in the field of view of the camera. However, the method using these sensors is suitable for being incorporated in a digital camera in order to perform camera shake correction, but is not necessarily suitable for being used for detection of photographing field variation of a fixed point camera.

一般に、定点監視システムでは、遠隔地に設置された定点カメラの撮影画像をフレーム単位で取り込んで処理することになるので、カメラにセンサを組み込む方式を採ると、撮影画像とともにセンサの検出信号をシステムまで伝送する伝送路を確保する必要がある。また、定点監視システムでは、撮影画像が必ずしもリアルタイムでモニタ上に表示されるわけではなく、録画した撮影画像に対して、後で様々な画像処理を施して解析するケースも少なくない。このようなケースでは、センサによって検出された変動情報を撮影画像に何らかの形で記録しておく必要がある。   In general, in a fixed point monitoring system, a captured image of a fixed point camera installed in a remote place is captured and processed in units of frames. Therefore, if a method of incorporating a sensor in the camera is adopted, the detection signal of the sensor is sent to the system together with the captured image. It is necessary to secure a transmission path for transmission up to. In the fixed point monitoring system, the captured image is not necessarily displayed on the monitor in real time, and there are many cases where the recorded captured image is analyzed by performing various image processing later. In such a case, it is necessary to record the variation information detected by the sensor in some form in the captured image.

これに対して、センサを用いずに、撮影画像自体を解析することにより、撮影視野内に何らかの変動が生じたことを検出する技術も提案されている。たとえば、前掲の特許文献4に開示されているシーンチェンジ検出方法は、時系列で連続的に与えられるフレーム画像を解析することにより、映像のシーンがチェンジしたことを検出することができる。しかしながら、この方法は、もともと、録画したテレビ番組からCMの部分をカットするような用途を意図したものであり、定点カメラの撮影視野変動を検知する用途で利用すると誤検出が生じる可能性が高い。   On the other hand, there has been proposed a technique for detecting that some variation has occurred in the photographing field of view by analyzing the photographed image itself without using a sensor. For example, the scene change detection method disclosed in Patent Document 4 described above can detect that a video scene has changed by analyzing frame images that are continuously given in time series. However, this method is originally intended to be used for cutting a CM portion from a recorded TV program, and it is highly likely that a false detection will occur if it is used for detecting a shooting field variation of a fixed point camera. .

そこで本発明は、カメラの向き変動を、当該カメラによる撮影画像自体を解析することにより、正確に検出することができる撮影視野変動検知装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a photographing visual field fluctuation detection device capable of accurately detecting a change in camera direction by analyzing a photographed image itself of the camera.

(1) 本発明の第1の態様は、カメラの撮影視野の変動を検知するためのカメラの撮影視野変動検知装置において、
カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として入力する画像入力部と、
過去に入力された複数の原画像の平均的な特徴を有する画像を背景画像として求め、新たに入力された原画像について、背景画像と相違する前景領域を抽出し、抽出した前景領域を示す前景画像を生成する前景領域抽出部と、
個々の原画像について生成された前景画像を格納する前景画像格納部と、
前景画像格納部に格納されている2組の前景画像についての差分領域を抽出し、抽出した差分領域を示す差分画像を生成する差分領域抽出部と、
生成された個々の差分画像を複数のブロックに分割するブロック分割部と、
得られた個々のブロックごとに、それぞれ差分領域が占める占有割合を算出する占有割合算出部と、
占有割合が第1の閾値以上となるブロックを急変ブロックと認識し、個々の差分画像ごとに、急変ブロックの数を計数するブロック計数部と、
急変ブロックの数が第2の閾値以上となる差分画像が得られたときに、撮影視野に変動が生じたものと判定する変動判定部と、
変動判定部による判定結果を通知する判定結果通知部と、
を設けたものである。
(1) According to a first aspect of the present invention, there is provided a camera field-of-view variation detecting device for detecting a camera field-of-view variation.
An image input unit for inputting an image captured by the camera as a frame-unit original image continuously given in time series;
Foreground indicating an extracted foreground region by obtaining an image having an average characteristic of a plurality of original images input in the past as a background image, extracting a foreground region different from the background image from the newly input original image A foreground region extraction unit for generating an image;
A foreground image storage unit that stores the foreground image generated for each original image;
A difference area extraction unit that extracts a difference area for two sets of foreground images stored in the foreground image storage unit and generates a difference image indicating the extracted difference area;
A block dividing unit that divides each generated difference image into a plurality of blocks;
For each individual block obtained, an occupancy ratio calculation unit that calculates the occupancy ratio that each difference area occupies,
A block counting unit that recognizes a block whose occupation ratio is equal to or greater than the first threshold as a sudden change block, and counts the number of sudden change blocks for each difference image;
A variation determination unit that determines that a variation has occurred in the field of view when a difference image is obtained in which the number of suddenly changing blocks is equal to or greater than a second threshold;
A determination result notification unit for notifying the determination result by the variation determination unit;
Is provided.

(2) 本発明の第2の態様は、上述した第1の態様に係るカメラの撮影視野変動検知装置において、
前景領域抽出部が、
入力された原画像を逐次格納する原画像格納部と、
過去に入力された複数の原画像に基づいて、これら原画像の平均的な特徴を有する平均画像を逐次作成する平均画像作成部と、
作成された平均画像を逐次格納する平均画像格納部と、
平均画像格納部に格納されている平均画像を背景画像として、原画像格納部に格納されている原画像と比較し、相違する部分を前景領域と認識することにより、前景領域とそれ以外の背景領域とを区別する二値画像として、前景画像を作成する画像比較部と、
を備えるようにしたものである。
(2) According to a second aspect of the present invention, in the photographing field fluctuation detection device for a camera according to the first aspect described above,
The foreground area extraction unit
An original image storage unit for sequentially storing the input original images;
Based on a plurality of original images input in the past, an average image creation unit that sequentially creates an average image having average characteristics of these original images;
An average image storage unit for sequentially storing the created average images;
The average image stored in the average image storage unit is used as a background image, compared with the original image stored in the original image storage unit, and the different parts are recognized as the foreground region. An image comparison unit that creates a foreground image as a binary image that distinguishes the area;
Is provided.

(3) 本発明の第3の態様は、上述した第2の態様に係るカメラの撮影視野変動検知装置において、
画像入力部が、時系列で連続的に与えられるフレーム単位のカラー原画像を、三原色の各画素値を有する画素の集合体データとして入力し、
平均画像作成部が、第i番目の原画像P(i)が入力されたときに(i=1,2,...)、当該原画像P(i)を含めた過去の原画像について、それぞれ対応する位置の画素の各色別の画素値の重みづけ平均値を算出し、当該平均値をもつ画素の集合体からなる第i番目の平均画像A(i)を背景画像として作成し、
画像比較部が、第(i+1)番目の原画像P(i+1)が入力されたときに、当該原画像P(i+1)と、第i番目の平均画像A(i)とを比較し、第(i+1)番目の前景画像F(i+1)を作成するようにしたものである。
(3) According to a third aspect of the present invention, in the photographing field fluctuation detection device for a camera according to the second aspect described above,
The image input unit inputs a color-unit color original image continuously given in time series as pixel aggregate data having pixel values of the three primary colors,
When the average image creation unit receives the i-th original image P (i) (i = 1, 2,...), The past original image including the original image P (i) A weighted average value of pixel values for each color of pixels at corresponding positions is calculated, and an i-th average image A (i) composed of a collection of pixels having the average value is created as a background image.
When the (i + 1) -th original image P (i + 1) is input, the image comparison unit compares the original image P (i + 1) with the i-th average image A (i), The (i + 1) th foreground image F (i + 1) is created.

(4) 本発明の第4の態様は、上述した第3の態様に係るカメラの撮影視野変動検知装置において、
平均画像作成部が、
最初の原画像P(1)が入力されたときに、当該原画像P(1)をそのまま最初の平均画像A(1)として平均画像格納部へ格納する処理を行い、
以後、第i番目の原画像P(i)が入力されるたびに(i=2,3,...)、第i番目の平均画像A(i)を、
a(i)=(1−w)・a(i−1)+w・p(i)
(但し、a(i)は、平均画像A(i)の
所定位置の画素の所定色の画素値、
a(i−1)は、平均画像A(i−1)の
所定位置の画素の所定色の画素値、
p(i)は、原画像P(i)の
所定位置の画素の所定色の画素値、
wは、所定の重みを示すパラメータ(w<1))
なる演算式を用いて作成するようにしたものである。
(4) According to a fourth aspect of the present invention, in the photographing field fluctuation detection device for a camera according to the third aspect described above,
The average image creation unit
When the first original image P (1) is input, the original image P (1) is stored in the average image storage unit as the first average image A (1) as it is,
Thereafter, every time the i-th original image P (i) is input (i = 2, 3,...), The i-th average image A (i) is
a (i) = (1-w) .a (i-1) + w.p (i)
(However, a (i) is the average image A (i)
A pixel value of a predetermined color of a pixel at a predetermined position,
a (i-1) is the average image A (i-1)
A pixel value of a predetermined color of a pixel at a predetermined position,
p (i) is the original image P (i)
A pixel value of a predetermined color of a pixel at a predetermined position,
w is a parameter indicating a predetermined weight (w <1))
It is made using the following arithmetic expression.

(5) 本発明の第5の態様は、上述した第3または第4の態様に係るカメラの撮影視野変動検知装置において、
画像比較部が、
比較対象となる一方の画像の所定位置の画素の画素値を基準画素値として読み出し、比較対象となる他方の画像の前記所定位置の画素の画素値を比較画素値として読み出す画素値読出部と、
比較画素値が、基準画素値について設定された所定の類似範囲に入っているか否かを判定する類否判定部と、
前景画像を構成する前記所定位置の画素の画素値として、類否判定部が類似範囲内と判定した場合には背景領域を示す画素値を、類否判定部が類似範囲外と判定した場合には前景領域を示す画素値を、それぞれ前景画像格納部に書き込む画素値書込部と、
を備えるようにしたものである。
(5) According to a fifth aspect of the present invention, in the above-described camera visual field fluctuation detection device according to the third or fourth aspect,
The image comparison unit
A pixel value reading unit that reads a pixel value of a pixel at a predetermined position of one image to be compared as a reference pixel value, and reads a pixel value of the pixel at the predetermined position of the other image to be compared as a comparison pixel value;
A similarity determination unit that determines whether or not the comparison pixel value is within a predetermined similarity range set for the reference pixel value;
When the similarity determination unit determines that the pixel value of the pixel at the predetermined position constituting the foreground image is within the similar range, the pixel value indicating the background area is determined to be outside the similarity range. Is a pixel value writing unit for writing the pixel value indicating the foreground region to the foreground image storage unit,
Is provided.

(6) 本発明の第6の態様は、上述した第5の態様に係るカメラの撮影視野変動検知装置において、
類否判定部が、三原色の各画素値を各座標軸にとった三次元座標系において、基準画素値に対応する座標に位置する基準点Qと比較画素値に対応する座標に位置する比較点qをとり、基準点Qを中心とする所定サイズの立体と比較点qとの位置関係を調べ、比較点qが立体の外部に位置すると判定できる場合には類似範囲外との判定を行い、内部に位置すると判定できる場合には類似範囲内との判定を行うようにしたものである。
(6) According to a sixth aspect of the present invention, in the photographing field fluctuation detection device for a camera according to the fifth aspect described above,
In the three-dimensional coordinate system in which the similarity determination unit takes each pixel value of the three primary colors on each coordinate axis, the reference point Q located at the coordinate corresponding to the reference pixel value and the comparison point q located at the coordinate corresponding to the comparison pixel value And the positional relationship between the solid of a predetermined size centered on the reference point Q and the comparison point q is determined, and if it can be determined that the comparison point q is located outside the solid, it is determined that it is outside the similar range, When it can be determined that the position is located in the position, it is determined that it is within the similar range.

(7) 本発明の第7の態様は、上述した第1〜第6の態様に係るカメラの撮影視野変動検知装置において、
前景画像格納部が、奇数番目のフレームの前景画像を格納する第1のフレームメモリと、偶数番目のフレームの前景画像を格納する第2のフレームメモリと、を有し、
前景領域抽出部が、新たに生成した前景画像によって、第1のフレームメモリと第2のフレームメモリとを交互に書き換える処理を行うようにしたものである。
(7) According to a seventh aspect of the present invention, in the photographing field fluctuation detection device for a camera according to the first to sixth aspects described above,
The foreground image storage unit includes a first frame memory for storing the foreground image of the odd-numbered frame, and a second frame memory for storing the foreground image of the even-numbered frame;
The foreground area extracting unit performs a process of alternately rewriting the first frame memory and the second frame memory with the newly generated foreground image.

(8) 本発明の第8の態様は、上述した第1〜第7の態様に係るカメラの撮影視野変動検知装置において、
前景領域抽出部が、前景領域を示す第1の画素値と背景領域を示す第2の画素値とのいずれか一方の画素値をもった画素の集合体からなる二値画像として前景画像を生成し、
差分領域抽出部が、一方の前景画像の所定位置の画素と他方の前景画像の前記所定位置の画素とを読み出し、両者の画素値が同一か非同一かを判定する処理を行い、差分画像を構成する前記所定位置の画素に対して、非同一との判定が得られた場合には差分領域を示す画素値を、同一との判定が得られた場合には差分領域外を示す画素値を、それぞれ与えることにより差分画像を生成するようにしたものである。
(8) According to an eighth aspect of the present invention, in the photographing visual field fluctuation detection device for a camera according to the first to seventh aspects described above,
The foreground area extraction unit generates a foreground image as a binary image composed of a collection of pixels having one of the first pixel value indicating the foreground area and the second pixel value indicating the background area. And
The difference area extraction unit reads out a pixel at a predetermined position of one foreground image and a pixel at the predetermined position of the other foreground image, and determines whether the pixel values of both are the same or non-identical. The pixel value indicating the difference area is obtained when the non-identical determination is obtained for the pixel at the predetermined position, and the pixel value indicating the outside of the difference area is obtained when the determination is the same. The difference image is generated by giving each of them.

(9) 本発明の第9の態様は、上述した第1〜第8の態様に係るカメラの撮影視野変動検知装置において、
画像入力部が、矩形状の輪郭をもった原画像を入力し、
前景領域抽出部が、矩形状の輪郭をもった前景画像を生成し、
差分領域抽出部が、矩形状の輪郭をもった差分画像を生成し、
ブロック分割部が、矩形状の輪郭をもった差分画像を縦にN分割、横にM分割することにより、N×M個の矩形状のブロックに分割するようにしたものである。
(9) According to a ninth aspect of the present invention, in the photographing field fluctuation detection device for a camera according to the first to eighth aspects described above,
The image input unit inputs an original image with a rectangular outline,
The foreground area extraction unit generates a foreground image having a rectangular outline,
The difference area extraction unit generates a difference image having a rectangular outline,
The block dividing unit divides the difference image having a rectangular outline into N × M rectangular blocks by dividing the difference image vertically into N and horizontally into M.

(10) 本発明の第10の態様は、上述した第1〜第9の態様に係るカメラの撮影視野変動検知装置を、コンピュータに専用のプログラムを組み込むことにより構成したものである。   (10) According to a tenth aspect of the present invention, the camera field-of-view variation detecting device according to the first to ninth aspects described above is configured by incorporating a dedicated program into a computer.

(11) 本発明の第11の態様は、上述した第1〜第9の態様に係るカメラの撮影視野変動検知装置を、半導体集積回路により構成したものである。   (11) According to an eleventh aspect of the present invention, the imaging field variation detection device for a camera according to the first to ninth aspects described above is configured by a semiconductor integrated circuit.

(12) 本発明の第12の態様は、上述した第1〜第9の態様に係るカメラの撮影視野変動検知装置と、所定の視野内の撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として出力する定点カメラと、によって定点監視システムを構成し、定点カメラの撮影視野の変動を変動検知装置により検知するようにしたものである。   (12) According to a twelfth aspect of the present invention, there is provided a photographic visual field fluctuation detection device for a camera according to the first to ninth aspects described above, and a frame in which photographic images within a predetermined visual field are continuously given in time series. A fixed point monitoring system is constituted by a fixed point camera that outputs a unit original image, and a change in the field of view of the fixed point camera is detected by a change detection device.

(13) 本発明の第13の態様は、上述した第12の態様に係る定点監視システムにおいて、
変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、変動検知装置内の判定結果通知部が、オペレータに対する変動警報を発するようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the fixed point monitoring system according to the twelfth aspect described above,
When the variation determination unit in the variation detection apparatus determines that the imaging field of view has changed, the determination result notification unit in the variation detection apparatus issues a variation alarm to the operator.

(14) 本発明の第14の態様は、上述した第12または第13の態様に係る定点監視システムにおいて、
定点カメラの撮影画像を記録する画像記録装置を更に設け、
変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、変動検知装置内の判定結果通知部が、画像記録装置に対して撮影画像の記録を中止させるための記録中止信号を与えるようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the fixed point monitoring system according to the twelfth or thirteenth aspect described above,
Further provided is an image recording device for recording images taken by a fixed point camera,
When the fluctuation determination unit in the fluctuation detection apparatus determines that fluctuation has occurred in the shooting field of view, the determination result notification unit in the fluctuation detection apparatus causes the image recording apparatus to stop recording the shot image. A recording stop signal is given.

(15) 本発明の第15の態様は、上述した第1〜第9の態様に係るカメラの撮影視野変動検知装置と、所定の視野内の撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として出力する定点カメラと、この定点カメラから時系列で順次与えられる原画像に対して所定の画像処理を行う画像処理装置と、によって画像処理システムを構成し、
定点カメラによる撮影画像が変動検知装置へ与えられ、変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、変動検知装置内の判定結果通知部が、画像処理装置に対して画像処理を中止させるための処理中止信号を与えるようにしたものである。
(15) According to a fifteenth aspect of the present invention, there is provided a photographing field fluctuation detecting device for a camera according to the first to ninth aspects described above, and a frame in which photographed images within a predetermined field of view are continuously given in time series. An image processing system is configured by a fixed-point camera that outputs a unit original image and an image processing device that performs predetermined image processing on the original image sequentially given in time series from the fixed-point camera,
When the image captured by the fixed point camera is given to the variation detection device, and the variation determination unit in the variation detection device determines that the variation has occurred in the field of view, the determination result notification unit in the variation detection device performs image processing. A processing stop signal for stopping image processing is given to the apparatus.

(16) 本発明の第16の態様は、上述した第1〜第9の態様に係るカメラの撮影視野変動検知装置と、複数枚の原画像を時系列で記録した画像記録装置と、この画像記録装置に記録されている原画像を時系列に沿って順次読み出し、読み出した原画像に対して所定の画像処理を行う画像処理装置と、によって画像処理システムを構成し、
画像記録装置内には、定点カメラで撮影された所定の視野内の撮影画像が、時系列で連続的に与えられるフレーム単位の原画像として記録されており、
画像処理装置が画像記録装置から読み出した原画像は、変動検知装置にも与えられ、変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、変動検知装置内の判定結果通知部が、画像処理装置に対して画像処理を中止させるための処理中止信号を与えるようにしたものである。
(16) According to a sixteenth aspect of the present invention, there is provided a photographing field fluctuation detecting device for a camera according to the first to ninth aspects described above, an image recording device for recording a plurality of original images in time series, and the image. An image processing system is configured by an image processing device that sequentially reads out original images recorded in a recording device along a time series and performs predetermined image processing on the read original images,
In the image recording device, a captured image in a predetermined field of view captured by a fixed point camera is recorded as a frame-unit original image that is continuously given in time series,
The original image read out from the image recording device by the image processing device is also given to the variation detection device, and when the variation determination unit in the variation detection device determines that a variation has occurred in the shooting field of view, The determination result notification unit gives a processing stop signal for stopping the image processing to the image processing apparatus.

(17) 本発明の第17の態様は、カメラの撮影視野の変動を検知するカメラの撮影視野変動検知方法において、
カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として入力する原画像入力段階と、
過去に入力された複数の原画像の平均的な特徴を有する画像を背景画像として求め、新たに入力された第i番目(i=1,2,... )の原画像P(i)について、背景画像と相違する前景領域を抽出し、抽出した前景領域を示す前景画像F(i)を順次生成する前景領域抽出段階と、
生成された第i番目(i=2,3,... )の前景画像F(i)と第(i−1)番目の前景画像F(i−1)とについて差分領域を抽出し、抽出した差分領域を示す差分画像D(i)を順次生成する差分領域抽出段階と、
生成された個々の差分画像D(i)を複数のブロックに分割するブロック分割段階と、
得られた個々のブロックごとに、それぞれ差分領域が占める占有割合を算出する占有割合算出段階と、
占有割合が第1の閾値以上となるブロックを急変ブロックと認識し、個々の差分画像ごとに、急変ブロックの数を計数するブロック計数段階と、
急変ブロックの数が第2の閾値以上となる差分画像が得られたときに、撮影視野に変動が生じた旨の検知を行う変動検知段階と、
をコンピュータが実行するようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the camera field-of-view variation detection method for detecting a variation in the field of view of the camera,
An original image input stage for inputting an image captured by the camera as an original image in units of frames continuously given in time series,
An image having an average characteristic of a plurality of original images input in the past is obtained as a background image, and the i-th (i = 1, 2,...) Newly input original image P (i) Extracting a foreground area different from the background image and sequentially generating a foreground image F (i) indicating the extracted foreground area;
A difference area is extracted and extracted for the generated i-th (i = 2, 3,...) Foreground image F (i) and (i−1) -th foreground image F (i−1). A differential region extraction stage for sequentially generating a differential image D (i) showing the differential region,
A block division step of dividing each generated difference image D (i) into a plurality of blocks;
For each individual block obtained, an occupancy ratio calculation stage for calculating an occupancy ratio occupied by the difference area,
A block counting step of recognizing a block having an occupation ratio equal to or higher than the first threshold as a sudden change block and counting the number of sudden change blocks for each difference image;
A change detection stage for detecting that a change has occurred in the field of view when a difference image is obtained in which the number of sudden change blocks is equal to or greater than a second threshold;
Is to be executed by a computer.

本発明に係るカメラの撮影視野変動検知装置によれば、時系列で連続的に与えられるフレーム単位の原画像から前景領域が抽出され、その時間的な差分領域を示す差分画像が求められる。そして、差分画像はブロックに分割され、個々のブロックごとに差分領域の占有割合が算出され、占有割合が第1の閾値以上となる急変ブロックの数が計数され、計数値が第2の閾値以上となった場合に、撮影視野に変動が生じたものと判定される。   According to the camera field-of-view variation detection device of the present invention, a foreground region is extracted from an original image in units of frames continuously given in time series, and a difference image indicating the temporal difference region is obtained. Then, the difference image is divided into blocks, the occupation ratio of the difference area is calculated for each block, the number of suddenly changing blocks whose occupation ratio is equal to or greater than the first threshold is counted, and the count value is equal to or greater than the second threshold. If it becomes, it is determined that the photographing field of view has changed.

このような手法を採れば、差分領域が一定以上の割合で、一定以上のブロックに分布して存在する場合に、撮影視野に変動が生じたものと判定されることになる。このため、カメラの向き変動に基づく撮影視野の変動を、当該カメラによる撮影画像自体を解析することにより、正確に検出することができるようになる。   If such a method is adopted, it is determined that the photographing field of view has fluctuated when the difference area is present in a certain proportion of blocks and distributed over a certain number of blocks. For this reason, it is possible to accurately detect the change in the photographing field based on the change in the orientation of the camera by analyzing the photographed image itself of the camera.

このような撮影視野変動検知装置を定点監視システムに組み込めば、撮影視野に変動が生じたことをオペレータに報知することが可能になり、また、撮影視野に変動が生じた時点で画像記録装置に対して録画を中止させ、無駄な録画が行われることを防止することが可能になる。更に、撮影画像に対して何らかの画像処理を施すシステムに組み込めば、撮影視野に変動が生じた時点で画像処理装置に対して処理を中止させ、不適切な画像処理が続行されることを防止することも可能になる。   If such a photographic field fluctuation detection device is incorporated in a fixed point monitoring system, it is possible to notify an operator that a variation has occurred in the photographic field of view. On the other hand, it is possible to stop recording and prevent unnecessary recording. Furthermore, if it is incorporated in a system that performs some kind of image processing on a photographed image, the image processing apparatus is stopped when the photographing field of view changes, and inappropriate image processing is prevented from continuing. It becomes possible.

時系列で並んだ原画像P10〜P40とこれに対応する前景画像F10〜F40を示す平面図である。It is a top view which shows the original images P10-P40 arranged in time series, and the foreground images F10-F40 corresponding to this. 原画像P(i+1)に対応した前景画像F(i+1)を作成する方法の基本原理を示す図である。It is a figure which shows the basic principle of the method of producing the foreground image F (i + 1) corresponding to the original image P (i + 1). 本発明において背景画像として用いられる平均画像A(i)の作成方法の一例を示す図である。It is a figure which shows an example of the production method of average image A (i) used as a background image in this invention. 図3に示す方法に基づいて作成される平均画像上の1画素の画素値変遷プロセスを示す図である。It is a figure which shows the pixel value transition process of 1 pixel on the average image produced based on the method shown in FIG. 本発明における前景画像F(i)の画素値決定プロセスを示す図である。It is a figure which shows the pixel value determination process of the foreground image F (i) in this invention. 画素の類否判定方法の基本原理を示す三次元色空間図である。FIG. 3 is a three-dimensional color space diagram showing a basic principle of a pixel similarity determination method. 画素の類否判定方法の具体的な方法の第1の例を示す三次元色空間図である。It is a three-dimensional color space figure which shows the 1st example of the specific method of the similarity determination method of a pixel. 画素の類否判定方法の具体的な方法の第2の例を示す三次元色空間図である。It is a three-dimensional color space figure which shows the 2nd example of the specific method of the similarity determination method of a pixel. 画素の類否判定方法の具体的な方法の第3の例を示す三次元色空間図である。It is a three-dimensional color space figure which shows the 3rd example of the specific method of the similarity determination method of a pixel. 回転楕円体モデルを用いた画素の類否判定方法を示す三次元色空間図である。FIG. 6 is a three-dimensional color space diagram illustrating a pixel similarity determination method using a spheroid model. 円柱モデルに対する回転楕円体モデルの利点を示す断面図である。It is sectional drawing which shows the advantage of the spheroid model with respect to a cylinder model. 2組の前景画像F30,F40に基づいて差分画像D40を生成するプロセスを示す平面図である。It is a top view which shows the process which produces | generates the difference image D40 based on two sets of foreground images F30 and F40. 2組の前景画像F30,F31に基づいて差分画像D31を生成するプロセスを示す平面図である。It is a top view which shows the process which produces | generates the difference image D31 based on two sets of foreground images F30 and F31. 図13の下段に示す差分画像D31(第i番目の差分画像D(i))の拡大平面図である。FIG. 14 is an enlarged plan view of a difference image D31 (i-th difference image D (i)) shown in the lower part of FIG. 図14に示す差分画像D(i)を20個のブロックに分割した状態を示す平面図である。It is a top view which shows the state which divided | segmented the difference image D (i) shown in FIG. 14 into 20 blocks. 図15に示す20個のブロックについて算出した差分領域の占有割合を示す平面図である(第1の閾値Th1=20%としたときに、閾値Th1以上となるブロックを太枠表示)。It is a top view which shows the occupation ratio of the difference area | region calculated about 20 blocks shown in FIG. 15 (When the 1st threshold value Th1 = 20%, the block which becomes more than threshold value Th1 is displayed with a thick frame.). 図15に示す20個のブロックについて算出した差分領域の占有割合を示す平面図である(第1の閾値Th1=15%としたときに、閾値Th1以上となるブロックを太枠表示)。FIG. 16 is a plan view showing the occupancy ratio of the difference area calculated for the 20 blocks shown in FIG. 15 (when the first threshold value Th1 is 15%, blocks that are equal to or greater than the threshold value Th1 are displayed in a thick frame). 原画像P30とP31との間で撮影視野に変動が生じた場合の各原画像とこれに対応する前景画像を示す平面図である。It is a top view which shows each original image and foreground image corresponding to this when a fluctuation | variation arises in a picked-up visual field between the original images P30 and P31. 図18に示す前景画像F30,F31に基づいて作成された差分画像D31(第i番目の差分画像D(i))の拡大平面図である。FIG. 19 is an enlarged plan view of a difference image D31 (i-th difference image D (i)) created based on the foreground images F30 and F31 shown in FIG. 図19に示す差分画像D(i)を20個のブロックに分割した状態を示す平面図である。It is a top view which shows the state which divided | segmented the difference image D (i) shown in FIG. 19 into 20 blocks. 図20に示す20個のブロックについて算出した差分領域の占有割合を示す平面図である(第1の閾値Th1=20%としたときに、閾値Th1以上となるブロックを太枠表示)。FIG. 21 is a plan view showing the occupancy ratio of the difference area calculated for the 20 blocks shown in FIG. 20 (when the first threshold Th1 = 20%, blocks that are equal to or greater than the threshold Th1 are displayed in a thick frame). 図20に示す20個のブロックについて算出した差分領域の占有割合を示す平面図である(第1の閾値Th1=50%としたときに、閾値Th1以上となるブロックを太枠表示)。FIG. 21 is a plan view showing the occupancy ratio of the difference area calculated for the 20 blocks shown in FIG. 20 (when the first threshold Th1 = 50%, blocks that are equal to or greater than the threshold Th1 are displayed in a thick frame). 本発明に係るカメラの撮影視野変動検知方法の手順を示す流れ図である。It is a flowchart which shows the procedure of the imaging | photography visual field fluctuation | variation detection method of the camera which concerns on this invention. 本発明に係る変動検知装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the fluctuation | variation detection apparatus 100 which concerns on this invention. 図24に示す前景領域抽出部120の詳細な構成例を示すブロック図である。FIG. 25 is a block diagram illustrating a detailed configuration example of a foreground area extraction unit 120 illustrated in FIG. 24. 本発明に係る定点監視システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the fixed point monitoring system which concerns on this invention. 本発明に係る定点監視システムの別な構成例を示すブロック図である。It is a block diagram which shows another structural example of the fixed point monitoring system which concerns on this invention. 本発明に係る画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing system which concerns on this invention. 本発明に係る画像処理システムの別な構成例を示すブロック図である。It is a block diagram which shows another structural example of the image processing system which concerns on this invention.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1.移動物体検出の基本原理 >>>
本発明に係る撮影視野変動検知装置は、定点カメラの向きが変動したことを、当該カメラによる撮影画像自体を解析することにより、撮影視野の変動として検知する機能を有している。その基本原理は、定点カメラの撮影画像から移動物体を検出し、この移動物体の変動量とその分布に基づいて、撮影視野が変動したことを判定する、というものである。そこで、ここでは、撮影画像から移動物体を検出する基本原理を説明する。
<<< §1. Basic principle of moving object detection >>
The photographing visual field fluctuation detection device according to the present invention has a function of detecting that the orientation of the fixed point camera has fluctuated as a fluctuation of the photographing visual field by analyzing a photographed image itself of the camera. The basic principle is that a moving object is detected from an image captured by a fixed-point camera, and it is determined that the field of view has changed based on the amount of change and the distribution of the moving object. Therefore, here, the basic principle of detecting a moving object from a captured image will be described.

いま、図1の左側に示すように、フレーム単位の撮影画像P10,P20,P30,P40がこの順番で与えられたものとしよう。図示の例は、街頭に設置された定点ビデオカメラによる撮影画像を示すものであり、右から左へと1台の車両(移動物体)が通過する状態が示されている。なお、一般的なビデオカメラの場合、1秒間に30フレーム程度の周期で連続して撮影画像が出力されるので、実際には、より細かな時間間隔で多数のフレーム画像が得られることになるが、ここでは、説明の便宜上、図示のとおり、4枚のフレーム画像P10,P20,P30,P40が順番に与えられたものとしよう。   Now, as shown on the left side of FIG. 1, it is assumed that captured images P10, P20, P30, and P40 in units of frames are given in this order. The illustrated example shows a photographed image by a fixed-point video camera installed on the street, and shows a state in which one vehicle (moving object) passes from right to left. Note that in the case of a general video camera, captured images are output continuously at a cycle of about 30 frames per second, so in practice, a large number of frame images can be obtained at finer time intervals. However, for convenience of explanation, it is assumed that four frame images P10, P20, P30, and P40 are given in order as shown in the figure.

これら4枚の画像を見ると、画像P10は街の背景のみであるが、画像P20では、右側に車両の一部が侵入したため、背景上に車両の一部が重なった画像になっている。同様に、画像P30,P40も、背景上に車両が重なった画像になっている。背景は静止しているため、画像P10〜P40について共通になるが、車両は移動物体であるため、画像P10〜P40では異なる。ここでは、各画像上において、背景を構成する領域を背景領域b、車両(移動物体)を構成する領域を前景領域fと呼ぶことにする。   Looking at these four images, the image P10 is only the background of the city, but in the image P20, since a part of the vehicle has entered the right side, the image is a part of the vehicle overlapped on the background. Similarly, the images P30 and P40 are images in which vehicles overlap on the background. Since the background is stationary, it is common for the images P10 to P40. However, since the vehicle is a moving object, the images P10 to P40 are different. Here, on each image, the area constituting the background is referred to as the background area b, and the area constituting the vehicle (moving object) is referred to as the foreground area f.

ここで説明する移動物体の検出とは、与えられた各画像P10〜P40について、それぞれ背景領域bと前景領域fとを区別することにある。図1の右側に示す各画像F10〜F40は、それぞれ左側に示す各画像P10〜P40について、背景領域bと前景領域fとの区別を示す画像である。図にハッチングを施した領域が前景領域fであり、白地の領域が背景領域bである。いずれの領域かを識別できればよいので、これらの画像F10〜F40は、二値画像として与えられる。たとえば、背景領域bに所属する画素には画素値「0」を与え、前景領域fに所属する画素には画素値「1」を与えることにすれば、画像F10〜F40は、1ビットの画素値をもった画素の集合体からなる画像データの形式で得ることができる。   The detection of the moving object described here is to distinguish the background area b and the foreground area f from each of the given images P10 to P40. The images F10 to F40 shown on the right side of FIG. 1 are images showing the distinction between the background region b and the foreground region f for the images P10 to P40 shown on the left side. The hatched area in the figure is the foreground area f, and the white area is the background area b. Since it is only necessary to identify which region, these images F10 to F40 are given as binary images. For example, if the pixel value “0” is given to the pixels belonging to the background region b and the pixel value “1” is given to the pixels belonging to the foreground region f, the images F10 to F40 are 1-bit pixels. It can be obtained in the form of image data consisting of a collection of pixels having values.

ここで述べる移動物体の検出処理によれば、与えられた個々のフレーム画像のそれぞれについて、対応する二値画像を作成することができる。すなわち、この移動物体検出処理の本質は、時系列で連続的に与えられるフレーム単位の撮影画像について、それぞれ背景領域bと前景領域fとの区別を示す二値画像を作成する処理ということができる。そこで、以下、便宜上、時系列で連続的に与えられる撮影画像を「原画像」と呼び、この「原画像」に基づいて作成される二値画像を「前景画像」と呼ぶことにする。   According to the moving object detection process described here, a corresponding binary image can be created for each given frame image. In other words, the essence of this moving object detection process can be said to be a process of creating a binary image indicating the distinction between the background region b and the foreground region f for each frame-by-frame captured image continuously given. . Therefore, hereinafter, for convenience, captured images continuously given in time series are referred to as “original images”, and binary images created based on these “original images” are referred to as “foreground images”.

図1に示す例では、各原画像P10〜P40のそれぞれについて、前景画像F10〜F40が作成された例が示されている。前景画像F10は、全面が背景領域b10(白地の領域)によって構成されているが、これは原画像10上に移動物体が存在しないことを示している。これに対して、前景画像F20,F30,F40は、それぞれ前景領域f20,f30,f40(ハッチングを施した領域)と、その余の背景領域b20,b30,b40(白地の領域)とによって構成されている。ここで、前景領域f20,f30,f40は、移動物体が占める領域を示している。   In the example illustrated in FIG. 1, an example in which foreground images F10 to F40 are created for each of the original images P10 to P40 is illustrated. The foreground image F10 is entirely composed of a background area b10 (white area), which indicates that there is no moving object on the original image 10. On the other hand, the foreground images F20, F30, and F40 are respectively composed of foreground regions f20, f30, and f40 (hatched regions) and the remaining background regions b20, b30, and b40 (white regions). ing. Here, the foreground areas f20, f30, and f40 indicate areas occupied by the moving object.

このように、前景画像F上の前景領域fは、原画像P上での移動物体が占める領域を示すものであり、この前景画像Fを利用すれば、移動物体の形状やサイズを把握したり、移動物体の部分をズームアップして、車両のナンバーを確認したり、人物を特定したりする処理を行うことが可能になる。また、画面上で移動物体をズームアップしたまま追跡したり、移動経路を把握したりすることも可能になる。   Thus, the foreground area f on the foreground image F indicates the area occupied by the moving object on the original image P. By using this foreground image F, the shape and size of the moving object can be grasped. It is possible to perform processing for zooming in on the moving object part and confirming the vehicle number or specifying a person. In addition, it is possible to track a moving object on the screen while zooming up, or to grasp a moving path.

もちろん、このような前景画像Fの作成を、1枚の原画像Pのみから行うことは困難である。たとえば、図示の原画像P20のみが静止画像として与えられた場合、人間の脳は様々な情報から車両の存在を認識することができるが、この1枚の静止画像P20のみから、コンピュータに車両の存在を認識させ、図示の前景画像F20を生成するには、複雑なアルゴリズムに基づく処理が必要となる。そこで、一般的な移動物体検出アルゴリズムでは、原画像と背景画像との差を求めることにより、当該差の領域を移動物体の領域(前景領域f)と判断する手法が採られる。   Of course, it is difficult to create such a foreground image F from only one original image P. For example, when only the illustrated original image P20 is given as a still image, the human brain can recognize the presence of the vehicle from various information, but only from this one still image P20, the computer can recognize the vehicle. In order to recognize the existence and generate the illustrated foreground image F20, processing based on a complicated algorithm is required. Therefore, a general moving object detection algorithm employs a method of determining a difference area between the original image and the background image as a moving object area (foreground area f).

たとえば、予め原画像P10を背景画像として指定しておけば、原画像P20が入力された時点で両者を比較することにより、差の領域を前景領域f20と認識し、図示のような前景画像F20を作成することが可能になる。差の領域の認識手法としては、新たに入力した原画像P20と背景画像P10とを画素単位で比較して、両画素の画素値が同一もしくは類似している場合、当該画素は背景領域b20を構成する画素であるとし、類似していない場合、当該画素は移動物体を構成する前景領域f20を構成する画素であるとする方法を採ればよい。   For example, if the original image P10 is designated as a background image in advance, the difference area is recognized as the foreground area f20 by comparing the original image P20 when the original image P20 is input, and the foreground image F20 as shown in the figure is obtained. Can be created. As a method for recognizing the difference area, when the newly input original image P20 and the background image P10 are compared on a pixel basis, and the pixel values of both the pixels are the same or similar, the pixel determines the background area b20. If the pixel is a constituent pixel and the pixels are not similar, a method may be adopted in which the pixel is a pixel constituting the foreground region f20 constituting the moving object.

背景画像としては、予め移動物体が存在しない状態(たとえば、原画像P10に示す状態)で撮影した静止画像を利用することも可能であるが、天候や時刻などの要因により、照明環境は時々刻々と変化してゆくものであり、ある特定の時点で撮影した静止画像をそのまま背景画像として継続して利用するのは不適切である。そこで、通常は、過去に入力された複数の原画像に基づいて、これら原画像の平均的な特徴を有する平均画像を作成し、この平均画像を背景画像として利用する手法が採られる。ここに述べる例でも、このような手法で得られた平均画像を、背景画像として利用している。平均画像は新たな画像が入力されるたびに逐次更新されるので、常に、その時点で最適な背景画像として機能する。   As the background image, it is possible to use a still image that has been captured in a state where there is no moving object in advance (for example, the state shown in the original image P10). However, due to factors such as weather and time, the lighting environment is constantly changing. It is inappropriate to continue using a still image taken at a specific time point as a background image as it is. Therefore, usually, a method is employed in which an average image having an average characteristic of these original images is created based on a plurality of original images input in the past, and this average image is used as a background image. In the example described here, the average image obtained by such a method is used as the background image. Since the average image is sequentially updated each time a new image is input, it always functions as an optimum background image at that time.

図2は、このような方法で移動物体を検出する基本原理を示す図である。ここで、図の上段に示す画像P(1),P(2),... ,P(i−2),P(i−1),P(i)は、時系列で連続的に与えられるフレーム単位の原画像であり、これまでに第1番目の原画像P(1)から第i番目の原画像P(i)まで、iフレーム分の画像が与えられた状態が示されている。一方、図の中段左に示す画像P(i+1)は、新たに与えられた第(i+1)番目の原画像であり、図の中段右に示す画像A(i)は、図の上段に示す過去に与えられたiフレーム分の原画像P(1)〜P(i)の平均的な特徴を有する平均画像である。   FIG. 2 is a diagram showing the basic principle of detecting a moving object by such a method. Here, the images P (1), P (2),..., P (i-2), P (i-1), and P (i) shown in the upper part of the figure are given continuously in time series. A frame-unit original image is shown, and a state in which images for i frames from the first original image P (1) to the i-th original image P (i) have been given is shown. . On the other hand, the image P (i + 1) shown on the left in the middle of the figure is the (i + 1) th original image newly given, and the image A (i) shown on the right of the middle of the figure is the past shown in the upper part of the figure. Is an average image having an average characteristic of the original images P (1) to P (i) for i frames given to.

新たに入力された原画像P(i+1)についての前景画像F(i+1)は、当該原画像P(i+1)と平均画像A(i)とを比較することによって作成される。図2の下段は、このようにして作成された前景画像F(i+1)を示すものである。具体的には、原画像P(i+1)上の各画素の画素値を、平均画像A(i)上の対応する画素の画素値と比較し、類似範囲内と判定された画素については背景領域b(i+1)を示す画素値(たとえば、「0」)を与え、類似範囲外と判定された画素については前景領域f(i+1)を示す画素値(たとえば、「1」)を与えることにより、二値画像からなる前景画像F(i+1)を作成すればよい。   The foreground image F (i + 1) for the newly input original image P (i + 1) is created by comparing the original image P (i + 1) with the average image A (i). The lower part of FIG. 2 shows the foreground image F (i + 1) created in this way. Specifically, the pixel value of each pixel on the original image P (i + 1) is compared with the pixel value of the corresponding pixel on the average image A (i). By giving a pixel value (for example, “0”) indicating b (i + 1), and for a pixel determined to be out of the similar range, a pixel value (for example, “1”) indicating the foreground region f (i + 1) is given. A foreground image F (i + 1) consisting of a binary image may be created.

続いて、第(i+2)番目の原画像P(i+2)が入力されたときには、過去に入力された第(i+1)番目の原画像P(i+1)までの平均的な特徴を有する平均画像A(i+1)が新たに作成され、原画像P(i+2)と平均画像A(i+1)とを比較することにより、前景画像F(i+2)が作成される。このように、平均画像は逐次更新されてゆくため、天候や時刻などの要因により、照明環境が変化した場合でも、各時点に適した背景画像としての機能を果たすことができる。   Subsequently, when the (i + 2) th original image P (i + 2) is input, an average image A () having an average characteristic up to the (i + 1) th original image P (i + 1) input in the past. i + 1) is newly created, and the foreground image F (i + 2) is created by comparing the original image P (i + 2) and the average image A (i + 1). In this way, since the average image is sequentially updated, even if the lighting environment changes due to factors such as weather and time, it can function as a background image suitable for each time point.

なお、平均画像を作成する際には、時系列に沿った重みづけを行うようにし、最新の原画像の情報に重みをおいた加重平均を求めるようにするのが好ましい。たとえば、過去10分間に入力された原画像について重み1、それ以前に入力された原画像について重み0を与えて平均を求めれば、常に、最新10分間に得られた原画像についての平均画像を得ることができ、照明環境が変化した場合にも対応することができる。もちろん、常に最新の原画像ほど重みづけが大きくなるように、重みづけをきめ細かく設定することもできる。   Note that when creating an average image, it is preferable to perform weighting along a time series, and obtain a weighted average with the latest original image information weighted. For example, if an average is obtained by giving a weight of 1 for an original image input in the past 10 minutes and a weight of 0 for an original image input before that, an average image for the original image obtained in the latest 10 minutes is always obtained. It can be obtained and can cope with a change in the lighting environment. Of course, the weights can be set finely so that the latest original image always has a higher weight.

結局、この図2に示す例の場合、平均画像を作成する際には、第i番目の原画像P(i)が入力されたときに(i=1,2,...)、当該原画像P(i)を含めた過去の原画像について、それぞれ対応する位置の画素の各色別の画素値の重みづけ平均値を算出し、当該平均値をもつ画素の集合体からなる第i番目の平均画像A(i)を作成すればよい。そして、第(i+1)番目の原画像P(i+1)について、第(i+1)番目の前景画像F(i+1)を作成する際には、原画像P(i+1)と、第i番目の平均画像A(i)とを比較すればよい。   After all, in the case of the example shown in FIG. 2, when creating the average image, when the i-th original image P (i) is input (i = 1, 2,...), For the past original image including the image P (i), the weighted average value of the pixel values for each color of the pixels at the corresponding positions is calculated, and the i-th pixel composed of a collection of pixels having the average value. An average image A (i) may be created. When the (i + 1) th foreground image F (i + 1) is created for the (i + 1) th original image P (i + 1), the original image P (i + 1) and the i-th average image A What is necessary is just to compare (i).

ただ、1秒間に30フレームという一般的なフレームレートで動画画像が入力された場合、過去10分間の原画像であっても、その画像データをすべて蓄積しておくには、画像データのバッファにかなりの記憶容量が必要になる。そこで、実用上は、第i番目の原画像P(i)が与えられたときに、第(i−1)番目の平均画像A(i−1)と、当該第i番目の原画像P(i)との2枚の画像に基づいて、第i番目の平均画像A(i)を作成する手法が採られる。図3は、このような手法に基づく平均画像の作成方法の一例を示す図である。   However, if a moving image is input at a general frame rate of 30 frames per second, even if it is an original image for the past 10 minutes, in order to store all the image data, the image data buffer Considerable storage capacity is required. Therefore, practically, when the i-th original image P (i) is given, the (i−1) -th average image A (i−1) and the i-th original image P ( Based on the two images i), a method of creating the i-th average image A (i) is adopted. FIG. 3 is a diagram illustrating an example of an average image creation method based on such a method.

まず、最初の原画像P(1)が与えられたときには、当該原画像P(1)をそのまま最初の平均画像A(1)とする処理を行う。そして、以後、図3の上段右に示す第i番目の原画像P(i)が入力されるたびに(i=2,3,...)、図3の上段左に示す第(i−1)番目の平均画像A(i−1)を利用して、図3の中段に示す第i番目の平均画像A(i)を、図3の下段に示す
a(i)=(1−w)・a(i−1)+w・p(i) 式(1)
なる演算式を用いて作成すればよい。ここで、a(i)は、平均画像A(i)の所定位置の画素の所定色の画素値、a(i−1)は、平均画像A(i−1)の前記所定位置の画素の前記所定色の画素値、p(i)は、原画像P(i)の前記所定位置の画素の前記所定色の画素値、wは、所定の重みを示すパラメータ(w<1)である。
First, when the first original image P (1) is given, the original image P (1) is processed as it is as the first average image A (1). Then, every time the i-th original image P (i) shown in the upper right of FIG. 3 is inputted (i = 2, 3,...), The (i−) shown in the upper left of FIG. 1) The i-th average image A (i) shown in the middle part of FIG. 3 is shown in the lower part of FIG.
a (i) = (1-w) .a (i-1) + w.p (i) Formula (1)
It may be created using the following arithmetic expression. Here, a (i) is a pixel value of a predetermined color of a pixel at a predetermined position of the average image A (i), and a (i-1) is a pixel value of the pixel at the predetermined position of the average image A (i-1). The pixel value of the predetermined color, p (i) is the pixel value of the predetermined color of the pixel at the predetermined position of the original image P (i), and w is a parameter (w <1) indicating a predetermined weight.

要するに、直前に与えられた原画像P(i−1)までの原画像について算出された第(i−1)番目の平均画像A(i−1)の画素値a(i−1)と、新たに与えられた第i番目の原画像P(i)の画素値p(i)とについて、重みwを考慮した平均値が算出され、当該算出値を第i番目の平均画像A(i)の画素値a(i)とする処理が行われることになる。このように、新たな原画像P(i)が入力されるたびに、平均画像A(i)を更新してゆき、しかも更新には直前の平均画像A(i−1)のみを用いるようにすれば、過去の原画像データを何フレーム分にもわたって蓄積保持しておく必要がないので、処理を行うために必要なバッファの容量を大幅に節約することができる。   In short, the pixel value a (i−1) of the (i−1) -th average image A (i−1) calculated for the original image up to the original image P (i−1) given immediately before, For the pixel value p (i) of the i-th original image P (i) that is newly given, an average value considering the weight w is calculated, and the calculated value is used as the i-th average image A (i). The process of setting the pixel value a (i) is performed. Thus, every time a new original image P (i) is input, the average image A (i) is updated, and only the immediately preceding average image A (i-1) is used for the update. By doing so, it is not necessary to store and hold past original image data for several frames, so that it is possible to greatly save the capacity of the buffer necessary for processing.

図3に示すとおり、重みwの値を大きくすればするほど、最新の原画像P(i)の画素値が平均画像A(i)の画素値に大きな影響を与えることになる。図4は、図3に示す方法に基づいて作成される平均画像上の1画素の画素値変遷プロセスを示す図である。この例では、重みw=0.01に設定した具体例が示されている。   As shown in FIG. 3, as the value of the weight w is increased, the pixel value of the latest original image P (i) greatly affects the pixel value of the average image A (i). FIG. 4 is a diagram showing a pixel value transition process of one pixel on the average image created based on the method shown in FIG. In this example, a specific example in which the weight w = 0.01 is shown.

たとえば、第1番目(i=1)の原画像P(1)の特定位置の画素の画素値がp(1)=100であったとすると、第1番目の平均画像A(1)の当該特定位置の画素の画素値a(1)は、そのままa(1)=100となる。続いて、第2番目の原画像P(2)の当該特定位置の画素の画素値がp(2)=100であったとすると、第2番目の平均画像A(2)の当該特定位置の画素の画素値a(2)は、a(1)とp(2)との重みつき平均「0.99×100+0.01×100」を計算することにより、a(2)=100になる。   For example, if the pixel value of the pixel at the specific position of the first (i = 1) original image P (1) is p (1) = 100, the specific of the first average image A (1) is specified. The pixel value a (1) of the pixel at the position is a (1) = 100 as it is. Subsequently, assuming that the pixel value of the pixel at the specific position of the second original image P (2) is p (2) = 100, the pixel at the specific position of the second average image A (2). The pixel value a (2) is calculated as a weighted average “0.99 × 100 + 0.01 × 100” between a (1) and p (2), so that a (2) = 100.

図示の例では、原画像の当該特定位置の画素値は、p(1)〜p(4)まで100のまま変化しないため、平均画像の当該特定位置の画素値も、a(1)〜a(4)まで100を維持する。ところが、第5番目の原画像P(5)では、画素値p(5)=200に急変したため、第5番目の平均画像A(5)の画素値a(5)は、図4の下段の式に示すとおり、a(4)とp(5)との重みつき平均「0.99×100+0.01×200」を計算することにより、a(5)=101になる。更に、第6番目の原画像P(6)および第7番目の原画像P(7)では、画素値p(6)=p(7)=200が維持されているため、図4の下段の式に示すとおり、第6番目の平均画像A(6)および第7番目の平均画像A(7)では、画素値a(6)=102、画素値a(7)=103、と徐々に増加している。   In the illustrated example, since the pixel value at the specific position of the original image remains 100 from p (1) to p (4), the pixel value at the specific position of the average image is also a (1) to a Maintain 100 until (4). However, in the fifth original image P (5), the pixel value a (5) of the fifth average image A (5) is changed in the lower part of FIG. As shown in the equation, a (5) = 101 is obtained by calculating the weighted average “0.99 × 100 + 0.01 × 200” of a (4) and p (5). Further, since the pixel value p (6) = p (7) = 200 is maintained in the sixth original image P (6) and the seventh original image P (7), the lower part of FIG. As shown in the equation, in the sixth average image A (6) and the seventh average image A (7), the pixel value a (6) = 102 and the pixel value a (7) = 103 gradually increase. doing.

この例のように、重みwを0.01程度の値に設定すると、原画像の画素値が急激に変化しても、平均画像の画素値は直ちに変化することはなく、原画像の画素値にゆっくりと近づいてゆくことになる。したがって、図1に示す例のように、車両が通過する動画が与えられたとしても、一過性の画素値変化は、平均画像の画素値に大きな変化をもたらすことはなく、平均画像は背景画像としての機能を果たすことができる。一方、時刻が日中から夕暮れに変わった場合など、照明環境に変化が生じた場合、当該変化は多数のフレーム画像にわたって持続するため、平均画像の画素値も当該変化に追従して変化することになる。したがって、日中には日中の背景画像に適した平均画像が得られ、夕暮れには夕暮れの背景画像に適した平均画像が得られることになる。   As in this example, when the weight w is set to a value of about 0.01, even if the pixel value of the original image changes abruptly, the pixel value of the average image does not change immediately, and the pixel value of the original image It will approach you slowly. Therefore, as in the example shown in FIG. 1, even if a moving image through which the vehicle passes is given, the transient pixel value change does not cause a large change in the pixel value of the average image, and the average image It can serve as an image. On the other hand, if the lighting environment changes, such as when the time changes from daytime to dusk, the change persists across many frame images, so the average image pixel value also changes following the change. become. Therefore, an average image suitable for a daytime background image is obtained during the daytime, and an average image suitable for a sunset background image is obtained at dusk.

本発明における前景画像は、このような方法で作成された平均画像を背景画像として、個々の原画像を比較することによって作成される。図5は、このようにして作成される前景画像の画素値決定プロセスを示す図である。第i番目の原画像P(i)についての前景画像F(i)は、次のような方法で決定される画素値をもつ画素の集合体からなる二値画像である。すなわち、前景画像F(i)の特定位置の画素の画素値f(i)は、原画像P(i)の当該特定位置の画素の画素値p(i)と、平均画像A(i−1)の当該特定位置の画素の画素値a(i−1)との比較によって決定され、両画素値が類似範囲内であれば、背景領域b内の画素であることを示す画素値(たとえば、「0」)が与えられ、両画素値が類似範囲外であれば、前景領域f内の画素であることを示す画素値(たとえば、「1」)が与えられる。   The foreground image in the present invention is created by comparing individual original images using the average image created by such a method as a background image. FIG. 5 is a diagram showing a pixel value determination process of the foreground image created in this way. The foreground image F (i) for the i-th original image P (i) is a binary image composed of a collection of pixels having pixel values determined by the following method. That is, the pixel value f (i) of the pixel at the specific position of the foreground image F (i) is equal to the pixel value p (i) of the pixel at the specific position of the original image P (i) and the average image A (i−1). ) Is compared with the pixel value a (i-1) of the pixel at the specific position, and if both pixel values are within the similar range, a pixel value indicating that the pixel is in the background region b (for example, If both pixel values are outside the similar range, a pixel value (for example, “1”) indicating that the pixel is in the foreground region f is given.

なお、実際には、原画像は三原色の各画素値(たとえば、RGB表色系の場合、R,G,Bの3色の画素値)をもったカラー画像であるので、原画像P(i)を構成する各画素の画素値p(i)や、平均画像A(i)を構成する各画素の画素値a(i)は、いずれも色ごとに独立した3つの値から構成されていることになる。そして、式(1)の演算は、個々の色ごとにそれぞれ独立して実行されることになる。たとえば、平均画像A(i)上の特定位置の画素の画素値a(i)は、R色の画素値、G色の画素値、B色の画素値という3組の画素値によって構成され、R色の画素値は、過去の原画像のR色の画素値の重みつき平均として得られた値になる。   Actually, since the original image is a color image having pixel values of three primary colors (for example, in the case of the RGB color system, pixel values of three colors R, G, and B), the original image P (i ) And the pixel value a (i) of each pixel constituting the average image A (i) are each composed of three independent values for each color. It will be. Then, the calculation of Expression (1) is executed independently for each color. For example, the pixel value a (i) of a pixel at a specific position on the average image A (i) is composed of three sets of pixel values, an R color pixel value, a G color pixel value, and a B color pixel value. The R pixel value is a value obtained as a weighted average of the R pixel values of the past original image.

したがって、図5における画素値p(i)と画素値a(i−1)との比較は、単なる2つの値の比較ではなく、3組の画素値と3組の画素値との比較ということになる。当然ながら、画素の類否判定は、この3組の画素値同士が類似するか否かを判定する処理ということになる。このような画素の類否判定の具体的な処理については、§2において詳述する。   Therefore, the comparison between the pixel value p (i) and the pixel value a (i−1) in FIG. 5 is not a simple comparison between two values, but a comparison between three sets of pixel values and three sets of pixel values. become. Naturally, the pixel similarity determination is processing for determining whether or not the three sets of pixel values are similar to each other. Specific processing for determining the similarity of pixels will be described in detail in Section 2.

<<< §2.画素の類否判定方法 >>>
本発明では、まず、原画像P(入力画像)について、移動物体を構成する前景領域fを抽出して前景画像Fを作成する必要がある。そのための方法として、§1で述べた方法では、原画像Pと平均画像A(背景画像)とを画素単位で比較して、両画素が類似している場合は背景領域bの画素、非類似の場合は前景領域fの画素という判定を行う。このように画素単位で類否判定を行う方法では、画素の類否判定が移動物体の検出精度を左右するファクターになるため、どのような方法で、どの程度の範囲までを「類似範囲」と判定するかが非常に重要である。
<<< §2. Pixel similarity determination method >>>
In the present invention, foreground image F needs to be created by extracting foreground region f constituting the moving object from original image P (input image). As a method for this, in the method described in §1, the original image P and the average image A (background image) are compared in pixel units, and if both pixels are similar, the pixels in the background region b are dissimilar. In the case of, it is determined that the pixel is in the foreground area f. In this way, in the method of determining similarity on a pixel-by-pixel basis, pixel similarity determination is a factor that affects the detection accuracy of a moving object. Judgment is very important.

たとえば、§1では、図1の画像P10を平均画像(背景画像)とし、画像P20を原画像(入力画像)とした場合、両者の比較により、画像F20のような前景画像が得られることを述べた。ここで、前景画像F20の前景領域f20は、両画像P10,P20を比較した結果、画素が類似範囲外と判定された領域であり、背景画像b20は、画素が類似範囲内と判定された領域である。この場合、類似範囲を適切に設定しないと、正しい前景画像を得ることはできない。   For example, in §1, when the image P10 in FIG. 1 is an average image (background image) and the image P20 is an original image (input image), a comparison between the two results in a foreground image such as the image F20 being obtained. Stated. Here, the foreground region f20 of the foreground image F20 is a region in which the pixels are determined to be outside the similar range as a result of comparing both the images P10 and P20, and the background image b20 is a region in which the pixels are determined to be in the similar range It is. In this case, a correct foreground image cannot be obtained unless the similar range is appropriately set.

すなわち、図1では、背景部分に全く同じ画像が描かれているが、実際の風景では、雲の動きで太陽光による照明環境が変化し、風により樹木の葉の位置や向きが微妙に変化する。したがって、画素の類否判定基準を厳しくすると、実際には背景部分であるのに、類似範囲外との誤判定が生じ、前景領域f内の画素との認定がなされてしまう。逆に、画素の類否判定基準を緩めると、実際には前景部分であるのに、類似範囲内との誤判定が生じ、背景領域b内の画素との認定がなされてしまう。   That is, in FIG. 1, the exact same image is drawn in the background part, but in an actual landscape, the lighting environment due to sunlight changes due to the movement of the clouds, and the position and orientation of the leaves of the trees change slightly due to the wind. . Therefore, if the criteria for judging whether or not the pixels are similar is strict, an erroneous determination that the pixel is actually in the background portion but outside the similar range occurs, and the pixel in the foreground region f is recognized. Conversely, if the pixel similarity criterion is relaxed, an erroneous determination that the pixel is in the background area b occurs because an erroneous determination that the pixel is in the similar range occurs even though it is actually the foreground part.

しかも、カラー画像の場合、前述したように、画素の類否は、一方の画素の3組の画素値と他方の画素の3組の画素値との比較に基づいて行う必要があるため、様々な類否判定基準を設定することが可能である。そして、どのような類否判定基準を採用するかによって、判定精度も変わってくる。通常、このようなカラー画像の画素の比較は、三次元の色空間上で、双方の画素値に対応する座標点をプロットし、両座標点の空間的な位置関係を調べることによって行われる。以下、各画素がRGB表色系の画素値をもっている場合について、色空間上での類否判定を行ういくつかの方法を説明する。   In addition, in the case of a color image, as described above, the similarity of pixels needs to be performed based on a comparison between three pixel values of one pixel and three pixel values of the other pixel. It is possible to set a similar similarity criterion. The determination accuracy also varies depending on what kind of similarity determination criterion is adopted. Usually, such pixel comparison of color images is performed by plotting coordinate points corresponding to both pixel values in a three-dimensional color space and examining the spatial positional relationship between the two coordinate points. Hereinafter, there will be described several methods for determining similarity in the color space when each pixel has an RGB color system pixel value.

図6は、画素の類否判定の最も単純な方法を示す三次元色空間図である。図示のとおり、三原色R,G,Bの画素値を各座標軸にとったRGB三次元直交座標系に、座標点AおよびPがプロットされている。ここで、座標点A(Ra,Ga,Ba)は、背景を示す平均画像A上の画素の画素値(Ra,Ga,Ba)をプロットした点であり、座標点P(Rp,Gp,Bp)は、判定対象となる原画像P上の画素の画素値(Rp,Gp,Bp)をプロットした点である。   FIG. 6 is a three-dimensional color space diagram showing the simplest method for determining similarity of pixels. As illustrated, coordinate points A and P are plotted in an RGB three-dimensional orthogonal coordinate system in which the pixel values of the three primary colors R, G, and B are taken as coordinate axes. Here, the coordinate point A (Ra, Ga, Ba) is a point obtained by plotting pixel values (Ra, Ga, Ba) of pixels on the average image A indicating the background, and the coordinate point P (Rp, Gp, Bp). ) Is a point in which pixel values (Rp, Gp, Bp) of pixels on the original image P to be determined are plotted.

ここで、この三次元色空間上での2点A,Pの距離をδとすれば、当該距離δは、両画素の類似度を示す1つの指標になる。δ=0であれば、両画素は全く同一の画素値をもった画素になり、δが大きくなればなるほど、3つの画素値の総合的な類似度は低下する。したがって、予め所定の閾値δthを設定しておき、δ<δthであれば類似範囲内、δ≧δthであれば類似範囲外と判定するようにすれば、一応の判定基準を設定することができる。   Here, if the distance between the two points A and P in the three-dimensional color space is δ, the distance δ is an index indicating the similarity between the two pixels. If δ = 0, both pixels have exactly the same pixel value, and the overall similarity of the three pixel values decreases as δ increases. Therefore, if a predetermined threshold value δth is set in advance and it is determined that δ <δth is within the similar range and δ ≧ δth is out of the similar range, a temporary determination criterion can be set. .

あるいは、原点Oを起点として、座標点Aへ向かうベクトルVaと座標点Pへ向かうベクトルVpとを定義し、両ベクトルVa,Vpのなす角θを、両画素の類似度を示す指標として用いることもできる。θ=0の場合、2点A,Pは必ずしも同一の点にはならないが、原点Oを通る同一直線上の点になるため、少なくとも三原色R,G,Bの配合割合で決まる両画素の色相は類似したものになる。結局、θが小さければ、色相の類似性は高まることになるので、指標δを用いた判定基準と同様に、予め所定の閾値θthを設定しておき、θ<θthであれば類似範囲内、θ≧θthであれば類似範囲外と判定するようにすれば、一応の判定基準を設定することができる。   Alternatively, starting from the origin O, a vector Va going to the coordinate point A and a vector Vp going to the coordinate point P are defined, and an angle θ formed by both vectors Va and Vp is used as an index indicating the similarity between both pixels. You can also. When θ = 0, the two points A and P are not necessarily the same point, but are points on the same straight line passing through the origin O. Therefore, the hues of both pixels determined by at least the blend ratio of the three primary colors R, G, and B are used. Will be similar. Eventually, if θ is small, the similarity of hue will increase. Therefore, like the criterion using index δ, a predetermined threshold θth is set in advance, and if θ <θth, If it is determined that θ ≧ θth is outside the similar range, a temporary determination criterion can be set.

ただ、このような距離δや角度θを基準とした単純な類否判定方法を、一般的な実写画像における移動物体検出処理に利用した場合、満足した検出結果を得ることが困難であることが知られている。これは、距離δや角度θという単純なパラメータの値だけでは、太陽光による照明環境の変化、風による樹木等の明暗の変化など、実際の撮影環境に対応した適切な判定基準を設定することが困難なためである。   However, when such a simple similarity determination method based on the distance δ and the angle θ is used for a moving object detection process in a general live-action image, it may be difficult to obtain a satisfactory detection result. Are known. This means that, with only simple parameter values such as distance δ and angle θ, appropriate judgment criteria corresponding to the actual shooting environment, such as changes in the lighting environment due to sunlight and changes in light and darkness due to wind, etc. should be set. This is because it is difficult.

このような問題に対処するための具体的な方法として、円柱モデルを用いる類否判定方法が提案されている。図7は、この円柱モデルを用いる方法の基本原理を示す三次元色空間図である。この図7においても、図6と同様に、背景を示す平均画像A上の画素の画素値(Ra,Ga,Ba)が座標点Aとしてプロットされ、判定対象となる原画像P上の画素の画素値(Rp,Gp,Bp)が座標点Pとしてプロットされている。ここでも、ベクトルVa,Vpは、原点Oを起点として、各点A,Pへ向かうベクトルである。   As a specific method for dealing with such a problem, a similarity determination method using a cylindrical model has been proposed. FIG. 7 is a three-dimensional color space diagram showing the basic principle of the method using this cylindrical model. In FIG. 7, as in FIG. 6, the pixel values (Ra, Ga, Ba) of the pixels on the average image A indicating the background are plotted as the coordinate point A, and the pixels on the original image P to be determined are plotted. Pixel values (Rp, Gp, Bp) are plotted as coordinate points P. Here again, the vectors Va and Vp are vectors from the origin O toward the points A and P.

このモデルでは、図示のとおり、座標点Aを中心として所定半径をもった長さLの円柱Cが定義されている。別言すれば、円柱Cは、ベクトルVa上に定義された基準軸Zを中心軸とし、その中心点が座標点Aにくるように配置された円柱ということになる。そして、この円柱Cの内部の空間領域を、背景を示す平均画像Aを構成する画素の類似範囲と定める。したがって、図示の例のように、座標点Pに対応する画素値をもった画素は、円柱Cの外側に位置するため類似範囲外と判定され、前景領域fを構成する画素と認定されることになる。逆に、座標点Pが円柱Cの内部に位置していれば、類似範囲内と判定され、背景領域bを構成する画素と認定される。   In this model, a cylinder C having a length L with a predetermined radius around a coordinate point A is defined as shown in the figure. In other words, the cylinder C is a cylinder arranged such that the reference axis Z defined on the vector Va is the central axis and the center point is at the coordinate point A. Then, the space area inside the cylinder C is defined as a similar range of pixels constituting the average image A indicating the background. Therefore, as shown in the example in the figure, a pixel having a pixel value corresponding to the coordinate point P is determined to be outside the similar range because it is located outside the cylinder C, and recognized as a pixel constituting the foreground region f. become. On the contrary, if the coordinate point P is located inside the cylinder C, it is determined to be within the similar range and is recognized as a pixel constituting the background region b.

この円柱モデルの特徴は、ベクトルVaの方向を向いた基準軸Zを長手方向とする円柱領域が設定される点である。この円柱Cの半径は、色相の類似範囲を決めるパラメータとして機能し、長さLは明度の類似範囲を決めるパラメータとして機能する。前述したとおり、実際の景色では、太陽光による照明環境の変化、風による樹木等の明暗の変化などによって、背景領域bの画素値に時間的変動が生じることになるが、このような変動は、色相よりも明度に大きな影響を及ぼすと考えられる。したがって、このモデルのように、基準軸Zを長手方向とする円柱Cに基づいて類似範囲を設定することは理にかなっている。   A feature of this cylindrical model is that a cylindrical region having a reference axis Z facing the direction of the vector Va as a longitudinal direction is set. The radius of the cylinder C functions as a parameter for determining the hue similarity range, and the length L functions as a parameter for determining the brightness similarity range. As described above, in an actual scene, the pixel value of the background region b varies with time due to changes in the lighting environment due to sunlight, changes in brightness such as trees due to wind, and the like. , It is considered to have a greater effect on brightness than hue. Therefore, as in this model, it makes sense to set the similarity range based on the cylinder C having the reference axis Z as the longitudinal direction.

一方、特開2011−076311号公報には、図7に示す円柱モデルの円柱Cの代わりに、回転楕円体を用いるモデルも提案されている。図8は、図7に示す円柱Cを回転楕円体Eaに置き換えた回転楕円体モデルを示す三次元色空間図である。ここで、類似範囲を示す回転楕円体Eaは、平均画像Aの画素値を示す座標点Aを中心点とし、ベクトルVa上に定義された基準軸Zaを長軸方向とする楕円を、基準軸Zaを回転軸として回転させることにより得られる回転体である。この回転楕円体Eaのサイズは、長軸方向の長さLa1と短軸方向の長さLa2によって規定される。   On the other hand, JP 2011-076311 A also proposes a model that uses a spheroid instead of the column C of the column model shown in FIG. FIG. 8 is a three-dimensional color space diagram showing a spheroid model in which the cylinder C shown in FIG. 7 is replaced with a spheroid Ea. Here, the spheroid Ea indicating the similar range is an ellipse having the coordinate point A indicating the pixel value of the average image A as the center point and the reference axis Za defined on the vector Va as the major axis direction. It is a rotating body obtained by rotating using Za as a rotation axis. The size of the spheroid Ea is defined by the length La1 in the major axis direction and the length La2 in the minor axis direction.

この回転楕円体モデルを用いた場合でも、類否判定の方法は、前述の円柱モデルを用いた場合の判定方法と同様であり、回転楕円体Eaの内部領域にプロットされる画素は、座標点Aに対応する画素値をもった画素に対して類似する画素と判定されることになる。具体的には、図示の例の場合、座標点Pに対応する画素値をもった画素は、回転楕円体Eaの外側に位置するため類似範囲外と判定され、前景領域fを構成する画素と認定される。逆に、座標点Pが回転楕円体Eaの内部に位置していれば、類似範囲内と判定され、背景領域bを構成する画素と認定される。   Even when this spheroid model is used, the similarity determination method is the same as the above-described determination method using the cylindrical model, and the pixels plotted in the inner area of the spheroid Ea are coordinate points. A pixel having a pixel value corresponding to A is determined as a similar pixel. Specifically, in the case of the illustrated example, a pixel having a pixel value corresponding to the coordinate point P is determined to be outside the similar range because it is located outside the spheroid Ea, and the pixels constituting the foreground region f Certified. On the contrary, if the coordinate point P is located inside the spheroid Ea, it is determined to be within the similar range and is recognized as a pixel constituting the background region b.

一方、図9は、図8に示す回転楕円体モデルのバリエーションを示す三次元色空間図である。図示のとおり、このモデルにおける類似範囲を示す回転楕円体Epは、判定対象となる原画像Pの画素値を示す座標点Pを中心点とし、ベクトルVp上に定義された基準軸Zpを長軸方向とする楕円を、基準軸Zpを回転軸として回転させることにより得られる回転体である。この回転楕円体Epのサイズは、長軸方向の長さLp1と短軸方向の長さLp2によって規定される。   On the other hand, FIG. 9 is a three-dimensional color space diagram showing variations of the spheroid model shown in FIG. As shown in the figure, a spheroid Ep indicating a similar range in this model has a coordinate point P indicating a pixel value of the original image P to be determined as a center point, and a reference axis Zp defined on the vector Vp as a major axis It is a rotating body obtained by rotating an ellipse as a direction around a reference axis Zp as a rotation axis. The size of the spheroid Ep is defined by the length Lp1 in the major axis direction and the length Lp2 in the minor axis direction.

図8に示すモデルの場合、背景を示す平均画像Aの画素値(Ra,Ga,Ba)をプロットした座標点Aを基準として、類似範囲を示す回転楕円体Eaが定義され、比較対象となる原画像Pの画素値(Rp,Gp,Bp)をプロットした座標点Pが、回転楕円体Eaの内側にあるか外側にあるかを判定していたのに対して、図9に示すモデルの場合、比較対象となる原画像Pの画素値(Rp,Gp,Bp)をプロットした座標点Pをプロットした座標点Pを基準として、類似範囲を示す回転楕円体Epが定義され、背景を示す平均画像Aの画素値(Ra,Ga,Ba)をプロットした座標点Aが、回転楕円体Epの内側にあるか外側にあるかを判定することになる。   In the case of the model shown in FIG. 8, a spheroid Ea indicating a similar range is defined on the basis of the coordinate point A on which the pixel values (Ra, Ga, Ba) of the average image A indicating the background are plotted, and is a comparison target. While it has been determined whether the coordinate point P on which the pixel values (Rp, Gp, Bp) of the original image P are plotted is inside or outside the spheroid Ea, the model shown in FIG. In this case, a spheroid Ep indicating a similar range is defined with reference to the coordinate point P on which the pixel value (Rp, Gp, Bp) of the original image P to be compared is plotted, and shows the background. It is determined whether the coordinate point A on which the pixel values (Ra, Ga, Ba) of the average image A are plotted is inside or outside the spheroid Ep.

要するに、前者では、新たに入力された原画像Pの画素が、背景を示す過去の平均画像Aの画素の類似範囲に入っているか否かを判定する手法をとるのに対して、後者では、背景を示す過去の平均画像Aの画素が、新たに入力された原画像Pの画素の類似範囲に入っているか否かを判定する手法をとることになる。結局、両者の相違は、比較対象となる2つの画素のどちらを基準にして回転楕円体を定義するかという点だけである。   In short, the former takes a method of determining whether or not the pixel of the newly input original image P is in the similar range of the pixels of the past average image A indicating the background, whereas the latter is A method of determining whether or not the pixels of the past average image A indicating the background are within the similar range of the pixels of the newly input original image P is taken. After all, the only difference between the two is in which of the two pixels to be compared is used as a reference to define the spheroid.

そこで、以下の説明では、比較対象となる2つの画像のうち、一方の画像の画素値を基準画素値(R,G,B)と表記し、他方の画像の画素値を比較画素値(r,g,b)と表記することにする。また、三次元色空間上で基準画素値(R,G,B)をプロットした座標点Q(R,G,B)を基準点Qと呼び、比較画素値(r,g,b)をプロットした座標点q(r,g,b)を比較点qと呼ぶことにする。類否判定は、基準点Qを中心として定義された回転楕円体と比較点qとの位置関係に基づいてなされることになる。   Therefore, in the following description, of the two images to be compared, the pixel value of one image is expressed as a reference pixel value (R, G, B), and the pixel value of the other image is expressed as a comparison pixel value (r , G, b). Also, the coordinate point Q (R, G, B) on which the reference pixel value (R, G, B) is plotted in the three-dimensional color space is called the reference point Q, and the comparison pixel value (r, g, b) is plotted. The coordinate point q (r, g, b) is referred to as a comparison point q. The similarity determination is made based on the positional relationship between the spheroid defined around the reference point Q and the comparison point q.

図10は、このような一般的な表記にしたがって、回転楕円体モデルを図示した三次元色空間図である。原点Oを起点として基準点Qへ向かうベクトルをベクトルVとすれば、基準軸Zは、このベクトルV上の軸になる。そして、回転楕円体Eは、基準点Qを中心点とし、ベクトルV上に定義された基準軸Zを長軸方向とする楕円を、基準軸Zを回転軸として回転させることにより得られる回転体である。ここで、比較点q(r,g,b)が回転楕円体Eの内部に位置すれば、両画素は類似範囲内と判定され、回転楕円体Eの外部に位置すれば、両画素は類似範囲外と判定される。   FIG. 10 is a three-dimensional color space diagram illustrating a spheroid model according to such general notation. If the vector V starting from the origin O and going to the reference point Q is a vector V, the reference axis Z is an axis on the vector V. The spheroid E is a rotator obtained by rotating an ellipse having the reference point Q as the center point and the reference axis Z defined on the vector V as the major axis direction with the reference axis Z as the rotation axis. It is. Here, if the comparison point q (r, g, b) is located inside the spheroid E, both pixels are determined to be within the similar range, and if located outside the spheroid E, both pixels are similar. Determined to be out of range.

図8に示すモデルは、図5に示す類否判定を行う際に、平均画像A(i−1)上の画素a(i−1)の画素値を基準画素値(R,G,B)として基準点Q(R,G,B)をプロットし、原画像P(i)上の画素p(i)の画素値を比較画素値(r,g,b)として比較点q(r,g,b)をプロットしたものである。これに対して、図9に示すモデルは、図5に示す類否判定を行う際に、原画像P(i)上の画素p(i)の画素値を基準画素値(R,G,B)として基準点Q(R,G,B)をプロットし、平均画像A(i−1)上の画素a(i−1)の画素値を比較画素値(r,g,b)として比較点q(r,g,b)をプロットしたものである。   The model shown in FIG. 8 uses the pixel value of the pixel a (i-1) on the average image A (i-1) as the reference pixel value (R, G, B) when performing the similarity determination shown in FIG. The reference point Q (R, G, B) is plotted, and the pixel value of the pixel p (i) on the original image P (i) is set as the comparison pixel value (r, g, b). , B) are plotted. On the other hand, the model shown in FIG. 9 uses the pixel value of the pixel p (i) on the original image P (i) as the reference pixel value (R, G, B) when performing the similarity determination shown in FIG. ) Is plotted as a reference point Q (R, G, B), and the pixel value of the pixel a (i−1) on the average image A (i−1) is set as a comparison pixel value (r, g, b). q (r, g, b) is plotted.

特開2011−076311号公報によると、図7に示す円柱モデルに比べて、図10に示す回転楕円体モデルは、次の2つの利点を有している。第1の利点は、§1で述べた移動物体検出方法における画素の類否判定処理に利用した場合に、時刻や天候などによる照明変動の影響を排除した、より正確な移動物体の検出が可能になる点である。   According to Japanese Patent Application Laid-Open No. 2011-076311, the spheroid model shown in FIG. 10 has the following two advantages compared to the cylindrical model shown in FIG. The first advantage is that, when used in the pixel similarity determination process in the moving object detection method described in §1, it is possible to detect a moving object more accurately without the influence of illumination fluctuations due to time or weather. It is a point to become.

図11は、円柱モデルに対する回転楕円体モデルの利点を示す断面図である。図示の例において、円柱Cの断面と回転楕円体Eの断面とを比較すると、いずれも基準点Qを中心として、基準軸Zの方向を長手方向とする図形であるが、図にハッチングを施す領域が、円柱Cでは内部領域と判定されるのに対して、回転楕円体Eでは外部領域と判定されることがわかる。したがって、比較点qが、このハッチング領域に位置する場合、一方では類似範囲内と判定され、他方では類似範囲外と判定される。もちろん、いずれの判定結果が正しいものであるかは、一概には決定できないが、少なくとも実写画像を用いた移動物体の検出処理に利用する限りにおいて、後者の判定結果が正しい結果となる可能性が高い。   FIG. 11 is a cross-sectional view showing the advantages of the spheroid model over the cylindrical model. In the example shown in the figure, when the cross section of the cylinder C and the cross section of the spheroid E are compared, all of them are figures having the reference point Q as the center and the direction of the reference axis Z as the longitudinal direction, but the figure is hatched. It can be seen that the area is determined to be the inner area in the cylinder C, whereas it is determined to be the outer area in the spheroid E. Therefore, when the comparison point q is located in the hatched area, it is determined that the comparison point q is within the similar range on the one hand and is outside the similar range on the other hand. Of course, which judgment result is correct cannot be generally determined, but at least as long as it is used for detection processing of a moving object using a real image, the latter judgment result may be a correct result. high.

すなわち、円柱モデルの場合、比較点qが図のハッチング領域内に位置する場合、判定対象となる画素は背景画像に類似しているため背景領域b内の画素とされることになるが、実際には、背景画像に対して非類似であり、前景領域f内の画素とすべきであった、というケースが比較的高い確率で生じる。図11に示すとおり、断面形状で比較すると、回転楕円体Eの断面は曲面からなる楕円であるのに対して、円柱Cの断面は直線からなる矩形であり、実写画像を対象物とした類否判定の境界線としては、断面が曲面からなる楕円の方が適している。   That is, in the case of a cylindrical model, when the comparison point q is located in the hatched area in the figure, the pixel to be determined is similar to the background image, and thus is a pixel in the background area b. Is relatively disproportionate to the background image and should have been a pixel in the foreground region f. As shown in FIG. 11, when compared with cross-sectional shapes, the cross section of the spheroid E is an ellipse made of a curved surface, whereas the cross section of the cylinder C is a rectangle made of a straight line. An ellipse whose cross section is a curved surface is more suitable as the boundary line for the negative determination.

このように、少なくとも、実写画像に基づく移動物体の検出処理に利用する場合、円柱モデルよりも回転楕円体モデルの方が検出精度が向上するという第1の利点が得られる。一方、回転楕円体モデルを採用することにより得られる第2の利点は、演算負担の軽減を図ることができる点である。これは、回転楕円体Eのサイズを、三次元座標系の原点Oと基準点Qとの距離Δに比例した値に設定することができるようになるためである。   In this way, at least when used for detection processing of a moving object based on a live-action image, the first advantage is obtained that the detection accuracy of the spheroid model is improved compared to the cylindrical model. On the other hand, the second advantage obtained by adopting the spheroid model is that the calculation burden can be reduced. This is because the size of the spheroid E can be set to a value proportional to the distance Δ between the origin O of the three-dimensional coordinate system and the reference point Q.

具体的には、図10に示すとおり、距離Δに、所定のパラメータm(但し、m<1)を乗じて求まる値α=m・Δを長軸半径とし、所定のパラメータn(但し、n<m)を乗じて求まる値β=n・Δを短軸半径とする楕円を、原点Oと基準点Qとを結ぶ基準軸Z上に長軸が重なるように、かつ、基準点Qが中心点となるように配置し、基準軸Zを中心に回転させることにより回転楕円体Eを定義すればよい。   Specifically, as shown in FIG. 10, a value α = m · Δ obtained by multiplying the distance Δ by a predetermined parameter m (where m <1) is a major axis radius, and a predetermined parameter n (where n An ellipse having a minor axis radius β = n · Δ obtained by multiplying <m) is set so that the major axis overlaps the reference axis Z connecting the origin O and the reference point Q, and the reference point Q is centered. The spheroid E may be defined by arranging it to be a point and rotating it around the reference axis Z.

このような条件で回転楕円体Eのサイズを決定すると、基準点Qが原点Oから離れれば離れるほど、回転楕円体Eのサイズは大きくなり、それだけ類似範囲が広くなる。これは、より明度の高い部分、すなわち、画像のハイライト部ほど、類似範囲が広くなることを意味するが、実用上、そのような類似範囲設定がなされても支障は生じない。一方、類似範囲内か否か、すなわち、回転楕円体Eの内部か外部かを判定するための演算負担は、長軸半径をα=m・Δ、短軸半径をβ=n・Δと設定することにより(すなわち、楕円のサイズを、距離Δに比例した値に設定することにより)、大幅に軽減することができる。その詳細は、特開2011−076311号公報に記載されているので、ここでは説明は省略する。   When the size of the spheroid E is determined under such conditions, the size of the spheroid E increases as the reference point Q moves away from the origin O, and the similarity range increases accordingly. This means that the higher the lightness, that is, the highlight portion of the image, the wider the similar range. However, in practice, there is no problem even if such a similar range is set. On the other hand, the calculation burden for determining whether or not it is within the similar range, that is, whether the inside of the spheroid E is inside or outside is set such that the long axis radius is α = m · Δ and the short axis radius is β = n · Δ. (That is, by setting the size of the ellipse to a value proportional to the distance Δ), it can be greatly reduced. Details thereof are described in Japanese Patent Application Laid-Open No. 2011-076311, and the description thereof is omitted here.

以上、カラー画像からなる原画像と背景画像(平均画像)とについて、互いに対応する位置にある画素の類否判定方法として、円柱モデルを用いた例および回転楕円体を用いた例を述べたが、本発明を実施するにあたり、カラー画像についての画素の類否判定方法は、必ずしも上述した方法に限定されるものではない。たとえば、円柱や回転楕円体の代わりに任意形状の立体を用いるようにしてもかまわない。   As described above, the example using the cylindrical model and the example using the spheroid have been described as the similarity determination method of the pixels at the positions corresponding to each other with respect to the original image composed of the color image and the background image (average image). In practicing the present invention, the pixel similarity determination method for a color image is not necessarily limited to the method described above. For example, a solid having an arbitrary shape may be used instead of a cylinder or a spheroid.

任意形状の立体モデルを採用する場合は、三原色の各画素値を各座標軸にとった三次元座標系において、基準画素値に対応する座標に位置する基準点Qと比較画素値に対応する座標に位置する比較点qをとり、基準点Qを中心とする所定サイズの立体と比較点qとの位置関係を調べ、比較点qが前記立体の外部に位置すると判定できる場合には類似範囲外との判定を行い、内部に位置すると判定できる場合には類似範囲内との判定を行うようにすればよい。   When a three-dimensional model having an arbitrary shape is adopted, in a three-dimensional coordinate system in which each pixel value of the three primary colors is taken as each coordinate axis, the reference point Q located at the coordinate corresponding to the reference pixel value and the coordinate corresponding to the comparison pixel value are used. The comparison point q is taken, the positional relationship between the comparison point q and a solid with a predetermined size centered on the reference point Q is examined, and if it can be determined that the comparison point q is located outside the solid, it is out of the similar range. If it can be determined that it is located inside, it may be determined that it is within the similar range.

<<< §3. 本発明に係る撮影視野変動検知方法の基本原理 >>>
続いて、図1に示す例について、本発明に係る撮影視野の変動検知処理を施すことにより、撮影視野の変動を検知する基本原理を説明する。§1で述べたとおり、図1は、街頭に設置された定点ビデオカメラによる撮影画像を示すものであり、右から左へと1台の車両(移動物体)が通過する状態が示されている。このような4枚のフレーム画像P10,P20,P30,P40が原画像として与えられると、§1および§2で述べた方法により移動物体が検出され、それぞれについて前景画像F10,F20,F30,F40が作成される。
<<< §3. Basic Principle of Method for Detecting Field-of-View Variation According to the Present Invention >>
Next, the basic principle of detecting the change in the photographing field of view by performing the photographing field change detection process according to the present invention for the example shown in FIG. 1 will be described. As described in §1, FIG. 1 shows a photographed image by a fixed point video camera installed on the street, and shows a state in which one vehicle (moving object) passes from right to left. . When such four frame images P10, P20, P30, and P40 are given as original images, moving objects are detected by the method described in §1 and §2, and foreground images F10, F20, F30, and F40 are respectively detected. Is created.

本発明では、こうして作成された前景画像F10,F20,F30,F40を解析することにより、撮影視野の変動、すなわち、カメラの向きの変動が生じたことを検知することになる。そのために、時間差をもって撮影された2枚の原画像の前景画像について、差分領域を抽出し、抽出した差分領域を示す差分画像を作成する。   In the present invention, by analyzing the foreground images F10, F20, F30, and F40 thus created, it is detected that a change in the field of view, that is, a change in the direction of the camera has occurred. For this purpose, a difference area is extracted from the foreground images of the two original images taken with a time difference, and a difference image indicating the extracted difference area is created.

図12は、2組の前景画像F30,F40に基づいて差分画像D40を生成するプロセスを示す平面図である。ここで、図12の上段に示す前景画像F30,F40は、図1に示す前景画像F30,F40と同じものであり、それぞれ原画像P30,P40を背景画像(平均画像)と比較することにより得られたものである。前景画像F30上の前景領域f30は車両に対応する領域であり、前景画像F40上の前景領域f40はこの車両が左方へと移動した状態を示すものである。なお、ここでは説明の便宜上、前景領域f30とf40とでは、斜線によるハッチングの向きを変えて示してある。   FIG. 12 is a plan view showing a process of generating a difference image D40 based on two sets of foreground images F30 and F40. Here, the foreground images F30 and F40 shown in the upper part of FIG. 12 are the same as the foreground images F30 and F40 shown in FIG. 1, and are obtained by comparing the original images P30 and P40 with the background image (average image), respectively. It is what was done. The foreground area f30 on the foreground image F30 is an area corresponding to the vehicle, and the foreground area f40 on the foreground image F40 shows a state in which the vehicle has moved leftward. For convenience of explanation, the foreground areas f30 and f40 are shown by changing the direction of hatching with diagonal lines.

図12の中段は、前景画像F30,F40を同一平面上に重ねたものであり、前景領域f30とf40との相互位置関係が明瞭に示されている。すなわち、図に二重ハッチング(向きの異なる斜線が交差する網目状ハッチング)が施された領域は、前景画像F30,F40に共通する前景領域を示し、一重ハッチングが施された領域は、一方の前景画像にのみ存在する前景領域を示している。ここで言う差分領域とは、この一重ハッチングが施された領域を意味する。   The middle part of FIG. 12 is obtained by superimposing the foreground images F30 and F40 on the same plane, and the mutual positional relationship between the foreground regions f30 and f40 is clearly shown. That is, the area where double hatching (mesh hatching in which diagonal lines of different directions intersect) is shown in the figure indicates the foreground area common to the foreground images F30 and F40, and the area where single hatching is applied is A foreground area that exists only in the foreground image is shown. The difference area mentioned here means an area where this single hatching is applied.

すなわち、本発明において一対の前景画像F30,F40から抽出する差分領域とは、両前景画像F30,F40を重ねたときに、両前景領域f30,f40に差が生じている部分(幾何学的な排他的論理和部分)を意味する。図12の下段に示す画像は、こうして、両前景画像F30,F40から抽出された差分領域d40を示す差分画像D40である。ここでは、差分領域d40にドットによるハッチングを施して示すことにする。   In other words, in the present invention, the difference area extracted from the pair of foreground images F30 and F40 is a portion where a difference is generated between the foreground areas f30 and f40 when the foreground images F30 and F40 are overlapped (geometrical). Exclusive OR part). The image shown in the lower part of FIG. 12 is a difference image D40 that shows the difference region d40 extracted from the foreground images F30 and F40 in this way. Here, the difference area d40 is indicated by hatching with dots.

要するに、各前景画像F30,F40を、前景領域f内の画素の画素値を「1」、背景領域b内の画素の画素値を「0」とする二値画像によって構成した場合、差分画像D40は、前景画像F30,F40について、幾何学的な排他的論理和演算を行うことによって得られる画像ということになる。   In short, when each of the foreground images F30 and F40 is configured by a binary image in which the pixel value of the pixel in the foreground region f is “1” and the pixel value of the pixel in the background region b is “0”, the difference image D40 Is an image obtained by performing a geometric exclusive OR operation on the foreground images F30 and F40.

ところで、図1では、説明の便宜上、4枚のフレーム画像P10,P20,P30,P40が原画像として順番に与えられた場合を説明し、図12では、このうち、原画像P30,P40に対応して作成された前景画像F30,F40について、差分画像D40を求めるプロセスを示した。しかしながら、前述したとおり、一般的なビデオカメラの場合、1秒間に30フレーム程度の周期で連続して撮影画像が出力されるので、実際には、より細かな時間間隔で多数のフレーム画像が得られることになる。そこで、ここでは、原画像P30の次のフレームとして、移動物体(車両)がわずかだけ左方へ移動した原画像P31が得られたものと想定し、この原画像P30,P31に対応して作成された前景画像F30,F31について、差分画像D31を求めるプロセスを考えてみよう。   Incidentally, FIG. 1 illustrates a case where four frame images P10, P20, P30, and P40 are sequentially given as original images for convenience of explanation, and FIG. 12 corresponds to the original images P30 and P40 among them. For the foreground images F30 and F40 created in this way, the process for obtaining the difference image D40 is shown. However, as described above, in the case of a general video camera, captured images are output continuously at a period of about 30 frames per second, so in practice, a large number of frame images are obtained at finer time intervals. Will be. Therefore, it is assumed here that an original image P31 in which the moving object (vehicle) has moved slightly to the left is obtained as the next frame of the original image P30, and is created corresponding to the original images P30 and P31. Consider a process for obtaining a difference image D31 for the foreground images F30 and F31.

図13は、2組の前景画像F30,F31に基づいて差分画像D31を生成するプロセスを示す平面図である。この図13の上段に示す前景画像F30は、図12の上段に示す前景画像F30と同じものであるが、前景画像F31は、前景画像F40よりも前の時点に得られた画像であり、車両の位置を示す前景領域f31は、前景領域f30に比べて、わずかだけ左方に移動したものになっている。   FIG. 13 is a plan view showing a process of generating a difference image D31 based on two sets of foreground images F30 and F31. The foreground image F30 shown in the upper part of FIG. 13 is the same as the foreground image F30 shown in the upper part of FIG. 12, but the foreground image F31 is an image obtained before the foreground image F40. The foreground region f31 indicating the position of is moved slightly to the left compared to the foreground region f30.

図13の中段は、前景画像F30,F31を同一平面上に重ねたものであり、前景領域f30とf31との相互位置関係が明瞭に示されている。図13の下段に示す画像は、両前景画像F30,F31から抽出された差分領域d31を示す差分画像D31である。ここでも、差分領域d31にドットによるハッチングを施して示す。   The middle part of FIG. 13 is obtained by superimposing foreground images F30 and F31 on the same plane, and the mutual positional relationship between foreground regions f30 and f31 is clearly shown. The image shown in the lower part of FIG. 13 is a difference image D31 showing the difference area d31 extracted from both foreground images F30 and F31. Again, the difference area d31 is shown hatched with dots.

結局、差分領域dは、比較対象となる一対の前景画像Fについて、前景領域f(移動物体を示す領域)の変動量を示すことになり、その面積が大きければ大きいほど、変動量も大きいことになる。別言すれば、移動物体の移動速度が速ければ速いほど、差分領域dの面積は大きくなる。   Eventually, the difference area d indicates the amount of change in the foreground area f (area indicating the moving object) for the pair of foreground images F to be compared. The larger the area, the larger the amount of change. become. In other words, the faster the moving speed of the moving object, the larger the area of the difference area d.

もっとも、差分領域dの面積は、比較対象となる一対の前景画像間の時間差にも依存する。たとえば、図12の下段に示す差分画像D40内の差分領域d40の面積(ドットによるハッチング部分)は、図13の下段に示す差分画像D31内の差分領域d31の面積よりも大きいが、これは車両の移動速度が異なるためではなく、原画像P30,P40の撮影時の時間差の方が、原画像P30,P31の撮影時の時間差よりも長く設定されているためである。したがって、差分領域dの面積に基づいて、移動物体の速度を評価するには、比較対象となる一対の前景画像間の時間差を予め定めておく必要がある。   However, the area of the difference region d also depends on the time difference between the pair of foreground images to be compared. For example, the area of the difference area d40 in the difference image D40 shown in the lower part of FIG. 12 (hatched portion by dots) is larger than the area of the difference area d31 in the difference image D31 shown in the lower part of FIG. This is because the time difference at the time of photographing the original images P30 and P40 is set longer than the time difference at the time of photographing the original images P30 and P31. Therefore, in order to evaluate the speed of the moving object based on the area of the difference region d, it is necessary to determine in advance a time difference between a pair of foreground images to be compared.

たとえば、定点カメラが1秒間に30フレームの周期で連続して撮影画像を出力するビデオカメラであった場合、一連の撮影画像は、1/30秒の時間間隔をもった多数のフレーム画像として与えられることになるので、これらの画像をすべて原画像として取り込んで前景画像を生成し、各前景画像について、直前の前景画像との間で差分画像を生成することにすれば、比較対象となる一対の前景画像間の時間差は1/30秒ということになる。もちろん、当該ビデオカメラから得られる撮影画像を1フレームおきに原画像として取り込むような運用を行うこともでき、その場合は、比較対象となる一対の前景画像間の時間差は1/15秒ということになる。   For example, if the fixed-point camera is a video camera that outputs captured images continuously at a cycle of 30 frames per second, the series of captured images are given as a large number of frame images with a time interval of 1/30 seconds. Therefore, if all of these images are captured as original images to generate a foreground image, and a difference image is generated between each foreground image and the immediately preceding foreground image, a pair to be compared. The time difference between the foreground images is 1/30 seconds. Of course, it is also possible to perform operations such as taking captured images obtained from the video camera as original images every other frame, in which case the time difference between the pair of foreground images to be compared is 1/15 seconds. become.

このように、差分画像Dを求める際に用いる一対の前景画像間の時間差は、任意に設定することが可能であるが、この時間差の設定は差分領域dの面積を左右するパラメータになるため、同一の判定条件で変動検知を行う上では、当該時間差を一定値に維持するのが好ましい。以下の説明では、1秒間に30フレームのレートで与えられる撮影画像をそのまま原画像として取り込み、1秒間に30枚の前景画像を作成し、時間軸上で隣接する一対の前景画像(1/30秒の時間差をもった前景画像)について、それぞれ差分画像Dを求める場合を例にとることにする。   As described above, the time difference between the pair of foreground images used when obtaining the difference image D can be arbitrarily set, but the setting of this time difference is a parameter that affects the area of the difference region d. In performing variation detection under the same determination condition, it is preferable to maintain the time difference at a constant value. In the following description, a captured image given at a rate of 30 frames per second is directly taken as an original image, 30 foreground images are created per second, and a pair of foreground images adjacent to each other on the time axis (1/30 A case where the difference image D is obtained for each of the foreground images having a time difference of seconds is taken as an example.

たとえば、図13に示す例の場合、前景画像F30とF31とは、1/30秒の時間差をもった原画像P30とP31について作成された画像ということになり、前景領域f31は、前景領域f30によって示されている移動物体(車両)の1/30秒後の位置を示している。そして、差分画像D31は、この1/30秒間において当該移動物体(車両)が変動した領域を差分領域d31として示す画像ということになる。同様に、原画像P32についても前景画像F32が作成され、前景画像F31とF32とについて差分画像D32が作成され、原画像P33についても前景画像F33が作成され、前景画像F32とF33とについて差分画像D33が作成され、... という具合に処理が続けられてゆくことになる。   For example, in the example shown in FIG. 13, the foreground images F30 and F31 are images created for the original images P30 and P31 having a time difference of 1/30 seconds, and the foreground region f31 is the foreground region f30. The position after 1/30 second of the moving object (vehicle) indicated by is shown. The difference image D31 is an image indicating a region where the moving object (vehicle) fluctuates in 1/30 seconds as the difference region d31. Similarly, a foreground image F32 is created for the original image P32, a difference image D32 is created for the foreground images F31 and F32, a foreground image F33 is created for the original image P33, and a difference image for the foreground images F32 and F33. D33 is created, and so on.

本発明の基本原理は、定点カメラの撮影画像から移動物体を検出し、この移動物体の変動量と変動の分布に基づいて、撮影視野が変動したことを判定する、というものである。より具体的には、撮影視野に変動が生じたと判定するために、2つの条件が課されている。第1の条件は、移動物体の変動量が所定の基準以上であること、そして第2の条件は、移動物体の変動が撮影画面の全体に分布して生じていることである。   The basic principle of the present invention is that a moving object is detected from a captured image of a fixed point camera, and it is determined that the photographing field of view has fluctuated based on the fluctuation amount and fluctuation distribution of the moving object. More specifically, two conditions are imposed to determine that a change has occurred in the field of view. The first condition is that the amount of fluctuation of the moving object is greater than or equal to a predetermined reference, and the second condition is that the fluctuation of the moving object is distributed over the entire photographing screen.

第1の条件を課す理由は、様々なゆらぎ成分の影響によって、撮影視野が変動したものと誤って判定されることを防ぐためである。図1には、背景画像が全く変化しない理想的な状況で移動物体(車両)を検出した例が示されており、前景画像F20,F30,F40に含まれる前景領域f20,f30,f40は、車両の輪郭を正確に検出したものになっている。しかしながら、実際の風景では、雲の動きによる照明環境の変化、風による樹木の葉の変化など、様々なゆらぎ成分の影響によって、本来は背景領域とすべき部分にも細かな前景領域が形成される。移動物体の変動量が所定の基準以上である、とする第1の条件を課せば、このようなゆらぎ成分に起因した細かな前景領域が判定に寄与することを防ぐことができる。   The reason for imposing the first condition is to prevent erroneous determination that the photographing field of view fluctuates due to the influence of various fluctuation components. FIG. 1 shows an example in which a moving object (vehicle) is detected in an ideal situation where the background image does not change at all. Foreground regions f20, f30, and f40 included in the foreground images F20, F30, and F40 are shown in FIG. The vehicle contour is accurately detected. However, in the actual landscape, a fine foreground area is formed in the part that should originally be the background area due to the influence of various fluctuation components such as changes in the lighting environment due to the movement of clouds and changes in the leaves of trees due to the wind. . If the first condition that the amount of fluctuation of the moving object is greater than or equal to a predetermined reference is imposed, it is possible to prevent a fine foreground region due to such a fluctuation component from contributing to the determination.

ここで、第1の条件判断に必要な移動物体の変動量は、差分画像D内の差分領域dの面積として把握することができる。たとえば、図13に示す例の場合、差分領域d31の面積は、移動物体の変動量を示している。そこで、本発明では、撮影視野に変動が生じたと判定するためには、この差分領域d31の面積が所定の基準以上である、とする第1の条件を課している。   Here, the fluctuation amount of the moving object necessary for the first condition determination can be grasped as the area of the difference region d in the difference image D. For example, in the example shown in FIG. 13, the area of the difference region d31 indicates the amount of change of the moving object. Therefore, in the present invention, in order to determine that the photographing field of view has changed, the first condition that the area of the difference region d31 is equal to or larger than a predetermined reference is imposed.

もっとも、第1の条件が満たされただけでは、撮影視野に変動が生じた(定点カメラの向きが変化した)と判定するわけにはゆかない。実際、ここに示す例の場合、図13に示す差分領域d31の面積が所定の基準以上であっても、その原因は、車両がある程度の速度をもって撮影視野を通過したためであり、撮影視野に変動が生じたためではない。   However, if the first condition is only satisfied, it cannot be determined that the field of view has changed (the direction of the fixed point camera has changed). In fact, in the case of the example shown here, even if the area of the difference area d31 shown in FIG. 13 is equal to or larger than a predetermined reference, the cause is that the vehicle has passed through the imaging field of view at a certain speed, and the imaging field of view varies. This is not because of

そこで、本発明では、移動物体の変動が撮影画面の全体に分布して生じていること、という第2の条件を設定している。撮影視野内を人や車両などの移動物体が通過した場合、当該移動物体の変動は、図13に示すような差分領域d31として検出される。一方、定点カメラの向きが変化した場合は、人や車両だけでなく、撮影視野内の背景を含めたすべての被写体が移動することになり、いわば、人、車両、家屋、道路、樹木、空などがすべて移動物体として検出されることになる。したがって、その場合に得られる差分画像は、差分領域が画面全体に分布していることになろう。   Therefore, in the present invention, a second condition is set that the movement of the moving object is distributed over the entire shooting screen. When a moving object such as a person or a vehicle passes through the photographing field, the movement of the moving object is detected as a difference area d31 as shown in FIG. On the other hand, when the orientation of the fixed-point camera changes, not only people and vehicles but all subjects including the background in the field of view will move, so to speak, people, vehicles, houses, roads, trees, sky Are all detected as moving objects. Therefore, in the difference image obtained in that case, the difference area will be distributed over the entire screen.

第2の条件は、このような考え方に基づいて課されるものであり、差分領域が差分画像の全体に広く分布しているか否かという観点から判断することができる。たとえば、図13に示す差分画像D31の場合、差分領域d31は、主に画面の右下部分にのみ分布しているため、全体に分布していると判断することができない。したがって、第2の条件は満たされていない。   The second condition is imposed based on such an idea, and can be determined from the viewpoint of whether or not the difference area is widely distributed in the entire difference image. For example, in the case of the difference image D31 shown in FIG. 13, the difference area d31 is mainly distributed only in the lower right part of the screen, and therefore cannot be determined as being distributed throughout. Therefore, the second condition is not satisfied.

このように、本発明において、撮影視野に変動が生じたか否か、すなわち、定点カメラの向きが変化したか否か、を判定するためには、上記2つの条件判断が必要になる。そのため、本発明では、得られた差分画像Dを複数のブロックに分割し、ブロックごとに差分領域が占める占有割合を算出する、という手法を用いる。そして、占有割合が第1の閾値以上となるブロックを急変ブロックと認識し、個々の差分画像ごとに、急変ブロックの数を計数し、急変ブロックの数が第2の閾値以上となる差分画像が得られたときに、撮影視野に変動が生じた旨の検知を行うのである。   As described above, in the present invention, in order to determine whether or not the shooting field of view has changed, that is, whether or not the orientation of the fixed-point camera has changed, the above two conditions need to be determined. Therefore, in the present invention, a method is used in which the obtained difference image D is divided into a plurality of blocks, and the occupation ratio occupied by the difference area is calculated for each block. Then, a block whose occupation ratio is equal to or greater than the first threshold is recognized as a sudden change block, the number of sudden change blocks is counted for each individual difference image, and a difference image whose number of sudden change blocks is equal to or greater than the second threshold is obtained. When it is obtained, it is detected that the photographing field of view has changed.

この手法を具体例に即して説明しよう。図14は、図13の下段に示す差分画像D31の拡大平面図である。ここでは、一般論として説明するため、この図14に示す画像を、第i番目の差分画像という意味で差分画像D(i)と呼ぶことにし、そこに含まれる差分領域を差分領域d(i)と呼ぶことにする。本発明では、この差分画像D(i)を複数のブロックに分割する。図15は、この差分画像D(i)を、縦に4分割、横に5分割して、合計20個のブロックB1〜B20に分割した例を示す平面図である。   I will explain this technique with a concrete example. FIG. 14 is an enlarged plan view of the difference image D31 shown in the lower part of FIG. Here, for the sake of general explanation, the image shown in FIG. 14 is referred to as a difference image D (i) in the sense of the i-th difference image, and the difference area included therein is referred to as a difference area d (i ). In the present invention, the difference image D (i) is divided into a plurality of blocks. FIG. 15 is a plan view showing an example in which the difference image D (i) is divided into 20 blocks B1 to B20 by dividing the difference image D (i) into 4 parts vertically and 5 parts horizontally.

こうして得られた20個のブロックB1〜B20について、それぞれ差分領域(図の例の場合、ドットによるハッチング部分)が占める占有割合Hを算出する。たとえば、図15に示す例の場合、ブロックB1〜B11,B16には、差分領域は一切含まれていないので、これらのブロックについての占有割合HはH=0%になる。一方、ブロックB12については、右下隅の微小部分が差分領域となっているため、H=2%といった結果が得られ、同様に、ブロックB13についてはH=17%、ブロックB14についてはH=3%、ブロックB15についてはH=12%、... 、といった結果が得られることになる。   For the 20 blocks B1 to B20 obtained in this way, the occupation ratio H occupied by the difference area (in the example of the figure, a hatched portion by dots) is calculated. For example, in the example shown in FIG. 15, the blocks B1 to B11 and B16 do not include any difference area, so the occupation ratio H for these blocks is H = 0%. On the other hand, for the block B12, since the minute portion in the lower right corner is the difference area, a result of H = 2% is obtained. Similarly, H = 17% for the block B13 and H = 3 for the block B14. %, H = 12% for the block B15, and so on.

図16は、図15に示す20個のブロックB1〜B20についてそれぞれ算出した差分領域の占有割合Hを示す平面図である。ここでは、第1の閾値をTh1=20%と設定し、閾値Th1以上となるブロックを太枠で表示してある。図示のとおり、占有割合Hが第1の閾値以上となるブロックは、右下のブロックB20(H=21%)のみである。本発明では、占有割合Hが第1の閾値Th1以上となるブロックを急変ブロックと呼んでいる。この急変ブロック内では、被写体の位置が急激に変動を生じていると推定できる。もちろん、そのような被写体の急激な変動が、車両などが通過したために生じたものであるのか、カメラの向きが変化したために生じたものであるのかは、当該ブロックについての占有割合Hの値だけからは判断することはできない。   FIG. 16 is a plan view showing the occupation ratio H of the difference area calculated for each of the 20 blocks B1 to B20 shown in FIG. Here, the first threshold value is set as Th1 = 20%, and blocks that are equal to or greater than the threshold value Th1 are displayed in a thick frame. As shown in the figure, the lower right block B20 (H = 21%) is the only block whose occupation ratio H is equal to or greater than the first threshold value. In the present invention, a block whose occupation ratio H is equal to or greater than the first threshold value Th1 is called a sudden change block. Within this sudden change block, it can be estimated that the position of the subject is changing rapidly. Of course, it is only the value of the occupation ratio H for the block whether such a sudden change of the subject is caused by the passing of a vehicle or the like or the change of the camera direction. Can not be judged from.

そこで、1つの差分画像を構成する複数のブロックのうち、急変ブロックと認識されたブロックの数を計数し、この急変ブロックの数が第2の閾値Th2以上となる差分画像が得られたときに、撮影視野に変動が生じたと判定するのである。たとえば、第2の閾値Th2として、Th2=10個なる値(合計20個のブロックに対して50%となる値)を設定した場合、急変ブロックの数が10個以上あれば、撮影視野に変動が生じたと判定することができる。図16に示す例の場合、太枠で示す急変ブロックは、ブロックB20のみであるから、第2の閾値Th2には届かず、撮影視野に変動が生じたとの判定はなされない。   Therefore, when the number of blocks recognized as sudden change blocks among a plurality of blocks constituting one difference image is counted, and a difference image in which the number of sudden change blocks is equal to or greater than the second threshold Th2 is obtained. Therefore, it is determined that the photographing field of view has changed. For example, when a value of Th2 = 10 (a value of 50% for a total of 20 blocks) is set as the second threshold Th2, if the number of suddenly changing blocks is 10 or more, the field of view changes. Can be determined to have occurred. In the example shown in FIG. 16, since the sudden change block indicated by the thick frame is only the block B20, it does not reach the second threshold Th2, and it is not determined that the photographing field of view has changed.

もちろん、急変ブロックか否かの認定基準は、第1の閾値Th1として与えられるものであるから、Th1の設定を変えれば、急変ブロックの数も変わることになる。たとえば、図17は、第1の閾値をTh1=15%に緩和した場合の急変ブロックを太枠で表示した例を示す平面図である。この場合、ブロックB13,B17,B20が急変ブロックとして認定されることになり、急変ブロックの数は3ということになるが、やはり第2の閾値Th2=10個には満たないため、撮影視野に変動が生じたとの判定はなされない。   Of course, since the criterion for determining whether or not the block is a sudden change block is given as the first threshold Th1, if the setting of Th1 is changed, the number of sudden change blocks also changes. For example, FIG. 17 is a plan view showing an example in which a sudden change block is displayed with a thick frame when the first threshold is relaxed to Th1 = 15%. In this case, the blocks B13, B17, and B20 are recognized as suddenly changing blocks, and the number of suddenly changing blocks is 3. However, since the second threshold value Th2 is less than 10, it is in the field of view. It is not determined that a change has occurred.

実際、図1に示す事例は、カメラの向きに変動は生じず、同一の撮影視野を維持したまま、車両が通過する状態を撮影した場合に得られる撮影画像を示す例であるので、上記判定は正しい判定ということになる。   Actually, the example shown in FIG. 1 is an example showing a photographed image obtained when photographing a state in which the vehicle passes while maintaining the same photographing field of view with no change in the direction of the camera. Is a correct decision.

これに対して、図18に示す事例を考えてみよう。この事例は、原画像P30が撮影された時点までは、図1に示す事例と全く同じであるが、原画像P31の撮影直前にカメラの向きが変化し、撮影視野に変動を生じた事例である。たとえば、原画像P30に対応するフレーム画像が撮影された直後に、カメラの上に猫が飛び乗り、カメラの向きが下方に急変したようなケースでは、この事例のような原画像P31が得られることになる。原画像P10〜P30までの撮影視野は同一であるのに対して、原画像P31以降の撮影視野は全く異なるものになってしまっている。   In contrast, consider the case shown in FIG. This case is exactly the same as the case shown in FIG. 1 until the time when the original image P30 is shot. However, the direction of the camera changes immediately before the original image P31 is shot and the shooting field of view changes. is there. For example, in a case where a cat jumps on the camera immediately after the frame image corresponding to the original image P30 is shot and the camera direction suddenly changes downward, the original image P31 like this example is obtained. become. While the field of view of the original images P10 to P30 is the same, the field of view of the image after the original image P31 is completely different.

原画像P30とP31とを比較すると、もちろん、通過車両が左方へと進行している点が異なるが、撮影視野全体が下方に移動しているため、上方部分に見えていた空がなくなり、下方部分には花壇や犬といった新たな被写体が出現している。その結果、原画像P31について得られる前景画像F31は、図18の左下に示すように、大部分が前景領域f31になる。これは、カメラの撮影視野を基準にした場合、背景を含めた被写体全体が上方に移動した形になるためである。すなわち、§2で述べた方法で、画像上の対応位置にある画素の類否判定を行って前景領域を抽出すると、大部分の画素が非類似と判断され、前景領域に含まれることになる。   Comparing the original images P30 and P31, of course, the point that the passing vehicle is traveling to the left is different, but since the entire field of view is moving downward, the sky that was visible in the upper part disappears, New subjects such as flower beds and dogs appear in the lower part. As a result, most of the foreground image F31 obtained for the original image P31 is the foreground region f31 as shown in the lower left of FIG. This is because the entire subject including the background is moved upward when the shooting field of view of the camera is used as a reference. That is, when the foreground region is extracted by performing the similarity determination of the pixel at the corresponding position on the image by the method described in §2, most of the pixels are determined to be dissimilar and are included in the foreground region. .

図19は、図18に示す前景画像F30,F31に基づいて作成された差分画像D31の拡大平面図である。ここでは、一般論として説明するため、この図19に示す画像を、第i番目の差分画像という意味で差分画像D(i)と呼ぶことにし、そこに含まれる差分領域を差分領域d(i)と呼ぶことにする。ここでも、上述した例と同様に、この差分画像D(i)を合計20個のブロックに分割してみる。図20は、図19に示す差分画像D(i)に対して、このような分割を行った状態を示す平面図である。ここで、各ブロックについて、それぞれ差分領域が占める占有割合Hを算出し、急変ブロックの認定作業を行ってみる。   FIG. 19 is an enlarged plan view of the difference image D31 created based on the foreground images F30 and F31 shown in FIG. Here, in order to explain in general terms, the image shown in FIG. 19 is referred to as a difference image D (i) in the sense of the i-th difference image, and the difference area included therein is referred to as a difference area d (i ). Again, as in the example described above, this difference image D (i) is divided into a total of 20 blocks. FIG. 20 is a plan view showing a state in which such a division is performed on the difference image D (i) shown in FIG. Here, for each block, the occupation ratio H occupied by the difference area is calculated, and the authorization process for the sudden change block is performed.

図21は、図20に示す各ブロックについてそれぞれ算出した差分領域の占有割合Hを示す平面図である。ここでは、第1の閾値をTh1=20%と設定し、占有割合Hが閾値Th1以上となる急変ブロックを太枠で表示してある。その結果、全20個のブロックのうち、17個のブロックが急変ブロックとして認識されている。したがって、上述した例と同様に、第2の閾値Th2として、Th2=10個なる値を設定した場合、急変ブロックの数が第2の閾値Th2以上となっているため、撮影視野に変動が生じたとの判定がなされることになる。   FIG. 21 is a plan view showing the occupancy ratio H of the difference area calculated for each block shown in FIG. Here, the first threshold is set as Th1 = 20%, and the sudden change block in which the occupation ratio H is equal to or greater than the threshold Th1 is displayed with a thick frame. As a result, 17 blocks out of all 20 blocks are recognized as sudden change blocks. Therefore, similarly to the above-described example, when a value of Th2 = 10 is set as the second threshold value Th2, the number of suddenly changing blocks is equal to or greater than the second threshold value Th2, and thus the shooting field of view varies. Judgment is made.

図22は、第1の閾値をTh1=50%として、急変ブロックの条件をより厳しくした場合の例を示す平面図である。このように条件を厳しく設定しても、全20個のブロックのうち、太枠で示す16個のブロックが急変ブロックとして認識され、やはり撮影視野に変動が生じたとの判定がなされることになる。実際、図18に示す事例は、原画像P31の撮影直前にカメラの向きが変化し、撮影視野に変動を生じた事例であるから、上記判定は正しい判定ということになる。   FIG. 22 is a plan view showing an example in which the first threshold is set to Th1 = 50% and the condition of the sudden change block is made stricter. Even if conditions are set strictly in this way, 16 blocks indicated by a thick frame among all 20 blocks are recognized as suddenly changing blocks, and it is determined that the shooting field of view has also changed. . In fact, the case shown in FIG. 18 is a case in which the orientation of the camera has changed immediately before the original image P31 is shot and the shooting field of view has changed, so the above determination is correct.

<<< §4. 本発明に係る撮影視野変動検知方法の手順 >>>
続いて、§3で述べた基本原理に基づいてカメラの撮影視野の変動(カメラの向きの変動)を検知する変動検知方法の手順を、図23の流れ図を参照しながら説明する。この手順は、実際には、コンピュータによる画像処理として実行されることになる。
<<< §4. Procedure of the photographing visual field fluctuation detection method according to the present invention >>
Next, the procedure of the variation detection method for detecting the variation in the field of view of the camera (the variation in the direction of the camera) based on the basic principle described in Section 3 will be described with reference to the flowchart of FIG. This procedure is actually executed as image processing by a computer.

はじめに、ステップS1において、必要な初期設定がなされる。具体的には、差分画像Dの分割数や分割方法、第1の閾値Th1や第2の閾値Th2の設定、図3に示す重みwの設定、図10に示すパラメータm,nの設定(回転楕円体の設定)などの処理が行われる。また、原画像(撮影されたフレーム画像)の番号を示すパラメータiを初期値1に設定した上で、初期原画像P(1)を入力し、これをそのまま初期平均画像A(1)に設定し、両者の初期差分画像D(1)が求められ、続いて、パラメータi=2に更新する処理が行われる。この場合、初期原画像P(1)と初期平均画像A(1)とは同一画像であるので、初期差分画像D(1)は全領域が背景領域bになる。続く、ステップS2以降の処理は、パラメータをi=2に設定してから順次行うようにする。   First, in step S1, necessary initial settings are made. Specifically, the number of divisions and the division method of the difference image D, the setting of the first threshold Th1 and the second threshold Th2, the setting of the weight w shown in FIG. 3, the setting of the parameters m and n shown in FIG. 10 (rotation) (Ellipsoid setting) is performed. In addition, after setting the parameter i indicating the number of the original image (captured frame image) to the initial value 1, the initial original image P (1) is input, and this is set as the initial average image A (1) as it is. Then, an initial difference image D (1) between the two is obtained, and subsequently, a process of updating to the parameter i = 2 is performed. In this case, since the initial original image P (1) and the initial average image A (1) are the same image, the entire area of the initial difference image D (1) is the background area b. Subsequent processing after step S2 is performed sequentially after setting the parameter to i = 2.

まず、ステップS2では、第i番目の原画像P(i)が入力され、続くステップS3において、この原画像P(i)から前景領域f(i)が抽出され、前景領域f(i)と、それ以外の領域(背景領域b(i))とを区別した二値画像として、前景画像F(i)が生成される。たとえば、パラメータi=2の場合、第2番目の原画像P(2)が入力され、この原画像P(2)と平均画像A(1)とを比較することにより、前景画像F(2)が生成されることになる。ここで、平均画像A(i)の具体的な更新方法や、前景画像F(i)の具体的な生成方法は、図3〜図5で説明したとおりである。   First, in step S2, the i-th original image P (i) is input, and in the subsequent step S3, the foreground region f (i) is extracted from the original image P (i), and the foreground region f (i) is extracted. A foreground image F (i) is generated as a binary image that is distinguished from other regions (background region b (i)). For example, when the parameter i = 2, the second original image P (2) is input, and the foreground image F (2) is compared by comparing the original image P (2) with the average image A (1). Will be generated. Here, the specific update method of the average image A (i) and the specific generation method of the foreground image F (i) are as described with reference to FIGS.

次に、ステップS4では、前景画像F(i)と1つ前の前景画像F(i−1)との差分(幾何学的な排他的論理和)をとることにより、差分領域d(i)が抽出され、差分画像D(i)が求められる。この差分画像D(i)は、たとえば、図14や図19に示すように、差分領域d(i)を示す画像である。そして、ステップS5では、図15や図20に示すように、差分画像D(i)が複数のブロックに分割される。   Next, in step S4, a difference area d (i) is obtained by taking a difference (geometric exclusive OR) between the foreground image F (i) and the previous foreground image F (i-1). Are extracted, and a difference image D (i) is obtained. This difference image D (i) is an image showing a difference area d (i) as shown in FIGS. 14 and 19, for example. In step S5, as shown in FIGS. 15 and 20, the difference image D (i) is divided into a plurality of blocks.

続いて、ステップS6において、ブロックの番号を示すパラメータjを初期値1に設定し、急変ブロック数を示すパラメータkを初期値0に設定した上で、ステップS7以降の処理が実行される。まず、ステップS7では、第j番目のブロック内の差分領域d(i)の占有割合Hが算出される。そして、ステップS8において、占有割合Hが第1の閾値Th1以上であるか否かが判断され、肯定的な場合には、ステップS9において、パラメータkが1だけ増加される。これは、占有割合Hが第1の閾値Th1以上であった場合には、当該ブロックを急変ブロックと認識し、急変ブロックの計数値を1だけ増やす処理ということになる。占有割合Hが第1の閾値Th1未満であった場合は、パラメータkの値は増加されない。   Subsequently, in step S6, the parameter j indicating the block number is set to an initial value 1, the parameter k indicating the number of suddenly changing blocks is set to an initial value 0, and the processing from step S7 is executed. First, in step S7, the occupation ratio H of the difference area d (i) in the j-th block is calculated. In step S8, it is determined whether or not the occupation ratio H is equal to or greater than the first threshold value Th1. If the determination is affirmative, the parameter k is increased by 1 in step S9. This means that when the occupation ratio H is equal to or greater than the first threshold Th1, the block is recognized as a sudden change block, and the count value of the sudden change block is increased by one. When the occupation ratio H is less than the first threshold Th1, the value of the parameter k is not increased.

このステップS7〜S9の処理は、第i番目の差分画像D(i)内の全ブロックについて繰り返し実行される。すなわち、全ブロックについての処理が完了するまで、ステップS10からステップS11へと進み、パラメータjが1だけ更新され、ステップS7からの処理が続行されることになる。   The processes in steps S7 to S9 are repeatedly executed for all blocks in the i-th difference image D (i). That is, the process proceeds from step S10 to step S11 until the process for all blocks is completed, the parameter j is updated by 1, and the process from step S7 is continued.

こうして、全ブロックについての処理が完了すると、ステップS10からステップS12へと進み、パラメータkの値が第2の閾値Th2以上であるか否かが判断され、肯定的な場合には、ステップS13において、変動検知が行われる。すなわち、第i番目の差分画像D(i)内の急変ブロックの個数が第2の閾値Th2以上である場合、ステップS13の変動検知が行われることになるが、これは第i番目の原画像P(i)が撮影された直前において、カメラの向きが変わり、撮影視野が変動したことが検知されたことを意味する。   Thus, when the processing for all the blocks is completed, the process proceeds from step S10 to step S12, and it is determined whether or not the value of the parameter k is equal to or greater than the second threshold Th2, and if affirmative, in step S13 Variation detection is performed. That is, when the number of suddenly changing blocks in the i-th difference image D (i) is equal to or greater than the second threshold Th2, the fluctuation detection in step S13 is performed, which is the i-th original image. Immediately before P (i) is photographed, it means that the direction of the camera has changed and that the photographing field of view has been detected to be changed.

このようなステップS2〜S13の処理が、時系列で連続的に与えられる原画像P(i)について繰り返し実行される。すなわち、ステップS14において処理完了と判断されるまで、ステップS14からステップS15へと進み、パラメータiが1だけ更新され、ステップS2からの処理が続行されることになる。ステップS14における処理完了の判断は、たとえば、ステップS13の変動検知が行われた場合には、無条件で処理完了とするようにしておくことができる。この場合、変動が検知された時点で、この流れ図に示す処理は終了することになる。また、新たに入力される原画像がなくなった場合にも、処理完了とするようにしておくとよい。この場合は、変動が検知されなかったとしても、新たに処理すべき原画像がなくなると(定点カメラからの撮影画像の提供が中断すると)、この流れ図に示す処理は終了することになる。   Such processing in steps S2 to S13 is repeatedly executed for the original image P (i) given continuously in time series. That is, until it is determined in step S14 that the process is completed, the process proceeds from step S14 to step S15, the parameter i is updated by 1, and the process from step S2 is continued. The determination of the completion of the process in step S14 can be made unconditionally to complete the process when, for example, the change detection in step S13 is performed. In this case, when the change is detected, the process shown in the flowchart is finished. It is also preferable to complete the processing even when there are no new input original images. In this case, even if no change is detected, when there is no original image to be newly processed (when provision of the captured image from the fixed point camera is interrupted), the processing shown in this flowchart ends.

要するに、本発明に係るカメラの撮影視野変動検知方法は、カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として入力する原画像入力段階と、過去に入力された複数の原画像の平均的な特徴を有する画像を背景画像として求め、新たに入力された第i番目(i=1,2,... )の原画像P(i)について、背景画像と相違する前景領域を抽出し、抽出した前景領域を示す前景画像F(i)を順次生成する前景領域抽出段階と、生成された第i番目(i=2,3,... )の前景画像F(i)と第(i−1)番目の前景画像F(i−1)とについて差分領域を抽出し、抽出した差分領域を示す差分画像D(i)を順次生成する差分領域抽出段階と、生成された個々の差分画像D(i)を複数のブロックに分割するブロック分割段階と、得られた個々のブロックごとに、それぞれ差分領域が占める占有割合を算出する占有割合算出段階と、占有割合が第1の閾値以上となるブロックを急変ブロックと認識し、個々の差分画像ごとに、急変ブロックの数を計数するブロック計数段階と、急変ブロックの数が第2の閾値以上となる差分画像が得られたときに、撮影視野に変動が生じた旨の検知を行う変動検知段階と、をコンピュータが実行するようにすればよい。   In short, the camera field of view variation detection method according to the present invention includes an original image input step of inputting an image captured by the camera as an original image in units of frames continuously given in time series, and a plurality of images input in the past. An image having an average characteristic of the original image is obtained as a background image, and the foreground that is different from the background image for the newly input i-th (i = 1, 2,...) Original image P (i). A foreground region extraction stage for extracting a region and sequentially generating a foreground image F (i) indicating the extracted foreground region, and the generated i th (i = 2, 3,...) Foreground image F (i ) And the (i−1) -th foreground image F (i−1), and a difference region extraction stage that sequentially generates a difference image D (i) indicating the extracted difference region is generated. A block that divides each difference image D (i) into a plurality of blocks. A block division stage, an occupancy ratio calculation stage for calculating an occupancy ratio for each obtained individual block, and a block whose occupancy ratio is equal to or greater than a first threshold is recognized as a sudden change block, A block counting stage for counting the number of suddenly changing blocks for each difference image, and detecting that a change has occurred in the field of view when a difference image having the number of suddenly changing blocks equal to or greater than a second threshold is obtained. The change detection stage may be executed by the computer.

§3で述べたとおり、本発明では、「撮影視野が変動した」との判定を行うために、「移動物体の変動量が所定の基準以上である」という第1の条件と、「移動物体の変動が撮影画面の全体に分布して生じている」という第2の条件と、を課している。図23に示す手順では、第1の条件が満たされているか否かを判断するために、差分領域の占有割合Hが第1の閾値Th1以上となるブロックを急変ブロックと認識する処理(ステップS8)を行い、第2の条件が満たされているか否かを判断するために、急変ブロックの数が第2の閾値Th2以上であるか否かを判定する処理(ステップS12)を行っていることになる。   As described in §3, in the present invention, in order to determine that “the field of view has changed”, the first condition that “the moving amount of the moving object is greater than or equal to a predetermined reference” and “the moving object The second condition is that “the variation of the image is distributed over the entire photographing screen”. In the procedure shown in FIG. 23, in order to determine whether or not the first condition is satisfied, a process of recognizing a block whose difference area occupation ratio H is equal to or greater than the first threshold Th1 as a sudden change block (step S8). ) And a process of determining whether the number of sudden change blocks is equal to or greater than the second threshold Th2 (step S12) is performed to determine whether the second condition is satisfied. become.

このように、第1の閾値Th1は第1の条件を左右するパラメータであり、第2の閾値Th2は第2の条件を左右するパラメータということになり、この2つのパラメータの設定によって、最終的な判定結果は左右される。したがって、この2つのパラメータTh1,Th2をどのような値に設定するかは、最終的な判定の精度を向上させるために非常に重要である。また、差分画像に対するブロック分割の分割数も判定の精度を左右するパラメータになる。   Thus, the first threshold value Th1 is a parameter that affects the first condition, and the second threshold value Th2 is a parameter that affects the second condition. The determination result depends on the result. Therefore, what values are set for the two parameters Th1 and Th2 is very important for improving the accuracy of final determination. The number of block divisions for the difference image is also a parameter that determines the accuracy of the determination.

ただ、実際には、定点カメラの設置場所が屋外か屋内か、本来の撮影視野内の背景が浜辺のような単純な景色か、都市のような複雑な景色か、撮影視野内を横切る移動物体の速度が歩行者程度のものか高速走行中の車両程度のものか、移動物体の画面内の大きさがどの程度のものか、といった様々な要因に基づいて、ブロック分割の数、パラメータTh1,Th2の最適値は変わるものである。したがって、実用上は、個々の定点カメラの設置環境や用途を考慮して、ブロック分割数、パラメータTh1,Th2の最適値を適宜設定するようにするのが好ましい。   However, in reality, whether the fixed-point camera is installed outdoors or indoors, the background in the original shooting field of view is a simple scenery like a beach, a complex scenery like a city, or a moving object that crosses the shooting field of view The number of block divisions, parameter Th1, based on various factors such as whether the speed of the vehicle is about a pedestrian or a vehicle that is traveling at high speed, and the size of the moving object on the screen The optimum value of Th2 varies. Therefore, in practice, it is preferable to appropriately set the number of block divisions and the optimum values of the parameters Th1 and Th2 in consideration of the installation environment and application of each fixed point camera.

一般論としては、ステップS5におけるブロック分割の総数は、少なくすればするほど変動検知の感度は高くなり、多くすればするほど変動検知の感度は低くなる。このため、分割数をあまり少なくすると、ごく一部の領域にだけ変化があった場合にも撮影視野変動として検出されることになり、車両などの通過を撮影視野変動として誤検出してしまう可能性が高くなる。逆に、分割数をあまり多くすると、背景に白壁などの景色が含まれていた場合には、実際には撮影視野変動が生じているのに、ステップS13による変動検知が行われない検出漏れが発生する可能性が高くなる。   As a general theory, the smaller the total number of block divisions in step S5, the higher the sensitivity for fluctuation detection, and the higher the number, the lower the sensitivity for fluctuation detection. For this reason, if the number of divisions is too small, even if there is a change in only a small part of the area, it will be detected as a change in the shooting field of view, and the passing of a vehicle or the like may be erroneously detected as a change in the shooting field of view. Increases nature. On the other hand, if the number of divisions is increased too much, if a background such as a white wall is included in the background, a detection omission in which the change detection in step S13 is not performed although the shooting visual field change actually occurs. It is more likely to occur.

一方、ステップS8の判定で用いる第1の閾値Th1は、小さく設定すればするほど変動量に関する検知感度が高くなるので、車両が通過した際に生じる微細な振動などを、撮影視野変動として誤検出してしまう可能性が高くなる。逆に、大きく設定すればするほど変動量に関する検知感度は低くなるので、カメラの向きがある程度大きく変化しないと、撮影視野変動としての検出は行われなくなる。   On the other hand, as the first threshold Th1 used in the determination in step S8 is set smaller, the detection sensitivity related to the fluctuation amount becomes higher. Therefore, a minute vibration or the like generated when the vehicle passes is erroneously detected as a photographing visual field fluctuation. There is a high possibility that On the other hand, the larger the setting is, the lower the detection sensitivity related to the amount of fluctuation. Therefore, if the direction of the camera does not change to some extent, detection as a photographing field fluctuation is not performed.

また、ステップS12の判定で用いる第2の閾値Th2は、小さく設定すればするほど変動分布に関する基準が低くなるので、大型トラックが通過したような場合に、これを撮影視野変動として誤検出してしまう可能性が高くなる。逆に、大きく設定すればするほど変動分布に関する基準が高くなるので、画面全体に分布するような変動が検出されないと、撮影視野変動としての検出は行われなくなる。   Further, the second threshold Th2 used in the determination in step S12 is set to a smaller value, so that the criterion for the fluctuation distribution becomes lower. Therefore, when a large truck passes, this is erroneously detected as a photographing visual field fluctuation. There is a high possibility that it will end. On the other hand, the larger the setting, the higher the criterion for the fluctuation distribution, so that the detection as the photographing visual field fluctuation is not performed unless the fluctuation distributed over the entire screen is detected.

本願発明者が行った一般的な実験によると、ステップS2で入力する原画像P(i)として、横320画素×縦240画素の解像度をもったカラービデオカメラで撮影された画像を用い、ステップS5におけるブロック分割を、横を8等分、縦を4等分するようにして、合計32個のブロックを形成し、第1の閾値Th1=50%、第2の閾値Th2=10個(全ブロック数の30%)という設定を行ったところ、様々な設置環境の定点カメラについて、撮影視野変動を正確に検知することができた。もちろん、上記特定の設定条件は、本願発明者が実験的に行った一例を示すものであり、本発明を実施するにあたっての設定条件が、上記特定の設定条件に限定されるものではない。   According to a general experiment conducted by the inventor of the present application, an image taken with a color video camera having a resolution of horizontal 320 pixels × vertical 240 pixels is used as the original image P (i) input in step S2. A total of 32 blocks are formed by dividing the block in S5 into 8 equal parts in the horizontal direction and 4 equal parts in the vertical direction. The first threshold value Th1 = 50% and the second threshold value Th2 = 10 (all As a result of the setting of 30% of the number of blocks), it was possible to accurately detect photographing field fluctuations for fixed-point cameras in various installation environments. Of course, the specific setting condition is an example experimentally performed by the inventor of the present application, and the setting condition for carrying out the present invention is not limited to the specific setting condition.

<<< §5. 本発明に係る撮影視野変動検知装置の構成 >>>
ここでは、§4で述べた変動検知方法を実施する機能をもった撮影視野変動検知装置100の構成を図24のブロック図を参照しながら説明する。この変動検知装置100は、定点カメラなどの撮影視野に変動が生じたこと、すなわち、本来は、同一の場所において同一の視野を一定期間にわたって継続して撮影することを目的として設置されたカメラの向きが、不測の要因によって変化したことを検知するための装置である。
<<< §5. Configuration of a photographing visual field fluctuation detection device according to the present invention >>>
Here, the configuration of the photographing visual field fluctuation detection apparatus 100 having a function of executing the fluctuation detection method described in §4 will be described with reference to the block diagram of FIG. The fluctuation detection device 100 is a camera installed for the purpose of continuously taking a picture of the same field of view at a same place for a certain period of time. It is a device for detecting that the orientation has changed due to unforeseen factors.

図示のとおり、この変動検知装置100は、画像入力部110、前景領域抽出部120、前景画像格納部130、差分領域抽出部140、ブロック分割部150、占有割合算出部160、ブロック計数部170、変動判定部180、判定結果通知部190によって構成されている。以下、これらの各構成要素の機能を順に説明する。   As shown in the figure, the fluctuation detection device 100 includes an image input unit 110, a foreground region extraction unit 120, a foreground image storage unit 130, a difference region extraction unit 140, a block division unit 150, an occupation ratio calculation unit 160, a block counting unit 170, The variation determination unit 180 and the determination result notification unit 190 are configured. Hereinafter, the functions of these components will be described in order.

画像入力部110は、カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像Pとして入力するための構成要素である。たとえば、1秒間に30フレームのレートで撮影を行うデジタルビデオカメラからの画像を入力する場合、1/30秒の周期で連続的に与えられるフレーム画像をデジタルデータとして順次取り込む処理が行われる。ここでは、第i番目のフレーム画像を原画像P(i)と呼んで、以下の説明を行うことにする。   The image input unit 110 is a component for inputting an image captured by the camera as a frame-unit original image P that is continuously given in time series. For example, when inputting an image from a digital video camera that captures images at a rate of 30 frames per second, a process of sequentially taking frame images that are continuously given at a period of 1/30 seconds as digital data is performed. Here, the i-th frame image is called an original image P (i), and the following description will be given.

前述したとおり、本発明による変動検知処理は、コンピュータによる画像処理として実行されるため、アナログカメラからの画像を入力する場合は、入力時にデジタル画像に変換する処理が必要になる。また、カメラが撮影した画像がカラー画像の場合は、原画像P(i)は、三原色の各画素値を有する画素の集合体データとして与えられる。なお、画像入力部110は、必ずしもカメラで撮影された画像をリアルタイムで取り込む必要はなく、既に撮影済みの録画画像を原画像Pとして取り込んでもかまわない。この場合、撮影を行ったカメラの撮影視野変動をリアルタイムで検出することはできないが、撮影済みの録画画像を解析することにより、どのタイミングで撮影視野変動が発生したかを特定する処理を行うことが可能になる。   As described above, the fluctuation detection process according to the present invention is executed as an image process by a computer. Therefore, when an image from an analog camera is input, a process of converting the image into a digital image is required at the time of input. When the image captured by the camera is a color image, the original image P (i) is given as pixel aggregate data having pixel values of the three primary colors. Note that the image input unit 110 does not necessarily need to capture an image captured by the camera in real time, and may capture a recorded image that has already been captured as the original image P. In this case, it is not possible to detect in real time the shooting field fluctuation of the camera that has taken the image, but by analyzing the recorded video that has already been shot, the processing to identify when the shooting field fluctuation has occurred is performed. Is possible.

前景領域抽出部120は、こうして入力された原画像P(i)から前景領域f(i)を抽出し、抽出した前景領域f(i)を示す前景画像F(i)を順次生成する処理を行う。この前景画像F(i)は、前景領域f(i)とそれ以外の領域(背景領域b(i))とを区別する二値画像によって構成される。たとえば、図1に示す例の場合、原画像P10〜P40について、それぞれ前景画像F10〜F40が生成されることになる。   The foreground area extraction unit 120 extracts a foreground area f (i) from the original image P (i) input in this way, and sequentially generates a foreground image F (i) indicating the extracted foreground area f (i). Do. The foreground image F (i) is composed of a binary image that distinguishes the foreground region f (i) from the other region (background region b (i)). For example, in the example shown in FIG. 1, foreground images F10 to F40 are generated for the original images P10 to P40, respectively.

前景領域f(i)の抽出処理は、過去に入力された複数の原画像の平均的な特徴を有する画像を背景画像として求め、新たに入力された原画像について、背景画像と相違する領域を求めることによって行われる。前景領域抽出部120の具体的な構成例については後述する。   In the foreground area f (i) extraction process, an image having an average characteristic of a plurality of original images input in the past is obtained as a background image, and an area different from the background image is determined for the newly input original image. Done by asking. A specific configuration example of the foreground area extraction unit 120 will be described later.

前景画像格納部130は、前景領域抽出部120によって生成された前景画像F(i)を順次格納する機能を有する。もっとも、前景画像F(i)は、差分領域を抽出する処理が行われるまでの間、一時的に格納されていれば足りるため、前景画像格納部130は、生成された前景画像F(i)をすべて格納する記憶容量をもった装置(メモリ)で構成する必要はない。すなわち、前景画像格納部130は、個々の原画像P(i)について生成された前景画像F(i)のうち、少なくとも2組の最新前景画像を格納する機能をもっていればよい。   The foreground image storage unit 130 has a function of sequentially storing the foreground image F (i) generated by the foreground region extraction unit 120. However, since the foreground image F (i) only needs to be temporarily stored until the processing for extracting the difference area is performed, the foreground image storage unit 130 generates the foreground image F (i). It is not necessary to constitute a device (memory) having a storage capacity for storing all of the above. That is, the foreground image storage unit 130 only needs to have a function of storing at least two sets of latest foreground images among the foreground images F (i) generated for the individual original images P (i).

したがって、実用上は、図示のとおり、前景画像格納部130を、奇数番目のフレームの前景画像を格納する第1のフレームメモリ131と、偶数番目のフレームの前景画像を格納する第2のフレームメモリ132と、によって構成し、前景領域抽出部120が、新たに生成した前景画像によって、第1のフレームメモリ131と第2のフレームメモリ132とを交互に書き換える処理を行うようにすればよい。   Therefore, in practice, as shown in the figure, the foreground image storage unit 130 includes a first frame memory 131 that stores the foreground image of the odd-numbered frame and a second frame memory that stores the foreground image of the even-numbered frame. 132, and the foreground region extraction unit 120 may perform processing of alternately rewriting the first frame memory 131 and the second frame memory 132 with the newly generated foreground image.

具体的には、第1番目の前景画像F(1)が生成されたら、これを第1のフレームメモリ131に格納し、第2番目の前景画像F(2)が生成されたら、これを第2のフレームメモリ132に格納し、第3番目の前景画像F(3)が生成されたら、これを第1のフレームメモリ131に格納し(F(1)を書き換えてしまってかまわない)、第4番目の前景画像F(4)が生成されたら、これを第2のフレームメモリ132に格納し(F(2)を書き換えてしまってかまわない)、というように、交互に書き換える処理を行えばよい。そうすれば、前景画像格納部130内には、常に、時間軸上で隣接する2組の最新前景画像F(i−1),F(i)が格納された状態になる。   Specifically, when the first foreground image F (1) is generated, it is stored in the first frame memory 131, and when the second foreground image F (2) is generated, it is stored in the first frame memory 131. When the third foreground image F (3) is generated in the second frame memory 132 and stored in the first frame memory 131 (F (1) may be rewritten), the second foreground image F (3) is generated. When the fourth foreground image F (4) is generated, it is stored in the second frame memory 132 (F (2) may be rewritten). Good. Then, the foreground image storage unit 130 always stores two sets of the latest foreground images F (i−1) and F (i) adjacent on the time axis.

差分領域抽出部140は、前景画像格納部130に格納されている2組の最新前景画像F(i−1),F(i)についての差分領域d(i)を抽出し、抽出した差分領域d(i)を示す差分画像D(i)を順次生成する処理を行う。たとえば、図13に示す例は、2組の前景画像F30,F31について差分画像D31を求めた例である。前述したとおり、この差分画像を求める処理は、対象となる2組の前景画像F(i−1),F(i)について幾何学的な排他的論理和を求める演算として行うことができる。   The difference area extraction unit 140 extracts the difference area d (i) for the two sets of latest foreground images F (i-1) and F (i) stored in the foreground image storage unit 130, and extracts the difference area A process of sequentially generating a difference image D (i) indicating d (i) is performed. For example, the example shown in FIG. 13 is an example in which a difference image D31 is obtained for two sets of foreground images F30 and F31. As described above, the process for obtaining the difference image can be performed as an operation for obtaining a geometric exclusive OR for two sets of foreground images F (i−1) and F (i).

前景領域抽出部120によって生成された前景画像Fは、前景領域fを示す第1の画素値(たとえば「1」)と背景領域bを示す第2の画素値(たとえば「0」)とのいずれか一方の画素値をもった画素の集合体からなる二値画像として与えられる。そこで、差分領域抽出部140は、一方の前景画像F(i−1)の所定位置の画素と他方の前景画像F(i)の前記所定位置の画素とを読み出し、両者の画素値が同一か非同一かを判定する処理を行い、差分画像D(i)を構成する前記所定位置の画素に対して、非同一との判定が得られた場合には差分領域d(i)を示す画素値(たとえば「1」)を、同一との判定が得られた場合には差分領域外を示す画素値(たとえば「0」)を、それぞれ与えることにより、二値画像からなる差分画像D(i)を生成すればよい。   The foreground image F generated by the foreground area extraction unit 120 is either a first pixel value (eg, “1”) indicating the foreground area f or a second pixel value (eg, “0”) indicating the background area b. It is given as a binary image composed of a collection of pixels having one of the pixel values. Therefore, the difference area extraction unit 140 reads out a pixel at a predetermined position of one foreground image F (i-1) and a pixel at the predetermined position of the other foreground image F (i), and whether the pixel values of both are the same. A pixel value indicating the difference area d (i) is obtained when a determination is made that the pixels at the predetermined position forming the difference image D (i) are not the same by performing a process for determining whether they are not the same. (For example, “1”), when it is determined that they are the same, a pixel value (for example, “0”) indicating the outside of the difference area is given to each of the difference images D (i) composed of binary images. Should be generated.

ブロック分割部150は、こうして生成された個々の差分画像D(i)を複数のブロックに分割する処理を行う。図15や図20には、差分画像D(i)を縦に4分割、横に5分割して、合計20個のブロックに分割した例が示されている。ここに示す例のように、画像入力部110が、矩形状の輪郭をもった原画像P(i)を入力すれば、前景領域抽出部120が生成する前景画像F(i)も矩形状の輪郭をもった画像になり、差分領域抽出部140が生成する差分画像D(i)も矩形状の輪郭をもった画像になる。このような一般的な例の場合、ブロック分割部150は、この矩形状の輪郭をもった差分画像D(i)を縦にN分割、横にM分割することにより、N×M個の矩形状のブロックに分割すればよい。   The block dividing unit 150 performs processing for dividing the individual difference images D (i) thus generated into a plurality of blocks. FIG. 15 and FIG. 20 show examples in which the difference image D (i) is divided into 20 blocks in total by dividing the difference image D (i) into 4 parts vertically and 5 parts horizontally. As in the example shown here, if the image input unit 110 inputs an original image P (i) having a rectangular outline, the foreground image F (i) generated by the foreground region extraction unit 120 is also rectangular. The image has an outline, and the difference image D (i) generated by the difference area extraction unit 140 is also an image having a rectangular outline. In the case of such a general example, the block division unit 150 divides the difference image D (i) having the rectangular outline vertically into N and horizontally into M, thereby obtaining N × M rectangles. What is necessary is just to divide | segment into the block of a shape.

もちろん、本発明で取り扱う原画像Pは、必ずしも矩形状の輪郭をもった画像である必要はなく、たとえば、魚眼レンズなどを組み込んだ全方位カメラで撮影された円形画像であってもかまわない。また、ブロック分割の方法も、必ずしも縦にN分割、横にM分割する必要はなく、たとえば、同心円状や放射状に分割してもよいし、正六角形のブロックに分割してもかまわない。ただ、矩形状の輪郭をもった一般的な撮影画像を原画像として入力する場合は、上例のように、縦にN分割、横にM分割すれば、各画素の座標位置を求める演算負担が軽減される。   Of course, the original image P handled in the present invention is not necessarily an image having a rectangular outline, and may be, for example, a circular image taken with an omnidirectional camera incorporating a fisheye lens or the like. Also, the block division method does not necessarily need to be divided vertically into N and horizontally into M, for example, it may be divided into concentric circles or radial shapes, or may be divided into regular hexagonal blocks. However, when a general photographed image having a rectangular outline is input as an original image, if it is divided vertically into N and horizontally into M as in the above example, the calculation burden for obtaining the coordinate position of each pixel is calculated. Is reduced.

占有割合算出部160は、得られた個々のブロックごとに、それぞれ差分領域d(i)が占める占有割合Hを算出する処理を行う。たとえば、差分領域抽出部140が、差分領域d(i)を示す画素値を「1」、差分領域外を示す画素値を「0」とする差分画像D(i)を生成した場合、個々のブロックごとに、画素値「1」をもつ画素を計数し、当該ブロック内の全画素数に対する割合を求めればよい。その結果、図16や図21に%値として例示するような占有割合が算出される。   The occupation ratio calculation unit 160 performs a process of calculating the occupation ratio H occupied by the difference area d (i) for each obtained block. For example, when the difference area extraction unit 140 generates a difference image D (i) in which the pixel value indicating the difference area d (i) is “1” and the pixel value indicating the outside of the difference area is “0”, For each block, pixels having a pixel value “1” are counted, and a ratio to the total number of pixels in the block may be obtained. As a result, the occupation ratio exemplified as a% value in FIGS. 16 and 21 is calculated.

ブロック計数部170は、こうして算出された占有割合Hに基づいて、占有割合Hが第1の閾値Th1以上となるブロックを急変ブロックと認識し、個々の差分画像D(i)ごとに、急変ブロックの数kを計数する。図16,図17,図21,図22において太枠で示したブロックが急変ブロックであり、ブロック計数部170は、個々の差分画像D(i)ごとにその総数を計数することになる。   Based on the occupation ratio H calculated in this way, the block counting unit 170 recognizes a block whose occupation ratio H is equal to or greater than the first threshold Th1 as a sudden change block, and for each individual difference image D (i), the sudden change block. Count k. In FIG. 16, FIG. 17, FIG. 21, and FIG. 22, blocks indicated by thick frames are suddenly changed blocks, and the block counting unit 170 counts the total number for each difference image D (i).

変動判定部180は、この急変ブロックの数kが第2の閾値Th2以上となる差分画像D(i)が得られたときに、当該差分画像D(i)に対応する原画像P(i)が撮影されたタイミングで、撮影視野に変動が生じたものと判定する。この判定結果は、判定結果通知部190により外部に通知される。   When the difference image D (i) in which the number k of sudden change blocks is equal to or greater than the second threshold Th2 is obtained, the fluctuation determination unit 180 obtains the original image P (i) corresponding to the difference image D (i). It is determined that a change has occurred in the field of view at the timing when is taken. This determination result is notified to the outside by the determination result notification unit 190.

このように、図24に示す変動検知装置100は、時系列で連続的に与えられるフレーム単位の原画像Pを順次入力して、個々の原画像Pに対応する差分画像Dに基づいて変動の有無を判定する処理を実行し、判定結果を出力する機能を有している。このような処理は、実際には、コンピュータに専用のプログラムを組み込むことにより実現することができ、図24に示す変動検知装置100は、ハードウエアとしてのコンピュータとこれに組み込まれたソフトウエアとの有機的結合体として構成することができる。あるいは、それと同等の機能を果たす装置を、半導体集積回路によって構成することも可能である。特に、図24に示す変動検知装置100の各構成要素が行う演算処理は、加算、乗算、比較演算といった比較的演算負担の軽い処理であるため、比較的安価なCPUを組み込んだ半導体集積回路でも十分に構成することができる。   As described above, the variation detection apparatus 100 shown in FIG. 24 sequentially inputs the original images P in units of frames that are continuously given in time series, and the variation is detected based on the difference images D corresponding to the individual original images P. It has a function of executing a process for determining presence or absence and outputting a determination result. In practice, such processing can be realized by incorporating a dedicated program into the computer. The fluctuation detecting apparatus 100 shown in FIG. 24 includes a computer as hardware and software incorporated therein. It can be configured as an organic conjugate. Alternatively, a device that performs the same function can be formed of a semiconductor integrated circuit. In particular, the arithmetic processing performed by each component of the fluctuation detection device 100 shown in FIG. 24 is a processing with a relatively low calculation burden such as addition, multiplication, and comparison calculation. Therefore, even in a semiconductor integrated circuit incorporating a relatively inexpensive CPU. Can be fully configured.

なお、ブロック分割部150においてブロックを分割する際のブロック分割数、ブロック計数部170において急変ブロックか否かを判定する基準として用いられる第1の閾値Th1、変動判定部180において撮影視野に変動が生じたか否かを判定する基準として用いられる第2の閾値Th2は、§4で述べたとおり、判定精度を左右するパラメータになるので、カメラの設置環境などに応じた最適値を適宜設定するようにするのが好ましい。そこで、ブロック分割部150、ブロック計数部170、変動判定部180には、オペレータの操作によって、上記各パラメータ値を所望の値に設定できるような設定機能を設けておくのが好ましい。   Note that the number of block divisions when the block dividing unit 150 divides the block, the first threshold Th1 used as a reference for determining whether or not the block is a sudden change block in the block counting unit 170, and the imaging field of view changes in the variation determining unit 180. As described in §4, the second threshold value Th2 used as a criterion for determining whether or not it has occurred is a parameter that affects the determination accuracy. Therefore, an optimum value according to the installation environment of the camera and the like should be set as appropriate. Is preferable. Therefore, it is preferable that the block dividing unit 150, the block counting unit 170, and the fluctuation determining unit 180 are provided with a setting function that can set each parameter value to a desired value by an operator's operation.

続いて、図24に示す前景領域抽出部120の詳細な構成例を、図25を参照しながら説明する。前景領域抽出部120の役割は、過去に入力された複数の原画像Pの平均的な特徴を有する平均画像Aを背景画像として求め、新たに入力された原画像Pについて、この平均画像Aと相違する前景領域fを抽出し、抽出した前景領域fを示す前景画像Fを生成することにある。このような処理を行うために、図25に示す前景領域抽出部120は、図示のとおり、原画像格納部121、平均画像作成部122、平均画像格納部123、画像比較部124、パラメータ設定部125を有している。   Next, a detailed configuration example of the foreground area extraction unit 120 illustrated in FIG. 24 will be described with reference to FIG. The role of the foreground area extraction unit 120 is to obtain an average image A having an average characteristic of a plurality of original images P input in the past as a background image, and for the newly input original image P, A different foreground area f is extracted, and a foreground image F indicating the extracted foreground area f is generated. In order to perform such processing, the foreground region extraction unit 120 shown in FIG. 25 includes an original image storage unit 121, an average image creation unit 122, an average image storage unit 123, an image comparison unit 124, a parameter setting unit, as illustrated. 125.

ここで、原画像格納部121は、図24に示す画像入力部110によって入力された原画像Pを逐次格納する構成要素である。一方、平均画像作成部122は、過去に入力された複数の原画像Pに基づいて、これら原画像の平均的な特徴を有する平均画像Aを逐次作成する構成要素であり、平均画像格納部123は、作成された平均画像Aを逐次格納する構成要素である。   Here, the original image storage unit 121 is a component that sequentially stores the original image P input by the image input unit 110 shown in FIG. On the other hand, the average image creation unit 122 is a component that sequentially creates an average image A having an average characteristic of these original images based on a plurality of original images P input in the past, and the average image storage unit 123. Is a component that sequentially stores the created average image A.

原画像Pがカラー画像の場合、平均画像作成部122は、第i番目の原画像P(i)が入力されたときに(i=1,2,...)、当該原画像P(i)を含めた過去の原画像について、それぞれ対応する位置の画素の各色別の画素値の重みづけ平均値を算出し、当該平均値をもつ画素の集合体からなる第i番目の平均画像A(i)を背景画像として作成し、平均画像格納部123に格納する処理を行うことになる。   When the original image P is a color image, the average image creating unit 122 receives the original image P (i) when the i-th original image P (i) is input (i = 1, 2,...). ), The weighted average value of the pixel value for each color of the pixel at the corresponding position is calculated, and the i-th average image A (a set of pixels having the average value) i) is created as a background image and stored in the average image storage unit 123.

原画像格納部121や平均画像格納部123は、バッファメモリによって構成することができる。平均画像作成部122が、図3に示す方法で重みwをパラメータとして平均画像Aを逐次作成し、これを平均画像格納部123に格納してゆくようにすれば、原画像格納部121には、常に処理に必要な最新の原画像Pのみが格納されるようにし、平均画像格納部123には、常に処理に必要な最新の平均画像Aのみが格納されるようにすればよいので、バッファメモリの容量を節約することができる。   The original image storage unit 121 and the average image storage unit 123 can be configured by a buffer memory. If the average image creating unit 122 sequentially creates the average image A using the weight w as a parameter by the method shown in FIG. 3 and stores it in the average image storage unit 123, the original image storage unit 121 has Since only the latest original image P necessary for processing is always stored, and only the latest average image A necessary for processing is always stored in the average image storage unit 123. Memory capacity can be saved.

具体的には、平均画像作成部122が、最初の原画像P(1)が入力されたときに、当該原画像P(1)をそのまま最初の平均画像A(1)として平均画像格納部123へ格納する処理を行い、以後、第i番目の原画像P(i)が入力されるたびに(i=2,3,...)、第i番目の平均画像A(i)を、
a(i)=(1−w)・a(i−1)+w・p(i)
(但し、a(i)は、平均画像A(i)の
所定位置の画素の所定色の画素値、
a(i−1)は、平均画像A(i−1)の
前記所定位置の画素の前記所定色の画素値、
p(i)は、原画像P(i)の
前記所定位置の画素の前記所定色の画素値、
wは、所定の重みを示すパラメータ(w<1))
なる演算式を用いて作成すればよい。
Specifically, when the first original image P (1) is input, the average image creating unit 122 uses the original image P (1) as the first average image A (1) as it is, and the average image storage unit 123. After that, every time the i-th original image P (i) is input (i = 2, 3,...), The i-th average image A (i)
a (i) = (1-w) .a (i-1) + w.p (i)
(However, a (i) is the average image A (i)
A pixel value of a predetermined color of a pixel at a predetermined position,
a (i-1) is the average image A (i-1)
A pixel value of the predetermined color of the pixel at the predetermined position;
p (i) is the original image P (i)
A pixel value of the predetermined color of the pixel at the predetermined position;
w is a parameter indicating a predetermined weight (w <1))
It may be created using the following arithmetic expression.

一方、画像比較部124は、平均画像格納部123に格納されている平均画像Aを背景画像として、原画像格納部121に格納されている原画像Pと比較し、相違する部分を前景領域f、それ以外の部分を背景領域bと認識し、前景領域fと背景領域bとを区別する二値画像として、前景画像Fを生成する機能を果たす構成要素である。要するに、画像比較部124は、図2に示すとおり、第(i+1)番目の原画像P(i+1)が入力されたときに、当該原画像P(i+1)と、第i番目の平均画像A(i)とを比較し、第(i+1)番目の前景画像F(i+1)を作成する処理を行うことになる。実際には、生成された前景画像Fは、図24に示す前景画像格納部130内のフレームメモリ131,132のいずれか一方に格納されることになる。   On the other hand, the image comparison unit 124 compares the average image A stored in the average image storage unit 123 as the background image with the original image P stored in the original image storage unit 121, and compares the difference portion with the foreground region f. This is a component that recognizes the other part as the background area b and generates a foreground image F as a binary image that distinguishes the foreground area f and the background area b. In short, as shown in FIG. 2, when the (i + 1) th original image P (i + 1) is input, the image comparison unit 124 and the original image P (i + 1) and the i-th average image A ( i) and the (i + 1) th foreground image F (i + 1) is generated. Actually, the generated foreground image F is stored in one of the frame memories 131 and 132 in the foreground image storage unit 130 shown in FIG.

図25には、この画像比較部124を、画素値読出部124A、類否判定部124B、画素値書込部124Cによって構成した具体例が示されている。以下、これらの各構成要素の機能を順に説明する。   FIG. 25 shows a specific example in which the image comparison unit 124 includes a pixel value reading unit 124A, an similarity determination unit 124B, and a pixel value writing unit 124C. Hereinafter, the functions of these components will be described in order.

画素値読出部124Aは、比較対象となる一対の画像(すなわち、原画像格納部121に格納されている原画像Pと、平均画像格納部123に格納されている平均画像A)のうち、いずれか一方の画像の所定位置の画素の画素値を基準画素値(R,G,B)として読み出し、他方の画像の対応位置の画素の画素値を比較画素値(r,g,b)として読み出す処理を行う。   The pixel value reading unit 124 </ b> A may select any one of a pair of images to be compared (that is, the original image P stored in the original image storage unit 121 and the average image A stored in the average image storage unit 123). The pixel value of a pixel at a predetermined position in one image is read as a reference pixel value (R, G, B), and the pixel value of a pixel at a corresponding position in the other image is read as a comparison pixel value (r, g, b). Process.

既に述べたとおり、図8に示すモデルを採用する場合は、平均画像Aの画素の画素値を基準画素値(R,G,B)として読み出し、原画像Pの画素の画素値を比較画素値(r,g,b)として読み出すことになる。これに対して、図9に示すモデルを採用する場合は、逆に、原画像Pの画素の画素値を基準画素値(R,G,B)として読み出し、平均画像Aの画素の画素値を比較画素値(r,g,b)として読み出すことになる。   As described above, when the model shown in FIG. 8 is adopted, the pixel value of the pixel of the average image A is read as the reference pixel value (R, G, B), and the pixel value of the pixel of the original image P is compared with the comparison pixel value. It will be read out as (r, g, b). On the other hand, when the model shown in FIG. 9 is adopted, on the contrary, the pixel value of the pixel of the original image P is read as the reference pixel value (R, G, B), and the pixel value of the pixel of the average image A is obtained. The comparison pixel value (r, g, b) is read out.

類否判定部124Bは、比較画素値(r,g,b)が、基準画素値(R,G,B)について設定された所定の類似範囲に入っているか否かを判定する処理を行う。具体的には、図10に示すように、三原色の各画素値を各座標軸にとった三次元座標系において、基準画素値(R,G,B)に対応する座標に位置する基準点Q(R,G,B)と比較画素値(r,g,b)に対応する座標に位置する比較点q(r,g,b)をとり、基準点Qを中心とする所定サイズの回転楕円体Eと比較点qとの位置関係を調べ、比較点qが回転楕円体Eの外部に位置すると判定できる場合には類似範囲外との判定を行い、内部に位置すると判定できる場合には類似範囲内との判定を行う。このとき、回転楕円体Eのサイズは、パラメータm,nを参照して決定される。   The similarity determination unit 124B performs a process of determining whether or not the comparison pixel value (r, g, b) is within a predetermined similar range set for the reference pixel value (R, G, B). Specifically, as shown in FIG. 10, in a three-dimensional coordinate system in which the pixel values of the three primary colors are taken on the coordinate axes, a reference point Q (located at a coordinate corresponding to the reference pixel value (R, G, B). R, G, B) and a comparison point q (r, g, b) located at coordinates corresponding to the comparison pixel value (r, g, b), and a spheroid of a predetermined size centered on the reference point Q The positional relationship between E and the comparison point q is examined. When it can be determined that the comparison point q is located outside the spheroid E, it is determined that it is outside the similar range, and when it can be determined that it is located inside, the similar range. The inside is judged. At this time, the size of the spheroid E is determined with reference to the parameters m and n.

そして、画素値書込部124Cは、前景画像Fを構成する所定位置(画素値読出部124Aの読出対象となった位置)の画素の画素値として、類否判定部124Bの判定結果に応じた値を定め、図24に示す前景画像格納部130内のフレームメモリ131,132のいずれか一方に書き込む処理を行う。すなわち、類否判定部124Bが類似範囲内と判定した場合には背景領域bを示す画素値(たとえば、「0」)を、類否判定部124Bが類似範囲外と判定した場合には前景領域fを示す画素値(たとえば、「1」)を、それぞれ前景画像格納部130内のフレームメモリ131もしくは132に書き込む処理を行う。   Then, the pixel value writing unit 124 </ b> C responds to the determination result of the similarity determination unit 124 </ b> B as the pixel value of the pixel at a predetermined position (position read by the pixel value reading unit 124 </ b> A) constituting the foreground image F. A value is determined, and a process of writing to one of the frame memories 131 and 132 in the foreground image storage unit 130 shown in FIG. 24 is performed. That is, the pixel value (eg, “0”) indicating the background region b is determined when the similarity determination unit 124B determines that it is within the similar range, and the foreground region when the similarity determination unit 124B determines that it is outside the similarity range. The pixel value (for example, “1”) indicating f is written into the frame memory 131 or 132 in the foreground image storage unit 130, respectively.

一方、パラメータ設定部125は、平均画像作成部122による平均画像作成処理に利用されるパラメータw(図3に示す重みw)と、類否判定部124Bの類否判定処理に利用されるパラメータm,n(図10に示す長軸半径αおよび短軸半径βを決定するための値)とを、ユーザの操作入力によって任意の値に設定する機能を有する。ユーザは、必要に応じて、これらパラメータw,m,nの値を調整することにより、より精度の高い検出結果を得ることができる。もっとも、これらのパラメータの一部もしくは全部は、固定値にしておくことも可能である。全部のパラメータ値を固定値にする実施例では、パラメータ設定部125を設ける必要はない。   On the other hand, the parameter setting unit 125 uses the parameter w (weight w shown in FIG. 3) used for the average image creation process by the average image creation unit 122 and the parameter m used for the similarity determination process of the similarity determination unit 124B. , N (values for determining the major axis radius α and the minor axis radius β shown in FIG. 10) are set to arbitrary values by user operation input. The user can obtain a detection result with higher accuracy by adjusting the values of these parameters w, m, and n as necessary. However, some or all of these parameters can be fixed values. In an embodiment in which all parameter values are fixed values, the parameter setting unit 125 need not be provided.

<<< §6. 本発明に係る撮影視野変動検知装置の応用例 >>>
本発明に係る撮影視野変動検知装置は、カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として入力して解析し、カメラの撮影視野の変動を検知する処理を行う機能をもった装置である。ここでは、この撮影視野変動検知装置を定点監視システムおよび画像処理システムに応用した実施形態を述べることにする。
<<< §6. Application example of photographing visual field fluctuation detection device according to the present invention >>>
The photographing visual field fluctuation detection device according to the present invention has a function of performing processing for detecting a fluctuation in the photographing visual field of the camera by inputting and analyzing a photographed image by the camera as a frame-unit original image continuously given in time series. It is a device with Here, an embodiment in which this imaging visual field fluctuation detection device is applied to a fixed point monitoring system and an image processing system will be described.

図26は、本発明に係る定点監視システムの構成例を示すブロック図である。図示のとおり、このシステムは、定点カメラ10、モニタ装置20、変動検知装置100によって構成されている。定点カメラ10は、所定の視野内の撮影画像を時系列で連続的に与えられるフレーム単位の原画像として出力するカメラであり、一般的な監視カメラとして利用されているデジタルビデオカメラによって構成することができる。   FIG. 26 is a block diagram showing a configuration example of a fixed point monitoring system according to the present invention. As shown in the figure, this system includes a fixed point camera 10, a monitor device 20, and a fluctuation detection device 100. The fixed-point camera 10 is a camera that outputs a captured image within a predetermined field of view as a frame-unit original image that is continuously given in time series, and is configured by a digital video camera that is used as a general surveillance camera. Can do.

もちろん、この定点カメラ10には、向きを制御する機構が組み込まれていてもかまわない。本発明にいう「定点カメラ」とは、同一の場所において同一の視野を一定期間にわたって継続して撮影することができるカメラであればよいので、特定箇所を継続して監視する用途等に利用できれば、遠隔操作等によって向きを調整する機能をもったカメラでもかまわない。   Of course, this fixed point camera 10 may incorporate a mechanism for controlling the direction. The “fixed-point camera” referred to in the present invention may be any camera that can continuously shoot the same field of view for a certain period of time at the same place, so long as it can be used for the purpose of continuously monitoring a specific location. A camera having a function of adjusting the direction by remote control or the like may be used.

モニタ装置20は、定点カメラ10で撮影された画像をリアルタイムで表示する機能をもった装置であり、たとえば、一般的な液晶ディスプレイなどで構成することができる。このように、定点カメラ10にモニタ装置20を組み合わせた定点監視システムは、ごく一般的に広く利用されているシステムである。図26に示す定点監視システムは、この一般的なシステムに、更に変動検知装置100を付加したものである。この変動検知装置100は、図24に示す装置であり、定点カメラ10の撮影視野の変動を検知する機能を有している。定点カメラ10が撮影したフレーム単位の画像は、モニタ装置20に与えられるとともに、変動検知装置100にも与えられ、定点カメラ10の撮影視野の変動が検知される。   The monitor device 20 is a device having a function of displaying an image taken by the fixed point camera 10 in real time, and can be configured by, for example, a general liquid crystal display. As described above, the fixed point monitoring system in which the monitor device 20 is combined with the fixed point camera 10 is a system that is very widely used. The fixed point monitoring system shown in FIG. 26 is obtained by adding a fluctuation detecting device 100 to this general system. The fluctuation detection apparatus 100 is an apparatus shown in FIG. 24 and has a function of detecting fluctuations in the field of view of the fixed point camera 10. The frame-by-frame image captured by the fixed point camera 10 is given to the monitor device 20 and also to the variation detection device 100, and the variation in the field of view of the fixed point camera 10 is detected.

特に、図26に示す実施形態の場合、変動検知装置100内の変動判定部180が、撮影視野に変動が生じたものと判定した場合に、変動検知装置100内の判定結果通知部190が、オペレータに対する変動警報を発する機能を有している。変動警報としては、たとえば、警報ブザーを鳴動させるような音による警報手段や、赤ランプを点灯あるいは点滅させるような光による警報手段を採用することができる。モニタ装置20を監視しているオペレータは、このような変動警報により、定点カメラ10の向きに異常が生じたことを認識することができる。   In particular, in the case of the embodiment shown in FIG. 26, when the fluctuation determination unit 180 in the fluctuation detection device 100 determines that a fluctuation has occurred in the shooting field of view, the determination result notification unit 190 in the fluctuation detection device 100 It has a function of issuing a change alarm to the operator. As the fluctuation alarm, for example, an alarm means using a sound that sounds an alarm buzzer or an alarm means using light that lights or blinks a red lamp can be adopted. The operator who is monitoring the monitor device 20 can recognize that an abnormality has occurred in the direction of the fixed point camera 10 by such a variation alarm.

もちろん、オペレータが単一のモニタ画面のみを注視しているような場合には、撮影視野が変動したときに、モニタ画面上の情報から異常発生を直ちに認識することができるかもしれないが、ビルの警備室などのように、多数の定点カメラからの撮影画像を多数のモニタ画面に表示しながら監視する環境では、1つの定点カメラの撮影視野に異常が発生したことを直ちに認識することは困難である。したがって、変動検知装置100からの変動警報は、オペレータに異常発生を認識させる上で非常に有益である。   Of course, if the operator is gazing only at a single monitor screen, it may be possible to immediately recognize the occurrence of an abnormality from the information on the monitor screen when the field of view changes. It is difficult to immediately recognize that an abnormality has occurred in the shooting field of view of one fixed-point camera in an environment where monitoring is performed while displaying captured images from a large number of fixed-point cameras on a large number of monitor screens, such as a security room. It is. Therefore, the fluctuation alarm from the fluctuation detection device 100 is very useful for making the operator recognize the occurrence of an abnormality.

図27は、本発明に係る定点監視システムの別な構成例を示すブロック図である。このシステムは、定点カメラ10、モニタ装置20、変動検知装置100に加えて、更に画像記録装置30を備えており、定点カメラ10で撮影された画像は、モニタ装置20、画像記録装置30、変動検知装置100に与えられる。モニタ装置20は、定点カメラ10で撮影された画像をリアルタイムで表示する機能をもった装置であり、画像記録装置30は、定点カメラ10の撮影画像を記録する機能をもった装置である。また、変動検知装置100は、図24に示す装置であり、定点カメラ10の撮影視野の変動を検知する機能を有している。   FIG. 27 is a block diagram showing another configuration example of the fixed point monitoring system according to the present invention. This system further includes an image recording device 30 in addition to the fixed point camera 10, the monitor device 20, and the fluctuation detecting device 100. It is given to the detection device 100. The monitor device 20 is a device having a function of displaying an image photographed by the fixed point camera 10 in real time, and the image recording device 30 is a device having a function of recording a photographed image of the fixed point camera 10. Moreover, the fluctuation | variation detection apparatus 100 is an apparatus shown in FIG. 24, and has the function to detect the fluctuation | variation of the imaging | photography visual field of the fixed point camera 10. FIG.

この図27に示す定点監視システムでは、変動検知装置100内の変動判定部180が、撮影視野に変動が生じたものと判定した場合に、変動検知装置100内の判定結果通知部190が、画像記録装置30に対して撮影画像の記録を中止させるための記録中止信号を与える機能を有している。画像記録装置30は、起動後の通常動作状態では、定点カメラ10による撮影画像を逐次記録してゆく処理(録画処理)を行うことになるが、変動検知装置100から記録中止信号が与えられると、そこで録画処理を中止する機能をもっている。   In the fixed point monitoring system shown in FIG. 27, when the fluctuation determination unit 180 in the fluctuation detection apparatus 100 determines that a fluctuation has occurred in the photographing field of view, the determination result notification unit 190 in the fluctuation detection apparatus 100 displays an image. The recording apparatus 30 has a function of giving a recording stop signal for stopping recording of the photographed image. The image recording device 30 performs processing (recording processing) for sequentially recording images taken by the fixed point camera 10 in a normal operation state after activation, but when a recording stop signal is given from the fluctuation detection device 100. Therefore, it has a function to cancel the recording process.

したがって、たとえば、定点カメラ10によって、図18に原画像P10〜P30として示すような画像が撮影された場合、原画像P10〜P30までは画像記録装置30によって記録されるが、原画像P31が撮影された時点で、変動検知装置100によって撮影視野の変動が検知され、記録中止信号が出される。したがって、それ以降の撮影画像(不適切な撮影視野についての撮影画像)の記録は中止される。   Therefore, for example, when images as shown as original images P10 to P30 in FIG. 18 are taken by the fixed point camera 10, the original images P10 to P30 are recorded by the image recording device 30, but the original image P31 is taken. At that point, the fluctuation detection device 100 detects a change in the field of view and outputs a recording stop signal. Therefore, the recording of subsequent captured images (captured images with an inappropriate field of view) is stopped.

もちろん、図26に示す実施形態と同様に、変動検知装置100にオペレータに対する変動警報を行う機能をもたせておけば、記録中止信号が出力されたときに、オペレータに対して変動警報がなされることになるので、オペレータは異常発生により録画処理が中止されたことを認識することができる。オペレータが、定点カメラ10の向きを正常に戻した後、システムを再起動すれば、再び、画像記録装置30による録画処理が続行する。   Of course, as in the embodiment shown in FIG. 26, if the fluctuation detecting device 100 is provided with a function for giving a fluctuation warning to the operator, a fluctuation warning is given to the operator when a recording stop signal is output. Therefore, the operator can recognize that the recording process has been stopped due to the occurrence of an abnormality. If the operator restarts the system after returning the orientation of the fixed point camera 10 to normal, the recording process by the image recording device 30 continues again.

防犯の目的で利用される監視システムでは、画像記録装置30に長時間の記録を行うことが多く、通常は記録容量を抑制するために古い画像データから消去するような処理が行われる。このように、ハードウエア的に限られた記録容量を有効利用する上では、無駄な画像データの記録を避けることは重要である。図27に示すシステムでは、撮影視野に変動が生じた場合、録画処理が中止されるので、不適切な撮影視野についての撮影画像が無駄に記録されることを防ぐことができ、限られた記録容量を有効利用することができる。   In a monitoring system used for the purpose of crime prevention, recording is often performed on the image recording device 30 for a long time, and usually, processing for deleting from old image data is performed in order to suppress the recording capacity. As described above, in order to effectively use the limited recording capacity in terms of hardware, it is important to avoid recording useless image data. In the system shown in FIG. 27, when the shooting field of view changes, the recording process is stopped. Therefore, it is possible to prevent a shot image of an inappropriate shooting field of view from being recorded unnecessarily, and limited recording is performed. The capacity can be used effectively.

なお、撮影画像の記録のみを行い、リアルタイムでの監視が不要な場合には、図27に示すシステムにおけるモニタ装置20は省略することができる。   Note that if only the captured image is recorded and real-time monitoring is unnecessary, the monitor device 20 in the system shown in FIG. 27 can be omitted.

図28は、本発明に係る画像処理システムの構成例を示すブロック図である。図示のとおり、このシステムは、定点カメラ10、モニタ装置20、画像処理装置40、変動検知装置100によって構成されている。図27に示すシステムと同様に、定点カメラ10は、所定の視野内の撮影画像を時系列で連続的に与えられるフレーム単位の原画像として出力するカメラであり、モニタ装置20は、定点カメラ10で撮影された画像をリアルタイムで表示する機能をもった装置である。また、変動検知装置100は、図24に示す装置であり、定点カメラ10の撮影視野の変動を検知する機能を有している。   FIG. 28 is a block diagram showing a configuration example of an image processing system according to the present invention. As illustrated, this system includes a fixed point camera 10, a monitor device 20, an image processing device 40, and a fluctuation detection device 100. As in the system shown in FIG. 27, the fixed point camera 10 is a camera that outputs a captured image within a predetermined field of view as a frame-unit original image that is continuously given in time series, and the monitor device 20 is a fixed point camera 10. This is a device that has a function of displaying images taken in real time in real time. Moreover, the fluctuation | variation detection apparatus 100 is an apparatus shown in FIG. 24, and has the function to detect the fluctuation | variation of the imaging | photography visual field of the fixed point camera 10. FIG.

一方、画像処理装置40は、定点カメラ10から時系列で順次与えられる原画像に対して所定の画像処理を行う装置である。この画像処理装置40としては、たとえば、§1で述べた前景領域抽出処理と同等の処理によって移動物体を認識する処理、認識した移動物体が車両である場合にはナンバーを認識する処理、認識した移動物体が人物である場合には顔を認識する処理などを行う装置を用いることができる。この画像処理装置40による処理結果は、モニタ装置20に表示することができる。   On the other hand, the image processing device 40 is a device that performs predetermined image processing on an original image sequentially given in time series from the fixed point camera 10. As this image processing apparatus 40, for example, a process for recognizing a moving object by a process equivalent to the foreground region extraction process described in §1, a process for recognizing a number when the recognized moving object is a vehicle, When the moving object is a person, a device that performs processing for recognizing a face can be used. The processing result by the image processing device 40 can be displayed on the monitor device 20.

この画像処理システムの特徴は、定点カメラ10による撮影画像が、モニタ装置20および画像処理装置40に与えられるとともに、変動検知装置100へも与えられて変動検知が行われ、変動検知装置100内の変動判定部180が、撮影視野に変動が生じたものと判定した場合に、変動検知装置100内の判定結果通知部190が、画像処理装置40に対して画像処理を中止させるための処理中止信号を与える点である。   A feature of this image processing system is that an image captured by the fixed point camera 10 is given to the monitor device 20 and the image processing device 40 and also to the variation detection device 100 to detect variation. When the variation determination unit 180 determines that the imaging field of view has changed, the determination result notification unit 190 in the variation detection device 100 causes the image processing device 40 to stop the image processing. It is a point to give.

画像処理装置40は、定点カメラ10の位置および向きが固定され、常に所定の撮影視野内を撮影することを前提として、撮影画像に対して何らかのアルゴリズムに基づく画像処理を実行する装置であるため、与えられた撮影画像が、本来想定していた撮影視野内の画像でなかった場合には、正しい処理を行うことができない。   The image processing device 40 is a device that performs image processing based on some algorithm on a captured image on the assumption that the position and orientation of the fixed point camera 10 are fixed and always captures a predetermined imaging field of view. If the given captured image is not an image within the intended field of view, correct processing cannot be performed.

たとえば、駐車場のゲートに設置された定点カメラ10で、車両のナンバー付近を撮影視野として画像を撮影し、当該撮影画像に対して画像処理装置40において画像処理を施し、車両のナンバーの情報を抽出する作業が行われる場合を考えてみよう。この場合、画像処理装置40は、与えられる撮影画像が、車両のナンバー付近を撮影視野として得られた画像であるという前提で、車両のナンバーを検出する作業を行うことになる。したがって、不測の原因によって撮影視野が変動してしまうと、正しい検出作業を行うことはできなくなり、誤った検出結果を出力する可能性がある。   For example, the fixed point camera 10 installed at the gate of the parking lot captures an image with the vicinity of the vehicle number as the field of view, and the image processing device 40 performs image processing on the captured image to obtain information on the vehicle number. Consider the case where the extraction work is performed. In this case, the image processing apparatus 40 performs the operation of detecting the vehicle number on the premise that the given captured image is an image obtained with the vicinity of the vehicle number as the shooting field of view. Therefore, if the photographing field of view fluctuates due to an unforeseen cause, correct detection work cannot be performed, and an erroneous detection result may be output.

このような場合でも、図28に示すシステムでは、変動検知装置100によって撮影視野の変動が検知され、画像処理装置40に対して処理中止信号が与えられるので、画像処理装置40によるナンバー検出処理は中止され、誤った検出結果が出力されることを防止することができる。このように、図28に示す画像処理システムでは、撮影視野に変動が生じた時点で画像処理装置40に対して処理を中止させることができ、不適切な画像処理が続行されることを防止することができる。   Even in such a case, in the system shown in FIG. 28, the change in the field of view is detected by the change detection device 100 and a processing stop signal is given to the image processing device 40. It can be prevented that the detection result is canceled and an erroneous detection result is output. As described above, in the image processing system shown in FIG. 28, the image processing device 40 can be stopped when the photographing field of view changes, and inappropriate image processing is prevented from continuing. be able to.

続いて、図28に示す画像処理システムの変形例を図29に示す。図28に示す画像処理システムと図29に示す画像処理システムとの相違点は、前者における定点カメラ10を、後者では画像記録装置35に置き換えた点だけである。すなわち、図29に示す画像処理システムには、定点カメラは含まれていない。ただ、画像記録装置35には、複数枚の原画像が時系列で記録されている。すなわち、画像記録装置35内には、定点カメラ10で撮影された所定の視野内の撮影画像が、時系列で連続的に与えられるフレーム単位の原画像として記録されている。   Subsequently, FIG. 29 shows a modification of the image processing system shown in FIG. The only difference between the image processing system shown in FIG. 28 and the image processing system shown in FIG. 29 is that the fixed point camera 10 in the former is replaced with the image recording device 35 in the latter. That is, the fixed point camera is not included in the image processing system shown in FIG. However, in the image recording device 35, a plurality of original images are recorded in time series. That is, in the image recording device 35, a photographed image within a predetermined field of view photographed by the fixed point camera 10 is recorded as a frame-unit original image that is continuously given in time series.

画像処理装置40は、定点カメラ10から与えられる画像に代えて、この画像記録装置35に記録されている原画像を時系列に沿って順次読み出し、読み出した原画像に対して所定の画像処理を行うことになる。要するに、図28に示す画像処理システムでは、定点カメラ10によって撮影された画像が、画像処理装置40内でリアルタイムで処理されるのに対して、図29に示す画像処理システムでは、定点カメラ10によって撮影された画像が、一旦、画像記録装置35によって記録され、画像処理装置40が、この画像記録装置35内に記録されている画像に対して処理を行うことになる。   The image processing device 40 sequentially reads the original images recorded in the image recording device 35 in chronological order instead of the images given from the fixed point camera 10, and performs predetermined image processing on the read original images. Will do. In short, in the image processing system shown in FIG. 28, an image photographed by the fixed point camera 10 is processed in real time in the image processing device 40, whereas in the image processing system shown in FIG. The captured image is once recorded by the image recording device 35, and the image processing device 40 performs processing on the image recorded in the image recording device 35.

この図29に示すシステムでは、画像処理装置40が画像記録装置35から読み出した原画像は、変動検知装置100にも与えられ、変動検知装置100内の変動判定部180が、撮影視野に変動が生じたものと判定した場合に、変動検知装置100内の判定結果通知部190が、画像処理装置40に対して画像処理を中止させるための処理中止信号を与えることになる。したがって、図28に示すシステムと同様に、撮影視野に変動が生じた時点で画像処理装置40に対して処理を中止させることができ、不適切な画像処理が続行されることを防止することができる。   In the system shown in FIG. 29, the original image read out from the image recording device 35 by the image processing device 40 is also given to the variation detecting device 100, and the variation determining unit 180 in the variation detecting device 100 causes variation in the photographing field of view. When it is determined that the error has occurred, the determination result notification unit 190 in the fluctuation detection device 100 gives a processing stop signal for stopping the image processing to the image processing device 40. Therefore, similarly to the system shown in FIG. 28, the image processing apparatus 40 can be stopped when the photographic field of view changes, and inappropriate image processing can be prevented from continuing. it can.

なお、図28または図29に示す画像処理システムにおいて、画像処理のみを行い、モニタ画面上での確認を行う必要がない場合には、モニタ装置20は省略することができる。   In the image processing system shown in FIG. 28 or FIG. 29, the monitor device 20 can be omitted when only image processing is performed and there is no need to perform confirmation on the monitor screen.

以上、本発明に係る撮影視野変動検知装置の応用例として、定点監視システムおよび画像処理システムを例示したが、本発明に係る撮影視野変動検知装置は、この他にも様々な用途に利用可能である。たとえば、定点カメラから撮影画像データを伝送するための伝送ケーブルや、通信回線に何らかのトラブルが生じて、撮影画像の伝送が途絶えた場合も(受信側では、いわゆる、真っ黒の画像が得られることになる)、本発明に係る撮影視野変動検知装置によって視野変動の検出が行われる。   As described above, the fixed point monitoring system and the image processing system are exemplified as application examples of the photographing visual field fluctuation detection device according to the present invention. However, the photographing visual field fluctuation detection device according to the present invention can be used for various other purposes. is there. For example, even if a transmission cable for transmitting captured image data from a fixed point camera or a communication line causes some trouble and the transmission of the captured image is interrupted (on the receiving side, a so-called black image is obtained. The visual field variation is detected by the photographing visual field variation detection device according to the present invention.

同様に、伝送ケーブルや通信回線がノイズの影響を受け、伝送されてきた画像上にノイズが混入した場合にも、本発明に係る撮影視野変動検知装置によって視野変動の検出が行われる。したがって、本発明に係る撮影視野変動検知装置は、伝送ケーブルや通信回線の異常検出という一般的な用途にも利用することが可能である。   Similarly, even when the transmission cable or communication line is affected by noise and noise is mixed in the transmitted image, the field-of-view variation detection device according to the present invention detects the field variation. Therefore, the photographing visual field fluctuation detection device according to the present invention can be used for general purposes such as abnormality detection of transmission cables and communication lines.

また、定点カメラの向きに変動が生じていなくても、たとえば、風で飛ばされたゴミ袋がカメラのレンズを覆ってしまったり、鳥の糞、ペンキ、その他の汚物がレンズに付着したような場合にも、本発明に係る撮影視野変動検知装置によって撮影視野の変動検知が行われる。このように、本発明に係る撮影視野変動検知装置によって検知可能な変動は、必ずしもカメラの向きの変動に限定されるものではなく、カメラの光学系の一部もしくは全部が何らかの障害物で覆い隠されたことに起因した撮影視野の変動も含まれる。   Even if there is no change in the orientation of the fixed-point camera, for example, a dust bag blown by the wind may cover the lens of the camera, or bird droppings, paint, or other dirt may adhere to the lens. Even in this case, the change in the photographic field of view is detected by the photographic field change detector according to the present invention. As described above, the variation that can be detected by the imaging visual field variation detection device according to the present invention is not necessarily limited to the variation in the orientation of the camera, and part or all of the optical system of the camera is covered with some obstacle. This also includes changes in the field of view taken due to this.

10:定点カメラ
20:モニタ装置
30:画像記録装置
35:画像記録装置
40:画像処理装置
100:変動検知装置
110:画像入力部
120:前景領域抽出部
121:原画像格納部
122:平均画像作成部
123:平均画像格納部
124:画像比較部
124A:画素値読出部
124B:類否判定部
124C:画素値書込部
125:パラメータ設定部
130:前景画像格納部
131,132:フレームメモリ
140:差分領域抽出部
150:ブロック分割部
160:占有割合算出部
170:ブロック計数部
180:変動判定部
190:判定結果通知部
A,A(i−1),A(i):平均画像(背景画像)
A,A(Ra,Ga,Ba):平均画像の画素値を示す座標点
a(i−1),a(i):平均画像を構成する1つの画素の画素値
B:三原色の画素値(基準画素値)
B1〜B20:ブロック
b:三原色の画素値(比較画素値)
b,b10〜b40,b(i+1):背景領域
C:円柱モデルの円柱
D31,D40,D(i):差分画像
d31,d40,d(i):差分領域
E,Ea,Ep:回転楕円体
F,F10〜F40,F(i−1),F(i),F(i+1):前景画像
f,f10〜f40,f(i),f(i+1):前景領域
G:三原色の画素値(基準画素値)
g:三原色の画素値(比較画素値)
H:占有割合
i:画像の番号を示すパラメータ
j:ブロックの番号を示すパラメータ
k:急変ブロック数を示すパラメータ
L:円柱Cの長さ
La1:回転楕円体Eaの長軸方向の長さ
La2:回転楕円体Eaの短軸方向の長さ
Lp1:回転楕円体Epの長軸方向の長さ
Lp2:回転楕円体Epの短軸方向の長さ
m:回転楕円体Eの長軸半径αを定めるパラメータ
n:回転楕円体Eの短軸半径βを定めるパラメータ
O:三次元色空間を構成するRGB座標系の原点
P:原画像/原画像の画素値を示す座標点
P(1)〜P(i),P(i+1),P10〜P40:原画像(入力画像)
P(Rp,Gp,Bp):原画像の画素値を示す座標点
p(i):原画像を構成する1つの画素の画素値
Q:基準点(画素値(R,G,B)をもった座標点)
q:比較点(画素値(r,g,b)をもった座標点)
R:三原色の画素値(基準画素値)
r:三原色の画素値(比較画素値)
S11〜S15:流れ図の各ステップ
Th1,Th2:閾値
V:基準画素値を示すベクトル
Va:平均画像の画素値を示すベクトル
Vp:原画像の画素値を示すベクトル
w:重みを示すパラメータ
Z,Za,Zp:基準軸
α:回転楕円体Eの長軸半径
β:回転楕円体Eの短軸半径
Δ:原点Oと基準点Qとの距離
δ:座標点間の距離
θ:角度
10: Fixed point camera 20: Monitor device 30: Image recording device 35: Image recording device 40: Image processing device 100: Fluctuation detection device 110: Image input unit 120: Foreground region extraction unit 121: Original image storage unit 122: Average image creation Unit 123: Average image storage unit 124: Image comparison unit 124A: Pixel value reading unit 124B: Similarity determination unit 124C: Pixel value writing unit 125: Parameter setting unit 130: Foreground image storage unit 131, 132: Frame memory 140: Difference area extraction unit 150: block division unit 160: occupancy ratio calculation unit 170: block counting unit 180: fluctuation determination unit 190: determination result notification unit A, A (i-1), A (i): average image (background image) )
A, A (Ra, Ga, Ba): Coordinate points a (i−1) and a (i) indicating pixel values of the average image Pixel value of one pixel constituting the average image B: Pixel value of the three primary colors ( Reference pixel value)
B1 to B20: Block b: Pixel values of three primary colors (comparison pixel values)
b, b10 to b40, b (i + 1): background region C: cylinders D31, D40, D (i) of the cylindrical model: difference images d31, d40, d (i): difference regions E, Ea, Ep: spheroids F, F10 to F40, F (i-1), F (i), F (i + 1): Foreground image f, f10 to f40, f (i), f (i + 1): Foreground region G: Three primary color pixel values ( Reference pixel value)
g: Three primary color pixel values (comparison pixel values)
H: Occupancy ratio i: Parameter indicating the image number j: Parameter indicating the block number k: Parameter indicating the number of suddenly changing blocks L: Length La1 of the cylinder C1: Length La2 of the spheroid Ea in the major axis direction: The length Lp1 in the minor axis direction of the spheroid Ea: the length Lp2 in the major axis direction of the spheroid Ep: the length m in the minor axis direction of the spheroid Ep: the major axis radius α of the spheroid E is determined. Parameter n: Parameter defining the minor axis radius β of the spheroid E O: Origin point of RGB coordinate system constituting the three-dimensional color space P: Original image / coordinate points P (1) to P (1) indicating pixel values of the original image i), P (i + 1), P10 to P40: Original image (input image)
P (Rp, Gp, Bp): Coordinate point p (i) indicating the pixel value of the original image Q: Pixel value of one pixel constituting the original image Q: Reference point (with pixel value (R, G, B) Coordinate point)
q: Comparison point (coordinate point with pixel values (r, g, b))
R: Pixel value of three primary colors (reference pixel value)
r: Pixel value of three primary colors (comparison pixel value)
S11 to S15: Steps Th1 and Th2 of the flowchart: Threshold V: Vector Va indicating the reference pixel value: Vector Vp indicating the pixel value of the average image V: Vector indicating the pixel value of the original image w: Parameters Z and Za indicating the weight , Zp: reference axis α: major axis radius of spheroid E: minor axis radius of spheroid E Δ: distance between origin O and reference point Q δ: distance between coordinate points θ: angle

Claims (17)

カメラの撮影視野の変動を検知するための変動検知装置であって、
カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として入力する画像入力部と、
過去に入力された複数の原画像の平均的な特徴を有する画像を背景画像として求め、新たに入力された原画像について、前記背景画像と相違する前景領域を抽出し、抽出した前景領域を示す前景画像を生成する前景領域抽出部と、
個々の原画像について生成された前景画像を格納する前景画像格納部と、
前記前景画像格納部に格納されている2組の前景画像についての差分領域を抽出し、抽出した差分領域を示す差分画像を生成する差分領域抽出部と、
生成された個々の差分画像を複数のブロックに分割するブロック分割部と、
得られた個々のブロックごとに、それぞれ前記差分領域が占める占有割合を算出する占有割合算出部と、
前記占有割合が第1の閾値以上となるブロックを急変ブロックと認識し、個々の差分画像ごとに、急変ブロックの数を計数するブロック計数部と、
前記急変ブロックの数が第2の閾値以上となる差分画像が得られたときに、撮影視野に変動が生じたものと判定する変動判定部と、
前記変動判定部による判定結果を通知する判定結果通知部と、
を備えることを特徴とするカメラの撮影視野変動検知装置。
A fluctuation detection device for detecting fluctuations in the field of view of a camera,
An image input unit for inputting an image captured by the camera as a frame-unit original image continuously given in time series;
An image having an average characteristic of a plurality of original images input in the past is obtained as a background image, a foreground region different from the background image is extracted from the newly input original image, and the extracted foreground region is indicated A foreground region extraction unit for generating a foreground image;
A foreground image storage unit that stores the foreground image generated for each original image;
A difference area extraction unit that extracts a difference area for two sets of foreground images stored in the foreground image storage unit and generates a difference image indicating the extracted difference area;
A block dividing unit that divides each generated difference image into a plurality of blocks;
For each individual block obtained, an occupancy ratio calculation unit that calculates an occupancy ratio occupied by the difference area, and
A block counting unit for recognizing a block in which the occupation ratio is equal to or greater than a first threshold as a sudden change block, and counting the number of sudden change blocks for each individual difference image;
A variation determining unit that determines that a variation has occurred in the field of view when a difference image in which the number of suddenly changing blocks is equal to or greater than a second threshold is obtained;
A determination result notification unit for notifying a determination result by the variation determination unit;
A camera field-of-view variation detection device comprising:
請求項1に記載の変動検知装置において、
前景領域抽出部が、
入力された原画像を逐次格納する原画像格納部と、
過去に入力された複数の原画像に基づいて、これら原画像の平均的な特徴を有する平均画像を逐次作成する平均画像作成部と、
作成された平均画像を逐次格納する平均画像格納部と、
前記平均画像格納部に格納されている平均画像を背景画像として、前記原画像格納部に格納されている原画像と比較し、相違する部分を前景領域と認識することにより、前記前景領域とそれ以外の背景領域とを区別する二値画像として、前景画像を作成する画像比較部と、
を備えることを特徴とするカメラの撮影視野変動検知装置。
The variation detection apparatus according to claim 1,
The foreground area extraction unit
An original image storage unit for sequentially storing the input original images;
Based on a plurality of original images input in the past, an average image creation unit that sequentially creates an average image having average characteristics of these original images;
An average image storage unit for sequentially storing the created average images;
By comparing the average image stored in the average image storage unit as a background image with the original image stored in the original image storage unit and recognizing a different part as the foreground region, An image comparison unit that creates a foreground image as a binary image that distinguishes a background region other than
A camera field-of-view variation detection device comprising:
請求項2に記載の変動検知装置において、
画像入力部が、時系列で連続的に与えられるフレーム単位のカラー原画像を、三原色の各画素値を有する画素の集合体データとして入力し、
平均画像作成部が、第i番目の原画像P(i)が入力されたときに(i=1,2,...)、当該原画像P(i)を含めた過去の原画像について、それぞれ対応する位置の画素の各色別の画素値の重みづけ平均値を算出し、当該平均値をもつ画素の集合体からなる第i番目の平均画像A(i)を背景画像として作成し、
画像比較部が、第(i+1)番目の原画像P(i+1)が入力されたときに、当該原画像P(i+1)と、第i番目の平均画像A(i)とを比較し、第(i+1)番目の前景画像F(i+1)を作成することを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation detection device according to claim 2,
The image input unit inputs a color-unit color original image continuously given in time series as pixel aggregate data having pixel values of the three primary colors,
When the average image creation unit receives the i-th original image P (i) (i = 1, 2,...), The past original image including the original image P (i) A weighted average value of pixel values for each color of pixels at corresponding positions is calculated, and an i-th average image A (i) composed of a collection of pixels having the average value is created as a background image.
When the (i + 1) -th original image P (i + 1) is input, the image comparison unit compares the original image P (i + 1) with the i-th average image A (i), An i + 1) -th foreground image F (i + 1) is generated, and a camera field-of-view variation detector is provided.
請求項3に記載の変動検知装置において、
平均画像作成部が、
最初の原画像P(1)が入力されたときに、当該原画像P(1)をそのまま最初の平均画像A(1)として平均画像格納部へ格納する処理を行い、
以後、第i番目の原画像P(i)が入力されるたびに(i=2,3,...)、第i番目の平均画像A(i)を、
a(i)=(1−w)・a(i−1)+w・p(i)
(但し、a(i)は、平均画像A(i)の
所定位置の画素の所定色の画素値、
a(i−1)は、平均画像A(i−1)の
前記所定位置の画素の前記所定色の画素値、
p(i)は、原画像P(i)の
前記所定位置の画素の前記所定色の画素値、
wは、所定の重みを示すパラメータ(w<1))
なる演算式を用いて作成することを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation detection device according to claim 3,
The average image creation unit
When the first original image P (1) is input, the original image P (1) is stored in the average image storage unit as the first average image A (1) as it is,
Thereafter, every time the i-th original image P (i) is input (i = 2, 3,...), The i-th average image A (i) is
a (i) = (1-w) .a (i-1) + w.p (i)
(However, a (i) is the average image A (i)
A pixel value of a predetermined color of a pixel at a predetermined position,
a (i-1) is the average image A (i-1)
A pixel value of the predetermined color of the pixel at the predetermined position;
p (i) is the original image P (i)
A pixel value of the predetermined color of the pixel at the predetermined position;
w is a parameter indicating a predetermined weight (w <1))
A camera field-of-view variation detection device, characterized by being created using the following equation.
請求項3または4に記載の変動検知装置において、
画像比較部が、
比較対象となる一方の画像の所定位置の画素の画素値を基準画素値として読み出し、比較対象となる他方の画像の前記所定位置の画素の画素値を比較画素値として読み出す画素値読出部と、
前記比較画素値が、前記基準画素値について設定された所定の類似範囲に入っているか否かを判定する類否判定部と、
前景画像を構成する前記所定位置の画素の画素値として、前記類否判定部が類似範囲内と判定した場合には背景領域を示す画素値を、前記類否判定部が類似範囲外と判定した場合には前景領域を示す画素値を、それぞれ前景画像格納部に書き込む画素値書込部と、
を有することを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation detection device according to claim 3 or 4,
The image comparison unit
A pixel value reading unit that reads a pixel value of a pixel at a predetermined position of one image to be compared as a reference pixel value, and reads a pixel value of the pixel at the predetermined position of the other image to be compared as a comparison pixel value;
A similarity determination unit that determines whether or not the comparison pixel value is within a predetermined similar range set for the reference pixel value;
When the similarity determination unit determines that the pixel value of the pixel at the predetermined position constituting the foreground image is within the similar range, the similarity determination unit determines that the pixel value indicating the background region is out of the similarity range. A pixel value writing unit that writes a pixel value indicating the foreground region to the foreground image storage unit in each case;
A camera field-of-view variation detecting device characterized by comprising:
請求項5に記載の変動検知装置において、
類否判定部が、三原色の各画素値を各座標軸にとった三次元座標系において、基準画素値に対応する座標に位置する基準点Qと比較画素値に対応する座標に位置する比較点qをとり、前記基準点Qを中心とする所定サイズの立体と前記比較点qとの位置関係を調べ、前記比較点qが前記立体の外部に位置すると判定できる場合には類似範囲外との判定を行い、内部に位置すると判定できる場合には類似範囲内との判定を行うことを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation detection device according to claim 5,
In the three-dimensional coordinate system in which the similarity determination unit takes each pixel value of the three primary colors on each coordinate axis, the reference point Q located at the coordinate corresponding to the reference pixel value and the comparison point q located at the coordinate corresponding to the comparison pixel value And a positional relationship between the comparison point q and a solid having a predetermined size centered on the reference point Q is determined, and if it can be determined that the comparison point q is located outside the solid, it is determined that it is out of the similar range. And a camera field-of-view variation detection device that performs a determination within a similar range when it can be determined that it is located inside.
請求項1〜6のいずれかに記載の変動検知装置において、
前景画像格納部が、奇数番目のフレームの前景画像を格納する第1のフレームメモリと、偶数番目のフレームの前景画像を格納する第2のフレームメモリと、を有し、
前景領域抽出部が、新たに生成した前景画像によって、前記第1のフレームメモリと前記第2のフレームメモリとを交互に書き換える処理を行うことを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation | variation detection apparatus in any one of Claims 1-6,
The foreground image storage unit includes a first frame memory for storing the foreground image of the odd-numbered frame, and a second frame memory for storing the foreground image of the even-numbered frame;
A camera field-of-view variation detection apparatus, wherein a foreground region extraction unit performs a process of alternately rewriting the first frame memory and the second frame memory with a newly generated foreground image.
請求項1〜7のいずれかに記載の変動検知装置において、
前景領域抽出部が、前景領域を示す第1の画素値と背景領域を示す第2の画素値とのいずれか一方の画素値をもった画素の集合体からなる二値画像として前景画像を生成し、
差分領域抽出部が、一方の前景画像の所定位置の画素と他方の前景画像の前記所定位置の画素とを読み出し、両者の画素値が同一か非同一かを判定する処理を行い、差分画像を構成する前記所定位置の画素に対して、非同一との判定が得られた場合には差分領域を示す画素値を、同一との判定が得られた場合には差分領域外を示す画素値を、それぞれ与えることにより差分画像を生成することを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation | variation detection apparatus in any one of Claims 1-7,
The foreground area extraction unit generates a foreground image as a binary image composed of a collection of pixels having one of the first pixel value indicating the foreground area and the second pixel value indicating the background area. And
The difference area extraction unit reads out a pixel at a predetermined position of one foreground image and a pixel at the predetermined position of the other foreground image, and determines whether the pixel values of both are the same or non-identical. The pixel value indicating the difference area is obtained when the non-identical determination is obtained for the pixel at the predetermined position, and the pixel value indicating the outside of the difference area is obtained when the determination is the same. A camera field-of-view variation detecting device for generating a difference image by giving each of them.
請求項1〜8のいずれかに記載の変動検知装置において、
画像入力部が、矩形状の輪郭をもった原画像を入力し、
前景領域抽出部が、矩形状の輪郭をもった前景画像を生成し、
差分領域抽出部が、矩形状の輪郭をもった差分画像を生成し、
ブロック分割部が、前記矩形状の輪郭をもった差分画像を縦にN分割、横にM分割することにより、N×M個の矩形状のブロックに分割することを特徴とするカメラの撮影視野変動検知装置。
In the fluctuation | variation detection apparatus in any one of Claims 1-8,
The image input unit inputs an original image with a rectangular outline,
The foreground area extraction unit generates a foreground image having a rectangular outline,
The difference area extraction unit generates a difference image having a rectangular outline,
The field of view of the camera, wherein the block dividing unit divides the difference image having the rectangular outline into N × M rectangular blocks by dividing the difference image vertically into N and horizontally into M. Fluctuation detection device.
請求項1〜9のいずれかに記載のカメラの撮影視野変動検知装置としてコンピュータを動作させるプログラム。   A program for causing a computer to operate as the photographing field fluctuation detection device for a camera according to any one of claims 1 to 9. 請求項1〜9のいずれかに記載のカメラの撮影視野変動検知装置として機能する半導体集積回路。   A semiconductor integrated circuit which functions as a photographing field fluctuation detection device for a camera according to claim 1. 請求項1〜9のいずれかに記載の変動検知装置と、所定の視野内の撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として出力する定点カメラと、を備え、前記定点カメラの撮影視野の変動を前記変動検知装置により検知することを特徴とする定点監視システム。   The fluctuation detection device according to any one of claims 1 to 9, and a fixed point camera that outputs a captured image within a predetermined field of view as a frame-unit original image continuously given in time series, the fixed point A fixed point monitoring system, wherein a change in a field of view of a camera is detected by the change detection device. 請求項12に記載の定点監視システムにおいて、
変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、変動検知装置内の判定結果通知部が、オペレータに対する変動警報を発することを特徴とする定点監視システム。
The fixed point monitoring system according to claim 12,
A fixed point monitoring system, characterized in that, when a fluctuation determination unit in a fluctuation detection device determines that a fluctuation has occurred in the field of view, a determination result notification unit in the fluctuation detection device issues a fluctuation warning to an operator.
請求項12または13に記載の定点監視システムにおいて、
定点カメラの撮影画像を記録する画像記録装置を更に備え、
変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、変動検知装置内の判定結果通知部が、前記画像記録装置に対して撮影画像の記録を中止させるための記録中止信号を与えることを特徴とする定点監視システム。
The fixed point monitoring system according to claim 12 or 13,
It further comprises an image recording device for recording a photographed image of the fixed point camera,
When the change determination unit in the change detection apparatus determines that the change has occurred in the shooting field of view, the determination result notification unit in the change detection apparatus causes the image recording apparatus to stop recording the shot image. A fixed point monitoring system characterized by providing a recording stop signal.
請求項1〜9のいずれかに記載の変動検知装置と、所定の視野内の撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として出力する定点カメラと、前記定点カメラから時系列で順次与えられる原画像に対して所定の画像処理を行う画像処理装置と、を備え、
前記定点カメラによる撮影画像が前記変動検知装置へ与えられ、前記変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、前記変動検知装置内の判定結果通知部が、前記画像処理装置に対して画像処理を中止させるための処理中止信号を与えることを特徴とする画像処理システム。
The fluctuation detection device according to any one of claims 1 to 9, a fixed-point camera that outputs a captured image within a predetermined field of view as a frame-unit original image that is continuously given in time series, and a time from the fixed-point camera. An image processing device that performs predetermined image processing on original images sequentially given in a series,
When a photographed image by the fixed point camera is given to the variation detection device, and the variation determination unit in the variation detection device determines that variation has occurred in the photographing field of view, a determination result notification unit in the variation detection device Provides a processing stop signal for stopping the image processing to the image processing apparatus.
請求項1〜9のいずれかに記載の変動検知装置と、複数枚の原画像を時系列で記録した画像記録装置と、前記画像記録装置に記録されている原画像を時系列に沿って順次読み出し、読み出した原画像に対して所定の画像処理を行う画像処理装置と、を備え、
前記画像記録装置内には、定点カメラで撮影された所定の視野内の撮影画像が、時系列で連続的に与えられるフレーム単位の原画像として記録されており、
前記画像処理装置が前記画像記録装置から読み出した原画像は、前記変動検知装置にも与えられ、前記変動検知装置内の変動判定部が、撮影視野に変動が生じたものと判定した場合に、前記変動検知装置内の判定結果通知部が、前記画像処理装置に対して画像処理を中止させるための処理中止信号を与えることを特徴とする画像処理システム。
The fluctuation detection device according to any one of claims 1 to 9, an image recording device in which a plurality of original images are recorded in time series, and the original images recorded in the image recording device in order along the time series An image processing apparatus that performs predetermined image processing on the read-out original image,
In the image recording device, a captured image within a predetermined field of view captured by a fixed point camera is recorded as a frame-unit original image that is continuously given in time series,
The original image read from the image recording device by the image processing device is also given to the variation detection device, and when the variation determination unit in the variation detection device determines that a variation has occurred in the shooting field of view, An image processing system, wherein the determination result notifying unit in the fluctuation detecting device gives a processing stop signal for stopping the image processing to the image processing device.
カメラの撮影視野の変動を検知する変動検知方法であって、
カメラによる撮影画像を、時系列で連続的に与えられるフレーム単位の原画像として入力する原画像入力段階と、
過去に入力された複数の原画像の平均的な特徴を有する画像を背景画像として求め、新たに入力された第i番目(i=1,2,... )の原画像P(i)について、前記背景画像と相違する前景領域を抽出し、抽出した前景領域を示す前景画像F(i)を順次生成する前景領域抽出段階と、
生成された第i番目(i=2,3,... )の前景画像F(i)と第(i−1)番目の前景画像F(i−1)とについて差分領域を抽出し、抽出した差分領域を示す差分画像D(i)を順次生成する差分領域抽出段階と、
生成された個々の差分画像D(i)を複数のブロックに分割するブロック分割段階と、
得られた個々のブロックごとに、それぞれ前記差分領域が占める占有割合を算出する占有割合算出段階と、
前記占有割合が第1の閾値以上となるブロックを急変ブロックと認識し、個々の差分画像ごとに、急変ブロックの数を計数するブロック計数段階と、
前記急変ブロックの数が第2の閾値以上となる差分画像が得られたときに、撮影視野に変動が生じた旨の検知を行う変動検知段階と、
をコンピュータが実行することを特徴とするカメラの撮影視野変動検知方法。
A variation detection method for detecting variations in the field of view of a camera,
An original image input stage for inputting an image captured by the camera as an original image in units of frames continuously given in time series,
An image having an average characteristic of a plurality of original images input in the past is obtained as a background image, and the i-th (i = 1, 2,...) Newly input original image P (i) Extracting a foreground area different from the background image and sequentially generating a foreground image F (i) indicating the extracted foreground area;
A difference area is extracted and extracted for the generated i-th (i = 2, 3,...) Foreground image F (i) and (i−1) -th foreground image F (i−1). A differential region extraction stage for sequentially generating a differential image D (i) showing the differential region,
A block division step of dividing each generated difference image D (i) into a plurality of blocks;
For each individual block obtained, an occupancy ratio calculating step for calculating an occupancy ratio occupied by the difference area, and
A block counting step of recognizing a block whose occupancy ratio is equal to or greater than a first threshold as a sudden change block and counting the number of sudden change blocks for each difference image;
A variation detection step of detecting that a variation has occurred in the field of view when a difference image is obtained in which the number of suddenly changing blocks is equal to or greater than a second threshold;
A method for detecting a change in the field of view of a camera, wherein the computer executes the above.
JP2012164593A 2012-07-25 2012-07-25 Camera field of view detection device Expired - Fee Related JP5962297B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012164593A JP5962297B2 (en) 2012-07-25 2012-07-25 Camera field of view detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012164593A JP5962297B2 (en) 2012-07-25 2012-07-25 Camera field of view detection device

Publications (2)

Publication Number Publication Date
JP2014026372A JP2014026372A (en) 2014-02-06
JP5962297B2 true JP5962297B2 (en) 2016-08-03

Family

ID=50199979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012164593A Expired - Fee Related JP5962297B2 (en) 2012-07-25 2012-07-25 Camera field of view detection device

Country Status (1)

Country Link
JP (1) JP5962297B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811292B2 (en) 2013-09-06 2017-11-07 Seiko Epson Corporation Using image difference data to reduce data processing
JP6941993B2 (en) * 2017-07-10 2021-09-29 株式会社日立製作所 Work monitoring system and work monitoring method
JP7067023B2 (en) * 2017-11-10 2022-05-16 富士通株式会社 Information processing device, background update method and background update program
CN112017214B (en) * 2019-05-29 2024-08-02 多方科技(广州)有限公司 Foreground and background image judging method
JP7414417B2 (en) * 2019-07-10 2024-01-16 キヤノン株式会社 Motor control device, motor control method, and imaging device
CN112135122A (en) * 2020-09-21 2020-12-25 北京百度网讯科技有限公司 Method and device for monitoring imaging equipment, electronic equipment and road side equipment
CN113935962B (en) * 2021-09-29 2022-10-21 常州市新创智能科技有限公司 Method for detecting wool ball of glass fiber cloth

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2914170B2 (en) * 1994-04-18 1999-06-28 松下電器産業株式会社 Image change point detection method
JP4214425B2 (en) * 1997-09-30 2009-01-28 ソニー株式会社 Image extracting apparatus and image extracting method, image encoding apparatus and image encoding method, image decoding apparatus and image decoding method, image recording apparatus and image recording method, image reproducing apparatus and image reproducing method, and recording medium
JP2007208513A (en) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd Apparatus and method for detecting image shift
JP2006325274A (en) * 2006-09-11 2006-11-30 Olympus Corp Imaging device
JP5391970B2 (en) * 2009-09-30 2014-01-15 大日本印刷株式会社 Moving object detection device and pixel similarity determination method

Also Published As

Publication number Publication date
JP2014026372A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5962297B2 (en) Camera field of view detection device
JP4730431B2 (en) Target tracking device
CN112216049B (en) Construction warning area monitoring and early warning system and method based on image recognition
CN103179350B (en) The camera and method of the exposure of picture frame in picture frame sequence based on the sports level optimization capturing scenes in scene
JP4140159B2 (en) Surveillance camera monitoring area setting apparatus and method
US10255683B1 (en) Discontinuity detection in video data
GB2593335A (en) Method and apparatus for 3-D auto tagging
KR101982751B1 (en) Video surveillance device with motion path tracking technology using multi camera
EP2659465A2 (en) Tracking moving objects using a camera network
JP4780455B2 (en) Video surveillance apparatus and method
CN106488115A (en) Control device and the control method of image sensing apparatus
CN107113403A (en) Utilize the reference object space mobile tracing system of multiple three-dimensional cameras
CN110703760B (en) Newly-added suspicious object detection method for security inspection robot
CN115797873B (en) Crowd density detection method, system, equipment, storage medium and robot
JP7035272B2 (en) Shooting system
CN107408288A (en) Warning device, method for warming and alert program
CN110557628A (en) Method and device for detecting shielding of camera and electronic equipment
CN106600628A (en) Target object identification method and device based on infrared thermal imaging system
CN107578595A (en) Liquid analytical equipment
JP4610005B2 (en) Intruding object detection apparatus, method and program by image processing
AU2012227263A1 (en) Differentiating abandoned and removed object using temporal edge information
CN111199177A (en) Automobile rearview pedestrian detection alarm method based on fisheye image correction
JP2019027882A (en) Object distance detector
JP2021085855A (en) Correction distance calculation device, program for correction distance calculation and correction distance calculation method
JP5771955B2 (en) Object identification device and object identification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R150 Certificate of patent or registration of utility model

Ref document number: 5962297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees