JP2008060967A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2008060967A
JP2008060967A JP2006236145A JP2006236145A JP2008060967A JP 2008060967 A JP2008060967 A JP 2008060967A JP 2006236145 A JP2006236145 A JP 2006236145A JP 2006236145 A JP2006236145 A JP 2006236145A JP 2008060967 A JP2008060967 A JP 2008060967A
Authority
JP
Japan
Prior art keywords
divided
distance
image data
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006236145A
Other languages
Japanese (ja)
Other versions
JP4229154B2 (en
Inventor
Takanobu Ujisato
隆信 氏郷
Nobuhiro Tsunashima
宣浩 綱島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006236145A priority Critical patent/JP4229154B2/en
Application filed by Sony Corp filed Critical Sony Corp
Priority to SG200706362-1A priority patent/SG140573A1/en
Priority to SG201000556-9A priority patent/SG159501A1/en
Priority to TW096131883A priority patent/TWI384879B/en
Priority to US11/897,005 priority patent/US8068701B2/en
Priority to KR1020070088247A priority patent/KR20080020581A/en
Priority to CN 200710145710 priority patent/CN101137046B/en
Publication of JP2008060967A publication Critical patent/JP2008060967A/en
Application granted granted Critical
Publication of JP4229154B2 publication Critical patent/JP4229154B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that it is difficult to detect an unidentified object or the like from a monitoring object together with a periodical fluctuation such as the sea. <P>SOLUTION: Still image data are evenly divided into rectangular regions. A characteristic amount is calculated per division region. The distance is calculated between the characteristic amount per division region and a predetermined value. By comparing the distance obtained with a threshold value, whether it is a background is determined. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像信号処理装置、画像処理方法及び画像処理プログラムに関する。
より詳細には、監視カメラが所定の監視場所を撮像して得られた映像から、不審物や不審者を検出するために適用して好適な技術に関する。
The present invention relates to an image signal processing device, an image processing method, and an image processing program.
More specifically, the present invention relates to a technique suitably applied to detect a suspicious object or a suspicious person from a video obtained by imaging a predetermined monitoring place by a monitoring camera.

従来より、監視カメラによって撮像された映像を所定の監視モニタを介して視認することにより、所定の監視対象を監視する監視システムが知られている。
このような監視カメラにおいては、監視対象となる場所が多くなるにつれ、24時間監視者がモニタを監視し続けることは困難である。また、監視カメラに接続されるビデオレコーダにおいても、必要最低限の映像のみ記録する等、実稼働時間を短縮する必要に迫られている。
このため、機械が入力画像から不審物或は不審者を検出する技術の確立が求められている。
例えば銀行のATM等においては、人体を検出するセンサさえあれば比較的容易に上述のような要求を満たすことができる。
ところが、海辺のような、遠くの景色から不審船等を検出する場合は、このようなセンサは使用できない。
特開2006−14215号公報 特開平10−328226号公報
2. Description of the Related Art Conventionally, a monitoring system that monitors a predetermined monitoring target by visually recognizing an image captured by a monitoring camera via a predetermined monitoring monitor is known.
In such a monitoring camera, it is difficult for a 24-hour monitor to continue to monitor the monitor as the number of places to be monitored increases. In video recorders connected to surveillance cameras, there is an urgent need to shorten the actual operation time, such as recording only the minimum necessary video.
For this reason, establishment of the technique in which a machine detects a suspicious object or a suspicious person from an input image is calculated | required.
For example, in a bank ATM, the above-described requirements can be satisfied relatively easily if there is a sensor for detecting a human body.
However, such a sensor cannot be used when detecting a suspicious ship or the like from a distant landscape such as the seaside.
JP 2006-14215 A JP-A-10-328226

従来、このような状況においては、特許文献1に記載されているような、直前の画像データとの比較を行う、という手法が多く採用されていた。
映像中に物体が進入すると、映像データ中におけるその物体の部分は、明るさが変わる。したがって、映像内で輝度値に差異がある領域を差異領域として検出することで、物体の検知が可能になる。ところが、海、砂漠、草原、空等の自然の風景の場合、検知対象である物体以外の水、砂、草、雲なども動いている。このため、これらを直前の画像データと比較して異なっているとして、誤って検知してしまう、という問題があった。
Conventionally, in such a situation, a method of performing comparison with the immediately preceding image data as described in Patent Document 1 has been often employed.
When an object enters the video, the brightness of the object portion in the video data changes. Therefore, an object can be detected by detecting a region having a difference in luminance value in the video as a difference region. However, in the case of natural scenery such as the sea, desert, grassland, and sky, water, sand, grass, clouds, etc. other than the object to be detected are also moving. For this reason, there has been a problem that they are erroneously detected as being different from the previous image data.

この問題を解決する一つの方法として、例えば特許文献2に記載される技術が挙げられる。
特許文献2には、現在の時刻に撮影された画像と、過去に撮影された画像との差分値を作成し、閾値処理によって二値化する。その際に、過去の差分値の累積結果を基に閾値を変動させた背景画像を作成する。こうして、背景画像中に存在する木や水面による揺らぎの誤検出の低減を試みている。
しかしながら、この技術では、木の揺らぎ等による輝度値の変化が大きいときには、閾値が大きくなりすぎる場合が十分考えられる。そのような場合、肝心の侵入者等が侵入してきたときに検出漏れが生じてしまう虞がある。
One method for solving this problem is, for example, the technique described in Patent Document 2.
In Patent Document 2, a difference value between an image taken at the current time and an image taken in the past is created and binarized by threshold processing. At that time, a background image in which the threshold value is changed is created based on the accumulated result of past difference values. In this way, attempts are made to reduce false detection of fluctuations caused by trees and water existing in the background image.
However, with this technique, when the change in the luminance value due to the fluctuation of the tree or the like is large, the case where the threshold value is too large is considered. In such a case, there is a possibility that a detection omission may occur when an important intruder or the like enters.

本発明はかかる点に鑑みてなされたものであり、海、砂漠、草原等、主に自然現象等によって撮影画像に揺らぎが生じるような場所を監視対象とする監視カメラによって得られる画像データから、不審者或は不審物等の侵入を安定して行うことのできる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above points, and from image data obtained by a monitoring camera that monitors a place where a photographed image fluctuates mainly due to a natural phenomenon or the like, such as a sea, a desert, or a grassland. It is an object of the present invention to provide an image processing apparatus capable of stably entering a suspicious person or a suspicious object.

上記課題を解決するための本発明は、入力画像データを一旦保存した後、均等な領域に分割し、分割領域毎に特徴量を算出する。その特徴量算出によって得られた特徴量と、所定の値との距離を計算し、得られた距離に基づいて背景か否かを決定する。そして、その決定によって得られた判定結果に基づいて、不審物等の存在の有無を出力する。   In the present invention for solving the above-described problem, after the input image data is temporarily stored, the input image data is divided into equal areas, and a feature amount is calculated for each divided area. The distance between the feature value obtained by the feature value calculation and a predetermined value is calculated, and it is determined whether or not the background is based on the obtained distance. And based on the determination result obtained by the determination, the presence or absence of a suspicious object etc. is output.

発明者は、海のような自然の風景は一定の規則性を持ちながら動く撮影対象に対して背景と不審物等を判別するには、従来技術において周知の、直前の画像データとの比較による方法は不適当であると判断した。そこで、発明者は入力された画像データのみを用いて背景と不審物等を判別する技術を模索した。その結果、背景と不審物等の判別のための技術として、画像データを所定の領域に分割し、その領域毎に特徴量を計算し、これを所定の値との距離を計算することを思いついた。
仮に、画像データ全体が背景であるならば、その画像データを分割しても、それぞれの分割領域の特徴量は殆ど変わらない。この技術思想による画像処理方法であれば、海や空など、自然現象によって生じる変化があっても、これを含めて一定の特徴を有する背景と判別することができる。
The inventor can compare the background and the suspicious object, etc. with respect to the object to be photographed while the natural scenery such as the sea has a certain regularity by comparison with the immediately preceding image data known in the prior art. The method was judged to be inappropriate. Therefore, the inventor sought a technique for discriminating a background from a suspicious object using only input image data. As a result, as a technique for discriminating between the background and the suspicious object, etc., the idea was to divide the image data into predetermined areas, calculate feature values for each area, and calculate the distance from this value. It was.
If the entire image data is the background, even if the image data is divided, the feature amounts of the respective divided areas hardly change. With the image processing method based on this technical idea, even if there is a change caused by a natural phenomenon such as the sea or sky, it can be determined that the background has a certain characteristic including this.

本発明により、特に海や草原等の、一定の揺らぎを伴う風景を監視する監視装置において、海の波や空の雲などの自然現象も誤認識せずに背景と認識できる、優れた画像処理装置を提供できる。   According to the present invention, particularly in a monitoring device that monitors a landscape with a certain fluctuation, such as the sea or grassland, excellent image processing that can recognize a natural phenomenon such as a sea wave or a cloud in the sky as a background without erroneous recognition. Equipment can be provided.

以下、本発明の実施の形態を、図1〜図21を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS.

[1.実施形態の概略]
図1は、本発明の実施形態の共通概念よりなる、監視装置の全体ブロック図である。図1(a)は実際の装置の中身に即したブロック図であり、図1(b)は機能を中心に見た仮想的なブロック図である。
図1(a)において、監視装置101は撮像カメラ102から得られる画像データから不審物の存在の有無を検出し、不審物の有無を知らせる二値信号(アラーム出力)か、または所定の処理を施した画像信号を出力するものである。撮像カメラ102は例えばCCD撮像素子等からなる、画像信号を出力する周知のカメラである。出力される画像信号は、例えばHDD等の大容量ストレージや、通信回線等で他のホスト装置へ送出される。
監視装置101は主にマイクロコンピュータよりなる。マイクロコンピュータを構成するCPU103、ROM104、RAM105とバス106は、撮像カメラ102から得られる画像データに所定の処理を行って、出力インターフェース107を通じて所定の信号等を出力する。
なお、図1(a)の構成は、この後詳述する各実施形態全てに共通の構成である。
[1. Outline of Embodiment]
FIG. 1 is an overall block diagram of a monitoring device that is a common concept of the embodiment of the present invention. FIG. 1A is a block diagram corresponding to the contents of an actual device, and FIG. 1B is a virtual block diagram focusing on functions.
In FIG. 1A, the monitoring apparatus 101 detects the presence / absence of a suspicious object from image data obtained from the imaging camera 102, and performs a binary signal (alarm output) to notify the presence / absence of a suspicious object or a predetermined process. The applied image signal is output. The imaging camera 102 is a well-known camera that outputs an image signal, for example, composed of a CCD imaging device or the like. The output image signal is sent to another host device via a large-capacity storage such as an HDD or a communication line.
The monitoring device 101 is mainly composed of a microcomputer. The CPU 103, ROM 104, RAM 105 and bus 106 constituting the microcomputer perform predetermined processing on the image data obtained from the imaging camera 102 and output a predetermined signal or the like through the output interface 107.
The configuration shown in FIG. 1A is a configuration common to all the embodiments described in detail later.

図1(b)において、実体がRAM105である画像保存部112と、RAM105或はROM104等よりなる所定値115を除いて、各部はマイクロコンピュータ上にて実行されるソフトウェアプログラムである。これらソフトウェアはROM104に格納されている。
撮像カメラ102から得られる画像信号は、入力静止画像データとして画像保存部112に保存される。
領域分割部113は画像保存部112内の入力静止画像データに対し、均等な面積と形状を備える矩形状の分割領域を与える。
特徴量算出部114は、領域分割部113によって分割された画像保存部112内の入力静止画像データの各領域毎に、特徴量データを作成する。
所定値115は、特徴量算出部114によって得られた特徴量データ或はこれに基づく所定のデータの比較対象を提供する。そして、距離計算部116は特徴量算出部114によって得られた特徴量データ或はこれに基づく所定のデータと、所定値115との距離の計算を行う。
距離計算部116の演算結果は、二値のアラーム、或は画像データとしてストレージやネットワーク等に出力される。
なお、図1(b)の構成は、この後詳述する各実施形態全てに共通の概念である。
In FIG. 1B, each unit is a software program executed on a microcomputer except for an image storage unit 112, which is a RAM 105, and a predetermined value 115 including a RAM 105 or a ROM 104. These software are stored in the ROM 104.
An image signal obtained from the imaging camera 102 is stored in the image storage unit 112 as input still image data.
The area dividing unit 113 gives a rectangular divided area having an equal area and shape to the input still image data in the image storage unit 112.
The feature amount calculation unit 114 creates feature amount data for each region of the input still image data in the image storage unit 112 divided by the region division unit 113.
The predetermined value 115 provides feature amount data obtained by the feature amount calculation unit 114 or a comparison target of predetermined data based on the feature amount data. Then, the distance calculation unit 116 calculates the distance between the feature value data obtained by the feature value calculation unit 114 or predetermined data based thereon and the predetermined value 115.
The calculation result of the distance calculation unit 116 is output to a storage, a network or the like as a binary alarm or image data.
The configuration in FIG. 1B is a concept common to all the embodiments described in detail later.

ここで特徴量とは、画像の模様、或は質感である。一般的な描画ソフトウェア等において「テクスチャ(texture)」と呼ばれるものとほぼ同義である。
草原であれば、緑色の濃淡が斜め方向に放物線状に多数存在する。
穏やかな海面であれば、濃青色を基調として、日光を反射する水平線に平行な細かい模様や、波しぶき等の白色の部分が一面に多数存在する。
これら自然の風景は、人工的に作成されたタイル等の、機械的に一定の模様を形成しているものではない。しかし、ランダムなばらつきを有するものの、一定の類似する模様のような特徴を形成していると認められる。草原に波しぶきは存在しないし、穏やかな海面に斜め方向の濃淡は存在しないのである。
これら自然の風景は時刻と共に自然現象によって動く。したがって、従来技術のように単純に時間差を伴う複数の静止画像を比較しただけでは、本来的に背景であるにもかかわらずそれが動いているもの、すなわち不審物であると誤認識してしまう。
本実施形態においては、この「動く背景」に対し、「背景のテクスチャ」を捉えることにより、時間軸上の変化に惑わされず、背景を背景としっかり認識する技術を提供する。
背景のテクスチャ或は背景の模様を捉える、ということは、背景の中に存在する異物の特徴も捉えることができることを意味する。これが特徴量の算出である。
入力画像データを均等な細かい領域に分割し、それぞれの分割領域毎に特徴量を算出する。算出した各々の分割領域毎の特徴量のうち、背景の特徴量から逸脱した値を示すものは、不審物が存在する領域であると判断する。このために、サンプルの特徴量と目的とする分割領域の特徴量がどれだけ似ているか、似ていないかを計算する。これが「距離の計算」である。最終的には、得られた距離を所定の閾値と比較する等して、背景であるか否かを判定する。これは、従来より周知である、単一の画素同士の輝度の差を計算する技術思想の延長である。
以上が、全実施形態における共通の概念である。
特徴量とはどのように得るのか、特徴量同士の距離計算とはどのように行うのかについては、後述する。
Here, the feature amount is a pattern or texture of the image. It is almost synonymous with what is called “texture” in general drawing software.
In the case of grassland, there are many green shades in a parabolic shape in an oblique direction.
If it is a calm sea surface, there are many white parts such as fine patterns parallel to the horizon that reflects sunlight and white parts such as splashes, based on dark blue.
These natural landscapes do not form a mechanically constant pattern, such as artificially created tiles. However, although it has a random variation, it is recognized that a feature like a certain similar pattern is formed. There is no wave splash on the grassland, and there is no diagonal shading on the calm sea surface.
These natural landscapes move with natural phenomena with time. Therefore, simply comparing a plurality of still images with a time difference as in the prior art, it is misrecognized as a moving object, that is, a suspicious object even though it is essentially a background. .
In the present embodiment, a technique for firmly recognizing the background as the background without being confused by the change on the time axis by capturing the “background texture” with respect to the “moving background” is provided.
Capturing a background texture or background pattern means that it can also capture the characteristics of a foreign object present in the background. This is the calculation of the feature amount.
The input image data is divided into equal fine regions, and the feature amount is calculated for each divided region. Of the calculated feature quantities for each divided area, those indicating values deviating from the background feature quantity are determined to be areas where suspicious objects exist. For this purpose, it is calculated how much the feature quantity of the sample is similar to the feature quantity of the target divided region. This is “distance calculation”. Finally, it is determined whether or not the background is obtained by comparing the obtained distance with a predetermined threshold. This is an extension of the technical idea of calculating the luminance difference between single pixels, which is well known in the art.
The above is a common concept in all the embodiments.
How to obtain the feature amount and how to calculate the distance between the feature amounts will be described later.

[2.第1の実施の形態]
これより第1の実施形態を説明する。始めに本実施形態の概略を説明する。本実施形態では、予めサンプルの画像データを与え、そこから背景部分を手作業で指定し、その特徴量を保持しておく。そして、その後装置が本稼動すると入力画像データの分割領域毎に保持している背景サンプルの特徴量データと比較する。
図2は、本発明の第1の実施形態よりなる監視装置のブロック図である。図1(b)の内容に基づくものである。
撮像カメラ102から得られる入力静止画像データは、一旦画像保存部112に保存される。
領域分割部113は入力静止画像データを分割領域毎に細かく分割する。
特徴量算出部114は分割された各々の画像データの特徴量計算を行う。
一方、背景特徴量保存部202は、予め操作者の操作によって特定された背景領域の特徴量を保存している。
距離計算部116は、特徴量算出部114から得られる各分割領域毎の特徴量と、背景特徴量保存部202内に保存されている背景特徴量との距離を計算する。距離計算部116による距離計算の結果、背景でないと判断された分割領域は、不審物が存在するものと判断し、アラーム出力をする。
[2. First Embodiment]
The first embodiment will now be described. First, an outline of the present embodiment will be described. In the present embodiment, sample image data is given in advance, a background portion is designated manually from the sample image data, and the feature amount is held. After that, when the apparatus is in full operation, it is compared with the feature quantity data of the background sample held for each divided area of the input image data.
FIG. 2 is a block diagram of the monitoring apparatus according to the first embodiment of the present invention. This is based on the content of FIG.
Input still image data obtained from the imaging camera 102 is temporarily stored in the image storage unit 112.
The area dividing unit 113 finely divides the input still image data for each divided area.
The feature amount calculation unit 114 calculates the feature amount of each divided image data.
On the other hand, the background feature amount storage unit 202 stores the feature amount of the background area specified in advance by the operation of the operator.
The distance calculation unit 116 calculates the distance between the feature amount for each divided region obtained from the feature amount calculation unit 114 and the background feature amount stored in the background feature amount storage unit 202. As a result of the distance calculation by the distance calculation unit 116, it is determined that a suspicious object exists in the divided area determined not to be the background, and an alarm is output.

背景特徴量保存部202には、表示部203と入力部204が接続されている。
表示部203は例えばLCD等の、周知のディスプレイ装置である。
入力部204は例えばマウス等の、周知のポインティングデバイスである。
背景特徴量保存部202は、サンプルとなる背景の特徴量を保存するものである。本装置の本稼動の前に、予めサンプルとなる入力画像データを表示部203にて表示し、そこに入力部204によって背景を取得する範囲を入力する。そして、特徴量算出部114にて特徴量を算出し、これを保存する。
A display unit 203 and an input unit 204 are connected to the background feature quantity storage unit 202.
The display unit 203 is a known display device such as an LCD.
The input unit 204 is a known pointing device such as a mouse.
The background feature amount storage unit 202 stores a background feature amount as a sample. Prior to the actual operation of this apparatus, input image data as a sample is displayed on the display unit 203 in advance, and a range for acquiring a background is input thereto by the input unit 204. And the feature-value calculation part 114 calculates a feature-value, and preserve | saves this.

図3(a)、(b)及び(c)は、入力画像データを例示して第1の実施形態による監視装置の動作の概略を示すイメージ図である。
図3(a)において、入力画像データとして、海302と空303と不審物である船304を含む画像データ301がある。これは画像保存部112に保存されている。
図3(b)において、背景特徴量保存部202では、操作者の操作により、入力画像データを表示部203にて表示し、入力部204にて背景部分を囲む。図3(a)の点線で囲まれている範囲が、操作者による入力部204の操作によって入力された背景部分領域である。この領域を、特徴量算出部114にて算出し、背景特徴量保存部202に保存しておく。図3(a)では、空の部分と海の部分とで二つの背景サンプルB(1)とB(2)が保存されている。
図3(c)において、入力画像データは領域分割部113にて細かく分割され、それぞれの領域に対して特徴量算出部114が特徴量を算出する。図3(c)では、S(1)〜S(25)迄の25個の分割領域が設けられている。
距離計算部116は、背景サンプルと分割領域の距離を計算する。この計算は一つずつ順番に行われる。つまり、
背景サンプルB(1)と分割領域S(1)との距離を計算し、
背景サンプルB(2)と分割領域S(1)との距離を計算し、
背景サンプルB(1)と分割領域S(2)との距離を計算し、
背景サンプルB(2)と分割領域S(2)との距離を計算し、
という演算作業を順番に行い、最後に
背景サンプルB(1)と分割領域S(25)との距離を計算し、
背景サンプルB(2)と分割領域S(25)との距離を計算して終了する。
FIGS. 3A, 3B, and 3C are image diagrams illustrating an outline of the operation of the monitoring apparatus according to the first embodiment by exemplifying input image data.
In FIG. 3A, as input image data, there is image data 301 including a sea 302, a sky 303, and a ship 304 that is a suspicious object. This is stored in the image storage unit 112.
In FIG. 3B, the background feature quantity storage unit 202 displays input image data on the display unit 203 by the operation of the operator, and surrounds the background portion with the input unit 204. A range surrounded by a dotted line in FIG. 3A is a background partial region input by the operation of the input unit 204 by the operator. This area is calculated by the feature amount calculation unit 114 and stored in the background feature amount storage unit 202. In FIG. 3A, two background samples B (1) and B (2) are stored in the sky part and the sea part.
In FIG. 3C, the input image data is finely divided by the region dividing unit 113, and the feature amount calculating unit 114 calculates the feature amount for each region. In FIG. 3C, 25 divided areas S (1) to S (25) are provided.
The distance calculation unit 116 calculates the distance between the background sample and the divided area. This calculation is performed one by one. That means
Calculate the distance between the background sample B (1) and the divided area S (1),
Calculate the distance between the background sample B (2) and the divided area S (1),
Calculate the distance between the background sample B (1) and the divided area S (2),
Calculate the distance between the background sample B (2) and the divided area S (2),
In order, the distance between the background sample B (1) and the divided area S (25) is calculated.
The distance between the background sample B (2) and the divided area S (25) is calculated, and the process ends.

図4と図5と図6にて、これら動作をより詳細に説明する。
図4は、第1の実施形態にかかる監視装置の、実稼動に先立つ前処理を示すフローチャートである。
処理を開始すると(S401)、サンプルとなる入力静止画像データをRAMに取り込む(S402)。
次に、入力静止画像データを表示部203にて表示する(S403)。
操作者はこれを目視で確認しながら、入力部204を操作して背景領域のアドレス範囲を入力する(S404)。
入力が確定されると、指定されたアドレス範囲をRAM等に保存する(S405)。
そして、サンプルの入力静止画像データから指定されたアドレス範囲のピクセルを抜き出し、特徴量を算出し、保存し(S406)、終了する(S407)。
These operations will be described in more detail with reference to FIGS.
FIG. 4 is a flowchart illustrating pre-processing prior to actual operation of the monitoring apparatus according to the first embodiment.
When the process is started (S401), sample input still image data is taken into the RAM (S402).
Next, the input still image data is displayed on the display unit 203 (S403).
While confirming this visually, the operator operates the input unit 204 to input the address range of the background area (S404).
When the input is confirmed, the designated address range is stored in a RAM or the like (S405).
Then, the pixel in the designated address range is extracted from the sample input still image data, the feature amount is calculated, stored (S406), and the process ends (S407).

図5と図6は、第1の実施形態にかかる監視装置の、実稼動状態を示すフローチャートである。
処理を開始すると(S501)、サンプルとなる入力静止画像データをRAMに取り込む(S502)。
次に、領域分割部113にて分割した各分割領域毎の特徴量を、特徴量算出部114にて算出する(S503)。
これ以降は、算出した各領域毎の特徴量と背景サンプルとの距離を順番に計算する処理である。
最初に変数iを1に初期化する(S504)。変数iは各領域毎の特徴量を特定する変数である。
次に変数jを1に初期化する(S505)。変数jは背景サンプルを特定する変数である。
そして、背景サンプルB(j)と、分割領域特徴量S(i)との距離を計算する(S506)。
次に、距離計算の結果得られた距離を、予め別途保持している閾値と比較する(S507)。距離が閾値以上であれば、フラグ変数f(i)を1に上げる(S508)。フラグ変数f(i)は、分割領域と同じ数だけ設けられている変数であり、1でフラグが上がっているものとされ、0でフラグが下りているものとされる。なお、距離が閾値以上でなければ、フラグf(i)を0に下げる(S509)。
5 and 6 are flowcharts showing an actual operation state of the monitoring apparatus according to the first embodiment.
When the process is started (S501), sample input still image data is taken into the RAM (S502).
Next, the feature amount for each divided region divided by the region dividing unit 113 is calculated by the feature amount calculating unit 114 (S503).
Subsequent processing is processing for sequentially calculating the distance between the calculated feature amount for each region and the background sample.
First, the variable i is initialized to 1 (S504). The variable i is a variable that specifies a feature amount for each region.
Next, the variable j is initialized to 1 (S505). The variable j is a variable that specifies the background sample.
Then, the distance between the background sample B (j) and the divided region feature S (i) is calculated (S506).
Next, the distance obtained as a result of the distance calculation is compared with a threshold value separately held in advance (S507). If the distance is equal to or greater than the threshold, the flag variable f (i) is increased to 1 (S508). The flag variable f (i) is a variable provided in the same number as that of the divided areas. The flag is raised by 1 and the flag is lowered by 0. If the distance is not greater than or equal to the threshold, the flag f (i) is lowered to 0 (S509).

次に、変数jが最大値に達したか否かを検証する(S610)。図4の場合であれば、背景サンプルは二つなので、jが2に達したか否かを見ることとなる。jが最大値であれば、全ての背景サンプルと現在検証対象としている分割領域との距離の計算が終わったことになるので、変数iをインクリメントする(S611)。つまり、次の分割領域の評価に移行する。jが最大値でなければ、まだ距離の計算が残っている背景サンプルがあるので、jをインクリメントする(S612)。
フラグを下ろした後、変数iを検証する(S613)。検証の結果、最大値でなければ、iをインクリメントする(S614)。これは、フラグを下ろした、ということは、距離計算による検証の結果、当該分割領域が背景であるものと判断されたことに因る。図4の例では、最初に空の背景サンプルとの距離を計算した結果、それが空であるものと判断されたら、次に海の背景サンプルとの距離を計算する必要はない。このため、次の背景サンプルとの距離計算処理をスキップするためにこの処理を行うものである。
変数iが最大値に達していれば、全ての分割領域に対して距離計算が終了したことを意味する。そこで、フラグ変数f(i)を全て見て、フラグが上がっている変数があるか否かを検証する(S615)。
検証の結果、フラグが全く上がっていなければ、全ての分割領域は背景であり、不審物は存在しないと判断できる。
逆に検証の結果、フラグが一つでも上がっているものがあれば、当該分割領域は背景ではなく、不審物はそこに存在するものと判断できる。
不審物の存在が認められたら、アラームを出力して(S616)、終了する(S617)。
Next, it is verified whether or not the variable j has reached the maximum value (S610). In the case of FIG. 4, since there are two background samples, it is checked whether j has reached 2. If j is the maximum value, the calculation of the distances between all the background samples and the divided region currently being verified is completed, so the variable i is incremented (S611). That is, the process proceeds to the evaluation of the next divided area. If j is not the maximum value, there is a background sample for which distance calculation still remains, so j is incremented (S612).
After the flag is lowered, the variable i is verified (S613). If it is not the maximum value as a result of the verification, i is incremented (S614). This is because the flag is lowered because it is determined that the divided area is the background as a result of the verification by the distance calculation. In the example of FIG. 4, if it is determined that the distance from the sky background sample is empty first, it is not necessary to calculate the distance from the sea background sample next. For this reason, this process is performed in order to skip the distance calculation process with the next background sample.
If the variable i reaches the maximum value, it means that the distance calculation has been completed for all the divided areas. Therefore, all flag variables f (i) are checked to verify whether there is a variable whose flag is raised (S615).
As a result of the verification, if the flag is not raised at all, it can be determined that all the divided areas are the background and there is no suspicious object.
On the other hand, as a result of the verification, if even one of the flags is raised, it can be determined that the divided area is not the background and the suspicious object exists there.
If the presence of a suspicious object is recognized, an alarm is output (S616) and the process is terminated (S617).

本実施形態においては、予め背景のサンプルを手作業で指定する。このため、背景の特徴量が変化すると、これに追従できない、という欠点がある。例えば海を監視する場合においては、海が天候によって荒れたり、撮像カメラ102が撮影角度を移動したりして空と海との配置関係が変わったりすると、誤認識を引き起こしてしまうだろう。
しかしながら、これら特徴を十分に把握した上で、適切な監視対象に対して適切な設置を行えば、本実施形態は十分にその機能を発揮し得る。背景特徴量があまり変わらない監視対象であったり、撮像カメラ102を固定して運用する場合、あるいは背景特徴量が変わった際に再度背景サンプルを入力し直してもよいような場合には、この方法を用いてもよい。
In the present embodiment, a background sample is designated manually in advance. For this reason, there is a drawback in that if the background feature value changes, it cannot follow this. For example, in the case of monitoring the sea, if the sea is rough due to the weather, or if the imaging camera 102 moves the shooting angle and the positional relationship between the sky and the sea changes, a misrecognition will occur.
However, if these features are sufficiently grasped and an appropriate installation is performed for an appropriate monitoring target, the present embodiment can sufficiently exhibit its functions. If the background feature value is a monitoring target that does not change much, or if the imaging camera 102 is fixed or operated, or if the background feature value may be changed, the background sample may be input again. A method may be used.

ところで、分割領域の大きさをどう決定するかは、監視対象によって若干異なる。例えば、複雑な模様を形成する背景に対してあまり小さ過ぎる分割領域を設定しても、特徴量を適切に演算できるとはいえない。しかし、検出したい不審物の大きさが小さい場合には、あまり大き過ぎる分割領域を設定しても、得られる特徴量にその変化が現れ難くなってしまう。したがって、最適な分割領域面積は監視対象に応じて変更する必要がある。このため、監視装置を実稼動させる前に予め試験的に分割領域面積を変更しながら試験運転を行い、最適値を決定するとよいだろう。   By the way, how to determine the size of the divided region is slightly different depending on the monitoring target. For example, even if a too small divided area is set for the background forming a complex pattern, it cannot be said that the feature amount can be calculated appropriately. However, when the size of the suspicious object to be detected is small, even if a too large divided region is set, the change is hardly caused in the obtained feature amount. Therefore, it is necessary to change the optimum divided area according to the monitoring target. For this reason, it is advisable to perform a test operation while changing the divided area area on a trial basis in advance to determine the optimum value before actually operating the monitoring device.

以上に説明したことをまとめる。
本実施形態の監視装置201は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置201に入力されると、これを画像保存部112(実体はRAM105)内に保存する。その領域分割部113にて均等な面積形状に分割された後、特徴量算出部114にて特徴量データを分割領域毎に作成する。次に、得られた特徴量データを、予め手入力により範囲を設定され、演算処理後保持されている所定値115との距離を計算し、得られた「距離」を所定の閾値と比較する。閾値に満たない距離の領域は、背景であるものと判断する。そして、背景と判断された分割領域を示すフラグを下ろす。
以上の処理により、入力静止画像データから特徴量演算と距離計算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring apparatus 201 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring apparatus 201, the input still image data is stored in the image storage unit 112 (actually, the RAM 105). After being divided into equal area shapes by the area dividing unit 113, the feature amount calculating unit 114 creates feature amount data for each divided region. Next, the range of the obtained feature data is set in advance by manual input, the distance from the predetermined value 115 held after the arithmetic processing is calculated, and the obtained “distance” is compared with a predetermined threshold value. . A region having a distance less than the threshold is determined to be the background. Then, the flag indicating the divided area determined to be the background is lowered.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the distance calculation.

[2.1.特徴量演算方法]
ここで、特徴量の演算方法を説明する。
特徴量とは、一定の範囲の画像データを読み込み、その画像データに現れている特長を数値化したものである。
画像データの特徴とは様々なものが考えられる。色度、彩度、模様等多岐に渡る。したがって、単一のスカラ量であることはあり得ず、沢山の要素よりなる行列で表される。
図7(a)、(b)及び(c)は本発明にて説明する全ての実施形態に共通に利用可能である特徴量演算方法の一つ、色ヒストグラムを説明する概略図である。
図7(a)は入力画像データのサンプルを示す。入力画像データ701には、海702が全体に広がっており、その中に不審物である船703が存在する。不審物は黒色のピクセルよりなる。
図7(b)は図7(a)に示した入力画像データのサンプルのうち、海の部分を拡大したものを示す。海702には波しぶき704が生じている。海水705の部分は青色のピクセルにて、波しぶき704の部分は白色のピクセルにてなる。
図7(c)は全ての色成分を行列にしたものである。図7(a)の入力画像データに存在する各ピクセルを、この行列706に該当する箇所の要素に一つずつ加算していく。すると、波しぶきを表現する白色の領域707と、海水を表現する青色の領域708と、不審物である船を表現する黒色の領域709に累積点が集中する。つまり、この三箇所において、周知のガウス曲面のような曲面が形成されるものと思っていただければよいだろう。
以上説明したように、色ヒストグラムは、カラー画像データ中の各ピクセル毎に、色の出現頻度を計数したものである。画像を構成する色の粒をばらばらにして、同じ色素毎にかき集めたと考えても良いだろう。このため、生成したデータには模様の概念が失われることとなる。
[2.1. Feature value calculation method]
Here, a method of calculating the feature amount will be described.
The feature value is obtained by reading image data in a certain range and digitizing features appearing in the image data.
Various features of image data can be considered. Wide range of chromaticity, saturation, and pattern. Therefore, it cannot be a single scalar quantity, and is represented by a matrix composed of many elements.
FIGS. 7A, 7B, and 7C are schematic diagrams for explaining a color histogram, which is one of feature amount calculation methods that can be commonly used in all the embodiments described in the present invention.
FIG. 7A shows a sample of input image data. In the input image data 701, the sea 702 extends over the whole, and a suspicious ship 703 exists therein. Suspicious objects consist of black pixels.
FIG. 7B shows an enlarged portion of the sea portion of the input image data sample shown in FIG. Waves 704 are generated in the sea 702. The seawater 705 portion is a blue pixel and the wave splash 704 portion is a white pixel.
FIG. 7C shows all color components in a matrix. Each pixel existing in the input image data in FIG. 7A is added to the elements corresponding to the matrix 706 one by one. Then, the accumulated points are concentrated in a white region 707 that expresses splashes, a blue region 708 that expresses seawater, and a black region 709 that expresses a suspicious ship. In other words, you should think that a curved surface such as a well-known Gaussian surface is formed at these three locations.
As described above, the color histogram is obtained by counting the color appearance frequency for each pixel in the color image data. You may think that the color particles that make up the image are scattered and collected for the same pigment. For this reason, the pattern concept is lost in the generated data.

図8(a)、(b)、(c)及び(d)は本発明にて説明する全ての実施形態に共通に利用可能である特徴量演算方法の一つ、周波数解析を説明する概略図である。
図8(a)は、入力画像データの一部801を示す。これは図7(b)で示したものと同じ、入力画像データのサンプルのうち、海の部分を拡大したものを示す。更に、図8(b)はその一部分を更に拡大して、波しぶきの一部を示す。波しぶきに該当するピクセルは明るく、海水に該当するピクセルは暗い。この、各ピクセル802の輝度を取得する。
図8(c)は、入力画像データを構成する各ピクセルの明度を左側から右側へ順番にプロットしたものの一例を示す。海水に該当する箇所は輝度が低く、波しぶきに該当する箇所は輝度が高いことがわかる。そして、このようにして得られる図形を、あたかも信号のようにみなし、その周波数成分を解析するのが、周波数解析である。
図8(d)は、その周波数解析の結果の一例を示す。図8(c)でプロットした波形をフーリエ解析し、横軸に周波数、縦軸にレベルを取る。最終的には、このようにして得られたデータを行列とする。つまり、画像データの輝度を波形化したものの周波数成分よりなる行列である。
以上説明したように、周波数解析は、画像データ中の各ピクセル毎に、輝度の変化を波形と見立てて周波数成分を分析すべく、フーリエ変換したものである。このため、濃淡のパターン、転じて所定の模様のパターンが周波数成分となって表現されることとなる。
FIGS. 8A, 8B, 8C, and 8D are schematic diagrams illustrating frequency analysis, which is one of feature amount calculation methods that can be commonly used in all the embodiments described in the present invention. It is.
FIG. 8A shows a part 801 of input image data. This is the same as that shown in FIG. 7 (b), but shows an enlarged portion of the sea among the samples of input image data. Further, FIG. 8B further enlarges a part thereof to show a part of the wave splash. Pixels corresponding to wave splash are bright and pixels corresponding to seawater are dark. The brightness of each pixel 802 is acquired.
FIG. 8C shows an example in which the brightness of each pixel constituting the input image data is plotted in order from the left side to the right side. It can be seen that the portion corresponding to seawater has low luminance, and the portion corresponding to wave splash has high luminance. Then, the frequency analysis is to treat the figure obtained in this way as if it were a signal and analyze the frequency component.
FIG. 8D shows an example of the result of the frequency analysis. The waveform plotted in FIG. 8C is subjected to Fourier analysis, and the horizontal axis represents frequency and the vertical axis represents level. Finally, the data obtained in this way is used as a matrix. That is, it is a matrix composed of frequency components of the waveform of the luminance of the image data.
As described above, the frequency analysis is a Fourier transform for each pixel in the image data in order to analyze the frequency component by regarding the change in luminance as a waveform. For this reason, a shading pattern, in turn, a pattern of a predetermined pattern is expressed as a frequency component.

図9は、同時生起確率行列の概要を説明するための図である。
図9(a)において、P1とP2は画像データ中の任意の二つのピクセルである。ピクセルP1からピクセルP2へは、距離rと角度θだけ離れている。このrとθを相対位置関数δとする。δ=(r,θ)と表す。
図9(b)において、δ1=(1,0°)である場合、ピクセルP1に対してピクセルP2は隣り合う次のピクセルを指し示す。
図9(c)において、δ1=(1,90°)である場合、ピクセルP1に対してピクセルP2は隣り合う真上のピクセルを指し示す。
同時生起確率行列は、この一定の相対位置関数δだけ離れている二点のピクセルの輝度の組み合わせを、輝度を要素数とする正方行列に加算する仕組みである。
FIG. 9 is a diagram for explaining the outline of the co-occurrence probability matrix.
In FIG. 9A, P1 and P2 are any two pixels in the image data. The pixel P1 is separated from the pixel P2 by a distance r and an angle θ. Let r and θ be the relative position function δ. δ = (r, θ).
In FIG. 9B, when δ1 = (1,0 °), the pixel P2 indicates the next adjacent pixel with respect to the pixel P1.
In FIG. 9C, when δ1 = (1, 90 °), the pixel P2 indicates the adjacent pixel immediately above the pixel P1.
The co-occurrence probability matrix is a mechanism that adds a combination of the luminances of two pixels separated by a certain relative position function δ to a square matrix having luminance as the number of elements.

図10に、説明のために簡素化した画像データと簡素化した同時生起確率行列を示す。
図10(a)において、4×4の16ピクセルよりなる画像データ内の各ピクセルは、0〜3迄の4段階の輝度を有する。
図10(b)は、4段階の輝度よりなる4×4の正方行列である同時生起確率行列である。ここで、相対位置関数δ=(r,θ)=(1,0°)の関係にて、図10(a)の画像データから同時生起確率行列を作成する手順を以下に示す。
図10(a)の(x,y)=(0,0)をピクセルP1とすると、ピクセルP2は(x,y)=(1,0)となる。このとき、ピクセルP1の輝度iは0、ピクセルP2の輝度jは0である。したがって、(i,j)=(0,0)に1を加える。更に、往復カウントを行うので、(i,j)=(0,0)に1を加える。
図10(a)の(x,y)=(1,0)をピクセルP1とすると、ピクセルP2は(x,y)=(2,0)となる。このとき、ピクセルP1の輝度iは0、ピクセルP2の輝度jは1である。したがって、(i,j)=(0,1)に1を加える。更に、往復カウントを行うので、(i,j)=(1,0)に1を加える。
以上のように、相対位置関数δだけ離れている各ピクセルの輝度の組み合わせに相当する行列の要素をカウントアップする動作を、全てのピクセルに対して行う。つまり、この正方行列は、二つのピクセルの輝度の組み合わせの出現回数を示す、カウンタの行列である。
なお、往復カウントをするか否かは設計者の任意である。
FIG. 10 shows simplified image data and a simplified co-occurrence probability matrix for explanation.
In FIG. 10A, each pixel in the image data composed of 4 × 4 16 pixels has four levels of brightness from 0 to 3.
FIG. 10B is a co-occurrence probability matrix which is a 4 × 4 square matrix having four levels of luminance. Here, a procedure for creating a co-occurrence probability matrix from the image data of FIG. 10A in the relationship of relative position function δ = (r, θ) = (1,0) is shown below.
When (x, y) = (0, 0) in FIG. 10A is the pixel P1, the pixel P2 is (x, y) = (1, 0). At this time, the luminance i of the pixel P1 is 0, and the luminance j of the pixel P2 is 0. Therefore, 1 is added to (i, j) = (0,0). Furthermore, since round trip counting is performed, 1 is added to (i, j) = (0, 0).
If (x, y) = (1, 0) in FIG. 10A is the pixel P1, the pixel P2 is (x, y) = (2, 0). At this time, the luminance i of the pixel P1 is 0, and the luminance j of the pixel P2 is 1. Therefore, 1 is added to (i, j) = (0,1). Furthermore, since round trip counting is performed, 1 is added to (i, j) = (1, 0).
As described above, the operation of counting up the elements of the matrix corresponding to the combination of the luminance of each pixel separated by the relative position function δ is performed for all the pixels. That is, this square matrix is a matrix of counters indicating the number of appearances of the combination of the luminance values of two pixels.
Note that it is up to the designer to perform a round-trip count.

同時生起確率行列はその性質上、相対位置関数を複数取って、それぞれに複数の行列を生成することが望まれる。画像を構成する模様が水平や垂直とは限らないからである。最低でも縦と横の相対位置関数は取ることが望ましい。   Due to the nature of the co-occurrence probability matrix, it is desired to take a plurality of relative position functions and generate a plurality of matrices for each. This is because the pattern constituting the image is not always horizontal or vertical. It is desirable to take at least the vertical and horizontal relative position functions.

これら特徴量演算方法により、沢山の数値データよりなる行列よりなる特徴量が、入力画像データの分割領域毎に作成される。
得られた特徴量を、予め保持している所定のサンプル値や他の特徴量と比較して、「距離」を算出する。この演算を特徴量距離計算といい、後述する。
なお、以上に例示列挙した特徴量演算方法のいずれを採用するかは、得られる特徴量の精度と演算量とのトレードオフにて、設計者が決定する。
By these feature amount calculation methods, feature amounts composed of a matrix composed of a large number of numerical data are created for each divided region of the input image data.
A “distance” is calculated by comparing the obtained feature quantity with a predetermined sample value or other feature quantity held in advance. This calculation is called feature amount distance calculation, which will be described later.
Note that the designer determines which of the feature quantity calculation methods listed above is adopted based on a trade-off between the accuracy of the obtained feature quantity and the calculation quantity.

[2.2.特徴量距離計算方法]
以上説明した特徴量演算方法により、入力画像データの分割領域毎に特徴量が作成される。これらは全て沢山の数値データよりなる行列である。
行列データ同士を比較するにはどうするか。ここで、求めたい値とは、二つの行列データの類似度である。前述の第1の実施形態にあっては、サンプル背景データの特徴量を構成する行列データと、分割領域の特徴量を構成する行列データである。
行列データの類似度を得るための方法は従来より様々な方法知られている。以下に例示列挙する。
(1)行列の各要素毎に差を取り、得られた行列の各要素の総和を取る方法(SAD: Sum of Absolute Difference)。
(2)行列の各要素毎に差を取り、得られた行列の各要素を二乗し、その後各要素の総和を取る方法(SSD: Sum of Squared Difference)。
(3)行列の各要素をベクトルの成分として捉え、行列同士の内積を取る方法。すなわち、行列の各要素同士の積を取り、得られた行列の各要素の総和を取る方法(内積: Normalization)。
[2.2. Feature distance calculation method]
With the feature amount calculation method described above, a feature amount is created for each divided region of the input image data. These are all matrices consisting of a lot of numerical data.
How to compare matrix data Here, the value to be obtained is the similarity between the two matrix data. In the first embodiment described above, the matrix data constituting the feature amount of the sample background data and the matrix data constituting the feature amount of the divided area.
Various methods for obtaining the similarity of matrix data are conventionally known. Examples are listed below.
(1) A method of taking the difference for each element of the matrix and taking the sum of each element of the obtained matrix (SAD: Sum of Absolute Difference).
(2) A method of taking a difference for each element of the matrix, squaring each element of the obtained matrix, and then summing each element (SSD: Sum of Squared Difference).
(3) A method of taking each element of a matrix as a vector component and taking an inner product of the matrices. That is, a method of taking the product of each element of the matrix and taking the sum of each element of the obtained matrix (inner product: Normalization).

これら特徴量の比較演算により、最終的には単一のスカラ値よりなる「距離」が得られる。
得られた距離を予め保持している所定の閾値と比較して、所定の判断を行う。
なお、例示列挙した特徴量距離計算方法のいずれを採用するかは、得られる距離の精度と演算量とのトレードオフにて、設計者が決定する。
By the comparison operation of these feature amounts, a “distance” consisting of a single scalar value is finally obtained.
A predetermined determination is made by comparing the obtained distance with a predetermined threshold that is held in advance.
Note that the designer determines which of the feature quantity distance calculation methods listed as examples is based on a trade-off between the accuracy of the obtained distance and the calculation amount.

以上に述べた特徴量演算方法と特徴量距離計算方法は、前述の第1の実施形態、そして後述する第2、第3、第4、第5の全ての実施形態において共通に選択して利用可能な技術である。すなわち、いずれの実施形態においても、特徴量演算方法として色ヒストグラム、周波数解析、同時生起確率行列のいずれを採用してもよいし、特徴量距離計算方法としてSAD、SSD、内積のいずれを採用してもよい。   The feature amount calculation method and the feature amount distance calculation method described above are selected and used in common in the first embodiment described above and in all second, third, fourth, and fifth embodiments described later. It is a possible technology. That is, in any embodiment, any of color histogram, frequency analysis, and co-occurrence probability matrix may be adopted as the feature amount calculation method, and any of SAD, SSD, and inner product is adopted as the feature amount distance calculation method. May be.

[3.第2の実施の形態]
図11は、本発明の第2の実施形態よりなる監視装置のブロック図である。図1(b)の内容に基づくものである。なお、第1の実施形態を説明した図2と共通の部分については、重複を避けるために説明を割愛する。
第2の実施形態の、第1の実施形態と異なる部分は、背景特徴量保存部202の代わりに平均値保存部1102が設けられている点である。
平均値保存部1102は、特徴量算出部114から得られる各分割領域毎の特徴量の平均値を保存する。
距離計算部116は、特徴量算出部114から得られる各分割領域毎の特徴量と、平均値保存部1102内に保存されている平均値との距離を計算する。距離計算部116による距離計算の結果、背景でないと判断された分割領域は、不審物が存在するものと判断し、アラーム出力をする。
[3. Second Embodiment]
FIG. 11 is a block diagram of a monitoring apparatus according to the second embodiment of the present invention. This is based on the content of FIG. In addition, about the part which is common in FIG. 2 explaining 1st Embodiment, it abbreviate | omits description in order to avoid duplication.
The second embodiment is different from the first embodiment in that an average value storage unit 1102 is provided instead of the background feature amount storage unit 202.
The average value storage unit 1102 stores the average value of feature amounts for each divided region obtained from the feature amount calculation unit 114.
The distance calculation unit 116 calculates the distance between the feature amount for each divided region obtained from the feature amount calculation unit 114 and the average value stored in the average value storage unit 1102. As a result of the distance calculation by the distance calculation unit 116, it is determined that a suspicious object exists in the divided area determined not to be the background, and an alarm is output.

図12(a)、(b)及び(c)は、入力画像データを例示して第2の実施形態による監視装置の動作の概略を示すイメージ図である。
図12(a)において、入力画像データとして、海1202と不審物である船1204を含む画像データ1201がある。
図12(b)において、平均値保存部1102には、特徴量算出部114にて算出された、各分割領域毎の特徴量S(1)〜S(25)の平均値が格納される。つまり、全ての分割領域の特徴量の総和を、分割領域の数で割った値である。
距離計算部116は、平均値と分割領域との距離を計算する。この距離計算は一つずつ順番に行われる。つまり、
平均値Bと分割領域S(1)との距離を計算し、
平均値Bと分割領域S(2)との距離を計算し、
という演算作業を順番に行い、最後に、
平均値Bと分割領域S(25)との距離を計算して終了する。
FIGS. 12A, 12B, and 12C are image diagrams illustrating the outline of the operation of the monitoring apparatus according to the second embodiment by exemplifying input image data.
In FIG. 12A, as input image data, there is image data 1201 including a sea 1202 and a ship 1204 which is a suspicious object.
In FIG. 12B, the average value storage unit 1102 stores the average values of the feature amounts S (1) to S (25) for each divided region, which are calculated by the feature amount calculation unit 114. That is, it is a value obtained by dividing the sum of the feature amounts of all the divided areas by the number of divided areas.
The distance calculation unit 116 calculates the distance between the average value and the divided area. This distance calculation is performed one by one. That means
Calculate the distance between the average value B and the divided area S (1),
Calculate the distance between the average value B and the divided area S (2),
In order, and finally,
The distance between the average value B and the divided area S (25) is calculated, and the process ends.

図13と図14は、第2の実施形態にかかる監視装置の動作を示すフローチャートである。
処理を開始すると(S1301)、サンプルとなる入力静止画像データをRAMに取り込む(S1302)。
次に、領域分割部113にて分割した各分割領域毎の特徴量を、特徴量算出部114にて算出する(S1303)。
そして、得られた全ての各分割領域毎の特徴量から、平均値を算出する(S1304)。
これ以降は、算出した各領域毎の特徴量と平均値との距離を順番に計算する処理である。
最初に変数iを1に初期化する(S1305)。変数iは各領域毎の特徴量を特定する変数である。
そして、平均値Bと、分割領域特徴量S(i)との距離を計算する(S1306)。
次に、距離計算の結果を、予め別途保持している閾値と比較する(S1307)。距離が閾値以上であれば、フラグ変数f(i)を1に上げる(S1308)。フラグ変数f(i)は、分割領域と同じ数だけ設けられている変数であり、1でフラグが上がっているものとされ、0でフラグが下りているものとされる。
13 and 14 are flowcharts illustrating the operation of the monitoring apparatus according to the second embodiment.
When processing is started (S1301), sample input still image data is taken into the RAM (S1302).
Next, the feature amount for each divided region divided by the region dividing unit 113 is calculated by the feature amount calculating unit 114 (S1303).
Then, an average value is calculated from the feature values for all the obtained divided regions (S1304).
From this point onward, the distance between the calculated feature value and the average value for each region is calculated in order.
First, the variable i is initialized to 1 (S1305). The variable i is a variable that specifies a feature amount for each region.
Then, the distance between the average value B and the divided region feature amount S (i) is calculated (S1306).
Next, the result of the distance calculation is compared with a threshold value separately held in advance (S1307). If the distance is greater than or equal to the threshold, the flag variable f (i) is increased to 1 (S1308). The flag variable f (i) is a variable provided in the same number as that of the divided areas. The flag is raised by 1 and the flag is lowered by 0.

次に、変数iを検証する(S1409)。検証の結果、最大値でなければ、iをインクリメントする(S1410)。変数iが最大値に達していれば、全ての分割領域に対して距離計算が終了したことを意味する。そこで、フラグ変数f(i)を全て見て、フラグが上がっている変数があるか否かを検証する(S1411)。
検証の結果、フラグが全く上がっていなければ、全ての分割領域は背景であり、不審物は存在しないと判断できる。
逆に検証の結果、フラグが一つでも上がっているものがあれば、当該分割領域は背景ではなく、不審物はそこに存在するものと判断できる。
不審物の存在が認められたら、アラームを出力し(S1412)、終了する(S1413)。
Next, the variable i is verified (S1409). If it is not the maximum value as a result of the verification, i is incremented (S1410). If the variable i reaches the maximum value, it means that the distance calculation has been completed for all the divided areas. Therefore, all flag variables f (i) are checked to verify whether there is a variable whose flag is raised (S1411).
As a result of the verification, if the flag is not raised at all, it can be determined that all the divided areas are the background and there is no suspicious object.
On the other hand, as a result of the verification, if even one of the flags is raised, it can be determined that the divided area is not the background and the suspicious object exists there.
If the presence of a suspicious object is recognized, an alarm is output (S1412) and the process ends (S1413).

以上に説明したことをまとめる。
本実施形態の監視装置1101は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置1101に入力されると、これを画像保存部112(実体はRAM105)内に保存する。その領域分割部113にて均等な面積形状に分割された後、特徴量算出部114にて特徴量データを分割領域毎に作成する。その後、全分割領域の特徴量データの平均を算出し、平均値保持部1102(実体はRAM105)内に保存する。次に、得られた特徴量データと、平均値保持部1102内の平均値との距離を計算し、この結果得られた距離を所定の閾値と比較する。閾値に満たない距離の領域は、背景であるものと判断する。そして、背景と判断された分割領域を示すフラグを下ろす。
以上の処理により、入力静止画像データから特徴量演算と距離計算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring device 1101 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring device 1101, it is stored in the image storage unit 112 (substantially the RAM 105). After being divided into equal area shapes by the area dividing unit 113, the feature amount calculating unit 114 creates feature amount data for each divided region. Thereafter, the average of the feature amount data of all the divided areas is calculated and stored in the average value holding unit 1102 (the entity is the RAM 105). Next, a distance between the obtained feature amount data and the average value in the average value holding unit 1102 is calculated, and the distance obtained as a result is compared with a predetermined threshold value. A region having a distance less than the threshold is determined to be the background. Then, the flag indicating the divided area determined to be the background is lowered.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the distance calculation.

[4.第3の実施の形態]
図15(a)及び(b)は、本発明の第3の実施形態よりなる監視装置のブロック図である。図1(b)の内容に基づくものである。なお、第2の実施形態を説明した図11と共通の部分については、重複を避けるために説明を割愛する。
図15(a)において、第3の実施形態の、第2の実施形態と異なる部分は、特徴量算出部114と比較部1504との間にクラスタリング処理部1503が設けられ、比較部1504はこのクラスタリング処理部1503と閾値1502とを比較している点である。
クラスタリング処理部1503は、特徴量算出部114から得られる各分割領域毎の特徴量同士の距離を計算し、距離が近いと判断できる分割領域同士、すなわち類似すると判断できる分割領域同士を類似する画像であるとみなしてグルーピング化する、「クラスタリング」という処理を行う。この処理により、各々の類似する分割領域は同じ画像部分に属する集合として分類される。
比較部1504は、クラスタリング処理部1503から得られる各分割領域の集合の要素数と閾値1502とを比較する。比較部1504による比較の結果、背景でないと判断された分割領域の集合は、不審物が存在するものと判断し、アラーム出力をする。
[4. Third Embodiment]
FIGS. 15A and 15B are block diagrams of a monitoring device according to the third embodiment of the present invention. This is based on the content of FIG. In addition, about the part which is common in FIG. 11 explaining 2nd Embodiment, description is omitted in order to avoid duplication.
In FIG. 15A, the third embodiment is different from the second embodiment in that a clustering processing unit 1503 is provided between the feature amount calculation unit 114 and the comparison unit 1504, and the comparison unit 1504 The clustering processing unit 1503 and the threshold 1502 are compared.
The clustering processing unit 1503 calculates the distance between the feature amounts for each of the divided regions obtained from the feature amount calculating unit 114, and images that are similar between the divided regions that can be determined to be close to each other, that is, the divided regions that can be determined to be similar to each other. A process called “clustering” is performed in which grouping is performed assuming that By this processing, each similar divided region is classified as a set belonging to the same image portion.
The comparison unit 1504 compares the number of elements of each divided region set obtained from the clustering processing unit 1503 with a threshold 1502. As a result of the comparison by the comparison unit 1504, the set of divided areas determined not to be the background is determined to have a suspicious object, and an alarm is output.

図15(b)は図15(a)のクラスタリング処理部1503の内部構成を示すブロック図である。
距離計算対象設定部1513は、特徴量算出部114から得られた特徴量1512の、どの特徴量同士を距離計算の対象とするか、決定する。
距離計算部1514は、距離計算対象設定部1513によって選択された二つの特徴量同士の距離を計算する。
比較部1516は、距離計算部1514より得られた距離を、閾値1515と比較する。この比較結果は、二つの領域を併合するか否かの判定に繋がる。
グルーピング処理部1517は、比較部1516の比較結果に応じて、二つの領域を併合し、或は併合せずそのままにする。
以上、一連の処理を通じて、分割領域毎の特徴量は幾つかの類似する特徴量同士の群に分類される。この処理の後、特徴量の群の数を表すデータは、比較部1504にて閾値1502と比較され、背景であるか否かの判定に繋がる。
FIG. 15B is a block diagram showing an internal configuration of the clustering processing unit 1503 of FIG.
The distance calculation target setting unit 1513 determines which feature amounts of the feature amounts 1512 obtained from the feature amount calculation unit 114 are to be distance calculation targets.
The distance calculation unit 1514 calculates the distance between the two feature quantities selected by the distance calculation target setting unit 1513.
The comparison unit 1516 compares the distance obtained from the distance calculation unit 1514 with a threshold value 1515. This comparison result leads to the determination of whether or not to merge the two regions.
The grouping processing unit 1517 merges the two regions according to the comparison result of the comparison unit 1516, or leaves the regions as they are.
As described above, through a series of processes, the feature amounts for each divided region are classified into groups of several similar feature amounts. After this processing, the data representing the number of groups of feature values is compared with the threshold 1502 by the comparison unit 1504, leading to a determination as to whether or not it is the background.

図16(a)、(b)、(c)及び(d)は、入力画像データを例示して第3の実施形態による監視装置の動作の概略を示すイメージ図である。
入力画像データとして、海と不審物である船を含む画像データ1601がある。
クラスタリング処理部1503は、特徴量算出部114にて算出された、各分割領域毎の特徴量S(1)〜S(25)を全て見比べて、類似する領域をまとめる処理を行う。
先ず、図16(a)の、画像データ1601を分割した領域の一番左上の領域S(1)と、その隣の領域S(2)との距離を、距離計算部1514にて計算する。距離計算の結果得られた二つの特徴量の距離を、別途予め用意している閾値1502と比較して、互いの分割領域が類似するものであるか否かを判断する。図16(a)では、領域S(1)とS(2)は両方とも海の部分であるので、その特徴量は類似するため、距離は近い。そこで、同じ模様であるとみなし、一つにまとめる。これが図16(b)に示す処理である。つまり、領域S(1)とS(2)を一つにして、境界線を消去する概念である。
図16(b)から更に隣り合う領域同士の距離計算と、得られた距離と閾値1502との比較による類似判断を進めていく。すなわち、図16(c)に示すように、類似する画像の分割領域の境界線が次々と消去されるイメージである。
最後には、図16(d)に示すように、他の分割領域とは特徴量が大きく異なり、距離が遠いと認められる分割領域S(12)、S(13)及びS(14)が残る。これが、不審物が存在する領域となる。
FIGS. 16A, 16 </ b> B, 16 </ b> C, and 16 </ b> D are image diagrams illustrating the outline of the operation of the monitoring apparatus according to the third embodiment, illustrating input image data.
As input image data, there is image data 1601 including the sea and a ship that is a suspicious object.
The clustering processing unit 1503 compares all the feature amounts S (1) to S (25) for each divided region calculated by the feature amount calculating unit 114, and performs a process of collecting similar regions.
First, the distance calculation unit 1514 calculates the distance between the upper left region S (1) of the region obtained by dividing the image data 1601 in FIG. 16A and the adjacent region S (2). The distance between the two feature amounts obtained as a result of the distance calculation is compared with a threshold 1502 prepared separately in advance, and it is determined whether or not the divided areas are similar to each other. In FIG. 16A, since the regions S (1) and S (2) are both sea portions, their feature quantities are similar, so the distance is short. Therefore, they are considered to be the same pattern and are combined into one. This is the process shown in FIG. That is, it is a concept of erasing the boundary line by combining the areas S (1) and S (2).
From FIG. 16B, the similarity determination is further advanced by calculating the distance between adjacent regions and comparing the obtained distance with the threshold 1502. That is, as shown in FIG. 16C, the boundary lines of similar image segmented areas are erased one after another.
Finally, as shown in FIG. 16 (d), the divided regions S (12), S (13), and S (14) whose feature amounts are significantly different from those of the other divided regions and that are recognized as having a long distance remain. . This is an area where suspicious objects exist.

図17は、第3の実施形態にかかる監視装置の動作を示すフローチャートである。
処理を開始すると(S1701)、サンプルとなる入力静止画像データをRAMに取り込む(S1702)。
次に、領域分割部113にて分割した各分割領域毎の特徴量を、特徴量算出部114にて算出する(S1703)。
そして、得られた全ての各分割領域毎の特徴量を基に、クラスタリング処理を行う(S1704)。クラスタリング処理の結果、分割領域は類似する領域同士にまとめられる。
次に、領域の面積、すなわち類似する領域を構成する分割領域の数と、閾値1502とを比較し、背景と認められない狭い領域があるか否かを検証する(S1705)。
検証の結果、全ての領域を構成する分割領域の数が閾値1502以上であれば、全ての分割領域は背景であり、不審物は存在しないと判断できる。
逆に検証の結果、特定の領域を構成する分割領域の数が閾値1502に満たないものがあれば、当該領域は背景ではなく、不審物はそこに存在するものと判断できる。
不審物の存在が認められたら、アラームを出力し(S1706)、終了する(S1707)。
FIG. 17 is a flowchart illustrating the operation of the monitoring apparatus according to the third embodiment.
When processing is started (S1701), sample input still image data is taken into the RAM (S1702).
Next, the feature amount for each divided region divided by the region dividing unit 113 is calculated by the feature amount calculating unit 114 (S1703).
Then, a clustering process is performed based on the obtained feature values for each divided region (S1704). As a result of the clustering process, the divided areas are grouped into similar areas.
Next, the area area, that is, the number of divided areas constituting a similar area is compared with the threshold 1502, and it is verified whether there is a narrow area that cannot be recognized as a background (S1705).
As a result of the verification, if the number of divided areas constituting all the areas is equal to or greater than the threshold 1502, it can be determined that all the divided areas are the background and that there is no suspicious object.
On the other hand, as a result of the verification, if the number of the divided areas constituting the specific area is less than the threshold 1502, it can be determined that the area is not the background and the suspicious object exists there.
If the presence of a suspicious object is recognized, an alarm is output (S1706) and the process ends (S1707).

以上に説明したことをまとめる。
本実施形態の監視装置1501は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置1501に入力されると、これを画像保存部112(実体はRAM105)内に保存する。次に、領域分割部113にて均等な面積形状に分割された後、特徴量算出部114にて特徴量データを分割領域毎に作成する。その後、クラスタリング処理部1503にて、全分割領域の特徴量データ同士の距離を計算し、得られた距離が小さい領域同士を同じ模様の領域であると判断し、それらを統合する、クラスタリング処理を行う。こうして、複数の分割領域が幾つかの領域の集合体に分類される。
次に、分類された複数の分割領域の集合体を構成する分割領域の数を、所定の閾値1502と比較する。閾値1502以上の数の分割領域よりなる集合は、背景であるものと判断する。そして、背景と判断された分割領域を示すフラグを下ろす。
以上の処理により、入力静止画像データから特徴量演算と比較演算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring device 1501 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring device 1501, it is stored in the image storage unit 112 (substantially the RAM 105). Next, after being divided into equal area shapes by the area dividing unit 113, the feature quantity calculating unit 114 creates feature quantity data for each divided area. After that, the clustering processing unit 1503 calculates the distance between the feature amount data of all the divided areas, determines that the obtained distances are the areas having the same pattern, and integrates them. Do. Thus, the plurality of divided regions are classified into a collection of several regions.
Next, the number of divided areas constituting the aggregate of the plurality of divided areas is compared with a predetermined threshold 1502. A set consisting of a number of divided areas equal to or greater than the threshold 1502 is determined to be the background. Then, the flag indicating the divided area determined to be the background is lowered.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the comparison calculation.

[5.第4の実施の形態]
図18(a)、(b)及び(c)は、本発明の第4の実施形態よりなる監視装置の動作の概略を例示して示すイメージ図と、全体ブロック図である。
図18(a)において、入力画像データ1801には、海1802と空1803と、海に浮かぶ不審物としての船1804が存在する。この海1802は遠方を撮影した風景であり、入力画像データ1801中の海の部分の下の方と水平線近傍とでは、実際の距離は大きく異なる。このために、海面上に生じている波しぶきは、手前のものは大きく、遠方のものは小さく見える。すなわち、撮影された静止画像データ上に海が全体では一様な模様を構成していない。
このような入力画像データ1801を、全体を対象として評価すると、精緻な結果を得難い。
そこで、図18(b)に示すように、入力画像データ1801を水平線方向に複数に分割し、水平分割領域1805、1806、1807、1808、1809及び1810を作成する。
この、分割した画像データのそれぞれの水平分割領域に対して、特徴量演算や比較等を行う。
[5. Fourth Embodiment]
FIGS. 18A, 18B, and 18C are an image diagram and an overall block diagram illustrating the outline of the operation of the monitoring apparatus according to the fourth embodiment of the present invention.
In FIG. 18A, the input image data 1801 includes a sea 1802, a sky 1803, and a ship 1804 as a suspicious object floating in the sea. This sea 1802 is a landscape obtained by photographing a distant place, and the actual distance differs greatly between the lower part of the sea part in the input image data 1801 and the vicinity of the horizontal line. For this reason, the wave splash on the sea surface appears to be large in the foreground and small in the distance. That is, the sea does not form a uniform pattern as a whole on the captured still image data.
If such input image data 1801 is evaluated as a whole, it is difficult to obtain precise results.
Therefore, as shown in FIG. 18B, the input image data 1801 is divided into a plurality of parts in the horizontal line direction, and horizontal divided areas 1805, 1806, 1807, 1808, 1809 and 1810 are created.
Feature amount calculation, comparison, and the like are performed on each horizontal division region of the divided image data.

この技術思想を実現するためのブロック図を図18(c)に示す。これは図1(b)と殆ど同じである。図18(c)に示される監視装置1811の、図1(b)の監視装置101と異なる点は、領域分割部1813が、水平領域分割部1813aと小領域分割部1813bに区分されている点である。
実際の演算処理は、第1の実施形態、第2の実施形態及び第3の実施形態にて説明した処理を、水平分割領域1805、1806、1807、1808、1809及び1810に対して実施することとなる。
なお、水平領域分割部1813aの分割幅をどのように設定するかは、処理対象となる入力画像データ1801の状態と、処理に要する演算量とのトレードオフにて、設計時点或は装置の実稼動前に決定される。
第1の実施形態乃至第3の実施形態による処理の結果が芳しくないときに、本実施形態を試みる、という処理の流れであってもよい。
A block diagram for realizing this technical idea is shown in FIG. This is almost the same as FIG. The monitoring apparatus 1811 shown in FIG. 18C is different from the monitoring apparatus 101 in FIG. 1B in that the area dividing unit 1813 is divided into a horizontal area dividing unit 1813a and a small area dividing unit 1813b. It is.
In the actual calculation processing, the processing described in the first embodiment, the second embodiment, and the third embodiment is performed on the horizontally divided regions 1805, 1806, 1807, 1808, 1809, and 1810. It becomes.
It should be noted that how to set the division width of the horizontal region dividing unit 1813a depends on the trade-off between the state of the input image data 1801 to be processed and the amount of calculation required for the processing, or the actual performance of the apparatus. Determined before operation.
The processing flow may be to try this embodiment when the results of the processing according to the first to third embodiments are not satisfactory.

以上に説明したことをまとめる。
本実施形態の監視装置1811は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置1811に入力されると、これを画像保存部112(実体はRAM105)内に保存する。次に、領域分割部113内の水平領域分割部1813aにて水平線に平行な方向に分割された後、小領域分割部1813bにて均等な面積形状の小領域に分割される。その後、特徴量算出部114による特徴量演算と、距離計算部116による距離計算を、水平分割領域毎に行う。
水平分割領域毎に、評価対象である小分割領域が背景か否かを判断する。そして、背景と判断された小分割領域を示すフラグを下ろす。
以上の処理により、入力静止画像データから特徴量演算と距離計算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring device 1811 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring device 1811, it is stored in the image storage unit 112 (the substance is the RAM 105). Next, after being divided in a direction parallel to the horizontal line by a horizontal region dividing unit 1813a in the region dividing unit 113, it is divided into small regions having an equal area shape by a small region dividing unit 1813b. Thereafter, the feature amount calculation by the feature amount calculation unit 114 and the distance calculation by the distance calculation unit 116 are performed for each horizontal division region.
For each horizontal divided area, it is determined whether or not the small divided area to be evaluated is the background. Then, the flag indicating the small divided area determined to be the background is lowered.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the distance calculation.

[6.第5の実施の形態]
図19は、本発明の第5の実施形態よりなる監視装置のブロック図である。
図19において、監視装置1901内の分割領域判定部1902は、図1(b)の監視装置101と同じである。すなわち、この部分では前述の第1、第2、第3、第4のいずれかの実施形態と同じ機能が稼動する。
分割領域判定部1902からは、領域分割部113にて分割された入力画像データの各分割領域毎に、不審物の存在の有無を記すフラグのデータの集合が、距離計算部116を通じて出力される。
タイマ1903は、分割領域判定部1902を定時間隔で稼動させるトリガを出力する。
分割領域フラグ保存部1904はRAMよりなり、分割領域判定部1902から出力されるフラグのデータの集合を複数記憶する。
不審物領域移動量・方向算出部1905は、分割領域フラグ保存部1904に記憶されている複数のフラグのデータの集合同士を比較して、不審物と思しき領域が移動しているか否か、また移動しているとすればその移動方向を算出し、移動していると認められればアラームを出力する。
[6. Fifth embodiment]
FIG. 19 is a block diagram of a monitoring apparatus according to the fifth embodiment of the present invention.
In FIG. 19, the divided region determination unit 1902 in the monitoring device 1901 is the same as the monitoring device 101 in FIG. That is, in this part, the same function as any of the first, second, third, and fourth embodiments described above operates.
A set of flag data indicating the presence / absence of a suspicious object is output from the divided area determination unit 1902 for each divided area of the input image data divided by the area dividing unit 113 through the distance calculation unit 116. .
The timer 1903 outputs a trigger for operating the divided region determination unit 1902 at regular intervals.
The divided area flag storage unit 1904 includes a RAM, and stores a plurality of sets of flag data output from the divided area determination unit 1902.
The suspicious object region movement amount / direction calculation unit 1905 compares a plurality of flag data sets stored in the divided region flag storage unit 1904 to determine whether or not the region considered to be a suspicious object has moved, If it is moving, its moving direction is calculated, and if it is recognized that it is moving, an alarm is output.

図20(a)及び(b)は、入力画像データを例示して第5の実施形態による監視装置の動作の概略を示すイメージ図である。フラグの集合体のイメージを示すものでもある。
分割領域判定部1902によって、入力画像データに対して分割領域毎に不審物であるか否かを示すフラグの集合が出力される。図20(a)中、0は不審物でない、つまり背景であると判断された分割領域を示し、1は不審物であると判断された分割領域を示す。
通常、不審物は移動する。移動しない不審物は存在し得ないだろう。したがって、分割領域判定部1902を一定時間間隔毎に稼動させ、出力されるフラグの集合を比較すれば、不審物を示す分割領域が移動することがわかる。図中、不審物と判断された領域は時間の経過と共に移動している。
つまり、従来技術で行っていた、時間間隔を置いた静止画像同士の比較を、生の静止画像の代わりに本実施形態による背景の判定技術に基づく分割領域のフラグにて比較する。
背景を判定することにより、背景が動くことによる誤認識を排除し、従来技術よりはるかに高い精度にて不審物の移動を検出することができる。
FIGS. 20A and 20B are image diagrams showing an outline of the operation of the monitoring apparatus according to the fifth embodiment, illustrating input image data. It also shows an image of a collection of flags.
The divided area determination unit 1902 outputs a set of flags indicating whether or not the input image data is a suspicious object for each divided area. In FIG. 20A, 0 indicates a divided area that is determined not to be a suspicious object, that is, a background, and 1 indicates a divided area that is determined to be a suspicious object.
Normally, suspicious objects move. There cannot be a suspicious object that does not move. Therefore, when the divided region determination unit 1902 is operated at regular time intervals and the sets of flags to be output are compared, it can be seen that the divided region indicating the suspicious object moves. In the figure, the area determined to be a suspicious object moves with the passage of time.
That is, the comparison between still images with a time interval, which is performed in the prior art, is compared with the flag of the divided region based on the background determination technique according to the present embodiment instead of the raw still image.
By determining the background, it is possible to eliminate misrecognition due to the movement of the background and to detect the movement of the suspicious object with much higher accuracy than in the prior art.

図21は、第5の実施形態にかかる監視装置の動作を示すフローチャートである。
処理を開始すると(S2101)、サンプルとなる入力静止画像データをRAMに取り込む(S2102)。
次に、前述の第1、第2、第3及び第4の実施形態にて説明した分割領域の判定処理を行う(S2103)。すなわち、入力静止画像データを領域分割部113にて分割し、各分割領域毎に特徴量を計算し、全ての各分割領域毎の特徴量を基に、距離計算を行う。こうして、各分割領域毎に背景であるか不審物であるかが判定される。そして、判定の結果得られた各分割領域のフラグの集合を、分割領域フラグ保存部1904(RAM105)に記憶する(S2104)。
次に、RAM105内に直前のフラグの集合があるか否か確認する(S2105)。直前のフラグの集合がなければ、最初に行った判定結果であるので、タイマ1903によるインターバルを経て、再び入力静止画像データを取り込んで一連の処理を行う。
直前のフラグの集合があれば、各々のフラグの集合同士を比較する(S2106)。比較の結果、一定値以上の差異があれば(S2107)、それは不審物の移動を示しているので、アラームを出力する(S2108)。
FIG. 21 is a flowchart illustrating the operation of the monitoring apparatus according to the fifth embodiment.
When the process is started (S2101), sample input still image data is taken into the RAM (S2102).
Next, the divided region determination process described in the first, second, third, and fourth embodiments is performed (S2103). That is, the input still image data is divided by the region dividing unit 113, the feature amount is calculated for each divided region, and the distance is calculated based on the feature amounts for all the divided regions. In this way, it is determined for each divided area whether it is a background or a suspicious object. Then, the set of flags for each divided area obtained as a result of the determination is stored in the divided area flag storage unit 1904 (RAM 105) (S2104).
Next, it is confirmed whether or not there is a previous set of flags in the RAM 105 (S2105). If there is no previous set of flags, the determination result is the first, so that after a time interval by the timer 1903, the input still image data is taken in again and a series of processing is performed.
If there is a previous set of flags, each set of flags is compared (S2106). If there is a difference of a certain value or more as a result of the comparison (S2107), it indicates the movement of a suspicious object, so an alarm is output (S2108).

以上に説明したことをまとめる。
本実施形態の監視装置1811は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
分割領域判定部1902は、タイマ1903より発生するトリガに呼応して、入力静止画像データを画像保存部112(実体はRAM105)内に保存する。入力静止画像データは領域分割部113にて均等な面積形状に分割された後、特徴量算出部114にて特徴量データを分割領域毎に作成する。次に、得られた特徴量データを、所定値115との距離を計算し、得られた距離を所定の閾値と比較する。閾値に満たない距離の領域は、背景であるものと判断する。そして、背景と判断された分割領域を示すフラグを下ろす。
以上の過程にて得られたフラグの集合体を、タイマ1903が発するトリガに呼応して、分割領域フラグ保存部1904に順次保存する。保存された一定時間間隔毎のフラグの集合体を不審物領域移動量・方向算出部1905が比較して、移動している不審物の有無を判定する。
以上の処理により、入力静止画像データから特徴量演算と比較演算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring device 1811 of this embodiment is mainly composed of software that runs on a microcomputer.
The divided region determination unit 1902 stores input still image data in the image storage unit 112 (substantially the RAM 105) in response to a trigger generated by the timer 1903. The input still image data is divided into equal area shapes by the region dividing unit 113, and then feature amount data is created for each divided region by the feature amount calculating unit 114. Next, the distance between the obtained feature data and the predetermined value 115 is calculated, and the obtained distance is compared with a predetermined threshold. A region having a distance less than the threshold is determined to be the background. Then, the flag indicating the divided area determined to be the background is lowered.
The set of flags obtained in the above process is sequentially stored in the divided region flag storage unit 1904 in response to the trigger issued by the timer 1903. The suspicious object region movement amount / direction calculation unit 1905 compares the set of saved flags at regular time intervals to determine whether there is a moving suspicious object.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the comparison calculation.

本実施形態には、以下のような応用例が考えられる。
(1)マイクロコンピュータによる実装の代わりに、プログラマブル・ロジック・デバイス(Programmable Logic Device: PLD)を用いてもよい。
(2)前述の第1、第2、第3及び第4の実施形態において、不審物と誤認識し易い背景部分を特徴量計算処理の対象から外す、除外処理を追加することができる。
(3)前述の第1、第2、第3、第4及び第5の実施形態を、単一の監視装置内で同時に複数稼動させることもできる。演算処理の結果得られた、各領域毎のフラグの集合は、全て論理積にて併合したり、或いは加算処理の後所定の閾値にて比較することができる。
The following application examples can be considered in the present embodiment.
(1) Instead of mounting by a microcomputer, a programmable logic device (PLD) may be used.
(2) In the first, second, third, and fourth embodiments described above, it is possible to add an exclusion process that excludes a background portion that is easily recognized as a suspicious object from the target of the feature amount calculation process.
(3) A plurality of the first, second, third, fourth and fifth embodiments described above can be simultaneously operated in a single monitoring device. The set of flags for each region obtained as a result of the arithmetic processing can be all merged by logical product or compared with a predetermined threshold after the addition processing.

本実施形態においては、静止画像データから背景とは異なる物体を判別することができる。この処理は従来技術において周知の、直前の画像データとの比較による手法とは異なり、入力された画像データのみを用いて判別する。このため、撮像カメラを旋回装置に設置して左右に回転駆動する監視の形態において特に好適である。
また、本実施形態では判別のために、画像データを所定の領域に分割して、分割領域毎に特徴量を計算する。そして各々の分割領域毎の特徴量と、所定の値との距離を計算する。このため、海や空など、自然現象によって生じる変化があっても、これを含めて一定の特徴を有する背景と判別することができる。
したがって、本実施形態の画像処理装置を撮像カメラと組み合わせることによって、従来技術と比べると、海の波や空の雲などの自然現象も誤認識せずに背景と認識できる、優れた監視装置を提供できる。
In the present embodiment, an object different from the background can be determined from still image data. This processing is different from the method based on comparison with the immediately preceding image data, which is well known in the prior art, and is determined using only the input image data. For this reason, it is particularly suitable in the monitoring mode in which the imaging camera is installed on the swivel device and rotated to the left and right.
In the present embodiment, for discrimination, the image data is divided into predetermined areas, and feature amounts are calculated for each divided area. Then, the distance between the feature amount for each divided region and a predetermined value is calculated. For this reason, even if there is a change caused by a natural phenomenon such as the sea or the sky, it can be determined as a background having certain characteristics including this.
Therefore, by combining the image processing apparatus according to the present embodiment with an imaging camera, an excellent monitoring apparatus that can recognize a natural phenomenon such as a sea wave or a cloud in the sky as a background without being misrecognized as compared with the prior art. Can be provided.

以上、本発明の実施形態例について説明したが、本発明は上記実施形態例に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことは言うまでもない。   The embodiment of the present invention has been described above. However, the present invention is not limited to the above-described embodiment, and other modifications may be made without departing from the gist of the present invention described in the claims. It goes without saying that application examples are included.

本発明の実施の形態に共通する技術思想による画像処理装置の全体ブロック図である。1 is an overall block diagram of an image processing apparatus according to a technical idea common to embodiments of the present invention. 第1の実施の形態による画像処理装置の全体ブロック図である。1 is an overall block diagram of an image processing apparatus according to a first embodiment. 第1の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 1st Embodiment. 第1の実施の形態の監視装置の処理内容のうち、前処理を示すフローチャートである。It is a flowchart which shows pre-processing among the processing contents of the monitoring apparatus of 1st Embodiment. 第1の実施の形態の監視装置の処理内容のうち、実稼動時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of real operation among the processing content of the monitoring apparatus of 1st Embodiment. 第1の実施の形態の監視装置の処理内容のうち、実稼動時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of real operation among the processing content of the monitoring apparatus of 1st Embodiment. 特徴量演算方法の一つである、色ヒストグラムを説明する概略図である。It is the schematic explaining the color histogram which is one of the feature-value calculation methods. 特徴量演算方法の一つである、周波数解析を説明する概略図である。It is the schematic explaining frequency analysis which is one of the feature-value calculation methods. 特徴量演算方法の一つである、同時生起確率行列を説明する概略図である。It is the schematic explaining the co-occurrence probability matrix which is one of the feature-value calculation methods. 画像データと同時生起確率行列との関係を説明する概略図である。It is the schematic explaining the relationship between image data and a co-occurrence probability matrix. 第2の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by 2nd Embodiment. 第2の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 2nd Embodiment. 第2の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 2nd Embodiment. 第2の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 2nd Embodiment. 第3の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by 3rd Embodiment. 第3の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 3rd Embodiment. 第3の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 3rd Embodiment. 第4の実施形態による画像処理装置の動作を概略的に示すイメージ図と、全体ブロック図である。It is the image figure which shows schematically operation | movement of the image processing apparatus by 4th Embodiment, and an entire block diagram. 第5の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by 5th Embodiment. 第5の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 5th Embodiment. 第5の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 5th Embodiment.

符号の説明Explanation of symbols

101…監視装置、102…撮像カメラ、103…CPU、104…ROM、105…RAM、106…バス、107…出力インターフェース、112…画像保存部、115…所定値、113…領域分割部、114…特徴量算出部、115…所定値、116…距離計算部   DESCRIPTION OF SYMBOLS 101 ... Monitoring apparatus 102 ... Imaging camera 103 ... CPU, 104 ... ROM, 105 ... RAM, 106 ... Bus, 107 ... Output interface, 112 ... Image storage part, 115 ... Predetermined value, 113 ... Area division part, 114 ... Feature amount calculation unit, 115 ... predetermined value, 116 ... distance calculation unit

Claims (8)

入力画像データが保存される画像保存部と、
前記画像保存部中の前記入力画像データを均等な面積且つ一定の形状に分割する領域分割部と、
前記領域分割部にて分割された分割領域毎に特徴量を算出する特徴量算出部と、
前記特徴量算出部によって得られた前記分割領域毎の特徴量と、所定の値との距離を計算し、得られた距離に基づいて背景か否かを決定する距離計算部と
よりなることを特徴とする画像処理装置。
An image storage unit for storing input image data;
A region dividing unit that divides the input image data in the image storage unit into an equal area and a fixed shape;
A feature amount calculating unit that calculates a feature amount for each divided region divided by the region dividing unit;
A distance calculation unit that calculates a distance between the feature value for each divided region obtained by the feature value calculation unit and a predetermined value, and determines whether the background is based on the obtained distance; A featured image processing apparatus.
前記所定の値はサンプルの背景特徴量であることを特徴とする、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined value is a background feature amount of a sample. 前記所定の値は入力画像データ全体の特徴量の平均値であることを特徴とする、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined value is an average value of feature amounts of the entire input image data. 前記所定の値は分割領域毎の特徴量であり、得られた距離に基づいて分割領域同士が類似するか否かを判定してグルーピング処理することを特徴とする、請求項1記載の画像処理装置。   The image processing according to claim 1, wherein the predetermined value is a feature amount for each divided region, and grouping processing is performed by determining whether the divided regions are similar based on the obtained distance. apparatus. 前記領域分割部は、
水平線に平行に分割する水平領域分割部と、
前記水平領域分割部にて分割された水平分割領域を更に分割する小領域分割部と
よりなり、
前記距離計算部は前記水平分割領域毎に演算を行うことを特徴とする、請求項1記載の画像処理装置。
The area dividing unit includes:
A horizontal region dividing unit that divides parallel to the horizontal line;
A small area dividing unit that further divides the horizontal divided area divided by the horizontal area dividing unit;
The image processing apparatus according to claim 1, wherein the distance calculation unit performs an operation for each horizontal division region.
更に、
前記距離計算部より得られる各分割領域毎の判定結果を、所定時間毎に保存する分割領域フラグ保存部と、
前記分割領域フラグ保存部に保存されている複数の前記判定結果を比較する、不審物領域移動量・方向算出部とを含むことを特徴とする、請求項1記載の画像処理装置。
Furthermore,
A determination result for each divided region obtained from the distance calculation unit, a divided region flag storage unit that stores the determination result every predetermined time,
The image processing apparatus according to claim 1, further comprising: a suspicious object region movement amount / direction calculating unit that compares the plurality of determination results stored in the divided region flag storage unit.
入力画像データを均等な面積且つ一定の形状に分割するステップと、
分割された入力画像データから特徴量を計算するステップと、
各分割領域毎の特徴量と所定値との距離を計算するステップと、
距離計算にて得られた距離に基づいて、前記各分割領域毎に背景か否かを判定するステップと
よりなることを特徴とする画像処理方法。
Dividing the input image data into a uniform area and a fixed shape;
Calculating a feature amount from the divided input image data;
Calculating a distance between a feature value for each divided region and a predetermined value;
An image processing method comprising: determining whether each of the divided areas is a background based on a distance obtained by distance calculation.
入力画像データを均等な分割領域にて分割する機能と、
前記分割領域毎の特徴量を計算する機能と、
前記分割領域毎の特徴量と、所定の値との距離を計算する機能と、
前記距離を所定の閾値と比較し、その比較結果を前記分割領域が背景であるか否かを判断する根拠とする機能と
よりなることを特徴とする画像処理プログラム。
A function of dividing input image data into equal divided areas;
A function of calculating a feature value for each of the divided regions;
A function for calculating a distance between a feature value for each divided region and a predetermined value;
An image processing program comprising a function that compares the distance with a predetermined threshold and uses the comparison result as a basis for determining whether or not the divided region is a background.
JP2006236145A 2006-08-31 2006-08-31 Image processing method Expired - Fee Related JP4229154B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2006236145A JP4229154B2 (en) 2006-08-31 2006-08-31 Image processing method
SG201000556-9A SG159501A1 (en) 2006-08-31 2007-08-28 Image-processing apparatus, image processing method and image processing program
TW096131883A TWI384879B (en) 2006-08-31 2007-08-28 Image-processing apparatus, image processing method and image processing program
US11/897,005 US8068701B2 (en) 2006-08-31 2007-08-28 Image-processing apparatus, image-processing method and image-processing program
SG200706362-1A SG140573A1 (en) 2006-08-31 2007-08-28 Image-processing apparatus, image processing method and image processing program
KR1020070088247A KR20080020581A (en) 2006-08-31 2007-08-31 Image-processing apparatus, image processing method and image processing program
CN 200710145710 CN101137046B (en) 2006-08-31 2007-08-31 Image processing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006236145A JP4229154B2 (en) 2006-08-31 2006-08-31 Image processing method

Publications (2)

Publication Number Publication Date
JP2008060967A true JP2008060967A (en) 2008-03-13
JP4229154B2 JP4229154B2 (en) 2009-02-25

Family

ID=39160837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006236145A Expired - Fee Related JP4229154B2 (en) 2006-08-31 2006-08-31 Image processing method

Country Status (2)

Country Link
JP (1) JP4229154B2 (en)
CN (1) CN101137046B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110135158A1 (en) * 2009-12-08 2011-06-09 Nishino Katsuaki Image processing device, image processing method and program
US8068701B2 (en) 2006-08-31 2011-11-29 Sony Corporation Image-processing apparatus, image-processing method and image-processing program
KR20150087057A (en) * 2014-01-21 2015-07-29 한화테크윈 주식회사 Method of deteting circle type wire-entanglements
JP2019016066A (en) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 Feature shape extraction device, feature shape extraction method and program
JP2020009381A (en) * 2018-07-12 2020-01-16 日産自動車株式会社 Method and device for collating individuals

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5426181B2 (en) * 2009-01-21 2014-02-26 シスメックス株式会社 Specimen processing system, cell image classification apparatus, and specimen processing method
CN102855497B (en) * 2011-06-27 2015-07-29 富士通株式会社 Obtain the method for description information of image and device and sorter training method
JP5385486B2 (en) * 2011-09-08 2014-01-08 オリンパスメディカルシステムズ株式会社 Image processing apparatus and method of operating image processing apparatus
JP5500194B2 (en) * 2012-03-22 2014-05-21 日本電気株式会社 Captured image processing apparatus and captured image processing method
JP2014178739A (en) * 2013-03-13 2014-09-25 Sony Corp Image processor and image processing method and program
JP6217244B2 (en) * 2013-08-29 2017-10-25 セイコーエプソン株式会社 Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
CN104168458B (en) * 2014-08-18 2018-08-17 北京世纪之星应用技术研究中心 A kind of optics intrusion detection method, system and distributed monitoring system
CN104834928B (en) * 2015-05-08 2018-05-18 小米科技有限责任公司 The definite method and device of identification region in picture
CN108241645B (en) * 2016-12-23 2020-03-17 腾讯科技(深圳)有限公司 Image processing method and device
CN109873979A (en) * 2019-01-07 2019-06-11 广东思理智能科技股份有限公司 Camera-based static image difference comparison method and device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006078568A (en) * 2004-09-07 2006-03-23 Dainippon Screen Mfg Co Ltd Image processor and processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8068701B2 (en) 2006-08-31 2011-11-29 Sony Corporation Image-processing apparatus, image-processing method and image-processing program
US20110135158A1 (en) * 2009-12-08 2011-06-09 Nishino Katsuaki Image processing device, image processing method and program
US8630453B2 (en) * 2009-12-08 2014-01-14 Sony Corporation Image processing device, image processing method and program
KR20150087057A (en) * 2014-01-21 2015-07-29 한화테크윈 주식회사 Method of deteting circle type wire-entanglements
KR102116092B1 (en) * 2014-01-21 2020-05-27 한화테크윈 주식회사 Method of deteting circle type wire-entanglements
JP2019016066A (en) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 Feature shape extraction device, feature shape extraction method and program
JP2020009381A (en) * 2018-07-12 2020-01-16 日産自動車株式会社 Method and device for collating individuals

Also Published As

Publication number Publication date
CN101137046B (en) 2013-06-05
CN101137046A (en) 2008-03-05
JP4229154B2 (en) 2009-02-25

Similar Documents

Publication Publication Date Title
JP4229154B2 (en) Image processing method
CN110414411B (en) Sea surface ship candidate area detection method based on visual saliency
TWI384879B (en) Image-processing apparatus, image processing method and image processing program
CN106856002B (en) Unmanned aerial vehicle shooting image quality evaluation method
Schmugge et al. Detection of cracks in nuclear power plant using spatial-temporal grouping of local patches
CN108229342B (en) Automatic sea surface ship target detection method
Awrangjeb et al. Improved building detection using texture information
GB2557035A (en) IR or thermal image enhancement method based on background information for video analysis
WO2023273011A9 (en) Method, apparatus and device for detecting object thrown from height, and computer storage medium
KR101021994B1 (en) Method of detecting objects
CN104866842B (en) A kind of human body target intrusion detection method
WO2023273010A1 (en) High-rise littering detection method, apparatus, and device, and computer storage medium
CN109492647A (en) A kind of power grid robot barrier object recognition methods
CN114639075A (en) Method and system for identifying falling object of high altitude parabola and computer readable medium
CN111665199A (en) Wire and cable color detection and identification method based on machine vision
JP4270254B2 (en) Image signal processing apparatus and image processing method
KR101026778B1 (en) Vehicle image detection apparatus
CN101930540A (en) Video-based multi-feature fusion flame detecting device and method
CN115018785A (en) Hoisting steel wire rope tension detection method based on visual vibration frequency identification
CN113657250A (en) Flame detection method and system based on monitoring video
JPH05284501A (en) Intrusion monitor picture device
Mao et al. Apple location method for the apple harvesting robot
Wang et al. Multi-scale target detection in SAR image based on visual attention model
CN104820818B (en) A kind of method for quickly identifying of mobile object
CN116452976A (en) Underground coal mine safety detection method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees