JP4270254B2 - Image signal processing apparatus and image processing method - Google Patents

Image signal processing apparatus and image processing method Download PDF

Info

Publication number
JP4270254B2
JP4270254B2 JP2006254817A JP2006254817A JP4270254B2 JP 4270254 B2 JP4270254 B2 JP 4270254B2 JP 2006254817 A JP2006254817 A JP 2006254817A JP 2006254817 A JP2006254817 A JP 2006254817A JP 4270254 B2 JP4270254 B2 JP 4270254B2
Authority
JP
Japan
Prior art keywords
image data
unit
area
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006254817A
Other languages
Japanese (ja)
Other versions
JP2008078926A (en
Inventor
隆信 氏郷
宣浩 綱島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006254817A priority Critical patent/JP4270254B2/en
Application filed by Sony Corp filed Critical Sony Corp
Priority to SG200706362-1A priority patent/SG140573A1/en
Priority to SG201000556-9A priority patent/SG159501A1/en
Priority to TW096131883A priority patent/TWI384879B/en
Priority to US11/897,005 priority patent/US8068701B2/en
Priority to KR1020070088247A priority patent/KR20080020581A/en
Priority to CN 200710145710 priority patent/CN101137046B/en
Publication of JP2008078926A publication Critical patent/JP2008078926A/en
Application granted granted Critical
Publication of JP4270254B2 publication Critical patent/JP4270254B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像信号処理装置及び画像処理方法に関する。
より詳細には、監視カメラが所定の監視場所を撮像して得られた映像から、不審物や不審者を検出する装置に適用して好適な技術に関する。
The present invention relates to an image signal processing apparatus and an image processing method.
More specifically, the present invention relates to a technique suitable for application to a device that detects a suspicious object or a suspicious person from an image obtained by imaging a predetermined monitoring place by a monitoring camera.

従来より、監視カメラによって撮像された映像を所定の監視モニタを介して視認することにより、所定の監視対象を監視する監視システムが知られている。
このような監視カメラにおいては、監視対象となる場所が多くなるにつれ、24時間監視者がモニタを監視し続けることは困難である。また、監視カメラに接続されるビデオレコーダにおいても、必要最低限の映像のみ記録する等、実稼働時間を短縮する必要に迫られている。
このため、機械が入力画像から不審物或は不審者を検出する技術の確立が求められている。
例えば銀行のATM等においては、人体を検出するセンサさえあれば比較的容易に上述のような要求を満たすことができる。
ところが、海辺のような、遠くの景色から不審船等を検出する場合は、このようなセンサは使用できない。
特開2006−14215号公報 特開平10−328226号公報 特開平8−297020号公報
2. Description of the Related Art Conventionally, a monitoring system that monitors a predetermined monitoring target by visually recognizing an image captured by a monitoring camera via a predetermined monitoring monitor is known.
In such a monitoring camera, it is difficult for a 24-hour monitor to continue to monitor the monitor as the number of places to be monitored increases. In video recorders connected to surveillance cameras, there is an urgent need to shorten the actual operation time, such as recording only the minimum necessary video.
For this reason, establishment of the technique in which a machine detects a suspicious object or a suspicious person from an input image is calculated | required.
For example, in a bank ATM, the above-described requirements can be satisfied relatively easily if there is a sensor for detecting a human body.
However, such a sensor cannot be used when detecting a suspicious ship or the like from a distant landscape such as the seaside.
JP 2006-14215 A JP-A-10-328226 JP-A-8-297020

従来、このような状況においては、特許文献1に記載されているような、直前の画像データとの比較を行う、という手法が多く採用されていた。
映像中に物体が進入すると、映像データ中におけるその物体の部分は、明るさが変わる。したがって、映像内で輝度値に差異がある領域を差異領域として検出することで、物体の検知が可能になる。ところが、海、砂漠、草原、空等の自然の風景の場合、検知対象である物体以外の水、砂、草、雲なども動いている。このため、これらを直前の画像データと比較して異なっているとして、誤って検知してしまう、という問題があった。
Conventionally, in such a situation, a method of performing comparison with the immediately preceding image data as described in Patent Document 1 has been often employed.
When an object enters the video, the brightness of the object portion in the video data changes. Therefore, an object can be detected by detecting a region having a difference in luminance value in the video as a difference region. However, in the case of natural scenery such as the sea, desert, grassland, and sky, water, sand, grass, clouds, etc. other than the object to be detected are also moving. For this reason, there has been a problem that they are erroneously detected as being different from the previous image data.

この問題を解決する一つの方法として、例えば特許文献2に記載される技術が挙げられる。
特許文献2には、現在の時刻に撮影された画像と、過去に撮影された画像との差分値を作成し、閾値処理によって二値化する。その際に、過去の差分値の累積結果を基に閾値を変動させた背景画像を作成する。こうして、背景画像中に存在する木や水面による揺らぎの誤検出の低減を試みている。
しかしながら、この技術では、木の揺らぎ等による輝度値の変化が大きいときには、閾値が大きくなりすぎる場合が十分考えられる。そのような場合、肝心の侵入者等が侵入してきたときに検出漏れが生じてしまう虞がある。
One method for solving this problem is, for example, the technique described in Patent Document 2.
In Patent Document 2, a difference value between an image taken at the current time and an image taken in the past is created and binarized by threshold processing. At that time, a background image in which the threshold value is changed is created based on the accumulated result of past difference values. In this way, attempts are made to reduce false detection of fluctuations caused by trees and water existing in the background image.
However, with this technique, when the change in the luminance value due to the fluctuation of the tree or the like is large, the case where the threshold value becomes too large can be considered. In such a case, there is a possibility that a detection omission may occur when an important intruder or the like enters.

特に、海辺から水平線を含む空等、遠方の風景の場合、同じ背景であるにもかかわらず、現れる特徴が画像の場所によって異なる。例えば、海の手前の画像データと水平線近傍の画像データとを比較すると、海面上に生じている波しぶきは、手前のものは大きく、遠方のものは小さく見える。すなわち、撮影された静止画像データ上に海が全体では一様な模様を構成していない。
このように画像データ上に現れる特徴が場所によって異なる、遠方の風景の場合に、全て同一の背景であるとみなして処理をすると、不審物の検出性能が著しく低下する。何故なら、背景の特徴が均一でないにもかかわらず同一であるとみなすと、背景の特徴に大きな幅が生じてしまうからである。
In particular, in the case of a distant landscape such as the sky including a horizontal line from the seaside, the appearing features differ depending on the location of the image even though the background is the same. For example, when comparing the image data before the sea with the image data near the horizon, the wave splashes occurring on the sea surface appear to be large in front and small in the distance. That is, the sea does not form a uniform pattern as a whole on the captured still image data.
In this way, in the case of distant scenery where the features appearing on the image data differ depending on the location, if processing is performed assuming that all are the same background, the detection performance of suspicious objects is significantly reduced. This is because if the background features are considered to be the same even though they are not uniform, the background features will have a large width.

本発明はかかる点に鑑みてなされたものであり、海、砂漠、草原等、主に自然現象等によって撮影画像に揺らぎが生じるような場所を監視対象とする監視カメラによって得られる画像データから、不審者或は不審物等の侵入を安定して行うことのできる画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above points, and from image data obtained by a monitoring camera that monitors a place where a photographed image fluctuates mainly due to a natural phenomenon or the like, such as a sea, a desert, or a grassland. An object of the present invention is to provide an image processing apparatus and an image processing method capable of stably invading a suspicious person or a suspicious object.

上記課題を解決するために、本発明の画像処理装置は、入力画像データが保存される画像保存部と、画像保存部中の入力画像データを水平方向に分割する水平領域分割部と、水平領域分割部から得られた水平分割領域の同時生起確率行列を算出する特徴量算出部と、特徴量算出部によって得られた同時生起確率行列を所定の閾値と比較して、背景か否かを決定する画素判定部と、画素判定部によって得られた判定結果に基づいて、不審物等の存在の有無を出力する画素集合決定部とよりなる領域判定処理部とを具備するものである。   In order to solve the above problems, an image processing apparatus according to the present invention includes an image storage unit that stores input image data, a horizontal region dividing unit that horizontally divides input image data in the image storage unit, and a horizontal region. A feature amount calculation unit that calculates the co-occurrence probability matrix of the horizontal division region obtained from the division unit and the co-occurrence probability matrix obtained by the feature amount calculation unit are compared with a predetermined threshold value to determine whether or not the background is used. And a region determination processing unit including a pixel set determination unit that outputs the presence / absence of a suspicious object or the like based on a determination result obtained by the pixel determination unit.

本発明によると、入力画像データは水平方向に複数の領域に分割される。これら水平分割領域が一つの画像データとして扱われ、その中で背景と不審物との判別処理を行う。   According to the present invention, the input image data is divided into a plurality of regions in the horizontal direction. These horizontal division areas are treated as one image data, and a discrimination process between the background and the suspicious object is performed in the area.

本発明により、海や草原等の、一定の揺らぎを伴う風景を監視する監視装置において、特に遠方の風景を監視する際に、距離によって異なる画像データの特徴を正しく捉えた上で、海の波や空の雲などの自然現象も誤認識せずに背景と認識できる、優れた画像処理装置及び画像処理方法を提供できる。   According to the present invention, in a monitoring device that monitors a landscape with a certain fluctuation, such as a sea or a grassland, particularly when monitoring a distant landscape, the characteristics of image data that varies depending on the distance are correctly captured, and the ocean wave It is possible to provide an excellent image processing apparatus and image processing method capable of recognizing a natural phenomenon such as a sky and clouds in the background without erroneous recognition.

以下、本発明の実施の形態を、図1〜図31を参照して説明する。
以下に説明する実施形態は、大きく二つに分類される。
第1、第2及び第3の実施形態は、入力画像を細分化し、細分化された小領域毎に特徴量を算出する。
第4、第5、第6、第7の実施形態は、入力画像から同時生起確率行列を作成し、これを基に背景領域の特定を行う。
いずれの実施形態も、その上位概念として、処理の最初に入力画像を水平方向に複数分割する、水平分割領域を設定し、それらの水平分割領域を一つの入力画像とみなして、処理を行う。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
The embodiments described below are roughly classified into two.
In the first, second, and third embodiments, an input image is subdivided, and a feature amount is calculated for each subdivided small region.
In the fourth, fifth, sixth, and seventh embodiments, a co-occurrence probability matrix is created from an input image, and a background region is specified based on the matrix.
In any of the embodiments, as a superordinate concept, processing is performed by setting a horizontal division area in which the input image is divided into a plurality of parts in the horizontal direction at the beginning of processing, and regarding the horizontal division areas as one input image.

[1.実施形態の共通概念]
図1(a)及び(b)は、本発明の実施形態よりなる監視装置の動作の概略を例示して示すイメージ図である。
図1(a)において、入力画像データ101には、海102と空103と、海に浮かぶ不審物としての船104が存在する。この海102は遠方を撮影した風景であり、入力画像データ101中の海の部分の下の方と水平線近傍とでは、実際の距離は大きく異なる。このために、海面上に生じている波しぶきは、手前のものは大きく、遠方のものは小さく見える。すなわち、撮影された静止画像データ上に海が全体では一様な模様を構成していない。
このような入力画像データ101を、全体を対象として評価すると、精緻な結果を得難い。
そこで、図1(b)に示すように、入力画像データ101を水平線方向に複数に分割し、水平分割領域105、106、107、108、109及び110を作成する。
この、分割した画像データのそれぞれの水平分割領域に対して、不審物の有無の判定を行う。
[1. Common concept of embodiment]
FIGS. 1A and 1B are image diagrams illustrating the outline of the operation of the monitoring apparatus according to the embodiment of the present invention.
In FIG. 1A, the input image data 101 includes a sea 102, a sky 103, and a ship 104 as a suspicious object floating in the sea. This sea 102 is a landscape obtained by photographing a distant place, and the actual distance differs greatly between the lower part of the sea part in the input image data 101 and the vicinity of the horizontal line. For this reason, the wave splash on the sea surface appears to be large in the foreground and small in the distance. That is, the sea does not form a uniform pattern as a whole on the captured still image data.
If such input image data 101 is evaluated as a whole, it is difficult to obtain precise results.
Therefore, as shown in FIG. 1B, the input image data 101 is divided into a plurality of parts in the horizontal line direction, and horizontal divided areas 105, 106, 107, 108, 109, and 110 are created.
Whether or not there is a suspicious object is determined for each of the horizontally divided areas of the divided image data.

この技術思想を実現するためのブロック図を図2(a)及び(b)に示す。図2は、本発明の実施形態の共通概念よりなる、監視装置の全体ブロック図である。図2(a)は実際の装置の中身に即したブロック図であり、図2(b)は機能を中心に見た仮想的なブロック図である。
図2(a)において、監視装置201は撮像カメラ202から得られる画像データから不審物の存在の有無を検出し、不審物の有無を知らせる二値信号(アラーム出力)か、または所定の処理を施した画像信号を出力するものである。撮像カメラ202は例えばCCD撮像素子等からなる、画像信号を出力する周知のカメラである。出力される画像信号は、例えばHDD等の大容量ストレージや、通信回線等で他のホスト装置へ送出される。
監視装置201は主にマイクロコンピュータよりなる。マイクロコンピュータを構成するCPU203、ROM204、RAM205とバス206は、撮像カメラ202から得られる画像データに所定の処理を行って、出力インターフェース207を通じて所定の信号等を出力する。
なお、図2(a)の構成は、この後詳述する各実施形態全てに共通の構成である。
Block diagrams for realizing this technical idea are shown in FIGS. FIG. 2 is an overall block diagram of the monitoring apparatus, which is a common concept of the embodiment of the present invention. FIG. 2A is a block diagram corresponding to the contents of an actual apparatus, and FIG. 2B is a virtual block diagram focusing on functions.
In FIG. 2A, the monitoring apparatus 201 detects the presence / absence of a suspicious object from image data obtained from the imaging camera 202, and performs a binary signal (alarm output) to notify the presence / absence of a suspicious object or a predetermined process. The applied image signal is output. The imaging camera 202 is a well-known camera that outputs an image signal, which includes, for example, a CCD imaging device. The output image signal is sent to another host device via a large-capacity storage such as an HDD or a communication line.
The monitoring device 201 is mainly composed of a microcomputer. The CPU 203, ROM 204, RAM 205 and bus 206 constituting the microcomputer perform predetermined processing on the image data obtained from the imaging camera 202 and output a predetermined signal or the like through the output interface 207.
The configuration shown in FIG. 2A is common to all the embodiments to be described in detail later.

図2(b)において、実体がRAM205である画像保存部212を除いて、各部はマイクロコンピュータ上にて実行されるソフトウェアプログラムによって実現される機能である。これらソフトウェアはROM204に格納されている。
撮像カメラ202から得られる画像信号は、入力静止画像データとして画像保存部212に保存される。
水平領域分割部213は画像保存部212内の入力静止画像データに対し、横方向に分割した水平分割領域を与える。
領域判定処理部214は、水平領域分割部213によって水平方向に分割された画像保存部212内の入力静止画像データの各領域毎に、異物の有無及び位置、形状、面積等を算出し、得られた結果を二値のアラーム、或は画像データとしてストレージやネットワーク等に出力する。
なお、図2(b)の構成は、この後詳述する各実施形態全てに共通の概念である。
In FIG. 2B, each unit is a function realized by a software program executed on a microcomputer, except for an image storage unit 212 whose entity is a RAM 205. These software are stored in the ROM 204.
An image signal obtained from the imaging camera 202 is stored in the image storage unit 212 as input still image data.
The horizontal area dividing unit 213 gives horizontal divided areas divided in the horizontal direction to the input still image data in the image storage unit 212.
The region determination processing unit 214 calculates the presence / absence and position, shape, area, etc. of foreign matter for each region of the input still image data in the image storage unit 212 divided in the horizontal direction by the horizontal region dividing unit 213. The result is output to a storage or network as binary alarm or image data.
The configuration in FIG. 2B is a concept common to all the embodiments described in detail later.

図2(c)は、図2(b)の監視装置の動作を示すフローチャートである。
監視装置201が処理を開始すると(S221)、水平領域分割部213が入力画像データ101をn個(nは2以上の整数)に分割する(S222)。実際には、プログラムにて入力画像データ101が格納されるRAM205内の相対アドレス範囲を指定することとなる。
次に、ループ処理の制御のため、カウンタ変数iを1に初期化する(S223)。そして、i番目の水平分割領域、すなわち水平分割された入力画像データの一部に対して、領域判定処理部214にて領域判定処理(前述の異物の有無の判定等)を行う(S224)。
領域判定処理部214の領域判定処理が終わったら、カウンタiをインクリメントし(S225)、カウンタiが領域の数nを超えたか否か見て(S226)、カウンタiがnを超えるまで水平分割領域に対して領域判定処理を行う。
全ての水平分割領域に対する領域判定処理が完了したら、終了する(S227)。
FIG. 2C is a flowchart showing the operation of the monitoring device of FIG.
When the monitoring apparatus 201 starts processing (S221), the horizontal area dividing unit 213 divides the input image data 101 into n pieces (n is an integer of 2 or more) (S222). Actually, a relative address range in the RAM 205 in which the input image data 101 is stored is designated by a program.
Next, a counter variable i is initialized to 1 to control loop processing (S223). Then, the region determination processing unit 214 performs region determination processing (such as the above-described determination of the presence or absence of foreign matter) on the i-th horizontal divided region, that is, a part of the horizontally divided input image data (S224).
When the area determination processing of the area determination processing unit 214 is completed, the counter i is incremented (S225), whether or not the counter i exceeds the number n of areas (S226), and the horizontal division area until the counter i exceeds n is reached. An area determination process is performed on
When the area determination process for all horizontal division areas is completed, the process ends (S227).

これより説明する第1から第7の実施形態では、領域判定処理部214の具体的な処理を説明する。
各実施形態は入力画像データを水平分割しなくても、単独で自然の風景等に対して良好な不審物検出性能を示す。
しかし、前述のような遠方の風景を処理する場合は、単独では必ずしも最適とはいえない。そこで、遠方の風景の処理に際しては、これから説明する種々の領域判定処理に先立ち、入力画像データに対して水平に分割した領域を設定し、それら個々の水平分割領域を一つの画像データとみなして、領域判定処理を行う。このような前処理を施すことは、遠方の風景における不審物検出性能の向上に寄与する。
In the first to seventh embodiments described below, specific processing of the region determination processing unit 214 will be described.
Each embodiment shows good suspicious object detection performance for natural scenery alone without dividing the input image data horizontally.
However, when processing distant scenery as described above, it is not always optimal alone. Therefore, when processing a distant landscape, prior to the various area determination processes described below, areas that are divided horizontally are set for the input image data, and each of these horizontally divided areas is regarded as one image data. The area determination process is performed. Applying such preprocessing contributes to an improvement in suspicious object detection performance in distant scenery.

[2.特徴量]
実施形態の説明に先立ち、第1、第2及び第3の実施形態にて判断の根拠となる、特徴量を説明する。
特徴量とは、画像の模様、或は質感である。一般的な描画ソフトウェア等において「テクスチャ(texture)」と呼ばれるものとほぼ同義である。
草原であれば、緑色の濃淡が斜め方向に放物線状に多数存在する。
穏やかな海面であれば、濃青色を基調として、日光を反射する水平線に平行な細かい模様や、波しぶき等の白色の部分が一面に多数存在する。
これら自然の風景は、人工的に作成されたタイル等の、機械的に一定の模様を形成しているものではない。しかし、ランダムなばらつきを有するものの、一定の類似する模様のような特徴を形成していると認められる。草原に波しぶきは存在しないし、穏やかな海面に斜め方向の濃淡は存在しないのである。
これら自然の風景は時刻と共に自然現象によって動く。したがって、従来技術のように単純に時間差を伴う複数の静止画像を比較しただけでは、本来的に背景であるにもかかわらずそれが動いているもの、すなわち不審物であると誤認識してしまう。
本実施形態においては、この「動く背景」に対し、「背景のテクスチャ」を捉えることにより、時間軸上の変化に惑わされず、背景を背景としっかり認識する技術を提供する。
背景のテクスチャ或は背景の模様を捉える、ということは、背景の中に存在する異物の特徴も捉えることができることを意味する。これが特徴量の算出である。
入力画像データを均等な細かい領域に分割し、それぞれの分割領域毎に特徴量を算出する。算出した各々の分割領域毎の特徴量のうち、背景の特徴量から逸脱した値を示すものは、不審物が存在する領域であると判断する。このために、サンプルの特徴量と目的とする分割領域の特徴量がどれだけ似ているか、似ていないかを計算する。これが「距離の計算」である。最終的には、得られた距離を所定の閾値と比較する等して、背景であるか否かを判定する。これは、従来より周知である、単一の画素同士の輝度の差を計算する技術思想の延長である。
以上が、全実施形態における共通の概念である。
特徴量とはどのように得るのか、特徴量同士の距離計算とはどのように行うのかについては、後述する。
[2. Feature value]
Prior to the description of the embodiment, a feature amount that is a basis for determination in the first, second, and third embodiments will be described.
The feature amount is an image pattern or texture. It is almost synonymous with what is called “texture” in general drawing software.
In the case of grassland, there are many green shades in a parabolic shape in an oblique direction.
If it is a calm sea surface, there are many white parts such as fine patterns parallel to the horizon that reflects sunlight and white parts such as splashes, based on dark blue.
These natural landscapes do not form a mechanically constant pattern, such as artificially created tiles. However, although it has a random variation, it is recognized that a feature like a certain similar pattern is formed. There is no wave splash on the grassland, and there is no diagonal shading on the calm sea surface.
These natural landscapes move with natural phenomena with time. Therefore, simply comparing a plurality of still images with a time difference as in the prior art, it is misrecognized as a moving object, that is, a suspicious object even though it is essentially a background. .
In the present embodiment, a technique for firmly recognizing the background as the background without being confused by the change on the time axis by capturing the “background texture” with respect to the “moving background” is provided.
Capturing a background texture or background pattern means that it can also capture the characteristics of a foreign object present in the background. This is the calculation of the feature amount.
The input image data is divided into equal fine regions, and the feature amount is calculated for each divided region. Of the calculated feature quantities for each divided area, those indicating values deviating from the background feature quantity are determined to be areas where suspicious objects exist. For this purpose, it is calculated how much the feature quantity of the sample is similar to the feature quantity of the target divided region. This is “distance calculation”. Finally, it is determined whether or not the background is obtained by comparing the obtained distance with a predetermined threshold. This is an extension of the technical idea of calculating the luminance difference between single pixels, which is well known in the art.
The above is a common concept in all the embodiments.
How to obtain the feature amount and how to calculate the distance between the feature amounts will be described later.

[3.第1の実施形態]
これより第1の実施形態を説明する。始めに本実施形態の概略を説明する。本実施形態では、予めサンプルの画像データを与え、そこから背景部分を手作業で指定し、その特徴量を保持しておく。そして、その後装置が本稼動すると入力画像データの分割領域毎に保持している背景サンプルの特徴量データと比較する。
図3は、本発明の第1の実施形態よりなる監視装置のブロック図である。図2(b)の内容に基づくものである。
撮像カメラ202から得られる入力静止画像データは、一旦画像保存部212に保存される。
領域分割部313は、水平領域分割部313aと小領域分割部313bよりなる。先ず、水平領域分割部313aにて処理単位としての水平領域の情報が与えられた後、小領域分割部313bは更に均等な形状の矩形状領域に分割する。
特徴量算出部314は分割された各々の画像データの特徴量計算を行う。
一方、背景特徴量保存部315は、予め操作者の操作によって特定された背景領域の特徴量を保存している。
距離計算部316は、特徴量算出部314から得られる各分割領域毎の特徴量と、背景特徴量保存部315内に保存されている背景特徴量との距離を計算する。距離計算部316による距離計算の結果、背景でないと判断された分割領域は、不審物が存在するものと判断し、アラーム出力をする。
[3. First Embodiment]
The first embodiment will now be described. First, an outline of the present embodiment will be described. In the present embodiment, sample image data is given in advance, a background portion is designated manually from the sample image data, and the feature amount is held. After that, when the apparatus is in full operation, it is compared with the feature quantity data of the background sample held for each divided area of the input image data.
FIG. 3 is a block diagram of the monitoring apparatus according to the first embodiment of the present invention. This is based on the content of FIG.
Input still image data obtained from the imaging camera 202 is temporarily stored in the image storage unit 212.
The area dividing unit 313 includes a horizontal area dividing unit 313a and a small area dividing unit 313b. First, after the horizontal area information as a processing unit is given by the horizontal area dividing unit 313a, the small area dividing unit 313b further divides it into rectangular areas of equal shape.
The feature amount calculation unit 314 calculates the feature amount of each divided image data.
On the other hand, the background feature amount storage unit 315 stores the feature amount of the background area specified in advance by the operation of the operator.
The distance calculation unit 316 calculates the distance between the feature amount for each divided region obtained from the feature amount calculation unit 314 and the background feature amount stored in the background feature amount storage unit 315. As a result of the distance calculation by the distance calculation unit 316, it is determined that there is a suspicious object in the divided area determined not to be the background, and an alarm is output.

背景特徴量保存部315には、表示部303と入力部304が接続されている。
表示部303は例えばLCD等の、周知のディスプレイ装置である。
入力部304は例えばマウス等の、周知のポインティングデバイスである。
背景特徴量保存部315は、サンプルとなる背景の特徴量を保存するものである。本装置の本稼動の前に、予めサンプルとなる入力画像データを表示部303にて表示し、そこに入力部304によって背景を取得する範囲を入力する。そして、特徴量算出部314にて特徴量を算出し、これを保存する。
A display unit 303 and an input unit 304 are connected to the background feature quantity storage unit 315.
The display unit 303 is a known display device such as an LCD.
The input unit 304 is a known pointing device such as a mouse.
The background feature amount storage unit 315 stores a background feature amount as a sample. Prior to the actual operation of this apparatus, input image data as a sample is displayed on the display unit 303 in advance, and a range in which a background is acquired is input by the input unit 304 there. And the feature-value calculation part 314 calculates a feature-value, and preserve | saves this.

図4(a)、(b)及び(c)は、入力画像データを例示して第1の実施形態による監視装置の動作の概略を示すイメージ図である。
図4(a)において、入力画像データとして、海402と空403と不審物である船404を含む画像データ401がある。これは画像保存部212に保存されている。
図4(b)において、背景特徴量保存部315では、操作者の操作により、入力画像データを表示部303にて表示し、入力部304にて背景部分を囲む。図4(a)の点線で囲まれている範囲が、操作者による入力部304の操作によって入力された背景部分領域である。この領域を、特徴量算出部314にて算出し、背景特徴量保存部315に保存しておく。図4(a)では、空の部分と海の部分とで二つの背景サンプルB(1)とB(2)が保存されている。
図4(c)において、入力画像データは領域分割部313にて細かく分割され、それぞれの領域に対して特徴量算出部314が特徴量を算出する。図4(c)では、S(1)〜S(25)迄の25個の分割領域が設けられている。
距離計算部316は、背景サンプルと小分割領域の距離を計算する。この計算は一つずつ順番に行われる。つまり、
背景サンプルB(1)と小分割領域S(1)との距離を計算し、
背景サンプルB(2)と小分割領域S(1)との距離を計算し、
背景サンプルB(1)と小分割領域S(2)との距離を計算し、
背景サンプルB(2)と小分割領域S(2)との距離を計算し、
という演算作業を順番に行い、最後に
背景サンプルB(1)と小分割領域S(25)との距離を計算し、
背景サンプルB(2)と小分割領域S(25)との距離を計算して終了する。
4A, 4 </ b> B, and 4 </ b> C are image diagrams illustrating an outline of the operation of the monitoring apparatus according to the first embodiment by exemplifying input image data.
In FIG. 4A, input image data includes image data 401 including a sea 402, a sky 403, and a ship 404 that is a suspicious object. This is stored in the image storage unit 212.
In FIG. 4B, the background feature amount storage unit 315 displays input image data on the display unit 303 by the operation of the operator, and surrounds the background portion with the input unit 304. A range surrounded by a dotted line in FIG. 4A is the background partial region input by the operation of the input unit 304 by the operator. This area is calculated by the feature amount calculation unit 314 and stored in the background feature amount storage unit 315. In FIG. 4A, two background samples B (1) and B (2) are stored in the sky part and the sea part.
In FIG. 4C, the input image data is finely divided by the region dividing unit 313, and the feature amount calculating unit 314 calculates the feature amount for each region. In FIG. 4C, 25 divided areas from S (1) to S (25) are provided.
The distance calculation unit 316 calculates the distance between the background sample and the small divided area. This calculation is performed one by one. That means
Calculate the distance between the background sample B (1) and the subdivision area S (1),
Calculate the distance between the background sample B (2) and the subdivision area S (1),
Calculating the distance between the background sample B (1) and the subdivision S (2);
Calculate the distance between the background sample B (2) and the subdivision area S (2),
In order, and finally calculate the distance between the background sample B (1) and the subdivision S (25),
The distance between the background sample B (2) and the small divided area S (25) is calculated, and the process ends.

以上は、画面全体を対象に特徴量を算出する説明である。
本実施形態では、予め入力画像データを水平方向に複数の領域に分割してから、前述の処理を行う。したがって、背景領域の指定は、これら水平分割領域を跨るように指定しなければならない。
図5は、表示部303に表示される画面を示す。
表示される画面には水平分割線502を明示的に表示する。使用者は背景領域を指定する際に、水平分割線502を意識して、背景の指定に抜けがないように、背景領域設定範囲503を設定する。
The above is the description of calculating the feature amount for the entire screen.
In the present embodiment, the above-described processing is performed after the input image data is divided in advance into a plurality of regions in the horizontal direction. Therefore, the background area must be specified so as to straddle these horizontally divided areas.
FIG. 5 shows a screen displayed on the display unit 303.
A horizontal dividing line 502 is explicitly displayed on the displayed screen. When the user designates the background area, the user sets the background area setting range 503 so that the background designation is not missed in consideration of the horizontal dividing line 502.

図6は、第1の実施形態にかかる監視装置の、実稼動に先立つ前処理を示すフローチャートである。
処理を開始すると(S601)、サンプルとなる入力静止画像データをRAMに取り込む(S602)。
次に、入力静止画像データを表示部303にて表示する(S603)。
操作者はこれを目視で確認しながら、入力部304を操作して背景領域のアドレス範囲を入力する(S604)。
入力が確定されると、指定されたアドレス範囲をRAM等に保存する(S605)。
そして、サンプルの入力静止画像データから指定されたアドレス範囲のピクセルを抜き出し、特徴量を算出し、保存し(S606)、終了する(S607)。
FIG. 6 is a flowchart illustrating pre-processing prior to actual operation of the monitoring apparatus according to the first embodiment.
When the processing is started (S601), sample input still image data is taken into the RAM (S602).
Next, the input still image data is displayed on the display unit 303 (S603).
While confirming this visually, the operator operates the input unit 304 to input the address range of the background area (S604).
When the input is confirmed, the designated address range is stored in a RAM or the like (S605).
Then, the pixels in the designated address range are extracted from the sample input still image data, the feature amount is calculated, stored (S606), and the process ends (S607).

図7と図8は、第1の実施形態にかかる監視装置の、実稼動状態を示すフローチャートである。
処理を開始すると(S701)、サンプルとなる入力静止画像データをRAMに取り込む(S702)。
次に、水平領域分割部313aにて水平領域分割を行い、その後小領域分割部313bにて分割した各小分割領域毎の特徴量を、特徴量算出部314にて算出する(S703)。
これ以降は、算出した各小領域毎の特徴量と背景サンプルとの距離を順番に計算する処理である。
最初に変数iを1に初期化する(S704)。変数iは各小領域毎の特徴量を特定する変数である。
次に変数jを1に初期化する(S705)。変数jは背景サンプルを特定する変数である。
そして、背景サンプルB(j)と、分割領域特徴量S(i)との距離を計算する(S706)。
次に、距離計算の結果得られた距離を、予め別途保持している閾値と比較する(S707)。距離が閾値以上であれば、フラグ変数f(i)を1に上げる(S708)。フラグ変数f(i)は、小分割領域と同じ数だけ設けられている変数であり、1でフラグが上がっているものとされ、0でフラグが下りているものとされる。なお、距離が閾値以上でなければ、フラグf(i)を0に下げる(S709)。
7 and 8 are flowcharts showing an actual operation state of the monitoring apparatus according to the first embodiment.
When processing is started (S701), sample input still image data is taken into the RAM (S702).
Next, the horizontal region dividing unit 313a performs horizontal region division, and then the feature amount for each small divided region divided by the small region dividing unit 313b is calculated by the feature amount calculating unit 314 (S703).
The subsequent processing is to calculate the distance between the calculated feature amount for each small region and the background sample in order.
First, the variable i is initialized to 1 (S704). The variable i is a variable that specifies a feature amount for each small area.
Next, the variable j is initialized to 1 (S705). The variable j is a variable that specifies the background sample.
Then, the distance between the background sample B (j) and the divided region feature amount S (i) is calculated (S706).
Next, the distance obtained as a result of the distance calculation is compared with a threshold value separately held in advance (S707). If the distance is equal to or greater than the threshold, the flag variable f (i) is increased to 1 (S708). The flag variable f (i) is a variable provided in the same number as that of the small divided areas. The flag is raised by 1 and the flag is lowered by 0. If the distance is not greater than or equal to the threshold, the flag f (i) is lowered to 0 (S709).

次に、変数jが最大値に達したか否かを検証する(S810)。図8の場合であれば、背景サンプルは二つなので、jが2に達したか否かを見ることとなる。jが最大値であれば、全ての背景サンプルと現在検証対象としている小分割領域との距離の計算が終わったことになるので、変数iをインクリメントする(S811)。つまり、次の小分割領域の評価に移行する。jが最大値でなければ、まだ距離の計算が残っている背景サンプルがあるので、jをインクリメントする(S812)。
フラグを下ろした後、変数iを検証する(S813)。検証の結果、最大値でなければ、iをインクリメントする(S814)。これは、フラグを下ろした、ということは、距離計算による検証の結果、当該小分割領域が背景であるものと判断されたことに因る。図8の例では、最初に空の背景サンプルとの距離を計算した結果、それが空であるものと判断されたら、次に海の背景サンプルとの距離を計算する必要はない。このため、次の背景サンプルとの距離計算処理をスキップするためにこの処理を行うものである。
変数iが最大値に達していれば、全ての小分割領域に対して距離計算が終了したことを意味する。そこで、フラグ変数f(i)を全て見て、フラグが上がっている変数があるか否かを検証する(S815)。
検証の結果、フラグが全く上がっていなければ、全ての小分割領域は背景であり、不審物は存在しないと判断できる。
逆に検証の結果、フラグが一つでも上がっているものがあれば、当該小分割領域は背景ではなく、不審物はそこに存在するものと判断できる。
不審物の存在が認められたら、アラームを出力して(S816)、終了する(S817)。
Next, it is verified whether or not the variable j has reached the maximum value (S810). In the case of FIG. 8, since there are two background samples, it is determined whether or not j has reached 2. If j is the maximum value, the calculation of the distances between all background samples and the subdivision area currently being verified is complete, so the variable i is incremented (S811). That is, the process proceeds to the evaluation of the next small divided area. If j is not the maximum value, there is a background sample for which distance calculation still remains, so j is incremented (S812).
After the flag is lowered, the variable i is verified (S813). If it is not the maximum value as a result of the verification, i is incremented (S814). This is because the flag is lowered because the subdivision area is determined to be the background as a result of verification by distance calculation. In the example of FIG. 8, if it is determined that the distance from the sky background sample is empty first, it is not necessary to calculate the distance from the sea background sample next. For this reason, this process is performed in order to skip the distance calculation process with the next background sample.
If the variable i has reached the maximum value, it means that the distance calculation has been completed for all the small divided areas. Therefore, all flag variables f (i) are checked to verify whether there is a variable with a flag raised (S815).
As a result of the verification, if the flag is not raised at all, it can be determined that all the small divided areas are the background, and there is no suspicious object.
On the other hand, as a result of verification, if even one of the flags is raised, it can be determined that the subdivided area is not the background and the suspicious object exists there.
If the presence of a suspicious object is recognized, an alarm is output (S816) and the process is terminated (S817).

本実施形態においては、予め背景のサンプルを手作業で指定する。このため、背景の特徴量が変化すると、これに追従できない、という欠点がある。例えば海を監視する場合においては、海が天候によって荒れたり、撮像カメラ202が撮影角度を移動したりして空と海との配置関係が変わったりすると、誤認識を引き起こしてしまうだろう。
しかしながら、これら特徴を十分に把握した上で、適切な監視対象に対して適切な設置を行えば、本実施形態は十分にその機能を発揮し得る。背景特徴量があまり変わらない監視対象であったり、撮像カメラ202を固定して運用する場合、あるいは背景特徴量が変わった際に再度背景サンプルを入力し直してもよいような場合には、この方法を用いてもよい。
In the present embodiment, a background sample is designated manually in advance. For this reason, there is a drawback in that if the background feature value changes, it cannot follow this. For example, in the case of monitoring the sea, if the sea is rough due to the weather or if the imaging camera 202 moves the shooting angle and the arrangement relationship between the sky and the sea changes, a misrecognition will occur.
However, if these features are sufficiently grasped and an appropriate installation is performed for an appropriate monitoring target, the present embodiment can sufficiently exhibit its functions. If the background feature value is a monitoring target that does not change much, the imaging camera 202 is fixed, or the background feature value changes, the background sample may be input again. A method may be used.

ところで、小分割領域の大きさをどう決定するかは、監視対象によって若干異なる。例えば、複雑な模様を形成する背景に対してあまり小さ過ぎる小分割領域を設定しても、特徴量を適切に演算できるとはいえない。しかし、検出したい不審物の大きさが小さい場合には、あまり大き過ぎる小分割領域を設定しても、得られる特徴量にその変化が現れ難くなってしまう。したがって、最適な小分割領域面積は監視対象に応じて変更する必要がある。このため、監視装置を実稼動させる前に予め試験的に小分割領域面積を変更しながら試験運転を行い、最適値を決定するとよいだろう。   By the way, how to determine the size of the small divided area is slightly different depending on the monitoring target. For example, even if a small divided region that is too small for the background forming a complex pattern is set, it cannot be said that the feature amount can be calculated appropriately. However, when the size of a suspicious object to be detected is small, even if a too small subdivision region is set, the change is less likely to appear in the obtained feature amount. Therefore, it is necessary to change the optimal small divided area according to the monitoring target. For this reason, it is advisable to perform a test operation while changing the subdivision area area on a trial basis in advance and determine the optimum value before actually operating the monitoring device.

以上に説明したことをまとめる。
本実施形態の監視装置301は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置301に入力されると、これを画像保存部212(実体はRAM205)内に保存する。次に、水平領域分割部313aにて水平分割領域に分割する。そして、小領域分割部313bにて均等な面積形状に分割された後、特徴量算出部314にて特徴量データを小分割領域毎に作成する。次に、得られた特徴量データを、予め手入力により範囲を設定され、演算処理後保持されている所定値115との距離を計算し、得られた「距離」を所定の閾値と比較する。閾値に満たない距離の領域は、背景であるものと判断する。そして、背景と判断された小分割領域を示すフラグを下ろす。
以上の処理は、水平領域分割部313aにて作成された水平分割領域毎に行われる。
以上の処理により、入力静止画像データから特徴量演算と距離計算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring apparatus 301 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring apparatus 301, it is stored in the image storage unit 212 (substantially the RAM 205). Next, the horizontal area dividing unit 313a divides the image into horizontal divided areas. And after dividing | segmenting into an equal area shape in the small area division part 313b, the feature-value calculation part 314 produces feature-value data for every small-division area | region. Next, the range of the obtained feature data is set in advance by manual input, the distance from the predetermined value 115 held after the arithmetic processing is calculated, and the obtained “distance” is compared with a predetermined threshold value. . A region having a distance less than the threshold is determined to be the background. Then, the flag indicating the small divided area determined to be the background is lowered.
The above processing is performed for each horizontal division region created by the horizontal region division unit 313a.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the distance calculation.

[4.特徴量の演算方法]
ここで、特徴量の演算方法を説明する。
特徴量とは、一定の範囲の画像データを読み込み、その画像データに現れている特長を数値化したものである。
画像データの特徴とは様々なものが考えられる。色度、彩度、模様等多岐に渡る。したがって、単一のスカラ量であることはあり得ず、沢山の要素よりなる行列で表される。
図9(a)、(b)及び(c)は本発明にて説明する第1、第2及び第3の実施形態に共通に利用可能である特徴量演算方法の一つ、色ヒストグラムを説明する概略図である。
図9(a)は入力画像データのサンプルを示す。入力画像データ901には、海902が全体に広がっており、その中に不審物である船903が存在する。不審物は黒色のピクセルよりなる。
図9(b)は図9(a)に示した入力画像データのサンプルのうち、海の部分を拡大したものを示す。海902には波しぶき904が生じている。海水905の部分は青色のピクセルにて、波しぶき904の部分は白色のピクセルにてなる。
図9(c)は全ての色成分を行列にしたものである。図9(a)の入力画像データに存在する各ピクセルを、この行列906に該当する箇所の要素に一つずつ加算していく。すると、波しぶきを表現する白色の領域907と、海水を表現する青色の領域908と、不審物である船を表現する黒色の領域909に累積点が集中する。つまり、この三箇所において、周知のガウス曲面のような曲面が形成されるものと思っていただければよいだろう。
以上説明したように、色ヒストグラムは、カラー画像データ中の各ピクセル毎に、色の出現頻度を計数したものである。画像を構成する色の粒をばらばらにして、同じ色素毎にかき集めたと考えても良いだろう。このため、生成したデータには模様の概念が失われることとなる。
[4. Feature value calculation method]
Here, a method of calculating the feature amount will be described.
The feature value is obtained by reading image data in a certain range and digitizing features appearing in the image data.
Various features of image data can be considered. Wide range of chromaticity, saturation, and pattern. Therefore, it cannot be a single scalar quantity, and is represented by a matrix composed of many elements.
FIGS. 9A, 9B, and 9C illustrate a color histogram, which is one of feature amount calculation methods that can be commonly used in the first, second, and third embodiments described in the present invention. FIG.
FIG. 9A shows a sample of input image data. In the input image data 901, the sea 902 spreads out as a whole, and a ship 903 that is a suspicious object exists therein. Suspicious objects consist of black pixels.
FIG. 9B shows an enlarged view of the sea portion of the input image data sample shown in FIG. Waves 904 are generated in the sea 902. The seawater 905 portion is a blue pixel, and the wave splash 904 portion is a white pixel.
FIG. 9C shows a matrix of all color components. Each pixel existing in the input image data in FIG. 9A is added to the elements corresponding to the matrix 906 one by one. Then, the accumulated points are concentrated on a white area 907 that expresses splashing water, a blue area 908 that expresses seawater, and a black area 909 that expresses a ship that is a suspicious object. In other words, you should think that a curved surface such as a well-known Gaussian surface is formed at these three locations.
As described above, the color histogram is obtained by counting the color appearance frequency for each pixel in the color image data. You may think that the color particles that make up the image are scattered and collected for the same pigment. For this reason, the pattern concept is lost in the generated data.

図10(a)、(b)、(c)及び(d)は本発明にて説明する第1、第2及び第3の実施形態に共通に利用可能である特徴量演算方法の一つ、周波数解析を説明する概略図である。
図10(a)は、入力画像データの一部1001を示す。これは図9(b)で示したものと同じ、入力画像データのサンプルのうち、海の部分を拡大したものを示す。図10(b)はその一部分を更に拡大して、波しぶきの一部を示す。波しぶきに該当するピクセルは明るく、海水に該当するピクセルは暗い。この、各ピクセル1002の輝度を取得する。
図10(c)は、入力画像データを構成する各ピクセルの明度を左側から右側へ順番にプロットしたものの一例を示す。海水に該当する箇所は輝度が低く、波しぶきに該当する箇所は輝度が高いことがわかる。そして、このようにして得られる図形を、あたかも信号のようにみなし、その周波数成分を解析するのが、周波数解析である。
図10(d)は、その周波数解析の結果の一例を示す。図10(c)でプロットした波形をフーリエ解析し、横軸に周波数、縦軸にレベルを取る。最終的には、このようにして得られたデータを行列とする。つまり、画像データの輝度を波形化したものの周波数成分よりなる行列である。
以上説明したように、周波数解析は、画像データ中の各ピクセル毎に、輝度の変化を波形と見立てて周波数成分を分析すべく、フーリエ変換したものである。このため、濃淡のパターン、転じて所定の模様のパターンが周波数成分となって表現されることとなる。
FIGS. 10A, 10B, 10C, and 10D are one of feature amount calculation methods that can be commonly used in the first, second, and third embodiments described in the present invention. It is the schematic explaining frequency analysis.
FIG. 10A shows a part 1001 of the input image data. This is the same as that shown in FIG. 9 (b), and shows an enlarged portion of the sea portion of the sample of input image data. FIG. 10B shows a part of the splash by further enlarging the part. Pixels corresponding to wave splash are bright and pixels corresponding to seawater are dark. The luminance of each pixel 1002 is acquired.
FIG. 10C shows an example in which the brightness of each pixel constituting the input image data is plotted in order from the left side to the right side. It can be seen that the portion corresponding to seawater has low luminance, and the portion corresponding to wave splash has high luminance. Then, the frequency analysis is to treat the figure obtained in this way as if it were a signal and analyze the frequency component.
FIG. 10D shows an example of the result of the frequency analysis. The waveform plotted in FIG. 10C is subjected to Fourier analysis, and the horizontal axis represents frequency and the vertical axis represents level. Finally, the data obtained in this way is used as a matrix. That is, it is a matrix composed of frequency components of the waveform of the luminance of the image data.
As described above, the frequency analysis is a Fourier transform for each pixel in the image data in order to analyze the frequency component by regarding the change in luminance as a waveform. For this reason, a shading pattern, in turn, a pattern of a predetermined pattern is expressed as a frequency component.

図11は、同時生起確率行列の概要を説明するための図である。
図11(a)において、P1とP2は画像データ中の任意の二つのピクセルである。ピクセルP1からピクセルP2へは、距離rと角度θだけ離れている。このrとθを相対位置関数δとする。δ=(r,θ)と表す。
図11(b)において、δ1=(1,0°)である場合、ピクセルP1に対してピクセルP2は隣り合う次のピクセルを指し示す。
図11(c)において、δ1=(1,90°)である場合、ピクセルP1に対してピクセルP2は隣り合う真上のピクセルを指し示す。
同時生起確率行列は、この一定の相対位置関数δだけ離れている二点のピクセルの輝度の組み合わせを、輝度を要素数とする正方行列に加算する仕組みである。
FIG. 11 is a diagram for explaining the outline of the co-occurrence probability matrix.
In FIG. 11A, P1 and P2 are any two pixels in the image data. The pixel P1 is separated from the pixel P2 by a distance r and an angle θ. Let r and θ be the relative position function δ. δ = (r, θ).
In FIG. 11B, when δ1 = (1,0 °), the pixel P2 indicates the next adjacent pixel with respect to the pixel P1.
In FIG. 11C, when δ1 = (1, 90 °), the pixel P2 indicates the adjacent pixel immediately above the pixel P1.
The co-occurrence probability matrix is a mechanism that adds a combination of the luminances of two pixels separated by a certain relative position function δ to a square matrix having luminance as the number of elements.

図12に、説明のために簡素化した画像データと簡素化した同時生起確率行列を示す。
図12(a)において、4×4の16ピクセルよりなる画像データ内の各ピクセルは、0〜3迄の4段階の輝度を有する。
図12(b)は、4段階の輝度よりなる4×4の正方行列である同時生起確率行列である。ここで、相対位置関数δ=(r,θ)=(1,0°)の関係にて、図12(a)の画像データから同時生起確率行列を作成する手順を以下に示す。
図12(a)の(x,y)=(0,0)をピクセルP1とすると、ピクセルP2は(x,y)=(1,0)となる。このとき、ピクセルP1の輝度iは0、ピクセルP2の輝度jは0である。したがって、(i,j)=(0,0)に1を加える。更に、往復カウントを行うので、(i,j)=(0,0)に1を加える。
図12(a)の(x,y)=(1,0)をピクセルP1とすると、ピクセルP2は(x,y)=(2,0)となる。このとき、ピクセルP1の輝度iは0、ピクセルP2の輝度jは1である。したがって、(i,j)=(0,1)に1を加える。更に、往復カウントを行うので、(i,j)=(1,0)に1を加える。
以上のように、相対位置関数δだけ離れている各ピクセルの輝度の組み合わせに相当する行列の要素をカウントアップする動作を、全てのピクセルに対して行う。つまり、この正方行列は、二つのピクセルの輝度の組み合わせの出現回数を示す、カウンタの行列である。
なお、往復カウントをするか否かは設計者の任意である。
FIG. 12 shows simplified image data and a simplified co-occurrence probability matrix for explanation.
In FIG. 12A, each pixel in the image data composed of 4 × 4 16 pixels has four levels of brightness from 0 to 3.
FIG. 12B is a co-occurrence probability matrix that is a 4 × 4 square matrix having four levels of luminance. Here, a procedure for creating a co-occurrence probability matrix from the image data of FIG. 12A in the relationship of relative position function δ = (r, θ) = (1,0) is shown below.
If (x, y) = (0, 0) in FIG. 12A is the pixel P1, the pixel P2 is (x, y) = (1, 0). At this time, the luminance i of the pixel P1 is 0, and the luminance j of the pixel P2 is 0. Therefore, 1 is added to (i, j) = (0,0). Furthermore, since round trip counting is performed, 1 is added to (i, j) = (0, 0).
If (x, y) = (1, 0) in FIG. 12A is the pixel P1, the pixel P2 is (x, y) = (2, 0). At this time, the luminance i of the pixel P1 is 0, and the luminance j of the pixel P2 is 1. Therefore, 1 is added to (i, j) = (0,1). Furthermore, since round trip counting is performed, 1 is added to (i, j) = (1, 0).
As described above, the operation of counting up the elements of the matrix corresponding to the combination of the luminance of each pixel separated by the relative position function δ is performed for all the pixels. That is, this square matrix is a matrix of counters indicating the number of appearances of the combination of the luminance values of two pixels.
Note that it is up to the designer to perform a round-trip count.

同時生起確率行列はその性質上、相対位置関数を複数取って、それぞれに複数の行列を生成することが望まれる。画像を構成する模様が水平や垂直とは限らないからである。最低でも縦と横の相対位置関数は取ることが望ましい。   Due to the nature of the co-occurrence probability matrix, it is desirable to take a plurality of relative position functions and generate a plurality of matrices for each. This is because the pattern constituting the image is not always horizontal or vertical. It is desirable to take at least the vertical and horizontal relative position functions.

これら特徴量演算方法により、沢山の数値データよりなる行列よりなる特徴量が、入力画像データの分割領域毎に作成される。
得られた特徴量を、予め保持している所定のサンプル値や他の特徴量と比較して、「距離」を算出する。この演算を特徴量距離計算といい、後述する。
なお、以上に例示列挙した特徴量演算方法のいずれを採用するかは、得られる特徴量の精度と演算量とのトレードオフにて、設計者が決定する。
By these feature amount calculation methods, feature amounts composed of a matrix composed of a large number of numerical data are created for each divided region of the input image data.
A “distance” is calculated by comparing the obtained feature quantity with a predetermined sample value or other feature quantity held in advance. This calculation is called feature amount distance calculation, which will be described later.
Note that the designer determines which of the feature quantity calculation methods listed above is adopted based on a trade-off between the accuracy of the obtained feature quantity and the calculation quantity.

[5.特徴量距離計算方法]
以上説明した特徴量演算方法により、入力画像データの分割領域毎に特徴量が作成される。これらは全て沢山の数値データよりなる行列である。
行列データ同士を比較するにはどうするか。ここで、求めたい値とは、二つの行列データの類似度である。前述の第1の実施形態にあっては、サンプル背景データの特徴量を構成する行列データと、分割領域の特徴量を構成する行列データである。
行列データの類似度を得るための方法は従来より様々な方法知られている。以下に例示列挙する。
(1)行列の各要素毎に差を取り、得られた行列の各要素の総和を取る方法(SAD: Sum of Absolute Difference)。
(2)行列の各要素毎に差を取り、得られた行列の各要素を二乗し、その後各要素の総和を取る方法(SSD: Sum of Squared Difference)。
(3)行列の各要素をベクトルの成分として捉え、行列同士の内積を取る方法。すなわち、行列の各要素同士の積を取り、得られた行列の各要素の総和を取る方法(内積: Normalization)。
[5. Feature distance calculation method]
With the feature amount calculation method described above, a feature amount is created for each divided region of the input image data. These are all matrices consisting of a lot of numerical data.
How to compare matrix data Here, the value to be obtained is the similarity between the two matrix data. In the first embodiment described above, the matrix data constituting the feature amount of the sample background data and the matrix data constituting the feature amount of the divided area.
Various methods for obtaining the similarity of matrix data are conventionally known. Examples are listed below.
(1) A method of taking the difference for each element of the matrix and taking the sum of each element of the obtained matrix (SAD: Sum of Absolute Difference).
(2) A method of taking a difference for each element of the matrix, squaring each element of the obtained matrix, and then summing each element (SSD: Sum of Squared Difference).
(3) A method of taking each element of a matrix as a vector component and taking an inner product of the matrices. That is, a method of taking the product of each element of the matrix and taking the sum of each element of the obtained matrix (inner product: Normalization).

これら特徴量の比較演算により、最終的には単一のスカラ値よりなる「距離」が得られる。
得られた距離を予め保持している所定の閾値と比較して、所定の判断を行う。
なお、例示列挙した特徴量距離計算方法のいずれを採用するかは、得られる距離の精度と演算量とのトレードオフにて、設計者が決定する。
By the comparison operation of these feature amounts, a “distance” consisting of a single scalar value is finally obtained.
A predetermined determination is made by comparing the obtained distance with a predetermined threshold that is held in advance.
Note that the designer determines which of the feature quantity distance calculation methods listed as examples is based on a trade-off between the accuracy of the obtained distance and the calculation amount.

以上に述べた特徴量演算方法と特徴量距離計算方法は、前述の第1の実施形態、そして後述する第2及び第3の実施形態において共通に選択して利用可能な技術である。すなわち、いずれの実施形態においても、特徴量演算方法として色ヒストグラム、周波数解析、同時生起確率行列のいずれを採用してもよいし、特徴量距離計算方法としてSAD、SSD、内積のいずれを採用してもよい。   The feature amount calculation method and the feature amount distance calculation method described above are technologies that can be selected and used in common in the first embodiment described above and in the second and third embodiments described later. That is, in any embodiment, any of color histogram, frequency analysis, and co-occurrence probability matrix may be adopted as the feature amount calculation method, and any of SAD, SSD, and inner product is adopted as the feature amount distance calculation method. May be.

[6.第2の実施形態]
図13は、本発明の第2の実施形態よりなる監視装置のブロック図である。図2(b)の内容に基づくものである。なお、第1の実施形態を説明した図3と共通の部分については、重複を避けるために説明を割愛する。
第2の実施形態の、第1の実施形態と異なる部分は、背景特徴量保存部202の代わりに平均値保存部1302が設けられている点である。
平均値保存部1302は、特徴量算出部314から得られる各小分割領域毎の特徴量の平均値を保存する。
距離計算部316は、特徴量算出部314から得られる各小分割領域毎の特徴量と、平均値保存部1302内に保存されている平均値との距離を計算する。距離計算部316による距離計算の結果、背景でないと判断された分割領域は、不審物が存在するものと判断し、アラーム出力をする。
[6. Second Embodiment]
FIG. 13 is a block diagram of a monitoring apparatus according to the second embodiment of the present invention. This is based on the content of FIG. In addition, about the part which is common in FIG. 3 explaining 1st Embodiment, description is omitted in order to avoid duplication.
The second embodiment is different from the first embodiment in that an average value storage unit 1302 is provided instead of the background feature amount storage unit 202.
The average value storage unit 1302 stores the average value of the feature amounts for each subdivision area obtained from the feature amount calculation unit 314.
The distance calculation unit 316 calculates the distance between the feature amount for each subdivision area obtained from the feature amount calculation unit 314 and the average value stored in the average value storage unit 1302. As a result of the distance calculation by the distance calculation unit 316, it is determined that there is a suspicious object in the divided area determined not to be the background, and an alarm is output.

図14(a)、(b)及び(c)は、入力画像データを例示して第2の実施形態による監視装置の動作の概略を示すイメージ図である。
図14(a)において、入力画像データとして、海1402と不審物である船1404を含む画像データ1201がある。
図14(b)において、平均値保存部1302には、特徴量算出部314にて算出された、各小分割領域毎の特徴量S(1)〜S(25)の平均値が格納される。つまり、全ての分割領域の特徴量の総和を、分割領域の数で割った値である。
距離計算部316は、平均値と分割領域との距離を計算する。この距離計算は一つずつ順番に行われる。つまり、
平均値Bと分割領域S(1)との距離を計算し、
平均値Bと分割領域S(2)との距離を計算し、
という演算作業を順番に行い、最後に、
平均値Bと分割領域S(25)との距離を計算して終了する。
FIGS. 14A, 14B, and 14C are image diagrams illustrating an outline of the operation of the monitoring apparatus according to the second embodiment, illustrating input image data.
In FIG. 14A, input image data includes image data 1201 including a sea 1402 and a ship 1404 that is a suspicious object.
In FIG. 14B, the average value storage unit 1302 stores the average value of the feature amounts S (1) to S (25) for each small divided region calculated by the feature amount calculation unit 314. . That is, it is a value obtained by dividing the sum of the feature amounts of all the divided areas by the number of divided areas.
The distance calculation unit 316 calculates the distance between the average value and the divided area. This distance calculation is performed one by one. That means
Calculate the distance between the average value B and the divided area S (1),
Calculate the distance between the average value B and the divided area S (2),
In order, and finally,
The distance between the average value B and the divided area S (25) is calculated, and the process ends.

図15と図16は、第2の実施形態にかかる監視装置の動作を示すフローチャートである。
処理を開始すると(S1501)、サンプルとなる入力静止画像データをRAMに取り込む(S1502)。
次に、水平領域分割部313aにて水平領域分割を行い、その後小領域分割部313bにて分割した各小分割領域毎の特徴量を、特徴量算出部314にて算出する(S1503)。
そして、得られた全ての各小分割領域毎の特徴量から、平均値を算出する(S1504)。
これ以降は、算出した各小分割領域毎の特徴量と平均値との距離を順番に計算する処理である。
最初に変数iを1に初期化する(S1505)。変数iは各小分割領域毎の特徴量を特定する変数である。
そして、平均値Bと、小分割領域特徴量S(i)との距離を計算する(S1506)。
次に、距離計算の結果を、予め別途保持している閾値と比較する(S1507)。距離が閾値以上であれば、フラグ変数f(i)を1に上げる(S1508)。フラグ変数f(i)は、小分割領域と同じ数だけ設けられている変数であり、1でフラグが上がっているものとされ、0でフラグが下りているものとされる。
15 and 16 are flowcharts showing the operation of the monitoring apparatus according to the second embodiment.
When processing is started (S1501), sample input still image data is taken into the RAM (S1502).
Next, the horizontal region division unit 313a performs horizontal region division, and then the feature amount for each small divided region divided by the small region division unit 313b is calculated by the feature amount calculation unit 314 (S1503).
Then, an average value is calculated from the feature values for all the obtained small divided regions (S1504).
From this point onward, the calculated distance between the feature value and the average value for each subdivision area is calculated in order.
First, the variable i is initialized to 1 (S1505). The variable i is a variable that specifies the feature amount for each subdivision area.
Then, the distance between the average value B and the small divided region feature amount S (i) is calculated (S1506).
Next, the result of the distance calculation is compared with a threshold value separately held in advance (S1507). If the distance is equal to or greater than the threshold, the flag variable f (i) is increased to 1 (S1508). The flag variable f (i) is a variable provided in the same number as that of the small divided areas. The flag is raised by 1 and the flag is lowered by 0.

次に、変数iを検証する(S1609)。検証の結果、最大値でなければ、iをインクリメントする(S1610)。変数iが最大値に達していれば、全ての小分割領域に対して距離計算が終了したことを意味する。そこで、フラグ変数f(i)を全て見て、フラグが上がっている変数があるか否かを検証する(S1611)。
検証の結果、フラグが全く上がっていなければ、全ての分割領域は背景であり、不審物は存在しないと判断できる。
逆に検証の結果、フラグが一つでも上がっているものがあれば、当該小分割領域は背景ではなく、不審物はそこに存在するものと判断できる。
不審物の存在が認められたら、アラームを出力し(S1612)、終了する(S1613)。
Next, the variable i is verified (S1609). If it is not the maximum value as a result of the verification, i is incremented (S1610). If the variable i has reached the maximum value, it means that the distance calculation has been completed for all the small divided areas. Therefore, all flag variables f (i) are checked to verify whether there is a variable with a flag raised (S1611).
As a result of the verification, if the flag is not raised at all, it can be determined that all the divided areas are the background and there is no suspicious object.
On the other hand, as a result of verification, if even one of the flags is raised, it can be determined that the subdivided area is not the background and the suspicious object exists there.
If the presence of a suspicious object is recognized, an alarm is output (S1612) and the process ends (S1613).

以上に説明したことをまとめる。
本実施形態の監視装置1301は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置1301に入力されると、これを画像保存部212(実体はRAM205)内に保存する。次に、水平領域分割部313aにて水平分割領域に分割する。そして、小領域分割部313bにて均等な面積形状に分割された後、特徴量算出部314にて特徴量データを小分割領域毎に作成する。その後、全分割領域の特徴量データの平均を算出し、平均値保持部1302(実体はRAM205)内に保存する。次に、得られた特徴量データと、平均値保持部1302内の平均値との距離を計算し、この結果得られた距離を所定の閾値と比較する。閾値に満たない距離の領域は、背景であるものと判断する。そして、背景と判断された分割領域を示すフラグを下ろす。
以上の処理は、水平領域分割部313aにて作成された水平分割領域毎に行われる。
以上の処理により、入力静止画像データから特徴量演算と距離計算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring device 1301 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring device 1301, it is stored in the image storage unit 212 (substantially the RAM 205). Next, the horizontal area dividing unit 313a divides the image into horizontal divided areas. And after dividing | segmenting into an equal area shape in the small area division part 313b, the feature-value calculation part 314 produces feature-value data for every small-division area | region. Thereafter, the average of the feature amount data of all the divided areas is calculated and stored in the average value holding unit 1302 (the entity is the RAM 205). Next, a distance between the obtained feature amount data and the average value in the average value holding unit 1302 is calculated, and the distance obtained as a result is compared with a predetermined threshold value. A region having a distance less than the threshold is determined to be the background. Then, the flag indicating the divided area determined to be the background is lowered.
The above processing is performed for each horizontal division region created by the horizontal region division unit 313a.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the distance calculation.

[7.第3の実施形態]
図17(a)及び(b)は、本発明の第3の実施形態よりなる監視装置のブロック図である。図2(b)の内容に基づくものである。なお、第2の実施形態を説明した図13と共通の部分については、重複を避けるために説明を割愛する。
図17(a)において、第3の実施形態の、第2の実施形態と異なる部分は、特徴量算出部314と比較部1704との間にクラスタリング処理部1703が設けられ、比較部1704はこのクラスタリング処理部1703と閾値1702とを比較している点である。
クラスタリング処理部1703は、特徴量算出部314から得られる各小分割領域毎の特徴量同士の距離を計算し、距離が近いと判断できる小分割領域同士、すなわち類似すると判断できる小分割領域同士を類似する画像であるとみなしてグルーピング化する、「クラスタリング」という処理を行う。この処理により、各々の類似する小分割領域は同じ画像部分に属する集合として分類される。
比較部1704は、クラスタリング処理部1703から得られる各小分割領域の集合の要素数と閾値1702とを比較する。比較部1704による比較の結果、背景でないと判断された小分割領域の集合は、不審物が存在するものと判断し、アラーム出力をする。
[7. Third Embodiment]
FIGS. 17A and 17B are block diagrams of a monitoring apparatus according to the third embodiment of the present invention. This is based on the content of FIG. In addition, about the part which is common in FIG. 13 explaining 2nd Embodiment, it abbreviate | omits description in order to avoid duplication.
In FIG. 17A, the third embodiment is different from the second embodiment in that a clustering processing unit 1703 is provided between the feature amount calculation unit 314 and the comparison unit 1704. The clustering processing unit 1703 and the threshold 1702 are compared.
The clustering processing unit 1703 calculates the distance between the feature amounts for each subdivision area obtained from the feature quantity calculation unit 314, and subdivision areas that can be determined to be close to each other, that is, subdivision areas that can be determined to be similar to each other. A process called “clustering” is performed in which images are considered to be similar and grouped. By this processing, each similar subdivided region is classified as a set belonging to the same image portion.
The comparison unit 1704 compares the number of elements of each subdivision region set obtained from the clustering processing unit 1703 with a threshold 1702. As a result of the comparison by the comparison unit 1704, a set of small divided areas determined not to be the background is determined to have a suspicious object, and an alarm is output.

図17(b)は図17(a)のクラスタリング処理部1703の内部構成を示すブロック図である。
距離計算対象設定部1713は、特徴量算出部314から得られた特徴量1712の、どの特徴量同士を距離計算の対象とするか、決定する。
距離計算部1714は、距離計算対象設定部1713によって選択された二つの特徴量同士の距離を計算する。
比較部1716は、距離計算部1714より得られた距離を、閾値1715と比較する。この比較結果は、二つの小分割領域を併合するか否かの判定に繋がる。
グルーピング処理部1717は、比較部1716の比較結果に応じて、二つの小分割領域を併合し、或は併合せずそのままにする。
以上、一連の処理を通じて、小分割領域毎の特徴量は幾つかの類似する特徴量同士の群に分類される。この処理の後、特徴量の群の数を表すデータは、比較部1704にて閾値1702と比較され、背景であるか否かの判定に繋がる。
FIG. 17B is a block diagram showing an internal configuration of the clustering processing unit 1703 in FIG.
The distance calculation target setting unit 1713 determines which feature amounts of the feature amount 1712 obtained from the feature amount calculation unit 314 are to be distance calculation targets.
The distance calculation unit 1714 calculates the distance between the two feature amounts selected by the distance calculation target setting unit 1713.
The comparison unit 1716 compares the distance obtained from the distance calculation unit 1714 with a threshold value 1715. This comparison result leads to the determination of whether or not the two subdivided areas are merged.
The grouping processing unit 1717 merges the two subdivided regions according to the comparison result of the comparison unit 1716, or leaves them as they are without being merged.
As described above, through a series of processes, the feature amounts for each small divided region are classified into groups of several similar feature amounts. After this processing, the data representing the number of groups of feature values is compared with a threshold value 1702 by the comparison unit 1704, leading to a determination as to whether or not it is the background.

図18(a)、(b)、(c)及び(d)は、入力画像データを例示して第3の実施形態による監視装置の動作の概略を示すイメージ図である。なお、この図18では説明の便宜上水平領域分割を行わない場合の説明を行う。
入力画像データとして、海と不審物である船を含む画像データ1801がある。
クラスタリング処理部1703は、特徴量算出部314にて算出された、各分割領域毎の特徴量S(1)〜S(25)を全て見比べて、類似する分割領域をまとめる処理を行う。
先ず、図18(a)の、画像データ1801を分割した領域の一番左上の領S(1)と、その隣の領域S(2)との距離を、距離計算部1714にて計算する。距離計算の結果得られた二つの特徴量の距離を、別途予め用意している閾値1702と比較して、互いの分割領域が類似するものであるか否かを判断する。図18(a)では、領域S(1)とS(2)は両方とも海の部分であるので、その特徴量は類似するため、距離は近い。そこで、同じ模様であるとみなし、一つにまとめる。これが図18(b)に示す処理である。つまり、領域S(1)とS(2)を一つにして、境界線を消去する概念である。
図18(b)から更に隣り合う領域同士の距離計算と、得られた距離と閾値1702との比較による類似判断を進めていく。すなわち、図18(c)に示すように、類似する画像の分割領域の境界線が次々と消去されるイメージである。
最後には、図18(d)に示すように、他の分割領域とは特徴量が大きく異なり、距離が遠いと認められる分割領域S(12)、S(13)及びS(14)が残る。これが、不審物が存在する領域となる。
FIGS. 18A, 18B, 18C, and 18D are image diagrams illustrating an outline of the operation of the monitoring apparatus according to the third embodiment, illustrating input image data. In FIG. 18, for convenience of explanation, a case where horizontal region division is not performed will be described.
As input image data, there is image data 1801 including the sea and a ship that is a suspicious object.
The clustering processing unit 1703 compares all the feature amounts S (1) to S (25) for each divided region calculated by the feature amount calculating unit 314, and performs a process of collecting similar divided regions.
First, the distance calculation unit 1714 calculates the distance between the upper left region S (1) of the region obtained by dividing the image data 1801 in FIG. 18A and the adjacent region S (2). The distance between the two feature amounts obtained as a result of the distance calculation is compared with a threshold 1702 prepared in advance, and it is determined whether or not the divided areas are similar to each other. In FIG. 18 (a), since the regions S (1) and S (2) are both sea portions, their feature amounts are similar, so the distance is close. Therefore, they are considered to be the same pattern and are combined into one. This is the process shown in FIG. That is, it is a concept of erasing the boundary line by combining the areas S (1) and S (2).
From FIG. 18B, the calculation of the distance between adjacent regions and the similarity determination by comparing the obtained distance with the threshold value 1702 are advanced. That is, as shown in FIG. 18C, the boundary lines of similar image segmented areas are erased one after another.
Finally, as shown in FIG. 18 (d), the divided regions S (12), S (13), and S (14) whose feature amounts are significantly different from those of other divided regions and that are recognized to be long are left. . This is an area where suspicious objects exist.

図19は、第3の実施形態にかかる監視装置の動作を示すフローチャートである。
処理を開始すると(S1901)、サンプルとなる入力静止画像データをRAMに取り込む(S1902)。
次に、水平領域分割部313aにて水平領域分割を行い、その後小領域分割部313bにて分割した各小分割領域毎の特徴量を、特徴量算出部314にて算出する(S1903)。
そして、得られた全ての各小分割領域毎の特徴量を基に、クラスタリング処理を行う(S1904)。クラスタリング処理の結果、小分割領域は類似する領域同士にまとめられる。
次に、領域の面積、すなわち類似する領域を構成する小分割領域の数と、閾値1702とを比較し、背景と認められない狭い領域があるか否かを検証する(S1905)。
検証の結果、全ての領域を構成する小分割領域の数が閾値1702以上であれば、全ての小分割領域は背景であり、不審物は存在しないと判断できる。
逆に検証の結果、特定の領域を構成する小分割領域の数が閾値1702に満たないものがあれば、当該領域は背景ではなく、不審物はそこに存在するものと判断できる。
不審物の存在が認められたら、アラームを出力し(S1906)、終了する(S1907)。
FIG. 19 is a flowchart illustrating the operation of the monitoring apparatus according to the third embodiment.
When processing is started (S1901), input still image data as a sample is taken into the RAM (S1902).
Next, the horizontal region division unit 313a performs horizontal region division, and then the feature amount for each small divided region divided by the small region division unit 313b is calculated by the feature amount calculation unit 314 (S1903).
Then, clustering processing is performed based on the obtained feature quantities for each of the small divided regions (S1904). As a result of the clustering process, the small divided areas are grouped into similar areas.
Next, the area area, that is, the number of subdivided areas constituting a similar area is compared with the threshold 1702, and it is verified whether there is a narrow area that cannot be recognized as a background (S1905).
As a result of the verification, if the number of small divided areas constituting all the areas is equal to or greater than the threshold value 1702, it can be determined that all the small divided areas are the background and there is no suspicious object.
On the other hand, as a result of verification, if the number of small divided areas constituting a specific area is less than the threshold value 1702, it can be determined that the area is not a background and a suspicious object exists there.
If the presence of a suspicious object is recognized, an alarm is output (S1906) and the process ends (S1907).

以上に説明したことをまとめる。
本実施形態の監視装置1501は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
入力静止画像データが監視装置1501に入力されると、これを画像保存部212(実体はRAM205)内に保存する。次に、水平領域分割部313aにて水平分割領域に分割する。そして、小領域分割部313bにて均等な面積形状に分割された後、特徴量算出部314にて特徴量データを小分割領域毎に作成する。
その後、クラスタリング処理部1703にて、全小分割領域の特徴量データ同士の距離を計算し、得られた距離が小さい小分割領域同士を同じ模様の領域であると判断し、それらを統合する、クラスタリング処理を行う。こうして、複数の小分割領域が幾つかの領域の集合体に分類される。
次に、分類された複数の小分割領域の集合体を構成する小分割領域の数を、所定の閾値1702と比較する。閾値1702以上の数の小分割領域よりなる集合は、背景であるものと判断する。そして、背景と判断された分割領域を示すフラグを下ろす。
以上の処理は、水平領域分割部313aにて作成された水平分割領域毎に行われる。
以上の処理により、入力静止画像データから特徴量演算と比較演算を経て、背景の領域とそれ以外の部分の領域とを判別することができる。
Summarize what has been described above.
The monitoring device 1501 of this embodiment is mainly composed of software that runs on a microcomputer.
When the input still image data is input to the monitoring apparatus 1501, it is stored in the image storage unit 212 (substantially the RAM 205). Next, the horizontal area dividing unit 313a divides the image into horizontal divided areas. And after dividing | segmenting into an equal area shape in the small area division part 313b, the feature-value calculation part 314 produces feature-value data for every small-division area | region.
Thereafter, the clustering processing unit 1703 calculates the distance between the feature amount data of all the small divided areas, determines that the obtained small divided areas are the same pattern areas, and integrates them. Perform clustering processing. In this way, a plurality of subdivided areas are classified into a collection of several areas.
Next, the number of subdivided areas constituting the aggregate of a plurality of classified subdivided areas is compared with a predetermined threshold 1702. A set consisting of a number of small divided areas equal to or greater than the threshold value 1702 is determined to be the background. Then, the flag indicating the divided area determined to be the background is lowered.
The above processing is performed for each horizontal division region created by the horizontal region division unit 313a.
Through the above processing, it is possible to discriminate between the background area and the other area areas from the input still image data through the feature amount calculation and the comparison calculation.

[8.第4の実施形態]
図20は、本発明の第4の実施形態にかかる画像処理装置の全体ブロック図である。
図20において、実体がRAM205である画像保存部212を除いて、各部はマイクロコンピュータ上にて実行されるソフトウェアプログラムである。これらソフトウェアはROM204に格納されている。
撮像カメラ202から得られる画像信号は、一旦静止画像として画像保存部212に保持される。
水平領域分割部213は画像保存部212内の入力静止画像データに対し、横方向に分割した水平分割領域を与える。
特徴量算出部2013は、画像保存部212内の静止画像データと、水平領域分割部213から得られる水平分割領域の情報を得て、水平分割領域毎に特徴量データを作成する。これは後述する同時生起確率行列によって作成される、画像データの相対アドレスよりなる配列データである。
画素判定部2014は、特徴量算出部2013にて作成された配列データを基に、静止画像データ中の不審物を特定するビットマップデータを作成する。
画素集合決定部2015は、作成されたビットマップデータから、静止画像データ中に占める不審物と思しき画像部分の総面積と、中心座標を算出する。
[8. Fourth Embodiment]
FIG. 20 is an overall block diagram of an image processing apparatus according to the fourth embodiment of the present invention.
In FIG. 20, each unit is a software program executed on a microcomputer except for an image storage unit 212 whose entity is a RAM 205. These software are stored in the ROM 204.
The image signal obtained from the imaging camera 202 is once held in the image storage unit 212 as a still image.
The horizontal area dividing unit 213 gives horizontal divided areas divided in the horizontal direction to the input still image data in the image storage unit 212.
The feature amount calculation unit 2013 obtains still image data in the image storage unit 212 and information on the horizontal division region obtained from the horizontal region division unit 213, and creates feature amount data for each horizontal division region. This is array data composed of relative addresses of image data created by a co-occurrence probability matrix described later.
The pixel determination unit 2014 creates bitmap data that identifies a suspicious object in still image data based on the array data created by the feature amount calculation unit 2013.
The pixel set determination unit 2015 calculates the total area of the image portion that seems to be a suspicious object in the still image data and the center coordinates from the created bitmap data.

なお、本実施形態にかかる画像処理装置2001は、撮像カメラ202と併せて、主に沿岸に設置される目的で作られている。撮像カメラ202は図示しないモータ等の駆動機構によって沿岸周辺海域を広く見渡すように往復駆動される。
遠くの海辺の不審物を察知するためには、カメラの倍率を上げなければならない。カメラの倍率を上げることは、撮影角度が小さくなることを意味し、このためにカメラを往復駆動する必要が生じる。
カメラを往復駆動する、ということは、直前の静止画像と現在の静止画像とを比較して、画像データ同士の相違点から不審物等を見つける、という手法が取り辛い。本実施形態にかかる発明は、このような背景事情に基づいている。
Note that the image processing apparatus 2001 according to the present embodiment is made for the purpose of being installed mainly on the coast along with the imaging camera 202. The imaging camera 202 is reciprocally driven so as to overlook the coastal sea area by a driving mechanism such as a motor (not shown).
To detect suspicious objects on the seaside, you have to increase the magnification of the camera. Increasing the magnification of the camera means that the shooting angle becomes smaller, and for this reason, it is necessary to drive the camera back and forth.
Reciprocating the camera is difficult to compare the previous still image with the current still image and find a suspicious object or the like from the difference between the image data. The invention according to the present embodiment is based on such a background situation.

図21は、RAM205の内部を模式的に図示するものである。RAM205の内部には、画像保存部212ともいえる入力画像ビットマップデータ保存領域2102と、同時生起確率行列のための配列データ領域2103と、画像フラグビットマップデータ領域2104の三つが存在する。
図22はRAM205の内部に格納されているデータを図示するものである。
図22(a)は、RAM205の入力画像ビットマップデータ保存領域2102に格納されている、入力画像ビットマップデータである。つまり、撮像カメラ202にて撮影された静止画像データそのものである。各々のピクセルは例えば0〜255迄の輝度を表すデータである。図22(a)では、海2202と空2203と不審物である船2204が写っている。
図22(b)は、RAM205の画像フラグビットマップデータ領域2104に格納される、画像フラグビットマップデータである。後述する処理にて、入力画像ビットマップデータから不審物の領域を検出したものである。この図では、船2204に相当する領域のビットが立っている。
図22(c)は、画像フラグビットマップデータの一部を拡大したものである。各ピクセルは1ビットよりなり、ビットが立っていれば(ビットの値が1であれば)、そこは不審物と思しきピクセルを示し、ビットが下りていれば(ビットの値が0であれば)、そこは背景と思しきピクセルを示す。
FIG. 21 schematically illustrates the inside of the RAM 205. Inside the RAM 205, there are an input image bitmap data storage area 2102 that can be called an image storage unit 212, an array data area 2103 for a co-occurrence probability matrix, and an image flag bitmap data area 2104.
FIG. 22 illustrates data stored in the RAM 205.
FIG. 22A shows input image bitmap data stored in the input image bitmap data storage area 2102 of the RAM 205. That is, it is still image data itself captured by the imaging camera 202. Each pixel is data representing luminance from 0 to 255, for example. In FIG. 22A, a sea 2202, a sky 2203, and a ship 2204 that is a suspicious object are shown.
FIG. 22B shows image flag bitmap data stored in the image flag bitmap data area 2104 of the RAM 205. In the processing described later, the suspicious object region is detected from the input image bitmap data. In this figure, a bit in an area corresponding to the ship 2204 is set.
FIG. 22C is an enlarged view of a part of the image flag bitmap data. Each pixel consists of 1 bit. If the bit is set (if the bit value is 1), it indicates a suspicious pixel, and if the bit is down (if the bit value is 0) ), Which shows the pixel that seems to be the background.

図23は、RAM205の配列データ領域2103に格納される、配列データを模式的に示すものである。実際にRAM205の中身がこのような形状になっている訳ではないが、ソフトウェアプログラムにて仮想的にこのような形状に構築されていると思って頂きたい。
図23(a)において、配列データ2301は同時生起確率行列をベースとする、可変長の配列データの集合体である。同時生起確率行列は、縦kと横lがそれぞれ0〜255迄の256個の要素よりなる正方行列である。この縦kと横lは画像データの輝度に相当する。この行列上の各々の要素に立方体が積み上がっている。この立方体は一つに画像データの1ピクセルを示す相対アドレスが格納されている。
FIG. 23 schematically shows array data stored in the array data area 2103 of the RAM 205. Actually, the contents of the RAM 205 do not have such a shape, but it should be considered that it is virtually constructed in such a shape by a software program.
In FIG. 23A, array data 2301 is a collection of variable-length array data based on a co-occurrence probability matrix. The co-occurrence probability matrix is a square matrix composed of 256 elements each having a vertical k and a horizontal l of 0 to 255. The vertical k and horizontal l correspond to the luminance of the image data. A cube is stacked on each element on this matrix. The cube stores a relative address indicating one pixel of image data.

図23(a)の(k、l)[1]とは、k番目の行でl番目の列の行列要素よりなる配列データの、1番目の配列要素である。
同様に、(k、l)[2]とは、k行l列の行列要素よりなる配列データの、2番目の配列要素である。
配列データ(k、l)は5個の配列要素を持ち、(k、l)[5]まで存在している。
図23(a)の(k、l−1)[1]とは、k番目の行でl−1番目の列の行列要素よりなる配列データの、1番目の配列要素である。
同様に、(k、l−5)[1]とは、k行l−5列の行列要素よりなる配列データの、1番目の配列要素である。
同様に、(k−3、l)[1]とは、k−3行l列の行列要素よりなる配列データの、1番目の配列要素である。
このように積み上がっている立方体には、入力画像ビットマップデータ領域2102に格納されている画像データの、1ピクセルを示す相対アドレスがそれぞれ格納されている。
(K, l) [1] in FIG. 23A is the first array element of the array data including the matrix elements of the l-th column in the k-th row.
Similarly, (k, l) [2] is the second array element of array data composed of matrix elements of k rows and 1 columns.
The array data (k, l) has five array elements and exists up to (k, l) [5].
(K, l−1) [1] in FIG. 23A is the first array element of the array data including the matrix elements of the (l−1) th column in the kth row.
Similarly, (k, 1-5) [1] is the first array element of array data composed of matrix elements of k rows and 1-5 columns.
Similarly, (k−3, l) [1] is the first array element of array data composed of matrix elements of k−3 rows and l columns.
In the cubes stacked in this way, a relative address indicating one pixel of the image data stored in the input image bitmap data area 2102 is stored.

図23(a)は紙面の都合上、うず高く積み上がる配列データの一部分しか図示できていない。しかし、実際には図23(b)に示すような、周知のガウス曲面に近い形状になることが推測できる。
なお、この同時生起確率行列をベースとする配列データの詳細な作成方法は、後述する。
FIG. 23 (a) shows only a part of the array data that is piled up steadily due to space limitations. However, it can be estimated that the shape is close to a well-known Gaussian curved surface as shown in FIG.
A detailed method for creating array data based on the co-occurrence probability matrix will be described later.

図24は、RAM205と、RAM205内に格納されている各々のデータの関係を模式的に示す図である。
入力画像ビットマップデータ領域2102中の、広い面積を示す背景部分は、同時生起確率行列を構成する配列データ領域2103の、要素の多い箇所に集中する。その、集中している部分の配列要素として格納されている画像データの相対アドレスが、画像フラグビットマップデータ領域2104の背景部分の相対アドレスに該当し、その箇所のフラグを下ろすこととなる。
図24においては、入力画像ビットマップデータ領域2102の一部を示す画像の、点線で囲んだ部分、すなわち空の一部分に該当する画像データが、配列データ領域2103の、積み上がっている立方体にそれぞれ対応している。つまり、これら立方体をなす配列変数には、その要素として画像データ中の点線部分にて囲まれたピクセルの相対アドレスが格納されている。そして、それら相対アドレスは画像フラグビットマップデータ領域2104の該当箇所のフラグを1から0へ下ろす。
FIG. 24 is a diagram schematically showing the relationship between the RAM 205 and each data stored in the RAM 205.
A background portion indicating a large area in the input image bitmap data area 2102 is concentrated in a portion having many elements in the array data area 2103 constituting the co-occurrence probability matrix. The relative address of the image data stored as the array element of the concentrated portion corresponds to the relative address of the background portion of the image flag bitmap data area 2104, and the flag at that location is lowered.
In FIG. 24, image data corresponding to a part surrounded by a dotted line, that is, an empty part of an image showing a part of the input image bitmap data area 2102, is placed in each of the stacked cubes in the array data area 2103. It corresponds. In other words, the array addresses forming these cubes store the relative addresses of the pixels surrounded by the dotted line portion in the image data as elements. These relative addresses lower the flag of the corresponding part of the image flag bitmap data area 2104 from 1 to 0.

先に、図11及び図12にて説明した同時生起確率行列の作成手法にて、図24において入力画像ビットマップデータから配列データを作成するものである。
但し、本実施形態は従来より周知の同時生起確率行列の取り扱いとは異なるアプローチを取っている。
従来技術では、同時生起確率行列は例えば特許文献3にて開示されているように、製造工程中に良品と不良品とを比較するための手法として使われている。予め良品を撮影して同時生起確率行列を保持しておき、製造ラインに流れてきた製品を撮影する。撮影画像データから同時生起確率行列を作成し、これを保持している良品の行列と比較して、相違点から製品の傷や汚れ等の異常を判別する。これが、従来より良く知られている同時生起確率行列の利用である。
本実施形態は、この同時生起確率行列に対して、所定の閾値を用いて各行列要素を比較する。そして、閾値以上の行列要素は、画像データ内にて広い面積を占める領域、すなわち背景であるものと判断する。そして、背景に該当する画像データ内の領域を除外する。
このために、行列要素を配列データとし、配列の要素に画像データ内のピクセルの相対アドレスを格納する必要がある。
全ての処理が終わった後に、画像フラグデータ内にてフラグが下りていない部分が、画像データ内にて背景とは異なる輝度を示す狭い部分、つまり不審物を示す領域であると判断する。
イメージとしては、図23(b)のガウス曲面を、閾値を示すxy平面と平行の平面にて真横に切断するようなものだと思って頂ければよいだろう。閾値平面によって切断された、つまり閾値平面に触れた行列要素に該当する画像データの相対アドレスは、背景である。
First, array data is created from the input image bitmap data in FIG. 24 by the method of creating a co-occurrence probability matrix described in FIGS.
However, this embodiment takes an approach different from the conventionally known co-occurrence probability matrix handling.
In the prior art, the co-occurrence probability matrix is used as a method for comparing non-defective products with defective products during the manufacturing process, as disclosed in Patent Document 3, for example. A good product is photographed in advance and a co-occurrence probability matrix is stored, and a product flowing into the production line is photographed. A co-occurrence probability matrix is created from the photographed image data, and compared with a non-defective product matrix that holds this, abnormalities such as product scratches and dirt are discriminated from the differences. This is the use of a co-occurrence probability matrix that has been well known.
In the present embodiment, each matrix element is compared with this co-occurrence probability matrix using a predetermined threshold value. Then, it is determined that the matrix elements equal to or greater than the threshold value are regions that occupy a large area in the image data, that is, the background. Then, an area in the image data corresponding to the background is excluded.
For this purpose, it is necessary to use matrix elements as array data and store the relative addresses of the pixels in the image data in the array elements.
After all the processes are completed, it is determined that the portion where the flag is not lowered in the image flag data is a narrow portion showing luminance different from the background in the image data, that is, a region indicating a suspicious object.
As an image, it can be considered that the Gaussian curved surface in FIG. 23B is cut right by a plane parallel to the xy plane indicating the threshold value. The relative address of the image data corresponding to the matrix element cut by the threshold plane, that is, touching the threshold plane is the background.

図25及び図26は、本実施形態の画像処理装置2001の動作を示すフローチャートである。
処理を開始すると(S2501)、最初に同時生起確率行列を作成する際のルールである、相対位置関数δを設定する(S2502)。次に、入力画像ビットマップデータの検討対象アドレスaを、画像データの先頭に設定する(S2503)。つまり、アドレスaは入力画像ビットマップデータ内の相対アドレスであり、この処理にて相対アドレスの初期値を与える。
次に、相対アドレスaから相対位置関数δだけ離れている地点にピクセルが存在するか否かを検証する(S2504)。例えば、相対位置関数δ=(1,0°)の場合、相対アドレスaが入力画像ビットマップデータの右端であれば、相対アドレスb=δ(a)は存在しない。
相対アドレスb=δ(a)があれば、相対アドレスaの輝度をkに代入し、相対アドレスbの輝度をlに代入する。そして、配列データ領域203内の行列要素(k,l)の配列に、相対アドレスaを追加する(S2505)。つまり、図23(a)の、立方体を一つ積み上げて、そこに相対アドレスaを格納する。なお、ステップS2504にて、b=δ(a)がない場合は、同時生起確率行列の追加処理ができないので、ステップS2505の処理を飛ばす。
次に、相対アドレスaを一つ進める(S2506)。次に、相対アドレスaが存在するか否かを検証する(S2507)。あれば、再びステップS2504から処理を繰り返す。なければ、それは入力画像ビットマップデータの終端であり、同時生起確率行列の処理が終わったので、次の処理に進む。
25 and 26 are flowcharts showing the operation of the image processing apparatus 2001 of the present embodiment.
When the process is started (S2501), a relative position function δ, which is a rule for creating a co-occurrence probability matrix for the first time, is set (S2502). Next, the examination target address a of the input image bitmap data is set at the head of the image data (S2503). That is, the address a is a relative address in the input image bitmap data, and an initial value of the relative address is given in this process.
Next, it is verified whether or not a pixel exists at a point separated from the relative address a by the relative position function δ (S2504). For example, when the relative position function δ = (1,0 °), if the relative address a is the right end of the input image bitmap data, the relative address b = δ (a) does not exist.
If there is a relative address b = δ (a), the luminance of the relative address a is substituted for k, and the luminance of the relative address b is substituted for l. Then, the relative address a is added to the array of matrix elements (k, l) in the array data area 203 (S2505). That is, one cube shown in FIG. 23A is stacked and the relative address a is stored therein. If there is no b = δ (a) in step S2504, the process of step S2505 is skipped because the co-occurrence probability matrix cannot be added.
Next, the relative address a is advanced by one (S2506). Next, it is verified whether or not the relative address a exists (S2507). If there is, the process is repeated again from step S2504. If not, it is the end of the input image bitmap data, and since the processing of the co-occurrence probability matrix is finished, the process proceeds to the next process.

全ての入力画像ビットマップデータについて同時生起確率行列の処理が終わったら、その行列要素を用いて閾値の演算を行う(S2508)。閾値の計算方法は様々な方法が考えられる。例えば、予め設定済みの固定値を用いるとか、1以上の行列要素の全ての平均を取る等が考えられる。
閾値を得たら、配列データ領域203内の、評価対象とする行列要素の初期値を設定する(S2609)。
次に、行列要素の要素数と閾値を比較する(S2610)。もし、要素数が閾値以上であれば、その行列要素に属する配列要素内の、入力画像ビットマップデータの相対アドレスに対応する画像フラグビットマップデータ領域2104内の該当アドレスのフラグを下ろす(S2611)。つまり、そこは背景である、という判断である。もし、要素数が閾値未満であれば、何もしない。つまり、そこは不審物である、という判断である。
そして、評価対象となる行列要素を一つ進める(S2612)。
次に、評価対象となる行列要素があるか否か検証する(S2613)。あれば、再び評価を行う(S2610)。なければそれは処理の終わりを意味する。
最後に、画像フラグビットマップデータ領域2104内に残っている、フラグが立っている領域、つまり不審物を示す領域の面積と中心座標を算出して(S2614)、終了する(S2615)。
When the co-occurrence probability matrix processing is completed for all input image bitmap data, the threshold value is calculated using the matrix elements (S2508). There are various methods for calculating the threshold value. For example, it is conceivable to use a preset fixed value or to average all of one or more matrix elements.
When the threshold value is obtained, initial values of matrix elements to be evaluated in the array data area 203 are set (S2609).
Next, the number of matrix elements is compared with a threshold value (S2610). If the number of elements is equal to or greater than the threshold value, the flag of the corresponding address in the image flag bitmap data area 2104 corresponding to the relative address of the input image bitmap data in the array element belonging to the matrix element is lowered (S2611). . In other words, it is a judgment that there is a background. If the number of elements is less than the threshold, nothing is done. In other words, it is a judgment that there is a suspicious object.
Then, the matrix element to be evaluated is advanced by one (S2612).
Next, it is verified whether there is a matrix element to be evaluated (S2613). If there is, the evaluation is performed again (S2610). If not, it means the end of processing.
Finally, the area and central coordinates of the flagged area remaining in the image flag bitmap data area 2104, that is, the area indicating the suspicious object are calculated (S2614), and the process ends (S2615).

図25において、ステップS2502、S2503、S2504、S2505、S2506及びS2507よりなる処理は、図20の特徴量算出部2013の処理に相当する。つまり、同時生起確率行列の算出処理である。
図25において、ステップS2508、そして図26において、ステップS2609、S2610、S2611、S2612及びS2613よりなる処理は、図20の画素判定部2014の処理に相当する。つまり、不審物のアドレスを決定する処理である。
図26において、ステップS2614よりなる処理は、図20の画素集合決定部2015の処理に相当する。つまり、不審物のアドレスの数をカウントし、不審物のアドレスを示す領域の中心を算出する処理である。
In FIG. 25, the processing composed of steps S2502, S2503, S2504, S2505, S2506, and S2507 corresponds to the processing of the feature amount calculation unit 2013 in FIG. That is, it is a calculation process of a co-occurrence probability matrix.
In FIG. 25, step S2508, and in FIG. 26, the process consisting of steps S2609, S2610, S2611, S2612, and S2613 corresponds to the process of the pixel determining unit 2014 in FIG. That is, it is a process for determining the address of the suspicious object.
In FIG. 26, the process consisting of step S2614 corresponds to the process of the pixel set determining unit 2015 in FIG. That is, this is a process of counting the number of suspicious object addresses and calculating the center of the area indicating the suspicious object address.

[9.第5の実施形態]
次に、本発明の第5の実施形態を説明する。
図27は、第5の実施形態にかかる画像処理装置にて用いる相対位置関数δを示す概略図である。
本実施形態では、画像処理装置の内部の構成は、第4の実施の形態で説明した図20のブロック図の構成と殆ど変わらないが、相対位置関数δを複数取り、それに基づいて複数の同時生起確率行列を作成する構成である。
先に説明した第4の実施形態では、相対位置関数δ=(1,0°)を例に説明した。ところで、従来技術においても同時生起確率行列を複数の相対位置関数δにて取ることは周知である。これは、一定の模様よりなる画像データの特徴をより正確に数値化するための措置である。
図27において、あるピクセルの近傍にあるピクセルだけでも8つのピクセルが存在することがわかる。
δ1は距離が1であり、角度が0°である。
δ2は距離が√2であり、角度が45°である。
以下同様に、δ3=(1,90°)、δ4=(√2,135°)、δ5=(1,180°)、δ6=(√2,225°)、δ7=(1,270°)、δ8=(√2,315°)となる。
すなわち、8つの相対位置関数δ1〜δ8が作成し得る。
これら8つの相対位置関数δ1〜δ8を用いて、8つの同時生起確率行列を作成することができる。
[9. Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described.
FIG. 27 is a schematic diagram illustrating a relative position function δ used in the image processing apparatus according to the fifth embodiment.
In this embodiment, the internal configuration of the image processing apparatus is almost the same as the configuration of the block diagram of FIG. 20 described in the fourth embodiment, but a plurality of relative position functions δ are taken and a plurality of In this configuration, an occurrence probability matrix is created.
In the fourth embodiment described above, the relative position function δ = (1,0 °) has been described as an example. By the way, it is well known in the prior art that a co-occurrence probability matrix is obtained by a plurality of relative position functions δ. This is a measure for more accurately quantifying the characteristics of image data having a certain pattern.
In FIG. 27, it can be seen that there are eight pixels even in the vicinity of a certain pixel.
δ1 has a distance of 1 and an angle of 0 °.
δ2 has a distance of √2 and an angle of 45 °.
Similarly, δ3 = (1,90 °), δ4 = (√2,135 °), δ5 = (1,180 °), δ6 = (√2,225 °), δ7 = (1,270 °) Δ8 = (√2,315 °).
That is, eight relative position functions δ1 to δ8 can be created.
Using these eight relative position functions δ1 to δ8, eight co-occurrence probability matrices can be created.

図28は、本実施形態にかかる画像処理装置のフローチャートである。
処理を開始すると(S2801)、最初にカウンタ変数iを0に初期化する(S2802)。次に、同時生起確率行列を作成する際のルールである、相対位置関数δ(i)の存在を確認する(S2803)。
δ(i)があればこれを設定し(S2804)、これに基づいて同時生起確率行列に基づく特徴量算出処理を行う(S2805)。次に、得られた同時生起確率行列の配列データを用いて、画素判定処理を行う(S2806)。
ここで、ステップS2805は、図25のステップS2503、S2504、S2505、S2506そしてS2507に等しい。
また、ステップS2806は、図25のステップS2508と、図26のステップS2609、S2610、S2611、S2612そしてS2613に等しい。
次に、入力画像ビットマップデータの検討対象アドレスaを、画像データの先頭に設定する(S2503)。つまり、アドレスaは入力画像ビットマップデータ内の相対アドレスであり、この処理にて相対アドレスの初期値を与える。
つまり、ステップS2805及びS2806は、図25の点線で囲むサブルーチンR2522と等しい。これが、同時生起確率行列よりなる配列データを作成し、そこから画像フラグビットマップデータ領域2104にて不審物の画素を判定する処理である。
FIG. 28 is a flowchart of the image processing apparatus according to the present embodiment.
When the process is started (S2801), the counter variable i is first initialized to 0 (S2802). Next, the existence of the relative position function δ (i), which is a rule for creating the co-occurrence probability matrix, is confirmed (S2803).
If there is δ (i), it is set (S2804), and based on this, a feature amount calculation process based on the co-occurrence probability matrix is performed (S2805). Next, pixel determination processing is performed using the obtained array data of the co-occurrence probability matrix (S2806).
Here, step S2805 is equivalent to steps S2503, S2504, S2505, S2506, and S2507 in FIG.
Step S2806 is equivalent to step S2508 in FIG. 25 and steps S2609, S2610, S2611, S2612, and S2613 in FIG.
Next, the examination target address a of the input image bitmap data is set at the head of the image data (S2503). That is, the address a is a relative address in the input image bitmap data, and an initial value of the relative address is given in this process.
That is, steps S2805 and S2806 are equivalent to the subroutine R2522 enclosed by the dotted line in FIG. This is a process of creating array data including a co-occurrence probability matrix and determining a pixel of a suspicious object in the image flag bitmap data area 2104 therefrom.

処理が終わったら、カウンタ変数iを進める(S2807)。そして、次の相対位置関数δ(i)の有無を確認し(S2803)、あれば設定し(S2804)、処理を続行する。なければ全ての相対位置関数δ(i)について処理を終えたこととなる。
全ての相対位置関数δ(i)についてi個の画像フラグビットマップデータが得られたら、これらを統合演算する(S2808)。演算は全てのビットの論理積でも、全てのビットを加算して適当な閾値と比較するのでもよい。この演算処理によって、不審物領域の決定の精度が増す。
最後に不審物領域の面積と中心座標を算出して(S2809)、終了する(S2810)。
When the processing is finished, the counter variable i is advanced (S2807). Then, the presence / absence of the next relative position function δ (i) is confirmed (S2803), and if it is set (S2804), the processing is continued. If not, the processing is completed for all the relative position functions δ (i).
When i image flag bitmap data are obtained for all the relative position functions δ (i), these are integrated and calculated (S2808). The operation may be a logical product of all the bits, or all the bits may be added and compared with an appropriate threshold value. This calculation process increases the accuracy of determining the suspicious object region.
Finally, the area and center coordinates of the suspicious object region are calculated (S2809), and the process ends (S2810).

以上に説明したことをまとめる。
本実施形態の画像処理装置2001は、主にマイクロコンピュータ上で稼動するソフトウェアよりなる。
静止画像データが画像処理装置2001に入力されると、これをRAM105内の入力画像ビットマップデータ領域202に展開する。その後、同時生起確率行列のアルゴリズムにて配列データを配列データ領域203に作成する。次に、得られた配列データから閾値を算出し、この閾値を満たす数の行列に該当する画像のピクセルを、背景であるものと判断する。背景と判断された画像のピクセルの相対アドレスを、配列データから読み出して、画像フラグビットマップデータ領域2104内の、該当アドレスのフラグを下ろす。
以上の処理により、静止画像データから生成した同時生起確率行列から、背景とそれ以外の部分とを判別することができる。
Summarize what has been described above.
The image processing apparatus 2001 of this embodiment is mainly composed of software that runs on a microcomputer.
When still image data is input to the image processing apparatus 2001, it is expanded in the input image bitmap data area 202 in the RAM 105. Thereafter, array data is created in the array data area 203 by the algorithm of the co-occurrence probability matrix. Next, a threshold value is calculated from the obtained array data, and an image pixel corresponding to a number of matrices satisfying the threshold value is determined to be the background. The relative address of the pixel of the image determined to be the background is read from the array data, and the flag of the corresponding address in the image flag bitmap data area 2104 is lowered.
Through the above processing, the background and other portions can be discriminated from the co-occurrence probability matrix generated from the still image data.

[10.第6の実施形態]
次に、本発明の第6の実施形態を説明する。
図29は、撮像カメラ202によって撮影された静止画像の一例である。
図22(a)の画像と比較して頂きたい。図22(a)では船である不審物304が写っているが、図29では岸辺2902と、その上に灯台2903が写っている。これらが不審物ではないことは明らかであるが、第4の実施形態のままではこれらを不審物と誤認してしまう可能性が高い。なぜなら、これらは画像データ全体から見たらその占める面積が少ないので、背景と認識されないからである。そこで、このように不審物と誤認されるであろう箇所を、予め同時生起確率行列の作成処理の対象から外す処理が必要になる。
[10. Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described.
FIG. 29 is an example of a still image captured by the imaging camera 202.
Compare with the image in Figure 22 (a). In FIG. 22A, the suspicious object 304, which is a ship, is shown, but in FIG. 29, a shore 2902 and a lighthouse 2903 are shown on it. It is clear that these are not suspicious objects, but there is a high possibility that they will be mistaken as suspicious objects as they are in the fourth embodiment. This is because these are not recognized as the background because they occupy a small area when viewed from the whole image data. Therefore, it is necessary to perform a process of previously removing a part that may be mistaken as a suspicious object from the object of the process for creating the co-occurrence probability matrix in advance.

図30(a)は、第6の実施形態にかかる画像処理装置の全体ブロック図である。図30(a)に示す画像処理装置3001は、第4の実施形態における図20の画像処理装置2001とほぼ同じである。図30(a)において、図20と機能を共通にしている部分は同一符号を付し、詳細な説明は略す。
本実施形態にかかる画像処理装置3001は、本稼動させる前に、撮影した静止画像データに基づいて、画像データ中の特定領域を予め不審物を判定する対象から外す処理を行う。このために、図20に示される第4の実施形態と比較すると、処理領域設定部3002と、表示装置3003と、入力装置3004が新たに設けられている。
表示装置3003は例えば周知のLCDディスプレイである。入力装置3004は例えば周知のマウスである。
処理領域設定部3002は、画素判定部3014から得られた結果に基づき、不審物と思しき領域を画像保存部112に保持されている画像データとオーバーラップさせて、表示装置3003へ表示する。使用者は入力装置3004を操作して、表示装置3003に表示されている静止画像と、その上にオーバーラップされた状態にて表示されている除外領域を修正する。
以上のようにして、処理領域設定部3002によって特徴量算出部3013に設定された除外領域は、特徴量算出部3013において行われる同時生起確率行列の演算の対象外となる。
図29を例にするならば、岸辺2902と灯台2903を囲むような除外領域が処理領域設定部3002にて作成され、特徴量算出部3013に保持される。特徴量算出部3013は、画像データの各ピクセルのうち、除外領域に該当するものは同時生起確率行列の演算を行わず、強制的に背景とみなす。
FIG. 30A is an overall block diagram of an image processing apparatus according to the sixth embodiment. An image processing apparatus 3001 shown in FIG. 30A is almost the same as the image processing apparatus 2001 of FIG. 20 in the fourth embodiment. In FIG. 30 (a), parts having the same functions as those in FIG. 20 are denoted by the same reference numerals, and detailed description thereof is omitted.
The image processing apparatus 3001 according to the present embodiment performs a process of excluding a specific area in the image data from a target for determining a suspicious object in advance, based on the captured still image data, before the actual operation. For this reason, as compared with the fourth embodiment shown in FIG. 20, a processing area setting unit 3002, a display device 3003, and an input device 3004 are newly provided.
The display device 3003 is, for example, a well-known LCD display. The input device 3004 is a known mouse, for example.
Based on the result obtained from the pixel determination unit 3014, the processing region setting unit 3002 causes the display device 3003 to display a region that seems to be a suspicious object and overlaps with the image data held in the image storage unit 112. The user operates the input device 3004 to correct the still image displayed on the display device 3003 and the excluded area displayed in an overlapped state on the still image.
As described above, the exclusion region set in the feature amount calculation unit 3013 by the processing region setting unit 3002 is excluded from the calculation of the co-occurrence probability matrix performed in the feature amount calculation unit 3013.
If FIG. 29 is taken as an example, an exclusion region surrounding the shore 2902 and the lighthouse 2903 is created by the processing region setting unit 3002 and held in the feature amount calculation unit 3013. The feature amount calculation unit 3013 forcibly regards the pixels corresponding to the exclusion region as the background without calculating the co-occurrence probability matrix among the pixels of the image data.

[11.第7の実施形態]
次に、本発明の第7の実施形態を説明する。
図30(b)は、第7の実施形態にかかる画像処理装置の全体ブロック図である。図30(b)に示す画像処理装置3011は、第6の実施形態における図30(a)の画像処理装置3001とほぼ同じである。図30(b)において、図30(a)と機能を共通にしている部分は同一符号を付し、詳細な説明は略す。
本実施形態にかかる画像処理装置3011は、図30(a)と同様に、本稼動させる前に、撮影した静止画像データに基づいて、画像データ中の特定領域を予め不審物を判定する対象から外す処理を行う。第6の実施形態と異なる点は、操作者による除外領域の修正処理を行わず、自動で設定する点にある。このために、図30(a)に示される第6の実施形態と比較すると、表示装置3003と、入力装置3004がない。また、処理領域設定部3003は、画素集合決定部3015に接続されている。
処理領域設定部3003は、画素集合決定部3015から得られた結果を、除外領域とみなし、特徴量算出部3013に設定する。
設定された除外領域は、特徴量算出部3013において行われる同時生起確率行列の演算の対象外となる。
[11. Seventh Embodiment]
Next, a seventh embodiment of the present invention will be described.
FIG. 30B is an overall block diagram of the image processing apparatus according to the seventh embodiment. An image processing apparatus 3011 shown in FIG. 30B is substantially the same as the image processing apparatus 3001 of FIG. 30A in the sixth embodiment. In FIG. 30 (b), parts having the same functions as those in FIG. 30 (a) are given the same reference numerals, and detailed descriptions thereof are omitted.
Similar to FIG. 30A, the image processing apparatus 3011 according to the present embodiment starts from a target for determining a suspicious object in advance in a specific area in image data based on the captured still image data before the actual operation. Perform the removal process. The difference from the sixth embodiment is that the exclusion area is not automatically corrected by the operator and is set automatically. For this reason, the display device 3003 and the input device 3004 are not provided as compared with the sixth embodiment shown in FIG. In addition, the processing region setting unit 3003 is connected to the pixel set determination unit 3015.
The processing region setting unit 3003 regards the result obtained from the pixel set determination unit 3015 as an excluded region and sets it in the feature amount calculation unit 3013.
The set exclusion region is excluded from the calculation of the co-occurrence probability matrix performed in the feature amount calculation unit 3013.

以上、第1、第2、第3、第4、第5、第6及び第7の実施形態にて説明した画像処理装置は、図22(a)や図29にて説明したように、海のような単一の背景を監視する際に、特に好適である。このため、撮像カメラは広い範囲を監視するために回転させる場合が多い。
図31(a)は本実施形態における撮像カメラの外観図を示す。また、図31(b)は、図31(a)における撮像カメラと画像処理装置との組み合わせを示すブロック図を示す。
図31(a)において、撮像カメラ202は広い範囲を監視するために、旋回装置3102に設置され、左右に回転駆動される。
図31(b)において、旋回装置3102の内部には撮像カメラ202を回転駆動させるためのモータ3103と、モータのシャフト3104に取り付けられ、撮像カメラ202と共に回転駆動される角度検出器3105が設けられている。角度検出器3105は例えば光学検出や磁気検出等によるタコジェネレータ等が挙げられる。
角度検出器3105の検出信号は画像処理装置201の主要構成部分をなすマイクロコンピュータのバス106に入力され、予め設定された所定の角度毎に、撮像カメラ202から得られる静止画像をRAM105に取り込み、前述の処理を行う。
また、第6及び第7の実施形態においては、撮像カメラ202の撮影角度毎に除外領域の設定を予め行うこととなる。
As described above, the image processing apparatuses described in the first, second, third, fourth, fifth, sixth, and seventh embodiments are the same as those described in FIGS. Is particularly suitable for monitoring a single background such as For this reason, the imaging camera is often rotated to monitor a wide range.
FIG. 31A shows an external view of the imaging camera in the present embodiment. FIG. 31B is a block diagram showing a combination of the imaging camera and the image processing apparatus in FIG.
In FIG. 31 (a), the imaging camera 202 is installed in the turning device 3102 and driven to rotate left and right in order to monitor a wide range.
In FIG. 31B, inside the turning device 3102 are provided a motor 3103 for rotationally driving the imaging camera 202 and an angle detector 3105 that is attached to the shaft 3104 of the motor and is rotationally driven together with the imaging camera 202. ing. Examples of the angle detector 3105 include a tachometer using optical detection, magnetic detection, and the like.
A detection signal from the angle detector 3105 is input to a bus 106 of a microcomputer that constitutes a main component of the image processing apparatus 201, and a still image obtained from the imaging camera 202 is taken into the RAM 105 at every predetermined angle. The above processing is performed.
In the sixth and seventh embodiments, the exclusion area is set in advance for each shooting angle of the imaging camera 202.

本実施形態には、以下のような応用例が考えられる。
(1)マイクロコンピュータによる実装の代わりに、プログラマブル・ロジック・デバイス(Programmable Logic Device: PLD)を用いてもよい。
(2)前述の第1、第2及び第3の実施形態において、不審物と誤認識し易い背景部分を特徴量計算処理の対象から外す、除外処理を追加することができる。
(3)前述の第1、第2、第3、第4、第5、第6及び第7の実施形態を、単一の監視装置内で同時に複数稼動させることもできる。演算処理の結果得られた、各領域毎のフラグの集合は、全て論理積にて併合したり、或いは加算処理の後所定の閾値にて比較することができる。
The following application examples can be considered in the present embodiment.
(1) Instead of mounting by a microcomputer, a programmable logic device (PLD) may be used.
(2) In the first, second, and third embodiments described above, it is possible to add an exclusion process that excludes a background portion that is likely to be erroneously recognized as a suspicious object from the target of the feature amount calculation process.
(3) A plurality of the first, second, third, fourth, fifth, sixth and seventh embodiments described above can be simultaneously operated in a single monitoring device. The set of flags for each region obtained as a result of the arithmetic processing can be all merged by logical product or compared with a predetermined threshold after the addition processing.

(4)前述の第6及び第7の実施形態においては、処理領域設定部3002及び3003にて設定した除外領域を特徴量算出部3013に反映させていた。この代わりに、除外領域を画素集合決定部2015或は画素集合決定部3015に反映させても、同等の効果が得られる。すなわち、除外領域に該当する部分は背景であるものとみなし、画像フラグビットマップデータ領域2104内の該当部分のフラグを下ろす。
(5)図21において、RAM205内部では入力画像ビットマップデータ領域2102と画像フラグビットマップデータ領域2104は異なる領域として記述されているが、これを一体化することもできる。
例えば、画像データを構成するピクセル毎に、輝度データとフラグデータを格納する構造体を構成する。こうすれば、ピクセル毎の絶対アドレスを直接配列データ2301に格納することができるので、相対アドレスを変換する演算処理が不要になる。
(6)配列データ領域2103にて構成される同時生起確率行列を表現する手法は様々なものが考えられる。例えば、リレーショナルデータベースを用いたり、周知のインタプリタ言語処理系であるperl等にて実装されている、連想配列を用いて実現できる。
(4) In the sixth and seventh embodiments described above, the exclusion region set by the processing region setting units 3002 and 3003 is reflected in the feature amount calculation unit 3013. Instead, the same effect can be obtained by reflecting the excluded region in the pixel set determining unit 2015 or the pixel set determining unit 3015. That is, the part corresponding to the exclusion area is regarded as the background, and the flag of the corresponding part in the image flag bitmap data area 2104 is lowered.
(5) Although the input image bitmap data area 2102 and the image flag bitmap data area 2104 are described as different areas in the RAM 205 in FIG. 21, they can be integrated.
For example, a structure that stores luminance data and flag data is configured for each pixel that configures image data. In this way, the absolute address for each pixel can be directly stored in the array data 2301, so that the arithmetic processing for converting the relative address is not necessary.
(6) Various methods for expressing the co-occurrence probability matrix configured by the array data area 2103 can be considered. For example, it can be realized by using a relational database or an associative array implemented by perl which is a well-known interpreter language processing system.

(7)基本的に、水平分割領域をどのように決定するかは、入力画像データに応じて任意である。しかし、水平分割領域の決定手順を自動化できれば理想である。そこで、第3の実施形態にて説明したクラスタリングの技術を入力画像データ全体に適用し、類似する領域が水平方向に複数分布することが判明したら、その領域を網羅するべく水平分割領域を決定する、という手法が考えられる。
この実施形態では、クラスタリングの分割領域を小さく取ることで、水平分割線を沿岸の水平線と合致させることが期待できる。このことは、水平分割領域内における背景としての認識対象の数を減らすことに繋がり、ひいては背景認識率の向上が期待できる。
(7) Basically, how to determine the horizontal division region is arbitrary according to the input image data. However, it would be ideal if the horizontal division region determination procedure could be automated. Therefore, when the clustering technique described in the third embodiment is applied to the entire input image data, and it is found that a plurality of similar regions are distributed in the horizontal direction, horizontal division regions are determined so as to cover the regions. The method of, can be considered.
In this embodiment, it is expected that the horizontal dividing line is matched with the coastal horizontal line by taking a small divided area for clustering. This leads to a reduction in the number of recognition targets as backgrounds in the horizontal division region, and as a result, an improvement in the background recognition rate can be expected.

本実施形態においては、遠方の自然風景に代表される、水平方向に均一で、垂直方向に変化する静止画像データから、背景とは異なる物体を判別することができる。この処理は従来技術において周知の、直前の画像データとの比較による手法とは異なり、入力された画像データのみを用いて判別する。このため、撮像カメラを旋回装置に設置して左右に回転駆動する監視の形態において特に好適である。
本実施形態では水平分割領域に対して種々の判別方法を開示した。それら実施形態は、海や空など、自然現象によって生じる変化があっても、これを含めて一定の特徴を有する背景と判別することができる。
したがって、本実施形態の画像処理装置を撮像カメラと組み合わせることによって、従来技術と比べると、海の波や空の雲などの自然現象も誤認識せずに背景と認識できる、優れた監視装置を提供できる。
In the present embodiment, an object different from the background can be discriminated from still image data that is uniform in the horizontal direction and changes in the vertical direction, represented by a distant natural landscape. This processing is different from the method based on comparison with the immediately preceding image data, which is well known in the prior art, and is determined using only the input image data. For this reason, it is particularly suitable in the monitoring mode in which the imaging camera is installed on the swivel device and rotated to the left and right.
In the present embodiment, various determination methods are disclosed for the horizontal division region. In these embodiments, even if there is a change caused by a natural phenomenon such as the sea or the sky, it can be determined that the background has a certain feature including this.
Therefore, by combining the image processing apparatus according to the present embodiment with an imaging camera, an excellent monitoring apparatus that can recognize a natural phenomenon such as a sea wave or a cloud in the sky as a background without being misrecognized as compared with the prior art. Can be provided.

以上、本発明の実施形態例について説明したが、本発明は上記実施形態例に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことは言うまでもない。   The embodiment of the present invention has been described above. However, the present invention is not limited to the above-described embodiment, and other modifications may be made without departing from the gist of the present invention described in the claims. It goes without saying that application examples are included.

本発明の実施の形態に共通する技術思想による画像処理装置の動作を概略的に示すイメージ図である。It is an image figure which shows roughly operation | movement of the image processing apparatus by the technical idea common to embodiment of this invention. 本発明の実施の形態に共通する技術思想による画像処理装置の全体ブロック図と、その動作を示すフローチャートである。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall block diagram of an image processing apparatus according to a technical idea common to the embodiments of the present invention, and a flowchart showing its operation. 第1の実施の形態による画像処理装置の全体ブロック図である。1 is an overall block diagram of an image processing apparatus according to a first embodiment. 第1の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 1st Embodiment. 第1の実施の形態における背景領域を指定する方法を概略的に示すイメージ図である。It is an image figure which shows roughly the method to designate the background area | region in 1st Embodiment. 第1の実施の形態の監視装置の処理内容のうち、前処理を示すフローチャートである。It is a flowchart which shows pre-processing among the processing contents of the monitoring apparatus of 1st Embodiment. 第1の実施の形態の監視装置の処理内容のうち、実稼動時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of real operation among the processing content of the monitoring apparatus of 1st Embodiment. 第1の実施の形態の監視装置の処理内容のうち、実稼動時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of real operation among the processing content of the monitoring apparatus of 1st Embodiment. 特徴量演算方法の一つである、色ヒストグラムを説明する概略図である。It is the schematic explaining the color histogram which is one of the feature-value calculation methods. 特徴量演算方法の一つである、周波数解析を説明する概略図である。It is the schematic explaining frequency analysis which is one of the feature-value calculation methods. 特徴量演算方法の一つである、同時生起確率行列を説明する概略図である。It is the schematic explaining the co-occurrence probability matrix which is one of the feature-value calculation methods. 画像データと同時生起確率行列との関係を説明する概略図である。It is the schematic explaining the relationship between image data and a co-occurrence probability matrix. 第2の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by 2nd Embodiment. 第2の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 2nd Embodiment. 第2の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 2nd Embodiment. 第2の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 2nd Embodiment. 第3の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by 3rd Embodiment. 第3の実施の形態の動作を概略的に示すイメージ図である。It is an image figure which shows schematically operation | movement of 3rd Embodiment. 第3の実施の形態の監視装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the monitoring apparatus of 3rd Embodiment. 第4の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by 4th Embodiment. 第4の実施の形態のRAMの内部を示す概略図である。It is the schematic which shows the inside of RAM of 4th Embodiment. 第4の実施の形態のRAM内に構成される入力画像ビットマップデータ及び画像フラグビットマップデータを概略的に示すイメージ図である。It is an image figure which shows roughly the input image bitmap data and image flag bitmap data comprised in RAM of 4th Embodiment. 第4の実施の形態のRAM内に構成される同時生起確率行列を概略的に示すイメージ図である。It is an image figure which shows roughly the co-occurrence probability matrix comprised in RAM of 4th Embodiment. 第4の実施の形態のRAM内に格納される各データの対応関係を概略的に示すイメージ図である。It is an image figure which shows roughly the correspondence of each data stored in RAM of 4th Embodiment. 第4の実施の形態の画像処理装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the image processing apparatus of 4th Embodiment. 第4の実施の形態の画像処理装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the image processing apparatus of 4th Embodiment. 第5の実施の形態による画像データのピクセルと相対位置関数δ(i)の対応関係を示すイメージ図である。It is an image figure which shows the correspondence of the pixel of the image data by 5th Embodiment, and relative position function (delta) (i). 第5の実施の形態の画像処理装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the image processing apparatus of 5th Embodiment. 第6の実施の形態によるRAM内に構成される入力画像ビットマップデータを概略的に示すイメージ図である。It is an image figure which shows roughly the input image bitmap data comprised in RAM by 6th Embodiment. 本発明の第6及び第7の実施の形態による画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus by the 6th and 7th embodiment of this invention. 撮像カメラの一例と、これと組み合わせられる本発明の各実施の形態に適用される画像処理装置の全体ブロック図である。1 is an overall block diagram of an image processing apparatus applied to each embodiment of the present invention combined with an example of an imaging camera. FIG.

符号の説明Explanation of symbols

201…監視装置、202…撮像カメラ、203…CPU、204…ROM、205…RAM、206…バス、207…出力インターフェース、212…画像保存部、213…水平領域分割部、214…領域判定処理部   DESCRIPTION OF SYMBOLS 201 ... Monitoring apparatus, 202 ... Imaging camera, 203 ... CPU, 204 ... ROM, 205 ... RAM, 206 ... Bus, 207 ... Output interface, 212 ... Image storage part, 213 ... Horizontal area division part, 214 ... Area determination process part

Claims (3)

入力画像データが保存される画像保存部と、
前記画像保存部中の前記入力画像データを水平方向に分割する水平領域分割部と、
前記水平領域分割部から得られた水平分割領域の同時生起確率行列を算出する特徴量算出部と、前記特徴量算出部によって得られた同時生起確率行列を所定の閾値と比較して、背景か否かを決定する画素判定部と、前記画素判定部によって得られた判定結果に基づいて、不審物等の存在の有無を出力する画素集合決定部とよりなる領域判定処理部と
を具備する画像処理装置。
An image storage unit for storing input image data;
A horizontal region dividing unit for horizontally dividing the input image data in the image storage unit;
A feature amount calculation unit that calculates a co-occurrence probability matrix of a horizontal division region obtained from the horizontal region division unit, and compares the co-occurrence probability matrix obtained by the feature amount calculation unit with a predetermined threshold value, An image including a pixel determination unit that determines whether or not, and a region determination processing unit that includes a pixel set determination unit that outputs the presence / absence of a suspicious object or the like based on a determination result obtained by the pixel determination unit Processing equipment.
前記特徴量算出部は、前記水平領域分割部から得られた水平分割領域中の画像データを構成する各ピクセルを示すアドレスを要素とする配列にて、同時生起確率行列を構成するものである請求項1記載の画像処理装置。   The feature quantity calculation unit constitutes a co-occurrence probability matrix with an array having addresses indicating pixels constituting image data in a horizontal division area obtained from the horizontal area division unit. Item 6. The image processing apparatus according to Item 1. 入力画像データを水平方向に分割して複数の水平分割領域を得るステップと、
前記水平分割領域内の各ピクセルを所定の相対位置関数にて評価するステップと、
前記評価ステップにて同時生起確率行列の該当する行列要素に、当該ピクセルのアドレスを格納するステップと、
作成を終了した前記同時生起確率行列を、所定の閾値にて比較するステップと、
前記比較の結果、前記水平分割領域毎に不審物か或は背景かを判定するステップと
を含む画像処理方法。
Dividing the input image data in the horizontal direction to obtain a plurality of horizontal division regions;
Evaluating each pixel in the horizontal division region with a predetermined relative position function;
Storing the address of the pixel in the corresponding matrix element of the co-occurrence probability matrix in the evaluation step;
Comparing the co-occurrence probability matrices that have been created with a predetermined threshold;
And a step of determining whether each of the horizontally divided areas is a suspicious object or a background as a result of the comparison.
JP2006254817A 2006-08-31 2006-09-20 Image signal processing apparatus and image processing method Expired - Fee Related JP4270254B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2006254817A JP4270254B2 (en) 2006-09-20 2006-09-20 Image signal processing apparatus and image processing method
SG201000556-9A SG159501A1 (en) 2006-08-31 2007-08-28 Image-processing apparatus, image processing method and image processing program
TW096131883A TWI384879B (en) 2006-08-31 2007-08-28 Image-processing apparatus, image processing method and image processing program
US11/897,005 US8068701B2 (en) 2006-08-31 2007-08-28 Image-processing apparatus, image-processing method and image-processing program
SG200706362-1A SG140573A1 (en) 2006-08-31 2007-08-28 Image-processing apparatus, image processing method and image processing program
KR1020070088247A KR20080020581A (en) 2006-08-31 2007-08-31 Image-processing apparatus, image processing method and image processing program
CN 200710145710 CN101137046B (en) 2006-08-31 2007-08-31 Image processing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006254817A JP4270254B2 (en) 2006-09-20 2006-09-20 Image signal processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2008078926A JP2008078926A (en) 2008-04-03
JP4270254B2 true JP4270254B2 (en) 2009-05-27

Family

ID=39350531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006254817A Expired - Fee Related JP4270254B2 (en) 2006-08-31 2006-09-20 Image signal processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4270254B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5408139B2 (en) * 2008-10-09 2014-02-05 日本電気株式会社 Anomaly detection system, anomaly detection method and anomaly detection program
JP5644097B2 (en) * 2009-12-08 2014-12-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5582881B2 (en) * 2010-06-14 2014-09-03 キヤノン株式会社 Image analysis apparatus and image analysis method
WO2018105112A1 (en) * 2016-12-09 2018-06-14 株式会社日立国際電気 Water intrusion detection system and method
JP7269705B2 (en) * 2018-07-12 2023-05-09 日産自動車株式会社 Personal verification method and personal verification device

Also Published As

Publication number Publication date
JP2008078926A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
CN108510467B (en) SAR image target identification method based on depth deformable convolution neural network
CN110310264B (en) DCNN-based large-scale target detection method and device
Chen et al. Ship detection from coastal surveillance videos via an ensemble Canny-Gaussian-morphology framework
CN110097536B (en) Hexagonal bolt looseness detection method based on deep learning and Hough transform
JP4229154B2 (en) Image processing method
Li et al. Towards automatic power line detection for a UAV surveillance system using pulse coupled neural filter and an improved Hough transform
Zhang et al. Change detection between multimodal remote sensing data using Siamese CNN
TWI384879B (en) Image-processing apparatus, image processing method and image processing program
CN108229342B (en) Automatic sea surface ship target detection method
CN109902618A (en) A kind of sea ship recognition methods and device
EP3396370B1 (en) Detecting portions of interest in images
CN111079596A (en) System and method for identifying typical marine artificial target of high-resolution remote sensing image
JP4270254B2 (en) Image signal processing apparatus and image processing method
WO2018000252A1 (en) Oceanic background modelling and restraining method and system for high-resolution remote sensing oceanic image
CN110751619A (en) Insulator defect detection method
CN111353371A (en) Coastline extraction method based on satellite-borne SAR image
CN111488808A (en) Lane line detection method based on traffic violation image data
CN114120138A (en) Method, device, equipment and medium for detecting and identifying remote sensing image target
CN111798435A (en) Image processing method, and method and system for monitoring invasion of engineering vehicle into power transmission line
CN115018785A (en) Hoisting steel wire rope tension detection method based on visual vibration frequency identification
Forlani et al. Adaptive filtering of aerial laser scanning data
CN107369163B (en) Rapid SAR image target detection method based on optimal entropy dual-threshold segmentation
CN107729903A (en) SAR image object detection method based on area probability statistics and significance analysis
Tang et al. Fracture extraction from smooth rock surfaces using depth image segmentation
Cai et al. Man-made object detection based on texture clustering and geometric structure feature extracting

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140306

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees