JP5318664B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5318664B2
JP5318664B2 JP2009128519A JP2009128519A JP5318664B2 JP 5318664 B2 JP5318664 B2 JP 5318664B2 JP 2009128519 A JP2009128519 A JP 2009128519A JP 2009128519 A JP2009128519 A JP 2009128519A JP 5318664 B2 JP5318664 B2 JP 5318664B2
Authority
JP
Japan
Prior art keywords
fragment
evaluation value
image
feature region
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009128519A
Other languages
Japanese (ja)
Other versions
JP2010277296A (en
Inventor
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009128519A priority Critical patent/JP5318664B2/en
Publication of JP2010277296A publication Critical patent/JP2010277296A/en
Application granted granted Critical
Publication of JP5318664B2 publication Critical patent/JP5318664B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視画像から検知対象物の特徴を有する領域を抽出し、検知対象物の存在を判定する対象物検知装置に関する。   The present invention relates to an object detection apparatus that extracts a region having a characteristic of a detection object from a monitoring image and determines the presence of the detection object.

侵入者や不審者などを検知するために監視画像から検知対象物である人間の領域を抽出することが行われる。この領域の抽出には背景差分処理や識別器による探索処理などが用いられるが、その際、検知対象物以外の領域が誤抽出される場合があり、誤報の原因となる。   In order to detect an intruder or a suspicious person, a human region that is a detection target is extracted from the monitoring image. For the extraction of this region, background difference processing, search processing by a classifier, or the like is used. At this time, a region other than the detection target object may be erroneously extracted, which causes a false alarm.

この点、特許文献1に記載の移動物体追跡装置では、背景差分処理により抽出された領域の寸法や縦横比などの形状の特徴が監視対象としてふさわしくない場合に当該領域を処理対象から除外することにより誤抽出の低減を図っている。   In this regard, the moving object tracking device described in Patent Document 1 excludes the region from the processing target when the features of the shape such as the size and aspect ratio of the region extracted by the background difference processing are not suitable for monitoring. This is intended to reduce extraction errors.

また、特許文献2に記載の対象物検出装置では、検出したい対象物の大きさとなるウィンドウを入力画像に順次設定して、識別器を用いたスキャンを行うことにより誤抽出の低減を図っている。   Moreover, in the target object detection apparatus described in Patent Literature 2, a window having the size of the target object to be detected is sequentially set in the input image, and scanning using a discriminator is performed to reduce erroneous extraction. .

特開2008−250772号公報JP 2008-250772 A 特開2005−157679号公報JP 2005-157679 A

しかしながら、従来技術においては誤抽出された領域を除外しきれず、依然として誤抽出された領域に検知対象物の存在を判定してしまうという問題が残っていた。   However, in the prior art, it is not possible to exclude the erroneously extracted region, and there still remains a problem that the presence of the detection target is determined in the erroneously extracted region.

例えば、背景差分処理を用いる特許文献1に記載の移動物体追跡装置においては、草木が揺れたり、ヘッドライトに照らされたりした背景の一部領域が、たまたま人間程度の寸法や縦横比を有している場合に、これらの領域を誤抽出してしまう。背景に生じる変化は多種多様であるため、寸法や縦横比の基準を調整するだけでは誤抽出を根絶するのは困難である。   For example, in the moving object tracking device described in Patent Document 1 that uses background difference processing, a partial area of the background that is swayed by a vegetation or illuminated by a headlight happens to have a human-like size and aspect ratio. In such a case, these areas are erroneously extracted. Since there are a wide variety of changes that occur in the background, it is difficult to eradicate false extractions simply by adjusting the dimensions and aspect ratio criteria.

また例えば、識別器を用いる特許文献2に記載の対象物検出装置においては、背景の一部領域がたまたま人間と似た大きさや特徴を有する場合にこの領域を誤抽出してしまう。背景は多種多様であるため識別器の学習データを増やしても誤抽出を根絶するのは困難である。   Further, for example, in the object detection device described in Patent Document 2 using a discriminator, this region is erroneously extracted when a partial region of the background happens to have a size and characteristics similar to a human being. Since backgrounds vary, it is difficult to eradicate erroneous extraction even if the learning data of the discriminator is increased.

本発明は、上記問題を解決するためになされたものであり、背景の誤抽出を排除して高い精度で物体の存在を検知できる対象物検知装置を提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide an object detection apparatus that can detect the presence of an object with high accuracy by eliminating erroneous background extraction.

本発明に係る対象物検知装置は、判定対象画像に基づいて検知対象物を検出するものであって、前記判定対象画像から前記検知対象物の特徴を有した特徴領域を抽出する特徴領域抽出手段と、それぞれ画素値が所定の類似性を有する画素からなる複数の画像断片に前記判定対象画像を分割する画像分割手段と、前記画像断片のうち前記特徴領域の内外に跨る不確定断片を検出し、当該不確定断片のうち当該特徴領域の内側にある画素数に応じて増加する内側評価値を求め、当該内側評価値を用いて前記特徴領域に前記検知対象物が存在するか否かを判定する存否判定手段と、を有する。   An object detection device according to the present invention detects a detection object based on a determination target image, and extracts a feature area having features of the detection target from the determination target image. And an image dividing unit that divides the determination target image into a plurality of image fragments each having a pixel value having a predetermined similarity, and an indeterminate fragment extending between the inside and outside of the feature region is detected among the image fragments. The inner evaluation value that increases in accordance with the number of pixels inside the feature area in the uncertain fragment is obtained, and it is determined whether the detection target exists in the feature area using the inner evaluation value. Presence / absence determining means.

他の本発明に係る対象物検知装置は、前記存否判定手段が、前記不確定断片毎に前記内側評価値と前記特徴領域の外側にある画素数に応じて増加する外側評価値とを求め、前記外側評価値が前記内側評価値より大きい前記不確定断片についての前記内側評価値を用いて判定するものである。   In another object detection apparatus according to the present invention, the presence / absence determination unit obtains the inner evaluation value and the outer evaluation value that increases according to the number of pixels outside the feature region for each indeterminate fragment, The determination is made using the inner evaluation value for the uncertain fragment whose outer evaluation value is greater than the inner evaluation value.

別の本発明に係る対象物検知装置は、前記存否判定手段が、前記外側評価値が前記内側評価値より大きい前記不確定断片についての前記内側評価値と、前記外側評価値が前記内側評価値以下である前記不確定断片についての前記外側評価値との合計値を用いて判定するものである。   In the object detection device according to another aspect of the invention, the presence / absence determination unit includes the inner evaluation value for the uncertain fragment whose outer evaluation value is larger than the inner evaluation value, and the outer evaluation value is the inner evaluation value. The determination is made using the total value of the uncertain fragment and the outer evaluation value as follows.

上記本発明に係る対象物検知装置において、前記存否判定手段は、前記不確定断片を構成する画素と前記特徴領域の輪郭との距離に応じて増加する重みを合計することにより前記内側評価値又は前記外側評価値を算出するものとすることができる。   In the target object detection apparatus according to the present invention, the presence / absence determination unit adds the weights that increase in accordance with the distance between the pixels constituting the indeterminate fragment and the outline of the feature region, thereby calculating the inner evaluation value or The outer evaluation value may be calculated.

本発明の好適な態様は、前記不確定断片の内外での前記画素値の所定の相違性に応じた断片明瞭度を求める断片明瞭度算出手段を有し、前記存否判定手段が、前記判定に際して、前記不確定断片についての前記内側評価値を当該不確定断片の前記断片明瞭度で重み付けすること、を特徴とする対象物検知装置である。   A preferred aspect of the present invention includes a fragment articulation calculation unit that obtains a fragment intelligibility according to a predetermined difference between the pixel values inside and outside the indeterminate fragment, wherein the presence / absence determination unit is configured to perform the determination. The object detection device is characterized in that the inner evaluation value of the uncertain fragment is weighted by the fragment intelligibility of the uncertain fragment.

本発明によれば、背景の誤抽出を排除して対象物の存在を高精度に判定することが可能となる。   According to the present invention, it is possible to determine the presence of an object with high accuracy by eliminating erroneous background extraction.

本発明の実施形態に係る画像監視装置の概略のブロック構成図である。1 is a schematic block diagram of an image monitoring apparatus according to an embodiment of the present invention. 断片明瞭度算出処理を説明するための模式図である。It is a schematic diagram for demonstrating a fragment intelligibility calculation process. 存否判定手段の抽出正誤判定処理を説明するための模式図である。It is a schematic diagram for demonstrating the extraction correctness determination process of a presence determination means. 画素と特徴領域の輪郭との距離に応じた重みを定義する関数Fの模式的なグラフである。It is a typical graph of the function F which defines the weight according to the distance of a pixel and the outline of a characteristic area. 特徴領域を横切る直線に沿った関数Fの変化を説明する説明図である。It is explanatory drawing explaining the change of the function F along the straight line which crosses a characteristic area | region. 断片明瞭度が低い場合に生じる現象を説明するための模式図である。It is a schematic diagram for demonstrating the phenomenon which arises when a fragment | piece clarity is low. 画像監視処理の概略のフロー図である。It is a schematic flowchart of an image monitoring process. 抽出正誤判定処理の概略のフロー図である。It is a general | schematic flowchart of extraction correct / incorrect determination processing. 監視画像における特徴領域の抽出及びセグメンテーションの処理結果の例を示す模式図である。It is a schematic diagram which shows the example of the process result of the extraction of the feature area in a monitoring image, and segmentation. 誤抽出された特徴領域と画像断片との位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of the misextracted characteristic area | region and an image fragment. 正しく抽出された特徴領域と画像断片との位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of the characteristic area and image fragment which were correctly extracted.

以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、監視空間から得られた監視画像において、検知対象物である人間の特徴を有する特徴領域を抽出することで侵入者を検知する。侵入者を検知すると画像監視装置1は異常信号を出力する。図1は、実施形態に係る画像監視装置1の概略のブロック構成図である。画像監視装置1は、画像入力部2、記憶部3、制御部4及び出力部5を含んで構成される。   Hereinafter, an image monitoring apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The image monitoring apparatus 1 detects an intruder by extracting a feature region having human characteristics as a detection target in a monitoring image obtained from the monitoring space. When an intruder is detected, the image monitoring apparatus 1 outputs an abnormal signal. FIG. 1 is a schematic block diagram of an image monitoring apparatus 1 according to the embodiment. The image monitoring apparatus 1 includes an image input unit 2, a storage unit 3, a control unit 4, and an output unit 5.

画像入力部2は、監視カメラであり、監視空間内に設置され、監視空間を所定の時間間隔で撮影し、各画素が多階調の画素値で表現される監視画像(判定対象画像)を出力する。本実施形態において監視画像はカラー画像であり、例えば、各画素の画素値がそれぞれ256階調のR値、G値及びB値の組で表現される。また、監視画像は輝度値で表される濃淡画像であってもよく、この場合、画素値は例えば256階調の輝度値で表現される。本画像監視装置1において監視カメラは、少なくとも検知対象物と共にその周辺の背景が監視画像に含まれるような設置条件(設置位置等)及び撮像条件(画角等)にて撮像を行うように構成されている。より好適には監視カメラは検知対象物が撮像されたときに監視画像に占める背景の面積が検知対象物の面積以上となるような設置条件および撮像条件にて撮像を行うように構成されている。撮影された監視空間の監視画像は順次、制御部4へ出力される。   The image input unit 2 is a monitoring camera, is installed in the monitoring space, images the monitoring space at a predetermined time interval, and displays a monitoring image (determination target image) in which each pixel is expressed by a multi-tone pixel value. Output. In this embodiment, the monitoring image is a color image. For example, the pixel value of each pixel is represented by a set of R, G, and B values of 256 gradations. Further, the monitoring image may be a grayscale image represented by a luminance value. In this case, the pixel value is expressed by a luminance value of 256 gradations, for example. In the image monitoring apparatus 1, the monitoring camera is configured to perform imaging under installation conditions (installation position, etc.) and imaging conditions (view angle, etc.) such that at least the detection target and the surrounding background are included in the monitoring image. Has been. More preferably, the monitoring camera is configured to perform imaging under installation conditions and imaging conditions such that the background area occupied in the monitoring image is equal to or larger than the area of the detection object when the detection object is imaged. . The captured monitoring images of the monitoring space are sequentially output to the control unit 4.

記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置であり、制御部4で使用されるプログラムやデータを記憶する。記憶部3はこれらプログラム、データを制御部4との間で入出力する。記憶部3に記憶されるデータには抽出用情報30が含まれる。   The storage unit 3 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk, and stores programs and data used by the control unit 4. The storage unit 3 inputs and outputs these programs and data to and from the control unit 4. The data stored in the storage unit 3 includes extraction information 30.

抽出用情報30は、対象物の領域を抽出するための情報であり、抽出処理に先立って生成され記憶部3に格納されている情報である。背景差分処理で対象物を抽出する本実施形態では、抽出用情報30は、具体的には監視空間に対象物が存在していない画像であり、抽出処理に先立って監視画像に基づいて背景画像として生成される。なお、対象物の領域を識別器により抽出する他の実施形態では、抽出用情報30として、特徴空間において対象物とそれ以外を分ける識別面を表すパラメータが格納される。この識別面を表すパラメータは、対象物が撮像されている多数のサンプル画像、及び対象物が撮像されていない多数のサンプル画像の特徴量(コントラスト、エッジ方向等)をサポートベクターマシーンやブースティング法に適用することで予め学習される。   The extraction information 30 is information for extracting a region of the object, and is information that is generated prior to the extraction process and stored in the storage unit 3. In the present embodiment in which the object is extracted by the background difference process, the extraction information 30 is specifically an image in which the object does not exist in the monitoring space, and the background image is based on the monitoring image prior to the extraction process. Is generated as In another embodiment in which a region of an object is extracted by a discriminator, a parameter representing an identification plane that separates the object from the other in the feature space is stored as the extraction information 30. The parameters representing the identification plane include the feature values (contrast, edge direction, etc.) of a large number of sample images in which the object is imaged and a large number of sample images in which the object is not imaged. It is learned beforehand by applying to.

制御部4は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、画像入力部2、記憶部3及び出力部5と接続される。制御部4は、記憶部3からプログラムを読み出して実行し、後述する各種の手段(特徴領域抽出手段40、画像分割手段41、断片明瞭度算出手段42、存否判定手段43、異常検知手段44)として機能する。   The control unit 4 is configured using an arithmetic device such as a DSP (Digital Signal Processor) or MCU (Micro Control Unit), and is connected to the image input unit 2, the storage unit 3, and the output unit 5. The control unit 4 reads out and executes the program from the storage unit 3 and executes various means described later (a feature region extraction unit 40, an image division unit 41, a fragment articulation calculation unit 42, an existence determination unit 43, and an abnormality detection unit 44). Function as.

特徴領域抽出手段40は、監視画像と抽出用情報30との比較により、監視画像にて検知対象物の特徴を有する特徴領域を抽出し、抽出された特徴領域の情報を存否判定手段43へ出力する。具体的には、特徴領域抽出手段40は、抽出用情報30として記憶されている背景画像を用いて、監視画像と当該背景画像との差分処理を行い、差分閾値より大きな差を有する画素のまとまりを特徴領域として抽出する。この場合、画素値が背景と異なる領域が特徴領域として抽出されることになる。   The feature region extraction unit 40 extracts a feature region having the feature of the detection target from the monitoring image by comparing the monitoring image with the extraction information 30, and outputs the extracted feature region information to the existence determination unit 43. To do. Specifically, the feature area extraction unit 40 uses the background image stored as the extraction information 30 to perform a difference process between the monitoring image and the background image, and collects pixels having a difference larger than the difference threshold. Are extracted as feature regions. In this case, an area having a pixel value different from that of the background is extracted as the feature area.

識別器を用いる他の実施形態では、特徴領域抽出手段40は、監視画像に所定大きさ、所定形状の候補領域を順次設定し、候補領域の画像を分析して特徴量(コントラスト、エッジ方向など)を抽出し、抽出された特徴量を、抽出用情報30として記憶されている識別面のパラメータと比較して識別結果(対象物か否か)を導出する。なお、候補領域を設定した探索は、候補領域の大きさ及び形状を変更して複数回繰り返してもよい。この場合、特徴量が対象物と類似する領域が特徴領域として抽出されることになる。   In another embodiment using a discriminator, the feature area extraction unit 40 sequentially sets candidate areas having a predetermined size and a predetermined shape on the monitoring image, analyzes the image of the candidate area, and analyzes the feature amount (contrast, edge direction, etc.). ) Is extracted, and the extracted feature value is compared with the parameter of the identification surface stored as the extraction information 30 to derive an identification result (whether or not it is an object). The search in which the candidate area is set may be repeated a plurality of times by changing the size and shape of the candidate area. In this case, a region having a feature amount similar to the object is extracted as a feature region.

画像分割手段41は、監視画像において画素値が互いに類似する隣接画素をまとめることで複数の画像断片を抽出する。この抽出処理により、監視画像は、画素値が所定の類似性を有する画素からなる複数の画像断片に分割される。抽出された画像断片の情報は断片明瞭度算出手段42及び存否判定手段43へ出力される。このような画像断片は、一般にセグメントと称され、セグメントを抽出する処理は一般にセグメンテーションと称される。かかる画像断片は、画素値が互いに類似する隣接画素からなるので、道路・建物・人物などごとに抽出される。   The image dividing means 41 extracts a plurality of image fragments by grouping adjacent pixels having similar pixel values in the monitoring image. By this extraction process, the monitoring image is divided into a plurality of image fragments including pixels whose pixel values have a predetermined similarity. The extracted image fragment information is output to the fragment articulation calculation means 42 and the existence determination means 43. Such an image fragment is generally referred to as a segment, and the process of extracting a segment is generally referred to as segmentation. Since such image fragments are composed of adjacent pixels having similar pixel values, they are extracted for each road, building, person, and the like.

代表的なセグメンテーションの方式として、k平均法や平均シフト法がある。これらによるセグメンテーションの手順を説明する。   Typical segmentation methods include the k-average method and the average shift method. The segmentation procedure based on these will be described.

[k平均法に基づくセグメンテーション]
(手順1)監視画像からk個の画素を任意に選択し、選択された画素の画素値をシードに設定する。
(手順2)監視画像中の各画素を最も類似するシードに関連付ける。
(手順3)シードごとに、関連付けられた画素の平均画素値を算出し、シードから平均画素値への移動量を求める。
(手順4)移動量が予め設定された閾値ε以下なら次の手順5へ進み、そうでなければ算出された平均画素値をシードに設定して手順2に戻る。
(手順5)同一シードに関連付けられた画素のうち互いに隣接する画素同士をひとつのセグメントにまとめる。
[Segmentation based on k-means]
(Procedure 1) k pixels are arbitrarily selected from the monitoring image, and the pixel value of the selected pixel is set as a seed.
(Procedure 2) Each pixel in the monitoring image is associated with the most similar seed.
(Procedure 3) For each seed, the average pixel value of the associated pixel is calculated, and the amount of movement from the seed to the average pixel value is obtained.
(Procedure 4) If the movement amount is less than or equal to the preset threshold value ε, the process proceeds to the next procedure 5. Otherwise, the calculated average pixel value is set as a seed and the process returns to procedure 2.
(Procedure 5) Among the pixels associated with the same seed, adjacent pixels are grouped into one segment.

[平均シフト法に基づくセグメンテーション]
(手順1)監視画像中の各画素を中心とする所定大きさの局所領域を初期設定する。
(手順2)局所領域の密度勾配ベクトルを算出しては山登り法を用いて該ベクトル方向へ(密度が高くなる方向へ)局所領域をシフトすることをシフト量が収束するまで繰り返す。
(手順3)監視画像中の各画素に収束点の画素値(最頻画素値を意味する)を設定する。
(手順4)手順3により生成される画像にて、隣接する画素との画素値の差が規定値以下の画素同士を一つのセグメントにまとめる。
[Segmentation based on average shift method]
(Procedure 1) A local region having a predetermined size centering on each pixel in the monitoring image is initialized.
(Procedure 2) The density gradient vector of the local region is calculated, and shifting the local region in the vector direction (in the direction of increasing density) using the hill-climbing method is repeated until the shift amount converges.
(Procedure 3) A pixel value at the convergence point (meaning the most frequent pixel value) is set for each pixel in the monitoring image.
(Procedure 4) In the image generated by the procedure 3, pixels whose pixel value difference between adjacent pixels is equal to or less than a specified value are grouped into one segment.

なお、平均シフト法についての参考文献として、Dorin Comaniciu, Peter Meer: Mean
Shift: A Robust Approach Toward Feature Space Analysis. IEEE Trans. Pattern
Anal. Mach. Intell. 24(5): 603-619 (2002)がある。
As a reference for the mean shift method, Dorin Comaniciu, Peter Meer: Mean
Shift: A Robust Approach Toward Feature Space Analysis. IEEE Trans. Pattern
Anal. Mach. Intell. 24 (5): 603-619 (2002).

その他のセグメンテーション方法として、画像をグラフとみなした上でその最小切断や正規化切断を求める方法などを用いることもできる。   As another segmentation method, an image can be regarded as a graph, and a minimum cut or normalized cut can be obtained.

断片明瞭度算出手段42は、画像分割手段41において抽出された各画像断片について、その内外での画素値の所定の相違性に応じた断片明瞭度を算出し、存否判定手段43へ出力する。当該画像断片の周囲画像と大きく相違する画像断片は周囲画像と明瞭に区別でき、その輪郭は対象物の輪郭、対象物を構成する対象構成物の輪郭、又は背景を構成する背景構成物の輪郭といった真の輪郭と一致している可能性が高い。一方、相違が小さな画像断片は、陰影等の影響により対象構成物や背景構成物の一部のみが抽出された画像断片である可能性が高い。   The fragment articulation calculation unit 42 calculates the fragment articulation degree according to a predetermined difference between the inside and outside pixel values of each image fragment extracted by the image dividing unit 41 and outputs it to the presence / absence determination unit 43. An image fragment that is significantly different from the surrounding image of the image fragment can be clearly distinguished from the surrounding image, and its contour is the contour of the target object, the contour of the target component constituting the target object, or the contour of the background constituent constituting the background. There is a high possibility that it matches the true contour. On the other hand, an image fragment with a small difference is highly likely to be an image fragment in which only a part of the target component or the background component is extracted due to the influence of a shadow or the like.

例えば、断片明瞭度は、注目断片の縁部に存在する各縁部画素と、注目断片の外側に存在し当該縁部画素に隣接する周囲画素との相違度(相互相違度)を総和することで算出される。具体的には、縁部画素の画素値をc、各縁部画素に隣接する周囲画素の画素値をcと表すと、画像断片sの断片明瞭度Lの算出式は次の(1)式で定義することができる。
=G(1/Σ{α・exp(−‖c−c/β)}) ・・・(1)
For example, the fragment clarity is the sum of differences (mutual differences) between each edge pixel existing at the edge of the target fragment and surrounding pixels existing outside the target fragment and adjacent to the edge pixel. Is calculated by Specifically, the pixel value c i of the edge pixel, expressed as a pixel value c j of the surrounding pixels adjacent to each edge pixel, the calculation formula of fragments clarity L s of the image fragments s is the following ( 1) It can be defined by the formula.
L s = G (1 / Σ {α · exp (-‖c i -c j ‖ 2 / β)}) ··· ( 1)

(1)式において、G(x)はx=0で0、x=∞で1となる増加関数であり、このG(x)により断片明瞭度Lの値域は[0,1)に正規化される。本実施形態では画素値c,cはRGB値からなるベクトルであり、‖x‖はベクトルxのノルムを表す。また、α及びβは予め設定される定数である。Σは、画素値c,cの組についての総和を表す。 In equation (1), G (x) is an increasing function that becomes 0 when x = 0 and becomes 1 when x = ∞, and this G (x) normalizes the range of fragment clarity L s to [0, 1). It becomes. In this embodiment, the pixel values c i and c j are vectors composed of RGB values, and ‖x‖ represents the norm of the vector x. Α and β are constants set in advance. Σ represents the total sum for the set of pixel values c i and c j .

ここで、縁部画素の多寡や縁部画素の画素値の分布は画像断片ごとに異なるため、縁部画素と周囲画素との関係のみから断片明瞭度を算出すると、画像断片間で断片明瞭度の信頼性に格差が生じ得る。そこで、断片明瞭度算出手段42は、注目断片内の画素間についての相違度(自己相違度)を算出し、当該自己相違度により上記相互相違度を正規化する。自己相違度は、注目断片内の互いに隣接する画素間の相違度を総和することで算出され、画像断片s内の互いに隣接する2つの画素の画素値をそれぞれch1,ch2と表すと、画像断片sの正規化された断片明瞭度Lの算出式は(2)式で与えられる。
=G(Σ{exp(−‖ch1−ch2/β)}/Σ{exp(−‖c−c/β)}) ・・・(2)
Here, since the number of edge pixels and the distribution of pixel values of edge pixels differ for each image fragment, calculating the fragment clarity only from the relationship between the edge pixels and surrounding pixels, the fragment clarity between image fragments There may be disparities in the reliability of Therefore, the fragment articulation calculation means 42 calculates the difference (self-difference) between the pixels in the target fragment, and normalizes the mutual dissimilarity based on the self-difference. The self-difference is calculated by summing the dissimilarities between adjacent pixels in the target fragment, and pixel values of two adjacent pixels in the image fragment s are expressed as c h1 and c h2 , respectively. A formula for calculating the normalized fragment clarity L s of the image fragment s is given by equation (2).
L s = G (Σ {exp (-‖c h1 -c h2 ‖ 2 / β)} / Σ { exp (-‖c i -c j ‖ 2 / β)}) ··· ( 2)

(2)式において第1のΣは画素値ch1,ch2の組についての総和、第2のΣは画素値c,cの組についての総和を表す。このように正規化処理を行うことで、画像断片間の格差により生じる断片明瞭度の信頼性低下を防ぐことができる。 In the equation (2), the first Σ represents the sum of the pixel values c h1 and c h2 , and the second Σ represents the sum of the pixel values c i and c j . By performing the normalization process in this way, it is possible to prevent a decrease in fragment clarity reliability caused by a difference between image fragments.

図2(a)は注目断片s及び周囲画像の模式図であり、注目断片s内の縁部画素(画素値c)、注目断片s外の周囲画素(画素値c)の位置が示されている。図2(b)は関数Gの一例を示しており、横軸が引数x、縦軸が関数値G(x)である。 FIG. 2A is a schematic diagram of the target fragment s and the surrounding image, and shows the positions of the edge pixels (pixel value c i ) in the target fragment s and the surrounding pixels (pixel value c j ) outside the target fragment s. Has been. FIG. 2B shows an example of the function G, where the horizontal axis is the argument x and the vertical axis is the function value G (x).

存否判定手段43は、特徴領域抽出手段40により抽出された特徴領域に検知対象物が存在するか否かを判定し、その判定結果を異常検知手段44へ出力する。以下、存否判定手段43について説明する。   The presence / absence determination unit 43 determines whether or not a detection target exists in the feature region extracted by the feature region extraction unit 40, and outputs the determination result to the abnormality detection unit 44. Hereinafter, the presence / absence determination unit 43 will be described.

特徴領域の抽出結果とセグメンテーションされた画像とを重ね合わせたとき、対象物の像が特徴領域として完璧に抽出されていれば、対象物の像に対応する画像断片群がパズルのピースのごとく特徴領域に適合することが期待される。これに対し、特徴領域の形状と特徴領域に対応する部分にある画像断片群の形状との整合性が低いほど、特徴領域が誤抽出されているおそれが大きい。このことは、画像断片が互いに類似する隣接画素をまとめたものであるので、対象物又はその部分ごとに画像断片が抽出されていることに起因する。画像断片が特徴領域に整合しない状態では、特徴領域の輪郭と交差する画像断片が生じる。ここでは、画像断片のうち特徴領域の内外に跨り当該特徴領域への帰属が不確かであるものを不確定断片と呼ぶことにする。例えば、誤抽出により特徴領域に背景が含まれている状態では、背景に属する画像断片が特徴領域の内外を跨ぐ。そして、特徴領域に含まれる背景が大きくなるほど、個々の不確定断片が特徴領域内に食い込む程度が大きくなる、又は/及び不確定断片が増加する。   When the feature region extraction result and the segmented image are superimposed, if the target image is perfectly extracted as the feature region, the image fragment group corresponding to the target image is a feature like a puzzle piece. It is expected to fit into the area. On the other hand, the lower the consistency between the shape of the feature region and the shape of the image fragment group in the portion corresponding to the feature region, the greater the possibility that the feature region is erroneously extracted. This is due to the fact that image fragments are extracted for each object or part thereof because adjacent pixels whose image fragments are similar to each other are grouped. In a state where the image fragment does not match the feature region, an image fragment that intersects the outline of the feature region is generated. Here, among the image fragments, those that straddle the inside and outside of the feature region and are uncertainly attributed to the feature region are referred to as uncertain fragments. For example, in a state where the background is included in the feature area due to erroneous extraction, image fragments belonging to the background straddle the inside and outside of the feature area. As the background included in the feature region increases, the degree to which individual uncertain fragments bite into the feature region increases or / and the uncertain fragments increase.

存否判定手段43は、画像断片の帰属情報を特徴領域の全周に亘ってまとめて領域評価値を算出し、当該領域評価値に基づいて特徴領域の抽出が正しいか否かを判定する。   The presence / absence determining means 43 calculates the region evaluation value by collecting the attribution information of the image fragments over the entire circumference of the feature region, and determines whether or not the feature region is correctly extracted based on the region evaluation value.

例えば、存否判定手段43は、画像断片のうち不確定断片であるものを検出し、特徴領域と不確定断片との重複度合いに応じた領域評価値を算出する。ここで算出される領域評価値は、不確定断片のうち当該特徴領域の内側にある画素数に応じて増加するものであり、これを内側評価値と呼ぶことにする。存否判定手段43は、当該内側評価値を当該特徴領域の抽出誤差として前記特徴領域に前記検知対象物が存在するか否かを判定する。具体的には、内側評価値が予め設定された基準値以下である特徴領域は正しく抽出されており、一方、内側評価値が基準値を超える特徴領域は誤抽出されたものであると判断できる。そこで、存否判定手段43は、この特徴領域の抽出の正誤の判断に対応して、内側評価値が基準値以下である特徴領域には対象物が存在すると判定し、一方、内側評価値が予め設定された基準値を越える特徴領域には対象物は存在しないと判定する。   For example, the presence / absence determination unit 43 detects an image fragment that is an indeterminate fragment, and calculates a region evaluation value according to the degree of overlap between the feature region and the uncertain fragment. The area evaluation value calculated here increases in accordance with the number of pixels inside the characteristic area of the uncertain fragment, and this will be referred to as an inner evaluation value. The presence / absence determination unit 43 determines whether or not the detection target exists in the feature region using the inner evaluation value as an extraction error of the feature region. Specifically, it can be determined that the feature region whose inner evaluation value is less than or equal to the preset reference value is correctly extracted, while the feature region whose inner evaluation value exceeds the reference value is erroneously extracted. . Accordingly, the presence / absence determination means 43 determines that there is an object in the feature region whose inner evaluation value is equal to or less than the reference value in response to the determination of whether the feature region is extracted correctly. It is determined that there is no object in the feature region that exceeds the set reference value.

図3は、存否判定手段43の抽出正誤判定処理を説明するための模式図である。この図3を用いて、当該処理を具体的に説明する。図3には、監視画像にて抽出される画像断片の例として、特徴領域80に対する位置関係が異なる画像断片81〜84が示されている。画像断片81,82は特徴領域80の輪郭を内側に含んでいることから不確定断片として検出される。一方、画像断片83,84は特徴領域80の輪郭を内側に含まないので不確定断片として検出されない。図3にて横線で網掛けされた部分は不確定断片における特徴領域80との重複部分であり、一方、縦線で網掛けされた部分は不確定断片における特徴領域80からのはみ出し部分である。   FIG. 3 is a schematic diagram for explaining the extraction correctness determination process of the presence / absence determination means 43. The processing will be specifically described with reference to FIG. FIG. 3 shows image fragments 81 to 84 having different positional relationships with respect to the feature region 80 as examples of image fragments extracted from the monitoring image. Since the image fragments 81 and 82 include the outline of the feature region 80 on the inside, they are detected as uncertain fragments. On the other hand, since the image fragments 83 and 84 do not include the outline of the feature region 80 on the inside, they are not detected as uncertain fragments. In FIG. 3, the hatched portion with the horizontal line is an overlapping portion with the feature region 80 in the uncertain fragment, while the shaded portion with the vertical line is a portion protruding from the feature region 80 in the uncertain fragment. .

上述したように不確定断片は背景の画像断片である可能性があり、その場合、不確定断片と特徴領域との重複部分は、特徴領域の一部として背景を誤抽出した部分となる。すなわち、重複部分が大きいほど誤抽出の可能性が高く、小さいほど当該可能性は低いといえる。そこで、存否判定手段43は、不確定断片ごとに内側評価値として重複部分の面積(画素数)を算出し、その合計値を領域評価値として求める。不確定断片の識別記号をs、当該不確定断片の内側評価値をgと表すと領域評価値Jの算出式は次の(3)式となる。
J=Σg ・・・(3)
As described above, the uncertain fragment may be a background image fragment, and in this case, the overlapping portion of the uncertain fragment and the feature region is a portion in which the background is erroneously extracted as a part of the feature region. That is, it can be said that the larger the overlapping portion, the higher the possibility of erroneous extraction, and the smaller the overlapping portion, the lower the possibility. Therefore, the presence / absence determination unit 43 calculates the area (number of pixels) of the overlapping portion as the inner evaluation value for each indeterminate fragment, and obtains the total value as the region evaluation value. When the identification symbol of the uncertain fragment is represented by s and the inner evaluation value of the uncertain fragment is represented by g s , the calculation formula of the region evaluation value J is expressed by the following equation (3).
J = Σg s (3)

(3)式においてΣは特徴領域の不確定断片sについての総和を表す。   In the equation (3), Σ represents the total sum for the uncertain fragment s of the feature region.

存否判定手段43は、この(3)式で得られた領域評価値Jを基準値Tと比較し、既に述べたように基準値T以下の特徴領域には対象物が存在すると判定し、そうでない特徴領域には対象物は存在しないと判定する。   The presence / absence determination means 43 compares the region evaluation value J obtained by the equation (3) with the reference value T, and determines that there is an object in the feature region below the reference value T as described above. It is determined that there is no object in the feature region that is not.

内側評価値は、単純な面積に代えて、次のように特徴領域の輪郭からの距離に応じた重み付けを行ってもよく、この構成について以下説明する。特徴領域抽出手段40においてどのような抽出方法を用いても対象物の領域が完璧に抽出されることは稀である。画素単位でみた場合、特徴領域の輪郭近傍の画素の帰属(当該画素が対象物と背景とのいずれに属するか)の不確定性が高い。逆に、輪郭から離れるほど帰属の不確定性は低くなり、特徴領域の中心に近い画素ほど対象物に帰属する確度が高い。そこで、存否判定手段43は、重複部分の各画素について特徴領域の輪郭から当該画素までの距離に応じた重みを算出し、当該重みの和を内側評価値として求める構成とすることができる。   The inner evaluation value may be weighted according to the distance from the outline of the feature region as follows instead of a simple area, and this configuration will be described below. Regardless of what extraction method is used in the feature region extraction means 40, the region of the object is rarely extracted completely. When viewed in units of pixels, there is high uncertainty in the attribution of pixels in the vicinity of the outline of the feature region (whether the pixel belongs to the object or the background). Conversely, as the distance from the contour increases, the uncertainty of attribution decreases, and the closer to the center of the feature region, the higher the probability of belonging to the object. Therefore, the presence / absence determining unit 43 can calculate a weight corresponding to the distance from the contour of the feature region to the pixel for each pixel in the overlapping portion, and obtain the sum of the weights as the inner evaluation value.

具体的には、重複部分の画素をe1、特徴領域の輪郭から当該画素e1までの距離をde1と表すと、内側評価値gの算出式は下記(4)式で表される。
=ΣF(de1) ・・・(4)
Specifically, when the overlapping pixel is e1 and the distance from the feature region outline to the pixel e1 is d e1 , the inner evaluation value g s is calculated by the following equation (4).
g s = ΣF (d e1 ) (4)

(4)式においてΣは画素e1についての総和を表す。また、F(x)は引数xとして入力される距離de1に応じた重みを定義する予め定められた関数であり、x>0に対して値域が(0,1)であり、かつ増加関数である。図4は関数Fの一例を示しており、横軸が引数x、縦軸が関数値F(x)である。 In the equation (4), Σ represents the total sum for the pixel e1. F (x) is a predetermined function that defines a weight according to the distance de1 input as the argument x, and has a range of (0, 1) for x> 0 and an increasing function. It is. FIG. 4 shows an example of the function F, where the horizontal axis is the argument x and the vertical axis is the function value F (x).

領域評価値Jは、(4)式で与えられる各不確定断片ごとの内側評価値gを用いて(3)式により求めることができる。 Region evaluation value J can be obtained by (4) using the inner evaluation value g s for each uncertain fragment given by formula (3) below.

また、領域評価値Jは次に述べるように、不確定断片のはみ出し部分を考慮に入れて定めることもできる。この場合、存否判定手段43は、不確定断片ごとにそのはみ出し部分の画素数に応じて増加する評価値を求める。当該評価値を外側評価値と呼ぶことにする。   Further, as described below, the region evaluation value J can be determined in consideration of the protruding portion of the uncertain fragment. In this case, the presence / absence determination unit 43 obtains an evaluation value that increases in accordance with the number of pixels of the protruding portion for each indeterminate fragment. The evaluation value is referred to as an outer evaluation value.

不確定断片には、不確定断片81のように重複部分よりもはみ出し部分の方が大きいものと、不確定断片82のように重複部分よりもはみ出し部分の方が小さいものとがある。はみ出し部分の方が大きい不確定断片は本来背景に属する画像断片である可能性が高く、一方、重複部分の方が大きい不確定断片は本来対象物に属する画像断片である可能性が高いといえる。そこで、重複度合いがはみ出し度合いよりも小さい不確定断片についてだけ内側評価値を合計して領域評価値Jを算出することで、領域評価値Jは、背景に属する可能性の高い不確定断片が特徴領域に与える影響を好適に表し、抽出誤差としての領域評価値Jの信頼性が向上し、ひいては存否判定の確度が向上する。   The uncertain fragment includes a portion where the protruding portion is larger than the overlapping portion like the uncertain fragment 81 and a portion where the protruding portion is smaller than the overlapping portion like the uncertain fragment 82. Indeterminate fragments with larger overhangs are more likely to be image fragments that originally belong to the background, while uncertain fragments with larger overlap portions are more likely to be image fragments that originally belong to the object. . Therefore, the region evaluation value J is characterized by an uncertain fragment that is highly likely to belong to the background by calculating the region evaluation value J by summing the inner evaluation values only for the uncertain fragments whose overlapping degree is smaller than the protruding degree. The influence on the region is preferably expressed, the reliability of the region evaluation value J as an extraction error is improved, and the accuracy of the presence / absence determination is improved.

具体的には、(5)式に示すように、存否判定手段43は各不確定断片について内側評価値と外側評価値とを比較し、内側評価値が外側評価値よりも小さい不確定断片の内側評価値の合計値を領域評価値Jとする。
J=Σg {s;g<n} ・・・(5)
Specifically, as shown in Equation (5), the presence / absence determination unit 43 compares the inner evaluation value and the outer evaluation value for each indeterminate fragment, and determines the uncertain fragment whose inner evaluation value is smaller than the outer evaluation value. The total value of the inner evaluation values is defined as a region evaluation value J.
J = Σg s {s; g s <n s } (5)

(5)式において、不確定断片sの内側評価値がg、外側評価値がnであり、Σはg<nなる不確定断片sについての総和を表す。 In (5), an inner evaluation value g s uncertain fragments s, a outer evaluation value is n s, sigma represents the sum of g s <n s becomes uncertain fragment s.

外側評価値nは、内側評価値gと対比可能に定義することが好適である。すなわち、内側評価値gを重複部分の面積で定義する場合には、外側評価値nははみ出し部分の面積で定義する。一方、内側評価値gを(4)式で求める場合には、外側評価値nも(4)式と同様の関数Fを用いて次式で求める。
=ΣF(de2) ・・・(6)
The outer evaluation value n s is preferably defined so as to be comparable with the inner evaluation value g s . That is, when the inner evaluation value g s is defined by the area of the overlapping portion, the outer evaluation value n s is defined by the area of the protruding portion. On the other hand, when the inner evaluation value g s is obtained by the equation (4), the outer evaluation value n s is also obtained by the following equation using the function F similar to the equation (4).
n s = ΣF (d e2 ) (6)

(6)式においてΣははみ出し部分の画素e2についての総和であり、de2は特徴領域の輪郭から当該画素e2までの距離である。 In equation (6), Σ is the sum of the protruding portion pixel e2, and d e2 is the distance from the contour of the feature region to the pixel e2.

(6)式の外側評価値nには、特徴領域の輪郭近傍の画素は帰属の不確定性が高く、逆に特徴領域から離れた画素ほど背景に帰属する確度が高いという性質が反映される。図5は、特徴領域80の輪郭からの距離に応じた関数Fの値の変化を模式的に示しており、同図の上側には特徴領域80を示し、これを横切る直線86に沿った関数Fのグラフを同図の下側に示している。 (6) on the outside evaluation value n s of formula, the pixels of the contour near the feature region high uncertainty attribution, accuracy attributable to the background as the pixels away from the feature region conversely to reflect the nature of high The FIG. 5 schematically shows a change in the value of the function F in accordance with the distance from the contour of the feature region 80. The feature region 80 is shown on the upper side of the figure, and the function along a straight line 86 across the feature region 80 is shown. The graph of F is shown on the lower side of the figure.

なお、重複度合いとはみ出し度合いとの比較は重複部分の面積とはみ出し部分の面積との比較により行い、領域評価値Jの計算に用いる内側評価値gは(4)式の結果を用いるように存否判定手段43を構成することもできる。 Note that the degree of overlap and the degree of protrusion are compared by comparing the area of the overlapping part and the area of the protruding part, and the inner evaluation value g s used for calculating the region evaluation value J uses the result of equation (4). Presence / absence determination means 43 may be configured.

ここまで説明してきた領域評価値Jは、特徴領域抽出手段40が背景を特徴領域の一部として誤抽出したという観点から評価した抽出誤差であった。さて、特徴領域抽出手段40による誤抽出の別の側面には対象物の一部を抽出し損ねる現象がある。この抽出し損ねの要素を考慮に加えれば領域評価値Jの信頼性はさらに向上する。そこで、(5)式の領域評価値Jにさらに、はみ出し度合いが重複度合い以下である不確定断片についての外側評価値を加えるように存否判定手段43を構成してもよい。   The region evaluation value J described so far is an extraction error evaluated from the viewpoint that the feature region extraction means 40 erroneously extracted the background as a part of the feature region. Now, another aspect of erroneous extraction by the feature region extraction means 40 is a phenomenon that fails to extract a part of the object. If this extraction failure factor is taken into consideration, the reliability of the region evaluation value J is further improved. Therefore, the presence / absence determination means 43 may be configured to add an outer evaluation value for an indeterminate fragment whose degree of protrusion is equal to or less than the overlapping degree to the area evaluation value J of equation (5).

この場合、領域評価値Jの算出式は次の(7)式で与えられる。
J=Σ{min(g,n)} ・・・(7)
In this case, the formula for calculating the region evaluation value J is given by the following formula (7).
J = Σ {min (g s , n s)} ··· (7)

(7)式においてΣは特徴領域の不確定断片sについての総和を表す。これにより特徴領域が背景を含んでいるという観点と特徴領域が対象物を抽出し損ねているという観点との両面から評価した抽出誤差である領域評価値Jが得られるので、領域評価値Jの信頼性が向上し、ひいては存否判定の確度が向上する。   In the equation (7), Σ represents the total sum for the uncertain fragment s of the feature region. As a result, an area evaluation value J which is an extraction error evaluated from both the viewpoint that the feature area includes the background and the viewpoint that the feature area fails to extract the object is obtained. Reliability is improved, and as a result, the accuracy of existence determination is improved.

(7)式の内側評価値g及び外側評価値nとして、特徴領域の輪郭からの距離に応じた重みを考慮した(4)式、(6)式の値を用いることができる。上述したように距離に応じて画素を重み付けする関数Fは画素の帰属の確度を表しているので、(4)式、(6)式の値を用いることで、領域評価値Jの信頼性が向上し、ひいては存否判定の確度が向上する。なお、(7)式の内側評価値g及び外側評価値nは、それぞれ重複部分、はみ出し部分の面積とすることもできる。 (7) as the inner evaluation value g s and outer evaluation value n s of formula, taking into account the weights according to the distance from the contour of the feature region (4) may be a value of (6). As described above, since the function F for weighting the pixels according to the distance represents the accuracy of the attribution of the pixels, the reliability of the region evaluation value J can be obtained by using the values of the expressions (4) and (6). This improves the accuracy of the presence / absence determination. Note that the inner evaluation value g s and the outer evaluation value n s in the expression (7) can also be the areas of the overlapping portion and the protruding portion, respectively.

さらに、存否判定の精度を高めるために、断片明瞭度算出手段42にて得られる断片明瞭度を考慮することができる。この構成を以下説明する。断片明瞭度算出手段42の説明で述べたように、陰影等の影響により対象構成物や背景構成物の像の一部分だけが画像断片として不適切に抽出される場合がある。このような不適切な画像断片においては重複度合いとはみ出し度合いとの大小関係が本来の関係と逆転してしまうことがある。図6は、断片明瞭度が低い場合に生じる現象を説明するための模式図である。図6(a)は、特徴領域80についての不確定断片85-1の断片明瞭度が高い場合を示している。このように断片明瞭度が高い不確定断片85-1は上述したように対象構成物や背景構成物の像を好適に表している可能性が高い。図6(a)に示す一例として示す不確定断片85-1は、外側評価値より内側評価値(横線網掛け部分の大きさ)の方が小さいため、(7)式による領域評価値Jを求める総和演算にて、内側評価値gが加算される。 Furthermore, in order to increase the accuracy of presence / absence determination, the fragment articulation obtained by the fragment articulation calculation means 42 can be taken into consideration. This configuration will be described below. As described in the description of the fragment articulation calculation means 42, only a part of the image of the target component or the background component may be inappropriately extracted as an image fragment due to the influence of a shadow or the like. In such inappropriate image fragments, the magnitude relationship between the degree of overlap and the degree of protrusion may be reversed from the original relationship. FIG. 6 is a schematic diagram for explaining a phenomenon that occurs when the fragment articulation is low. FIG. 6A shows a case where the fragment intelligibility of the indeterminate fragment 85-1 for the feature region 80 is high. As described above, it is highly likely that the uncertain fragment 85-1 having a high fragment clarity as described above suitably represents the image of the target component or the background component. Since the indeterminate fragment 85-1 shown as an example shown in FIG. 6A has a smaller inner evaluation value (the size of the shaded portion of the horizontal line) than the outer evaluation value, the region evaluation value J according to equation (7) is The inner evaluation value g s is added in the calculated summation.

一方、図6(b)は、特徴領域80についての不確定断片85-2の断片明瞭度が低い場合を示している。不確定断片85-2は、本来の像が画像断片85-1のような形状である対象構成物や背景構成物について、その一部のみが抽出された場合を示しており、画像断片85-1のうち特徴領域80の外側に属する部分(点線で境界を示す部分)は別の画像断片を構成すると認識されている。この場合、外側評価値(縦線網掛け部分の大きさ)の方が内側評価値より小さくなってしまい、(7)式による領域評価値Jを求める総和演算にて、外側評価値nが加算される。つまり、本来は背景に属する画像断片として評価されるべき不確定断片85-2が対象物に属する画像断片として誤って評価される。このような誤りが領域評価値Jに与える影響を軽減するために、領域評価値Jの算出に際して、存否判定手段43は不確定断片sの内側評価値及び外側評価値を当該不確定断片の断片明瞭度Lで重み付けする。 On the other hand, FIG. 6B shows a case where the fragment articulation of the indeterminate fragment 85-2 for the feature region 80 is low. The indeterminate fragment 85-2 shows a case where only a part of the target component or background component whose original image has a shape like the image fragment 85-1 is extracted. It is recognized that the part of 1 that belongs to the outside of the feature region 80 (the part indicated by the dotted line) constitutes another image fragment. In this case, would towards the outer evaluation value (the magnitude of the vertical line shaded area) becomes smaller than the inner evaluation value at summation to obtain the area evaluation value J by equation (7), the outer evaluation value n s Is added. That is, the uncertain fragment 85-2 that should be evaluated as an image fragment that originally belongs to the background is erroneously evaluated as an image fragment that belongs to the object. In order to reduce the influence of such errors on the region evaluation value J, when calculating the region evaluation value J, the presence / absence determination means 43 uses the inner evaluation value and the outer evaluation value of the uncertain fragment s as the fragment of the uncertain fragment. Weighted with clarity L s .

具体的には(7)式に対応する領域評価値Jは、断片明瞭度を考慮する構成では次式で計算される。
J=Σ{L・min(g,n)} ・・・(8)
Specifically, the region evaluation value J corresponding to the equation (7) is calculated by the following equation in the configuration considering the fragment articulation.
J = Σ {L s · min (g s, n s)} ··· (8)

これにより、断片明瞭度が高く信頼できる不確定断片に高い加重をかけて領域評価値Jを算出できるので、領域評価値Jの信頼性が向上し、ひいては正誤判定の確度が向上する。   As a result, since the region evaluation value J can be calculated by applying a high weight to an uncertain fragment that has high fragment articulation and can be trusted, the reliability of the region evaluation value J is improved, and the accuracy of correctness determination is improved.

なお、この断片明瞭度による重み付けは、(3)式、(5)式の領域評価値Jの計算にも導入することができる。   The weighting based on the fragment articulation can also be introduced in the calculation of the region evaluation value J in the expressions (3) and (5).

以上、存否判定手段43について説明した。存否判定手段43の判定結果は異常検知手段44へ出力される。   The existence determination unit 43 has been described above. The determination result of the presence / absence determination unit 43 is output to the abnormality detection unit 44.

異常検知手段44は、存否判定手段43により正しい抽出と判定された特徴領域の情報に基づいて異常を検知する。具体的には、異常検知手段44は正しい抽出と判定された特徴領域を複数時刻に亘って追跡して対象物の動きを分析し、例えば、監視空間内にて所定距離以上の動きが確認された場合に侵入異常を検知する。また、不審者が存在する異常を検知する別の実施形態では、同様に動きを分析して所定時間以上の滞留を確認すると異常を検知したり、動きパターンが予め定めた不審パターンに合致すると異常を検知する。   The abnormality detection unit 44 detects an abnormality based on the information on the feature region determined as correct extraction by the presence / absence determination unit 43. Specifically, the abnormality detection unit 44 analyzes the movement of the object by tracking the feature region determined to be correctly extracted over a plurality of times, and, for example, a movement of a predetermined distance or more is confirmed in the monitoring space. Detecting an intrusion abnormality when Further, in another embodiment for detecting an abnormality in which a suspicious person exists, similarly, an abnormality is detected when the movement is analyzed and a stay for a predetermined time or more is confirmed, or an abnormality is detected when the movement pattern matches a predetermined suspicious pattern. Is detected.

異常検知手段44は、存否判定手段43にて誤抽出の排除がなされた特徴領域の情報に基づいて異常を検知するので、確実に誤報を減じることができる。異常を判定した場合、制御部4は出力部5を制御して異常信号の出力を行わせる。   Since the abnormality detection unit 44 detects an abnormality based on the information of the feature region from which the erroneous determination is excluded by the presence / absence determination unit 43, it is possible to reliably reduce the false alarm. When the abnormality is determined, the control unit 4 controls the output unit 5 to output an abnormality signal.

出力部5は、外部装置と接続され、当該外部装置へ異常信号を出力するインターフェース回路である。外部装置は、侵入者の存在を警報するスピーカー、ブザー又はランプ等の警報表示手段、又は/及び通信網を介して接続される遠隔地のセンタ装置等である。   The output unit 5 is an interface circuit that is connected to an external device and outputs an abnormal signal to the external device. The external device is an alarm display means such as a speaker, a buzzer or a lamp for alarming the presence of an intruder, and / or a remote center device connected via a communication network.

次に図7を参照して、画像監視装置1の動作を説明する。監視空間が無人であることを確認した管理者が装置に電源を投入すると、各部、各手段が初期化され動作を開始する(S1)。初期化の後は、画像入力部2から制御部4へ新たな監視画像が入力されるたびにステップS2〜S10の処理がループ処理として繰り返される。   Next, the operation of the image monitoring apparatus 1 will be described with reference to FIG. When an administrator who confirms that the monitoring space is unmanned turns on the apparatus, each unit and each means are initialized and start operating (S1). After the initialization, every time a new monitoring image is input from the image input unit 2 to the control unit 4, the processes in steps S2 to S10 are repeated as a loop process.

画像監視装置1は、特徴領域抽出手段40の背景差分処理にて用いる背景画像を、ループ処理の各回が終わるごとに更新する(S2)。制御部4は、前回のループ処理における監視画像のうち特徴領域が抽出されなかった部分の画像を現在の背景画像に合成して、背景画像を更新する(S2)。なお、電源投入直後、すなわち初回のステップS3〜S10の処理の開始時においては背景画像は未だ記憶されていない。この場合、制御部4は背景画像更新処理(S2)として、画像入力部2から得られる監視画像によって背景画像を初期化する。   The image monitoring apparatus 1 updates the background image used in the background difference process of the feature region extraction unit 40 every time the loop process ends (S2). The control unit 4 combines the image of the portion of the monitoring image in the previous loop process from which the feature region has not been extracted with the current background image, and updates the background image (S2). Note that the background image is not yet stored immediately after the power is turned on, that is, at the start of the first steps S3 to S10. In this case, the control unit 4 initializes the background image with the monitoring image obtained from the image input unit 2 as background image update processing (S2).

新たな監視画像が入力されると(S3)、特徴領域抽出手段40は、更新された背景画像を用いて背景差分処理を行い、監視画像から特徴領域を抽出する(S4)。   When a new monitoring image is input (S3), the feature region extraction unit 40 performs background difference processing using the updated background image, and extracts a feature region from the monitoring image (S4).

ちなみに、識別器により特徴領域を抽出する装置構成ではステップS2の更新処理は不要となる。   Incidentally, in the device configuration in which the feature region is extracted by the discriminator, the update process in step S2 is not necessary.

特徴領域が一つも抽出されなかった場合(S5にてNO)、処理はステップS2へ戻される。一方、1以上の特徴領域が抽出された場合(S5にてYES)、制御部4は各特徴領域に対象物が存在するか否かを判定する(S6)。   If no feature region has been extracted (NO in S5), the process returns to step S2. On the other hand, when one or more feature regions are extracted (YES in S5), control unit 4 determines whether or not an object exists in each feature region (S6).

図8を参照して、存否判定処理の詳細を説明する。まず、制御部4の画像分割手段41は監視画像にセグメンテーション処理を施して当該監視画像から複数の画像断片を抽出し(S600)、制御部4の断片明瞭度算出手段42は抽出された各画像断片とその周辺画像の画素値を(2)式に適用して各画像断片の断片明瞭度Lを算出する(S601)。 Details of the presence / absence determination process will be described with reference to FIG. First, the image dividing unit 41 of the control unit 4 performs segmentation processing on the monitoring image to extract a plurality of image fragments from the monitoring image (S600), and the fragment articulation calculation unit 42 of the control unit 4 extracts each extracted image. By applying the pixel values of the fragment and the surrounding image to the equation (2), the fragment clarity L s of each image fragment is calculated (S601).

次に制御部4の存否判定手段43は、図7のステップS6にて抽出された特徴領域を順次、注目特徴領域に設定して特徴領域のループ処理を実行する(S602〜S612)。この特徴領域のループ処理において、さらに存否判定手段43はステップS600にて抽出された画像断片を順次、注目断片に設定して画像断片のループ処理を実行する(S603〜S607)。   Next, the presence / absence determining unit 43 of the control unit 4 sequentially sets the feature region extracted in step S6 in FIG. 7 as the feature region of interest and executes a loop process of the feature region (S602 to S612). In the feature region loop processing, the presence / absence determining means 43 further sets the image fragments extracted in step S600 as the target fragments in sequence, and executes the image fragment loop processing (S603 to S607).

画像断片のループ処理において、存否判定手段43は注目断片と注目特徴領域との位置関係を判定し(S604)、注目断片が注目特徴領域の輪郭を跨ぐ不確定断片と判定されれば(S605にてYES)、(4)式により当該画像断片の内側評価値gを算出すると共に、(6)式により当該画像断片の外側評価値nを算出する(S606)。 In the loop processing of the image fragment, the presence / absence determination unit 43 determines the positional relationship between the target fragment and the target feature region (S604), and if the target fragment is determined to be an indeterminate fragment straddling the outline of the target feature region (S605). Te YES), (4) to calculate the inner evaluation value g s of the image fragments by equation (6) by calculating the outer evaluation value n s of the image fragment (S606).

画像断片のループ処理が終わると(S607にてYES)、存否判定手段43は、ステップS601にて算出された断片明瞭度L、ステップS606にて算出された重複度合いg、はみ出し度合いnを(8)式に適用して注目特徴領域の領域評価値を算出する(S608)。 When the loop processing of the image fragment is completed (YES in S607), the presence / absence determination unit 43 determines the fragment clarity L s calculated in Step S601, the overlap degree g s calculated in Step S606, and the protrusion degree n s. Is applied to the equation (8) to calculate the region evaluation value of the feature region of interest (S608).

領域評価値の算出後、存否判定手段43は注目特徴領域の領域評価値を、予め設定された基準値と比較する(S609)。存否判定手段43は、領域評価値が基準値以下であれば(S609にてYES)、注目特徴領域に対象物が存在すると判定する(S610)。一方、領域評価値が基準値を超えていれば(S609にてNO)、注目特徴領域に対象物は存在しないと判定する(S611)。対象物が存在しないと判定された特徴領域の情報は一時記憶されている情報から削除される。   After calculating the region evaluation value, the presence / absence determining unit 43 compares the region evaluation value of the feature region of interest with a preset reference value (S609). If the area evaluation value is equal to or less than the reference value (YES in S609), presence / absence determination means 43 determines that the target object exists in the feature area of interest (S610). On the other hand, if the region evaluation value exceeds the reference value (NO in S609), it is determined that no object exists in the target feature region (S611). Information of the feature area determined that the object does not exist is deleted from the temporarily stored information.

なお、領域評価値と基準値との比較を行うに際して、領域評価値又は基準値のいずれかを特徴領域の大きさを表す指標Ωに応じてスケーリングすることが好適である。例えば、基準値をΩに依らずに一定とする場合には、(8)式で得られた領域評価値JをΩで除するスケーリングを行う。例えば、Ωとして、特徴領域の画素数を合計して得られる面積や、上述の重み関数Fを特徴領域内の全画素について総和した値などを用いることができる。一方、監視画像における検知対象物の像の大きさが予め想定できる場合には、スケーリングを省略することもできる。なお、スケーリングを行う場合の基準値は例えば、各特徴領域の大きさΩの20〜40%程度の大きさに設定することができる。   Note that when comparing the region evaluation value and the reference value, it is preferable to scale either the region evaluation value or the reference value according to an index Ω representing the size of the feature region. For example, when the reference value is constant without depending on Ω, scaling is performed by dividing the region evaluation value J obtained by Equation (8) by Ω. For example, as Ω, an area obtained by summing the number of pixels in the feature region, a value obtained by summing the above-described weighting function F for all the pixels in the feature region, or the like can be used. On the other hand, when the size of the image of the detection target in the monitoring image can be assumed in advance, the scaling can be omitted. In addition, the reference value in the case of performing scaling can be set to a size of about 20 to 40% of the size Ω of each feature region, for example.

以上の処理により、全ての特徴領域に対して対象物の存否が判定されると(S612にてYES)、処理は図7のステップS7へ進められる。   If the presence or absence of an object is determined for all feature regions by the above processing (YES in S612), the processing proceeds to step S7 in FIG.

再び図7を参照して画像監視処理の続きを説明する。存否判定手段43により対象物の存在が判定された特徴領域がある場合(S7にてYES)、制御部4の異常検知手段44は、当該特徴領域に基づき異常の有無を判定する(S8)。すなわち異常検知手段44は、特徴領域の追跡を行い、追跡の結果、予め設定された距離閾値を越える距離の移動が検出されると、当該特徴領域が侵入者によるものであるとして異常を検知する。追跡は、例えば、現時刻の監視画像において特徴領域に対応する部分画像の色ヒストグラムを分析し、当該色ヒストグラムと、同様にして過去に分析され記憶されている色ヒストグラムとを比較することで前後する時刻の特徴領域を対応付けることで行われる。また、次時刻の追跡に備えて異常検知手段44は、現時刻の監視画像から分析された色ヒストグラムを記憶部3に追加記憶させる。   The continuation of the image monitoring process will be described with reference to FIG. 7 again. When there is a feature region in which the presence of the target object is determined by the presence determination unit 43 (YES in S7), the abnormality detection unit 44 of the control unit 4 determines the presence / absence of an abnormality based on the feature region (S8). That is, the abnormality detection unit 44 performs tracking of the feature region, and when a movement of a distance exceeding a preset distance threshold is detected as a result of the tracking, the abnormality detection unit 44 detects an abnormality as the feature region is caused by an intruder. . For example, the tracking is performed by analyzing the color histogram of the partial image corresponding to the feature region in the monitoring image at the current time, and comparing the color histogram with a color histogram that has been analyzed and stored in the past in the same manner. This is performed by associating the feature area of the time to be performed. In preparation for tracking the next time, the abnormality detection unit 44 additionally stores in the storage unit 3 a color histogram analyzed from the monitoring image at the current time.

異常検知手段44により異常が検知されると(S9にてYES)、出力部5は異常信号を生成して、異常信号を例えば、警報表示手段及び通信網へ出力する(S10)。このとき出力部5は通信網へ出力する異常信号に現時刻の監視画像のデータを含ませる。異常信号が入力された警報表示手段は、スピーカーの鳴動やランプの点灯により警報表示を行って侵入者を威嚇するとともに利用者の注意を喚起する。また、異常信号は通信網により監視員が常駐する警備センタのセンタ装置へ伝送され、異常信号を受信したセンタ装置は警報音の鳴動や監視画像の表示等を行う。そして、監視画像により状況確認した監視員は状況に応じた対処を行う。   When an abnormality is detected by the abnormality detection means 44 (YES in S9), the output unit 5 generates an abnormality signal and outputs the abnormality signal to, for example, an alarm display means and a communication network (S10). At this time, the output unit 5 includes the monitoring image data at the current time in the abnormality signal output to the communication network. The alarm display means to which the abnormal signal is input displays an alarm by sounding a speaker or lighting a lamp to threaten an intruder and alert the user. Also, the abnormal signal is transmitted to the center device of the security center where the monitoring staff is stationed by the communication network, and the center device that has received the abnormal signal sounds an alarm sound or displays a monitoring image. Then, the monitoring person who confirms the situation by the monitoring image takes measures according to the situation.

一方、存否判定手段43により対象物の存在が判定された特徴領域が無い場合(S7にてNO)、ステップS8以降の処理はスキップされる。また、対象物の存在が判定された特徴領域があっても未だ異常が判定されない場合(S9にてNO)、ステップS10の処理はスキップされる。   On the other hand, if there is no feature region for which the presence / absence determination unit 43 has determined the presence of the object (NO in S7), the processing after step S8 is skipped. In addition, if there is still no abnormality determined even if there is a feature region in which the presence of the target object is determined (NO in S9), the process in step S10 is skipped.

以上の処理が終了すると、処理は再びステップS2へ戻され、次時刻の監視画像に対する処理が行われる。   When the above processing ends, the processing returns to step S2 again, and processing for the monitoring image at the next time is performed.

図9は処理結果を説明する模式的な画像例である。図9(a)は特徴領域91,92が抽出された監視画像90を示している。特徴領域91は揺れた木が誤抽出されたものであり。一方、特徴領域92には侵入者が抽出されている。図9(b)は、監視画像90にセグメンテーション処理を施して生成された画像93を示している。画像93において、実線の各閉領域が画像断片である。なお、図9(b)には、理解補助のために、特徴領域91,92の輪郭を点線で示している。   FIG. 9 is a schematic image example for explaining the processing result. FIG. 9A shows a monitoring image 90 from which feature areas 91 and 92 are extracted. The feature area 91 is obtained by erroneously extracting a swaying tree. On the other hand, intruders are extracted in the feature region 92. FIG. 9B shows an image 93 generated by performing a segmentation process on the monitoring image 90. In the image 93, each solid line closed region is an image fragment. In FIG. 9B, the outlines of the feature regions 91 and 92 are shown by dotted lines for assisting understanding.

図10は特徴領域91及びその近傍領域を拡大した模式図であり、一方、図11は特徴領域92及びその近傍領域を拡大した模式図である。図10において、点線で示す特徴領域91と重複する部分を有する2つの画像断片はいずれも不確定断片である。そして、これら2つの不確定断片はいずれも特徴領域91の外側に大きくはみ出しており、重複部分よりはみ出し部分の方が大きい。そのため、領域評価値はそれら不確定断片それぞれの内側評価値の和で与えられる。しかも、不確定断片との重複部分が特徴領域の全体を占めるので、比較処理S609にて領域評価値が基準値を超える。その結果、特徴領域91には対象物は存在しないと判定される。   FIG. 10 is an enlarged schematic view of the feature area 91 and its vicinity area, while FIG. 11 is an enlarged schematic view of the feature area 92 and its vicinity area. In FIG. 10, two image fragments having a portion overlapping the feature region 91 indicated by the dotted line are both uncertain fragments. Both of these two uncertain fragments protrude greatly outside the feature region 91, and the protruding portion is larger than the overlapping portion. Therefore, the region evaluation value is given by the sum of the inner evaluation values of the uncertain fragments. In addition, since the overlapping portion with the uncertain fragment occupies the entire feature region, the region evaluation value exceeds the reference value in the comparison process S609. As a result, it is determined that no object exists in the feature area 91.

一方、図11では、点線で示す特徴領域92と重複する部分を有する画像断片は3つ存在する。それらのうち2つは特徴領域92の外側に大きくはみ出した不確定断片であり、それらは特徴領域92と重複部分96,97を有する。残りの1つの不確定断片はその殆どの部分が特徴領域92の内側に存在する不確定断片であり、当該不確定断片は特徴領域92からのはみ出し部分98を有する。この場合、領域評価値は重複部分96,97から算出される内側評価値と、はみ出し部分98から算出される外側評価値との和で与えられ、当該領域評価値は基準値以下となる。その結果、特徴領域92には対象物である人間が存在すると判定される。   On the other hand, in FIG. 11, there are three image fragments having a portion overlapping with the feature region 92 indicated by the dotted line. Two of them are uncertain fragments that protrude greatly outside the feature region 92, and they have a feature region 92 and overlapping portions 96 and 97. The remaining one uncertain fragment is an uncertain fragment whose most part exists inside the feature region 92, and the uncertain fragment has a protruding portion 98 from the feature region 92. In this case, the region evaluation value is given by the sum of the inner evaluation value calculated from the overlapping portions 96 and 97 and the outer evaluation value calculated from the protruding portion 98, and the region evaluation value is equal to or less than the reference value. As a result, it is determined that the person who is the object exists in the feature region 92.

上述の実施形態では、画像入力部2に監視カメラを備え、リアルタイムで監視空間から得られる監視画像に基づいて対象物の検知を行う構成を説明した。これとは別の実施形態では、画像入力部2がHDDレコーダー等の画像記録装置であって、記録している監視画像を制御部4に入力する構成とすることもできる。この構成では、画像監視装置1は、過去に撮像された監視画像から対象物の検知を行う。   In the above-described embodiment, the configuration in which the image input unit 2 includes the monitoring camera and detects the object based on the monitoring image obtained from the monitoring space in real time has been described. In another embodiment, the image input unit 2 may be an image recording device such as an HDD recorder, and the recorded monitoring image may be input to the control unit 4. In this configuration, the image monitoring device 1 detects an object from monitoring images captured in the past.

また上述の実施形態においては、異常検知処理に先だって、抽出された全特徴領域に対して抽出正誤判定を行うことで誤報の減少を図った。これに対し、先に異常検知処理を行い、異常が検知された特徴領域に対して抽出正誤判定を行って、異常が検知された特徴領域が正しく抽出されたものと判定された場合に出力部5により異常信号を出力させる構成とすることもできる。   In the above-described embodiment, false alarms are reduced by performing an extraction correctness determination on all extracted feature areas prior to the abnormality detection process. On the other hand, when an abnormality detection process is performed first, an extraction correct / incorrect determination is performed on a feature area in which an abnormality is detected, and it is determined that a feature area in which an abnormality has been detected is correctly extracted, an output unit 5 can also be configured to output an abnormal signal.

また、上述の実施形態では、領域評価値Jは抽出の誤りの可能性の多さ、つまり抽出誤差を表していたが、逆に領域評価値Jが、抽出の誤りの可能性の少なさ、つまり抽出の正確性を表す指標となるように定義することもできる。例えば、内側評価値gの逆数の和、又は内側評価値gの逆数及び外側評価値nの逆数の和を、抽出の正確性を表す領域評価値Jとして定めることができる。この場合、(3)に相当する領域評価値Jの定義式は下記(9)式となり、また(8)式に相当する定義式は下記(10)式となる。
J=Σ(1/g) ・・・(9)
J=Σ{L/min(g,n)} ・・・(10)
In the above-described embodiment, the region evaluation value J represents a high possibility of extraction error, that is, an extraction error. Conversely, the region evaluation value J has a low possibility of extraction error. In other words, it can be defined as an index representing the accuracy of extraction. For example, it is possible to determine the sum of the reciprocals of the inner evaluation value g s, or the sum of the inverse of and outside evaluation value n s of the inner evaluation value g s, a regional assessment value J indicating the accuracy of the extraction. In this case, the definition formula of the region evaluation value J corresponding to (3) is the following formula (9), and the definition formula corresponding to the formula (8) is the following formula (10).
J = Σ (1 / g s ) (9)
J = Σ {L s / min (g s, n s)} ··· (10)

なお、(9)式や(10)式の領域評価値Jを用いる場合、領域評価値Jと基準値Tとの大小関係は逆になり、領域評価値Jが基準値T以上である特徴領域に対象物が存在すると判定され、そうでない特徴領域に対象物は存在しないと判定される。   Note that when the region evaluation value J of the equations (9) and (10) is used, the magnitude relationship between the region evaluation value J and the reference value T is reversed, and the feature region in which the region evaluation value J is greater than or equal to the reference value T. It is determined that there is no target object, and it is determined that there is no target object in the feature region that is not.

1 画像監視装置、2 画像入力部、3 記憶部、4 制御部、5 出力部、30 抽出用情報、40 特徴領域抽出手段、41 画像分割手段、42 断片明瞭度算出手段、43 存否判定手段、44 異常検知手段、80 特徴領域、81,82 不確定断片。   DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus, 2 Image input part, 3 Memory | storage part, 4 Control part, 5 Output part, 30 Information for extraction, 40 Feature area extraction means, 41 Image division means, 42 Fragment articulation calculation means, 43 Existence determination means, 44 anomaly detection means, 80 feature areas, 81, 82 indeterminate fragments.

Claims (5)

判定対象画像に基づいて検知対象物を検出する対象物検知装置において、
前記判定対象画像から前記検知対象物の特徴を有した特徴領域を抽出する特徴領域抽出手段と、
それぞれ画素値が所定の類似性を有する画素からなる複数の画像断片に前記判定対象画像を分割する画像分割手段と、
前記画像断片のうち前記特徴領域の内外に跨る不確定断片を検出し、当該不確定断片のうち当該特徴領域の内側にある画素数に応じて増加する内側評価値を求め、当該内側評価値が予め定めた基準値以下であれば前記特徴領域に前記検知対象物が存在する判定する存否判定手段と、
を有することを特徴とする対象物検知装置。
In the object detection device that detects the detection object based on the determination target image,
Feature region extraction means for extracting a feature region having the characteristics of the detection object from the determination target image;
Image dividing means for dividing the determination target image into a plurality of image fragments each having a pixel value having a predetermined similarity;
An indeterminate fragment straddling the inside and outside of the feature region is detected from among the image fragments, an inner evaluation value that increases according to the number of pixels inside the feature region is determined from the indeterminate fragment, and the inner evaluation value is and determining existence judgment unit and the sense target to the feature region equal to or less than a predetermined reference value exists,
The object detection apparatus characterized by having.
判定対象画像に基づいて検知対象物を検出する対象物検知装置において、
前記判定対象画像から前記検知対象物の特徴を有した特徴領域を抽出する特徴領域抽出手段と、
それぞれ画素値が所定の類似性を有する画素からなる複数の画像断片に前記判定対象画像を分割する画像分割手段と、
前記画像断片のうち前記特徴領域の内外に跨る不確定断片を検出し、当該不確定断片のうち当該特徴領域の内側にある画素数に応じて増加する内側評価値を求め、当該内側評価値を用いて前記特徴領域に前記検知対象物が存在するか否かを判定する存否判定手段と、
を有し、
前記存否判定手段は、前記不確定断片毎に前記内側評価値と前記特徴領域の外側にある画素数に応じて増加する外側評価値とを求め、前記外側評価値が前記内側評価値より大きい前記不確定断片についての前記内側評価値を用いて判定すること、を特徴とする対象物検知装置。
In the object detection device that detects the detection object based on the determination target image,
Feature region extraction means for extracting a feature region having the characteristics of the detection object from the determination target image;
Image dividing means for dividing the determination target image into a plurality of image fragments each having a pixel value having a predetermined similarity;
An indeterminate fragment straddling the inside and outside of the feature region is detected in the image fragment, and an inner evaluation value that increases according to the number of pixels inside the feature region is determined from the indeterminate fragment, and the inner evaluation value is Presence / absence determination means for determining whether or not the detection object exists in the feature region,
Have
The presence / absence determining means obtains the inner evaluation value and an outer evaluation value that increases according to the number of pixels outside the feature region for each indeterminate fragment, and the outer evaluation value is larger than the inner evaluation value. An object detection apparatus comprising: determining using the inner evaluation value for an uncertain fragment.
請求項2に記載の対象物検知装置において、
前記存否判定手段は、前記外側評価値が前記内側評価値より大きい前記不確定断片についての前記内側評価値と、前記外側評価値が前記内側評価値以下である前記不確定断片についての前記外側評価値との合計値を用いて判定すること、を特徴とする対象物検知装置。
The object detection device according to claim 2,
The presence / absence determining means includes the inner evaluation value for the uncertain fragment whose outer evaluation value is greater than the inner evaluation value, and the outer evaluation for the uncertain fragment whose outer evaluation value is equal to or less than the inner evaluation value. An object detection device characterized by determining using a total value with a value.
請求項2又は請求項3に記載の対象物検知装置において、
前記存否判定手段は、前記不確定断片を構成する画素と前記特徴領域の輪郭との距離に応じて増加する重みを合計することにより前記内側評価値又は前記外側評価値を算出すること、を特徴とする対象物検知装置。
In the object detection device according to claim 2 or claim 3,
The presence / absence determining means calculates the inner evaluation value or the outer evaluation value by summing weights that increase in accordance with a distance between a pixel constituting the uncertain fragment and a contour of the feature region. An object detection device.
請求項1から請求項4のいずれか1つに記載の対象物検知装置において、
前記不確定断片の内外での前記画素値の所定の相違性に応じた断片明瞭度を求める断片明瞭度算出手段を有し、
前記存否判定手段は、前記判定に際して、前記不確定断片についての前記内側評価値を当該不確定断片の前記断片明瞭度で重み付けすること、を特徴とする対象物検知装置。
In the target object detection device according to any one of claims 1 to 4,
Fragment intelligibility calculation means for obtaining a fragment intelligibility according to a predetermined difference between the pixel values inside and outside the indeterminate fragment,
In the determination, the presence / absence determination unit weights the inner evaluation value of the uncertain fragment with the fragment intelligibility of the uncertain fragment.
JP2009128519A 2009-05-28 2009-05-28 Object detection device Expired - Fee Related JP5318664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009128519A JP5318664B2 (en) 2009-05-28 2009-05-28 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009128519A JP5318664B2 (en) 2009-05-28 2009-05-28 Object detection device

Publications (2)

Publication Number Publication Date
JP2010277296A JP2010277296A (en) 2010-12-09
JP5318664B2 true JP5318664B2 (en) 2013-10-16

Family

ID=43424212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009128519A Expired - Fee Related JP5318664B2 (en) 2009-05-28 2009-05-28 Object detection device

Country Status (1)

Country Link
JP (1) JP5318664B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5940862B2 (en) * 2012-03-30 2016-06-29 セコム株式会社 Image processing device
JP6054771B2 (en) * 2013-02-22 2016-12-27 Kddi株式会社 Background model construction apparatus, background model construction method, and program
JP6468897B2 (en) * 2015-03-12 2019-02-13 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7049983B2 (en) * 2018-12-26 2022-04-07 株式会社日立製作所 Object recognition device and object recognition method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3576759B2 (en) * 1997-07-29 2004-10-13 シャープ株式会社 Image processing device
JP2001266158A (en) * 2000-01-11 2001-09-28 Canon Inc Image processor, image processing system, image processing method and storage medium
JP2006039689A (en) * 2004-07-22 2006-02-09 Nara Institute Of Science & Technology Image processor, image processing method, image processing program, and recording medium with the program recorded thereon
JP2008084076A (en) * 2006-09-28 2008-04-10 Toshiba Corp Image processor, method, and program

Also Published As

Publication number Publication date
JP2010277296A (en) 2010-12-09

Similar Documents

Publication Publication Date Title
KR101964397B1 (en) Information processing apparatus and information processing method
CN109076198B (en) Video-based object tracking occlusion detection system, method and equipment
CN110298297B (en) Flame identification method and device
CN107016357B (en) Video pedestrian detection method based on time domain convolutional neural network
JP4215781B2 (en) Abnormal operation detection device and abnormal operation detection method
CN103699905B (en) Method and device for positioning license plate
CN106778712B (en) Multi-target detection and tracking method
Liu et al. A contrario comparison of local descriptors for change detection in very high spatial resolution satellite images of urban areas
CN111062273B (en) Method for tracing, detecting and alarming remaining articles
CA2601832A1 (en) Human detection and tracking for security applications
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
JP5388829B2 (en) Intruder detection device
JP5155250B2 (en) Object detection device
JP5318664B2 (en) Object detection device
CN111882586A (en) Multi-actor target tracking method oriented to theater environment
US20220366570A1 (en) Object tracking device and object tracking method
JP6851221B2 (en) Image monitoring device
CN113657250A (en) Flame detection method and system based on monitoring video
CN117237851A (en) Video target tracking method and system based on infrared and visible light combined detection
CN111402185B (en) Image detection method and device
Mantini et al. A signal detection theory approach for camera tamper detection
WO2020139071A1 (en) System and method for detecting aggressive behaviour activity
CN117037272B (en) Method and system for monitoring fall of old people
JP7422572B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
Zelnio Detecting Anomalies in Dismount Tracking Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130710

R150 Certificate of patent or registration of utility model

Ref document number: 5318664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees