JP5215952B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP5215952B2
JP5215952B2 JP2009157407A JP2009157407A JP5215952B2 JP 5215952 B2 JP5215952 B2 JP 5215952B2 JP 2009157407 A JP2009157407 A JP 2009157407A JP 2009157407 A JP2009157407 A JP 2009157407A JP 5215952 B2 JP5215952 B2 JP 5215952B2
Authority
JP
Japan
Prior art keywords
image
background
luminance
luminance distribution
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009157407A
Other languages
Japanese (ja)
Other versions
JP2011013925A (en
Inventor
雪 袁
修 徳見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009157407A priority Critical patent/JP5215952B2/en
Publication of JP2011013925A publication Critical patent/JP2011013925A/en
Application granted granted Critical
Publication of JP5215952B2 publication Critical patent/JP5215952B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視空間が撮像された画像から対象物を検知する対象物検知装置に関し、特に画像から抽出されたエッジ情報に基づいて対象物を検知する対象物検知装置に関する。   The present invention relates to an object detection device that detects an object from an image obtained by imaging a monitoring space, and more particularly to an object detection device that detects an object based on edge information extracted from the image.

画像から対象物を検知するために、予め対象物と対象物以外の特徴を学習した判別器(識別器)などが用いられる。この際、対象物を識別する特徴として対象物の輪郭を表すエッジ情報が利用されることがある。識別のために十分なエッジ情報を得るためには、対象物と背景の間に十分なコントラストが必要である。   In order to detect an object from an image, a discriminator (discriminator) that learns the object and features other than the object in advance is used. At this time, edge information representing the outline of the object may be used as a feature for identifying the object. In order to obtain sufficient edge information for identification, sufficient contrast is required between the object and the background.

特許文献1には、コントラストの変化により対象物を判別し損ねる不具合を改善するために検出対象画像中の部分画像に輝度値を正規化する補正処理を施すことが記載されている。日陰に暗色の服を着た人物が存在している場合、或いは日向に明色の服を着た人物が存在している場合など、コントラストが不足している場合に識別精度の向上が期待できる。   Japanese Patent Application Laid-Open No. H10-228561 describes that a correction process for normalizing a luminance value is performed on a partial image in a detection target image in order to improve a problem of failing to distinguish an object due to a change in contrast. If there is a person wearing dark clothes in the shade, or there is a person wearing light clothes in the sun, an improvement in identification accuracy can be expected when the contrast is insufficient. .

特開2007−25766号公報JP 2007-25766 Gazette

しかしながら、日陰部分に明色の服を着た人物が存在している場合、或いは日向部分に暗色の服を着た人物が存在している場合など、既に対象物と背景の間に十分なコントラストがある場合に補正処理が施されてしまうと、背景中及び対象物中の僅かな陰影等からもエッジが抽出されてしまう。このように対象物の輪郭以外のエッジが余分に抽出されると、これらのエッジが外乱となって対象物を検出し損ねる可能性が高くなる問題があった。   However, if there is a person wearing light-colored clothes in the shaded area or a person wearing dark-colored clothes in the sunlit part, sufficient contrast is already between the object and the background. If correction processing is performed in the case where there is, an edge will be extracted from a slight shading in the background and the object. As described above, when extra edges other than the outline of the object are extracted, there is a problem that the possibility that these edges become disturbances and fail to detect the object increases.

また、部分画像に対象物が含まれていない場合に補正処理が施されてしまうと、やはり背景中の僅かな陰影等から対象物の輪郭以外のエッジが余分に抽出されてしまう。その結果、これらの余分なエッジが外乱となって背景の一部を対象物として誤検出する可能性が高くなる問題があった。   Further, if correction processing is performed when the target object is not included in the partial image, extra edges other than the contour of the target object are extracted excessively from slight shading in the background. As a result, there is a problem that these extra edges become disturbances and there is a high possibility that a part of the background is erroneously detected as an object.

従来技術では、部分画像が、暗色の服を着た人物が存在する日陰部分なのか、人物の存在しない日陰部分なのか、或いは暗色の服を着た人物が存在している日向部分なのかといった区別を行うことはできない。そのため、従来技術では、補正処理がエッジ過多を引き起こして対象物の検出精度を逆に低下させる場合がある、という問題があった。   In the prior art, whether the partial image is a shaded part where a person wearing dark clothes is present, a shaded part where no person is present, or a sunny part where a person wearing dark clothes is present A distinction cannot be made. For this reason, the conventional technique has a problem in that the correction processing may cause excessive edges to lower the detection accuracy of the object.

本発明は、上記問題を解決するためになされたものであり、エッジ過多を引き起こさずに対象物の輪郭のエッジを適切に強調することで、対象物を高精度に検知できる対象物検知装置を提供することを目的とする。   The present invention has been made to solve the above-described problem, and an object detection device capable of detecting an object with high accuracy by appropriately emphasizing the edge of the object's outline without causing excessive edges. The purpose is to provide.

本発明にかかる対象物検知装置は、監視空間が撮像された画像から対象物を検知する対象物検知装置であって、監視空間を撮像する撮像部と、予め対象物が存在しないときに撮像された背景画像を記憶している記憶部と、撮像部から入力された入力画像を分析して入力側輝度分布を算出するとともに背景画像を分析して背景側輝度分布を算出する輝度分布分析手段と、入力側輝度分布と背景側輝度分布が類似しているか否かを判定し、類似が判定された場合に入力画像にコントラスト補正を行って補正画像を生成する画像補正手段と、補正画像が生成された場合は当該補正画像からエッジ情報を抽出し、補正画像が生成されなかった場合は入力画像からエッジ情報を抽出するエッジ抽出手段と、エッジ抽出手段により抽出されたエッジ情報に基づいて対象物を検出する対象物検出手段と、を備えたことを特徴とする。   An object detection device according to the present invention is an object detection device that detects an object from an image in which a monitoring space is imaged, and is imaged when there is no object in advance and an imaging unit that images the monitoring space. A storage unit that stores the background image, and a luminance distribution analysis unit that analyzes the input image input from the imaging unit to calculate the input side luminance distribution and analyzes the background image to calculate the background side luminance distribution; Determining whether or not the input-side luminance distribution and the background-side luminance distribution are similar, and if similarities are determined, image correction means for generating a corrected image by performing contrast correction on the input image, and generating a corrected image Edge information is extracted from the corrected image when the correction image is generated, and edge information is extracted from the input image when the correction image is not generated, and the edge information extracted by the edge extraction unit is And object detecting means for detecting an object Zui, characterized by comprising a.

かかる構成によれば、日陰に明色の対象物が存在する場合等であって既に背景と対象物との間に十分なコントラストが得られている場合は類似が判定されないためコントラスト補正が行われていない入力画像からエッジ情報が抽出され、日陰に暗色の対象物が存在する場合等であって背景と対象物との間のコントラストが不十分な場合は類似が判定されるためコントラスト補正が行われた補正画像からエッジ画像が抽出される。
そのため、既にコントラストが十分な場合は補正を行わないことでエッジ過多を防ぎ、コントラストが不十分な場合は補正を行って対象物の検知に十分なエッジ情報を抽出できるので、対象物の検知精度が向上する。
According to such a configuration, when there is a light-colored object in the shade and the like and a sufficient contrast has already been obtained between the background and the object, the contrast is corrected because similarity is not determined. If the edge information is extracted from the input image that is not present, and there is a dark object in the shade, etc., and the contrast between the background and the object is insufficient, the similarity is determined and contrast correction is performed. An edge image is extracted from the corrected image.
Therefore, if the contrast is already sufficient, correction is not performed to prevent excessive edges, and if the contrast is insufficient, correction can be performed to extract sufficient edge information to detect the object. Will improve.

また、本発明の好適な態様においては、対象物検知装置は、対象物に応じて予め設定されたサイズの候補領域を入力画像内の所定位置に設定する候補領域設定手段、をさらに備え、輝度分布分析手段は、候補領域内の入力画像から入力側輝度分布を算出し、候補領域内の背景画像から背景側輝度分布を算出する。
かかる構成によれば、対象物を検出するために必要な最小限のサイズの領域において入力側輝度分布及び背景側輝度分布が算出される。そのため、余分な背景部分の影響を受けない適確な類似判定が可能となる。
In a preferred aspect of the present invention, the object detection device further includes candidate area setting means for setting a candidate area having a size set in advance according to the object at a predetermined position in the input image, and the luminance The distribution analysis means calculates an input side luminance distribution from the input image in the candidate area, and calculates a background side luminance distribution from the background image in the candidate area.
According to such a configuration, the input-side luminance distribution and the background-side luminance distribution are calculated in the minimum size area necessary for detecting the object. Therefore, it is possible to accurately determine similarity without being affected by the extra background portion.

また、本発明の好適な態様においては、候補領域設定手段は、入力画像と背景画像との比較を行って差異が検出された位置に候補領域を設定する。
かかる構成によれば、対象物が存在する確度が高い領域のみを候補領域に設定するので、背景のみの領域でコントラスト補正を行うことが防止され、エッジ過多の発生を防止できる。
In a preferred aspect of the present invention, the candidate area setting means compares the input image with the background image and sets a candidate area at a position where a difference is detected.
According to such a configuration, since only a region having a high probability that the object exists is set as a candidate region, it is possible to prevent contrast correction from being performed only in the background region, and it is possible to prevent the occurrence of excessive edges.

また、本発明の好適な態様においては、候補領域設定手段は、入力画像から楕円形状を有する人体頭部領域を検出し、人体頭部領域が検出された位置に候補領域を設定する。
かかる構成によれば、対象物である人体が存在する確度が高い領域のみを候補領域に設定するので、背景のみの領域でコントラスト補正を行うことが防止され、エッジ過多の発生を防止できる。
In a preferred aspect of the present invention, the candidate area setting means detects a human head area having an elliptical shape from the input image, and sets the candidate area at a position where the human head area is detected.
According to such a configuration, since only a region having a high probability that a human body as a target exists is set as a candidate region, it is possible to prevent contrast correction from being performed only in the background region, and it is possible to prevent the occurrence of excessive edges.

また、本発明の好適な態様においては、背景側輝度分布が互いに異なる2つの輝度範囲に偏在した分布であるか否かを判定する偏在判定手段と、偏在が判定された場合に、背景輝度分布において輝度範囲の一方に分布する画素からなる第一の画像領域と、背景輝度分布において輝度範囲の他方に分布する画素からなる第二の画像領域とを検出する領域分割手段と、をさらに備え、輝度分布分析手段、画像補正手段、及びエッジ抽出手段は、第一の画像領域と第二の画像領域に対して個別に処理を行う。
日陰と日向にまたがって対象物が存在するような場合、日陰と日向の一方では十分なコントラストが得られているが他方ではコントラストが不十分であるという状況が生じる。
かかる構成によれば、日陰と日向の領域を分けて処理を行うことができるので、十分なコントラストが得られている一方の領域ではコントラスト補正を行わずにエッジ過多を防止し、コントラストが不十分な他方の領域ではコントラスト補正を施して十分なエッジ情報を抽出することができる。
そのため、コントラストが十分な領域と不十分な領域が混在していても、対象物の検知精度を向上させることができる。
Further, in a preferred aspect of the present invention, the unevenness determination means for determining whether or not the background side luminance distribution is unevenly distributed in two different luminance ranges, and when the uneven distribution is determined, the background luminance distribution A region dividing means for detecting a first image region composed of pixels distributed in one of the luminance ranges and a second image region composed of pixels distributed in the other of the luminance ranges in the background luminance distribution; The luminance distribution analysis unit, the image correction unit, and the edge extraction unit individually process the first image region and the second image region.
When an object exists across the shade and the sun, a situation arises in which a sufficient contrast is obtained in one of the shade and the sun, but the contrast is insufficient on the other.
According to such a configuration, processing can be performed separately in the shaded area and the sunny area, so that in one area where sufficient contrast is obtained, excessive edge is prevented without performing contrast correction, and contrast is insufficient. In the other area, contrast correction can be performed to extract sufficient edge information.
Therefore, even if a region with sufficient contrast and a region with insufficient contrast are mixed, the detection accuracy of the object can be improved.

本発明によれば、入力側輝度分布と背景側輝度分布の類似判定に基づいてコントラスト補正を必要な場合にのみ行うので、エッジ過多を引き起こさずに背景と対象物の間のエッジを強調でき、対象物の検知精度が向上する。   According to the present invention, since the contrast correction is performed only when necessary based on the similarity determination between the input-side luminance distribution and the background-side luminance distribution, the edge between the background and the object can be emphasized without causing excessive edges, The detection accuracy of the object is improved.

本実施の形態に係る画像監視装置の全体構成図である。1 is an overall configuration diagram of an image monitoring apparatus according to the present embodiment. 輝度分布分析手段42及び画像補正手段43による処理の一例を示す図である。It is a figure which shows an example of the process by the luminance distribution analysis means 42 and the image correction means 43. 別の例における画像補正手段43による処理を示す図である。It is a figure which shows the process by the image correction means 43 in another example. さらに別の例における輝度分布分析手段42及び画像補正手段43による処理を示す図である。It is a figure which shows the process by the luminance distribution analysis means 42 and the image correction means 43 in another example. 画像監視処理のフローチャートを示す図である。It is a figure which shows the flowchart of an image monitoring process. 通行者検出処理の一部のフローチャートを示す図である。It is a figure which shows the one part flowchart of a passer-by detection process. 通行者検出処理の残り部分のフローチャートを示す図である。It is a figure which shows the flowchart of the remaining part of a passer-by detection process.

本発明の好適な実施形態の一例として、建物のエントランスを監視空間とし、監視空間を通行する通行者を対象物として検知し、不正通行を監視する画像監視装置について説明する。   As an example of a preferred embodiment of the present invention, an image monitoring apparatus will be described in which an entrance of a building is used as a monitoring space, a passerby passing through the monitoring space is detected as an object, and unauthorized traffic is monitored.

[画像監視装置1の構成]
画像監視装置1の機能ブロック図を図1に示す。
画像監視装置1は、撮像部2、記憶部3、及び出力部5が信号処理部4に接続されてなる。
[Configuration of Image Monitoring Apparatus 1]
A functional block diagram of the image monitoring apparatus 1 is shown in FIG.
The image monitoring apparatus 1 includes an imaging unit 2, a storage unit 3, and an output unit 5 connected to a signal processing unit 4.

撮像部2は所謂監視カメラである。撮像部2は、監視空間を所定時間間隔にて撮像した画像を順次、信号処理部4へ出力する。以下、上記時間間隔で刻まれる時間単位を時刻と称する。本実施形態において撮像部2は、RGB各色が256階調のカラー画像を撮像して出力する。   The imaging unit 2 is a so-called surveillance camera. The imaging unit 2 sequentially outputs images obtained by imaging the monitoring space at predetermined time intervals to the signal processing unit 4. Hereinafter, the unit of time that is recorded at the above time interval is referred to as time. In the present embodiment, the imaging unit 2 captures and outputs a color image in which each RGB color has 256 gradations.

撮像部2は、建物のエントランスの天井に光軸を鉛直下方に向けて設置される。エントランスには屋外からの直射日光が差し込み、建物の構造物等の影が映りこむ。そのため、撮像部2により撮像される画像には高輝度の日向部分と低輝度の日陰部分が混在する。   The imaging unit 2 is installed on the ceiling of the entrance of a building with the optical axis directed vertically downward. Direct sunlight from the outside enters the entrance, and the shadows of the building structures are reflected. Therefore, the image picked up by the image pickup unit 2 includes a high-luminance sun part and a low-brightness shade part.

記憶部3は、ROM、RAM等のメモリ装置である。記憶部3は、各種プログラムや各種データを記憶し、信号処理部4との間でこれらの情報を入出力する。各種データには、背景画像30及び対象物識別情報31が含まれる。   The storage unit 3 is a memory device such as a ROM or a RAM. The storage unit 3 stores various programs and various data, and inputs and outputs such information to and from the signal processing unit 4. Various data includes a background image 30 and object identification information 31.

背景画像30は、監視空間の背景の像のみが含まれ、通行者の像が含まれていない画像である。背景画像30は、通行者検出処理に先立って生成され、記憶される。   The background image 30 is an image that includes only the background image of the monitoring space and does not include the passerby image. The background image 30 is generated and stored prior to the passer-by detection process.

対象物識別情報31は、画像中に通行者が存在しているか否かを識別するための参照情報である。対象物識別情報31は、通行者検出処理に先立って、少なくとも通行者が撮像されたサンプル画像から抽出されたエッジ情報(輝度勾配情報)を基に生成され、記憶されている。   The object identification information 31 is reference information for identifying whether or not a passerby exists in the image. Prior to the passer-by detection process, the object identification information 31 is generated and stored based on edge information (luminance gradient information) extracted from at least a sample image in which the passer-by is captured.

エッジ情報としてはHOG(Histograms of Oriented Gradients)と呼ばれる特徴量を採用することができる。HOG特徴量は、画像中に複数設定された局小領域のそれぞれにおいて算出されたエッジ角度分布とエッジ強度とからなるパラメータ系列である。HOG特徴量においてエッジ強度はエッジ角度分布の重み係数として用いられる。尚、HOG特徴量の参考文献として、N.
Dalal, B. Triggs:Histograms
of oriented gradients for human detection: Proc. of IEEE Conference on Computer
Vision and Pattern Recognition (CVPR):886-893(2005)などがある。
As the edge information, a feature amount called HOG (Histograms of Oriented Gradients) can be adopted. The HOG feature amount is a parameter series including an edge angle distribution and an edge strength calculated in each of a plurality of small local areas set in the image. In the HOG feature amount, the edge strength is used as a weighting coefficient of the edge angle distribution. As a reference for HOG features, N.
Dalal, B. Triggs: Histograms
of oriented gradients for human detection: Proc. of IEEE Conference on Computer
Vision and Pattern Recognition (CVPR): 886-893 (2005).

対象物識別情報31は、多次元量であるHOG特徴量により張られる特徴空間において通行者とそれ以外を弁別する識別面を表すパラメータである。このパラメータは、通行者が撮像された多数のサンプル画像から抽出されたHOG特徴量、及び通行者が撮像されていない多数のサンプル画像から抽出されたHOG特徴量をサポートベクターマシーンやブースティング法に適用することで学習される。   The object identification information 31 is a parameter representing an identification surface that discriminates passers-by from others in a feature space spanned by a multi-dimensional HOG feature. This parameter is used for supporting vector machines and boosting methods for HOG feature values extracted from a large number of sample images taken by passersby and HOG feature values extracted from a number of sample images not taken by passersby. It is learned by applying.

別の実施形態において対象物識別情報31は、通行者が撮像されている複数のサンプル画像から抽出されたエッジ強度を画素ごとに平均化した通行者のエッジパターンとして生成される。さらに別の実施形態においては、通行者が撮像されている複数のサンプル画像から抽出されたエッジ角度を画素ごとに平均化したエッジパターンとして生成される。   In another embodiment, the object identification information 31 is generated as a passer's edge pattern that is obtained by averaging the edge intensities extracted from a plurality of sample images in which the passer is imaged. In yet another embodiment, the edge angle extracted from a plurality of sample images in which a passerby is imaged is generated as an edge pattern averaged for each pixel.

このように生成された対象物識別情報31は、複数のサンプル画像に共通する通行者のエッジの特徴、すわなち通行者の輪郭(外形)特徴を主として表す。   The object identification information 31 thus generated mainly represents the characteristics of the passer's edge common to a plurality of sample images, that is, the outline (outer shape) characteristics of the passer.

信号処理部4は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置である。信号処理部4は、背景画像生成手段40、候補領域設定手段41、輝度分布分析手段42、画像補正手段43、エッジ抽出手段44、対象物検出手段45、異常検知手段46等の動作を記述したプログラムを記憶部3から読み出して実行することにより各手段として機能する。信号処理部4は、撮像部2から入力された画像(以下、入力画像と称する)に適宜補正を施して通行者を検出し、検出した通行者の追跡により不正通行を検知すると出力部5へ異常信号を出力する。   The signal processing unit 4 is an arithmetic device such as a DSP (Digital Signal Processor) or MCU (Micro Control Unit). The signal processing unit 4 describes the operations of the background image generation unit 40, the candidate area setting unit 41, the luminance distribution analysis unit 42, the image correction unit 43, the edge extraction unit 44, the object detection unit 45, the abnormality detection unit 46, and the like. It functions as each means by reading the program from the storage unit 3 and executing it. The signal processing unit 4 appropriately corrects an image input from the imaging unit 2 (hereinafter referred to as an input image) to detect a passer-by, and when detecting unauthorized traffic by tracking the detected passer-by, the signal processing unit 4 outputs to the output unit 5. An abnormal signal is output.

背景画像生成手段40は、監視空間に通行者が存在しないときに撮像部2により撮像された入力画像の全体を背景画像30として記憶部3に記憶させる。また、背景画像生成手段40は、照明変動に適応するために、入力画像のうち通行者が検出されなかった部分の像を背景画像30に合成することで背景画像30を更新する。   The background image generation unit 40 stores the entire input image captured by the imaging unit 2 in the storage unit 3 as the background image 30 when there is no passerby in the monitoring space. In addition, the background image generation unit 40 updates the background image 30 by synthesizing the background image 30 with an image of a portion of the input image where no passer-by is detected, in order to adapt to illumination fluctuations.

候補領域設定手段41は、入力画像のうち通行者の像のサイズを有する一部領域を候補領域として設定し、候補領域の情報を輝度分布分析手段42、画像補正手段43、エッジ抽出手段44、対象物検出手段45に出力する。   The candidate area setting unit 41 sets a partial area having the size of the passer's image in the input image as a candidate area, and sets information on the candidate area as a luminance distribution analysis unit 42, an image correction unit 43, an edge extraction unit 44, Output to the object detection means 45.

通行者の像のサイズは、通行者と撮像部2の位置関係等により変化する。そのため候補領域設定手段41は、画像上の位置を変数として通行者の像のサイズを設定する。具体的には、撮像部2の設置高、画角といったカメラパラメータ、及び立位の平均的な体格の人物形状を回転楕円体で近似した3次元モデルをピンホールカメラモデルに適用して、監視空間の各位置に仮想配置された上記3次元モデルが画像上に投影される像を演算し、投影像を囲む矩形枠を画像上の投影像の位置と対応付けて記憶部3に予め記憶させておく。候補領域設定手段41は、候補領域を設定しようとする位置に応じた矩形枠を候補領域として読み出し、設定する。   The size of the passerby image changes depending on the positional relationship between the passerby and the imaging unit 2 or the like. Therefore, the candidate area setting means 41 sets the size of the passer's image using the position on the image as a variable. Specifically, a camera parameter such as the installation height of the image pickup unit 2 and the angle of view, and a three-dimensional model that approximates a standing human figure with a spheroid is applied to the pinhole camera model for monitoring. An image in which the three-dimensional model virtually arranged at each position in the space is projected on the image is calculated, and a rectangular frame surrounding the projected image is associated with the position of the projected image on the image and stored in the storage unit 3 in advance. Keep it. The candidate area setting means 41 reads out and sets a rectangular frame corresponding to the position where the candidate area is to be set as a candidate area.

ここで、候補領域設定手段41は、画像上の全域に亘って順次候補領域を設定することも可能であるが、通行者が存在する可能性の高い位置に絞り込んで候補領域を設定した方が誤検知の確率が低くなり、加えて処理コストも低くなる。   Here, the candidate area setting means 41 can also set candidate areas sequentially over the entire area of the image, but it is better to set candidate areas by narrowing down to positions where there is a high possibility that a passerby exists. The probability of false detection is reduced, and the processing cost is also reduced.

そのため、候補領域設定手段41は入力画像において背景画像30との差異を有する変化領域を抽出して変化領域を基準とする位置に候補領域を設定し、入力画像において楕円形状の像が撮像されている人体頭部領域を抽出して人体頭部領域を基準とする位置に候補領域を設定する。特に、人体頭部領域の抽出範囲を変化領域内に限定して行うことで絞込みの確度を高くでき、処理コストを低くできる。   Therefore, the candidate area setting unit 41 extracts a change area having a difference from the background image 30 in the input image, sets the candidate area at a position based on the change area, and an elliptical image is captured in the input image. The human head region is extracted and a candidate region is set at a position based on the human head region. In particular, by limiting the extraction range of the human head region to the change region, the accuracy of narrowing down can be increased, and the processing cost can be reduced.

変化領域は、入力画像と背景画像30の差分処理、又は入力画像と背景画像30の相関演算等により抽出できる。頭部領域は、入力画像からエッジ画像を生成し、生成されたエッジ画像にハフ変換を施すこと、又は生成されたエッジ画像と予め設定された楕円パターンとのマッチングを行うこと等により抽出できる。エッジ画像は、入力画像にSobelフィルタ、Cannyフィルタ等のフィルタリングを施すことにより生成できる。   The change area can be extracted by a difference process between the input image and the background image 30 or a correlation calculation between the input image and the background image 30. The head region can be extracted by generating an edge image from the input image and performing a Hough transform on the generated edge image, or by matching the generated edge image with a preset elliptic pattern. The edge image can be generated by applying filtering such as a Sobel filter or a Canny filter to the input image.

輝度分布分析手段42は、画像補正手段43から所定の画像領域が指定されると、当該領域における入力画像及び背景画像30の輝度分布の特徴量を算出して、算出した輝度分布の特徴量を画像補正手段43に出力する。輝度分布の特徴量として、輝度分布分析手段42は、上記各画像の輝度ヒストグラムを算出するとともに、算出された輝度ヒストグラムから山部を検出して山部の輝度範囲を算出する。   When a predetermined image region is designated by the image correction unit 43, the luminance distribution analyzing unit 42 calculates the characteristic amount of the luminance distribution of the input image and the background image 30 in the region, and calculates the calculated characteristic amount of the luminance distribution. It outputs to the image correction means 43. As a feature value of the luminance distribution, the luminance distribution analyzing means 42 calculates a luminance histogram of each image, detects a peak from the calculated luminance histogram, and calculates a luminance range of the peak.

輝度ヒストグラムは輝度ごとの画素の頻度である。輝度ヒストグラムは上記各画像を構成する画素を輝度ごとに計数することにより算出できる。本実施形態において各頻度は総画素数で除算されて0〜1の範囲に正規化される。尚、入力画像及び背景画像30はRGBカラー画像であるが、輝度分布分析手段42はこれらを256階調のモノクロ画像に変換してから輝度分布の特徴量を算出する。   The luminance histogram is the frequency of pixels for each luminance. The luminance histogram can be calculated by counting the pixels constituting each image for each luminance. In this embodiment, each frequency is divided by the total number of pixels and normalized to a range of 0-1. Note that the input image and the background image 30 are RGB color images, but the luminance distribution analysis means 42 converts these into 256-tone monochrome images, and then calculates the characteristic amount of the luminance distribution.

山部は高頻度の輝度が密集した部分である。輝度分布分析手段42は、2つの山部検出しきい値Tg1,Tg2(Tg1>Tg2)を輝度ヒストグラムに適用して山部の輝度分布を検出する。すなわち、輝度分布分析手段42は、頻度がTg1を超える輝度を特定し、特定した輝度から低輝度側及び高輝度側に連続して頻度がTg2を超えている範囲を山部の輝度範囲として検出する。複数の山部があればその数だけ輝度範囲も検出される。Tg1,Tg2のそれぞれは、例えば、指定された画像領域における総画素数の20%程度、5%程度に相当する値に設定するとよい。   The mountain is a part where high-frequency luminance is dense. The luminance distribution analyzing means 42 applies the two peak detection thresholds Tg1, Tg2 (Tg1> Tg2) to the luminance histogram to detect the peak luminance distribution. That is, the luminance distribution analyzing means 42 identifies the luminance whose frequency exceeds Tg1, and detects the range where the frequency continuously exceeds Tg2 from the specified luminance to the low luminance side and the high luminance side as the luminance range of the mountain portion. To do. If there are a plurality of peaks, the same number of luminance ranges are detected. Each of Tg1 and Tg2 may be set to a value corresponding to about 20% or about 5% of the total number of pixels in the designated image area, for example.

以下、入力画像について算出される輝度分布の特徴量を入力側輝度分布とも称し、背景画像30について算出される輝度分布の特徴量を背景側輝度分布とも称する。   Hereinafter, the feature amount of the luminance distribution calculated for the input image is also referred to as an input-side luminance distribution, and the feature amount of the luminance distribution calculated for the background image 30 is also referred to as a background-side luminance distribution.

ここで、コントラスト補正処理の効果を十分に得るためには、山部の分布範囲が十分に狭い方がよい。すなわち山部が偏在している方がよい。
そこで輝度分布分析手段42は、山部の偏在を判定して偏在している山部のみを検出する。具体的には輝度分布分析手段42は、山部の分布範囲の広さ(輝度幅)を偏在判定しきい値Twと比較して、分布範囲の広さがTw以下の山部のみを検出して出力する。具体的には、山部が(Hb−Lb)≧Twを満たすなら当該山部を検出し、(Hb−Lb)<Twなら当該山部を検出しない。Twは例えば階調の3分の1程度の値に設定すればよい。本例では256÷3≒85に設定される。
Here, in order to sufficiently obtain the effect of the contrast correction process, it is preferable that the distribution range of the peaks is sufficiently narrow. That is, it is better that the mountain portion is unevenly distributed.
Therefore, the luminance distribution analysis means 42 determines the uneven distribution of the peaks and detects only the uneven peaks. Specifically, the luminance distribution analyzing means 42 compares the width of the peak distribution range (luminance width) with the uneven distribution determination threshold value Tw, and detects only the peak portions whose distribution range is equal to or smaller than Tw. Output. Specifically, if the peak satisfies (Hb−Lb) ≧ Tw, the peak is detected. If (Hb−Lb) <Tw, the peak is not detected. For example, Tw may be set to a value of about one third of the gradation. In this example, 256 ÷ 3≈85 is set.

画像補正手段43は、候補領域における入力画像にコントラスト補正処理を施して補正画像を生成し、生成した補正画像を対象物検出手段45に出力する。コントラスト補正処理は、狭い輝度範囲に偏った分布を広げるための補正処理である。   The image correcting unit 43 performs a contrast correction process on the input image in the candidate area to generate a corrected image, and outputs the generated corrected image to the object detecting unit 45. The contrast correction process is a correction process for expanding a distribution biased in a narrow luminance range.

画像補正手段43は、ヒストグラムの拡張(Histogram SpreadingまたはHistogram Stretching)と呼ばれる輝度変換を行ってコントラスト補正処理を行う。具体的には、画像補正手段43は、入力画像の画素のうち輝度がLi以上Hi以下の画素の輝度Iを{(I−Li)×255÷(Hi−Li)}に変換する。但し、入力画像の階調を0〜255、入力画像の山部の輝度範囲をLi〜Hiとする。補正画像において山部の画素は周辺画素との輝度差が大きくなり、エッジが強調される。
尚、このとき画像補正手段43は、入力画像の画素のうち輝度がLi未満の画素の輝度を0に変換し、入力画像の画素のうち輝度がHiより高い画素の輝度を255に変換する。
The image correction means 43 performs contrast correction processing by performing luminance conversion called histogram expansion (Histogram Spreading or Histogram Stretching). Specifically, the image correcting unit 43 converts the luminance I of the pixels of the input image whose luminance is not less than Li and not more than Hi into {(I−Li) × 255 ÷ (Hi−Li)}. However, the gradation of the input image is 0 to 255, and the luminance range of the peak portion of the input image is Li to Hi. In the corrected image, the luminance difference between the pixels at the peak and the surrounding pixels is increased, and the edge is emphasized.
At this time, the image correction unit 43 converts the luminance of the pixels of the input image whose luminance is less than Li to 0, and converts the luminance of the pixels of the input image whose luminance is higher than Hi to 255.

また、別の実施形態において画像補正手段43は、ヒストグラムの平坦化(Histogram Equalization)と呼ばれる輝度変換を行ってコントラスト補正処理を行う。具体的には、画像補正手段43は、入力画像の画素のうち輝度がLi以上Hi以下の画素の輝度Iを{255÷N×ΣP(I)}に変換する。但し、NはLi以上Hi以下の総画素数、ΣP(I)は輝度Li〜Iまでの頻度の和を表す。この処理によっても補正画像において山部の画素は周辺画素との輝度差が大きくなり、エッジが強調される。尚、輝度がLi未満の画素、輝度がHiより高い画素に対する変換は上記と同様である。   In another embodiment, the image correction means 43 performs contrast correction processing by performing luminance conversion called histogram equalization. Specifically, the image correcting unit 43 converts the luminance I of the pixels of the input image whose luminance is not less than Li and not more than Hi into {255 ÷ N × ΣP (I)}. However, N represents the total number of pixels from Li to Hi, and ΣP (I) represents the sum of frequencies from luminance Li to I. This process also increases the brightness difference between the pixels in the crest and the surrounding pixels in the corrected image, and the edges are emphasized. Note that the conversion for pixels with luminance less than Li and for pixels with luminance higher than Hi is the same as described above.

ここで、入力画像のエッジ情報に基づいて通行者を検知するにあたっては、次のようなトレードオフがある。   Here, in detecting a passerby based on edge information of the input image, there are the following trade-offs.

まず、背景と通行者と間のコントラストが弱いと、通行者の輪郭のエッジ情報が十分に得られず通行者を検知し損ね易くなる。この場合はコントラスト補正処理を施すことで通行者の輪郭のエッジ情報が強調されて通行者を検知し損ねにくくすることができる。   First, if the contrast between the background and the passer is weak, edge information on the outline of the passer cannot be obtained sufficiently, and it becomes easy to fail to detect the passer. In this case, by performing the contrast correction process, the edge information of the contour of the passerby is emphasized, and it is possible to make it difficult to detect the passerby.

しかしその一方で、背景と通行者と間のコントラストが十分に強いときにコントラスト補正処理を施すと通行者の輪郭以外のエッジ情報までもが強調され、余分なエッジ情報が抽出されてしまう。余分なエッジ情報とは、例えば背景領域内や通行者領域内の陰影や模様といった微弱な輝度差が強調されたために抽出されるエッジ情報である。余分なエッジ情報は通行者検知処理にとっての外乱であり、検知精度を低下させる原因となる。   On the other hand, however, if the contrast correction process is performed when the contrast between the background and the passer is sufficiently strong, even edge information other than the outline of the passer is emphasized, and extra edge information is extracted. The extra edge information is edge information that is extracted because a weak luminance difference such as a shadow or a pattern in the background area or the passer-by area is emphasized. Excessive edge information is a disturbance for the passer-by detection process, and causes a decrease in detection accuracy.

そこで画像補正手段43は、コントラスト補正処理を行うべきか否かの要否判定を行い、行うべきと判定した場合にのみコントラスト補正処理を行う。そのために画像補正手段43は、入力側輝度分布と背景側輝度分布とが類似しているか否かを判定し、類似している場合にコントラスト補正処理を行うべきと判定し、類似していないときはコントラスト補正処理を行うべきではないと判定する。   Therefore, the image correction unit 43 determines whether or not to perform the contrast correction process, and performs the contrast correction process only when it is determined that the process should be performed. Therefore, the image correction unit 43 determines whether or not the input-side luminance distribution and the background-side luminance distribution are similar, and determines that the contrast correction processing should be performed if they are similar. Determines that the contrast correction processing should not be performed.

具体的には、画像補正手段43は、入力画像から算出された輝度ヒストグラムと背景画像30から算出された輝度ヒストグラムの間で、各輝度における頻度の差の絶対値を求めて総和し2分の1倍することで輝度ヒストグラム間の距離を算出し、距離が予め設定した類似判定しきい値Ts以下であれば類似、距離がTsより大きければ相違と判定する。類似判定しきい値Tsは例えば総画素数の40%程度相当の値に設定するとよい。   Specifically, the image correcting unit 43 obtains the absolute value of the difference in frequency at each luminance between the luminance histogram calculated from the input image and the luminance histogram calculated from the background image 30, and sums them up to 2 minutes. The distance between the luminance histograms is calculated by multiplying by 1. If the distance is equal to or smaller than a preset similarity determination threshold Ts, it is determined to be similar, and if the distance is greater than Ts, it is determined to be different. For example, the similarity determination threshold value Ts may be set to a value corresponding to about 40% of the total number of pixels.

これにより、日陰にいる暗色の服装をした通行者が撮像された入力画像、又は日向にいる明色の服装をした通行者が撮像された入力画像など、背景と対象物と間のコントラストが弱い入力画像は、背景画像30と輝度分布が類似するのでコントラスト補正処理を行うべきと判定される。
そして、日陰にいる明色の服装をした通行者が撮像された入力画像、又は日向にいる暗色の服装をした通行者が撮像された入力画像など、既に背景と対象物と間のコントラストが十分に強い入力画像は、背景画像30と輝度分布が類似しないのでコントラスト補正処理を行うべきではないと判定される。
よって、背景と対象物と間のコントラストが弱い入力画像は対象物の輪郭のエッジ情報が強調され、既に背景と対象物と間のコントラストが十分な入力画像は余分なエッジ情報の抽出が防止されるので、対象物の検知精度が向上する。
As a result, the contrast between the background and the object is weak, such as an input image obtained by capturing a dark-colored passerby in the shade, or an input image obtained by capturing a bright-colored passerby in the sun. Since the input image has a luminance distribution similar to that of the background image 30, it is determined that contrast correction processing should be performed.
And there is already enough contrast between the background and the object, such as an input image taken of a light-colored passerby in the shade or an input image taken of a dark-colored passerby in the sun. An input image that is strong against the background image 30 is determined not to be subjected to contrast correction processing because the luminance distribution is not similar to the background image 30.
Therefore, the edge information of the contour of the target object is emphasized for the input image with a low contrast between the background and the target object, and the extraction of the extra edge information is prevented for the input image that already has a sufficient contrast between the background and the target object. Therefore, the detection accuracy of the object is improved.

また、通行者が存在しない背景のみの領域を処理対象にすると類似が判定されて余分なエッジ情報が抽出される。そのため、画像補正手段43は、候補領域設定手段41によって設定された候補領域、すなわち変化領域や頭部領域が抽出されており通行者が存在する確度の高い位置に設定された候補領域を処理対象とすることで、背景のみの領域にコントラスト補正を行うことを避け、エッジ過多の発生を防止している。   Also, if a background-only area where no passerby exists is processed, similarity is determined and extra edge information is extracted. Therefore, the image correcting unit 43 processes the candidate region set by the candidate region setting unit 41, that is, the candidate region set in the position where the change area and the head region are extracted and the passerby exists with high probability. By doing so, it is avoided that contrast correction is performed on only the background region, and the occurrence of excessive edges is prevented.

また、余分な背景部分の影響を受けずに適確な類似判定を行うためには、通行者とその近傍の背景のみからなる領域を処理対象とするのが望ましい。そのため、輝度分布分析手段42及び画像補正手段43は、候補領域設定手段41によって設定された候補領域、すなわち通行者の像のサイズに合わせて設定された候補領域を処理対象とすることで、通行者像とその近傍の背景像のみからなる必要且つ最小限の画像情報に基づく適確な輝度分布分析と類似判定を行っている。
さらにこうして得られた輝度分布を基にコントラスト補正を行うので、通行者の輪郭のエッジ情報を最大限に強調することが可能となっている。
Further, in order to perform an appropriate similarity determination without being affected by an extra background portion, it is desirable that a region consisting only of a passerby and a background in the vicinity thereof be a processing target. For this reason, the luminance distribution analyzing unit 42 and the image correcting unit 43 use the candidate area set by the candidate area setting unit 41, that is, the candidate area set in accordance with the size of the passer's image as a processing target. Appropriate luminance distribution analysis and similarity determination based on necessary and minimum image information consisting only of a person's image and a background image in the vicinity thereof are performed.
Furthermore, since contrast correction is performed based on the luminance distribution obtained in this way, it is possible to enhance the edge information of the outline of the passerby to the maximum extent.

図2は、輝度分布分析手段42と画像補正手段43による処理の一例を模式的に示したものである。この例では暗色の服装をした人物が日陰を通行中である。   FIG. 2 schematically shows an example of processing by the luminance distribution analysis means 42 and the image correction means 43. In this example, a person in dark clothes is passing through the shade.

画像100は候補領域における背景画像を表している。日陰のため、背景画像100は一様に低輝度である。輝度分布分析手段42は、背景画像100を分析して輝度ヒストグラム101を算出する。輝度ヒストグラム101においては低輝度側に偏った単峰性分布が形成されている。輝度分布分析手段42は、輝度ヒストグラム101に山部検出しきい値Tg1,Tg2を適用して、山部の最小輝度値Lbと最大輝度値Hb(分布範囲)を算出する。   An image 100 represents a background image in the candidate area. Due to the shade, the background image 100 is uniformly low in brightness. The luminance distribution analyzing means 42 analyzes the background image 100 and calculates a luminance histogram 101. In the luminance histogram 101, a unimodal distribution biased toward the low luminance side is formed. The luminance distribution analysis unit 42 applies the peak detection thresholds Tg1 and Tg2 to the luminance histogram 101, and calculates the minimum luminance value Lb and the maximum luminance value Hb (distribution range) of the peaks.

画像110は背景画像100と同一の候補領域における入力画像を表しており、中央に通行者が撮像されている。輝度分布分析手段42は、入力画像110を分析して輝度ヒストグラム111を算出する。通行者も暗色であるため、輝度ヒストグラム111においても低輝度側に偏った単峰性分布が形成されている。輝度分布分析手段42は、輝度ヒストグラム111に山部検出しきい値Tg1,Tg2を適用して、山部の最小輝度値Liと最大輝度値Hi(分布範囲)を算出する。   The image 110 represents an input image in the same candidate area as the background image 100, and a passerby is imaged in the center. The luminance distribution analysis unit 42 analyzes the input image 110 and calculates a luminance histogram 111. Since the passerby is also dark, a unimodal distribution is formed in the luminance histogram 111 that is biased toward the low luminance side. The luminance distribution analyzing means 42 applies the peak detection thresholds Tg1 and Tg2 to the luminance histogram 111, and calculates the minimum luminance value Li and the maximum luminance value Hi (distribution range) of the peaks.

画像補正手段43は輝度ヒストグラム101と輝度ヒストグラム111の距離を算出して類似判定しきい値Tsと比較する。この例では距離はTs以下であるために、画像補正手段43は、類似を判定し、入力画像110にコントラスト補正処理を施す。
こうして対象物と背景との間のコントラストが改善された補正画像120が生成される。変換後の輝度ヒストグラムはグラフ121のようになる。
The image correcting unit 43 calculates the distance between the luminance histogram 101 and the luminance histogram 111 and compares it with the similarity determination threshold value Ts. In this example, since the distance is equal to or less than Ts, the image correction unit 43 determines similarity and performs contrast correction processing on the input image 110.
In this way, a corrected image 120 with improved contrast between the object and the background is generated. The converted luminance histogram is as shown in a graph 121.

図3は別の3つのケースを例示したものである。各ケースにおける画像補正手段43の処理を説明する。   FIG. 3 illustrates another three cases. Processing of the image correction unit 43 in each case will be described.

日向を通行する明色の服装をした通行者に対して設定された候補領域においては、背景画像130と入力画像131のような画像が得られる。この場合、背景側輝度分布と入力側輝度分布は類似するためコントラスト補正を行うべきと判定され、入力画像131から補正画像が生成される。   In a candidate area set for a passerby who is lightly dressed in the sun, images such as the background image 130 and the input image 131 are obtained. In this case, since the background side luminance distribution and the input side luminance distribution are similar, it is determined that contrast correction should be performed, and a corrected image is generated from the input image 131.

日陰を通行する明色の服装をした通行者に対して設定された候補領域においては、背景画像140と入力画像141のような画像が得られる。この場合、背景側輝度分布と入力側輝度分布は相違するためコントラスト補正を行うべきではないと判定され、補正画像は生成されない。   In a candidate area set for a passerby who is lightly dressed in the shade, images such as the background image 140 and the input image 141 are obtained. In this case, since the background-side luminance distribution and the input-side luminance distribution are different, it is determined that contrast correction should not be performed, and a corrected image is not generated.

日向を通行する暗色の服装をした通行者に対して設定された候補領域においては、背景画像150と入力画像151のような画像が得られる。この場合、背景側輝度分布と入力側輝度分布は相違するためコントラスト補正を行うべきではないと判定され、補正画像は生成されない。   In a candidate area set for a passerby in dark clothes who passes through the sun, images such as the background image 150 and the input image 151 are obtained. In this case, since the background-side luminance distribution and the input-side luminance distribution are different, it is determined that contrast correction should not be performed, and a corrected image is not generated.

以上では、候補領域における入力画像が一様に暗い又は一様に明るい場合について説明したが、候補領域における入力画像が明領域(日向など)と暗領域(日陰など)の境界を含む場合もある。このような場合、明領域ではコントラストが弱いが暗領域ではコントラストが十分強い、又は、明領域ではコントラストが十分強いが暗領域ではコントラストが弱いという状況が混在するため、候補領域全体にコントラスト補正処理を施すと、部分的に余分なエッジ情報が抽出されて対象物の検知精度を低下させる原因となる。   The case where the input image in the candidate area is uniformly dark or uniformly bright has been described above. However, the input image in the candidate area may include a boundary between a bright area (such as the sun) and a dark area (such as the shade). . In such a case, there is a mixed situation where the contrast is weak in the bright region but the contrast is sufficiently strong in the dark region, or the contrast is sufficiently strong in the bright region but the contrast is weak in the dark region. If this is applied, extra edge information is partially extracted, which causes a decrease in detection accuracy of the object.

そのために画像補正手段43は、双峰性判定手段431と明暗領域検出手段432とを有する。   For this purpose, the image correction unit 43 includes a bimodal determination unit 431 and a light / dark region detection unit 432.

双峰性判定手段431は背景側輝度分布を参照して背景側輝度分布が高輝度域と低輝度域のそれぞれに偏在する双峰性分布であるか否かを判定する。双峰性判定手段431は背景側輝度分布に含まれる山部の情報が2つであれば双峰性分布であると判定する。   The bimodal determination unit 431 refers to the background luminance distribution to determine whether the background luminance distribution is a bimodal distribution that is unevenly distributed in each of the high luminance region and the low luminance region. The bimodal determination unit 431 determines that the bimodal distribution is obtained when there are two pieces of information on the peaks included in the background side luminance distribution.

明暗領域検出手段432は双峰性分布が判定された背景側輝度分布において高輝度域に分布する画素からなる明領域と低輝度域に分布する画素からなる暗領域を検出する。明暗領域検出手段432は2つの山部の間に分割しきい値Tdを設定して、輝度がTdより高い画素からなる画素群を明領域として検出し、背景側輝度分布において輝度がTd以下の画素からなる画素群を暗領域として検出する。   The bright / dark area detecting means 432 detects a dark area composed of bright areas composed of pixels distributed in the high luminance area and dark areas composed of pixels distributed in the low luminance area in the background side luminance distribution for which the bimodal distribution is determined. The light / dark area detecting means 432 sets a division threshold value Td between two peaks, detects a pixel group composed of pixels having a luminance higher than Td as a bright area, and has a luminance of Td or less in the background side luminance distribution. A pixel group consisting of pixels is detected as a dark region.

画像補正手段43は、輝度分布分析手段42に明領域と暗領域の入力側輝度分布と背景側輝度分布を分析させ、暗領域と明領域のそれぞれに対して要否判定と必要に応じたコントラスト補正処理を行う。   The image correcting unit 43 causes the luminance distribution analyzing unit 42 to analyze the input side luminance distribution and the background side luminance distribution of the bright region and the dark region, and determines whether it is necessary for each of the dark region and the bright region and contrasts as necessary. Perform correction processing.

これにより、明領域と暗領域が混在した入力画像であっても、背景と対象物と間のコントラストが弱い部分のエッジ情報を強調しつつ、既に背景と対象物と間のコントラストが十分な部分からの余分なエッジ情報の抽出を防止できるので、対象物の検知精度が向上する。   As a result, even in an input image in which a bright area and a dark area are mixed, a portion where the contrast between the background and the object is already sufficient while emphasizing the edge information of the area where the contrast between the background and the object is weak Since it is possible to prevent extraction of extra edge information from the object, the detection accuracy of the object is improved.

図4は、日向と日陰の境界を通行する暗色の服装をした通行者像の位置に候補領域が設定されたときの輝度分布分析手段42及び画像補正手段43による処理の一例を模式的に示したものである。   FIG. 4 schematically shows an example of processing performed by the luminance distribution analysis unit 42 and the image correction unit 43 when a candidate area is set at the position of a dark-dressed passer-by image passing through the boundary between the sun and the shade. It is a thing.

画像200は候補領域における背景画像、グラフ201は背景画像200から算出された輝度ヒストグラム、画像210は同候補領域における入力画像をそれぞれ表している。   An image 200 represents a background image in the candidate area, a graph 201 represents a luminance histogram calculated from the background image 200, and an image 210 represents an input image in the candidate area.

輝度ヒストグラム201においては低輝度側及び高輝度側に偏った双峰性分布が形成されている。輝度分布分析手段42は、輝度ヒストグラム101に山部検出しきい値Tg1,Tg2を適用して、2つの山部の最小輝度値と最大輝度値(分布範囲)をそれぞれ、Lb1とHb1、Lb2とHb2、と算出する。   In the luminance histogram 201, a bimodal distribution biased toward the low luminance side and the high luminance side is formed. The luminance distribution analysis means 42 applies the peak detection thresholds Tg1 and Tg2 to the luminance histogram 101, and sets the minimum luminance value and the maximum luminance value (distribution range) of the two peaks as Lb1, Hb1, and Lb2, respectively. Hb2 is calculated.

山部が2つ検出されたため、画像補正手段43は分割しきい値Tdを{(Lb2−Hb1)÷2}と算出し、背景画像200にTdを適用して候補領域を明領域202と暗領域203に分割する。   Since two peaks are detected, the image correcting unit 43 calculates the division threshold Td as {(Lb2-Hb1) / 2}, applies Td to the background image 200, and sets the candidate area as the bright area 202 and the dark area 202. Divide into regions 203.

輝度分布分析手段42は、明領域202における背景画像220の輝度ヒストグラム221、明領域202における入力画像240の輝度ヒストグラム241を算出する。背景画像220は高輝度の背景のみが撮像されているため、輝度ヒストグラム221においては高輝度に偏った単峰性分布が形成されている。一方、入力画像240は高輝度の背景と低輝度の通行者が撮像されているため、輝度ヒストグラム241においては高輝度と低輝度に偏った双峰性分布が形成されている。画像補正手段43は、輝度ヒストグラム221と輝度ヒストグラム241を比較するが、類似が得られず、明領域202についてコントラスト補正を行わない。   The luminance distribution analyzing unit 42 calculates a luminance histogram 221 of the background image 220 in the bright area 202 and a luminance histogram 241 of the input image 240 in the bright area 202. Since only the high-luminance background is captured in the background image 220, a single-peak distribution biased toward high luminance is formed in the luminance histogram 221. On the other hand, since the input image 240 captures a high-luminance background and a low-luminance passerby, the luminance histogram 241 forms a bimodal distribution that is biased toward high and low luminance. The image correcting unit 43 compares the luminance histogram 221 and the luminance histogram 241, but the similarity is not obtained and the contrast correction is not performed on the bright region 202.

また、輝度分布分析手段42は、暗領域203における背景画像230の輝度ヒストグラム231、暗領域203における入力画像250の輝度ヒストグラム251及び山部の分布範囲を算出し、画像補正手段43は、輝度ヒストグラム231と輝度ヒストグラム251を比較する。暗領域203においては日陰の背景と暗色の服装をした通行者がともに似た輝度分布であるため類似が得られる。画像補正手段43は、類似度が判定された暗領域203の入力画像250にコントラスト補正処理を行う。   The luminance distribution analyzing unit 42 calculates the luminance histogram 231 of the background image 230 in the dark region 203, the luminance histogram 251 of the input image 250 in the dark region 203, and the peak distribution range. The image correcting unit 43 calculates the luminance histogram. 231 and the luminance histogram 251 are compared. In the dark region 203, similarity is obtained because the shaded background and the passersby in dark clothes have similar brightness distributions. The image correction unit 43 performs contrast correction processing on the input image 250 in the dark region 203 for which the similarity is determined.

エッジ抽出手段44は、画像補正手段43により補正画像が生成された場合は当該補正画像からエッジ情報を抽出し、補正画像が生成されなかった場合は入力画像からエッジ情報を抽出し、抽出されたエッジ情報を対象物検出手段45に出力する。
対象物検出手段45が抽出するエッジ情報は対象物識別情報31と同種のエッジ情報であり、前述したHOG特徴量又はエッジパターンを採用することができる。
The edge extracting unit 44 extracts edge information from the corrected image when the corrected image is generated by the image correcting unit 43, and extracts and extracts edge information from the input image when the corrected image is not generated. The edge information is output to the object detection means 45.
The edge information extracted by the object detection means 45 is the same type of edge information as the object identification information 31, and the above-described HOG feature value or edge pattern can be adopted.

ここで、画像補正手段43において双峰性が判定されて明領域と暗領域とが別々に処理された場合、エッジ抽出手段44は明領域と暗領域のそれぞれからエッジ情報を抽出し、明領域のエッジ情報と暗領域のエッジ情報を繋ぎ合わせて候補領域全体のエッジ情報を合成し、合成されたエッジ情報を対象物検出手段45に出力する。   Here, when the image correction means 43 determines the bimodality and the bright area and the dark area are processed separately, the edge extraction means 44 extracts the edge information from each of the bright area and the dark area, and the bright area The edge information of the dark region and the edge information of the dark region are combined to combine the edge information of the entire candidate region, and the combined edge information is output to the object detection means 45.

対象物検出手段45は、エッジ抽出手段44から入力されたエッジ情報を対象物識別情報31と比較することにより対象物を検出し、対象物が検知された候補領域における入力画像の情報、すなわち通行人像の情報を異常検知手段46に出力する。   The object detection unit 45 detects the object by comparing the edge information input from the edge extraction unit 44 with the object identification information 31, and information on the input image in the candidate area where the object is detected, that is, the traffic Information about the human image is output to the abnormality detection means 46.

対象物識別情報31としてHOG特徴空間における識別面のパラメータが学習されている場合、対象物検出手段45は、当該パラメータを読み出して予め設定された識別器にセットし、抽出されたHOG特徴量を識別器に入力することで上記比較を行う。識別器は入力されたHOG特徴量が特徴空間において識別面で境界される対象物側の空間にあるか否かを識別し、識別結果を出力する。
対象物識別情報31としてエッジパターンが作成されている場合、対象物検出手段45は、当該エッジパターンを読み出して抽出されたエッジ情報とのパターンマッチングを行うことで上記比較を行う。
When the parameter of the identification plane in the HOG feature space is learned as the object identification information 31, the object detection unit 45 reads the parameter, sets it in a preset classifier, and uses the extracted HOG feature value. The comparison is performed by inputting to the discriminator. The discriminator discriminates whether or not the input HOG feature amount is in the space on the object side bounded by the discrimination plane in the feature space, and outputs the discrimination result.
When an edge pattern is created as the object identification information 31, the object detection means 45 performs the above comparison by reading the edge pattern and performing pattern matching with the extracted edge information.

異常検知手段46は、対象物検出手段45から通行人像の情報が入力されると、当該通行人像から色ヒストグラム、位置、形状等の特徴量を抽出して記憶部3に記憶させるとともに、前後する時刻に抽出された特徴量を同定することにより通行人を追跡して不正通行を検知する。すなわち、記憶部3に建物入口の位置と認証装置の位置を予め設定しておき、追跡の結果として得られる移動軌跡をこれらの位置と比較し、建物入口の位置に達した移動軌跡が認証装置の位置を経由していなければ不正通行と判定する。不正通行が検知された場合、異常検知手段46は出力部5に異常信号を出力する。   When the information on the passerby image is input from the object detection unit 45, the abnormality detection unit 46 extracts a feature amount such as a color histogram, a position, and a shape from the passerby image and stores it in the storage unit 3 and moves back and forth. By identifying the feature value extracted at the time, the passerby is tracked to detect unauthorized traffic. That is, the location of the building entrance and the location of the authentication device are set in the storage unit 3 in advance, the movement trajectory obtained as a result of tracking is compared with these positions, and the movement trajectory reaching the location of the building entrance is identified by the authentication device. If it does not go through the position of, it is determined that the traffic is illegal. When unauthorized traffic is detected, the abnormality detection means 46 outputs an abnormality signal to the output unit 5.

出力部5は、信号処理部4の異常検知手段46から異常信号が入力されると、不正通行を警告するための音響出力を行うブザー又はスピーカー等の音響装置、及び通信回線を介して警備会社の監視センタ又は建物内の保安室に設置されたホスト・コンピュータに異常信号を送信する通信装置などを含んでなり、不正通行が発生した旨を外部へ出力する。   When an abnormality signal is input from the abnormality detection means 46 of the signal processing unit 4, the output unit 5 is a security company through a sound device such as a buzzer or a speaker that performs sound output for warning of unauthorized traffic, and a communication line. Including a communication device that transmits an abnormal signal to a host computer installed in a security center in the building or a security room in the building, and outputs to the outside that unauthorized traffic has occurred.

[画像監視装置1の動作]
以下、図5を参照して、画像監視装置1の動作を説明する。
[Operation of the image monitoring apparatus 1]
Hereinafter, the operation of the image monitoring apparatus 1 will be described with reference to FIG.

監視空間が無人であることを確認した管理者が装置に電源を投入すると、各部、各手段は初期化されて動作を始める(S1)。背景画像生成手段40は、初期化中の入力画像を背景画像30として記憶部3に記憶させる。   When an administrator who confirms that the monitoring space is unmanned turns on the apparatus, each unit and each means are initialized and start operating (S1). The background image generation means 40 stores the input image being initialized in the storage unit 3 as the background image 30.

初期化の後は、撮像部2から信号処理部4へ新たな画像が入力されるたびにS2〜S8の処理が繰り返される。   After initialization, every time a new image is input from the imaging unit 2 to the signal processing unit 4, the processing of S2 to S8 is repeated.

新たな画像が入力されると(S2)、当該入力画像から通行者を検出する処理が行われる(S3)。以下、図6のフローチャートを参照して通行者検出処理の詳細を説明する。   When a new image is input (S2), processing for detecting passers-by from the input image is performed (S3). Details of the passer-by detection process will be described below with reference to the flowchart of FIG.

ステップS30〜S32では、信号処理部4の候補領域設定手段41により候補領域の設定が行われる。   In steps S30 to S32, candidate areas are set by the candidate area setting means 41 of the signal processing unit 4.

まず、候補領域設定手段41は、背景画像30と入力画像との間で差分処理を行って予め設定された差分しきい値以上の差がある画素のまとまりを変化領域として抽出する(S30)。抽出結果として、変化領域内の画素値を1、変化領域外の画素値を0に設定したマスク画像が生成される。   First, the candidate area setting means 41 performs a difference process between the background image 30 and the input image, and extracts a group of pixels having a difference equal to or greater than a preset difference threshold value as a change area (S30). As an extraction result, a mask image in which the pixel value in the change area is set to 1 and the pixel value outside the change area is set to 0 is generated.

次に、候補領域設定手段41は、入力画像からエッジ画像を生成し、入力されたマスク画像によりエッジ画像にマスクをかけて変化領域外のエッジを除去し、マスクされたエッジ画像にハフ変換を施して楕円を検出し、楕円が検出された領域を頭部領域として抽出する(S31)。この結果、変化領域内且つ楕円形状の像が存在する領域が抽出される。候補領域設定手段41は、頭部領域の重心位置を演算し、当該位置と対応づけて記憶されている矩形枠を候補領域として記憶部3から読み出す(S32)。   Next, the candidate area setting unit 41 generates an edge image from the input image, masks the edge image with the input mask image, removes the edge outside the change area, and performs the Hough transform on the masked edge image. Then, an ellipse is detected, and an area where the ellipse is detected is extracted as a head area (S31). As a result, a region where an elliptical image exists within the change region is extracted. The candidate area setting means 41 calculates the barycentric position of the head area, and reads out from the storage unit 3 a rectangular frame stored in association with the position as a candidate area (S32).

尚、変化領域が抽出されなかった場合、或いは頭部領域が抽出されなかった場合、候補領域は設定されない。候補領域が設定されなかった場合、信号処理部4は通行者を検出しなかったとして通行者検出処理を終了する(S33にてNO→S4へ)。   If no change area is extracted or if a head area is not extracted, no candidate area is set. If the candidate area is not set, the signal processing unit 4 ends the passer detection process on the assumption that no passer is detected (NO in S33 to S4).

一方、1以上の候補領域が設定された場合(S33にてYES)、信号処理部4は、個々の候補領域を順次処理対象に設定してステップS34〜S57のループ処理を実行する。   On the other hand, when one or more candidate areas are set (YES in S33), signal processing unit 4 sequentially sets individual candidate areas as processing targets, and executes the loop process of steps S34 to S57.

ループ処理において、まず、信号処理部4の画像補正手段43は、処理対象の候補領域を指定して信号処理部4の輝度分布分析手段42に背景側輝度分布を算出させる(S35)。輝度分布分析手段42は、背景側輝度分布として処理対象の候補領域における背景画像30の輝度ヒストグラムと偏在を判定した山部の情報を出力する。画像補正手段43は山部の情報の数を参照して処理を3つに分岐させる。   In the loop processing, first, the image correction unit 43 of the signal processing unit 4 designates a candidate region to be processed and causes the luminance distribution analysis unit 42 of the signal processing unit 4 to calculate the background side luminance distribution (S35). The luminance distribution analyzing means 42 outputs the luminance histogram of the background image 30 in the candidate region to be processed and the information on the peak portion determined to be unevenly distributed as the background side luminance distribution. The image correction unit 43 branches the process into three with reference to the number of information on the peaks.

第一に、ステップS35にて検出された山部の情報が2つの場合、画像補正手段43の双峰性判定手段431により背景側輝度分布が双峰性分布であると判定され(S36にてYES)、処理は図7のステップS43〜S53へ進められる。この処理は後述する。   First, when there are two pieces of peak information detected in step S35, the background side luminance distribution is determined to be a bimodal distribution by the bimodal determination unit 431 of the image correction unit 43 (in S36). YES), the process proceeds to steps S43 to S53 in FIG. This process will be described later.

第二に、ステップS35にて検出された山部の情報が1つの場合、背景側輝度分布は単峰性分布であるとして(S37にてYES)、ステップS38〜S42の処理が行われる。   Second, if there is only one peak information detected in step S35, the background side luminance distribution is assumed to be a unimodal distribution (YES in S37), and the processes in steps S38 to S42 are performed.

画像補正手段43は、処理対象の候補領域を指定して輝度分布分析手段42に入力側輝度分布を分析させ、算出された入力側輝度分布とステップS35にて算出された背景側輝度分布が類似するか否かを判定する(S38,S39)。   The image correcting unit 43 designates a candidate area to be processed and causes the luminance distribution analyzing unit 42 to analyze the input side luminance distribution. The calculated input side luminance distribution and the background side luminance distribution calculated in step S35 are similar. It is determined whether or not to perform (S38, S39).

類似が判定された場合、画像補正手段43は候補領域の入力画像にコントラストを拡張する補正処理を施して補正画像を生成し、エッジ抽出手段44は生成された補正画像からHOG特徴量を抽出する(S39にてYES→S40→S41)。   When the similarity is determined, the image correction unit 43 performs a correction process for expanding the contrast on the input image in the candidate area to generate a correction image, and the edge extraction unit 44 extracts the HOG feature amount from the generated correction image. (YES in S39 → S40 → S41).

一方、相違が判定された場合、画像補正手段43は補正処理を行わず、対象物検出手段45は候補領域の入力画像からHOG特徴量を抽出する(S39にてNO→S42)。   On the other hand, when the difference is determined, the image correction unit 43 does not perform the correction process, and the object detection unit 45 extracts the HOG feature amount from the input image of the candidate area (NO in S39 → S42).

第三に、ステップS35に算出された背景側輝度分布が双峰性分布でも単峰性分布でもなかった場合、画像補正手段43は補正処理を行わず、エッジ抽出手段44候補領域の入力画像からHOG特徴量を抽出する(S36にてNO→S37にてNO→S42)。   Third, if the background-side luminance distribution calculated in step S35 is neither a bimodal distribution nor a unimodal distribution, the image correction unit 43 does not perform the correction process, and the edge extraction unit 44 from the input image of the candidate region. The HOG feature value is extracted (NO in S36 → NO in S37 → S42).

図7を参照して、ステップS35にて算出された背景側輝度分布が双峰性分布であった場合の処理について説明する。   With reference to FIG. 7, the process when the background side luminance distribution calculated in step S35 is a bimodal distribution will be described.

この場合、画像補正手段43は明暗領域検出手段432により候補領域から明領域と暗領域を検出し(S44)、明領域と暗領域のそれぞれを順次処理対象に設定してステップS43〜S53のループ処理を実行する。   In this case, the image correcting unit 43 detects the bright region and the dark region from the candidate regions by the light / dark region detecting unit 432 (S44), and sequentially sets each of the bright region and the dark region as a processing target, and loops of steps S43 to S53. Execute the process.

ループ処理において、画像補正手段43は、処理対象の明領域または暗領域を指定して輝度分布分析手段42に背景側輝度分布及び入力側輝度分布を算出させ(S45,S46)、算出された背景側輝度分布と入力側輝度分布が類似しているか否かを判定する(S47)。   In the loop processing, the image correcting unit 43 designates a bright region or dark region to be processed, causes the luminance distribution analyzing unit 42 to calculate the background side luminance distribution and the input side luminance distribution (S45, S46), and calculates the calculated background. It is determined whether or not the side luminance distribution and the input side luminance distribution are similar (S47).

類似が判定されると、画像補正手段43は処理対象の明領域または暗領域における入力画像にコントラストを拡張する補正処理を施して補正画像を生成し、エッジ抽出手段44は当該補正画像からHOG特徴量を抽出する(S47にてYES→S48→S49)。   When the similarity is determined, the image correcting unit 43 performs a correction process for expanding the contrast on the input image in the bright region or dark region to be processed to generate a corrected image, and the edge extracting unit 44 uses the HOG feature from the corrected image. The amount is extracted (YES in S47 → S48 → S49).

一方、相違が判定された場合、画像補正手段43は補正処理を行わず、エッジ抽出手段44は処理対象の明領域または暗領域における入力画像からHOG特徴量を抽出する(S47にてNO→S51)。   On the other hand, when the difference is determined, the image correction unit 43 does not perform the correction process, and the edge extraction unit 44 extracts the HOG feature amount from the input image in the bright region or dark region to be processed (NO in S47 → S51). ).

こうして明領域と暗領域のそれぞれからHOG特徴量が抽出されると、対象物検出手段45は各エッジ情報を繋ぎ合わせて候補領域全体についてのHOG特徴量にまとめる(S52にてYES→S53)。   When the HOG feature amount is extracted from each of the bright region and the dark region in this way, the object detection unit 45 combines the pieces of edge information into a HOG feature amount for the entire candidate region (YES in S52 → S53).

以上のようにしてHOG特徴量が抽出されると、対象物検出手段45は抽出されたHOG特徴量と記憶部3の対象物識別情報31との比較を行って候補領域に通行者が存在するか否かを判定し、判定結果を候補領域の情報に対応付けて記憶部3に一時記憶させる(S54)。   When the HOG feature value is extracted as described above, the object detection unit 45 compares the extracted HOG feature value with the object identification information 31 in the storage unit 3 and a passerby exists in the candidate area. And the determination result is temporarily stored in the storage unit 3 in association with the information of the candidate area (S54).

そして、全ての候補領域に対して処理が終了すると(S55にてYES)、対象物検出手段45は、通行者が検出された候補領域の位置と大きさ、及び候補領域における入力画像を通行者情報として出力する。   When the processing is completed for all candidate areas (YES in S55), the object detection unit 45 passes the input image in the candidate area, and the position and size of the candidate area where the passer-by is detected. Output as information.

再び図6に戻り、画像監視処理の続きを説明する。   Returning to FIG. 6 again, the continuation of the image monitoring process will be described.

通行者が検出されると(S4にてYES)、信号処理部4の異常検知手段46は、検出された通行者の通行者情報と現時刻より前に検出された通行者情報との対応付けにより各通行者の移動軌跡を検出し、移動軌跡を基に認証装置に立ち寄っていない異常な通行者の存在を判定する(S5)。   When a passer-by is detected (YES in S4), the abnormality detection means 46 of the signal processing unit 4 associates the detected passer-by information with the passer-by information detected before the current time. By detecting the movement trajectory of each passerby, the presence of an abnormal passerby who has not stopped at the authentication device is determined based on the movement trajectory (S5).

異常が判定された場合(S5にてYES)、異常検知手段46は出力部5に異常信号を出力し(S7)、異常信号が入力された出力部5は警報や通報等の出力動作を行う。尚、通行者が検出されなかった場合(S4にてNO)、ステップS5〜S7はスキップされ、異常が判定されなかった場合(S6にてNO)、ステップS7はスキップされる。   When an abnormality is determined (YES in S5), the abnormality detection means 46 outputs an abnormality signal to the output unit 5 (S7), and the output unit 5 to which the abnormality signal is input performs an output operation such as an alarm or a report. . If no passerby is detected (NO in S4), steps S5 to S7 are skipped, and if no abnormality is determined (NO in S6), step S7 is skipped.

ステップS7までの処理が終わると、信号処理部4の背景画像生成手段40は、入力画像において通行者が検出されなかった領域の画像を背景画像30に合成することで背景画像30を更新する(S8)。   When the processing up to step S7 is completed, the background image generation means 40 of the signal processing unit 4 updates the background image 30 by synthesizing the background image 30 with an image of an area in which no passerby is detected in the input image ( S8).

[変形例]
上記実施形態において、輝度分布分析手段42は輝度ヒストグラムを算出し、画像補正手段43は輝度ヒストグラムの類似を判定した。
別の実施形態において、輝度分布分析手段42は上限輝度しきい値TH1以上の輝度を有する画素数N1と下限輝度しきい値TH2以下の輝度値を有する画素数N2を計数し、画像補正手段43は背景側輝度分布のN1と入力側輝度分布のN1との差及び背景側輝度分布のN2と入力側輝度分布のN2との差がともに所定値以下である場合に類似を判定する。そして、画像補正手段43は、N1≧TN1且つN2<TN1の場合は0〜TH1の輝度範囲に対してヒストグラムの拡張と同様の輝度変換を行い、N1<TN1且つN2≧TN1の場合はTH2〜255の輝度範囲に対してヒストグラムの拡張と同様の輝度変換を行い、N1≧TN2且つN2≧TN2の場合は双峰性分布であるとして分割しきい値Td=(TH2−TH1)÷2により明・暗領域を分けて処理を行う。
尚、TH1は85程度、TH2は170程度、TN1は総画素数の50%以上に相当する値、TN2は総画素数の30%以上に相当する値に設定することができる。
[Modification]
In the above embodiment, the luminance distribution analyzing unit 42 calculates a luminance histogram, and the image correcting unit 43 determines the similarity of the luminance histogram.
In another embodiment, the luminance distribution analyzing means 42 counts the number of pixels N1 having a luminance equal to or higher than the upper limit luminance threshold TH1 and the number N2 of pixels having a luminance value equal to or lower than the lower limit luminance threshold TH2, and the image correcting means 43. The similarity is determined when the difference between N1 of the background side luminance distribution and N1 of the input side luminance distribution and the difference between N2 of the background side luminance distribution and N2 of the input side luminance distribution are both equal to or less than a predetermined value. The image correcting unit 43 performs luminance conversion similar to the expansion of the histogram on the luminance range of 0 to TH1 when N1 ≧ TN1 and N2 <TN1, and when N1 <TN1 and N2 ≧ TN1, Brightness conversion similar to the expansion of the histogram is performed on the 255 luminance range, and when N1 ≧ TN2 and N2 ≧ TN2, it is assumed that the distribution is a bimodal distribution, and the division threshold Td = (TH2-TH1) / 2・ Process by dividing the dark area.
TH1 can be set to about 85, TH2 can be set to about 170, TN1 can be set to a value corresponding to 50% or more of the total number of pixels, and TN2 can be set to a value corresponding to 30% or more of the total number of pixels.

さらに別の実施形態において、輝度分布分析手段42は輝度の平均Aと分散σを算出し、画像補正手段43は背景側輝度分布のAと入力側輝度分布のAとの差及び背景側輝度分布のσと入力側輝度分布のσとの差がともに所定値以下である場合に類似を判定する。そして、画像補正手段43は、A≦TH1且つσ<Tσ1、又はA≧TH2且つσ<Tσ1の場合はA±α×σの輝度範囲に対してヒストグラムの拡張と同様の輝度変換を行い、TH1<A<TH2且つσ≧Tσ2の場合は双峰性分布であるとして分割しきい値Td=Aにより明・暗領域を分けて処理を行う。   In still another embodiment, the luminance distribution analyzing unit 42 calculates the average A and the variance σ of the luminance, and the image correcting unit 43 calculates the difference between the background side luminance distribution A and the input side luminance distribution A and the background side luminance distribution. Similarity is determined when the difference between σ and σ of the input side luminance distribution is both equal to or smaller than a predetermined value. Then, the image correction means 43 performs luminance conversion similar to the expansion of the histogram on the luminance range of A ± α × σ when A ≦ TH1 and σ <Tσ1, or A ≧ TH2 and σ <Tσ1, and TH1 When <A <TH2 and σ ≧ Tσ2, it is assumed that the distribution is a bimodal distribution, and the processing is performed by dividing the bright / dark region by the division threshold Td = A.

また、上記実施形態においては輝度分布分析手段42が偏在の判定を行った。別の実施形態においては画像補正手段43が類似の判定のときに偏在の判定を併せて行う。この場合、画像補正手段43は類似と偏在が判定されたときにのみコントラスト補正処理を行う。

In the embodiment described above, the luminance distribution analysis unit 42 determines the uneven distribution. In another embodiment, the unevenness determination is also performed when the image correction unit 43 makes a similar determination. In this case, the image correction unit 43 performs the contrast correction process only when similarity and uneven distribution are determined.

1・・・画像監視装置
2・・・撮像部
3・・・記憶部
4・・・信号処理部
5・・・出力部
30・・・背景画像
31・・・対象物識別情報
40・・・背景画像生成手段
41・・・候補領域設定手段
42・・・輝度分布分析手段
43・・・画像補正手段
44・・・エッジ抽出手段
45・・・対象物検出手段
46・・・異常検知手段
431・・・双峰性判定手段
432・・・明暗領域検出手段

DESCRIPTION OF SYMBOLS 1 ... Image monitoring apparatus 2 ... Imaging part 3 ... Memory | storage part 4 ... Signal processing part 5 ... Output part 30 ... Background image 31 ... Object identification information 40 ... Background image generation means 41 ... Candidate area setting means 42 ... Luminance distribution analysis means 43 ... Image correction means 44 ... Edge extraction means 45 ... Object detection means 46 ... Anomaly detection means 431 ... Bimodal determination means 432 ... Bright / dark region detection means

Claims (5)

監視空間が撮像された画像から対象物を検知する対象物検知装置であって、
前記監視空間を撮像する撮像部と、
予め前記対象物が存在しないときに撮像された背景画像を記憶している記憶部と、
前記撮像部から入力された入力画像を分析して入力側輝度分布を算出するとともに前記背景画像を分析して背景側輝度分布を算出する輝度分布分析手段と、
前記入力側輝度分布と前記背景側輝度分布が類似しているか否かを判定し、類似が判定された場合に前記入力画像にコントラスト補正を行って補正画像を生成する画像補正手段と、
前記補正画像が生成された場合は当該補正画像からエッジ情報を抽出し、前記補正画像が生成されなかった場合は前記入力画像からエッジ情報を抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出されたエッジ情報に基づいて前記対象物を検出する対象物検出手段と、
を備えたことを特徴とする対象物検知装置。
An object detection device that detects an object from an image obtained by imaging a monitoring space,
An imaging unit for imaging the monitoring space;
A storage unit that stores a background image captured when the object does not exist in advance;
A luminance distribution analyzing means for analyzing the input image input from the imaging unit to calculate an input side luminance distribution and analyzing the background image to calculate a background side luminance distribution;
Determining whether or not the input-side luminance distribution and the background-side luminance distribution are similar, and image correction means for generating a corrected image by performing contrast correction on the input image when similarity is determined;
Edge extraction means for extracting edge information from the corrected image when the corrected image is generated, and extracting edge information from the input image when the corrected image is not generated;
Object detection means for detecting the object based on edge information extracted by the edge extraction means;
An object detection apparatus comprising:
前記対象物に応じて予め設定されたサイズの候補領域を前記入力画像内の所定位置に設定する候補領域設定手段、をさらに備え、
前記輝度分布分析手段は、前記候補領域内の前記入力画像から前記入力側輝度分布を算出し、前記候補領域内の前記背景画像から前記背景側輝度分布を算出する請求項1に記載の対象物検知装置。
Candidate area setting means for setting a candidate area of a size set in advance according to the object at a predetermined position in the input image;
The object according to claim 1, wherein the luminance distribution analysis unit calculates the input-side luminance distribution from the input image in the candidate area, and calculates the background-side luminance distribution from the background image in the candidate area. Detection device.
前記候補領域設定手段は、前記入力画像と前記背景画像との比較を行って差異が検出された位置に前記候補領域を設定する請求項2に記載の対象物検知装置。   The object detection apparatus according to claim 2, wherein the candidate area setting unit sets the candidate area at a position where a difference is detected by comparing the input image with the background image. 前記候補領域設定手段は、前記入力画像から楕円形状を有する人体頭部領域を検出し、前記人体頭部領域が検出された位置に前記候補領域を設定する請求項2又は3に記載の対象物検知装置。   The target object according to claim 2 or 3, wherein the candidate area setting unit detects a human head area having an elliptical shape from the input image, and sets the candidate area at a position where the human head area is detected. Detection device. 前記背景側輝度分布が高輝度域と低輝度域に偏在した双峰性分布であるか否かを判定する双峰性判定手段と、
前記双峰性分布が判定された場合に、前記背景輝度分布において前記高輝度域に分布する画素からなる明領域と、前記背景輝度分布において前記低輝度域に分布する画素からなる暗領域とを検出する明暗領域検出手段と、をさらに備え、
前記輝度分布分析手段、前記画像補正手段、及びエッジ抽出手段は、前記明領域と前記暗領域に対して個別に処理を行う請求項1乃至4に記載の対象物検知装置。
Bimodal determination means for determining whether the background side luminance distribution is a bimodal distribution unevenly distributed in a high luminance region and a low luminance region;
When the bimodal distribution is determined, a bright region composed of pixels distributed in the high luminance region in the background luminance distribution and a dark region composed of pixels distributed in the low luminance region in the background luminance distribution. A light / dark area detecting means for detecting,
5. The object detection device according to claim 1, wherein the luminance distribution analysis unit, the image correction unit, and the edge extraction unit individually process the bright region and the dark region.
JP2009157407A 2009-07-02 2009-07-02 Object detection device Expired - Fee Related JP5215952B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009157407A JP5215952B2 (en) 2009-07-02 2009-07-02 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009157407A JP5215952B2 (en) 2009-07-02 2009-07-02 Object detection device

Publications (2)

Publication Number Publication Date
JP2011013925A JP2011013925A (en) 2011-01-20
JP5215952B2 true JP5215952B2 (en) 2013-06-19

Family

ID=43592735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009157407A Expired - Fee Related JP5215952B2 (en) 2009-07-02 2009-07-02 Object detection device

Country Status (1)

Country Link
JP (1) JP5215952B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155595A (en) * 2011-01-27 2012-08-16 Secom Co Ltd Target object image determination device
DE102011104865A1 (en) 2011-06-22 2012-12-27 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Arrangement for the rear of a motor vehicle with a filling line for fuel and a torsion beam axle
JP6003133B2 (en) * 2012-03-21 2016-10-05 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program
JP5786838B2 (en) * 2012-05-31 2015-09-30 カシオ計算機株式会社 Image region dividing apparatus, method, and program
WO2019138758A1 (en) * 2018-01-11 2019-07-18 古野電気株式会社 Radar device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960366B2 (en) * 1997-03-18 1999-10-06 防衛庁技術研究本部長 Target extraction method
JP2003141550A (en) * 2001-11-05 2003-05-16 Canon Inc Position detection method
JP2009025910A (en) * 2007-07-17 2009-02-05 Sumitomo Electric Ind Ltd Obstacle detection device, obstacle detection system, and obstacle detection method

Also Published As

Publication number Publication date
JP2011013925A (en) 2011-01-20

Similar Documents

Publication Publication Date Title
CN107408196B (en) Method for extracting features from images
US11341669B2 (en) People flow analysis apparatus, people flow analysis system, people flow analysis method, and non-transitory computer readable medium
Davis et al. Background-subtraction in thermal imagery using contour saliency
Jacques et al. Background subtraction and shadow detection in grayscale video sequences
JP4668921B2 (en) Object detection in images
KR100693412B1 (en) Method for eye detection from images
JP4275516B2 (en) Person detection method and apparatus
Davis et al. Fusion-based background-subtraction using contour saliency
JP5106356B2 (en) Image monitoring device
JP5215952B2 (en) Object detection device
US20200250840A1 (en) Shadow detection method and system for surveillance video image, and shadow removing method
JP2008192131A (en) System and method for performing feature level segmentation
Vosters et al. Background subtraction under sudden illumination changes
JP5726596B2 (en) Image monitoring device
KR100601453B1 (en) Fingerprint recognition method
JP5260431B2 (en) Object detection device
JP5215955B2 (en) Object detection device
KR101769741B1 (en) Method and apparatus for recognizing iris through pupil detection
JP5851108B2 (en) Image monitoring device
JP4969320B2 (en) Image processing device
Ye et al. Moving object detection with background subtraction and shadow removal
JP2007201933A (en) Monitoring device using image
Chondro et al. Detecting abnormal massive crowd flows: Characterizing fleeing en masse by analyzing the acceleration of object vectors
JP2009181220A (en) Object detector
Iodice et al. Person re-identification based on enriched symmetry salient features and graph matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130301

R150 Certificate of patent or registration of utility model

Ref document number: 5215952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees