JP6369058B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP6369058B2 JP6369058B2 JP2014046849A JP2014046849A JP6369058B2 JP 6369058 B2 JP6369058 B2 JP 6369058B2 JP 2014046849 A JP2014046849 A JP 2014046849A JP 2014046849 A JP2014046849 A JP 2014046849A JP 6369058 B2 JP6369058 B2 JP 6369058B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- blur amount
- unit
- luminance
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 claims description 59
- 238000001514 detection method Methods 0.000 claims description 49
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000003384 imaging method Methods 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 16
- 235000019557 luminance Nutrition 0.000 description 135
- 238000010586 diagram Methods 0.000 description 23
- 238000005259 measurement Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000011410 subtraction method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、監視システムに用いて好適な画像処理装置に関する。 The present invention relates to an image processing apparatus suitable for use in a monitoring system.
従来、監視領域をカメラで撮像して取得した画像を処理して監視領域内の異物検出を行う際、一般に、検出対象物体と背景画像を含む入力画像から、背景画像を引くことにより検出対象物体の像を得る背景差分法や、現在入力されている画像フレームと前回入力された画像フレームとの差分を計算し、差分値の大きい領域(変化領域)を移動物体として検知するフレーム間差分法など、画像の変化に基づいて物体を検出する手法が用いられている。 Conventionally, when a foreign object in a monitoring area is detected by processing an image acquired by capturing the monitoring area with a camera, the detection target object is generally obtained by subtracting the background image from the input image including the detection target object and the background image. The background subtraction method for obtaining images of images, the interframe subtraction method for calculating the difference between the currently input image frame and the previous input image frame, and detecting a region with a large difference value (change region) as a moving object, etc. A method of detecting an object based on an image change is used.
即ち、例えば特許文献1には、所定の時間間隔で監視エリアを撮像した画像を取得し、取得した画像上の変化領域を検知したときに警報音を出力する画像監視装置が記載されている。
That is, for example,
しかし、この画像監視装置は、監視エリアを含む撮像範囲の実空間の奥行を認識しないため、監視エリアの手前を横切った物体を侵入物体と誤検知してしまう可能性がある。 However, since this image monitoring apparatus does not recognize the depth of the real space of the imaging range including the monitoring area, there is a possibility that an object crossing the front of the monitoring area is erroneously detected as an intruding object.
そこで、画像上の変化領域の下端の画面上の座標から、その変化領域の下端の実空間での位置を求めることで、上述した誤検知を防止する映像監視装置が提案されている(特許文献2)。 In view of this, there has been proposed a video monitoring apparatus that prevents the above-described erroneous detection by obtaining the position of the lower end of the change area in the real space from the coordinates on the lower end of the change area on the image (Patent Document). 2).
しかし、この映像監視装置では、画面上の座標から実空間内の位置を求める処理が複雑になるという問題がある。 However, this video monitoring apparatus has a problem that the processing for obtaining the position in the real space from the coordinates on the screen becomes complicated.
本発明は、上記従来の問題を解決するためになされたものであって、その目的は、監視エリアを含む撮像範囲を撮像した画像の変化に基づいて、監視エリアへの物体の侵入を検知するときに、撮像範囲の実空間の奥行を認識した物体検知を簡単な処理で実現することである。 The present invention has been made to solve the above-described conventional problems, and an object of the present invention is to detect entry of an object into a monitoring area based on a change in an image obtained by imaging an imaging range including the monitoring area. Sometimes, object detection that recognizes the depth of the real space of the imaging range is realized by simple processing.
本発明に係る画像処理装置は、監視エリアを含む撮像範囲を撮像した撮像装置からの画像を取得する画像取得手段と、前記撮像装置からの画像のボケ量と前記撮像装置から被写体までの距離との相関情報に基づいて、前記撮像装置からの距離が所定の範囲の前記撮像範囲を前記監視エリアとして設定する監視エリア設定手段と、前記画像取得手段により取得された画像のボケ量を推定するボケ量推定手段と、該ボケ量推定手段により推定されたボケ量が前記監視エリアの範囲の距離に対応する画素を、前記画像取得手段により取得された画像から抽出する画像抽出手段と、該画像抽出手段により抽出された画素により構成される領域を物体として認識する領域認識手段と、を有し、前記ボケ量推定手段は、画像のエッジを抽出するエッジ抽出手段と、該エッジ抽出手段により抽出されたエッジの両側の直近に位置する一対の画素の画素値の差と、該一対の画素の両側に位置する少なくとも一対の画素の画素値の差とに基づいて、前記エッジのボケ量を算出するボケ量算出手段と、を有する画像処理装置である。 An image processing device according to the present invention includes an image acquisition unit that acquires an image from an imaging device that captures an imaging range including a monitoring area, a blur amount of an image from the imaging device, and a distance from the imaging device to a subject. Monitoring area setting means for setting the imaging range having a predetermined distance from the imaging device as the monitoring area based on the correlation information, and a blur for estimating the blur amount of the image acquired by the image acquisition means An amount estimation unit, an image extraction unit that extracts a pixel whose blur amount estimated by the blur amount estimation unit corresponds to a distance in the range of the monitoring area, from the image acquired by the image acquisition unit, and the image extraction have a, recognizing region recognition means as an object area composed of pixel extracted by unit, the blur amount estimating means, edge extraction for extracting an edge of an image And a difference between pixel values of a pair of pixels located immediately on both sides of the edge extracted by the edge extraction means, and a difference between pixel values of at least a pair of pixels located on both sides of the pair of pixels. And a blur amount calculating means for calculating the blur amount of the edge .
本発明によれば、監視エリアを含む撮像範囲を撮像した画像の変化に基づいて、監視エリアへの物体の侵入を検知するときに、撮像範囲の実空間の奥行を認識した物体検知を簡単な処理で実現することができる。 According to the present invention, when detecting the intrusion of an object into the monitoring area based on a change in an image captured of the imaging range including the monitoring area, the object detection that recognizes the depth of the real space of the imaging range can be easily performed. It can be realized by processing.
以下、本発明の実施形態について、図面を参照して説明する。
〈画像処理装置を含む監視システム〉
図1は本発明の実施形態に係る画像処理装置を含む監視システムを示す図である。この監視システムは、PC(パーソナルコンピュータ)1と、それぞれがPC1に接続されたカメラ2、キーボード3、マウス4、及びモニタ5を備えている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Monitoring system including image processing device>
FIG. 1 is a diagram showing a monitoring system including an image processing apparatus according to an embodiment of the present invention. This monitoring system includes a PC (personal computer) 1, a
ここで、PC1が、本発明の実施形態に係る画像処理装置であり、カメラ2からの画像データを処理することで、各種画像処理(詳細については後述)を行う。
Here, the
カメラ2は、監視エリアを撮像するように配置された撮像装置である。本実施形態では、カラーカメラを採用したが、モノクロカメラを用いることもできる。
The
キーボード3及びマウス4は、ユーザがPC1に種々の指示を与えるための入力装置であり、モニタ5はカメラ2が監視エリアを撮像して生成した画像などを表示する出力装置である。
The
PC1は、CPU(Central Processing Unit)11と、それぞれがCPU11に接続された入力部12、カメラ制御部13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、ストレージ16、及び出力部17を備えている。
The PC 1 includes a CPU (Central Processing Unit) 11, an
入力部12は、カメラ2、キーボード3、及びマウス4と通信を行うためのインタフェースであり、出力部17はモニタ5と通信を行うためのインタフェースである。また、カメラ制御部13は、カメラの焦点距離、絞り、シャッター速度などを制御するためのインタフェースである。
The
CPU11はPC1全体の動作を制御するプロセッサである。ROM14は、CPU11が実行するプログラムや固定データ(後述する各種テーブルなど)を記憶するメモリ(書き換え可能なものを含む)であり、RAM15は、CPU11のワークエリアとなるメモリである。ストレージ16は、ハードディスクなどの大容量記憶装置からなり、カメラ2で生成され、CPU11で画像処理を受けた画像データ、CPU11が生成したデータ、監視動作に関するアプリケーションプログラムなどが格納される。
The
CPU11は、ROM14やストレージ16に格納されたプログラムを実行することにより実現される機能ブロックとして、ボケ量推定手段21、距離測定手段22、物体検知手段23、影除去手段24、及び速度測定手段25を備えている。
The
ボケ量推定手段21は、カメラ2が監視エリアを撮像して生成した画像のボケ量を推定する。距離測定手段22は、カメラ2が監視エリアを撮像して生成した画像のボケ量を推定し、ボケ量とカメラ2の焦点位置と被写体までの距離との対応関係を示すデータに基づいて、カメラ2から被写体までの距離を測定(推定)する。
The blur
物体検知手段23は、カメラ2が監視エリアを撮像して生成した画像の背景差分画像のボケ量を推定し、そのボケ量が予め設定した監視エリアの被写体を撮像した場合のボケ量であるか否かに基づいて、監視エリアへ侵入した物体を検知する。
The
影除去手段24は、カメラ2が監視エリアを撮像して生成した画像のボケ量を推定し、そのボケ量と影との対応関係を示すデータに基づいて、画像中の影の部分を識別し、画像中の影の部分を除去する。
The
速度測定手段25は、カメラ2が監視エリアを撮像して生成した物体の画像の移動ボケ量(ブレ量)を推定し、その移動ボケ量と移動速度との対応関係を示すデータに基づいて、物体の移動速度を測定(推定)する。
The speed measuring means 25 estimates the movement blur amount (blur amount) of the image of the object generated by the
〈ボケ量推定手段の機能ブロック図〉
図2は、図1におけるボケ量推定手段21の機能構成を示すブロック図である。図示のように、ボケ量推定手段21は、画像取得手段211、モノクロ変換手段212、ノイズ除去手段213、エッジベクトル算出手段214、エッジ判定手段215、輝度差算出手段216、及びボケ量算出手段217を備えている。エッジベクトル算出手段214とエッジ判定手段215がエッジ抽出手段を構成する。
<Functional block diagram of blur amount estimation means>
FIG. 2 is a block diagram showing a functional configuration of the blur amount estimation means 21 in FIG. As illustrated, the blur
画像取得手段211は、カメラ2が監視エリアを撮像して生成した画像を入力部12を介して受け取ることで、カメラ2からの画像を取得する手段である。このとき、カメラ2の光学系は、カメラ制御部13による焦点距離及び絞りの制御により、被写界深度の浅い状態、換言すればピントの合う範囲の狭い状態に設定されている。
The image acquisition unit 211 is a unit that acquires an image from the
モノクロ変換手段212は、画像取得手段211が取得した画像であるカラー画像をモノクロ画像に変換する。この変換は、カラー画像の各色成分の合成による輝度(Y)成分の生成、又は任意の色成分(例.G)の抽出として行う。 The monochrome conversion unit 212 converts a color image that is an image acquired by the image acquisition unit 211 into a monochrome image. This conversion is performed as generation of a luminance (Y) component by combining each color component of a color image, or extraction of an arbitrary color component (eg, G).
ノイズ除去手段213は、メディアンフィルタやガウシアンフィルタからなり、モノクロ変換手段212からのモノクロ画像のピクセルノイズを除去する。カメラ2としてモノクロカメラを用いた場合は、モノクロ変換手段212は不要である。
The
エッジベクトル算出手段214は、3×3のSobel(ソーベル)フィルタやCanny(キャニー)フィルタからなり、ノイズ除去されたモノクロ画像の各画素のエッジベクトル(エッジ強度及びエッジ方向)を算出する。 The edge vector calculation means 214 is composed of a 3 × 3 Sobel filter or a Canny filter, and calculates an edge vector (edge intensity and edge direction) of each pixel of the monochrome image from which noise has been removed.
即ち、画像の横方向(x方向)の3×3のSobelフィルタSxの出力をfx、画像の縦方向(y方向)の3×3のSobelフィルタSyの出力をfyとすると、下記の式〔1〕、式〔2〕により、エッジ強度及びエッジ方向を算出する。
エッジ強度=√(fx2+fy2) …式〔1〕
エッジ方向=tan−1(fy/fx) …式〔2〕
That is, assuming that the output of the 3 × 3 Sobel filter Sx in the horizontal direction (x direction) of the image is fx and the output of the 3 × 3 Sobel filter Sy in the vertical direction (y direction) of the image is fy, the following formula [ 1] and edge strength and edge direction are calculated by equation [2].
Edge strength = √ (fx 2 + fy 2 ) (1)
Edge direction = tan −1 (fy / fx) (2)
エッジ判定手段215は、エッジベクトル算出手段214により算出された各画素(注目画像)のエッジベクトルの強度(エッジ強度)のうち、その両側の画素のエッジベクトルの強度と比べて大きい、即ち差又は比が所定の閾値を超える注目画像をエッジ部画素と判定することでエッジを抽出する。 The edge determination means 215 is larger than the edge vector strengths of the pixels on both sides of the edge vector strength (edge strength) of each pixel (target image) calculated by the edge vector calculation means 214, that is, a difference or An edge is extracted by determining an image of interest whose ratio exceeds a predetermined threshold value as an edge portion pixel.
輝度差算出手段216は、エッジ部画素のエッジベクトル方向の両側に位置する所定数の画素の画素値としての輝度の差を算出する。即ち、例えばエッジ部画素の両隣のさらに両隣に位置する1対の画素の輝度差を算出する。 The luminance difference calculating unit 216 calculates a luminance difference as pixel values of a predetermined number of pixels located on both sides of the edge portion pixel in the edge vector direction. That is, for example, the luminance difference between a pair of pixels located on both sides of the edge portion pixel is calculated.
ボケ量算出手段217は、エッジベクトル算出手段214により抽出されたエッジ部画素のエッジ強度と、輝度差算出手段216により算出された輝度差とから、エッジのボケ量を算出する。 The blur amount calculation unit 217 calculates an edge blur amount from the edge intensity of the edge pixel extracted by the edge vector calculation unit 214 and the luminance difference calculated by the luminance difference calculation unit 216.
〈エッジ部の輝度差及びボケ量算出〉
図3は、図2における輝度差算出手段216及びボケ量算出手段217の動作を説明するための図である。この図において、横軸は画素、縦軸は輝度を表す。
<Calculation of luminance difference and blur amount at edge>
FIG. 3 is a diagram for explaining the operations of the luminance difference calculation unit 216 and the blur amount calculation unit 217 in FIG. In this figure, the horizontal axis represents pixels and the vertical axis represents luminance.
図3において、画素Peはエッジ部画素である。画素Pe+1、画素Pe-1は、画素Peのエッジベクトル方向の両隣(両側の直近)の一対の画素であり、その輝度差:Aは、エッジベクトル算出手段214により、画素Peのエッジ強度として算出される。画素Pe+2、画素Pe-2は、画素Pe+1、画素Pe-1の両隣の一対の画素であり、その輝度差:Bは、輝度差算出手段216により算出される。 In FIG. 3, a pixel Pe is an edge portion pixel. The pixel Pe + 1 and the pixel Pe-1 are a pair of pixels adjacent to each other in the edge vector direction of the pixel Pe (immediately on both sides), and the luminance difference: A is determined by the edge vector calculation means 214 by the edge intensity of the pixel Pe. Is calculated as The pixel Pe + 2 and the pixel Pe-2 are a pair of pixels adjacent to both the pixel Pe + 1 and the pixel Pe-1, and the luminance difference B is calculated by the luminance difference calculating means 216.
ボケ量算出手段217は下記の式〔3〕により、輝度差:Bと輝度差:2Aとを比較することで、エッジのボケ量を算出する。
ボケ量=B÷2A …式〔3〕
The blur amount calculating means 217 calculates the blur amount of the edge by comparing the luminance difference: B and the luminance difference: 2A by the following equation [3].
Bokeh amount = B ÷ 2A Formula [3]
また、図3において、画素Pe+2と画素Pe+1との輝度差をB1、画素Pe-2と画素Pe-1との輝度差をB2とすると、式〔3〕に代えて、下記の式〔4〕によりボケ量を算出することもできる。
ボケ量=(A+B1+B2)÷2A …式〔4〕
In FIG. 3, when the luminance difference between the pixel Pe + 2 and the pixel Pe + 1 is B1, and the luminance difference between the pixel Pe-2 and the pixel Pe-1 is B2, The blur amount can also be calculated by the equation [4].
Bokeh amount = (A + B1 + B2) ÷ 2A (4)
〈エッジ部付近の画素の輝度とボケ量との関係〉
図4は、エッジ部及びその両側の画素の輝度とボケ量との関係を示す図である。この図を用いて、エッジ部付近の画素の輝度とボケ量との関係について説明する。
<Relationship between brightness of pixel near edge and amount of blur>
FIG. 4 is a diagram illustrating the relationship between the luminance of the edge portion and pixels on both sides thereof and the amount of blur. The relationship between the brightness of the pixels near the edge and the amount of blur will be described using this figure.
この図の横軸は画素の位置であり、9番目の画素がエッジ部画素である。また、図の縦軸は画素の輝度である。また、σはガウス分布(正規分布)における分散値の平方根であり、その数値はガウシアンフィルタのパラメータとして用いられる値である。即ち、この図に示すエッジ部及びその両側の画素の輝度とボケ量との関係は、σをパラメータとした輝度対画素位置特性である。 The horizontal axis of this figure is the pixel position, and the ninth pixel is the edge portion pixel. Also, the vertical axis in the figure is the luminance of the pixel. Further, σ is the square root of the variance value in the Gaussian distribution (normal distribution), and the numerical value is a value used as a parameter of the Gaussian filter. That is, the relationship between the brightness and the amount of blur of the edge portion and the pixels on both sides of the edge portion shown in this figure is the brightness versus pixel position characteristic using σ as a parameter.
この特性は、18個の画素の輝度値の総数を256としたガウス分布の累積分布関数をσをパラメータとして算出したものである。現実の撮像画像のボケ量はガウス分布となることが知られているので、この特性はボケ量を数値化したものと言える。また、σの値はボケ量に関連し、σが大きい程ボケ量が大きい。 This characteristic is obtained by calculating a cumulative distribution function of a Gaussian distribution with the total number of luminance values of 18 pixels being 256, using σ as a parameter. Since it is known that the blur amount of an actual captured image has a Gaussian distribution, this characteristic can be said to be a numerical value of the blur amount. The value of σ is related to the amount of blur, and the larger the σ, the larger the amount of blur.
即ち、例えばσ=0の場合、図3における画素Peに対応する9番目の画素の輝度が128、画素Pe+1、画素Pe-1に対応する10番目、8番目の画素の輝度がそれぞれ256、0であるから、A=256である。また、画素Pe+2、画素Pe-2に対応する11番目、7番目の画素の輝度はそれぞれ256、0であるから、B=256(B1=0、B2=0)である。従って、式〔3〕により、σ=0の場合のボケ量を算出すると、「B÷2A=256÷512=0.5」となる。この値がボケ量の最小値である。 That is, for example, when σ = 0, the luminance of the ninth pixel corresponding to the pixel Pe in FIG. 3 is 128, and the luminances of the tenth and eighth pixels corresponding to the pixel Pe + 1 and the pixel Pe-1 are 256, respectively. , 0, A = 256. Since the eleventh and seventh pixels corresponding to the pixel Pe + 2 and the pixel Pe-2 are 256 and 0, respectively, B = 256 (B1 = 0, B2 = 0). Accordingly, when the blur amount when σ = 0 is calculated by the equation [3], “B ÷ 2A = 256 ÷ 512 = 0.5” is obtained. This value is the minimum amount of blur.
そして、σの値が大きくなるにつれて、特性曲線の傾斜が緩くなるため、Aの値が減少し、B1、B2の値が増加し、Bと2Aが等しい傾斜に収束する。この場合、ボケ量は最大値の1となる。 As the value of σ increases, the slope of the characteristic curve becomes gentle, so the value of A decreases, the values of B1 and B2 increase, and B and 2A converge to the same slope. In this case, the blur amount is 1 which is the maximum value.
〈ボケ量推定手段の動作〉
図5は、図1におけるボケ量推定手段21の動作を示すフローチャートである。
まず画像取得手段211が被写界深度の浅い状態に設定されているカメラ2からの画像を取得する(ステップS1)。この画像はカラー画像である。
<Operation of blur amount estimation means>
FIG. 5 is a flowchart showing the operation of the blur amount estimating means 21 in FIG.
First, the image acquisition unit 211 acquires an image from the
次にモノクロ変換手段212がカラー画像をモノクロ画像に変換し(ステップS2)、ノイズ除去手段213がモノクロ画像中のノイズを除去する(ステップS3)。 Next, the monochrome conversion means 212 converts the color image into a monochrome image (step S2), and the noise removal means 213 removes noise in the monochrome image (step S3).
次に、エッジベクトル算出手段214がノイズ除去されたモノクロ画像の各画素のエッジベクトルを算出し(ステップS4)、エッジ判定手段215がエッジベクトルの強度を基にエッジを抽出する(ステップS5)。ステップS4を実行する過程で図3におけるAの値が算出される。 Next, the edge vector calculation unit 214 calculates an edge vector of each pixel of the monochrome image from which noise has been removed (step S4), and the edge determination unit 215 extracts an edge based on the strength of the edge vector (step S5). In the process of executing step S4, the value A in FIG. 3 is calculated.
次いで、輝度差算出手段216が、エッジ判定手段215により抽出されたエッジを構成するエッジ部画素のエッジベクトル方向の両側の所定数の画素、例えばエッジ部画素の両隣のさらに両隣の1対の画素の輝度差を算出する(ステップS6)。このステップにより、図3におけるBの値が算出される。最後に、ボケ量算出手段217が式〔3〕を用いてボケ量を算出する(ステップS7)。 Next, the luminance difference calculation unit 216 has a predetermined number of pixels on both sides in the edge vector direction of the edge pixel constituting the edge extracted by the edge determination unit 215, for example, a pair of pixels on both sides of the edge unit pixel. Is calculated (step S6). By this step, the value B in FIG. 3 is calculated. Finally, the blur amount calculation unit 217 calculates the blur amount using the equation [3] (step S7).
このように、本発明の実施形態のボケ量推定手段によれば、周波数解析を伴わない単純な処理で画像のボケ量を推定することができる。なお、以上説明した実施形態では、式〔3〕によりボケ量を算出しているが、式〔3〕の分母の2Aに代えて、5×5のSobelフィルタの出力とすることもできる。この場合、画素Pe+2、画素Pe-2の両隣の一対の画素の画素値もボケ量に反映される。 As described above, according to the blur amount estimation unit of the embodiment of the present invention, the blur amount of an image can be estimated by a simple process without frequency analysis. In the embodiment described above, the amount of blur is calculated by the equation [3]. However, instead of 2A of the denominator of the equation [3], an output of a 5 × 5 Sobel filter may be used. In this case, the pixel values of a pair of pixels on both sides of the pixel Pe + 2 and the pixel Pe-2 are also reflected in the blur amount.
〈距離測定手段の機能ブロック図〉
図6は、図1における距離測定手段22の機能構成を示すブロック図である。
図示のように、距離測定手段22は、画像取得手段221、モノクロ変換手段222、ノイズ除去手段223、エッジベクトル算出手段224、エッジ判定手段225、輝度差算出手段226、及びボケ量算出手段227を備えている。これらの手段の構成は、ボケ量推定手段21における同名の手段と同じである。
<Functional block diagram of distance measuring means>
FIG. 6 is a block diagram showing a functional configuration of the distance measuring means 22 in FIG.
As illustrated, the
また、距離測定手段22は、ボケ量/輝度画像生成手段228、輝度閾値設定手段229、輝度画像抽出手段22a、及び輝度画像合成手段22bを備えている。
The
距離画像生成手段としてのボケ量/輝度画像生成手段228は、カメラ2で撮像した画像のボケ量と、カメラ2の焦点と被写体との間の距離との対応関係を示すデータ(相関情報)を有するテーブル(以下、ボケ量/距離テーブル)を用いて、ボケ量算出手段227で算出されたエッジのボケ量から、距離画像としてのボケ量/輝度画像を生成する。
The blur amount / luminance image generation unit 228 as the distance image generation unit generates data (correlation information) indicating the correspondence between the blur amount of the image captured by the
ボケ量/輝度画像は、カメラ2の焦点から画像のエッジに対応する被写体の位置までの距離を表す輝度を有する画像である。本実施形態では、焦点から近い程、輝度を高くする。ここで、ボケ量/距離テーブルは予め作成され、相関情報の記憶部としてのストレージ16に保存されている。ボケ量/距離テーブルの内容及び作成手順については後述する。
The blur amount / luminance image is an image having a luminance representing the distance from the focus of the
輝度閾値設定手段229は、ユーザがキーボード3及びマウス4を用いて、測定したい距離を入力したとき、その距離に対応するボケ量/輝度画像の輝度の閾値をRAM15に設定する手段である。本実施形態では、距離として、焦点から1m以内、2m以内、3m以内などが設定される。この輝度閾値は、例えば焦点から1m以内の場合、ボケ量/輝度画像生成手段228により生成された輝度画像において、焦点から1mに位置する被写体のボケ量を表す輝度となる。
When the user inputs a distance to be measured using the
輝度画像抽出手段22aは、ボケ量/輝度画像生成手段228で生成された画像の画素のうち、その輝度が輝度閾値設定手段229で設定された輝度閾値を超える画素を抽出する。これにより、輝度閾値を超える画素の輝度値はそのままとなり、輝度閾値以下の画素の輝度値は“0”となる。ここでは、焦点から1m以内、2m以内、3m以内に位置する被写体の画像のエッジが個別に抽出される。なお、輝度閾値を超える輝度の画素の輝度値を“1”などの一定値にしてもよい。 The luminance image extraction unit 22 a extracts pixels whose luminance exceeds the luminance threshold set by the luminance threshold setting unit 229 from the pixels of the image generated by the blur amount / luminance image generation unit 228. As a result, the luminance value of the pixel exceeding the luminance threshold value remains unchanged, and the luminance value of the pixel equal to or lower than the luminance threshold value is “0”. Here, the edges of the image of the subject located within 1 m, within 2 m, and within 3 m from the focus are individually extracted. Note that the luminance value of a pixel having a luminance exceeding the luminance threshold may be a constant value such as “1”.
輝度画像合成手段22bは、輝度画像抽出手段22aで抽出された3つの輝度画像を合成する。この合成により、例えば、焦点から1m以内、2m以内、3m以内の被写体のエッジを表す画像が生成される。ここで、焦点から3m以内は2m以内及び1m以内を含み、2m以内は1m以内を含むので、重複する範囲の輝度値は加算しない。ただし、輝度閾値を超える輝度の画素の輝度値を“1”などに固定した場合は、加算することで、焦点から1m以内が“3”、1mを超え、2m以内が“2”、2mを超え、3m以内が“1”、3mを超える範囲が“0”とする。 The luminance image synthesizing unit 22b synthesizes the three luminance images extracted by the luminance image extracting unit 22a. By this synthesis, for example, an image representing the edge of the subject within 1 m, within 2 m, and within 3 m from the focal point is generated. Here, within 3 m from the focal point includes within 2 m and within 1 m, and within 2 m includes within 1 m, so luminance values in overlapping ranges are not added. However, when the luminance value of a pixel having a luminance exceeding the luminance threshold is fixed to “1” or the like, by adding, “1” within 1 m from the focal point exceeds “3”, 1 m is exceeded, and “2” within 2 m is “2”. Exceeding and within 3 m is “1”, and exceeding 3 m is “0”.
〈ボケ量/距離テーブルの作成手順〉
図7は、ボケ量/距離テーブルの作成手順について説明するための図である。ここで、図7Aは、直径は50mmのレンズのピントをレンズから10mの距離に合わせた状態でのレンズからの距離と錯乱円の大きさ(直径)との関係を示すグラフである。このデータはカメラメーカが公開しているものである。また、図7Bは、ガウシアンフィルタでぼかした画像のボケ量を式〔3〕で算出したボケ量推定値を示すグラフである。
<Bokeh amount / distance table creation procedure>
FIG. 7 is a diagram for explaining a procedure for creating a blur amount / distance table. Here, FIG. 7A is a graph showing the relationship between the distance from the lens and the size (diameter) of the circle of confusion when the focus of the lens having a diameter of 50 mm is matched with the distance of 10 m from the lens. This data is published by the camera manufacturer. FIG. 7B is a graph showing a blur amount estimated value obtained by calculating the blur amount of the image blurred by the Gaussian filter by the equation [3].
図7Aに示すように、レンズからの距離と錯乱円の大きさとの間には対応関係がある。錯乱円の大きさとボケ量にも対応関係があることは知られているから、ボケ量と錯乱円との対応関係を示すデータを作成すれば、ボケ量とレンズからの距離との対応関係を示すデータ、即ちボケ量/距離テーブルを作成することができる。 As shown in FIG. 7A, there is a correspondence between the distance from the lens and the size of the circle of confusion. It is known that there is a correspondence between the size of the circle of confusion and the amount of blur, so if you create data that shows the correspondence between the amount of blur and the circle of confusion, you can see the correspondence between the amount of blur and the distance from the lens. Data to be shown, that is, a blur amount / distance table can be created.
そこで、図7Aに示す特性を有するカメラで取得したボケのない画像をガウシアンフィルタで処理してボケ画像を生成し、そのボケ量を式〔3〕で算出することで、図7Bに示すデータを作成する。 Therefore, the blur-free image obtained by the camera having the characteristics shown in FIG. 7A is processed by a Gaussian filter to generate a blur image, and the blur amount is calculated by Equation [3], whereby the data shown in FIG. 7B is obtained. create.
この図において、横軸のガウシアンフィルタによるボケ量の数値はガウシアンフィルタのサイズを表しており、サイズn(n=1〜11)は、(2n+1)×(2n+1)を意味する。また、縦軸のボケ量推定値は、式〔3〕による算出値の2倍を1から減算した値である。なお、網掛けを付した部分は影除去手段24が影と判定する範囲である。
In this figure, the numerical value of the blur amount by the Gaussian filter on the horizontal axis represents the size of the Gaussian filter, and the size n (n = 1 to 11) means (2n + 1) × (2n + 1). Also, the blur amount estimated value on the vertical axis is a value obtained by subtracting 1 from 2 times the value calculated by the equation [3]. The shaded portion is a range that the
ここで、(2n+1)×(2n+1)のガウシアンフィルタによるボケ量は、ボケのない画像の1画素を(2n+1)画素にぼかしたことを意味する。そこで、(2n+1)画素と図7Aにおける錯乱円の大きさとの対応関係を示すデータを取得することで、図7Aの縦軸の値を画素数に変換したデータを作成することができ、さらに図7Bに示すデータを用いることで、図7Aの縦軸の値を図7Bの縦軸に示すボケ量推定値としたデータ、即ちボケ量/距離テーブルを作成することができる。このボケ量/距離テーブルは、焦点距離又は絞りの値(F値)の少なくとも一方をパラメータとして複数設けておくことが好適である。なお、(2n+1)画素と図7Aにおける錯乱円の大きさとの対応関係を示すデータは、撮像素子の画素数など、カメラの諸元から取得することができる。 Here, the amount of blur by the (2n + 1) × (2n + 1) Gaussian filter means that one pixel of an image without blur is blurred to (2n + 1) pixels. Therefore, by acquiring data indicating the correspondence between (2n + 1) pixels and the size of the circle of confusion in FIG. 7A, data in which the value on the vertical axis in FIG. 7A is converted into the number of pixels can be created. By using the data shown in FIG. 7B, data in which the vertical axis value in FIG. 7A is the blur amount estimation value shown in the vertical axis in FIG. 7B, that is, the blur amount / distance table can be created. It is preferable that a plurality of blur amount / distance tables are provided using at least one of the focal length and the aperture value (F value) as a parameter. Note that data indicating the correspondence between (2n + 1) pixels and the size of the circle of confusion in FIG. 7A can be acquired from the specifications of the camera, such as the number of pixels of the image sensor.
〈距離測定手段の動作〉
図8は、図1における距離測定手段22の動作を示すフローチャートである。この図において、ステップS11のボケ量推定処理は、図5に示すフローチャートの全体(ステップS1〜S7)と同じであるから説明を省略する。
<Operation of distance measuring means>
FIG. 8 is a flowchart showing the operation of the distance measuring means 22 in FIG. In this figure, the blur amount estimation processing in step S11 is the same as the entire flowchart (steps S1 to S7) shown in FIG.
次のステップS12では、ボケ量/輝度画像生成手段228がボケ量を表す輝度画像、即ちその輝度がボケ量に対応する画像を生成する。ここでは、ボケ量が小さい、換言すれば焦点からの距離が近い被写体の画像程、輝度の高い画像を生成する。 In the next step S12, the blur amount / luminance image generation unit 228 generates a luminance image representing the blur amount, that is, an image whose luminance corresponds to the blur amount. Here, an image having a higher luminance is generated for an image of a subject having a smaller blur amount, in other words, a subject closer to the focal point.
次に輝度閾値設定手段229が、ユーザによる距離測定範囲の設定情報、即ち、ユーザがキーボード3及びマウス4を用いて入力した測定したい距離を示す情報を取得し(ステップS13)、ボケ量/距離テーブルを参照して、ユーザが測定したい距離に対応する輝度閾値を設定する(ステップS14)。
Next, the brightness threshold value setting unit 229 obtains setting information of the distance measurement range by the user, that is, information indicating the distance to be measured that is input by the user using the
次に輝度画像抽出手段22aが、ボケ量/輝度画像生成手段228で生成された画像の画素のうち、その輝度値が輝度閾値設定手段229によりステップS14で設定された輝度閾値以上の画素を抽出する(ステップS15)。 Next, the luminance image extraction unit 22a extracts pixels whose luminance value is equal to or higher than the luminance threshold set in step S14 by the luminance threshold setting unit 229 from the pixels of the image generated by the blur amount / luminance image generation unit 228. (Step S15).
次に、輝度画像合成手段22bが各設定距離の輝度画像を合成する(ステップS16)。即ち、ステップS15で抽出された各設定距離の輝度に対応する画素を合成する。 Next, the luminance image synthesizing unit 22b synthesizes luminance images at the respective set distances (step S16). That is, the pixels corresponding to the brightness of each set distance extracted in step S15 are synthesized.
〈輝度画像抽出手段及び輝度画像合成手段の動作〉
図9は、図6における輝度画像抽出手段22a及び輝度画像合成手段22bの動作を説明するための図である。
<Operation of Luminance Image Extraction Unit and Luminance Image Synthesis Unit>
FIG. 9 is a diagram for explaining the operation of the luminance image extracting means 22a and the luminance image synthesizing means 22b in FIG.
ここで、図9Aは、エッジ判定手段225で抽出された画像を示す。また、図9B、図9C、図9Dは、それぞれ輝度画像抽出手段22aで抽出された焦点から1m以内、2m以内、3m以内の画像を示す。また、図9Eは、輝度画像合成手段22bで生成された合成画像を示す。なお、実際の画像はグレースケール画像であるが、便宜上、ここでは2値の線画として記載した。また、この合成画像の輝度を線の太さに対応させた。 Here, FIG. 9A shows an image extracted by the edge determination means 225. 9B, FIG. 9C, and FIG. 9D show images within 1 m, within 2 m, and within 3 m from the focal point extracted by the luminance image extracting means 22a, respectively. FIG. 9E shows a composite image generated by the luminance image composition means 22b. Note that although the actual image is a grayscale image, it is described here as a binary line drawing for convenience. In addition, the brightness of this composite image was made to correspond to the thickness of the line.
図9Aに示すように、人物31、建物32、及び樹木33の画像がある。また図9B、図9C、図9Dに示すように、人物31は焦点から1m以内、人物31及び建物32の屋根以外の部分は焦点から2m以内、人物31、建物32、並びに樹木33の葉の下半分及び幹は焦点から3m以内に位置する。
As shown in FIG. 9A, there are images of a
そして、図9Eに示すように、人物31が最も高輝度、建物32の屋根以外の部分が中輝度、建物32の屋根並びに樹木33の葉の下半分及び幹が低輝度となり、葉の上半分の輝度値は0となる。
Then, as shown in FIG. 9E, the
〈距離測定手段の測定対象〉
図10は、図1における距離測定手段22の測定対象の例を示す図である。
カメラ2は、図示されていない保持手段により、監視エリアを上方から撮像するように取り付けてある。カメラ2のレンズの焦点43は、監視エリアの地面41に侵入することが想定される人物42の頭部42aと胴体42bとの間、即ち首の高さに設定されている。また、被写界深度は、頭頂部から胴体中央部の長さに設定されている。
<Measurement target of distance measuring means>
FIG. 10 is a diagram illustrating an example of a measurement target of the
The
このように設定し、図6に示す輝度画像抽出手段22aにより、被写界深度内の輝度画像を抽出することで、地面41に出来る影や、監視エリアに侵入した小動物を人物と誤検知する事態を防止することができる。 By setting the luminance image extraction means 22a shown in FIG. 6 and extracting the luminance image within the depth of field, the shadow formed on the ground 41 or the small animal that has entered the monitoring area is erroneously detected as a person. The situation can be prevented.
本発明の実施形態に係る距離測定手段22によれば、カメラ2で被写体を撮像して生成した被写体の画像のボケ量とカメラ2から被写体までの距離との対応関係を示すデータに基づいて、カメラ2から被写体までの距離を推定するときに、画像のボケ量の推定を、周波数解析を伴わない単純な処理で実現することができる。
According to the
〈物体検知手段の機能ブロック〉
図11は、図1における物体検知手段23の機能構成を示すブロック図である。
図示のように、物体検知手段23は、検知範囲設定手段231、背景距離画像生成手段232、入力距離画像生成手段233、差分画像生成手段234、及び領域認識手段235を備えている。
<Functional block of object detection means>
FIG. 11 is a block diagram showing a functional configuration of the object detection means 23 in FIG.
As illustrated, the
検知範囲設定手段231は、ユーザによるカメラ2の焦点距離及び絞りの設定に基づいて、監視エリアとしての物体検知範囲を設定する手段である。この物体検知範囲は、図10における被写界深度の部分に相当する。
The detection range setting means 231 is a means for setting an object detection range as a monitoring area based on the user setting of the focal length and the aperture of the
背景距離画像生成手段232は、検知範囲設定手段231で設定した物体検知範囲に検知対象物体が存在しないときに、カメラ2が監視エリアを撮像した生成した画像に対して距離画像生成処理、即ち画像のボケ量から推定される距離に対応する輝度を有する画像を生成することで、背景距離画像を生成する手段である。
The background distance
背景距離画像の輝度値は、物体検知範囲内の被写体については焦点からの距離に応じたプラスの値、物体検知範囲外の被写体については“0”となる。また、背景距離画像生成処理は図8のステップS11〜S15に示す処理と同様な処理である。 The luminance value of the background distance image is a positive value corresponding to the distance from the focus for a subject within the object detection range, and “0” for a subject outside the object detection range. The background distance image generation process is the same as the process shown in steps S11 to S15 in FIG.
入力距離画像生成手段233は、背景距離画像を生成した後、カメラ2が監視エリアを撮像して生成した画像に距離画像生成処理を施すことで、入力距離画像を生成する手段である。
The input distance image generation means 233 is a means for generating an input distance image by generating a background distance image and then performing a distance image generation process on the image generated by the
入力距離画像の輝度値は、背景距離画像の輝度値と同様、物体検知範囲内の被写体については焦点からの距離に応じたプラスの値、物体検知範囲外の被写体については“0”となる。また、入力距離画像生成処理は図8のステップS11〜S15に示す処理と同様な処理である。 Similar to the luminance value of the background distance image, the luminance value of the input distance image is a positive value corresponding to the distance from the focus for the subject in the object detection range, and “0” for the subject outside the object detection range. The input distance image generation process is the same as the process shown in steps S11 to S15 in FIG.
差分画像生成手段234は、入力距離画像生成手段233で生成された入力距離画像と、背景距離画像生成手段232で生成された背景距離画像の差分をとることで差分画像を生成する手段である。 The difference image generation means 234 is a means for generating a difference image by taking the difference between the input distance image generated by the input distance image generation means 233 and the background distance image generated by the background distance image generation means 232.
差分画像の輝度値は、物体検知範囲内の入力距離画像と背景距離画像とに差分が有る部分については焦点からの距離に応じたプラスの値、差分が無い部分については“0”となる。従って、差分画像の輝度がプラスの値の部分は、物体検知範囲に侵入した物体のエッジを表す。 The luminance value of the difference image is a positive value corresponding to the distance from the focus for a portion where there is a difference between the input distance image and the background distance image within the object detection range, and “0” for a portion where there is no difference. Accordingly, the portion where the luminance of the difference image has a positive value represents the edge of the object that has entered the object detection range.
領域認識手段235は、差分画像生成手段234により生成された差分画像における輝度がプラスの値の部分に外接矩形を付加することで、領域認識を行う手段である。 The region recognition unit 235 is a unit that performs region recognition by adding a circumscribed rectangle to a portion with a positive luminance in the difference image generated by the difference image generation unit 234.
領域認識手段235により囲まれた差分画像の輝度は、カメラ2の焦点からの距離に対応する。また、領域認識手段235により生成された外接矩形のサイズ(縦寸、横寸)は、物体検知範囲に侵入した物体のサイズに対応する。従って、侵入した物体を特定することが可能となる。
The luminance of the difference image surrounded by the area recognition unit 235 corresponds to the distance from the focus of the
〈物体検知手段の動作〉
図12は、図1における物体検知手段23の動作を示すフローチャートである。
まず検知範囲設定手段231は、ユーザがカメラ2からの画像をモニタ5で見ながら、キーボード3及びマウス4を用いて、カメラ2の焦点距離及び絞りを調整する操作に基づいて物体検知範囲を設定する(ステップS21)。
<Operation of object detection means>
FIG. 12 is a flowchart showing the operation of the object detection means 23 in FIG.
First, the detection range setting unit 231 sets the object detection range based on an operation of adjusting the focal length and the aperture of the
このとき、監視エリアには人体を模した物体が配置されており、背景画像生成処理と同様の処理により、モニタ5にはカメラ2の焦点からの距離に応じた輝度を有する画像が表示されている。ユーザは、その物体を前後に移動させ、物体の画像の輝度が0から所定の値となるように、焦点距離及び絞りを調整することで、検知範囲の前端(カメラ2から最も近い距離)及び後端(カメラ2から最も遠い距離)を設定することができる。
At this time, an object simulating a human body is arranged in the monitoring area, and an image having a luminance corresponding to the distance from the focus of the
検知範囲設定手段231は、この焦点距離と絞りの組み合わせを検知範囲(前端、後端)と対応付けた検知範囲設定情報をROM14に格納しておくことで、以後、物体検知手段23を動作させるときは、その検知範囲設定情報を読み出すことで、自動的な設定が可能となる。また、複数の異なる検知範囲に対応付けて、複数の焦点距離と絞りの組み合わせを格納しておくことで、検知範囲の可変設定が可能となる。この検知範囲設定情報は、前述した距離測定手段22が使用するボケ量/距離テーブルから所要の情報を抽出することで作成される。
The detection range setting unit 231 stores the detection range setting information in which the combination of the focal length and the aperture is associated with the detection range (front end and rear end) in the
次に、背景距離画像生成手段232が背景距離画像を生成する(ステップS22)。次いで、入力距離画像生成手段233が入力距離画像を生成する(ステップS23)。
Next, the background distance image generation means 232 generates a background distance image (step S22). Next, the input distance
次に、差分画像生成手段234が、入力距離画像及び背景距離画像から差分画像を生成する(ステップS24)。そして、領域認識手段235が、輝度値がプラスの画素に枠を生成することで、物体の領域を認識する(ステップS25)。 Next, the difference image generation means 234 generates a difference image from the input distance image and the background distance image (step S24). Then, the area recognizing unit 235 recognizes the area of the object by generating a frame for the pixel having a positive luminance value (step S25).
〈物体検知手段の動作〉
図13は、図1における物体検知手段23の動作を説明するための図である。ここで、図13A、図13B、図13C、図13D、図13Eは、それぞれ背景画像、入力画像、背景距離画像、入力距離画像、差分画像を示している。また、図13Fは差分画像における物体に外接矩形を付した状態を示している。なお、実際の画像はグレースケール画像であるが、ここでは便宜上、2値画像として記載した。
<Operation of object detection means>
FIG. 13 is a diagram for explaining the operation of the object detection means 23 in FIG. Here, FIGS. 13A, 13B, 13C, 13D, and 13E show a background image, an input image, a background distance image, an input distance image, and a difference image, respectively. FIG. 13F shows a state in which a circumscribed rectangle is attached to the object in the difference image. Note that although the actual image is a grayscale image, it is described here as a binary image for convenience.
図13Aにおいて、斜線を付した領域51は監視エリアの床を示している。即ち、監視エリアの下端は領域51であり、上端は図の画面上端である。
In FIG. 13A, a hatched
図13Bに示すように、入力画像には、物体(ここでは人体)52と、蝶53がある。ここで、物体52は監視エリアに位置し、蝶53は監視エリアの手前、即ちカメラ2と監視エリアとの間に位置するものとする。
As illustrated in FIG. 13B, the input image includes an object (here, a human body) 52 and a
図13Cに示すように、背景距離画像では、図13Aに示す背景画像のうち、監視エリア内の部分のみが抽出される。監視エリア外の部分(破線で表示)が除去されるとも言える。 As illustrated in FIG. 13C, in the background distance image, only the portion within the monitoring area is extracted from the background image illustrated in FIG. 13A. It can also be said that the portion outside the monitoring area (indicated by a broken line) is removed.
図13Dに示すように、入力距離画像では、図13Bに示す入力画像のうち、監視エリア内の部分のみが抽出される。従って、物体の画像61は抽出されるが、蝶の画像は抽出されない。
As illustrated in FIG. 13D, in the input distance image, only a portion within the monitoring area is extracted from the input image illustrated in FIG. 13B. Accordingly, the
図13Eに示すように、差分画像は、図13Dに示す入力距離画像と、図13Cに示す背景距離画像の差分であるから、物体の画像71のみとなる。そして、図13Fに示すように、物体の画像71に外接矩形72を付加することで、物体の領域を認識する。
As illustrated in FIG. 13E, the difference image is a difference between the input distance image illustrated in FIG. 13D and the background distance image illustrated in FIG. Then, as shown in FIG. 13F, a circumscribed
このように、物体検知手段23によれば、監視エリアを含む撮像範囲を撮像した画像の変化に基づいて、監視エリアへの物体の侵入を検知するときに、撮像範囲の実空間の奥行を認識した物体検知を簡単な処理で実現することができる。 Thus, according to the object detection means 23, when detecting the intrusion of an object into the monitoring area based on the change in the image obtained by imaging the imaging range including the monitoring area, the depth of the real space of the imaging range is recognized. The detected object can be realized by a simple process.
〈影除去手段の機能ブロック〉
図14は、図1における影除去手段24の機能構成を示すブロック図である。
図示のように、影除去手段24は、画像取得手段241、モノクロ変換手段242、ノイズ除去手段243、エッジベクトル算出手段244、エッジ判定手段245、輝度差算出手段246、ボケ量算出手段247、ボケ量/輝度画像生成手段248、輝度閾値設定手段249、輝度画像抽出手段24aを備えている。
<Functional block of shadow removal means>
FIG. 14 is a block diagram showing a functional configuration of the
As illustrated, the
これらの手段は、距離測定手段22における同名の手段と同様に構成されている。ただし、影除去手段24は、光の回折により物体の影の画像がぼけること、及びそのボケ量が物体から遠くなる程、大きくなるという性質を利用して画像中の影を分離・除去するので、画像取得手段241は、カメラ2の被写界深度が深い(ピンボケが発生しにくい)状態で画像を取得することが望ましい。また、被写体の移動によるブレ(移動ボケ)の発生を防止するため、シャッタースピードを高速(露光時間:短)にすることが望ましい。また、画像取得手段241は、カメラ2からの画像の背景差分画像を出力するように構成することが望ましい。
These means are configured similarly to the means of the same name in the distance measuring means 22. However, the
〈影除去手段の動作〉
図15は、図1における影除去手段24の動作を示すフローチャートである。この図において、ステップS31のボケ量推定処理は、図5に示すフローチャートの全体(ステップS1〜S7)と同じである。ただし、ここでは、カメラ2の被写界深度を深く設定した状態で画像を取得する。
<Operation of shadow removal means>
FIG. 15 is a flowchart showing the operation of the shadow removing means 24 in FIG. In this figure, the blur amount estimation process in step S31 is the same as the entire flowchart (steps S1 to S7) shown in FIG. However, here, the image is acquired in a state where the depth of field of the
次のステップS32では、ボケ量/輝度画像生成手段248がボケ量を表す輝度画像、即ちその輝度がボケ量に対応する画像を生成する。ここでは、ボケ量が大きい程、輝度が低くなる画像を生成する。従って、監視領域に物体が存在するとき、物体の画像よりも影の画像の方が輝度が低くなり、影の画像同士では、物体の下端(人体の場合、足元)から遠くなる程、輝度が低くなる。 In the next step S32, the blur amount / luminance image generation means 248 generates a luminance image representing the blur amount, that is, an image whose luminance corresponds to the blur amount. Here, an image is generated in which the luminance decreases as the blur amount increases. Therefore, when an object exists in the monitoring area, the brightness of the shadow image is lower than that of the object image, and the brightness between the shadow images increases as the distance from the lower end of the object (in the case of a human body) increases. Lower.
次に、輝度画像抽出手段24aが、輝度閾値設定手段249により設定された所定の閾値より低い画素を、ボケ量/輝度画像生成手段248で生成された画像から除去する(ステップS33)。このとき、輝度閾値として、影の画像のボケ量の最大値を設定することで、理論上は影の画像を除去することができる。本実施形態では、図7Bにおけるガウシアンフィルタにより生成した画像のボケ量:4以上(ボケ量推定値:0.36以下)を影として判定する。 Next, the luminance image extraction unit 24a removes pixels lower than the predetermined threshold set by the luminance threshold setting unit 249 from the image generated by the blur amount / luminance image generation unit 248 (step S33). At this time, theoretically, the shadow image can be removed by setting the maximum blur amount of the shadow image as the luminance threshold. In this embodiment, the blur amount of the image generated by the Gaussian filter in FIG. 7B: 4 or more (estimated blur amount value: 0.36 or less) is determined as a shadow.
監視エリアの明るさ、太陽光の照射方向によって、影の画像のボケ量が変化するので、それらの条件に応じて、閾値を動的に変更することが望ましい。そこで、下記(1)、(2)のように動的に閾値を変更する。
(1)エッジ判定手段245により抽出されたエッジに囲まれた領域のサイズ(長さや面積)を算出し、それらの値に応じて、閾値を変化させる。このとき、エッジに囲まれた領域は、物体とその影を合わせたものになるので、その長さや面積が大きい程、影が長い、換言すれば日射角度が低い。影が長いと、影のボケ量が大きくなる(輝度が低くなる)ので、閾値を低くする。
(2)エッジ判定手段245により抽出されたエッジの輝度の平均値を算出し、その値に応じて、閾値を変化させる。平均輝度が高いということは影が明瞭であり、ボケ量の平均値が小さくなる(ボケ量を表す輝度画像の輝度が高くなる)ので、閾値を高くする。
Since the blur amount of the shadow image changes depending on the brightness of the monitoring area and the irradiation direction of sunlight, it is desirable to dynamically change the threshold according to those conditions. Therefore, the threshold value is dynamically changed as in (1) and (2) below.
(1) The size (length or area) of the region surrounded by the edges extracted by the edge determination means 245 is calculated, and the threshold value is changed according to those values. At this time, since the area surrounded by the edge is a combination of the object and its shadow, the larger the length or area, the longer the shadow, in other words, the lower the solar radiation angle. If the shadow is long, the amount of blur of the shadow increases (the brightness decreases), so the threshold value is lowered.
(2) The average value of the brightness of the edges extracted by the edge determination means 245 is calculated, and the threshold value is changed according to the value. When the average brightness is high, the shadow is clear and the average value of the blur amount is small (the brightness of the brightness image representing the blur amount is high), so the threshold value is increased.
〈影除去手段の動作〉
図16は、図1における影除去手段24の動作を説明するための図である。ここで、図16Aはノイズ除去手段243の出力画像、図16Bはボケ量/輝度画像生成手段248の出力画像、図16Cは輝度画像抽出手段24aの出力画像である。
<Operation of shadow removal means>
FIG. 16 is a diagram for explaining the operation of the shadow removing means 24 in FIG. 16A is an output image of the noise removing unit 243, FIG. 16B is an output image of the blur amount / luminance image generating unit 248, and FIG. 16C is an output image of the luminance image extracting unit 24a.
図16Aに示すように、ノイズ除去手段243の出力画像には、人体の画像81と人体の影の画像82がある。なお、便宜上、人体の画像81には縦線、人体の影の画像82には網目を付した。
As shown in FIG. 16A, the output image of the noise removing unit 243 includes a
図16Bに示すように、ボケ量/輝度画像生成手段248の出力画像では、ボケ量の小さい人体の画像83は輝度が高く、ボケ量の大きい人体の影の画像84は輝度が低い。ここでは、画像83、84のエッジの太さが輝度の高さを表している。
As shown in FIG. 16B, in the output image of the blur amount / luminance image generation means 248, the
図16Cに示すように、輝度画像抽出手段24aの出力画像では、輝度の高い人体の画像83が抽出(輝度の低い人体の影の画像84が除去)されている。
As shown in FIG. 16C, in the output image of the luminance image extracting means 24a, a
このように、影除去手段24によれば、影の画像のエッジがぼけることを利用して影を分離・除去するので、光の照射条件が変化しても、高い精度で影を除去することができる。
As described above, according to the
〈速度測定の原理〉
図17は、図1における速度測定手段25の測定原理を説明するための図である。ここで、図17Aは、カメラ2の露光時間内で測定対象の車両が移動する距離について説明するための図であり、図17Bはカメラ2で撮像した車両の画像のブレ(移動ボケ)について説明するための図である。ここで、カメラ2は車両をその側面に直交する方向、即ち車両をその移動方向と直交する方向から撮像するように設置されている。
<Principle of speed measurement>
FIG. 17 is a view for explaining the measurement principle of the speed measuring means 25 in FIG. Here, FIG. 17A is a diagram for explaining the distance traveled by the vehicle to be measured within the exposure time of the
図17Aに示すように、車両91の速度をVとすると、カメラ2の露光時間ts(シャッター速度)における車両91の移動距離dは「V×ts」となる。また、図17Bに示すように、このときカメラ2で撮像した車両の画像92のボケ量Bは、移動距離dに対応する水平画素数に対応するから、車両の速度V、露光時間ts、及びカメラ2から車両91までの距離の関数となる。なお、図17Bでは、画像92における縦線についてのみボケを斜線で図示した。
As shown in FIG. 17A, when the speed of the
車両の画像92における縦線(垂直エッジ)の輝度には移動方向に高いグラデーションが発生する。理論上はこのグラデーションはリニアな変化となるが、実画像においては、ピンボケと同様に累積分布曲線に近似した曲線となる。
A high gradation occurs in the movement direction in the luminance of the vertical line (vertical edge) in the
図18は、移動ボケが生じた画像における輝度とボケ量との対応関係を示す特性曲線のグラフ、即ち上記の曲線の一例を示す図である。この図の横軸は画素位置、縦軸は輝度値である。ここで、ボケ量は、図17Bにおけるボケ量(B)に対応する。 FIG. 18 is a graph of a characteristic curve showing a correspondence relationship between the luminance and the amount of blur in an image in which moving blur occurs, that is, a diagram showing an example of the above curve. In this figure, the horizontal axis represents the pixel position, and the vertical axis represents the luminance value. Here, the blur amount corresponds to the blur amount (B) in FIG. 17B.
前述したように、画像のボケ量は、車両の速度V、露光時間ts、及びカメラ2から車両91までの距離の関数となる。また、車両の速度Vは、下記の式〔5〕により算出することができる。
V=「ボケ量(B)に対応する画素数」×「画像における画素単位の距離」÷「露光時間ts」 …式〔5〕
As described above, the image blur amount is a function of the vehicle speed V, the exposure time ts, and the distance from the
V = “number of pixels corresponding to the amount of blur (B)” × “distance in pixel units in the image” ÷ “exposure time ts” (5)
この式において、「ボケ量(B)に対応する画素数」は、図18に示す特性曲線から求めることができる。また、「画像における画素単位の距離」は、カメラ2で撮像した所定のサイズの物体の画像の画素数を計測することで求めることができる。この距離は、カメラ2から測定対象が通行する位置までの距離が長い、即ち測定対象が通行する位置がカメラ2から遠い程、長くなる。
In this equation, “the number of pixels corresponding to the blur amount (B)” can be obtained from the characteristic curve shown in FIG. Further, the “distance in pixel units in the image” can be obtained by measuring the number of pixels of an image of an object of a predetermined size captured by the
従って、画像のボケ量から速度を求めるためのテーブル(以下、ボケ量/速度テーブル)を、カメラ2から測定対象までの距離及び露光時間をパラメータとして予め作成しておけば、ボケ量推定手段21と同様にしてボケ量Bを推定し、ボケ量/速度テーブルを参照することで、速度Vを求めることができる。
Therefore, if a table for calculating the speed from the blur amount of the image (hereinafter referred to as a blur amount / speed table) is created in advance using the distance from the
〈速度測定手段の機能ブロック〉
図19は、図1における速度測定手段25の機能構成を示すブロック図である。
図示のように、速度測定手段25は、画像取得手段251、モノクロ変換手段252、ノイズ除去手段253、エッジベクトル算出手段254、エッジ判定手段255、輝度差算出手段256、ボケ量算出手段257、ボケ量/輝度画像生成手段258を備えている。
<Functional block of speed measurement means>
FIG. 19 is a block diagram showing a functional configuration of the speed measuring means 25 in FIG.
As illustrated, the
これらの手段は、距離測定手段22における同名の手段と同様に構成されている。ただし、速度測定手段25は、物体の画像のブレ(移動ボケ)が物体の速度に対応することを利用して、物体の速度を求めるので、画像取得手段251は、カメラ2の被写界深度が深い(ピンボケが発生しにくい)状態で画像を取得することが望ましい。カメラ2の被写界深度を深くすることで、例えば2車線の走行車両の速度測定が可能になる。
These means are configured similarly to the means of the same name in the distance measuring means 22. However, since the
縦線検知手段259は、ボケ量/輝度画像生成手段258により生成されたボケ量に対応する輝度を有する画像中の縦線(縦エッジ)を検知する手段である。本実施形態では、車両91の先端、後端、窓等が縦線として検知される。速度算出手段25aは、予め作成しておいたボケ量/速度テーブルを参照して、縦線を構成する各画素の移動ボケ(ブレ)に対応する速度を算出する。
The vertical
〈速度測定手段の動作〉
図20は、図1における速度測定手段25の動作を示すフローチャートである。この図において、ステップS41のボケ量推定処理は、図5に示すフローチャートの全体(ステップS1〜S7)と同じである。ただし、ここでは、カメラ2の被写界深度を深く設定した状態で、道路を走行する車両の側面を垂直に撮像して画像を取得する。
<Operation of speed measuring means>
FIG. 20 is a flowchart showing the operation of the speed measuring means 25 in FIG. In this figure, the blur amount estimation processing in step S41 is the same as the entire flowchart (steps S1 to S7) shown in FIG. Here, however, the image is acquired by vertically capturing the side surface of the vehicle traveling on the road in a state where the depth of field of the
次のステップS42では、ボケ量/輝度画像生成手段258がボケ量を表す輝度画像、即ちその輝度がボケ量に対応する画像を生成する。ここでは、ボケ量が小さい、換言すれば速度の遅い車両の画像程、輝度が高くなる。 In the next step S42, the blur amount / luminance image generation means 258 generates a luminance image representing the blur amount, that is, an image whose luminance corresponds to the blur amount. Here, the smaller the blur amount, in other words, the slower the vehicle image, the higher the luminance.
次に、縦線検知手段259がボケ量を表す輝度画像の縦線を検知する(ステップS43)。これにより、図17Bに示す車両の画像92の場合、ボディの先端及び後端、ドアの先端及び後端などが検知される。
Next, the vertical
次に、速度算出手段25aが、縦線検知手段259で検知された縦線の画素の輝度に対応する速度をボケ量/速度テーブルから取得することで算出する(ステップS44)。 Next, the speed calculation means 25a calculates the speed corresponding to the brightness of the pixel of the vertical line detected by the vertical line detection means 259 from the blur amount / speed table (step S44).
ここで、理論的(理想的)には、1本の縦線を構成する各画素の輝度は同じである。また、複数の縦線間でも各画素の輝度は同じである。従って、理論的には、1本の縦線の1画素の輝度から速度を求めることが出来る。しかし、実際には、輝度が異なることが考えられるので、縦線毎に輝度の平均値を算出したり、全ての縦線の平均値を算出したりすることが好適である。また、画像の横線(水平エッジ)を検知することで、車両91などの移動物体を検出することができ、上下の横線の間隔を算出することで、移動物体の高さを推定することができる。
Here, theoretically (ideally), the luminance of each pixel constituting one vertical line is the same. In addition, the luminance of each pixel is the same between a plurality of vertical lines. Therefore, theoretically, the speed can be obtained from the luminance of one pixel of one vertical line. However, since it is conceivable that the luminance is actually different, it is preferable to calculate an average value of luminance for each vertical line or to calculate an average value of all the vertical lines. In addition, a moving object such as the
21…ボケ量推定手段、23…物体検知手段、231…検知範囲設定手段、232…背景距離画像生成手段、233…入力距離画像生成手段、234…差分画像生成手段、235…領域認識手段。
DESCRIPTION OF
Claims (4)
前記撮像装置からの画像のボケ量と前記撮像装置から被写体までの距離との相関情報に基づいて、前記撮像装置からの距離が所定の範囲の前記撮像範囲を前記監視エリアとして設定する監視エリア設定手段と、
前記画像取得手段により取得された画像のボケ量を推定するボケ量推定手段と、
該ボケ量推定手段により推定されたボケ量が前記監視エリアの範囲の距離に対応する画素を、前記画像取得手段により取得された画像から抽出する画像抽出手段と、
該画像抽出手段により抽出された画素により構成される領域を物体として認識する領域認識手段と、
を有し、
前記ボケ量推定手段は、画像のエッジを抽出するエッジ抽出手段と、該エッジ抽出手段により抽出されたエッジの両側の直近に位置する一対の画素の画素値の差と、該一対の画素の両側に位置する少なくとも一対の画素の画素値の差とに基づいて、前記エッジのボケ量を算出するボケ量算出手段と、を有する画像処理装置。 Image acquisition means for acquiring an image from an imaging device that images an imaging range including a monitoring area;
Monitoring area setting for setting the imaging range in which the distance from the imaging device is a predetermined range as the monitoring area based on correlation information between the amount of blur of the image from the imaging device and the distance from the imaging device to the subject Means,
A blur amount estimation unit that estimates a blur amount of the image acquired by the image acquisition unit;
An image extracting means for extracting, from the image acquired by the image acquiring means, a pixel whose blur amount estimated by the blur amount estimating means corresponds to the distance of the range of the monitoring area;
Area recognition means for recognizing an area constituted by pixels extracted by the image extraction means as an object;
I have a,
The blur amount estimation means includes an edge extraction means for extracting an edge of an image, a difference between pixel values of a pair of pixels located immediately on both sides of the edge extracted by the edge extraction means, and both sides of the pair of pixels. An image processing apparatus comprising: a blur amount calculation unit that calculates a blur amount of the edge based on a difference between pixel values of at least a pair of pixels located at a position .
前記領域認識手段により認識された領域のサイズに基づいて、該領域に対応する実空間内の物体を特定する手段を有する画像処理装置。 The image processing apparatus according to claim 1,
An image processing apparatus comprising: means for specifying an object in real space corresponding to a region based on the size of the region recognized by the region recognition unit.
前記相関情報を記憶する記憶部を有し、前記監視エリア設定手段は、前記記憶部を参照することで、前記監視エリアを設定する、画像処理装置。 In the image processing apparatus according to claim 1 or 2,
A storage unit that stores the correlation information, the monitoring area setting means, by referring to the storage unit, sets the monitoring area, the image processing apparatus.
前記記憶部は、前記撮像装置の焦点距離又は絞りの値の少なくとも一方をパラメータとして複数の相関情報を記憶しており、前記監視エリア設定手段は、該複数の相関情報に対応する複数の検知範囲の設定が可能である、画像処理装置。 The image processing apparatus according to claim 3 ,
The storage unit stores a plurality of correlation information using at least one of a focal length or a diaphragm value of the imaging device as a parameter, and the monitoring area setting unit includes a plurality of detection ranges corresponding to the plurality of correlation information. der possible settings Ru, the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014046849A JP6369058B2 (en) | 2014-03-10 | 2014-03-10 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014046849A JP6369058B2 (en) | 2014-03-10 | 2014-03-10 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015170308A JP2015170308A (en) | 2015-09-28 |
JP6369058B2 true JP6369058B2 (en) | 2018-08-08 |
Family
ID=54202940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014046849A Active JP6369058B2 (en) | 2014-03-10 | 2014-03-10 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6369058B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7313211B2 (en) * | 2019-07-03 | 2023-07-24 | 株式会社Fuji | Assembly machine |
CN113436120B (en) * | 2021-07-20 | 2023-06-20 | 湖南圣洲生物科技有限公司 | Image fuzzy value identification method and device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4800073B2 (en) * | 2006-03-09 | 2011-10-26 | 富士フイルム株式会社 | Monitoring system, monitoring method, and monitoring program |
JP2009188697A (en) * | 2008-02-06 | 2009-08-20 | Fujifilm Corp | Multi-focus camera apparatus and image processing method and program used therein |
JP5180630B2 (en) * | 2008-03-13 | 2013-04-10 | セコム株式会社 | Monitoring device |
JP4990234B2 (en) * | 2008-07-07 | 2012-08-01 | オリンパス株式会社 | Ranging device, ranging method, ranging program or imaging device |
-
2014
- 2014-03-10 JP JP2014046849A patent/JP6369058B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015170308A (en) | 2015-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7912252B2 (en) | Time-of-flight sensor-assisted iris capture system and method | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP4359710B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US8203602B2 (en) | Depth-aware blur kernel estimation method for iris deblurring | |
JP5722414B1 (en) | Osteoporosis diagnosis support device | |
TW201127028A (en) | Method and apparatus for image stabilization | |
CN106264537B (en) | System and method for measuring human body posture height in image | |
JP6273921B2 (en) | Image processing device | |
JP6369058B2 (en) | Image processing device | |
JP6340837B2 (en) | Image processing device | |
JP2009211122A (en) | Image processor and object estimation program | |
KR101648786B1 (en) | Method of object recognition | |
JP5664078B2 (en) | Imaging apparatus, image evaluation method, and focus adjustment control program | |
JP6405651B2 (en) | Image processing device | |
US9904979B2 (en) | Method of generating a framed video system | |
JP6327024B2 (en) | Image processing device | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP2009088709A (en) | Height estimation device, and photographing device | |
JP6264107B2 (en) | Image processing device | |
JP6737262B2 (en) | Abnormal state detection device, abnormal state detection method, and abnormal state detection program | |
CN110853127A (en) | Image processing method, device and equipment | |
JP6358084B2 (en) | Image processing device | |
CN115037869A (en) | Automatic focusing method and device, electronic equipment and computer readable storage medium | |
JP6780639B2 (en) | Image analysis device, image analysis method, and image analysis program | |
WO2022018902A1 (en) | Object detection apparatus, system, and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6369058 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |