JP2015158796A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2015158796A JP2015158796A JP2014033155A JP2014033155A JP2015158796A JP 2015158796 A JP2015158796 A JP 2015158796A JP 2014033155 A JP2014033155 A JP 2014033155A JP 2014033155 A JP2014033155 A JP 2014033155A JP 2015158796 A JP2015158796 A JP 2015158796A
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- value
- pixel
- reference frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、カメラの撮像映像から物体を検出する物体検出装置に関する。 The present invention relates to an object detection device that detects an object from a captured image of a camera.
近年、犯罪の増加や高度化により、一般家庭などでも防犯機能の高い防犯カメラの需要が高まっている。従来のこのような防犯カメラは、人感センサが感知動作したらカメラが起動して撮像を開始するよう構成されているため、不審者がカメラの撮像範囲に居てもカメラから離れた場所であれば撮像されること自体無いため、防犯には不十分であった。
そのため、本発明者等は画像処理により、然も演算量を極力少なくした画像処理により動く物体を検出する技術を特許文献1で提案した。
In recent years, with the increase and sophistication of crime, the demand for security cameras with high security functions is increasing even in ordinary households. Such a conventional security camera is configured so that the camera is activated and starts imaging when the human sensor senses, so that even if a suspicious person is in the imaging range of the camera, it may be located away from the camera. Since it was not captured, it was insufficient for crime prevention.
For this reason, the inventors of the present invention have proposed a technique for detecting a moving object by image processing with image processing reduced as much as possible by image processing.
この特許文献1の物体検出装置は、基準の画像フレームと所定数過去の画像フレームまでの同一部位の輝度の分散値を求める一方、基準の画像フレームと所定数未来の画像フレームまでの同一部位の輝度の分散値を求め、求めた分散値が所定の条件を満たしたら動状態、他を静状態と判断し、画像全体のピクセルの動状態・静状態を正規化して特徴量を抽出することで物体を検出した。
この画像処理により、カメラから離れた遠方に不審者等が存在する場合でも、演算するCPUに大きな負担をかけずに物体を検知することが可能となり、一般家庭に設置する防犯カメラへの適用を可能とした。
The object detection device of
This image processing makes it possible to detect an object without placing a heavy burden on the CPU to be calculated even when a suspicious person or the like is located far away from the camera, and can be applied to a security camera installed in a general household. It was possible.
しかしながら、赤外線照明を備えて夜間でも監視できる暗視カメラにこの技術を適用した場合、暗視中の雨は白い筋となって撮像されるため、ピクセル状態を判別する際、暗視カメラの近くで撮像された雨を人物等の動状態と誤判断する場合があった。
監視カメラによる監視は、夜間の監視が重要な場合が多く、このような誤動作は好ましくなかった。
However, when this technology is applied to a night vision camera equipped with infrared illumination that can be monitored even at night, rain during night vision is captured as white streaks, so when determining the pixel status, it is close to the night vision camera. In some cases, the rain picked up by the camera is erroneously determined as a moving state of a person or the like.
For monitoring by a surveillance camera, nighttime monitoring is often important, and such a malfunction is not preferable.
そこで、本発明はこのような問題点に鑑み、暗視カメラにより撮像した画像から物体を検知する場合でも、撮像映像に映り込んだ雨の筋が人物等の移動する物体と誤認識されることを削減した物体検出装置を提供することを目的としている。 Therefore, in view of such a problem, the present invention causes a rain streak reflected in a captured image to be erroneously recognized as a moving object such as a person even when an object is detected from an image captured by a night vision camera. The object of the present invention is to provide an object detection device that reduces the number of objects.
上記課題を解決する為に、請求項1の発明に係る物体検出装置は、カメラの撮像映像から時間軸上で連続する画像フレーム群を生成する画像フレーム群生成手段と、生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量を算出して分散値を演算する分散値算出手段と、求めた分散値と所定の閾値とを比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、算出した動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、分散値算出手段が、基準フレームから所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第1の分散値)と、基準フレームから所定数未来の画像フレームまでの輝度の変化量に基づく輝度の分散値(第2の分散値)と、基準フレーム直前の画像フレームから所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第3の分散値)と、更に基準フレーム直後の画像フレームから所定数未来の画像フレームまでの輝度変化量に基づく輝度の分散値(第4の分散値)とを算出する一方、ピクセル状態判定手段が、第1及び第2の分散値が閾値より大きく、且つ第3の分散値及び第4の分散値のうちの少なくとも一方が閾値より大きいピクセルを動状態と判断し、分散値がそれ以外の値のピクセルを静状態と判定することを特徴とする。
この構成によれば、基準フレームに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラで撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。
In order to solve the above problems, an object detection apparatus according to a first aspect of the present invention includes an image frame group generation unit that generates a group of image frames continuous on a time axis from a captured image of a camera, and a plurality of generated image frames Any image frame is used as a reference frame, and the variance value is calculated by calculating the amount of change in luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames. A dispersion value calculation means, a pixel state determination means for comparing the obtained dispersion value with a predetermined threshold value to determine a static state / motion state for each pixel, and a cell composed of a plurality of neighboring pixels are formed in a reference frame. A feature amount calculation means for creating a histogram composed of binary values of static state / motion state for each cell and normalizing the histogram to calculate a feature amount of motion; An object detection means for detecting the presence of a moving object from a strong classifier using a learning sample and a variance value calculating means for calculating a luminance value from a reference frame to a predetermined number of past image frames. A luminance variance value (first variance value) based on the change amount, a luminance variance value (second variance value) based on the luminance change amount from the reference frame to a predetermined number of future image frames, and the immediately preceding reference frame A luminance variance value (third variance value) based on a luminance change amount from a predetermined number of image frames to a predetermined number of past image frames, and a luminance change amount from an image frame immediately after the reference frame to a predetermined number of future image frames While the pixel state determination unit calculates the luminance variance value (fourth variance value) based on the first and second variance values, and the third variance value and the fourth variance value Out of At least one of determining the larger pixel than the threshold value and the dynamic state, the dispersion value and judging the pixels of other values and static state.
According to this configuration, even if rain or the like appears in the reference frame as white streaks, an image taken with a night vision camera is used to determine the presence of an object in consideration of past image data and future image data excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.
請求項2の発明に係る物体検出装置は、カメラの撮像映像から時間軸上で連続する画像フレーム群を生成する画像フレーム群生成手段と、生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量の最大値を算出する輝度算出手段と、求めた輝度の変化量の最大値と所定の閾値と比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、算出した動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、輝度算出手段が、基準フレームから所定数過去の画像フレームまでの輝度変化量の最大値(第1の最大輝度差)と、基準フレームから所定数未来の画像フレームまでの輝度の変化量の最大値(第2の最大輝度差)と、基準フレーム直前の画像フレームから所定数過去の画像フレームまでの輝度変量の最大値(第3の最大輝度差)と、基準フレーム直後の画像フレームから所定数未来の画像フレームまでの輝度変化量の最大値(第4の最大輝度差)とを算出する一方、ピクセル状態判定手段が、第1及び第2の最大輝度差が閾値より大きく、且つ第3の最大輝度差及び第4の最大輝度差のうちの少なくとも一方が閾値より大きいピクセルを動状態と判断し、最大輝度差がそれ以外の値のピクセルを静状態と判定することを特徴とする。
この構成によれば、基準フレームに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラで撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。
An object detection apparatus according to a second aspect of the present invention is an image frame group generation unit that generates a group of image frames continuous on a time axis from a captured image of a camera, and an arbitrary image frame among a plurality of generated image frames as a reference Luminance calculation means for calculating the maximum value of the change in luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames as a frame, and the obtained luminance change amount A pixel state determination unit that determines a static state / motion state for each pixel by comparing the maximum value of the pixel with a predetermined threshold value, and a cell composed of a plurality of neighboring pixels is formed in the reference frame to form a static state / motion for each cell. A feature amount calculating means for creating a histogram composed of binary values of states and normalizing the histogram to calculate a feature amount of motion; and a calculated feature amount of motion Object detection means for detecting the presence of a moving object from the strong classifier using the training sample, and the luminance calculation means has a maximum value of the luminance change amount from the reference frame to a predetermined number of past image frames (first Maximum luminance difference), the maximum luminance change amount from the reference frame to a predetermined number of future image frames (second maximum luminance difference), and the luminance from the image frame immediately before the reference frame to a predetermined number of past image frames. While calculating the maximum value of the variable (third maximum luminance difference) and the maximum value of the luminance change amount (fourth maximum luminance difference) from the image frame immediately after the reference frame to a predetermined number of future image frames, The state determination unit determines that a pixel in which the first and second maximum luminance differences are larger than a threshold and at least one of the third maximum luminance difference and the fourth maximum luminance difference is larger than the threshold is a moving state. Characterized in that the maximum luminance difference is determined for other values the pixels of the static state.
According to this configuration, even if rain or the like appears in the reference frame as white streaks, an image taken with a night vision camera is used to determine the presence of an object in consideration of past image data and future image data excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.
本発明によれば、基準フレームに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラで撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。 According to the present invention, even if rain or the like appears in the reference frame as white streaks, an image taken with a night vision camera is used to determine the presence of an object by taking into account past image data and future image data excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.
以下、本発明を具体化した実施の形態を、図面を参照して詳細に説明する。
<第1の形態>
図1は本発明に係る物体検出装置の第1の形態を示す機能構成図であり、カメラ1aが撮像した映像信号が入力され、所定の間隔で時間軸上で連続する画像から成る画像フレームを生成して出力する画像出力部1、任意の画像フレームを基準フレームとしてピクセル毎に輝度の時間変化量を抽出する時間変化抽出部2、ピクセル毎にフレーム間差分特徴となる特徴量を算出するフレーム間特徴抽出部3、学習サンプルと算出した特徴量から画像フレーム内の物体を検出する検出部4、検出結果を出力する結果出力部5を備えている。
尚、これら構成要素のうち、画像出力部1、時間変化抽出部2、フレーム間特徴抽出部3、検出部4が移動物体を検出する物体検出装置を構成し、CPU或いはDSPが所定のプログラムを実行することで実現される。また、結果出力部5を含む全体は例えばパーソナルコンピュータで実現できる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below in detail with reference to the drawings.
<First form>
FIG. 1 is a functional configuration diagram showing a first embodiment of an object detection apparatus according to the present invention, in which an image frame composed of continuous images on a time axis at a predetermined interval is inputted with a video signal captured by a
Of these components, the
以下、各部の動作を説明する。カメラ1aは、ここでは赤外線照明を備えて夜間でも監視できる暗視カメラ10が使用され、画像出力部1は暗視カメラ10の撮像映像が入力され、例えば0.03秒毎にデジタルデータから成る画像フレーム(静止画)を生成して出力する。
Hereinafter, the operation of each unit will be described. Here, the
時間変化抽出部2は、画像出力部1が出力した画像フレームの任意の画素(ピクセル)から、輝度の分散値Sを算出する。この演算は、最終的にフレーム内の全てのピクセルに対して実施される。
図2は、画像フレームと輝度の関係を示す画像フレーム群の説明図であり、基準フレームをKとして、基準フレームKの直前に出力された画像フレームである過去の画像フレームと、直後に出力される画像フレームである未来の画像フレームの関係を示している。そして、基準フレームKの任意の座標のピクセルの輝度をIkとし、個々の画像フレームの同一座標の輝度をIk(±n)で示している。以下、この図2を参照して説明する。
The time
FIG. 2 is an explanatory diagram of an image frame group showing the relationship between the image frame and the luminance. The reference frame is K, and the past image frame that is the image frame output immediately before the reference frame K and the image frame that is output immediately after the reference frame K are illustrated. The relationship of the future image frame which is an image frame is shown. The luminance of a pixel at an arbitrary coordinate in the reference frame K is denoted by Ik, and the luminance at the same coordinate in each image frame is denoted by Ik (± n). Hereinafter, a description will be given with reference to FIG.
ピクセルの輝度の分散値Sを求める演算は、基準フレームKからN個過去の画像フレームK−Nまでの第1分散値S1と、基準フレームKからN個未来の画像フレームK+Nまでの第2分散値S2と、直前の画像フレームK−1からN個過去の画像フレームK−Nまでの第3分散値S3と、直後の画像フレームK+1からN個未来の画像フレームK+Nまでの第4の分散値S4の4つの値が算出される。
数1はこの輝度の分散値Sの演算式を示し、代表して上述した第1の分散値S1を算出する式を示している。尚、数1においてjは1からnの整数である。
The calculation for obtaining the variance value S of the luminance of the pixels includes a first variance value S1 from the reference frame K to N past image frames K-N, and a second variance from the reference frame K to N future image frames K + N. A value S2, a third variance value S3 from the immediately preceding image frame K-1 to N past image frames KN, and a fourth variance value from the immediately following image frame K + 1 to N future image frames K + N. Four values of S4 are calculated.
次に、求めた各ピクセルの第1〜第4の分散値S1〜S4に対して閾値処理を行い、静状態/動状態を判定する。第1分散値S1及び第2分散値S2が予め設定された閾値以上であって、且つ第3分散値S3及び第4分散値S4の何れか一方が閾値以上あれば動状態と判定し、それ以外を静状態と判定する。
更に時間変化抽出部2は、こうしてピクセル毎に2値化した(2階調とした)輝度情報を出力する。
Next, threshold processing is performed on the obtained first to fourth variance values S1 to S4 of each pixel to determine a static state / moving state. If the first variance value S1 and the second variance value S2 are equal to or greater than a preset threshold value and one of the third variance value S3 and the fourth variance value S4 is equal to or greater than the threshold value, the moving state is determined. Is determined as a static state.
Further, the time
尚、閾値は予め設定された固定値であっても良いが、固定値の場合はカメラ1aの設置環境や明るさにより判定に大きなバラツキが発生するため、過去の画像フレームのピクセルの分散値を基に適切な値を決定するのが好ましい。
Note that the threshold value may be a fixed value set in advance, but in the case of a fixed value, the determination varies greatly depending on the installation environment and brightness of the
図3は、移動物体を抽出する演算の流れを画像で具体的に示す説明図であり、暗視カメラ10の撮像画像の基準フレームKに雨が白い筋となって映り込んだ状態を上記演算により削除した様子を具体的に示している。尚、ここでは移動物体を人としている。
中央の画像列M1が暗視カメラ10の撮像画像であり、基準フレームKを中心に4画像過去の画像フレームK−4から4画像未来の画像フレームK+4の画像フレームを示し、この間のピクセルの輝度情報から静状態/動状態を判定する流れを示している。
上段の画像列M2と下段の画像列M3は、ピクセル個々の分散値から求めた静状態/動状態を画像で示し、M2aは第1の分散値S1、M2bは第2の分散値S2、M3aは第3の分散値S3、M3bは第4の分散値S4に対応した画像である。
FIG. 3 is an explanatory diagram specifically showing the flow of calculation for extracting a moving object as an image. The above calculation shows a state in which rain appears as a white line on the reference frame K of the image captured by the
The center image row M1 is a captured image of the
The upper image row M2 and the lower image row M3 indicate the static state / moving state obtained from the variance value of each pixel as an image, M2a is the first variance value S1, and M2b is the second variance value S2, M3a. Is an image corresponding to the third dispersion value S3, and M3b is an image corresponding to the fourth dispersion value S4.
そして、画像M2cが第1の分散値S1から成る画像M2aと第2分散値S2から成る画像M2bをAND処理した結果を示し、画像M3cが第3の分散値S3から成る画像M3aと第4の分散値S4から成る画像M3bとのOR処理を行った結果を示している。
更に、画像M4が画像M2cと画像M3cとのAND処理結果を示している。尚、図4は基準フレームKの画像の拡大図、図5はM4画像の拡大図をそれぞれ示している。
The image M2c shows the result of ANDing the image M2a consisting of the first variance value S1 and the image M2b consisting of the second variance value S2, and the image M3c is the image M3a consisting of the third variance value S3 and the fourth The result of performing OR processing with the image M3b composed of the variance value S4 is shown.
Furthermore, the image M4 shows the AND processing result of the image M2c and the image M3c. 4 is an enlarged view of the image of the reference frame K, and FIG. 5 is an enlarged view of the M4 image.
こうして求めたピクセル毎の静状態/動状態の情報を基に、フレーム間特徴抽出部3において所定の演算を実施して特徴量が算出される。フレーム間特徴抽出部3は、隣接する複数のピクセルから成るセルを作成し、セル毎にピクセル毎の静状態/動状態のヒストグラムを作成し、このヒストグラムを隣接する複数のセルで形成したブロック単位で正規化して特徴量を算出する(詳述せず)。
尚、1セルは例えば5×5ピクセルで構成され、1ブロックは例えば3×3セルで構成される。
Based on the static state / moving state information for each pixel thus obtained, the inter-frame
One cell is composed of, for example, 5 × 5 pixels, and one block is composed of, for example, 3 × 3 cells.
検出部4では、人を検知するために人物と背景によってクラス分けされた学習サンプル、或いは車両を検知するために自転車や自動車等の車両と背景によってクラス分けされた学習サンプル等と、算出された上記特徴量を用いて学習された強識別器によって構成され、周知のアダブーストによるカスケード型識別器を用いて物体の検出を行う。この結果、人や車両等の移動する物体が検出されたら、物体の座標情報、領域情報等を含む物体検出信号が出力される。
The
結果出力部5は、検出部4が出力する物体検出信号を受けて警報を報音する報音部、検出した映像を表示するLCD等の映像表示部、外部に通報する通報部等を備え、検出部4が出力する座標情報等を受けて映像表示部では入力映像の表示に加えて、人を検出した検出ウィンドウ(図示せず)が表示される。
The
このように、基準フレームKに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラ10で撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。
In this way, even if rain or the like appears in the reference frame K as white streaks, the image taken by the
<第2の実施形態>
上記実施形態では、輝度の分散値を求めてピクセル毎の静状態/動状態を判定したが、ピクセル毎の輝度の変化量の最大値を基に静状態/動状態を判定しても良く、以下この形態を説明する。尚、物体検出装置の構成は上記図1の構成と同様であるため、説明を省略する。
以下、各部の動作を説明する。上記形態とは時間変化抽出部2の作用が大きく異なるため、この時間変化抽出部2の作用を中心に説明する。
<Second Embodiment>
In the above embodiment, the luminance dispersion value is obtained to determine the static state / moving state for each pixel. However, the static state / moving state may be determined based on the maximum value of the luminance change amount for each pixel. This form will be described below. The configuration of the object detection apparatus is the same as that of FIG.
Hereinafter, the operation of each unit will be described. Since the operation of the time
時間変化抽出部2は、画像出力部1が出力した画像フレームの任意の画素(ピクセル)から、輝度の時間変化量を抽出する。この演算は、最終的にフレーム内の全てのピクセルに対して実施される。
上記図2に示すように基準フレームKに着目し、過去のN番目までの画像フレームの間、及び未来のN番目までの画像フレームの間で演算を実施し、輝度が急激に変化するピクセルの検出を行う。輝度が急激に変化するピクセルの検出は、基準フレームKを中心にNフレーム過去まで、及びNフレーム未来までの各フレームの間で実施する。
例えば、輝度Ik−nとIkとの間の輝度の変化量の最大値を変化量Tとすると、変化量Tは次の数2の演算式により算出される。尚、数2においてjは1からnの整数である。
The time
As shown in FIG. 2 above, paying attention to the reference frame K, the calculation is performed between the past N-th image frames and the future N-th image frames. Perform detection. The detection of pixels whose luminance changes rapidly is performed between the frames up to the past N frames centering on the reference frame K and the frames up to the future of the N frames.
For example, assuming that the maximum amount of change in luminance between the luminances Ik-n and Ik is the variation amount T, the variation amount T is calculated by the following equation (2). In
但し、ピクセルの輝度の変化量(変化量の最大値)Tの演算は、基準フレームKからN個過去の画像フレームK−Nまでの第1変化量)T1と、基準フレームKからN個未来の画像フレームK+Nまでの第2変化量T2と、直前の画像フレームK−1からN個過去の画像フレームK−Nまでの第3変化量T3と、直後の画像フレームK+1からN個未来の画像フレームK+Nまでの第4変化量T4の4つの値が算出される。 However, the pixel brightness change amount (maximum change amount) T is calculated from the reference frame K to the N previous image frames K-N (first change amount) T1, and from the reference frame K to the future N. The second change amount T2 from the previous image frame K + N, the third change amount T3 from the previous image frame K-1 to the N previous image frames K-N, and the next image frame K + 1 to the N future images. Four values of the fourth variation T4 up to the frame K + N are calculated.
次に、求めた各ピクセルの第1〜第4変化量T1〜T4に対して閾値処理を行い、静状態/動状態を判定する。第1変化量T1及び第2変化量T2が閾値以上であって、且つ第3変化量T3及び第4変化量T4の何れか一方が閾値以上あれば動状態と判定し、それ以外を静状態と判定する。
そして時間変化抽出部2は、こうしてピクセル毎に2値化した(2階調とした)輝度情報を出力する。
Next, threshold processing is performed on the obtained first to fourth change amounts T1 to T4 of each pixel to determine a static state / moving state. If the first change amount T1 and the second change amount T2 are equal to or greater than the threshold value and one of the third change amount T3 and the fourth change amount T4 is equal to or greater than the threshold value, the moving state is determined. Is determined.
Then, the time
尚、閾値は予め設定された固定値であっても良いが、固定値の場合はカメラ1aの設置環境や明るさにより判定に大きなバラツキが発生するため、過去の画像フレームのピクセルの輝度変化量を基に適切な値を決定するのが好ましい。
Note that the threshold value may be a fixed value set in advance, but in the case of a fixed value, the determination varies greatly depending on the installation environment and brightness of the
こうして求めたピクセル毎の静状態/動状態の情報を基に、フレーム間特徴抽出部3において所定の演算を実施して特徴量が算出される。フレーム間特徴抽出部3は、上記形態と同様に隣接する複数のピクセルから成るセルを作成し、セル毎にピクセル毎の静状態/動状態のヒストグラムを作成し、このヒストグラムを隣接する複数のセルで形成したブロック単位で正規化して特徴量を算出する(詳述せず)。
検出部4、結果出力部5の動作は上記形態と同様であり、検出部4ではアダブーストによるカスケード型識別器を用いた物体の検出が行われ、結果出力部5において検出した物体が検出ウィンドウ等で表示される。
Based on the static state / moving state information for each pixel thus obtained, the inter-frame
The operations of the
このように、基準フレームKに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラ10で撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。
In this way, even if rain or the like appears in the reference frame K as white streaks, the image taken by the
尚、上記実施形態では、映像信号の入手先を暗視カメラ10とし、赤外線による夜間撮影の場合を説明したが、上記本発明の技術は太陽光や夜間照明で撮像可能な通常の監視カメラ等に容易に適用できるものであり、図6は自然光による撮像画像から人物を検出する流れを示し、上記図3に対応させた画像を示している。
また、基準フレームKを中心に連続する画像フレームのデータを用いて演算しているが、例えば奇数フレームのデータのみといった不連続なデータを使用しても良く、一定の間隔のデータであれば使用できる。
更に、画像出力部1をカメラ1aと別体としているが、カメラ1aと一体に構成しても良いし、検出部4までの構成をカメラ1aと一体に構成しても良い。
In the above embodiment, the
In addition, the calculation is performed using data of image frames that are continuous with the reference frame K as the center, but discontinuous data such as only data of odd frames may be used. it can.
Furthermore, although the
1・・画像出力部(画像フレーム群生成手段)、1a・・カメラ、2・・時間変化抽出部(輝度算出手段、分散値算出手段、ピクセル状態判断手段)、3・・フレーム間特徴抽出部(特徴量算出手段)、4・・検出部(物体検出手段)、5・・結果出力部、10・・暗視カメラ、S・・輝度の分散値、T・・輝度の最大変化量。 1. Image output unit (image frame group generating unit), 1a, camera, 2. Time change extracting unit (luminance calculating unit, variance value calculating unit, pixel state determining unit), 3. Inter-frame feature extracting unit (Characteristic amount calculation means), 4 .... detection unit (object detection means), 5..result output unit, 10..night vision camera, S..luminance dispersion value, T..maximum change amount of luminance.
Claims (2)
生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量を算出して分散値を演算する分散値算出手段と、
求めた前記分散値と所定の閾値とを比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、
前記基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に前記静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、
算出した前記動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、
前記分散値算出手段が、前記基準フレームから所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第1の分散値)と、
前記基準フレームから所定数未来の画像フレームまでの輝度の変化量に基づく輝度の分散値(第2の分散値)と、
前記基準フレーム直前の画像フレームから前記所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第3の分散値)と、
更に前記基準フレーム直後の画像フレームから前記所定数未来の画像フレームまでの輝度変化量に基づく輝度の分散値(第4の分散値)とを算出する一方、
前記ピクセル状態判定手段が、前記第1及び前記第2の分散値が前記閾値より大きく、且つ前記第3の分散値及び前記第4の分散値のうちの少なくとも一方が前記閾値より大きいピクセルを動状態と判断し、分散値がそれ以外の値のピクセルを静状態と判定することを特徴とする物体検出装置。 Image frame group generation means for generating image frame groups continuous on the time axis from the captured image of the camera;
Using an arbitrary image frame among a plurality of generated image frames as a reference frame, the amount of change in luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames is calculated. Dispersion value calculating means for calculating the dispersion value
A pixel state determination unit that compares the obtained dispersion value with a predetermined threshold to determine a static state / motion state for each pixel;
In the reference frame, a cell composed of a plurality of neighboring pixels is formed, a histogram composed of binary values of the static state / moving state is generated for each cell, and the histogram is normalized to calculate a feature amount of motion A calculation means;
An object detection means for detecting the presence of an object moving from the strong classifier using the calculated feature quantity of the motion and the learning sample;
The variance value calculation means includes a luminance variance value (first variance value) based on a luminance change amount from the reference frame to a predetermined number of past image frames, and
A luminance variance value (second variance value) based on a luminance change amount from the reference frame to a predetermined number of future image frames;
A luminance variance value (third variance value) based on a luminance change amount from an image frame immediately before the reference frame to the predetermined number of past image frames;
Further, while calculating a luminance variance value (fourth variance value) based on the luminance change amount from the image frame immediately after the reference frame to the predetermined number of future image frames,
The pixel state determination unit moves a pixel in which the first and second variance values are larger than the threshold value and at least one of the third variance value and the fourth variance value is larger than the threshold value. An object detection apparatus characterized by determining a state and determining a pixel having a dispersion value other than that as a static state.
生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量の最大値を算出する輝度算出手段と、
求めた前記輝度の変化量の最大値と所定の閾値と比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、
前記基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に前記静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、
算出した前記動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、
前記輝度算出手段が、前記基準フレームから所定数過去の画像フレームまでの輝度変化量の最大値(第1の最大輝度差)と、
前記基準フレームから所定数未来の画像フレームまでの輝度の変化量の最大値(第2の最大輝度差)と、
前記基準フレーム直前の画像フレームから前記所定数過去の画像フレームまでの輝度変量の最大値(第3の最大輝度差)と、
前記基準フレーム直後の画像フレームから前記所定数未来の画像フレームまでの輝度変化量の最大値(第4の最大輝度差)とを算出する一方、
前記ピクセル状態判定手段が、前記第1及び前記第2の最大輝度差が前記閾値より大きく、且つ前記第3の最大輝度差及び前記第4の最大輝度差のうちの少なくとも一方が前記閾値より大きいピクセルを動状態と判断し、最大輝度差がそれ以外の値のピクセルを静状態と判定することを特徴とする物体検出装置。 Image frame group generation means for generating image frame groups continuous on the time axis from the captured image of the camera;
The maximum value of the amount of change in the luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames from any of the generated image frames as a reference frame Brightness calculating means for calculating
A pixel state determination unit that determines a static state / moving state for each pixel by comparing the obtained maximum value of the amount of change in luminance with a predetermined threshold;
In the reference frame, a cell composed of a plurality of neighboring pixels is formed, a histogram composed of binary values of the static state / moving state is generated for each cell, and the histogram is normalized to calculate a feature amount of motion A calculation means;
An object detection means for detecting the presence of an object moving from the strong classifier using the calculated feature quantity of the motion and the learning sample;
The luminance calculation means, a maximum value of the luminance change amount from the reference frame to a predetermined number of past image frames (first maximum luminance difference),
A maximum value of the amount of change in luminance from the reference frame to a predetermined number of future image frames (second maximum luminance difference);
A maximum value of the luminance variable (third maximum luminance difference) from the image frame immediately before the reference frame to the predetermined number of past image frames;
While calculating the maximum value (fourth maximum luminance difference) of the luminance change amount from the image frame immediately after the reference frame to the predetermined number of future image frames,
The pixel state determining means has the first and second maximum luminance differences larger than the threshold, and at least one of the third maximum luminance difference and the fourth maximum luminance difference is larger than the threshold. An object detection apparatus characterized in that a pixel is determined to be in a moving state, and a pixel having a value other than the maximum luminance difference is determined to be a static state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014033155A JP6214426B2 (en) | 2014-02-24 | 2014-02-24 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014033155A JP6214426B2 (en) | 2014-02-24 | 2014-02-24 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015158796A true JP2015158796A (en) | 2015-09-03 |
JP6214426B2 JP6214426B2 (en) | 2017-10-18 |
Family
ID=54182742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014033155A Active JP6214426B2 (en) | 2014-02-24 | 2014-02-24 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6214426B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874949A (en) * | 2017-02-10 | 2017-06-20 | 华中科技大学 | A kind of moving platform moving target detecting method and system based on infrared image |
CN107137090A (en) * | 2017-05-24 | 2017-09-08 | 深圳先进技术研究院 | A kind of tumble recognition methods and device, user equipment |
CN110191324A (en) * | 2019-06-28 | 2019-08-30 | Oppo广东移动通信有限公司 | Image processing method, device, server and storage medium |
CN111966546A (en) * | 2020-08-09 | 2020-11-20 | 合肥奕斯伟集成电路有限公司 | Control method and control device for detecting graphic card and display device |
CN112786163A (en) * | 2020-12-31 | 2021-05-11 | 北京小白世纪网络科技有限公司 | Ultrasonic image processing and displaying method and system and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005267510A (en) * | 2004-03-22 | 2005-09-29 | Secom Co Ltd | Image processing device, image processing method, and intruder detection system |
JP2006018658A (en) * | 2004-07-02 | 2006-01-19 | Mitsubishi Electric Corp | Image processor and image monitoring system using this image processor |
JP2009163498A (en) * | 2008-01-07 | 2009-07-23 | Mitsubishi Electric Corp | Image processor, image processing method, and image processing program |
JP2013190943A (en) * | 2012-03-13 | 2013-09-26 | Aiphone Co Ltd | Object detector and intercom system |
-
2014
- 2014-02-24 JP JP2014033155A patent/JP6214426B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005267510A (en) * | 2004-03-22 | 2005-09-29 | Secom Co Ltd | Image processing device, image processing method, and intruder detection system |
JP2006018658A (en) * | 2004-07-02 | 2006-01-19 | Mitsubishi Electric Corp | Image processor and image monitoring system using this image processor |
JP2009163498A (en) * | 2008-01-07 | 2009-07-23 | Mitsubishi Electric Corp | Image processor, image processing method, and image processing program |
JP2013190943A (en) * | 2012-03-13 | 2013-09-26 | Aiphone Co Ltd | Object detector and intercom system |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874949A (en) * | 2017-02-10 | 2017-06-20 | 华中科技大学 | A kind of moving platform moving target detecting method and system based on infrared image |
CN106874949B (en) * | 2017-02-10 | 2019-10-11 | 华中科技大学 | Movement imaging platform moving target detecting method and system based on infrared image |
CN107137090A (en) * | 2017-05-24 | 2017-09-08 | 深圳先进技术研究院 | A kind of tumble recognition methods and device, user equipment |
CN110191324A (en) * | 2019-06-28 | 2019-08-30 | Oppo广东移动通信有限公司 | Image processing method, device, server and storage medium |
CN111966546A (en) * | 2020-08-09 | 2020-11-20 | 合肥奕斯伟集成电路有限公司 | Control method and control device for detecting graphic card and display device |
CN111966546B (en) * | 2020-08-09 | 2022-07-12 | 合肥奕斯伟集成电路有限公司 | Control method and control device for detecting graphic card and display device |
CN112786163A (en) * | 2020-12-31 | 2021-05-11 | 北京小白世纪网络科技有限公司 | Ultrasonic image processing and displaying method and system and storage medium |
CN112786163B (en) * | 2020-12-31 | 2023-10-24 | 北京小白世纪网络科技有限公司 | Ultrasonic image processing display method, system and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6214426B2 (en) | 2017-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5518359B2 (en) | Smoke detector | |
CN102348128B (en) | Surveillance camera system having camera malfunction detection function | |
US7982774B2 (en) | Image processing apparatus and image processing method | |
JP6214426B2 (en) | Object detection device | |
Hu et al. | Robust real-time ship detection and tracking for visual surveillance of cage aquaculture | |
US10032283B2 (en) | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene | |
US10713798B2 (en) | Low-complexity motion detection based on image edges | |
JP6764481B2 (en) | Monitoring device | |
JP4811653B2 (en) | Object detection device | |
CN107948465A (en) | A kind of method and apparatus for detecting camera and being disturbed | |
JP4533836B2 (en) | Fluctuating region detection apparatus and method | |
US9489737B2 (en) | Object detection apparatus and method | |
CN111783665A (en) | Action recognition method and device, storage medium and electronic equipment | |
KR101620989B1 (en) | Method of detecting fire automatically from video including night images and system for performing the same | |
JP7074174B2 (en) | Discriminator learning device, discriminator learning method and computer program | |
JP3134845B2 (en) | Apparatus and method for extracting object in moving image | |
JP5142416B2 (en) | Object detection device | |
JP5710230B2 (en) | Monitoring system and monitoring method | |
JP6399122B2 (en) | Face detection apparatus and control method thereof | |
JP5864230B2 (en) | Object detection device | |
JP6124739B2 (en) | Image sensor | |
JP2015158795A (en) | Object detection device | |
JP6244221B2 (en) | Human detection device | |
JP6482892B2 (en) | Monitoring system | |
WO2019082474A1 (en) | Three-dimensional intrusion detection system and three-dimensional intrusion detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6214426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |