JP2015158796A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2015158796A
JP2015158796A JP2014033155A JP2014033155A JP2015158796A JP 2015158796 A JP2015158796 A JP 2015158796A JP 2014033155 A JP2014033155 A JP 2014033155A JP 2014033155 A JP2014033155 A JP 2014033155A JP 2015158796 A JP2015158796 A JP 2015158796A
Authority
JP
Japan
Prior art keywords
image
luminance
value
pixel
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014033155A
Other languages
Japanese (ja)
Other versions
JP6214426B2 (en
Inventor
憲一 小川
Kenichi Ogawa
憲一 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aiphone Co Ltd
Original Assignee
Aiphone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aiphone Co Ltd filed Critical Aiphone Co Ltd
Priority to JP2014033155A priority Critical patent/JP6214426B2/en
Publication of JP2015158796A publication Critical patent/JP2015158796A/en
Application granted granted Critical
Publication of JP6214426B2 publication Critical patent/JP6214426B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device which suppresses rain streaks reflected in an imaged video from being erroneously recognized as a moving object such as a person even when an object is detected from an image captured by an infrared camera.SOLUTION: A temporal change extraction part 2 calculates a luminance dispersion value S1 (image M2a) from a reference frame K to a past frame K-N, a luminance dispersion value S2 (image M2b) from the reference frame K to a future image frame K+N, a luminance dispersion value S3 (image M3a) from an image frame K-1 to a past image frame K-N, and a luminance dispersion value S4 (image M3b) from an image frame K+1 to a future image frame K+N. Pixel state determination means determines that a pixel with S1 and S2 larger than a threshold and S3 or S4 larger than the threshold is in the dynamic state and other pixels are in the static state. An inter-frame feature extraction part 3 calculates the feature quantity. A detection part 4 detects an object by a cascade discriminator by AdaBoost.

Description

本発明は、カメラの撮像映像から物体を検出する物体検出装置に関する。   The present invention relates to an object detection device that detects an object from a captured image of a camera.

近年、犯罪の増加や高度化により、一般家庭などでも防犯機能の高い防犯カメラの需要が高まっている。従来のこのような防犯カメラは、人感センサが感知動作したらカメラが起動して撮像を開始するよう構成されているため、不審者がカメラの撮像範囲に居てもカメラから離れた場所であれば撮像されること自体無いため、防犯には不十分であった。
そのため、本発明者等は画像処理により、然も演算量を極力少なくした画像処理により動く物体を検出する技術を特許文献1で提案した。
In recent years, with the increase and sophistication of crime, the demand for security cameras with high security functions is increasing even in ordinary households. Such a conventional security camera is configured so that the camera is activated and starts imaging when the human sensor senses, so that even if a suspicious person is in the imaging range of the camera, it may be located away from the camera. Since it was not captured, it was insufficient for crime prevention.
For this reason, the inventors of the present invention have proposed a technique for detecting a moving object by image processing with image processing reduced as much as possible by image processing.

この特許文献1の物体検出装置は、基準の画像フレームと所定数過去の画像フレームまでの同一部位の輝度の分散値を求める一方、基準の画像フレームと所定数未来の画像フレームまでの同一部位の輝度の分散値を求め、求めた分散値が所定の条件を満たしたら動状態、他を静状態と判断し、画像全体のピクセルの動状態・静状態を正規化して特徴量を抽出することで物体を検出した。
この画像処理により、カメラから離れた遠方に不審者等が存在する場合でも、演算するCPUに大きな負担をかけずに物体を検知することが可能となり、一般家庭に設置する防犯カメラへの適用を可能とした。
The object detection device of Patent Document 1 calculates the variance value of the luminance of the same part up to a reference image frame and a predetermined number of past image frames, while calculating the variance value of the same part up to a reference image frame and a predetermined number of future image frames. By calculating the variance value of the brightness, if the calculated variance value satisfies a predetermined condition, it is determined that the moving state and others are static states, and the moving amount / static state of the pixels of the entire image is normalized to extract the feature amount. An object was detected.
This image processing makes it possible to detect an object without placing a heavy burden on the CPU to be calculated even when a suspicious person or the like is located far away from the camera, and can be applied to a security camera installed in a general household. It was possible.

特開2013−190943号公報JP 2013-190943 A

しかしながら、赤外線照明を備えて夜間でも監視できる暗視カメラにこの技術を適用した場合、暗視中の雨は白い筋となって撮像されるため、ピクセル状態を判別する際、暗視カメラの近くで撮像された雨を人物等の動状態と誤判断する場合があった。
監視カメラによる監視は、夜間の監視が重要な場合が多く、このような誤動作は好ましくなかった。
However, when this technology is applied to a night vision camera equipped with infrared illumination that can be monitored even at night, rain during night vision is captured as white streaks, so when determining the pixel status, it is close to the night vision camera. In some cases, the rain picked up by the camera is erroneously determined as a moving state of a person or the like.
For monitoring by a surveillance camera, nighttime monitoring is often important, and such a malfunction is not preferable.

そこで、本発明はこのような問題点に鑑み、暗視カメラにより撮像した画像から物体を検知する場合でも、撮像映像に映り込んだ雨の筋が人物等の移動する物体と誤認識されることを削減した物体検出装置を提供することを目的としている。   Therefore, in view of such a problem, the present invention causes a rain streak reflected in a captured image to be erroneously recognized as a moving object such as a person even when an object is detected from an image captured by a night vision camera. The object of the present invention is to provide an object detection device that reduces the number of objects.

上記課題を解決する為に、請求項1の発明に係る物体検出装置は、カメラの撮像映像から時間軸上で連続する画像フレーム群を生成する画像フレーム群生成手段と、生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量を算出して分散値を演算する分散値算出手段と、求めた分散値と所定の閾値とを比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、算出した動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、分散値算出手段が、基準フレームから所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第1の分散値)と、基準フレームから所定数未来の画像フレームまでの輝度の変化量に基づく輝度の分散値(第2の分散値)と、基準フレーム直前の画像フレームから所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第3の分散値)と、更に基準フレーム直後の画像フレームから所定数未来の画像フレームまでの輝度変化量に基づく輝度の分散値(第4の分散値)とを算出する一方、ピクセル状態判定手段が、第1及び第2の分散値が閾値より大きく、且つ第3の分散値及び第4の分散値のうちの少なくとも一方が閾値より大きいピクセルを動状態と判断し、分散値がそれ以外の値のピクセルを静状態と判定することを特徴とする。
この構成によれば、基準フレームに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラで撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。
In order to solve the above problems, an object detection apparatus according to a first aspect of the present invention includes an image frame group generation unit that generates a group of image frames continuous on a time axis from a captured image of a camera, and a plurality of generated image frames Any image frame is used as a reference frame, and the variance value is calculated by calculating the amount of change in luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames. A dispersion value calculation means, a pixel state determination means for comparing the obtained dispersion value with a predetermined threshold value to determine a static state / motion state for each pixel, and a cell composed of a plurality of neighboring pixels are formed in a reference frame. A feature amount calculation means for creating a histogram composed of binary values of static state / motion state for each cell and normalizing the histogram to calculate a feature amount of motion; An object detection means for detecting the presence of a moving object from a strong classifier using a learning sample and a variance value calculating means for calculating a luminance value from a reference frame to a predetermined number of past image frames. A luminance variance value (first variance value) based on the change amount, a luminance variance value (second variance value) based on the luminance change amount from the reference frame to a predetermined number of future image frames, and the immediately preceding reference frame A luminance variance value (third variance value) based on a luminance change amount from a predetermined number of image frames to a predetermined number of past image frames, and a luminance change amount from an image frame immediately after the reference frame to a predetermined number of future image frames While the pixel state determination unit calculates the luminance variance value (fourth variance value) based on the first and second variance values, and the third variance value and the fourth variance value Out of At least one of determining the larger pixel than the threshold value and the dynamic state, the dispersion value and judging the pixels of other values and static state.
According to this configuration, even if rain or the like appears in the reference frame as white streaks, an image taken with a night vision camera is used to determine the presence of an object in consideration of past image data and future image data excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.

請求項2の発明に係る物体検出装置は、カメラの撮像映像から時間軸上で連続する画像フレーム群を生成する画像フレーム群生成手段と、生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量の最大値を算出する輝度算出手段と、求めた輝度の変化量の最大値と所定の閾値と比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、算出した動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、輝度算出手段が、基準フレームから所定数過去の画像フレームまでの輝度変化量の最大値(第1の最大輝度差)と、基準フレームから所定数未来の画像フレームまでの輝度の変化量の最大値(第2の最大輝度差)と、基準フレーム直前の画像フレームから所定数過去の画像フレームまでの輝度変量の最大値(第3の最大輝度差)と、基準フレーム直後の画像フレームから所定数未来の画像フレームまでの輝度変化量の最大値(第4の最大輝度差)とを算出する一方、ピクセル状態判定手段が、第1及び第2の最大輝度差が閾値より大きく、且つ第3の最大輝度差及び第4の最大輝度差のうちの少なくとも一方が閾値より大きいピクセルを動状態と判断し、最大輝度差がそれ以外の値のピクセルを静状態と判定することを特徴とする。
この構成によれば、基準フレームに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラで撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。
An object detection apparatus according to a second aspect of the present invention is an image frame group generation unit that generates a group of image frames continuous on a time axis from a captured image of a camera, and an arbitrary image frame among a plurality of generated image frames as a reference Luminance calculation means for calculating the maximum value of the change in luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames as a frame, and the obtained luminance change amount A pixel state determination unit that determines a static state / motion state for each pixel by comparing the maximum value of the pixel with a predetermined threshold value, and a cell composed of a plurality of neighboring pixels is formed in the reference frame to form a static state / motion for each cell. A feature amount calculating means for creating a histogram composed of binary values of states and normalizing the histogram to calculate a feature amount of motion; and a calculated feature amount of motion Object detection means for detecting the presence of a moving object from the strong classifier using the training sample, and the luminance calculation means has a maximum value of the luminance change amount from the reference frame to a predetermined number of past image frames (first Maximum luminance difference), the maximum luminance change amount from the reference frame to a predetermined number of future image frames (second maximum luminance difference), and the luminance from the image frame immediately before the reference frame to a predetermined number of past image frames. While calculating the maximum value of the variable (third maximum luminance difference) and the maximum value of the luminance change amount (fourth maximum luminance difference) from the image frame immediately after the reference frame to a predetermined number of future image frames, The state determination unit determines that a pixel in which the first and second maximum luminance differences are larger than a threshold and at least one of the third maximum luminance difference and the fourth maximum luminance difference is larger than the threshold is a moving state. Characterized in that the maximum luminance difference is determined for other values the pixels of the static state.
According to this configuration, even if rain or the like appears in the reference frame as white streaks, an image taken with a night vision camera is used to determine the presence of an object in consideration of past image data and future image data excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.

本発明によれば、基準フレームに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラで撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。   According to the present invention, even if rain or the like appears in the reference frame as white streaks, an image taken with a night vision camera is used to determine the presence of an object by taking into account past image data and future image data excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.

本発明に係る物体検出装置の一例を示す機能構成図である。It is a functional lineblock diagram showing an example of an object detection device concerning the present invention. 画像フレームと輝度の関係を示す画像フレーム群の説明図である。It is explanatory drawing of the image frame group which shows the relationship between an image frame and a brightness | luminance. 移動物体を検出する演算の流れを画像で示す説明図であり、暗視カメラに雨が白い線で撮像された場合を示している。It is explanatory drawing which shows the flow of the calculation which detects a moving object in an image, and has shown the case where rain is imaged with the night vision camera with the white line. 図3における基準フレームの拡大図である。FIG. 4 is an enlarged view of a reference frame in FIG. 3. 図3におけるM4画像の拡大図である。FIG. 4 is an enlarged view of an M4 image in FIG. 3. 図3に対応する説明図であり、自然光で撮像された人の検出を示している。It is explanatory drawing corresponding to FIG. 3, and has shown the detection of the person imaged with natural light.

以下、本発明を具体化した実施の形態を、図面を参照して詳細に説明する。
<第1の形態>
図1は本発明に係る物体検出装置の第1の形態を示す機能構成図であり、カメラ1aが撮像した映像信号が入力され、所定の間隔で時間軸上で連続する画像から成る画像フレームを生成して出力する画像出力部1、任意の画像フレームを基準フレームとしてピクセル毎に輝度の時間変化量を抽出する時間変化抽出部2、ピクセル毎にフレーム間差分特徴となる特徴量を算出するフレーム間特徴抽出部3、学習サンプルと算出した特徴量から画像フレーム内の物体を検出する検出部4、検出結果を出力する結果出力部5を備えている。
尚、これら構成要素のうち、画像出力部1、時間変化抽出部2、フレーム間特徴抽出部3、検出部4が移動物体を検出する物体検出装置を構成し、CPU或いはDSPが所定のプログラムを実行することで実現される。また、結果出力部5を含む全体は例えばパーソナルコンピュータで実現できる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below in detail with reference to the drawings.
<First form>
FIG. 1 is a functional configuration diagram showing a first embodiment of an object detection apparatus according to the present invention, in which an image frame composed of continuous images on a time axis at a predetermined interval is inputted with a video signal captured by a camera 1a. An image output unit 1 that generates and outputs, a time change extraction unit 2 that extracts a time change amount of luminance for each pixel using an arbitrary image frame as a reference frame, and a frame that calculates a feature amount that becomes a difference feature between frames for each pixel An inter-feature extraction unit 3, a detection unit 4 that detects an object in the image frame from the learning sample and the calculated feature amount, and a result output unit 5 that outputs a detection result are provided.
Of these components, the image output unit 1, the time change extraction unit 2, the interframe feature extraction unit 3, and the detection unit 4 constitute an object detection device that detects a moving object, and the CPU or DSP executes a predetermined program. It is realized by executing. The whole including the result output unit 5 can be realized by a personal computer, for example.

以下、各部の動作を説明する。カメラ1aは、ここでは赤外線照明を備えて夜間でも監視できる暗視カメラ10が使用され、画像出力部1は暗視カメラ10の撮像映像が入力され、例えば0.03秒毎にデジタルデータから成る画像フレーム(静止画)を生成して出力する。   Hereinafter, the operation of each unit will be described. Here, the night vision camera 10 that is equipped with infrared illumination and can be monitored at night is used as the camera 1a, and the image output unit 1 receives an image captured by the night vision camera 10, and is composed of digital data every 0.03 seconds, for example. Generate and output an image frame (still image).

時間変化抽出部2は、画像出力部1が出力した画像フレームの任意の画素(ピクセル)から、輝度の分散値Sを算出する。この演算は、最終的にフレーム内の全てのピクセルに対して実施される。
図2は、画像フレームと輝度の関係を示す画像フレーム群の説明図であり、基準フレームをKとして、基準フレームKの直前に出力された画像フレームである過去の画像フレームと、直後に出力される画像フレームである未来の画像フレームの関係を示している。そして、基準フレームKの任意の座標のピクセルの輝度をIkとし、個々の画像フレームの同一座標の輝度をIk(±n)で示している。以下、この図2を参照して説明する。
The time change extraction unit 2 calculates a luminance dispersion value S from an arbitrary pixel of the image frame output by the image output unit 1. This operation is finally performed on all pixels in the frame.
FIG. 2 is an explanatory diagram of an image frame group showing the relationship between the image frame and the luminance. The reference frame is K, and the past image frame that is the image frame output immediately before the reference frame K and the image frame that is output immediately after the reference frame K are illustrated. The relationship of the future image frame which is an image frame is shown. The luminance of a pixel at an arbitrary coordinate in the reference frame K is denoted by Ik, and the luminance at the same coordinate in each image frame is denoted by Ik (± n). Hereinafter, a description will be given with reference to FIG.

ピクセルの輝度の分散値Sを求める演算は、基準フレームKからN個過去の画像フレームK−Nまでの第1分散値S1と、基準フレームKからN個未来の画像フレームK+Nまでの第2分散値S2と、直前の画像フレームK−1からN個過去の画像フレームK−Nまでの第3分散値S3と、直後の画像フレームK+1からN個未来の画像フレームK+Nまでの第4の分散値S4の4つの値が算出される。
数1はこの輝度の分散値Sの演算式を示し、代表して上述した第1の分散値S1を算出する式を示している。尚、数1においてjは1からnの整数である。
The calculation for obtaining the variance value S of the luminance of the pixels includes a first variance value S1 from the reference frame K to N past image frames K-N, and a second variance from the reference frame K to N future image frames K + N. A value S2, a third variance value S3 from the immediately preceding image frame K-1 to N past image frames KN, and a fourth variance value from the immediately following image frame K + 1 to N future image frames K + N. Four values of S4 are calculated.
Equation 1 shows an arithmetic expression for the luminance dispersion value S, and represents an expression for calculating the above-described first dispersion value S1 as a representative. In Equation 1, j is an integer from 1 to n.

Figure 2015158796
Figure 2015158796

次に、求めた各ピクセルの第1〜第4の分散値S1〜S4に対して閾値処理を行い、静状態/動状態を判定する。第1分散値S1及び第2分散値S2が予め設定された閾値以上であって、且つ第3分散値S3及び第4分散値S4の何れか一方が閾値以上あれば動状態と判定し、それ以外を静状態と判定する。
更に時間変化抽出部2は、こうしてピクセル毎に2値化した(2階調とした)輝度情報を出力する。
Next, threshold processing is performed on the obtained first to fourth variance values S1 to S4 of each pixel to determine a static state / moving state. If the first variance value S1 and the second variance value S2 are equal to or greater than a preset threshold value and one of the third variance value S3 and the fourth variance value S4 is equal to or greater than the threshold value, the moving state is determined. Is determined as a static state.
Further, the time change extraction unit 2 outputs luminance information binarized (two gradations) for each pixel in this way.

尚、閾値は予め設定された固定値であっても良いが、固定値の場合はカメラ1aの設置環境や明るさにより判定に大きなバラツキが発生するため、過去の画像フレームのピクセルの分散値を基に適切な値を決定するのが好ましい。  Note that the threshold value may be a fixed value set in advance, but in the case of a fixed value, the determination varies greatly depending on the installation environment and brightness of the camera 1a. It is preferable to determine an appropriate value based on the group.

図3は、移動物体を抽出する演算の流れを画像で具体的に示す説明図であり、暗視カメラ10の撮像画像の基準フレームKに雨が白い筋となって映り込んだ状態を上記演算により削除した様子を具体的に示している。尚、ここでは移動物体を人としている。
中央の画像列M1が暗視カメラ10の撮像画像であり、基準フレームKを中心に4画像過去の画像フレームK−4から4画像未来の画像フレームK+4の画像フレームを示し、この間のピクセルの輝度情報から静状態/動状態を判定する流れを示している。
上段の画像列M2と下段の画像列M3は、ピクセル個々の分散値から求めた静状態/動状態を画像で示し、M2aは第1の分散値S1、M2bは第2の分散値S2、M3aは第3の分散値S3、M3bは第4の分散値S4に対応した画像である。
FIG. 3 is an explanatory diagram specifically showing the flow of calculation for extracting a moving object as an image. The above calculation shows a state in which rain appears as a white line on the reference frame K of the image captured by the night vision camera 10. The state of being deleted is specifically shown. Here, the moving object is a person.
The center image row M1 is a captured image of the night vision camera 10, and shows the image frames from the past image frame K-4 to the future image frame K + 4 of the four images centering on the reference frame K, and the luminance of the pixels in the meantime The flow which determines a static state / dynamic state from information is shown.
The upper image row M2 and the lower image row M3 indicate the static state / moving state obtained from the variance value of each pixel as an image, M2a is the first variance value S1, and M2b is the second variance value S2, M3a. Is an image corresponding to the third dispersion value S3, and M3b is an image corresponding to the fourth dispersion value S4.

そして、画像M2cが第1の分散値S1から成る画像M2aと第2分散値S2から成る画像M2bをAND処理した結果を示し、画像M3cが第3の分散値S3から成る画像M3aと第4の分散値S4から成る画像M3bとのOR処理を行った結果を示している。
更に、画像M4が画像M2cと画像M3cとのAND処理結果を示している。尚、図4は基準フレームKの画像の拡大図、図5はM4画像の拡大図をそれぞれ示している。
The image M2c shows the result of ANDing the image M2a consisting of the first variance value S1 and the image M2b consisting of the second variance value S2, and the image M3c is the image M3a consisting of the third variance value S3 and the fourth The result of performing OR processing with the image M3b composed of the variance value S4 is shown.
Furthermore, the image M4 shows the AND processing result of the image M2c and the image M3c. 4 is an enlarged view of the image of the reference frame K, and FIG. 5 is an enlarged view of the M4 image.

こうして求めたピクセル毎の静状態/動状態の情報を基に、フレーム間特徴抽出部3において所定の演算を実施して特徴量が算出される。フレーム間特徴抽出部3は、隣接する複数のピクセルから成るセルを作成し、セル毎にピクセル毎の静状態/動状態のヒストグラムを作成し、このヒストグラムを隣接する複数のセルで形成したブロック単位で正規化して特徴量を算出する(詳述せず)。
尚、1セルは例えば5×5ピクセルで構成され、1ブロックは例えば3×3セルで構成される。
Based on the static state / moving state information for each pixel thus obtained, the inter-frame feature extraction unit 3 performs a predetermined calculation to calculate the feature amount. The inter-frame feature extraction unit 3 creates a cell composed of a plurality of adjacent pixels, creates a static / moving state histogram for each pixel for each cell, and forms the histogram by a plurality of adjacent cells. To calculate the feature amount (not detailed).
One cell is composed of, for example, 5 × 5 pixels, and one block is composed of, for example, 3 × 3 cells.

検出部4では、人を検知するために人物と背景によってクラス分けされた学習サンプル、或いは車両を検知するために自転車や自動車等の車両と背景によってクラス分けされた学習サンプル等と、算出された上記特徴量を用いて学習された強識別器によって構成され、周知のアダブーストによるカスケード型識別器を用いて物体の検出を行う。この結果、人や車両等の移動する物体が検出されたら、物体の座標情報、領域情報等を含む物体検出信号が出力される。   The detection unit 4 calculates a learning sample classified according to a person and a background to detect a person, or a learning sample classified according to a vehicle such as a bicycle or an automobile and a background to detect a vehicle. The object is detected by using a well-known cascade booster that is composed of a strong classifier that has been learned using the feature amount. As a result, when a moving object such as a person or a vehicle is detected, an object detection signal including object coordinate information, region information, and the like is output.

結果出力部5は、検出部4が出力する物体検出信号を受けて警報を報音する報音部、検出した映像を表示するLCD等の映像表示部、外部に通報する通報部等を備え、検出部4が出力する座標情報等を受けて映像表示部では入力映像の表示に加えて、人を検出した検出ウィンドウ(図示せず)が表示される。   The result output unit 5 includes a sound report unit that receives an object detection signal output from the detection unit 4 and reports a warning, a video display unit such as an LCD that displays the detected video, a report unit that reports to the outside, and the like. In response to the coordinate information and the like output from the detection unit 4, the video display unit displays a detection window (not shown) for detecting a person in addition to displaying the input video.

このように、基準フレームKに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラ10で撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。   In this way, even if rain or the like appears in the reference frame K as white streaks, the image taken by the night vision camera 10 is used to determine the presence of the object in consideration of the data of the past image and the future image excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.

<第2の実施形態>
上記実施形態では、輝度の分散値を求めてピクセル毎の静状態/動状態を判定したが、ピクセル毎の輝度の変化量の最大値を基に静状態/動状態を判定しても良く、以下この形態を説明する。尚、物体検出装置の構成は上記図1の構成と同様であるため、説明を省略する。
以下、各部の動作を説明する。上記形態とは時間変化抽出部2の作用が大きく異なるため、この時間変化抽出部2の作用を中心に説明する。
<Second Embodiment>
In the above embodiment, the luminance dispersion value is obtained to determine the static state / moving state for each pixel. However, the static state / moving state may be determined based on the maximum value of the luminance change amount for each pixel. This form will be described below. The configuration of the object detection apparatus is the same as that of FIG.
Hereinafter, the operation of each unit will be described. Since the operation of the time change extraction unit 2 is greatly different from the above form, the operation of the time change extraction unit 2 will be mainly described.

時間変化抽出部2は、画像出力部1が出力した画像フレームの任意の画素(ピクセル)から、輝度の時間変化量を抽出する。この演算は、最終的にフレーム内の全てのピクセルに対して実施される。
上記図2に示すように基準フレームKに着目し、過去のN番目までの画像フレームの間、及び未来のN番目までの画像フレームの間で演算を実施し、輝度が急激に変化するピクセルの検出を行う。輝度が急激に変化するピクセルの検出は、基準フレームKを中心にNフレーム過去まで、及びNフレーム未来までの各フレームの間で実施する。
例えば、輝度Ik−nとIkとの間の輝度の変化量の最大値を変化量Tとすると、変化量Tは次の数2の演算式により算出される。尚、数2においてjは1からnの整数である。
The time change extraction unit 2 extracts a luminance time change amount from an arbitrary pixel of the image frame output by the image output unit 1. This operation is finally performed on all pixels in the frame.
As shown in FIG. 2 above, paying attention to the reference frame K, the calculation is performed between the past N-th image frames and the future N-th image frames. Perform detection. The detection of pixels whose luminance changes rapidly is performed between the frames up to the past N frames centering on the reference frame K and the frames up to the future of the N frames.
For example, assuming that the maximum amount of change in luminance between the luminances Ik-n and Ik is the variation amount T, the variation amount T is calculated by the following equation (2). In Equation 2, j is an integer from 1 to n.

Figure 2015158796
Figure 2015158796

但し、ピクセルの輝度の変化量(変化量の最大値)Tの演算は、基準フレームKからN個過去の画像フレームK−Nまでの第1変化量)T1と、基準フレームKからN個未来の画像フレームK+Nまでの第2変化量T2と、直前の画像フレームK−1からN個過去の画像フレームK−Nまでの第3変化量T3と、直後の画像フレームK+1からN個未来の画像フレームK+Nまでの第4変化量T4の4つの値が算出される。   However, the pixel brightness change amount (maximum change amount) T is calculated from the reference frame K to the N previous image frames K-N (first change amount) T1, and from the reference frame K to the future N. The second change amount T2 from the previous image frame K + N, the third change amount T3 from the previous image frame K-1 to the N previous image frames K-N, and the next image frame K + 1 to the N future images. Four values of the fourth variation T4 up to the frame K + N are calculated.

次に、求めた各ピクセルの第1〜第4変化量T1〜T4に対して閾値処理を行い、静状態/動状態を判定する。第1変化量T1及び第2変化量T2が閾値以上であって、且つ第3変化量T3及び第4変化量T4の何れか一方が閾値以上あれば動状態と判定し、それ以外を静状態と判定する。
そして時間変化抽出部2は、こうしてピクセル毎に2値化した(2階調とした)輝度情報を出力する。
Next, threshold processing is performed on the obtained first to fourth change amounts T1 to T4 of each pixel to determine a static state / moving state. If the first change amount T1 and the second change amount T2 are equal to or greater than the threshold value and one of the third change amount T3 and the fourth change amount T4 is equal to or greater than the threshold value, the moving state is determined. Is determined.
Then, the time change extraction unit 2 outputs luminance information binarized for each pixel (with two gradations).

尚、閾値は予め設定された固定値であっても良いが、固定値の場合はカメラ1aの設置環境や明るさにより判定に大きなバラツキが発生するため、過去の画像フレームのピクセルの輝度変化量を基に適切な値を決定するのが好ましい。  Note that the threshold value may be a fixed value set in advance, but in the case of a fixed value, the determination varies greatly depending on the installation environment and brightness of the camera 1a. It is preferable to determine an appropriate value based on the above.

こうして求めたピクセル毎の静状態/動状態の情報を基に、フレーム間特徴抽出部3において所定の演算を実施して特徴量が算出される。フレーム間特徴抽出部3は、上記形態と同様に隣接する複数のピクセルから成るセルを作成し、セル毎にピクセル毎の静状態/動状態のヒストグラムを作成し、このヒストグラムを隣接する複数のセルで形成したブロック単位で正規化して特徴量を算出する(詳述せず)。
検出部4、結果出力部5の動作は上記形態と同様であり、検出部4ではアダブーストによるカスケード型識別器を用いた物体の検出が行われ、結果出力部5において検出した物体が検出ウィンドウ等で表示される。
Based on the static state / moving state information for each pixel thus obtained, the inter-frame feature extraction unit 3 performs a predetermined calculation to calculate the feature amount. The inter-frame feature extraction unit 3 creates a cell composed of a plurality of adjacent pixels as in the above-described form, creates a static / moving state histogram for each pixel for each cell, and uses this histogram as a plurality of adjacent cells. The feature amount is calculated by normalization in units of blocks formed in (not detailed).
The operations of the detection unit 4 and the result output unit 5 are the same as those in the above embodiment, and the detection unit 4 detects an object using a cascade type discriminator by Adaboost, and the object detected by the result output unit 5 is a detection window or the like. Is displayed.

このように、基準フレームKに雨等が白い筋として映り込んでも、この画像を除外した過去画像及び未来画像のデータを加味して物体の存在を判定するため、暗視カメラ10で撮影した画像から物体を検知する場合であっても、雨による白い筋を人物等の移動物体と判断してしまう誤判断を削減できる。   In this way, even if rain or the like appears in the reference frame K as white streaks, the image taken by the night vision camera 10 is used to determine the presence of the object in consideration of the data of the past image and the future image excluding this image. Even when an object is detected from the image, it is possible to reduce misjudgment that a white line due to rain is determined as a moving object such as a person.

尚、上記実施形態では、映像信号の入手先を暗視カメラ10とし、赤外線による夜間撮影の場合を説明したが、上記本発明の技術は太陽光や夜間照明で撮像可能な通常の監視カメラ等に容易に適用できるものであり、図6は自然光による撮像画像から人物を検出する流れを示し、上記図3に対応させた画像を示している。
また、基準フレームKを中心に連続する画像フレームのデータを用いて演算しているが、例えば奇数フレームのデータのみといった不連続なデータを使用しても良く、一定の間隔のデータであれば使用できる。
更に、画像出力部1をカメラ1aと別体としているが、カメラ1aと一体に構成しても良いし、検出部4までの構成をカメラ1aと一体に構成しても良い。
In the above embodiment, the night vision camera 10 is used as the video signal acquisition source, but the technique of the present invention is a normal surveillance camera that can be imaged by sunlight or night illumination. FIG. 6 shows a flow of detecting a person from a captured image by natural light, and shows an image corresponding to FIG.
In addition, the calculation is performed using data of image frames that are continuous with the reference frame K as the center, but discontinuous data such as only data of odd frames may be used. it can.
Furthermore, although the image output unit 1 is separate from the camera 1a, the image output unit 1 may be integrated with the camera 1a, or the configuration up to the detection unit 4 may be integrated with the camera 1a.

1・・画像出力部(画像フレーム群生成手段)、1a・・カメラ、2・・時間変化抽出部(輝度算出手段、分散値算出手段、ピクセル状態判断手段)、3・・フレーム間特徴抽出部(特徴量算出手段)、4・・検出部(物体検出手段)、5・・結果出力部、10・・暗視カメラ、S・・輝度の分散値、T・・輝度の最大変化量。   1. Image output unit (image frame group generating unit), 1a, camera, 2. Time change extracting unit (luminance calculating unit, variance value calculating unit, pixel state determining unit), 3. Inter-frame feature extracting unit (Characteristic amount calculation means), 4 .... detection unit (object detection means), 5..result output unit, 10..night vision camera, S..luminance dispersion value, T..maximum change amount of luminance.

Claims (2)

カメラの撮像映像から時間軸上で連続する画像フレーム群を生成する画像フレーム群生成手段と、
生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量を算出して分散値を演算する分散値算出手段と、
求めた前記分散値と所定の閾値とを比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、
前記基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に前記静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、
算出した前記動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、
前記分散値算出手段が、前記基準フレームから所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第1の分散値)と、
前記基準フレームから所定数未来の画像フレームまでの輝度の変化量に基づく輝度の分散値(第2の分散値)と、
前記基準フレーム直前の画像フレームから前記所定数過去の画像フレームまでの輝度の変化量に基づく輝度の分散値(第3の分散値)と、
更に前記基準フレーム直後の画像フレームから前記所定数未来の画像フレームまでの輝度変化量に基づく輝度の分散値(第4の分散値)とを算出する一方、
前記ピクセル状態判定手段が、前記第1及び前記第2の分散値が前記閾値より大きく、且つ前記第3の分散値及び前記第4の分散値のうちの少なくとも一方が前記閾値より大きいピクセルを動状態と判断し、分散値がそれ以外の値のピクセルを静状態と判定することを特徴とする物体検出装置。
Image frame group generation means for generating image frame groups continuous on the time axis from the captured image of the camera;
Using an arbitrary image frame among a plurality of generated image frames as a reference frame, the amount of change in luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames is calculated. Dispersion value calculating means for calculating the dispersion value
A pixel state determination unit that compares the obtained dispersion value with a predetermined threshold to determine a static state / motion state for each pixel;
In the reference frame, a cell composed of a plurality of neighboring pixels is formed, a histogram composed of binary values of the static state / moving state is generated for each cell, and the histogram is normalized to calculate a feature amount of motion A calculation means;
An object detection means for detecting the presence of an object moving from the strong classifier using the calculated feature quantity of the motion and the learning sample;
The variance value calculation means includes a luminance variance value (first variance value) based on a luminance change amount from the reference frame to a predetermined number of past image frames, and
A luminance variance value (second variance value) based on a luminance change amount from the reference frame to a predetermined number of future image frames;
A luminance variance value (third variance value) based on a luminance change amount from an image frame immediately before the reference frame to the predetermined number of past image frames;
Further, while calculating a luminance variance value (fourth variance value) based on the luminance change amount from the image frame immediately after the reference frame to the predetermined number of future image frames,
The pixel state determination unit moves a pixel in which the first and second variance values are larger than the threshold value and at least one of the third variance value and the fourth variance value is larger than the threshold value. An object detection apparatus characterized by determining a state and determining a pixel having a dispersion value other than that as a static state.
カメラの撮像映像から時間軸上で連続する画像フレーム群を生成する画像フレーム群生成手段と、
生成した複数の画像フレームのうち任意の画像フレームを基準フレームとして、当該基準フレームから所定数過去の画像フレームまで或いは所定数未来の画像フレームまでのピクセル毎の同一部位の輝度の変化量の最大値を算出する輝度算出手段と、
求めた前記輝度の変化量の最大値と所定の閾値と比較してピクセル毎の静状態/動状態を判定するピクセル状態判定手段と、
前記基準フレームにおいて、近傍の複数ピクセルから成るセルを形成してセル毎に前記静状態/動状態の2値から成るヒストグラムを作成し、当該ヒストグラムを正規化して動きの特徴量を算出する特徴量算出手段と、
算出した前記動きの特徴量と学習サンプルを用いた強識別器から移動する物体の存在を検出する物体検出手段とを備え、
前記輝度算出手段が、前記基準フレームから所定数過去の画像フレームまでの輝度変化量の最大値(第1の最大輝度差)と、
前記基準フレームから所定数未来の画像フレームまでの輝度の変化量の最大値(第2の最大輝度差)と、
前記基準フレーム直前の画像フレームから前記所定数過去の画像フレームまでの輝度変量の最大値(第3の最大輝度差)と、
前記基準フレーム直後の画像フレームから前記所定数未来の画像フレームまでの輝度変化量の最大値(第4の最大輝度差)とを算出する一方、
前記ピクセル状態判定手段が、前記第1及び前記第2の最大輝度差が前記閾値より大きく、且つ前記第3の最大輝度差及び前記第4の最大輝度差のうちの少なくとも一方が前記閾値より大きいピクセルを動状態と判断し、最大輝度差がそれ以外の値のピクセルを静状態と判定することを特徴とする物体検出装置。
Image frame group generation means for generating image frame groups continuous on the time axis from the captured image of the camera;
The maximum value of the amount of change in the luminance of the same part for each pixel from the reference frame to a predetermined number of past image frames or a predetermined number of future image frames from any of the generated image frames as a reference frame Brightness calculating means for calculating
A pixel state determination unit that determines a static state / moving state for each pixel by comparing the obtained maximum value of the amount of change in luminance with a predetermined threshold;
In the reference frame, a cell composed of a plurality of neighboring pixels is formed, a histogram composed of binary values of the static state / moving state is generated for each cell, and the histogram is normalized to calculate a feature amount of motion A calculation means;
An object detection means for detecting the presence of an object moving from the strong classifier using the calculated feature quantity of the motion and the learning sample;
The luminance calculation means, a maximum value of the luminance change amount from the reference frame to a predetermined number of past image frames (first maximum luminance difference),
A maximum value of the amount of change in luminance from the reference frame to a predetermined number of future image frames (second maximum luminance difference);
A maximum value of the luminance variable (third maximum luminance difference) from the image frame immediately before the reference frame to the predetermined number of past image frames;
While calculating the maximum value (fourth maximum luminance difference) of the luminance change amount from the image frame immediately after the reference frame to the predetermined number of future image frames,
The pixel state determining means has the first and second maximum luminance differences larger than the threshold, and at least one of the third maximum luminance difference and the fourth maximum luminance difference is larger than the threshold. An object detection apparatus characterized in that a pixel is determined to be in a moving state, and a pixel having a value other than the maximum luminance difference is determined to be a static state.
JP2014033155A 2014-02-24 2014-02-24 Object detection device Active JP6214426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014033155A JP6214426B2 (en) 2014-02-24 2014-02-24 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014033155A JP6214426B2 (en) 2014-02-24 2014-02-24 Object detection device

Publications (2)

Publication Number Publication Date
JP2015158796A true JP2015158796A (en) 2015-09-03
JP6214426B2 JP6214426B2 (en) 2017-10-18

Family

ID=54182742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014033155A Active JP6214426B2 (en) 2014-02-24 2014-02-24 Object detection device

Country Status (1)

Country Link
JP (1) JP6214426B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874949A (en) * 2017-02-10 2017-06-20 华中科技大学 A kind of moving platform moving target detecting method and system based on infrared image
CN107137090A (en) * 2017-05-24 2017-09-08 深圳先进技术研究院 A kind of tumble recognition methods and device, user equipment
CN110191324A (en) * 2019-06-28 2019-08-30 Oppo广东移动通信有限公司 Image processing method, device, server and storage medium
CN111966546A (en) * 2020-08-09 2020-11-20 合肥奕斯伟集成电路有限公司 Control method and control device for detecting graphic card and display device
CN112786163A (en) * 2020-12-31 2021-05-11 北京小白世纪网络科技有限公司 Ultrasonic image processing and displaying method and system and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267510A (en) * 2004-03-22 2005-09-29 Secom Co Ltd Image processing device, image processing method, and intruder detection system
JP2006018658A (en) * 2004-07-02 2006-01-19 Mitsubishi Electric Corp Image processor and image monitoring system using this image processor
JP2009163498A (en) * 2008-01-07 2009-07-23 Mitsubishi Electric Corp Image processor, image processing method, and image processing program
JP2013190943A (en) * 2012-03-13 2013-09-26 Aiphone Co Ltd Object detector and intercom system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267510A (en) * 2004-03-22 2005-09-29 Secom Co Ltd Image processing device, image processing method, and intruder detection system
JP2006018658A (en) * 2004-07-02 2006-01-19 Mitsubishi Electric Corp Image processor and image monitoring system using this image processor
JP2009163498A (en) * 2008-01-07 2009-07-23 Mitsubishi Electric Corp Image processor, image processing method, and image processing program
JP2013190943A (en) * 2012-03-13 2013-09-26 Aiphone Co Ltd Object detector and intercom system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874949A (en) * 2017-02-10 2017-06-20 华中科技大学 A kind of moving platform moving target detecting method and system based on infrared image
CN106874949B (en) * 2017-02-10 2019-10-11 华中科技大学 Movement imaging platform moving target detecting method and system based on infrared image
CN107137090A (en) * 2017-05-24 2017-09-08 深圳先进技术研究院 A kind of tumble recognition methods and device, user equipment
CN110191324A (en) * 2019-06-28 2019-08-30 Oppo广东移动通信有限公司 Image processing method, device, server and storage medium
CN111966546A (en) * 2020-08-09 2020-11-20 合肥奕斯伟集成电路有限公司 Control method and control device for detecting graphic card and display device
CN111966546B (en) * 2020-08-09 2022-07-12 合肥奕斯伟集成电路有限公司 Control method and control device for detecting graphic card and display device
CN112786163A (en) * 2020-12-31 2021-05-11 北京小白世纪网络科技有限公司 Ultrasonic image processing and displaying method and system and storage medium
CN112786163B (en) * 2020-12-31 2023-10-24 北京小白世纪网络科技有限公司 Ultrasonic image processing display method, system and storage medium

Also Published As

Publication number Publication date
JP6214426B2 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
JP5518359B2 (en) Smoke detector
CN102348128B (en) Surveillance camera system having camera malfunction detection function
US7982774B2 (en) Image processing apparatus and image processing method
JP6214426B2 (en) Object detection device
Hu et al. Robust real-time ship detection and tracking for visual surveillance of cage aquaculture
US10032283B2 (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
US10713798B2 (en) Low-complexity motion detection based on image edges
JP6764481B2 (en) Monitoring device
JP4811653B2 (en) Object detection device
CN107948465A (en) A kind of method and apparatus for detecting camera and being disturbed
JP4533836B2 (en) Fluctuating region detection apparatus and method
US9489737B2 (en) Object detection apparatus and method
CN111783665A (en) Action recognition method and device, storage medium and electronic equipment
KR101620989B1 (en) Method of detecting fire automatically from video including night images and system for performing the same
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP3134845B2 (en) Apparatus and method for extracting object in moving image
JP5142416B2 (en) Object detection device
JP5710230B2 (en) Monitoring system and monitoring method
JP6399122B2 (en) Face detection apparatus and control method thereof
JP5864230B2 (en) Object detection device
JP6124739B2 (en) Image sensor
JP2015158795A (en) Object detection device
JP6244221B2 (en) Human detection device
JP6482892B2 (en) Monitoring system
WO2019082474A1 (en) Three-dimensional intrusion detection system and three-dimensional intrusion detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R150 Certificate of patent or registration of utility model

Ref document number: 6214426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250