JP2017091118A - Image determination device and processing device using the same - Google Patents

Image determination device and processing device using the same Download PDF

Info

Publication number
JP2017091118A
JP2017091118A JP2015218979A JP2015218979A JP2017091118A JP 2017091118 A JP2017091118 A JP 2017091118A JP 2015218979 A JP2015218979 A JP 2015218979A JP 2015218979 A JP2015218979 A JP 2015218979A JP 2017091118 A JP2017091118 A JP 2017091118A
Authority
JP
Japan
Prior art keywords
image
predetermined
processing
captured
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015218979A
Other languages
Japanese (ja)
Other versions
JP6654018B2 (en
Inventor
大輔 細谷
Daisuke Hosoya
大輔 細谷
知大 内山
Tomohiro Uchiyama
知大 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Electric IndustriesLtd
Original Assignee
Koito Electric IndustriesLtd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Electric IndustriesLtd filed Critical Koito Electric IndustriesLtd
Priority to JP2015218979A priority Critical patent/JP6654018B2/en
Publication of JP2017091118A publication Critical patent/JP2017091118A/en
Application granted granted Critical
Publication of JP6654018B2 publication Critical patent/JP6654018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To reflect information obtained from an image itself picked up by imaging means in determining whether the image is not suitable to predetermined processing.SOLUTION: An image determination device comprises: labeling means S4 of acquiring a label region by labeling from a predetermined region of a difference image between two images picked up by imaging means at a predetermined interval of time; index value acquiring means S5 of acquiring an average value of respective distances of each of label regions acquired by the labeling means S4 from remaining label regions from the label region or an index value corresponding thereto; histogram acquiring means S7 of acquiring a histogram indicative of the number of label regions having the index value belonging to each predetermined range of index values for the range; and determination means S8, S9 of determining, on the basis of the histogram, whether at least one of the two images is suitable to predetermined processing.SELECTED DRAWING: Figure 2

Description

本発明は、画像判定装置及びこれを用いた処理装置に関するものである。   The present invention relates to an image determination apparatus and a processing apparatus using the same.

従来から、撮像手段により撮像された画像に対して所定の処理を施す処理手段を有する処理装置を備えた装置が、種々提供されている。   2. Description of the Related Art Conventionally, various apparatuses including a processing apparatus having a processing unit that performs predetermined processing on an image captured by an imaging unit are provided.

このような装置の一例として、下記特許文献1には、道路をビデオカメラにより撮影し、この撮影した映像データを画像処理して、交通量や走行する車両の平均速度、渋滞の発生の有無などの種々の交通諸量を求める道路監視装置が開示されている。   As an example of such a device, the following Patent Document 1 discloses that a road is photographed with a video camera, the photographed video data is image-processed, and the traffic volume, the average speed of a traveling vehicle, whether or not a traffic jam occurs, and the like. A road monitoring device for determining various traffic quantities is disclosed.

この従来の道路監視装置は、電子カメラにより撮影された映像に基づいて、交通諸量の検出を行う道路監視装置において、前記電子カメラにより撮影された道路の映像を画像処理して、前記道路を走行する車両を検出する画像処理手段と、前記電子カメラによる撮影環境を計測する環境計測手段(風速計、照度計、視程計、雨雪計などの環境センサ)と、この環境計測手段の計測結果に基づいて、前記電子カメラによる撮影環境が前記車両の検出に適切な状態にあったか否かを判定する環境判定手段と、この環境判定手段が適切な状態にあったと判定した場合に、前記画像処理手段にて求めた情報に基づいて交通諸量を求める交通情報検出手段とを具備するものである。   This conventional road monitoring apparatus is a road monitoring apparatus that detects various amounts of traffic based on video captured by an electronic camera, performs image processing on the video of the road captured by the electronic camera, and Image processing means for detecting a traveling vehicle, environment measurement means for measuring the photographing environment by the electronic camera (environmental sensors such as anemometer, illuminometer, visibility meter, rain and snow gauge), and measurement results of the environment measurement means Based on the environment determination means for determining whether or not the shooting environment by the electronic camera is in an appropriate state for detection of the vehicle, and when it is determined that the environment determination means is in an appropriate state, the image processing Traffic information detecting means for obtaining various traffic quantities based on information obtained by the means.

この従来の道路監視装置では、電子カメラによる撮影環境を計測し、この撮影環境が適切な状態にあった場合にのみ、画像処理手段にて求めた情報に基づいて交通諸量を求めるようにしている。したがって、前記従来の道路監視装置によれば、撮影に適さない環境下において画像処理により車両を誤検出した場合でも、その検出した情報は交通諸量の算出に用いられないため、信頼性の高い交通諸量を安定した精度で検出することができる。   In this conventional road monitoring device, the photographing environment by the electronic camera is measured, and only when the photographing environment is in an appropriate state, the traffic quantities are obtained based on the information obtained by the image processing means. Yes. Therefore, according to the conventional road monitoring device, even when a vehicle is erroneously detected by image processing in an environment that is not suitable for photographing, the detected information is not used for calculation of various traffic quantities, and thus is highly reliable. Traffic quantities can be detected with stable accuracy.

特開2002−56491号公報JP 2002-56491 A

しかしながら、前記従来の道路監視装置では、電子カメラによる撮影環境を環境センサで計測し、この撮影環境が適切な状態であるか否かを判定することによって、電子カメラにより撮影された画像が車両の検出に適切であるか否かを判定している。したがって、前記従来の道路監視装置では、電子カメラにより撮影された画像が車両の検出に適切であるか否かの判定に、当該画像自身から得られる情報は全く用いられていないため、前記判定に当該画像の実際の状況が全く反映されていなかった。   However, in the conventional road monitoring device, an image captured by the electronic camera is captured by measuring an environment captured by the electronic camera using an environmental sensor and determining whether the environment is appropriate. It is determined whether it is appropriate for detection. Therefore, in the conventional road monitoring device, information obtained from the image itself is not used at all in determining whether the image taken by the electronic camera is appropriate for vehicle detection. The actual situation of the image was not reflected at all.

このような事情は、道路監視装置のみならず、撮像手段により撮像された画像に対して所定の処理を施す処理手段を有する処理装置を備えた種々の装置についても、同様である。   Such a situation applies not only to the road monitoring device but also to various devices including a processing device having a processing unit that performs a predetermined process on an image captured by the imaging unit.

本発明は、このような事情に鑑みてなされたもので、撮像手段により撮像された画像が所定の処理に適していない画像であるか否かの判定において、撮像手段により撮像された画像自身から得られる情報を反映させることができる画像判定装置、及び、これを用いた処理装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and in determining whether an image captured by the imaging unit is an image that is not suitable for a predetermined process, the image itself is captured by the imaging unit. An object of the present invention is to provide an image determination apparatus capable of reflecting obtained information and a processing apparatus using the same.

前記課題を解決するための手段として、以下の各態様を提示する。第1の態様による画像判定装置は、撮像手段により所定の時間間隔で撮像された2枚の画像間の差分画像の所定領域、あるいは、撮像手段により撮像された画像と背景画像との間の差分画像の所定領域から、ラベリングによりラベル領域を取得するラベリング手段と、前記ラベリング手段により取得された各ラベル領域について、当該ラベル領域から残りの各ラベル領域までの各距離の平均値又はこれに応じた値(例えば、前記各距離の積算値等)である指標値を取得する指標値取得手段と、前記指標値の予め定めた各範囲毎の当該範囲に属する前記指標値を持つ前記ラベル領域の数を示すヒストグラムを取得するヒストグラム取得手段と、前記ヒストグラムに基づいて、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が所定の処理に適していない画像であるか否か、あるいは、前記撮像手段により撮像された前記画像が所定の処理に適していない画像であるか否かを判定する判定手段と、を備えたものである。前記所定領域は、路上の領域を含んでもよい。   The following aspects are presented as means for solving the problems. The image determination apparatus according to the first aspect includes a predetermined region of a difference image between two images captured at a predetermined time interval by an imaging unit, or a difference between an image captured by the imaging unit and a background image. Labeling means for obtaining a label area by labeling from a predetermined area of the image, and for each label area obtained by the labeling means, an average value of each distance from the label area to each of the remaining label areas, or in accordance with this Index value acquisition means for acquiring an index value that is a value (for example, an integrated value of each distance, etc.), and the number of label regions having the index value belonging to the range for each predetermined range of the index value And at least one of the two images picked up by the image pickup means based on the histogram. Determining means for determining whether or not the image is an image that is not suitable for a predetermined process or whether the image captured by the imaging means is an image that is not suitable for a predetermined process; It is provided. The predetermined area may include an area on the road.

前記ヒストグラムは、撮像手段により撮像された2枚の画像間の差分画像の前記所定領域における前記ラベル領域の分布状況、あるいは、撮像手段により撮像された画像と背景画像との差分画像の前記所定領域における前記ラベル領域の分布状況によって変化し、当該分布状況を示す特徴量となる。一方、撮像手段により撮像された画像のうち前記所定の処理に適していない画像では、当該画像中に生ずる時間的に変化するノイズ等の影響で、前記分布状況には一定の傾向が生ずる。   The histogram is the distribution status of the label area in the predetermined area of the difference image between two images captured by the imaging means, or the predetermined area of the difference image between the image captured by the imaging means and the background image. It changes according to the distribution status of the label area in the above, and becomes a feature amount indicating the distribution status. On the other hand, among the images picked up by the image pickup means, an image that is not suitable for the predetermined processing has a certain tendency in the distribution status due to the influence of time-varying noise generated in the image.

したがって、前記第1の態様によれば、前記ヒストグラムに基づいて、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が所定の処理に適していない画像であるか否か、あるいは、前記撮像手段により撮像された前記画像が所定の処理に適していない画像であるか否かを判定するので、その判定を適切に行うことができる。   Therefore, according to the first aspect, based on the histogram, whether at least one of the two images captured by the imaging unit is an image that is not suitable for a predetermined process. Alternatively, since it is determined whether or not the image captured by the imaging unit is an image that is not suitable for the predetermined processing, the determination can be appropriately performed.

そして、前記ヒストグラムは、撮像手段により撮像された画像自身から得られる情報である。したがって、前記第1の態様によれば、撮像手段により撮像された2枚の画像のうちの少なくとも一方の画像が所定の処理に適していない画像であるか否かの判定、あるいは、前記撮像手段により撮像された前記画像が所定の処理に適していない画像であるか否かの判定において、撮像手段により撮像された画像自身から得られる情報を反映させることができる。   The histogram is information obtained from the image itself picked up by the image pickup means. Therefore, according to the first aspect, it is determined whether or not at least one of the two images captured by the imaging unit is an image that is not suitable for a predetermined process, or the imaging unit. In the determination as to whether or not the image captured by the method is an image that is not suitable for the predetermined processing, information obtained from the image itself captured by the imaging unit can be reflected.

第2の態様による画像判定装置は、前記第1の態様において、前記判定手段は、前記ヒストグラムが、前記所定の処理に適していない画像の、前記ヒストグラムに対応するヒストグラムの群に属するか否かを判別することによって、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であるか否か、あるいは、前記撮像手段により撮像された前記画像が前記所定の処理に適していない画像であるか否かを判定するものである。   The image determination apparatus according to a second aspect is the image determination apparatus according to the first aspect, wherein the determination means determines whether or not the histogram belongs to a group of histograms corresponding to the histogram of an image not suitable for the predetermined processing. Whether or not at least one of the two images captured by the imaging unit is an image not suitable for the predetermined processing, or is captured by the imaging unit. It is determined whether or not the image is an image not suitable for the predetermined processing.

この第2の態様は、前記判定手段が、判別分析等によって、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であるか否か、あるいは、前記撮像手段により撮像された前記画像が前記所定の処理に適していない画像であるか否かを判定する例を挙げたものであるが、前記第1の態様では、この判定手法に限らない。   In the second aspect, whether or not at least one of the two images captured by the imaging unit is not suitable for the predetermined processing is determined by the determination unit by discriminant analysis or the like. Alternatively, an example is given in which it is determined whether or not the image captured by the imaging means is an image that is not suitable for the predetermined processing. In the first aspect, this determination technique is used. Not limited to.

第3の態様による画像判定装置は、前記第2の態様において、前記判別はマハラノビス距離を用いた判別分析により行われるものである。   In the image determination apparatus according to the third aspect, in the second aspect, the determination is performed by determination analysis using a Mahalanobis distance.

この第3の態様は、前記判別の手法の例を挙げたものであるが、前記第2の態様では、この判別の手法に限らず、例えば、ニューラルネットワーク又はサポートベクターマシン等を用いる手法を採用してもよい。   The third mode is an example of the discrimination method. However, the second mode is not limited to the discrimination method, and for example, a method using a neural network or a support vector machine is adopted. May be.

第4の態様による画像判定装置は、前記第1乃至第3のいずれかの態様において、前記判定手段は、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であると判定するか、あるいは、前記撮像手段により撮像された前記画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、前記撮像手段により撮像された前記画像が前記所定の処理に適していない画像であると判定するものである。   In the image determination device according to a fourth aspect, in any one of the first to third aspects, the determination unit is a part of at least one of the two images captured by the imaging unit. Alternatively, on the condition that the brightness of the entire area is darker than the predetermined brightness, at least one of the two images captured by the imaging unit is an image that is not suitable for the predetermined processing. The image captured by the imaging unit is determined to have a condition that the brightness of a part or the whole area of the image captured by the imaging unit is darker than a predetermined brightness. It is determined that the image is not suitable for the predetermined processing.

一般的に、画像が明るい場合には、ノイズ等の影響が少なくて前記画像が前記所定の処理に適している一方で、画像が暗い場合には、ノイズ等の影響が大きくて前記画像が前記所定の処理に適していないことが多い。したがって、前記第4の態様によれば、前記判定手段は、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であると判定か、あるいは、前記撮像手段により撮像された前記画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、前記撮像手段により撮像された前記画像が前記所定の処理に適していない画像であると判定するので、前記判定の精度を向上させることができる。   In general, when the image is bright, the influence of noise or the like is small and the image is suitable for the predetermined processing, whereas when the image is dark, the influence of noise or the like is large and the image is Often not suitable for a given treatment. Therefore, according to the fourth aspect, the determination unit is configured such that the brightness of a part or the entire region of at least one of the two images captured by the imaging unit is greater than a predetermined brightness. Is determined to be at least one of the two images captured by the imaging unit as an image that is not suitable for the predetermined processing, or is captured by the imaging unit. It is determined that the image captured by the imaging means is an image not suitable for the predetermined processing on the condition that the brightness of a part or the entire area of the captured image is darker than the predetermined brightness As a result, the accuracy of the determination can be improved.

第5の態様による画像判定装置は、前記第1乃至第4のいずれかの態様において、前記撮像手段により撮像された前記2枚の画像、あるいは、前記撮像手段により撮像された前記画像は、気象条件の影響を受ける画像であるものである。   The image determination apparatus according to a fifth aspect is the image determination apparatus according to any one of the first to fourth aspects, wherein the two images captured by the imaging unit or the image captured by the imaging unit The image is affected by the condition.

この第5の態様は、ノイズ等が生ずる画像の例として、気象条件の影響を受ける画像を挙げたものであるが、前記第1乃至第4の態様では、前記撮像手段により撮像された前記2枚の画像、あるいは、前記撮像手段により撮像された前記画像は、気象条件以外の要因の影響を受けてノイズ等を発生する画像であってもよい。   In the fifth aspect, an image affected by weather conditions is cited as an example of an image in which noise or the like is generated. In the first to fourth aspects, the second image captured by the imaging unit is used. A single image or the image picked up by the image pickup means may be an image that generates noise or the like under the influence of factors other than weather conditions.

第6の態様による画像判定装置は、撮像手段により撮像され気象条件の影響を受ける画像が所定の処理に適していない画像であるか否かを判定する画像判定装置であって、前記気象条件を検出するセンサからの信号を用いることなく、前記画像に基づいて前記判定を行う手段を備えたものである。   An image determination apparatus according to a sixth aspect is an image determination apparatus that determines whether an image captured by an imaging unit and affected by weather conditions is an image that is not suitable for predetermined processing, wherein the weather conditions are Means for performing the determination based on the image without using a signal from a sensor to be detected is provided.

この第6の態様によれば、撮像手段により撮像された画像が所定の処理に適していない画像であるか否かの判定が当該画像に基づいて行われるので、当該判定において、撮像手段により撮像された画像自身から得られる情報を反映させることができる。したがって、前記第6の態様によれば、撮像手段により撮像された画像が所定の処理に適していない画像であるか否かを判定するに際して、当該判定において、撮像手段により撮像された画像自身から得られる情報を反映させることができる。   According to the sixth aspect, since it is determined based on the image whether or not the image captured by the imaging unit is an image that is not suitable for the predetermined processing, the image is captured by the imaging unit. Information obtained from the captured image itself can be reflected. Therefore, according to the sixth aspect, when determining whether or not the image captured by the imaging unit is an image that is not suitable for the predetermined process, in the determination, from the image itself captured by the imaging unit. Information obtained can be reflected.

そして、前記第6の態様によれば、撮像手段により撮像され気象条件の影響を受ける画像が所定の処理に適していない画像であるか否かの判定が、前記気象条件を検出するセンサからの信号を用いることなく行われるので、前記センサを設ける必要がなくなり、その分コスト低減を図ることができる。   And according to the said 6th aspect, determination whether the image imaged by the imaging means and the image which receives the influence of a weather condition is an image which is not suitable for a predetermined process is from the sensor which detects the said weather condition. Since it is performed without using a signal, it is not necessary to provide the sensor, and the cost can be reduced accordingly.

第7の態様による画像判定装置は、前記第1乃至第6のいずれかの態様において、前記所定の処理は、検出対象を検出する処理であるものである。前記検出対象としては、例えば、歩行者や車両を挙げることができる。   In the image determination device according to a seventh aspect, in any one of the first to sixth aspects, the predetermined process is a process of detecting a detection target. Examples of the detection target include pedestrians and vehicles.

この第7の態様は、前記所定の処理の例を挙げたものであるが、前記第1乃至第6の態様では、この例に限らない。   The seventh aspect is an example of the predetermined process, but the first to sixth aspects are not limited to this example.

第8の態様による処理装置は、前記第1乃至第7のいずれかの態様による画像判定装置と、前記撮像手段により撮像された前記画像に対して前記所定の処理を施す処理手段と、を備えたものである。   A processing device according to an eighth aspect includes the image determination device according to any one of the first to seventh aspects, and processing means that performs the predetermined process on the image picked up by the image pickup means. It is a thing.

この第8の態様によれば、前記画像判定装置が当該画像が所定の処理に適していないと判定した場合に、例えば、その旨を出力したり前記所定の処理を中止したりすることによって、前記所定の処理の処理結果の信頼性を高めることができる。   According to the eighth aspect, when the image determination device determines that the image is not suitable for the predetermined process, for example, by outputting the fact or canceling the predetermined process, The reliability of the processing result of the predetermined processing can be improved.

本発明によれば、撮像手段により撮像された画像が所定の処理に適していない画像であるか否かの判定において、撮像手段により撮像された画像自身から得られる情報を反映させることができる画像判定装置、及び、これを用いた処理装置を提供することができる。   According to the present invention, in determining whether an image captured by the imaging unit is an image that is not suitable for the predetermined process, an image that can reflect information obtained from the image captured by the imaging unit itself A determination apparatus and a processing apparatus using the determination apparatus can be provided.

本発明の第1の実施の形態による処理装置としての歩行者検出装置を有する交通制御システムを示す概略ブロック図である。It is a schematic block diagram which shows the traffic control system which has a pedestrian detection apparatus as a processing apparatus by the 1st Embodiment of this invention. 図1中の歩行者検出装置の動作を示す概略フローチャートである。It is a schematic flowchart which shows operation | movement of the pedestrian detection apparatus in FIG. 図1中のカメラにより晴の昼に撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged by the camera in FIG. 図3に示す画像中に処理対象領域の外形をなす四角形を記入したものを示す図である。FIG. 4 is a diagram showing an image shown in FIG. 3 in which a rectangle forming the outline of the processing target region is entered. 図1中のカメラにより晴の昼に連続して撮像された2枚の画像(一方の画像は図3に示す画像である。)の差分画像を2値化した後の画像の一例を示す図である。The figure which shows an example of the image after binarizing the difference image of the two images (one image is an image shown in FIG. 3) continuously imaged by the camera in FIG. It is. 図1中のカメラにより風雨の夜に撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged at the night of the wind and rain with the camera in FIG. 図1中のカメラにより風雨の夜に連続して撮像された2枚の画像(一方の画像は図6に示す画像である。)の差分画像を2値化した後の画像の一例を示す図である。The figure which shows an example of the image after binarizing the difference image of the two images (one image is an image shown in FIG. 6) continuously imaged by the camera in FIG. It is. ラベル領域とラベル領域間距離の例を模式的に示す図である。It is a figure which shows typically the example of the distance between a label area | region and a label area | region. 図2中のステップS7で用いる各クラス毎のマハラノビス距離算出用係数を求める手法の一例を示す概略フローチャートである。It is a schematic flowchart which shows an example of the method of calculating | requiring the coefficient for Mahalanobis distance calculation for every class used by step S7 in FIG. 図9中のステップS21の詳細を示す概略フローチャートである。It is a schematic flowchart which shows the detail of step S21 in FIG. 本発明の第2の実施の形態による処理装置としての歩行者検出装置の動作を示す概略フローチャートである。It is a schematic flowchart which shows operation | movement of the pedestrian detection apparatus as a processing apparatus by the 2nd Embodiment of this invention. 本発明の第3の実施の形態による処理装置としての歩行者検出装置の動作を示す概略フローチャートである。It is a schematic flowchart which shows operation | movement of the pedestrian detection apparatus as a processing apparatus by the 3rd Embodiment of this invention. 図12中のステップS51の詳細を示す概略フローチャートである。It is a schematic flowchart which shows the detail of step S51 in FIG.

以下、本発明による画像判定装置及び処理装置について、図面を参照して説明する。   Hereinafter, an image determination apparatus and a processing apparatus according to the present invention will be described with reference to the drawings.

[第1の実施の形態]   [First Embodiment]

図1は、本発明の第1の実施の形態による処理装置としての歩行者検出装置11を有する交通制御システム1を示す概略ブロック図である。   FIG. 1 is a schematic block diagram showing a traffic control system 1 having a pedestrian detection device 11 as a processing device according to a first embodiment of the present invention.

図1に示す交通制御システム1は、路上の歩行者を検出する歩行者検出装置11と、歩行者検出装置11からの歩行者検出結果としての歩行者検出信号に基づいて、歩行者用交通信号機13及び車両用交通信号機14を制御する信号制御装置12と、を備えている。   A traffic control system 1 shown in FIG. 1 is based on a pedestrian detection device 11 that detects a pedestrian on the road and a pedestrian detection signal as a pedestrian detection result from the pedestrian detection device 11. 13 and a signal control device 12 for controlling the vehicle traffic signal device 14.

信号制御装置12は、例えば、歩行者用交通信号機13が青信号の場合において、当該歩行者用交通信号機13に対応する路上の歩行者が検出された旨を示す歩行者検出信号を受けなければ、当該歩行者用交通信号機13の青時間が所定時間となるように、歩行者用交通信号機13を制御する一方で、歩行者用交通信号機13が青信号の場合において、当該歩行者用交通信号機13に対応する横断歩道上の歩行者が検出された旨の歩行者検出信号を受けると、当該歩行者用交通信号機13の青時間が前記所定時間よりも長い時間となるように、歩行者用交通信号機13を制御する。このとき、信号制御装置12は、車両用交通信号機14が歩行者用交通信号機13の動作に適合する動作を行うように、車両用交通信号機14を制御する。もっとも、信号制御装置12は、このようないわゆる青時間延長制御に限らず、歩行者検出信号に基づいて他の制御を行ってもよい。また、歩行者検出装置11からの歩行者検出信号の用途は、信号制御装置12による交通信号機13,14の制御に限らず、他の用途に用いてもよいし、他の装置(例えば、交通管理センターの装置など)へ出力するようにしてもよい。   For example, when the pedestrian traffic signal 13 is a green signal, the signal control device 12 does not receive a pedestrian detection signal indicating that a pedestrian on the road corresponding to the pedestrian traffic signal 13 is detected. The pedestrian traffic signal 13 is controlled so that the green time of the pedestrian traffic signal 13 is a predetermined time. On the other hand, when the pedestrian traffic signal 13 is a green signal, the pedestrian traffic signal 13 When a pedestrian detection signal indicating that a pedestrian on the corresponding pedestrian crossing has been detected is received, the traffic signal for pedestrians is such that the blue time of the traffic signal for pedestrian 13 is longer than the predetermined time. 13 is controlled. At this time, the signal control device 12 controls the vehicle traffic signal 14 so that the vehicle traffic signal 14 performs an operation suitable for the operation of the pedestrian traffic signal 13. However, the signal control device 12 is not limited to such so-called green time extension control, and may perform other controls based on the pedestrian detection signal. Moreover, the use of the pedestrian detection signal from the pedestrian detection device 11 is not limited to the control of the traffic signals 13 and 14 by the signal control device 12, but may be used for other purposes, or other devices (for example, traffic) The data may be output to a management center device or the like.

本実施の形態では、歩行者検出装置11は、路上を含む領域を撮像する撮像手段としてのCCDカメラ等のカメラ21と、カメラ21からの画像アナログ信号を画素ごとに所定階調のデジタル信号に変換するA/D変換器22と、デジタル信号に変換された画像を記憶する画像メモリ23と、画像メモリ23からの画像に対して後述する処理を行う処理部24とを備えている。図面には示していないが、処理部24は、後述する動作を実現するように、マイクロコンピュータ及び他の電子回路等で構成されている。図面には示していないが、カメラ21は、例えば、道路脇に立設された支柱上に設置される。   In the present embodiment, the pedestrian detection device 11 converts a camera 21 such as a CCD camera as an imaging unit that captures an area including a road, and an image analog signal from the camera 21 into a digital signal having a predetermined gradation for each pixel. An A / D converter 22 for conversion, an image memory 23 for storing an image converted into a digital signal, and a processing unit 24 for performing processing to be described later on the image from the image memory 23 are provided. Although not shown in the drawing, the processing unit 24 is composed of a microcomputer and other electronic circuits so as to realize the operation described later. Although not shown in the drawings, the camera 21 is installed, for example, on a support column standing on the side of the road.

カメラ21は路上を含む領域を撮像するので、カメラ21により撮像された画像は気象条件の影響を受ける。図3は、図1中のカメラ21により晴の昼に撮像された画像の一例を示す図である。図4は、図3に示す画像中に処理対象領域の外形をなす四角形を記入したものを示す図である。本実施の形態による歩行者検出装置11では、前記処理対象領域は路上を含み、前記処理対象領域内において検出対象としての歩行者が検出される。図5は、図1中のカメラ21により晴の昼に連続して撮像された2枚(2フレーム)の画像(一方の画像は図3に示す画像である。)の差分画像を2値化した後の画像の一例を示す図であり、後述する図2中のステップS3で得られる画像の例を示している。   Since the camera 21 captures an area including the road, the image captured by the camera 21 is affected by weather conditions. FIG. 3 is a diagram illustrating an example of an image captured on a clear day by the camera 21 in FIG. FIG. 4 is a diagram showing the image shown in FIG. 3 with a rectangle forming the outline of the processing target area. In the pedestrian detection apparatus 11 according to the present embodiment, the processing target area includes a road, and a pedestrian as a detection target is detected in the processing target area. FIG. 5 binarizes the difference image of two (2 frames) images (one image is the image shown in FIG. 3) continuously captured on a clear day by the camera 21 in FIG. It is a figure which shows an example of the image after having performed, and shows the example of the image obtained by step S3 in FIG. 2 mentioned later.

図6は、図1中のカメラ21により風雨の夜に撮像された画像の一例を示す図である。図7は、図1中のカメラ21により風雨の夜に連続して撮像された2枚の画像(一方の画像は図6に示す画像である。)の差分画像を2値化した後の画像の一例を示す図であり、後述する図2中のステップS3で得られる画像の例を示している。   FIG. 6 is a diagram illustrating an example of an image captured by the camera 21 in FIG. FIG. 7 is an image obtained by binarizing a differential image of two images (one image is the image shown in FIG. 6) continuously captured by the camera 21 in FIG. It is a figure which shows an example, and has shown the example of the image obtained by step S3 in FIG. 2 mentioned later.

次に、本実施の形態における歩行者検出装置11の動作について、図2を参照して説明する。図2は、図1中の歩行者検出装置11の動作を示す概略フローチャートである。   Next, operation | movement of the pedestrian detection apparatus 11 in this Embodiment is demonstrated with reference to FIG. FIG. 2 is a schematic flowchart showing the operation of the pedestrian detection device 11 in FIG.

歩行者検出装置11が動作を開始すると、処理部24は、まず、カメラ21が撮像した2枚の連続する画像をサンプリングし(ステップS1)、サンプリングした画像を画像メモリ23に格納させる。次いで、処理部24は、それらの2枚の画像の差分画像(フレーム間差分画像)を生成する(ステップS2)。なお、本発明で用いる差分画像は、必ずしも2枚の連続する画像の差分画像に限らず、秒間フレーム数が多い場合などでは、例えば、1フレーム又は複数フレーム置きの2枚の画像などの他の所定の時間間隔で撮像された2枚の画像の差分画像でもよい。   When the pedestrian detection device 11 starts operating, the processing unit 24 first samples two consecutive images captured by the camera 21 (step S1), and stores the sampled images in the image memory 23. Next, the processing unit 24 generates a difference image (inter-frame difference image) between these two images (step S2). Note that the difference image used in the present invention is not necessarily limited to a difference image between two consecutive images. For example, when the number of frames per second is large, other difference images such as two images every other frame or plural frames are used. It may be a difference image between two images taken at a predetermined time interval.

なお、各回のステップS1において新たに2枚の画像をサンプリングして、ステップS2の差分処理では今回のステップS1で新たにサンプリングした2枚の画像の差分画像を得てもよいし、各回のステップS1において1枚の画像のみをサンプリングして、ステップS2の差分処理では今回のステップS1でサンプリングした画像と前回のステップS1でサンプリングした画像との差分画像を得てもよい。   Note that two new images may be sampled in each step S1, and the difference image in step S2 may obtain a difference image between the two images newly sampled in this step S1, or each step. In S1, only one image may be sampled, and in the difference process in step S2, a difference image between the image sampled in the current step S1 and the image sampled in the previous step S1 may be obtained.

次に、処理部24は、ステップS2で生成した差分画像を2値化する(ステップS3)。この2値化に用いる閾値は、固定閾値でもよいし、判別分析法に代表されるような可変閾値でもよい。   Next, the processing unit 24 binarizes the difference image generated in step S2 (step S3). The threshold value used for the binarization may be a fixed threshold value or a variable threshold value represented by discriminant analysis method.

引き続いて、処理部24は、ステップS3で2値化された画像の前記処理対象領域からラベリングによりラベル領域を取得する(ステップS4)。なお、ステップS2,S3の処理は、前記処理対象領域についてのみ行ってもよい。   Subsequently, the processing unit 24 acquires a label region by labeling from the processing target region of the image binarized in step S3 (step S4). In addition, you may perform the process of step S2, S3 only about the said process target area | region.

その後、処理部24は、ステップS4で取得した各ラベル領域について、当該ラベル領域から残りの各ラベル領域までの各距離の平均値(以下、「ラベル領域間距離平均」と呼ぶ場合がある。)を、指標値として取得する(ステップS5)。ここでは、2つのラベル領域間の距離は、画像上の2つのラベル領域の重心間の画像上の直線距離とするが、必ずしも重心間の距離でなくてもよいし、また、画像上の直線距離ではなくて換算した実距離としてもよい。なお、前記平均値に代えて、前記平均値に応じた値、例えば積算値を指標値として取得し、以下の処理で、前記平均値に代えて前記平均値に応じた値を用いてもよい。   Thereafter, the processing unit 24 averages each distance from the label area to each remaining label area for each label area acquired in step S4 (hereinafter, may be referred to as “inter-label area distance average”). Is acquired as an index value (step S5). Here, the distance between the two label areas is the straight line distance on the image between the centroids of the two label areas on the image, but it is not necessarily the distance between the centroids. It may be an actual distance converted instead of a distance. In place of the average value, a value corresponding to the average value, for example, an integrated value may be acquired as an index value, and a value corresponding to the average value may be used instead of the average value in the following processing. .

ここで、ステップS5の処理の具体例について、図8を参照して説明する。図8は、ラベル領域とラベル領域間距離の例を模式的に示す図である。説明を簡単にするため、図8に示す例では、ステップS4で前記処理対象領域から3つのラベル領域a,b,cのみが得られたものとしている。実際には、ステップS4において、より多くのラベル領域、例えば、数十から数百のラベル領域が取得される。図8において、ラベル領域間距離(ab間)はラベル領域aの重心とラベル領域bの重心との間の画像上の直線距離を示し、ラベル領域間距離(ac間)はラベル領域aの重心とラベル領域cの重心との間の画像上の直線距離を示し、ラベル領域間距離(bc間)はラベル領域bの重心とラベル領域cの重心との間の画像上の直線距離を示している。   Here, a specific example of the processing in step S5 will be described with reference to FIG. FIG. 8 is a diagram schematically illustrating an example of a label area and a distance between label areas. In order to simplify the description, in the example shown in FIG. 8, it is assumed that only three label regions a, b, and c are obtained from the processing target region in step S4. Actually, in step S4, more label regions, for example, tens to hundreds of label regions are acquired. In FIG. 8, the distance between the label areas (between ab) indicates the linear distance on the image between the center of gravity of the label area a and the center of gravity of the label area b, and the distance between label areas (between ac) is the center of gravity of the label area a. A linear distance on the image between the centroid of the label area c and the label area c (between bc) indicates a linear distance on the image between the centroid of the label area b and the centroid of the label area c. Yes.

ステップS4において図8に示すように3つのラベル領域a,b,cのみが得られた場合には、ステップS5において、全てのラベル領域a,b,cについて、それぞれラベル領域間距離平均が算出される。すなわち、ラベル領域aについて、当該ラベル領域aから残りの各ラベル領域b,cまでの各距離の平均値(={ラベル領域間距離(ab間)+ラベル領域間距離(ac間)}/2)が算出される。これを、ラベル領域aが持つラベル領域間距離平均と呼ぶ。また、ラベル領域bについて、当該ラベル領域bから残りの各ラベル領域a,cまでの各距離の平均値(={ラベル領域間距離(ab間)+ラベル領域間距離(bc間)}/2)が算出される。これを、ラベル領域bが持つラベル領域間距離平均と呼ぶ。さらに、ラベル領域cについて、当該ラベル領域cから残りの各ラベル領域a,bまでの各距離の平均値(={ラベル領域間距離(ac間)+ラベル領域間距離(bc間)}/2)が算出される。これを、ラベル領域cが持つラベル領域間距離平均と呼ぶ。   If only three label areas a, b, and c are obtained in step S4 as shown in FIG. 8, the average distance between label areas is calculated for all label areas a, b, and c in step S5. Is done. That is, for the label area a, the average value of distances from the label area a to the remaining label areas b and c (= {distance between label areas (between ab) + distance between label areas (between ac)} / 2 ) Is calculated. This is called the average distance between label areas of the label area a. For the label area b, the average value of the distances from the label area b to the remaining label areas a and c (= {distance between label areas (between ab) + distance between label areas (between bc)} / 2. ) Is calculated. This is called the average distance between label areas of the label area b. Further, for the label area c, the average value of the distances from the label area c to the remaining label areas a and b (= {distance between label areas (between ac) + distance between label areas (between bc)} / 2. ) Is calculated. This is called the average distance between label areas of the label area c.

次に、処理部24は、ステップS5で算出した全てのラベル領域のラベル領域間距離平均(指標値)に基づいて、ラベル領域間距離平均の予め定めた各範囲(階級)毎の当該範囲に属するラベル領域間距離平均を持つラベル領域の数(度数)を示すヒストグラム(「ラベル領域間距離平均ヒストグラム」と呼ぶ。)を作成する(ステップS6)。今、前記範囲(階級)の数をpとし、前記各階級の度数をそれぞれx,x,x,・・・,xとすると、前記ラベル領域間距離平均ヒストグラムは、それらを要素とするp次元のベクトルx=(x,x,x,・・・,xと表すことができ、p次元の多変数ベクトル空間における1つの新たな標本ベクトルに相当する。 Next, based on the average distance between label areas (index value) of all the label areas calculated in step S5, the processing unit 24 sets the average distance between label areas in the range for each predetermined range (class). A histogram (referred to as “label area distance average histogram”) indicating the number (frequency) of label areas having the average distance between label areas to which it belongs is created (step S6). Now, the number of the range (class) and p, x 1 wherein the frequency of each class respectively, x 2, x 3, · · ·, When x p, the label area the distance between the average histogram them elements P-dimensional vector x = (x 1 , x 2 , x 3 ,..., X p ) T , which corresponds to one new sample vector in the p-dimensional multivariable vector space.

その後、処理部24は、ステップS6で作成されたラベル領域間距離平均ヒストグラムに基づいて、ステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像が所定の処理(本実施の形態では、後述するステップS10の歩行者検出処理)に適していない画像であるか否かを判定する(ステップS7〜S9)。   After that, the processing unit 24 performs a predetermined process (this embodiment) on at least one of the two images subjected to the differential process in step S2 based on the distance average histogram between label areas created in step S6. Then, it is determined whether or not the image is not suitable for a pedestrian detection process in step S10 described later (steps S7 to S9).

ラベル領域間距離平均ヒストグラムは、カメラ21により撮像されステップS2で差分処理された2枚の画像の前記処理対象領域におけるラベル領域の分布状況によって変化し、当該分布状況を示す特徴量となる。一方、カメラ21により撮像された画像のうち前記所定の処理に適していない画像では、当該画像中に生ずる時間的に変化するノイズ等の影響で、前記分布状況には一定の傾向が生ずる。したがって、本実施の形態によれば、前記ラベル領域間距離平均ヒストグラムとに基づいて、カメラ21により撮像されステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であるか否かを判定するので、その判定を適切に行うことができる。   The inter-label area distance average histogram changes depending on the distribution status of the label areas in the processing target area of the two images picked up by the camera 21 and subjected to the difference processing in step S2, and becomes a feature amount indicating the distribution status. On the other hand, an image that is not suitable for the predetermined processing among images captured by the camera 21 has a certain tendency in the distribution status due to the influence of temporally changing noise or the like generated in the image. Therefore, according to the present embodiment, at least one of the two images picked up by the camera 21 and subjected to the difference processing in step S2 based on the average distance between histograms of the label areas is the predetermined process. Since it is determined whether or not the image is not suitable for the image, the determination can be performed appropriately.

本実施の形態では、ステップS6で作成されたラベル領域間距離平均ヒストグラムが、前記所定の処理に適していない画像の、前記ラベル領域間距離平均ヒストグラムに対応するラベル領域間距離平均ヒストグラムの群(クラス)に属するか否かを判別することによって、カメラ21により撮像されステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であるか否かを判定する(ステップS7〜S9)。そして、本実施の形態では、前記判別は、マハラノビス距離を用いた判別分析により行う。もっとも、本発明では、前記判別は、ニューラルネットワーク又はサポートベクターマシン等を用いた手法で行ってもよい。   In the present embodiment, a group of label area distance average histograms corresponding to the label area distance average histogram of the image that is not suitable for the predetermined processing as the label area distance average histogram created in step S6 ( Whether or not at least one of the two images taken by the camera 21 and subjected to the difference processing in step S2 is an image that is not suitable for the predetermined processing. Is determined (steps S7 to S9). In this embodiment, the discrimination is performed by discriminant analysis using the Mahalanobis distance. However, in the present invention, the determination may be performed by a technique using a neural network or a support vector machine.

本実施の形態では、マハラノビス距離を用いた判別分析を行うために、事前に、前記所定の処理に適していない画像のラベル領域間距離平均ヒストグラムの群(クラス)を含む複数の群(クラス)の各々毎のマハラノビス距離算出用係数(平均・共分散行列)、すなわち、後述するステップS7で用いる各クラス毎のマハラノビス距離算出用係数を求め、これらを処理部24の内部メモリ(図示せず)に予め格納しておく。   In this embodiment, in order to perform discriminant analysis using the Mahalanobis distance, a plurality of groups (classes) including a group (class) of distance average histograms between label areas of images that are not suitable for the predetermined processing in advance. For each class, that is, a Mahalanobis distance calculation coefficient for each class used in step S7 to be described later, and these are stored in an internal memory (not shown) of the processing unit 24. Stored in advance.

ここで、後述するステップS7で用いる各クラス毎のマハラノビス距離算出用係数を求める手法の一例について、説明する。   Here, an example of a method for obtaining a Mahalanobis distance calculation coefficient for each class used in step S7 described later will be described.

実際にカメラ21で撮像した多数の画像に基づく本発明者の研究の結果、本実施の形態のような歩行者検出装置では、風雨(後の説明を参照)の夜(後の説明を参照)に撮像された画像から歩行者検出処理を行うと、歩行者検出の精度が大きく低下し、当該画像は歩行者検出処理に適していないことが判明した。これは、風雨の夜に撮像された画像では、図6に示すように、夜における濡れた路上等の光の様子が、雨の路上での跳ね返りや風による波紋の変化などにより変化するため、図7に示すように差分画像において濡れた路上等の光の変化により生ずるラベル領域と歩行者によるラベル領域とを区別できなくなってしまうことなどに起因するものと考えられる。   As a result of the inventor's research based on a large number of images actually captured by the camera 21, in the pedestrian detection device as in the present embodiment, the night of wind and rain (see later explanation) (see later explanation) When the pedestrian detection process is performed from the images picked up on the pedestrian, the accuracy of pedestrian detection is greatly reduced, and it has been found that the image is not suitable for the pedestrian detection process. This is because, in an image captured in a rainy night, as shown in FIG. 6, the state of light on a wet road at night changes due to rebounding on a rainy road, changes in ripples due to wind, etc. As shown in FIG. 7, it is considered that the label area caused by a change in light on a wet road or the like in the difference image cannot be distinguished from the label area by a pedestrian.

そこで、本発明者は、24時間9ヶ月程度に渡って撮像された多数の画像の中から、11クラスの画像群をそれぞれ選別した。第1のクラスは晴の昼に撮像された画像群、第2のクラスは晴の夜又は曇の夜に撮像された画像群、第3のクラスは曇の昼に撮像された画像群、第4のクラスは雨の昼に撮像された画像群、第5のクラスは雨の夜に撮像された画像群、第6のクラスは風雨の昼に撮像された画像群、第7のクラスは風雨の夜に撮像された画像群、第8のクラスは降雪の昼に撮像された画像群、第9のクラスは降雪の夜に撮像された画像群、第10のクラスは積雪の昼に撮像された画像群、第11のクラスは積雪の夜に撮像された画像群とした。なお、本発明では、選別するクラスの数は必ずしも11個に限らない。   Therefore, the present inventor selected 11 classes of image groups from a large number of images captured over 24 hours and 9 months. The first class is an image group captured on a clear day, the second class is an image group captured on a clear night or a cloudy night, the third class is an image group captured on a cloudy day, Class 4 is an image group captured in rainy day, Class 5 is an image group captured in rainy night, Class 6 is an image group captured in rainy day, and Class 7 is wind and rain. The image group captured at night of night, the eighth class image group captured at day of snowfall, the ninth class image group captured at night of snowfall, and the tenth class imaged at daytime of snowfall The eleventh class was an image group captured on the night of snow. In the present invention, the number of classes to be selected is not necessarily limited to eleven.

ここで、昼は表示画像を見て街路灯の点灯が確認されない状態をいい、夜は表示画像を見て街路灯の点灯が確認されない状態をいう。また、晴も曇も表示画像を見て路面が乾燥している状態をいう。晴と曇とは、昼においてのみ区別し、晴は表示画像を見て影が出ている状態であり、曇は表示画像を見て影が出ていない状態である。晴と曇とは、夜においては区別しない。風雨は、表示画像を見て降雨を確認できた状態において、カメラ21の設置場所における気象庁観測データによれば降水量が2mm以上であるか、あるいは、前記気象庁観測データによれば降水量が1mm以上でかつ平均風速が6m/s以上である状態をいう。雨は、表示画像を見て降雨を確認できた状態において、風雨ではない状態をいう。積雪は、その時の天候を問わずに、表示画面を見て路面一帯に積雪が見られる状態をいう。降雪は、表示画像を見て、積雪はあってもごく一部で、雪が降っていることが確認できた状態をいう。   Here, the daytime refers to a state in which the lighting of the street light is not confirmed by looking at the display image, and the night means a state in which the lighting of the street light is not confirmed by looking at the display image. Moreover, it is a state where the road surface is dry, seeing the display image, whether it is clear or cloudy. Sunny and cloudy are distinguished only in the daytime. Sunny is a state in which a shadow is seen from the display image, and cloudy is a state in which a shadow is not seen from the display image. Sunny and cloudy are not distinguished at night. As for the wind and rain, in the state where the rain can be confirmed by looking at the display image, the precipitation amount is 2 mm or more according to the Meteorological Agency observation data at the place where the camera 21 is installed, or the precipitation amount is 1 mm according to the Meteorological Agency observation data. This is the state where the average wind speed is 6 m / s or more. Rain refers to a state that is not wind and rain in a state in which the rain can be confirmed by looking at the display image. Snow cover refers to a state where snow can be seen on the entire road surface by looking at the display screen regardless of the weather at that time. Snowfall refers to a state in which it is confirmed that snow is falling on a display image and only a small portion of the snow is falling.

図9は、図2中のステップS7で用いる各クラス毎のマハラノビス距離算出用係数を求める手法の一例を示す概略フローチャートである。図10は、図9中のステップS21の詳細を示す概略フローチャートである。   FIG. 9 is a schematic flowchart showing an example of a method for obtaining a Mahalanobis distance calculation coefficient for each class used in step S7 in FIG. FIG. 10 is a schematic flowchart showing details of step S21 in FIG.

図9及び図10に示す手法は、例えば、パーソナルコンピュータ等を用いて実現することができる。前記第1乃至第11のクラスの画像群を、各クラス毎にハードディスク等の記憶装置に予め記憶させておく。   The method shown in FIGS. 9 and 10 can be realized using, for example, a personal computer. The image groups of the first to eleventh classes are stored in advance in a storage device such as a hard disk for each class.

パーソナルコンピュータ等のCPUは、各クラス毎のマハラノビス距離算出用係数を求める処理を開始すると、ループ開始端L21でそれ以降の処理の対象となるクラスを最大クラス数まで(すなわち、第1のクラスから第11のクラスまで)順次変更して設定しながら、ループ開始端L21以降の処理を行う。   When a CPU such as a personal computer starts a process for obtaining a Mahalanobis distance calculation coefficient for each class, the class to be processed at the loop start end L21 is increased to the maximum number of classes (that is, from the first class). (Up to the eleventh class) The processing after the loop start end L21 is performed while sequentially changing and setting.

前記CPUは、ループ開始端L21で処理対象となるクラスが設定されると、当該クラス(ループ開始端L21で現在処理対象として設定されているクラス)のマハラノビス距離算出用係数を算出する処理を行い(ステップS21)、ループ終了端L22へ移行する。ループ終了端L22において、ループ開始端L21で現在処理対象として設定されているクラスが最大クラス数のうちの最後のクラスでなければ、ループ開始端L21へ戻る一方、当該クラスが最後のクラスであれば、各クラス毎のマハラノビス距離算出用係数を求める処理を終了する。このようにして得られた各クラス毎のマハラノビス距離算出用係数は、前述したように、処理部24の内部メモリ(図示せず)に予め格納しておく。   When the class to be processed is set at the loop start end L21, the CPU performs a process of calculating the Mahalanobis distance calculation coefficient of the class (the class currently set as the process target at the loop start end L21). (Step S21), the process proceeds to the loop end L22. At the loop end L22, if the class currently set as the processing target at the loop start end L21 is not the last class among the maximum number of classes, the process returns to the loop start end L21 while the class is the last class. For example, the process for obtaining the Mahalanobis distance calculation coefficient for each class is terminated. The coefficient for calculating the Mahalanobis distance for each class obtained in this way is stored in advance in the internal memory (not shown) of the processing unit 24 as described above.

ステップS21の処理を開始すると、前記CPUは、図10中のループ開始端L31でそれ以降の処理の対象となる2枚の連続して撮像された画像を、前記記憶装置に記憶されている当該クラス(ループ開始端L21で現在処理対象として設定されているクラス)の画像群の中から当該クラスの最大画像フレーム数まで順次変更して設定しながら、ループ開始端L31以降の処理を行う。   When the processing of step S21 is started, the CPU stores two consecutively picked-up images to be processed at the loop start end L31 in FIG. 10 in the storage device. The processing after the loop start end L31 is performed while sequentially changing and setting from the image group of the class (the class currently set as the processing target at the loop start end L21) to the maximum number of image frames of the class.

前記CPUは、ループ開始端L31で処理対象となる2枚の連続して撮像された画像が設定されると、当該2枚の画像を前記記憶装置からサンプリング(ステップS31)し、サンプリングした画像を当該パーソナルコンピュータ等の画像メモリ(図示せず)に格納させる。次いで、前記CPUは、それらの2枚の画像の差分画像(フレーム間差分画像)を生成する(ステップS32)。   When two consecutively captured images to be processed are set at the loop start end L31, the CPU samples the two images from the storage device (step S31), and the sampled images are obtained. It is stored in an image memory (not shown) such as the personal computer. Next, the CPU generates a difference image (inter-frame difference image) between these two images (step S32).

次に、前記CPUは、ステップS32で生成した差分画像を2値化する(ステップS33)。引き続いて、前記CPUは、ステップS33で2値化された画像の前記処理対象領域からラベリングによりラベル領域を取得する(ステップS34)。   Next, the CPU binarizes the difference image generated in step S32 (step S33). Subsequently, the CPU acquires a label area by labeling from the processing target area of the image binarized in step S33 (step S34).

その後、前記CPUは、前述したステップS5と同様に、ステップS34で取得した各ラベル領域について、当該ラベル領域から残りの各ラベル領域までの各距離の平均値(ラベル領域間距離平均)を、取得する(ステップS35)。   Thereafter, the CPU obtains the average value of the distances from the label area to the remaining label areas (average distance between label areas) for each label area obtained in step S34, as in step S5 described above. (Step S35).

次に、前記CPUは、前述したステップS6と同様に、ステップS35で算出した全てのラベル領域のラベル領域間距離平均に基づいて、ラベル領域間距離平均の予め定めた各範囲(階級)毎の当該範囲に属するラベル領域間距離平均を持つラベル領域の数(度数)を示すヒストグラム(ラベル領域間距離平均ヒストグラム)を作成する(ステップS36)。今、前記範囲(階級)の数をpとし、前記各階級の度数をそれぞれx,x,x,・・・,xとすると、前記ラベル領域間距離平均ヒストグラムは、それらを要素とするp次元のベクトルx=(x,x,x,・・・,xと表すことができ、p次元の多変数ベクトル空間における1つの既知の標本ベクトルに相当する。ここで、既知とは、当該標本ベクトルがループ開始端L21で現在処理対象として設定されているクラスに属することが既知であることを意味する。 Next, in the same manner as Step S6 described above, the CPU determines the average distance between label areas for each predetermined range (class) based on the average distance between label areas of all label areas calculated in Step S35. A histogram (label area distance average histogram) indicating the number (frequency) of label areas having an average distance between label areas belonging to the range is created (step S36). Now, the number of the range (class) and p, x 1 wherein the frequency of each class respectively, x 2, x 3, · · ·, When x p, the label area the distance between the average histogram them elements P-dimensional vector x = (x 1 , x 2 , x 3 ,..., X p ) T , which corresponds to one known sample vector in a p-dimensional multivariable vector space. Here, “known” means that it is known that the sample vector belongs to the class currently set as the processing target at the loop start end L21.

ステップS36の後、ループ終了端L32へ移行する。ループ終了端L32において、ループ開始端L31で現在処理対象として設定されている2枚の画像が当該クラス(ループ開始端L21で現在処理対象として設定されているクラス)の最大画像フレーム数のうちの最後の2枚の画像でなければ、ループ開始端L31へ戻る一方、当該2枚の画像が最後の2枚の画像であれば、ステップS37へ移行する。   After step S36, the process proceeds to the loop end L32. At the loop end L32, the two images currently set as processing targets at the loop starting end L31 are out of the maximum number of image frames of the class (class set as the current processing target at the loop start end L21). If it is not the last two images, the process returns to the loop start end L31, while if the two images are the last two images, the process proceeds to step S37.

ステップS37において、前記CPUは、当該クラス(ループ開始端L21で現在処理対象として設定されているクラス)について、これまでに各回のステップS36で1つずつ得られた所定数のラベル領域間距離平均ヒストグラム(標本ベクトルx=(x,x,x,・・・,x)から、当該クラスのマハラノビス距離算出用係数として、当該クラスの前記所定数の標本ベクトルxの母集団の平均ベクトルμ=(μ,μ,μ,・・・,μ及び共分散行列Σを、算出する。なお、共分散行列Σは、公知の式によって算出することができる。 In step S37, the CPU determines the average distance between the predetermined number of label areas obtained in step S36 each time for the class (the class currently set as the processing target at the loop start end L21). From the histogram (sample vector x = (x 1 , x 2 , x 3 ,..., X p ) T ), the population of the predetermined number of sample vectors x of the class as the Mahalanobis distance calculation coefficient of the class Mean vector μ = (μ 1 , μ 2 , μ 3 ,..., Μ p ) T and covariance matrix Σ are calculated. The covariance matrix Σ can be calculated by a known formula.

ステップS37が終了することによって、ステップS21が終了し、前述した図9中のループ終了端L22へ移行する。   When step S37 ends, step S21 ends, and the process proceeds to the loop end L22 in FIG. 9 described above.

前述したように、ループ終了端L22において、ループ開始端L21で現在処理対象として設定されているクラスが最大クラス数のうちの最後のクラスでなければ、ループ開始端L21へ戻る一方、当該クラスが最後のクラスであれば、第1乃至第11のクラスの全てについて、各クラス毎のマハラノビス距離算出用係数の算出が終了し、各クラス毎のマハラノビス距離算出用係数を求める処理を終了する。このようにして求められた各クラス毎のマハラノビス距離算出用係数は、前述したように、処理部24の内部メモリ(図示せず)に予め格納しておく。   As described above, at the loop end L22, if the class currently set as the processing target at the loop start L21 is not the last class of the maximum number of classes, the loop returns to the loop start L21, while the class is If it is the last class, calculation of the Mahalanobis distance calculation coefficient for each class is completed for all of the first to eleventh classes, and the process of obtaining the Mahalanobis distance calculation coefficient for each class is completed. The Mahalanobis distance calculation coefficient for each class determined in this way is stored in advance in an internal memory (not shown) of the processing unit 24 as described above.

以下の説明では、このようにして求められて処理部24の内部メモリ(図示せず)に予め格納された第k(k=1,2,3,・・・,11)のクラスのマハラノビス距離算出用係数である平均ベクトル及び共分散行列を、それぞれμ及びΣと表記する。 In the following description, the Mahalanobis distance of the kth class (k = 1, 2, 3,..., 11) obtained in this manner and stored in advance in an internal memory (not shown) of the processing unit 24. A mean vector and a covariance matrix, which are calculation coefficients, are denoted as μ k and Σ k , respectively.

再び図2を参照して、図1中の処理部24が実行するステップS7以降の具体的な処理内容について説明する。その前にステップS6について再度説明すると、前述したように、ステップS6において、処理部24は、ステップS2で差分処理された2枚の画像に基づく前記ラベル領域間距離平均ヒストグラム、すなわち、1つの新たな標本ベクトルx=(x,x,x,・・・,xを取得する。この標本ベクトルxが前記第1乃至第11のクラスのうちのいずれのクラスに属するかは、未知である。 With reference to FIG. 2 again, the specific processing contents after step S7 executed by the processing unit 24 in FIG. 1 will be described. Before that, step S6 will be described again. As described above, in step S6, the processing unit 24 calculates the distance average histogram between label regions based on the two images subjected to the difference processing in step S2, that is, one new Sample vector x = (x 1 , x 2 , x 3 ,..., X p ) T is acquired. It is unknown which class of the first to eleventh classes the sample vector x belongs to.

ステップS6の後に、処理部24は、処理部24の内部メモリ(図示せず)に予め格納された前記各クラス毎のマハラノビス距離算出用係数である平均ベクトルμ及び共分散行列Σ(k=1,2,3,・・・,11)に従って、ステップS6で取得した標本ベクトルx=(x,x,x,・・・,xの各クラスへのマハラノビス距離を算出する(ステップS7)。 After step S6, the processing unit 24 calculates the mean vector μ k and the covariance matrix Σ k (k) that are the coefficients for calculating the Mahalanobis distance for each class stored in advance in an internal memory (not shown) of the processing unit 24. = 1, 2, 3,..., 11) The Mahalanobis distance to each class of the sample vector x = (x 1 , x 2 , x 3 ,..., X p ) T acquired in step S6. Calculate (step S7).

標本ベクトルx=(x,x,x,・・・,xの第k(k=1,2,3,・・・,11)のクラスへのマハラノビス距離をDと表記すると、マハラノビス距離Dは、D={(x−μΣ −1(x−μ)}1/2の式によって算出することができる。ステップS7において、処理部24は、この式によってマハラノビス距離D,D,D,・・・,D11を算出するのである。 Sample vector x = (x 1 , x 2 , x 3 ,..., X p ) The Mahalanobis distance to the k-th (k = 1, 2, 3,..., 11) class of T is D k . When expressed, the Mahalanobis distance D k can be calculated by an equation of D k = {(x−μ k ) T Σ k −1 (x−μ k )} 1/2 . In step S7, the processing unit 24, the Mahalanobis distance D 1, D 2, D 3 by the equation, ..., is to calculate the D 11.

引き続いて、処理部24は、ステップS7で算出されたマハラノビス距離D,D,D,・・・,D11を比較し、そのうち最も短いマハラノビス距離がいずれかであるかを判定する(ステップS8)。マハラノビス距離を用いた判別分析では、ステップS6で取得した標本ベクトルxは、マハラノビス距離が最も短いクラスに属するものと判定されることになる。例えば、最も短いマハラノビス距離がDであれば前記第3のクラスに属するものと判定され、最も短いマハラノビス距離がDであれば前記第7のクラス(風雨の夜に撮像された画像群のクラス)に属するものと判定されることになる。 Subsequently, the processing unit 24 compares the Mahalanobis distances D 1 , D 2 , D 3 ,..., D 11 calculated in step S7, and determines which one of the shortest Mahalanobis distances is one ( Step S8). In the discriminant analysis using the Mahalanobis distance, the sample vector x acquired in step S6 is determined to belong to the class having the shortest Mahalanobis distance. For example, the shortest Mahalanobis distance is determined to belong to the third class if D 3, the seventh if the shortest Mahalanobis distance is D 7 classes (the image group captured at night weathertight Class).

なお、本発明者は、前記第7のクラスのマハラノビス距離算出用係数である平均ベクトルμ及び共分散行列Σを算出する基礎となった前記所定数の標本ベクトル(前記第7のクラスに属することが既知の標本ベクトル)の各々をそれぞれ、ステップS6で取得した1つの新たな標本ベクトルであるとみなして、ステップS7〜S9の処理を行ったところ、約95%の標本ベクトルが前記第7のクラスに属すると判定されることを確認した。これにより、ステップS7〜S9のマハラノビスを用いた判別分析によれば、実際に風雨の夜に撮像された未知の画像が、約95%の非常に高い確率で、風雨の夜に撮像された画像であると判別されるものと評価することができた。 Note that the present inventor has determined that the predetermined number of sample vectors (into the seventh class) that are the basis for calculating the mean vector μ 7 and the covariance matrix Σ 7 that are the coefficients for calculating the Mahalanobis distance of the seventh class. Each of the known sample vectors) is regarded as one new sample vector acquired in step S6, and the processing in steps S7 to S9 is performed. As a result, about 95% of the sample vectors are It was confirmed that it was determined to belong to class 7. As a result, according to the discriminant analysis using Mahalanobis in steps S7 to S9, an unknown image actually captured on a rainy night is an image captured on a rainy night with a very high probability of about 95%. It was possible to evaluate that it was discriminated as being.

ステップS8の後、処理部24は、ステップS8で判定された最も短いマハラノビス距離がDであるか否か(すなわち、ステップS6で取得した標本ベクトルxが前記第7のクラス(風雨の夜に撮像された画像群のクラス)に属するか否か、ひいては、ステップS2で差分処理された2枚の画像が風雨の夜に撮像されたものであるか否か)によって、ステップS2で差分処理された2枚の画像がステップS10の歩行者検出処理に不適である(すなわち、適していない)画像であるか否かを判定する(ステップS9)。 After step S8, the processing unit 24 determines whether the shortest Mahalanobis distance, which is determined in step S8 is D 7 (i.e., the night acquired sample vector x is the seventh class (weather at step S6 The difference processing is performed in step S2 depending on whether or not the images belong to the class of the captured image group) and, in turn, whether or not the two images subjected to the difference processing in step S2 are captured in the rainy night) It is determined whether or not the two images are images that are unsuitable (that is, unsuitable) for the pedestrian detection process in step S10 (step S9).

処理部24は、ステップS8で判定された最も短いマハラノビス距離がDである場合には、ステップS9において、ステップS2で差分処理された2枚の画像はステップS10の歩行者検出処理に適していない画像であると判定し、ステップS10を経ることなく、ステップS13へ移行する。一方、処理部24は、ステップS8で判定された最も短いマハラノビス距離がDではない場合には、ステップS9において、ステップS2で差分処理された2枚の画像はステップS10の歩行者検出処理に適していない画像ではないと判定し、ステップS10へ移行する。 Processing unit 24, when the shortest Mahalanobis distance, which is determined in step S8 is D 7, in step S9, 2 images that have been difference processing in step S2 is suitable for pedestrian detection process in step S10 It is determined that the image is not present, and the process proceeds to step S13 without passing through step S10. On the other hand, the processing unit 24, when the shortest Mahalanobis distance is determined is not a D 7 in step S8, in step S9, 2 images that have been difference processing in step S2 is the pedestrian detection process in step S10 It is determined that the image is not suitable, and the process proceeds to step S10.

ステップS10において、処理部24は、ステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像に基づいて、前記処理対象領域内における歩行者を検出する歩行者検出処理を行う。この歩行者検出処理は、例えば、ステップS4で取得されたラベル領域に対してパターン認識等を行うなどの公知の手法によって実現することができる。   In step S10, the processing unit 24 performs a pedestrian detection process for detecting a pedestrian in the processing target area based on at least one of the two images subjected to the difference processing in step S2. This pedestrian detection process can be realized by a known method such as pattern recognition for the label area acquired in step S4.

ステップS10の後に、処理部24は、ステップS10の歩行者検出処理の結果として歩行者が検出されたか否かを判定し(ステップS11)、歩行者が検出されればステップS12へ移行する一方、歩行者が検出されなければステップS13へ移行する。   After step S10, the processing unit 24 determines whether or not a pedestrian has been detected as a result of the pedestrian detection process in step S10 (step S11). If a pedestrian is detected, the process proceeds to step S12. If no pedestrian is detected, the process proceeds to step S13.

ステップS12において、処理部24は、歩行者が検出された旨を示す歩行者検出信号の出力を開始する。この歩行者検出信号は、図1中の信号制御装置12に供給される。なお、既に歩行者検出信号が出力されている状態であれば、その出力を継続する。ステップS12の後に、ステップS1へ戻って新たな画像をサンプリングする。   In step S12, the processing unit 24 starts outputting a pedestrian detection signal indicating that a pedestrian has been detected. This pedestrian detection signal is supplied to the signal control device 12 in FIG. If the pedestrian detection signal has already been output, the output is continued. After step S12, the process returns to step S1 to sample a new image.

ステップS13において、処理部24は、歩行者が検出された旨を示す歩行者検出信号の出力を停止する。なお、既に歩行者検出信号の出力が停止されている状態であれば、その停止状態を継続する。ステップS13の後に、ステップS1へ戻って新たな画像をサンプリングする。   In step S13, the processing unit 24 stops outputting a pedestrian detection signal indicating that a pedestrian has been detected. If the output of the pedestrian detection signal is already stopped, the stopped state is continued. After step S13, the process returns to step S1 to sample a new image.

本実施の形態では、処理部24における図2中のステップS2〜S9の機能が、本発明の一実施の形態による画像判定装置に相当している。   In the present embodiment, the functions of steps S2 to S9 in FIG. 2 in the processing unit 24 correspond to the image determination apparatus according to an embodiment of the present invention.

本実施の形態によれば、前述したように、前記ラベル領域間距離平均ヒストグラムとに基づいて、カメラ21により撮像されステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像が前記所定の処理(本実施の形態では、ステップS10の歩行者検出処理)に適していない画像であるか否かを判定するので、その判定を適切に行うことができる。   According to the present embodiment, as described above, at least one of the two images picked up by the camera 21 and subjected to the difference processing in step S2 based on the distance average histogram between the label areas is the above-described image. Since it is determined whether or not the image is not suitable for the predetermined process (in this embodiment, the pedestrian detection process in step S10), the determination can be performed appropriately.

そして、前記ラベル領域間距離平均ヒストグラムは、カメラ21により撮像された画像自身から得られる情報である。したがって、本実施の形態によれば、カメラ21により撮像されステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であるか否かの判定において、カメラ21により撮像された画像自身から得られる情報を反映させることができる。   The label area distance average histogram is information obtained from the image captured by the camera 21 itself. Therefore, according to the present embodiment, it is determined whether at least one of the two images captured by the camera 21 and subjected to the difference processing in step S2 is an image that is not suitable for the predetermined processing. The information obtained from the image itself captured by the camera 21 can be reflected.

また、本実施の形態では、カメラ21により撮像され気象条件の影響を受ける画像が前記所定の処理に適していない画像であるか否かの判定が、前記気象条件を検出するセンサからの信号を用いることなく行われるので、前記センサを設ける必要がなくなり、その分コスト低減を図ることができる。   In the present embodiment, whether or not the image captured by the camera 21 and affected by the weather condition is an image that is not suitable for the predetermined process is determined by using a signal from the sensor that detects the weather condition. Since it is performed without using it, it is not necessary to provide the sensor, and the cost can be reduced accordingly.

さらに、本実施の形態では、カメラ21により撮像されステップS2で差分処理された2枚の画像のうちの少なくとも一方の画像が前記所定の処理(本実施の形態では、ステップS10の歩行者検出処理)に適していない画像であると判定された場合(ステップS9でYESの場合)には、ステップS10の歩行者検出処理が行われることなく、歩行者検出信号の出力が停止されるので、歩行者検出の精度が高まり、ひいては、信号制御装置による制御がより適切に行われることになる。   Further, in the present embodiment, at least one of the two images captured by the camera 21 and subjected to the difference process in step S2 is the predetermined process (in this embodiment, the pedestrian detection process in step S10). If the image is determined not to be suitable for (when YES in step S9), the output of the pedestrian detection signal is stopped without performing the pedestrian detection process in step S10. As a result, the accuracy of person detection increases, and as a result, the control by the signal control device is performed more appropriately.

なお、ステップS9でYESかNOかに拘わらずに、常にステップS10以降の処理が行われるようにし、ステップS9でYESの場合に、処理部24はその旨を示し歩行者検出信号が無効である旨の信号(以下、「無効信号」と呼ぶ。)の信号制御装置12への出力を開始し、ステップS9でNOの場合に、処理部24は前記無効信号の出力を停止するようにしてもよい。この場合、信号制御装置12は、処理部24から前記無効信号を受けていない場合にのみ、処理部24からの歩行者検出信号を有効なものとして受け取り、処理部24から前記無効信号を受けている場合には、処理部24からの歩行者検出信号を無視するように構成すればよい。   Regardless of whether it is YES or NO in step S9, the processing after step S10 is always performed. If YES in step S9, the processing unit 24 indicates that and the pedestrian detection signal is invalid. The output of the signal to the effect (hereinafter referred to as “invalid signal”) to the signal control device 12 is started, and in the case of NO in step S9, the processing unit 24 may stop outputting the invalid signal. Good. In this case, the signal control device 12 receives the pedestrian detection signal from the processing unit 24 as valid only when the invalid signal is not received from the processing unit 24, and receives the invalid signal from the processing unit 24. If it is, the pedestrian detection signal from the processing unit 24 may be ignored.

[第2の実施の形態]   [Second Embodiment]

図11は、本発明の第2の実施の形態による処理装置としての歩行者検出装置の動作を示す概略フローチャートである。本実施の形態による歩行者検出装置が前記第1の実施の形態による歩行者検出装置11と異なる所は、以下に説明する点である。   FIG. 11 is a schematic flowchart showing the operation of the pedestrian detection apparatus as the processing apparatus according to the second embodiment of the present invention. The difference between the pedestrian detection device according to the present embodiment and the pedestrian detection device 11 according to the first embodiment is the point described below.

本実施の形態では、ステップS1の後に、処理部24は、ステップS1でサンプリングされた2枚の画像のうちの一方の画像の前記処理対象領域の平均濃淡値を、当該画像の前記処理対象領域の明るさとして算出する(ステップS42)。   In the present embodiment, after step S1, the processing unit 24 calculates the average gray value of the processing target area of one of the two images sampled in step S1 as the processing target area of the image. Is calculated as a brightness (step S42).

次に、処理部24は、ステップS42で算出された平均濃淡値が所定値よりも低いか否かによって、当該画像の前記処理対象領域の明るさが所定の明るさよりも暗いか否かを判定する(ステップS43)。前記所定の明るさは、例えば、街路灯の点灯・非点灯の閾値となる明るさに設定される。   Next, the processing unit 24 determines whether the brightness of the processing target area of the image is darker than the predetermined brightness based on whether the average gray value calculated in step S42 is lower than the predetermined value. (Step S43). The predetermined brightness is set, for example, to a brightness that is a threshold value for lighting / non-lighting a street lamp.

ステップS43で所定の明るさよりも暗いと判定されると、ステップS2へ移行し、ステップS43で所定の明るさよりも暗くないと判定されると、ステップS10へ移行する。   If it is determined in step S43 that it is darker than the predetermined brightness, the process proceeds to step S2. If it is determined in step S43 that it is not darker than the predetermined brightness, the process proceeds to step S10.

これにより、本実施の形態では、処理部24は、カメラ21により撮像された前記2枚の画像のうちの一方の画像(両方の画像でもよい。)の一部の領域(全部の領域でもよい。)の明るさが所定の明るさよりも暗いことを必要条件として、カメラ21により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理(本実施の形態では、ステップS10の歩行者検出処理)に適していない画像であると判定することになる。なお、カメラ21により撮像された前記2枚の画像のうちの少なくとも一方の画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件としてもよい。   Thereby, in this Embodiment, the process part 24 is a partial area | region (all area | regions may be sufficient) of one image (both images may be sufficient) of the said 2 images imaged with the camera 21. .) Is required to be darker than the predetermined brightness, and at least one of the two images captured by the camera 21 is subjected to the predetermined processing (in the present embodiment, step S10). It is determined that the image is not suitable for the pedestrian detection process. In addition, it is good also as a necessary condition that the brightness of the one part or the whole area | region of at least one image of the said 2 images imaged with the camera 21 is darker than predetermined brightness.

一般的に、画像が明るい場合には、ノイズ等の影響が少なくて前記画像が前記所定の処理(本実施の形態では、ステップS10の歩行者検出処理)に適している一方で、画像が暗い場合には、ノイズ等の影響が大きくて前記画像が前記所定の処理に適していないことが多い。したがって、本実施の形態によれば、処理部24は、カメラ21により撮像された前記2枚の画像のうちの少なくとも一方の画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、カメラ21により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であると判定するので、前記判定の精度を向上させることができる。   In general, when an image is bright, the image is dark while the influence of noise or the like is small and the image is suitable for the predetermined processing (in this embodiment, pedestrian detection processing in step S10). In some cases, the image is not suitable for the predetermined processing due to a large influence of noise or the like. Therefore, according to the present embodiment, the processing unit 24 is configured such that the brightness of a part or the entire area of at least one of the two images captured by the camera 21 is darker than a predetermined brightness. As a necessary condition, it is determined that at least one of the two images captured by the camera 21 is an image that is not suitable for the predetermined processing, so that the accuracy of the determination can be improved. it can.

なお、本実施の形態では、前記第1の実施の形態と同じく、処理部24は、ステップS7で前記11個のマハラノビス距離D,D,D,・・・,D11を算出し、ステップS8でそのうち最も短いマハラノビス距離がいずれかであるかを判定している。もっとも、本実施の形態では、処理部24は、ステップS7で夜に関する前記5個のマハラノビス距離D,D,D,D,D11を算出し、ステップS8でそのうち最も短いマハラノビス距離がいずれかであるかを判定してもよい。この場合、昼に関する前記第1,第3,第4,第6,第8及び第10のクラスのマハラノビス距離算出用係数は、使用しないので、処理部24の内部メモリに格納しておく必要はない。 In the present embodiment, as in the first embodiment, the processing unit 24 calculates the eleven Mahalanobis distances D 1 , D 2 , D 3 ,..., D 11 in step S7. In step S8, it is determined whether the shortest Mahalanobis distance is any one. However, in the present embodiment, the processing unit 24 calculates the five Mahalanobis distances D 2 , D 5 , D 7 , D 9 , and D 11 related to the night in step S7, and the shortest Mahalanobis distance in step S8. It may be determined whether or not. In this case, since the first, third, fourth, sixth, eighth and tenth class Mahalanobis distance calculation coefficients related to daytime are not used, it is necessary to store them in the internal memory of the processing unit 24. Absent.

なお、本実施の形態による歩行者検出装置は、図1に示す交通制御システム1において、前記第1の実施の形態による歩行者検出装置11に代えて用いることができる。   Note that the pedestrian detection device according to the present embodiment can be used in place of the pedestrian detection device 11 according to the first embodiment in the traffic control system 1 shown in FIG.

[第3の実施の形態]   [Third Embodiment]

図12は、本発明の第3の実施の形態による処理装置としての歩行者検出装置の動作を示す概略フローチャートである。本実施の形態による歩行者検出装置が前記第1の実施の形態による歩行者検出装置11と異なる所は、以下に説明する点である。   FIG. 12 is a schematic flowchart showing the operation of the pedestrian detection device as the processing device according to the third embodiment of the present invention. The difference between the pedestrian detection device according to the present embodiment and the pedestrian detection device 11 according to the first embodiment is the point described below.

本実施の形態では、動作を開始すると、処理部24は、初期の背景画像を作成する(ステップS51)。ここで、ステップS51の詳細について、図13を参照して説明する。図13は、図12中のステップS51の詳細を示す概略フローチャートである。   In the present embodiment, when the operation is started, the processing unit 24 creates an initial background image (step S51). Details of step S51 will be described with reference to FIG. FIG. 13 is a schematic flowchart showing details of step S51 in FIG.

ステップS51の処理を開始すると、処理部24は、累積回数を示すカウント値nをゼロにセットする(ステップS61)。次いで、処理部24は、前回の累積画像f(t−1)を全画素がゼロの画像に初期設定する(ステップS62)。その後、処理部24は、カメラ21からの現在の画像を、現在の画像g(t)としてサンプリングして画像メモリ23に取り込む(ステップS63)。   When the process of step S51 is started, the processing unit 24 sets a count value n indicating the cumulative number of times to zero (step S61). Next, the processing unit 24 initializes the previous accumulated image f (t−1) to an image in which all pixels are zero (step S62). Thereafter, the processing unit 24 samples the current image from the camera 21 as the current image g (t) and loads it into the image memory 23 (step S63).

次に、処理部24は、前回の累積画像f(t−1)とステップS63でサンプリングした画像g(t)とに基づいて、f(t)=αf(t−1)+(1−α)g(t)の式に従って現在の累積画像f(t)を作成する(ステップS64)。この式において、αは、0<α<1を満たす重み係数であり、歩行者等の移動体の影響などが低減されるような値に設定される。   Next, the processing unit 24 calculates f (t) = αf (t−1) + (1−α based on the previous accumulated image f (t−1) and the image g (t) sampled in step S63. ) The current cumulative image f (t) is created according to the equation g (t) (step S64). In this equation, α is a weighting coefficient that satisfies 0 <α <1, and is set to a value that reduces the influence of a moving object such as a pedestrian.

その後、処理部24は、その内部メモリ(図示せず)に格納されたカウント値nを1だけインクリメントした(ステップS65)後、カウント値nが所定累積回数Nに達したか否かを判定する(ステップS66)。所定累積回数Nに達していなければ、処理部24は、現在の累積画像f(t)を前回の累積画像f(t−1)とし(ステップS67)、ステップS63へ戻る。一方、ステップS66で所定累積回数Nに達したと判定されると、処理部24は、現在の累積画像f(t)を初期の背景画像として画像メモリ23に保存する(ステップS68)。これにより、ステップS51の初期の背景画像の作成処理が終了し、図12中のステップS52へ移行する。なお、歩行者等の移動体が存在しない状態でカメラ21により撮像された画像をサンプリングし、この画像を初期の背景画像としてもよい。   Thereafter, the processing unit 24 increments the count value n stored in its internal memory (not shown) by 1 (step S65), and then determines whether or not the count value n has reached a predetermined cumulative number N. (Step S66). If the predetermined cumulative number N has not been reached, the processing unit 24 sets the current cumulative image f (t) as the previous cumulative image f (t-1) (step S67), and returns to step S63. On the other hand, if it is determined in step S66 that the predetermined cumulative number N has been reached, the processing unit 24 stores the current cumulative image f (t) in the image memory 23 as an initial background image (step S68). Thus, the initial background image creation process in step S51 is completed, and the process proceeds to step S52 in FIG. Note that an image captured by the camera 21 in a state where there is no moving object such as a pedestrian may be sampled, and this image may be used as an initial background image.

以下の説明において、背景画像は、ステップS54で更新されるまでは、ステップS51で保存された初期の背景画像を意味し、ステップS54で更新された後には、ステップS54で最新に更新された背景画像を意味する。   In the following description, the background image means the initial background image stored in step S51 until updated in step S54, and after updated in step S54, the background image updated in step S54 is the latest updated background image. Means an image.

ステップS52において、処理部24は、カメラ21が撮像した1枚の画像をサンプリングし(ステップS52)、サンプリングした画像を画像メモリ23に格納させる。その後、ステップS3へ移行する。   In step S52, the processing unit 24 samples one image captured by the camera 21 (step S52), and stores the sampled image in the image memory 23. Thereafter, the process proceeds to step S3.

ステップS3において、処理部24は、ステップS53で生成した差分画像(本実施の形態では、背景差分画像)を2値化する。この2値化に用いる閾値は、固定閾値でもよいし、判別分析法に代表されるような可変閾値でもよい。   In step S3, the processing unit 24 binarizes the difference image (background difference image in the present embodiment) generated in step S53. The threshold value used for the binarization may be a fixed threshold value or a variable threshold value represented by discriminant analysis method.

引き続いて、処理部24は、ステップS3で2値化された画像の前記処理対象領域からラベリングによりラベル領域を取得する(ステップS4)。   Subsequently, the processing unit 24 acquires a label region by labeling from the processing target region of the image binarized in step S3 (step S4).

次に、処理部24は、背景画像を更新した(ステップS54)の後、ステップS5へ移行する。ステップS54の背景画像の更新は、例えば、現画像をg(t)とするとともに現在の背景画像をf(t−1)として前述した式に従って画像f(t)を算出し、この画像f(t)を更新後の背景画像とすることによって、行うことができる。   Next, the processing unit 24 updates the background image (step S54), and then proceeds to step S5. In step S54, the background image is updated by, for example, calculating the image f (t) according to the above-described equation by setting the current image to g (t) and the current background image to f (t-1). This can be done by setting t) as the updated background image.

本実施の形態においても、ステップS5以降の処理は、前記第1の実施の形態の場合と同様である。本実施の形態では、ステップS12の後及びステップS13の後には、ステップS52へ戻って新たな画像をサンプリングする。   Also in the present embodiment, the processing after step S5 is the same as in the case of the first embodiment. In the present embodiment, after step S12 and after step S13, the process returns to step S52 to sample a new image.

なお、本実施の形態においても、処理部24の内部メモリ(図示せず)に予め格納しておく、ステップS7で用いる各クラス毎のマハラノビス距離算出用係数は、前記第1の実施の形態の場合と全く同じでもよい。しかしながら、本実施の形態において、ステップS7で用いる各クラス毎のマハラノビス距離算出用係数は、背景差分画像を用いて求めたものであることが、より好ましい。   Also in this embodiment, the Mahalanobis distance calculation coefficient for each class used in step S7, which is stored in advance in an internal memory (not shown) of the processing unit 24, is the same as that in the first embodiment. It may be exactly the same as the case. However, in the present embodiment, it is more preferable that the Mahalanobis distance calculation coefficient for each class used in step S7 is obtained using a background difference image.

ここで、背景差分画像を用いて、ステップS7で用いる各クラス毎のマハラノビス距離算出用係数を求める手法の一例について、説明する。   Here, an example of a method for obtaining the Mahalanobis distance calculation coefficient for each class used in step S7 using the background difference image will be described.

本例による手法もパーソナルコンピュータ等を用いて実現することができ、本例による手法においても、前記第1乃至第11のクラスの画像群を、各クラス毎にハードディスク等の記憶装置に予め記憶させておく。   The method according to this example can also be realized by using a personal computer or the like, and also in the method according to this example, the image groups of the first to eleventh classes are stored in advance in a storage device such as a hard disk for each class. Keep it.

パーソナルコンピュータ等のCPUは、各クラス毎のマハラノビス距離算出用係数を求める処理を開始すると、まず、前記記憶装置に記憶されている前記第1のクラスの画像群のうち、連続して撮像された一連の画像について、図12中のステップS51,S52,S53,S3,S4,S54,S5,S6に相当する処理を繰り返し、当該一連の画像に関する複数のラベル領域間距離平均ヒストグラムを算出し、同様に、前記記憶装置に記憶されている前記第1のクラスの画像群のうち、残りの各一連の画像に関する複数のラベル領域間距離平均ヒストグラムをそれぞれ算出する。これにより、前記記憶装置に記憶されている前記第1のクラスの画像群について、所定数のラベル領域間距離平均ヒストグラム(標本ベクトルx=(x,x,x,・・・,x)が得られる。次に、前記CPUは、前記第1のクラスの前記所定数の標本ベクトルxの母集団の平均ベクトルμ=(μ,μ,μ,・・・,μ及び共分散行列Σを、前記第1のクラスのマハラノビス距離算出用係数として算出する。 When a CPU such as a personal computer starts a process for obtaining a Mahalanobis distance calculation coefficient for each class, first, images of the first class of images stored in the storage device are continuously captured. For a series of images, the processing corresponding to steps S51, S52, S53, S3, S4, S54, S5, and S6 in FIG. 12 is repeated to calculate a plurality of label area distance average histograms related to the series of images. In addition, among the first class of image groups stored in the storage device, a plurality of label area distance average histograms for the remaining series of images are respectively calculated. Thus, for the first class of image groups stored in the storage device, a predetermined number of label area distance average histograms (sample vectors x = (x 1 , x 2 , x 3 ,..., X p ) T ) is obtained. Next, the CPU calculates an average vector μ = (μ 1 , μ 2 , μ 3 ,..., Μ p ) T and a covariance matrix of the predetermined number of sample vectors x of the first class. Σ is calculated as a coefficient for calculating the Mahalanobis distance of the first class.

その後、前記CPUは、前記記憶装置に記憶されている前記第1のクラスの画像群についての前述の処理と同様の処理を、前記記憶装置に記憶されている前記第2乃至第11のクラスの各クラスの画像群について行い、前記第2乃至第11のクラスの各クラスの母集団の平均ベクトルμ=(μ,μ,μ,・・・,μ及び共分散行列Σを、各クラスのマハラノビス距離算出用係数として算出する。 Thereafter, the CPU performs the same processing as the processing described above for the first class of image groups stored in the storage device for the second to eleventh classes stored in the storage device. For each class of image group, the average vector μ = (μ 1 , μ 2 , μ 3 ,..., Μ p ) T and the covariance matrix Σ of the classes of the second to eleventh classes. Is calculated as a Mahalanobis distance calculation coefficient for each class.

本実施の形態では、このようにして求められた各クラス毎のマハラノビス距離算出用係数を、処理部24の内部メモリ(図示せず)に予め格納しておけばよい。   In the present embodiment, the Mahalanobis distance calculation coefficient for each class obtained in this way may be stored in advance in an internal memory (not shown) of the processing unit 24.

本実施の形態によっても、前記第1の実施の形態と同様の利点が得られる。なお、本実施の形態による歩行者検出装置は、図1に示す交通制御システム1において、前記第1の実施の形態による歩行者検出装置11に代えて用いることができる。   Also in this embodiment, the same advantages as those in the first embodiment can be obtained. Note that the pedestrian detection device according to the present embodiment can be used in place of the pedestrian detection device 11 according to the first embodiment in the traffic control system 1 shown in FIG.

なお、本発明では、前記第1の実施の形態を変形して本実施の形態を得たのと同様の変形を、前記第2の実施の形態に適用してもよい。   In the present invention, a modification similar to that obtained by modifying the first embodiment may be applied to the second embodiment.

以上、本発明の各実施の形態について説明したが、本発明はこれらの実施の形態に限定されるものではない。   Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments.

例えば、前記各実施の形態では、本発明による処理装置の例として歩行者検出装置を挙げたが、本発明は、これに限らず、撮像手段により撮像された画像に対して所定の処理(車両検出処理でもよいし、他の処理でもよい。)を施す処理手段を有する種々の処理装置にも適用することができる。例えば、本発明は、従来の道路監視装置と同様の道路監視装置にも適用することができる。   For example, in each of the above-described embodiments, the pedestrian detection device is described as an example of the processing device according to the present invention. However, the present invention is not limited to this, and predetermined processing (vehicle) The present invention can also be applied to various processing apparatuses having processing means for performing detection processing or other processing. For example, the present invention can be applied to a road monitoring device similar to a conventional road monitoring device.

11 歩行者検出装置
21 カメラ
24 処理部
11 Pedestrian Detection Device 21 Camera 24 Processing Unit

Claims (8)

撮像手段により所定の時間間隔で撮像された2枚の画像間の差分画像の所定領域、あるいは、撮像手段により撮像された画像と背景画像との間の差分画像の所定領域から、ラベリングによりラベル領域を取得するラベリング手段と、
前記ラベリング手段により取得された各ラベル領域について、当該ラベル領域から残りの各ラベル領域までの各距離の平均値又はこれに応じた値である指標値を取得する指標値取得手段と、
前記指標値の予め定めた各範囲毎の当該範囲に属する前記指標値を持つ前記ラベル領域の数を示すヒストグラムを取得するヒストグラム取得手段と、
前記ヒストグラムに基づいて、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が所定の処理に適していない画像であるか否か、あるいは、前記撮像手段により撮像された前記画像が所定の処理に適していない画像であるか否かを判定する判定手段と、
を備えたことを特徴とする画像判定装置。
A label area by labeling from a predetermined area of a difference image between two images captured by the imaging means at a predetermined time interval or from a predetermined area of a difference image between the image captured by the imaging means and the background image Labeling means to obtain,
For each label area acquired by the labeling means, an index value acquisition means for acquiring an average value of distances from the label area to the remaining label areas or an index value that is a value corresponding thereto;
A histogram acquisition means for acquiring a histogram indicating the number of the label regions having the index value belonging to the range for each predetermined range of the index value;
Based on the histogram, whether at least one of the two images captured by the imaging unit is an image that is not suitable for a predetermined process, or the image captured by the imaging unit Determination means for determining whether or not the image is not suitable for the predetermined processing;
An image determination apparatus comprising:
前記判定手段は、前記ヒストグラムが、前記所定の処理に適していない画像の、前記ヒストグラムに対応するヒストグラムの群に属するか否かを判別することによって、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であるか否か、あるいは、前記撮像手段により撮像された前記画像が前記所定の処理に適していない画像であるか否かを判定することを特徴とする請求項1記載の画像判定装置。   The determination unit determines whether the histogram belongs to a group of histograms corresponding to the histogram of images that are not suitable for the predetermined processing, thereby determining the two images captured by the imaging unit. Whether at least one of the images is not suitable for the predetermined processing, or whether the image captured by the imaging unit is not suitable for the predetermined processing The image determination apparatus according to claim 1, wherein: 前記判別はマハラノビス距離を用いた判別分析により行われることを特徴とする請求項2記載の画像判定装置。   The image determination apparatus according to claim 2, wherein the determination is performed by determination analysis using a Mahalanobis distance. 前記判定手段は、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、前記撮像手段により撮像された前記2枚の画像のうちの少なくとも一方の画像が前記所定の処理に適していない画像であると判定するか、あるいは、前記撮像手段により撮像された前記画像の一部又は全体の領域の明るさが所定の明るさよりも暗いことを必要条件として、前記撮像手段により撮像された前記画像が前記所定の処理に適していない画像であると判定することを特徴とする請求項1乃至3のいずれかに記載の画像判定装置。   The determination means is based on the requirement that the brightness of a part or the whole area of at least one of the two images taken by the imaging means is darker than a predetermined brightness. It is determined that at least one of the two images captured by the image processing is not suitable for the predetermined processing, or a part or the whole of the image captured by the imaging unit 2. The image processing apparatus according to claim 1, wherein the image captured by the imaging unit is determined to be an image that is not suitable for the predetermined process on the condition that the brightness of the region is darker than the predetermined brightness. 4. The image determination device according to any one of 3. 前記撮像手段により撮像された前記2枚の画像、あるいは、前記撮像手段により撮像された前記画像は、気象条件の影響を受ける画像であることを特徴とする請求項1乃至4のいずれかに記載の画像判定装置。   5. The two images captured by the imaging unit or the images captured by the imaging unit are images that are affected by weather conditions. Image judging device. 撮像手段により撮像され気象条件の影響を受ける画像が所定の処理に適していない画像であるか否かを判定する画像判定装置であって、
前記気象条件を検出するセンサからの信号を用いることなく、前記画像に基づいて前記判定を行う手段を備えたことを特徴とする画像判定装置。
An image determination apparatus that determines whether an image captured by an imaging unit and affected by weather conditions is an image that is not suitable for predetermined processing,
An image determination apparatus comprising: means for performing the determination based on the image without using a signal from a sensor that detects the weather condition.
前記所定の処理は、検出対象を検出する処理であることを特徴とする請求項1乃至6のいずれかに記載の画像判定装置。   The image determination apparatus according to claim 1, wherein the predetermined process is a process of detecting a detection target. 請求項1乃至7のいずれかに記載の画像判定装置と、
前記撮像手段により撮像された前記画像に対して前記所定の処理を施す処理手段と、
を備えたことを特徴とする処理装置。
An image determination apparatus according to any one of claims 1 to 7,
Processing means for performing the predetermined processing on the image picked up by the image pickup means;
A processing apparatus comprising:
JP2015218979A 2015-11-06 2015-11-06 Image determination device and processing device using the same Active JP6654018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015218979A JP6654018B2 (en) 2015-11-06 2015-11-06 Image determination device and processing device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218979A JP6654018B2 (en) 2015-11-06 2015-11-06 Image determination device and processing device using the same

Publications (2)

Publication Number Publication Date
JP2017091118A true JP2017091118A (en) 2017-05-25
JP6654018B2 JP6654018B2 (en) 2020-02-26

Family

ID=58768394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218979A Active JP6654018B2 (en) 2015-11-06 2015-11-06 Image determination device and processing device using the same

Country Status (1)

Country Link
JP (1) JP6654018B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7444148B2 (en) 2019-01-30 2024-03-06 日本電気株式会社 Information processing device, information processing method, program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124659A (en) * 2010-12-07 2012-06-28 Hitachi Kokusai Electric Inc Monitoring system and monitoring method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124659A (en) * 2010-12-07 2012-06-28 Hitachi Kokusai Electric Inc Monitoring system and monitoring method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7444148B2 (en) 2019-01-30 2024-03-06 日本電気株式会社 Information processing device, information processing method, program

Also Published As

Publication number Publication date
JP6654018B2 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
US9635237B2 (en) Method and camera for determining an image adjustment parameter
EP2959454B1 (en) Method, system and software module for foreground extraction
JPH10512694A (en) Method and apparatus for detecting movement of an object in a continuous image
JP2003346278A (en) Apparatus and method for measuring queue length of vehicles
JP3583659B2 (en) Liquid level detection method
CN101034005A (en) Switching method between videos for detecting vehicles during day-night
KR20150076307A (en) Traffic parameter estimation system using cctv video analysis
KR101026778B1 (en) Vehicle image detection apparatus
KR101874968B1 (en) Visibility measuring system base on image information and method for using the same
JP5800288B2 (en) Image processing apparatus for vehicle
JP5521831B2 (en) Pantograph detection apparatus and method
JP3570198B2 (en) Image processing method and apparatus
JPH09282452A (en) Monitor
JP6654018B2 (en) Image determination device and processing device using the same
JP3995671B2 (en) Image processing device
JP4152800B2 (en) Road falling object detection device
JP2002367077A (en) Device and method for deciding traffic congestion
JP5891022B2 (en) Object detection device, surveillance camera, and object detection method
CN115909285A (en) Radar and video signal fused vehicle tracking method
Khantasak et al. Parking violation detection system based on video processing
JPH06253208A (en) Lane recognition device
JP2000322686A (en) Number plate recognizing device for vehicle
JPH11219493A (en) Method for processing traffic information
JP4337256B2 (en) Weather detection device, weather detection system, and weather detection method
JP2003299066A (en) Image processing apparatus and its method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200129

R150 Certificate of patent or registration of utility model

Ref document number: 6654018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250