JP2013030129A - Moving object detection device, moving object detection system, computer program, and moving object detection method - Google Patents

Moving object detection device, moving object detection system, computer program, and moving object detection method Download PDF

Info

Publication number
JP2013030129A
JP2013030129A JP2011167515A JP2011167515A JP2013030129A JP 2013030129 A JP2013030129 A JP 2013030129A JP 2011167515 A JP2011167515 A JP 2011167515A JP 2011167515 A JP2011167515 A JP 2011167515A JP 2013030129 A JP2013030129 A JP 2013030129A
Authority
JP
Japan
Prior art keywords
moving object
vehicle
object candidate
feature amount
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011167515A
Other languages
Japanese (ja)
Inventor
Yuki Ono
佑樹 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2011167515A priority Critical patent/JP2013030129A/en
Publication of JP2013030129A publication Critical patent/JP2013030129A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving object detection device, a moving object detection system, a computer program, and a moving object detection method that can automatically gather a non-vehicle pattern without any person's help and also detect a moving object such as a vehicle with high precision using the gathered non-vehicle pattern.SOLUTION: A negative example feature quantity calculation part 108 calculates a feature quantity based upon pixel values in a corresponding area of a moving object candidate area specified on a picked-up image of time (t) on a picked-up image of time (t+Ts) which is a predetermined time Ts after time (t). A negative example similarity calculation part 109 calculates similarity between a feature quantity of the moving body candidate area and a feature quantity of the corresponding area. A negative example registration part 110 registers the moving object candidate area as a non-vehicle pattern when the calculated similarity is equal to or larger than a predetermined threshold S.

Description

本発明は、撮像装置で撮像して得られた撮像画像に基づいて移動体を検出する移動体検出装置、該移動体検出装置を備える移動体検出システム、前記移動体検出装置を実現するためのコンピュータプログラム及び移動体検出方法に関する。   The present invention provides a moving body detection device that detects a moving body based on a captured image obtained by imaging with an imaging device, a moving body detection system including the moving body detection device, and the moving body detection device. The present invention relates to a computer program and a moving object detection method.

路側インフラ装置と車載装置とが、有線又は無線による路車間通信手段により情報を交換し、各装置が単独では実現できなかった機能を実現させるシステムが検討されている。特に、車両の運転者からは死角となる場所に存在する車両又は歩行者を検出した検出情報をインフラ側より車両側に提供することにより事故を抑止する路車協調型安全運転支援システムの検討が進められている。   A system in which a roadside infrastructure device and an in-vehicle device exchange information by wired or wireless road-to-vehicle communication means and each device realizes a function that cannot be realized independently has been studied. In particular, there is a study on a road-vehicle cooperative safe driving support system that suppresses an accident by providing detection information that detects a vehicle or a pedestrian present in a blind spot from the vehicle driver to the vehicle side from the infrastructure side. It is being advanced.

このようなシステムを実現するための主要技術としては、車両の位置情報、自動車、二輪車若しくは歩行者等の車種情報、又は車両等の移動速度若しくは移動方向等を検出するセンサが必要である。計測範囲の広さ、製品寿命、コスト又は性能のバランスなどを考慮すると、画像処理方式のセンサが有力である。この画像処理方式のセンサ(以下、「車両センサ」と称する。)の主要機能である車両検出においては、環境変化が存在する任意の計測地点において高精度な車両検出を実現しなければならない。   As a main technique for realizing such a system, a sensor that detects vehicle position information, vehicle type information such as an automobile, a two-wheeled vehicle, or a pedestrian, or a moving speed or a moving direction of the vehicle or the like is necessary. Considering the wide measurement range, product life, cost or performance balance, image processing type sensors are promising. In vehicle detection, which is the main function of this image processing type sensor (hereinafter referred to as “vehicle sensor”), high-precision vehicle detection must be realized at any measurement point where an environmental change exists.

例えば、高精度な車両検出を実現する方法として、道路画像から車両をオブジェクトとして検出し、サポートベクターマシン(SVM)、あるいはブースティング(Boosting)などに代表される車両・非車両パターンのサンプル学習を通じて、車両・非車両パターンに対する判定基準(境界基準)を生成するパターン認識技術を利用した車両追跡装置が開示されている(特許文献1参照)。   For example, as a method of realizing highly accurate vehicle detection, a vehicle is detected as an object from a road image, and through vehicle / non-vehicle pattern sample learning represented by a support vector machine (SVM) or boosting (Boosting). A vehicle tracking device that uses a pattern recognition technique for generating a criterion (boundary criterion) for a vehicle / non-vehicle pattern is disclosed (see Patent Document 1).

特開2010−92248号公報JP 2010-92248 A

しかしながら、車両センサを様々な地点に設置することを想定して、各地点で生じ得る様々な非車両パターンのすべてを予め網羅して準備することは極めて困難である。そこで、地点毎に生じ得る非車両パターンを車両センサの設置地点毎に収集し、収集した非車両パターンに基づいて車両センサの判定基準を適宜修正又は改善する方法が考えられる。しかし、各地に設置された車両センサ毎にオペレータに車両センサの判定基準を修正させることは、多大な労力及び莫大なコストを必要とするため現実的ではない。   However, assuming that the vehicle sensors are installed at various points, it is extremely difficult to prepare in advance all the various non-vehicle patterns that can occur at each point. Therefore, a method is conceivable in which non-vehicle patterns that may occur at each point are collected for each installation point of the vehicle sensor, and the determination criteria of the vehicle sensor are appropriately corrected or improved based on the collected non-vehicle patterns. However, it is not realistic to cause the operator to correct the determination criteria of the vehicle sensor for each vehicle sensor installed in each place because it requires a great deal of labor and a huge cost.

本発明は、斯かる事情に鑑みてなされたものであり、人手を介さずに非車両パターン(移動体判定情報)の収集を自動的に行うとともに収集した非車両パターンを用いて車両などの移動体を高精度に検出することができる移動体検出装置、該移動体検出装置を備える移動体検出システム、前記移動体検出装置を実現するためのコンピュータプログラム及び移動体検出方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and automatically collects non-vehicle patterns (moving body determination information) without human intervention and moves a vehicle or the like using the collected non-vehicle patterns. It is an object to provide a moving body detection apparatus capable of detecting a body with high accuracy, a moving body detection system including the moving body detection apparatus, a computer program for realizing the moving body detection apparatus, and a moving body detection method. And

本発明の第1態様に係る移動体検出装置は、移動体を判定するために予め登録した移動体判定情報及び撮像装置で撮像して得られた撮像画像に基づいて移動体を検出する移動体検出装置において、第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定する特定手段と、前記移動体候補領域の画素値に基づく特徴量を算出する第1特徴量算出手段と、前記第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における前記移動体候補領域の対応領域の画素値に基づく特徴量を算出する第2特徴量算出手段と、前記第1特徴量算出手段及び第2特徴量算出手段で算出した特徴量の類似度を算出する類似度算出手段と、該類似度算出手段で算出した類似度が所定の第1閾値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録する登録手段とを備えることを特徴とする。   The moving body detection device according to the first aspect of the present invention detects a moving body based on moving body determination information registered in advance to determine the moving body and a captured image obtained by imaging with the imaging device. In the detection device, a specifying unit that specifies a moving object candidate area that is a pixel area indicating a moving object candidate based on a first captured image obtained at the first imaging time point, and a feature based on a pixel value of the moving object candidate area A first feature amount calculating means for calculating an amount; and a pixel value of a corresponding region of the moving object candidate region in a second captured image obtained at a second imaging time point after a first predetermined time has elapsed from the first imaging time point. A second feature quantity calculating means for calculating a feature quantity based on the similarity, a similarity calculating means for calculating a similarity between the feature quantities calculated by the first feature quantity calculating means and the second feature quantity calculating means, and the similarity calculating means. The similarity calculated in step 1 is a predetermined first threshold value. If it is above, characterized in that it comprises a registration means for registering the feature amount of the moving object candidate area as a moving object determination information.

本発明の第2態様に係る移動体検出装置は、第1態様において、前記第2特徴量算出手段は、前記第2撮像時点から第2所定時間経過後の第3撮像時点までの間に得られた複数の撮像画像上それぞれの対応領域の特徴量を算出するようにしてあり、前記類似度算出手段は、前記移動体候補領域の特徴量と各対応領域の特徴量との類似度を算出するようにしてあり、前記登録手段は、前記類似度算出手段で算出した類似度が前記第1閾値以上である対応領域の数が所定値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録するように構成してあることを特徴とする。   In the moving body detection apparatus according to a second aspect of the present invention, in the first aspect, the second feature amount calculating means is obtained between the second imaging time point and a third imaging time point after a second predetermined time has elapsed. The feature amount of each corresponding region on the plurality of captured images obtained is calculated, and the similarity calculation unit calculates the similarity between the feature amount of the moving object candidate region and the feature amount of each corresponding region. When the number of corresponding regions whose similarity calculated by the similarity calculation unit is equal to or greater than the first threshold is equal to or greater than a predetermined value, the registration unit calculates the feature amount of the moving object candidate region. It is configured to be registered as moving body determination information.

本発明の第3態様に係る移動体検出装置は、第1態様又は第2態様において、前記特定手段で任意の撮像時点で得られた撮像画像に基づいて特定した移動体候補領域の前記撮像時点以降の撮像時点で得られた撮像画像上での位置を追跡する追跡手段と、該追跡手段で前記第2撮像時点と第1撮像時点との時間差以上の間追跡が行われた場合、前記移動体候補領域の特徴量を破棄する破棄手段とを備えることを特徴とする。   The moving body detection device according to a third aspect of the present invention is the moving body detection device according to the first aspect or the second aspect, wherein the imaging point of the moving body candidate region specified based on a captured image obtained at an arbitrary imaging point by the specifying unit. A tracking unit that tracks a position on a captured image obtained at a subsequent imaging time point, and when the tracking unit performs tracking for a time difference greater than or equal to a time difference between the second imaging time point and the first imaging time point, the movement And a discarding unit that discards the feature amount of the body candidate region.

本発明の第4態様に係る移動体検出装置は、第1態様乃至第3態様のいずれか1つにおいて、前記特定手段は、1又は複数の移動体候補領域を特定するようにしてあり、前記登録手段は、前記移動体候補領域毎に、撮像画像上の位置及び大きさが前記移動体候補領域と同等の領域に関連付けて該移動体候補領域の特徴量を移動体判定情報として登録するように構成してあることを特徴とする。   The mobile object detection apparatus according to a fourth aspect of the present invention is the mobile object detection device according to any one of the first aspect to the third aspect, wherein the specifying unit specifies one or a plurality of mobile object candidate regions, The registration unit registers, for each moving object candidate area, the feature amount of the moving object candidate area as moving object determination information in association with an area having a position and size on a captured image equivalent to the moving object candidate area. It is comprised by these.

本発明の第5態様に係る移動体検出装置は、第4態様において、前記特定手段は、任意の撮像時点で得られた撮像画像に基づいて移動体候補領域を特定するようにしてあり、前記第1特徴量算出手段は、前記移動体候補領域の特徴量を算出するようにしてあり、前記類似度算出手段は、前記移動体候補領域の特徴量と該移動体候補領域に関連付けられた領域に登録された移動体判定情報の特徴量との類似度を算出するようにしてあり、算出した類似度が所定の第2閾値以上である移動体判定情報が存在した場合、前記移動体候補領域を非移動体として検出する検出手段を備えることを特徴とする。   The moving body detection apparatus according to a fifth aspect of the present invention is the mobile body detection device according to the fourth aspect, wherein the specifying means specifies a moving body candidate region based on a captured image obtained at an arbitrary imaging time point, The first feature quantity calculating means calculates the feature quantity of the moving object candidate area, and the similarity calculating means calculates the feature quantity of the moving object candidate area and the area associated with the moving object candidate area. If the moving object determination information having a calculated similarity equal to or greater than a predetermined second threshold exists, the moving object candidate region is calculated. It has a detection means which detects as a non-moving body, It is characterized by the above-mentioned.

本発明の第6態様に係る移動体検出装置は、第5態様において、前記検出手段は、算出した類似度が所定の第2閾値以上である移動体判定情報が存在しない場合、前記移動体候補領域を移動体として検出するように構成してあることを特徴とする。   The mobile body detection device according to a sixth aspect of the present invention is the mobile body detection device according to the fifth aspect, wherein the detection means includes the mobile body candidate when there is no mobile body determination information whose calculated similarity is equal to or greater than a predetermined second threshold. The region is configured to be detected as a moving body.

本発明の第7態様に係る移動体検出システムは、前述の第1態様に係る移動体検出装置と、撮像した撮像画像を前記移動体検出装置へ出力する撮像装置とを備えることを特徴とする。   A mobile body detection system according to a seventh aspect of the present invention includes the mobile body detection apparatus according to the first aspect described above, and an imaging device that outputs a captured image to the mobile body detection device. .

本発明の第8態様に係るコンピュータプログラムは、コンピュータに、移動体を判定するために予め登録した移動体判定情報及び撮像装置で撮像して得られた撮像画像に基づいて移動体を検出させるためのコンピュータプログラムにおいて、コンピュータに、第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定するステップと、前記移動体候補領域の画素値に基づく特徴量を算出するステップと、前記第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における前記移動体候補領域の対応領域の画素値に基づく特徴量を算出するステップと、算出した特徴量の類似度を算出するステップと、算出した類似度が所定の第1閾値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録するステップとを実行させることを特徴とする。   A computer program according to an eighth aspect of the present invention causes a computer to detect a moving body based on moving body determination information registered in advance to determine a moving body and a captured image obtained by imaging with an imaging apparatus. In the computer program, the step of identifying a moving object candidate area which is a pixel area indicating a moving object candidate based on the first captured image obtained at the first imaging time, and the pixel value of the moving object candidate area And a feature based on a pixel value of a corresponding region of the moving object candidate region in a second captured image obtained at a second imaging time point after the first predetermined time has elapsed from the first imaging time point. A step of calculating a quantity; a step of calculating a similarity of the calculated feature quantity; and the calculated similarity is equal to or greater than a predetermined first threshold, the moving object candidate region Characterized in that and a step of registering the feature amount as the moving object determination information.

本発明の第9態様に係る移動体検出方法は、移動体を判定するために予め登録した移動体判定情報及び撮像装置で撮像して得られた撮像画像に基づいて移動体を検出する移動体検出装置による移動体検出方法おいて、第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定するステップと、前記移動体候補領域の画素値に基づく特徴量を算出するステップと、前記第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における前記移動体候補領域の対応領域の画素値に基づく特徴量を算出するステップと、算出された特徴量の類似度を算出するステップと、算出された類似度が所定の第1閾値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録するステップと、登録された移動体判定情報を用いて移動体を検出するステップとを含むことを特徴とする。   The moving body detection method according to the ninth aspect of the present invention is a moving body that detects a moving body based on moving body determination information registered in advance to determine a moving body and a captured image obtained by imaging with an imaging device. In the moving object detection method by the detection device, a step of specifying a moving object candidate area that is a pixel area indicating a moving object candidate based on a first captured image obtained at the first imaging time point; and A step of calculating a feature amount based on a pixel value; and a pixel value of a corresponding region of the moving object candidate region in a second captured image obtained at a second captured time after a first predetermined time has elapsed from the first captured time. A step of calculating a feature amount based on the step, a step of calculating a similarity of the calculated feature amount, and the calculated similarity is equal to or greater than a predetermined first threshold, Register as judgment information A step that, characterized in that it comprises the steps of detecting a moving object using a moving object determination information registered.

第1態様、第8態様及び第9態様にあっては、第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定する。移動体は、例えば、自動車又は二輪車などの車両である。移動体候補領域の特定は、パターン認識技術を用いてもよく、あるいは画像中の画素の変化、例えば、エッジ点などの情報に基づいて特定することができる。特定した移動体候補領域の画素値に基づく特徴量を算出する。特徴量は、例えば、移動体候補領域を所定のサイズ(例えば、16×16の画素ブロック)に変換して、各画素値を256次元ベクトルとして表すことができる。また、特徴量は画素値に限定されるものではなく、画素ブロック内の各画素の勾配に基づくHOG(Histograms of Oriented Gradients)特徴量などを用いることもできる。   In the first aspect, the eighth aspect, and the ninth aspect, a moving object candidate area that is a pixel area indicating a moving object candidate is specified based on the first captured image obtained at the first imaging time point. The moving body is, for example, a vehicle such as an automobile or a two-wheeled vehicle. The moving object candidate area may be specified by using a pattern recognition technique or based on information such as a change in a pixel in the image, for example, an edge point. A feature amount based on the pixel value of the identified moving object candidate region is calculated. For example, the feature amount can be expressed as a 256-dimensional vector by converting the moving object candidate region into a predetermined size (for example, a 16 × 16 pixel block). Further, the feature amount is not limited to the pixel value, and an HOG (Histograms of Oriented Gradients) feature amount based on the gradient of each pixel in the pixel block may be used.

そして、第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における移動体候補領域の対応領域の画素値に基づく特徴量を算出する。対応領域の特徴量は、移動体候補領域の特徴量と同様の方法で求めることができる。第1所定時間は、例えば、通常、車両が信号待ちなどで停止する停止時間と考えられる時間以上の時間であり、例えば、120秒〜150秒程度とすることができる。移動体候補領域の特徴量と対応領域の特徴量との類似度を算出する。類似度は、例えば、特徴量を256次元ベクトルとすると、両方のベクトルで表される点の256次元のユークリッド空間でのユークリッド距離の大小(小さいほど類似度が大きい)で求めることができる。また、両方のベクトルのなす角θの余弦(cosθ)であるコサイン類似度を用いることもできる。   And the feature-value based on the pixel value of the corresponding | compatible area | region of a moving body candidate area | region in the 2nd captured image acquired at the 2nd imaging time point after 1st predetermined time progress from a 1st imaging time point is calculated. The feature amount of the corresponding region can be obtained by the same method as the feature amount of the moving object candidate region. The first predetermined time is, for example, a time longer than a time that is normally considered to be a stop time when the vehicle stops due to a signal or the like, and can be, for example, about 120 seconds to 150 seconds. The similarity between the feature amount of the moving object candidate region and the feature amount of the corresponding region is calculated. For example, when the feature quantity is a 256-dimensional vector, the similarity can be obtained by the magnitude of the Euclidean distance in the 256-dimensional Euclidean space of the points represented by both vectors (the smaller the similarity, the greater the similarity). It is also possible to use a cosine similarity that is a cosine (cos θ) of an angle θ formed by both vectors.

算出した類似度が所定の第1閾値以上である場合、移動体候補領域の特徴量を移動体判定情報(例えば、非車両パターン)として登録する。すなわち、第1撮像時点で撮像して得られた第1撮像画像上の移動体候補領域の特徴量と、車両の停止時間と考えられる時間以上経過後の第2撮像時点で撮像して得られた第2撮像画像上の対応領域の特徴量とが類似しているので、移動体候補領域は、車両を撮像したものではなく、非車両パターンとして登録する。なお、非車両パターン(移動体判定情報)として登録するのは、移動体候補領域の特徴量、座標(x、y)、大きさ(高さ及び幅)などである。上述の自動収集処理により、撮像を適宜繰り返すだけで人手を介することなく非車両パターンを自動的に収集することが可能となる。そして、登録した移動体判定情報(非車両パターン)を用いて移動体を検出することにより、高精度に移動体(例えば、車両など)を検出することができる。   When the calculated similarity is equal to or greater than a predetermined first threshold, the feature amount of the moving object candidate region is registered as moving object determination information (for example, a non-vehicle pattern). That is, it is obtained by imaging at the second imaging time point after the elapse of a feature amount of the moving object candidate region on the first captured image obtained by imaging at the first imaging time point and a time considered to be the stop time of the vehicle. Since the feature amount of the corresponding region on the second captured image is similar, the moving object candidate region is registered not as a vehicle image but as a non-vehicle pattern. It should be noted that the feature quantity, coordinates (x, y), size (height and width), etc. of the moving object candidate area are registered as the non-vehicle pattern (moving object determination information). By the above-described automatic collection process, it is possible to automatically collect non-vehicle patterns without manual intervention by simply repeating imaging. And a moving body (for example, vehicle etc.) can be detected with high precision by detecting a moving body using registered moving body judging information (non-vehicle pattern).

第2態様にあっては、第2撮像時点から第2所定時間(例えば、30秒程度)経過後の第3撮像時点までの間に得られた複数の撮像画像上それぞれの対応領域の特徴量を算出し、移動体候補領域の特徴量と各対応領域の特徴量とのそれぞれの類似度を算出する。そして、算出した類似度が第1閾値以上である対応領域の数が所定値(例えば、2)以上である場合、移動体候補領域の特徴量を移動体判定情報(例えば、非車両パターン)として登録する。所定値は、第2撮像時点から第3撮像時点までの間に、移動体候補領域の特徴量と類似する特徴量の車両が偶然に移動体候補領域と同じ位置に存在すると考えられる回数(例えば、1回)を超える数値である。これにより、第2撮像時点から第3撮像時点までの間に偶然に移動体候補領域と同じ位置に存在する実際の車両の特徴量を非車両パターンとして誤って登録することを防止し、より精度よく非車両パターンを収集することができる。   In the second mode, the feature amounts of the corresponding areas on the plurality of captured images obtained from the second imaging time point to the third imaging time point after the second predetermined time (for example, about 30 seconds) has elapsed. And the similarity between the feature amount of the moving object candidate region and the feature amount of each corresponding region is calculated. Then, when the number of corresponding areas in which the calculated similarity is equal to or greater than the first threshold is equal to or greater than a predetermined value (for example, 2), the feature amount of the moving object candidate area is used as the moving object determination information (for example, non-vehicle pattern). sign up. The predetermined value is the number of times that a vehicle having a feature value similar to the feature value of the moving object candidate region is accidentally present at the same position as the moving object candidate region between the second imaging time point and the third imaging time point (for example, 1). As a result, it is possible to prevent accidental registration of an actual vehicle feature quantity existing at the same position as the moving object candidate region as a non-vehicle pattern between the second imaging time point and the third imaging time point. Can often collect non-vehicle patterns.

第3態様にあっては、任意の撮像時点で得られた撮像画像に基づいて特定した移動体候補領域の当該撮像時点以降の撮像時点で得られた撮像画像上での位置を追跡する。追跡処理は、例えば、パターンマッチング、パーティクルフィルタなどのトラッキング技術を用いることができる。そして、第2撮像時点と第1撮像時点との時間差以上の間追跡が行われた場合、移動体候補領域の特徴量を破棄する。すなわち、第2撮像時点と第1撮像時点との時間差以上の間、当該移動体候補領域の追跡が行われた場合には、当該移動体候補領域は、実際の車両を撮像したものであると判定することができるので、非車両パターンとして登録することなく破棄する。これにより、本来、車両の特徴量であるものを非車両パターンとして誤って登録されることを防止でき、収集する非車両パターンの精度を向上させることができる。   In the third aspect, the position on the captured image obtained at the imaging time after the imaging time of the moving object candidate region specified based on the captured image obtained at the arbitrary imaging time is tracked. For the tracking process, for example, a tracking technique such as pattern matching or particle filter can be used. When tracking is performed for a time difference between the second imaging time point and the first imaging time point or more, the feature amount of the moving object candidate region is discarded. That is, when the moving object candidate area is tracked for a time difference between the second imaging time point and the first imaging time point or more, the moving object candidate area is an image of an actual vehicle. Since it can be determined, it is discarded without being registered as a non-vehicle pattern. Accordingly, it is possible to prevent the original characteristic amount of the vehicle from being erroneously registered as a non-vehicle pattern, and to improve the accuracy of the collected non-vehicle pattern.

第4態様にあっては、移動体候補領域毎に、撮像画像上の位置及び大きさが移動体候補領域と同等の領域に関連付けて当該移動体候補領域の特徴量を移動体判定情報として登録する。すなわち、移動体候補領域の特徴量等を移動体判定情報(非車両パターン)として登録する場合、移動体候補領域毎に登録する。すなわち、移動体検出を行う際の車両・非車両の判定は、登録した領域(移動体候補領域の座標、大きさ)でのみ行う。非車両パターンとして代表的な建物の影、木の影などは、ほぼ同じ領域で局所的に存在するので、撮像画像全体に亘って非車両パターンであるか否かを判定しなくても非車両パターンとして登録した領域だけを判定することにより、十分車両・非車両の判定を行うことができ、撮像画像全体に亘って処理する場合に比べて処理時間を短くして、高速処理を実現することができる。また、仮に車両・非車両の判定が誤ったとしても(内部エラーが生じたとしても)、影響が生じるのは非車両パターンとして登録した領域であるので、内部エラーに対するロバスト性が得られる。   In the fourth aspect, for each moving object candidate area, the feature amount of the moving object candidate area is registered as moving object determination information in association with an area having a position and size on the captured image equivalent to the moving object candidate area. To do. That is, when registering the feature amount or the like of the moving object candidate area as the moving object determination information (non-vehicle pattern), it is registered for each moving object candidate area. That is, the determination of the vehicle / non-vehicle when performing the moving object detection is performed only in the registered area (the coordinates and size of the moving object candidate area). As typical non-vehicle patterns, shadows of buildings, trees, etc. exist locally in almost the same area, so non-vehicles can be determined without determining whether or not the entire captured image is a non-vehicle pattern. By determining only the area registered as a pattern, sufficient vehicle / non-vehicle determination can be made, and processing time can be shortened compared to the case where the entire captured image is processed, thereby realizing high-speed processing. Can do. Further, even if the vehicle / non-vehicle determination is wrong (even if an internal error occurs), the region that has been registered as the non-vehicle pattern has an effect, so that robustness against the internal error can be obtained.

第5態様にあっては、任意の撮像時点で得られた撮像画像に基づいて移動体候補領域を特定し、特定した移動体候補領域の特徴量を算出する。移動体候補領域の特徴量と当該移動体候補領域に関連付けられた領域に登録された移動体判定情報(例えば、非車両パターン)の特徴量との類似度を算出し、算出した類似度が所定の第2閾値以上である移動体判定情報(非車両パターン)が存在した場合、当該移動体候補領域を非移動体として検出する。自動収集処理により得られた移動体判定情報(非車両パターン)を用いることにより、移動体でないものを移動体として誤って検出することを防止して、移動体を高精度に検出することができる。   In the fifth aspect, the moving object candidate area is identified based on the captured image obtained at an arbitrary imaging time point, and the feature amount of the identified moving object candidate area is calculated. The similarity between the feature amount of the moving object candidate region and the feature amount of the moving object determination information (for example, non-vehicle pattern) registered in the region associated with the moving object candidate region is calculated, and the calculated similarity is predetermined. If there is moving object determination information (non-vehicle pattern) that is equal to or greater than the second threshold value, the moving object candidate area is detected as a non-moving object. By using the moving body determination information (non-vehicle pattern) obtained by the automatic collection process, it is possible to prevent a non-moving body from being erroneously detected as a moving body and to detect the moving body with high accuracy. .

第6態様にあっては、算出した類似度が所定の第2閾値以上である移動体判定情報が存在しない場合、当該移動体候補領域を移動体として検出する。自動収集処理により得られた移動体判定情報(非車両パターン)を用いることにより、移動体を高精度に検出することができる。   In the sixth aspect, when there is no moving object determination information whose calculated similarity is equal to or greater than the predetermined second threshold, the moving object candidate region is detected as a moving object. By using the moving body determination information (non-vehicle pattern) obtained by the automatic collection process, the moving body can be detected with high accuracy.

第7態様にあっては、人手を介さずに非車両パターン(移動体判定情報)の収集を自動的に行うとともに収集した非車両パターンを用いて車両などの移動体を高精度に検出することができる移動体検出システムを実現することができる。   In the seventh aspect, the non-vehicle pattern (moving body determination information) is automatically collected without human intervention, and the moving body such as a vehicle is detected with high accuracy using the collected non-vehicle pattern. It is possible to realize a moving body detection system capable of

本発明によれば、人手を介さずに非車両パターン(移動体判定情報)の収集を自動的に行うとともに収集した非車両パターンを用いて車両などの移動体を高精度に検出することができる。   According to the present invention, it is possible to automatically collect non-vehicle patterns (moving body determination information) without human intervention and to detect a moving body such as a vehicle with high accuracy using the collected non-vehicle patterns. .

本実施の形態の移動体検出システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the mobile body detection system of this Embodiment. 移動体候補領域の一例を示す模式図である。It is a schematic diagram which shows an example of a mobile body candidate area | region. 車両検出処理と車両追跡処理との関係を例示するタイムチャートである。It is a time chart which illustrates the relationship between a vehicle detection process and a vehicle tracking process. 移動体候補領域と対応領域との関係を示す説明図である。It is explanatory drawing which shows the relationship between a mobile body candidate area | region and a corresponding | compatible area | region. 非車両パターンの登録方法の一例を示す説明図である。It is explanatory drawing which shows an example of the registration method of a non-vehicle pattern. 非車両パターンの登録方法の他の例を示す説明図である。It is explanatory drawing which shows the other example of the registration method of a non-vehicle pattern. 登録した非車両パターンの一例を示す説明図である。It is explanatory drawing which shows an example of the registered non-vehicle pattern. 本実施の形態の車両検出装置による負例の自動収集の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the automatic collection of the negative example by the vehicle detection apparatus of this Embodiment. 本実施の形態の車両検出装置の自動学習結果の一例を示す説明図である。It is explanatory drawing which shows an example of the automatic learning result of the vehicle detection apparatus of this Embodiment. 本実施の形態の車両検出装置の自動学習結果の他の例を示す説明図である。It is explanatory drawing which shows the other example of the automatic learning result of the vehicle detection apparatus of this Embodiment.

以下、本発明をその実施の形態を示す図面に基づいて説明する。図1は本実施の形態の移動体検出システムの構成の一例を示すブロック図である。移動体検出システムは、移動体検出装置としての車両検出装置100、撮像装置200などを備える。なお、図1の例では、1つの撮像装置200を図示しているが、撮像装置200は複数設けることもできる。すなわち、道路の複数の地点それぞれに撮像装置200を設置し、撮像装置200で撮像した撮像画像を車両検出装置100へ送信(出力)することができる。また、本実施の形態では、移動体とは、例えば、自動車又は二輪車などの車両であるが、歩行者などの移動体を含めることもできる。   Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments thereof. FIG. 1 is a block diagram showing an example of the configuration of the moving object detection system of the present embodiment. The moving body detection system includes a vehicle detection device 100, an imaging device 200, and the like as a moving body detection device. In the example of FIG. 1, one imaging device 200 is illustrated, but a plurality of imaging devices 200 may be provided. That is, the imaging device 200 can be installed at each of a plurality of points on the road, and a captured image captured by the imaging device 200 can be transmitted (output) to the vehicle detection device 100. Moreover, in this Embodiment, although a moving body is vehicles, such as a motor vehicle or a two-wheeled vehicle, for example, moving bodies, such as a pedestrian, can also be included.

車両検出装置100は、画像入力部101、車両検出部102、車両追跡部112、負例収集部107、負例記憶部111などを備える。なお、本実施の形態では、負例とは、撮像装置200で撮像して得られた撮像画像に基づいて、路面などの非車両のものを車両であると判定して検出した誤検出パターンをいう。また、車両パターンは、車両であると判定して登録された領域の特徴量、当該領域の撮像画像上の座標(x、y)、領域の大きさ(高さ、幅)などの情報を含む。また、非車両パターンは、非車両であると判定して登録された領域の特徴量、当該領域の撮像画像上の座標(x、y)、領域の大きさ(高さ、幅)などの情報を含む。   The vehicle detection device 100 includes an image input unit 101, a vehicle detection unit 102, a vehicle tracking unit 112, a negative example collection unit 107, a negative example storage unit 111, and the like. In the present embodiment, a negative example is a false detection pattern detected by determining that a non-vehicle such as a road surface is a vehicle based on a captured image obtained by imaging with the imaging device 200. Say. Further, the vehicle pattern includes information such as a feature amount of an area registered by determining that the vehicle is a vehicle, coordinates (x, y) on the captured image of the area, and the size (height, width) of the area. . Further, the non-vehicle pattern is information such as a feature amount of a region registered by determining that the vehicle is a non-vehicle, coordinates (x, y) on the captured image of the region, and the size (height, width) of the region. including.

車両検出部102は、車両候補領域特定部103、特徴量算出部104、車両類似度算出部105、車両判定部106などを備える。また、負例収集部107は、負例特徴量算出部108、負例類似度算出部109、負例登録部110などを備える。   The vehicle detection unit 102 includes a vehicle candidate area specifying unit 103, a feature amount calculation unit 104, a vehicle similarity calculation unit 105, a vehicle determination unit 106, and the like. The negative example collection unit 107 includes a negative example feature amount calculation unit 108, a negative example similarity calculation unit 109, a negative example registration unit 110, and the like.

本実施の形態の車両検出装置100は、路面などの非車両パターンに対して車両検出部102で車両として誤検出したことを自動的に認識して負例として収集すること、実際には車両であるパターンを誤って非車両パターンとして収集する事態を自動的に回避すること、収集した負例に基づいて車両検出部102の車両判定基準を修正して判定精度を向上させること、及び車両検出部102での車両検出処理と車両追跡部112での車両追跡処理とを並行して実施した場合に全体の処理のリアルタイム性を維持することを充足する自動学習機能を実現する。なお、自動学習機能とは、車両検出の判定基準を人の判断を介することなく自動的に修正することにより、車両検出の判定の誤りを低減する機能である。   The vehicle detection apparatus 100 according to the present embodiment automatically recognizes that the vehicle detection unit 102 has erroneously detected a vehicle as a non-vehicle pattern such as a road surface and collects it as a negative example. Automatically avoiding a situation where a certain pattern is mistakenly collected as a non-vehicle pattern, correcting the vehicle determination standard of the vehicle detection unit 102 based on the collected negative example, and improving the determination accuracy, and the vehicle detection unit When the vehicle detection process at 102 and the vehicle tracking process at the vehicle tracking unit 112 are performed in parallel, an automatic learning function that satisfies maintaining the real-time property of the entire process is realized. Note that the automatic learning function is a function that reduces errors in determination of vehicle detection by automatically correcting the determination criterion of vehicle detection without involving human judgment.

画像入力部101は、画像メモリ(不図示)などを備え、撮像装置200から入力された撮像画像(画像データ)を、1フレーム単位に同期させて画像メモリに記憶する。なお、1フレームは、例えば、100msであるが、これに限定されるものではない。画像メモリに記憶された撮像画像は、車両検出部102により読み出される。   The image input unit 101 includes an image memory (not shown) and the like, and stores the captured image (image data) input from the imaging apparatus 200 in the image memory in synchronization with each frame. One frame is, for example, 100 ms, but is not limited to this. The captured image stored in the image memory is read by the vehicle detection unit 102.

車両候補領域特定部103は、撮像画像に基づいて移動体候補領域を特定する特定手段としての機能を有する。移動体候補領域は、通常画像処理で行われている適宜の処理を採用することができる。例えば、撮像画像におけるエッジ点を検出し、検出したエッジ点で構成されるエッジ画像において隣接するエッジ点をグループ化するエッジグループ化処理などを行ってエッジグループを囲む矩形領域を移動体候補領域として特定することができる。なお、任意の撮像時点で得られた撮像画像において、複数の移動体候補領域が特定される場合もある。   The vehicle candidate area specifying unit 103 has a function as specifying means for specifying the moving object candidate area based on the captured image. For the moving object candidate region, it is possible to employ appropriate processing that is normally performed in image processing. For example, an edge point in a captured image is detected, and an edge grouping process for grouping adjacent edge points in an edge image composed of the detected edge points is performed, and a rectangular area surrounding the edge group is set as a moving object candidate area. Can be identified. Note that a plurality of moving object candidate regions may be specified in a captured image obtained at an arbitrary imaging time point.

特徴量算出部104は、移動体候補領域の特徴量を算出する特徴量算出手段としての機能を有する。特徴量算出部104は、移動体候補領域の撮像画像上での大きさに関わらず、移動体候補領域を所定の大きさ(例えば、16×16画素)にリサイズした上で特徴量として、256次元ベクトルを算出する。特徴量は、16×16画素の256画素値を有する256次元ベクトルである。なお、特徴量は、画素値に限定されるものではなく、他の特徴量を用いることもできる。例えば、16×16画素内の各画素の勾配を求め、勾配方向の量子化(例えば、9方向)、度数分布などを特徴量とするHOG(Histograms of Oriented Gradients)特徴量などを用いることもできる。なお、特徴量を算出する際の画素ブロックの大きさは、16×16画素に限定されるものではない。   The feature amount calculation unit 104 has a function as a feature amount calculation unit that calculates the feature amount of the moving object candidate region. Regardless of the size of the moving object candidate area on the captured image, the feature value calculating unit 104 resizes the moving object candidate area to a predetermined size (for example, 16 × 16 pixels) and sets 256 as the feature value. Calculate the dimension vector. The feature amount is a 256-dimensional vector having 256 pixel values of 16 × 16 pixels. Note that the feature amount is not limited to the pixel value, and other feature amounts may be used. For example, the gradient of each pixel within 16 × 16 pixels can be obtained, and HOG (Histograms of Oriented Gradients) feature quantities having a gradient direction quantization (for example, 9 directions) and frequency distribution can be used. . Note that the size of the pixel block when calculating the feature amount is not limited to 16 × 16 pixels.

車両類似度算出部105は、車両検出処理において、特定した移動体候補領域(車両候補領域)の特徴量と、負例記憶部111に記憶(登録)された負例の特徴量との類似度を算出する。類似度は、例えば、特徴量を256次元ベクトルとすると、両方のベクトルで表される点の256次元のユークリッド空間でのユークリッド距離の大小(小さいほど類似度が大きい)で求めることができる。また、両方のベクトルのなす角θの余弦(cosθ)であるコサイン類似度を用いることもできる。   In the vehicle detection process, the vehicle similarity calculation unit 105 calculates the similarity between the feature amount of the identified moving object candidate region (vehicle candidate region) and the negative example feature amount stored (registered) in the negative example storage unit 111. Is calculated. For example, when the feature quantity is a 256-dimensional vector, the similarity can be obtained by the magnitude of the Euclidean distance in the 256-dimensional Euclidean space of the points represented by both vectors (the smaller the similarity, the greater the similarity). It is also possible to use a cosine similarity that is a cosine (cos θ) of an angle θ formed by both vectors.

車両判定部106は、移動体候補領域の特徴量と負例(非車両を車両であると誤検出したパターン)の特徴量との類似度が所定の閾値以上であれば、移動体候補領域は非車両であると判定し、類似度が所定の閾値未満であれば、車両であると判定する。   If the similarity between the feature amount of the moving object candidate region and the feature amount of the negative example (a pattern in which a non-vehicle is erroneously detected as a vehicle) is equal to or greater than a predetermined threshold, the vehicle determination unit 106 determines that the moving object candidate region is It is determined that the vehicle is a non-vehicle, and if the similarity is less than a predetermined threshold value, the vehicle is determined.

車両検出部102は、車両として検出された移動体候補領域を「車両」と判定されたパターンとして車両追跡部112へ出力する。また、車両検出部102は、車両として検出されたパターンを「誤検出パターン候補」(負例候補)として負例収集部107へ出力する。この場合車両検出部102から負例収集部107へ出力されるのは、「誤検出パターン候補」としての移動体候補領域の領域ID、領域の座標(x、y)、領域の大きさ(高さ、幅)、及び移動体候補領域の特徴量などである。以降、車両検出部102から負例収集部107へ出力される「誤検出パターン候補」をパターンAと称する。   The vehicle detection unit 102 outputs the moving object candidate area detected as a vehicle to the vehicle tracking unit 112 as a pattern determined as “vehicle”. In addition, the vehicle detection unit 102 outputs the pattern detected as the vehicle to the negative example collection unit 107 as “false detection pattern candidate” (negative example candidate). In this case, the vehicle detection unit 102 outputs to the negative example collection unit 107 the region ID of the moving object candidate region as the “false detection pattern candidate”, the region coordinates (x, y), the size of the region (high , Width), and the feature amount of the moving object candidate area. Hereinafter, the “false detection pattern candidate” output from the vehicle detection unit 102 to the negative example collection unit 107 is referred to as a pattern A.

図2は移動体候補領域の一例を示す模式図である。任意の撮像時点で撮像された撮像画像上で車両と判定された移動体候補領域は、パターンA(誤検出パターン候補)として、領域ID、領域の左上の座標(x、y)、領域の大きさ(高さh、幅w)、特徴量(例えば、256の画素値からなる256次元ベクトル)が特定される。   FIG. 2 is a schematic diagram illustrating an example of a moving object candidate region. A moving object candidate area determined as a vehicle on a captured image captured at an arbitrary imaging time point is an area ID, upper left coordinates (x, y) of the area, and the size of the area as a pattern A (false detection pattern candidate). The height (height h, width w) and feature quantity (for example, a 256-dimensional vector composed of 256 pixel values) are specified.

車両追跡部112は、任意の撮像時点で得られた撮像画像に基づいて特定した移動体候補領域の当該撮像時点以降の撮像時点で得られた撮像画像上での位置を追跡する追跡手段としての機能を有する。より具体的には、車両追跡部112は、車両検出部102で任意の時点での撮像画像上で車両として検出された移動体候補領域を当該任意の時点以降撮像された撮像画像上で追跡する。追跡処理は、例えば、パターンマッチング、パーティクルフィルタなどのトラッキング技術を用いることができる。   The vehicle tracking unit 112 serves as a tracking unit that tracks the position of the moving object candidate area specified based on the captured image obtained at an arbitrary imaging time point on the captured image obtained at the subsequent imaging time point. It has a function. More specifically, the vehicle tracking unit 112 tracks the moving object candidate area detected as a vehicle on the captured image at an arbitrary time point by the vehicle detection unit 102 on the captured image captured after the arbitrary time point. . For the tracking process, for example, a tracking technique such as pattern matching or particle filter can be used.

図3は車両検出処理と車両追跡処理との関係を例示するタイムチャートである。図3に示すように、時刻t(時刻tでのフレーム)で車両が検出されたとすると、当該車両を表す移動体候補領域(車両領域)を時刻t以降の時刻(フレーム)での撮像画像上で追跡する。また、時刻t+1(時刻t+1でのフレーム)で別の車両が検出されたとすると、当該車両を表す移動体候補領域(車両領域)を時刻t+1以降の時刻(フレーム)での撮像画像上で追跡する。以降、同様である。なお、追跡処理は、検出した車両が撮像画像上から存在しなくなるまで継続される。   FIG. 3 is a time chart illustrating the relationship between the vehicle detection process and the vehicle tracking process. As shown in FIG. 3, when a vehicle is detected at time t (frame at time t), a moving object candidate region (vehicle region) representing the vehicle is displayed on a captured image at time (frame) after time t. Track with. If another vehicle is detected at time t + 1 (frame at time t + 1), a moving object candidate region (vehicle region) representing the vehicle is tracked on a captured image at time (frame) after time t + 1. . The same applies thereafter. The tracking process is continued until the detected vehicle does not exist on the captured image.

負例特徴量算出部108は、移動体候補領域の対応領域の画素値に基づく特徴量を算出する特徴量算出手段としての機能を有する。本実施の形態において、対応領域は、当該移動体候補領域と同等の領域である。同等の対応領域とは、例えば、時刻t(第1撮像時点)での撮像画像上で車両と検出された移動体候補領域(パターンA)があるとすると、時刻t(第1撮像時点)から所定時間Ts経過後の時刻(t+Ts)(第2撮像時点)で得られた撮像画像上(第2撮像画像上)で位置及び大きさが移動体候補領域と同等の領域である。対応領域は、移動体候補領域(パターンA)と同一の領域(座標、大きさが同じ領域)であるが、必ずしも同一領域でなくてもよく、例えば、移動体候補領域の全部又は一部を含む近傍の領域でもよく、また移動体候補領域よりも大きい領域でもよく、あるいは小さい領域でもよい。類似度を算出するために十分な程度の精度が得られれば、同一領域である必要はない。   The negative example feature value calculation unit 108 has a function as a feature value calculation unit that calculates a feature value based on the pixel value of the corresponding region of the moving object candidate region. In the present embodiment, the corresponding area is an area equivalent to the moving object candidate area. For example, if there is a moving object candidate area (pattern A) detected as a vehicle on the captured image at time t (first imaging time point), the equivalent corresponding area is from time t (first imaging time point). The position and size on the captured image (on the second captured image) obtained at the time (t + Ts) after the predetermined time Ts (second captured time point) is the same area as the moving object candidate area. The corresponding region is the same region (region having the same coordinates and size) as the moving object candidate region (pattern A), but it is not necessarily the same region. For example, all or part of the moving object candidate region It may be a nearby area, a larger area than the moving object candidate area, or a smaller area. The regions need not be the same if accuracy sufficient to calculate the similarity is obtained.

所定時間Tsは、例えば、通常、車両が信号待ちなどで停止する停止時間と考えられる時間以上の時間であり、例えば、120秒〜150秒程度とすることができる。   The predetermined time Ts is, for example, a time longer than a time that is normally considered to be a stop time when the vehicle stops due to a signal or the like, and can be, for example, about 120 seconds to 150 seconds.

図4は移動体候補領域と対応領域との関係を示す説明図である。図4に示すように、時刻tにおいて、領域ID=k、座標(x、y)、高さh、幅wの移動体候補領域(パターンA)が特定されたとすると、対応領域は、例えば、時刻t+Tsにおける撮像画像上で移動体候補領域と同じ座標(x、y)、高さh、幅wの領域である。   FIG. 4 is an explanatory diagram showing the relationship between the moving object candidate area and the corresponding area. As shown in FIG. 4, when a moving object candidate region (pattern A) having a region ID = k, coordinates (x, y), height h, and width w is specified at time t, the corresponding region is, for example, This is an area having the same coordinates (x, y), height h, and width w as the moving object candidate area on the captured image at time t + Ts.

より具体的には、負例特徴量算出部108は、時刻t(第1撮像時点)での撮像画像上で車両と検出された移動体候補領域(パターンA)があるとすると、時刻t(第1撮像時点)から第1所定時間Ts経過後の時刻(t+Ts)(第2撮像時点)で得られた撮像画像上(第2撮像画像上)で位置及び大きさが移動体候補領域と同等の対応領域の画素値に基づく特徴量を算出する。   More specifically, if there is a moving object candidate area (pattern A) detected as a vehicle on the captured image at time t (first imaging time point), the negative example feature value calculation unit 108 determines that the time t ( The position and size on the captured image (on the second captured image) obtained at the time (t + Ts) after the first predetermined time Ts has elapsed from the first captured time point (on the second captured image) are equivalent to the moving object candidate region. The feature amount based on the pixel value of the corresponding region is calculated.

負例類似度算出部109は、上述の特徴量の類似度を算出する類似度算出手段としての機能を有する。類似度は、例えば、特徴量を256次元ベクトルとすると、両方のベクトルで表される点の256次元のユークリッド空間でのユークリッド距離の大小(小さいほど類似度が大きい)で求めることができる。また、両方のベクトルのなす角θの余弦(cosθ)であるコサイン類似度を用いることもできる。   The negative example similarity calculation unit 109 has a function as a similarity calculation unit that calculates the similarity of the above-described feature amount. For example, when the feature quantity is a 256-dimensional vector, the similarity can be obtained by the magnitude of the Euclidean distance in the 256-dimensional Euclidean space of the points represented by both vectors (the smaller the similarity, the greater the similarity). It is also possible to use a cosine similarity that is a cosine (cos θ) of an angle θ formed by both vectors.

負例登録部110は、負例類似度算出部109で算出した類似度が所定の閾値S(第1閾値)以上である場合、移動体候補領域(パターンA)の特徴量を負例、すなわち非車両パターン(移動体判定情報)として登録する。すなわち、時刻t(第1撮像時点)で撮像して得られた撮像画像上の移動体候補領域の特徴量と、車両の停止時間と考えられる時間以上経過後の時刻t+Ts(第2撮像時点)で撮像して得られた撮像画像上の対応領域の特徴量とが類似しているので、移動体候補領域は、車両を撮像したものではなく、非車両パターンとして登録する。   When the similarity calculated by the negative example similarity calculation unit 109 is equal to or greater than a predetermined threshold S (first threshold), the negative example registration unit 110 sets the feature amount of the moving object candidate region (pattern A) as a negative example, that is, It is registered as a non-vehicle pattern (moving body determination information). That is, the feature amount of the moving object candidate region on the captured image obtained by imaging at time t (first imaging time point) and time t + Ts (second imaging time point) after elapse of a time considered to be the stop time of the vehicle. Since the feature amount of the corresponding area on the captured image obtained by imaging in (1) is similar, the moving object candidate area is registered as a non-vehicle pattern, not an image of the vehicle.

なお、負例、すなわち非車両パターン(移動体判定情報)として登録するのは、移動体候補領域(パターンA)の特徴量、座標(x、y)、大きさ(高さ及び幅)などである。上述の自動収集処理により、撮像を適宜繰り返すだけで人手を介することなく非車両パターンを自動的に収集することが可能となる。そして、登録した移動体判定情報(非車両パターン)を用いて移動体を検出することにより、高精度に移動体(例えば、車両など)を検出することができる。   It should be noted that the negative example, ie, the non-vehicle pattern (moving body determination information) is registered with the feature amount, coordinates (x, y), size (height and width), etc. of the moving body candidate region (pattern A). is there. By the above-described automatic collection process, it is possible to automatically collect non-vehicle patterns without manual intervention by simply repeating imaging. And a moving body (for example, vehicle etc.) can be detected with high precision by detecting a moving body using registered moving body judging information (non-vehicle pattern).

また、非車両パターン(負例)の登録は、以下の方法で行うこともできる。図5は非車両パターンの登録方法の一例を示す説明図である。図5に示すように、時刻t+Ts(第2撮像時点)から所定時間(例えば、30秒程度)経過後の時刻t+Tu(第3撮像時点)までの間(Tu−Ts)に得られた複数の撮像画像上それぞれの対応領域の特徴量を算出し、時刻tで車両と検出した際のパターンA(移動体候補領域)の特徴量と各対応領域の特徴量とのそれぞれの類似度を算出する。そして、算出した類似度が閾値S以上である対応領域の数が所定値C(例えば、2)以上である場合、パターンA(移動体候補領域)の特徴量を非車両パターン(負例)として登録する。   Moreover, registration of a non-vehicle pattern (negative example) can also be performed with the following method. FIG. 5 is an explanatory diagram showing an example of a non-vehicle pattern registration method. As shown in FIG. 5, a plurality of times (Tu−Ts) obtained from time t + Ts (second imaging time point) to time t + Tu (third imaging time point) after elapse of a predetermined time (for example, about 30 seconds). The feature amount of each corresponding region on the captured image is calculated, and the similarity between the feature amount of the pattern A (moving body candidate region) and the feature amount of each corresponding region when the vehicle is detected at time t is calculated. . When the number of corresponding areas whose calculated similarity is equal to or greater than the threshold S is equal to or greater than a predetermined value C (for example, 2), the feature amount of the pattern A (moving object candidate area) is set as a non-vehicle pattern (negative example). sign up.

所定値Cは、時刻t+Ts(第2撮像時点)から時刻t+Tu(第3撮像時点)までの間に、移動体候補領域の特徴量と類似する特徴量の車両が偶然に移動体候補領域と同じ位置に存在すると考えられる回数(例えば、1回)を超える数値である。これにより、時刻t+Tsから時刻t+Tuまでの間に偶然に移動体候補領域と同じ位置に存在する実際の車両の特徴量を非車両パターンとして誤って登録することを防止し、より精度よく非車両パターンを収集することができる。   The predetermined value C is the same as that of the moving object candidate area when the vehicle has a characteristic amount similar to that of the moving object candidate area between time t + Ts (second imaging time point) and time t + Tu (third imaging time point). It is a numerical value that exceeds the number of times (for example, once) that is considered to exist at the position. As a result, it is possible to prevent accidentally registering the actual vehicle feature quantity existing at the same position as the moving object candidate region as a non-vehicle pattern between time t + Ts and time t + Tu, and more accurately. Can be collected.

また、時刻tで移動体候補領域(パターンA)が特定され車両として検出された場合、時刻tから検出した車両の追跡処理が開始される。当該追跡処理の情報を参照して、車両の検出処理の精度を高めるとともに、非車両パターン(負例)の収集のタイミングを制御して誤った負例が収集されることを抑制する。   When the moving object candidate area (pattern A) is identified and detected as a vehicle at time t, tracking processing of the vehicle detected from time t is started. With reference to the information of the tracking process, the accuracy of the vehicle detection process is enhanced, and the collection timing of the non-vehicle pattern (negative example) is controlled to suppress the collection of an erroneous negative example.

例えば、時刻t+Ts(第2撮像時点)と時刻t(第1撮像時点)との時間差Ts以上の間追跡が行われた場合、移動体候補領域の特徴量を破棄する。すなわち、時刻t+Tsと時刻tとの時間差Ts以上の間、当該移動体候補領域の追跡が行われた場合には、当該移動体候補領域は、実際の車両を撮像したものであると判定することができるので、非車両パターンとして登録することなく破棄する。これにより、本来、車両の特徴量であるものを非車両パターンとして誤って登録されることを防止でき、収集する非車両パターンの精度を向上させることができる。   For example, when tracking is performed for a time difference Ts or more between time t + Ts (second imaging time) and time t (first imaging time), the feature amount of the moving object candidate region is discarded. That is, when the moving object candidate area is tracked for a time difference Ts or more between time t + Ts and time t, it is determined that the moving object candidate area is an image of an actual vehicle. Can be discarded without registering as a non-vehicle pattern. Accordingly, it is possible to prevent the original characteristic amount of the vehicle from being erroneously registered as a non-vehicle pattern, and to improve the accuracy of the collected non-vehicle pattern.

図6は非車両パターンの登録方法の他の例を示す説明図である。図6に示すように、時刻t(第1撮像時点)で車両と検出した際のパターンA(移動体候補領域)を特定した場合、時刻tから所定の時間だけ経過した複数の時間帯を設定する。例えば、時刻tから時刻t+T1までの時間、時刻t+T1から時刻t+T2までの時間の如く、各時間帯で撮像した1又は複数の撮像画像上の対応領域の特徴量とパターンAとの特徴量の類似度が閾値S以上であるパターンが存在したとき、パターンAを非車両パターン(負例)として登録する。時間帯は、例えば、30秒程度とすることができる。   FIG. 6 is an explanatory diagram showing another example of a non-vehicle pattern registration method. As shown in FIG. 6, when a pattern A (moving object candidate region) when a vehicle is detected at time t (first imaging time point) is specified, a plurality of time zones after a predetermined time from time t are set. To do. For example, the similarity between the feature quantity of the corresponding area on one or a plurality of captured images taken in each time zone and the feature quantity of the pattern A, such as the time from time t to time t + T1, and the time from time t + T1 to time t + T2. When there is a pattern whose degree is equal to or greater than the threshold value S, the pattern A is registered as a non-vehicle pattern (negative example). The time zone can be set to about 30 seconds, for example.

複数の時間帯に分け、各時間帯でパターンAと類似するパターンだけを非車両パターンとして登録するので、偶然にパターンAと同じ領域に停止している車両が存在していたとしても、複数の時間帯に亘って存在することはほとんどないので、車両を表すパターンを非車両として誤って登録することを防止することができる。   Since it is divided into a plurality of time zones, and only the pattern similar to the pattern A is registered as a non-vehicle pattern in each time zone, even if there is a vehicle that stops in the same area as the pattern A by chance, Since it rarely exists over time, it is possible to prevent a pattern representing a vehicle from being erroneously registered as a non-vehicle.

負例登録部110は、複数の移動体候補領域(パターンA)が特定されている場合、移動体候補領域毎に、撮像画像上の位置及び大きさが移動体候補領域と同等の領域に関連付けて当該移動体候補領域(パターンA)を非車両パターン(負例)として負例記憶部111に登録する。すなわち、パターンAの特徴量等を非車両パターン(負例)として登録する場合、パターンAの領域毎に登録する。   When a plurality of moving object candidate areas (pattern A) are specified, the negative example registration unit 110 associates the position and size on the captured image with an area equivalent to the moving object candidate area for each moving object candidate area. The moving object candidate area (pattern A) is registered in the negative example storage unit 111 as a non-vehicle pattern (negative example). That is, when registering the feature amount or the like of pattern A as a non-vehicle pattern (negative example), it is registered for each area of pattern A.

図7は登録した非車両パターンの一例を示す説明図である。図7に示すように、非車両パターン(負例)は、領域毎に登録される。例えば、IDが1の非車両パターンは、領域の左上の座標が(x1、y1)であり、領域の高さがh1であり、幅がw1であり、特徴量(例えば、256次元ベクトル)がv1である。IDが1の非車両パターンは、座標が(x1、y1)、領域の高さがh1、幅がw1のパターンA(移動体候補領域)の特徴量と類似すると判定されたものである。なお、他の非車両パターンも同様である。   FIG. 7 is an explanatory diagram showing an example of a registered non-vehicle pattern. As shown in FIG. 7, the non-vehicle pattern (negative example) is registered for each region. For example, in the non-vehicle pattern with ID 1, the upper left coordinate of the region is (x1, y1), the height of the region is h1, the width is w1, and the feature amount (for example, 256-dimensional vector) is v1. The non-vehicle pattern whose ID is 1 is determined to be similar to the feature amount of the pattern A (moving body candidate region) whose coordinates are (x1, y1), the height of the region is h1, and the width is w1. The same applies to other non-vehicle patterns.

パターンAの領域毎に非車両パターン(負例)を登録することにより、撮像画像に基づいて車両を検出する際の車両・非車両の判定は、登録した領域(非車両パターンの領域の座標、大きさ)に対してのみ行うことになり、撮像画像全体に亘って判定処理を行う必要がない。非車両パターンとして代表的な建物の影、木の影などは、ほぼ同じ領域で局所的に存在するので、撮像画像全体に亘って非車両パターンであるか否かを判定しなくても非車両パターンとして登録した領域だけを判定することにより、十分車両・非車両の判定を行うことができ、撮像画像全体に亘って処理する場合に比べて処理時間を短くして、高速処理を実現することができる。また、仮に車両・非車両の判定が誤ったとしても(内部エラーが生じたとしても)、影響が生じるのは非車両パターンとして登録した領域であるので、内部エラーに対するロバスト性が得られる。   By registering a non-vehicle pattern (negative example) for each area of pattern A, the vehicle / non-vehicle determination when detecting a vehicle based on the captured image is performed using the registered area (the coordinates of the area of the non-vehicle pattern, (Size) only, and it is not necessary to perform determination processing over the entire captured image. As typical non-vehicle patterns, shadows of buildings, trees, etc. exist locally in almost the same area, so non-vehicles can be determined without determining whether or not the entire captured image is a non-vehicle pattern. By determining only the area registered as a pattern, sufficient vehicle / non-vehicle determination can be made, and processing time can be shortened compared to the case where the entire captured image is processed, thereby realizing high-speed processing. Can do. Further, even if the vehicle / non-vehicle determination is wrong (even if an internal error occurs), the region that has been registered as the non-vehicle pattern has an effect, so that robustness against the internal error can be obtained.

上述したアルゴリズムは、画像中の局所領域に頻発する誤検出パターンを主なターゲットとして収集することを意図している。そのパターンが特定の局所領域に頻発しているのならば、以降の時刻でも同一の領域で同一のパターンが頻発している可能性が高い。一方、車両が走行するエリアに同一の車両が長時間停止し続けること、及び同一領域に同一の車両が同一のタイミングで複数回出現することは、交通事故の発生時等の異常事態を除いてほぼあり得ない。したがって、通常の車両の停止時間として考え得る時間以上の値をTsに設定することで、車両を誤検出パターンとして誤収集することを回避しながら頻発する誤検出パターンを収集できる。   The above-described algorithm is intended to collect, as a main target, erroneous detection patterns that frequently occur in a local region in an image. If the pattern frequently occurs in a specific local area, it is highly likely that the same pattern frequently occurs in the same area at subsequent times. On the other hand, the fact that the same vehicle continues to stop for a long time in the area where the vehicle travels and that the same vehicle appears multiple times in the same area at the same timing, except for abnormal situations such as when a traffic accident occurs Almost impossible. Therefore, by setting a value greater than the time that can be considered as a normal vehicle stop time to Ts, it is possible to collect frequent detection patterns while avoiding erroneous collection of vehicles as erroneous detection patterns.

また、類似パターンの発生回数下限として、所定値Cを時刻t+Tsから時刻t+Tuまでの間に、誤検出パターン候補(パターンA)と同種の走行車両が収集条件を判定するタイミングで同一領域に偶然位置していると考えられる回数以上の値として設定することにより、非車両パターン(負例)の誤収集の確率を極めて低く抑えることができる。   Further, as the lower limit of the number of occurrences of similar patterns, the predetermined value C is accidentally positioned in the same region at the timing when the traveling vehicle of the same type as the erroneous detection pattern candidate (pattern A) determines the collection condition between time t + Ts and time t + Tu. By setting it as a value that is greater than or equal to the number of times considered to be, the probability of erroneous collection of a non-vehicle pattern (negative example) can be kept extremely low.

類似度に256次元画素値の正規化相関を用い、時間Tsとして1200フレーム(1フレームが100ms)、時間Tuとして1500フレーム、類似度の閾値Sとして0.99、所定値Cを2として行った実験では、本実施の形態の負例の自動収集方式により、種々のテストシーンに対して誤検出パターン(負例)を誤りなく収集することができた。   Normalized correlation of 256-dimensional pixel values was used for similarity, time Ts was 1200 frames (1 frame is 100 ms), time Tu was 1500 frames, similarity threshold S was 0.99, and predetermined value C was 2. In the experiment, a false detection pattern (negative example) could be collected without error for various test scenes by the negative example automatic collection method of the present embodiment.

なお、実際には誤検出パターン候補(パターンA)は一度に1個以上用意することを想定しているが、収集処理自体の計算量は、確保している誤検出パターン候補の数に応じた、256次元ベクトルに関する類似度が大半であるので、一度に確保する誤検出パターン候補の数の上限を制限すれば全体の処理のリアルタイム性の確保は容易である。   Although it is assumed that one or more erroneous detection pattern candidates (pattern A) are actually prepared at a time, the amount of calculation of the collection process itself depends on the number of erroneous detection pattern candidates secured. Since most of the similarities relating to 256-dimensional vectors are the upper limit of the number of false detection pattern candidates to be secured at a time, it is easy to ensure real-time performance of the entire process.

図8は本実施の形態の車両検出装置100による負例の自動収集の処理手順を示すフローチャートである。なお、以下のフローチャートの説明では、便宜上車両検出装置100を簡略化して装置100と称する。装置100は、撮像画像を取得し(S11)、時刻tの撮像画像上で車両としてパターンAを検出する(S12)。なお、パターンAは、移動体候補領域が車両であると判定された場合の移動体候補領域そのものである。   FIG. 8 is a flowchart showing a processing procedure of negative automatic collection by the vehicle detection device 100 of the present embodiment. In the following description of the flowchart, the vehicle detection device 100 is simplified and referred to as the device 100 for convenience. The apparatus 100 acquires a captured image (S11), and detects the pattern A as a vehicle on the captured image at time t (S12). The pattern A is the moving object candidate area itself when it is determined that the moving object candidate area is a vehicle.

装置100は、検出したパターンAを誤検出パターン候補(負例候補)として、パターンAの領域ID、領域の座標、大きさ及び特徴量を記憶する(S13)。装置100は、時刻t+Tsから時刻t+Tuの間の撮像画像でパターンAと同じ領域である対応領域の特徴量を算出する(S14)。   The apparatus 100 stores the detected pattern A as an erroneously detected pattern candidate (negative example candidate), the area ID, the coordinates of the area, the size, and the feature amount of the pattern A (S13). The apparatus 100 calculates the feature amount of the corresponding area that is the same area as the pattern A in the captured image from time t + Ts to time t + Tu (S14).

装置100は、パターンAの特徴量との類似度が閾値S以上のパターン(対応領域)が所定回数C以上発生したか否かを判定し(S15)、所定回数C以上発生した場合(S15でYES)、時刻tから時刻t+Tsの間、パターンA(時刻tで車両であると判定されたパターン)の追跡処理が継続しているか否かを判定する(S16)。   The apparatus 100 determines whether or not a pattern (corresponding region) whose similarity to the feature amount of the pattern A is greater than or equal to the threshold value S (corresponding region) occurs a predetermined number C or more (S15). YES), it is determined whether or not the tracking process of the pattern A (the pattern determined to be a vehicle at the time t) continues from the time t to the time t + Ts (S16).

追跡処理が継続していない場合(S16でNO)、パターンAを負例(非車両パターン)として登録し(S17)、処理を終了する。ステップS15で所定回数C以上発生していない場合(S15でNO)、あるいは追跡処理が継続している場合(S16でYES)、装置100は、パターンSを負例とせず破棄し(S18)、処理を終了する。なお、図8に示す処理は、適宜の周期で繰り返し実行することができる。   When the tracking process is not continued (NO in S16), the pattern A is registered as a negative example (non-vehicle pattern) (S17), and the process ends. If the predetermined number of times C or more has not occurred in step S15 (NO in S15), or if the tracking process is continuing (YES in S16), the apparatus 100 discards the pattern S as a negative example (S18), The process ends. Note that the processing shown in FIG. 8 can be repeatedly executed at an appropriate cycle.

本実施の形態の車両検出装置100は、CPU、RAMなどを備えた汎用コンピュータを用いて実現することもできる。すなわち、図8に示すような、各処理手順を定めたコンピュータプログラムをCD、DVD、USBメモリ等のコンピュータプログラム記録媒体に記録しておき、当該コンピュータプログラムをコンピュータに備えられたRAMにロードし、コンピュータプログラムをCPUで実行することにより、コンピュータ上で車両検出装置100を実現することができる。   The vehicle detection apparatus 100 according to the present embodiment can also be realized using a general-purpose computer that includes a CPU, a RAM, and the like. That is, as shown in FIG. 8, a computer program that defines each processing procedure is recorded on a computer program recording medium such as a CD, DVD, USB memory, etc., and the computer program is loaded into a RAM provided in the computer. By executing the computer program on the CPU, the vehicle detection device 100 can be realized on the computer.

負例収集部107により、自動収集タイミング(期間)で自動収集されて負例記憶部111に登録された負例(非車両パターン)を用いて、車両検出部102における車両・非車両の判定基準を修正する。   A vehicle / non-vehicle determination criterion in the vehicle detection unit 102 using a negative example (non-vehicle pattern) that is automatically collected at the automatic collection timing (period) by the negative example collection unit 107 and registered in the negative example storage unit 111. To correct.

車両検出部102の判定基準の修正は、前述の自動収集方式によって収集・登録された負例(非車両パターン)の特徴量と類似度が大きい特徴量を有する移動体候補領域を非車両パターンであると判定する処理を、車両検出部102での車両検出と並行して実施するという形で実現することができる。そして、両方で車両であると判定した場合だけ最終的な検出結果として「車両」という判定結果を出力し、追跡処理のフェーズに移行し、それ以外の場合は「非車両」という判定結果を出力し、追跡処理は実行しない。   The correction of the determination criterion of the vehicle detection unit 102 is performed by converting a moving object candidate region having a feature amount having a large similarity with the feature amount of the negative example (non-vehicle pattern) collected and registered by the automatic collection method described above into a non-vehicle pattern. The process for determining that there is a vehicle can be realized in the form of being executed in parallel with the vehicle detection by the vehicle detection unit 102. Then, only when it is determined that the vehicle is both, the determination result “vehicle” is output as the final detection result, and the process proceeds to the tracking process phase. Otherwise, the determination result “non-vehicle” is output. However, the tracking process is not executed.

負例収集部107により、自動収集タイミング(期間)で自動収集されて負例記憶部111に登録された負例(非車両パターン)を用いて、車両検出部102は、以降の車両検出を行う。   The vehicle detection unit 102 performs subsequent vehicle detection using the negative example (non-vehicle pattern) automatically collected by the negative example collection unit 107 at the automatic collection timing (period) and registered in the negative example storage unit 111. .

すなわち、車両候補領域特定部103は、任意の撮像時点で得られた撮像画像に基づいて移動体候補領域を特定する。特徴量算出部104は、特定された移動体候補領域の特徴量を算出する。車両類似度算出部105は、移動体候補領域の特徴量と当該移動体候補領域に関連付けられた領域に登録された1又は複数の非車両パターン(負例)の特徴量との類似度を算出する。この場合、用いられる負例は、例えば、負例収集部107で自動的に収集された非車両パターンである。   That is, the vehicle candidate area specifying unit 103 specifies the moving object candidate area based on the captured image obtained at an arbitrary imaging time point. The feature amount calculation unit 104 calculates the feature amount of the identified moving object candidate region. The vehicle similarity calculation unit 105 calculates the similarity between the feature amount of the moving object candidate region and the feature amount of one or more non-vehicle patterns (negative examples) registered in the region associated with the moving object candidate region. To do. In this case, the negative example used is, for example, a non-vehicle pattern automatically collected by the negative example collection unit 107.

車両判定部106は、算出された類似度が所定の閾値以上である非車両パターンが存在した場合、当該移動体候補領域を非車両として検出する。自動収集処理により得られた移動体判定情報(非車両パターン)を用いることにより、移動体でないものを移動体として誤って検出することを防止して、移動体を高精度に検出することができる。   When there is a non-vehicle pattern in which the calculated similarity is equal to or greater than a predetermined threshold, the vehicle determination unit 106 detects the moving object candidate region as a non-vehicle. By using the moving body determination information (non-vehicle pattern) obtained by the automatic collection process, it is possible to prevent a non-moving body from being erroneously detected as a moving body and to detect the moving body with high accuracy. .

また、車両判定部106は、算出された類似度が所定の閾値以上である非車両パターンが存在しない場合、当該移動体候補領域を車両として検出する。自動収集処理により得られた移動体判定情報(非車両パターン)を用いることにより、移動体を高精度に検出することができる。なお、移動体候補領域が複数ある場合には、それぞれの移動体候補領域に対して同様の処理を繰り返す。   Moreover, the vehicle determination part 106 detects the said mobile body candidate area | region as a vehicle, when the non-vehicle pattern whose calculated similarity is more than a predetermined threshold value does not exist. By using the moving body determination information (non-vehicle pattern) obtained by the automatic collection process, the moving body can be detected with high accuracy. When there are a plurality of moving object candidate areas, the same processing is repeated for each moving object candidate area.

上述のアルゴリズムにおいて、領域毎に負例(非車両パターン)を登録し、車両の検出処理のための車両・非車両の判定を登録された領域でのみ実施するという方式を用いる。同じ領域に頻発している非車両パターン(例えば、長時間変化しない建造物の影、風などの影響で短時間での変化は発生するものの、領域毎に注目すればバリエーションは限られる木の葉の影など)に対しては判定効果を十分得ることができる。   In the above algorithm, a method is used in which a negative example (non-vehicle pattern) is registered for each region, and vehicle / non-vehicle determination for vehicle detection processing is performed only in the registered region. Non-vehicle patterns that occur frequently in the same area (for example, shadows of buildings that do not change for a long time, changes in a short time due to the influence of wind, etc., but shadows of leaves with limited variations if attention is paid to each area Etc.) can be sufficiently obtained.

また、処理に要する計算量の面においても、1つの撮像画像に対して最大でも負例の登録数だけ類似度計算を行えばよく、1つの領域に対して判定を行う都度、収集・登録したパターンのすべてを利用するような方式に比べれば格段に少ない計算量で済む。そして、負例の登録数に上限を設けるなどの簡単な対応で、処理のリアルタイム性の維持が可能である。さらに、負例を領域毎に登録する方式を採用することによって、仮に収集の段階で車両を誤検出パターンとして誤って収集・登録してしまった場合でも、その影響は登録が行われた領域だけに限定されるため、システム全体として内部エラーに対するロバスト性が得られる。   Also, in terms of the amount of calculation required for processing, it is sufficient to perform similarity calculation for a single captured image at most as many as the number of registered negative examples. Compared to a method that uses all of the patterns, the amount of calculation is much smaller. The real-time property of the process can be maintained with a simple response such as setting an upper limit on the number of negative registrations. Furthermore, by adopting a method of registering negative examples for each area, even if the vehicle is mistakenly collected and registered as a false detection pattern at the collection stage, the effect is only on the registered area Therefore, robustness against internal errors can be obtained as a whole system.

図9は本実施の形態の車両検出装置100の自動学習結果の一例を示す説明図である。図9の例は、道路上に車両が存在していない場合を示す。図9Aは道路を撮像して得られた撮像画像を示す。図9Bは初期の車両検出結果を示し、自動収集アルゴリズムを実行する前の様子を示す。図9Cは本実施の形態の車両検出装置100による負例の自動収集を行って車両・非車両の判定基準を修正した場合の車両検出結果を示す。   FIG. 9 is an explanatory diagram illustrating an example of an automatic learning result of the vehicle detection device 100 according to the present embodiment. The example of FIG. 9 shows a case where no vehicle is present on the road. FIG. 9A shows a captured image obtained by imaging a road. FIG. 9B shows an initial vehicle detection result and shows a state before the automatic collection algorithm is executed. FIG. 9C shows a vehicle detection result in a case where a negative example is automatically collected by the vehicle detection device 100 of the present embodiment and the determination criteria for vehicles and non-vehicles are corrected.

図9Bと図9Cとを比較すれば分かるように、図9Bにおいて自動学習前では、車両であると誤って検出された誤検出パターンが頻繁に発生している。一方、図9Cに示すように、自動学習機能により誤検出パターン消去が行われ、誤検出パターンの発生が抑制されている。   As can be seen by comparing FIG. 9B and FIG. 9C, in FIG. 9B, erroneous detection patterns that are erroneously detected as vehicles are frequently generated before automatic learning. On the other hand, as shown in FIG. 9C, the erroneous detection pattern is erased by the automatic learning function, and the generation of the erroneous detection pattern is suppressed.

図10は本実施の形態の車両検出装置100の自動学習結果の他の例を示す説明図である。図10の例は、道路上に車両が存在している場合を示す。図10Aは道路を撮像して得られた撮像画像を示す。図10Bは初期の車両検出結果を示し、自動収集アルゴリズムを実行する前の様子を示す。図10Cは本実施の形態の車両検出装置100による負例の自動収集を行って車両・非車両の判定基準を修正した場合の車両検出結果を示す。   FIG. 10 is an explanatory diagram illustrating another example of the automatic learning result of the vehicle detection device 100 according to the present embodiment. The example of FIG. 10 shows a case where a vehicle is present on the road. FIG. 10A shows a captured image obtained by imaging a road. FIG. 10B shows an initial vehicle detection result and shows a state before the automatic collection algorithm is executed. FIG. 10C shows a vehicle detection result in a case where a negative example automatic collection by the vehicle detection apparatus 100 of the present embodiment is performed to correct a vehicle / non-vehicle determination criterion.

図10Bと図10Cとを比較すれば分かるように、図10Bにおいて自動学習前では、車両であると誤って検出された誤検出パターンが頻繁に発生している。一方、図10Cに示すように、自動学習機能により誤検出パターン消去が行われ、誤検出パターンの発生が抑制されている。   As can be seen by comparing FIG. 10B and FIG. 10C, in FIG. 10B, erroneous detection patterns that are erroneously detected as vehicles are frequently generated before automatic learning. On the other hand, as shown in FIG. 10C, the erroneous detection pattern is erased by the automatic learning function, and the generation of the erroneous detection pattern is suppressed.

本実施の形態によれば、人手を介さずに非車両パターン(移動体判定情報)の収集を自動的に行うとともに収集した非車両パターンを用いて車両などの移動体を高精度に検出することができる移動体検出システムを実現することができる。   According to this embodiment, non-vehicle patterns (moving body determination information) are automatically collected without human intervention, and a moving body such as a vehicle is detected with high accuracy using the collected non-vehicle patterns. It is possible to realize a moving body detection system capable of

従来、サンプルの学習に基づく認識技術においては、当然ながら学習サンプルの適切さがその認識精度を左右する。その中で、高精度な認識精度を達成しているアプリケーションの大半が、人の介在を必要とするものである。すなわち、人によって適切であると判断されたサンプルを学習に用いている。このことからも、学習サンプルの適切さの判定の自動化の難しさが伺える。   Conventionally, in a recognition technique based on learning of a sample, the appropriateness of a learning sample naturally affects the recognition accuracy. Among them, the majority of applications that achieve high accuracy of recognition require human intervention. That is, a sample that is determined to be appropriate by a person is used for learning. This also indicates the difficulty in automating the determination of the appropriateness of the learning sample.

本実施の形態にあっては、従来は手動で行う必要があった膨大な量のデータの収集・学習サンプルの作成を自動化することができる。また、地点毎の特性に適切に対応して高精度な車両検出・追跡性能をもつ車両センサを実現できる。これにより、安全運転を支援するための確度の高い情報を運転者に提供できる車両センシングシステムを現実的なコストで広く普及させることができる。また、検出結果に基づいて実行される追跡処理は計算量が大きい傾向にあるため、本実施の形態により実現することができる誤検出の発生頻度の削減は、そのまま計算量の削減につながり、処理の遅れによる運転者への情報伝達の遅れなどの処理時間に関わる問題を低減することができる。   In the present embodiment, it is possible to automate the collection of large amounts of data and the creation of learning samples that had to be performed manually in the past. In addition, it is possible to realize a vehicle sensor having high-accuracy vehicle detection / tracking performance that appropriately corresponds to the characteristics of each point. Thereby, the vehicle sensing system which can provide a driver | operator with the high-accuracy information for assisting safe driving | operating can be spread widely at realistic cost. In addition, since the tracking processing executed based on the detection result tends to have a large amount of calculation, the reduction in the frequency of occurrence of false detection that can be realized by the present embodiment directly leads to a reduction in the amount of calculation. Problems related to processing time, such as delays in information transmission to the driver due to delays, can be reduced.

上述の実施の形態において、特徴量算出部104と負例特徴量算出部108とを共通にして1つに纏めることもできる。また、車両類似度算出部105と負例類似度算出部109とを共通にして1つに纏めることもできる。   In the above-described embodiment, the feature quantity calculation unit 104 and the negative example feature quantity calculation unit 108 can be combined into one. In addition, the vehicle similarity calculation unit 105 and the negative example similarity calculation unit 109 can be combined into one.

開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The disclosed embodiments are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 車両検出装置
101 画像入力部
102 車両検出部
103 車両候補領域特定部
104 特徴量算出部
105 車両類似度算出部
106 車両判定部
107 負例収集部
108 負例特徴量算出部
109 負例類似度算出部
110 負例登録部
111 負例記憶部
112 車両追跡部
200 撮像装置
DESCRIPTION OF SYMBOLS 100 Vehicle detection apparatus 101 Image input part 102 Vehicle detection part 103 Vehicle candidate area | region specific part 104 Feature-value calculation part 105 Vehicle similarity calculation part 106 Vehicle determination part 107 Negative example collection part 108 Negative example feature-value calculation part 109 Negative example similarity Calculation unit 110 Negative example registration unit 111 Negative example storage unit 112 Vehicle tracking unit 200 Imaging device

Claims (9)

移動体を判定するために予め登録した移動体判定情報及び撮像装置で撮像して得られた撮像画像に基づいて移動体を検出する移動体検出装置において、
第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定する特定手段と、
前記移動体候補領域の画素値に基づく特徴量を算出する第1特徴量算出手段と、
前記第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における前記移動体候補領域の対応領域の画素値に基づく特徴量を算出する第2特徴量算出手段と、
前記第1特徴量算出手段及び第2特徴量算出手段で算出した特徴量の類似度を算出する類似度算出手段と、
該類似度算出手段で算出した類似度が所定の第1閾値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録する登録手段と
を備えることを特徴とする移動体検出装置。
In a moving body detection apparatus that detects a moving body based on moving body determination information registered in advance to determine a moving body and a captured image obtained by imaging with an imaging apparatus,
A specifying unit that specifies a moving object candidate area that is a pixel area indicating a moving object candidate based on a first captured image obtained at the first imaging time point;
First feature amount calculating means for calculating a feature amount based on a pixel value of the moving object candidate region;
Second feature amount calculation means for calculating a feature amount based on a pixel value of a corresponding region of the moving object candidate region in a second captured image obtained at a second imaging time point after the first predetermined time has elapsed from the first imaging time point. When,
Similarity calculation means for calculating the similarity of the feature quantities calculated by the first feature quantity calculation means and the second feature quantity calculation means;
A moving object detection comprising: a registration means for registering the feature amount of the moving object candidate area as moving object determination information when the similarity calculated by the similarity calculating means is equal to or greater than a predetermined first threshold value. apparatus.
前記第2特徴量算出手段は、
前記第2撮像時点から第2所定時間経過後の第3撮像時点までの間に得られた複数の撮像画像上それぞれの対応領域の特徴量を算出するようにしてあり、
前記類似度算出手段は、
前記移動体候補領域の特徴量と各対応領域の特徴量との類似度を算出するようにしてあり、
前記登録手段は、
前記類似度算出手段で算出した類似度が前記第1閾値以上である対応領域の数が所定値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録するように構成してあることを特徴とする請求項1に記載の移動体検出装置。
The second feature amount calculating means includes:
A feature amount of each corresponding region on the plurality of captured images obtained between the second imaging time point and the third imaging time point after the elapse of the second predetermined time is calculated;
The similarity calculation means includes:
The similarity between the feature amount of the moving object candidate region and the feature amount of each corresponding region is calculated,
The registration means includes
When the number of corresponding areas whose similarity calculated by the similarity calculation means is equal to or greater than the first threshold is greater than or equal to a predetermined value, the feature amount of the moving object candidate area is registered as moving object determination information. The moving body detection device according to claim 1, wherein
前記特定手段で任意の撮像時点で得られた撮像画像に基づいて特定した移動体候補領域の前記撮像時点以降の撮像時点で得られた撮像画像上での位置を追跡する追跡手段と、
該追跡手段で前記第2撮像時点と第1撮像時点との時間差以上の間追跡が行われた場合、前記移動体候補領域の特徴量を破棄する破棄手段と
を備えることを特徴とする請求項1又は請求項2に記載の移動体検出装置。
A tracking means for tracking a position on a captured image obtained at an imaging time after the imaging time of the moving object candidate region identified based on a captured image obtained at an arbitrary imaging time by the identifying means;
And a discarding unit for discarding the feature amount of the moving object candidate region when the tracking unit performs tracking for a time difference greater than or equal to the time difference between the second imaging time point and the first imaging time point. The moving body detection apparatus of Claim 1 or Claim 2.
前記特定手段は、
1又は複数の移動体候補領域を特定するようにしてあり、
前記登録手段は、
前記移動体候補領域毎に、撮像画像上の位置及び大きさが前記移動体候補領域と同等の領域に関連付けて該移動体候補領域の特徴量を移動体判定情報として登録するように構成してあることを特徴とする請求項1乃至請求項3のいずれか1項に記載の移動体検出装置。
The specifying means is:
One or more moving object candidate areas are identified,
The registration means includes
For each moving object candidate area, the feature amount of the moving object candidate area is registered as moving object determination information in association with an area having a position and size on a captured image equivalent to the moving object candidate area. The moving body detection apparatus according to claim 1, wherein the moving body detection apparatus is provided.
前記特定手段は、
任意の撮像時点で得られた撮像画像に基づいて移動体候補領域を特定するようにしてあり、
前記第1特徴量算出手段は、
前記移動体候補領域の特徴量を算出するようにしてあり、
前記類似度算出手段は、
前記移動体候補領域の特徴量と該移動体候補領域に関連付けられた領域に登録された移動体判定情報の特徴量との類似度を算出するようにしてあり、
算出した類似度が所定の第2閾値以上である移動体判定情報が存在した場合、前記移動体候補領域を非移動体として検出する検出手段を備えることを特徴とする請求項4に記載の移動体検出装置。
The specifying means is:
The mobile object candidate area is specified based on the captured image obtained at an arbitrary imaging time point,
The first feature amount calculating means includes:
The feature amount of the moving object candidate region is calculated,
The similarity calculation means includes:
The similarity between the feature amount of the moving object candidate region and the feature amount of the moving object determination information registered in the region associated with the moving object candidate region is calculated,
5. The movement according to claim 4, further comprising detection means for detecting the moving object candidate region as a non-moving object when there is moving object determination information having a calculated similarity equal to or greater than a predetermined second threshold value. Body detection device.
前記検出手段は、
算出した類似度が所定の第2閾値以上である移動体判定情報が存在しない場合、前記移動体候補領域を移動体として検出するように構成してあることを特徴とする請求項5に記載の移動体検出装置。
The detection means includes
The mobile object candidate area is configured to be detected as a mobile object when there is no mobile object determination information whose calculated similarity is equal to or greater than a predetermined second threshold value. Moving body detection device.
請求項1に記載の移動体検出装置と、撮像した撮像画像を前記移動体検出装置へ出力する撮像装置とを備えることを特徴とする移動体検出システム。   A mobile body detection system comprising: the mobile body detection apparatus according to claim 1; and an imaging apparatus that outputs a captured image to the mobile body detection apparatus. コンピュータに、移動体を判定するために予め登録した移動体判定情報及び撮像装置で撮像して得られた撮像画像に基づいて移動体を検出させるためのコンピュータプログラムにおいて、
コンピュータに、
第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定するステップと、
前記移動体候補領域の画素値に基づく特徴量を算出するステップと、
前記第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における前記移動体候補領域の対応領域の画素値に基づく特徴量を算出するステップと、
算出した特徴量の類似度を算出するステップと、
算出した類似度が所定の第1閾値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録するステップと
を実行させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to detect a moving body based on moving body determination information registered in advance to determine a moving body and a captured image obtained by imaging with an imaging device,
On the computer,
Identifying a moving object candidate area which is a pixel area indicating a moving object candidate based on a first captured image obtained at the first imaging time point;
Calculating a feature amount based on a pixel value of the moving object candidate region;
Calculating a feature amount based on a pixel value of a corresponding region of the moving object candidate region in a second captured image obtained at a second captured time after a first predetermined time has elapsed from the first captured time;
Calculating the similarity of the calculated feature quantity;
When the calculated similarity is greater than or equal to a predetermined first threshold value, the computer program is configured to execute a step of registering the feature amount of the moving object candidate region as moving object determination information.
移動体を判定するために予め登録した移動体判定情報及び撮像装置で撮像して得られた撮像画像に基づいて移動体を検出する移動体検出装置による移動体検出方法において、
第1撮像時点で得られた第1撮像画像に基づいて移動体候補を示す画素領域である移動体候補領域を特定するステップと、
前記移動体候補領域の画素値に基づく特徴量を算出するステップと、
前記第1撮像時点から第1所定時間経過後の第2撮像時点で得られた第2撮像画像における前記移動体候補領域の対応領域の画素値に基づく特徴量を算出するステップと、
算出された特徴量の類似度を算出するステップと、
算出された類似度が所定の第1閾値以上である場合、前記移動体候補領域の特徴量を移動体判定情報として登録するステップと、
登録された移動体判定情報を用いて移動体を検出するステップと
を含むことを特徴とする移動体検出方法。
In the moving body detection method by the moving body detection device that detects the moving body based on the moving body determination information registered in advance to determine the moving body and the captured image obtained by imaging with the imaging device,
Identifying a moving object candidate area which is a pixel area indicating a moving object candidate based on a first captured image obtained at the first imaging time point;
Calculating a feature amount based on a pixel value of the moving object candidate region;
Calculating a feature amount based on a pixel value of a corresponding region of the moving object candidate region in a second captured image obtained at a second captured time after a first predetermined time has elapsed from the first captured time;
Calculating the similarity of the calculated feature quantity;
When the calculated similarity is equal to or greater than a predetermined first threshold, registering the feature amount of the moving object candidate region as moving object determination information; and
Detecting a moving object using registered moving object determination information. A moving object detection method comprising:
JP2011167515A 2011-07-29 2011-07-29 Moving object detection device, moving object detection system, computer program, and moving object detection method Withdrawn JP2013030129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011167515A JP2013030129A (en) 2011-07-29 2011-07-29 Moving object detection device, moving object detection system, computer program, and moving object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011167515A JP2013030129A (en) 2011-07-29 2011-07-29 Moving object detection device, moving object detection system, computer program, and moving object detection method

Publications (1)

Publication Number Publication Date
JP2013030129A true JP2013030129A (en) 2013-02-07

Family

ID=47787077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011167515A Withdrawn JP2013030129A (en) 2011-07-29 2011-07-29 Moving object detection device, moving object detection system, computer program, and moving object detection method

Country Status (1)

Country Link
JP (1) JP2013030129A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177648A (en) * 2019-04-18 2020-10-29 富士通株式会社 Recognition method of false detection of abandoned object, device, and image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177648A (en) * 2019-04-18 2020-10-29 富士通株式会社 Recognition method of false detection of abandoned object, device, and image processor
JP7392488B2 (en) 2019-04-18 2023-12-06 富士通株式会社 Recognition method, device, and image processing device for false detection of remains

Similar Documents

Publication Publication Date Title
CN109871745B (en) Method and system for identifying empty parking space and vehicle
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
EP2759959A2 (en) Method and system for detecting multi-lanes
US20140112542A1 (en) System and method for recognizing parking space line markings for vehicle
JP2012531685A (en) Image processing method for a driver assistance system of a vehicle for detecting and classifying at least a part of at least one set image element
CN110388929B (en) Navigation map updating method, device and system
JP2012123642A (en) Image identifying device and program
CN111160132B (en) Method and device for determining lane where obstacle is located, electronic equipment and storage medium
CN113029185B (en) Road marking change detection method and system in crowdsourcing type high-precision map updating
JP2012084003A (en) Object recognition device and program
US11948408B2 (en) Apparatus and method for evaluating vehicle sensor performance
CN111461026B (en) Vehicle posture recognition method, and method and device for detecting vehicle state in parking lot
CN111881752B (en) Guardrail detection classification method and device, electronic equipment and storage medium
CN112598743A (en) Pose estimation method of monocular visual image and related device
WO2014112407A1 (en) Information processing system, information processing method, and program
CN110570680A (en) Method and system for determining position of object using map information
JP2013030129A (en) Moving object detection device, moving object detection system, computer program, and moving object detection method
CN114037977B (en) Road vanishing point detection method, device, equipment and storage medium
Kluwak et al. ALPR-extension to traditional plate recognition methods
WO2022179016A1 (en) Lane detection method and apparatus, device, and storage medium
CN115841660A (en) Distance prediction method, device, equipment, storage medium and vehicle
US20210155249A1 (en) Device and method for estimating the attention level of a driver of a vehicle
CN114333414A (en) Parking yield detection device, parking yield detection system, and recording medium
CN109740518B (en) Method and device for determining object in video

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007