JP2013250868A - Image recognition device, image recognition method and image recognition program - Google Patents

Image recognition device, image recognition method and image recognition program Download PDF

Info

Publication number
JP2013250868A
JP2013250868A JP2012126132A JP2012126132A JP2013250868A JP 2013250868 A JP2013250868 A JP 2013250868A JP 2012126132 A JP2012126132 A JP 2012126132A JP 2012126132 A JP2012126132 A JP 2012126132A JP 2013250868 A JP2013250868 A JP 2013250868A
Authority
JP
Japan
Prior art keywords
symmetry
window
image
gradient
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012126132A
Other languages
Japanese (ja)
Inventor
Hiroyuki Akimoto
広幸 秋元
Tomokazu Mitsui
相和 三井
Junji Kanemoto
淳司 金本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Elesys Corp
Original Assignee
Honda Elesys Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Elesys Co Ltd filed Critical Honda Elesys Co Ltd
Priority to JP2012126132A priority Critical patent/JP2013250868A/en
Publication of JP2013250868A publication Critical patent/JP2013250868A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition device that can enhance recognition performance of a target object by a bilateral symmetry (or diphycercal symmetry) determination process.SOLUTION: The image recognition device (as one example, a camera electronic control unit (ECU) 1) comprises: an image acquisition unit 12 that acquires an image; and an object recognition unit 13 that performs a process of identifying determination of a window capturing a predetermined target object regarding a window to be set for an image acquired by the image acquisition unit 12 and a process of clustering the determined window including a symmetry determination rejecting a window determined non symmetry regarding one or both of preliminarily determined bilateral symmetry and diphycercal symmetry.

Description

本発明は、画像認識装置、画像認識方法および画像認識プログラムに関する。   The present invention relates to an image recognition apparatus, an image recognition method, and an image recognition program.

近年、車両の運転支援装置や予防安全装置として、車間距離制御装置(ACC:Adaptive Cruise Control)や前方車両衝突警報装置(FCW:Forward Collision Warning)などがあり、車載カメラを用いる安価な装置の普及が期待されている。   In recent years, there are vehicle distance control devices (ACC: Adaptive Cruise Control), forward vehicle collision warning devices (FCW: Forward Collision Warning), etc. as vehicle driving support devices and preventive safety devices, and the spread of inexpensive devices using in-vehicle cameras. Is expected.

車載カメラを用いる物体の認識には、パターン認識が多く用いられている。
パターン認識の手法は、認識したい物体の特徴量をあらかじめ学習して、その学習結果を反映した辞書を作成し、当該辞書の内容と照合することで、撮像した画像の中に物体(物体の画像)があるか否かを認識する手法である。
パターン認識においては、Haar−like特徴量とAdaBoostの識別器とを組み合わせた顔認識アルゴリズム(例えば、非特許文献1参照。)が発表された後、近年では、車載用の物体認識に応用した技術(例えば、特許文献1参照。)も発表されている。
このような物体認識のアルゴリズムでは、Haar−like特徴量を作る際に、積分画像(インテグラルイメージ)を作成することや、AdaBoostの識別器をカスケード型にすることにより、演算処理を高速にしたことも特色としてある。
Pattern recognition is often used for object recognition using a vehicle-mounted camera.
The pattern recognition method learns the feature quantity of the object to be recognized in advance, creates a dictionary reflecting the learning result, and collates it with the contents of the dictionary, so that the object (object image) is captured. ) Is a technique for recognizing whether or not there is.
In pattern recognition, after a face recognition algorithm (for example, see Non-Patent Document 1) combining a Haar-like feature quantity and an AdaBoost classifier has been announced, in recent years, a technology applied to vehicle-mounted object recognition (See, for example, Patent Document 1).
In such an object recognition algorithm, when creating a Haar-like feature quantity, an integrated image (integral image) is created, and the AdaBoost discriminator is cascaded to speed up the arithmetic processing. That is also a feature.

また、他のよく使われる特徴量として、HOG(Histograms of Oriented Gradients)特徴量などがある。
また、他のよく使われる識別器として、SVM(Support Vector Machine)の識別器などがある。
また、前記のようなパターン認識では、撮像した画像の中から目標物体(目標物体の画像)を抽出するために、物体認識する領域(ウィンドウ)を各サイズで設定し、そのウィンドウ毎に前記した物体認識のアルゴリズムの処理を施す。
Further, other frequently used feature values include HOG (Histograms of Oriented Gradients) feature values.
As another frequently used classifier, there is an SVM (Support Vector Machine) classifier.
In the pattern recognition as described above, in order to extract a target object (target object image) from the captured image, an object recognition area (window) is set in each size, and the above-mentioned is described for each window. The object recognition algorithm is processed.

また、前記のようなパターン認識によって認識した複数のウィンドウの中から最適な目標物体のウィンドウを絞り込むために、後段にクラスタリング処理が設けられる場合がある。
なお、通常、ラスタスキャンのステップが細かい程、1つの目標物に対して複数のウィンドウが認識される。
In addition, a clustering process may be provided in the subsequent stage in order to narrow down an optimal target object window from a plurality of windows recognized by pattern recognition as described above.
Normally, the finer the raster scan step, the more windows are recognized for one target.

なお、図11および図12を参照して、背景技術に係る物体認識部(例えば、図1(A)に示される物体認識部13に対応する処理部)により行われるパターン認識の処理について説明する。
図11は、背景技術に係る物体認識部により行われる処理の手順の一例を示すフローチャート図である。
この例では、HOG特徴量とAdaBoostの識別器により、認識アルゴリズムを構成している。
The pattern recognition process performed by the object recognition unit according to the background art (for example, the processing unit corresponding to the object recognition unit 13 illustrated in FIG. 1A) will be described with reference to FIGS. .
FIG. 11 is a flowchart illustrating an example of a procedure of processing performed by the object recognition unit according to the background art.
In this example, the recognition algorithm is configured by the HOG feature and the AdaBoost classifier.

まず、物体認識部は、取得した全ての輝度画像に対して、勾配方向と勾配強度を算出し、それぞれの勾配方向毎に勾配強度を積分する処理を行い、この結果である積分勾配画像(インテグラルヒストグラム)を算出する(ステップS101)。これにより、勾配方向数枚の積分勾配画像が算出される。   First, the object recognizing unit calculates the gradient direction and gradient intensity for all the acquired luminance images, performs a process of integrating the gradient intensity for each gradient direction, and obtains an integrated gradient image (integrator). (Histogram) is calculated (step S101). As a result, several integral gradient images in the gradient direction are calculated.

次に、物体認識部は、ラスタスキャンにより、勾配方向毎の各積分勾配画像の任意の領域を、あらかじめ設定した任意の座標領域(ウィンドウ)をスライドさせながら抽出する(ステップS102)。
次に、物体認識部は、抽出した座標領域(ウィンドウ)について、HOG特徴量(ベクトル)を算出する(ステップS103)。これにより、セル単位で勾配ヒストグラムを作成する。
Next, the object recognition unit extracts an arbitrary area of each integral gradient image for each gradient direction by raster scanning while sliding an arbitrary coordinate area (window) set in advance (step S102).
Next, the object recognition unit calculates an HOG feature amount (vector) for the extracted coordinate area (window) (step S103). Thereby, a gradient histogram is created for each cell.

次に、物体認識部は、算出したHOG特徴量(ベクトル)を用いて、AdaBoostの識別器による識別を行い、あらかじめ目標(ターゲット)としている物体(物体の画像)を認識する(ステップS104)。
ここで、物体認識部は、一連のラスタスキャンが終了したか否かを確認する(ステップS105)。
そして、物体認識部は、一連のラスタスキャンが終了したと判定した場合には、クラスタリングにより、識別器により抽出されたウィンドウを部分集合でまとめることで、最終的な目標物体のウィンドウを特定し(ステップS106)、本処理を終了する。
Next, the object recognition unit uses the calculated HOG feature value (vector) to perform identification by an AdaBoost classifier, and recognizes an object (an object image) that is a target (target) in advance (step S104).
Here, the object recognition unit checks whether or not a series of raster scans has been completed (step S105).
If the object recognition unit determines that the series of raster scans has been completed, the final target object window is specified by clustering the windows extracted by the classifier by a clustering by clustering ( Step S106), the process is terminated.

一方、物体認識部は、一連のラスタスキャンが終了していないと判定した場合には、ステップS102の処理へ移行し、積分勾配画像の領域において、ウィンドウをずらして(スライドさせて)、次のスキャンを行う。
これにより、物体認識部は、一連のラスタスキャンが終了するまで、ラスタスキャンの領域に対して、順次、ステップS102〜ステップS104の処理を繰り返して行う。
On the other hand, if the object recognizing unit determines that the series of raster scans has not ended, the object recognizing unit proceeds to the process of step S102, and shifts (slides) the window in the region of the integral gradient image to perform the next step. Perform a scan.
As a result, the object recognizing unit sequentially repeats the processing from step S102 to step S104 on the raster scan area until a series of raster scans is completed.

なお、一連のラスタスキャンでは、例えば、任意の画像領域に対して、同一のスケール(大きさ)のウィンドウを順次スライドさせて前記の処理(勾配ヒストグラムを作成する処理)を繰り返して行うことが終了した後に、ウィンドウのスケールや移動ステップ(スキャンステップ)を変化させて、再び、ウィンドウを順次スライドさせて前記の処理を繰り返して行うことを、あらかじめ定められた分だけ実行する。これにより、各スキャンで特徴ベクトル化を行う。   Note that, in a series of raster scans, for example, sliding the windows of the same scale (size) sequentially for an arbitrary image area and repeating the above processing (processing for creating a gradient histogram) is completed. After that, the window scale and moving step (scan step) are changed, and the window is sequentially slid again and the above processing is repeated for a predetermined amount. Thereby, feature vectorization is performed in each scan.

また、勾配ヒストグラムを作成する処理の方法としては、積分勾配画像を使用しない方法もあるが、積分勾配画像を使用する方法の方が処理時間を短くすることができるため有効である。   Further, as a method of processing to create a gradient histogram, there is a method that does not use an integral gradient image, but a method that uses an integral gradient image is more effective because the processing time can be shortened.

ここで、HOG特徴量などの輝度勾配ベースの特徴量の代わりにHaar−like特徴量などの輝度ベースの特徴量を用いる場合には、上記した積分勾配画像の代わりに通常の積分輝度画像を用いる。この場合、1つの積分画像の作成で済ませることができるため処理を節減することが可能となるが、例えば、特定領域の輝度差の特徴のみを捉えられるだけに限られ、勾配方向毎で特徴を捉えることができない。   Here, when using a luminance-based feature quantity such as a Haar-like feature quantity instead of a luminance gradient-based feature quantity such as an HOG feature quantity, a normal integrated luminance image is used instead of the above-described integral gradient image. . In this case, it is possible to reduce the processing because it is possible to create one integral image, but for example, only the feature of the luminance difference of a specific region can be captured, and the feature can be changed for each gradient direction. I can't catch it.

図12は、背景技術に係る物体認識部により行われる処理の手順の他の一例を示すフローチャート図である。
この例では、Haar−like特徴量とAdaBoostの識別器により、認識アルゴリズムを構成している。
FIG. 12 is a flowchart illustrating another example of the processing procedure performed by the object recognition unit according to the background art.
In this example, a recognition algorithm is configured by the Haar-like feature quantity and the AdaBoost classifier.

まず、物体認識部は、取得した輝度画像に対して、輝度画像を積分する処理を行い、この結果である積分画像(インテグラルイメージ)を算出する(ステップS111)。
次に、物体認識部は、ラスタスキャンにより、積分画像の領域を、あらかじめ設定した任意の座標領域(ウィンドウ)で抽出する(ステップS112)。
次に、物体認識部は、抽出した座標領域(ウィンドウ)について、Haar−like特徴量(ベクトル)を算出する(ステップS113)。
First, the object recognizing unit performs a process of integrating the luminance image on the acquired luminance image, and calculates an integrated image (integral image) as a result (step S111).
Next, the object recognizing unit extracts the area of the integral image by an arbitrary coordinate area (window) set in advance by raster scanning (step S112).
Next, the object recognition unit calculates a Haar-like feature value (vector) for the extracted coordinate area (window) (step S113).

次に、物体認識部は、算出したHaar−like特徴量(ベクトル)を用いて、AdaBoostの識別器による識別を行い、あらかじめ目標(ターゲット)としている物体(物体の画像)を認識する(ステップS114)。
ここで、物体認識部は、一連のラスタスキャンが終了したか否かを確認する(ステップS115)。
そして、物体認識部は、一連のラスタスキャンが終了したと判定した場合には、クラスタリングにより、識別器により抽出されたウィンドウを部分集合でまとめることで、最終的な目標物体のウィンドウを特定し(ステップS116)、本処理を終了する。
Next, the object recognition unit uses the calculated Haar-like feature value (vector) to perform identification by an AdaBoost classifier, and recognizes an object (object image) that is a target (target) in advance (step S114). ).
Here, the object recognition unit checks whether or not a series of raster scans has been completed (step S115).
If the object recognition unit determines that the series of raster scans has been completed, the final target object window is specified by clustering the windows extracted by the classifier by a clustering by clustering ( Step S116), this process is terminated.

一方、物体認識部は、一連のラスタスキャンが終了していないと判定した場合には、ステップS112の処理へ移行し、積分画像の領域において、ウィンドウをずらして(スライドさせて)、次のスキャンを行う。
これにより、物体認識部は、一連のラスタスキャンが終了するまで、ラスタスキャンの領域に対して、順次、ステップS112〜ステップS114の処理を繰り返して行う。
On the other hand, if the object recognition unit determines that the series of raster scans has not ended, the object recognition unit proceeds to the process of step S112, and shifts (slides) the window in the region of the integral image to perform the next scan. I do.
As a result, the object recognizing unit sequentially repeats the processing from step S112 to step S114 on the raster scan area until a series of raster scans is completed.

なお、一連のラスタスキャンでは、例えば、任意の画像領域に対して、同一のスケール(大きさ)のウィンドウを順次スライドさせて前記の処理を繰り返して行うことが終了した後に、ウィンドウのスケールや移動ステップ(スキャンステップ)を変化させて、再び、ウィンドウを順次スライドさせて前記の処理を繰り返して行うことを、あらかじめ定められた分だけ実行する。   Note that in a series of raster scans, for example, a window with the same scale (size) is sequentially slid with respect to an arbitrary image area and the above processing is repeated, and then the scale and movement of the window are completed. Steps (scanning steps) are changed, and the window is sequentially slid again to repeat the above-described processing for a predetermined amount.

ここで、特徴量としては、他の特徴量が用いられてもよい。
また、AdaBoost以外にも、SVMなどの任意の認識アルゴリズムが用いられてもよい。
Here, as the feature amount, another feature amount may be used.
In addition to AdaBoost, any recognition algorithm such as SVM may be used.

特開2007−310805号公報JP 2007-310805 A

Paul Viola、Michael Jones、“Rapid Object Detection using a Boosted Cascade of Simple Features”、Accepted Conference On Computer Vision And Pattern Recognition 2001Paul Viola, Michael Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, Accepted Conference On Computer Vision Recon

認識アルゴリズムを装置に実装する場合には、性能だけではなく、処理負荷も考慮しなければならない。例えば、車載用途の物体認識装置では、車両、2輪、自転車、歩行者、道路標識など、一度に多種類の目標物体の認識が行われるため、装置全体においても処理負荷の軽減は重要である。   When the recognition algorithm is implemented in the apparatus, not only the performance but also the processing load must be considered. For example, in an object recognition device for in-vehicle use, since various types of target objects such as vehicles, two wheels, bicycles, pedestrians, and road signs are recognized at one time, it is important to reduce the processing load even in the entire device. .

ここで、目標物体のパターン認識の処理は、ラスタスキャンの回数分繰り返されるため、1回あたりの処理負荷を削減する必要がある。このため、カスケード型識別器の段数や、その中の弱識別器の数を極力減らすこととなり、例えば、車両の認識の処理においても、その削減による性能低下とのトレードオフが問題であった。   Here, since the pattern recognition processing of the target object is repeated for the number of times of raster scanning, it is necessary to reduce the processing load per time. For this reason, the number of stages of the cascade type classifiers and the number of weak classifiers in the cascade type classifiers are reduced as much as possible. For example, in the vehicle recognition processing, a trade-off with performance degradation due to the reduction has been a problem.

そこで、識別器の段数あるいはその中の弱識別器の数を極力減らすことによる性能低下を補うために、車両の認識などの場合に、左右の対称性を判別する手法を用いることが考えられる。
しかしながら、パターン認識の中で左右対称性の判別を行うと、ラスタスキャンの回数分の演算が必要となるため、逆に、演算処理負荷が増加する可能性が考えられる。
Therefore, in order to compensate for the performance degradation caused by reducing the number of classifier stages or the number of weak classifiers as much as possible, it is conceivable to use a method of discriminating left and right symmetry in the case of vehicle recognition or the like.
However, if left / right symmetry determination is performed during pattern recognition, computation for the number of times of raster scanning is required, and conversely, the computation processing load may increase.

本発明は、このような事情を考慮して為されたものであり、左右対称性(または、上下対称性)判定処理により、目標物体の認識性能を向上させることができる画像認識装置、画像認識方法および画像認識プログラムを提供することを目的としている。   The present invention has been made in view of such circumstances, and an image recognition apparatus and image recognition that can improve the recognition performance of a target object by left-right symmetry (or vertical symmetry) determination processing. It is an object to provide a method and an image recognition program.

(1)上述した課題を解決するために、本発明に係る画像認識装置は、画像を取得する画像取得部と、前記画像取得部により取得された画像に設定されるウィンドウについて、あらかじめ定められた目標の物体を捉えるウィンドウを決定する識別を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する物体認識部と、を備えることを特徴とする。   (1) In order to solve the above-described problem, an image recognition apparatus according to the present invention is predetermined for an image acquisition unit that acquires an image and a window that is set for the image acquired by the image acquisition unit. Symmetry determination that rejects a window that has been determined to be non-symmetrical with respect to one or both of the predetermined left-right symmetry and vertical symmetry, and the process of identifying to determine the window that captures the target object And a process for clustering the determined windows, and an object recognition unit for executing the processing.

(2)本発明は、上記した(1)に記載の画像認識装置において、前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴ベクトルの間の距離に基づいて、対称性があるか否かを判定する、ことを特徴とする。   (2) The present invention provides the image recognition device according to (1) described above, wherein the object recognition unit is configured to determine the symmetry based on a distance between feature vectors in each of two symmetric regions in the window. And determining whether or not there is symmetry.

(3)本発明は、上記した(1)または上記した(2)に記載の画像認識装置において、前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴ベクトルの間の相互相関に基づいて、対称性があるか否かを判定する、ことを特徴とする。   (3) The present invention provides the image recognition apparatus according to (1) or (2) described above, in which the object recognition unit is configured to calculate feature vectors in each of two symmetry regions in the window in the symmetry determination. It is characterized in that it is determined whether or not there is symmetry based on the cross-correlation between them.

(4)本発明は、上記した(1)から上記した(3)のいずれか1つに記載の画像認識装置において、前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴量を識別し、これら2つの識別結果をAND論理で判定した結果に基づいて、対称性があるか否かを判定する、ことを特徴とする。   (4) The present invention provides the image recognition device according to any one of (1) to (3) described above, wherein the object recognition unit is configured to determine two symmetry regions in the window in the symmetry determination. It is characterized in that the feature amount in each is identified, and whether or not there is symmetry is determined based on the result of determining these two identification results by AND logic.

(5)本発明は、上記した(1)から上記した(4)のいずれか1つに記載の画像認識装置において、前記物体認識部は、特徴量として、勾配方向矩形特徴量またはHOG特徴量を用いており、ウィンドウにおける2つの対称領域として、互いに対称となる方向の勾配量の領域を用いる、ことを特徴とする。   (5) In the image recognition device according to any one of (1) to (4) described above, the object recognition unit may use a gradient direction rectangular feature value or a HOG feature value as a feature value. And, as two symmetrical regions in the window, a region having a gradient amount in a symmetric direction is used.

(6)本発明は、上記した(1)から上記した(5)のいずれか1つに記載の画像認識装置において、前記物体認識部は、前記対称性判定として、左右対称性について対称性が無いと判定したウィンドウを上下対称性の有無にかかわらず不採用とし、かつ、左右対称性があっても上下対称性について対称性があると判定したウィンドウを不採用とし、一方、左右対称性がありかつ上下対称性が無いと判定したウィンドウを採用する対称性判定を行う、ことを特徴とする。   (6) In the image recognition device according to any one of (1) to (5) described above, the object recognition unit may have symmetry regarding left-right symmetry as the symmetry determination. A window that has been determined to be non-existent regardless of whether there is vertical symmetry or not, and a window that has been determined to be symmetrical with respect to vertical symmetry even if there is left-right symmetry is not adopted. Symmetry determination is performed using a window that is determined to be present and has no vertical symmetry.

(7)上述した課題を解決するために、本発明に係る画像認識方法は、画像取得部が、画像を取得し、物体認識部が、前記画像取得部により取得された画像に設定されるウィンドウについて、あらかじめ定められた目標の物体を捉えるウィンドウを決定する識別を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する、ことを特徴とする。   (7) In order to solve the above-described problem, in the image recognition method according to the present invention, an image acquisition unit acquires an image, and an object recognition unit sets a window set to the image acquired by the image acquisition unit. For a window that captures a predetermined target object, and a window that has been determined to have no symmetry for one or both of the predetermined left-right symmetry and vertical symmetry. And a process of clustering the determined windows, including symmetry determination to be adopted.

(8)上述した課題を解決するために、本発明に係る画像認識プログラムは、画像取得部が、画像を取得する手順と、物体認識部が、前記画像取得部により取得された画像に設定されるウィンドウについて、あらかじめ定められた目標の物体を捉えるウィンドウを決定する識別を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する手順と、をコンピュータに実行させるためのプログラムである。   (8) In order to solve the above-described problem, in the image recognition program according to the present invention, an image acquisition unit is set to a procedure for acquiring an image, and an object recognition unit is set to the image acquired by the image acquisition unit. A window that has been identified as having no symmetry with respect to one or both of a predetermined left-right symmetry and vertical symmetry, and a process for performing identification for determining a window that captures a predetermined target object A program for causing a computer to execute a process of clustering the determined windows, including a symmetry determination that does not adopt.

以上説明したように、本発明によれば、左右対称性(または、上下対称性)判定処理により、目標物体の認識性能を向上させることができる画像認識装置、画像認識方法および画像認識プログラムを提供することが可能になる。   As described above, according to the present invention, an image recognition apparatus, an image recognition method, and an image recognition program capable of improving the recognition performance of a target object by left / right symmetry (or vertical symmetry) determination processing are provided. It becomes possible to do.

(A)は本発明の一実施形態に係る画像処理システムの構成(ハードウェア構成)を示す概略ブロック図であり、(B)は物体認識部の他の構成例(第3実施形態)を示す概略ブロック図である。(A) is a schematic block diagram which shows the structure (hardware structure) of the image processing system which concerns on one Embodiment of this invention, (B) shows the other structural example (3rd Embodiment) of an object recognition part. It is a schematic block diagram. 本発明の一実施形態に係るAdaBoostのカスケード型識別器の構成例を示す概略ブロック図である。It is a schematic block diagram which shows the structural example of the cascade type | mold discriminator of AdaBoost which concerns on one Embodiment of this invention. 本発明の第1実施形態に係る物体認識部により行われる処理の手順の一例を示すフローチャート図である。It is a flowchart figure which shows an example of the procedure of the process performed by the object recognition part which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体認識部により行われるクラスタリングの処理の手順の一例を示すフローチャート図である。It is a flowchart figure which shows an example of the procedure of the process of the clustering performed by the object recognition part which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る物体認識部により行われるクラスタリング処理1の一例のイメージを示す図である。It is a figure which shows the image of an example of the clustering process 1 performed by the object recognition part which concerns on 1st Embodiment of this invention. 勾配方向矩形特徴量の方向転換の一例を示す図である。It is a figure which shows an example of the direction change of a gradient direction rectangular feature-value. 本発明の第1実施形態に係る物体認識部により行われるクラスタリング処理2の一例のイメージを示す図である。It is a figure which shows the image of an example of the clustering process 2 performed by the object recognition part which concerns on 1st Embodiment of this invention. HOG特徴量の方向転換の一例を示す図である。It is a figure which shows an example of the direction change of a HOG feature-value. 本発明の第2実施形態に係る物体認識部により行われるクラスタリング処理2の一例のイメージを示す図である。It is a figure which shows the image of an example of the clustering process 2 performed by the object recognition part which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る物体認識部により行われる処理の手順の一例を示すフローチャート図である。It is a flowchart figure which shows an example of the procedure of the process performed by the object recognition part which concerns on 3rd Embodiment of this invention. 背景技術に係る物体認識部により行われる処理の手順の一例を示すフローチャート図である。It is a flowchart figure which shows an example of the procedure of the process performed by the object recognition part which concerns on background art. 背景技術に係る物体認識部により行われる処理の手順の他の一例を示すフローチャート図である。It is a flowchart figure which shows another example of the procedure of the process performed by the object recognition part which concerns on background art. 画像処理システムにおける画像取得から物体認識までの処理の概略的な一例を示す図である。It is a figure which shows a schematic example of the process from the image acquisition to object recognition in an image processing system. 第1の例に係る勾配方向矩形特徴量Aを示す図である。It is a figure which shows the gradient direction rectangular feature-value A which concerns on a 1st example. (A)、(B)、(C)は第2の例に係る勾配方向矩形特徴量Bを示す図である。(A), (B), (C) is a figure which shows the gradient direction rectangular feature-value B which concerns on a 2nd example. 第3の例に係る勾配方向矩形特徴量Cを示す図である。It is a figure which shows the gradient direction rectangular feature-value C which concerns on a 3rd example. 第4の例に係る勾配方向矩形特徴量Dを示す図である。It is a figure which shows the gradient direction rectangular feature-value D which concerns on a 4th example. 第5の例に係る勾配方向矩形特徴量Eを示す図である。It is a figure which shows the gradient direction rectangular feature-value E which concerns on a 5th example. (A)は輝度画像の一例を示す図であり、(B)は勾配の一例を示す図であり、(C)は勾配強度の一例を示す図であり、(D)は勾配方向の一例を示す図であり、(E)は各勾配方向の範囲の一例を示す図である。(A) is a figure which shows an example of a luminance image, (B) is a figure which shows an example of a gradient, (C) is a figure which shows an example of gradient strength, (D) is an example of a gradient direction. (E) is a figure which shows an example of the range of each gradient direction. (A)〜(D)は左右(または、上下)対称とするための方向の組み合わせの例を示す図である。(A)-(D) are figures which show the example of the combination of the direction for making left-right (or up-down) symmetry.

[用語の説明]
本願において、矩形は、長方形ばかりでなく、正方形も含む。
本願において、勾配方向矩形特徴は、画像の輝度の勾配方向と勾配強度に関する矩形特徴のことである。また、本願において、勾配方向矩形特徴量(または、ROG(Rectangle of Oriented Gradients)特徴量)は、勾配方向矩形特徴の特徴量のことであり、矩形の領域における勾配方向特徴量のことである。ここで、勾配方向特徴量は、画像の輝度の勾配方向と勾配強度に関する特徴量のことである。なお、矩形特徴としては、例えば、公知のものを用いることも可能であり、勾配強度は、情報量を低減した公知の勾配度数を用いることもできる。本願において、勾配強度と勾配度数を含む、広義の勾配値を勾配量と定義する。
本願において、積分勾配画像(インテグラルヒストグラム)は、画像の輝度について勾配方向と勾配量を算出して、それぞれの勾配方向毎に勾配量を積分した結果(積分勾配値)のことである。ここで、この積分は、例えば、積分勾配画像を求める対象となる領域に含まれる全ての画素(pixel(ピクセル))について行われる。
[Explanation of terms]
In the present application, the rectangle includes not only a rectangle but also a square.
In the present application, the gradient direction rectangular feature is a rectangular feature related to the gradient direction and gradient strength of the luminance of the image. In the present application, the gradient direction rectangular feature value (or ROG (Rectangle of Oriented Gradients) feature value) is a feature value of the gradient direction rectangular feature, and is a gradient direction feature value in a rectangular region. Here, the gradient direction feature amount is a feature amount related to the gradient direction and gradient strength of the luminance of the image. For example, a known feature can be used as the rectangular feature, and a known gradient frequency with a reduced amount of information can be used as the gradient strength. In this application, the gradient value in a broad sense including the gradient strength and the gradient frequency is defined as the gradient amount.
In the present application, an integral gradient image (integral histogram) is a result (integral gradient value) obtained by calculating a gradient direction and a gradient amount for the luminance of an image and integrating the gradient amount for each gradient direction. Here, this integration is performed, for example, for all the pixels (pixels) included in the region for which the integral gradient image is to be obtained.

また、識別器としては、AdaBoostの識別器や、SVMの識別器など、様々なものを含む。
また、識別器の下位概念として、統計的学習を行う識別器があり、その下位概念として、Boostingの識別器があり、その下位概念として、AdaBoostの識別器などがある。
The classifier includes various types such as an AdaBoost classifier and an SVM classifier.
As a subordinate concept of the classifier, there is a classifier that performs statistical learning. As a subordinate concept, there is a Boosting classifier. As a subordinate concept, there is an AdaBoost classifier.

[第1実施形態]
本実施形態では、車両に搭載されて物体認識の処理を行う車載用の画像処理システムを例として説明する。
図1(A)は、本発明の一実施形態に係る画像処理システムの構成(ハードウェア構成)を示す概略ブロック図である。
本実施形態に係る画像処理システムは、カメラECU(Electronic Control Unit)1と、警報装置2と、ACC−ECU3と、衝突回避制御−ECU4と、を備える。
なお、カメラECU1は、画像認識装置の一例である。
カメラECU1は、カメラ11と、画像取得部12と、物体認識部13と、制御部14と、を備える。
[First Embodiment]
In the present embodiment, an in-vehicle image processing system that is mounted on a vehicle and performs object recognition processing will be described as an example.
FIG. 1A is a schematic block diagram showing a configuration (hardware configuration) of an image processing system according to an embodiment of the present invention.
The image processing system according to the present embodiment includes a camera ECU (Electronic Control Unit) 1, an alarm device 2, an ACC-ECU 3, and a collision avoidance control-ECU 4.
The camera ECU 1 is an example of an image recognition device.
The camera ECU 1 includes a camera 11, an image acquisition unit 12, an object recognition unit 13, and a control unit 14.

物体認識部13は、本実施形態では、FPGA21の機能と、例えばCPU(Central Processing Unit)を有するマイクロコンピュータ22の機能と、メモリ(記憶部の一例)23の機能を用いて構成される。
なお、FPGA21の機能の代わりに、または、FPGA21の機能と共に、DSP(Digital Signal Processor)の機能が用いられてもよい。
制御部14は、本実施形態では、例えばCPUを有するマイクロコンピュータ22の機能と、メモリ23の機能を用いて構成される。
また、物体認識部13および制御部14のメモリ23および周辺回路は、FPGA、DSP、マイクロコンピュータ内の集積回路に格納されているものを使用するか、もしくはそれらの外部に設けても良い。
In this embodiment, the object recognition unit 13 is configured using the function of the FPGA 21, the function of a microcomputer 22 having a CPU (Central Processing Unit), and the function of a memory (an example of a storage unit) 23.
Note that a function of a DSP (Digital Signal Processor) may be used instead of the function of the FPGA 21 or together with the function of the FPGA 21.
In the present embodiment, the control unit 14 is configured using, for example, the function of the microcomputer 22 having a CPU and the function of the memory 23.
The memory 23 and peripheral circuits of the object recognition unit 13 and the control unit 14 may be those stored in an FPGA, DSP, or an integrated circuit in the microcomputer, or may be provided outside them.

ここで、物体認識部13および制御部14において、FPGA、DSP、マイクロコンピュータといったデバイスについては、任意の数のデバイスが用いられてもよく、例えば、全てのデバイスが用いられてもよく、または、必ずしも全てのデバイスが必要ではなく、1つのデバイスあるいは2つのデバイスに全ての処理の機能を実装することも可能である。   Here, in the object recognition unit 13 and the control unit 14, any number of devices such as FPGA, DSP, and microcomputer may be used, for example, all devices may be used, or Not all devices are necessarily required, and all the processing functions can be implemented in one device or two devices.

本実施形態に係る画像処理システムに備えられる各処理部の概要を説明する。
カメラ11は、例えば、車両の前方、側方または後方等のようにあらかじめ定められた方向の画像を撮像する車両位置に設けられる。本実施形態では、カメラ11は、車両の前方の目標物体を撮像して認識することができる車両位置に設けられる。そして、本実施形態では、目標物体の認識として、目標物体である車両について、車両の背面の認識を例に説明する。
カメラ11は、画像を撮像し、撮像した画像の信号を画像取得部12に出力する。
画像取得部12は、カメラ11からの画像を画像データとして取り込み、取り込んだ画像データを物体認識部13に出力する。
An overview of each processing unit provided in the image processing system according to the present embodiment will be described.
The camera 11 is provided, for example, at a vehicle position that captures an image in a predetermined direction such as the front, side, or rear of the vehicle. In the present embodiment, the camera 11 is provided at a vehicle position where a target object ahead of the vehicle can be imaged and recognized. In the present embodiment, as the recognition of the target object, the recognition of the rear surface of the vehicle will be described as an example for the vehicle that is the target object.
The camera 11 captures an image and outputs a signal of the captured image to the image acquisition unit 12.
The image acquisition unit 12 captures an image from the camera 11 as image data, and outputs the captured image data to the object recognition unit 13.

物体認識部13は、画像取得部12から入力される画像データについて、FPGA21やマイクロコンピュータ22により、物体認識のために、画像処理およびパターン認識の演算を行い、物体認識の処理の結果の情報を制御部14に出力する。この画像処理としては、例えば、前処理のフィルタリング処理などが行われる。
また、パターン認識の結果の情報としては、例えば、画像データの画像中における目標物体の情報が用いられる。
The object recognition unit 13 performs image processing and pattern recognition operations on the image data input from the image acquisition unit 12 by the FPGA 21 and the microcomputer 22 for object recognition, and obtains information on the result of the object recognition processing. Output to the control unit 14. As this image processing, for example, preprocessing filtering processing or the like is performed.
Further, as information on the result of pattern recognition, for example, information on a target object in an image of image data is used.

メモリ23は、各種の情報を記憶する。
本実施形態では、例えば、インテグラルヒストグラム(または、インテグラルイメージ)のデータが、FPGA21内(または、DSP内)またはマイクロコンピュータ22内で作成されて、メモリ23に転送されて格納(記憶)される。
また、上記のほかにも、例えば、画像取得部12からの画像データの情報や、装置(カメラECU1)内で必要な諸々の情報が、FPGA(または、DSP)21やマイクロコンピュータ22の内部または外部のメモリ(本実施形態では、メモリ23)に格納(記憶)される。
The memory 23 stores various information.
In this embodiment, for example, integral histogram (or integral image) data is created in the FPGA 21 (or in the DSP) or in the microcomputer 22, transferred to the memory 23, and stored (stored). The
In addition to the above, for example, information on image data from the image acquisition unit 12 and various pieces of information necessary in the apparatus (camera ECU 1) are stored in the FPGA (or DSP) 21 or the microcomputer 22 or It is stored (stored) in an external memory (memory 23 in this embodiment).

制御部14は、物体認識部13から入力される物体認識の処理の結果の情報に基づいて、あらかじめ定められた処理を行い、その結果の情報を警報装置2やACC−ECU3や衝突回避制御−ECU4に出力する。
具体例として、制御部14は、物体認識部13から入力される物体認識の処理の結果の情報である目標物体の情報に基づいて、あらかじめ定められた処理として、目標物体との間のTTC(Time to Collision)や距離を算出する処理や、目標物体のトラッキングを行う処理や、他の装置やECU(本実施形態では、警報装置2やACC−ECU3や衝突回避制御−ECU4)のアプリケーション機能と通信する処理などを行う。
The control unit 14 performs a predetermined process based on the information on the result of the object recognition process input from the object recognition unit 13, and uses the information on the result as the alarm device 2, the ACC-ECU 3, and the collision avoidance control- It outputs to ECU4.
As a specific example, the control unit 14 performs TTC (with a target object) as a predetermined process based on information on a target object that is information on a result of object recognition input from the object recognition unit 13. Time to Collation), distance calculation processing, target object tracking processing, application functions of other devices and ECUs (in this embodiment, alarm device 2, ACC-ECU 3, and collision avoidance control-ECU 4) Perform processing to communicate.

警報装置2やACC−ECU3や衝突回避制御−ECU4は、カメラECU1の制御部14を介して各アプリケーション機能を実行するように設けられる。
警報装置2は、制御部14から入力される情報に基づいて、例えば、目標物体が前方の車両である場合における前方車両衝突警報などを行う。
ACC−ECU3は、制御部14から入力される情報に基づいて、例えば、目標物体が前方の車両である場合における車間距離制御などを行う。
衝突回避制御−ECU4は、制御部14から入力される情報に基づいて、例えば、目標物体が前方の車両である場合における衝突回避制御などを行う。衝突回避制御−ECU4は、例えば、ブレーキ制御やステアリング制御と連携する。
The alarm device 2, the ACC-ECU 3, and the collision avoidance control-ECU 4 are provided to execute each application function via the control unit 14 of the camera ECU 1.
For example, the warning device 2 performs a forward vehicle collision warning when the target object is a forward vehicle, based on information input from the control unit 14.
The ACC-ECU 3 performs, for example, inter-vehicle distance control when the target object is a vehicle ahead, based on information input from the control unit 14.
The collision avoidance control-ECU 4 performs, for example, collision avoidance control when the target object is a vehicle ahead, based on information input from the control unit 14. The collision avoidance control-ECU 4 cooperates with, for example, brake control and steering control.

図2は、本発明の一実施形態に係るAdaBoostのカスケード型識別器(カスケード型AdaBoost識別器)の構成例を示す概略ブロック図である。
本実施形態では、このようなカスケード型識別器が、物体認識部13に備えられる。
なお、本実施形態に係るカスケード型識別器は、一般的なものであり、本実施形態では、3段の識別器(AdaBoost識別器)101〜103を用いている。
FIG. 2 is a schematic block diagram illustrating a configuration example of an AdaBoost cascade type identifier (cascade type AdaBoost classifier) according to an embodiment of the present invention.
In the present embodiment, such a cascade type discriminator is provided in the object recognition unit 13.
The cascade type classifier according to the present embodiment is a general one. In this embodiment, three-stage classifiers (AdaBoost classifiers) 101 to 103 are used.

本実施形態に係るカスケード型識別器は、1段目の第1の識別器101と、2段目の第2の識別器102と、3段目の第3の識別器103と、を備える。
なお、それぞれの識別器101〜103は、特徴量が設定される弱識別器を有する。
ここで、本実施形態では、これら3段の識別器101〜103を直列に接続する構成により、カスケード型の識別器が構成されている。
The cascade discriminator according to the present embodiment includes a first discriminator 101 at the first stage, a second discriminator 102 at the second stage, and a third discriminator 103 at the third stage.
Note that each of the classifiers 101 to 103 includes a weak classifier in which a feature amount is set.
Here, in this embodiment, a cascade type discriminator is configured by a configuration in which the three stages of discriminators 101 to 103 are connected in series.

本実施形態に係るカスケード型識別器において行われる動作の例を説明する。
ラスタスキャンにおけるウィンドウの情報が、1段目の識別器101に入力される。
1段目の識別器101は、入力されたウィンドウの情報に基づいて、処理対象となる画像における当該ウィンドウの内側について、目標物体(目標物体の画像)が存在すること(真)、または、目標物体が存在しないこと(偽)、を判定する。そして、1段目の識別器101は、ウィンドウ内に目標物体が存在すること(真)を判定した場合には、そのウィンドウの情報を2段目の識別器102に出力し、一方、ウィンドウ内に目標物体が存在しないこと(偽)を判定した場合には、そのウィンドウの情報を棄却する。
An example of operations performed in the cascade classifier according to the present embodiment will be described.
Window information in the raster scan is input to the first-stage discriminator 101.
Based on the input window information, the first-stage discriminator 101 indicates that a target object (target object image) exists inside the window in the image to be processed (true), or the target It is determined that the object does not exist (false). When the first-stage discriminator 101 determines that the target object exists in the window (true), the first-stage discriminator 101 outputs the window information to the second-stage discriminator 102, If it is determined that the target object does not exist (false), the information on the window is rejected.

続いて、2段目の識別器102は、1段目の識別器101と同様に、入力されたウィンドウの情報に基づいて、処理対象となる画像における当該ウィンドウの内側について、ウィンドウ内に目標物体が存在すること(真)を判定した場合には、そのウィンドウの情報を3段目の識別器103に出力し、一方、ウィンドウ内に目標物体が存在しないこと(偽)を判定した場合には、そのウィンドウの情報を棄却する。
続いて、3段目の識別器103は、1段目の識別器101と同様に、入力されたウィンドウの情報に基づいて、処理対象となる画像における当該ウィンドウの内側について、ウィンドウ内に目標物体が存在すること(真)を判定した場合には、そのウィンドウの情報を目標物体が存在すると識別したウィンドウ(識別ウィンドウ)の情報として出力し、一方、ウィンドウ内に目標物体が存在しないこと(偽)を判定した場合には、そのウィンドウの情報を棄却する。
Subsequently, similarly to the first-stage discriminator 101, the second-stage discriminator 102 is based on the input window information, and the inside of the window in the image to be processed is included in the target object in the window. Is determined to be present (true), the window information is output to the third-stage discriminator 103. On the other hand, if it is determined that the target object is not present in the window (false) , Dismiss the information in that window.
Subsequently, similarly to the first-stage discriminator 101, the third-stage discriminator 103, based on the input window information, has a target object in the window for the inside of the window in the processing target image. Is determined to be true (true), the information of the window is output as the information of the window (identification window) that is identified as the target object exists, while the target object does not exist in the window (false) ) Is rejected, the window information is rejected.

ここで、本実施形態に係るカスケード型識別器では、各段の識別器101〜103における弱識別器の数は、本実施形態で使用するクラスタリング手法により、当該クラスタリング手法を使用しない場合と比べて、少なくすることができる。
なお、本実施形態では、カスケード型の識別器を用いるが、他の構成例として、さらにマルチクラスの構成を有する識別器(カスケード型でマルチクラスの識別器)を用いることも可能である。
Here, in the cascade type classifier according to the present embodiment, the number of weak classifiers in each stage of the classifiers 101 to 103 is larger than that in the case where the clustering technique is not used by the clustering technique used in the present embodiment. , Can be less.
In the present embodiment, a cascade type classifier is used. However, as another configuration example, a classifier having a multi-class configuration (cascade type multi-class classifier) may be used.

図3を参照して、本実施形態に係る物体認識部13により行われる処理について説明する。
図3は、本実施形態に係る物体認識部13により行われる処理の手順の一例を示すフローチャート図である。
この例では、物体認識部13において、勾配方向矩形特徴量とカスケード型AdaBoost識別器により、認識アルゴリズムを構成している。
本実施形態では、カスケード型AdaBoost識別器として、図2に示されるものを用いる。
With reference to FIG. 3, the process performed by the object recognition part 13 which concerns on this embodiment is demonstrated.
FIG. 3 is a flowchart illustrating an example of a procedure of processing performed by the object recognition unit 13 according to the present embodiment.
In this example, in the object recognition unit 13, a recognition algorithm is configured by the gradient direction rectangular feature amount and the cascade type AdaBoost classifier.
In the present embodiment, the cascade type AdaBoost classifier shown in FIG. 2 is used.

まず、物体認識部13は、取得した輝度画像に対して、輝度画像から勾配方向と勾配強度を算出して勾配方向毎に勾配強度を積分する処理を行い、この結果である積分勾配画像(インテグラルヒストグラム)を算出する(ステップS1)。   First, the object recognition unit 13 performs a process of calculating the gradient direction and gradient intensity from the luminance image and integrating the gradient intensity for each gradient direction on the acquired luminance image. (Histogram) is calculated (step S1).

なお、積分勾配画像(インテグラルヒストグラム)を算出する処理は、積分勾配画像を利用して後の演算処理の時間を短縮するためであり、必ずしも行われなくてもよい。つまり、以降の処理において、積分勾配画像を利用せずに同じ結果が得られる演算を用いてもよい。   Note that the process of calculating the integral gradient image (integral histogram) is for reducing the time of the subsequent calculation process using the integral gradient image, and is not necessarily performed. That is, in the subsequent processing, an operation that can obtain the same result without using the integral gradient image may be used.

次に、物体認識部13は、ステップS3の処理で行うラスタスキャンに関して、一連のラスタスキャンが終了したか否かを判定する(ステップS2)。
そして、物体認識部13は、一連のラスタスキャンが終了したと判定した場合には、ステップS5の処理へ移行させる。
一方、物体認識部13は、一連のラスタスキャンが終了していないと判定した場合には、積分勾配画像の領域において、ラスタスキャンによりウィンドウをずらして(スライドさせて)、あらかじめ設定した任意の座標領域(ウィンドウ)で抽出する(ステップS3)。
Next, the object recognizing unit 13 determines whether or not a series of raster scans have been completed regarding the raster scan performed in the process of step S3 (step S2).
If the object recognition unit 13 determines that a series of raster scans has been completed, the object recognition unit 13 proceeds to the process of step S5.
On the other hand, if the object recognizing unit 13 determines that the series of raster scans has not ended, the window is shifted (slid) by raster scan in the region of the integral gradient image, and arbitrary coordinates set in advance. Extraction is performed in a region (window) (step S3).

次に、物体認識部13は、抽出した座標領域(ウィンドウ)について、あらかじめ定められた勾配方向矩形特徴量(ベクトル)を算出する。そして、物体認識部13は、算出した勾配方向矩形特徴量(ベクトル)を用いて、カスケード型AdaBoost識別器による識別を行い、あらかじめ目標(ターゲット)としている物体(物体の画像)が存在していると認識(例えば、推測)される1個以上のウィンドウを抽出する(ステップS4)。
ここで、ステップS4の処理におけるカスケード型AdaBoost識別器による識別では、カスケード型内における各強識別器(本実施形態では、識別器101〜103)によりウィンドウが棄却されると、ラスタスキャンに関する処理(ステップS2の処理)に戻る。
Next, the object recognition unit 13 calculates a predetermined gradient direction rectangular feature (vector) for the extracted coordinate area (window). Then, the object recognition unit 13 performs identification by the cascade type AdaBoost classifier using the calculated gradient direction rectangular feature quantity (vector), and an object (an image of the object) that is set as a target in advance exists. One or more windows recognized (for example, guess) are extracted (step S4).
Here, in the discrimination by the cascade type AdaBoost discriminator in the process of step S4, when the window is rejected by each strong discriminator in the cascade type (the discriminators 101 to 103 in the present embodiment), the processing related to the raster scan ( The process returns to step S2.

これにより、物体認識部13は、一連のラスタスキャンが終了するまで、ラスタスキャンの領域に対して、順次、ステップS2〜ステップS4の処理を繰り返して行う。   Thereby, the object recognition unit 13 sequentially repeats the processes of Step S2 to Step S4 for the raster scan area until a series of raster scans is completed.

なお、一連のラスタスキャンでは、例えば、同一のスケール(大きさ)のウィンドウを順次スライドさせて前記の処理を繰り返して行うことが終了した後に、ウィンドウのスケールやスキャンステップを変化させて、再び、ウィンドウを順次スライドさせて前記の処理を繰り返して行うことを、あらかじめ定められた分だけ実行する。   In a series of raster scans, for example, after sliding the windows of the same scale (size) sequentially and repeating the above processing, the window scale and scan step are changed, and then again, The predetermined process of repeatedly performing the above process by sequentially sliding the windows is executed.

ステップS2の処理において、物体認識部13は、一連のラスタスキャンが終了したと判定した場合には、あらかじめ定められたクラスタリングの処理を行う(ステップS5)。
その後、物体認識部13は、本処理を終了する。
In step S2, if the object recognition unit 13 determines that a series of raster scans has been completed, the object recognition unit 13 performs predetermined clustering processing (step S5).
Thereafter, the object recognition unit 13 ends this process.

ここで、勾配方向矩形特徴量としては、例えば、図14〜図18に示されるものを用いることができる。
本実施形態では、勾配方向矩形特徴量について、各勾配方向のウィンドウ内の矩形領域には特に制限を設けず、目標物体の部位の大小を問わず識別器(本実施形態では、AdaBoostの識別器であり、他のものが用いられてもよい)により学習し、目標物体の特徴を示す弱識別器を選択させる。
従って、本実施形態では、目標物体の大小の勾配方向矩形特徴の中で、特に有効な部分を厳選することができ、少ない弱識別器数で識別器を構成することができるため、計算回数とメモリアクセス回数が少なく短い演算処理時間で、目標物体が存在するウィンドウを認識することができる。
Here, as the gradient direction rectangular feature amount, for example, those shown in FIGS. 14 to 18 can be used.
In the present embodiment, no particular limitation is imposed on the rectangular area in the window in each gradient direction with respect to the gradient direction rectangular feature value, and a classifier (in this embodiment, an AdaBoost classifier) regardless of the size of the target object. And others may be used) to select a weak classifier that indicates the characteristics of the target object.
Therefore, in the present embodiment, particularly effective portions can be carefully selected among the large and small gradient direction rectangular features of the target object, and the classifier can be configured with a small number of weak classifiers. The window in which the target object exists can be recognized in a short calculation processing time with a small number of memory accesses.

勾配方向矩形特徴量を用いると、例えば、弱識別器の数が極力少ない条件においても、不検出率が比較的低い性能で且つ誤検出率が比較的低い性能を持つような認識アルゴリズムを使用しても有効とすることができる。
なお、識別器による識別に関して、不検出率は、目標物体を目標物体として検出(検知)することができない率のことであり、また、誤検出率は、目標物体以外を目標物体であると認識して検出する率のことである。
Using gradient-direction rectangular features, for example, a recognition algorithm that has a relatively low non-detection rate and a relatively low false detection rate even under conditions where the number of weak classifiers is as small as possible is used. Even it can be effective.
Regarding the discrimination by the discriminator, the non-detection rate is a rate at which the target object cannot be detected (detected) as the target object, and the false detection rate is recognized as a target object other than the target object. This is the rate of detection.

図4〜図7を参照して、クラスタリングの処理について説明する。
図4は、本実施形態に係る物体認識部13により行われるクラスタリングの処理の手順の一例を示すフローチャート図である。
このクラスタリングの処理では、図2に示されるカスケード型識別器から出力される情報(ウィンドウの情報)について、識別された複数のウィンドウをクラスタリングする。具体的には、図3に示されるステップS1〜ステップS4の処理において認識された複数のウィンドウに基づいて、目標物体が存在する最適ウィンドウ(例えば、目標物体に対してウィンドウの位置およびスケールが最適なもの)を確定ウィンドウとして絞り込む処理を行う。
The clustering process will be described with reference to FIGS.
FIG. 4 is a flowchart illustrating an example of a clustering process performed by the object recognition unit 13 according to the present embodiment.
In this clustering process, a plurality of identified windows are clustered for information (window information) output from the cascade classifier shown in FIG. Specifically, based on the plurality of windows recognized in the processing of step S1 to step S4 shown in FIG. 3, the optimal window in which the target object exists (for example, the position and scale of the window are optimal with respect to the target object). To narrow down as a fixed window.

まず、物体認識部13は、図2に示されるカスケード型識別器から出力される情報(識別した結果)に対応する複数のウィンドウについて、クラスタリング処理1として、類似するウィンドウをクラスタリングする(ステップS11)。
次に、物体認識部13は、クラスタリング処理2として、左右対称性判別の処理を行う(ステップS12)。これにより、物体認識部13は、左右対称性があると判別したウィンドウについては採用し、一方、左右対称性が無いと判別したウィンドウについては棄却する。本実施形態では、目標物体として、左右の対称性がある物体を設定しており、このため、物体認識部13は、左右の対称性があると判別したウィンドウについては目標物体を捉えているとみなして採用する一方、左右の対称性が無いと判別したウィンドウについては目標物体を捉えていないとみなして棄却する。
First, the object recognition unit 13 clusters similar windows as the clustering process 1 for a plurality of windows corresponding to information (identification results) output from the cascade classifier shown in FIG. 2 (step S11). .
Next, the object recognition unit 13 performs a left / right symmetry determination process as the clustering process 2 (step S12). Thereby, the object recognition unit 13 employs the window determined to have left-right symmetry, and rejects the window determined to have no left-right symmetry. In the present embodiment, an object having left / right symmetry is set as the target object. For this reason, the object recognition unit 13 captures the target object for a window determined to have left / right symmetry. On the other hand, the window determined to have no left-right symmetry is regarded as not capturing the target object and rejected.

ここで、ステップS11の処理におけるクラスタリングの処理(クラスタリング処理1)について詳しく説明する。
クラスタリングのアルゴリズムとしては、様々なものが用いられてもよく、例えば、Mean−Shiftなどの公知のアルゴリズムを用いることができる。
本実施形態では、類似ウィンドウのクラスタリングを行う。クラスタリングを行う部分集合の条件として、ウィンドウサイズの類似度が高いこと(ウィンドウサイズが近いこと)およびウィンドウ間の距離の類似度が高いこと(ウィンドウ間の距離が近いこと)を、AND条件(両方が成立する必要がある条件)として用いる。
Here, the clustering process (clustering process 1) in the process of step S11 will be described in detail.
Various algorithms may be used as the clustering algorithm. For example, a known algorithm such as Mean-Shift can be used.
In the present embodiment, clustering of similar windows is performed. As a condition for the subset to be clustered, a high similarity in window size (close window size) and a high similarity in distance between windows (close distance between windows), AND condition (both This is used as a condition that must be satisfied.

具体的には、ウィンドウサイズが近いことという条件としては、例えば、2個のウィンドウのサイズの比とあらかじめ定められた閾値とを比較して、2個のウィンドウのサイズの比が当該閾値以下である場合に、ウィンドウサイズが近いと判定する条件を用いることができる。なお、他の任意の条件や判定方法が用いられてもよい。
また、具体的には、ウィンドウ間の距離が近いことという条件としては、例えば、2個のウィンドウの間で、X−Y座標系におけるX座標間の差の絶対値とY座標間の差の絶対値との和(マンハッタン距離)、または、ユークリッド距離などを求めて、あらかじめ定められた閾値と比較して、その距離が当該閾値以下である場合に、ウィンドウ間の距離が近いと判定する条件を用いることができる。なお、他の任意の条件や判定方法が用いられてもよい。
Specifically, as a condition that the window sizes are close, for example, the ratio of the sizes of two windows is compared with a predetermined threshold, and the ratio of the sizes of two windows is equal to or less than the threshold. In some cases, a condition for determining that the window size is close can be used. Other arbitrary conditions and determination methods may be used.
Specifically, as a condition that the distance between the windows is short, for example, between the two windows, the absolute value of the difference between the X coordinates in the XY coordinate system and the difference between the Y coordinates can be calculated. A condition for determining that the distance between the windows is close when the sum of the absolute values (Manhattan distance) or the Euclidean distance is obtained and compared with a predetermined threshold value and the distance is equal to or less than the threshold value. Can be used. Other arbitrary conditions and determination methods may be used.

一例として、式(1)および式(2)を参照して、マンハッタン距離を用いるクラスタリングの例を示す。
この例では、物体認識部13は、N(Nは、2以上の整数)個のウィンドウ(説明の便宜上、仮のウィンドウと言う)を得ているとする。また、この例では、仮のウィンドウの形状が正方形であり、1つのウィンドウ幅によりサイズが特定されるとする。
また、この例では、a=1、2、・・・、Nとして、W(a)はa番目の仮のウィンドウを表し、W(a+1)は(a+1)番目の仮のウィンドウを表し、W(1)は1番目の仮のウィンドウを表し、W(N)はN番目(最大)の仮のウィンドウを表し、Wb(a)はa番目の仮のウィンドウの幅を表し、Wb(a+1)は(a+1)番目の仮のウィンドウの幅を表し、Wx(a)はa番目の仮のウィンドウの位置の画像座標(x、y)におけるx座標の値を表し、Wx(a+1)は(a+1)番目の仮のウィンドウの位置の画像座標(x、y)におけるx座標の値を表し、Wy(a)はa番目の仮のウィンドウの位置の画像座標(x、y)におけるy座標の値を表し、Wy(a+1)は(a+1)番目の仮のウィンドウの位置の画像座標(x、y)におけるy座標の値を表す。
As an example, an example of clustering using the Manhattan distance will be described with reference to Expression (1) and Expression (2).
In this example, it is assumed that the object recognition unit 13 obtains N (N is an integer of 2 or more) windows (referred to as temporary windows for convenience of explanation). In this example, it is assumed that the temporary window has a square shape and the size is specified by one window width.
In this example, a = 1, 2,..., N, W (a) represents the a-th temporary window, W (a + 1) represents the (a + 1) -th temporary window, and W (1) represents the first temporary window, W (N) represents the Nth (maximum) temporary window, Wb (a) represents the width of the ath temporary window, and Wb (a + 1) Represents the width of the (a + 1) th temporary window, Wx (a) represents the value of the x coordinate in the image coordinates (x, y) of the position of the ath temporary window, and Wx (a + 1) is (a + 1) ) Represents the value of the x coordinate in the image coordinates (x, y) of the position of the tentative temporary window, and Wy (a) is the value of the y coordinate in the image coordinates (x, y) of the position of the a tentative window. Wy (a + 1) is the image coordinates of the position of the (a + 1) th temporary window ( Represents the value of y-coordinate in y).

まず、物体認識部13は、N個の仮のウィンドウについて、仮のウィンドウサイズが小さい方から順に、W(1)、W(2)、・・・、W(N)を割り付ける。
次に、物体認識部13は、変数aの値をa=1に設定して、割り付けの1番目とする。
次に、物体認識部13は、W(a)に対応する仮のウィンドウとW(a+1)に対応する仮のウィンドウについて、式(1)および式(2)の両方が満たされることが成り立つか否かを判定する。
First, the object recognition unit 13 assigns W (1), W (2),..., W (N) for the N temporary windows in order from the smallest temporary window size.
Next, the object recognizing unit 13 sets the value of the variable a to a = 1 and sets it as the first allocation.
Next, the object recognizing unit 13 satisfies that both the expressions (1) and (2) are satisfied for the temporary window corresponding to W (a) and the temporary window corresponding to W (a + 1). Determine whether or not.

ここで、式(1)は、仮のウィンドウのウィンドウ幅(本実施形態では、ウィンドウサイズ)に関する条件の例を示す。式(1)における閾値TH1としては、様々な値が設定されてもよい。
具体的には、式(1)では、a番目の仮のウィンドウのウィンドウ幅Wb(a)と(a+1)番目の仮のウィンドウのウィンドウ幅Wb(a+1)との比を求め、その比があらかじめ定められた閾値TH1より大きいか否かを判断する。ここで、aについて仮のウィンドウのウィンドウサイズは小さい順であるため、Wb(a)<Wb(a+1)である。つまり、式(1)の条件は、隣接する仮のウィンドウのウィンドウサイズが近い場合には統合するという条件である。
Here, Expression (1) shows an example of a condition related to the window width of the temporary window (in this embodiment, the window size). Various values may be set as the threshold value TH1 in the equation (1).
Specifically, in the expression (1), a ratio between the window width Wb (a) of the a-th temporary window and the window width Wb (a + 1) of the (a + 1) -th temporary window is obtained, and the ratio is calculated in advance. It is determined whether or not it is greater than a predetermined threshold value TH1. Here, since the window sizes of the temporary windows are in ascending order for a, Wb (a) <Wb (a + 1). That is, the condition of the expression (1) is a condition that the adjacent temporary windows are integrated when the window sizes are close.

また、式(2)は、仮のウィンドウの位置に関する条件の例を示す。式(2)において、Abs(P)は、P(ここでは、P=Wx(a)−Wx(a+1)またはP=Wy(a)−Wy(a+1))の絶対値を表す。式(2)における閾値TH2としては、様々な値が設定されてもよい。
具体的には、式(2)では、a番目の仮のウィンドウの位置のx座標Wx(a)と(a+1)番目の仮のウィンドウの位置のx座標Wx(a+1)との差の絶対値と、a番目の仮のウィンドウの位置のy座標Wy(a)と(a+1)番目の仮のウィンドウの位置のy座標Wy(a+1)との差の絶対値との加算結果を求め、この加算結果があらかじめ定められた閾値TH2より小さいか否かを判断する。つまり、式(2)の条件は、隣接する仮のウィンドウの位置が近い場合には統合するという条件である。
Equation (2) shows an example of a condition regarding the position of the temporary window. In the formula (2), Abs (P) represents an absolute value of P (here, P = Wx (a) −Wx (a + 1) or P = Wy (a) −Wy (a + 1)). Various values may be set as the threshold value TH2 in the equation (2).
Specifically, in the expression (2), the absolute value of the difference between the x coordinate Wx (a) of the position of the ath temporary window and the x coordinate Wx (a + 1) of the position of the (a + 1) th temporary window. And the absolute value of the difference between the y-coordinate Wy (a) of the position of the a-th temporary window and the y-coordinate Wy (a + 1) of the position of the (a + 1) -th temporary window. It is determined whether or not the result is smaller than a predetermined threshold value TH2. That is, the condition of the expression (2) is a condition that integration is performed when adjacent temporary windows are close in position.

そして、式(1)の条件と式(2)の条件とのAND論理で、2つの仮のウィンドウを統合するか否かが決まる。   Then, whether to integrate the two temporary windows is determined by the AND logic of the condition of Expression (1) and the condition of Expression (2).

このような判定の結果、物体認識部13は、W(a)に対応する仮のウィンドウとW(a+1)に対応する仮のウィンドウについて、式(1)および式(2)の両方が満たされることが成り立つと判定した場合には、W(a)に対応する仮のウィンドウとW(a+1)に対応する仮のウィンドウを統合する。
そして、物体認識部13は、変数aの値をインクリメントすることで、aの値に1を加える。
一方、このような判定の結果、物体認識部13は、W(a)に対応する仮のウィンドウとW(a+1)に対応する仮のウィンドウについて、式(1)および式(2)の両方が満たされることが成り立たない(つまり、少なくとも一方が満たされない)と判定した場合には、統合を行わずに、変数aの値をインクリメントすることで、aの値に1を加える。
As a result of such determination, the object recognizing unit 13 satisfies both Expression (1) and Expression (2) for the temporary window corresponding to W (a) and the temporary window corresponding to W (a + 1). If it is determined that this holds, the temporary window corresponding to W (a) and the temporary window corresponding to W (a + 1) are integrated.
Then, the object recognizing unit 13 increments the value of the variable a to add 1 to the value of a.
On the other hand, as a result of such determination, the object recognizing unit 13 determines that both Expression (1) and Expression (2) are satisfied for the temporary window corresponding to W (a) and the temporary window corresponding to W (a + 1). If it is determined that it is not satisfied (that is, at least one is not satisfied), 1 is added to the value of a by incrementing the value of the variable a without performing integration.

ここで、aの値をインクリメントするのは、次回の処理へ移行させるためである。すなわち、次回の処理では、今回のW(a+1)がW(a)となり、今回のW(a+1)に対応する仮のウィンドウより次にサイズが大きい仮のウィンドウがW(a+1)となる。   Here, the value of a is incremented in order to shift to the next processing. That is, in the next processing, the current W (a + 1) becomes W (a), and the temporary window having the next larger size than the temporary window corresponding to the current W (a + 1) becomes W (a + 1).

そして、物体認識部13は、a=Nになったか否かを判定する。
この判定の結果、物体認識部13は、a=Nになっていないと判定した場合には、次回の処理を行う。
一方、この判定の結果、物体認識部13は、a=Nになったと判定した場合には、処理を終了する。このように、a=Nになるまで、処理が繰り返して行われる。
Then, the object recognition unit 13 determines whether or not a = N.
As a result of this determination, if it is determined that a = N is not satisfied, the object recognition unit 13 performs the next process.
On the other hand, as a result of the determination, if the object recognition unit 13 determines that a = N, the process ends. In this way, the process is repeated until a = N.

続けて、ステップS11の処理におけるクラスタリングの処理(クラスタリング処理1)について説明する。
一例として、ステップS11の処理における部分集合条件(AND条件)でまとまったクラスについて、その中で識別器の応答値が最も高いウィンドウを選択することができる。
Subsequently, the clustering process (clustering process 1) in the process of step S11 will be described.
As an example, for a class grouped by a subset condition (AND condition) in the process of step S11, a window with the highest response value of the discriminator can be selected.

次に、ステップS12の処理におけるクラスタリングの処理(クラスタリング処理2)について詳しく説明する。
本実施形態では、物体認識部13は、クラスタリングにより確定されたウィンドウについて、当該ウィンドウ内の画像(本実施形態では、車両の背面が目標物体である)が、あらかじめ定められた左右対称性を有しているか否かを判定する。そして、物体認識部13は、左右対称性を有していると判定したウィンドウについては採用し、一方、左右対称性を有していないと判定したウィンドウについては棄却する。
Next, the clustering process (clustering process 2) in the process of step S12 will be described in detail.
In the present embodiment, the object recognizing unit 13 has an image in the window (in this embodiment, the back of the vehicle is the target object) having a predetermined left-right symmetry for the window determined by clustering. It is determined whether or not. And the object recognition part 13 employ | adopts about the window determined to have left-right symmetry, and rejects about the window determined not to have left-right symmetry on the other hand.

図5は、本実施形態に係る物体認識部13により行われるクラスタリング処理1の一例のイメージを示す図である。
画像領域201は、認識する対象となる全画面の画像領域を表す。
この例では、大別して、4個のウィンドウの群に絞り込まれている。
ClassWin_a、ClassWin_b、ClassWin_c、ClassWin_dは、それぞれ、部分集合するウィンドウの群を表す。
ClassWin_a、ClassWin_b、ClassWin_c、ClassWin_dでは、それぞれ、クラスタリング処理1により、1個のウィンドウ211、221、231、241が決定(例えば、選定)される。他のウィンドウについては、棄却される。
FIG. 5 is a diagram illustrating an example of the clustering process 1 performed by the object recognition unit 13 according to the present embodiment.
An image area 201 represents an image area of the entire screen to be recognized.
In this example, it is roughly classified into a group of four windows.
ClassWin_a, ClassWin_b, ClassWin_c, and ClassWin_d each represent a subset of windows.
In ClassWin_a, ClassWin_b, ClassWin_c, and ClassWin_d, one window 211, 221, 231, and 241 is determined (for example, selected) by the clustering process 1, respectively. Other windows are rejected.

なお、図5の例では、さらに、マルチクラス識別を行う構成を用いる場合の結果の例も示してある。
具体的には、マルチクラスの識別器として、大型トラックの画像で学習したクラス1の識別器と、大型トラック以外の車両(主に、乗用車)の画像で学習したクラス2の識別器を用いる。
ClassWin_a、ClassWin_b、ClassWin_c、ClassWin_dでは、それぞれ、決定された1個のウィンドウ211、221、231、241の識別クラスが、クラス2(例えば、遠方の乗用車)、クラス1(例えば、遠方の大型トラック)、クラス2(例えば、近傍の乗用車)、クラス1(例えば、近傍の大型トラック)となる。
In addition, in the example of FIG. 5, the example of the result in the case of using the structure which performs multiclass identification is also shown.
Specifically, class 1 classifiers learned from large truck images and class 2 classifiers learned from vehicles other than large trucks (mainly passenger cars) are used as multi-class classifiers.
In ClassWin_a, ClassWin_b, ClassWin_c, and ClassWin_d, the identification classes of the determined windows 211, 221, 231, and 241 are class 2 (for example, a distant passenger car) and class 1 (for example, a distant large truck), respectively. Class 2 (for example, a nearby passenger car) and Class 1 (for example, a nearby large truck).

ここで、マルチクラスの識別器を用いる場合には、一例として、同一のクラスの複数のウィンドウについてクラスタリングを行う構成を用いることができ、他の一例として、異なるクラスが混じった複数のウィンドウについてクラスタリングを行って、当該クラスタリングにより得られたウィンドウに対応するクラスを採用する構成を用いることができる。   Here, when using a multi-class classifier, for example, a configuration in which clustering is performed on a plurality of windows of the same class can be used, and as another example, clustering is performed on a plurality of windows in which different classes are mixed. And a configuration employing a class corresponding to the window obtained by the clustering can be used.

図6および図7を参照して、勾配方向矩形特徴量を用いた左右対称性の判別の処理を説明する。
図6は、勾配方向矩形特徴量の方向転換の一例を示す図である。
この例では、説明を簡易にするために、単矩形特徴量(のみ)を用いて、且つ、特徴があって勾配が出る側の矩形を示す。なお、これとは逆に、特徴が無くて勾配が出ない側の矩形(例えば、勾配が真黒な画像を囲む矩形)を用いることも可能である。
また、単矩形特徴量に限られず、様々な特徴量が用いられてもよい。
With reference to FIG. 6 and FIG. 7, the left / right symmetry determination process using the gradient direction rectangular feature amount will be described.
FIG. 6 is a diagram illustrating an example of the direction change of the gradient direction rectangular feature value.
In this example, in order to simplify the description, a single rectangle feature amount (only) is used, and a rectangle on the side where the feature is present and the gradient appears is shown. On the other hand, it is also possible to use a rectangle that has no features and does not generate a gradient (for example, a rectangle that encloses an image with a gradient of true black).
Further, the feature amount is not limited to a single rectangular feature amount, and various feature amounts may be used.

図6は、左右対称性を判別する対象となるウィンドウについて、当該ウィンドウの中心軸(左右方向の中心を通る縦の軸)に対して、左側の領域の特徴ベクトル(1)〜(10)と右側の領域の特徴ベクトル(1)’〜(10)’に分ける様子を示してある。
ここで、同じ番号(1〜10)の特徴ベクトルは、左右で対応するものである。
FIG. 6 shows the feature vectors (1) to (10) of the region on the left side with respect to the center axis of the window (vertical axis passing through the center in the left-right direction). The state of dividing into feature vectors (1) ′ to (10) ′ in the right region is shown.
Here, feature vectors with the same number (1 to 10) correspond to the left and right.

具体的には、平均勾配画像301は、学習した多数の勾配強度画像を、全ての方向について平均した結果を示す。
また、方向0〜7の全8方向のそれぞれの方向毎に積分した画像を、方向0のウィンドウの画像311−0〜方向7のウィンドウの画像311−7として、示してある。
本実施形態では、方向0(縦の勾配)と方向4(横の勾配)については、左右の領域で同じ方向を用いる。また、斜め方向の勾配については、対となる左右の領域で異なる方向を用いることとなり、具体的には、方向1の左側(または、右側)は方向7の右側(または、左側)と対称であり、方向2の左側(または、右側)は方向6の右側(または、左側)と対称であり、方向3の左側(または、右側)は方向5の右側(または、左側)と対称であり、これを考慮して左右の領域における勾配方向矩形特徴ベクトルを揃える。
Specifically, the average gradient image 301 shows a result of averaging a large number of learned gradient intensity images in all directions.
In addition, an image integrated in each of all eight directions 0 to 7 is shown as a window image 311-0 in the direction 0 and a window image 311-7 in the direction 7.
In the present embodiment, the same direction is used in the left and right regions for the direction 0 (vertical gradient) and the direction 4 (horizontal gradient). As for the gradient in the diagonal direction, different directions are used in the paired left and right regions. Specifically, the left side (or right side) of direction 1 is symmetrical with the right side (or left side) of direction 7. Yes, the left side (or right side) of direction 2 is symmetric with the right side (or left side) of direction 6, and the left side (or right side) of direction 3 is symmetric with the right side (or left side) of direction 5. Considering this, the gradient direction rectangular feature vectors in the left and right regions are aligned.

図7は、本実施形態に係る物体認識部13により行われるクラスタリング処理2の一例のイメージを示す図である。
図7は、左右の領域における勾配方向矩形特徴ベクトルに対して、左右の対称性を判別する例を示す。
FIG. 7 is a diagram illustrating an example of clustering processing 2 performed by the object recognition unit 13 according to the present embodiment.
FIG. 7 shows an example of discriminating left-right symmetry with respect to a gradient direction rectangular feature vector in the left and right regions.

左領域の特徴ベクトルの情報401として、特徴量の次元に沿って、それぞれの方向の特徴量(例えば、勾配強度)が得られている。
同様に、右領域の特徴ベクトルの情報402として、特徴量の次元に沿って、それぞれの方向の特徴量(例えば、勾配強度)が得られている。
ここで、左領域の特徴ベクトルの情報401と右領域の特徴ベクトルの情報402とでは、互いに、左右の領域が対称となる方向の対応(例えば、図6に示される対応)が付けられている。
As the feature vector information 401 of the left region, feature quantities (for example, gradient strength) in each direction are obtained along the dimension of the feature quantity.
Similarly, feature amounts (for example, gradient strength) in each direction are obtained as feature vector information 402 in the right region along the feature amount dimension.
Here, the feature vector information 401 on the left region and the feature vector information 402 on the right region have a correspondence in a direction in which the left and right regions are symmetrical to each other (for example, the correspondence shown in FIG. 6). .

本実施形態において左右対称性を判別する第1の手法(手法a)を示す。
手法aでは、左領域の特徴ベクトルの情報401と右領域の特徴ベクトルの情報402について、勾配方向矩形特徴ベクトル間の近さにより、左右対称性を判別する。
手法aにおける第1の例(手法a1)では、特徴ベクトル間の距離が近い場合に、左右対称性があると判別する。具体的には、2つの特徴ベクトルの間の距離があらかじめ定められた閾値よりも小さい場合に、左右対称性があると判別する。
ここで、特徴ベクトルの間の距離としては、例えば、ユークリッド距離などの任意の距離を選んで計算することができる。
In the present embodiment, a first method (method a) for determining left-right symmetry will be described.
In method a, left-right symmetry is determined for the feature vector information 401 for the left region and the feature vector information 402 for the right region based on the proximity between the gradient-direction rectangular feature vectors.
In the first example (method a1) in method a, it is determined that there is left-right symmetry when the distance between feature vectors is short. Specifically, when the distance between two feature vectors is smaller than a predetermined threshold, it is determined that there is left-right symmetry.
Here, as a distance between feature vectors, for example, an arbitrary distance such as an Euclidean distance can be selected and calculated.

手法aにおける第2の例(手法a2)では、特徴ベクトル間の相互相関値の高さにより、左右対称性を判別する。具体的には、2つの特徴ベクトルの間の相互相関値があらかじめ定められた閾値よりも高い場合に、左右対称性があると判別する。   In the second example (method a2) in method a, the left-right symmetry is determined based on the height of the cross-correlation value between feature vectors. Specifically, when the cross-correlation value between two feature vectors is higher than a predetermined threshold, it is determined that there is left-right symmetry.

ここで、相互相関値を算出する方法としては、様々なものが用いられてもよい。
一例として、式(3)に示される相互相関係数を用いることができる。ここで、xlは左側特徴ベクトル(左領域の特徴ベクトル)を表すとし、xrは右側特徴ベクトル(右領域の特徴ベクトル)を表すとする。iは特徴量の次元を表し、i=1、2、・・・、nとする。これにより、相互相関値Cが算出される。
Here, various methods may be used as a method for calculating the cross-correlation value.
As an example, the cross-correlation coefficient shown in Equation (3) can be used. Here, xl represents the left side feature vector (left region feature vector), and xr represents the right side feature vector (right region feature vector). i represents the dimension of the feature quantity, and i = 1, 2,..., n. Thereby, the cross correlation value Cr is calculated.

他の一例として、式(4)〜式(5)に示される相互相関関数を用いることができる。ここで、xlは左側特徴ベクトル(左領域の特徴ベクトル)を表すとし、xrは右側特徴ベクトル(右領域の特徴ベクトル)を表すとする。また、τは時間間隔を表すとする。   As another example, the cross-correlation function shown in Formula (4)-Formula (5) can be used. Here, xl represents the left side feature vector (left region feature vector), and xr represents the right side feature vector (right region feature vector). Further, τ represents a time interval.

本実施形態において左右対称性を判別する第2の手法(手法b)を示す。
手法bでは、左領域の特徴ベクトルの情報401と右領域の特徴ベクトルの情報402について、識別器411〜412とAND回路421を用いて、左右対称性を判別する。
ここで、識別器411〜412としては、様々なものが用いられてもよく、本実施形態では、AdaBoostの識別器を用いている。
In the present embodiment, a second method (method b) for determining left-right symmetry will be described.
In the method b, the left-right feature vector information 401 and the right-region feature vector information 402 are discriminated using the discriminators 411 to 412 and the AND circuit 421.
Here, as the discriminators 411 to 412, various types may be used. In the present embodiment, AdaBoost discriminators are used.

具体的には、識別器411は、左領域の特徴ベクトルについて識別を行い、目標物体が存在すること(真)を判定した場合には、真を示す値(例えば、1)をAND回路421に出力し、一方、目標物体が存在しないこと(偽)を判定した場合には、偽を示す値(例えば、0)をAND回路421に出力する。
同様に、識別器412は、右領域の特徴ベクトルについて識別を行い、目標物体が存在すること(真)を判定した場合には、真を示す値(例えば、1)をAND回路421に出力し、一方、目標物体が存在しないこと(偽)を判定した場合には、偽を示す値(例えば、0)をAND回路421に出力する。
Specifically, the discriminator 411 discriminates the feature vector of the left region, and when determining that the target object exists (true), the discriminator 411 sets a value indicating true (for example, 1) to the AND circuit 421. On the other hand, if it is determined that the target object does not exist (false), a value indicating false (for example, 0) is output to the AND circuit 421.
Similarly, the discriminator 412 discriminates the feature vector in the right region and outputs a value (eg, 1) indicating true to the AND circuit 421 when determining that the target object exists (true). On the other hand, if it is determined that the target object does not exist (false), a value indicating false (for example, 0) is output to the AND circuit 421.

そして、AND回路421は、2つの識別器411〜412から入力される値が両方とも真を示す値である場合には、AND論理により、真を示す値(例えば、1)を出力し、この場合には、左領域の特徴ベクトルと右領域の特徴ベクトルとで左右対称性がある(真)と判別する。一方、AND回路421は、2つの識別器411〜412から入力される値のうちの一方または両方が偽を示す値である場合には、AND論理により、偽を示す値(例えば、0)を出力し、この場合には、左領域の特徴ベクトルと右領域の特徴ベクトルとで左右対称性が無い(偽)と判別する。   When both the values input from the two discriminators 411 to 412 are values indicating true, the AND circuit 421 outputs a value indicating true (for example, 1) by AND logic. In this case, it is determined that the feature vector in the left region and the feature vector in the right region have left-right symmetry (true). On the other hand, when one or both of the values input from the two discriminators 411 to 412 are values indicating false, the AND circuit 421 generates a value indicating false (for example, 0) by AND logic. In this case, it is determined that there is no left-right symmetry between the feature vector in the left region and the feature vector in the right region (false).

このように、本実施形態では、勾配方向矩形特徴量を用いることで、比較的次元数が少ない特徴ベクトルとなるため、演算処理負荷が軽い左右対称性の判別処理が可能となる。
また、例えば、パターン認識などの処理において勾配方向矩形特徴ベクトルが既に計算されている場合には、その計算結果をそのまま左右対称性の判別処理に使用することも可能であるため、新規に計算することなく効率的である。なお、左右対称性の判別処理において、新規に、勾配方向矩形特徴ベクトルを計算してもよい。
As described above, in the present embodiment, by using the gradient-direction rectangular feature amount, a feature vector having a relatively small number of dimensions is obtained, so that it is possible to perform left-right symmetry determination processing with a light processing load.
Further, for example, when the gradient direction rectangular feature vector has already been calculated in the process such as pattern recognition, the calculation result can be used as it is for the determination process of the left / right symmetry, so that a new calculation is performed. Without being efficient. Note that a gradient direction rectangular feature vector may be newly calculated in the left / right symmetry determination processing.

また、本実施形態では、クラスタリング処理1(図4に示されるステップS11のクラスタリング処理1)により統合したウィンドウに対して左右対称性の判別処理(図4に示されるステップS12のクラスタリング処理2)を行うため、ウィンドウの数を十分に絞り込んだ状態で誤識別のウィンドウ(本実施形態では、左右対称性が無いウィンドウ)を削除することができ、判別時間を短縮することができる。   Further, in the present embodiment, a symmetry determination process (clustering process 2 in step S12 shown in FIG. 4) is performed on the windows integrated by the clustering process 1 (clustering process 1 in step S11 shown in FIG. 4). For this reason, it is possible to delete misidentified windows (in this embodiment, windows having no left-right symmetry) in a state where the number of windows is sufficiently narrowed down, and shorten the determination time.

なお、本実施形態では、図4に示されるように、クラスタリング処理1を行った後に、左右対称性の判別処理(クラスタリング処理2)を行う構成を示すが、他の構成例として、左右対称性の判別処理(クラスタリング処理2)を行った後に、クラスタリング処理1を行う構成を用いることもできる。この構成では、識別器(本実施形態では、カスケード型AdaBoost識別器)により選択されたウィンドウについて、まず、左右対称性の判別処理(クラスタリング処理2)を行って、左右対称性があるウィンドウのみを採用し、次に、当該採用したウィンドウについて、クラスタリング処理1により、統合を行う。   In the present embodiment, as shown in FIG. 4, a configuration in which the left / right symmetry determination processing (clustering processing 2) is performed after the clustering processing 1 is performed is shown. However, as another configuration example, left / right symmetry is shown. It is also possible to use a configuration in which the clustering process 1 is performed after the determination process (clustering process 2). In this configuration, for the windows selected by the classifier (in this embodiment, the cascade type AdaBoost classifier), first, the left / right symmetry determination process (clustering process 2) is performed, and only the windows having left / right symmetry are displayed. Next, the adopted window is integrated by clustering processing 1.

また、手法a1、手法a2、手法bについては、例えば、2つ以上の手法が組み合わされて用いられてもよい。   Further, for the method a1, the method a2, and the method b, for example, two or more methods may be used in combination.

[第2実施形態]
本実施形態に係る画像処理システムについて、主に、第1実施形態に係る画像処理システムとは異なる点について説明する。
本実施形態では、第1実施形態に係る図6および図7を参照して示した勾配方向矩形特徴量を用いた左右対称性判別処理に対応する処理(クラスタリング処理2)の他の例として、HOG特徴量を用いた左右対称性判別処理について説明する。
[Second Embodiment]
Regarding the image processing system according to the present embodiment, differences from the image processing system according to the first embodiment will be mainly described.
In the present embodiment, as another example of the process (clustering process 2) corresponding to the left / right symmetry determination process using the gradient direction rectangular feature value shown with reference to FIGS. 6 and 7 according to the first embodiment, The left / right symmetry determination process using the HOG feature amount will be described.

図8および図9を参照して、HOG特徴量を用いた左右対称性の判別の処理を説明する。
図8は、HOG特徴量の方向転換の一例を示す図である。
図8は、左右対称性を判別する対象となるウィンドウについて、当該ウィンドウの中心軸(左右方向の中心を通る縦の軸)に対して、左側の領域のHOG特徴ベクトル(1)〜(8)と右側の領域のHOG特徴ベクトル(1)’〜(8)’に分ける様子を示してある。
ここで、互いに対となる方向の組み合わせにおいて、同じ番号(1〜8)のHOG特徴ベクトルは、左右で対応するものである。
With reference to FIG. 8 and FIG. 9, the right / left symmetry determination process using the HOG feature amount will be described.
FIG. 8 is a diagram illustrating an example of the direction change of the HOG feature amount.
FIG. 8 shows the HOG feature vectors (1) to (8) in the region on the left side with respect to the center axis of the window (vertical axis passing through the center in the left-right direction) with respect to the window for which left / right symmetry is determined. The right side area HOG feature vectors (1) ′ to (8) ′ are shown.
Here, the HOG feature vectors having the same numbers (1 to 8) correspond to the left and right in combinations of directions that are paired with each other.

具体的には、平均勾配画像501は、学習した多数の勾配強度画像を、全ての方向について平均した結果を示す。
また、方向0〜7の全8方向のそれぞれの方向毎に積分した画像を、方向0のウィンドウの画像511−0〜方向7のウィンドウの画像511−7として、示してある。
本実施形態では、方向0(縦の勾配)と方向4(横の勾配)については、左右の領域で同じ方向を用いる。また、斜め方向の勾配については、対となる左右の領域で異なる方向を用いることとなり、具体的には、方向1の左側(または、右側)は方向7の右側(または、左側)と対称であり、方向2の左側(または、右側)は方向6の右側(または、左側)と対称であり、方向3の左側(または、右側)は方向5の右側(または、左側)と対称であり、これを考慮して左右の領域におけるHOG特徴ベクトルを揃える。
Specifically, the average gradient image 501 shows a result obtained by averaging a large number of learned gradient intensity images in all directions.
In addition, an image integrated in each of all eight directions 0 to 7 is shown as a window image 511-0 in the direction 0 and a window image 511-7 in the direction 7.
In the present embodiment, the same direction is used in the left and right regions for the direction 0 (vertical gradient) and the direction 4 (horizontal gradient). As for the gradient in the diagonal direction, different directions are used in the paired left and right regions. Specifically, the left side (or right side) of direction 1 is symmetrical with the right side (or left side) of direction 7. Yes, the left side (or right side) of direction 2 is symmetric with the right side (or left side) of direction 6, and the left side (or right side) of direction 3 is symmetric with the right side (or left side) of direction 5. Considering this, the HOG feature vectors in the left and right regions are aligned.

HOG特徴量を用いる場合には、セルによりウィンドウの左右の領域が均等に分割されるため、左側の領域における(1)〜(8)と右側の領域における(1)’〜(8)’は対称に配列される。
なお、セルのブロックによる正規化は、行われてもよく、または、行われなくてもよい。
When the HOG feature value is used, the left and right areas of the window are equally divided by cells, so that (1) to (8) in the left area and (1) ′ to (8) ′ in the right area are Arranged symmetrically.
Note that normalization by the block of cells may or may not be performed.

図9は、本実施形態に係る物体認識部13により行われるクラスタリング処理2の一例のイメージを示す図である。
図9は、左右の領域におけるHOG特徴ベクトルに対して、左右の対称性を判別する例を示す。
FIG. 9 is a diagram illustrating an example of clustering processing 2 performed by the object recognition unit 13 according to the present embodiment.
FIG. 9 shows an example of discriminating left-right symmetry with respect to the HOG feature vectors in the left and right regions.

左領域の特徴ベクトルの情報601として、特徴量の次元に沿って、各セル番号(1)〜(8)について、それぞれの方向の特徴量(例えば、勾配強度)が得られている。
同様に、右領域の特徴ベクトルの情報602として、特徴量の次元に沿って、各セル番号(1)’〜(8)’について、それぞれの方向の特徴量(例えば、勾配強度)が得られている。
ここで、左領域の特徴ベクトルの情報601と右領域の特徴ベクトルの情報602とでは、互いに、左右の領域が対称となる方向の対応(例えば、図8に示される対応)が付けられている。
As the feature vector information 601 of the left region, feature quantities (for example, gradient strength) in the respective directions are obtained for the cell numbers (1) to (8) along the dimension of the feature quantity.
Similarly, as the feature vector information 602 in the right region, feature quantities (for example, gradient strengths) in the respective directions are obtained for the cell numbers (1) ′ to (8) ′ along the dimension of the feature quantity. ing.
Here, in the left region feature vector information 601 and the right region feature vector information 602, there is a correspondence in a direction in which the left and right regions are symmetrical to each other (for example, the correspondence shown in FIG. 8). .

本実施形態において、左右対称性を判別する手法としては、例えば、第1実施形態に係る図7を参照して説明したものと同様な、第1の手法(手法a1、手法a2)や、第2の手法(手法b)を用いることができる。
なお、手法a1、手法a2、手法bについては、例えば、2つ以上の手法が組み合わされて用いられてもよい。
また、図9に示される識別器611〜612、AND回路621は、それぞれ、第1実施形態に係る図7に示される識別器411〜412、AND回路421と同様な機能を有し、同様な動作を行う。
In the present embodiment, as a method for determining the left-right symmetry, for example, the first method (method a1, method a2) similar to that described with reference to FIG. 7 according to the first embodiment, Two methods (method b) can be used.
In addition, about the method a1, the method a2, and the method b, for example, two or more methods may be used in combination.
Further, the discriminators 611 to 612 and the AND circuit 621 shown in FIG. 9 have the same functions as the discriminators 411 to 412 and the AND circuit 421 shown in FIG. 7 according to the first embodiment, respectively. Perform the action.

本実施形態では、クラスタリング処理1(図4に示されるステップS11のクラスタリング処理1)により統合したウィンドウに対して左右対称性の判別処理(図4に示されるステップS12のクラスタリング処理2)を行うため、ウィンドウの数を十分に絞り込んだ状態で誤識別のウィンドウ(本実施形態では、左右対称性が無いウィンドウ)を削除することができ、判別時間を短縮することができる。   In the present embodiment, in order to perform the symmetry determination process (clustering process 2 in step S12 shown in FIG. 4) on the windows integrated by the clustering process 1 (clustering process 1 in step S11 shown in FIG. 4). In the state where the number of windows is sufficiently narrowed down, misidentified windows (in this embodiment, windows without left-right symmetry) can be deleted, and the determination time can be shortened.

なお、本実施形態では、図4に示されるように、クラスタリング処理1を行った後に、左右対称性の判別処理(クラスタリング処理2)を行う構成を示すが、他の構成例として、左右対称性の判別処理(クラスタリング処理2)を行った後に、クラスタリング処理1を行う構成を用いることもできる。この構成では、識別器(本実施形態では、カスケード型AdaBoost識別器)により選択されたウィンドウについて、まず、左右対称性の判別処理(クラスタリング処理2)を行って、左右対称性があるウィンドウのみを採用し、次に、当該採用したウィンドウについて、クラスタリング処理1により、統合を行う。   In the present embodiment, as shown in FIG. 4, a configuration in which the left / right symmetry determination processing (clustering processing 2) is performed after the clustering processing 1 is performed is shown. However, as another configuration example, left / right symmetry is shown. It is also possible to use a configuration in which the clustering process 1 is performed after the determination process (clustering process 2). In this configuration, for the windows selected by the classifier (in this embodiment, the cascade type AdaBoost classifier), first, the left / right symmetry determination process (clustering process 2) is performed, and only the windows having left / right symmetry are displayed. Next, the adopted window is integrated by clustering processing 1.

ここで、第1実施形態に係る図6および図7を参照して示した勾配方向矩形特徴量を用いた左右対称性判別処理と、第2実施形態に係る図8および図9を参照して示したHOG特徴量を用いた左右対称性判別処理については、例えば、これらの両方を組み合わせて用いることも可能であり、これらの両方で左右対称性があるウィンドウを絞り込むことで、より精度が高い左右対称性の判別が可能となる。   Here, with reference to FIGS. 6 and 7 according to the first embodiment, the left / right symmetry determination processing using the gradient direction rectangular feature amount, and with reference to FIGS. 8 and 9 according to the second embodiment. About the left-right symmetry discrimination processing using the HOG feature amount shown, for example, it is possible to use both of these in combination, and by narrowing down the windows having left-right symmetry in both of these, higher accuracy is achieved. It is possible to determine left-right symmetry.

[第3実施形態]
本実施形態に係る画像処理システムについて、主に、第1実施形態に係る画像処理システムとは異なる点について説明する。
図1(B)は、本発明の他の一実施形態に係る物体認識部13aの構成(物体認識部の他の構成例)を示す概略ブロック図である。
本実施形態に係る物体認識部13aは、第1の認識部31と、第2の認識部32と、を備える。
[Third Embodiment]
Regarding the image processing system according to the present embodiment, differences from the image processing system according to the first embodiment will be mainly described.
FIG. 1B is a schematic block diagram showing the configuration of the object recognition unit 13a (another configuration example of the object recognition unit) according to another embodiment of the present invention.
The object recognition unit 13a according to the present embodiment includes a first recognition unit 31 and a second recognition unit 32.

物体認識部13aにおいて、第1の認識部31は、画像取得部12から入力される画像データについて、第1の物体認識手法で、物体認識の処理を行う。
物体認識部13aにおいて、第2の認識部32は、第1の認識部31により行われる物体認識の処理の結果に基づいて、画像取得部12から入力される画像データについて、第2の物体認識手法で、物体認識の処理を行う。
物体認識部13aは、第2の認識部32により行われた物体認識の処理の結果の情報を制御部14に出力する。
In the object recognition unit 13a, the first recognition unit 31 performs object recognition processing on the image data input from the image acquisition unit 12 using the first object recognition method.
In the object recognition unit 13a, the second recognition unit 32 performs second object recognition on the image data input from the image acquisition unit 12 based on the result of the object recognition process performed by the first recognition unit 31. The object recognition process is performed by the technique.
The object recognition unit 13 a outputs information on the result of the object recognition process performed by the second recognition unit 32 to the control unit 14.

図10は、本実施形態に係る物体認識部13aにより行われる処理の手順の一例を示すフローチャート図である。
ここで、図10に示す本実施形態に係るフローチャートの処理において、ステップS21〜ステップS23の処理およびステップS26の処理は、それぞれ、図3に示されるフローチャートの処理におけるステップS1〜ステップS3の処理およびステップS5の処理と同様である。
概略的には、図10に示す本実施形態に係るフローチャートの処理では、図3に示されるフローチャートの処理におけるステップS4の処理の代わりに、ステップS24およびステップS25の処理を行う。
FIG. 10 is a flowchart illustrating an example of a procedure of processing performed by the object recognition unit 13a according to the present embodiment.
Here, in the process of the flowchart according to the present embodiment shown in FIG. 10, the process of step S21 to step S23 and the process of step S26 are respectively the process of step S1 to step S3 in the process of the flowchart shown in FIG. This is the same as the processing in step S5.
Schematically, in the process of the flowchart according to the present embodiment illustrated in FIG. 10, the process of step S24 and step S25 is performed instead of the process of step S4 in the process of the flowchart illustrated in FIG. 3.

本実施形態では、ラスタスキャンにおいて、ステップS24の処理では、物体認識部13aの第1の認識部31は、抽出した座標領域(ウィンドウ)について、あらかじめ定められた勾配方向矩形特徴量(ベクトル)を算出する。そして、物体認識部13aの第1の認識部31は、算出した勾配方向矩形特徴量(ベクトル)を用いて、カスケード型AdaBoost識別器による識別を行い、あらかじめ目標(ターゲット)としている物体(物体の画像)が存在していると認識(例えば、推測)される1個以上のウィンドウを抽出する(ステップS24)。
ここで、ステップS24の処理におけるカスケード型AdaBoost識別器による識別では、カスケード型内における各強識別器(本実施形態では、識別器101〜103)によりウィンドウが棄却されると、ラスタスキャンに関する処理(ステップS22の処理)に戻る。
In the present embodiment, in the raster scan, in the process of step S24, the first recognition unit 31 of the object recognition unit 13a uses a predetermined gradient direction rectangular feature quantity (vector) for the extracted coordinate area (window). calculate. Then, the first recognizing unit 31 of the object recognizing unit 13a performs identification by the cascade type AdaBoost classifier using the calculated gradient direction rectangular feature quantity (vector), and the object (target of the object) that is set as the target (target) in advance. One or more windows that are recognized (for example, estimated) as being present are extracted (step S24).
Here, in the discrimination by the cascade type AdaBoost discriminator in the process of step S24, if the window is rejected by each strong discriminator (in the present embodiment, the discriminators 101 to 103 in the cascade type), the process related to the raster scan ( The process returns to step S22.

続いて、ステップS25の処理では、物体認識部13aの第2の認識部32は、第1の認識部31により抽出した座標領域(ウィンドウ)について、あらかじめ定められたHOG特徴量(ベクトル)を算出する。そして、物体認識部13aの第2の認識部32は、算出したHOG特徴量(ベクトル)を用いて、カスケード型AdaBoost識別器による識別を行い、あらかじめ目標(ターゲット)としている物体(物体の画像)が存在していると認識(例えば、推測)される1個以上のウィンドウを抽出する(ステップS25)。そして、ステップS26の処理(クラスタリングの処理)へ移行する。
ここで、ステップS25の処理におけるカスケード型AdaBoost識別器による識別では、カスケード型内における各強識別器によりウィンドウが棄却されると、ラスタスキャンに関する処理(ステップS22の処理)に戻る。
Subsequently, in the process of step S25, the second recognition unit 32 of the object recognition unit 13a calculates a predetermined HOG feature amount (vector) for the coordinate area (window) extracted by the first recognition unit 31. To do. Then, the second recognizing unit 32 of the object recognizing unit 13a uses the calculated HOG feature value (vector) to perform identification using a cascade type AdaBoost classifier, and an object (an image of the object) that is set as a target in advance. One or more windows that are recognized (eg, guessed) are extracted (step S25). Then, the process proceeds to step S26 (clustering process).
Here, in the identification by the cascade type AdaBoost classifier in the process of step S25, when the window is rejected by each strong classifier in the cascade type, the process returns to the process related to the raster scan (the process of step S22).

なお、本実施形態では、第2の認識部32によるステップS25の処理において、HOG特徴量を用いている。このように、第2の認識部32は、第1の認識部31により用いられる特徴量(本実施形態では、勾配方向矩形特徴量)以外の特徴量を用いることが望ましい。勾配方向矩形特徴量以外の特徴量としては、HOG特徴量以外の任意の特徴量が用いられてもよく、例えば、同じ勾配方向ベースのHOG特徴量のほかに、輝度値ベースの特徴量を用いることができる。
また、第2の認識部32によるステップS25の処理では、HOG特徴量などで学習したカスケード型AdaBoost識別器による識別を用いる構成のほかに、例えば、SVMによる識別などの任意の手法を用いることができる。また、マルチクラスの識別を行う構成が用いられてもよい。
本実施形態では、第2の認識部32の処理により、第1の認識部31とは異なる見方での認識性能が期待される。このような構成は、次のステップS26の処理においてクラスタリングする対象とするウィンドウを事前にさらに絞り込んでおく場合に用いることができる。
In the present embodiment, the HOG feature amount is used in the process of step S25 by the second recognition unit 32. As described above, it is desirable that the second recognition unit 32 uses a feature amount other than the feature amount used in the first recognition unit 31 (in this embodiment, the gradient direction rectangular feature amount). As the feature amount other than the gradient direction rectangular feature amount, an arbitrary feature amount other than the HOG feature amount may be used. For example, in addition to the same gradient direction-based HOG feature amount, a luminance value-based feature amount is used. be able to.
In addition, in the process of step S25 by the second recognition unit 32, in addition to the configuration using the identification by the cascade type AdaBoost classifier learned by the HOG feature amount, an arbitrary method such as the identification by SVM is used. it can. Further, a configuration for performing multi-class identification may be used.
In the present embodiment, the recognition performance in a different view from the first recognition unit 31 is expected by the processing of the second recognition unit 32. Such a configuration can be used when further narrowing down the windows to be clustered in the processing of the next step S26 in advance.

また、本実施形態では、第2の認識部32によりHOG特徴量(ベクトル)が算出されるため、例えば、第2実施形態に係る図8および図9に示されるようなHOG特徴量を用いた左右対称性判別処理を行う場合に、第2の認識部32により算出されるHOG特徴量(ベクトル)を利用(例えば、そのまま使用、または、変換して使用)することができ、左右対称性判別処理のために新規にHOG特徴量(ベクトル)を作成する処理を省略または簡易化することが可能であり、効率的である。   In this embodiment, since the HOG feature value (vector) is calculated by the second recognition unit 32, for example, the HOG feature value as shown in FIGS. 8 and 9 according to the second embodiment is used. When performing the symmetry determination process, the HOG feature amount (vector) calculated by the second recognition unit 32 can be used (for example, used as it is or converted and used), and the symmetry determination is performed. It is possible to omit or simplify the process of creating a new HOG feature (vector) for processing, which is efficient.

[第4実施形態]
本実施形態に係る画像処理システムについて、主に、第1実施形態に係る画像処理システムとは異なる点について説明する。
本実施形態では、左右対称性の代わりに、上下対称性を用いて、判別処理を行う。または、左右対称性とともに、上下対称性を用いて、判別処理を行う。
ここで、上下対称性を用いる判別処理については、左右対称性を用いる判別処理と同様であり、上下が対称となる方向(本実施形態では、方向0〜7)の組み合わせについても、左右が対称となる方向(本実施形態では、方向0〜7)の組み合わせと同じである。
[Fourth Embodiment]
Regarding the image processing system according to the present embodiment, differences from the image processing system according to the first embodiment will be mainly described.
In the present embodiment, the discrimination process is performed using vertical symmetry instead of right / left symmetry. Alternatively, the discrimination processing is performed using the vertical symmetry as well as the left-right symmetry.
Here, the discriminating process using the vertical symmetry is the same as the discriminating process using the left / right symmetry, and the left / right symmetry also applies to combinations of directions in which the upper / lower symmetry is symmetric (directions 0 to 7 in this embodiment). This is the same as the combination of directions (in this embodiment, directions 0 to 7).

具体的には、物体認識部13は、クラスタリング処理2として、上下対称性判別の処理を行う(図4に示されるステップS12)。これにより、物体認識部13は、上下対称性があると判別したウィンドウについては採用し、一方、上下対称性が無いと判別したウィンドウについては棄却する。本実施形態では、目標物体として、上下の対称性がある物体を設定しており、このため、物体認識部13は、上下の対称性があると判別したウィンドウについては目標物体を捉えているとみなして採用する一方、上下の対称性が無いと判別したウィンドウについては目標物体を捉えていないとみなして棄却する。   Specifically, the object recognition unit 13 performs a vertical symmetry determination process as the clustering process 2 (step S12 illustrated in FIG. 4). Thereby, the object recognition unit 13 adopts the window determined to have vertical symmetry, and rejects the window determined to have no vertical symmetry. In the present embodiment, an object having vertical symmetry is set as the target object. For this reason, the object recognition unit 13 captures the target object for a window determined to have vertical symmetry. On the other hand, the window determined to have no vertical symmetry is regarded as not capturing the target object and rejected.

なお、左右対称性に関する処理を上下対称性に関する処理に適用する場合には、一例として、左右対称性に関する処理における左側の処理(または、右側の処理)を上下対称性に関する処理における上側の処理に置き換えるとともに、左右対称性に関する処理における右側の処理(または、左側の処理)を上下対称性に関する処理における下側の処理に置き換えることを行う。   In addition, when applying the process related to left-right symmetry to the process related to vertical symmetry, as an example, the left-side process (or right-side process) in the process related to left-right symmetry is changed to the upper process in the process related to vertical symmetry. At the same time, the processing on the right side (or the processing on the left side) in the processing related to left-right symmetry is replaced with the lower processing in the processing related to vertical symmetry.

[第5実施形態]
本実施形態に係る画像処理システムについて、主に、第4実施形態に係る画像処理システムとは異なる点について説明する。
本実施形態では、左右対称性とともに、上下対称性を用いて、判別処理を行う。
[Fifth Embodiment]
The image processing system according to the present embodiment will be described mainly regarding differences from the image processing system according to the fourth embodiment.
In the present embodiment, the discrimination process is performed using the vertical symmetry as well as the left / right symmetry.

具体的には、物体認識部13は、クラスタリング処理2として、左右対称性判別の処理および上下対称性判別の処理を行う(図4に示されるステップS12)。これにより、物体認識部13は、左右対称性がありかつ上下対称性が無いと判別したウィンドウについては採用し、一方、それ以外のものであると判別したウィンドウについては棄却する。つまり、物体認識部13は、左右対称性について対称性が無いと判別したウィンドウを上下対称性の有無にかかわらず不採用とし、かつ、左右対称性があっても上下対称性について対称性があると判別したウィンドウを不採用とし、一方、左右対称性がありかつ上下対称性が無いと判別したウィンドウを採用する
本実施形態では、目標物体として、左右の対称性がありかつ上下の対称性が無い物体を設定しており、このため、物体認識部13は、左右の対称性がありかつ上下の対称性が無いと判別したウィンドウについては目標物体を捉えているとみなして採用する一方、それ以外のものであると判別したウィンドウについては目標物体を捉えていないとみなして棄却する。
Specifically, the object recognition unit 13 performs a left-right symmetry determination process and a vertical symmetry determination process as the clustering process 2 (step S12 illustrated in FIG. 4). Thereby, the object recognition unit 13 adopts the window determined to have left-right symmetry and no vertical symmetry, and rejects the window determined to be other than that. That is, the object recognizing unit 13 adopts a window that is determined to have no left-right symmetry regardless of whether there is vertical symmetry or not, and even if there is left-right symmetry, there is symmetry regarding vertical symmetry. In this embodiment, the target object has left-right symmetry and up-down symmetry. For this reason, the object recognition unit 13 adopts a window that is determined to have a left-right symmetry and no vertical symmetry as a target object while adopting it. If the window is determined to be something other than, the target object is regarded as not being captured and is rejected.

このような処理は、例えば、左右の対称性がありかつ上下の対称性が無い車両の識別に適用することができる。
具体例として、左右の対称性がありかつ上下の対称性が無い車両と、左右の対称性がありかつ上下の対称性がある看板(例えば、道路の付近にある看板)などとを区別することができ、つまり、このような車両を捉えるウィンドウを採用する一方、このような看板などを捉えるウィンドウを棄却することができる。これにより、物体(この例では、車両)の判別性を向上させることができる。
Such processing can be applied, for example, to identification of a vehicle having left-right symmetry and no vertical symmetry.
As a specific example, distinguishing between a vehicle with left-right symmetry and no vertical symmetry and a signboard with left-right symmetry and vertical symmetry (for example, a signboard near a road), etc. In other words, a window that captures such a vehicle can be adopted, while a window that captures such a signboard can be rejected. Thereby, the discriminability of an object (in this example, a vehicle) can be improved.

ここで、左右対称性の有無と上下対称性の有無との組み合わせとしては、左右対称性がありかつ上下対称性が無いという組み合わせ以外には、左右対称性がありかつ上下対称性があるという組み合わせ、左右対称性が無くかつ上下対称性があるという組み合わせ、および、左右対称性が無くかつ上下対称性が無いという組み合わせがある。
本実施形態では、物体認識部13は、左右対称性がありかつ上下対称性が無いと判別したウィンドウについては採用し、一方、それ以外のものであると判別したウィンドウについては棄却する構成としたが、前記のような4通りの組み合わせのうちで任意の組み合わせ(任意の1通り以上で3通り以下の組み合わせ)についてはウィンドウを採用し、一方、それ以外の組み合わせ(残りの3通り以下で1通り以上の組み合わせ)についてはウィンドウを棄却する、という構成が用いられてもよい。
Here, the combination of the presence / absence of left / right symmetry and the presence / absence of vertical symmetry is a combination of right / left symmetry and vertical symmetry other than the combination of right / left symmetry and no vertical symmetry. There is a combination that there is no left-right symmetry and vertical symmetry, and a combination that there is no left-right symmetry and no vertical symmetry.
In the present embodiment, the object recognizing unit 13 adopts a window determined to have left-right symmetry and no vertical symmetry, while rejecting windows determined to be other than that. However, a window is adopted for an arbitrary combination (any one or more and three or less combinations) among the four combinations as described above, while the other combinations (the remaining three or less are 1). For a combination of streets or more, a configuration of rejecting the window may be used.

[以上の実施形態に関する関連技術の説明]
図13〜図19を参照して、以上の実施形態に関連する技術を説明する。
図13は、画像処理システム(例えば、図1(A)に示される画像処理システム)における画像取得から物体認識までの処理の概略的な一例を示す図である。
カメラ11により撮像される画像のデータが、画像取得部12により入力画像1201のデータとして取得される。
例えば、この画像には、道路と前方の車両が映っている。
[Description of Related Technology Regarding the Embodiments above]
With reference to FIGS. 13 to 19, techniques related to the above embodiments will be described.
FIG. 13 is a diagram showing a schematic example of processing from image acquisition to object recognition in an image processing system (for example, the image processing system shown in FIG. 1A).
Data of an image captured by the camera 11 is acquired as data of the input image 1201 by the image acquisition unit 12.
For example, this image shows a road and vehicles ahead.

物体認識部13では、勾配強度画像1202に示されるように、複数の勾配方向(本実施形態では、方向0〜方向7の8方向)のそれぞれについて、勾配強度を算出する。
そして、物体認識部13では、勾配方向毎に、勾配強度の積分画像を、積分勾配画像1203として作成する(図3に示されるステップS1の処理)。
The object recognizing unit 13 calculates the gradient strength for each of a plurality of gradient directions (eight directions from direction 0 to direction 7 in this embodiment) as shown in the gradient strength image 1202.
Then, the object recognizing unit 13 creates an integrated image of the gradient strength as the integrated gradient image 1203 for each gradient direction (the process of step S1 shown in FIG. 3).

次に、物体認識部13では、ラスタスキャンの領域1204において、ウィンドウのスキャンを行う(図3に示されるステップS3の処理)。
物体認識部13では、ラスタスキャンで取得されるウィンドウの画像1205に関し、各勾配方向の積分勾配画像1206を取得する。
例えば、このウィンドウの画像1205は、前方の車両が映る部分の画像である。
Next, the object recognition unit 13 scans a window in the raster scan area 1204 (processing in step S3 shown in FIG. 3).
The object recognition unit 13 acquires an integral gradient image 1206 in each gradient direction with respect to the window image 1205 acquired by the raster scan.
For example, the image 1205 of this window is an image of a portion in which a vehicle ahead is shown.

そして、物体認識部13では、同一のウィンドウに関する勾配方向毎の積分勾配画像1206について、あらかじめ定められた矩形特徴量(勾配方向矩形特徴量)1207を演算して取得する(図3に示されるステップS4の処理(および、図10に示されるステップS24も同様))。   Then, the object recognition unit 13 calculates and acquires a predetermined rectangular feature amount (gradient direction rectangular feature amount) 1207 for the integrated gradient image 1206 for each gradient direction with respect to the same window (step shown in FIG. 3). Process of S4 (and step S24 shown in FIG. 10 is also the same)).

次に、物体認識部13では、AdaBoostの識別器(本実施形態では、カスケード型AdaBoost識別器)による識別を行う(図3に示されるステップS4の処理(および、図10に示されるステップS24も同様))。
本実施形態では、識別器として、勾配方向毎に弱識別器が設定できる。
具体的には、物体認識部13では、各勾配方向の積分勾配画像1206(本実施形態では、8方向の勾配方向毎に、積分勾配画像1208−0〜積分勾配画像1208−7とする)について、あらかじめ学習しておいた弱識別器により識別を行う。
Next, the object recognition unit 13 performs identification using an AdaBoost classifier (in this embodiment, a cascade type AdaBoost classifier) (the process of step S4 shown in FIG. 3 (and also step S24 shown in FIG. 10). The same)).
In this embodiment, a weak classifier can be set for each gradient direction as the classifier.
Specifically, in the object recognition unit 13, the integral gradient image 1206 in each gradient direction (in this embodiment, the integral gradient image 1208-0 to the integral gradient image 1208-7 is provided for each of the eight gradient directions). Identification is performed by a weak classifier that has been learned in advance.

図13の例では、方向0の積分勾配画像1208―0について、弱識別器により識別を行った結果、W0−r1=419.4/s0という値が得られている。s0は、この値が得られた矩形の領域の面積である。そして、物体認識部13では、この値に基づいて、弱識別器の応答値h0を算出する処理210−0を行う。 In the example of FIG. 13, the value of W 0−r1 = 419.4 / s0 is obtained as a result of identifying the integral gradient image 1208-0 in the direction 0 by the weak classifier. s0 is the area of the rectangular region from which this value was obtained. Then, the object recognition unit 13 performs processing 210-0 for calculating the response value h0 of the weak classifier based on this value.

また、図13の例では、方向7の積分勾配画像1208−7について、弱識別器により識別を行った結果、W7−r1=198.1/s0という値が得られている。s0は、この値が得られた矩形の領域の面積である。また、図13の例では、方向7の積分勾配画像1208−7について、弱識別器により識別を行った結果、W7−r2=582.6/s1という値が得られている。s1は、この値が得られた矩形の領域の面積である。続いて、この例では、減算器1209により、これら2つの値の減算結果(差)を求める。そして、物体認識部13では、この減算結果の値に基づいて、弱識別器の応答値h7を算出する処理1210−7を行う。 In the example of FIG. 13, as a result of identifying the integral gradient image 1208-7 in the direction 7 by the weak classifier, a value of W 7−r1 = 198.1 / s0 is obtained. s0 is the area of the rectangular region from which this value was obtained. In the example of FIG. 13, the integrated gradient image 1208-7 in the direction 7 is identified by the weak classifier, and as a result, a value of W 7−r2 = 582.6 / s1 is obtained. s1 is the area of the rectangular region where this value is obtained. Subsequently, in this example, a subtracter 1209 obtains a subtraction result (difference) between these two values. Then, the object recognition unit 13 performs a process 1210-7 for calculating the response value h7 of the weak classifier based on the value of the subtraction result.

図14〜図18を参照して、勾配方向矩形特徴量の例について説明する。
本実施形態では、各勾配方向に分けた勾配強度画像から矩形特徴を抽出するため、その矩形特徴量のことを勾配方向矩形特徴量と定義する。
An example of the gradient direction rectangular feature value will be described with reference to FIGS.
In this embodiment, in order to extract a rectangular feature from the gradient intensity image divided in each gradient direction, the rectangular feature amount is defined as a gradient direction rectangular feature amount.

図14は、第1の例に係る勾配方向矩形特徴量Aを示す図である。
この勾配方向矩形特徴量Aは、1個の矩形(単矩形)1301の特徴量(単矩形特徴量)を示す。
この勾配方向矩形特徴量Aは、勾配方向毎の勾配強度画像から単矩形特徴を抽出し、単一領域の勾配を捉えることを目的としたものである。
例えば、目標物体のある部位が同一の勾配方向に集中しているような場合に、単矩形特徴で捉えることができる。
FIG. 14 is a diagram illustrating the gradient direction rectangular feature amount A according to the first example.
The gradient direction rectangular feature value A indicates the feature value (single rectangular feature value) of one rectangle (single rectangle) 1301.
The purpose of the gradient direction rectangular feature A is to extract a single rectangular feature from a gradient intensity image for each gradient direction and capture the gradient of a single region.
For example, when a part of the target object is concentrated in the same gradient direction, it can be captured by a single rectangular feature.

図15(A)、図15(B)、図15(C)は、第2の例に係る勾配方向矩形特徴量Bを示す図である。
この勾配方向矩形特徴量Bは、勾配方向毎の勾配強度画像について、Haar−like特徴量と同様に、矩形の特徴の差分等を用いるものである。また、この勾配方向矩形特徴量Bは、隣り合う矩形として同一の面積を有する矩形を用いて、同一の方向内での特徴の差分等を求めるものである。
図15(A)は、2個の矩形に分けて勾配方向矩形特徴量Bを求める場合における勾配強度画像1311、1312を示す。この例では、隣り合う白い領域と黒い領域との間で特徴の差分等を求める。
図15(B)は、3個の矩形に分けて勾配方向矩形特徴量Bを求める場合における勾配強度画像1321、1322を示す。この例では、隣り合う白い領域と黒い領域との間で特徴の差分等を求める。
図15(C)は、4個の矩形に分けて勾配方向矩形特徴量Bを求める場合における勾配強度画像1331を示す。この例では、隣り合う白い領域と黒い領域との間で特徴の差分等を求める。
この勾配方向矩形特徴量Bは、隣接領域の勾配関係を捉える手法であり、本実施形態では、勾配強度画像について抽出するため、通常の輝度画像から求める領域差分よりも、さらに特徴差が際立った部位を抽出することができるという効果が得られる。
FIG. 15A, FIG. 15B, and FIG. 15C are diagrams showing gradient-direction rectangular feature quantity B according to the second example.
This gradient-direction rectangular feature value B uses a difference between rectangular features and the like, similar to the Haar-like feature value, for the gradient intensity image for each gradient direction. The gradient direction rectangular feature value B is used to obtain a feature difference or the like in the same direction using rectangles having the same area as adjacent rectangles.
FIG. 15A shows gradient intensity images 1311 and 1312 when the gradient direction rectangular feature amount B is obtained by dividing the rectangle into two rectangles. In this example, a feature difference or the like is obtained between adjacent white and black areas.
FIG. 15B shows gradient intensity images 1321 and 1322 when the gradient direction rectangular feature amount B is obtained by dividing the rectangle into three rectangles. In this example, a feature difference or the like is obtained between adjacent white and black areas.
FIG. 15C shows a gradient intensity image 1331 when the gradient direction rectangular feature amount B is obtained by dividing the rectangle into four rectangles. In this example, a feature difference or the like is obtained between adjacent white and black areas.
This gradient direction rectangular feature amount B is a technique for capturing the gradient relationship between adjacent regions. In this embodiment, since the gradient intensity image is extracted, the feature difference is more conspicuous than the region difference obtained from the normal luminance image. The effect that a site | part can be extracted is acquired.

図16は、第3の例に係る勾配方向矩形特徴量Cを示す図である。
この勾配方向矩形特徴量Cは、勾配方向毎の勾配強度画像について、Haar−like特徴量を応用して、矩形の特徴の差分等を用いるものである。
この勾配方向矩形特徴量Cは、隣接領域の勾配関係を捉える手法であり、隣接領域とする2つの領域(白い領域と黒い領域)で領域の形状や面積が異なっている。また、この勾配方向矩形特徴量Cは、同一の方向内での特徴の差分等を求めるものである。
図16の例では、複数(N個)の勾配方向について、方向0のウィンドウの画像1341−0、方向1のウィンドウの画像1341−1、・・・、方向(N−1)のウィンドウの画像1341−(N−1)を示す。この例では、勾配方向毎に、矩形の形状や数が異なってもよい。
この勾配方向矩形特徴量Cは、図15(A)、図15(B)、図15(C)に示される勾配方向矩形特徴量Bと似ているが、例えば、隣接する領域の勾配面積比が異なるような場合にも、より適切な抽出を行うことができるという効果が得られる。
FIG. 16 is a diagram illustrating a gradient direction rectangular feature value C according to the third example.
The gradient direction rectangular feature value C is obtained by applying a Haar-like feature value to the gradient intensity image for each gradient direction, and using a rectangular feature difference or the like.
This gradient-direction rectangular feature C is a technique for capturing the gradient relationship between adjacent regions, and the shape and area of the regions differ between two regions (white region and black region) that are adjacent regions. The gradient direction rectangular feature value C is used to obtain a feature difference in the same direction.
In the example of FIG. 16, for a plurality of (N) gradient directions, a window image 1341-0 in direction 0, a window image 1341-1 in direction 1,..., A window image in direction (N-1). 1341- (N-1) is shown. In this example, the shape and number of rectangles may be different for each gradient direction.
This gradient-direction rectangular feature value C is similar to the gradient-direction rectangular feature value B shown in FIGS. 15A, 15B, and 15C. For example, the gradient area ratio of adjacent regions Even when the values are different from each other, an effect that more appropriate extraction can be performed is obtained.

図17は、第4の例に係る勾配方向矩形特徴量Dを示す図である。
この勾配方向矩形特徴量Dは、勾配方向毎の勾配強度画像の内において、複数の離隔した(隔たれた)矩形の特徴の差分等を用いるものである。
この勾配方向矩形特徴量Dは、離隔した領域の勾配関係を捉える手法であり、離隔した領域とする2つの領域(白い領域と黒い領域)で、領域の形状や面積が同じでもよく、または、異なってもよい。また、この勾配方向矩形特徴量Dは、同一の方向内での特徴の差分等を求めるものである。
図17の例では、複数(N個)の勾配方向について、方向0のウィンドウの画像1351−0、方向1のウィンドウの画像1351−1、・・・、方向(N−1)のウィンドウの画像1351−(N−1)を示す。この例では、勾配方向毎に、矩形の形状や数が異なってもよい。
この勾配方向矩形特徴量Dは、隣接していない領域の間でも特徴を抽出することができるようにしたものである。この勾配方向矩形特徴量Dは、目標物体のある方向の勾配が離れた部位の間で存在することを捉え易くする。
FIG. 17 is a diagram showing a gradient direction rectangular feature value D according to the fourth example.
The gradient direction rectangular feature value D uses a difference between a plurality of separated (separated) rectangular features in a gradient intensity image for each gradient direction.
This gradient direction rectangular feature amount D is a technique for capturing the gradient relationship between separated regions, and the two regions (white region and black region) that are separated regions may have the same shape or area, or May be different. The gradient direction rectangular feature value D is used to obtain a feature difference or the like in the same direction.
In the example of FIG. 17, for a plurality of (N) gradient directions, a window image 1351-0 in direction 0, a window image 1351-1 in direction 1,..., A window image in direction (N-1). 1351- (N-1) is shown. In this example, the shape and number of rectangles may be different for each gradient direction.
This gradient-direction rectangular feature value D is such that features can be extracted even between non-adjacent regions. This gradient direction rectangular feature amount D makes it easy to grasp that a gradient in a certain direction of the target object exists between separated parts.

図18は、第5の例に係る勾配方向矩形特徴量Eを示す図である。
この勾配方向矩形特徴量Eは、異なる勾配方向の勾配強度画像の間に跨って、複数の矩形の特徴の差分等を用いるものである。
この勾配方向矩形特徴量Eは、異なる勾配方向の勾配強度画像の間におけるそれぞれの領域の勾配関係を捉える手法であり、2つの領域(白い領域と黒い領域)で、領域の形状や面積や位置が同じでもよく、または、異なってもよい。この勾配方向矩形特徴量Eは、異なる方向間での特徴の差分等を求めるものである。
図18の例では、複数(N個)の勾配方向について、方向0のウィンドウの画像1361−0、方向1のウィンドウの画像1361−1、・・・、方向(N−1)のウィンドウの画像1361−(N−1)を示す。この例では、勾配方向毎に、矩形の形状や数が異なってもよい。
この勾配方向矩形特徴量Eは、異なる勾配方向に跨る勾配強度画像における複数の矩形の特徴関係を用いるため、異なる勾配方向の間の関係を捉えることができるという効果が得られる。
FIG. 18 is a diagram showing a gradient direction rectangular feature quantity E according to the fifth example.
This gradient direction rectangular feature amount E uses differences between features of a plurality of rectangles across the gradient intensity images in different gradient directions.
This gradient direction rectangular feature amount E is a technique for capturing the gradient relationship of each region between gradient intensity images in different gradient directions, and the shape, area and position of the region in two regions (white region and black region). May be the same or different. The gradient direction rectangular feature value E is used to obtain a feature difference between different directions.
In the example of FIG. 18, for a plurality (N) of gradient directions, a window image 1361-0 in direction 0, a window image 1361-1 in direction 1,..., A window image in direction (N-1). 1361- (N-1) is shown. In this example, the shape and number of rectangles may be different for each gradient direction.
This gradient direction rectangular feature quantity E uses the feature relationship of a plurality of rectangles in the gradient intensity image across different gradient directions, so that the effect of being able to capture the relationship between the different gradient directions can be obtained.

ここで、勾配方向矩形特徴量B〜Eにおいて、複数の矩形の特徴の差分等を求めることについては、必ずしも領域間の差分だけでなく、差、和、積、商といった四則演算を考慮して、これらのうちの任意の1つ以上の演算を用いて、最適な特徴量を使用する(または、選択などする)ことができるようにする。また、差分(差)としては、差分の絶対値を用いることも可能である。
また、複数の矩形の特徴の差分等における複数の矩形としては、例えば、2個の矩形に限られず、3個以上の矩形が用いられてもよい。
Here, regarding the gradient direction rectangular feature values B to E, the difference between the features of a plurality of rectangles is not necessarily calculated in consideration of not only the differences between regions but also four arithmetic operations such as difference, sum, product, and quotient. Any one or more of these operations can be used to use (or select, etc.) the optimum feature amount. Also, as the difference (difference), an absolute value of the difference can be used.
In addition, the plurality of rectangles in the difference between features of the plurality of rectangles is not limited to two rectangles, for example, and three or more rectangles may be used.

以上のように、本実施形態では、複数種類の勾配方向矩形特徴量A〜Eのうちのいずれか1つ、または、任意の2つ以上の組み合わせを用いることができ、これにより、目標物体の特徴をより少ない識別器(本実施形態では、弱識別器)の数で捉えることができ、装置の構成を簡易化することができる。   As described above, in the present embodiment, any one of a plurality of types of gradient direction rectangular feature values A to E, or any combination of two or more can be used. Features can be grasped by the number of discriminators (in the present embodiment, weak discriminators), and the configuration of the apparatus can be simplified.

ここで、勾配方向矩形特徴量を用いることにより得られる効果について、より詳しく説明する。
本実施形態では、図3に示されるステップS4(および、図10に示されるステップS24も同様)の処理において、AdaBoostによる識別器で、勾配方向矩形特徴量を識別する。
この場合、勾配方向矩形特徴量とAdaBoostの識別器とを組み合わせると、例えば、弱識別器の数が極力少ない条件にしても、不検出率が低い性能を持ち、且つ、誤検出率が低い性能を持つ物体認識のアルゴリズムを構成することができる。
Here, the effect obtained by using the gradient direction rectangular feature amount will be described in more detail.
In the present embodiment, in the process of step S4 shown in FIG. 3 (and also in step S24 shown in FIG. 10), the gradient direction rectangular feature quantity is identified by the classifier by AdaBoost.
In this case, when the gradient direction rectangular feature quantity and the AdaBoost classifier are combined, for example, even if the number of weak classifiers is as small as possible, the performance has a low non-detection rate and a low false detection rate. It is possible to construct an object recognition algorithm having

好ましい具体例として、勾配方向矩形特徴量について、各勾配方向のウィンドウの内の矩形領域(つまり、大きさ)に特に制限を設けず、目標物体の各部位の大小を問わず識別器(本実施形態では、AdaBoostの識別器)により学習し、目標物体の特徴を示す弱識別器を選択させる。
これにより、目標物体の大小の勾配矩形特徴の中で、特に有効な部分を厳選することができ、少ない弱識別器の数で識別器を構成することができる。このため、計算回数とメモリアクセス回数が少なく、短い演算処理時間で、目標物体が存在するウィンドウを絞り込むことや、目標物体を識別することができる。
As a preferred specific example, with respect to the gradient direction rectangular feature amount, there is no particular limitation on the rectangular area (that is, the size) in the window in each gradient direction, and the discriminator (this embodiment) regardless of the size of each part of the target object. In the embodiment, learning is performed by an AdaBoost classifier), and a weak classifier indicating the characteristics of the target object is selected.
As a result, particularly effective portions can be carefully selected from the large and small gradient rectangular features of the target object, and a classifier can be configured with a small number of weak classifiers. For this reason, the number of calculations and the number of memory accesses are small, and the window in which the target object exists can be narrowed down or the target object can be identified with a short calculation processing time.

なお、識別器による識別に関して、不検出率は、目標物体を目標物体として検出(検知)することができない率のことであり、また、誤検出率は、目標物体以外を目標物体であると認識して検出する率のことである。
また、本実施形態では、ブースティング(Boosting)として、AdaBoostを例として説明したが、広義のブースティングに適用しても、同様な効果を得ることが可能である。
Regarding the discrimination by the discriminator, the non-detection rate is a rate at which the target object cannot be detected (detected) as the target object, and the false detection rate is recognized as a target object other than the target object. This is the rate of detection.
In this embodiment, AdaBoost has been described as an example of boosting. However, the same effect can be obtained even when applied to boosting in a broad sense.

図19(A)〜図19(E)を参照して、勾配方向および勾配強度の算出例を説明する。
図19(A)は、輝度画像の一例を示す図である。
この例では、横(水平)方向のx軸の画素位置をuで表しており、右へ行くほど座標値が大きくなる。また、縦(垂直)方向のy軸の画素位置をvで表しており、下へ行くほど座標値が大きくなる。
x−y直交座標の平面上における画素位置は、座標(u、v)で表される。
A calculation example of the gradient direction and gradient intensity will be described with reference to FIGS.
FIG. 19A is a diagram illustrating an example of a luminance image.
In this example, the x-axis pixel position in the horizontal (horizontal) direction is represented by u, and the coordinate value increases toward the right. Further, the y-axis pixel position in the vertical (vertical) direction is represented by v, and the coordinate value increases as it goes downward.
The pixel position on the plane of the xy orthogonal coordinates is represented by coordinates (u, v).

図19(B)は、勾配の一例を示す図である。
この例では、座標(u、v)の画素位置における輝度をI(u、v)で表す。
座標(u、v)の画素位置における横(水平)方向の輝度の勾配をIxで表し、Ixを式(6)で表す。また、座標(u、v)の画素位置における縦(垂直)方向の輝度の勾配をIyで表し、Iyを式(7)で表す。
FIG. 19B is a diagram illustrating an example of a gradient.
In this example, the luminance at the pixel position of coordinates (u, v) is represented by I (u, v).
The luminance gradient in the horizontal (horizontal) direction at the pixel position of coordinates (u, v) is represented by Ix, and Ix is represented by Expression (6). Further, the luminance gradient in the vertical (vertical) direction at the pixel position at coordinates (u, v) is represented by Iy, and Iy is represented by Expression (7).

図19(C)は、勾配強度の一例を示す図である。
この例では、座標(u、v)の画素位置における勾配強度をm(u、v)で表し、m(u、v)を式(8)で表す。
図19(D)は、勾配方向の一例を示す図である。
この例では、座標(u、v)の画素位置における勾配方向をθ(u、v)で表し、θ(u、v)を式(9)で表す。
FIG. 19C is a diagram illustrating an example of the gradient strength.
In this example, the gradient strength at the pixel position of coordinates (u, v) is represented by m (u, v), and m (u, v) is represented by equation (8).
FIG. 19D is a diagram illustrating an example of the gradient direction.
In this example, the gradient direction at the pixel position of coordinates (u, v) is represented by θ (u, v), and θ (u, v) is represented by equation (9).

図19(E)は、各勾配方向の範囲の一例を示す図である。
この例では、180degを8個の方向(方向0〜方向7)の範囲に分けている。この場合、1個の方向の範囲は22.5degとなり、その範囲の中心の角度を基準とすると±11.25degの範囲となる。
この例では、方向0を縦の勾配の範囲とすると、方向4が横の勾配の範囲となる。
FIG. 19E is a diagram illustrating an example of a range in each gradient direction.
In this example, 180 deg is divided into a range of 8 directions (direction 0 to direction 7). In this case, the range in one direction is 22.5 deg, and the range is ± 11.25 deg when the center angle of the range is used as a reference.
In this example, if direction 0 is a vertical gradient range, direction 4 is a horizontal gradient range.

ここで、画像における輝度の勾配は、微分画像に対応する。また、例えば、輝度の勾配が所定の閾値より大きい画素位置のつながりを勾配として検出することが可能である。
また、勾配を算出する手法としては、例えば、ソーベルフィルタを用いる手法などのように、他の手法を用いることもできる。
また、積分勾配画像は、例えば、HOG特徴量を算出する際によく用いられるが、本実施形態では、矩形特徴量を算出する際に用いることを特徴とする。
Here, the gradient of luminance in the image corresponds to the differential image. Further, for example, it is possible to detect a connection between pixel positions whose luminance gradient is greater than a predetermined threshold as the gradient.
Further, as a method for calculating the gradient, for example, another method such as a method using a Sobel filter can be used.
The integral gradient image is often used, for example, when calculating the HOG feature amount. In this embodiment, the integral gradient image is used when calculating the rectangular feature amount.

図20(A)〜図20(D)は、左右(または、上下)対称とするための方向の組み合わせの例を示す図である。
この例では、図19(E)に示される方向0〜7について示す。
FIGS. 20A to 20D are diagrams illustrating examples of combinations of directions for left-right (or vertical) symmetry.
In this example, directions 0 to 7 shown in FIG.

図20(A)に示されるように、方向1と方向7とが、対称性の対(組み合わせ)となる。
図20(B)に示されるように、方向2と方向6とが、対称性の対となる。
図20(C)に示されるように、方向3と方向5とが、対称性の対となる。
図20(D)に示されるように、方向0はそれ自体が(つまり、方向0と方向0とが)、対称性の対となり、また、方向4はそれ自体が(つまり、方向4と方向4とが)、対称性の対となる。
As shown in FIG. 20A, the direction 1 and the direction 7 form a symmetry pair (combination).
As shown in FIG. 20B, the direction 2 and the direction 6 are a pair of symmetry.
As shown in FIG. 20C, the direction 3 and the direction 5 form a symmetry pair.
As shown in FIG. 20D, direction 0 is itself a symmetric pair (ie, direction 0 and direction 0), and direction 4 is itself (ie, direction 4 and direction). 4) is a pair of symmetry.

[以上に示した実施形態に関する構成例の説明]
以上に示した実施形態(第1実施形態〜第5実施形態)に係る画像処理システムについて、(実施形態に係る構成例1)〜(実施形態に係る構成例14)を示す。
[Description of configuration example related to the above-described embodiment]
About the image processing system which concerns on embodiment shown above (1st Embodiment-5th Embodiment), (the structural example 1 which concerns on embodiment)-(the structural example 14 which concerns on embodiment) is shown.

(実施形態に係る構成例1)
目標物体の認識において、識別器(実施形態では、カスケード型の識別器)による識別結果で得られる複数のウィンドウについて、目標物体の左右対称性の判別を含めてクラスタリング処理する。
(実施形態に係る構成例2)
前記目標物体は、前走(前方に先行走行)する車両(より具体的には、その車両の背面)である。
(Configuration example 1 according to the embodiment)
In the recognition of the target object, a plurality of windows obtained as a result of identification by the classifier (in the embodiment, a cascade type classifier) are subjected to clustering processing including determination of the symmetry of the target object.
(Configuration example 2 according to the embodiment)
The target object is a vehicle (more specifically, the rear surface of the vehicle) that runs ahead (runs ahead).

(実施形態に係る構成例3)
前記左右対称性の判別では、ウィンドウの左右領域のそれぞれで対称に勾配方向を合わせて、勾配方向矩形特徴量を用いて、対称性を判別(判定)する。
(実施形態に係る構成例4)
前記左右対称性の判別では、ウィンドウの左領域と右領域のそれぞれにおける勾配方向矩形特徴ベクトル間の距離に基づいて、対称性を判別する。
(実施形態に係る構成例5)
前記左右対称性の判別では、ウィンドウの左領域と右領域のそれぞれにおける勾配方向矩形特徴ベクトル間の相互相関に基づいて、対称性を判別する。
(実施形態に係る構成例6)
前記左右対称性の判別では、ウィンドウの左領域と右領域のそれぞれにおける勾配方向矩形特徴量を識別器で識別した結果をAND論理で処理した結果に基づいて、対称性を判別する。
(Configuration example 3 according to the embodiment)
In the left / right symmetry determination, the gradient direction is matched symmetrically in each of the left and right regions of the window, and the symmetry is determined (determined) using the gradient direction rectangular feature amount.
(Configuration example 4 according to the embodiment)
In the left / right symmetry determination, symmetry is determined based on the distance between the gradient direction rectangular feature vectors in each of the left region and the right region of the window.
(Configuration example 5 according to the embodiment)
In the left / right symmetry determination, the symmetry is determined based on the cross-correlation between the gradient direction rectangular feature vectors in each of the left region and the right region of the window.
(Configuration example 6 according to the embodiment)
In the left / right symmetry discrimination, the symmetry is discriminated based on the result obtained by processing the result of identifying the gradient direction rectangular feature value in each of the left region and the right region of the window by the discriminator with AND logic.

(実施形態に係る構成例7)
前記左右対称性の判別では、ウィンドウの左右領域のそれぞれで対称に勾配方向を合わせて、HOG特徴量を用いて、対称性を判別(判定)する。
(実施形態に係る構成例8)
前記左右対称性の判別では、ウィンドウの左領域と右領域のそれぞれにおけるHOG特徴ベクトル間の距離に基づいて、対称性を判別する。
(実施形態に係る構成例9)
前記左右対称性の判別では、ウィンドウの左領域と右領域のそれぞれにおけるHOG特徴ベクトル間の相互相関に基づいて、対称性を判別する。
(実施形態に係る構成例10)
前記左右対称性の判別では、ウィンドウの左領域と右領域のそれぞれにおけるHOG特徴量を識別器で識別した結果をAND論理で処理した結果に基づいて、対称性を判別する。
(Configuration example 7 according to the embodiment)
In the left / right symmetry determination, the gradient directions are aligned symmetrically in the left and right regions of the window, and the symmetry is determined (determined) using the HOG feature value.
(Configuration Example 8 according to Embodiment)
In the left / right symmetry determination, the symmetry is determined based on the distance between the HOG feature vectors in each of the left region and the right region of the window.
(Configuration example 9 according to the embodiment)
In the left / right symmetry determination, the symmetry is determined based on the cross-correlation between the HOG feature vectors in each of the left region and the right region of the window.
(Configuration example 10 according to the embodiment)
In the left / right symmetry determination, the symmetry is determined based on the result of processing the HOG feature quantity in each of the left region and the right region of the window by the discriminator and processing with AND logic.

(実施形態に係る構成例11)
前記左右対称性の判別では、(実施形態に係る構成例3)〜(実施形態に係る構成例10)のうちの1つまたは2つ以上の組み合わせで、対称性を判別する。
(実施形態に係る構成例12)
前記識別器は、Boosting等の統計的学習により作られる。
(実施形態に係る構成例13)
前記識別器は、AdaBoostまたはReal AdaBoostを用いる。
(実施形態に係る構成例14)
以上において、左右対称性の代わりに、または、左右対称性とともに、上下対称性の判別を行う。
(Configuration Example 11 according to Embodiment)
In the determination of the left-right symmetry, the symmetry is determined by one or a combination of two or more of (Configuration Example 3 according to Embodiment) to (Configuration Example 10 according to Embodiment).
(Configuration example 12 according to the embodiment)
The discriminator is created by statistical learning such as Boosting.
(Configuration Example 13 according to Embodiment)
The discriminator uses AdaBoost or Real AdaBoost.
(Configuration Example 14 according to Embodiment)
In the above, the vertical symmetry is determined instead of the left / right symmetry or together with the left / right symmetry.

以上のように、実施形態(第1実施形態〜第5実施形態)に示される画像処理システムにおける画像認識装置(実施形態では、カメラECU1)の物体認識部13、13aによると、左右対称性(または、上下対称性)判定処理により、目標物体の認識性能を向上させることができる。
また、実施形態では、パターン認識後のクラスタリング処理の中で、演算処理の負荷を極力抑えた左右(または、上下)対称性判別処理を施すことが可能である。
As described above, according to the object recognition units 13 and 13a of the image recognition apparatus (camera ECU 1 in the embodiment) in the image processing system shown in the embodiment (the first to fifth embodiments), left-right symmetry ( Alternatively, the recognition performance of the target object can be improved by the vertical symmetry) determination process.
Further, in the embodiment, in the clustering process after pattern recognition, it is possible to perform a left / right (or vertical) symmetry determination process that suppresses the load of the calculation process as much as possible.

本実施形態に係る物体認識部13、13aによると、例えば、認識性能を向上した上で、車載用の装置に実装(組み込み)することができる程度に十分な演算処理速度が得られるため、1つの装置で、車間距離制御装置(ACC)や前方車両衝突警報装置(FCW)や衝突回避装置などの適用が可能となる効果を有する。
本実施形態では、ターゲットとする物体の認識に好適な装置や、方法や、これらに用いるコンピュータプログラムなどを提供することができる。
According to the object recognition units 13 and 13a according to the present embodiment, for example, since the recognition performance is improved, a calculation processing speed sufficient to be mounted (embedded) in a vehicle-mounted device can be obtained. One device has an effect that the inter-vehicle distance control device (ACC), the forward vehicle collision warning device (FCW), the collision avoidance device, and the like can be applied.
In this embodiment, it is possible to provide an apparatus, a method, a computer program used for these, and the like suitable for recognizing a target object.

ここで、実施形態では、目標物体として、車両を用いる場合を示したが、他の構成例として、一部の道路標識などのように左右対称性(または、上下対称性)がある物体を用いることも可能である。または、左右対称性と上下対称性との両方を有する物体を目標物体として用いることも可能である。   Here, in the embodiment, a case where a vehicle is used as the target object has been described. However, as another configuration example, an object having left-right symmetry (or vertical symmetry) such as some road signs is used. It is also possible. Alternatively, an object having both left-right symmetry and vertical symmetry can be used as the target object.

[本発明に係る構成例の説明]
以下で、(本発明に係る構成例1)〜(本発明に係る構成例5)を示す。
(本発明に係る構成例1)
画像を取得する画像取得部(実施形態では、画像取得部12)と、前記画像取得部により取得された画像に設定されるウィンドウ(実施形態では、ラスタスキャンにおけるウィンドウ)について、あらかじめ定められた目標の物体(実施形態では、車両)を捉えるウィンドウを決定する識別(実施形態では、カスケード型識別器による識別)を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする(例えば、棄却する)対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する物体認識部(実施形態では、物体認識部13、13a)と、を備えることを特徴とする画像認識装置(実施形態では、カメラECU1)である。
[Description of Configuration Example According to the Present Invention]
Hereinafter, (Configuration Example 1 according to the present invention) to (Configuration Example 5 according to the present invention) will be described.
(Configuration example 1 according to the present invention)
An image acquisition unit (in the embodiment, the image acquisition unit 12) that acquires an image, and a window (in the embodiment, a window in raster scanning) that is set for the image acquired by the image acquisition unit, a predetermined target is set. And a process for performing identification (identification by a cascade classifier in the embodiment) for determining a window for capturing the object (vehicle in the embodiment) and one or both of predetermined left-right symmetry and vertical symmetry For the object recognition unit (in the embodiment, including a symmetry determination that rejects (for example, rejects) a window determined to have no symmetry, and performs clustering of the determined windows. An object recognition unit (13, 13a), and an image recognition device (in the embodiment, a camera ECU 1). It is.

ここで、左右対称性と上下対称性の両方を判定する構成では、例えば、左右対称性が無い場合に(上下対称性の有無にかかわらずに)ウィンドウを不採用とする態様、上下対称性が無い場合に(左右対称性の有無にかかわらずに)ウィンドウを不採用とする態様、または、左右対称性が無く且つ上下対称性が無い場合にウィンドウを不採用とする態様を用いることができる。   Here, in the configuration for determining both left-right symmetry and up-down symmetry, for example, when there is no left-right symmetry (regardless of the presence or absence of up-down symmetry), the window is not adopted, and the up-down symmetry is A mode in which a window is not adopted (regardless of whether there is left-right symmetry) or a mode in which a window is not adopted when there is no left-right symmetry and no vertical symmetry can be used.

(本発明に係る構成例2)
前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴ベクトルの間の距離に基づいて、対称性があるか否かを判定する、ことを特徴とする(本発明に係る構成例1)に記載の画像認識装置である(実施形態では、図7または図9に示される手法a1の処理)。
(Configuration example 2 according to the present invention)
In the symmetry determination, the object recognition unit determines whether or not there is symmetry based on a distance between feature vectors in each of two symmetry regions in the window (the present invention). (In the embodiment, the processing of the method a1 shown in FIG. 7 or FIG. 9).

(本発明に係る構成例3)
前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴ベクトルの間の相互相関に基づいて、対称性があるか否かを判定する、ことを特徴とする(本発明に係る構成例1)または(本発明に係る構成例2)に記載の画像認識装置である(実施形態では、図7または図9に示される手法a2の処理)。
(Configuration example 3 according to the present invention)
In the symmetry determination, the object recognition unit determines whether or not there is symmetry based on a cross-correlation between feature vectors in each of two symmetry regions in a window (this book) The image recognition apparatus according to Configuration Example 1) or Configuration Example 2 according to the present invention (in the embodiment, the process of the method a2 illustrated in FIG. 7 or FIG. 9).

(本発明に係る構成例4)
前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴量を識別し、これら2つの識別結果をAND論理で判定した結果に基づいて、対称性があるか否かを判定する、ことを特徴とする(本発明に係る構成例1)から(本発明に係る構成例3)のいずれか1つに記載の画像認識装置である(実施形態では、図7または図9に示される手法bの処理)。
(Configuration example 4 according to the present invention)
In the symmetry determination, the object recognition unit identifies feature quantities in each of two symmetric areas in the window, and determines whether or not there is symmetry based on a result of determining these two identification results by AND logic. The image recognition apparatus according to any one of (Configuration Example 1 according to the present invention) to (Configuration Example 3 according to the present invention) is characterized in that (in the embodiment, FIG. 7 or FIG. Process of method b shown in 9).

(本発明に係る構成例5)
前記物体認識部は、特徴量として、勾配方向矩形特徴量またはHOG特徴量を用いており、ウィンドウにおける2つの対称領域として、互いに対称となる方向の勾配量の領域を用いる、ことを特徴とする(本発明に係る構成例1)から(本発明に係る構成例4)のいずれか1つに記載の画像認識装置である(実施形態では、図6、図8、図20に示される互いに対象となる方向)。
(Configuration example 5 according to the present invention)
The object recognizing unit uses a gradient direction rectangular feature value or a HOG feature value as a feature value, and uses a gradient amount region in a symmetric direction as two symmetric regions in the window. The image recognition apparatus according to any one of (Configuration Example 1 according to the present invention) to (Configuration Example 4 according to the present invention) (in the embodiment, the objects shown in FIGS. 6, 8, and 20 are mutually targeted) Direction).

(本発明に係る構成例6)
前記物体認識部は、前記対称性判定として、左右対称性について対称性が無いと判定したウィンドウを上下対称性の有無にかかわらず不採用とし、かつ、左右対称性があっても上下対称性について対称性があると判定したウィンドウを不採用とし、一方、左右対称性がありかつ上下対称性が無いと判定したウィンドウを採用する対称性判定を行う、ことを特徴とする(本発明に係る構成例1)から(本発明に係る構成例5)のいずれか1つに記載の画像認識装置である(第5実施形態を参照。)。
(Configuration example 6 according to the present invention)
The object recognizing unit, as the symmetry determination, rejects the window determined to have no symmetry with respect to the left-right symmetry regardless of the presence or absence of the vertical symmetry, and with respect to the vertical symmetry even if there is left-right symmetry. A window that is determined to be symmetric is not adopted, while a symmetry determination that uses a window that is determined to have left-right symmetry and no vertical symmetry is performed (configuration according to the present invention) The image recognition device according to any one of Example 1) to (Configuration Example 5 according to the present invention) (see the fifth embodiment).

[以上の実施形態についてのまとめ]
ここで、以上の実施形態では、図1(A)に示される物体認識部13または図1(B)に示される物体認識部13aを含む装置やシステムを車載用として車両に設ける構成を示したが、他の例として、他の任意の移動体に設けることも可能であり、あるいは、移動体以外のものに設けることも可能である。
また、以上の実施形態では、目標物体として、車両の背面を具体例として説明したが、例えば、車両の側面、2輪車、歩行者などや、あるいは、車室内の乗員の認識や顔の認識などのように、他の目標物体を認識する場合に適用することも可能であり、さらに、車両以外に関連する物体を認識する場合に適用することも可能である。
[Summary of the above embodiments]
Here, in the above embodiment, the structure which provides the vehicle and the apparatus and system containing the object recognition part 13 shown by FIG. 1 (A) or the object recognition part 13a shown by FIG. 1 (B) was shown. However, as another example, it can be provided in any other moving body, or can be provided in other than the moving body.
In the above embodiment, the back of the vehicle has been described as a specific example of the target object. For example, the side of the vehicle, two-wheeled vehicle, pedestrian, etc. As described above, the present invention can be applied when recognizing other target objects, and can also be applied when recognizing related objects other than the vehicle.

また、勾配方向矩形特徴量について、以上の実施形態では、勾配方向毎の積分画像による積分勾配画像(インテグラルヒストグラム)を用いて勾配方向矩形特徴量を作成する手法を例として示したが、必ずしも積分勾配画像(インテグラルヒストグラム)が用いられなくてもよく、他の構成例として、セル単位で1画素(1pixel)毎に方向を投票するように処理する手法などのように、他の手法が用いられてもよい。   In addition, regarding the gradient direction rectangular feature amount, in the above embodiment, the method of creating the gradient direction rectangular feature amount using the integral gradient image (integral histogram) by the integral image for each gradient direction has been shown as an example. An integral gradient image (integral histogram) may not be used. As another configuration example, other methods such as a method of voting a direction for each pixel (1 pixel) in units of cells are available. May be used.

なお、図1(A)や図1(B)などにおける任意の構成部(例えば、物体認識部13、13aなど)により行われる処理の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、処理を行ってもよい。ここで言う「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは、表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことを言う。さらに、「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM(Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。   It should be noted that a program for realizing the function of processing performed by an arbitrary constituent unit (for example, the object recognition unit 13, 13a, etc.) in FIG. 1A or FIG. Processing may be performed by recording, reading the program recorded on the recording medium into a computer system, and executing the program. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a portable medium such as a CD-ROM, and a hard disk incorporated in a computer system. say. Further, the “computer-readable recording medium” refers to a volatile memory (RAM (Random) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. (Access Memory)) and the like that hold a program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことを言う。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

また、上記に限られず、マイクロコンピュータのほか、例えば、FPGA、あるいは、DSPなどのデバイスを用いて、図1(A)や図1(B)などにおける任意の構成部により行われる処理を実現することも可能である。   Further, the present invention is not limited to the above, and the processing performed by an arbitrary component in FIGS. 1A and 1B is realized using a device such as an FPGA or a DSP in addition to the microcomputer. It is also possible.

以上、本発明の各実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
なお、以上に示した実施形態(第1実施形態〜第5実施形態)のうちの2つ以上が組み合わされて実施されてもよい。
As mentioned above, although each embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.
Note that two or more of the embodiments described above (first to fifth embodiments) may be combined and implemented.

1…カメラECU、2…警報装置、3…ACC−ECU、4…衝突回避制御−ECU、11…カメラ、12…画像取得部、13、13a…物体認識部、14…制御部、21…FPGA(または、DSP)、22…マイクロコンピュータ、23…メモリ、31…第1の認識部、32…第2の認識部、101〜103、411〜412、611〜612…識別器、201…画像領域、211、221、231、241、311〜313、321…ウィンドウ、301、501…平均勾配画像、311−0〜311−7、511−0〜511−7、1201、1205、1341−0〜1341−(N−1)、1351−0〜1351−(N−1)、1361−0〜1361−(N−1)、…画像、401、601…左領域の特徴ベクトルの情報、402、602…右領域の特徴ベクトルの情報、421、621…AND回路、1202、1311、1312、1321、1322、1331…勾配強度画像、1203、1206、1208−0〜1208−7…積分勾配画像、1204…ラスタスキャン領域、1207…勾配方向矩形特徴量、1209…減算器、1210−0〜1210−7…処理、1301…単矩形 DESCRIPTION OF SYMBOLS 1 ... Camera ECU, 2 ... Alarm apparatus, 3 ... ACC-ECU, 4 ... Collision avoidance control-ECU, 11 ... Camera, 12 ... Image acquisition part, 13, 13a ... Object recognition part, 14 ... Control part, 21 ... FPGA (Or DSP), 22 ... microcomputer, 23 ... memory, 31 ... first recognition unit, 32 ... second recognition unit, 101-103, 411-412, 611-612 ... identifier, 201 ... image region , 211, 221, 231, 241, 311-313, 321... Window, 301, 501..., Average gradient image, 311-0 to 311-7, 511-0 to 511-7, 1201, 1205, 1341-0 to 1341. -(N-1), 1351-0 to 1351- (N-1), 1361-0 to 1361- (N-1), ... image, 401, 601 ... information on the feature vector of the left region, 02, 602... Right region feature vector information, 421, 621... AND circuit, 1202, 1311, 1312, 1321, 1322, 1331... Gradient intensity image, 1203, 1206, 1208-0 to 1208-7. 1204: Raster scan area, 1207 ... Rectangle direction rectangular feature, 1209 ... Subtractor, 1210-0 to 1210-7 ... Processing, 1301 ... Single rectangle

Claims (8)

画像を取得する画像取得部と、
前記画像取得部により取得された画像に設定されるウィンドウについて、あらかじめ定められた目標の物体を捉えるウィンドウを決定する識別を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する物体認識部と、
を備えることを特徴とする画像認識装置。
An image acquisition unit for acquiring images;
For the window set in the image acquired by the image acquisition unit, a process for identifying to determine a window that captures a predetermined target object, and one of predetermined left-right symmetry or vertical symmetry Or, for both, the object recognition unit for performing the process of clustering the determined windows, including symmetry determination that rejects the window determined to have no symmetry,
An image recognition apparatus comprising:
前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴ベクトルの間の距離に基づいて、対称性があるか否かを判定する、
ことを特徴とする請求項1に記載の画像認識装置。
In the symmetry determination, the object recognition unit determines whether or not there is symmetry based on a distance between feature vectors in each of two symmetry regions in the window.
The image recognition apparatus according to claim 1.
前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴ベクトルの間の相互相関に基づいて、対称性があるか否かを判定する、
ことを特徴とする請求項1または請求項2に記載の画像認識装置。
In the symmetry determination, the object recognition unit determines whether or not there is symmetry based on a cross-correlation between feature vectors in each of two symmetry regions in the window.
The image recognition apparatus according to claim 1, wherein the image recognition apparatus is an image recognition apparatus.
前記物体認識部は、前記対称性判定において、ウィンドウにおける2つの対称領域のそれぞれにおける特徴量を識別し、これら2つの識別結果をAND論理で判定した結果に基づいて、対称性があるか否かを判定する、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像認識装置。
In the symmetry determination, the object recognition unit identifies feature quantities in each of two symmetric areas in the window, and determines whether or not there is symmetry based on a result of determining these two identification results by AND logic. Determine
The image recognition apparatus according to claim 1, wherein the image recognition apparatus is an image recognition apparatus.
前記物体認識部は、特徴量として、勾配方向矩形特徴量またはHOG特徴量を用いており、
ウィンドウにおける2つの対称領域として、互いに対称となる方向の勾配量の領域を用いる、
ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像認識装置。
The object recognition unit uses a gradient direction rectangular feature amount or a HOG feature amount as a feature amount,
As the two symmetric regions in the window, a region having a gradient amount in a symmetric direction is used.
The image recognition apparatus according to claim 1, wherein the image recognition apparatus is an image recognition apparatus.
前記物体認識部は、前記対称性判定として、左右対称性について対称性が無いと判定したウィンドウを上下対称性の有無にかかわらず不採用とし、かつ、左右対称性があっても上下対称性について対称性があると判定したウィンドウを不採用とし、一方、左右対称性がありかつ上下対称性が無いと判定したウィンドウを採用する対称性判定を行う、
ことを特徴とする請求項1から請求項5のいずれか1項に記載の画像認識装置。
The object recognizing unit, as the symmetry determination, rejects the window determined to have no symmetry with respect to the left-right symmetry regardless of the presence or absence of the vertical symmetry, and with respect to the vertical symmetry even if there is left-right symmetry. Do not adopt the window determined to be symmetric, and perform symmetry determination that adopts the window determined to have left-right symmetry and no vertical symmetry.
The image recognition apparatus according to claim 1, wherein the image recognition apparatus is an image recognition apparatus.
画像取得部が、画像を取得し、
物体認識部が、前記画像取得部により取得された画像に設定されるウィンドウについて、あらかじめ定められた目標の物体を捉えるウィンドウを決定する識別を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する、
ことを特徴とする画像認識方法。
The image acquisition unit acquires the image,
A process in which the object recognition unit performs identification for determining a window that captures a predetermined target object for a window set in the image acquired by the image acquisition unit, and a predetermined left-right symmetry or vertical symmetry Performing a process of clustering the determined windows, including a symmetry determination that rejects a window determined to have no symmetry for one or both of the sexes,
An image recognition method characterized by the above.
画像取得部が、画像を取得する手順と、
物体認識部が、前記画像取得部により取得された画像に設定されるウィンドウについて、あらかじめ定められた目標の物体を捉えるウィンドウを決定する識別を行う処理と、あらかじめ定められた左右対称性または上下対称性のうちの一方または両方について、対称性が無いと判定したウィンドウを不採用とする対称性判定を含んで、前記決定されたウィンドウをクラスタリングする処理と、を実行する手順と、
をコンピュータに実行させるための画像認識プログラム。
A procedure for an image acquisition unit to acquire an image;
A process in which the object recognition unit performs identification for determining a window that captures a predetermined target object for a window set in the image acquired by the image acquisition unit, and a predetermined left-right symmetry or vertical symmetry A process of clustering the determined windows, including a symmetry determination that rejects a window that has been determined to have no symmetry for one or both of the characteristics; and
Recognition program for causing a computer to execute.
JP2012126132A 2012-06-01 2012-06-01 Image recognition device, image recognition method and image recognition program Pending JP2013250868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012126132A JP2013250868A (en) 2012-06-01 2012-06-01 Image recognition device, image recognition method and image recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012126132A JP2013250868A (en) 2012-06-01 2012-06-01 Image recognition device, image recognition method and image recognition program

Publications (1)

Publication Number Publication Date
JP2013250868A true JP2013250868A (en) 2013-12-12

Family

ID=49849457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012126132A Pending JP2013250868A (en) 2012-06-01 2012-06-01 Image recognition device, image recognition method and image recognition program

Country Status (1)

Country Link
JP (1) JP2013250868A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016170965A1 (en) * 2015-04-20 2016-10-27 株式会社日立製作所 Object detection method and image search system
KR20200075094A (en) * 2018-12-10 2020-06-26 울산과학기술원 Apparatus and method for generating object classifier

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016170965A1 (en) * 2015-04-20 2016-10-27 株式会社日立製作所 Object detection method and image search system
JP2016206837A (en) * 2015-04-20 2016-12-08 株式会社日立製作所 Object detection method and image search system
CN107209942A (en) * 2015-04-20 2017-09-26 株式会社日立制作所 Method for checking object and image indexing system
US10373014B2 (en) 2015-04-20 2019-08-06 Hitachi, Ltd. Object detection method and image search system
KR20200075094A (en) * 2018-12-10 2020-06-26 울산과학기술원 Apparatus and method for generating object classifier
KR102180054B1 (en) 2018-12-10 2020-11-17 울산과학기술원 Apparatus and method for generating object classifier

Similar Documents

Publication Publication Date Title
e Silva et al. Helmet detection on motorcyclists using image descriptors and classifiers
Xu et al. Detection of sudden pedestrian crossings for driving assistance systems
JP5950441B2 (en) Image recognition apparatus, image recognition method, and image recognition program
US20130287251A1 (en) Image recognition device, image recognition method, and image recognition program
US8836812B2 (en) Image processing device, image processing method, and image processing program
Kuang et al. Feature selection based on tensor decomposition and object proposal for night-time multiclass vehicle detection
US10824881B2 (en) Device and method for object recognition of an input image for a vehicle
Zhou et al. Vehicle classification using transferable deep neural network features
JP2019021317A (en) Driver support system and guard rail detection method
KR101268520B1 (en) The apparatus and method for recognizing image
Kovačić et al. Computer vision systems in road vehicles: a review
Rajaram et al. Looking at pedestrians at different scales: A multiresolution approach and evaluations
JP2013164643A (en) Image recognition device, image recognition method, and image recognition program
Razzok et al. A new pedestrian recognition system based on edge detection and different census transform features under weather conditions
Ali et al. On-road vehicle detection using support vector machine and decision tree classifications
Webster et al. Improved raindrop detection using combined shape and saliency descriptors with scene context isolation
Vasuki et al. Pedestrian detection for driver assistance systems
JP2013250868A (en) Image recognition device, image recognition method and image recognition program
Kankaria et al. Alert system for drivers based on traffic signs, lights and pedestrian detection
US9141865B2 (en) Fast single-pass interest operator for text and object detection
Wen et al. Improved Haar wavelet feature extraction approaches for vehicle detection
Zakaria et al. A novel vehicle detection system
Jiao et al. A robust multi-class traffic sign detection and classification system using asymmetric and symmetric features
KR101169340B1 (en) Method and System for Recognizing an Object in an Image Processing System
JP2013250869A (en) Image recognition device, image recognition method and image recognition program