JP2005346287A - Image recognizing method and apparatus - Google Patents

Image recognizing method and apparatus Download PDF

Info

Publication number
JP2005346287A
JP2005346287A JP2004163541A JP2004163541A JP2005346287A JP 2005346287 A JP2005346287 A JP 2005346287A JP 2004163541 A JP2004163541 A JP 2004163541A JP 2004163541 A JP2004163541 A JP 2004163541A JP 2005346287 A JP2005346287 A JP 2005346287A
Authority
JP
Japan
Prior art keywords
image
reference data
sharpness
image recognition
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004163541A
Other languages
Japanese (ja)
Inventor
Takeshi Kawashima
毅 川島
Takafumi Ito
隆文 伊藤
Shigeru Okuma
繁 大熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004163541A priority Critical patent/JP2005346287A/en
Publication of JP2005346287A publication Critical patent/JP2005346287A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognizing method and apparatus for stably recognizing an object to be recognized independently of a change in a distance up to the object to be recognized. <P>SOLUTION: The image recognizing apparatus 3 divides image data expressing an image photographed by a camera 5 into a plurality of partial area images and performs image recognition in each partial area image. Namely visibility indicating the degree of clearness of each partial area image is calculated at first. Then a feature value expressing the features of respective pixels constituting the partial area image are extracted and feature data expressing the distribution of the featured values are generated. Then reference data expressing the distribution of featured values corresponding to the calculated visibility are extracted from a reference data group 17a, the extracted reference data are compared with the generated feature data and whether a prescribed object is included in the partial area image or not is decided on the basis of the compared result. Since optimum reference data can be adopted in accordance with the visibility, the prescribed object can be stably recognized even when a distance up to the object is changed. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、所定の対象物を認識する画像認識方法および装置に関する。   The present invention relates to an image recognition method and apparatus for recognizing a predetermined object.

近年、自動車における安全運転支援やヒューマンインターフェースを実現するために、画像認識が重要となってきている。
このような画像認識に関する技術として、認識対象(例えば、顔)を、部品(例えば、目,鼻,口など)に分解して、その部品毎に認識を行うことで、形状や色の変化に対して、認識精度を向上させる技術が開示されている(例えば、特許文献1参照。)。
特開平11−283036号公報
In recent years, image recognition has become important in order to realize safe driving support and human interface in automobiles.
As a technique related to such image recognition, a recognition target (for example, a face) is decomposed into parts (for example, eyes, nose, mouth, etc.), and recognition is performed for each part. On the other hand, a technique for improving the recognition accuracy is disclosed (for example, see Patent Document 1).
Japanese Patent Laid-Open No. 11-283036

ところで、上記特許文献1の技術では、画像認識による認識対象を顔に限定しているために、認識対象物までの距離は数メートル以内と比較的小さい。即ち、認識対象物までの距離の変化に対して認識対象物の見え方はほとんど変化しない。つまり、距離による見え方の変化を考慮する必要がなく、安定して認識対象物(顔)を認識することができる。   By the way, in the technique of the said patent document 1, since the recognition target by image recognition is limited to the face, the distance to a recognition target object is comparatively small with less than several meters. That is, the appearance of the recognition object hardly changes with the change in the distance to the recognition object. That is, it is not necessary to consider the change in appearance due to distance, and the recognition target (face) can be recognized stably.

しかし、車両認識に適用する場合には、自車両から前方100メートル程度までの間に存在する車両(前方車両)の認識が望まれる。即ち、認識対象物(前方車両)までの距離の変化が大きいため、距離に応じて認識対象物(前方車両)の見え方が大きく変化する。このため、この見え方の変化に応じて、認識対象物(前方車両)を認識する精度が大きく変化するという問題が生じる。   However, in the case of application to vehicle recognition, it is desired to recognize a vehicle (front vehicle) existing between about 100 meters ahead of the host vehicle. That is, since the change in the distance to the recognition target object (front vehicle) is large, the appearance of the recognition target object (front vehicle) changes greatly according to the distance. For this reason, the problem that the precision which recognizes a recognition target object (front vehicle) changes greatly according to this change in appearance.

本発明は、こうした問題に鑑みなされたものであり、認識対象物までの距離の変化に関わらず安定して認識対象物を認識する画像認識方法および装置を提供することを目的とする。   The present invention has been made in view of these problems, and an object of the present invention is to provide an image recognition method and apparatus for stably recognizing a recognition object regardless of a change in distance to the recognition object.

上記目的を達成するためになされた第1発明の画像認識方法では、まず、第1ステップにおいて、部分領域画像の鮮明さの度合いを示す鮮明度を算出する。続く第2ステップにおいて、部分領域画像から、この部分領域画像を構成する各画素の特徴を表す特徴量を抽出し、この特徴量の分布を表す特徴データを生成する。更に第3ステップにおいて、予め設定された所定対象物が示され且つ所定対象物の鮮明度が互いに異なる複数の基準画像のそれぞれについて特徴量の分布を表す基準データを予め生成しておくことにより用意された基準データ群の中から、第1ステップにより算出された鮮明度に対応した基準データを選択し、この選択した基準データと、第2ステップにより生成された特徴データとを比較し、この比較結果に基づいて、部分領域画像中に所定対象物が示されているか否かを判定する。   In the image recognition method of the first invention made to achieve the above object, first, in the first step, the sharpness indicating the sharpness of the partial area image is calculated. In the subsequent second step, feature amounts representing the features of each pixel constituting the partial region image are extracted from the partial region image, and feature data representing the distribution of the feature amount is generated. Further, in the third step, the reference data representing the distribution of the feature amount is generated in advance for each of a plurality of reference images in which the predetermined target is set in advance and the sharpness of the predetermined target is different from each other. The reference data corresponding to the sharpness calculated in the first step is selected from the set of reference data groups, the selected reference data is compared with the feature data generated in the second step, and this comparison is performed. Based on the result, it is determined whether or not the predetermined object is shown in the partial area image.

即ち、所定対象物を認識するための、特徴データと基準データとの比較において、鮮明度に応じて最適な基準データを採用することができる。このため、第1発明の画像認識方法によれば、所定対象物までの距離が変化しても、安定して対象物を認識することができる。なぜならば、所定対象物までの距離を表す指標として、鮮明度を用いることができるからである。これは、人間が物体(例えば、車両)を視覚で認識する場合を例にすると、遠くに位置する程その車両が不鮮明に見えて、その物体が車両であるか否かの判断が困難になることからも明らかである。   That is, in the comparison between the feature data and the reference data for recognizing the predetermined object, the optimum reference data can be adopted according to the sharpness. For this reason, according to the image recognition method of the first invention, the object can be recognized stably even if the distance to the predetermined object changes. This is because the sharpness can be used as an index representing the distance to the predetermined object. In this case, for example, when a person visually recognizes an object (for example, a vehicle), the farther the vehicle is located, the more unclear the vehicle is, and it is difficult to determine whether the object is a vehicle. It is clear from that.

但し、天候(晴れ,曇り,雨など)や時刻(昼,夕,夜など)等といった、入力画像が撮影される撮影環境によっても鮮明度は変化することがあるため、同じ鮮明度であっても、撮影環境に応じて異なる基準データを選択することが望ましい。   However, the sharpness may vary depending on the shooting environment in which the input image is taken, such as the weather (clear, cloudy, rainy, etc.) and the time (daytime, evening, night, etc.). However, it is desirable to select different reference data depending on the shooting environment.

次に第2発明の画像認識装置では、予め設定された所定対象物が示され且つ所定対象物の鮮明度が互いに異なる複数の基準画像のそれぞれについて特徴量の分布を表す基準データを予め生成しておくことにより用意された基準データ群を記憶する第1記憶手段を備え、鮮明度算出手段は、部分領域画像の鮮明さの度合いを示す鮮明度を算出する。また、特徴量抽出手段は、部分領域画像から、部分領域画像を構成する各画素の特徴を表す特徴量を抽出し、この特徴量の分布を表す特徴データを生成する。そして、第1判定手段は、鮮明度算出手段により算出された鮮明度の値に基づいて、鮮明度に対応した基準データを第1記憶手段から抽出し、この抽出した基準データと、特徴量抽出手段により抽出された特徴データとを比較し、この比較結果に基づいて、部分領域画像中に前記所定対象物が示されているか否かを判定する。   Next, in the image recognition apparatus according to the second aspect of the present invention, reference data representing a distribution of feature amounts is generated in advance for each of a plurality of reference images showing a predetermined object set in advance and having different sharpness of the predetermined object. The first storage means for storing the reference data group prepared by the setting is provided, and the sharpness calculation means calculates the sharpness indicating the degree of sharpness of the partial area image. Further, the feature amount extraction means extracts a feature amount representing the feature of each pixel constituting the partial region image from the partial region image, and generates feature data representing the distribution of the feature amount. The first determination means extracts the reference data corresponding to the sharpness from the first storage means based on the sharpness value calculated by the sharpness calculation means, and extracts the extracted reference data and feature amount The feature data extracted by the means is compared, and based on the comparison result, it is determined whether or not the predetermined object is shown in the partial region image.

つまり、第2発明の画像認識装置は、第1発明の方法を実現する装置であり、従って第1発明と同様の効果を得ることができる。
なお、特徴量としては、例えば色情報を用いることができる。この色情報としては、例えば周知のYUV色空間,RGB色空間で表されたものがある。
That is, the image recognition apparatus according to the second invention is an apparatus that implements the method according to the first invention, and thus can obtain the same effects as the first invention.
For example, color information can be used as the feature amount. As this color information, for example, there is information expressed in a well-known YUV color space or RGB color space.

また、鮮明度算出手段は、部分領域画像に対して2次元フーリエ変換し、この変換により得られる空間周波数分布に基づいて鮮明度を算出するように構成すればよい。
また、鮮明度算出手段は、部分領域画像に対してエッジ強調処理を行い、エッジ強調処理された画像に含まれるエッジの量に基づいて鮮明度を算出するように構成してもよい。
The sharpness calculation means may be configured to perform a two-dimensional Fourier transform on the partial region image and calculate the sharpness based on the spatial frequency distribution obtained by this conversion.
The sharpness calculation means may be configured to perform edge enhancement processing on the partial region image and calculate the sharpness based on the amount of edges included in the image subjected to the edge enhancement processing.

次に第3発明の画像認識装置では、予め設定された所定対象物が示され且つ所定対象物の物体距離が互いに異なる複数の基準画像のそれぞれについて特徴量の分布を表す基準データを予め生成しておくことにより用意された基準データ群を記憶する第2記憶手段を備え、距離測定手段は、部分領域画像の中に示される物体と当該画像認識装置との間の距離である物体距離を測定する。また、特徴量抽出手段は、部分領域画像から、この部分領域画像を構成する各画素の特徴を表す特徴量を抽出し、この特徴量の分布を表す特徴データを生成する。そして、第2判定手段は、距離測定手段により測定された物体距離に基づいて、物体距離に対応した基準データを第2記憶手段から抽出し、この抽出した基準データと、特徴量抽出手段により抽出された特徴データとを比較し、この比較結果に基づいて、部分領域画像中に前記所定対象物が示されているか否かを判定する。   Next, in the image recognition device according to the third aspect of the invention, reference data representing a distribution of feature amounts is generated in advance for each of a plurality of reference images showing a predetermined object set in advance and having different object distances of the predetermined object. A second storage unit that stores a reference data group prepared by the measurement, and the distance measurement unit measures an object distance, which is a distance between the object indicated in the partial area image and the image recognition apparatus. To do. Further, the feature quantity extraction unit extracts a feature quantity representing the feature of each pixel constituting the partial area image from the partial area image, and generates feature data representing the distribution of the feature quantity. The second determination means extracts the reference data corresponding to the object distance from the second storage means based on the object distance measured by the distance measurement means, and extracts the extracted reference data and the feature quantity extraction means. The feature data is compared, and based on the comparison result, it is determined whether or not the predetermined object is shown in the partial region image.

即ち、所定対象物を認識するための、特徴データと基準データとの比較において、物体距離に応じて最適な基準データを採用することができる。このため、第3発明の画像認識装置によれば、所定対象物までの距離が変化しても、安定して対象物を認識することができる。   That is, in the comparison between the feature data and the reference data for recognizing the predetermined object, it is possible to adopt the optimum reference data according to the object distance. For this reason, according to the image recognition device of the third aspect of the invention, the object can be recognized stably even if the distance to the predetermined object changes.

(第1実施形態)
以下、画像認識装置を利用して構成された画像認識システムを本発明の第1実施形態として説明する。
(First embodiment)
Hereinafter, an image recognition system configured using an image recognition apparatus will be described as a first embodiment of the present invention.

第1実施形態の画像認識システム1は車両に搭載されており、図1に示すように、運転者がフロントウィンドウ越しに見ることができる範囲の前景を撮影し、撮影した画像を表す画像データを生成するカメラ5と、カメラ5によって生成された画像データについて画像認識処理を行う画像認識装置3とから構成されている。   The image recognition system 1 according to the first embodiment is mounted on a vehicle. As shown in FIG. 1, the foreground in a range where the driver can see through the front window is photographed, and image data representing the photographed image is obtained. It comprises a camera 5 to be generated and an image recognition device 3 that performs image recognition processing on image data generated by the camera 5.

画像認識装置3は、所定の処理プログラムに基づいて処理を実行するCPU11と、種々の制御プログラムが格納されたROM13と、種々のデータを格納するRAM15と、CPU11が画像認識処理を行うために利用する基準データ群17aを記憶するデータベース17と、操作者が操作するための操作キー21a及び操作キー21aの操作手順を表示する表示パネル21bからなるユーザインターフェース(以降、ユーザI/Fとする)21と、カメラ5,データベース17及びユーザI/F21が接続され、CPU11及びRAM15との間で信号及びデータの入出力を行う入出力部19とを備えている。   The image recognition device 3 is used for the CPU 11 that performs processing based on a predetermined processing program, the ROM 13 that stores various control programs, the RAM 15 that stores various data, and the CPU 11 that performs image recognition processing. A user interface (hereinafter referred to as a user I / F) 21 comprising a database 17 for storing a reference data group 17a to be operated, an operation key 21a for an operator to operate, and a display panel 21b for displaying an operation procedure of the operation key 21a. Are connected to the camera 5, the database 17, and the user I / F 21, and includes an input / output unit 19 that inputs and outputs signals and data to and from the CPU 11 and the RAM 15.

尚、データベース17は、例えばメモリカードやハードディスク等の書き込み可能な記憶媒体が用いられる。
そして、データベース17には、車種の異なる所定車数N1(本実施形態ではN1=5)の車両のそれぞれについて、図6に示すように、距離を変えて撮影された所定撮影数N2(本実施形態ではN2=6)の画像データ(以降、基準データ作成用画像データと称す)が予め記憶されている(図6では、1台の車両についてのみ詳細に示している)。この基準データ作成用画像データは、画像認識を行うための基準データ群を作成するために利用される。尚、基準データ作成用画像データは、カメラ5で撮影された画像から車領域を矩形で抜き出したもので、抜き出した車画像のサイズが等しくなるように正規化されている。本実施形態では、抜き出した車画像を縦256×横256画素の画像データとなるように正規化を行った。したがって、距離の遠い画像ほど大きく引き伸ばされた画像となる。
The database 17 is a writable storage medium such as a memory card or hard disk.
Then, in the database 17, as shown in FIG. 6, the predetermined number of shots N <b> 2 (this embodiment) taken at different distances for each of the vehicles having a predetermined number N1 (N1 = 5 in this embodiment) of different vehicle types. In the embodiment, N2 = 6) image data (hereinafter referred to as “reference data creation image data”) is stored in advance (only one vehicle is shown in detail in FIG. 6). This reference data creation image data is used to create a reference data group for performing image recognition. Note that the reference data creation image data is obtained by extracting the vehicle area in a rectangular shape from the image taken by the camera 5 and is normalized so that the extracted vehicle images have the same size. In the present embodiment, normalization is performed so that the extracted car image becomes image data of 256 × 256 pixels. Therefore, an image with a larger distance becomes a larger image.

更に、基準データ作成用画像データには、車種と距離に応じて、車種識別番号cと距離識別番号dが付されている。車種識別番号cは、基準データ作成用画像データにおける車種を示す番号であり、1〜5の整数値をとる。また、距離識別番号dは、基準データ作成用画像データにおける撮影距離を示す番号であり、撮影距離が短い順から1,2,・・・,6の整数値をとる。以降、車種識別番号c,距離識別番号dに対応した基準データ作成用画像データを、画像データ(c,d)と称す。   Further, the vehicle type identification number c and the distance identification number d are assigned to the reference data creation image data according to the vehicle type and the distance. The vehicle type identification number c is a number indicating the vehicle type in the reference data creation image data, and takes an integer value of 1 to 5. The distance identification number d is a number indicating the shooting distance in the image data for creating the reference data, and takes an integer value of 1, 2,..., 6 from the shortest shooting distance. Hereinafter, the reference data creation image data corresponding to the vehicle type identification number c and the distance identification number d is referred to as image data (c, d).

また、ユーザI/F21は、操作キー21aに対する所定の操作に基づいて、基準データ群の作成開始を指示する基準データ作成指令をCPU11へ出力するように構成される。   Further, the user I / F 21 is configured to output a reference data creation command for instructing the start of creation of a reference data group to the CPU 11 based on a predetermined operation on the operation key 21a.

このように構成された画像認識装置3において、CPU11は、基準データ群17aを作成する基準データ作成処理と、基準データ群17aに基づいて画像認識を行う画像認識処理とをそれぞれ独立に実行する。なお、ここで車種識別番号とは、基準データ群を生成するために用いるものであって、生成した基準データ群17aを用いて車種の認識を行うものではない。   In the image recognition device 3 configured as described above, the CPU 11 independently executes a reference data creation process for creating the reference data group 17a and an image recognition process for performing image recognition based on the reference data group 17a. Here, the vehicle type identification number is used to generate a reference data group, and does not recognize the vehicle type using the generated reference data group 17a.

まず、基準データ作成処理の手順を、図2及び図3を用いて説明する。図2は基準データ作成処理の前半部分、図3は基準データ作成処理の後半部分を表すフローチャートである。尚、この基準データ作成処理は、車両のイグニッションキーがキーシリンダに挿入され、上記キーがオンに変更された状態である間、繰り返し実行される。   First, the procedure of the reference data creation process will be described with reference to FIGS. FIG. 2 is a flowchart showing the first half of the reference data creation process, and FIG. 3 is a flowchart showing the second half of the reference data creation process. This reference data creation process is repeatedly executed while the vehicle ignition key is inserted into the key cylinder and the key is turned on.

この基準データ作成処理においては、CPU11は、まずS10にて、ユーザI/F21を介して基準データ作成指令の入力があったか否かを判断する。ここで、基準データ作成指令の入力がない場合には(S10:NO)、当該基準データ作成処理を終了する。一方、基準データ作成指令の入力があった場合には(S10:YES)、S20にて、車種識別番号cを表す変数Pc,距離識別番号dを表す変数Pd及びオブジェクト識別番号k(後述)を表す変数Pkを、それぞれ1に設定する。   In this reference data creation process, the CPU 11 first determines whether or not a reference data creation command has been input via the user I / F 21 in S10. If no reference data creation command is input (S10: NO), the reference data creation process is terminated. On the other hand, if a reference data creation command is input (S10: YES), a variable Pc representing the vehicle type identification number c, a variable Pd representing the distance identification number d, and an object identification number k (described later) are obtained in S20. Each representing variable Pk is set to 1.

次にS30にて、変数Pcで示される車種識別番号c,変数Pdで示される距離識別番号dに対応した画像データ(c,d)をデータベース17から取得し、S40にて、S30で取得した画像データ(c,d)の鮮明度を計算する。即ち、画像データ(c,d)に対して、2次元の高速フーリエ変換を行い、この変換により得られる空間周波数分布に基づいて鮮明度を計算する。   Next, in S30, image data (c, d) corresponding to the vehicle type identification number c indicated by the variable Pc and the distance identification number d indicated by the variable Pd is obtained from the database 17, and obtained in S30 at S40. The sharpness of the image data (c, d) is calculated. That is, two-dimensional fast Fourier transform is performed on the image data (c, d), and the sharpness is calculated based on the spatial frequency distribution obtained by the transform.

以下に、鮮明度の具体的な計算方法を図7に基づいて説明する。即ち、例えば画像データ(c,d)として図7(a)に示す画像D1を取得したとすると、この画像D1を示す画像データに対して、2次元の高速フーリエ変換(以降、FFTとも称す。即ち、Fast Fourier Transformの略)を行うことにより、図7(b)に示す空間周波数分布D2が得られる。尚、空間周波数分布D2の横軸は画像D1の横方向における色情報の強度変化、縦軸は縦方向における色情報の強度変化を示している。即ち、空間周波数分布D2において、空間周波数分布D2の中心(即ち、横軸と縦軸との交点)から離れるほど高い空間周波数の成分(高周波成分)が配置される。つまり、中心から離れた位置に分布している成分が多いほど、強度変化が大きい部分が多く、画像が鮮明であることを表す。   Hereinafter, a specific method for calculating the sharpness will be described with reference to FIG. That is, for example, when the image D1 shown in FIG. 7A is acquired as the image data (c, d), the image data indicating the image D1 is also referred to as a two-dimensional fast Fourier transform (hereinafter also referred to as FFT). That is, by performing Fast Fourier Transform), a spatial frequency distribution D2 shown in FIG. 7B is obtained. The horizontal axis of the spatial frequency distribution D2 indicates the change in the intensity of the color information in the horizontal direction of the image D1, and the vertical axis indicates the change in the intensity of the color information in the vertical direction. That is, in the spatial frequency distribution D2, a component having a higher spatial frequency (high frequency component) is arranged away from the center of the spatial frequency distribution D2 (that is, the intersection of the horizontal axis and the vertical axis). In other words, the more components distributed at positions away from the center, the greater the portion where the intensity change is greater, indicating that the image is clearer.

その後、空間周波数分布D2の中心からの距離に対しての空間周波数成分の頻度の分布を求めると、図7(c)に示す頻度分布D3が得られる。尚、頻度分布D3の横軸はFFTの次数である。この次数は、高速フーリエ変換における基本周波数の倍数であり、次数が大きいほど空間周波数が高いことを示す。その後に、この頻度分布D3を正規分布で近似すると正規分布D4が得られる。そして、この正規分布D4の分散値を鮮明度とすることにより、鮮明度が計算される。つまり、鮮明度は、その値が大きいほど高周波成分を多く含んでいることを示している。   Thereafter, when the distribution of the frequency of the spatial frequency component with respect to the distance from the center of the spatial frequency distribution D2 is obtained, the frequency distribution D3 shown in FIG. 7C is obtained. The horizontal axis of the frequency distribution D3 is the FFT order. This order is a multiple of the fundamental frequency in the fast Fourier transform, and the higher the order, the higher the spatial frequency. Thereafter, when this frequency distribution D3 is approximated by a normal distribution, a normal distribution D4 is obtained. Then, the sharpness is calculated by setting the variance value of the normal distribution D4 as the sharpness. That is, the sharpness indicates that the higher the value is, the more high frequency components are included.

次にS50にて、画像データ(c,d)から4つのオブジェクトを抽出する。オブジェクトとは、前方車両において共通して現れる特徴的な領域であり、リアウィンドウ,右テールランプ,左テールランプ及びナンバープレートの4つから構成されている。更に、これら4つのオブジェクトはオブジェクト間で特定の位置関係(以降、特定位置関係と称す)を有している。即ち、車両においては一般的に、リアウィンドウの下方には、右テールランプ及び左テールランプが相対して配置され、更に右テールランプ及び左テールランプの下方にはナンバープレートが配置されている。   Next, in S50, four objects are extracted from the image data (c, d). An object is a characteristic area that appears in common in the preceding vehicle, and is composed of a rear window, a right tail lamp, a left tail lamp, and a license plate. Further, these four objects have a specific positional relationship (hereinafter referred to as a specific positional relationship) between the objects. That is, in a vehicle, generally, a right tail lamp and a left tail lamp are disposed relative to each other below the rear window, and a license plate is disposed below the right tail lamp and the left tail lamp.

つまり、特定位置関係に基づいて、画像D11から、図8(a)に示すように、矩形状のリアウィンドウ・オブジェクトO1,右テールランプ・オブジェクトO2,左テールランプ・オブジェクトO3及びナンバープレート・オブジェクトO4を抽出する。尚、オブジェクト間の特定位置関係に基づいてオブジェクトを抽出する手法は周知であるので(例えば、特許文献1参照。)、説明を省略する。   That is, based on the specific positional relationship, as shown in FIG. 8A, a rectangular rear window object O1, right tail lamp object O2, left tail lamp object O3, and license plate object O4 are obtained from the image D11. Extract. Since a method for extracting an object based on a specific positional relationship between objects is well known (for example, refer to Patent Document 1), description thereof is omitted.

そしてS60にて、S50で抽出したリアウィンドウ・オブジェクトO1,右テールランプ・オブジェクトO2,左テールランプ・オブジェクトO3及びナンバープレート・オブジェクトO4それぞれについて、色情報(YUV)ヒストグラムを算出する。尚、YUVは色を表す形式の一種で周知であるため、説明を省略する。   In S60, a color information (YUV) histogram is calculated for each of the rear window object O1, the right tail lamp object O2, the left tail lamp object O3, and the license plate object O4 extracted in S50. Note that YUV is a type of color representation and is well known, and will not be described.

即ち、オブジェクトを表す画像データに対して、Y,U,Vそれぞれの成分についてのヒストグラム(Yヒストグラム,Uヒストグラム,Vヒストグラム)を算出する。つまり、図8(b)に示すように、横軸をY,U,Vの何れか1つの強度、縦軸を画素数としたヒストグラムが生成される。図8(b)はY,U,Vヒストグラムを示すイメージ図である。尚、Y,U,Vヒストグラム3つをまとめてYUVヒストグラムと称す。そして、生成したヒストグラムをRAM15に記憶する。   That is, histograms (Y histogram, U histogram, V histogram) for each of Y, U, and V components are calculated for image data representing an object. That is, as shown in FIG. 8B, a histogram is generated with the horizontal axis representing any one of Y, U, and V and the vertical axis representing the number of pixels. FIG. 8B is an image diagram showing Y, U, and V histograms. The three Y, U, and V histograms are collectively referred to as a YUV histogram. The generated histogram is stored in the RAM 15.

その後S70にて、距離識別番号dを表す変数Pdの値が所定撮影数N2以上であるか否かを判断する。ここで、距離識別番号dを表す変数Pdの値が所定撮影数N2未満である場合には(S70:NO)、S80にて距離識別番号dを表す変数Pdの値を1加算し、その後S20に移行して上述の処理を繰り返す。一方、距離識別番号dを表す変数Pdの値が所定撮影数N2以上である場合には(S70:YES)、S90に移行する。   Thereafter, in S70, it is determined whether or not the value of the variable Pd representing the distance identification number d is equal to or greater than a predetermined number of images N2. Here, when the value of the variable Pd representing the distance identification number d is less than the predetermined number N2 (S70: NO), the value of the variable Pd representing the distance identification number d is incremented by 1 in S80, and then S20. The above process is repeated after moving to step S2. On the other hand, when the value of the variable Pd representing the distance identification number d is equal to or greater than the predetermined number of shots N2 (S70: YES), the process proceeds to S90.

そしてS90に移行すると、変数Pcで示される車種識別番号cが付された画像データ(c,d)について、オブジェクト毎に、例えば鮮明度m=22,24,26,28,30,32のYUVヒストグラムを、S60で算出したYUVヒストグラムで線形補間することにより求める。即ち、例えば、同一車種で撮影距離が異なる6つの画像の鮮明度、即ち距離識別番号d=1,2,3,4,5,6における鮮明度がそれぞれ、「32.25」,「30.79」,「28.58」,「26.99」,「23.63」,「21.41」であるとすると、例えば鮮明度m=22のYUVヒストグラムを求めるためには、鮮明度21.41のYUVヒストグラムと鮮明度23.63のYUVヒストグラムとで線形補間すればよい。そして、線形補間により求めた鮮明度m=22,24,26,28,30,32のYUVヒストグラムをRAM15に記憶する。なお、車種識別番号c,オブジェクト識別番号k,鮮明度mのYUVヒストグラムを以降、YUVヒストグラム(c,k,m)と表記する(c=1,2,3,4,5、k=1,2,3,4、m=22,24,26,28,30,32)。また、オブジェクト識別番号kはオブジェクトを識別するための番号であり、オブジェクト識別番号k=1,2,3,4はそれぞれ、リアウィンドウ,右テールランプ,左テールランプ,ナンバープレートを示す。   Then, in S90, for the image data (c, d) with the vehicle type identification number c indicated by the variable Pc, for each object, for example, YUV with a definition m = 22, 24, 26, 28, 30, 32. The histogram is obtained by linear interpolation with the YUV histogram calculated in S60. That is, for example, the sharpness of six images with different shooting distances in the same vehicle type, that is, the sharpness at distance identification numbers d = 1, 2, 3, 4, 5, and 6, respectively, is “32.25” and “30. 79 ”,“ 28.58 ”,“ 26.99 ”,“ 23.63 ”,“ 21.41 ”, for example, in order to obtain a YUV histogram with a sharpness m = 22, the sharpness 21. Linear interpolation may be performed with the 41 YUV histogram and the YUV histogram with a sharpness of 23.63. Then, the YUV histogram of the sharpness m = 22, 24, 26, 28, 30, 32 obtained by linear interpolation is stored in the RAM 15. The YUV histogram of the vehicle type identification number c, the object identification number k, and the definition m is hereinafter referred to as a YUV histogram (c, k, m) (c = 1, 2, 3, 4, 5, k = 1, 2, 3, 4, m = 22, 24, 26, 28, 30, 32). The object identification number k is a number for identifying an object, and the object identification numbers k = 1, 2, 3, and 4 indicate a rear window, a right tail lamp, a left tail lamp, and a license plate, respectively.

その後S100にて、車種識別番号cを表す変数Pcの値が所定車数N1以上であるか否かを判断する。ここで、車種識別番号cを表す変数Pcの値が所定車数N1未満である場合には(S100:NO)、S110にて車種識別番号cを表す変数Pcの値を1加算し、その後S20に移行して上述の処理を繰り返す。一方、車種識別番号cを表す変数Pcの値が所定車数N1以上である場合には(S100:YES)、S120に移行する。   Thereafter, in S100, it is determined whether or not the value of the variable Pc representing the vehicle type identification number c is equal to or greater than the predetermined number of vehicles N1. If the value of the variable Pc representing the vehicle type identification number c is less than the predetermined number of vehicles N1 (S100: NO), the value of the variable Pc representing the vehicle type identification number c is incremented by 1 in S110, and then S20. The above process is repeated after moving to step S2. On the other hand, when the value of the variable Pc representing the vehicle type identification number c is equal to or greater than the predetermined number N1 (S100: YES), the process proceeds to S120.

そしてS120に移行すると、同じオブジェクトで且つ同じ鮮明度mであるYUVヒストグラムを全車種について加算する。例えば、リアウィンドウ・オブジェクトO1で鮮明度22のYUVヒストグラムは、車種識別番号c=1〜5毎に1つずつ存在するため、この5つのYUVヒストグラムを加算する。この加算したYUVヒストグラムを以降、統合YUVヒストグラムと称す。つまり、S120の処理により、4つのオブジェクト毎に、鮮明度mに応じて6つの統合YUVヒストグラムが生成される。なお、オブジェクト識別番号k,鮮明度mの統合YUVヒストグラムを以降、統合YUVヒストグラム(k,m)と表記する(k=1,2,3,4、m=22,24,26,28,30,32)。   In S120, YUV histograms having the same object and the same definition m are added for all vehicle types. For example, since there is one YUV histogram of the rear window object O1 with the definition 22 for each vehicle type identification number c = 1 to 5, these five YUV histograms are added. This added YUV histogram is hereinafter referred to as an integrated YUV histogram. That is, by the process of S120, six integrated YUV histograms are generated for each of the four objects according to the definition m. The integrated YUV histogram having the object identification number k and the definition m is hereinafter referred to as an integrated YUV histogram (k, m) (k = 1, 2, 3, 4, m = 22, 24, 26, 28, 30). , 32).

次にS130にて、統合YUVヒストグラムの結果から、3次元の混合ガウス分布(以降、GMMとも称す。即ち、Gaussian Mixtured Modelの略)近似を行い、尤度を計算する。   Next, in S130, a three-dimensional Gaussian distribution (hereinafter also referred to as GMM, that is, abbreviation of Gaussian Mixtured Model) approximation is performed from the result of the integrated YUV histogram, and the likelihood is calculated.

以下に、GMM近似及び尤度の説明を行う。まず、確率密度関数p(x;Θ) が、下記の式(1)に示すように、r 個の確率密度分布p(x; θj)(j=0,1,2…) の重み付き線形結合によってモデル化できるとする。ここでΘは、Θ = (θ1, θ2, …,θr) と表されるパラメータベクトルであり、θj は確率度数分布p(x; θj )のパラメータである。このような分布は混合分布と呼ばれる。   Hereinafter, GMM approximation and likelihood will be described. First, the probability density function p (x; Θ) is a weighted linearity of r probability density distributions p (x; θj) (j = 0, 1, 2,...) As shown in the following equation (1). Suppose that it can be modeled by combining. Here, Θ is a parameter vector expressed as Θ = (θ1, θ2,..., Θr), and θj is a parameter of the probability frequency distribution p (x; θj). Such a distribution is called a mixed distribution.

そして、確率密度分布p(x; θj ) は、下記の式(2)に示すように、平均uj,共分散行列Σj = σj×I のガウス分布で表される。尚、式(2)で表される分布はGMM(Gaussian Mixtured Model)と呼ばれている。   The probability density distribution p (x; θj) is expressed by a Gaussian distribution having an average uj and a covariance matrix Σj = σj × I as shown in the following equation (2). The distribution represented by the equation (2) is called GMM (Gaussian Mixed Model).

また,式(1)中の重み係数ωj は混合パラメータと呼ばれ、下記の式(3)に示す条件を満たす。   Further, the weighting coefficient ωj in the equation (1) is called a mixing parameter and satisfies the condition shown in the following equation (3).

同様に各確率密度分布p(x; θj) は、下記の式(4)に示す条件を満たす。   Similarly, each probability density distribution p (x; θj) satisfies the condition shown in the following equation (4).

推定すべきパラメータは確率密度分布のパラメータΘ と重み係数Ω = (ω1, ω2, ・・・ ωr) となる。混合ガウス分布のパラメータ推定法には周知のEMアルゴリズムを用い、下記の式(5) で表現される尤度(Likelihood) が最大になるように推定を行う。即ち、尤度が最大になる時のパラメータΘ 及び重み係数Ωを算出する。尚、尤度とは対象としている観測データの分布が、ある確率論モデルにどの程度一致しているかを表す尺度である。ここで、n 個のパターンを含む学習パターン集合をX = (x1, x2, ・・・ ,xn) とする。   The parameters to be estimated are the probability density distribution parameter Θ and the weighting coefficient Ω = (ω1, ω2,..., Ωr). For the parameter estimation method of the mixed Gaussian distribution, a well-known EM algorithm is used, and estimation is performed so that the likelihood expressed by the following equation (5) is maximized. That is, the parameter Θ and weighting coefficient Ω when the likelihood is maximized are calculated. Note that the likelihood is a scale representing how much the distribution of the observation data of interest matches a certain probability theory model. Here, a learning pattern set including n patterns is set to X = (x1, x2,..., Xn).

つまり、オブジェクト及び鮮明度mが異なる24個の統合YUVヒストグラムについて、パラメータΘ と重み係数Ωを算出する。そして、このパラメータΘ と重み係数Ωで表されるGMM分布をそれぞれのオブジェクト及び鮮明度における基準分布として、データベース17内の基準データ群17aに記憶する。なお、オブジェクト識別番号k,鮮明度mの基準分布を以降、基準分布(k,m)と表記する(k=1,2,3,4、m=22,24,26,28,30,32)。   That is, the parameter Θ and the weighting coefficient Ω are calculated for 24 integrated YUV histograms with different objects and sharpness m. Then, the GMM distribution represented by the parameter Θ and the weighting coefficient Ω is stored in the reference data group 17a in the database 17 as a reference distribution for each object and definition. The reference distribution of object identification number k and definition m is hereinafter referred to as reference distribution (k, m) (k = 1, 2, 3, 4, m = 22, 24, 26, 28, 30, 32). ).

更にS130では、統合YUVヒストグラム(k,m)の基準分布(k,m)に対する尤度を式(5)に基づいて算出し、データベース17内の基準データ群17aに記憶する。なお、オブジェクト識別番号k,鮮明度mにおける、統合YUVヒストグラム(k,m)の基準分布(k,m)に対する尤度を以降、尤度X(k,m)と表記する(k=1,2,3,4、m=22,24,26,28,30,32)。つまり、S130の処理により、4つのオブジェクト毎に、鮮明度mに応じて6つの基準分布(k,m)及び尤度X(k,m)が算出される。   In S130, the likelihood of the integrated YUV histogram (k, m) for the reference distribution (k, m) is calculated based on the equation (5) and stored in the reference data group 17a in the database 17. The likelihood of the integrated YUV histogram (k, m) with respect to the reference distribution (k, m) at the object identification number k and the definition m is hereinafter referred to as likelihood X (k, m) (k = 1, 2, 3, 4, m = 22, 24, 26, 28, 30, 32). That is, six reference distributions (k, m) and likelihoods X (k, m) are calculated for each of the four objects according to the definition m by the process of S130.

次にS140にて、オブジェクト識別番号kを表す変数Pkを1に、鮮明度mを表す変数Pmを22に設定する。その後S150にて、車種識別番号c=1〜5の5つの車種において、変数Pkで示されるオブジェクト識別番号k,及び変数Pmで示される鮮明度mのYUVヒストグラム(c,k,m)についての基準分布(k,m)に対する尤度を式(5)に基づいて算出する。なお、YUVヒストグラム(c,k,m)についての基準分布(k,m)に対する尤度を以降、尤度Y(c,k,m)と表記する(c=1,2,3,4,5、k=1,2,3,4、m=22,24,26,28,30,32)。つまり、S140の処理により、車種識別番号cの異なる5つの尤度Y(c,k,m)が算出される。   Next, in S140, a variable Pk representing the object identification number k is set to 1, and a variable Pm representing the sharpness m is set to 22. Thereafter, in S150, for the five vehicle types having vehicle type identification numbers c = 1 to 5, the object identification number k indicated by the variable Pk and the YUV histogram (c, k, m) of the sharpness m indicated by the variable Pm are described. The likelihood for the reference distribution (k, m) is calculated based on the equation (5). The likelihood for the reference distribution (k, m) for the YUV histogram (c, k, m) is hereinafter expressed as likelihood Y (c, k, m) (c = 1, 2, 3, 4, 5, k = 1, 2, 3, 4, m = 22, 24, 26, 28, 30, 32). That is, five likelihoods Y (c, k, m) with different vehicle type identification numbers c are calculated by the process of S140.

そしてS160にて、S150にて算出された5つの尤度Y(c,k,m)それぞれについて尤度比を算出する。なお、この尤度比は、Y(c,k,m)/尤度X(k,m)で計算される。   In S160, a likelihood ratio is calculated for each of the five likelihoods Y (c, k, m) calculated in S150. This likelihood ratio is calculated by Y (c, k, m) / likelihood X (k, m).

次にS170にて、S150にて算出された5つの尤度比の最大値と最小値を求め、その後、この最大値及び最小値を、オブジェクト識別番号k,鮮明度mにおける尤度比上限値(k,m)、及び尤度比下限値(k,m)に設定する。そして、この尤度比上限値(k,m)及び尤度比下限値(k,m)をデータベース17内の基準データ群17aに記憶する。   Next, in S170, the maximum value and the minimum value of the five likelihood ratios calculated in S150 are obtained, and then the maximum value and the minimum value are used as the likelihood ratio upper limit value in the object identification number k and the sharpness m. (K, m) and the likelihood ratio lower limit (k, m) are set. Then, the likelihood ratio upper limit value (k, m) and the likelihood ratio lower limit value (k, m) are stored in the reference data group 17a in the database 17.

その後S180にて、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax(本実施形態ではkmax=4)以上であるか否かを判断する。ここで、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax未満である場合には(S180:NO)、S190にてオブジェクト識別番号kを表す変数Pkの値を1加算し、その後S150に移行して上述の処理を繰り返す。一方、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax以上である場合には(S180:YES)、S200に移行する。   Thereafter, in S180, it is determined whether or not the value of the variable Pk representing the object identification number k is equal to or greater than the total number of objects kmax (kmax = 4 in this embodiment). Here, when the value of the variable Pk representing the object identification number k is less than the total number of objects kmax (S180: NO), 1 is added to the value of the variable Pk representing the object identification number k in S190, and then S150. The above process is repeated after moving to step S2. On the other hand, when the value of the variable Pk representing the object identification number k is equal to or greater than the total number of objects kmax (S180: YES), the process proceeds to S200.

そしてS200に移行すると、鮮明度mを表す変数Pmの値が鮮明度最大値mmax(本実施形態ではmmax=32)以上であるか否かを判断する。ここで、鮮明度mを表す変数Pmの値が鮮明度最大値mmax未満である場合には(S200:NO)、S210にて鮮明度mを表す変数Pmの値を2加算し、その後S150に移行して上述の処理を繰り返す。一方、鮮明度mを表す変数Pmの値が鮮明度最大値mmax以上である場合には(S200:YES)、当該基準データ作成処理を終了する。   In S200, it is determined whether or not the value of the variable Pm representing the sharpness m is equal to or greater than the maximum sharpness value mmax (mmax = 32 in the present embodiment). If the value of the variable Pm representing the sharpness m is less than the maximum sharpness value mmax (S200: NO), 2 is added to the value of the variable Pm representing the sharpness m in S210, and then to S150. The process is repeated and the above process is repeated. On the other hand, when the value of the variable Pm representing the sharpness m is equal to or greater than the maximum sharpness value mmax (S200: YES), the reference data creation process is terminated.

即ち、基準データ作成処理によって、基準分布(k,m),尤度X(k,m),尤度比上限値(k,m)及び尤度比下限値(k,m)がデータベース17内の基準データ群17aに記憶される(k=1,2,3,4、m=22,24,26,28,30,32)。つまり、基準データ群17aは、基準分布(k,m),尤度X(k,m),尤度比上限値(k,m)及び尤度比下限値(k,m)から構成される。   That is, by the reference data creation process, the reference distribution (k, m), the likelihood X (k, m), the likelihood ratio upper limit value (k, m), and the likelihood ratio lower limit value (k, m) are stored in the database 17. Are stored in the reference data group 17a (k = 1, 2, 3, 4, m = 22, 24, 26, 28, 30, 32). That is, the reference data group 17a includes a reference distribution (k, m), a likelihood X (k, m), a likelihood ratio upper limit value (k, m), and a likelihood ratio lower limit value (k, m). .

次に、図4及び図5を用いて、CPU11が実行する画像認識処理の手順について説明する。図4は画像認識処理の前半部分、図5は画像認識処理の後半部分を表すフローチャートである。尚、この画像認識処理は、車両のイグニッションキーがキーシリンダに挿入され、上記キーがオンに変更された状態である間、繰り返し実行される。   Next, the procedure of image recognition processing executed by the CPU 11 will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing the first half of the image recognition processing, and FIG. 5 is a flowchart showing the second half of the image recognition processing. This image recognition process is repeatedly executed while the ignition key of the vehicle is inserted into the key cylinder and the key is turned on.

この画像認識処理においては、CPU11は、まずS310にて、カメラ5が撮影した画像データをカメラ5から取得する。そしてS320にて、S310で取得した画像データにおいて、輝度がほぼ等しい領域に分割する(領域分割)。ここでは、n個の領域に分割されたとして、以下の説明を行う(以降、このnを総分割数nとも称す)。更にS320では、分割したn個の領域を識別するために1〜nまでの整数の番号を領域識別番号sとして付す。次にS330にて、領域識別番号sを表す変数Psを1に設定しS340に移行する。   In this image recognition process, the CPU 11 first acquires image data taken by the camera 5 from the camera 5 in S310. In S320, the image data acquired in S310 is divided into regions having substantially the same luminance (region division). Here, the following description will be given on the assumption that the area is divided into n areas (hereinafter, this n is also referred to as a total division number n). Further, in S320, an integer number from 1 to n is assigned as a region identification number s in order to identify the divided n regions. Next, in S330, the variable Ps representing the area identification number s is set to 1, and the process proceeds to S340.

そしてS340に移行すると、変数Psによって示される領域識別番号sで識別される領域sを選択し、その後S350にて、選択した領域sの鮮明度を計算する。即ち、選択した領域を表す画像データに対して、S40と同様にして2次元の高速フーリエ変換し、この変換により得られる空間周波数分布に基づいて鮮明度を計算する。   In S340, the area s identified by the area identification number s indicated by the variable Ps is selected, and then the sharpness of the selected area s is calculated in S350. That is, two-dimensional fast Fourier transform is performed on the image data representing the selected region in the same manner as in S40, and the sharpness is calculated based on the spatial frequency distribution obtained by this transform.

次にS360にて、S340で選択された領域から、S50と同様にして、4つのオブジェクト、即ちリアウィンドウ・オブジェクトO1,右テールランプ・オブジェクトO2,左テールランプ・オブジェクトO3及びナンバープレート・オブジェクトO4を抽出する。更にS360では、抽出したオブジェクトを識別するために1〜4までの整数の番号をオブジェクト識別番号kとして付す。即ち、オブジェクト識別番号k=1,2,3,4はそれぞれ、リアウィンドウ,右テールランプ,左テールランプ,ナンバープレートを示す。その後S370にて、オブジェクト識別番号kを表す変数Pkを1に設定し、S380に移行する。   Next, in S360, four objects, that is, rear window object O1, right tail lamp object O2, left tail lamp object O3, and license plate object O4 are extracted from the area selected in S340 in the same manner as S50. To do. In S360, an integer number from 1 to 4 is assigned as an object identification number k to identify the extracted object. That is, the object identification numbers k = 1, 2, 3, and 4 indicate a rear window, a right tail lamp, a left tail lamp, and a license plate, respectively. Thereafter, in S370, the variable Pk representing the object identification number k is set to 1, and the process proceeds to S380.

そしてS380に移行すると、変数Pkによって示されるオブジェクト識別番号kで識別されるオブジェクトを選択し、その後S390にて、S380で選択したオブジェクトについてのYUVヒストグラムを算出する。   In step S380, the object identified by the object identification number k indicated by the variable Pk is selected. In step S390, the YUV histogram for the object selected in step S380 is calculated.

次にS400にて、S350にて計算された鮮明度における基準分布(以降、補間基準分布と称す)を線形補間により算出する。即ち、例えば鮮明度24.5の基準分布を求めるためには、鮮明度24の基準分布(k,24)と鮮明度26の基準分布(k,26)とで線形補間すればよい。更にS400では、S390で算出されたYUVヒストグラムのこの補間基準分布に対する尤度を算出する。なお、この尤度を以降、尤度Zと称す。   Next, in S400, a reference distribution at the sharpness calculated in S350 (hereinafter referred to as an interpolation reference distribution) is calculated by linear interpolation. That is, for example, in order to obtain a reference distribution with a sharpness of 24.5, linear interpolation may be performed with a reference distribution (k, 24) with a definition of 24 and a reference distribution (k, 26) with a definition of 26. Further, in S400, the likelihood for this interpolation reference distribution of the YUV histogram calculated in S390 is calculated. This likelihood is hereinafter referred to as likelihood Z.

そしてS410にて、S350にて計算された鮮明度における尤度X(以降、補間尤度と称す)を線形補間により算出する。即ち、例えば鮮明度24.5の補間尤度を求めるためには、鮮明度24の尤度X(k,24)と鮮明度26の尤度X(k,26)とで線形補間すればよい。更にS410では、S400で算出された尤度Zの、補間尤度に対する尤度比(以降、認識用尤度比と称す)を算出する。即ち、認識用尤度比は、(尤度Z/補間尤度)で計算される。   In S410, the likelihood X in the sharpness calculated in S350 (hereinafter referred to as interpolation likelihood) is calculated by linear interpolation. That is, for example, in order to obtain an interpolation likelihood with a definition of 24.5, linear interpolation may be performed with a likelihood X (k, 24) of a definition 24 and a likelihood X (k, 26) of a definition 26. . In S410, the likelihood ratio of the likelihood Z calculated in S400 to the interpolation likelihood (hereinafter referred to as the recognition likelihood ratio) is calculated. That is, the recognition likelihood ratio is calculated by (likelihood Z / interpolation likelihood).

次にS420にて、S350にて計算された鮮明度における尤度比上限値(以降、補間尤度比上限値と称す)及び尤度比下限値(以降、補間尤度比下限値と称す)を線形補間により算出する。即ち、例えば鮮明度24.5の尤度比上限値を求めるためには、鮮明度24の尤度比上限値(k,24)と鮮明度26の尤度比上限値(k,26)とで線形補間すればよい。また、補間尤度比下限値も同様にして求められる。更にS420では、S410で算出された認識用尤度比が、補間尤度比下限値以上且つ補間尤度比上限値以下の範囲にあるか否かを判断する。ここで、補間尤度比下限値以上且つ補間尤度比上限値以下の範囲にある場合には(S420:YES)、S430にて、変数Pkによって示されるオブジェクト識別番号kで識別されるオブジェクトの、認識結果を示す第kオブジェクト認識フラグF(k)をセットして、S450に移行する。一方、補間尤度比下限値以上且つ補間尤度比上限値以下の範囲にない場合には(S420:NO)、S440にて第kオブジェクト認識フラグF(k)をクリアして、S450に移行する。   Next, in S420, the likelihood ratio upper limit value in sharpness calculated in S350 (hereinafter referred to as the interpolation likelihood ratio upper limit value) and the likelihood ratio lower limit value (hereinafter referred to as the interpolation likelihood ratio lower limit value). Is calculated by linear interpolation. That is, for example, in order to obtain the likelihood ratio upper limit value of the definition 24.5, the likelihood ratio upper limit value (k, 24) of the definition 24 and the likelihood ratio upper limit value (k, 26) of the definition 26 are determined. And linear interpolation. Also, the interpolation likelihood ratio lower limit value is obtained in the same manner. Further, in S420, it is determined whether or not the recognition likelihood ratio calculated in S410 is in a range not less than the interpolation likelihood ratio lower limit value and not more than the interpolation likelihood ratio upper limit value. Here, when it is in the range not less than the interpolation likelihood ratio lower limit value and not more than the interpolation likelihood ratio upper limit value (S420: YES), in S430, the object identified by the object identification number k indicated by the variable Pk. Then, the kth object recognition flag F (k) indicating the recognition result is set, and the process proceeds to S450. On the other hand, when it is not in the range not less than the interpolation likelihood ratio lower limit value and not more than the interpolation likelihood ratio upper limit value (S420: NO), the kth object recognition flag F (k) is cleared in S440, and the process proceeds to S450. To do.

そしてS450に移行すると、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax以上であるか否かを判断する。ここで、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax未満である場合には(S450:NO)、S460にてオブジェクト識別番号kを表す変数Pkの値を1加算し、その後S380に移行して上述の処理を繰り返す。一方、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax以上である場合には(S450:YES)、S470にて、第kオブジェクト認識フラグF(k)の全てがセットされているか否かを判断する。ここで、第kオブジェクト認識フラグF(k)の全てがセットされている場合には(S470:YES)、「領域s内に先行車両が示されている」と判定し、S500に移行する。一方、第kオブジェクト認識フラグF(k)の全てがセットされていない場合には(S470:NO)、「領域s内に先行車両が示されていない」と判定し、S500に移行する。   In S450, it is determined whether or not the value of the variable Pk representing the object identification number k is equal to or greater than the total number of objects kmax. If the value of the variable Pk representing the object identification number k is less than the total number of objects kmax (S450: NO), the value of the variable Pk representing the object identification number k is incremented by 1 in S460, and then S380. The above process is repeated after moving to step S2. On the other hand, if the value of the variable Pk representing the object identification number k is equal to or greater than the total number of objects kmax (S450: YES), whether or not all the kth object recognition flags F (k) are set in S470. Determine whether. Here, when all of the k-th object recognition flags F (k) are set (S470: YES), it is determined that “a preceding vehicle is indicated in the area s”, and the process proceeds to S500. On the other hand, when all of the kth object recognition flags F (k) are not set (S470: NO), it is determined that “the preceding vehicle is not shown in the area s”, and the process proceeds to S500.

そしてS500に移行すると、領域識別番号sを表す変数Psの値が総分割数n以上であるか否かを判断する。ここで、領域識別番号sを表す変数Psの値が総分割数n未満である場合には(S500:NO)、S510にて領域識別番号sを表す変数Psの値を1加算し、その後S340に移行して上述の処理を繰り返す。一方、領域識別番号sを表す変数Psの値が総分割数n以上である場合には(S500:YES)、当該画像認識処理を終了する。   In S500, it is determined whether or not the value of the variable Ps representing the area identification number s is equal to or greater than the total number of divisions n. If the value of the variable Ps representing the region identification number s is less than the total number of divisions n (S500: NO), the value of the variable Ps representing the region identification number s is incremented by 1 in S510, and then S340. The above process is repeated after moving to step S2. On the other hand, when the value of the variable Ps representing the region identification number s is equal to or greater than the total number of divisions n (S500: YES), the image recognition process is terminated.

以上説明したように、第1実施形態の画像認識システム1によれば、先行車両を認識するための、YUVヒストグラムと基準分布との比較において、鮮明度に応じて最適な基準分布を採用することができる。このため、先行車両までの距離が変化しても、安定して先行車両を認識することができる。なぜならば、先行車両までの距離を表す指標として、鮮明度を用いることができるからである。これは、人間が物体(例えば、車両)を視覚で認識する場合を例にすると、遠くに位置する程その車両が不鮮明に見えて、その物体が車両であるか否かの判断が困難になることからも明らかである。   As described above, according to the image recognition system 1 of the first embodiment, in the comparison between the YUV histogram and the reference distribution for recognizing the preceding vehicle, the optimum reference distribution is adopted according to the sharpness. Can do. For this reason, even if the distance to the preceding vehicle changes, the preceding vehicle can be recognized stably. This is because the sharpness can be used as an index representing the distance to the preceding vehicle. In this case, for example, when a person visually recognizes an object (for example, a vehicle), the farther the vehicle is located, the more unclear the vehicle is, and it is difficult to determine whether the object is a vehicle. It is clear from that.

以上説明した第1実施形態において、画像認識装置3は本発明における画像認識装置、図4におけるS350の処理は本発明における鮮明度算出手段、図4におけるS390の処理は本発明における特徴量抽出手段、データベース17は本発明における第1記憶手段、図4,図5におけるはS400〜S490の処理は本発明における第1判定手段である。   In the first embodiment described above, the image recognition device 3 is the image recognition device according to the present invention, the processing at S350 in FIG. 4 is the sharpness calculation means according to the present invention, and the processing at S390 in FIG. The database 17 is the first storage means in the present invention, and the processes in S400 to S490 in FIGS. 4 and 5 are the first determination means in the present invention.

また、領域識別番号sで識別される領域sを表す画像データは本発明における部分領域画像、色情報(YUV)は本発明における特徴量、S390の処理で算出されるYUVヒストグラムは本発明における特徴データ、先行車両は本発明における所定対象物、基準データ作成用画像データは本発明における基準画像、基準分布(k,m)は本発明における基準データ、基準データ群17aは本発明における基準データ群である。   The image data representing the region s identified by the region identification number s is the partial region image in the present invention, the color information (YUV) is the feature amount in the present invention, and the YUV histogram calculated in the process of S390 is the feature in the present invention. Data, a preceding vehicle is a predetermined object in the present invention, image data for creating reference data is a reference image in the present invention, a reference distribution (k, m) is reference data in the present invention, and a reference data group 17a is a reference data group in the present invention. It is.

次に本実施形態の画像認識システム1を用いて画像認識を行った結果を実施例として以下に説明する。
まず本実施例に用いた入力画像を図9に示す。入力画像は、基準データ作成用画像データのうちの1つである作成用画像(図9(a)参照),基準データ作成用画像データと色分布が類似している車を示す認識用画像1(図9(b)参照),基準データ作成用画像データと色分布が異なる車を示す認識用画像2(図9(c)参照),車以外を示す認識用画像3(図9(d)参照)の4 枚である。尚、認識用画像3には、道路走行中に見られるテールランプ以外の赤い物体の例として、赤信号が点灯している信号機画像を採用した。そして、この信号機画像について、他の車画像と同等の処理を行い、更に各オブジェクトを平均的な位置・サイズで切り取り画像認識処理を行った。
Next, the result of image recognition using the image recognition system 1 of the present embodiment will be described below as an example.
First, an input image used in this embodiment is shown in FIG. The input image is a creation image (see FIG. 9A) that is one of the reference data creation image data, and a recognition image 1 that shows a car having a color distribution similar to that of the reference data creation image data. (See FIG. 9B), recognition image 2 (see FIG. 9C) showing a car having a color distribution different from that of the reference data creation image data, and recognition image 3 showing a car other than the car (FIG. 9D) 4). As the recognition image 3, a traffic light image in which a red signal is lit is adopted as an example of a red object other than the tail lamp that is seen while traveling on the road. And about this signal image, the process equivalent to another vehicle image was performed, and also each object was cut out by average position and size, and the image recognition process was performed.

それぞれの入力画像について、オブジェクト毎(リアウィンドウ・オブジェクトO1,右テールランプ・オブジェクトO2,左テールランプ・オブジェクトO3及びナンバープレート・オブジェクトO4)に算出された尤度比(S410で算出される尤度比)を図10〜図13 に示す。図10,図11,図12及び図13はそれぞれ、作成用画像,認識用画像1,認識用画像2及び認識用画像3における結果を示す。また、図の縦軸は尤度比、横軸は鮮明度である。そして、尤度比を破線で、上限値及び下限値を実線で示す。   For each input image, the likelihood ratio calculated for each object (rear window object O1, right tail lamp object O2, left tail lamp object O3 and license plate object O4) (the likelihood ratio calculated in S410) Is shown in FIGS. 10, FIG. 11, FIG. 12 and FIG. 13 show the results for the creation image, the recognition image 1, the recognition image 2 and the recognition image 3, respectively. Also, the vertical axis in the figure is the likelihood ratio, and the horizontal axis is the sharpness. The likelihood ratio is indicated by a broken line, and the upper limit value and the lower limit value are indicated by a solid line.

図10〜図13 に示すように、全ての入力画像において、どのオブジェクトについても鮮明度が高いほど尤度比が小さくなっている。これは、鮮明度が高いほどオブジェクトのデータが幅広い帯域でデータを含み、統合YUVヒストグラムも幅広い帯域に様々な要素が含まれた分布になるためである。つまり、統合YUVヒストグラムに基づいて算出された基準分布に、入力画像データとは一致しない分布が多く含まれるためであると考えられる。一方、鮮明度が低いほど尤度比が大きくなっている。これは、鮮明度が低くなるとオブジェクト内の色分布の広がりは一様になり、全ての入力画像においてオブジェクト内の分布帯域が大きく異なることがないためであると考えられる。   As shown in FIGS. 10 to 13, in all input images, the likelihood ratio decreases as the definition increases for any object. This is because the higher the definition is, the more the object data includes data in a wider band, and the integrated YUV histogram has a distribution including various elements in the wider band. That is, it is considered that the reference distribution calculated based on the integrated YUV histogram includes many distributions that do not match the input image data. On the other hand, the likelihood ratio increases as the definition decreases. This is considered to be because the spread of the color distribution in the object becomes uniform when the sharpness decreases, and the distribution band in the object does not differ greatly in all input images.

また認識用画像1については、作成用画像と比較して車の撮影環境・色の分布などが類似しているため、ほぼ同等の認識結果が得られている。即ち、全てのオブジェクトに対する尤度比は上限値と下限値との間に含まれている.
また認識用画像2については、リアウィンドウが太陽光を反射しており、認識用画像2の色分布は作成用画像と異なる。このため、リアウィンドウの尤度比が下限値より小さくなる場合がある。また、作成用画像では太陽光が画像上の左側から差しているため、作成用画像における右テールランプは左テールランプに対して全体的に暗いものであるのに対して、認識用画像2では右テールランプにおいても光が差し込んでいるため、認識用画像2の右テールランプは作成用画像の右テールランプに比べて明るい。このため、認識用画像2における右テールランプの尤度比は下限値に近い値となっている。また、その他のオブジェクト(左テールランプとナンバープレート)については作成用画像と類似しているため、尤度比は上限値と下限値との間に含まれている。
Further, the recognition image 1 has almost the same recognition result because the photographing environment and color distribution of the car are similar to those of the creation image. In other words, the likelihood ratio for all objects is included between the upper and lower limits.
For the recognition image 2, the rear window reflects sunlight, and the color distribution of the recognition image 2 is different from the creation image. For this reason, the likelihood ratio of the rear window may be smaller than the lower limit value. In addition, in the creation image, since sunlight is shining from the left side of the image, the right tail lamp in the creation image is generally darker than the left tail lamp, whereas in the recognition image 2, the right tail lamp is dark. Since the light is also inserted into the right tail lamp of the image for recognition 2, the right tail lamp of the recognition image 2 is brighter than the right tail lamp of the image for creation. For this reason, the likelihood ratio of the right tail lamp in the recognition image 2 is a value close to the lower limit value. Further, since the other objects (left tail lamp and license plate) are similar to the creation image, the likelihood ratio is included between the upper limit value and the lower limit value.

また認識用画像3については、右テールランプの位置に赤信号が存在する。このため、このオブジェクトにおける尤度比は右テールランプの下限値に近い値となっている。しかし、その他のオブジェクトについては作成用画像と大きく異なるため、尤度比は小さい。   For the recognition image 3, a red signal exists at the position of the right tail lamp. For this reason, the likelihood ratio in this object is close to the lower limit value of the right tail lamp. However, since the other objects are significantly different from the creation image, the likelihood ratio is small.

したがって先行車両であるか否かを判定する場合、一つのオブジェクトの結果だけではなく、構成するオブジェクト全体で判定することにより誤認識を減らすことができると考えられる。   Therefore, when determining whether or not the vehicle is a preceding vehicle, it is considered that the misrecognition can be reduced by determining not only the result of one object but also the entire constituting object.

ここまでの結果から、基準分布が、基準データ作成用画像データのデータ分布を表現できていることがわかる。また、認識対象までの距離が変化しても尤度比の上限値・下限値を変えることで,距離の変化に対して対処できることがわかった。   From the results so far, it can be seen that the reference distribution can represent the data distribution of the image data for generating reference data. It was also found that even if the distance to the recognition object changes, the change in distance can be dealt with by changing the upper and lower limits of the likelihood ratio.

(第2実施形態)
以下に、第2実施形態について図面をもとに説明する。尚、第2実施形態では、第1実施形態と異なる部分のみを説明する。
(Second Embodiment)
Below, 2nd Embodiment is described based on drawing. In the second embodiment, only parts different from the first embodiment will be described.

まず、第2実施形態における画像認識システム1の構成を図14に基づいて説明する。第2実施形態における画像認識システム1は、カメラ5が撮影する範囲に存在する物体までの距離を測定するレーダレーザ7が追加されている点と、基準データ群17aとは異なる基準データ群17bがデータベース17に記憶されている点以外は、第1実施形態と同じである。   First, the structure of the image recognition system 1 in 2nd Embodiment is demonstrated based on FIG. The image recognition system 1 according to the second embodiment includes a reference data group 17b that is different from the reference data group 17a in that a radar laser 7 that measures the distance to an object that exists in the range captured by the camera 5 is added. Except for the points stored in the database 17, the second embodiment is the same as the first embodiment.

また、データベース17に記憶されている基準データ作成用画像データにはそれぞれ、当該基準データ作成用画像データが撮影された撮影距離の情報(以降、距離情報と称す)が付加されている。距離情報は、例えば15m,50mなどの距離を示す情報である。   Further, the reference data creation image data stored in the database 17 is added with information on the shooting distance at which the reference data creation image data was shot (hereinafter referred to as distance information). The distance information is information indicating distances such as 15 m and 50 m, for example.

次に第2実施形態における基準データ作成処理を図15及び図16を用いて説明する。第2実施形態の基準データ作成処理において第1実施形態と異なるのは、S40,S90,S120,S130,S140,S150,S160,S170,S200及びS210の処理に代わって、それぞれS40a,S90a,S120a,S130a,S140a,S150a,S160a,S170a,S200a及びS210aの処理が行われる点である。   Next, reference data creation processing in the second embodiment will be described with reference to FIGS. 15 and 16. The reference data creation process of the second embodiment differs from that of the first embodiment in that S40a, S90a, S120a, instead of the processes of S40, S90, S120, S130, S140, S150, S160, S170, S200, and S210, respectively. , S130a, S140a, S150a, S160a, S170a, S200a and S210a.

即ち、S30の処理が終了すると、S40aにて、S30で取得した画像データ(c,d)に付加されている距離情報を取得する。
また、S80の処理が終了すると、S90aにて、変数Pcで示される車種識別番号cが付された画像データ(c,d)について、オブジェクト毎に、例えば撮影距離r=20,40,60,80,100,120〔m〕のYUVヒストグラムを、S60で算出したYUVヒストグラムで線形補間することにより求める。即ち、例えば、同一車種で撮影距離が異なる6つの画像、即ち距離識別番号d=1,2,3,4,5,6における距離情報がそれぞれ、「15.5」,「32.5」,「48.0」,「70.5」,「88.3」,「106.5」〔m〕であるとすると、例えば撮影距離r=20〔m〕のYUVヒストグラムを求めるためには、距離情報15.5のYUVヒストグラムと距離情報32.5のYUVヒストグラムとで線形補間すればよい。そして、線形補間により求めた撮影距離r=20,40,60,80,100,120〔m〕のYUVヒストグラムをRAM15に記憶する。なお、車種識別番号c,オブジェクト識別番号k,撮影距離rのYUVヒストグラムを以降、YUVヒストグラム(c,k,r)と表記する(c=1,2,3,4,5、k=1,2,3,4、r=20,40,60,80,100,120)。
That is, when the process of S30 is completed, the distance information added to the image data (c, d) acquired in S30 is acquired in S40a.
When the processing of S80 is completed, for example, the shooting distance r = 20, 40, 60, image data (c, d) to which the vehicle type identification number c indicated by the variable Pc is assigned for each object in S90a. The YUV histogram of 80, 100, 120 [m] is obtained by linear interpolation with the YUV histogram calculated in S60. That is, for example, distance information in six images having the same vehicle type and different shooting distances, that is, distance identification numbers d = 1, 2, 3, 4, 5, and 6, respectively, is “15.5”, “32.5”, Assuming that “48.0”, “70.5”, “88.3”, “106.5” [m], for example, in order to obtain a YUV histogram of the shooting distance r = 20 [m], the distance Linear interpolation may be performed between the YUV histogram of information 15.5 and the YUV histogram of distance information 32.5. Then, a YUV histogram of shooting distances r = 20, 40, 60, 80, 100, 120 [m] obtained by linear interpolation is stored in the RAM 15. The YUV histogram of the vehicle type identification number c, the object identification number k, and the shooting distance r is hereinafter referred to as a YUV histogram (c, k, r) (c = 1, 2, 3, 4, 5, k = 1, 2, 3, 4, r = 20, 40, 60, 80, 100, 120).

またS100にて、車種識別番号cを表す変数Pcの値が5以上である場合には(S100:YES)、S120aにて、同じオブジェクトで且つ同じ撮影距離rであるYUVヒストグラムを全車種について加算する。例えば、リアウィンドウ・オブジェクトO1で撮影距離rが20のYUVヒストグラムは、車種識別番号c=1〜5毎に1つずつ存在するため、この5つのYUVヒストグラムを加算する。この加算したYUVヒストグラムを以降、統合YUVヒストグラムと称す。つまり、S120の処理により、4つのオブジェクト毎に、撮影距離rに応じて6つの統合YUVヒストグラムが生成される。なお、オブジェクト識別番号k,撮影距離rの統合YUVヒストグラムを以降、統合YUVヒストグラム(k,r)と表記する(k=1,2,3,4、r=20,40,60,80,100,120)。   In S100, if the value of the variable Pc representing the vehicle type identification number c is 5 or more (S100: YES), the YUV histogram having the same object and the same shooting distance r is added for all vehicle types in S120a. To do. For example, since there is one YUV histogram for the rear window object O1 and the shooting distance r of 20, for each vehicle type identification number c = 1 to 5, these five YUV histograms are added. This added YUV histogram is hereinafter referred to as an integrated YUV histogram. That is, by the process of S120, six integrated YUV histograms are generated for each of the four objects according to the shooting distance r. The integrated YUV histogram of the object identification number k and the shooting distance r is hereinafter referred to as an integrated YUV histogram (k, r) (k = 1, 2, 3, 4, r = 20, 40, 60, 80, 100). 120).

次にS130aにて、オブジェクトと撮影距離rが異なる24個の統合YUVヒストグラムについて、パラメータΘ と重み係数Ωを算出する。そして、このパラメータΘ と重み係数Ωで表されるGMM分布をそれぞれのオブジェクト及び撮影距離rにおける基準分布として、データベース17内の基準データ群17bに記憶する。なお、オブジェクト識別番号k,撮影距離rの基準分布を以降、基準分布(k,r)と表記する(k=1,2,3,4、r=20,40,60,80,100,120)。   Next, in S130a, a parameter Θ and a weighting coefficient Ω are calculated for 24 integrated YUV histograms having different shooting distances r from the object. The GMM distribution represented by the parameter Θ and the weighting coefficient Ω is stored in the reference data group 17b in the database 17 as a reference distribution at each object and shooting distance r. The reference distribution of the object identification number k and the shooting distance r is hereinafter referred to as a reference distribution (k, r) (k = 1, 2, 3, 4, r = 20, 40, 60, 80, 100, 120). ).

更にS130aでは、統合YUVヒストグラム(k,r)の基準分布(k,r)に対する尤度を式(5)に基づいて算出し、データベース17内の基準データ群17bに記憶する。なお、オブジェクト識別番号k,撮影距離rにおける、統合YUVヒストグラム(k,r)の基準分布(k,r)に対する尤度を以降、尤度X(k,r)と表記する(k=1,2,3,4、r=20,40,60,80,100,120)。つまり、S130aの処理により、4つのオブジェクト毎に、撮影距離rに応じて6つの基準分布(k,r)及び尤度X(k,r)が算出される。   Further, in S130a, the likelihood of the integrated YUV histogram (k, r) for the reference distribution (k, r) is calculated based on the equation (5) and stored in the reference data group 17b in the database 17. The likelihood of the integrated YUV histogram (k, r) with respect to the reference distribution (k, r) at the object identification number k and the shooting distance r is hereinafter referred to as likelihood X (k, r) (k = 1, 2, 3, 4, r = 20, 40, 60, 80, 100, 120). That is, six reference distributions (k, r) and likelihoods X (k, r) are calculated for each of the four objects according to the shooting distance r by the process of S130a.

次にS140aにて、オブジェクト識別番号kを表す変数Pkを1に、撮影距離rを表す変数Prを20に設定する。その後S150aにて、車種識別番号c=1〜5の5つの車種において、変数Pkで示されるオブジェクト識別番号k,及び変数Prで示される撮影距離rのYUVヒストグラム(c,k,r)についての基準分布(k,r)に対する尤度を式(5)に基づいて算出する。なお、YUVヒストグラム(c,k,r)についての基準分布(k,r)に対する尤度を以降、尤度Y(c,k,r)と表記する(c=1,2,3,4,5、k=1,2,3,4、r=20,40,60,80,100,120)。つまり、S140aの処理により、車種識別番号cの異なる5つの尤度Y(c,k,r)が算出される。   Next, in S140a, a variable Pk representing the object identification number k is set to 1, and a variable Pr representing the shooting distance r is set to 20. Thereafter, in S150a, the object identification number k indicated by the variable Pk and the shooting distance r indicated by the variable Pr for the YUV histogram (c, k, r) for the five vehicle types having the vehicle type identification numbers c = 1 to 5 are obtained. The likelihood for the reference distribution (k, r) is calculated based on the equation (5). Note that the likelihood of the YUV histogram (c, k, r) with respect to the reference distribution (k, r) is hereinafter expressed as likelihood Y (c, k, r) (c = 1, 2, 3, 4, 5, k = 1, 2, 3, 4, r = 20, 40, 60, 80, 100, 120). That is, five likelihoods Y (c, k, r) with different vehicle type identification numbers c are calculated by the process of S140a.

そしてS160aにて、S150aにて算出された5つの尤度Y(c,k,r)それぞれについて尤度比を算出する。なお、この尤度比は、Y(c,k,r)/尤度X(k,r)で計算される。   In S160a, a likelihood ratio is calculated for each of the five likelihoods Y (c, k, r) calculated in S150a. This likelihood ratio is calculated by Y (c, k, r) / likelihood X (k, r).

次にS170aにて、S150aにて算出された5つの尤度比の最大値と最小値を求め、その後、この最大値及び最小値を、オブジェクト識別番号k,撮影距離rにおける尤度比上限値(k,r)、及び尤度比下限値(k,r)に設定する。そして、この尤度比上限値(k,r)及び尤度比下限値(k,r)をデータベース17内の基準データ群17bに記憶する。   Next, in S170a, the maximum value and the minimum value of the five likelihood ratios calculated in S150a are obtained, and then the maximum value and the minimum value are used as the likelihood ratio upper limit value in the object identification number k and the shooting distance r. (K, r) and the likelihood ratio lower limit (k, r) are set. The likelihood ratio upper limit value (k, r) and the likelihood ratio lower limit value (k, r) are stored in the reference data group 17b in the database 17.

またS180にて、オブジェクト識別番号kを表す変数Pkの値が総オブジェクト数kmax以上である場合には(S180:YES)、S200aにて、撮影距離rを表す変数Prの値が撮影距離最大値rmax(本実施形態ではrmax=120)以上であるか否かを判断する。ここで、撮影距離rを表す変数Prの値が撮影距離最大値rmax未満である場合には(S200a:NO)、S210aにて撮影距離rを表す変数Prの値を20加算し、その後S150aに移行して上述の処理を繰り返す。一方、撮影距離rを表す変数Prの値が撮影距離最大値rmax以上である場合には(S200a:YES)、当該基準データ作成処理を終了する。   If the value of the variable Pk representing the object identification number k is equal to or greater than the total number of objects kmax in S180 (S180: YES), the value of the variable Pr representing the shooting distance r is the maximum shooting distance value in S200a. It is determined whether or not rmax (rmax = 120 in this embodiment) or more. Here, when the value of the variable Pr representing the shooting distance r is less than the maximum shooting distance value rmax (S200a: NO), 20 is added to the value of the variable Pr representing the shooting distance r in S210a, and then to S150a. The process is repeated and the above process is repeated. On the other hand, when the value of the variable Pr representing the shooting distance r is equal to or greater than the shooting distance maximum value rmax (S200a: YES), the reference data creation process is terminated.

即ち、基準データ作成処理によって、基準分布(k,r),尤度X(k,r),尤度比上限値(k,r)及び尤度比下限値(k,r)がデータベース17内の基準データ群17bに記憶される(k=1,2,3,4、r=20,40,60,80,100,120)。つまり、基準データ群17bは、基準分布(k,r),尤度X(k,r),尤度比上限値(k,r)及び尤度比下限値(k,r)から構成される。   That is, by the reference data creation process, the reference distribution (k, r), likelihood X (k, r), likelihood ratio upper limit (k, r) and likelihood ratio lower limit (k, r) are stored in the database 17. Are stored in the reference data group 17b (k = 1, 2, 3, 4, r = 20, 40, 60, 80, 100, 120). That is, the reference data group 17b includes a reference distribution (k, r), a likelihood X (k, r), a likelihood ratio upper limit value (k, r), and a likelihood ratio lower limit value (k, r). .

次に第2実施形態における画像認識処理を図17を用いて説明する。第2実施形態の画像認識処理において第1実施形態と異なるのは、S320,S350,S400,S410及びS420の処理に代わって、それぞれS320a,S350a,S400a,S410a及びS420aの処理が行われる点である。   Next, image recognition processing in the second embodiment will be described with reference to FIG. The image recognition process of the second embodiment is different from the first embodiment in that the processes of S320a, S350a, S400a, S410a, and S420a are performed instead of the processes of S320, S350, S400, S410, and S420, respectively. is there.

まず、S310の処理が終了すると、S320aにて、S310で取得した画像において、レーダレーザ7で測定された距離がほぼ等しい領域に分割する(領域分割)。即ち、レーダレーザ7による距離の測定によって、S310で取得した画像と一対の距離データを生成し、この距離データを適用な距離範囲、例えば1m以内で等距離領域に分割した範囲について、対応する画像の領域を抜き出すことにより分割する。ここでは、n個の領域に分割されたとして、以下の説明を行う(以降、このnを総分割数nとも称す)。更にS320aでは、分割したn個の領域を識別するために1〜nまでの整数の番号を領域識別番号sとして付す。   First, when the processing in S310 is completed, in S320a, the image acquired in S310 is divided into regions where the distances measured by the radar laser 7 are substantially equal (region division). That is, by measuring the distance by the radar laser 7, the image acquired in S310 and a pair of distance data are generated, and the distance data is applied to an applicable distance range, for example, a range obtained by dividing the distance data into equal distance regions within 1 m. It is divided by extracting the area. Here, the following description will be given on the assumption that the area is divided into n areas (hereinafter, this n is also referred to as a total division number n). Further, in S320a, an integer number from 1 to n is assigned as a region identification number s in order to identify the divided n regions.

またS340の処理が終了すると、S350aにて、選択した領域の撮影距離を計算する。即ち、選択した領域全体にわたって距離データの平均を算出し、この平均値を撮影距離とする。   When the process of S340 ends, the shooting distance of the selected area is calculated in S350a. That is, the average of the distance data is calculated over the entire selected area, and this average value is set as the shooting distance.

またS390の処理が終了すると、S400aにて、S350aにて計算された撮影距離における基準分布(以降、補間基準分布と称す)を線形補間により算出する。即ち、例えば撮影距離が32.5の基準分布を求めるためには、撮影距離r=20の基準分布(k,20)と撮影距離r=40の基準分布(k,40)とで線形補間すればよい。更にS400aでは、S390で算出されたYUVヒストグラムのこの補間基準分布に対する尤度を算出する。なお、この尤度を以降、尤度Zと称す。   When the processing of S390 is completed, a reference distribution (hereinafter referred to as an interpolation reference distribution) at the photographing distance calculated in S350a is calculated by linear interpolation in S400a. That is, for example, in order to obtain a reference distribution with a shooting distance of 32.5, linear interpolation is performed between a reference distribution (k, 20) with a shooting distance r = 20 and a reference distribution (k, 40) with a shooting distance r = 40. That's fine. Further, in S400a, the likelihood for this interpolation reference distribution of the YUV histogram calculated in S390 is calculated. This likelihood is hereinafter referred to as likelihood Z.

そしてS410aにて、S350aにて計算された撮影距離における尤度X(以降、補間尤度と称す)を線形補間により算出する。即ち、例えば撮影距離が32.5の補間尤度を求めるためには、撮影距離r=20の尤度X(k,20)と撮影距離r=40の尤度X(k,40)とで線形補間すればよい。更にS410aでは、S400aで算出された尤度Zの、補間尤度に対する尤度比(以降、認識用尤度比と称す)を算出する。即ち、認識用尤度比は、(尤度Z/補間尤度)で計算される。   In S410a, the likelihood X at the photographing distance calculated in S350a (hereinafter referred to as interpolation likelihood) is calculated by linear interpolation. That is, for example, in order to obtain the interpolation likelihood with the shooting distance of 32.5, the likelihood X (k, 20) with the shooting distance r = 20 and the likelihood X (k, 40) with the shooting distance r = 40. What is necessary is just to perform linear interpolation. In S410a, the likelihood ratio of the likelihood Z calculated in S400a to the interpolation likelihood (hereinafter referred to as the recognition likelihood ratio) is calculated. That is, the recognition likelihood ratio is calculated by (likelihood Z / interpolation likelihood).

次にS420aにて、S350aにて計算された撮影距離における尤度比上限値(以降、補間尤度比上限値と称す)及び尤度比下限値(以降、補間尤度比下限値と称す)を線形補間により算出する。即ち、例えば撮影距離が32.5の尤度比上限値を求めるためには、撮影距離r=20の尤度比上限値(k,20)と撮影距離r=40の尤度比上限値(k,40)とで線形補間すればよい。また、補間尤度比下限値も同様にして求められる。更にS420aでは、S410aで算出された認識用尤度比が、補間尤度比下限値以上且つ補間尤度比上限値以下の範囲にあるか否かを判断する。ここで、補間尤度比下限値以上且つ補間尤度比上限値以下の範囲にある場合には(S420a:YES)、S430に移行する。一方、補間尤度比下限値以上且つ補間尤度比上限値以下の範囲にない場合には(S420a:NO)、S440に移行する。   Next, in S420a, the likelihood ratio upper limit value (hereinafter referred to as the interpolation likelihood ratio upper limit value) and the likelihood ratio lower limit value (hereinafter referred to as the interpolation likelihood ratio lower limit value) at the photographing distance calculated in S350a. Is calculated by linear interpolation. That is, for example, in order to obtain the likelihood ratio upper limit value of the shooting distance 32.5, the likelihood ratio upper limit value (k, 20) of the shooting distance r = 20 and the likelihood ratio upper limit value of the shooting distance r = 40 ( k, 40) and linear interpolation. Also, the interpolation likelihood ratio lower limit value is obtained in the same manner. Further, in S420a, it is determined whether or not the recognition likelihood ratio calculated in S410a is in a range not less than the interpolation likelihood ratio lower limit and not more than the interpolation likelihood ratio upper limit. Here, when it exists in the range more than an interpolation likelihood ratio lower limit and below an interpolation likelihood ratio upper limit (S420a: YES), it transfers to S430. On the other hand, when it is not in the range not less than the interpolation likelihood ratio lower limit value and not more than the interpolation likelihood ratio upper limit value (S420a: NO), the process proceeds to S440.

以上説明したように、第2実施形態の画像認識システム1によれば、先行車両を認識するための、YUVヒストグラムと基準分布との比較において、撮影距離に応じて最適な基準分布を採用することができる。このため、先行車両までの距離が変化しても、安定して先行車両を認識することができる。   As described above, according to the image recognition system 1 of the second embodiment, in the comparison between the YUV histogram and the reference distribution for recognizing the preceding vehicle, the optimum reference distribution is adopted according to the shooting distance. Can do. For this reason, even if the distance to the preceding vehicle changes, the preceding vehicle can be recognized stably.

以上説明した第2実施形態において、レーダレーザ7及び図17におけるS350aの処理は本発明における距離測定手段、図17におけるS390の処理は本発明における特徴量抽出手段、データベース17は本発明における第2記憶手段、図17のS400a,S420a,S430及びS440の処理と図5のS450〜S490の処理は本発明における第2判定手段である。   In the second embodiment described above, the processing of the radar laser 7 and S350a in FIG. 17 is the distance measuring means in the present invention, the processing of S390 in FIG. 17 is the feature amount extracting means in the present invention, and the database 17 is the second in the present invention. The storage means, the processes of S400a, S420a, S430 and S440 in FIG. 17 and the processes of S450 to S490 in FIG. 5 are the second determination means in the present invention.

また、基準分布(k,r)は本発明における基準データ、基準データ群17bは本発明における基準データ群である。
(他の実施形態)
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態にて実施することが可能である。
The reference distribution (k, r) is the reference data in the present invention, and the reference data group 17b is the reference data group in the present invention.
(Other embodiments)
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, As long as it belongs to the technical scope of this invention, it can be implemented with a various form.

上記実施形態では、距離に応じて鮮明度が変化するものを示したが、天候(晴れ,曇り,雨など),時刻(昼,夕,夜など),太陽光の入射方向の変化等といった、入力画像が撮影される撮影環境によっても鮮明度は変化することがあるため、同じ鮮明度であっても、撮影環境に応じて異なる基準分布を選択することが望ましい。   In the above embodiment, the sharpness changes according to the distance, but the weather (sunny, cloudy, rain, etc.), time (day, evening, night, etc.), change in the incident direction of sunlight, etc. Since the sharpness may vary depending on the shooting environment in which the input image is shot, it is desirable to select different reference distributions depending on the shooting environment even with the same sharpness.

上記実施形態では、画像データに対して高速フーリエ変換を行うことにより鮮明度を算出したが、画像データに対してエッジ強調処理を行い、エッジ強調処理された画像に含まれるエッジの量に基づいて鮮明度を算出するように構成してもよい。即ち、周知のラプラシアンフィルタまたはソーベルフィルタなどを用いてエッジ画像を生成し、このエッジ画像に含まれる各画素のうち、所定の閾値以上の値をもつ画素数を計数してエッジ量を算出する。   In the above-described embodiment, the sharpness is calculated by performing the fast Fourier transform on the image data. However, the edge enhancement processing is performed on the image data, and based on the amount of edges included in the edge enhanced image. You may comprise so that a definition may be calculated. That is, an edge image is generated by using a known Laplacian filter or Sobel filter, and the number of pixels having a value equal to or greater than a predetermined threshold is calculated from the pixels included in the edge image. .

上記実施形態では、レーダレーザ7による距離測定によって、取得した画像と一対の距離データを生成し、取得した画像を領域分割した(S320a)が、特開平9−61094に開示されているように、時間的に連続した2枚の画像から、動きベクトル検出方式によって移動物体を捉えてその輪郭を算出し、その輪郭から概形を特定することにより、領域分割してもよい。或いは2つのステレオ・カメラ画像を用いて距離画像を算出することにより、一定の距離範囲に存在する領域に分割してもよい。または、1枚のカメラ画像を用いて、色が類似する画素をまとめて領域分割してもよい。   In the above embodiment, the acquired image and a pair of distance data are generated by distance measurement by the radar laser 7, and the acquired image is divided into regions (S320a), as disclosed in JP-A-9-61094. The region may be divided by capturing a moving object by using a motion vector detection method from two temporally continuous images, calculating the contour thereof, and specifying the outline from the contour. Or you may divide | segment into the area | region which exists in a fixed distance range by calculating a distance image using two stereo camera images. Alternatively, pixels having similar colors may be grouped together using a single camera image.

上記実施形態では、基準データ生成処理を行うものを示したが、基準データ生成処理は必ずしも画像認識システム1で実行される必要はない。即ち、予めオフラインで実行しておき、生成された基準データ群のみをデータベース17に格納するようにしてもよい。尚、この場合は、ユーザI/F21において操作キー21aが不要となる。以上の構成とすることにより、基準データ生成処理を省略できるとともに、データベース17内に画像データ(基準データ作成用画像データ)を格納する必要がなくなるため、データベース17の容量を削減することができる。さらに操作キー21aが不要となるため、画像認識装置3をより簡便に構成できる。   In the above embodiment, the reference data generation process is performed. However, the reference data generation process is not necessarily executed by the image recognition system 1. That is, it may be executed offline in advance and only the generated reference data group may be stored in the database 17. In this case, the operation key 21a is unnecessary in the user I / F 21. With the above configuration, the reference data generation process can be omitted, and it is not necessary to store image data (reference data creation image data) in the database 17, so that the capacity of the database 17 can be reduced. Furthermore, since the operation key 21a is unnecessary, the image recognition apparatus 3 can be configured more simply.

上記実施形態では、画像認識処理は、車両のイグニッションキーがキーシリンダに挿入され、キーがオンに変更された状態である間、繰り返し実行されるものを示したが、この画像認識処理を実行させるための認識処理実行スイッチを画像認識装置3が備え、この認識処理実行スイッチが操作されると、CPU11が画像認識処理を開始するように構成してもよい。より具体的には、クルーズコントロールを開始させるためのクルーズコントロール開始スイッチを備え、このクルーズコントロール開始スイッチが操作され、クルーズコントロールが開始されるのと連動して、CPU11が画像認識処理を開始するように構成してもよい。   In the above embodiment, the image recognition process is repeatedly executed while the ignition key of the vehicle is inserted into the key cylinder and the key is turned on. However, the image recognition process is executed. The image recognition device 3 may be provided with a recognition process execution switch for this purpose, and when the recognition process execution switch is operated, the CPU 11 may start the image recognition process. More specifically, a cruise control start switch for starting cruise control is provided, and this cruise control start switch is operated so that the CPU 11 starts image recognition processing in conjunction with the start of cruise control. You may comprise.

画像認識システム1の構成を示すブロック図。1 is a block diagram showing a configuration of an image recognition system 1. FIG. 基準データ作成処理の前半部分の手順を示すフローチャート。The flowchart which shows the procedure of the first half part of a reference | standard data creation process. 基準データ作成処理の後半部分の手順を示すフローチャート。The flowchart which shows the procedure of the latter half part of a reference | standard data creation process. 画像認識処理の前半部分の手順を示すフローチャート。The flowchart which shows the procedure of the first half part of an image recognition process. 画像認識処理の後半部分の手順を示すフローチャート。The flowchart which shows the procedure of the latter half part of an image recognition process. 基準データ作成用画像データの構成を示す図。The figure which shows the structure of the image data for reference | standard data preparation. 鮮明度の算出方法を説明する図。The figure explaining the calculation method of a definition. オブジェクト及びYUVヒストグラムを説明する図。The figure explaining an object and a YUV histogram. 入力画像を示す図。The figure which shows an input image. 作成用画像における尤度比算出結果を示す図。The figure which shows the likelihood ratio calculation result in the image for preparation. 認識用画像1における尤度比算出結果を示す図。The figure which shows the likelihood ratio calculation result in the image 1 for recognition. 認識用画像2における尤度比算出結果を示す図。The figure which shows the likelihood ratio calculation result in the image 2 for recognition. 認識用画像3における尤度比算出結果を示す図。The figure which shows the likelihood ratio calculation result in the image 3 for recognition. 画像認識システム1の構成を示すブロック図。1 is a block diagram showing a configuration of an image recognition system 1. FIG. 基準データ作成処理の前半部分の手順を示すフローチャート。The flowchart which shows the procedure of the first half part of a reference | standard data creation process. 基準データ作成処理の後半部分の手順を示すフローチャート。The flowchart which shows the procedure of the latter half part of a reference | standard data creation process. 画像認識処理の前半部分の手順を示すフローチャート。The flowchart which shows the procedure of the first half part of an image recognition process.

符号の説明Explanation of symbols

1…画像認識システム、3…画像認識装置、5…カメラ、7…レーダレーザ、11…CPU、13…ROM、15…RAM、17…データベース、17a,17b…基準データ群、19…入出力部、21…ユーザI/F、21a…操作キー、21b…表示パネル。   DESCRIPTION OF SYMBOLS 1 ... Image recognition system, 3 ... Image recognition apparatus, 5 ... Camera, 7 ... Radar laser, 11 ... CPU, 13 ... ROM, 15 ... RAM, 17 ... Database, 17a, 17b ... Reference data group, 19 ... Input-output part 21 ... User I / F, 21a ... operation keys, 21b ... display panel.

Claims (6)

入力画像を複数の部分領域画像に分割し、該部分領域画像毎に画像認識を行う画像認識方法であって、
前記部分領域画像の鮮明さの度合いを示す鮮明度を算出する第1ステップと、
前記部分領域画像から、該部分領域画像を構成する各画素の特徴を表す特徴量を抽出し、該特徴量の分布を表す特徴データを生成する第2ステップと、
予め設定された所定対象物が示され且つ該所定対象物の鮮明度が互いに異なる複数の基準画像のそれぞれについて前記特徴量の分布を表す基準データを予め生成しておくことにより用意された基準データ群の中から、前記第1ステップにより算出された鮮明度に対応した基準データを選択し、該選択した基準データと、前記第2ステップにより生成された特徴データとを比較し、該比較結果に基づいて、前記部分領域画像中に前記所定対象物が示されているか否かを判定する第3ステップと、
からなることを特徴とする画像認識方法。
An image recognition method for dividing an input image into a plurality of partial area images and performing image recognition for each partial area image,
A first step of calculating a sharpness indicating a degree of sharpness of the partial area image;
A second step of extracting a feature amount representing a feature of each pixel constituting the partial region image from the partial region image and generating feature data representing a distribution of the feature amount;
Reference data prepared by generating in advance reference data representing the distribution of the feature amount for each of a plurality of reference images showing a predetermined object set in advance and having different definition of the predetermined object From the group, select the reference data corresponding to the sharpness calculated in the first step, compare the selected reference data with the feature data generated in the second step, and the comparison result A third step of determining whether or not the predetermined object is indicated in the partial region image;
An image recognition method comprising:
入力画像を複数の部分領域画像に分割し、該部分領域画像毎に画像認識を行う画像認識装置であって、
前記部分領域画像の鮮明さの度合いを示す鮮明度を算出する鮮明度算出手段と、
前記部分領域画像から、該部分領域画像を構成する各画素の特徴を表す特徴量を抽出し、該特徴量の分布を表す特徴データを生成する特徴量抽出手段と、
予め設定された所定対象物が示され且つ該所定対象物の鮮明度が互いに異なる複数の基準画像のそれぞれについて前記特徴量の分布を表す基準データを予め生成しておくことにより用意された基準データ群を記憶する第1記憶手段と、
前記鮮明度算出手段により算出された鮮明度の値に基づいて、該鮮明度に対応した前記基準データを前記第1記憶手段から抽出し、該抽出した基準データと、前記特徴量抽出手段により抽出された特徴データとを比較し、該比較結果に基づいて、前記部分領域画像中に前記所定対象物が示されているか否かを判定する第1判定手段と、
を備えることを特徴とする画像認識装置。
An image recognition apparatus that divides an input image into a plurality of partial area images and performs image recognition for each partial area image,
A sharpness calculating means for calculating a sharpness indicating the degree of sharpness of the partial area image;
Feature amount extraction means for extracting feature amounts representing the features of each pixel constituting the partial region image from the partial region image and generating feature data representing the distribution of the feature amount;
Reference data prepared by generating in advance reference data representing the distribution of the feature amount for each of a plurality of reference images showing a predetermined object set in advance and having different definition of the predetermined object First storage means for storing groups;
Based on the sharpness value calculated by the sharpness calculating means, the reference data corresponding to the sharpness is extracted from the first storage means, and extracted by the extracted reference data and the feature quantity extracting means. First determination means for comparing the obtained feature data and determining whether or not the predetermined object is indicated in the partial region image based on the comparison result;
An image recognition apparatus comprising:
前記特徴量は、色情報である、
ことを特徴とする請求項2に記載の画像認識装置。
The feature amount is color information.
The image recognition apparatus according to claim 2.
前記鮮明度算出手段は、前記部分領域画像に対して2次元フーリエ変換し、該変換により得られる空間周波数分布に基づいて前記鮮明度を算出する、
ことを特徴とする請求項2または請求項3に記載の画像認識装置。
The sharpness calculation means performs a two-dimensional Fourier transform on the partial region image, and calculates the sharpness based on a spatial frequency distribution obtained by the transformation.
The image recognition apparatus according to claim 2, wherein the image recognition apparatus is an image recognition apparatus.
前記鮮明度算出手段は、前記部分領域画像に対してエッジ強調処理を行い、該エッジ強調処理された画像に含まれるエッジの量に基づいて前記鮮明度を算出する、
ことを特徴とする請求項2または請求項3に記載の画像認識装置。
The sharpness calculation means performs edge enhancement processing on the partial region image, and calculates the sharpness based on the amount of edges included in the edge enhanced image.
The image recognition apparatus according to claim 2, wherein the image recognition apparatus is an image recognition apparatus.
入力画像を複数の部分領域画像に分割し、該部分領域画像毎に画像認識を行う画像認識装置であって、
前記部分領域画像の中に示される物体と当該画像認識装置との間の距離である物体距離を測定する距離測定手段と、
前記部分領域画像から、該部分領域画像を構成する各画素の特徴を表す特徴量を抽出し、該特徴量の分布を表す特徴データを生成する特徴量抽出手段と、
予め設定された所定対象物が示され且つ該所定対象物の物体距離が互いに異なる複数の基準画像のそれぞれについて前記特徴量の分布を表す基準データを予め生成しておくことにより用意された基準データ群を記憶する第2記憶手段と、
前記距離測定手段により測定された物体距離に基づいて、該物体距離に対応した前記基準データを前記第2記憶手段から抽出し、該抽出した基準データと、前記特徴量抽出手段により抽出された特徴データとを比較し、該比較結果に基づいて、前記部分領域画像中に前記所定対象物が示されているか否かを判定する第2判定手段と、
を備えることを特徴とする画像認識装置。
An image recognition apparatus that divides an input image into a plurality of partial area images and performs image recognition for each partial area image,
Distance measuring means for measuring an object distance which is a distance between an object shown in the partial region image and the image recognition device;
Feature amount extraction means for extracting feature amounts representing the features of each pixel constituting the partial region image from the partial region image and generating feature data representing the distribution of the feature amount;
Reference data prepared by generating in advance reference data representing the distribution of the feature amount for each of a plurality of reference images showing a predetermined object set in advance and having different object distances of the predetermined object Second storage means for storing groups;
Based on the object distance measured by the distance measuring means, the reference data corresponding to the object distance is extracted from the second storage means, and the extracted reference data and the features extracted by the feature amount extracting means A second determination unit that compares data and determines whether or not the predetermined object is shown in the partial region image based on the comparison result;
An image recognition apparatus comprising:
JP2004163541A 2004-06-01 2004-06-01 Image recognizing method and apparatus Withdrawn JP2005346287A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004163541A JP2005346287A (en) 2004-06-01 2004-06-01 Image recognizing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004163541A JP2005346287A (en) 2004-06-01 2004-06-01 Image recognizing method and apparatus

Publications (1)

Publication Number Publication Date
JP2005346287A true JP2005346287A (en) 2005-12-15

Family

ID=35498617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004163541A Withdrawn JP2005346287A (en) 2004-06-01 2004-06-01 Image recognizing method and apparatus

Country Status (1)

Country Link
JP (1) JP2005346287A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009538558A (en) * 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera
US8180158B2 (en) 2006-07-17 2012-05-15 Panasonic Corporation Image processing device and image processing method for detecting a specific shape from an image
EP2682899A2 (en) 2012-07-03 2014-01-08 Clarion Co., Ltd. Environment recognition device
KR101570602B1 (en) 2014-02-10 2015-11-19 연세대학교 산학협력단 Apparatus and Method for Estimating Sharpness in Images
JP2017227622A (en) * 2016-06-17 2017-12-28 株式会社デンソーテン Radar device and radar device control method
JP2018013497A (en) * 2010-01-22 2018-01-25 グーグル エルエルシー Traffic signal map creation and detection
CN111382776A (en) * 2018-12-26 2020-07-07 株式会社日立制作所 Object recognition device and object recognition method
CN114387450A (en) * 2022-01-11 2022-04-22 平安科技(深圳)有限公司 Picture feature extraction method and device, storage medium and computer equipment

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009538558A (en) * 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera
JP4742168B2 (en) * 2006-05-22 2011-08-10 アクシス アーベー Method and apparatus for identifying characteristics of an object detected by a video surveillance camera
US8472714B2 (en) 2006-05-22 2013-06-25 Axis Ab Identification apparatus and method for identifying properties of an object detected by a video surveillance camera
US8478040B2 (en) 2006-05-22 2013-07-02 Axis Ab Identification apparatus and method for identifying properties of an object detected by a video surveillance camera
US8180158B2 (en) 2006-07-17 2012-05-15 Panasonic Corporation Image processing device and image processing method for detecting a specific shape from an image
JP2018013497A (en) * 2010-01-22 2018-01-25 グーグル エルエルシー Traffic signal map creation and detection
CN103522962A (en) * 2012-07-03 2014-01-22 歌乐株式会社 Environment recognition device
EP2682899A2 (en) 2012-07-03 2014-01-08 Clarion Co., Ltd. Environment recognition device
KR101570602B1 (en) 2014-02-10 2015-11-19 연세대학교 산학협력단 Apparatus and Method for Estimating Sharpness in Images
JP2017227622A (en) * 2016-06-17 2017-12-28 株式会社デンソーテン Radar device and radar device control method
CN111382776A (en) * 2018-12-26 2020-07-07 株式会社日立制作所 Object recognition device and object recognition method
JP2020106966A (en) * 2018-12-26 2020-07-09 株式会社日立製作所 Object recognition device and object recognition method
US11232589B2 (en) 2018-12-26 2022-01-25 Hitachi, Ltd. Object recognition device and object recognition method
JP7049983B2 (en) 2018-12-26 2022-04-07 株式会社日立製作所 Object recognition device and object recognition method
CN114387450A (en) * 2022-01-11 2022-04-22 平安科技(深圳)有限公司 Picture feature extraction method and device, storage medium and computer equipment

Similar Documents

Publication Publication Date Title
JP6615933B2 (en) Method and apparatus for specifying intelligent terrain, vehicle-mounted terminal, and vehicle
KR101856401B1 (en) Method, apparatus, storage medium, and device for processing lane line data
US7623681B2 (en) System and method for range measurement of a preceding vehicle
US8908924B2 (en) Exterior environment recognition device and exterior environment recognition method
US7724962B2 (en) Context adaptive approach in vehicle detection under various visibility conditions
US8345100B2 (en) Shadow removal in an image captured by a vehicle-based camera using an optimized oriented linear axis
Kühnl et al. Monocular road segmentation using slow feature analysis
US20120008021A1 (en) Shadow Removal in an Image Captured by a Vehicle-Based Camera for Clear Path Detection
US8319854B2 (en) Shadow removal in an image captured by a vehicle based camera using a non-linear illumination-invariant kernel
WO2016175234A1 (en) Color image processing method, color image processing program, and object recognition method and device
JP5151472B2 (en) Distance image generation device, environment recognition device, and program
CN106407951B (en) A kind of night front vehicles detection method based on monocular vision
US20130342694A1 (en) Method and system for use of intrinsic images in an automotive driver-vehicle-assistance device
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
JP2013030183A (en) Environment recognition device, and program
KR101178508B1 (en) Vehicle Collision Alarm System and Method
JP2009163682A (en) Image discrimination device and program
JP2005346287A (en) Image recognizing method and apparatus
Ilehag et al. Classification and representation of commonly used roofing material using multisensorial aerial data
JP7264428B2 (en) Road sign recognition device and its program
Zhang et al. Night time vehicle detection and tracking by fusing sensor cues from autonomous vehicles
Dai et al. A driving assistance system with vision based vehicle detection techniques
JP6983334B2 (en) Image recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060824

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20081107