JP2007060273A - Environment recognition device - Google Patents

Environment recognition device Download PDF

Info

Publication number
JP2007060273A
JP2007060273A JP2005242931A JP2005242931A JP2007060273A JP 2007060273 A JP2007060273 A JP 2007060273A JP 2005242931 A JP2005242931 A JP 2005242931A JP 2005242931 A JP2005242931 A JP 2005242931A JP 2007060273 A JP2007060273 A JP 2007060273A
Authority
JP
Japan
Prior art keywords
color
image data
vehicle
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005242931A
Other languages
Japanese (ja)
Other versions
JP4577153B2 (en
Inventor
Mikio Sasaki
美樹男 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2005242931A priority Critical patent/JP4577153B2/en
Priority to US11/502,485 priority patent/US7804980B2/en
Publication of JP2007060273A publication Critical patent/JP2007060273A/en
Application granted granted Critical
Publication of JP4577153B2 publication Critical patent/JP4577153B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an environment recognition device which is capable of easily making environment recognition with a little throughput, on the basis of color video images which are present ahead of an vehicle and imaged by an on-vehicle camera. <P>SOLUTION: A color information forming unit 10 calculates the average color of the captured image data by the macro block, and determines which color index corresponds to the average color of each macro block. Color arrangement information correlating the color information as the judgement result with the macro blocks is stored in a color index memory 14. A histogram forming unit 15 forms a color histogram, indicating the distribution of the macro blocks given color information corresponding to the target color index, in accordance with the color arrangement information. Based on the color arrangement information or the color histogram, a color application enforcing unit 16 recognizes an object or the state of an environment or a vehicle without subjecting video images to a region dividing process (shape capture). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車載カメラにより撮像された車両前方のカラー画像に基づいて、車両前方の環境を認識する環境認識装置に関する。   The present invention relates to an environment recognition device that recognizes an environment in front of a vehicle based on a color image in front of the vehicle imaged by an in-vehicle camera.

従来より、車載カメラにより撮像された車両前方のカラー画像(単眼画像)に基づいて、自車の走行車線、走行車線上の先行車、交通標識などといったオブジェクトを認識する装置が知られている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, an apparatus for recognizing an object such as a traveling lane of a host vehicle, a preceding vehicle on the traveling lane, a traffic sign, or the like based on a color image (monocular image) in front of the vehicle captured by an in-vehicle camera is known ( For example, see Patent Document 1.)

この装置では、色を表す三次元空間(ここでは輝度,明度,彩度などを軸とするもの)を複数の領域に分割し、各分割領域の中央値を色インデックスとして、この色インデックスによって、カラー画像を構成する各画素の色を分類する。そして、その分類された色によって画像を領域分割する領域分割処理を実行し、その領域分割処理の結果として取得された領域の位置や形状が、予め用意されているオブジェクトに関する知識と適合するか否かを判断する知識処理を実行することにより、オブジェクトを認識するようにされている。   In this device, a three-dimensional space representing colors (here, with brightness, lightness, saturation, etc. as axes) is divided into a plurality of regions, and the median value of each divided region is used as a color index. The color of each pixel constituting the color image is classified. Then, an area division process for dividing the image according to the classified color is executed, and whether the position and shape of the area acquired as a result of the area division process is compatible with knowledge about the object prepared in advance. The object is recognized by executing knowledge processing for determining whether or not the object is detected.

また、領域分割の結果からオブジェクトを特定する別の方法としては、パターンマッチングによる方法なども知られている。
特開平6−348991号公報
As another method for specifying an object from the result of area division, a method by pattern matching is also known.
JP-A-6-338991

しかし、カラー画像中において同じ色をしたオブジェクトが互いに重なり有って存在する場合、画像データの色情報を用いた領域分割では、正確に領域分割(形状獲得)することができず、その結果、領域形状に基づく知識処理やパターンマッチングを行っても、その領域がどのオブジェクトに対応するのかを正しく判断することができないという問題があった。   However, when objects having the same color in the color image are overlapped with each other, the area division using the color information of the image data cannot be accurately divided (acquired shape), and as a result, Even if knowledge processing or pattern matching based on the region shape is performed, there is a problem that it is impossible to correctly determine which object the region corresponds to.

また、特許文献1に記載の装置では、領域分割処理を画素単位で行っているため処理負かが大きいという問題や、特にパターンマッチングでオブジェクトを特定する方法では、処理負荷が膨大なものとなってしまうという問題があった。   Further, in the apparatus described in Patent Document 1, since the area division process is performed on a pixel basis, the processing load is large, and particularly in the method of specifying an object by pattern matching, the processing load becomes enormous. There was a problem that.

また、近年では、記録された画像の検索や情報提供を容易にするために、画像に含まれるオブジェクトを抽出して、その抽出したオブジェクトに関する記述を画像に対応づけて記録する要求があり、その実現のために、画像に表されたオブジェクトを少ない処理量で認識する技術を確立することが望まれている。   In recent years, there has been a demand for extracting an object included in an image and recording a description related to the extracted object in association with an image in order to facilitate searching for a recorded image and providing information. For realization, it is desired to establish a technique for recognizing an object represented in an image with a small amount of processing.

本発明は、上記問題点を解決するために、車載カメラにより撮像された車両前方のカラー画像に基づく環境認識を平易かつ少ない処理量で実行可能な環境認識装置を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide an environment recognition device that can easily perform environment recognition based on a color image in front of a vehicle imaged by an in-vehicle camera with a small amount of processing.

上記目的を達成するためになされた発明である請求項1に記載の環境認識装置では、オブジェクト指定手段が、認識すべきオブジェクトである対象オブジェクトを指定する。また、画像データ取得手段が、車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得し、その取得した画像データに基づいて、平均色算出手段が、カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する。   In the environment recognition apparatus according to claim 1, which is an invention made to achieve the above object, the object specifying means specifies a target object which is an object to be recognized. Further, the image data acquisition means acquires image data based on a color image ahead of the vehicle imaged by the in-vehicle camera, and based on the acquired image data, the average color calculation means sets the color image to a preset size. For each pixel block obtained by the division, an average color of the pixel block is calculated.

すると、色情報付与手段が、平均色算出手段にて算出された平均色が予め用意された色インデックスのいずれに属するかを判定し、その判定結果を色情報として画素ブロックに対応づけて記憶する。   Then, the color information providing unit determines which of the color indexes prepared in advance the average color calculated by the average color calculating unit belongs, and stores the determination result in association with the pixel block as color information. .

また、色ヒストグラム生成手段が、色情報付与手段によって対応づけられた色情報と着目する色インデックスとが一致する画素ブロックの数をカラー画像上の一方向に沿って積算し、その積算値を一次元的に配列してなる色ヒストグラムを、色インデックス毎に且つ画像データのフレーム単位で時系列的に生成する。   In addition, the color histogram generation unit integrates the number of pixel blocks in which the color information associated with the color information providing unit and the target color index match along one direction on the color image, and the integrated value is first-ordered. A color histogram that is originally arranged is generated in time series for each color index and for each frame of image data.

そして、オブジェクト情報付与手段は、色ヒストグラム生成手段が生成した色ヒストグラムに基づいて、オブジェクト指定手段にて指定された対象オブジェクトに関する情報を生成し、その生成情報をオブジェクト情報として、画像データ取得手段が取得した画像データに対応づけて記憶する。   Then, the object information adding means generates information on the target object specified by the object specifying means based on the color histogram generated by the color histogram generating means, and the image data acquiring means uses the generated information as object information. The image data is stored in association with the acquired image data.

つまり、色ヒストグラムは、積算方向と交差する交差方向について、着目した色インデックスに対応する色情報が付与された画素ブロック数の分布を示すものである。従って、対象オブジェクトの色や交差方向に沿った配置に、顕著な特徴を有する場合には、この色ヒストグラムから、その対象オブジェクトの存在の有無等、その対象オブジェクトに関する情報(オブジェクト情報)を認識することが可能となるのである。   That is, the color histogram shows the distribution of the number of pixel blocks to which color information corresponding to the color index of interest is given in the intersecting direction intersecting the integration direction. Accordingly, when the target object has a remarkable feature in the color or the arrangement along the intersecting direction, information (object information) related to the target object such as the presence / absence of the target object is recognized from the color histogram. It becomes possible.

また、本発明の環境認識装置では、色情報の付与を画素単位ではなく画素ブロック単位に行っている。しかも、その画素ブロックを積算した色ヒストグラムを用いて、領域分割(形状獲得)を行うことなく対象オブジェクトの認識を行っている。   Further, in the environment recognition apparatus of the present invention, the color information is given not in units of pixels but in units of pixel blocks. In addition, the target object is recognized without performing region segmentation (shape acquisition) using a color histogram obtained by integrating the pixel blocks.

従って、本発明の環境認識装置によれば、画素単位で色情報を付与し領域分割を行う従来装置と比較して、処理負荷を大幅に軽減することができ、カラー画像におけるオブジェクトの認識を平易に行うことができる。   Therefore, according to the environment recognition apparatus of the present invention, it is possible to greatly reduce the processing load compared to the conventional apparatus that assigns color information in units of pixels and divides the area, and makes it easy to recognize an object in a color image. Can be done.

特に、車載カメラのように限定された用途では、撮像されたカラー画像中に存在するオブジェクトが限定されるため、オブジェクトの形状を特定するまでもなく、色情報の分布からオブジェクトの認識が可能となる。   In particular, in limited applications such as in-vehicle cameras, the objects that exist in the captured color image are limited, so it is possible to recognize the object from the distribution of color information without specifying the shape of the object. Become.

ところで、請求項2に記載のように、色ヒストグラム生成手段が画素ブロックの数を積算する方向は、カラー画像中における上下方向であること、即ち、色ヒストグラムの各要素は、上下方向と直交する水平方向の位置に対応づけられるようにすることが望ましい。   By the way, as described in claim 2, the direction in which the color histogram generation means accumulates the number of pixel blocks is the vertical direction in the color image, that is, each element of the color histogram is orthogonal to the vertical direction. It is desirable to make it correspond to the position in the horizontal direction.

この場合、色ヒストグラムは、水平方向すなわち車幅方向に沿った分布を表すものとなる。
ここで、図13は、赤の色インデックスに着目して、夜間走行の際に取得した色ヒストグラムを時系列的に並べて示した三次元グラフ(時空間分布)である。但し、図中横軸が時間、縦軸が画素ブロックの数、奥行きがカラー画像中の水平方向の位置であり、手前側が運転者から見て右、奥側が運転者から見て左である。
In this case, the color histogram represents a distribution along the horizontal direction, that is, the vehicle width direction.
Here, FIG. 13 is a three-dimensional graph (spatio-temporal distribution) in which color histograms acquired during night driving are arranged in time series, focusing on the red color index. However, in the figure, the horizontal axis represents time, the vertical axis represents the number of pixel blocks, and the depth represents the horizontal position in the color image. The near side is the right when viewed from the driver, and the far side is the left when viewed from the driver.

画面右側(図中手前側)に現れるピークP1,P2,P4は、中央分離帯に設置された街灯によるピークP1,P2,P4である。また、画面の中央から左側にかけて現れるピークは、交差点に設置された信号機の赤信号によるものであり、特に、10秒以上の長時間に渡って観測されるピークP3,P5は、交差点で車両が停止したことによるものである。   Peaks P1, P2, and P4 appearing on the right side of the screen (front side in the figure) are peaks P1, P2, and P4 due to streetlights installed in the central separation zone. The peak that appears from the center to the left side of the screen is due to the red light of the traffic light installed at the intersection. In particular, the peaks P3 and P5 observed over a long period of 10 seconds or more are the vehicles at the intersection. This is due to the suspension.

このように、色ヒストグラムの時系列的な変化を考慮することによって、単なるオブジェクトの認識だけでなく、街灯通過,交差点停止といった車両の挙動や状態などの認識も可能となる。   Thus, by considering the time-series change of the color histogram, not only mere object recognition but also vehicle behavior and state such as streetlight passage and intersection stop can be recognized.

なお、画素ブロックの数を積算する方向は、カラー画像中の上下方向に限らず、水平方向や、その両者の中間方向であってもよい。特に水平方向にした場合には、カラー画像中の水平エッジの検出が可能となるため、その水平エッジに基づく車両の認識などに応用することができる。   The direction in which the number of pixel blocks is integrated is not limited to the vertical direction in the color image, but may be the horizontal direction or an intermediate direction between the two. In particular, in the horizontal direction, since it is possible to detect a horizontal edge in a color image, it can be applied to vehicle recognition based on the horizontal edge.

また、請求項3に記載のように、色ヒストグラム生成手段は、対象オブジェクトに応じて、積算の対象とする画素ブロックの範囲を設定するように構成されていてもよい。
特に、色ヒストグラムの生成時における画素ブロックの積算方向が上下方向である場合、積算の対象とする画素ブロックの範囲を設定することは、ある高さ位置に存在するもののみを積算の対象とすることになる。
According to a third aspect of the present invention, the color histogram generation means may be configured to set a range of pixel blocks to be integrated according to the target object.
In particular, when the integration direction of the pixel block at the time of generating the color histogram is the vertical direction, setting the range of the pixel block to be integrated only applies to those existing at a certain height position. It will be.

このため、対象オブジェクトの存在が特定の高さ範囲に限定される場合、その対象オブジェクトではあり得ない高さに位置し、且つ対象オブジェクトと同色を有する他のオブジェクトの影響を色ヒストグラムから確実に排除することができる。   For this reason, when the presence of the target object is limited to a specific height range, the influence of other objects that are located at a height that cannot be the target object and that has the same color as the target object is reliably determined from the color histogram. Can be eliminated.

つまり、色ヒストグラムを生成する際に積算の対象とする画素ブロックの範囲を、対象オブジェクトに応じて限定することにより、色ヒストグラムを用いた対象オブジェクトの認識精度を向上させることができる。   That is, by limiting the range of pixel blocks to be integrated when generating a color histogram according to the target object, the recognition accuracy of the target object using the color histogram can be improved.

次に、請求項4に記載の環境認識装置では、色別評価値算出手段が、色ヒストグラム生成手段にて生成された色ヒストグラムのそれぞれについて、色ヒストグラムの各要素が対応する水平方向の位置のうち、対象オブジェクトが存在する可能性の高い位置ほど値が大きくなるように設定された重み係数を用いて、色ヒストグラムを構成する各要素の重み付け加算を実行し、その重み付け加算の演算結果を、対象オブジェクトに応じて設定される監視期間の間だけ積算した結果を色別評価値として算出する。   Next, in the environment recognition device according to claim 4, the evaluation value calculation unit for each color has a horizontal position corresponding to each element of the color histogram for each of the color histograms generated by the color histogram generation unit. Among these, using a weighting coefficient set so that the value of the position where the target object is likely to be larger becomes larger, the weighted addition of each element constituting the color histogram is executed, and the calculation result of the weighted addition is The result of integration during the monitoring period set according to the target object is calculated as an evaluation value for each color.

そして、オブジェクト情報付与手段は、色別評価値算出手段にて算出された色別評価値の和を統合評価値とし、この統合評価値が予め設定された評価閾値より大きい場合に、カラー画像中に対象オブジェクトが存在すると判定し、その判定結果をオブジェクト情報とする。   Then, the object information giving means uses the sum of the evaluation values for each color calculated by the evaluation value calculation means for each color as an integrated evaluation value, and if this integrated evaluation value is larger than a preset evaluation threshold value, It is determined that the target object exists in the file, and the determination result is used as object information.

このように構成された本発明の環境認識装置によれば、対象オブジェクトが複数色を有している場合、その複数色に対応した色インデックスを全て使用して総合的に評価することができるため、対象オブジェクトの認識精度をより高めることができる。   According to the environment recognition device of the present invention configured as described above, when the target object has a plurality of colors, it is possible to comprehensively evaluate using all the color indexes corresponding to the plurality of colors. The recognition accuracy of the target object can be further increased.

なお、対象オブジェクトとは無関係な色に対応した色ヒストグラムについては、例えば、その重み係数を全てゼロとすることにより、対象オブジェクトと関係のある色別評価値のみを加算した統合評価値を得ることができる。   For color histograms corresponding to colors unrelated to the target object, for example, by obtaining all integrated evaluation values by adding only the color-specific evaluation values related to the target object by setting all the weighting factors to zero. Can do.

ところで、色別評価値算出手段は、請求項5に記載のように、監視期間を、当該装置を搭載する車両の車速が予め設定した下限値以上である場合は該車速に反比例した大きさに設定し、該車速が前記下限値より小さい場合は予め設定された固定値に設定するように構成されていることが望ましい。   By the way, as described in claim 5, the color-by-color evaluation value calculation means sets the monitoring period to a value inversely proportional to the vehicle speed when the vehicle speed of the vehicle on which the device is mounted is equal to or greater than a preset lower limit value. Preferably, the vehicle speed is set to a preset fixed value when the vehicle speed is smaller than the lower limit value.

なお、監視期間は、例えば、対象オブジェクトが道路近傍に一定距離間隔で配置されている場合には、その一定間隔を通過するのに要する時間に設定することが考えられ、即ち、車速が小さいほど、監視期間が長くなるように設定すればよい。   Note that, for example, when the target object is arranged in the vicinity of the road at a certain distance interval, the monitoring period may be set to a time required to pass the certain distance, that is, as the vehicle speed decreases. The monitoring period may be set to be long.

但し、この場合、車速がゼロに近づくと、監視期間が極端に長くなってしまい、オブジェクト情報(認識結果)の取得に大きな遅延が生じることになる。このため、監視期間が許容遅延時間を超えて長くなってしまうことがないように、車速が下限値より小さい場合には、監視期間を固定値とすることが望ましいのである。   However, in this case, when the vehicle speed approaches zero, the monitoring period becomes extremely long, and a large delay occurs in the acquisition of the object information (recognition result). For this reason, when the vehicle speed is smaller than the lower limit value, it is desirable to set the monitoring period to a fixed value so that the monitoring period does not exceed the allowable delay time.

次に、請求項6に記載の環境認識装置における色別評価算出手段では、可変要素生成手段が、オブジェクトに応じて設定される標準距離を、色インデックスのそれぞれに対応づけて配列したものを距離ベクトルとすると共に、荷重係数を前記色ヒストグラムの各要素に対応づけて配列してなる荷重係数ベクトルを、色インデックスのそれぞれに対応づけて配列したものを荷重係数行列とし、オブジェクト指定手段にて指定された対象オブジェクトに適した前記ベクトル及び荷重係数行列を生成する。   Next, in the color-by-color evaluation calculation means in the environment recognition device according to claim 6, the variable element generation means is a distance obtained by arranging the standard distances set according to the objects in association with the respective color indexes. Designated by the object designating means as a vector, and a load coefficient vector in which the load coefficient is arranged in association with each element of the color histogram, and the load coefficient matrix is arranged in association with each color index. The vector and the load coefficient matrix suitable for the target object are generated.

すると、期間ベクトル生成手段が、監視期間を色インデックスのそれぞれに対応づけて配列したものを期間ベクトルとし、可変要素生成手段にて生成された距離ベクトル、カラー画像のフレームレート、当該装置を搭載する車両の車速に基づいて期間ベクトルを生成する。   Then, the period vector generating means sets the monitoring period corresponding to each of the color indexes as a period vector, and mounts the distance vector generated by the variable element generating means, the frame rate of the color image, and the device. A period vector is generated based on the vehicle speed.

また、行列演算手段が、色ヒストグラム生成手段にて生成された色ヒストグラムを、色インデックスのそれぞれに対応づけて配列したものを色ヒストグラム行列とし、この色ヒストグラム行列と、可変要素生成手段にて生成された荷重係数行列とを行列演算することで、色インデックスのそれぞれに対応した重み付け加算値を配列してなる評価単位ベクトルを算出する。   Further, the matrix calculation means generates a color histogram matrix obtained by arranging the color histogram generated by the color histogram generation means in association with each color index, and generates the color histogram matrix and the variable element generation means. An evaluation unit vector formed by arranging weighted addition values corresponding to each of the color indexes is calculated by performing a matrix operation on the obtained weight coefficient matrix.

更に、累積演算手段が、行列演算手段にて算出された評価単位ベクトルの各要素を、期間ベクトル生成手段にて生成された期間ベクトルの内容に従って累積することにより、色別評価値を色インデックスのそれぞれに対応づけて配列してなる色別評価ベクトルを生成する。   Further, the accumulation calculating means accumulates each element of the evaluation unit vector calculated by the matrix calculating means in accordance with the contents of the period vector generated by the period vector generating means, thereby obtaining the evaluation value for each color of the color index. An evaluation vector for each color formed by associating with each other is generated.

そして、オブジェクト情報付与手段は、累積演算手段にて生成された色別評価ベクトルの各要素を加算することで対象オブジェクトの統合評価値を算出する。
つまり、本発明の環境認識装置では、対象オブジェクトに応じた距離ベクトル及び荷重係数行列を生成し、ベクトル演算によって色別評価値(色別評価ベクトルの各要素)を一括して算出するようにされている。
Then, the object information providing unit calculates the integrated evaluation value of the target object by adding each element of the evaluation vector for each color generated by the cumulative calculation unit.
That is, in the environment recognition apparatus of the present invention, a distance vector and a load coefficient matrix corresponding to the target object are generated, and the evaluation value for each color (each element of the evaluation vector for each color) is calculated at once by vector calculation. ing.

従って、本発明の環境認識装置によれば、オブジェクトによって標準距離や重み係数、統合評価値の算出に必要な色別評価値の数等が異なっていても、これらを単一の色別評価値算出手段にて、統一的に扱うことができ、処理の構造を簡素化することができる。   Therefore, according to the environment recognition apparatus of the present invention, even if the standard distance, the weighting coefficient, the number of evaluation values for each color necessary for calculating the integrated evaluation value, and the like differ depending on the object, these are used as a single evaluation value for each color The calculation means can handle them uniformly, and the processing structure can be simplified.

なお、色別評価値算出手段を構成する各手段は、マイクロコンピュータが実行する処理により実現してもよいが、例えば、ベクトル演算が可能なプロセッサによって簡単に実現することができ、この場合、処理時間を大幅に短縮することができる。   Each means constituting the evaluation value calculation means for each color may be realized by processing executed by a microcomputer, but can be easily realized by, for example, a processor capable of vector calculation. Time can be significantly reduced.

次に、請求項7に記載の環境認識装置では、シーン分類辞書記憶手段に、カラー画像の典型的な情景を表す複数のシーンのそれぞれについて、該シーンと該シーン中に存在する可能性の高いオブジェクトとを対応付けて記憶したシーン分類辞書が記憶されており、オブジェクト指定手段は、外部より指定されたシーンに対応づけられたオブジェクトを、シーン分類辞書から順次読み出し、その読み出したオブジェクトを対象オブジェクトとして指定する。   Next, in the environment recognition device according to claim 7, the scene classification dictionary storage unit is likely to exist in each scene and each of a plurality of scenes representing a typical scene of a color image. A scene classification dictionary in which objects are stored in association with each other is stored, and the object designating unit sequentially reads out the objects associated with the scenes designated from the outside from the scene classification dictionary, and the read objects are the target objects. Specify as.

このように構成された本発明の環境認識装置によれば、指定されたシーン毎に認識すべきオブジェクトが限定されるため、オブジェクトの認識を効率良く且つ精度良く行うことができる。なお、シーンの選択は、例えば、予めシーンと位置情報とを対応づけておき、ナビやGPS等から得られる位置情報に基づいて行ったり、過去の認識結果や現在の動作モード等に基づいて行うようにすればよい。   According to the environment recognition apparatus of the present invention configured as described above, since the objects to be recognized are limited for each designated scene, the objects can be recognized efficiently and accurately. The selection of the scene is performed, for example, by associating the scene with position information in advance and based on position information obtained from navigation, GPS, or the like, or based on past recognition results, the current operation mode, or the like. What should I do?

但し、オブジェクト指定手段は、シーン分類辞書を用いることなく、認識すべき全てのオブジェクトを順番に指定するように構成してもよい。
次に、請求項8に記載の環境認識装置では、オブジェクト指定手段が、認識すべきオブジェクトである対象オブジェクトを指定する。また、画像データ取得手段が、車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得し、その取得した画像データに基づいて、平均色算出手段が、カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する。
However, the object specifying means may be configured to sequentially specify all objects to be recognized without using the scene classification dictionary.
Next, in the environment recognition device according to the eighth aspect, the object designating unit designates a target object which is an object to be recognized. Further, the image data acquisition means acquires image data based on a color image ahead of the vehicle imaged by the in-vehicle camera, and based on the acquired image data, the average color calculation means sets the color image to a preset size. For each pixel block obtained by the division, an average color of the pixel block is calculated.

すると、色情報付与手段が、平均色算出手段にて算出された平均色が予め用意された色インデックスのいずれに属するかを判定し、その判定結果を色情報として画素ブロックに対応づけて記憶する。   Then, the color information providing unit determines which of the color indexes prepared in advance the average color calculated by the average color calculating unit belongs, and stores the determination result in association with the pixel block as color information. .

そして、この色情報付与手段により前記画素ブロックのそれぞれに対応づけられた色情報に基づいて、オブジェクト情報付与手段は、オブジェクト指定手段にて指定された対象オブジェクトに関する情報を生成し、その生成情報をオブジェクト情報として、画像データ取得手段が取得した画像データに対応づけて記憶する。   Then, based on the color information associated with each of the pixel blocks by the color information giving means, the object information giving means generates information about the target object specified by the object specifying means, and the generation information is Object information is stored in association with the image data acquired by the image data acquisition means.

この場合、画素ブロックの色情報に基づいてオブジェクト情報を生成するため、色ヒストグラムに基づいてオブジェクト情報を生成する場合と比較して、扱う情報量は増加するが、代わりに、色ヒストグラムでは得られない積算方向についての位置情報も得ることができる。   In this case, since the object information is generated based on the color information of the pixel block, the amount of information to be handled is increased as compared with the case where the object information is generated based on the color histogram. It is also possible to obtain position information for a non-integrated direction.

このように、本発明の環境認識装置によれば、色ヒストグラムを用いる場合より詳細な位置情報が得られるため、オブジェクトの認識精度を向上させることができる。つまり、色ヒストグラムに基づいた認識と色情報に基づいた認識とを併用し、色ヒストグラムに基づく方法では認識が困難なオブジェクトについてのみ、色情報に基づいた方法を適用する等することで、処理負荷の軽減と認識精度の向上とを両立させることができる。   As described above, according to the environment recognition apparatus of the present invention, more detailed position information can be obtained than in the case of using a color histogram, so that the object recognition accuracy can be improved. In other words, by combining recognition based on the color histogram and recognition based on the color information, and applying the method based on the color information only to objects that are difficult to recognize using the method based on the color histogram, the processing load is increased. Can be reduced and the recognition accuracy can be improved.

なお、色ヒストグラムを用いることなくオブジェクトの認識(オブジェクト情報の生成)を行う例として、請求項9に記載の環境認識装置では、カラー画像中のワイパーの位置を表す複数のテンプレートを記憶するテンプレート記憶手段を備えている。   In addition, as an example of performing object recognition (generation of object information) without using a color histogram, the environment recognition apparatus according to claim 9 is a template storage that stores a plurality of templates representing wiper positions in a color image. Means.

そして、二値化手段が、色情報付与手段により黒の色インデックスに対応した色情報が付与された画素ブロックと、それ以外の色情報が付与された画素ブロックとで異なる値を付与した二値化画像を生成する。すると、ワイパー検出手段が、テンプレート記憶手段に記憶されたテンプレートと二値化手段が生成した二値化画像とのパターンマッチングにより、未使用時の停止位置以外の位置にあるワイパーを検出し、度数算出手段が、予め設定された観測期間の間に、ワイパー検出手段にてワイパーが検出された度数を算出する。   Then, the binarization unit adds a different value between the pixel block to which the color information corresponding to the black color index is assigned by the color information addition unit and the pixel block to which the other color information is assigned. Generate a digitized image. Then, the wiper detection means detects a wiper at a position other than the stop position when not in use by pattern matching between the template stored in the template storage means and the binarized image generated by the binarization means. The calculating means calculates the frequency at which the wiper detecting means detects the wiper during the preset observation period.

そして、オブジェクト情報付与手段では、度数算出手段にて算出された度数が予め設定された動作判定閾値を超える場合に、ワイパーが作動中である旨の情報をオブジェクト情報とする。   Then, in the object information giving means, when the frequency calculated by the frequency calculation means exceeds a preset operation determination threshold, information indicating that the wiper is operating is set as object information.

このように構成された本発明の環境認識装置によれば、作動中のワイパーを対象オブジェクトの一部として誤認識してしまうことを防止でき、オブジェクトの認識精度をより向上させることができる。   According to the environment recognition apparatus of the present invention configured as described above, it is possible to prevent erroneous recognition of the operating wiper as a part of the target object, and the recognition accuracy of the object can be further improved.

更に、請求項10に記載の環境認識装置では、累積加算手段が、当該装置を搭載する車両のワイパーの作動中に画像取得手段から取り込んだ画像データに基づいて、二値化手段にて生成された二値化画像を、その二値化画像のエッジ上にあるマクロブロックのアドレスを識別子として、その識別子に黒の色インデックスに対応した色情報が付与されたもの同士でグループ分けし、該グループ毎に同じグループに属する二値化画像を画素ブロック単位で累積加算してなる累積加算画像を生成する。   Furthermore, in the environment recognition apparatus according to claim 10, the cumulative addition means is generated by the binarization means based on the image data captured from the image acquisition means during the operation of the wiper of the vehicle equipped with the apparatus. The binarized images are grouped by using the address of the macroblock on the edge of the binarized image as an identifier, and the identifier to which color information corresponding to the black color index is assigned, Each time a binarized image belonging to the same group is cumulatively added in units of pixel blocks, a cumulative addition image is generated.

そして、テンプレート生成手段は、この累積加算手段にて生成された累積加算画像について、累積加算値が予め設定された存在判定閾値以上の画素ブロックと、累積加算値が前記存在判定閾値より小さい画素ブロックとで異なる値を付与したものをテンプレートとして生成して、テンプレート記憶手段に格納する。   Then, the template generation means, for the cumulative addition image generated by the cumulative addition means, a pixel block whose cumulative addition value is greater than or equal to a preset presence determination threshold, and a pixel block whose cumulative addition value is smaller than the presence determination threshold A template with different values is generated as a template and stored in the template storage means.

つまり、本発明の環境認識装置によれば、テンプレート記憶手段に格納するテンプレートを、外部から与えることなく、自動的に生成することができる。
また、色ヒストグラムを用いることなくオブジェクトの認識(オブジェクト情報の生成)を行う別の例として、請求項11に記載の環境認識装置では、候補抽出手段が、色情報付与手段により赤の色インデックスに対応した色情報が付与された画素ブロックを赤画素ブロックとして、この赤画素ブロックが水平方向に二つ並んだものをテールランプ候補として抽出する。
That is, according to the environment recognition apparatus of the present invention, the template stored in the template storage means can be automatically generated without being given from the outside.
As another example of recognizing an object (generating object information) without using a color histogram, in the environment recognition apparatus according to claim 11, the candidate extracting unit converts the red color index by the color information adding unit. A pixel block to which corresponding color information is assigned is taken as a red pixel block, and two red pixel blocks arranged in the horizontal direction are extracted as tail lamp candidates.

すると、車間距離推定手段が、候補抽出手段にて抽出されたテールランプ候補の位置関係が複数段階の車間距離のそれぞれに対応づけて設定された車幅条件のいずれに適合するかを判定することにより、車間距離を推定する。   Then, the inter-vehicle distance estimating means determines whether the positional relationship of the tail lamp candidates extracted by the candidate extracting means meets any of the vehicle width conditions set in association with each of a plurality of inter-vehicle distances. Estimate the distance between cars.

そして、オブジェクト情報付与手段では、テールランプ候補の位置と、車間距離推定手段にて推定された車間距離とで表される車両位置を、オブジェクト情報とする。
このように構成された本発明の環境認識装置によれば、水平方向に並んだ赤画素ブロックの抽出と、その位置関係の判定という簡単な処理により、領域分割等の複雑な処理を行うことなく、認識すべきオブジェクトの一つである前方車両を、その位置と共に検出することができる。
Then, the object information providing means uses the vehicle position represented by the position of the tail lamp candidate and the inter-vehicle distance estimated by the inter-vehicle distance estimating means as the object information.
According to the environment recognition apparatus of the present invention configured as described above, simple processing such as extraction of red pixel blocks arranged in the horizontal direction and determination of the positional relationship thereof is performed without performing complicated processing such as region division. The vehicle ahead, which is one of the objects to be recognized, can be detected along with its position.

更に、請求項12に記載の環境認識装置では、点灯判別手段が、候補抽出手段にて抽出されたテールランプ候補の輝度に基づいて点灯の有無を判別し、オブジェクト情報付与手段では、点灯判別手段での判別結果をオブジェクト情報とする。   Furthermore, in the environment recognition device according to claim 12, the lighting determining means determines the presence / absence of lighting based on the brightness of the tail lamp candidate extracted by the candidate extracting means, and the object information providing means is the lighting determining means. The discrimination result is used as object information.

また更に、請求項13に記載の環境認識装置では、車色抽出手段が、候補抽出手段にて抽出されたテールランプ候補の間又はその上下に位置するマクロブロックの色を前方車両の色として抽出し、オブジェクト情報付与手段では、車色抽出手段での抽出結果を、オブジェクト情報とする。   Still further, in the environment recognition device according to claim 13, the vehicle color extracting means extracts the color of the macro block located between or above the tail lamp candidates extracted by the candidate extracting means as the color of the preceding vehicle. In the object information giving means, the extraction result in the car color extracting means is used as object information.

これらの場合、赤画素ブロックに基づいて抽出した前方車両に間するオブジェクト情報として、テールランプの点灯の有無や車両の色が追加されるため、より詳細なオブジェクト情報を提供することができる。   In these cases, since the presence / absence of lighting of the tail lamp and the color of the vehicle are added as object information for the preceding vehicle extracted based on the red pixel block, more detailed object information can be provided.

次に、請求項14に記載の環境認識装置では、異常事態判定手段が、認識手段での対象オブジェクトについての認識結果と、当該装置外から供給される該対象オブジェクトに関する情報とが不一致である場合に、異常事態であると判定する。   Next, in the environment recognition device according to claim 14, when the abnormal situation determination unit does not match the recognition result of the target object in the recognition unit with the information about the target object supplied from outside the device. Then, it is determined that there is an abnormal situation.

このように構成された本発明の環境認識装置によれば、当該装置、或いは当該装置に対して対象オブジェクトに関する情報を供給する外部装置のいずれかに生じた異常を検出することができる。   According to the environment recognition device of the present invention configured as described above, it is possible to detect an abnormality that has occurred in either the device or an external device that supplies information related to the target object to the device.

次に、請求項15に記載の環境認識装置では、画像データ取得手段が、車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得し、その取得した画像データに基づいて、平均色算出手段が、カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、その画素ブロックの平均色を算出する。   Next, in the environment recognition device according to claim 15, the image data acquisition unit acquires image data based on a color image in front of the vehicle captured by the in-vehicle camera, and based on the acquired image data, the average color The calculation means calculates an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size.

すると、色情報付与手段が、平均色算出手段にて算出された平均色が予め用意された色インデックスのいずれに属するかを判定し、その判定結果を色情報として画素ブロックに対応づけて記憶する。   Then, the color information providing unit determines which of the color indexes prepared in advance the average color calculated by the average color calculating unit belongs, and stores the determination result in association with the pixel block as color information. .

また、色ヒストグラム生成手段が、色情報付与手段によって対応づけられた色情報と着目する色インデックスとが一致する画素ブロックの数をカラー画像上の一方向に沿って積算し、その積算値を一次元的に配列してなる色ヒストグラムを、色インデックス毎に且つ画像データのフレーム単位で時系列的に生成する。   In addition, the color histogram generation unit integrates the number of pixel blocks in which the color information associated with the color information providing unit and the target color index match along one direction on the color image, and the integrated value is first-ordered. A color histogram that is originally arranged is generated in time series for each color index and for each frame of image data.

すると、第一差分算出手段が、色ヒストグラム生成手段にて生成される色ヒストグラムのフレーム間差分を、色インデックス毎に算出し、第一要注意状況検出手段が、その第一差分算出手段での算出結果に基づいて、カラー画面上に現れた注意を要する状況を検出する。   Then, the first difference calculation means calculates the inter-frame difference of the color histogram generated by the color histogram generation means for each color index, and the first caution state detection means is the first difference calculation means Based on the calculation result, a situation requiring attention that appears on the color screen is detected.

このように構成された本発明の環境認識装置によれば、オブジェクトの認識を行うことなく、色ヒストグラムの変化のみから要注意状況を検出しているため処理負荷が小さく、要注意状況を速やかに検出することができる。   According to the environment recognition apparatus of the present invention configured as described above, since the attention situation is detected only from the change of the color histogram without performing the object recognition, the processing load is small, and the attention situation is promptly detected. Can be detected.

具体的には、例えば、車両の向きが急激に変わった場合や、車両の前方に何かが飛び出してきた場合に、色ヒストグラムのフレーム間差分が大きな値になるため、このような状況を要注意状況として検出することができる。   Specifically, for example, when the direction of the vehicle suddenly changes or something jumps out in front of the vehicle, the difference between frames of the color histogram becomes a large value, so this situation is necessary. It can be detected as a caution situation.

次に、請求項16に記載の環境認識装置では、画像データ取得手段が、車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得し、その取得した画像データに基づいて、平均色算出手段が、カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、その画素ブロックの平均色を算出する。   Next, in the environment recognition device according to claim 16, the image data acquisition means acquires image data based on a color image in front of the vehicle imaged by the in-vehicle camera, and based on the acquired image data, the average color The calculation means calculates an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size.

すると、色情報付与手段が、平均色算出手段にて算出された平均色が予め用意された色インデックスのいずれに属するかを判定し、その判定結果を色情報として画素ブロックに対応づけて記憶する。   Then, the color information providing unit determines which of the color indexes prepared in advance the average color calculated by the average color calculating unit belongs, and stores the determination result in association with the pixel block as color information. .

また、全画面積算値生成手段が、色情報付与手段によって対応づけられた色情報と着目する色インデックスとが一致する画素ブロックの数をカラー画像の全体に渡って積算してなる全画面積算値を、画像データのフレーム単位で時系列的に生成する。   Further, the full screen integrated value generation means integrates the number of pixel blocks in which the color information matched by the color information providing means and the target color index match over the entire color image. Are generated in time series in units of frames of image data.

すると、第二差分算出手段が、全画面積算値生成手段にて生成される全画面積算値のフレーム間差分を算出し、第二要注意状況検出手段が、その第二差分算出手段での算出結果に基づいて、カラー画面上に現れた注意を要する状況を検出する。   Then, the second difference calculating means calculates the inter-frame difference of the full screen integrated value generated by the full screen integrated value generating means, and the second caution state detecting means calculates by the second difference calculating means. Based on the result, a situation requiring attention that appears on the color screen is detected.

具体的には、請求項17に記載のように、全画面積算値生成手段は、赤の色インデックスについて全画面積算値を生成し、 第二要注意状況検出手段は、外部から供給される天候データが降雨中であることを示しており、且つ第二差分算出手段にて算出された全画面積算値のフレーム間差分が予め設定された接近閾値以上である場合を要注意状況として検出することが考えられる。   Specifically, as described in claim 17, the full-screen integrated value generating means generates a full-screen integrated value for the red color index, and the second caution state detecting means is the weather supplied from the outside The case where the data indicates that it is raining and the inter-frame difference of the full-screen integrated value calculated by the second difference calculating means is greater than or equal to a preset approach threshold is detected as a caution situation. Can be considered.

つまり、降雨時は、雨だれによるフロントガラス上の拡散光で、赤の色ヒストグラムが前方車両のストップランプの点灯に対して敏感に反応し、前方車両への接近に伴い、画面全体において赤い画素ブロックの数が顕著に増大するため、このような状況を要注意状況として検出しているのである。   In other words, when it rains, the red color histogram reacts sensitively to the lighting of the stop lamp of the preceding vehicle due to the diffused light on the windshield due to raindrops. This number is detected as a situation requiring attention.

次に、請求項18に記載の環境認識装置では、画像データ取得手段が、車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得し、その取得した画像データに基づいて、平均色算出手段が、カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する。   Next, in the environment recognition device according to claim 18, the image data acquisition means acquires image data based on a color image in front of the vehicle imaged by the in-vehicle camera, and based on the acquired image data, the average color The calculation means calculates an average color of the pixel block for each pixel block obtained by dividing the color image by a predetermined size.

すると、色情報付与手段が、平均色算出手段にて算出された平均色が予め用意された色インデックスのいずれに属するかを判定し、その判定結果を色情報として画素ブロックに対応づけて記憶する。   Then, the color information providing unit determines which of the color indexes prepared in advance the average color calculated by the average color calculating unit belongs, and stores the determination result in association with the pixel block as color information. .

そして、危険度算出手段が、平均色算出手段にて算出される画素ブロックの平均色のフレーム間差分を、予め指定された前記カラー画像中の一領域である監視領域に属する全ての画素ブロックについて積算したものを、監視領域の危険度として算出する。   Then, the risk level calculation means calculates the inter-frame difference of the average color of the pixel blocks calculated by the average color calculation means for all the pixel blocks belonging to the monitoring area that is one area in the color image specified in advance. The integrated value is calculated as the risk level of the monitoring area.

このように構成された本発明の環境認識装置では、監視領域内にて大きな動き(画面変化)があるほど算出される危険度が大きくなる。この算出された危険度は、例えば、運転者の注意を促す処理の起動等に使用することができる。   In the environment recognition apparatus of the present invention configured as described above, the degree of risk that is calculated increases as there is a large movement (screen change) in the monitoring area. This calculated degree of risk can be used, for example, for starting a process for alerting the driver.

なお、監視領域としては、例えば、シーン毎に、車両や人が飛び出してくる可能性がある領域等を設定すること等が考えられる。
但し、この場合、請求項19に記載のように、危険度算出手段は、画素ブロックの平均色のフレーム間差分を積算する際に、カラー画像の消失点に近い画素ブロックほど重み付けを大きくした重み付け加算を行うことが望ましい。
In addition, as a monitoring area | region, setting the area | region etc. which a vehicle or a person may jump out for every scene etc. can be considered, for example.
However, in this case, as described in claim 19, when calculating the inter-frame difference of the average color of the pixel block, the risk degree calculation unit weights the pixel block closer to the vanishing point of the color image. It is desirable to perform addition.

即ち、画像の特性上、実際の動きに対する画面上での動きは、消失点付近ほど小さく、また、消失点から離れるほど大きくなるため、荷重のない単純な加算を行うと、消失点付近では実際より低い危険度が算出され、消失点から離れるほど実際より高い危険度が算出されてしまうことになるためである。   In other words, because of the characteristics of the image, the movement on the screen relative to the actual movement is smaller near the vanishing point and larger as it moves away from the vanishing point. This is because a lower risk level is calculated, and a higher risk level is calculated as the distance from the vanishing point increases.

ところで、画像データ取得手段が取得する画像データは直交変換を用いて符号化されている場合、請求項20に記載のように、平均色算出手段は、画像データに含まれる直流成分を平均色として用いることが望ましい。   By the way, when the image data acquired by the image data acquisition means is encoded using orthogonal transform, the average color calculation means uses the direct current component included in the image data as the average color as described in claim 20. It is desirable to use it.

この場合、直流成分の復号を行うことにより、画素ブロックの平均色を簡単に取得することができ、平均色算出手段の処理負荷を大幅に軽減することができる。   In this case, by decoding the DC component, the average color of the pixel block can be easily obtained, and the processing load on the average color calculation means can be greatly reduced.

以下に本発明の実施形態を図面と共に説明する。
図1は、本発明が適用された環境認識装置を含む車載システムの構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an in-vehicle system including an environment recognition device to which the present invention is applied.

図1に示すように、車載システムは、車両前方の景色を撮影する車載カメラ1と、車載カメラ1から得られるカラー画像(単眼画像)を符号化する符号化部2と、符号化部2にて符号化された画像データに基づき、カラー画像中に存在するオブジェクトの認識結果や、オブジェクトの認識に有用な各種データを出力する環境認識装置3とを備えている。   As shown in FIG. 1, the in-vehicle system includes an in-vehicle camera 1 that captures a scene in front of the vehicle, an encoding unit 2 that encodes a color image (monocular image) obtained from the in-vehicle camera 1, and an encoding unit 2. And an environment recognition device 3 that outputs recognition results of objects existing in the color image and various data useful for object recognition based on the encoded image data.

このうち、車載カメラ1は、カラー画像を出力するCCDカメラ等からなり、フロントガラスを介して車両前方の景色を撮影できるように車室内の天井付近に設置されている。なお、本実施形態では、1フレームの画像が横:352画素×縦:240画素で構成されているものとする。   Among these, the in-vehicle camera 1 is composed of a CCD camera or the like that outputs a color image, and is installed in the vicinity of the ceiling in the vehicle interior so that a scene in front of the vehicle can be photographed through the windshield. In this embodiment, it is assumed that one frame image is composed of horizontal: 352 pixels × vertical: 240 pixels.

また、符号化部2は、MPEG形式で符号化を行う周知のものであり、符号化部2にて符号化された画像データは、二次元DCT(離散コサイン変換)が施され、画素ブロック(8画素×8画素)単位でDCT係数を記述したものとなる。なお、各画素ブロックにおけるDCT係数の直流(DC)成分は、画素ブロックの平均値に相当する。   The encoding unit 2 is a well-known unit that performs encoding in the MPEG format. The image data encoded by the encoding unit 2 is subjected to two-dimensional DCT (discrete cosine transform), and a pixel block ( The DCT coefficient is described in units of 8 pixels × 8 pixels. Note that the direct current (DC) component of the DCT coefficient in each pixel block corresponds to the average value of the pixel blocks.

そして、1フレームの画像は、16画素×16画素からなるマクロブロック単位に分割され(つまり、本実施形態では1フレームがM(=22)個×N(=15)個のマクロブロックからなる)、このマクロブロックを、輝度(Y成分)を表す四つの画素ブロックY0,Y1,Y2,Y3と、色差(U成分,V成分)を表す二つの画素ブロックU,Vとで表すようにされている。   An image of one frame is divided into macroblock units each composed of 16 pixels × 16 pixels (that is, one frame is composed of M (= 22) × N (= 15) macroblocks in the present embodiment). This macro block is represented by four pixel blocks Y0, Y1, Y2, Y3 representing luminance (Y component) and two pixel blocks U, V representing color difference (U component, V component). Yes.

次に、環境認識装置3は、符号化部2から取り込んだ画像データがイントラフレーム(Iフレーム)である場合、その画像データ(Iフレーム)の平均色を表す色情報をマクロブロック単位で求める色情報生成部10と、色情報生成部10にて生成された色情報が各マクロブロックに対応づけて記憶される色インデックスメモリ14とを備えている。   Next, when the image data fetched from the encoding unit 2 is an intra frame (I frame), the environment recognition apparatus 3 obtains color information representing the average color of the image data (I frame) in units of macroblocks. An information generation unit 10 and a color index memory 14 in which color information generated by the color information generation unit 10 is stored in association with each macroblock are provided.

このうち色情報生成部10は、符号化部2から取り込んだ画像データに基づき、その画像データの平均色をマクロブロック単位で算出するブロック平均色算出部11と、当該装置にて使用する色の語彙(以下「色インデックス」という)を定義した色辞書パレットを記憶する色辞書記憶部12と、この色辞書記憶部12に記憶された色辞書パレットを参照することにより、ブロック平均色算出部11にて算出されたマクロブロックの平均色が、どの色インデックスに対応するを判定して、その判定結果を色情報として生成する色判定部13とからなる。   Among these, the color information generation unit 10 is based on the image data fetched from the encoding unit 2, the block average color calculation unit 11 that calculates the average color of the image data in units of macroblocks, and the color used in the apparatus. A color dictionary storage unit 12 that stores a color dictionary palette that defines a vocabulary (hereinafter referred to as “color index”), and a block average color calculation unit 11 by referring to the color dictionary palette stored in the color dictionary storage unit 12 The color determination unit 13 determines which color index corresponds to the average color of the macroblock calculated in (1) and generates the determination result as color information.

なお、ブロック平均色算出部11は、符号化された画像データのうち、マクロブロックに対応付けられた6個の画素ブロックY0〜Y3,U,Vについて、それぞれDCT係数の直流成分を復号することで平均色を求める。但し、輝度を表す4個の画素ブロックY0〜Y3については、それぞれの直流成分の平均値を、マクロブロックにおけるY成分の平均色とする。   The block average color calculation unit 11 decodes the DC component of the DCT coefficient for each of the six pixel blocks Y0 to Y3, U, and V associated with the macroblock in the encoded image data. To find the average color. However, for the four pixel blocks Y0 to Y3 representing the luminance, the average value of the direct current components is set as the average color of the Y components in the macroblock.

ここで、図2(a)は車載カメラ1にて撮影したサンプル画像、図2(b)はサンプル画像を処理した場合に、ブロック平均色算出部11にて算出されるマクロブロック単位の平均色を三次元グラフに示したものである。但し、図2(b)はY成分についての三次元グラフであり、U成分,V成分についても同様のものが生成される。また、以下では、車載カメラ1にて撮影した画像において、車幅方向に相当する方向(図2(a)中の左右方向)を水平方向、これに直交する方向を垂直方向とと呼ぶものとする。   Here, FIG. 2A is a sample image taken by the in-vehicle camera 1, and FIG. 2B is an average color for each macroblock calculated by the block average color calculation unit 11 when the sample image is processed. Is shown in a three-dimensional graph. However, FIG. 2B is a three-dimensional graph for the Y component, and the same is generated for the U component and the V component. In the following, in the image taken by the in-vehicle camera 1, the direction corresponding to the vehicle width direction (the left-right direction in FIG. 2A) is referred to as the horizontal direction, and the direction orthogonal thereto is referred to as the vertical direction. To do.

次に、色辞書記憶部12においては、次のP色(本実施形態ではP=7)の色インデックスが用いられている。
{青、緑、赤、黄、白、灰、黒}
各色インデックスには、認識の対象となる具体的なオブジェクトが対応付けられており、その代表的な例を以下の表1に示す。なお、この対応関係は、後述する色アプリ実行部16において、その認識を行う際に用いる知識の一つとして与えられる。
Next, in the color dictionary storage unit 12, the color index of the next P color (P = 7 in the present embodiment) is used.
{Blue, green, red, yellow, white, gray, black}
Each color index is associated with a specific object to be recognized, and a typical example is shown in Table 1 below. This correspondence is given as one piece of knowledge used when the color application execution unit 16 described later recognizes the correspondence.

そして、色辞書パレットでは、各色インデックスについて、選択した表色系(ここではYUV)を用いて設定した閾値(上限値,下限値)が対応づけられている。
ここでは、色インデックスのいずれかをci(i=1,2,…,P)、その色インデックスciのY成分の下限値をLYci,上限値をLHci、U成分の下限値をLUci,上限値をLHci、V成分の下限値をLVci,上限値をHVciで表すものとする。
In the color dictionary palette, threshold values (upper limit value and lower limit value) set using the selected color system (here, YUV) are associated with each color index.
Here, one of the color indexes is ci (i = 1, 2,..., P), the lower limit value of the Y component of the color index ci is LYci, the upper limit value is LHci, the lower limit value of the U component is LUci, and the upper limit value. Is represented by LHci, the lower limit value of the V component is represented by LVci, and the upper limit value is represented by HVci.

なお、色インデックスは、上記7色に限るものではなく、人間の感覚に即した色分類ができていれば他の色を用いたり、色インデックスの数を増減させたりしてもよい。但し、色インデックスの数は、閾値の構成上、三原色と白黒を中心とする数色が妥当である。   Note that the color index is not limited to the above seven colors, and other colors may be used or the number of color indexes may be increased or decreased as long as color classification in accordance with human senses is achieved. However, for the number of color indexes, several colors centering on the three primary colors and black and white are appropriate due to the configuration of the threshold.

色判定部13では、ブロック平均色算出部11にて、マクロブロック毎に算出されるYUV各成分の平均色をAY,AU,AVとすると、色辞書パレットで定義された閾値を用いて、各色インデックス毎に定義された(1)〜(3)に示す不等式を用いて、マクロブロックの色がどの色インデックスciに対応するかを判定し、判定結果(即ち、色インデックスのいずれか)を、そのマクロブロックの色情報として生成する。但し、上限値,下限値は、そのいずれか一方しか定義されていないものがあってもよい。   If the average color of each YUV component calculated by the block average color calculation unit 11 is AY, AU, AV in the block average color calculation unit 11, each color is determined using the threshold values defined in the color dictionary palette. Using the inequalities shown in (1) to (3) defined for each index, it is determined which color index ci corresponds to the color of the macroblock, and the determination result (that is, one of the color indexes) is It is generated as color information of the macro block. However, the upper limit value and the lower limit value may have only one of them defined.

LYci≦AY<HYci (1)
LUci≦AU<HUci (2)
LVci≦AV<LUci (3)
このようにして生成された色情報は、上述したように、マクロブロックに対応づけて色インデックスメモリ14に記憶される。以下では、このマクロブロックに対応づけられた色情報を色情報配列とよぶものとする。
LYci ≦ AY <HYci (1)
LUci ≦ AU <HUci (2)
LVci ≦ AV <LUci (3)
The color information generated in this way is stored in the color index memory 14 in association with the macroblock as described above. Hereinafter, the color information associated with the macroblock is referred to as a color information array.

図1に戻り、環境認識装置3は、ブロック平均色算出部11での算出結果(マクロブロック平均色)に基づいて、カラー画面上に予め設定された監視領域の危険度を求める危険度算出部24と、色インデックスメモリ14に記憶された色情報配列に従って、注目する色インデックスに対応する色情報が付与されたマクロブロックの分布を表す色ヒストグラムを生成するヒストグラム生成部15と、色インデックスメモリ14に記憶された色情報配列、及びヒストグラム生成部15にて生成された色ヒストグラム、当該装置3の外部から供給される各種データに基づいて各種アプリケーションを実行し、車載カメラ1で撮影されたカラー画像中に存在するオブジェクトの認識結果、色ヒストグラムに基づいて生成される立体地図、注意を要する状況であることを示す要注意通知などを出力する色アプリ実行部16とを備えている。   Returning to FIG. 1, the environment recognition device 3 is based on the calculation result (macroblock average color) in the block average color calculation unit 11 and calculates a risk level calculation unit that calculates the risk level of the monitoring area set in advance on the color screen. 24, a histogram generation unit 15 that generates a color histogram representing a distribution of macroblocks to which color information corresponding to the color index of interest is assigned, according to the color information array stored in the color index memory 14, and a color index memory 14 A color image captured by the in-vehicle camera 1 by executing various applications based on the color information array stored in the image, the color histogram generated by the histogram generation unit 15, and various data supplied from the outside of the device 3. 3D map generated based on the recognition result of objects existing inside, color histogram, attention is required And a color application execution unit 16 for outputting such caution notice indicating a situation.

このうち、危険度算出部24は、フレームを識別するパラメータをkとして、(4)式に従って、フレームkにおける監視領域の危険度Dkを算出する。   Among these, the risk level calculation unit 24 calculates the risk level Dk of the monitoring area in the frame k according to the equation (4), where k is a parameter for identifying the frame.

但し、Zdc(EL(i),ND(j),k)は、フレームk中のND(j)で識別されるマクロブロックについて、EL(i)で識別される成分の平均色(DCT係数のDC成分)を表す。また、EL(i)は、マクロブロックの6種類の成分Y0〜Y3,U,Vのうちのいずれか一つを表し、ND(j)は、監視領域に含まれるJ個のマクロブロックのうちのいずれか一つを表す。更に、W(j)は、マクロブロックの位置に対応して付与される重み関数である。   However, Zdc (EL (i), ND (j), k) is the average color (DCT coefficient of the component identified by EL (i) for the macroblock identified by ND (j) in frame k. DC component). EL (i) represents any one of the six types of components Y0 to Y3, U, and V of the macroblock, and ND (j) represents J macroblocks included in the monitoring area. Represents one of these. Further, W (j) is a weighting function given corresponding to the position of the macroblock.

つまり、フレーム間の差分電力(即ち、輝度や色の変化)が大きいほど運転中の視覚への負担は大きいため、全成分Y0〜Y3,U,Vについてこの差分電力を合計したものを、フレームkにおける危険度Dnとして求めている。なお、通常の直進走行時であっても、画像周辺部ではフレーム間の差分が大きくなるため、監視領域の中でも、特に画像中の消失点周辺に近いマクロブロックほど重みが大きくなるように重み関数W(j)を設定する。また、監視領域は、例えば、車両や人の飛び出しなど、新たなオブジェクトが急に出現する可能性がある領域等に設定される。   That is, the greater the difference power between frames (that is, changes in brightness and color), the greater the burden on vision during driving. Therefore, the sum of the difference powers for all components Y0 to Y3, U, and V It is obtained as the degree of risk Dn at k. Even during normal straight running, the difference between frames is large at the periphery of the image. Therefore, the weight function is set so that the macroblock is closer to the vanishing point in the image, especially near the vanishing point in the image. Set W (j). The monitoring area is set to an area where a new object may appear suddenly, such as a vehicle or a person jumping out.

ヒストグラム生成部15では、図3に示すように、色インデックスメモリ14に記憶された色情報配列に基づいて、注目する色インデックスciが付与されたマクロブロックの数を、画像の水平方向に沿ったマクロブロックの水平座標m(m=1,2,…,M)毎に、画像の垂直方向に沿って累積することで色ヒストグラムHci(m)を生成する。つまり、1フレームの画像について、色インデックスの数(P個)の色ヒストグラムHci(m)が生成されることになる。   As shown in FIG. 3, the histogram generation unit 15 determines the number of macroblocks to which the color index ci of interest is attached along the horizontal direction of the image based on the color information array stored in the color index memory 14. A color histogram Hci (m) is generated by accumulating along the vertical direction of the image for each horizontal coordinate m (m = 1, 2,..., M) of the macroblock. That is, the number of color indexes (P) of color histograms Hci (m) is generated for one frame image.

また、ヒストグラム生成部15において、マクロブロックの累積を行う垂直方向の範囲は、色アプリ実行部16からの設定によって任意に変更できるように構成されている。
なお、図3では、図面を見易くするため、色情報配列の垂直方向のマクロブロック数を少なくして記述している。
In the histogram generation unit 15, the vertical range in which the macroblocks are accumulated can be arbitrarily changed according to the setting from the color application execution unit 16.
In FIG. 3, the number of macro blocks in the vertical direction of the color information array is described to be easy to see.

図1に戻り、色アプリ実行部16は、カラー画像の典型的な場面を表すシーン毎に、そのシーン中に含まれる代表的なオブジェクトや典型的な状態等を表現する語彙を対応づけてなるシーン分類辞書を記憶するシーン分類辞書記憶部17と、マイクロコンピュータにより構成され、後述するワイパー検出処理にて使用されるテンプレートを記憶するテンプレート記憶部18と、色インデックスメモリ14に格納された色インデックス画像データ、ヒストグラム生成部15にて生成された色ヒストグラムHci(m)、シーン分類辞書記憶部17に記憶されたシーン分類辞書、テンプレート記憶部18に記憶されたテンプレート、外部から供給される動作モード選択データAM,車速データV,天候データTEN、後述するオブジェクトインデックスメモリ20に格納された既知又は過去のオブジェクトインデックス等に基づいて、オブジェクトの検出や状況の認識など環境認識のための各種処理を実行する処理部19とからなる。   Returning to FIG. 1, the color application execution unit 16 associates a vocabulary representing a typical object, a typical state, and the like included in each scene representing a typical scene of a color image. A scene classification dictionary storage unit 17 that stores a scene classification dictionary, a template storage unit 18 that includes a microcomputer and stores a template used in a wiper detection process described later, and a color index stored in the color index memory 14 Image data, color histogram Hci (m) generated by the histogram generator 15, scene classification dictionary stored in the scene classification dictionary storage unit 17, template stored in the template storage unit 18, operation mode supplied from the outside Selection data AM, vehicle speed data V, weather data TEN, object index to be described later Based on the stored known or past object index such as Sumemori 20, consisting of processing unit 19 for executing various processes for environmental recognition such as recognition of the detection and the status of the object.

ここで、シーン分類辞書記憶部17に記憶されるシーン分類辞書の記述例を表2に示す。   Here, a description example of the scene classification dictionary stored in the scene classification dictionary storage unit 17 is shown in Table 2.

処理部19では、路側物(例えば街灯,信号機)等といった静止物を検出する静止物検出処理、ワイパーが作動中であるか否かを検出するワイパー検出処理、ワイパー検出処理で用いるテンプレートを生成するテンプレート生成処理、色ヒストグラムに基づいて立体地図を生成する立体地図生成処理、注意を要する状況を検出する要注意状況検出処理、前方車両に関する情報を検出する前方車両検出処理等を実行する。   The processing unit 19 generates a template used in a stationary object detection process for detecting a stationary object such as a roadside object (for example, a streetlight or a traffic light), a wiper detection process for detecting whether or not the wiper is operating, and a wiper detection process. A template generation process, a 3D map generation process for generating a 3D map based on the color histogram, a caution situation detection process for detecting a situation requiring attention, a forward vehicle detection process for detecting information related to the preceding vehicle, and the like are executed.

これら各処理は、動作モード選択データAMから特定される動作モードと予め対応づけられており、動作モード選択データAMの内容に従って、実行する処理が適宜選択される。   Each of these processes is associated with an operation mode specified from the operation mode selection data AM in advance, and a process to be executed is appropriately selected according to the contents of the operation mode selection data AM.

なお、動作モード選択データAMは、車両の運転者によって入力されるものであってもよいし、当該装置やその他の車載装置にて認識された状況に応じて自動的に生成されるものであってもよい。また、車速データVは、車両に搭載された車速センサの出力から求められたものであってもよいし、ナビゲーション装置やGPS受信器などにて求められたものであってもよい。   The operation mode selection data AM may be input by the driver of the vehicle or automatically generated according to the situation recognized by the device or other in-vehicle device. May be. The vehicle speed data V may be obtained from the output of a vehicle speed sensor mounted on the vehicle, or may be obtained from a navigation device, a GPS receiver, or the like.

ここで、処理部19が実行する各処理の詳細について説明する。
[静止物検出処理]
まず、静止物検出処理を、図4に示すフローチャートに沿って説明する。
Here, the detail of each process which the process part 19 performs is demonstrated.
[Still object detection processing]
First, the stationary object detection process will be described with reference to the flowchart shown in FIG.

本処理が起動すると、まず、認識の対象となる対象オブジェクト(静止物)を選択する(S110)。具体的には、シーンの指定がある場合には、シーン分類辞書記憶部17に記憶されているシーン分類辞書を検索することにより、その指定されたシーンに対応するオブジェクトの一つを対象オブジェクトとして選択し、シーンの指定がない場合は、シーン分類辞書を用いることなく、認識の対象とすべき全てのオブジェクトの中から、いずれか一つを順番(例えば、重要度の高い順)に選択する。   When this process is activated, first, a target object (stationary object) to be recognized is selected (S110). Specifically, when a scene is designated, one of objects corresponding to the designated scene is set as a target object by searching the scene classification dictionary stored in the scene classification dictionary storage unit 17. If no scene is specified, any one of the objects to be recognized is selected in order (for example, in descending order of importance) without using the scene classification dictionary. .

なお、シーンは、外部から入力される各種情報、例えば、現在位置の情報や、動作モード選択データAM,天候データTEN等に基づいて指定されるものであってもよいし、処理部19での処理の結果として認識されたオブジェクト、又は当該装置の後段で実行されるより上位の認識処理によって認識されたオブジェクトに基づいて指定されるものであってもよい。   The scene may be specified based on various information input from the outside, for example, information on the current position, operation mode selection data AM, weather data TEN, etc. It may be specified based on an object recognized as a result of the process or an object recognized by a higher-level recognition process executed later in the apparatus.

次に、S110にて選択された対象オブジェクトに従って、各種パラメータを設定する(S120)。ここで設定されるパラメータは、ヒストグラム生成部15にて色情報配列の垂直方向にマクロブロック数の累積を行う際の範囲を定める累積範囲Rと、後述する累積フレーム数Kの算出に用いる標準距離Dと、処理の対象とする色インデックスの種類を定める注目色ci(i=1,2,…,Psp)と、後述する色別評価値Sciを算出する際に使用する重み関数Wciとからなる。   Next, various parameters are set according to the target object selected in S110 (S120). The parameters set here are an accumulation range R that defines a range for accumulating the number of macroblocks in the vertical direction of the color information array in the histogram generation unit 15, and a standard distance used for calculating an accumulation frame number K described later. D, a target color ci (i = 1, 2,..., Psp) that determines the type of color index to be processed, and a weight function Wci used when calculating an evaluation value Sci for each color to be described later. .

つまり、累積範囲Rは、対象オブジェクトが信号機や道路標識などのように、画面中の垂直方向(高さ方向)の決められた範囲内に存在する可能性が高いものである場合に、その存在する可能性が高い領域でのみを対象として色ヒストグラムの生成を行わせるためのものである。従って、特に高さ方向に特徴のないオブジェクトについては、垂直方向の全範囲が累積範囲Rとなる。   That is, the cumulative range R is present when the target object is likely to exist within a predetermined range in the vertical direction (height direction) on the screen, such as a traffic light or a road sign. This is for generating a color histogram only in an area where there is a high possibility of the color histogram. Therefore, the total range in the vertical direction is the cumulative range R for objects that have no particular feature in the height direction.

また、標準距離Dは、対象オブジェクトが街灯や信号機のように繰り返し現れるものである場合は、その平均的な配置間隔などに基づいて設定され、そのような特定の繰り返しパターンがない場合は、ある一定の値に設定される。   The standard distance D is set based on the average arrangement interval when the target object repeatedly appears like a streetlight or a traffic light, and there are cases where there is no such specific repeating pattern. Set to a constant value.

注目色ciは、対象オブジェクトに特徴的なPsp色(1≦Psp≦Pの整数)が設定される。例えば、対象オブジェクトが信号機である場合には、{緑、黄、赤}が注目色c1,c2,c3として設定され、また、対象オブジェクトが車両のテールランプである場合には、{赤}が注目色c1として設定される。   As the target color ci, a Psp color characteristic of the target object (an integer of 1 ≦ Psp ≦ P) is set. For example, when the target object is a traffic light, {green, yellow, red} is set as the attention color c1, c2, c3, and when the target object is a vehicle tail lamp, {red} is attention. Set as color c1.

重み関数Wciは、画面中の水平方向の位置(マクロブロックの水平座標m)のそれぞれについて、対象オブジェクトが存在する確率の高い位置ほど重みが大きくなるように設定される。また、注目色ciが複数存在する場合には、その注目色ci毎に異なる重み関数が設定される。但し、同じ対象オブジェクトについては、全ての注目色ciに対して同じ重み関数Wciを用いるように設定してもよい。   The weighting function Wci is set so that the weight increases as the position where the target object exists is higher for each of the horizontal positions (macroblock horizontal coordinates m) on the screen. When there are a plurality of attention colors ci, different weight functions are set for the attention colors ci. However, for the same target object, the same weight function Wci may be used for all the target colors ci.

次に、S120にて設定したパラメータのうち、累積範囲Rを用いて、ヒストグラム生成部15が色ヒストグラムHci(m)を生成する際に、垂直方向にマクロブロック数の累積を行う範囲を設定する(S130)。   Next, among the parameters set in S120, when the histogram generation unit 15 generates the color histogram Hci (m) using the accumulation range R, a range for accumulating the number of macroblocks in the vertical direction is set. (S130).

そして、車速Vを取得し(S140)、その取得した車速Vと予め設定された下限値Vmin とを比較して(S150)、車速Vが下限値Vmin 以上であれば、(5)式を用いて車速Vに応じた累積フレーム数Kを算出し(S160)、車速Vが下限値Vmin より小さければ、(6)式を用いて車速Vに関係なく累積フレーム数Kを算出する(S170)
K=D×F/V (5)
K=F×Tconst (6)
但し、Kは小数点を切り上げた整数で表される。また、F[frm/s] は、映像処理のフレームレート、Tconst[s]は、固定時間であり、例えば、交差点で信号機が赤信号である場合の平均停止時間などに設定される。そして、この場合、Tconst =D/Vmin となるように下限値Vmin が設定される。
Then, the vehicle speed V is acquired (S140), the acquired vehicle speed V is compared with a preset lower limit value Vmin (S150), and if the vehicle speed V is equal to or higher than the lower limit value Vmin, the equation (5) is used. The cumulative frame number K corresponding to the vehicle speed V is calculated (S160). If the vehicle speed V is smaller than the lower limit value Vmin, the cumulative frame number K is calculated regardless of the vehicle speed V using the equation (6) (S170).
K = D × F / V (5)
K = F × Tconst (6)
However, K is represented by an integer obtained by rounding up the decimal point. Further, F [frm / s] is a frame rate of video processing, and Tconst [s] is a fixed time. For example, it is set to an average stop time when the traffic light is a red signal at an intersection. In this case, the lower limit value Vmin is set so that Tconst = D / Vmin.

つまり、(5)式では、車両が標準距離Dだけ進むのに要する時間(D/V)の間に処理されるIフレーム数を、累積フレーム数Kとして求めている。但し、信号機が赤信号であることにより交差点で停止する場合や、渋滞等により車速Vが極端に小さくなった場合では、(5)式で算出される累積フレーム数Kは非常に大きなものとなり、許容できない処理の遅延を生じさせるため、(6)式を用いて、車速Vとは無関係に累積フレーム数Kを求めるようにされている。   That is, in the equation (5), the number of I frames processed during the time (D / V) required for the vehicle to travel the standard distance D is obtained as the cumulative frame number K. However, when the traffic light stops at an intersection due to a red light, or when the vehicle speed V becomes extremely small due to traffic jams or the like, the cumulative number of frames K calculated by equation (5) becomes very large. In order to cause an unacceptable processing delay, the cumulative number of frames K is obtained regardless of the vehicle speed V using equation (6).

次に、ヒストグラム生成部15にて生成された全ての注目色ciについての色ヒストグラムHci(k,m)を、それぞれKフレーム分ずつ取り込む(S180)。そして、その取り込んだ色ヒストグラムHci(k,m)と、S120にて設定された重み関数Wci(m)とに基づいて、(7)式を用いて注目色ci毎の色別評価値Sciを算出する(S190)。但し、Hci(k,m)におけるkは、k番目のフレームに基づく色ヒストグラムであることを示す。   Next, the color histograms Hci (k, m) for all the target colors ci generated by the histogram generation unit 15 are captured for each K frames (S180). Then, based on the captured color histogram Hci (k, m) and the weighting function Wci (m) set in S120, the evaluation value Sci for each color for each target color ci is calculated using the equation (7). Calculate (S190). However, k in Hci (k, m) indicates a color histogram based on the kth frame.

更に、このS190にて、注目色ciのそれぞれについて算出された色別評価値Sciを、(8)式に示すように、全て加算することで統合評価値Sを算出する(S200)。   Further, in this S190, the integrated evaluation value S is calculated by adding all the evaluation values Sci for each color calculated for each of the attention colors ci as shown in the equation (8) (S200).

そして、統合評価値Sと対象オブジェクトに応じて予め設定された評価閾値Aobとを比較し(S210)、統合評価値Sが評価閾値Aob以上であれば、S110にて選択された対象オブジェクトが画像中に存在する旨の認識結果を生成し(S220)、一方、統合評価値Sが評価閾値Aobより小さければ、対象オブジェクトが画像中に存在しない旨の認識結果を生成して(S230)、本処理を終了する。   Then, the integrated evaluation value S and an evaluation threshold value Aob set in advance according to the target object are compared (S210). If the integrated evaluation value S is equal to or greater than the evaluation threshold value Aob, the target object selected in S110 is an image. On the other hand, if the integrated evaluation value S is smaller than the evaluation threshold Aob, a recognition result indicating that the target object does not exist in the image is generated (S230). The process ends.

なお、累積フレーム数Kが大きいほど、対象オブジェクトの認識結果を得るまでに大きな遅延が生じることになるため、係数α(0<α≦1)を設定し、S180,S190では、Kの代わりにα×Kを使用する共に、評価閾値もAobの代わりにα×Aobを使用することで、遅延を抑えるようにしてもよい。   As the cumulative number of frames K increases, a larger delay occurs until the target object recognition result is obtained. Therefore, a coefficient α (0 <α ≦ 1) is set. In S180 and S190, instead of K, In addition to using α × K, the evaluation threshold may also be set to use α × Aob instead of Aob to suppress delay.

この静止物検出処理において、例えば、S110にて選択された対象オブジェクトが街灯である場合、注目色ciとしては、赤の一色のみが設定され、また、重み関数Wci(m)は、図5に示すように、画面中央から右側にかけて重みが大きくなるように設定されたもの(図中GAI参照)が用いられる。また、標準距離Dは、街灯の標準的な設置間隔に設定される。   In this stationary object detection process, for example, when the target object selected in S110 is a streetlight, only one red color is set as the target color ci, and the weight function Wci (m) is shown in FIG. As shown in the figure, the one set so that the weight increases from the center of the screen to the right side (see GAI in the figure) is used. The standard distance D is set to a standard installation interval of street lamps.

即ち、道路を照らす街灯は、通常、三次元位置としては中央分離帯に代表される道路中央部の上部に位置する。また、日本では一般に車両は左側通行である。その結果、夜間の車載カメラ1の映像では、この街灯が画面の水平座標中央部から右側付近に赤い色成分をまき散らし、赤インデックスが付与されたマクロブロックの数が増えるためである。   That is, the streetlight that illuminates the road is usually located at the upper part of the center of the road represented by a median strip as a three-dimensional position. In Japan, vehicles are generally left-hand traffic. As a result, in the video of the in-vehicle camera 1 at night, this street light spreads the red color component from the horizontal coordinate center of the screen to the right side, and the number of macroblocks to which the red index is assigned increases.

なお、走行中は、個々の街灯を一瞬の間に通過するため、赤の色ヒストグラムHci(k,m)を時系列的に眺めた場合、色ヒストグラムのピークが街灯の前後で連続して現れることになる(図13のP1,P2,P4参照)。また、累積フレーム数Kが、街灯の標準的な設置間隔に設定された標準距離Dに基づいて設定されているため、街灯が存在する場所であれば、本処理をどのようなタイミングで実行しても、ほぼ確実に街灯の存在を認識することができる。   In addition, while traveling, each street light passes through in an instant. Therefore, when the red color histogram Hci (k, m) is viewed in time series, the peak of the color histogram appears continuously before and after the street light. (Refer to P1, P2, and P4 in FIG. 13). In addition, since the cumulative number K of frames is set based on the standard distance D set as the standard installation interval of street lamps, this process is executed at any timing if there is a street lamp. However, the existence of the streetlight can be recognized almost certainly.

また、この静止物検出処理において、例えば、S110にて選択された対象オブジェクトが信号機である場合、注目色ciとしては、赤,黄,緑の三色が設定され、また、重み関数Wci(m)は、図5に示すように、画面中央から左側にかけて重みが大きくなるように設定されたもの(図中SIG参照)が用いられる。また、標準距離Dは、市街地における交差点の標準的な設置間隔に設定され、更に、信号機の高さ方向の位置はほぼ一定であるため、その高さに応じて累積範囲Rも設定される。   In this stationary object detection process, for example, when the target object selected in S110 is a traffic light, three colors of red, yellow, and green are set as the target color ci, and the weight function Wci (m ), As shown in FIG. 5, the one set so that the weight increases from the center of the screen to the left side (see SIG in the figure) is used. In addition, the standard distance D is set to a standard installation interval of intersections in an urban area. Further, since the position of the traffic signal in the height direction is substantially constant, the cumulative range R is also set according to the height.

このように累積範囲Rを設定した場合、累積範囲R外に位置する信号機以外のオブジェクトが生じさせる注目色ci(赤,黄,緑)の成分、つまり誤認要因が、確実に排除されるため、信号機の認識精度が向上する。   When the accumulation range R is set in this way, the component of the target color ci (red, yellow, green) generated by an object other than the traffic light located outside the accumulation range R, that is, a misidentification factor is surely eliminated. Signal recognition accuracy is improved.

なお、ここでは、赤,黄,緑の全てを注目色ciとしたが、いずれか一色のみを注目色ciとして設定してもよい。但し、複数色を用いる方が信頼性を向上させることができることは言うまでもない。   Here, all of red, yellow, and green are set as the attention color ci, but only one of the colors may be set as the attention color ci. However, it goes without saying that the use of a plurality of colors can improve the reliability.

また、これら街灯や信号機を対象オブジェクトとして連続的に検出した場合には、その検出状況の変化から、交差点の通過や交差点での停止(図13のP3,P5参照)、渋滞の発生等といった車両の走行状況も認識することが可能となる。
[要注意状況検出処理]
次に、要注意状況検出処理について、図6に示すフローチャートに沿って説明する。
In addition, when these street lights and traffic lights are continuously detected as target objects, vehicles such as passage of intersections, stop at intersections (see P3 and P5 in FIG. 13), occurrence of traffic jams, etc., due to changes in the detection conditions. It is also possible to recognize the driving situation.
[Needs attention detection processing]
Next, the caution situation detection processing will be described along the flowchart shown in FIG.

本処理では、まず、ヒストグラム生成部15から新たなフレームkの色ヒストグラムHci(k,m)を取得するまで待機し(S310)、色ヒストグラムHci(k,m)を取得すると、(9)式に従って、前回取得した色ヒストグラムHci(k−1,m)とのフレーム間差分を、全色について加算した要注意評価値Scaを算出する(S320)。   In this process, first, the process waits until a color histogram Hci (k, m) for a new frame k is acquired from the histogram generation unit 15 (S310). When the color histogram Hci (k, m) is acquired, equation (9) is obtained. Accordingly, a critical evaluation value Sca is calculated by adding the inter-frame differences from the previously acquired color histogram Hci (k-1, m) for all colors (S320).

そして、算出された要注意評価値Scaと予め設定された画面急変化判定閾値THcaとを比較し(S330)、要注意評価値Scaが画面急変化判定閾値THca以上であれば、画面全体に急激な変化が見られ要注意状況である旨の要注意通知を出力する(S340)。   Then, the calculated caution required evaluation value Sca and a preset screen sudden change determination threshold THca are compared (S330), and if the caution required evaluation value Sca is equal to or greater than the screen sudden change determination threshold THca, the entire screen is suddenly changed. A notice of caution is output indicating that there is a noticeable change and the situation requires caution (S340).

その後、外部から入力された天候データTENに基づいて降雨の有無を判断し(S350)、降雨がないと判断した場合は、S310に戻る。
一方、降雨があると判断した場合は、取得した色ヒストグラムHci(k,m)のうち、赤(ci=r)のヒストグラムHr(k,m)について、(10)式に従って、その構成要素をすべて加算することで赤の画面総和値SAr(k)を算出する(S360)。
Thereafter, the presence / absence of rainfall is determined based on the weather data TEN input from the outside (S350). If it is determined that there is no rain, the process returns to S310.
On the other hand, if it is determined that there is rain, the component of the acquired color histogram Hci (k, m) is set to the red (ci = r) histogram Hr (k, m) according to the equation (10). The red screen total value SAr (k) is calculated by adding all (S360).

更に、予め設定されたフレーム数をKneとして、(11)式に従って、赤の画面総和値SAr(k)の現在値SAr(Kne)とフレーム数Kneにわたるフレーム間差分の重み付け累積値との和をとることで接近評価値Sneを算出する(S370)。ただし、安全性を考慮して、フレーム間差分の重み係数Wkに関しては
・フレーム間差分の値が負のときは正のときに比べてWkを小さくするまたはゼロにする
・フレーム間差分の値が正のときはkがKneに近いほどWkを大きくする
といった配慮を施すことが考えられる。
Further, assuming that the preset number of frames is Kne, the sum of the current value SAr (Kne) of the red screen total value SAr (k) and the weighted cumulative value of the interframe difference over the number of frames Kne is calculated according to the equation (11). Thus, the approach evaluation value Sne is calculated (S370). However, in consideration of safety, regarding the weight coefficient Wk of the inter-frame difference, when the inter-frame difference value is negative, Wk is made smaller or zero than when it is positive. When positive, it can be considered to increase Wk as k is closer to Kne.

そして、算出された接近評価値Sneと予め設定された接近判定閾値THneとを比較し(S380)、接近評価値Sneが接近判定閾値THneより小さければ、そのままS310に戻り、接近評価値Sneが接近判定閾値THne以上であれば、前方車両に急接近した要注意状況である旨の要注意通知を出力して(S390)、S310に戻る。   Then, the calculated approach evaluation value Sne is compared with a preset approach determination threshold value THne (S380). If the approach evaluation value Sne is smaller than the approach determination threshold value THne, the process directly returns to S310, and the approach evaluation value Sne is approached. If it is equal to or greater than the determination threshold THne, a notice of caution that indicates a caution situation in which the vehicle immediately approaches the preceding vehicle is output (S390), and the process returns to S310.

つまり、画面全体に大きな変化があるのは、車両の進行方向の急激な変化や、車両の近くでの障害物の突然の出現等が考えられ、注意を要する状況である場合が多いため、画面全体の変化の度合いを要注意評価値Scaにより求めている。   In other words, a large change in the entire screen can be caused by a sudden change in the direction of travel of the vehicle or a sudden appearance of an obstacle near the vehicle. The degree of overall change is obtained from the cautionary evaluation value Sca.

また、雨天時は雨だれによるフロントガラス上の拡散光で、赤の色ヒストグラムHr(k,m)が前方車両のストップランプの点灯に対して敏感に反応し、前方車両への接近に伴い画面全体での赤ブロックの数の総和が顕著に増大するため、その増大する度合いを接近評価値Sneにより求めている。
[テンプレート生成処理]
次に、後述するワイパー検出処理にて使用するテンプレート生成処理について、図7に示すフローチャートに沿って説明する。
In addition, when it rains, the red color histogram Hr (k, m) reacts sensitively to the lighting of the stop lamp of the preceding vehicle due to diffused light on the windshield due to raindrops. Since the sum of the number of red blocks increases significantly, the degree of increase is obtained from the approach evaluation value Sne.
[Template generation processing]
Next, template generation processing used in the wiper detection processing described later will be described with reference to the flowchart shown in FIG.

なお、テンプレートは、ワイパーの作動中に、車載カメラ1で撮影された画像に映る可能性のあるワイパーの形状を表したものである。
また、本処理の起動時には、背景の明るい場所にてワイパーを作動させた状態で、車載カメラ1での撮影を行い、この撮影で得られたテンプレート生成用画像データ(図8(a)参照)に基づく色情報配列が色インデックスメモリ14に蓄積されているものとする。
The template represents the shape of the wiper that may appear in an image taken by the in-vehicle camera 1 during the operation of the wiper.
Further, at the time of starting this processing, photographing is performed with the in-vehicle camera 1 in a state where the wiper is operated in a place with a bright background, and image data for template generation obtained by this photographing (see FIG. 8A). Is stored in the color index memory 14.

本処理が起動すると、まず、色インデックスメモリ14から、テンプレート生成用画像データに基づく色配列情報を、複数フレーム(ここではKgen 個)分だけ読み込む(S410)。   When this process is started, first, color arrangement information based on the template generation image data is read from the color index memory 14 for a plurality of frames (here, Kgen) (S410).

読み込んだ色配列情報に基づいて、図8(b)に示すように、各フレーム毎に、黒の色インデックスに対応する色情報が付与されたマクロブロックにラベル「1」を付与し、それ以外の色情報が付与されたマクロブロックにラベル「0」を付与した二値配列Bshot(k,m,n)を生成する(S420)。なお、kはフレームの識別番号、mはマクロブロックの水平座標、nはマクロブロックの垂直座標である。また、二値配列Bshot(k,m,n)は、L(=M×N)次元ベクトルとみなすこともできる。   Based on the read color arrangement information, as shown in FIG. 8B, the label “1” is assigned to the macroblock to which the color information corresponding to the black color index is assigned for each frame. A binary array Bshot (k, m, n) in which the label “0” is assigned to the macroblock to which the color information is assigned is generated (S420). Here, k is the frame identification number, m is the horizontal coordinate of the macroblock, and n is the vertical coordinate of the macroblock. The binary array Bshot (k, m, n) can also be regarded as an L (= M × N) dimensional vector.

ここで、二値配列Bshot(k,m,n)において、配列(画面)の左端及び上端に位置するマクロブロックを特定するための識別アドレスをiとして、左端に位置するマクロブロックのアドレス(m,n)=(1,1),(1,2),…(1,N)を識別アドレスi=1,2,…Nに対応させ、また、上端に位置するマクロブロックのアドレス(1,N),(2,N),…(M,N)を識別アドレスi=N,N+1,…M+N−1に対応させるものとする。   Here, in the binary array Bshot (k, m, n), the identification address for identifying the macroblock located at the left end and the top end of the array (screen) is i, and the address of the macroblock located at the left end (m , N) = (1,1), (1,2),... (1, N) correspond to the identification addresses i = 1, 2,... N, and the macroblock address (1,1, N), (2, N),... (M, N) correspond to identification addresses i = N, N + 1,.

また、フレームkの二値配列Bshot(k,m,n)において、識別番号iで特定されるマクロブロックのうち、ラベル「1」が付与され且つ識別番号iが一番小さいもの(下端寄り又は左端寄りのもの)をエッジアドレスIedge(k)とする。   Also, in the binary array Bshot (k, m, n) of the frame k, among the macroblocks identified by the identification number i, the one with the label “1” and the smallest identification number i (near the lower end or An edge address Iedge (k) is set at the left end.

そして、S420にて生成された二値配列Bshot(k,m,n)を、L(=M×N)次元のベクトルBshot(k)とみなし、(12)式を用いて、エッジアドレスIedge(k)が同じ値となるベクトルBshot(k)同士を加算することで、L次元のベクトルBw(i)を識別アドレスi毎に求める(S430)。   Then, the binary array Bshot (k, m, n) generated in S420 is regarded as an L (= M × N) -dimensional vector Bshot (k), and the edge address Iedge ( By adding the vectors Bshot (k) having the same value of k), an L-dimensional vector Bw (i) is obtained for each identification address i (S430).

なお、ベクトルBshot(k)を二値配列Bshot(k,m,n)とも記述することができるのと同様に、ベクトルBw(i)を加算値配列Bw(i,m,n)とも記述することができる。   The vector Bw (i) is also described as the addition value array Bw (i, m, n) in the same manner that the vector Bshot (k) can be described as the binary array Bshot (k, m, n). be able to.

このようにして得られた各加算値配列Bw(i,m,n)の値を、それぞれ予め設定された上限値bmax で正規化し、その正規化された値と予め設定された閾値bth(≦bmax)とを比較することで、各マクロブロックの値を二値化する(S440)。具体的には、正規化した値が閾値bth(≦bmax )以上であるマクロブロックは、ワイパーの一部であるものとして、その値を「1」に書き替え、正規化した値が閾値bthより小さいマクロブロックは、ワイパーの一部ではないものとして、その値を「0」に書き替える。   The values of the respective addition value arrays Bw (i, m, n) obtained in this way are normalized by a preset upper limit value bmax, and the normalized value and a preset threshold value bth (≦ bmax), the value of each macroblock is binarized (S440). Specifically, a macroblock whose normalized value is greater than or equal to the threshold value bth (≦ bmax) is assumed to be part of the wiper, and its value is rewritten to “1”, and the normalized value is greater than the threshold value bth. Small macroblocks are not part of the wiper and their values are rewritten to “0”.

このようにして、各マクロブロックの値が二値化された加算値配列Bw(i,m,n)を、テンプレートBw(i,m,n)として、テンプレート記憶部18に格納して(S450)、本処理を終了する。   In this way, the added value array Bw (i, m, n) in which the values of the respective macroblocks are binarized is stored in the template storage unit 18 as the template Bw (i, m, n) (S450). ), This process is terminated.

これにより、図8(c)に示すように、M+N−1個のテンプレートBw(i,m,n)が自動的に生成される。
[ワイパー検出処理]
次に、ワイパー検出処理について、図9に示すフローチャートに沿って説明する。
Thereby, as shown in FIG. 8C, M + N−1 templates Bw (i, m, n) are automatically generated.
[Wiper detection processing]
Next, the wiper detection process will be described with reference to the flowchart shown in FIG.

本処理が起動すると、まず、色インデックスメモリ14から読み出したフレームkの色情報配列に基づいて、先のS420での処理と同様に、二値配列Bshot(k,m,n)を生成する(S510)。   When this processing is started, first, based on the color information array of frame k read from the color index memory 14, a binary array Bshot (k, m, n) is generated in the same manner as the processing in S420 above ( S510).

テンプレート記憶部18に格納された全てのテンプレートBw(i,m,n)について、S510にて生成された二値配列Bshot(k,m,n)との近似度を評価する評価値Q(i,k)を、(13)式に従って算出する(S520)。   Evaluation value Q (i) for evaluating the degree of approximation with the binary array Bshot (k, m, n) generated in S510 for all templates Bw (i, m, n) stored in the template storage unit 18 , K) is calculated according to equation (13) (S520).

但し、Ww(i,m,n)は、テンプレート、及びマクロブロックの位置に応じて設定される荷重係数であり、画面の左端及び上端に位置するマクロブロックの重みが他の部分より高くなるように設定されている。   However, Ww (i, m, n) is a load coefficient set according to the position of the template and the macroblock, so that the weight of the macroblock located at the left end and the upper end of the screen is higher than other portions. Is set to

S520にて算出した評価値Q(i,k)の中で、その値が最大のもの(近似度が最も高いもの)を、最大値Q(imax ,k)として抽出し(S530)、その抽出した最大値Q(imax ,k) と予め設定された閾値Qthとを比較し(S540)、最大値Q(imax ,k)が閾値Qth以上であれば、フレームkの画像中には、テンプレートBw(imax )で特定される位置にワイパーが存在する旨の認識結果を生成し(S550)、最大値Q(imax ,k)が閾値Qthより小さければ、フレームkの画像中にはワイパーが存在しない旨の認識結果を生成する(S560)。なお、これらの判定結果は、過去Kkeepフレーム分だけメモリに格納される。   Among the evaluation values Q (i, k) calculated in S520, the evaluation value Q (i, k) having the maximum value (the one with the highest degree of approximation) is extracted as the maximum value Q (imax, k) (S530). The maximum value Q (imax, k) is compared with a preset threshold value Qth (S540). If the maximum value Q (imax, k) is equal to or greater than the threshold value Qth, the template Bw A recognition result indicating that a wiper is present at the position specified by (imax) is generated (S550). If the maximum value Q (imax, k) is smaller than the threshold value Qth, no wiper is present in the image of frame k. A recognition result to that effect is generated (S560). These determination results are stored in the memory for the past Kkeep frames.

次に、S560にてメモリに格納された判定結果に基づき、(14)式に従って、過去Kフレーム中にワイパーが存在すると判定された度数Nexを求め(S570)、その度数Nexと予め設定された作動判定閾値Nthとを比較し(S580)、度数Nexが作動判定閾値Nth以上であれば、ワイパーは作動中である旨の認識結果を生成し(S590)、度数Nexが作動判定閾値Nthより小さければ、ワイパーは停止中である旨の認識結果を生成して(S600)、本処理を終了する。   Next, based on the determination result stored in the memory in S560, the frequency Nex determined that the wiper is present in the past K frames is obtained according to the equation (14) (S570), and the frequency Nex is preset. The operation determination threshold value Nth is compared (S580). If the frequency Nex is equal to or greater than the operation determination threshold value Nth, the wiper generates a recognition result indicating that the wiper is operating (S590), and the frequency Nex is smaller than the operation determination threshold value Nth. For example, the wiper generates a recognition result indicating that the wiper is stopped (S600), and the process ends.

なお、作動判定閾値Nthは、例えば、αを定数(O.5≦α≦1.0)、fwをワイパーの動作速度[往復回数/秒]、Fを画像のフレームレート[フレーム/秒]として、(14)式にて算出される値を用いることができる。   The operation determination threshold value Nth is, for example, α as a constant (0.5. ≦ α ≦ 1.0), fw as the wiper operating speed [number of reciprocations / second], and F as the image frame rate [frame / second]. , (14) can be used.

Nth=α・K・fw /{ F・(M+N−1)} (14)
これにより、ワイパーの制御装置からの入力信号を得ることができなくても、映像のみからワイパー動作の有無を自動検知することが可能となると共に、各フレーム毎に、ワイパーの位置も特定することが可能となる。
[前方車両検出処理]
次に、前方車両検出処理を、図10に示すフローチャートに沿って説明する。
Nth = α · K · fw / {F · (M + N−1)} (14)
This makes it possible to automatically detect the presence or absence of the wiper operation only from the video even if the input signal from the wiper control device cannot be obtained, and to specify the position of the wiper for each frame. Is possible.
[Front vehicle detection processing]
Next, a front vehicle detection process is demonstrated along the flowchart shown in FIG.

本処理が起動すると、まず、色インデックスメモリ14から読み出した色情報配列に基づいて、赤の色インデックスに対応する色情報が付与され、且つ水平方向に並んだ一対のマクロブロックMB1,MB2を、ストップランプ候補として抽出し(S710)、予め設定された車間距離DCLを特定するためのパラメータLを1に設定する(S720)。 When this process is started, first, based on the color information array read from the color index memory 14, color information corresponding to the red color index is assigned, and a pair of macroblocks MB1 and MB2 arranged in the horizontal direction are extracted as a stop lamp candidate (S710), it sets the parameter L for specifying the predetermined vehicle distance DC L to 1 (S720).

なお、本実施形態では、この車間距離DCLとして、{5m,10m,20m,50m,100m,200m以上}の6段階が設定されている。また、車間距離DCL に応じて、その車間距離DCLにある車両の画面上での車幅DWLも予め設定されている。 In the present embodiment, six levels of {5 m, 10 m, 20 m, 50 m, 100 m, 200 m or more} are set as the inter-vehicle distance DC L. Further, in accordance with the inter-vehicle distance DC L, it is also set in advance in the vehicle width DW L on the screen of the vehicle in its vehicle distance DC L.

次に、S710にてストップランプ候補として抽出されたマクロブロックMB1,MB2に基づき、その水平方向の中心位置を中心とする車幅DWLの車両を仮定する(S730)。なお、以下では、マクロブロックMB1,MB2の水平座標をmb1,mb2とし、また、仮定した車両の端部に位置するマクロブロックの水平座標のいずれか一方(本実施形態では左側)を、基準位置mb0とする。 Then, based on the macroblock MB1, MB2 extracted as a stop lamp candidate in S710, assume the vehicle in the vehicle width DW L around the center position of the horizontal direction (S730). In the following description, the horizontal coordinates of the macroblocks MB1 and MB2 are mb1 and mb2, and one of the assumed horizontal coordinates of the macroblock located at the end of the vehicle (left side in the present embodiment) is used as the reference position. Let mb0.

そして、基準位置mb0に対するストップランプ候補の位置であるランプ位置diL (i=1,2)を、(15)式により算出し(S740)、更に、そのランプ位置diL と、車幅DWLとに基づいて、(16)式により評価値RiLを算出する(S750)。 Then, the lamp position di L (i = 1, 2), which is the position of the stop lamp candidate with respect to the reference position mb0, is calculated by the equation (15) (S740), and further, the lamp position di L and the vehicle width DW L Based on the above, the evaluation value Ri L is calculated by the equation (16) (S750).

diL =mbi−mb0 (15)
RiL =diL /DWL (16)
その後、車間距離DCLを特定するためのパラメータLをインクリメント(L←L+1)して(S760)、パラメータLが、車間距離DCLの段階数Lmax (=6)より大きいか否かを判断する(S770)。そして、パラメータLが段階数Lmax 以下であれば、S730に戻って、上述したS730〜S770の処理を繰り返し実行する。
di L = mbi−mb0 (15)
Ri L = di L / DW L (16)
Thereafter, increments the parameter L for specifying the inter-vehicle distance DC L (L ← L + 1 ) to (S760), the parameter L is the number of stages Lmax headway distance DC L (= 6) to determine a larger or not (S770). If the parameter L is equal to or less than the number of steps Lmax, the process returns to S730 and the above-described processes of S730 to S770 are repeatedly executed.

一方、パラメータLが段階数Lmax より大きければ、車間距離毎に得られた評価値d1L,d2Lに基づき、0に最も近い評価値d1L、又は1に最も近い評価値d2Lを抽出し、その抽出した評価値diLに付与されたパラメータLに従って、そのパラメータLにて特定される車間距離を、ストップランプ候補の位置にストップランプを有する前方車両までの車間距離と推定して、その旨を表すオブジェクト情報を生成する(S780)。 On the other hand, is greater than the parameter L is the number of stages Lmax, based on the evaluation value d1 L, d2 L obtained for each inter-vehicle distance, the closest evaluation value d1 L 0, or to extract the nearest evaluation value d2 L to 1 According to the parameter L given to the extracted evaluation value di L , the inter-vehicle distance specified by the parameter L is estimated as the inter-vehicle distance to the preceding vehicle having a stop lamp at the position of the stop lamp candidate, Object information representing the effect is generated (S780).

更に、そのストップランプ候補として抽出されたマクロブロックMB1,MB2の輝度値(Y成分)を取得し、その輝度値と予め設定された点灯閾値とを比較することにより、輝度値が点灯閾値より大きければテールランプが点灯していることを表すオブジェクト情報を生成し、また、その輝度値が点灯閾値以下であればテールランプが消灯していることを表すオブジェクト情報を生成する(S790)。   Furthermore, the luminance value (Y component) of the macroblocks MB1 and MB2 extracted as the stop lamp candidates is acquired, and the luminance value is larger than the lighting threshold value by comparing the luminance value with a preset lighting threshold value. For example, object information indicating that the tail lamp is turned on is generated, and if the luminance value is equal to or lower than the lighting threshold, object information indicating that the tail lamp is turned off is generated (S790).

また、マクロブロックMB1,MB2の中心位置から上下に位置するマクロブロックの色情報を取得し、その色情報を前方車両の色として、その旨を表すオブジェクト情報を生成して(S800)本処理を終了する。   Also, the color information of the macroblocks located above and below the center position of the macroblocks MB1 and MB2 is acquired, and the object information representing that is generated by using the color information as the color of the preceding vehicle (S800). finish.

そして、本処理は、色情報配列中に存在する全てのストップランプ候補が抽出されるまで繰り返し実行される。
このように、本処理では、色情報配列上の赤インデックスに対応する色情報が付与されたマクロブロックを抽出して、仮想的な車両と比較するという簡単な処理により、領域分割などの複雑で処理量の多い処理を実行することなく、前方車両を検出することができる。
[立体地図生成処理]
本処理では、車速VとフレームレートFに基づいて、色ヒストグラムHci(m)の生成周期の間に移動した距離を算出し、その算出した距離に応じて色ヒストグラムHci(m)を配列することで、画像中の水平方向の位置、着目する色インデックスに対応する色情報が付与されたマクロブロックを画像中の垂直方向に積算した値、距離を、三つの軸に割り当てた三次元の色立体地図を構成する。
This process is repeatedly executed until all stop lamp candidates existing in the color information array are extracted.
In this way, in this process, a simple process of extracting a macroblock to which color information corresponding to the red index on the color information array is assigned and comparing it with a virtual vehicle makes it possible to perform complicated processing such as segmentation. A forward vehicle can be detected without executing a process with a large amount of processing.
[3D map generation processing]
In this process, the distance moved during the generation period of the color histogram Hci (m) is calculated based on the vehicle speed V and the frame rate F, and the color histogram Hci (m) is arranged according to the calculated distance. A three-dimensional color solid in which the horizontal position in the image, the value obtained by integrating the macroblocks to which the color information corresponding to the color index of interest is added in the vertical direction in the image, and the distance are assigned to the three axes. Construct a map.

即ち、ヒストグラム生成部15にて生成される色ヒストグラムHci(m)を単純に並べることでも三次元の色立体地図を生成できるが、この場合、色ヒストグラムHci(m)が一定の時間間隔で並ぶため、車速Vが常に一定でない限り、その時間軸方向(車両の進行方向)の色ヒストグラムの配置は、実際の距離に応じたものとはならず、地図としては不正確なものとなる。   That is, a three-dimensional color three-dimensional map can be generated by simply arranging the color histograms Hci (m) generated by the histogram generation unit 15, but in this case, the color histograms Hci (m) are arranged at regular time intervals. Therefore, unless the vehicle speed V is always constant, the arrangement of the color histogram in the time axis direction (vehicle traveling direction) does not correspond to the actual distance and is inaccurate as a map.

しかし、本処理によって生成された色立体地図では、色ヒストグラムが距離に応じて配置されることになるため、車両の進行方向に対する各色のオブジェクト(光源とそれに影響されるブロック画素に対応した空間)の概略的な分布を正しく把握することが可能となる。   However, in the color three-dimensional map generated by this processing, since the color histogram is arranged according to the distance, each color object with respect to the traveling direction of the vehicle (space corresponding to the light source and the block pixel affected by the light source) It is possible to correctly grasp the rough distribution of the.

なお、本処理により生成された色立体地図と、カーナビなど外部機器から得られる地図データとを組み合わせて、地図上に色インデックス(色立体地図)をマッピングする等してもよい。この場合、より方角や位置の精度を向上させた色立体地図を生成することが可能となる。   A color index (color three-dimensional map) may be mapped on the map by combining the color three-dimensional map generated by this processing and map data obtained from an external device such as a car navigation system. In this case, it is possible to generate a color three-dimensional map with improved direction and position accuracy.

次に、図1に戻り、環境認識装置3は、更に、色アプリ実行部16での処理結果であるオブジェクトや状況等の認識結果を画像データ(フレーム)と対応づけて格納するオブジェクトインデックスメモリ20と、同じく色アプリ実行部16での処理結果(立体地図生成処理)である立体地図を格納する立体地図メモリ21と、オブジェクトインデックスメモリ20の記憶内容と他装置からのオブジェクト関連情報に基づいて、両者に矛盾がある場合に異常事態であることを示す異常通知を出力する異常事態検出部22と、オブジェクトインデックスメモリ20の記憶内容に基づいて、車両周辺の状況をXMLで記述した状況記述を自動生成する状況記述生成部23と、車載カメラ1からの画像データ、色インデックスメモリ14に記憶された色情報、オブジェクトインデックスメモリ20に格納されたオブジェクトの認識結果に基づき、表示モード選択データDMに従って、表示用の画像データを生成する表示画像データ生成部25とを備えている。   Next, returning to FIG. 1, the environment recognition apparatus 3 further stores an object index memory 20 that stores recognition results such as objects and situations, which are processing results in the color application execution unit 16, in association with image data (frames). Similarly, based on the three-dimensional map memory 21 that stores the three-dimensional map that is the processing result (three-dimensional map generation processing) in the color application execution unit 16, the stored contents of the object index memory 20, and the object related information from other devices, Based on the stored contents of the object index memory 20 based on the contents stored in the object index memory 20 based on the contents stored in the object index memory 20, the situation description describing the situation around the vehicle is automatically generated. The situation description generator 23 to be generated, the image data from the in-vehicle camera 1, and the color index memory 14 are stored. Information, on the basis of the recognition result of the object stored in the object index memory 20, in accordance with the display mode selection data DM, and a display image data generating unit 25 for generating image data for display.

このうち、オブジェクトインデックスメモリ20に格納される認識結果は、前方車両,対向車両,道路標識,交差点,ビル,空,海岸といった具体的に存在する個々のオブジェクト(上述の静止物検出処理,前方車両検出処理で検出されるオブジェクトを含む)を表すオブジェクトインデックスと、天気,渋滞,危険などといったシーン全体或いはその一部の特徴から認識される状態(上述のワイパー検出処理で検出されるワイパーの作動状態等を含む)を表す属性インデックスとからなる。   Among these, the recognition results stored in the object index memory 20 are the specific objects such as the preceding vehicle, the oncoming vehicle, the road sign, the intersection, the building, the sky, and the coast (the stationary object detection process, the preceding vehicle described above). An object index representing an object (including objects detected by the detection process) and a state recognized from the characteristics of the entire scene or a part thereof such as weather, traffic jam, danger, etc. (the wiper operating state detected by the above-described wiper detection process) Etc.) and an attribute index representing.

異常事態検出部22は、他装置からのオブジェクト関連情報として、例えば、ナビゲーション装置の地図データから得られる交差点情報や、ワイパーの作動スイッチの操作状態を表す情報等があり、これらの情報が、上述の静止物検出処理やワイパー検出処理での検出結果と異なる場合に、当該装置3またはオブジェクト関連情報の供給元となった装置のいずれかに異常事態が発生しているものとして、その旨を表す異常通知を出力する。   The abnormal situation detection unit 22 includes, for example, intersection information obtained from map data of the navigation device, information indicating the operation state of the operation switch of the wiper, and the like as object related information from other devices. If the detection result is different from the detection result in the stationary object detection process or the wiper detection process, it is indicated that an abnormal situation has occurred in either the apparatus 3 or the apparatus that has supplied the object-related information. An error notification is output.

表示画像データ生成部25では、表示モード選択データDMに従って、例えば、色インデックス画像データや、オブジェクトインデックス画像データなどを生成する。
このうち、色インデックス画像データは、色インデックスメモリ14に格納された色情報配列から、指定した色インデックスに対応する色情報が付与されたマクロブロックを抽出し、その抽出したマクロブロックを、車載カメラ1からの画像データに重ねて表示する際に用いる画像データである。
In the display image data generation unit 25, for example, color index image data, object index image data, and the like are generated according to the display mode selection data DM.
Of these, the color index image data is extracted from the color information array stored in the color index memory 14 as a macroblock to which color information corresponding to the designated color index is assigned, and the extracted macroblock is used as the in-vehicle camera. The image data is used when the image data from 1 is superimposed on the image data.

また、オブジェクトインデックス画像データは、オブジェクトインデックスメモリ20に格納された認識結果や状況を、車載カメラ1からの画像データに重ねて表示する際に用いる画像データである。   The object index image data is image data used when the recognition result and the situation stored in the object index memory 20 are displayed over the image data from the in-vehicle camera 1.

この表示画像データ生成部25にて生成された画像データは、当該環境認識装置3に直接又は通信回線(車載LANなど)を介して間接的に接続されたモニタに表示される。
なお、状況記述生成部23にて生成された状況記述や、立体地図メモリに記憶された立体地図データ、その他の各種通知(危険通知,異常通知,要注意通知)は、例えば、より高度な画像認識処理を実行する際に、誤認識要因を除去するための知識データ等として使用される。
The image data generated by the display image data generation unit 25 is displayed on a monitor connected to the environment recognition device 3 directly or indirectly via a communication line (such as an in-vehicle LAN).
The situation description generated by the situation description generation unit 23, the three-dimensional map data stored in the three-dimensional map memory, and other various notifications (danger notification, abnormality notification, caution notice) are, for example, more advanced images. When executing recognition processing, it is used as knowledge data or the like for removing misrecognition factors.

また、状況記述や立体地図データは、車両に搭載された通信装置を介して他車両や状況記述を収集する基地局などに送信され、各種アプリケーションの基礎データ等として用いられる。また、各種通知は、運転者への報知や、その通知内容に対応した車両制御を起動するトリガー等として使用される。   In addition, the situation description and the three-dimensional map data are transmitted to another vehicle, a base station that collects the situation description, and the like via a communication device mounted on the vehicle, and used as basic data for various applications. Various notifications are used as notifications to the driver, triggers for starting vehicle control corresponding to the notification contents, and the like.

以上説明したように、本実施形態では、画素単位ではなくマクロブロック単位で色情報を付与し、そのマクロブロック単位で表現された色配列情報や色ヒストグラムを用いることにより、領域分割(形状獲得)を行うことなく、オブジェクトや状況を認識するようにされている。   As described above, in the present embodiment, color information is assigned in units of macroblocks instead of in units of pixels, and color segmentation information and color histograms expressed in units of macroblocks are used, so that region division (shape acquisition) is performed. It is designed to recognize objects and situations without having to.

従って、本実施形態の環境認識装置3によれば、画素単位で色情報を付与し領域分割を行う従来装置と比較して、オブジェクトや状況の認識のための処理負荷を大幅に軽減することができ、カラー画像におけるオブジェクトや状況の認識を平易に行うことができる。   Therefore, according to the environment recognition device 3 of the present embodiment, the processing load for recognizing objects and situations can be greatly reduced as compared with a conventional device that assigns color information in pixel units and divides a region. It is possible to easily recognize objects and situations in a color image.

また、本実施形態では、MPEG形式で符号化された画像データを環境認識装置3に入力するようにされている。このため、ブロック平均色算出部11では、その画像データに含まれるDCT係数の直流成分を復号するだけで、ブロック平均色を容易に求めることができ、平均色を求めるための処理を大幅に削減することができる。   In this embodiment, image data encoded in the MPEG format is input to the environment recognition device 3. For this reason, the block average color calculation unit 11 can easily determine the block average color simply by decoding the DC component of the DCT coefficient included in the image data, and greatly reduces the processing for determining the average color. can do.

また、本実施形態では、ヒストグラム生成部15が色ヒストグラムを生成する際に、着目する色インデックスに対応する色情報が付与されたマクロブロックを垂直方向に積算する範囲を、任意に設定できるようにされている。   Further, in the present embodiment, when the histogram generation unit 15 generates a color histogram, a range in which the macroblocks to which the color information corresponding to the color index of interest is added is integrated in the vertical direction can be arbitrarily set. Has been.

このため、本実施形態の環境認識装置3によれば、対象オブジェクトが存在し得ない高さに位置し、且つ対象オブジェクトと同色を有する他のオブジェクトの影響を、色ヒストグラムから確実に排除することができ、色ヒストグラムを用いた対象オブジェクトの認識精度を向上させることができる。   For this reason, according to the environment recognition device 3 of the present embodiment, the influence of other objects located at a height where the target object cannot exist and having the same color as the target object can be reliably excluded from the color histogram. And the recognition accuracy of the target object using the color histogram can be improved.

また、本実施形態では、マクロブロックの平均色のフレーム間変化や、色ヒストグラムHci(k)や着目する色の画面総和値SAr(k)のフレーム間変化を求めることにより、オブジェクトの認識と同様に、領域分割(形状獲得)を行うことなく、危険度や要注意状況を認識するようにされている。従って、この種の緊急度を要する状況を、速やかに認識することができ、その認識結果を用いることによって、車両の制御性や安全性を向上させることができる。   In this embodiment, the average color of the macroblock is changed between frames, and the color histogram Hci (k) and the screen total value SAr (k) of the color of interest are calculated between frames. In addition, the degree of danger and the situation requiring attention are recognized without segmentation (shape acquisition). Therefore, this kind of urgent situation can be recognized quickly, and by using the recognition result, the controllability and safety of the vehicle can be improved.

また、本実施形態では、色配列情報や色ヒストグラムに基づく認識結果を、外部装置から得られるターゲット関連情報と比較することにより、両者に矛盾がある場合には異常事態が発生したものとするようにされているため、認識結果の信頼性をより向上させることができる。   In the present embodiment, the recognition result based on the color arrangement information and the color histogram is compared with the target related information obtained from the external device, and it is assumed that an abnormal situation has occurred when there is a contradiction between the two. Therefore, the reliability of the recognition result can be further improved.

本実施形態において、ブロック平均色算出部11が画像データ取得手段及び平均色算出手段、色判定部13が色情報付与手段、ヒストグラム生成部15が色ヒストグラム生成手段、色アプリ実行部16がオブジェクト情報付与手段、シーン分類辞書記憶部17がシーン分類辞書記憶手段、テンプレート記憶部18がテンプレート記憶手段、異常事態検出部22が異常事態判定手段、危険度算出部24が危険度算出手段に相当する。   In the present embodiment, the block average color calculation unit 11 is an image data acquisition unit and an average color calculation unit, the color determination unit 13 is a color information addition unit, the histogram generation unit 15 is a color histogram generation unit, and the color application execution unit 16 is object information. The assigning unit, the scene classification dictionary storage unit 17 corresponds to the scene classification dictionary storage unit, the template storage unit 18 corresponds to the template storage unit, the abnormal state detection unit 22 corresponds to the abnormal state determination unit, and the risk level calculation unit 24 corresponds to the risk level calculation unit.

また、S110がオブジェクト指定手段、S120〜S190が色別評価値算出手段、S320が第一差分算出手段、S330〜S340が第一要注意状況検出手段、S360が全画面値生成手段、S370が第二差分算出手段、S380〜S390第二要注意状況検出手段、S420〜S430が累積加算手段、S440〜S450がテンプレート生成手段、S510が二値化手段、S520〜S560がワイパー検出手段、S570が度数算出手段、S710が候補抽出手段、S720〜S780が車間距離推定手段、S790が点灯判別手段、S800が車色抽出手段に相当する。
[第2実施形態]
次に、第2実施形態について説明する。
Also, S110 is an object specifying means, S120 to S190 are color-specific evaluation value calculating means, S320 is a first difference calculating means, S330 to S340 are first caution state detecting means, S360 is a full screen value generating means, and S370 is the first. Two-difference calculation means, S380-S390 second caution status detection means, S420-S430 are cumulative addition means, S440-S450 are template generation means, S510 is binarization means, S520-S560 are wiper detection means, S570 is frequency Calculation means, S710 corresponds to candidate extraction means, S720 to S780 correspond to inter-vehicle distance estimation means, S790 corresponds to lighting determination means, and S800 corresponds to vehicle color extraction means.
[Second Embodiment]
Next, a second embodiment will be described.

第1実施形態では、色ヒストグラムを使用してオブジェクトを検出する静止物検出処理を、色アプリ実行部16の処理部19が実行する処理の一つとして実現したが、本実施形態では、この処理を、ベクトル演算が可能な専用のプロセッサにより実行する以外は、全く同様に構成されている。このため、本実施形態では、この第1実施形態とは異なる部位についてのみ説明する。   In the first embodiment, the stationary object detection process for detecting an object using the color histogram is realized as one of the processes executed by the processing unit 19 of the color application execution unit 16, but in the present embodiment, this process is performed. Are executed in exactly the same manner except that they are executed by a dedicated processor capable of vector operation. For this reason, in this embodiment, only a part different from the first embodiment will be described.

即ち、本実施形態において、色アプリ実行部16は、対象オブジェクトX$,フレームレートF,車速V,色ヒストグラム行列Hを入力として、対象オブジェクトの有無を出力するプロセッサ30を備えている。   That is, in the present embodiment, the color application execution unit 16 includes a processor 30 that receives the target object X $, the frame rate F, the vehicle speed V, and the color histogram matrix H and outputs the presence / absence of the target object.

なお、色ヒストグラム行列Hは、単一フレームの画像データに基づいてヒストグラム生成部15にて生成される全色インデックスについての色ヒストグラムHc1〜HcPを並べることで構成されたM行P列の行列((17)式参照)からなる。そして、このフレーム毎に生成される色ヒストグラム行列Hは、ヒストグラム生成部15から順次供給されるものとする。   Note that the color histogram matrix H is an M-row P-column matrix configured by arranging color histograms Hc1 to HcP for all color indexes generated by the histogram generation unit 15 based on image data of a single frame ( (See equation (17)). The color histogram matrix H generated for each frame is sequentially supplied from the histogram generation unit 15.

H=[Hc1,Hc2,…,Hcp] (17)
また、対象オブジェクトX$は、第1実施形態における静止物検出処理のS110での処理と同様に、シーンの指定がある場合には、シーン分類辞書記憶部17に記憶されているシーン分類辞書を検索することにより、その指定されたシーンに対応するオブジェクトの一つを対象オブジェクトとして選択し、シーンの指定がない場合は、シーン分類辞書を用いることなく、認識の対象とすべき全てのオブジェクトの中から、いずれか一つを順番(例えば、重要度の高い順)に選択する。
H = [Hc1, Hc2,..., Hcp] (17)
Similarly to the processing in S110 of the stationary object detection process in the first embodiment, the target object X $ is stored in the scene classification dictionary stored in the scene classification dictionary storage unit 17 when a scene is designated. By searching, one of the objects corresponding to the specified scene is selected as a target object. If no scene is specified, all objects that should be recognized are identified without using the scene classification dictionary. One of them is selected in order (for example, in descending order of importance).

そして、プロセッサ30は、対象オブジェクトX$に基づいて、その対象オブジェクトX$に応じた荷重係数行列W及び距離ベクトルVDを生成する可変要素生成部31と、可変要素生成部31にて生成された距離ベクトルVD及び外部から供給されるフレームレートF及び車速Vに従って、期間ベクトルVKを生成する監視期間設定部32と、色ヒストグラム行列Hと荷重係数行列Wとの行列演算を実行して評価単位ベクトルHVを生成する行列演算部33と、行列演算部33で生成された評価単位ベクトルHVの各要素を、期間設定部32にて設定された期間ベクトルVKの内容に従って1乃至複数フレーム分累積することで色別評価ベクトルVSを生成する累積部34と、累積部34にて生成された色評価ベクトルVSの各要素(色別評価値Sci)を加算することで統合評価値Sを生成する加算部35と、加算部35にて生成された統合評価値Sを、予め設定された判定閾値と比較することにより、対象オブジェクトの有無を判定し、その判定結果を出力する判定部36とからなる。   Then, based on the target object X $, the processor 30 generates the load coefficient matrix W and the distance vector VD corresponding to the target object X $, and the variable element generation unit 31 generates The monitoring unit setting unit 32 for generating the period vector VK according to the distance vector VD and the frame rate F and the vehicle speed V supplied from the outside, and the matrix operation of the color histogram matrix H and the load coefficient matrix W are executed to evaluate the unit vector The matrix calculation unit 33 that generates HV and the elements of the evaluation unit vector HV generated by the matrix calculation unit 33 are accumulated for one or more frames according to the contents of the period vector VK set by the period setting unit 32. And the accumulating unit 34 for generating the color-specific evaluation vector VS, and each element (color-specific The addition unit 35 that generates the integrated evaluation value S by adding the value Sci), and the presence / absence of the target object by comparing the integrated evaluation value S generated by the addition unit 35 with a predetermined determination threshold value And a determination unit 36 for outputting the determination result.

但し、荷重係数行列Wは、マクロブロックの水平座標のそれぞれに対応したM個の係数w1〜wMを並べてなる荷重係数ベクトルwci((18)式参照)を、全ての色インデックスについて並べたP行M列の行列((19)式参照)からなる。   However, the load coefficient matrix W is a P row in which load coefficient vectors wci (see equation (18)) in which M coefficients w1 to wM corresponding to the horizontal coordinates of the macroblock are arranged are arranged for all color indexes. It consists of an M-column matrix (see equation (19)).

wci=(w1,w2,…,wM)T (18)
W=[wc1,wc2,…,wcP ] (19)
距離ベクトルVDは、色インデックスのそれぞれについて設定された標準距離Dc1〜DcPを並べてなるP次元の列ベクトル((20)式参照)からなる。
wci = (w1, w2,..., wM) T (18)
W = [wc1, wc2,..., WcP] (19)
The distance vector VD is a P-dimensional column vector (see equation (20)) in which standard distances Dc1 to DcP set for each color index are arranged.

VD=(Dc1,Dc2,…,DcP)T (20)
期間ベクトルVKは、色インデックスのそれぞれについて算出される監視期間Kc1〜KcPを並べてなるP次元の列ベクトルからなり、(21)式により算出される。
VD = (Dc1, Dc2, ... , DcP) T (20)
The period vector VK is composed of a P-dimensional column vector in which the monitoring periods Kc1 to KcP calculated for each color index are arranged, and is calculated by Expression (21).

VK=(Kc1,Kc2,…,KcP)T =VD×F/V (21)
色別評価ベクトルVSは、色インデックスのそれぞれについて算出される色別評価値Sc1〜ScPを並べてねるP次元の列ベクトル((22式参照)からなる。
VK = (Kc1, Kc2,..., KcP) T = VD × F / V (21)
The color-specific evaluation vector VS includes a P-dimensional column vector (see (22)) in which the color-specific evaluation values Sc1 to ScP calculated for each color index are arranged.

VS=(Sc1,Sc2,…,ScP)T (22)
つまり、上述した静止物検出処理において、S110〜S120が可変要素生成部31、S140〜S170が期間設定部32、S180〜S190が行列演算部33及び累積部34、S200が加算部35、S210〜S230が判定部36に対応する。
VS = (Sc1, Sc2,..., ScP) T (22)
That is, in the stationary object detection process described above, S110 to S120 are the variable element generation unit 31, S140 to S170 are the period setting unit 32, S180 to S190 are the matrix calculation unit 33 and the accumulation unit 34, and S200 is the addition unit 35, S210. S230 corresponds to the determination unit 36.

以上説明したようにプロセッサ30では、ベクトル演算によって色別評価値(色別評価ベクトルVSの各要素)Sciを一括して算出すると共に、対象オブジェクトX$毎に異なる距離ベクトルVK及び荷重係数行列Wを自動生成して、上記ベクトル演算に反映させるようにされている。   As described above, the processor 30 collectively calculates the evaluation value for each color (each element of the evaluation vector for each color VS) Sci by vector calculation, and the distance vector VK and the load coefficient matrix W that are different for each target object X $. Is automatically generated and reflected in the vector calculation.

従って、本実施形態の環境認識装置3によれば、対象オブジェクトX$によって標準距離Dciや重み係数wci、統合評価値Sの算出に必要な色インデックスSciの数や種類等が異なっていても、これらをプロセッサ30にて統一的に扱うことができ、オブジェクトの認識に必要な処理を簡素化することができる。   Therefore, according to the environment recognition apparatus 3 of the present embodiment, even if the target object X $ has different standard distances Dci, weighting factors wci, and the number and types of color indexes Sci necessary for calculating the integrated evaluation value S, These can be handled uniformly by the processor 30, and the processing necessary for object recognition can be simplified.

本実施形態において、可変要素生成部31が可変要素生成手段、監視期間設定部32が期間ベクトル生成手段、行列演算部33が行列演算手段、累積部34が累積演算手段に相当する。
[他の実施形態]
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
In the present embodiment, the variable element generation unit 31 corresponds to a variable element generation unit, the monitoring period setting unit 32 corresponds to a period vector generation unit, the matrix calculation unit 33 corresponds to a matrix calculation unit, and the accumulation unit 34 corresponds to an accumulation calculation unit.
[Other Embodiments]
As mentioned above, although several embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects. is there.

上記実施形態では、符号化部2がMPEG形式で符号化を行っているが、一つの成分がそのブロックの平均色を表すような符号化を行うものであれば、どのような符号化形式で符号化を行ってもよい。   In the above embodiment, the encoding unit 2 performs encoding in the MPEG format. However, any encoding format can be used as long as encoding is performed so that one component represents the average color of the block. Encoding may be performed.

また、符号化部2が、平均色を表すような成分を持たない符号化形式で符号化を行うように構成されている場合には、ブロック平均色算出部11は、マクロブロック(16画素×16画素)に相当するブロック単位で平均色を算出するように構成すればよい。   In addition, when the encoding unit 2 is configured to perform encoding in an encoding format that does not have a component that represents an average color, the block average color calculation unit 11 includes a macroblock (16 pixels × The average color may be calculated in block units corresponding to (16 pixels).

上記実施形態では、車速Vを、GPSや車速センサといった他の装置から獲得するように構成されているが、例えば、画像処理により、車速Vを求めるようにしてもよい。この場合、フレームレートの変動によらず、常に本装置にて、独立に車速Vを算出できる。但し、車速Vをオプティカルフローから算出することになるため、車速Vの精度は低下する。 また、車速Vは、平均的な車両移動速度(例えば、時速50km/h)等といった固定値を用いてもよい。   In the above embodiment, the vehicle speed V is obtained from another device such as a GPS or a vehicle speed sensor, but the vehicle speed V may be obtained by image processing, for example. In this case, the vehicle speed V can always be calculated independently by the present apparatus regardless of the fluctuation of the frame rate. However, since the vehicle speed V is calculated from the optical flow, the accuracy of the vehicle speed V decreases. The vehicle speed V may be a fixed value such as an average vehicle moving speed (for example, 50 km / h).

環境認識装置が適用された車載システムの概略構成を示すブロック図。The block diagram which shows schematic structure of the vehicle-mounted system to which the environment recognition apparatus was applied. マクロブロック毎の平均色の算出に関する説明図。Explanatory drawing regarding calculation of the average color for every macroblock. 色ヒストグラムの生成に関する説明図。Explanatory drawing regarding the production | generation of a color histogram. 静止物検出処理の内容を示すフローチャート。The flowchart which shows the content of a stationary object detection process. 色ヒストグラムを用いたオブジェクト認識、及び色立体地図に関する説明図。Explanatory drawing regarding the object recognition using a color histogram, and a color solid map. 要注意状況検出処理の内容を示すフローチャート。The flowchart which shows the content of the attention required condition detection process. テンプレート生成処理の内容を示すフローチャート。The flowchart which shows the content of a template production | generation process. テンプレートの生成に関する説明図。Explanatory drawing regarding the production | generation of a template. ワイパー検出処理の内容を示すフローチャート。The flowchart which shows the content of the wiper detection process. 前方車両検出処理の内容を示すフローチャート。The flowchart which shows the content of a front vehicle detection process. 前方車両検出に関する説明図。Explanatory drawing regarding front vehicle detection. 色ヒストグラムを用いたオブジェクト認識を統一的に実行するプロセッサの構成を示すブロック図。The block diagram which shows the structure of the processor which performs the object recognition using a color histogram uniformly. 夜間走行中に生成された赤の色ヒストグラムを時系列的に並べた三次元グラフ。A three-dimensional graph in which red color histograms generated during night driving are arranged in time series.

符号の説明Explanation of symbols

1…車載カメラ、2…符号化部、3…環境認識装置、10…色情報生成部、11…ブロック平均色算出部、12…色辞書記憶部、13…色判定部、14…色インデックスメモリ、15…ヒストグラム生成部、16…色アプリ実行部、17…シーン分類辞書記憶部、18…テンプレート記憶部、19…処理部、20…オブジェクトインデックスメモリ、21…立体地図メモリ、22…異常事態検出部、23…状況記述生成部、24…危険度算出部、25…表示画像データ生成部、30…プロセッサ、31…可変要素生成部、32…監視期間設定部、32…期間設定部、33…行列演算部、34…累積部、35…加算部、36…判定部。   DESCRIPTION OF SYMBOLS 1 ... Car-mounted camera, 2 ... Encoding part, 3 ... Environment recognition apparatus, 10 ... Color information generation part, 11 ... Block average color calculation part, 12 ... Color dictionary memory | storage part, 13 ... Color determination part, 14 ... Color index memory 15 ... Histogram generator, 16 ... Color application execution unit, 17 ... Scene classification dictionary storage unit, 18 ... Template storage unit, 19 ... Processing unit, 20 ... Object index memory, 21 ... 3D map memory, 22 ... Abnormal situation detection , 23 ... Situation description generation unit, 24 ... Risk level calculation unit, 25 ... Display image data generation unit, 30 ... Processor, 31 ... Variable element generation unit, 32 ... Monitoring period setting unit, 32 ... Period setting unit, 33 ... Matrix calculator, 34... Accumulator, 35... Adder, 36.

Claims (20)

認識すべきオブジェクトである対象オブジェクトを指定するオブジェクト指定手段と、
車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得する画像データ取得手段と、
該画像データ取得手段が取得した画像データに基づいて、前記カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する平均色算出手段と、
該平均色算出手段にて算出された平均色が、予め用意された色インデックスのいずれに属するかを判定し、該判定結果を色情報として前記画素ブロックに対応づけて記憶する色情報付与手段と、
該色情報付与手段によって対応づけられた色情報と着目する色インデックスとが一致する前記画素ブロックの数を前記カラー画像上の一方向に沿って積算し、その積算値を一次元的に配列してなる色ヒストグラムを、前記色インデックス毎に且つ前記画像データのフレーム単位で時系列的に生成する色ヒストグラム生成手段と、
該色ヒストグラム生成手段が生成した色ヒストグラムに基づいて、前記オブジェクト指定手段にて指定された対象オブジェクトに関する情報を生成し、該生成情報をオブジェクト情報として前記画像データ取得手段が取得した画像データに対応づけて記憶するオブジェクト情報付与手段と、
を備えることを特徴とする環境認識装置。
An object designating means for designating a target object that is an object to be recognized;
Image data acquisition means for acquiring image data based on a color image in front of the vehicle imaged by the in-vehicle camera;
Average color calculation means for calculating an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size based on the image data acquired by the image data acquisition means;
Color information providing means for determining which of the color indexes prepared in advance the average color calculated by the average color calculating means belongs, and storing the determination result as color information in association with the pixel block; ,
The number of the pixel blocks in which the color information matched by the color information providing unit and the color index of interest match is integrated along one direction on the color image, and the integrated values are arranged one-dimensionally. A color histogram generating means for generating a color histogram in time series for each color index and in units of frames of the image data;
Based on the color histogram generated by the color histogram generation means, information on the target object specified by the object specification means is generated, and the generated information is used as object information corresponding to the image data acquired by the image data acquisition means Object information giving means for storing the information;
An environment recognition apparatus comprising:
前記色ヒストグラム生成手段が前記画素ブロックの数を積算する方向は、前記カラー画像中における上下方向であり、前記色ヒストグラムの各要素は、前記上下方向と直交する水平方向の位置に対応づけられていることを特徴とする請求項1に記載の環境認識装置。   The direction in which the color histogram generation unit accumulates the number of pixel blocks is the vertical direction in the color image, and each element of the color histogram is associated with a horizontal position orthogonal to the vertical direction. The environment recognition apparatus according to claim 1, wherein: 前記色ヒストグラム生成手段は、前記対象オブジェクトに応じて、積算の対象とする画素ブロックの範囲を設定することを特徴とする請求項1又は2に記載の環境認識装置。   The environment recognition apparatus according to claim 1, wherein the color histogram generation unit sets a range of pixel blocks to be integrated according to the target object. 前記色ヒストグラム生成手段にて生成された色ヒストグラムのそれぞれについて、該色ヒストグラムの各要素が対応する前記水平方向の位置のうち、前記対象オブジェクトが存在する可能性の高い位置ほど値が大きくなるように設定された重み係数を用いて、前記色ヒストグラムの要素の重み付け加算を実行し、その重み付け加算の演算結果を、前記対象オブジェクトに応じて設定される監視期間の間だけ積算した結果を色別評価値として算出する色別評価値算出手段を備え、
前記オブジェクト情報付与手段は、前記色別評価値算出手段にて算出された色別評価値の和を統合評価値とし、該統合評価値が予め設定された評価閾値より大きい場合に、前記カラー画像中に前記対象オブジェクトが存在すると判定し、該判定結果を前記オブジェクト情報とすることを特徴とする請求項1〜3のいずれかに記載の環境認識装置。
For each of the color histograms generated by the color histogram generation means, the value increases as the position where the target object is likely to exist among the horizontal positions corresponding to the elements of the color histogram. A weighted addition of the elements of the color histogram is executed using the weighting factor set in the above, and the result of adding the calculation result of the weighted addition only during the monitoring period set according to the target object is classified by color. Equipped with color-specific evaluation value calculation means for calculating as an evaluation value,
The object information providing unit uses the sum of the evaluation values for each color calculated by the evaluation value calculation unit for each color as an integrated evaluation value, and the color image is obtained when the integrated evaluation value is larger than a preset evaluation threshold value. The environment recognition apparatus according to claim 1, wherein it is determined that the target object is present therein, and the determination result is used as the object information.
前記色別評価値算出手段は、
前記監視期間を、当該装置を搭載する車両の車速が予め設定した下限値以上である場合は該車速に反比例した大きさに設定し、該車速が前記下限値より小さい場合は予め設定された固定値に設定することを特徴とする請求項4に記載の環境認識装置。
The color-specific evaluation value calculation means includes:
The monitoring period is set to a value inversely proportional to the vehicle speed when the vehicle speed of the vehicle on which the device is mounted is equal to or greater than a preset lower limit value, and is set to a preset fixed value when the vehicle speed is less than the lower limit value. The environment recognition device according to claim 4, wherein the environment recognition device is set to a value.
前記色別評価値算出手段は、
オブジェクトに応じて設定される標準距離を、前記色インデックスのそれぞれに対応づけて配列したものを距離ベクトルとすると共に、前記荷重係数を前記色ヒストグラムの各要素に対応づけて配列してなる荷重係数ベクトルを、前記色インデックスのそれぞれに対応づけて配列したものを荷重係数行列とし、前記オブジェクト指定手段にて指定された対象オブジェクトに適した前記距離ベクトル及び前記荷重係数行列を生成する可変要素生成手段と、
前記監視期間を前記色インデックスのそれぞれに対応づけて配列したものを期間ベクトルとし、前記可変要素生成手段にて生成された距離ベクトル、前記カラー画像のフレームレート、当該装置を搭載する車両の車速に基づいて前記期間ベクトルを生成する期間ベクトル生成手段と、
前記色ヒストグラム生成手段にて生成された色ヒストグラムを、前記色インデックスのそれぞれに対応づけて配列したものを色ヒストグラム行列とし、該色ヒストグラム行列と、前記可変要素生成手段にて生成された前記荷重係数行列とを行列演算することで、前記色インデックスのそれぞれに対応した前記重み付け加算値を配列してなる評価単位ベクトルを算出する行列演算手段と、
該行列演算手段にて算出された評価単位ベクトルの各要素を、前記期間ベクトル生成手段にて生成された期間ベクトルの内容に従って累積することにより、前記色別評価値を前記色インデックスのそれぞれに対応づけて配列してなる色別評価ベクトルを生成する累積演算手段と、
を備え、
前記オブジェクト情報付与手段は、前記累積演算手段にて生成された色別評価ベクトルの各要素を加算することで前記対象オブジェクトの統合評価値を算出することを特徴とする請求項4又は5に記載の環境認識装置。
The color-specific evaluation value calculation means includes:
A load coefficient obtained by arranging standard distances set according to objects in association with the color indexes as distance vectors, and arranging the load coefficients in correspondence with the elements of the color histogram. Variable element generation means for generating the distance vector and the load coefficient matrix suitable for the target object designated by the object designation means, using a vector in which the vectors are arranged in association with the color indexes as a load coefficient matrix When,
The monitoring period is associated with each of the color indexes as a period vector, and the distance vector generated by the variable element generation unit, the frame rate of the color image, and the vehicle speed of the vehicle on which the apparatus is mounted. A period vector generating means for generating the period vector based on;
The color histogram generated by the color histogram generation unit is arranged in association with each of the color indexes as a color histogram matrix, and the load generated by the color histogram matrix and the variable element generation unit Matrix calculation means for calculating an evaluation unit vector formed by arraying the weighted addition values corresponding to each of the color indexes by performing matrix calculation on a coefficient matrix;
By accumulating each element of the evaluation unit vector calculated by the matrix calculation means according to the contents of the period vector generated by the period vector generation means, the evaluation value for each color corresponds to each of the color indexes. Accumulating operation means for generating an evaluation vector for each color,
With
The said object information provision means calculates the integrated evaluation value of the said target object by adding each element of the evaluation vector classified by color produced | generated by the said accumulation operation means, The said object object is characterized by the above-mentioned. Environment recognition device.
前記カラー画像の典型的な情景を表す複数のシーンのそれぞれについて、該シーンと該シーン中に存在する可能性の高いオブジェクトとを対応付けて記憶したシーン分類辞書を記憶するシーン分類辞書記憶手段を備え、
前記オブジェクト指定手段は、外部より指定されたシーンに対応付けられたオブジェクトを、前記シーン分類辞書記憶手段から順次読み出して前記対象オブジェクトとして指定することを特徴とする請求項3〜6のいずれかに記載の環境認識装置。
Scene classification dictionary storage means for storing a scene classification dictionary that stores a plurality of scenes representing typical scenes of the color image in association with the scene and objects that are likely to exist in the scene. Prepared,
The object specifying means sequentially reads out an object associated with a scene specified from the outside from the scene classification dictionary storage means and specifies it as the target object. The environment recognition device described.
認識すべきオブジェクトである対象オブジェクトを指定するオブジェクト指定手段と、
車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得する画像データ取得手段と、
該画像データ取得手段が取得した画像データに基づいて、前記カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する平均色算出手段と、
該平均色算出手段にて算出された平均色が、予め用意された色インデックスのいずれに属するかを判定し、該判定結果を色情報として前記画素ブロックに対応づけて記憶する色情報付与手段と、
該色情報付与手段により前記画素ブロックのそれぞれに対応づけられた色情報に基づいて、前記オブジェクト指定手段にて指定された対象オブジェクトに関する情報を生成し、該生成情報をオブジェクト情報として前記画像データ取得手段が取得した画像データに対応づけて記憶するオブジェクト情報付与手段と、
を備えることを特徴とする環境認識装置。
An object designating means for designating a target object that is an object to be recognized;
Image data acquisition means for acquiring image data based on a color image in front of the vehicle imaged by the in-vehicle camera;
Average color calculation means for calculating an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size based on the image data acquired by the image data acquisition means;
Color information providing means for determining which of the color indexes prepared in advance the average color calculated by the average color calculating means belongs, and storing the determination result as color information in association with the pixel block; ,
Based on the color information associated with each of the pixel blocks by the color information providing means, information on the target object specified by the object specifying means is generated, and the image data is acquired using the generated information as object information Object information providing means for storing the image data in association with the acquired image data;
An environment recognition apparatus comprising:
前記カラー画像中のワイパーの位置を表す複数のテンプレートを記憶するテンプレート記憶手段と、
前記色情報付与手段により黒の色インデックスに対応した色情報が付与された画素ブロックと、それ以外の色情報が付与された画素ブロックとで異なる値を付与した二値化画像を生成する二値化手段と、
前記テンプレート記憶手段に記憶されたテンプレートと前記二値化手段が生成した二値化画像とのパターンマッチングにより、不使用時の停止位置以外の位置にあるワイパーを検出するワイパー検出手段と、
予め設定された観測期間の間に、前記ワイパー検出手段にてワイパーが検出された度数を算出する度数算出手段と、
を備え、
前記オブジェクト情報付与手段は、前記度数算出手段にて算出された度数が予め設定された動作判定閾値を超える場合に、ワイパーが作動中である旨の情報を前記オブジェクト情報とすることを特徴とする請求項8に記載の環境認識装置。
Template storage means for storing a plurality of templates representing positions of wipers in the color image;
Binary that generates a binarized image in which different values are given to a pixel block to which color information corresponding to a black color index is given by the color information giving means and a pixel block to which other color information is given And
Wiper detection means for detecting a wiper at a position other than the stop position when not in use by pattern matching between the template stored in the template storage means and the binarized image generated by the binarization means;
A frequency calculation means for calculating the frequency at which a wiper is detected by the wiper detection means during a preset observation period;
With
The object information providing means uses, as the object information, information indicating that the wiper is operating when the frequency calculated by the frequency calculation means exceeds a preset operation determination threshold. The environment recognition apparatus according to claim 8.
当該装置を搭載する車両のワイパーの作動中に前記画像取得手段から取り込んだ画像データに基づいて、前記二値化手段にて生成された二値化画像を、該二値化画像のエッジ上にあるマクロブロックのアドレスを識別子として、識別子で特定されるマクロブロックに黒の色インデックスに対応した色情報が付与されたもの同士でグループ分けし、該グループ毎に同じグループに属する二値化画像を前記画素ブロック単位で累積加算してなる累積加算画像を生成する累積加算手段と、
該累積加算手段にて生成された累積加算画像について、累積加算値が予め設定された存在判定閾値以上の画素ブロックと、累積加算値が前記存在判定閾値より小さい画素ブロックとで異なる値を付与したものを前記テンプレートとして生成して、前記テンプレート記憶手段に格納するテンプレート生成手段と、
を備えたことを特徴とする請求項9に記載の環境認識装置。
A binarized image generated by the binarization unit based on image data captured from the image acquisition unit during operation of a wiper of a vehicle equipped with the apparatus is placed on the edge of the binarized image. Using a macroblock address as an identifier, the macroblock specified by the identifier is grouped with a color information corresponding to a black color index, and binarized images belonging to the same group for each group. Cumulative addition means for generating a cumulative addition image obtained by cumulative addition in units of pixel blocks;
For the cumulative addition image generated by the cumulative addition means, different values are assigned to a pixel block having a cumulative addition value equal to or greater than a preset presence determination threshold value and a pixel block having a cumulative addition value smaller than the presence determination threshold value. Generating a template as the template and storing the template in the template storage unit;
The environment recognition apparatus according to claim 9, further comprising:
前記色情報付与手段により赤の色インデックスに対応した色情報が付与された画素ブロックを赤画素ブロックとして、該赤画素ブロックが水平方向に二つ並んだものをテールランプ候補として抽出する候補抽出手段と、
該候補抽出手段にて抽出されたテールランプ候補の位置関係が、複数段階の車間距離のそれぞれに対応づけて設定された車幅条件のいずれに適合するかを判定することにより、車間距離を推定する車間距離推定手段と、
を備え、
前記オブジェクト情報付与手段は、前記テールランプ候補の位置と、前記車間距離推定手段にて推定された車間距離とで表される車両位置を、前記オブジェクト情報とすることを特徴とする請求項8に記載の環境認識装置。
Candidate extraction means for extracting, as a red pixel block, a pixel block to which color information corresponding to a red color index is assigned by the color information giving means, and extracting two red pixel blocks in a horizontal direction as tail lamp candidates; ,
The inter-vehicle distance is estimated by determining which of the vehicle width conditions set in association with each of the plurality of inter-vehicle distances matches the positional relationship of the tail lamp candidates extracted by the candidate extracting means. Inter-vehicle distance estimation means;
With
9. The object information giving means uses the vehicle position represented by the position of the tail lamp candidate and the inter-vehicle distance estimated by the inter-vehicle distance estimating means as the object information. Environment recognition device.
前記候補抽出手段にて抽出されたテールランプ候補の輝度に基づいて点灯の有無を判別する点灯判別手段を備え、
前記オブジェクト情報付与手段は、前記点灯判別手段での判別結果を、前記オブジェクト情報とすることを特徴とする請求項11に記載の環境認識装置。
Lighting determination means for determining whether or not lighting is based on the brightness of the tail lamp candidate extracted by the candidate extraction means;
The environment recognition apparatus according to claim 11, wherein the object information providing unit uses the determination result obtained by the lighting determination unit as the object information.
前記候補抽出手段にて抽出されたテールランプ候補の間又はその上下に位置するマクロブロックの色を前方車両の色として抽出する車色抽出手段を備え、
前記オブジェクト情報付与手段は、前記車色抽出手段での抽出結果を、前記オブジェクト情報とすることを特徴とする請求項11又は12に記載の環境認識装置。
Vehicle color extraction means for extracting the color of the macroblock located between or above and below the tail lamp candidates extracted by the candidate extraction means as the color of the preceding vehicle;
The environment recognition apparatus according to claim 11 or 12, wherein the object information giving means uses the extraction result of the vehicle color extraction means as the object information.
前記オブジェクト情報付与手段にて記憶されるオブジェクト情報と、当該装置外から供給される該対象オブジェクトに関する情報とが不一致である場合に、異常事態であると判定する異常事態判定手段を備えることを特徴とする請求項1〜13のいずれかに記載の環境認識装置。   Characterized by comprising an abnormal situation judging means for judging that an abnormal situation occurs when the object information stored in the object information providing means and the information on the target object supplied from outside the device do not match. The environment recognition device according to claim 1. 車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得する画像データ取得手段と、
該画像データ取得手段が取得した画像データに基づいて、前記カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する平均色算出手段と、
該平均色算出手段にて算出された平均色が、予め用意された色インデックスのいずれに属するかを判定し、該判定結果を色情報として前記画素ブロックに対応づけて記憶する色情報付与手段と、
該色情報付与手段によって対応づけられた色情報と着目する色インデックスとが一致する前記画素ブロックの数を前記カラー画像上の一方向に沿って積算し、その積算値を一次元的に配列してなる色ヒストグラムを、前記色インデックス毎に且つ前記画像データのフレーム単位で時系列的に生成する色ヒストグラム生成手段と、
該色ヒストグラム生成手段にて生成される色ヒストグラムのフレーム間差分を、前記色インデックス毎に算出する第一差分算出手段と、
該第一差分算出手段での算出結果に基づいて、前記カラー画面上に現れた要注意状況を検出する第一要注意状況検出手段と、
を備えることを特徴とする環境認識装置。
Image data acquisition means for acquiring image data based on a color image in front of the vehicle imaged by the in-vehicle camera;
Average color calculation means for calculating an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size based on the image data acquired by the image data acquisition means;
Color information providing means for determining which of the color indexes prepared in advance the average color calculated by the average color calculating means belongs, and storing the determination result as color information in association with the pixel block; ,
The number of the pixel blocks in which the color information matched by the color information providing unit and the color index of interest match is integrated along one direction on the color image, and the integrated values are arranged one-dimensionally. A color histogram generating means for generating a color histogram in time series for each color index and in units of frames of the image data;
First difference calculation means for calculating a difference between frames of the color histogram generated by the color histogram generation means for each color index;
First caution situation detecting means for detecting a caution situation appearing on the color screen based on a calculation result in the first difference calculation means;
An environment recognition apparatus comprising:
車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得する画像データ取得手段と、
該画像データ取得手段が取得した画像データに基づいて、前記カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する平均色算出手段と、
該平均色算出手段にて算出された平均色が、予め用意された色インデックスのいずれに属するかを判定し、該判定結果を色情報として前記画素ブロックに対応づけて記憶する色情報付与手段と、
該色情報付与手段によって対応づけられた色情報と着目する色インデックスとが一致する前記画素ブロックの数を前記カラー画像の全体に渡って積算してなる全画面積算値を、前記画像データのフレーム単位で時系列的に生成する全画面積算値生成手段と、
該全画面積算値生成手段にて生成される全画面積算値のフレーム間差分を算出する第二差分算出手段と、
該第二差分算出手段での算出結果に基づいて、前記カラー画面上に現れた要注意状況を検出する第二要注意状況検出手段と、
を備えることを特徴とする環境認識装置。
Image data acquisition means for acquiring image data based on a color image in front of the vehicle imaged by the in-vehicle camera;
Average color calculation means for calculating an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size based on the image data acquired by the image data acquisition means;
Color information providing means for determining which of the color indexes prepared in advance the average color calculated by the average color calculating means belongs, and storing the determination result as color information in association with the pixel block; ,
A full-screen integrated value obtained by integrating the number of the pixel blocks whose color information matched by the color information providing means matches the color index of interest over the entire color image is obtained as a frame of the image data. Full-screen integrated value generating means for generating time series in units;
Second difference calculating means for calculating the inter-frame difference of the full screen integrated value generated by the full screen integrated value generating means;
Based on the calculation result of the second difference calculation means, second attention situation detection means for detecting the attention situation that has appeared on the color screen;
An environment recognition apparatus comprising:
前記全画面積算値生成手段は、赤の色インデックスについて前記全画面積算値を生成し、 前記第二要注意状況検出手段は、外部から供給される天候データが降雨中であることを示しており、且つ前記第二差分算出手段にて算出された全画面積算値のフレーム間差分が予め設定された接近閾値以上である場合を前記要注意状況として検出することを特徴とする請求項16に記載の環境認識装置。   The full-screen integrated value generating means generates the full-screen integrated value for a red color index, and the second caution state detecting means indicates that the weather data supplied from the outside is raining And detecting a case where the inter-frame difference of the full-screen integrated value calculated by the second difference calculating means is equal to or greater than a preset approach threshold as the caution situation. Environment recognition device. 車載カメラにより撮像された車両前方のカラー画像に基づく画像データを取得する画像データ取得手段と、
該画像データ取得手段が取得した画像データに基づいて、前記カラー画像を予め設定された大きさで分割してなる画素ブロック毎に、該画素ブロックの平均色を算出する平均色算出手段と、
該平均色算出手段にて算出される画素ブロックの平均色のフレーム間差分を、予め指定された前記カラー画像中の一領域である監視領域に属する全ての画素ブロックについて積算したものを、前記監視領域の危険度として算出する危険度算出手段を備えることを特徴とする環境認識装置。
Image data acquisition means for acquiring image data based on a color image in front of the vehicle imaged by the in-vehicle camera;
Average color calculation means for calculating an average color of the pixel block for each pixel block obtained by dividing the color image by a preset size based on the image data acquired by the image data acquisition means;
The inter-frame difference of the average color of the pixel block calculated by the average color calculating means is integrated for all the pixel blocks belonging to the monitoring area which is one area in the color image specified in advance. An environment recognition apparatus comprising a risk level calculation means for calculating the risk level of an area.
前記危険度算出手段は、前記画素ブロックの平均色のフレーム間差分を積算する際に、前記カラー画像の消失点に近い画素ブロックほど重み付けを大きくした重み付け加算を行うことを特徴とする請求項18に記載の環境認識装置。   19. The risk level calculation unit, when integrating the inter-frame difference of the average color of the pixel block, performs a weighted addition in which the pixel block closer to the vanishing point of the color image is weighted. The environment recognition device described in 1. 前記画像データ取得手段が取得する画像データは直交変換を用いて符号化されており、
前記平均色算出手段は、前記画像データに含まれる直流成分を前記平均色として用いることを特徴とする請求項1〜19のいずれかに記載の環境認識装置。
The image data acquired by the image data acquisition means is encoded using orthogonal transformation,
The environment recognition apparatus according to claim 1, wherein the average color calculation unit uses a DC component included in the image data as the average color.
JP2005242931A 2005-08-24 2005-08-24 Environment recognition device Expired - Fee Related JP4577153B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005242931A JP4577153B2 (en) 2005-08-24 2005-08-24 Environment recognition device
US11/502,485 US7804980B2 (en) 2005-08-24 2006-08-10 Environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005242931A JP4577153B2 (en) 2005-08-24 2005-08-24 Environment recognition device

Publications (2)

Publication Number Publication Date
JP2007060273A true JP2007060273A (en) 2007-03-08
JP4577153B2 JP4577153B2 (en) 2010-11-10

Family

ID=37923359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005242931A Expired - Fee Related JP4577153B2 (en) 2005-08-24 2005-08-24 Environment recognition device

Country Status (1)

Country Link
JP (1) JP4577153B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170539A (en) * 2010-02-17 2011-09-01 Toyota Central R&D Labs Inc Lighting color discriminating device and program
JP2011215972A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system and position measurement system
JP2013539105A (en) * 2010-08-13 2013-10-17 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Vehicle upgrade system and method for assisting a driver driving a vehicle
KR101324792B1 (en) 2010-05-31 2013-10-31 태성전장주식회사 Color region segmentation system for intelligent transportation system
JP2017083458A (en) * 2016-12-19 2017-05-18 パイオニア株式会社 Server device, weather condition acquisition method, information transmission device, information transmission method, program, and weather condition acquisition system
JP2018173427A (en) * 2018-08-07 2018-11-08 パイオニア株式会社 Server device, weather condition acquisition method, information transmission device, information transmission method, program, and weather condition acquisition system
CN109074199A (en) * 2016-08-30 2018-12-21 深圳市大疆创新科技有限公司 For detecting the method and system of barrier at the projected position in image
CN110249338A (en) * 2017-02-10 2019-09-17 法国大陆汽车公司 Method for detecting false positive wrong report relevant to traffic lights
CN111279153A (en) * 2017-10-09 2020-06-12 赫尔环球有限公司 Apparatus, method and computer program product for facilitating vehicle navigation based on quality indicators of map data
CN116448174A (en) * 2023-04-11 2023-07-18 深圳市森辉智能自控技术有限公司 Online monitoring system for environment of clean production workshop

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064057A (en) * 1992-06-17 1994-01-14 Toppan Printing Co Ltd Method for specifying color change and method and device for deciding restricted color
JP2001067566A (en) * 1999-08-30 2001-03-16 Fujitsu Ltd Fire detecting device
JP2001119688A (en) * 1999-10-15 2001-04-27 Toshiba Corp Device for detecting dynamic image specified color
JP2002259969A (en) * 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd Image detector, program and recording medium
JP2004152087A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Method and apparatus for extracting feature vector of image
JP2004348741A (en) * 2003-05-20 2004-12-09 Mitsubishi Electric Information Technology Centre Europa Bv Image comparison method, computer readable storage medium for storing program for execution of the method, and device for execution of the method
JP2005119661A (en) * 2004-12-28 2005-05-12 Nissan Motor Co Ltd Vehicle-use lighting device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064057A (en) * 1992-06-17 1994-01-14 Toppan Printing Co Ltd Method for specifying color change and method and device for deciding restricted color
JP2001067566A (en) * 1999-08-30 2001-03-16 Fujitsu Ltd Fire detecting device
JP2001119688A (en) * 1999-10-15 2001-04-27 Toshiba Corp Device for detecting dynamic image specified color
JP2002259969A (en) * 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd Image detector, program and recording medium
JP2004152087A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Method and apparatus for extracting feature vector of image
JP2004348741A (en) * 2003-05-20 2004-12-09 Mitsubishi Electric Information Technology Centre Europa Bv Image comparison method, computer readable storage medium for storing program for execution of the method, and device for execution of the method
JP2005119661A (en) * 2004-12-28 2005-05-12 Nissan Motor Co Ltd Vehicle-use lighting device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170539A (en) * 2010-02-17 2011-09-01 Toyota Central R&D Labs Inc Lighting color discriminating device and program
JP2011215972A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system and position measurement system
KR101324792B1 (en) 2010-05-31 2013-10-31 태성전장주식회사 Color region segmentation system for intelligent transportation system
JP2013539105A (en) * 2010-08-13 2013-10-17 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Vehicle upgrade system and method for assisting a driver driving a vehicle
JP2019531611A (en) * 2016-08-30 2019-10-31 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing method and system for controlling moving body
US10853969B2 (en) 2016-08-30 2020-12-01 SZ DJI Technology Co., Ltd. Method and system for detecting obstructive object at projected locations within images
CN109074199A (en) * 2016-08-30 2018-12-21 深圳市大疆创新科技有限公司 For detecting the method and system of barrier at the projected position in image
JP2017083458A (en) * 2016-12-19 2017-05-18 パイオニア株式会社 Server device, weather condition acquisition method, information transmission device, information transmission method, program, and weather condition acquisition system
CN110249338A (en) * 2017-02-10 2019-09-17 法国大陆汽车公司 Method for detecting false positive wrong report relevant to traffic lights
JP2020509479A (en) * 2017-02-10 2020-03-26 コンティネンタル オートモーティヴ フランスContinental Automotive France A method for detecting misjudgments on traffic lights
US11126874B2 (en) 2017-02-10 2021-09-21 Continental Automotive France Method for detecting false positives relating to a traffic light
JP7004731B2 (en) 2017-02-10 2022-01-21 コンティネンタル オートモーティヴ フランス How to detect false positives about traffic lights
CN110249338B (en) * 2017-02-10 2023-10-31 法国大陆汽车公司 Method for detecting false positive false positives associated with traffic lights
CN111279153A (en) * 2017-10-09 2020-06-12 赫尔环球有限公司 Apparatus, method and computer program product for facilitating vehicle navigation based on quality indicators of map data
CN111279153B (en) * 2017-10-09 2024-04-09 赫尔环球有限公司 Apparatus, method and computer program product for facilitating vehicle navigation based on quality metrics of map data
JP2018173427A (en) * 2018-08-07 2018-11-08 パイオニア株式会社 Server device, weather condition acquisition method, information transmission device, information transmission method, program, and weather condition acquisition system
CN116448174A (en) * 2023-04-11 2023-07-18 深圳市森辉智能自控技术有限公司 Online monitoring system for environment of clean production workshop
CN116448174B (en) * 2023-04-11 2023-10-31 深圳市森辉智能自控技术有限公司 Online monitoring system for environment of clean production workshop

Also Published As

Publication number Publication date
JP4577153B2 (en) 2010-11-10

Similar Documents

Publication Publication Date Title
JP4577153B2 (en) Environment recognition device
US7804980B2 (en) Environment recognition device
JP4708124B2 (en) Image processing device
JP4623135B2 (en) Image recognition device
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
US9384401B2 (en) Method for fog detection
JP5127182B2 (en) Object detection device
US8670592B2 (en) Clear path detection using segmentation-based method
JP4595759B2 (en) Environment recognition device
CN107590470B (en) Lane line detection method and device
CN109703460B (en) Multi-camera complex scene self-adaptive vehicle collision early warning device and early warning method
EP1930863A2 (en) Detecting and recognizing traffic signs
CN101950350A (en) Clear path detection using a hierachical approach
KR101240499B1 (en) Device and method for real time lane recogniton and car detection
JP2002083297A (en) Object recognition method and object recognition device
US11024042B2 (en) Moving object detection apparatus and moving object detection method
US10885351B2 (en) Image processing apparatus to estimate a plurality of road surfaces
US11029150B2 (en) Object distance detection device
JP2018022220A (en) Behavior data analysis system, and behavior data analysis device, and behavior data analysis method
JP6678552B2 (en) Vehicle type identification device and vehicle type identification method
Hariri et al. Vision based smart in-car camera system for driver yawning detection
CN108268866B (en) Vehicle detection method and system
CN106340031A (en) Method and device for detecting moving object
JP2009037284A (en) Traveling object recognition device
WO2019058755A1 (en) Object distance detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100809

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4577153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees