JP6317607B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP6317607B2
JP6317607B2 JP2014070490A JP2014070490A JP6317607B2 JP 6317607 B2 JP6317607 B2 JP 6317607B2 JP 2014070490 A JP2014070490 A JP 2014070490A JP 2014070490 A JP2014070490 A JP 2014070490A JP 6317607 B2 JP6317607 B2 JP 6317607B2
Authority
JP
Japan
Prior art keywords
sign
voting
unit
road sign
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014070490A
Other languages
Japanese (ja)
Other versions
JP2015192430A (en
Inventor
原也 小川
原也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2014070490A priority Critical patent/JP6317607B2/en
Publication of JP2015192430A publication Critical patent/JP2015192430A/en
Application granted granted Critical
Publication of JP6317607B2 publication Critical patent/JP6317607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車外に確認された道路標識の内容を認識する車外環境認識装置に関する。   The present invention relates to a vehicle exterior environment recognition device that recognizes the contents of a road sign confirmed outside a vehicle.

従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。また、速度超過に起因する事故を低減すべく、道路毎に設けられた制限速度を認識して自車両の速度を制御する技術も需要が高まっている。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is detected, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be a safe distance ( (Cruise control) technology is known (for example, Patent Document 1). In addition, there is an increasing demand for a technology for recognizing a speed limit provided for each road and controlling the speed of the host vehicle in order to reduce accidents caused by excessive speed.

自車両の速度を制限速度内として車両を安全に走行させるためには、路肩やゲートに配置された道路標識の内容を認識し、現在走行中の道路の制限速度を正しく把握する必要がある。例えば、特許文献2には、画面上のエッジに相当する部位にハフ変換を施して円形の道路標識の画像(以下、道路標識の画像も単に道路標識という)を認識する技術が記載されている。かかる技術では、ハフ変換に費やす処理負荷を軽減することで道路標識の特定効率の向上を図ることができる。   In order to drive the vehicle safely with the speed of the host vehicle within the speed limit, it is necessary to recognize the contents of the road signs placed on the shoulders and gates and to correctly grasp the speed limit of the road currently being driven. For example, Patent Document 2 describes a technique for recognizing a circular road sign image (hereinafter, a road sign image is also simply referred to as a road sign) by performing a Hough transform on a portion corresponding to an edge on the screen. . With this technique, it is possible to improve the efficiency of identifying road signs by reducing the processing load spent on Hough conversion.

特許第3349060号公報Japanese Patent No. 3349060 特開2012−243051号公報JP 2012-243051 A

ハフ変換を施して円形の道路標識を認識するには、まず、円周の部分部位に相当する特徴点を特定し、その後、特徴点から所定の距離離隔した円周上に投票し、その得票数に応じて道路標識の候補が特定される。しかし、任意の2つの点に対応する道路標識の占有領域が重複していると、いずれか一方が認識不能に陥るおそれがあり、そのときの認識状態によっては、制限速度を提示した道路標識等の重要な道路標識を除外してしまうおそれがある。   In order to recognize a circular road sign by performing Hough transform, first, a feature point corresponding to a partial part of the circumference is specified, and then a vote is given on the circumference separated from the feature point by a predetermined distance. Road sign candidates are identified according to the number. However, if the area occupied by road signs corresponding to any two points overlaps, one of them may become unrecognizable, and depending on the recognition state at that time, road signs that indicate the speed limit, etc. There is a risk of excluding important road signs.

本発明は、このような課題に鑑み、道路標識の複数の候補の占有領域が重複する場合であっても、適切に信頼性の高い候補に絞ることが可能な、車外環境認識装置を提供することを目的としている。   In view of such a problem, the present invention provides an external environment recognition device that can appropriately narrow down candidates to reliable candidates even when the occupation areas of a plurality of road sign candidates overlap. The purpose is that.

上記課題を解決するために、本発明の車外環境認識装置は、画像を取得する画像取得部と、画像を用い、道路標識の円周の部分部位となり得る画素をそれぞれ特徴点として複数特定する特徴点特定部と、複数の特徴点それぞれから所定の距離離隔した円周上の点およびその半径に基づいて、少なくとも水平画素位置および垂直画素位置を含む第1の投票テーブル、ならびに、第1の投票テーブルより水平画素位置および垂直画素位置に関するテーブルの分解能が低く、かつ、次元数が大きい第2の投票テーブルのいずれにも投票する投票部と、第1の投票テーブルにおいて得票数が所定値以上となる画素を中心とし、第2の投票テーブルにおける画素に対応する位置において得票数が所定値以上となる半径で形成される複数の円形状の道路標識の候補から1または複数の道路標識を特定する標識特定部と、特定された道路標識の内容を認識する標識内容認識部と、を備え、道路標識の複数の候補が画像上で重複する場合、標識特定部は、第1の投票テーブルの得票数および第2の投票テーブルの得票数の大小関係に基づいて、いずれかの候補を除外することを特徴とする。 In order to solve the above problems, the environment outside the vehicle recognition system of the present invention uses an image acquisition unit for acquiring an image, an image, a plurality identify pixels that can be part portion of the circumference of the road signs as each feature point feature A first voting table including at least a horizontal pixel position and a vertical pixel position based on a point specifying unit, a point on the circumference separated from each of the plurality of feature points by a predetermined distance, and a radius thereof; A voting unit for voting on any of the second voting tables having a lower resolution and a larger number of dimensions for the horizontal pixel position and the vertical pixel position than the table, and the number of votes obtained in the first voting table is a predetermined value or more. It becomes pixels around the plurality of circular road index which the number of votes is Ru is formed with a radius equal to or greater than a predetermined value at a position corresponding to the pixel in the second voting table When a plurality of candidates for road signs overlap on the image, a sign identifying unit that identifies one or more road signs from the candidates, and a sign content recognition unit that recognizes the contents of the identified road signs, The sign specifying unit is characterized by excluding one of the candidates based on the magnitude relationship between the number of votes in the first voting table and the number of votes in the second voting table.

標識特定部は、第1の投票テーブルの得票数および第2の投票テーブルの得票数のいずれもが小さい候補を除外してもよい。   The sign specifying unit may exclude candidates in which both the number of votes in the first voting table and the number of votes in the second voting table are small.

標識特定部は、第1の投票テーブルの得票数および第2の投票テーブルの得票数の一方が小さく、他方が大きい場合、画像上で下方に位置する候補を除外してもよい。
The sign identifying unit may exclude a candidate located below on the image when one of the number of votes in the first voting table and the number of votes in the second voting table is small and the other is large.

本発明によれば、道路標識の複数の候補の占有領域が重複する場合であっても、適切に信頼性の高い候補に絞ることが可能となる。   According to the present invention, even when the occupation areas of a plurality of candidate road signs overlap, it is possible to appropriately narrow down to candidates with high reliability.

車外環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the external environment recognition system. カラー画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a color image and a distance image. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 道路標識を説明する説明図である。It is explanatory drawing explaining a road sign. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a vehicle exterior environment recognition process. 画像取得部が取得するカラー画像を説明するための説明図である。It is explanatory drawing for demonstrating the color image which an image acquisition part acquires. ハフ変換を説明するための説明図である。It is explanatory drawing for demonstrating Hough conversion. ハフ変換を説明するための説明図である。It is explanatory drawing for demonstrating Hough conversion. 第4の抽出条件を説明するための説明図である。It is explanatory drawing for demonstrating 4th extraction conditions. 特徴点特定処理の一例を示したフローチャートである。It is the flowchart which showed an example of the feature point specific process. 特徴点特定処理の一例を示した説明図である。It is explanatory drawing which showed an example of the feature point specific process. 投票処理を説明するための説明図である。It is explanatory drawing for demonstrating a voting process. 投票テーブルを説明するための説明図である。It is explanatory drawing for demonstrating a voting table. 中心点候補リストを説明するための説明図である。It is explanatory drawing for demonstrating a center point candidate list. フラグテーブルを説明するための説明図である。It is explanatory drawing for demonstrating a flag table. 標識特定処理の一例を示したフローチャートである。It is the flowchart which showed an example of the label | marker specific process. 標識補正部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a label | marker correction | amendment part. 標識内容認識処理の具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the specific process of a label | marker content recognition process. 認識対象領域を説明するための説明図である。It is explanatory drawing for demonstrating a recognition object area | region. 制限速度の解除を提示した道路標識を説明するための説明図である。It is explanatory drawing for demonstrating the road sign which showed cancellation | release of the speed limit. 垂直方向位置合わせ処理を説明するための説明図である。It is explanatory drawing for demonstrating a vertical direction alignment process. テンプレートを説明するための説明図である。It is explanatory drawing for demonstrating a template. 水平方向のマッチング処理を説明するための説明図である。It is explanatory drawing for demonstrating the matching process of a horizontal direction. DPマッチングを説明するための説明図である。It is explanatory drawing for demonstrating DP matching. 注目部位のマッチング処理を説明するための説明図である。It is explanatory drawing for demonstrating the matching process of an attention site | part. 評価判定結果を説明するための説明図である。It is explanatory drawing for demonstrating an evaluation determination result. 道路標識の結果報知の流れを示したタイムチャートである。It is the time chart which showed the flow of the result notification of a road sign. 国別の道路標識の表示態様を示した説明図である。It is explanatory drawing which showed the display mode of the road sign according to country. 道路標識のテンプレートを説明するための説明図である。It is explanatory drawing for demonstrating the template of a road sign.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(External vehicle environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the external environment recognition system 100. The vehicle exterior environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、カラー値で表されるカラー画像を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(U、V)からなるYUV形式の色空間、3つの色相(R(赤)、G(緑)、B(青))からなるRGB形式の色空間、または、色相(H)、彩度(S)、明度(B)からなるHSB形式の色空間のいずれかで表される数値群である。本実施形態では、画像として、YUV形式のカラー値によるカラー画像を例に挙げて説明するが、任意の部分的処理においてカラー画像に依存することなく処理を遂行できるアプリケーションについては、カラー画像のみならず、輝度(Y)で表される輝度画像(モノクロ画像)を用いることができる。   The imaging device 110 includes an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), images an environment corresponding to the front of the host vehicle 1, and is represented by a color value. A color image can be generated. Here, the color value is from a YUV format color space consisting of one luminance (Y) and two color differences (U, V), and three hues (R (red), G (green), B (blue)). A numerical value group represented by any one of the RGB color space or the HSB color space consisting of hue (H), saturation (S), and brightness (B). In the present embodiment, a color image using color values in the YUV format will be described as an example as an image. However, an application that can perform processing without depending on a color image in an arbitrary partial process is only a color image. Instead, a luminance image (monochrome image) represented by luminance (Y) can be used.

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像したカラー画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する対象物は、車両、歩行者、信号機、道路(進行路)、道路標識、ゲート、ガードレール、建物といった独立して存在する立体物のみならず、道路標識の内容、ブレーキランプ、ハイマウントストップランプ、テールランプ、ウィンカー、信号機の各点灯部分等、立体物の一部として特定できる物も含む。以下の実施形態における各機能部は、このようなカラー画像の更新を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates a color image obtained by capturing an object existing in the detection area in front of the host vehicle 1, for example, every 1/60 second frame (60 fps). Here, the objects to be recognized are not only solid objects such as vehicles, pedestrians, traffic lights, roads (traveling paths), road signs, gates, guardrails, buildings, but also the contents of road signs, brake lamps, Also included are those that can be specified as part of a three-dimensional object, such as high-mount stop lamps, tail lamps, blinkers, and lighting parts of traffic lights. Each functional unit in the following embodiment performs each process for each frame in response to the update of the color image.

さらに、本実施形態において、撮像装置110は、車外環境の明るさ(照度計の計測結果等)に応じた露光時間や絞りを示す第1露光態様で検出領域を撮像し、第1画像を生成する。また、撮像装置110は、電光表示タイプの道路標識等、特定の発光源が自発光しているか否かを判別可能な画像を生成する。その方法としては、ダイナミックレンジが広い撮像素子を用い、発光していない対象物が黒く潰れず、発光源が白とびしないように撮像してもよいし、第1露光態様とは露光態様(露光時間、絞り)が異なる第2露光態様で検出領域を撮像し、第2画像を生成してもよい。例えば、昼間であれば、明るい車外環境に応じた第1露光態様の露光時間より第2露光態様の露光時間を短くして、または、絞りを強くして第2画像を生成する。本実施形態において、第1画像および第2画像はそれぞれカラー画像および距離画像として用いられる。また、上記第1露光態様と第2露光態様とは、以下のようにして実現される。   Further, in the present embodiment, the imaging device 110 captures the detection region in the first exposure mode indicating the exposure time and the aperture according to the brightness of the environment outside the vehicle (measurement result of the illuminometer, etc.), and generates the first image. To do. Further, the imaging device 110 generates an image that can determine whether or not a specific light source emits light such as an electric display type road sign. As the method, an imaging device having a wide dynamic range may be used to capture an image so that an object that does not emit light is not crushed black and the light emission source is not overexposed. The first exposure mode is an exposure mode (exposure). The detection area may be imaged in a second exposure mode with different time and aperture to generate a second image. For example, during the daytime, the second image is generated by shortening the exposure time in the second exposure mode or increasing the aperture in comparison with the exposure time in the first exposure mode according to the bright outside environment. In the present embodiment, the first image and the second image are used as a color image and a distance image, respectively. Moreover, the said 1st exposure aspect and a 2nd exposure aspect are implement | achieved as follows.

例えば、撮像装置110の周期的な撮像タイミングを時分割し、第1露光態様による撮像と第2露光態様による撮像とを交互に行うことで、第1画像と第2画像とを順次生成することができる。また、画素毎に2つのキャパシタが設けられ、その2つのキャパシタに並行して電荷をチャージできる撮像素子において、一度の露光でチャージする時間を異ならせて露光態様の異なる2つの画像を並行して生成することもできる。さらに、1つのキャパシタの電荷のチャージ中に、時間を異ならせて2回読み出し、露光態様の異なる2つの画像を並行して生成したりすることでも上記の目的を達成できる。また、撮像装置110を、露光態様を異ならせて予め2セット準備しておき(ここでは、2つの撮像装置110×2セット)、2セットの撮像装置110からそれぞれ画像を生成したりすることも可能である。   For example, the first image and the second image are sequentially generated by time-sharing the periodic image capturing timing of the image capturing apparatus 110 and alternately performing image capturing in the first exposure mode and image capturing in the second exposure mode. Can do. In addition, in an image pickup device in which two capacitors are provided for each pixel and charges can be charged in parallel to the two capacitors, two images having different exposure modes are set in parallel by changing the charging time in one exposure. It can also be generated. Further, the above-described object can be achieved by reading twice at different times and generating two images having different exposure modes in parallel while charging one capacitor. In addition, two sets of imaging devices 110 may be prepared in advance with different exposure modes (here, two imaging devices 110 × 2 sets), and images may be generated from the two sets of imaging devices 110, respectively. Is possible.

車外環境認識装置120は、2つの撮像装置110それぞれからカラー画像を取得し、一方のカラー画像から任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方のカラー画像から検索する、所謂パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。   The outside environment recognition device 120 acquires a color image from each of the two imaging devices 110, and selects a block corresponding to a block arbitrarily extracted from one color image (for example, an array of horizontal 4 pixels × vertical 4 pixels) as the other color. The parallax information including the parallax and the screen position indicating the position of the arbitrary block in the screen is derived using so-called pattern matching that is searched from the image. Here, the horizontal indicates the horizontal direction of the captured image, and the vertical indicates the vertical direction of the captured image. As this pattern matching, it is conceivable to compare the luminance (Y) in an arbitrary block unit between a pair of images. For example, SAD (Sum of Absolute Difference) that takes a luminance difference, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of a variance value obtained by subtracting an average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The vehicle exterior environment recognition apparatus 120 performs such block-based parallax derivation processing for all blocks displayed in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be arbitrarily set.

ただし、車外環境認識装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を対応付けた画像を、上述したカラー画像と区別して距離画像という。   However, the vehicle environment recognition apparatus 120 can derive the parallax for each block, which is a detection resolution unit, but cannot recognize what kind of target object the block is. Accordingly, the disparity information is derived independently not in units of objects but in units of detection resolution (for example, blocks) in the detection region. Here, an image in which the parallax information derived in this way is associated is referred to as a distance image in distinction from the color image described above.

図2は、カラー画像126と距離画像128を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域124について図2(a)のようなカラー画像126が生成されたとする。ただし、ここでは、理解を容易にするため、2つのカラー画像126の一方のみを模式的に示している。車外環境認識装置120は、このようなカラー画像126からブロック毎の視差を求め、図2(b)のような距離画像128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。本実施形態では、このようなカラー画像126と距離画像128とを第1画像および第2画像それぞれに基づいて生成している。   FIG. 2 is an explanatory diagram for explaining the color image 126 and the distance image 128. For example, assume that a color image 126 as shown in FIG. 2A is generated for the detection region 124 through the two imaging devices 110. However, only one of the two color images 126 is schematically shown here for easy understanding. The vehicle environment recognition apparatus 120 obtains the parallax for each block from the color image 126 and forms a distance image 128 as shown in FIG. Each block in the distance image 128 is associated with the parallax of the block. Here, for convenience of description, blocks from which parallax is derived are represented by black dots. In the present embodiment, such a color image 126 and distance image 128 are generated based on the first image and the second image, respectively.

また、車外環境認識装置120は、カラー画像126に基づくカラー値、および、距離画像128に基づいて算出された、自車両1との相対距離を含む実空間における三次元の位置情報を用い、カラー値が等しく三次元の位置情報が近いブロック同士を対象物としてグループ化して、自車両1前方の検出領域における対象物がいずれの特定物(例えば、先行車両)に対応するかを特定する。例えば、相対距離等によって前方を走行する先行車両を特定し、さらに、カラー値によってその先行車両のブレーキランプの点灯有無を正確に認識することで先行車両の加減速を把握することができる。また、車外環境認識装置120は、路肩やゲートに配置された道路標識を特定し、さらに、その道路標識の内容、例えば制限速度を認識し、車両制御装置130を通じて、自車両1の速度を制限速度内の安全な速度に制御する。   Further, the outside environment recognition device 120 uses the color value based on the color image 126 and the three-dimensional position information in the real space including the relative distance from the host vehicle 1 calculated based on the distance image 128, and uses the color information. Blocks having the same value and having similar three-dimensional position information are grouped as objects, and the specific object (for example, the preceding vehicle) corresponding to the object in the detection area in front of the host vehicle 1 is specified. For example, it is possible to grasp the acceleration / deceleration of the preceding vehicle by specifying the preceding vehicle that travels ahead based on the relative distance or the like, and by accurately recognizing whether or not the brake lamp of the preceding vehicle is turned on based on the color value. Further, the outside environment recognition device 120 identifies a road sign placed on the shoulder or gate, recognizes the content of the road sign, for example, a speed limit, and limits the speed of the host vehicle 1 through the vehicle control device 130. Control to a safe speed within the speed.

なお、上記相対距離は、距離画像128におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。   The relative distance is obtained by converting the disparity information for each block in the distance image 128 into three-dimensional position information using a so-called stereo method. Here, the stereo method is a method of deriving a relative distance of the target object from the imaging device 110 from the parallax of the target object by using a triangulation method.

図1に戻って説明すると、車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。   Returning to FIG. 1, the vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and transmits it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. The own vehicle 1 is controlled. In addition, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、道路標識の特定処理について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 will be described in detail. Here, the road sign specifying process characteristic of the present embodiment will be described in detail, and the description of the configuration unrelated to the characteristics of the present embodiment will be omitted.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 3, the vehicle exterior environment recognition apparatus 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像(第1画像および第2画像に基づくカラー画像126、距離画像128)を一時的に保持する。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 152 holds various pieces of information necessary for processing of each function unit described below, and also receives images (first image and first image) received from the imaging device 110. A color image 126 based on two images and a distance image 128) are temporarily stored.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像取得部160、位置情報導出部162、特徴点特定部164、投票部166、標識特定部168、標識補正部170、標識内容認識部172、標識内容確定部174としても機能する。以下、本実施形態において認識目的としている道路標識を説明し、その後、本実施形態に特徴的な車外環境認識処理について、当該中央制御部154の各機能部の動作も踏まえて詳述する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program, a RAM as a work area, and the like, and through the system bus 156, an I / F unit 150, a data holding unit 152 and the like are controlled. In this embodiment, the central control unit 154 includes an image acquisition unit 160, a position information deriving unit 162, a feature point specifying unit 164, a voting unit 166, a sign specifying unit 168, a sign correcting unit 170, a sign content recognizing unit 172, It also functions as the sign content determination unit 174. Hereinafter, the road signs that are the object of recognition in the present embodiment will be described, and then the outside environment recognition processing characteristic of the present embodiment will be described in detail based on the operation of each functional unit of the central control unit 154.

図4は、道路標識を説明する説明図である。道路標識の種別としては、制限速度を提示した道路標識や制限速度の解除を提示した道路標識がある。制限速度を提示した道路標識は、図4(a)のように、円形状の枠内に制限速度を示す数値が記載されている。また、制限速度の解除を提示した道路標識には、図4(b)のように、無地の背景に右上から左下にかかる斜線が記載されたものや、図4(c)のように、制限速度を示す数値を背景に同斜線が記載されたものもある。   FIG. 4 is an explanatory diagram for explaining a road sign. As the types of road signs, there are road signs that present the speed limit and road signs that indicate the release of the speed limit. As shown in FIG. 4A, the road sign indicating the speed limit has a numerical value indicating the speed limit in a circular frame. In addition, the road sign indicating the release of the speed limit is shown in FIG. 4 (b), with a plain background with diagonal lines from the upper right to the lower left, and as shown in FIG. 4 (c). Some of them have the diagonal lines on the background of numerical values indicating speed.

また、道路標識の表示態様としては、LED等の発光源を有する電光表示タイプと、発光源を有さず色分けされただけの非電光表示タイプがある。また、道路標識の配置としては、道路の路肩に配置されたものや、道路の両路肩に跨がってアーチ形状に立設されたゲートの道路上方に対応する位置に配置されたものがある。   Moreover, as a display mode of a road sign, there are an electric light display type having a light emission source such as an LED and a non-electric light display type only having a light source and being color-coded. In addition, there are road signs arranged on the shoulders of roads and those arranged at positions corresponding to above the roads of gates erected in a arch shape across both road shoulders. .

本実施形態の車外環境認識装置120は、上述した中央制御部154の各機能部によって、このような配置、表示態様、種別の異なる道路標識それぞれの内容を認識する。車外環境認識装置120は、道路標識の内容を認識すると、その内容、例えば、現在走行している道路の制限速度を運転者に報知したり、現在の速度が制限速度を超過している場合にその旨を運転者に報知したり、制限速度を超過しないように車両制御装置130を制御したりすることができる。このため、自車両1が、道路標識を確認可能な位置に到達した瞬間に道路標識を認識する必要は必ずしもなく、道路標識を通過した時点、もしくは、その後に認識できれば足りる。したがって、道路標識を複数のフレームに亘って認識し、その複数のフレームの情報から道路標識の内容を確定すればよいことになる。   The vehicle environment recognition apparatus 120 according to the present embodiment recognizes the contents of each of the road signs having different arrangements, display modes, and types by the function units of the central control unit 154 described above. When the environment recognition device 120 outside the vehicle recognizes the content of the road sign, it notifies the driver of the content, for example, the speed limit of the road that is currently running, or when the current speed exceeds the speed limit. This can be notified to the driver, or the vehicle control device 130 can be controlled so as not to exceed the speed limit. For this reason, it is not always necessary to recognize the road sign at the moment when the host vehicle 1 reaches a position where the road sign can be confirmed, and it is sufficient if the vehicle 1 can recognize it at the time of passing the road sign or thereafter. Therefore, it is only necessary to recognize the road sign over a plurality of frames and determine the content of the road sign from the information of the plurality of frames.

(車外環境認識処理)
図5は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、大きく分けて、画像を取得する画像取得処理(S200)、道路標識、特に円形状の枠を検出する標識検出処理(S202)、道路標識の内容(数値や図柄のパターン)を認識する標識内容認識処理(S204)、認識した道路標識の内容を時間方向に累積して確定する標識内容確定処理(S206)を、その順に実行する。
(External vehicle environment recognition processing)
FIG. 5 is a flowchart showing the flow of the external environment recognition process. The environment recognition process outside the vehicle is roughly divided into an image acquisition process (S200) for acquiring an image, a sign detection process (S202) for detecting a road sign, particularly a circular frame, and the contents of the road sign (numeric value and pattern pattern). A sign content recognition process (S204) for recognizing and a sign content confirmation process (S206) for accumulating and confirming the recognized road sign contents in the time direction are executed in that order.

(画像取得処理S200)
画像取得部160は、撮像装置110からカラー画像126を取得する。上述したように、本実施形態において対象としている道路標識には、電光表示タイプと非電光表示タイプといったように表示態様が異なるものがあり、また、路肩とゲートといったように配置も異なるものがある。したがって、撮像装置110は、第1露光態様と第2露光態様の2つの露光態様で、それぞれ路肩とゲートとを検出可能な2つの検出領域を撮像し、画像取得部160は、このように撮像された4つのカラー画像126を取得する。
(Image acquisition process S200)
The image acquisition unit 160 acquires the color image 126 from the imaging device 110. As described above, the road signs targeted in the present embodiment have different display modes such as an electric display type and a non-electric display type, and also have different arrangements such as a road shoulder and a gate. . Therefore, the imaging apparatus 110 captures two detection areas in which the road shoulder and the gate can be detected in the two exposure modes of the first exposure mode and the second exposure mode, respectively, and the image acquisition unit 160 captures images in this way. The obtained four color images 126 are acquired.

図6は、画像取得部160が取得するカラー画像126を説明するための説明図である。例えば、撮像装置110では、相対的に露光時間が長い第1露光態様で、図6(a)および図6(b)に示すカラー画像126を撮像する。ただし、図6(a)は、路肩を検出可能な画角で撮像されたカラー画像126を示し、図6(b)は、ゲートを検出するため、図6(a)より画角を広げる方向に切り換えて撮像されたカラー画像126を示している。そして、撮像装置110は、露光態様を第2露光態様に切り換え、例えば、露光時間を相対的に短く設定して、図6(c)および図6(d)に示すカラー画像126を撮像する。ただし、図6(c)および図6(d)は、図6(a)および図6(b)同様、検出対象に応じ画角を切り換えて撮像されている。ここでは、4つのカラー画像126を挙げているが、路肩およびゲートさえ検出できれば、その数と種別は任意に設定することができる。   FIG. 6 is an explanatory diagram for explaining the color image 126 acquired by the image acquisition unit 160. For example, the imaging device 110 captures the color image 126 shown in FIGS. 6A and 6B in the first exposure mode with a relatively long exposure time. However, FIG. 6A shows a color image 126 picked up with an angle of view capable of detecting the shoulder, and FIG. 6B shows a direction in which the angle of view is wider than that of FIG. 6A in order to detect the gate. A color image 126 picked up by switching to is shown. Then, the imaging device 110 switches the exposure mode to the second exposure mode, for example, sets the exposure time to be relatively short, and captures the color image 126 shown in FIGS. 6C and 6D. However, FIG. 6C and FIG. 6D are imaged by switching the angle of view according to the detection target, as in FIG. 6A and FIG. 6B. Here, four color images 126 are listed, but the number and type can be arbitrarily set as long as the shoulder and gate can be detected.

こうして、露光態様および検出領域の異なる4つのカラー画像126が取得される。このように複数の露光態様や検出領域で撮像することで、発光源の輝度が飽和したり、画角を広くとり過ぎて分解能が低くなる等の問題を解消でき、検出精度を十分に高めることができる。かかる4つのカラー画像126は時分割で撮像され、その順は任意に設定できる。ただし、本実施形態では、道路標識を通過した時点、もしくは、その後に道路標識を認識できればよいので、必ずしも4つのカラー画像126を同タイミングで撮像する必要はない。   In this way, four color images 126 with different exposure modes and detection areas are acquired. By capturing images in multiple exposure modes and detection areas in this way, problems such as saturation of the luminance of the light source and reduction of resolution due to a wide angle of view can be solved, and detection accuracy can be sufficiently increased. Can do. The four color images 126 are picked up in time division, and the order can be arbitrarily set. However, in the present embodiment, it is only necessary to recognize the road sign at the time of passing the road sign or after that, so it is not always necessary to capture the four color images 126 at the same timing.

位置情報導出部162は、2つの撮像装置110それぞれから第1露光で撮像した第1画像に基づくカラー画像(図6(a)、図6(b))を取得し、パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出して距離画像128を生成する。そして、位置情報導出部162は、距離画像128における検出領域124内のブロック毎の視差情報を、ステレオ法を用いて、自車両1の水平方向中央を中心とした水平方向の相対距離である水平距離x、道路表面からの高さyおよび自車両1との奥行き方向の相対距離zを含む三次元の位置情報に変換する。ただし、位置情報導出部162は、三次元の位置情報に変換する前に予め道路表面の垂直位置を求め、ブロック毎の垂直位置と道路表面の垂直位置との相対距離から道路表面からの高さyを導出する。ここで、視差情報が、距離画像128における各ブロックの視差を示すのに対し、三次元の位置情報は、実空間における各ブロックの相対距離zの情報を示す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属する全ての画素の視差情報とみなして、画素単位の計算を実行することができる。かかる三次元の位置情報への変換については、特開2013−109391号公報等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。   The position information deriving unit 162 acquires color images (FIGS. 6A and 6B) based on the first image captured by the first exposure from each of the two imaging devices 110, and uses the pattern matching to perform parallax The parallax information including the screen position indicating the position of the arbitrary block in the screen is derived, and the distance image 128 is generated. Then, the position information deriving unit 162 uses the stereo method to calculate the disparity information for each block in the detection area 124 in the distance image 128 as a horizontal relative distance centered on the horizontal center of the host vehicle 1. The information is converted into three-dimensional position information including the distance x, the height y from the road surface, and the relative distance z in the depth direction with the host vehicle 1. However, the position information deriving unit 162 obtains the vertical position of the road surface in advance before converting into the three-dimensional position information, and calculates the height from the road surface from the relative distance between the vertical position of each block and the vertical position of the road surface. y is derived. Here, the parallax information indicates the parallax of each block in the distance image 128, while the three-dimensional position information indicates information on the relative distance z of each block in the real space. Further, when the disparity information is derived not in pixel units but in block units, that is, in a plurality of pixel units, the disparity information may be regarded as disparity information of all pixels belonging to the block, and calculation in pixel units may be executed. it can. Regarding the conversion to the three-dimensional position information, since existing techniques such as JP2013-109391A can be referred to, detailed description thereof is omitted here.

(標識検出処理S202)
本実施形態では、道路標識のうち、特に円形状の道路標識の認識を目的としている。このような円形状の道路標識は、ハフ変換を用いて検出される。ここで、ハフ変換は、カラー画像上の特徴点から、対象が存在する可能性のある点に投票を行い、得票数が多い(所定値以上となる)対象を検出する技術である。このように本実施形態では、ハフ変換に特化して説明するが、車外環境認識処理の任意の部分的処理においてハフ変換に依存することなく道路標識を特定できるアプリケーションについてはハフ変換のみならず、ハフ変換以外のテンプレートマッチングや最小二乗法等の既存の様々な形状認識手法を用いることができる。
(Label detection process S202)
In the present embodiment, the object is to recognize circular road signs, among road signs. Such circular road signs are detected using Hough transform. Here, the Hough transform is a technique for voting from a feature point on a color image to a point where an object may exist and detecting an object having a large number of votes (a predetermined value or more). As described above, in the present embodiment, the description will be given specifically for the Hough conversion, but the application that can identify the road sign without depending on the Hough conversion in any partial processing of the outside environment recognition process is not only the Hough conversion Various existing shape recognition methods such as template matching and least square method other than the Hough transform can be used.

図7および図8は、ハフ変換を説明するための説明図である。ここでは、カラー画像126から図7(a)の如くエッジを有する3つの画素220c、220d、220eを抽出したとする。かかる3つの画素220c、220d、220eは、本来、円形状の道路標識222の一部であるが、通常、カラー画像126から明確に円形状であることは把握できない。   7 and 8 are explanatory diagrams for explaining the Hough transform. Here, it is assumed that three pixels 220c, 220d, and 220e having edges are extracted from the color image 126 as shown in FIG. These three pixels 220 c, 220 d, and 220 e are originally a part of the circular road sign 222, but it is usually impossible to grasp from the color image 126 that the shape is clearly circular.

ハフ変換は、複数の点から円や直線などの幾何学的な形状を検出する手法であり、任意の画素220を通り、かつ、半径nである円の中心は、その任意の画素220を中心とした半径nの円周上に存在するという理論に基づいている。例えば、図7(a)の3つの画素220c、220d、220eを通る円の中心は、3つの画素220c、220d、220eそれぞれを中心とした円周上にある。しかし、エッジのみの情報では、その半径nを特定できないため、相異なる複数段階の半径nを準備して、3つの画素220c、220d、220eを中心とした複数段階の半径nの円上の画素に投票し、得票数が予め定められた所定値以上となれば半径nと中心とを道路標識222として決定する。   The Hough transform is a technique for detecting a geometric shape such as a circle or a straight line from a plurality of points. The center of a circle that passes through an arbitrary pixel 220 and has a radius n is centered on the arbitrary pixel 220. It is based on the theory of existing on the circumference of the radius n. For example, the center of the circle passing through the three pixels 220c, 220d, and 220e in FIG. 7A is on the circumference centered at each of the three pixels 220c, 220d, and 220e. However, since the radius n cannot be specified by only the edge information, a plurality of different radii n are prepared, and pixels on a circle having a plurality of radii n around the three pixels 220c, 220d, and 220e are prepared. And the radius n and the center are determined as the road sign 222 when the number of votes is equal to or greater than a predetermined value.

例えば、図7(b)、図7(c)、図7(d)のように、3つの画素220c、220d、220eを中心にして、相異なる半径n=4、5、6の円を形成し、その円の軌跡に含まれる画素に投票する(単位指標を関連付ける)。すると、図7(b)では、2つの画素224で得票数が2となる(単位指標が2つ関連付けられる)。また、図7(c)では、3つの画素224で得票数が2となり、1つの画素226で得票数が3となる。同様に、図7(d)では、6つの画素224で得票数が2となる。   For example, as shown in FIGS. 7B, 7C, and 7D, circles having different radii n = 4, 5, and 6 are formed around the three pixels 220c, 220d, and 220e. Then, vote for the pixels included in the locus of the circle (associate the unit index). Then, in FIG. 7B, the number of votes obtained is 2 for two pixels 224 (two unit indices are associated). In FIG. 7C, the number of votes obtained is 3 for three pixels 224, and the number of votes obtained is 3 for one pixel 226. Similarly, in FIG. 7D, the number of votes is 2 for the six pixels 224.

このとき、得票数が3(所定値以上)となるのは画素226のみとなり、その画素226を3つの画素220c、220d、220eを通る円の中心とし、その画素226を導出した際の半径n=5を円の半径と特定することができる。こうして、図7(e)のように、3つの画素220c、220d、220eを通る円228が特定される。ここでは、説明の便宜上、3つの画素220c、220d、220eを挙げて説明したが、円228に含まれない画素が特徴点となったり、画素化(離散化)により本来の位置と異なる位置に出現した画素が特徴点となったりすることがあるので、このようなノイズの影響を回避すべく、実際には、多数の点を投票に用い、数の原理で安定した検出を行っている。本実施形態では、このようなハフ変換を、例えば、図6(b)に示したカラー画像126に適用し、特徴点特定部164、投票部166、標識特定部168によって円形状の道路標識を特定する。以下、図8を用いて、各機能部の基本的な処理を説明する。   At this time, the number of votes obtained is 3 (predetermined value or more) only in the pixel 226. The pixel 226 is the center of a circle passing through the three pixels 220c, 220d, and 220e, and the radius n when the pixel 226 is derived is n. = 5 can be specified as the radius of the circle. Thus, as shown in FIG. 7E, a circle 228 passing through the three pixels 220c, 220d, and 220e is specified. Here, for convenience of explanation, the three pixels 220c, 220d, and 220e have been described. However, a pixel that is not included in the circle 228 becomes a feature point, or at a position different from the original position by pixelization (discretization). Since the appearing pixel may become a feature point, in order to avoid the influence of such noise, in practice, a large number of points are used for voting and stable detection is performed based on the principle of number. In the present embodiment, such a Hough transform is applied to, for example, the color image 126 shown in FIG. 6B, and a circular road sign is formed by the feature point specifying unit 164, the voting unit 166, and the sign specifying unit 168. Identify. Hereinafter, basic processing of each functional unit will be described with reference to FIG.

まず、特徴点特定部164は、カラー画像126から、円周の部分部位に相当する特徴点を特定する(特徴点特定処理)。例えば、特徴点特定部164が、図8(a)のカラー画像126において、特徴点としてエッジを有する画素220f、220g、220h、220i、220j、220kを特定したとする。なお、図8(a)の点線は走行車線に対応している。   First, the feature point specifying unit 164 specifies feature points corresponding to a partial portion of the circumference from the color image 126 (feature point specifying process). For example, it is assumed that the feature point specifying unit 164 specifies the pixels 220f, 220g, 220h, 220i, 220j, and 220k having edges as feature points in the color image 126 in FIG. In addition, the dotted line of Fig.8 (a) respond | corresponds to a travel lane.

次に、投票部166は、特徴点から半径nに相当する所定の距離に投票する(投票処理)。ここでは、上記6つの画素220に対し、説明の便宜上、画素220f、220g、220hについては半径nを仮に30画素とし、画素220i、220j、220kについては半径nを仮に23画素とする。投票部166は、図8(b)のカラー画像126において、画素220f、220g、220h、220i、220j、220kを中心に、画素220それぞれから半径n(30画素、23画素)にある円上の画素全てに投票する。そして、図8(c)に示す投票テーブル230における投票先(画素、半径n)に1が投票(加算)される。ここで、投票テーブル230は、ハフ変換による投票空間であり、投票先となる画素の画面位置(x、y)と半径nとの三次元で表される。   Next, the voting unit 166 votes for a predetermined distance corresponding to the radius n from the feature point (voting process). Here, for convenience of explanation, the radius n is assumed to be 30 pixels for the pixels 220f, 220g, and 220h, and the radius n is assumed to be 23 pixels for the pixels 220i, 220j, and 220k. In the color image 126 of FIG. 8B, the voting unit 166 is on a circle having a radius n (30 pixels, 23 pixels) from each of the pixels 220 with the pixels 220f, 220g, 220h, 220i, 220j, and 220k as the center. Vote for all pixels. Then, 1 is voted (added) to the vote destination (pixel, radius n) in the vote table 230 shown in FIG. Here, the voting table 230 is a voting space based on the Hough transform, and is represented in three dimensions, that is, the screen position (x, y) of the pixel that is the voting destination and the radius n.

続いて、標識特定部168は、投票テーブル230の得票数を検出し、得票数が多い投票先の画素と半径nとに基づいて円の中心と半径nとを導出する。そして、図8(d)のように、得票数が多い画素234を中心に読み出した半径nの円236を形成し、それを道路標識として特定する(標識特定処理)。以下、特徴点特定部164、投票部166、標識特定部168それぞれによる特徴点特定処理、投票処理、標識特定処理の具体的な動作を説明する。   Subsequently, the label specifying unit 168 detects the number of votes obtained from the voting table 230, and derives the center and radius n of the circle based on the voted pixels and the radius n having a large number of votes. Then, as shown in FIG. 8D, a circle 236 having a radius n read out around the pixel 234 having a large number of votes is formed and specified as a road sign (sign specifying process). Hereinafter, specific operations of the feature point specifying process, the voting process, and the sign specifying process by the feature point specifying unit 164, the voting unit 166, and the sign specifying unit 168 will be described.

(特徴点特定処理)
特徴点特定部164は、カラー画像126を用い、第1の抽出条件として、画素220のうち、所定のエッジ強度を有する画素220を特徴点の候補とする。エッジ強度は、例えば、ゾーベル(Sobel)フィルタで表してもよい。特徴点特定部164は、各画素220の座標を(i,j)とし、輝度をA(i,j)とした場合、以下の数式1を用いて、垂直方向のゾーベルフィルタと水平方向のゾーベルフィルタの絶対値の和を導出し、その値(エッジ強度)が予め定められた所定値以上であればその画素(i,j)を特徴点の候補とする。
エッジ強度=|A(i+1,j+1)+2A(i+1,j)+A(i+1,j-1) - A(i-1,j+1)-2A(i-1,j)-A(i-1,j-1)|
+|A(i+1,j+1)+2A(i,j+1)+A(i-1,j+1) - A(i+1,j-1)-2A(i,j-1)-A(i-1,j-1)|…(数式1)
(Feature point identification processing)
The feature point specifying unit 164 uses the color image 126 and, as a first extraction condition, the pixel 220 having a predetermined edge strength among the pixels 220 as a feature point candidate. The edge strength may be represented by, for example, a Sobel filter. When the coordinates of each pixel 220 are (i, j) and the luminance is A (i, j), the feature point specifying unit 164 uses the following Equation 1 to calculate the vertical Sobel filter and the horizontal direction. The sum of absolute values of the Sobel filter is derived, and if the value (edge strength) is equal to or greater than a predetermined value, the pixel (i, j) is determined as a candidate feature point.
Edge strength = | A (i + 1, j + 1) + 2A (i + 1, j) + A (i + 1, j-1)-A (i-1, j + 1) -2A (i- 1, j) -A (i-1, j-1) |
+ | A (i + 1, j + 1) + 2A (i, j + 1) + A (i-1, j + 1)-A (i + 1, j-1) -2A (i, j- 1) -A (i-1, j-1) | ... (Formula 1)

ここでは、ゾーベルフィルタによってエッジ強度を導出する例を挙げたが、かかる場合に限られず、プレヴィット(Prewitt)フィルタ等、既存の様々な技術を適用することができる。   Here, an example in which the edge strength is derived using a Sobel filter has been described. However, the present invention is not limited to this, and various existing techniques such as a Prewitt filter can be applied.

また、特徴点特定部164は、カラー画像126を用い、第2の抽出条件として、画素220のうち、所定のカラー値のうちの所定の色成分、例えば、YUV形式の色空間におけるV成分が予め定められた所定値以上であれば、その画素220を特徴点の候補とする。制限速度を提示した道路標識は周囲が赤色の円で構成され、制限速度の解除を提示した道路標識は周囲が白色または黒色の円で構成される。したがって、V成分が所定値以上である領域に属する色のみを抽出し特徴点の候補とする。こうして、走行中の多くの機会で確認される樹木等の緑色系の画素を除外することができ、特徴点の適切な絞込みが可能になる。   In addition, the feature point specifying unit 164 uses the color image 126 and, as a second extraction condition, a predetermined color component of a predetermined color value of the pixel 220, for example, a V component in a YUV color space. If it is equal to or greater than a predetermined value, the pixel 220 is set as a feature point candidate. The road sign indicating the speed limit is configured with a red circle around the road sign, and the road sign indicating the release of the speed limit is configured with a white or black circle around the road speed. Therefore, only the colors belonging to the region where the V component is equal to or greater than the predetermined value are extracted as feature point candidates. In this way, green pixels such as trees that are confirmed at many occasions during traveling can be excluded, and feature points can be appropriately narrowed down.

なお、カラー画像がRGB形式の色空間で構成されている場合、任意の変換式によってYUV形式の色空間に変換する。かかる変換式は、既存の技術なので、ここではその詳細な説明を省略する。   If the color image is composed of an RGB color space, the color image is converted to a YUV color space by an arbitrary conversion formula. Since such a conversion formula is an existing technique, a detailed description thereof is omitted here.

また、特徴点特定部164は、距離画像128を用い、第3の抽出条件として、画素220のうち、相対距離zが所定範囲内、路面からの高さyが所定範囲内、および、水平距離xが所定範囲内のいずれか1または複数の条件を満たした画素220を特徴点の候補とする。   In addition, the feature point specifying unit 164 uses the distance image 128, and, as a third extraction condition, the relative distance z is within a predetermined range, the height y from the road surface is within a predetermined range, and the horizontal distance among the pixels 220. A pixel 220 that satisfies any one or a plurality of conditions in which x is within a predetermined range is set as a feature point candidate.

具体的に、特徴点特定部164は、距離画像128から任意の画素220を抽出し、その画素220の三次元の位置情報を参照し、画素220に対応する対象物の相対距離zが、例えば10m以上、50m未満に位置する場合にその画素220を特徴点の候補とする。これは、10m未満では露光時間内における画像上での対象物の移動量が長くなり、それに伴って画像ボケの影響が大きくなるからであり、また、50m以上では画像の分解能の関係から道路標識の内容を正しく認識できないことが多いからである。このように相対距離zを制限することで、処理負荷の軽減を図るとともに、誤認識を低減することが可能となる。   Specifically, the feature point specifying unit 164 extracts an arbitrary pixel 220 from the distance image 128, refers to the three-dimensional position information of the pixel 220, and the relative distance z of the object corresponding to the pixel 220 is, for example, If the pixel 220 is located at 10 m or more and less than 50 m, the pixel 220 is set as a feature point candidate. This is because if the distance is less than 10 m, the amount of movement of the object on the image within the exposure time becomes longer, and the influence of image blur increases accordingly. This is because the contents of are often not recognized correctly. By limiting the relative distance z in this way, it is possible to reduce the processing load and reduce erroneous recognition.

また、特徴点特定部164は、同画素220に対応する対象物の路面からの高さyが、例えば0.5m以上、6.0m未満に位置する場合にその画素220を特徴点の候補とする。かかる範囲を0.5m以上とすることで、認識対象として路面標示やレーンを除外することができ、また、6.0m未満とすることで、それ以上に位置する樹木等を除外することができる。かかる条件によっても、処理負荷の軽減を図るとともに、誤認識を低減することが可能となる。   Further, the feature point specifying unit 164 sets the pixel 220 as a feature point candidate when the height y of the object corresponding to the pixel 220 from the road surface is, for example, 0.5 m or more and less than 6.0 m. To do. By setting this range to 0.5 m or more, road markings and lanes can be excluded as recognition targets, and by setting the range to less than 6.0 m, trees and the like located above that can be excluded. . Even under such conditions, it is possible to reduce the processing load and reduce misrecognition.

また、特徴点特定部164は、同画素220に対応する対象物の水平距離xが、例えば12mの範囲(−12m以上、12m未満)に位置する場合にその画素220を特徴点の候補とする。かかる範囲を12mとすることで、自車両1が走行しているレーンに関する道路標識以外の道路標識を除外することができる。かかる条件によっても、処理負荷の軽減を図るとともに、誤認識を低減することが可能となる。   Further, the feature point specifying unit 164 sets the pixel 220 as a candidate for the feature point when the horizontal distance x of the object corresponding to the pixel 220 is located within a range of, for example, 12 m (−12 m or more and less than 12 m). . By setting this range to 12 m, it is possible to exclude road signs other than road signs related to the lane in which the host vehicle 1 is traveling. Even under such conditions, it is possible to reduce the processing load and reduce misrecognition.

また、特徴点特定部164は、カラー画像126および距離画像128を用い、第4の抽出条件として、近接する画素220同士の少なくとも1の色成分(例えばU成分)の差分が所定範囲内であり、かつ、そのような画素220同士が所定の一方向に対して所定距離(長さ)以上連続していない画素を、特徴点の候補とする。   The feature point specifying unit 164 uses the color image 126 and the distance image 128, and the difference between at least one color component (for example, U component) between adjacent pixels 220 is within a predetermined range as a fourth extraction condition. In addition, a pixel in which such pixels 220 do not continue for a predetermined distance (length) in a predetermined direction is set as a candidate feature point.

図9は、第4の抽出条件を説明するための説明図である。例えば、図9(a)の路肩に示す紅葉した樹木240等は、第1〜第3の抽出条件を全て満たしてしまう場合がある。また、紅葉した樹木240はテクスチャとして認識できる箇所が多いので、広い範囲で特徴点として抽出されてしまう場合が多い。そうすると、テクスチャの多い樹木240等において広い範囲で特徴点が特定されてしまい、処理負荷が増大してしまう。   FIG. 9 is an explanatory diagram for explaining the fourth extraction condition. For example, the autumnal tree 240 shown on the shoulder of FIG. 9A may satisfy all the first to third extraction conditions. Further, since the autumnal tree 240 has many places that can be recognized as a texture, it is often extracted as a feature point in a wide range. If it does so, a feature point will be specified in a wide range in trees 240 etc. with many textures, and processing load will increase.

そこで、特徴点特定部164は、画素220同士の距離、すなわち、奥行き方向の距離、垂直方向の距離、および、水平方向の距離のいずれか1または複数の合成距離が、例えば、所定距離(例えば0.5m)未満であり、かつ、1の色成分(例えばU成分)の差分が所定値(例えば10)以内であるか否か判定する。そして、特徴点特定部164は、合成距離が0.5m未満であり、かつ、U成分の差分が10以内である画素220同士が画面の一方向(例えば水平方向)に30画素連続している場合、その画素220全てを特徴点から除外する。道路標識では、図9(b)に示すようにその周囲が同一色の円で構成されているが、所定の一方向、例えば、水平方向や垂直方向に30画素連続することはない。このような道路標識の表示形式の特徴に基づいて特徴点を特定することで、本来、特徴点として抽出すべきでない第1〜第3の抽出条件を満たしている画素220を除外することができ、特徴点の特定効率の向上を図ることが可能となる。   Therefore, the feature point specifying unit 164 has a distance between the pixels 220, that is, one or a plurality of combined distances of a distance in the depth direction, a distance in the vertical direction, and a distance in the horizontal direction, for example, a predetermined distance (for example, It is determined whether or not the difference of one color component (for example, U component) is within a predetermined value (for example, 10). Then, the feature point specifying unit 164 has 30 pixels that are continuous in one direction (for example, the horizontal direction) of the pixels 220 having a combined distance of less than 0.5 m and a U component difference of 10 or less. In this case, all the pixels 220 are excluded from the feature points. As shown in FIG. 9B, the road sign is composed of circles of the same color as shown in FIG. 9B, but does not continue 30 pixels in a predetermined direction, for example, the horizontal direction or the vertical direction. By specifying the feature points based on the characteristics of the display format of the road sign, the pixels 220 that satisfy the first to third extraction conditions that should not be extracted as the feature points can be excluded. Thus, it is possible to improve the identification efficiency of the feature points.

ただし、道路標識のカラー画像126上の大きさは、相対距離zによって変化する。そこで、特徴点特定部164は、画素220同士が所定の方向に対して連続しているか否かの閾値である所定距離を、自車両1との相対距離zに応じて変更してもよい。具体的に、相対距離zが短いほど所定距離を長くし、相対距離zが長いほど、所定距離を短くする。こうすることで、道路標識のカラー画像126上の大きさに応じて適切な閾値を設けることができ、本来、特徴点として抽出すべきでない第1〜第3の抽出条件を満たしている画素220を適切に除外することが可能となる。   However, the size of the road sign on the color image 126 varies depending on the relative distance z. Therefore, the feature point specifying unit 164 may change a predetermined distance, which is a threshold value as to whether or not the pixels 220 are continuous in a predetermined direction, according to the relative distance z to the host vehicle 1. Specifically, the shorter the relative distance z, the longer the predetermined distance, and the longer the relative distance z, the shorter the predetermined distance. In this way, an appropriate threshold value can be provided according to the size of the road sign on the color image 126, and the pixel 220 that satisfies the first to third extraction conditions that should not be extracted as a feature point originally. Can be appropriately excluded.

そして、特徴点特定部164は、第3および第4の抽出条件をいずれも満たす画素220のうち、第1または第2の抽出条件を満たしている画素220を特徴点として特定する。こうして、特徴点として適切な画素220が特定される。   Then, the feature point specifying unit 164 specifies, as a feature point, the pixel 220 that satisfies the first or second extraction condition among the pixels 220 that satisfy both the third and fourth extraction conditions. In this way, a pixel 220 suitable as a feature point is specified.

また、特徴点特定部164は、特徴点の数が予め定められた所定値以上となると、1フレーム中の当該特徴点特定処理を中止してもよい。車外環境に応じてカラー画像126は様々に変化し、撮像された環境によって特徴点が非常に多くなる場合がある。このように特徴点の数が増加すると、それに伴って処理負荷が増大し、1フレーム中に割り当てられた処理時間を超過してしまうおそれがある。そこで、特徴点特定部164は、特徴点の数が予め定められた所定値以上となると、1フレーム中の当該特徴点特定処理を中止し、その時点までに特定した特徴点についてのみ、投票処理以降の処理を遂行する。   The feature point specifying unit 164 may stop the feature point specifying process in one frame when the number of feature points is equal to or greater than a predetermined value. The color image 126 changes variously depending on the environment outside the vehicle, and the feature points may become very large depending on the captured environment. If the number of feature points increases in this way, the processing load increases accordingly, and the processing time allocated in one frame may be exceeded. Therefore, when the number of feature points exceeds a predetermined value, the feature point specifying unit 164 stops the feature point specifying process in one frame and performs voting processing only for the feature points specified up to that point. Perform the following processing.

ただし、道路標識はカラー画像126の比較的上方に位置することが多いので、特徴点特定部164は、カラー画像126の上方から順に特徴点を特定する。こうして、道路標識の円周の部分部位に相当する特徴点を適切に抽出することが可能となる。   However, since the road sign is often positioned relatively above the color image 126, the feature point specifying unit 164 specifies the feature points in order from the top of the color image 126. In this way, it is possible to appropriately extract the feature points corresponding to the circumferential part of the road sign.

また、特徴点特定部164は、上記のように特徴点の数を所定値以内に抑えるべく、第1の抽出条件におけるエッジ強度の所定値や第2の抽出条件におけるV成分の所定値をフレーム毎に変化させるとしてもよい。車外環境はフレーム単位では変化に乏しいので、特徴点の数もさほど変化しない。したがって、1のフレームにおいて特徴点が多数抽出されると、以降のフレームにおいても連続して特徴点が多数抽出される。そこで、1フレーム中における特徴点の特定に割り当てられた処理時間を超過しないように、第1の抽出条件におけるエッジ強度の所定値や第2の抽出条件におけるV成分の所定値を所定の範囲内(40〜150)で調整しつつ、特徴点の数を所定の範囲内(200〜2000)に抑える。   In addition, the feature point specifying unit 164 frames the predetermined value of the edge strength in the first extraction condition and the predetermined value of the V component in the second extraction condition in order to keep the number of feature points within the predetermined value as described above. It may be changed every time. Since the environment outside the vehicle is poor in frame units, the number of feature points does not change much. Therefore, when many feature points are extracted in one frame, many feature points are continuously extracted in subsequent frames. Therefore, the predetermined value of the edge intensity in the first extraction condition and the predetermined value of the V component in the second extraction condition are within a predetermined range so as not to exceed the processing time allocated for specifying the feature point in one frame. While adjusting at (40 to 150), the number of feature points is kept within a predetermined range (200 to 2000).

図10は、特徴点特定処理の一例を示したフローチャートである。図10(a)に示すように、特徴点特定部164は、1フレーム中、第1の抽出条件下で抽出した特徴点の数が特徴点上限値(ここでは2000)を超えているか否か判定する(S240)。その結果、特徴点の数が特徴点上限値を超えていたら(S240におけるYES)、特徴点特定部164は、エッジ強度の所定値がエッジ強度上限値(ここでは150)未満であるか否か判定する(S242)。その結果、エッジ強度の所定値がエッジ強度上限値未満であれば(S242におけるYES)、特徴点特定部164は、エッジ強度の所定値をインクリメントする(S244)。かかるエッジ強度の所定値は、次回フレームの特定物特定処理から反映される。また、エッジ強度の所定値がエッジ強度上限値以上であれば(S242におけるNO)、特徴点特定部164は、エッジ強度の所定値のインクリメントを行わず、エッジ強度上限値に達した所定値を維持する(所定の範囲内に維持する)。   FIG. 10 is a flowchart showing an example of the feature point specifying process. As shown in FIG. 10A, the feature point specifying unit 164 determines whether or not the number of feature points extracted under the first extraction condition in one frame exceeds the feature point upper limit value (2000 here). Determine (S240). As a result, if the number of feature points exceeds the feature point upper limit value (YES in S240), the feature point specifying unit 164 determines whether the predetermined value of the edge strength is less than the edge strength upper limit value (150 in this case). Determination is made (S242). As a result, if the predetermined value of edge strength is less than the upper limit value of edge strength (YES in S242), the feature point specifying unit 164 increments the predetermined value of edge strength (S244). The predetermined value of the edge strength is reflected from the specific object specifying process of the next frame. If the predetermined value of the edge strength is equal to or higher than the upper limit value of the edge strength (NO in S242), the feature point specifying unit 164 does not increment the predetermined value of the edge strength and sets the predetermined value that has reached the upper limit value of the edge strength. Maintain (maintain within a predetermined range).

ステップS240において、特徴点の数が特徴点上限値以下であれば(S240におけるNO)、特徴点特定部164は、1フレーム中で抽出した特徴点の数が特徴点下限値(ここでは200)未満であるか否か判定する(S246)。その結果、特徴点の数が特徴点下限値未満であれば(S246におけるYES)、特徴点特定部164は、エッジ強度の所定値がエッジ強度下限値(ここでは40)を超えているか否か判定する(S248)。その結果、エッジ強度の所定値がエッジ強度下限値を超えていれば(S248におけるYES)、特徴点特定部164は、エッジ強度の所定値をデクリメントする(S250)。また、エッジ強度の所定値がエッジ強度下限値以下であれば(S248におけるNO)、特徴点特定部164は、エッジ強度の所定値のデクリメントを行わず、特徴点下限値に達した所定値を維持する(所定の範囲内に維持する)。また、特徴点の数が特徴点下限値以上であれば(S246におけるNO)、何ら処理を行わない。   If the number of feature points is equal to or less than the feature point upper limit value in step S240 (NO in S240), the feature point specifying unit 164 determines that the number of feature points extracted in one frame is the feature point lower limit value (here, 200). It is determined whether it is less than (S246). As a result, if the number of feature points is less than the feature point lower limit value (YES in S246), the feature point specifying unit 164 determines whether the predetermined value of the edge strength exceeds the edge strength lower limit value (here, 40). Determination is made (S248). As a result, if the predetermined value of edge strength exceeds the edge strength lower limit value (YES in S248), the feature point specifying unit 164 decrements the predetermined value of edge strength (S250). If the predetermined value of the edge strength is equal to or lower than the edge strength lower limit value (NO in S248), the feature point specifying unit 164 does not decrement the predetermined value of the edge strength and sets the predetermined value that has reached the lower limit value of the feature point. Maintain (maintain within a predetermined range). If the number of feature points is equal to or greater than the feature point lower limit value (NO in S246), no processing is performed.

また、図10(b)に示すように、特徴点特定部164は、1フレーム中、第2の抽出条件下で抽出した特徴点の数が特徴点上限値(ここでは2000)を超えているか否か判定する(S260)。その結果、特徴点の数が特徴点上限値を超えていたら(S260におけるYES)、特徴点特定部164は、V成分の所定値がV成分上限値(ここでは150)未満であるか否か判定する(S262)。その結果、V成分の所定値がV成分上限値未満であれば(S262におけるYES)、特徴点特定部164は、V成分の所定値をインクリメントする(S264)。かかるV成分の所定値は、次回フレームの特定物特定処理から反映される。また、V成分の所定値がV成分上限値以上であれば(S262におけるNO)、特徴点特定部164は、V成分の所定値のインクリメントを行わず、特徴点上限値に達した所定値を維持する(所定の範囲内に維持する)。   Further, as shown in FIG. 10B, the feature point specifying unit 164 determines whether the number of feature points extracted under the second extraction condition in one frame exceeds the feature point upper limit value (2000 in this case). It is determined whether or not (S260). As a result, if the number of feature points exceeds the feature point upper limit value (YES in S260), the feature point specifying unit 164 determines whether the predetermined value of the V component is less than the V component upper limit value (150 here). Determination is made (S262). As a result, if the predetermined value of the V component is less than the V component upper limit value (YES in S262), the feature point specifying unit 164 increments the predetermined value of the V component (S264). The predetermined value of the V component is reflected from the specific object specifying process in the next frame. If the predetermined value of the V component is equal to or greater than the V component upper limit value (NO in S262), the feature point specifying unit 164 does not increment the predetermined value of the V component, and determines the predetermined value that has reached the upper limit value of the feature point. Maintain (maintain within a predetermined range).

ステップS260において、特徴点の数が特徴点上限値以下であれば(S260におけるNO)、特徴点特定部164は、1フレーム中で抽出した特徴点の数が特徴点下限値(ここでは200)未満であるか否か判定する(S266)。その結果、特徴点の数が特徴点下限値未満であれば(S266におけるYES)、特徴点特定部164は、V成分の所定値がV成分下限値(ここでは40)を超えているか否か判定する(S268)。その結果、V成分の所定値がV成分下限値を超えていれば(S268におけるYES)、特徴点特定部164は、V成分の所定値をデクリメントする(S270)。また、V成分の所定値がV成分下限値以下であれば(S268におけるNO)、特徴点特定部164は、V成分の所定値のデクリメントを行わず、特徴点下限値に達した所定値を維持する(所定の範囲内に維持する)。また、特徴点の数が特徴点下限値以上であれば(S266におけるNO)、何ら処理を行わない。   If the number of feature points is equal to or smaller than the feature point upper limit value in step S260 (NO in S260), the feature point specifying unit 164 determines that the number of feature points extracted in one frame is the feature point lower limit value (here, 200). It is determined whether it is less than (S266). As a result, if the number of feature points is less than the feature point lower limit value (YES in S266), the feature point specifying unit 164 determines whether or not the predetermined value of the V component exceeds the V component lower limit value (here, 40). Determination is made (S268). As a result, if the predetermined value of the V component exceeds the V component lower limit value (YES in S268), the feature point specifying unit 164 decrements the predetermined value of the V component (S270). If the predetermined value of the V component is equal to or less than the V component lower limit value (NO in S268), the feature point specifying unit 164 does not decrement the predetermined value of the V component, and determines the predetermined value that has reached the feature point lower limit value. Maintain (maintain within a predetermined range). If the number of feature points is equal to or greater than the feature point lower limit value (NO in S266), no processing is performed.

上述したように、本実施形態では、第1の抽出条件または第2の抽出条件のいずれかを満たしている画素220を特徴点として特定している。したがって、第1の抽出条件と第2の抽出条件とは図10(a)と図10(b)のように独立して特徴点の数が調整される。こうして、第1の抽出条件におけるエッジ強度の所定値や第2の抽出条件におけるV成分の所定値を所定の範囲内(40〜150)に抑えつつ、特徴点の数を所定の範囲内(200〜2000)で調整して、1フレームにおける当該特徴点の特定に割り当てられた処理時間を維持することが可能となる。   As described above, in the present embodiment, the pixel 220 that satisfies either the first extraction condition or the second extraction condition is specified as a feature point. Therefore, the number of feature points is adjusted independently between the first extraction condition and the second extraction condition as shown in FIGS. 10 (a) and 10 (b). In this way, the number of feature points is within the predetermined range (200) while the predetermined value of the edge strength under the first extraction condition and the predetermined value of the V component under the second extraction condition are kept within the predetermined range (40 to 150). ˜2000), it is possible to maintain the processing time assigned to identify the feature point in one frame.

また、特徴点特定部164は、第2の抽出条件におけるV成分の所定値を道路面の色成分に応じてフレーム毎に変更するとしてもよい。カラー画像126全体の色成分は、日射条件や照明環境により変化する。例えば、橙色の照明が設置されているトンネル内では、カラー画像126全体のV成分が増加する。そこで、特徴点特定部164は、第2の抽出条件におけるV成分の所定値を道路面の色成分に応じて変更することで、日射や照明の変化が特徴点の特定に及ぼす影響を抑制する。   The feature point specifying unit 164 may change the predetermined value of the V component in the second extraction condition for each frame according to the color component of the road surface. The color components of the entire color image 126 change depending on the solar radiation conditions and the lighting environment. For example, in a tunnel in which orange illumination is installed, the V component of the entire color image 126 increases. Therefore, the feature point identification unit 164 suppresses the influence of changes in solar radiation and lighting on the identification of feature points by changing the predetermined value of the V component in the second extraction condition according to the color component of the road surface. .

図11は、特徴点特定処理の一例を示した説明図である。特徴点特定部164は、図11(a)に示すように、カラー画像126における車両前方の道路面が映る可能性の高い予め定められた相対距離zにある4つの点280におけるRGB形式のカラー値を取得する。そして、特徴点特定部164は、4つの点280それぞれのG成分/R成分を求め、その値の平均値AVを導出する。続いて、特徴点特定部164は、カラー画像126の全ての画素のR成分に当該平均値AVを乗じ、YUV形式に変換し、当該変換後のV成分と所定値とを比較して特徴点の候補を特定する。   FIG. 11 is an explanatory diagram showing an example of the feature point specifying process. As shown in FIG. 11A, the feature point specifying unit 164 performs RGB format color at four points 280 at a predetermined relative distance z where the road surface ahead of the vehicle in the color image 126 is highly likely to be reflected. Get the value. Then, the feature point specifying unit 164 obtains the G component / R component of each of the four points 280 and derives an average value AV of the values. Subsequently, the feature point specifying unit 164 multiplies the R component of all the pixels of the color image 126 by the average value AV, converts it to the YUV format, compares the converted V component with a predetermined value, and compares the feature points. Identify candidates.

ただし、図11(b)に示すように、車外環境認識装置120が認識した先行車両の相対距離zが所定範囲内(例えば20m以内)に位置している場合、当該カラー画像126から平均値AVを求めず、前回フレームで導出された(用いられた)平均値AVを利用する。これは、先行車両の色成分を道路面の色成分として取得してしまい、V成分に影響を与えて、誤った特徴点の候補が抽出されるのを回避するためである。   However, as shown in FIG. 11B, when the relative distance z of the preceding vehicle recognized by the outside environment recognition device 120 is located within a predetermined range (for example, within 20 m), the average value AV is calculated from the color image 126. The average value AV derived (used) in the previous frame is used. This is for avoiding that the color component of the preceding vehicle is acquired as the color component of the road surface, affects the V component, and erroneous feature point candidates are extracted.

また、今回フレームで計算した平均値AVと、前回フレームで導出した(用いられた)平均値AVとが、露光態様が変化していない(周囲の明るさに大きな変化がない)にも拘わらず、予め定められた所定値(例えば±50%)以上異なっている場合も、当該カラー画像126から平均値AVを求めず、前回フレームで導出した(用いられた)平均値AVを利用する。これは、道路面が赤色系の塗料で彩色されていた場合に、V成分に影響を与えてしまい、誤った特徴点の候補が抽出されるのを回避するためである。ただし、道路面に影ができた場合、灰色はRGB方式の各色成分(RGB)に均等に影響し、G成分/R成分の値に影響を及ぼさないので、問題とはならない。   In addition, the average value AV calculated in the current frame and the average value AV derived (used) in the previous frame are not changed in spite of the fact that the exposure mode has not changed (the ambient brightness is not significantly changed). Even when they differ by a predetermined value (for example, ± 50%) or more, the average value AV derived from the previous frame is used instead of obtaining the average value AV from the color image 126. This is to avoid the extraction of erroneous feature point candidates because the V component is affected when the road surface is colored with a red paint. However, when there is a shadow on the road surface, gray does not affect the G / R component values evenly because it affects the RGB color components (RGB) equally.

(投票処理)
投票部166は、特徴点特定部164が特定した特徴点から半径n離隔した円周上に投票する。これは、特徴点が任意の円周の部分部位に相当すると仮定すると、その特徴点から半径nの円周上に、特徴点を円周の部分部位とする円の中心があるはずという根拠に基づく。したがって、投票部166は、特徴点を円周の部分部位とする円の中心となり得る対応点のさらに半径nの点に投票する。
(Voting process)
The voting unit 166 votes on a circle that is separated from the feature point specified by the feature point specifying unit 164 by a radius n. This is based on the assumption that the center of a circle with the feature point as a partial part of the circumference should be on the circumference of the radius n from the feature point, assuming that the feature point corresponds to a partial part of the circumference. Based. Therefore, the voting unit 166 votes for a point having a radius n, which is a corresponding point that can be the center of a circle having a feature point as a partial portion of the circumference.

図12は、投票処理を説明するための説明図である。ここで、仮に1の半径nを挙げて説明すると、図12(a)に示すように、投票部166は、通常、特徴点300を中心とする半径nの円周302上の全ての画素220を対応点304とし、その画面位置の半径nの点に対して投票を行う。しかし、このような半径nに関する対応点304は円周302上の全ての画素220となるので、多大な数となり、さらに、半径nを変化させると、その数は無数に大きくなる。そこで、投票の効率化を図るべく、1の半径nに対する対応点304および半径nの数を制限する。   FIG. 12 is an explanatory diagram for explaining the voting process. Here, supposing that the radius n of 1 is given and explained, as shown in FIG. 12A, the voting unit 166 normally has all the pixels 220 on the circumference 302 of the radius n centering on the feature point 300. Is a corresponding point 304, and a vote is performed for a point having a radius n of the screen position. However, since the corresponding points 304 related to the radius n are all the pixels 220 on the circumference 302, the number of the corresponding points 304 becomes a great number. Further, when the radius n is changed, the number becomes infinite. Therefore, in order to increase the efficiency of voting, the number of corresponding points 304 and radius n for one radius n is limited.

ここで、円の接線は接点と円の中心を結ぶ線分と垂直となることが知られている。また、円の接線は画素220におけるエッジ延伸方向に相当する。したがって、対応点304は、特徴点300のエッジ延伸方向に垂直な線分上にしか出現しない。そこで、投票部166は、特徴点300のエッジ延伸方向を把握し、エッジ延伸方向に垂直な方向に対応点304を定めることができる。   Here, it is known that the tangent line of a circle is perpendicular to the line segment connecting the contact point and the center of the circle. The tangent line of the circle corresponds to the edge extension direction in the pixel 220. Therefore, the corresponding point 304 appears only on the line segment perpendicular to the edge extension direction of the feature point 300. Therefore, the voting unit 166 can grasp the edge extension direction of the feature point 300 and determine the corresponding point 304 in a direction perpendicular to the edge extension direction.

ここで、投票部166は、各画素220の座標を(i,j)とした場合の輝度をA(i,j)とすると、以下の数式2に示すように、垂直方向のゾーベルフィルタと水平方向のゾーベルフィルタの絶対値の比によってエッジ延伸方向に垂直な線分を導出する。
エッジ延伸方向に垂直な線分=atan(
|A(i+1,j+1)+2A(i,j+1)+A(i-1,j+1) - A(i+1,j-1)-2A(i,j-1)-A(i-1,j-1)|
/|A(i+1,j+1)+2A(i+1,j)+A(i+1,j-1) - A(i-1,j+1)-2A(i-1,j)-A(i-1,j-1)|
)…(数式2)
Here, the voting unit 166 has a vertical Sobel filter as shown in Equation 2 below, where A (i, j) is the luminance when the coordinates of each pixel 220 are (i, j). A line segment perpendicular to the edge extension direction is derived from the ratio of the absolute values of the horizontal Sobel filters.
Line segment perpendicular to edge stretching direction = atan (
| A (i + 1, j + 1) + 2A (i, j + 1) + A (i-1, j + 1)-A (i + 1, j-1) -2A (i, j-1 ) -A (i-1, j-1) |
/ | A (i + 1, j + 1) + 2A (i + 1, j) + A (i + 1, j-1)-A (i-1, j + 1) -2A (i-1, j) -A (i-1, j-1) |
) ... (Formula 2)

ここでは、ゾーベルフィルタによってエッジ延伸方向に垂直な線分を導出する例を挙げているが、かかる場合に限られず、既存の様々な技術を適用することができる。また、数式2では、除算とアークタンジェント(atan)を用いているが、これらにより処理負荷が増大する場合、垂直方向のゾーベルフィルタと水平方向のゾーベルフィルタの絶対値を入力としてエッジ延伸方向に垂直な線分を一意に導出するルックアップテーブルを用いてもよい。   Here, an example of deriving a line segment perpendicular to the edge extending direction by a Sobel filter is given, but the present invention is not limited to this, and various existing techniques can be applied. Further, in Formula 2, division and arc tangent (atan) are used. However, when the processing load increases due to these, the edge extension direction is input using the absolute values of the vertical and horizontal sobel filters as inputs. A look-up table for uniquely deriving a line segment perpendicular to may be used.

例えば、図12(b)のように、特徴点300のエッジ延伸方向が破線の線分306で示される場合、その線分306に垂直な方向に相当する一点鎖線の線分308上に対応点304を定めることができる。ここで、仮に1の半径nを挙げると、対応点304は、特徴点300のエッジ延伸方向に垂直な方向の線分308上で、特徴点300から半径n離隔した2つの点に絞ることができる。   For example, as shown in FIG. 12B, when the edge extension direction of the feature point 300 is indicated by a broken line segment 306, the corresponding point is located on the alternate long and short dash line segment 308 corresponding to the direction perpendicular to the segment 306. 304 can be defined. Here, if the radius n of 1 is given, the corresponding point 304 may be narrowed down to two points separated from the feature point 300 by a radius n on the line segment 308 in the direction perpendicular to the edge extension direction of the feature point 300. it can.

また、道路標識は、各国毎の法律や規則で、大きさが1または複数に定まっていることもある。そうすると、相対距離zによって道路標識のカラー画像126上の大きさが定まる。そこで、投票部166は、相対距離zに応じて、三次元の位置情報を導出した関数の逆関数を用いてカラー画像126上の道路標識の大きさ(半径n)を推定し、投票に用いる半径nの数を絞る。例えば、制限速度を提示した道路標識や制限速度の解除を提示した道路標識の大きさが3つに限られる場合、図12(c)に示すように、その数(3)×2に対応点304が絞られる。   Further, the size of the road sign may be set to one or more according to the laws and regulations of each country. Then, the size of the road sign on the color image 126 is determined by the relative distance z. Therefore, the voting unit 166 estimates the size (radius n) of the road sign on the color image 126 using the inverse function of the function derived from the three-dimensional position information according to the relative distance z, and uses it for voting. Reduce the number of radii n. For example, when the size of the road sign indicating the speed limit or the road sign indicating the release of the speed limit is limited to three, as shown in FIG. 12 (c), the corresponding number corresponds to the number (3) × 2. 304 is narrowed down.

このように、1の半径nに対する対応点304を特徴点300のエッジ延伸方向に垂直な方向の線分308上に制限し、また、半径nの数を所定の大きさおよび相対距離zに応じて1または複数に制限することで、本来対応点304が存在しないはずの不本意な投票を回避することができる。したがって、対応点304の誤設定による道路標識の誤検出を防止するとともに、無駄なハフ変換処理を回避して処理負荷の軽減を図ることができる。   In this way, the corresponding point 304 for one radius n is limited to a line segment 308 in the direction perpendicular to the edge extension direction of the feature point 300, and the number of radii n depends on the predetermined size and the relative distance z. By limiting the number to one or more, it is possible to avoid unwilling voting that the corresponding point 304 should not originally exist. Therefore, it is possible to prevent erroneous detection of a road sign due to an erroneous setting of the corresponding point 304, and to avoid useless Hough conversion processing and reduce processing load.

投票部166は、このように対応点304を制限した上で、上述した投票テーブル230に対し投票を行う。ここでは、三次元の投票空間を挙げて説明するが、道路標識が横向きや上下方向に傾きがある場合に対する対応として、横向きや上下方向に関する次元(例えば回転)を拡張したM次元(Mは正の整数)の投票空間を形成することもできる。   The voting unit 166 votes the voting table 230 described above after limiting the corresponding points 304 in this way. Here, a three-dimensional voting space will be described as an example. However, as a response to a case where the road sign is inclined in the horizontal direction or the vertical direction, an M dimension (M is a positive value) that expands a dimension (for example, rotation) in the horizontal direction or the vertical direction Voting space) can be formed.

図13は、投票テーブル230を説明するための説明図である。投票テーブル230は、通常、図13(a)に示すようにカラー画像126の水平画素数H×垂直画素数V×半径nの取り得る値Nといったように三次元の投票空間からなり、投票先となる画素の画面位置(x、y)と半径nとの三次元位置(点)に得票数が保持される。例えば、得票数の最大値を255(1BYTE)とすると、投票テーブル230の大きさは、H×V×N(BYTE)となる。そうすると、仮に高解像度のカラー画像126を用いる場合は、投票テーブル230に費やすメモリの記憶領域が大きくなるという問題に加え、得票数が限られる(少ない)場合は、ノイズ等の影響で得票数のピークが出にくくなるという問題も生じ得る。   FIG. 13 is an explanatory diagram for explaining the voting table 230. The voting table 230 is usually composed of a three-dimensional voting space such as the number of horizontal pixels H × the number of vertical pixels V × the radius n of the color image 126 as shown in FIG. The number of votes is held at the three-dimensional position (point) of the pixel screen position (x, y) and radius n. For example, if the maximum value of the number of votes is 255 (1 BYTE), the size of the voting table 230 is H × V × N (BYTE). In this case, if the high-resolution color image 126 is used, in addition to the problem that the storage area of the memory spent on the voting table 230 becomes large, if the number of votes is limited (small), the number of votes obtained is affected by noise or the like. There may also be a problem that the peak is difficult to appear.

後者の問題については、ノイズ分を考慮して、マージンを付加した投票処理、例えば、対応点304の半径nのみならず、対応点304の近傍の半径nにも投票することにより対策を行うことができるが、それに伴って処理負荷が増大する問題が生じる。また、分解能を下げ、例えば、水平2画素×垂直2画素のブロック単位で投票することも考えられるが、分解能を下げた分、対応点304の道路標識の特定精度の悪化は避けられない。   The latter problem is taken into account by taking into account the noise and taking measures by adding a margin, for example, voting not only on the radius n of the corresponding point 304 but also on the radius n near the corresponding point 304. However, there is a problem that the processing load increases accordingly. Further, it is conceivable that the resolution is lowered and, for example, voting is performed in units of blocks of 2 horizontal pixels × 2 vertical pixels. However, the accuracy of identifying the road sign at the corresponding point 304 is inevitably deteriorated as the resolution is lowered.

そこで、本実施形態では、次元および分解能の異なる2つの投票テーブル230a(第1の投票テーブル)、230b(第2の投票テーブル)を設け、投票部166は、それぞれの投票テーブル230a、230bに同時に投票することとする。   Therefore, in this embodiment, two voting tables 230a (first voting table) and 230b (second voting table) having different dimensions and resolutions are provided, and the voting unit 166 simultaneously applies to the voting tables 230a and 230b. I will vote.

投票テーブル230aは、図13(b)に示すように、カラー画像126の分解能は水平画素数H×垂直画素数Vのままで、半径nの情報を省略して次元を1つ落とした二次元(水平画素位置、垂直画素位置)の投票空間で示される。したがって、投票テーブル230aの大きさは、H×V(BYTE)となり、投票先となる画素の画面位置(x、y)の二次元位置に全ての半径nに対する得票数が保持される。一方、投票テーブル230bは、図13(c)に示すように、半径nに関する分解能はそのままの値Nで、次元も省略せず、その代わり、カラー画像126の分解能を水平および垂直それぞれで1/4に圧縮して(分解能を低くして)水平画素数H/4(水平画素数を圧縮した値)×垂直画素数V/4(垂直画素数を圧縮した値)とした三次元の投票空間で示される。したがって、投票テーブル230bの大きさは、H/4×V/4×N(BYTE)となり、投票先となる画素の画面位置(x、y)が属するブロック(水平4画素×垂直4画素)と半径nとの三次元位置に得票数が保持される。このように、投票テーブル230a、230bはそれぞれ、半径nの分解能を敢えて下げたものと、画面の位置の分解能を敢えて下げたものということになる。   In the voting table 230a, as shown in FIG. 13B, the resolution of the color image 126 remains the same as the number of horizontal pixels H × the number of vertical pixels V, and the information on the radius n is omitted and one dimension is dropped. It is shown in the voting space (horizontal pixel position, vertical pixel position). Therefore, the size of the voting table 230a is H × V (BYTE), and the number of votes for all radii n is held at the two-dimensional position of the screen position (x, y) of the pixel that is the voting destination. On the other hand, in the voting table 230b, as shown in FIG. 13C, the resolution with respect to the radius n is the same value N, and the dimension is not omitted. Instead, the resolution of the color image 126 is Three-dimensional voting space compressed to 4 (with reduced resolution) and the number of horizontal pixels H / 4 (value obtained by compressing the number of horizontal pixels) × number of vertical pixels V / 4 (value obtained by compressing the number of vertical pixels) Indicated by Therefore, the size of the voting table 230b is H / 4 × V / 4 × N (BYTE), and the block (horizontal 4 pixels × vertical 4 pixels) to which the screen position (x, y) of the pixel to be voted belongs belongs to. The number of votes is held at a three-dimensional position with the radius n. In this way, the voting tables 230a and 230b are those in which the resolution of the radius n is intentionally lowered and the resolution of the screen position is intentionally lowered.

投票部166は、特徴点300に基づいて対応点304を導出すると、それぞれの投票テーブル230a、230bに同時に投票する。ただし、投票テーブル230aについては、半径nに拘わらず、対応点304に相当する1の点に投票し、投票テーブル230bについては、対応点304が属するブロックの半径nの点に投票する。こうして、投票が完了すると、投票部166は、投票テーブル230aにおいて半径nの総合的な得票数が多い点(対応点304)を道路標識の中心位置の候補とし、投票テーブル230bにおいて当該中心位置に対応するブロックで得票数が多い半径nを道路標識の半径nの候補とすることが可能となる。   When the voting unit 166 derives the corresponding point 304 based on the feature point 300, the voting unit 166 votes simultaneously to the respective voting tables 230a and 230b. However, the voting table 230a is voted for one point corresponding to the corresponding point 304 regardless of the radius n, and the voting table 230b is voted for the point of the radius n of the block to which the corresponding point 304 belongs. Thus, when the voting is completed, the voting unit 166 sets a point (corresponding point 304) having a large total number of votes with the radius n in the voting table 230a as a candidate for the central position of the road sign, and sets the central position in the voting table 230b. A radius n having a large number of votes in the corresponding block can be set as a candidate for the radius n of the road sign.

このようにして、道路標識の中心の特定精度を高精度に維持しつつ、投票テーブル230の総合的な記憶容量を、H×V+H/4×V/4×N(BYTE)に低減させることが可能となる。ここで、H=600画素、V=200画素、N=20画素とすると、本来600×200×20=2,400,000BYTE必要なところ、約1/10に相当する600×200+600/4×200/4×20=270,000BYTEに低減することができる。   In this way, it is possible to reduce the total storage capacity of the voting table 230 to H × V + H / 4 × V / 4 × N (BYTE) while maintaining the accuracy of identifying the center of the road sign with high accuracy. It becomes possible. Here, if H = 600 pixels, V = 200 pixels, and N = 20 pixels, 600 × 200 × 20 = 2,400,000 BYTE is necessary, but 600 × 200 + 600/4 × 200 corresponding to about 1/10. / 4 × 20 = 270,000 BYTE.

ところで、投票部166は、全ての特徴点で投票処理を終えた後に、投票テーブル230の各点から得票数を抽出し、その半径nの総合的な得票数が所定値以上となる対応点304を道路標識の中心点の候補とする。しかし、投票テーブル230の記憶容量を低減させたとはいえ、投票空間がある程度の広さを有する場合、投票テーブル230全体の得票数の大小を判定するのは処理負荷が大きくなる。そこで、投票部166は、投票と並行して中心点の候補を選定することで、中心点の候補の抽出効率を向上させる。   By the way, the voting unit 166, after finishing the voting process for all the feature points, extracts the number of votes from each point of the voting table 230, and the corresponding points 304 at which the total number of votes of the radius n becomes a predetermined value or more. Is a candidate for the center point of the road sign. However, even if the storage capacity of the voting table 230 is reduced, when the voting space has a certain size, it is a processing load to determine the number of votes obtained for the entire voting table 230. Therefore, the voting unit 166 improves the extraction efficiency of the center point candidates by selecting the center point candidates in parallel with the voting.

図14は、中心点候補リスト310を説明するための説明図である。ここでは、投票テーブル230以外に、中心点候補リスト310を設ける。かかる中心点候補リスト310には、少なくとも、投票テーブル230aに関する画面位置(x、y)が登録される。投票部166は、現在投票している点の投票テーブル230a上の得票数が所定数以上となると、その点に相当する対応点304を当該中心点候補リスト310に追加的に随時登録する。そして、投票部166は、全ての特徴点で投票処理を終えた後に、その中心点候補リスト310に登録されたもののみを道路標識の候補とする。   FIG. 14 is an explanatory diagram for explaining the center point candidate list 310. Here, in addition to the voting table 230, a center point candidate list 310 is provided. In the center point candidate list 310, at least the screen position (x, y) related to the voting table 230a is registered. The voting unit 166 additionally registers the corresponding point 304 corresponding to the point in the center point candidate list 310 as needed when the number of votes on the voting table 230a of the currently voting point becomes a predetermined number or more. The voting unit 166, after finishing the voting process for all the feature points, sets only those registered in the center point candidate list 310 as road sign candidates.

かかる構成により、投票テーブル230全体の得票数の大小を判定するのを回避しつつ、すなわち、処理負荷を軽減しつつ、適切に中心点の候補を抽出することが可能となる。なお、投票部166は、中心点候補リスト310に登録する中心点の候補を、所定値(例えば、50)までに制限する。これは、以下の理由による。すなわち、ノイズ等の影響で対応点304が複数の中心点の候補に分散すると、本来は1の道路標識であるが、複数の中心点が候補となる場合がある。この場合に、無制限に中心点の候補を抽出すべきではなく、また、通常、カラー画像126中に50個以上の標識が存在する可能性が小さいからである。このように中心点候補リスト310の中心点候補が50以上となると、投票部166は、1フレーム中の当該投票処理を中止し、その時点までに特定した中心点候補についてのみ、標識特定処理以降の処理を遂行する。   With this configuration, it is possible to appropriately extract the center point candidate while avoiding the determination of the number of votes in the entire voting table 230, that is, while reducing the processing load. The voting unit 166 limits the center point candidates registered in the center point candidate list 310 to a predetermined value (for example, 50). This is due to the following reason. In other words, if the corresponding points 304 are dispersed to a plurality of center point candidates due to the influence of noise or the like, there are cases where a plurality of center points are candidates although they are originally one road sign. In this case, the center point candidates should not be extracted indefinitely, and the possibility that there are usually 50 or more labels in the color image 126 is small. When the number of center point candidates in the center point candidate list 310 is 50 or more in this way, the voting unit 166 stops the voting process in one frame, and only the center point candidate specified up to that point is the sign specifying process and after. Perform the process.

このように、投票部166によって、中心点候補リスト310が生成され、中心点候補リスト310には、画面位置(中央位置)の他、半径、投票テーブル230a、230bにおける得票数、当該画素の三次元位置といった情報も関連付けられる。   Thus, the voting unit 166 generates the center point candidate list 310. The center point candidate list 310 includes the radius, the number of votes in the voting tables 230a and 230b, and the tertiary of the pixel, in addition to the screen position (center position). Information such as the original position is also associated.

投票部166は、このように投票テーブル230a、230bへの投票を行うと、次回フレームにおける投票のため、投票テーブル230a、230bの各点を得票数が0となるように初期化する。しかし、カラー画像126の解像度によっては、投票テーブル230a、230bの初期化に費やす処理時間も無視できるものではなく、例えば、当該標識検出処理S202全体の40%を占有する場合もある。投票テーブル230a、230bにおいては、次元数が増える程、メモリの記憶容量が増大するので、特に、三次元の投票テーブル230bに対する初期化処理の負荷の影響が大きくなる。   When the voting unit 166 performs voting on the voting tables 230a and 230b as described above, the voting unit 166 initializes the voting tables 230a and 230b so that the number of votes becomes 0 for voting in the next frame. However, depending on the resolution of the color image 126, the processing time spent initializing the voting tables 230a and 230b is not negligible, and may occupy 40% of the entire sign detection processing S202, for example. In the voting tables 230a and 230b, as the number of dimensions increases, the storage capacity of the memory increases. In particular, the influence of the load of initialization processing on the three-dimensional voting table 230b increases.

図15は、フラグテーブル320を説明するための説明図である。ここでは、投票テーブル230a、230b以外に、フラグテーブル320を設ける。かかるフラグテーブル320は、図15(a)のように、投票テーブル230bの次元数を半径n分減らした(一次元減らした)テーブルであり、投票先となる画素の画面位置(x、y)が属するブロック(水平4画素×垂直4画素)の二次元位置にフラグが設定されている。したがって、フラグテーブル320の大きさは、H/4×V/4(BYTE)となる。   FIG. 15 is an explanatory diagram for explaining the flag table 320. Here, a flag table 320 is provided in addition to the voting tables 230a and 230b. As shown in FIG. 15A, the flag table 320 is a table in which the number of dimensions of the voting table 230b is reduced by a radius n (one dimensional reduction), and the screen position (x, y) of the pixel that is the voting destination. A flag is set at a two-dimensional position of a block (4 horizontal pixels × 4 vertical pixels) to which the group belongs. Therefore, the size of the flag table 320 is H / 4 × V / 4 (BYTE).

投票部166は、図15(b)にクロスハッチングで示した投票テーブル230bの任意のブロックの任意の半径nに投票を行うと、図15(a)にクロスハッチングで示したフラグテーブル320における、そのブロックと等しいブロックのフラグをONする。したがって、投票テーブル230bの各ブロックにおける半径nのいずれかに投票されると、それに対応するフラグテーブル320のブロックがONされることとなる。そして、投票テーブル230a、230bへの投票を完了すると、投票部166は、図15(a)にハッチングで示した、フラグテーブル320においてフラグがONされているブロックに対応する、図15(b)にハッチングで示した、投票テーブル230bのN個分のブロックのみ、各点を得票数が0となるように初期化する。換言すれば、投票部166は、フラグテーブル320においてフラグがOFFされているブロックに対応する投票テーブル230bのブロックについては初期化処理を行わない。   When the voting unit 166 votes for an arbitrary radius n of an arbitrary block of the voting table 230b shown by cross hatching in FIG. 15B, the voting unit 166 in the flag table 320 shown by cross hatching in FIG. The flag of the block equal to that block is turned ON. Therefore, when a vote is given to any of the radii n in each block of the voting table 230b, the corresponding block of the flag table 320 is turned ON. When the voting on the voting tables 230a and 230b is completed, the voting unit 166 corresponds to the block whose flag is turned on in the flag table 320 shown by hatching in FIG. 15A. Only points corresponding to N blocks in the voting table 230b indicated by hatching are initialized so that each point is obtained so that the number of votes becomes zero. In other words, the voting unit 166 does not perform the initialization process on the block of the voting table 230b corresponding to the block whose flag is turned off in the flag table 320.

ここでは、フラグテーブル320の対象として投票テーブル230bを挙げているが、かかる場合に限らず、このフラグテーブル320の概念は、大きさがH×V×N(BYTE)の投票テーブル230にも適用できる。その場合、フラグテーブル320の大きさは、H×V(BYTE)となる。   Here, the voting table 230b is cited as the target of the flag table 320, but the concept of the flag table 320 is not limited to this case, and is applied to the voting table 230 having a size of H × V × N (BYTE). it can. In that case, the size of the flag table 320 is H × V (BYTE).

また、フラグテーブル320を設ける代わりに、投票テーブル230aの各ブロックに対応する領域に投票が為されているか否か判定し、投票が為されていたら、そのブロックに対応する投票テーブル230bのブロックのみ、各点を得票数が0となるように初期化するとしてもよい。こうして、投票テーブル230b全ての点を初期化する必要がなくなるので、初期化処理の負荷を著しく低減することができる。   Further, instead of providing the flag table 320, it is determined whether or not voting is made in an area corresponding to each block of the voting table 230a. If voting is made, only the block of the voting table 230b corresponding to that block is determined. Each point may be initialized so that the number of votes becomes zero. In this way, it is not necessary to initialize all the points in the voting table 230b, so that the load of the initialization process can be significantly reduced.

また、投票テーブル230a、230bへの投票を完了すると、投票部166は、図15(c)にハッチングで示したように、フラグテーブル320においてフラグがONされているブロックに対応する投票テーブル230aの複数の画素(水平4画素×垂直4画素)のみ、各点を得票数が0となるように初期化するとしてもよい。こうして、投票テーブル230b同様、投票テーブル230a全ての点を初期化する必要がなくなるので、初期化処理の負荷を著しく低減することができる。   When the voting on the voting tables 230a and 230b is completed, the voting unit 166 displays the voting table 230a corresponding to the block whose flag is turned on in the flag table 320, as indicated by hatching in FIG. Only for a plurality of pixels (horizontal 4 pixels × vertical 4 pixels), each point may be initialized so that the number of votes is zero. Thus, as with the voting table 230b, it is not necessary to initialize all the points in the voting table 230a, so that the load of the initialization process can be significantly reduced.

そして、投票部166は、かかる初期化処理が終了した後、フラグテーブル320のフラグを全てOFFに初期化する。こうして、初期化処理の負荷の増大を招くことなく、適切に、投票テーブルの初期化を図ることが可能となる。   Then, the voting unit 166 initializes all the flags in the flag table 320 to OFF after the initialization process is completed. Thus, it is possible to appropriately initialize the voting table without causing an increase in the load of the initialization process.

(標識特定処理)
標識特定部168は、投票部166によって導出された道路標識の候補を第1〜3の絞り込み条件に基づいて絞り込み、道路標識を特定する。
(Sign identification processing)
The sign identifying unit 168 narrows down the road sign candidates derived by the voting unit 166 based on the first to third narrowing conditions, and identifies the road sign.

標識特定部168は、第1の絞り込み条件として、投票テーブル230aの得票数が所定値以上であり、投票テーブル230bにおけるブロックの得票数が所定値以上である半径nを、それぞれ中心点および半径として絞り込む。ただし、上述したように、投票部166も、投票テーブル230a、230bの得票数に応じて、その対応点304を中心点候補リスト310に随時登録している。しかし、かかる中心点候補リスト310への登録は、まだ最終的な得票数が不明な投票途中において為されるものであり、投票が完了した際の得票数を判定したものではない。そこで、本実施形態では、中心点候補リスト310に登録された対応点304を、改めて、登録時より大きい所定値と画一的に比較することで、ノイズに相当する対応点304を除外し、適切な対応点304のみを残すことが可能となる。   As a first narrowing-down condition, the sign specifying unit 168 sets a radius n where the number of votes in the voting table 230a is equal to or larger than a predetermined value and the number of votes of a block in the voting table 230b is equal to or larger than a predetermined value, Narrow down. However, as described above, the voting unit 166 also registers the corresponding points 304 in the central point candidate list 310 as needed according to the number of votes in the voting tables 230a and 230b. However, the registration to the center point candidate list 310 is performed during the voting in which the final number of votes is still unknown, and the number of votes obtained when the vote is completed is not determined. Therefore, in the present embodiment, the corresponding point 304 registered in the center point candidate list 310 is again compared with a predetermined value larger than that at the time of registration to exclude the corresponding point 304 corresponding to noise, Only appropriate corresponding points 304 can be left.

続いて、標識特定部168は、上記中心位置および半径nに基づいて、半径nの2倍の長さを一辺とし中心位置を中心とする矩形を占有領域として導出する。ただし、任意の2つの対応点304に関し、かかる占有領域が重複(重畳)していると、一方によって他方が認識不能に陥るおそれがある。この場合に、認識不能となった他方の対応点304の道路標識が、制限速度を提示した道路標識等、重要な道路標識であった場合、そのような重要な道路標識が認識されない事態が生じてしまう。そこで、標識特定部168は、第2の絞り込み条件として、任意の対応点304の占有領域が、他の対応点304の占有領域と画面上で重複している場合、道路標識として信頼性の低い方を除外することで、信頼性の高い道路標識を残す。このような道路標識の信頼性は、二次元の投票テーブル230aの得票数および三次元の投票テーブル230bの得票数の大小関係に基づいて求める。   Subsequently, the label specifying unit 168 derives, as an occupied area, a rectangle centered on the center position with a length twice as long as the radius n based on the center position and the radius n. However, regarding any two corresponding points 304, if such occupied areas overlap (superimpose), there is a risk that one of the two corresponding points will become unrecognizable. In this case, if the road sign of the other corresponding point 304 that has become unrecognizable is an important road sign such as a road sign that indicates a speed limit, such an important road sign may not be recognized. End up. Therefore, the sign identifying unit 168 has low reliability as a road sign when the occupied area of an arbitrary corresponding point 304 overlaps with the occupied area of another corresponding point 304 as a second narrowing-down condition. By leaving the way, leave a reliable road sign. The reliability of such road signs is obtained based on the magnitude relationship between the number of votes obtained from the two-dimensional voting table 230a and the number of votes obtained from the three-dimensional voting table 230b.

図16は、標識特定処理の一例を示したフローチャートである。図16に示すように、標識特定部168は、道路標識の候補の中から、順次2つの候補を選択する(S330)。そして、標識特定部168は、選択した2つの候補の占有領域が重複するか否か判定する(S332)。その結果、2つの候補の占有領域が重複していれば(S332におけるYES)、標識特定部168は、一方の候補の投票テーブル230a、230bの得票数C、Dが、他方の候補の投票テーブル230a、230bの得票数C、Dよりいずれも大きいか否か判定する(S334)。その結果、いずれも大きい、すなわち、C>CかつD>Dであれば(S334におけるYES)、標識特定部168は、他方の候補を除外する(S336)。また、2つの候補の占有領域が重複していなければ(S332におけるNO)、ステップS344に処理を移す。 FIG. 16 is a flowchart showing an example of the label specifying process. As illustrated in FIG. 16, the sign specifying unit 168 sequentially selects two candidates from among road sign candidates (S330). And the label | marker specific | specification part 168 determines whether the occupancy area | region of two selected candidates overlaps (S332). As a result, if the occupancy areas of the two candidates overlap (YES in S332), the sign specifying unit 168 determines that the number of votes C 1 and D 1 in the voting tables 230a and 230b of one candidate is the other candidate. It is determined whether or not both of the vote counts C 2 and D 2 in the voting tables 230a and 230b are larger (S334). As a result, if both are large, that is, if C 1 > C 2 and D 1 > D 2 (YES in S334), the label specifying unit 168 excludes the other candidate (S336). If the two candidate occupation areas do not overlap (NO in S332), the process proceeds to step S344.

また、C>CかつD>Dでなければ(S334におけるNO)、標識特定部168は、一方の候補の投票テーブル230a、230bの得票数C、Dが、他方の候補の投票テーブル230a、230bの得票数C、Dよりいずれも小さいか否か判定する(S338)。その結果、いずれも小さい、すなわち、C<CかつD<Dであれば(S338におけるYES)、標識特定部168は、一方の候補を除外する(S340)。このように、候補の投票テーブル230a、230bの得票数がいずれも大きい場合、道路標識である信頼性が高いとして、得票数がいずれも小さい候補を除外し、得票数がいずれも大きい候補のみを残す。 Further, if C 1 > C 2 and D 1 > D 2 are not satisfied (NO in S334), the label specifying unit 168 determines that the number of votes C 1 and D 1 in the voting tables 230a and 230b of one candidate is the other candidate. It is determined whether or not the number of votes C 2 and D 2 in the voting tables 230a and 230b is smaller (S338). As a result, if both are small, that is, if C 1 <C 2 and D 1 <D 2 (YES in S338), the label specifying unit 168 excludes one candidate (S340). As described above, when the number of votes in the candidate voting tables 230a and 230b is large, it is determined that the reliability of the road sign is high, and candidates with small numbers of votes are excluded and only candidates with large numbers of votes are selected. leave.

また、C<CかつD<Dでなければ(S338におけるNO)、標識特定部168は、一方の候補と他方の候補とのカラー画像126上の位置に基づいて、いずれか下方に位置する候補を除外する(S342)。このように、候補の投票テーブル230a、230bの得票数のうち、いずれかが大きく、いずれかが小さい場合、得票数のみで判定できないので、上方に位置する候補のみを採用し、下方に位置する候補は除外する。これは、仮に垂直方向上下に2つの道路標識が配置されている場合、相対的に重要な、制限速度を提示した道路標識が上方に配置されるようになっているからである。 Further, if C 1 <C 2 and D 1 <D 2 are not satisfied (NO in S338), the sign specifying unit 168 moves downward based on the positions of the one candidate and the other candidate on the color image 126. The candidate located at is excluded (S342). As described above, if any of the votes obtained in the candidate voting tables 230a and 230b is large and any of them is small, it is not possible to determine only by the number of votes, so only the candidate located above is adopted and located below. Candidates are excluded. This is because if two road signs are arranged vertically above and below, a relatively important road sign indicating a speed limit is arranged above.

このように選択された2つの候補が重複していた場合に、いずれを除外するか決定されると、標識特定部168は、選択すべき2つの候補の全ての組み合わせが終了したか否か判定する(S344)。その結果、終了していれば(S344におけるYES)、当該標識特定処理を終了し、終了していなければ(S344におけるNO)、ステップS330からの処理を繰り返す。こうして、道路標識の2つの候補の占有領域が重複する場合であっても、適切に信頼性の高い候補に絞ることが可能となる。   When two candidates selected in this way are duplicated and it is determined which one to exclude, the label specifying unit 168 determines whether or not all combinations of the two candidates to be selected have been completed. (S344). As a result, if it is finished (YES in S344), the sign specifying process is finished. If it is not finished (NO in S344), the process from Step S330 is repeated. In this way, even if the area occupied by two candidate road signs overlaps, it is possible to appropriately narrow down to candidates with high reliability.

次に、標識特定部168は、第3の絞り込み条件として、第1および第2の絞り込み条件によって絞り込まれた道路標識の候補が候補上限値(ここでは3)を超えているか否か判定する。ここで、候補上限値を超えていれば、標識特定部168は、候補を候補上限値以下に絞って、他の候補については以降の処理を実行しない。具体的に、道路標識の候補が候補上限値を超えていた場合、全ての候補の三次元位置における水平距離xを比較して、自車両1のレーンからの水平距離xが短い順に候補上限値の候補に絞る。こうして、自車両1に対する道路標識である可能性が高い、自車両1のレーンに近い候補を適切に抽出することが可能となる。   Next, the sign specifying unit 168 determines whether or not the candidate road sign narrowed down by the first and second narrowing conditions exceeds the candidate upper limit value (here, 3) as the third narrowing condition. Here, if the candidate upper limit value is exceeded, the label specifying unit 168 narrows the candidates to the candidate upper limit value or less, and does not execute the subsequent processing for the other candidates. Specifically, when the road sign candidate exceeds the candidate upper limit value, the horizontal distance x at the three-dimensional position of all candidates is compared, and the candidate upper limit value is ascending in order of the horizontal distance x from the lane of the host vehicle 1. Narrow down to candidates. In this way, it is possible to appropriately extract candidates close to the lane of the own vehicle 1 that are highly likely to be road signs for the own vehicle 1.

続いて、標識補正部170は、候補上限値以下に絞り込んだ道路標識の位置や大きさの補正を行う。これは、本実施形態において、道路標識の内容を認識する上でテンプレートマッチングを用いているからであり、テンプレートマッチングは、画像の位置ズレが認識精度に大きく影響するからである。そこで、ここでは、投票部166が導出した中心位置や半径nを補正し、改めて道路標識の占有領域を設定し直す。このため、標識補正部170は、道路標識の各候補の中心位置から水平方向および垂直方向の4方向に存在する赤色枠を検出し、その赤色枠(道路標識の円周部分)が外接する矩形となるように占有領域を補正する。具体的には以下(1)〜(7)の手順で占有領域を補正する。   Subsequently, the sign correction unit 170 corrects the position and size of the road sign narrowed down to the candidate upper limit value or less. This is because in this embodiment, template matching is used for recognizing the contents of the road sign, and template matching greatly affects the recognition accuracy due to the positional deviation of the image. Therefore, here, the center position and the radius n derived by the voting unit 166 are corrected, and the road sign occupation area is set again. For this reason, the sign correction unit 170 detects a red frame that exists in four directions, the horizontal direction and the vertical direction, from the center position of each candidate road sign, and a rectangle that circumscribes the red frame (circumferential portion of the road sign). The occupied area is corrected so that Specifically, the occupied area is corrected by the following procedures (1) to (7).

図17は、標識補正部170の処理を説明するための説明図である。(1)まず、標識補正部170は、図17(a)に示す、半径nの2倍の長さを一辺とし中心位置を中心とする矩形を占有領域346として、その占有領域346全体におけるV成分のヒストグラムを求める(横軸をV成分として投票する)。そして、標識補正部170は、V成分のヒストグラムの最大値と最小値の差分が所定値以上となれば、当該候補を赤色枠であると判断する。また、V成分のヒストグラムの最大値と最小値の差分が所定値未満であれば、当該候補を黒色枠であると判定し、V成分のヒストグラムをY成分のヒストグラムに差し替える。以下では赤色枠の候補を挙げて占有領域346の補正処理を説明するが、黒色枠にも当然適用できるのは言うまでも無い。   FIG. 17 is an explanatory diagram for explaining the processing of the sign correction unit 170. (1) First, the label correction unit 170 sets a rectangle centered on the center position as a side having a length twice the radius n as shown in FIG. A component histogram is obtained (voting with the horizontal axis as the V component). If the difference between the maximum value and the minimum value of the V component histogram is equal to or greater than a predetermined value, the marker correction unit 170 determines that the candidate is a red frame. If the difference between the maximum value and the minimum value of the V component histogram is less than the predetermined value, the candidate is determined to be a black frame, and the V component histogram is replaced with a Y component histogram. In the following, the correction process for the occupied area 346 will be described with a candidate for a red frame, but it goes without saying that the process can be applied to a black frame.

(2)標識補正部170は、上記V成分のヒストグラムのうち上位から所定%(例えば30%)となる(ヒストグラムを面積に換算した場合の上位:下位の面積比が3:7となる)V成分の値(閾値Vthr)を導出する。かかる閾値Vthrは、特徴点を特定するために用いたV成分の所定値と異なる。これは、それぞれの候補毎に最適な閾値を設定するためである。なお、閾値Vthrが所定値(例えば−5)以下となった場合、不適切な閾値として以降の処理を行わない。   (2) The label correction unit 170 has a predetermined percentage (for example, 30%) from the top of the V component histogram (the ratio of the top: lower area when the histogram is converted into an area is 3: 7) V A component value (threshold value Vthr) is derived. The threshold value Vthr is different from a predetermined value of the V component used for specifying the feature point. This is because an optimum threshold is set for each candidate. When the threshold value Vthr is a predetermined value (for example, −5) or less, the subsequent processing is not performed as an inappropriate threshold value.

(3)標識補正部170は、図17(b)において矢印で示すように、道路標識の各候補の中心位置から、各画素のV成分が閾値Vthr以上であるか否か判定しつつ、水平方向および垂直方向の4方向に検出画素を移動する。そして、V成分が閾値Vthr以上となる画素が所定数(例えば3画素)連続すると、その閾値Vthr以上のV成分が検出され始めた画素を赤色枠の内縁エッジ348とする。ここでは、検出方向として水平方向および垂直方向の4方向を挙げて説明しているが、かかる場合に限らず、直交する放射状の4つの方向であれば足り、また、斜めの方向等を加えて、検出精度を高めることもできる。   (3) As indicated by an arrow in FIG. 17B, the sign correction unit 170 determines whether or not the V component of each pixel is equal to or higher than the threshold value Vthr from the center position of each candidate road sign. The detection pixel is moved in the four directions of the direction and the vertical direction. Then, when a predetermined number (for example, three pixels) of pixels whose V component is equal to or greater than the threshold value Vthr continues, a pixel in which a V component equal to or greater than the threshold value Vthr is detected is defined as an inner edge 348 of the red frame. Here, the four directions of the horizontal direction and the vertical direction are described as the detection directions. However, the present invention is not limited to this, and four orthogonal radial directions are sufficient, and an oblique direction is added. In addition, the detection accuracy can be increased.

(4)続いて、標識補正部170は、赤色枠の内縁エッジ348の位置が、本来位置すべき所定範囲内にあるか否か判定する。具体的に、例えば、水平右方向に検出する場合、中心の横座標をJ、占有領域346の水平右端のx座標をRとし、求めた赤色枠の内縁エッジ348の座標をREとすると、以下の数式3を満たす場合、その赤色枠の内縁エッジ348の座標REを不適切な値として以降の処理を行わない。
RE < (R−J)×K+J …(数式3)
(4) Subsequently, the sign correction unit 170 determines whether or not the position of the inner edge 348 of the red frame is within a predetermined range where it should originally be located. Specifically, for example, when detecting in the horizontal right direction, assuming that the abscissa of the center is J, the x coordinate of the horizontal right end of the occupied area 346 is R, and the coordinates of the inner edge 348 of the obtained red frame are RE, In the case where Expression 3 is satisfied, the coordinate RE of the inner edge 348 of the red frame is set to an inappropriate value and the subsequent processing is not performed.
RE <(R−J) × K + J (Formula 3)

ここでKは0〜1のうちの任意の値をとる係数である。例えば、水平方向の検出においては0.6とし、垂直方向の検出においては0.5とする。また、(R−J)×Kは、内縁エッジ348が取り得る半径方向の下限値(内縁エッジ下限値)である。かかる処理は、例えば、電光表示タイプの道路標識において数値が橙色となった場合に、V成分に影響して誤った内縁エッジ348をとらないようにするための対処である。   Here, K is a coefficient taking any value from 0 to 1. For example, 0.6 for horizontal detection and 0.5 for vertical detection. Further, (R−J) × K is a lower limit value (inner edge lower limit value) in the radial direction that the inner edge 348 can take. For example, such processing is a measure for preventing an erroneous inner edge 348 from being taken due to an influence on the V component when the numerical value becomes orange in an electric display type road sign.

(5)次に、標識補正部170は、任意の道路標識において、水平方向および垂直方向の4方向全て適合した場合、各内縁エッジ348の位置に基づいて、画像の中心位置および半径nを再度導出する。具体的に、水平方向の内縁エッジ348のうち、左に位置する内縁エッジ348をLE、右に位置する内縁エッジ348をREとしたときの中心位置は、(LE+RE)/2で定まり、半径nは、(RE−LE)/2で定まる。また、垂直方向の内縁エッジ348についても同様の処理で中心位置および半径nが定まる。こうして、道路標識の中心位置によって特定される占有領域346が新たに規定される。   (5) Next, the sign correction unit 170 again sets the center position and the radius n of the image based on the position of each inner edge 348 when all four directions in the horizontal direction and the vertical direction are matched in an arbitrary road sign. To derive. Specifically, of the horizontal inner edge 348, the center position when the left inner edge 348 is LE and the right inner edge 348 is RE is determined by (LE + RE) / 2, and the radius n Is determined by (RE-LE) / 2. The center position and the radius n are determined by the same process for the inner edge 348 in the vertical direction. Thus, the occupied area 346 specified by the center position of the road sign is newly defined.

(6)続いて、標識補正部170は、道路標識について、補正前の半径nと補正後の半径nを比較し、その比率が所定範囲(例えば、0.75倍以上、1.5倍未満)を逸脱していれば、不適合な値として以降の処理を行わない。   (6) Subsequently, the sign correction unit 170 compares the radius n before correction with the radius n after correction for the road sign, and the ratio is within a predetermined range (for example, 0.75 times or more and less than 1.5 times). If it deviates from), the subsequent processing is not performed as an incompatible value.

(7)最後に、標識補正部170は、補正後の占有領域346を、水平所定画素×垂直所定画素の矩形にリサイズして当該補正処理を終了する。このように、道路標識の中心位置や半径の再調整を行うことで、パターンマッチングによる認識の高精度化を図ることが可能となる。なお、リサイズとしては、アレストネイバー等の一般的な手法を用いることができる。   (7) Finally, the sign correction unit 170 resizes the corrected occupied area 346 into a rectangle of horizontal predetermined pixels × vertical predetermined pixels, and ends the correction process. As described above, by performing readjustment of the center position and radius of the road sign, it is possible to improve the accuracy of recognition by pattern matching. For resizing, a general method such as arrest neighbor can be used.

(標識内容認識処理S204)
図18は、標識内容認識処理S204の具体的な処理の流れを示したフローチャートである。標識内容認識部172は、標識補正部170が補正した道路標識に対し、そのままの画像で、占有領域346に対応する画像の輝度を離散化し(S350)、その道路標識が制限速度の解除を提示した道路標識であるか判定する(S352)。そして、標識内容認識部172は、制限速度の解除を提示した道路標識でなければ、その道路標識を、制限速度を提示した道路標識と判定して垂直方向の位置合わせを行い(S354)、位置合わせ後、水平方向のマッチングを実行する(S356)。続いて、標識内容認識部172は、道路標識の内容の所定の部位に注目し、その注目部位のテンプレートマッチングを行い(S358)、総合評価値を導出して、いずれの制限速度であるか判定する(S360)。
(Signal content recognition process S204)
FIG. 18 is a flowchart showing a specific process flow of the sign content recognition process S204. The sign content recognition unit 172 discretizes the brightness of the image corresponding to the occupied area 346 with the image as it is for the road sign corrected by the sign correction unit 170 (S350), and the road sign presents the release of the speed limit. It is determined whether it is a road sign (S352). The sign content recognition unit 172 determines that the road sign is a road sign that presents the speed limit unless the road sign presents the release of the speed limit, and performs vertical alignment (S354). After the matching, horizontal matching is executed (S356). Subsequently, the sign content recognizing unit 172 pays attention to a predetermined part of the content of the road sign, performs template matching of the noticed part (S358), derives a comprehensive evaluation value, and determines which speed limit it is. (S360).

ところで、上述したように、本実施形態が目的とする道路標識には、電光表示タイプと非電光表示タイプがある。電光表示タイプは、道路標識の内容、例えば、数値の輝度が、その周囲の輝度より高く、非電光表示タイプは、道路標識の内容、例えば、数値の輝度が、その周囲の輝度より低いといった特性を有する。   By the way, as mentioned above, the road sign targeted by the present embodiment includes an electric display type and a non-electric display type. The electric light display type has the characteristics that the content of the road sign, for example, the luminance of the numerical value is higher than the surrounding luminance, and the non-electric light display type has the content of the road sign, for example, the luminance of the numerical value is lower than the peripheral luminance. Have

当該標識内容認識処理S204においては、いずれの表示タイプであるか把握されていないので、両表示タイプであることを想定して認識処理を実行する。例えば、標識内容認識部172は、ステップS350〜S360までの一連の処理を標識補正部170が補正した道路標識そのままの画像を用いて実行し、道路標識の内容を有効に認識できたか否か判定する(S362)。その結果、ステップS350〜S360のいずれかの処理において、道路標識の内容を有効に認識できなかったと判定されていると(S362におけるNO)、標識補正部170が補正した道路標識の輝度を反転し(S364)、輝度を反転した道路標識(反転道路標識)に対し、ステップS350〜S360までの一連の処理を再度実行する。   In the sign content recognition process S204, since it is not grasped which display type it is, the recognition process is executed on the assumption that both display types are used. For example, the sign content recognition unit 172 executes a series of processes from steps S350 to S360 using the image of the road sign as it is corrected by the sign correction unit 170, and determines whether the contents of the road sign can be recognized effectively. (S362). As a result, if it is determined in any one of steps S350 to S360 that the contents of the road sign could not be recognized effectively (NO in S362), the brightness of the road sign corrected by the sign correction unit 170 is inverted. (S364) A series of processing from steps S350 to S360 is executed again on the road sign (inverted road sign) whose luminance is inverted.

また、ステップS350〜S360のいずれの処理においても道路標識の内容を有効に認識できていると判定されると(S362におけるYES)、道路標識の反転を行うことなく、または、反転道路標識の内容を認識することなく、ステップS366に処理を移す。こうして、標識補正部170が補正した道路標識または反転道路標識のいずれかを認識することができ、電光非電光等の表示タイプの違いに拘わらず、適切に道路標識の内容を認識することが可能となる。   If it is determined in any of steps S350 to S360 that the content of the road sign can be recognized effectively (YES in S362), the content of the reverse road sign is not performed without reversing the road sign. Without recognizing, the process proceeds to step S366. In this way, it is possible to recognize either the road sign or the reverse road sign corrected by the sign correction unit 170, and appropriately recognize the contents of the road sign regardless of the display type such as lightning / non-lightning. It becomes.

ただし、反転前におけるステップS350〜S360のいずれかの処理で道路標識の内容を有効に認識できないと判定されれば、認識処理の途中であっても処理を中断し、以降の処理を省略してステップS362に処理を移すこともできる。こうして、不要な認識処理を回避し、処理負荷を軽減することができる。補正後の画像とその輝度を反転した画像は、同一の処理が施されるので、説明の便宜上、以下では、補正後の画像の処理を説明し、輝度を反転した画像については詳細な説明を省略する。   However, if it is determined in any one of steps S350 to S360 before the inversion that the contents of the road sign cannot be recognized effectively, the processing is interrupted even during the recognition processing, and the subsequent processing is omitted. The process can also be moved to step S362. In this way, unnecessary recognition processing can be avoided and the processing load can be reduced. Since the corrected image and the image whose luminance is inverted are subjected to the same processing, for the sake of convenience of explanation, the processing of the image after correction will be described below, and the image whose luminance is inverted will be described in detail. Omitted.

ここでは、補正後の画像の処理の後、輝度を反転した画像の処理を行っているが、かかる順は逆であってもよい。例えば、車外環境に応じ、制限速度を提示した道路標識が路肩に位置している場合、道路標識が非電光表示タイプである可能性が高いので補正後の画像の処理を先に処理し、ゲートに位置している場合、道路標識が電光表示タイプである可能性が高いので輝度を反転した画像について先に処理を行う。このようにして、1巡(ステップS350〜S360)で評価が完了する可能性が高い方から先に処理することで、標識内容認識処理S204の効率化を図ることができる。   Here, after processing of the corrected image, processing of an image with inverted luminance is performed, but this order may be reversed. For example, if the road sign indicating the speed limit is located on the shoulder according to the environment outside the vehicle, the road sign is likely to be a non-lightning display type. In the case where the road sign is located, since it is highly possible that the road sign is an electric display type, the image with the luminance reversed is processed first. In this way, by performing the processing first from the side that is highly likely to be completed in one round (steps S350 to S360), the sign content recognition processing S204 can be made more efficient.

また、補正後の画像かその輝度を反転した反転画像のいずれかにおいて有効に道路標識の内容を認識できれば(S362におけるYES)、標識内容認識部172は、標識補正部170が補正した道路標識全てに対してこのようなステップS350〜S364の処理が実行されたか否か判定する(S366)。その結果、全ての道路標識が完了していなければ(S366におけるNO)、標識内容認識部172は、完了するまで(S366におけるYES)、ステップS350からの処理を繰り返す。以下、ステップS350〜S360の処理の内容を詳述する。   In addition, if the content of the road sign can be recognized effectively in either the corrected image or the inverted image in which the luminance is inverted (YES in S362), the sign content recognition unit 172 performs all the road signs corrected by the sign correction unit 170. In step S366, it is determined whether the processes in steps S350 to S364 have been executed. As a result, if all the road signs are not completed (NO in S366), the sign content recognition unit 172 repeats the processing from step S350 until it is completed (YES in S366). Hereinafter, the contents of the processing in steps S350 to S360 will be described in detail.

(輝度離散化処理S350)
標識内容認識部172は、標識補正部170が補正した道路標識それぞれの占有領域346に対し、各画素の輝度を離散化する。こうして撮像状態に依存せず認識可能な画像パターンに変換する。
(Luminance Discretization Processing S350)
The sign content recognition unit 172 discretizes the luminance of each pixel with respect to the occupied area 346 of each road sign corrected by the sign correction unit 170. Thus, the image pattern is converted into a recognizable image pattern regardless of the imaging state.

図19は、認識対象領域370を説明するための説明図である。まず、標識内容認識部172は、水平所定画素×垂直所定画素の矩形中の認識処理を施す領域(以下、認識対象領域という)370を設定する。かかる認識対象領域370は、図19に示した占有領域346のうち赤色枠の内縁エッジ348に接する矩形の領域をいい、以降の処理ではかかる認識対象領域370に対して処理が施される。   FIG. 19 is an explanatory diagram for explaining the recognition target area 370. First, the sign content recognition unit 172 sets an area (hereinafter, referred to as a recognition target area) 370 to be recognized in a rectangle of horizontal predetermined pixels × vertical predetermined pixels. The recognition target area 370 is a rectangular area in contact with the inner edge 348 of the red frame in the occupied area 346 shown in FIG. 19. In the subsequent processing, the recognition target area 370 is processed.

次に標識内容認識部172は、認識対象領域370の各画素を離散化し、N値化を図る。例えばN=2の場合、各画素の輝度は0または255のいずれかの値を有することになる。ここで、Nは2以上の値であるが、閾値の設定等の影響で2値化がうまくいかなかった場合におけるパターンマッチングに与える影響を抑えるため、本実施形態では、例えば、N=5とする。5値化の場合、離散化の閾値は4つとなり、輝度のヒストグラムのうち上位から4つの所定%(例えば20、25、35、40%)を設定する。かかる所定%は、独立かつ任意に設定できる。   Next, the sign content recognition unit 172 discretizes each pixel in the recognition target area 370 and converts it to N-value. For example, when N = 2, the luminance of each pixel has a value of 0 or 255. Here, N is a value of 2 or more, but in this embodiment, for example, N = 5 in order to suppress the influence on pattern matching when binarization is not successful due to the influence of threshold setting or the like. To do. In the case of quinarization, there are four discretization thresholds, and four predetermined% (for example, 20, 25, 35, 40%) are set from the top in the luminance histogram. Such a predetermined percentage can be set independently and arbitrarily.

かかる構成により、輝度値の分布の違いに拘わらず、適切に道路標識の内容を認識可能となる。また、ここでは、輝度のヒストグラムの上位の値を基準にしているので、認識対象領域370それぞれの輝度の分布態様に拘わらず適切に5値化を行うことができ、離散化とともに正規化も図れることになる。   With this configuration, it is possible to appropriately recognize the content of the road sign regardless of the difference in the luminance value distribution. Here, since the upper value of the luminance histogram is used as a reference, quinary can be appropriately performed regardless of the luminance distribution mode of each recognition target region 370, and normalization can be achieved along with discretization. It will be.

(制限速度解除判定処理S352)
標識内容認識部172は、5値化した認識対象領域370に対し、制限速度の解除を提示した道路標識または制限速度を提示した道路標識それぞれに対応した認識処理を行うが、前者の方が処理負荷を小さくできるため、まず、前者であることを前提に処理を行い、前者でなければ、後者に対する処理を行う。こうして、不要に、制限速度を提示した道路標識の認識処理を行うのを回避できる。
(Speed limit release determination process S352)
The sign content recognizing unit 172 performs recognition processing corresponding to each of the road sign indicating the release of the speed limit or the road sign indicating the speed limit on the five-valued recognition target area 370. Since the load can be reduced, first, processing is performed on the premise that the former is the case. If not, processing for the latter is performed. In this way, it is possible to avoid unnecessary recognition processing of the road sign indicating the speed limit.

図20は、制限速度の解除を提示した道路標識を説明するための説明図である。標識内容認識部172は、図20に示す認識対象領域370における、認識対象領域370上で交差する、傾斜角を有する(傾斜した)4つの線分L1、L2、L3、L4に対応する複数の画素の輝度をそれぞれ累積し、各線分L1、L2、L3、L4での累積輝度値をS1、S2、S3、S4とする。かかる線分の傾斜角は、制限速度の解除を提示した道路標識の表示態様に合わせた角度とする。ここで、それぞれの累積輝度値S1、S2、S3、S4を判定するための閾値をTS1、TS2、TS3、TS4とする。ただし、TS4はTS4a<TS4bの関係を有する2つの閾値から構成される。また、TS2=TS3としてもよい。標識内容認識部172は、4つの線分L1、L2、L3、L4における濃淡の違いを数値化する以下の数式4に基づき、数式4を全て満たす場合に当該道路標識を制限速度の解除を提示した道路標識と認識する。
S1<TS1
S2>TS2
S3>TS3
TS4a<S4<TS4b …(数式4)
ここでは、位置ズレや明るさによる輝度の偏差は補正しているので、上記の数式4のように非常に単純な処理で道路標識の内容を認識することが可能となる。
FIG. 20 is an explanatory diagram for explaining a road sign presenting the release of the speed limit. The sign content recognition unit 172 includes a plurality of line segments L1, L2, L3, and L4 having an inclination angle (inclined) that intersect on the recognition target area 370 in the recognition target area 370 illustrated in FIG. The luminances of the pixels are accumulated, and the accumulated luminance values at the line segments L1, L2, L3, and L4 are denoted by S1, S2, S3, and S4. The inclination angle of the line segment is an angle that matches the display mode of the road sign that indicates the release of the speed limit. Here, the threshold values for determining the accumulated luminance values S1, S2, S3, and S4 are TS1, TS2, TS3, and TS4. However, TS4 is composed of two threshold values having a relationship of TS4a <TS4b. Alternatively, TS2 = TS3. The sign content recognition unit 172 presents the release of the speed limit for the road sign when all of Expression 4 is satisfied based on Expression 4 below, which digitizes the difference in shading in the four line segments L1, L2, L3, and L4. Recognized as a road sign.
S1 <TS1
S2> TS2
S3> TS3
TS4a <S4 <TS4b (Formula 4)
Here, since the deviation of the luminance due to the positional deviation and the brightness is corrected, it becomes possible to recognize the contents of the road sign by a very simple process as shown in Equation 4 above.

(垂直方向位置合わせ処理S354)
上記の処理によって制限速度の解除を提示した道路標識と判定されなかった場合、その道路標識は、制限速度を提示した道路標識として判定される。標識内容認識部172は、まず、認識対象領域370中における数値が占有する数値領域について垂直方向の位置合わせを行う。これは、認識対象領域370が微細な位置ズレを含んでいたり、国毎、または、国内の設置態様毎に数値の大きさ、形状、数値間の距離等が異なる場合があるからである。
(Vertical alignment processing S354)
If it is not determined by the above processing that the road sign indicates that the speed limit is released, the road sign is determined as a road sign that indicates the speed limit. First, the sign content recognition unit 172 performs vertical alignment for a numerical value area occupied by a numerical value in the recognition target area 370. This is because the recognition target area 370 includes a minute positional deviation, and the size, shape, distance between the numerical values, and the like may differ from country to country or from country to country.

図21は、垂直方向位置合わせ処理を説明するための説明図である。標識内容認識部172は、図21のように、認識対象領域370の各画素の輝度を水平方向に累積し、その累積輝度値を垂直方向に並べて、垂直方向の輝度分布372を生成する。ただし、図21の道路標識の場合、数値部分が周囲に対して低輝度となっているので、図21の輝度分布372では、数値部分を抽出すべく、輝度を反転した上で累積輝度値を求めている。そして、標識内容認識部172は、認識対象領域370の中心部分から垂直上下領域いずれも累積輝度値の最大値374を求め、その最大値の所定%(例えば25%)を閾値として、中心部分から垂直上下に検出画素を移動し、輝度累積値が閾値を下回る画素が所定数(例えば2回)連続すると、その場所を数値領域376の上端および下端とする。   FIG. 21 is an explanatory diagram for explaining the vertical alignment processing. As shown in FIG. 21, the sign content recognition unit 172 accumulates the luminance of each pixel in the recognition target area 370 in the horizontal direction, arranges the accumulated luminance values in the vertical direction, and generates a luminance distribution 372 in the vertical direction. However, in the case of the road sign in FIG. 21, the numerical value portion has a low luminance with respect to the surroundings. Therefore, the luminance distribution 372 in FIG. Looking for. Then, the sign content recognition unit 172 obtains the maximum value 374 of the cumulative luminance value in any of the vertical upper and lower regions from the central portion of the recognition target region 370 and sets a predetermined percentage (for example, 25%) of the maximum value as a threshold value from the central portion. When the detection pixel is moved vertically up and down and a predetermined number (for example, twice) of pixels whose accumulated luminance value falls below the threshold value continues, the locations are set as the upper and lower ends of the numerical value area 376.

次に、標識内容認識部172は、このように導出された数値領域376の上端および下端を用い、垂直方向の大きさを拡大または縮小して正規化する。例えば、数値領域376の上端と下端との間の距離をHI、テンプレートの垂直方向の距離をHTとすると、標識内容認識部172は、数値領域376を垂直方向にHT/HI倍する。こうして、数値領域376の大きさを、以降にマッチングを行うテンプレートの垂直方向の大きさに合わせることができる。また、補正はニアストネイバーにより行われる。   Next, the sign content recognition unit 172 uses the upper end and lower end of the numerical area 376 derived in this way, and normalizes by enlarging or reducing the size in the vertical direction. For example, when the distance between the upper end and the lower end of the numerical area 376 is HI and the distance in the vertical direction of the template is HT, the sign content recognition unit 172 multiplies the numerical area 376 by HT / HI in the vertical direction. In this way, the size of the numerical value region 376 can be adjusted to the size in the vertical direction of the template to be subsequently matched. Correction is performed by a near neighbor.

このような処理により、例えば、図21の下方において累積輝度値にノイズが生じているが、その影響を除外でき、正規化された数値領域376を適切に抽出できる。   By such processing, for example, noise is generated in the accumulated luminance value in the lower part of FIG. 21, but the influence can be excluded, and the normalized numerical area 376 can be appropriately extracted.

(水平方向マッチング処理S356)
図22は、テンプレートを説明するための説明図である。標識内容認識部172は、垂直方向の位置合わせがなされた認識対象領域370の内容、すなわち、数値を認識する。かかる認識はあらかじめ準備されたテンプレートとのマッチングにより行う。テンプレートは、図22に示すように、例えば、10〜90(2桁)、100〜130(3桁)と10刻みで13種類準備されている。
(Horizontal matching process S356)
FIG. 22 is an explanatory diagram for explaining a template. The sign content recognition unit 172 recognizes the content of the recognition target area 370 that has been aligned in the vertical direction, that is, the numerical value. Such recognition is performed by matching with a template prepared in advance. As shown in FIG. 22, 13 types of templates are prepared, for example, 10 to 90 (2 digits) and 100 to 130 (3 digits) in 10 increments.

図23は、水平方向のマッチング処理を説明するための説明図である。標識内容認識部172は、図23のように、垂直方向に正規化された認識対象領域370の各画素を垂直方向に累積し、その累積輝度値を水平方向に並べて、水平方向の輝度分布380を生成する。こうして二次元画像の一次元化が行われる。ただし、垂直方向の位置合わせ同様、数値部分が低輝度となっているので、図23の輝度分布380では、数値部分を抽出すべく、輝度を反転した上で累積輝度値を求めている。また、垂直方向の累積範囲は、垂直方向の位置合わせで導出された数値領域376の上端から下端の範囲のみとする。従って、垂直方向の数値領域以外の不要な領域に関する輝度の累積を回避できる。標識内容認識部172は、このようにして導出された図23の輝度分布380とテンプレートに基づく輝度分布をDPマッチングすることで、各テンプレートとの相関評価値(相関評価値が低いほど相関が高い)を算出する。   FIG. 23 is an explanatory diagram for explaining the matching process in the horizontal direction. As shown in FIG. 23, the sign content recognition unit 172 accumulates the pixels of the recognition target region 370 normalized in the vertical direction in the vertical direction, arranges the accumulated luminance values in the horizontal direction, and then distributes the luminance distribution 380 in the horizontal direction. Is generated. In this way, one-dimensionalization of the two-dimensional image is performed. However, since the numerical value portion has low luminance as in the vertical alignment, the luminance distribution 380 in FIG. 23 obtains the accumulated luminance value after inverting the luminance in order to extract the numerical value portion. Further, the cumulative range in the vertical direction is only the range from the upper end to the lower end of the numerical value area 376 derived by the alignment in the vertical direction. Accordingly, it is possible to avoid accumulation of luminance related to unnecessary areas other than the numerical value area in the vertical direction. The sign content recognition unit 172 DP-matches the luminance distribution 380 of FIG. 23 derived in this way with the luminance distribution based on the template, so that the correlation evaluation value with each template (the correlation is higher as the correlation evaluation value is lower). ) Is calculated.

ここでは、垂直方向の位置合わせと同様、数値の大きさの違いや、数値間の余白の間隔などの違いが存在するため、固定サイズのテンプレートを用いると充分な性能が出せない。そのため、水平方向の伸縮が許容されるDPマッチングを用いる。かかるDPマッチングを二次元で行うことも原理的には可能ではあるが、処理量が膨大になってしまうため、本実施形態では一次元のDPマッチングを用いている。   Here, as in the case of vertical alignment, there are differences in the size of numerical values and the spacing between numerical values, so that sufficient performance cannot be achieved by using a fixed-size template. Therefore, DP matching that allows horizontal expansion and contraction is used. Although it is theoretically possible to perform such DP matching in two dimensions, since the processing amount becomes enormous, one-dimensional DP matching is used in this embodiment.

図24は、DPマッチングを説明するための説明図である。標識内容認識部172は、例えば、「130」のテンプレートとDPマッチングを行い、図24のような結果を得る。ここでは、破線がDPマッチング前の認識対象領域370の輝度分布380を示し、実線がDPマッチング後の認識対象領域370の輝度分布382を示し、一点鎖線がテンプレートの輝度分布384を示している。DPマッチングでは、テンプレートの輝度分布384に合わせるように認識対象領域370の輝度分布380を伸縮させてマッチングを行う。したがって、図24を参照して理解できるように、伸縮前の認識対象領域370の輝度分布380とテンプレートの輝度分布384とは相関が低いが、伸縮後の認識対象領域370の輝度分布382とテンプレートの輝度分布384とは相関が高くなる。   FIG. 24 is an explanatory diagram for explaining DP matching. The sign content recognition unit 172 performs DP matching with the template “130”, for example, and obtains a result as shown in FIG. Here, the broken line indicates the luminance distribution 380 of the recognition target region 370 before DP matching, the solid line indicates the luminance distribution 382 of the recognition target region 370 after DP matching, and the alternate long and short dash line indicates the template luminance distribution 384. In DP matching, matching is performed by expanding and contracting the luminance distribution 380 of the recognition target region 370 so as to match the luminance distribution 384 of the template. Therefore, as can be understood with reference to FIG. 24, the luminance distribution 380 of the recognition target region 370 before stretching and the template luminance distribution 384 have a low correlation, but the luminance distribution 382 of the recognition target region 370 after stretching and the template The correlation with the luminance distribution 384 becomes higher.

ただし、ここでは、相関の高低に拘わらず、伸縮後の認識対象領域370の輝度分布382と複数のテンプレートの輝度分布384との全ての相関評価値を求める。具体的に、伸縮後の認識対象領域370の輝度分布382をim、テンプレートの数値(制限速度)をTとした場合に、標識内容認識部172は、伸縮後の相関評価値(差分の二乗和)であるDP(im,T)を、DP(im,10)〜DP(im,130)まで順次導出する。   However, here, all correlation evaluation values of the luminance distribution 382 of the recognition target region 370 after expansion and contraction and the luminance distributions 384 of a plurality of templates are obtained regardless of the level of the correlation. Specifically, when the luminance distribution 382 of the recognition target area 370 after expansion / contraction is im and the numerical value (limit speed) of the template is T, the sign content recognition unit 172 calculates the correlation evaluation value (square sum of differences) after expansion / contraction. ) DP (im, T) is sequentially derived from DP (im, 10) to DP (im, 130).

ただし、明らかにテンプレートと異なる候補に関しては、以降の処理を行わない。例えば、認識対象領域370の輝度分布382が「130」であるのに対し、2桁の「10」〜「90」はそもそも桁数が違うため、「10」〜「90」に対応するDP(im,10)〜DP(im,90)は相関が低くなる。したがって、DP(im,T)の値が閾値を上回る(相関が低い)テンプレートに関しては以降の処理を省略する。   However, subsequent processing is not performed for candidates that are clearly different from the template. For example, since the luminance distribution 382 of the recognition target area 370 is “130”, the two digits “10” to “90” have different numbers in the first place, and therefore DP (10 ”to“ 90 ”corresponding to“ 10 ”to“ 90 ” im, 10) to DP (im, 90) have a low correlation. Therefore, the subsequent processing is omitted for a template in which the value of DP (im, T) exceeds the threshold value (low correlation).

(注目部位マッチング処理S358)
ここでは、数値の桁数に拘わらず、相関評価値DP(im,T)を求めたが、本実施形態のように予め数値の変化傾向が定まっている場合、2桁や3桁の数値全てにおいてマッチングを行うのは得策ではない。これは、例えば、「10」〜「90」の数値では、全ての数値で1桁目の「0」の部分が共通し、「100」〜「130」では、1桁目の「0」の部分と3桁目の「1」の部分が共通しているからである。したがって、その共通部分に関しては、いずれの数値も一致するため、全ての桁を対象にマッチングを行うと、相関評価値に差が生じ難くなる。
(Attention site matching processing S358)
Here, the correlation evaluation value DP (im, T) is obtained regardless of the number of digits of the numerical value. However, when the change tendency of the numerical value is determined in advance as in the present embodiment, all numerical values of two digits or three digits are used. It is not a good idea to perform matching in. For example, in the numerical values “10” to “90”, the “0” part of the first digit is common to all the numerical values, and “0” in the first digit is common in “100” to “130”. This is because the part and the part “1” in the third digit are common. Accordingly, since all the numerical values are coincident with respect to the common part, if matching is performed for all the digits, it is difficult to cause a difference in the correlation evaluation value.

そこで、標識内容認識部172は、上述したように相関評価値DP(im,T)を求めるとともに、数値の形状に差が生じる2桁目のみをマッチングする。ただし、認識対象領域370の輝度分布382は、水平方向に伸縮されているので、認識対象領域370の輝度分布382のどの部分がテンプレートの輝度分布384のどの部分と一致しているかを導出しなければならない。したがって、標識内容認識部172は、テンプレートの2桁目の開始位置の水平座標TS(T)に相当する、認識対象領域370の輝度分布382の2桁目の開始位置に相当する水平座標DPR(im,T)を導出する。かかる水平座標は、DPマッチングにおいて特徴点を組み合わせる処理の履歴から求めることができる。具体的に、特徴点の組み合わせに関する情報(例えばルート)を予め記憶しておき、それを逆算することで水平座標を導出する。かかる構成によりDPマッチングの途中結果を利用して効率的に水平座標を求めることができる。このようなDPマッチングの具体的な手順については、既に様々な技術文献を通じて公開されているので、ここでは、その詳細な説明を省略する。   Therefore, the sign content recognition unit 172 obtains the correlation evaluation value DP (im, T) as described above, and matches only the second digit in which a difference in numerical shape occurs. However, since the luminance distribution 382 of the recognition target area 370 is expanded or contracted in the horizontal direction, it is necessary to derive which part of the luminance distribution 382 of the recognition target area 370 matches which part of the template luminance distribution 384. I must. Therefore, the sign content recognition unit 172 corresponds to the horizontal coordinate TS (T) of the start position of the second digit of the template, and corresponds to the horizontal coordinate DPR ( im, T). Such horizontal coordinates can be obtained from the history of processing for combining feature points in DP matching. Specifically, information (for example, a route) related to the combination of feature points is stored in advance, and the horizontal coordinates are derived by performing reverse calculation. With such a configuration, the horizontal coordinate can be efficiently obtained by using the midway result of DP matching. Since a specific procedure for such DP matching has already been disclosed through various technical documents, detailed description thereof is omitted here.

図25は、注目部位のマッチング処理を説明するための説明図である。上記のようにして2桁目の数値領域の開始位置に相当する水平座標が求まると、標識内容認識部172は、単純なテンプレートマッチングを行う。テンプレートマッチングには何の指標を用いてもよいが、たとえば差の絶対値和(SAD)を用いる。かかるマッチングの対象範囲は、図25の「130」の例に示すように、認識対象領域370の輝度分布382の開始位置に相当する水平座標DPR(im,T)、および、テンプレートの2桁目の開始位置に相当する水平座標TS(T)から、テンプレートの2桁目の数値の水平方向の長さ分とする。ここでは、既に水平方向の位置合わせが行われているので、位置をずらしたマッチングによる最適値探索等の処理を行う必要は無く、処理負荷が大幅に低減される。   FIG. 25 is an explanatory diagram for explaining the matching process of the target region. When the horizontal coordinate corresponding to the start position of the numerical area of the second digit is obtained as described above, the sign content recognition unit 172 performs simple template matching. Any index may be used for template matching. For example, a sum of absolute values of differences (SAD) is used. The matching target range includes horizontal coordinates DPR (im, T) corresponding to the start position of the luminance distribution 382 of the recognition target region 370 and the second digit of the template, as shown in the example of “130” in FIG. From the horizontal coordinate TS (T) corresponding to the start position of the template, the value in the horizontal direction is the second digit of the template. Here, since alignment in the horizontal direction has already been performed, it is not necessary to perform processing such as optimum value search by matching with shifted positions, and the processing load is greatly reduced.

ただし、例えば、数値が2桁の場合と3桁の場合では、水平方向の長さ(数値の横幅)が異なるので、数値の横幅の違いがマッチングの結果に影響を及ぼすことがある。そこで、標識内容認識部172は、2桁目のDPマッチングの相関評価値TM(im,T)に、桁数の多い数値の認識対象領域370の横幅と桁数の少ない数値の認識対象領域370の横幅との比に応じて、テンプレート毎に予め定められた正規化係数を乗じることとする。例えば、2桁の数値と3桁の数値の横幅の比が3:2であれば、標識内容認識部172は、「100」〜「130」の2桁目の相関評価値TM(im,T)を導出した後、さらに、その値に3/2を乗じた結果をTM(im,T)とする。こうして、桁数に拘わらず、適切な評価を行うことができる。   However, for example, when the numerical value is 2 digits and when the numerical value is 3 digits, the horizontal length (the horizontal width of the numerical value) is different, and therefore the difference in the horizontal width of the numerical value may affect the matching result. Therefore, the sign content recognition unit 172 adds the horizontal width of the numerical recognition target area 370 with a large number of digits and the numerical recognition target area 370 with a small number of digits to the correlation evaluation value TM (im, T) of DP matching in the second digit. In accordance with the ratio to the horizontal width, a normalization coefficient predetermined for each template is multiplied. For example, if the ratio of the width of a 2-digit numerical value to a 3-digit numerical value is 3: 2, the sign content recognition unit 172 causes the correlation evaluation value TM (im, T) of the second digit from “100” to “130”. ) Is derived, and the result obtained by multiplying the value by 3/2 is defined as TM (im, T). Thus, appropriate evaluation can be performed regardless of the number of digits.

(評価値判定処理S360)
続いて、標識内容認識部172は、テンプレート毎に求められた相関評価値DP(im,T)、2桁目の相関評価値TM(im,T)を用い、以下の数式5、6を通じてテンプレート毎の総合評価値E(im,T)を導出する。
総合評価値E(im,T)=DP(im,T)×TM(im,T)/F(im)…(数式5)
F(im)=max(min(TM(im,T)),th)…(数式6)
ここで、数値全体の相関はDP(im,T)で表現されるため、そのままの値を用い、2桁目の部分的な相関は他のテンプレートとの比較TM(im,T)/F(im)によって表現する。ここで、F(im)は、相関評価値の最小値min(TM(im,T))であるが、min(TM(im,T))の値が小さくなりすぎると総合評価値E(im,T)が発散するおそれがあるため、min(TM(im,T))が、所定の値thより小さくなると、F(im)として値thを採用する。
(Evaluation Value Determination Process S360)
Subsequently, the label content recognition unit 172 uses the correlation evaluation value DP (im, T) obtained for each template and the second-digit correlation evaluation value TM (im, T), and uses the following formulas 5 and 6 to generate a template. A comprehensive evaluation value E (im, T) for each is derived.
Overall evaluation value E (im, T) = DP (im, T) × TM (im, T) / F (im) (Equation 5)
F (im) = max (min (TM (im, T)), th) (Formula 6)
Here, since the correlation of the whole numerical value is expressed by DP (im, T), the value is used as it is, and the partial correlation of the second digit is compared with other templates TM (im, T) / F ( im). Here, F (im) is the minimum value min (TM (im, T)) of the correlation evaluation value, but if the value of min (TM (im, T)) becomes too small, the overall evaluation value E (im , T) may diverge. Therefore, when min (TM (im, T)) is smaller than a predetermined value th, the value th is adopted as F (im).

図26は、評価判定結果を説明するための説明図である。ここでは、破線が相関評価値DP(im,T)を示し、一点鎖線が2桁目の相関評価値TM(im,T)を示し、実線が総合評価値E(im,T)を示している。図26を参照すると、「100」〜「130」について、数値の全ての桁でのマッチングでは本来の数値と他の数値との差が小さいが、2桁目のみのマッチングを加えることで、実際の数値である「130」のテンプレートとのマッチングの総合評価値E(im,T)が最小(相関が最大)となっているのが理解できる。なお、図26は説明の便宜のため、本来、計算が省略されるテンプレートも表示しており、また、「150」までのテンプレートを表示している。   FIG. 26 is an explanatory diagram for explaining the evaluation determination result. Here, the broken line indicates the correlation evaluation value DP (im, T), the alternate long and short dash line indicates the second-digit correlation evaluation value TM (im, T), and the solid line indicates the overall evaluation value E (im, T). Yes. Referring to FIG. 26, for “100” to “130”, the difference between the original numerical value and the other numerical values is small in the matching of all the numerical values, but by adding only the second digit, It can be understood that the total evaluation value E (im, T) of matching with the template of “130” which is the numerical value of is minimum (correlation is maximum). For convenience of explanation, FIG. 26 also displays templates that are not calculated, and displays templates up to “150”.

このように、数値の全ての桁でのマッチングと、2桁目のみのマッチングとの2段階で行うことで、精度を向上するとともに、処理時間も削減可能となる。   Thus, by performing the matching in all the digits of the numerical value and the matching only in the second digit, the accuracy can be improved and the processing time can be reduced.

(標識内容確定処理S206)
上記では、道路標識の内容が認識された。ただし、上述したように、道路標識を前方に確認可能な位置に到達した瞬間に道路標識を認識する必要は必ずしもなく、道路標識を通過した時点、もしくは、その後に認識できれば足りる。したがって、道路標識を複数のフレームに亘って認識し、その複数のフレームの情報から道路標識の内容を確定すればよい。そこで、標識内容確定部174は、このように1フレーム内で認識された道路標識の内容を時間方向に累積して確定する。
(Signal content confirmation processing S206)
In the above, the content of the road sign was recognized. However, as described above, it is not always necessary to recognize the road sign at the moment when it reaches a position where the road sign can be confirmed forward, and it is sufficient if the road sign can be recognized at or after the road sign. Therefore, it is only necessary to recognize the road sign over a plurality of frames and determine the content of the road sign from the information of the plurality of frames. Therefore, the sign content confirmation unit 174 accumulates and confirms the contents of the road sign recognized in one frame in the time direction.

ここでは、道路標識の内容を確定するために、標識累積ポイント、制限速度候補、標識無検出時間、制限速度出力の4つの変数を用いる。ここで、標識累積ポイントは、道路標識の1または複数の候補それぞれに設けられ、標識内容認識処理S204における種々の評価値(E(im,T)、DP(im,T)、TM(im,T))に応じたポイントを示す。制限速度候補は、制限速度の1の候補を示す。標識無検出時間は、いずれの道路標識も検出されていない連続時間を示す。制限速度出力は、制限速度候補のラッチに用いられる。制限速度候補によって制限速度出力が更新されると、かかる制限速度出力に値が保持されている間、その値を運転者に報知したり、車両制御装置130の制御入力として利用する。   Here, in order to determine the content of the road sign, four variables are used: a sign accumulation point, a speed limit candidate, a no-marking detection time, and a speed limit output. Here, the sign accumulation point is provided for each of one or a plurality of candidate road signs, and various evaluation values (E (im, T), DP (im, T), TM (im, T) in the sign content recognition process S204. T)) points are shown. The speed limit candidate indicates one speed limit candidate. The sign non-detection time indicates a continuous time in which no road sign is detected. The speed limit output is used to latch a speed limit candidate. When the speed limit output is updated by the speed limit candidate, while the value is held in the speed limit output, the value is notified to the driver or used as a control input of the vehicle control device 130.

標識内容確定部174は、標識内容認識部172が導出した、制限速度の確からしさを評価する種々の評価値(E(im,T)、DP(im,T)、TM(im,T))を用い、以下の(1)〜(4)の条件に応じて標識累積ポイントを累積する。
(1)E(im,T)<ETHR1 & DP(im,T)<DTHR1 & TM(im,T)<TTHR1であれば+4ポイント
(2)(1)の条件を満たしておらず、かつ、E(im,T)<ETHR2 & DP(im,T)<DTHR2 & TM(im,T)<TTHR2であれば+2ポイント
ただし、ETHR1<ETHR2、DTHR1<DTHR2、TTHR1<TTHR2
(3)(1)の条件を満たしたテンプレートのうち、E(im,T)の最小値EMと、他の全てのテンプレートのE(im,T)との差が所定値以上の場合、最小値EMのテンプレートに+2ポイント
(4)(1)の条件を満たしたテンプレートのうち、E(im,T)の最小値EMと、他の1以上のテンプレートのE(im,T)との差が所定値(ETHR3)以内の場合、所定値以内となったテンプレート全てに+1ポイント
このように、(1)、(2)の条件によって基本的なポイントを加算し、(3)、(4)の条件によって他のテンプレートとの比較に基づくポイントを加算する。
The sign content determination unit 174 calculates various evaluation values (E (im, T), DP (im, T), TM (im, T)) derived from the sign content recognition unit 172 for evaluating the probability of the speed limit. The mark accumulation points are accumulated according to the following conditions (1) to (4).
(1) If E (im, T) <ETHR1 & DP (im, T) <DTHR1 & TM (im, T) <TTHR1, the condition of +4 points (2) (1) is not satisfied, and E (im, T) <ETHR2 & DP (im, T) <DTHR2 & TM (im, T) <TTHR2 +2 points provided that ETHR1 <ETHR2, DTHR1 <DTHR2, TTHR1 <TTHR2
(3) Among the templates that satisfy the conditions of (1), if the difference between the minimum value EM of E (im, T) and E (im, T) of all other templates is a predetermined value or more, the minimum The difference between the minimum value EM of E (im, T) and the E (im, T) of one or more other templates among the templates satisfying the condition of +2 points (4) (1) in the template of value EM Is within the predetermined value (ETHR3), +1 point is added to all the templates within the predetermined value in this way. Basic points are added according to the conditions of (1) and (2), and (3) and (4). Points based on the comparison with other templates are added according to the conditions of.

例えば、図26の例において、(1)〜(4)の条件を、ETHR1=80、ETHR2=100、ETHR3=5、DTHR1=80、DTHR2=100、TTHR1=100、TTHR2=150とすると、(1)の条件に基づいて「120」、「130」が+4ポイント、(2)の条件に基づいて「100」、「150」が+2ポイント、(3)の条件に基づいて「130」が+2ポイントとなる。これを総合すると、「130」が6ポイント、「120」が4ポイント、「100」、「150」が2ポイントとなり、他の数値は0ポイントとなる。なお、制限速度解除判定処理において制限速度を提示した道路標識と認識された場合は一律6ポイントとする。   For example, in the example of FIG. 26, if the conditions (1) to (4) are ETHR1 = 80, ETHR2 = 100, ETHR3 = 5, DTHR1 = 80, DTHR2 = 100, TTHR1 = 100, TTHR2 = 150, “120” and “130” are +4 points based on the condition of 1), “100” and “150” are +2 points based on the condition of (2), and “130” is +2 based on the condition of (3). It becomes a point. In total, “130” is 6 points, “120” is 4 points, “100” and “150” are 2 points, and other numerical values are 0 points. If the road speed sign indicating the speed limit is recognized in the speed limit release determination process, it is uniformly 6 points.

標識内容確定部174は、このようにして求められた標識累計ポイントに基づいて、以下のように道路標識の内容を時間方向に累積して、最終的な出力を行う。   The sign content determination unit 174 accumulates the contents of the road signs in the time direction as described below based on the accumulated sign points thus obtained, and performs final output.

図27は、道路標識の結果報知の流れを示したタイムチャートである。標識内容確定部174は、フレーム毎に、検出された道路標識の候補全てに対して、それぞれ常に標識累積ポイントを累積する。そして、標識内容確定部174は、今回フレームの標識累積ポイントと前回フレームの標識累積ポイントとを比較して、ポイントが変化していなければ、図27(1)に示すように、今回フレームでは道路標識が検出されなかったとして標識無検出時間をインクリメントする。また、ポイントが変化していれば、図27(2)に示すように、今回フレームでは道路標識が検出されたとして標識無検出時間を0にリセットする。   FIG. 27 is a time chart showing the flow of the result of road sign notification. The sign content determination unit 174 always accumulates the sign accumulation points for all the detected road sign candidates for each frame. Then, the sign content determination unit 174 compares the sign accumulation point of the current frame with the sign accumulation point of the previous frame, and if the point has not changed, as shown in FIG. Assuming that no label is detected, the label non-detection time is incremented. If the point has changed, as shown in FIG. 27 (2), the sign non-detection time is reset to 0 on the assumption that a road sign is detected in the current frame.

また、今回フレームで道路標識が検出されれば、標識内容確定部174は、図27(3)に示すように、複数の道路標識候補から標識累積ポイントが大きい上位から2つの道路標識候補の標識累計ポイントと、それぞれ認識された制限速度とを抽出する。この時点で、制限速度出力が新たに更新されることが確定するので、現在維持されている制限速度出力をリセットする。したがって、制限速度の報知は行われない。こうして前回の速度制限を不要に報知し続けるのを回避できる。   If a road sign is detected in the current frame, the sign content determination unit 174, as shown in FIG. 27 (3), signs of two road sign candidates from the top having a large accumulated point among a plurality of road sign candidates. Accumulated points and the recognized speed limit are extracted. At this time, since it is determined that the speed limit output is newly updated, the speed limit output currently maintained is reset. Accordingly, the speed limit is not notified. Thus, it is possible to avoid continuously reporting the previous speed limit unnecessarily.

標識内容確定部174は、標識累積ポイントの最大値が所定値(例えば8ポイント)を超えている場合、2番目に大きい標識累積ポイントとの差が所定値(例えば4ポイント)以上であれば、図27(4)に示すように、標識累積ポイントが最大値となっている道路標識の制限速度(例えば40)で、制限速度候補を更新する(出力候補として確定する)。こうして制限速度の候補が抽出される。所定値未満であれば、制限速度候補を「不定」に更新する。また、標識累積ポイントの最大値が所定値以下の場合、制限速度候補は更新しない。したがって、制限速度候補は「候補なし」を維持する。   If the maximum value of the accumulated mark points exceeds a predetermined value (for example, 8 points) and the difference from the second largest accumulated mark point is equal to or greater than the predetermined value (for example, 4 points), As shown in FIG. 27 (4), the speed limit candidate is updated (determined as an output candidate) at the speed limit (for example, 40) of the road sign whose sign accumulation point has the maximum value. In this way, speed limit candidates are extracted. If it is less than the predetermined value, the speed limit candidate is updated to “undefined”. In addition, when the maximum value of the marker accumulation point is equal to or less than the predetermined value, the speed limit candidate is not updated. Therefore, the speed limit candidate maintains “no candidate”.

そして、標識累積ポイントの変化がなくなった(道路標識を通過した)後、標識無検出時間が出力設定時間(例えば3秒)経過すると、図27(5)に示すように、標識内容確定部174は、制限速度候補が存在するか否か判定する。そして、制限速度候補が存在すれば、その制限速度候補(例えば40)で制限速度出力を更新し、制限速度の報知が再開する。こうして、道路標識の内容のノイズ的な入力を排除することができる。   Then, after the change of the accumulated point of the sign disappears (passes the road sign), when the sign non-detection time elapses for the output set time (for example, 3 seconds), as shown in FIG. Determines whether there is a speed limit candidate. If there is a speed limit candidate, the speed limit output is updated with the speed limit candidate (for example, 40), and the speed limit notification is resumed. In this way, noisy input of the contents of the road sign can be eliminated.

続いて、標識累積ポイントの変化がなくなった後、標識無検出時間が出力設定時間より長いリセット時間(例えば5秒)経過すると、図27(6)に示すように、標識内容確定部174は、次の道路標識の準備として、標識累積ポイントと制限速度候補をリセットする。こうして、新たな道路標識の認識のための準備を行う。   Subsequently, after the change in the sign accumulation point has ceased, when a reset time (for example, 5 seconds) that is longer than the output set time has elapsed, as shown in FIG. 27 (6), the sign content confirmation unit 174 In preparation for the next road sign, the sign accumulated point and the speed limit candidate are reset. Thus, preparation for recognition of a new road sign is performed.

続いて、標識累積ポイントの変化がなくなった後、標識無検出時間が報知上限時間(例えば10分)経過すると、図27(7)に示すように、標識内容確定部174は、制限速度出力をリセットする。こうして前回の速度制限を不要に報知し続けるのを回避できる。   Subsequently, after the change in the accumulated mark point has ceased, when the upper limit time (for example, 10 minutes) of the undetected mark has elapsed, as shown in FIG. 27 (7), the sign content determination unit 174 outputs the speed limit output. Reset. Thus, it is possible to avoid continuously reporting the previous speed limit unnecessarily.

また、標識内容確定部174は、自車両1が左折中または右折中である(例えば舵角の絶対値が360度を超えている)と判断されると、標識累積ポイント、制限速度候補、制限速度出力を全てリセットする。これは、自車両1が左折または右折すると、走行する道路が変わるので、それまでに走行していた道路の制限速度が適用されなくなるからである。   When it is determined that the vehicle 1 is turning left or right (for example, the absolute value of the steering angle exceeds 360 degrees), the sign content confirmation unit 174 determines the sign accumulation point, the speed limit candidate, the limit Reset all speed outputs. This is because when the host vehicle 1 turns left or right, the traveling road changes, and thus the speed limit of the road that has traveled so far is no longer applied.

このように構成することで、標識内容確定部174は、道路標識を通過してから3秒後に制限速度を報知し、10分経過、右左折、または、他の道路標識を検出するまで制限速度を維持することができる。また、道路標識の内容のノイズ的な入力を排除し、道路標識の内容の特定精度を高めることが可能となる。   By configuring in this way, the sign content confirmation unit 174 notifies the speed limit 3 seconds after passing the road sign, and the speed limit is detected until 10 minutes have elapsed, left or right turn, or another road sign is detected. Can be maintained. Further, it is possible to eliminate noise-like input of the content of the road sign and increase the accuracy of specifying the content of the road sign.

また、より実用性を上げるために以下の処理を付加的に行うこともできる。例えば、車両のレーンが複数ある場合に、ゲートに配置された道路標識では、レーン毎に制限速度が異なることがある。本実施形態では、認識する道路標識の数を3つ以内に制限しているので、このようにレーン毎に制限速度が異なる場合、異なる道路標識それぞれの標識累積ポイントが存在することになる。仮にそれぞれの道路標識で正しい制限速度のみが累積されたとすると、いずれの制限速度も標識累積ポイントが例えば6ポイントとなる。そうすると、適切にポイントが累積されているにも拘わらず、上記の判定では制限速度候補が「不定」に更新されてしまう。   In addition, the following processing can be additionally performed in order to increase the practicality. For example, when there are a plurality of lanes of the vehicle, the speed limit may be different for each lane in the road sign arranged at the gate. In the present embodiment, the number of road signs to be recognized is limited to three or less. Therefore, when the speed limit is different for each lane as described above, there are mark accumulation points for different road signs. Assuming that only the correct speed limit is accumulated for each road sign, the sign accumulated point is 6 points, for example, at any speed limit. Then, although the points are appropriately accumulated, the speed limit candidate is updated to “undefined” in the above determination.

そこで、本実施形態では、標識内容確定部174は、標識累計ポイントが有意な値である道路標識の候補が1フレームにおいて一度に複数あった場合、それぞれの水平距離xを導出し、いずれか1の道路標識の水平距離xが閾値(例えば3m)未満であり、他の道路標識が閾値以上であれば、1の道路標識に1ポイント加算し、他の道路標識は1ポイント減算する。こうして、自車両1に最も近い道路標識の制限速度を優先的に制限速度候補とすることができる。   Therefore, in the present embodiment, the sign content determination unit 174 derives each horizontal distance x when there are a plurality of candidate road signs whose sign cumulative points have a significant value at one time in one frame, and any one of them. If the horizontal distance x of the road sign is less than a threshold value (for example, 3 m) and other road signs are greater than or equal to the threshold value, one point is added to one road sign, and one point is subtracted from the other road sign. In this way, the speed limit of the road sign closest to the host vehicle 1 can be preferentially set as a speed limit candidate.

(国毎の道路標識の違い)
図28は、国別の道路標識の表示態様を示した説明図である。図28(a)のドイツの制限速度を提示した道路標識と、図28(b)のスイスの制限速度を提示した道路標識とを比較して理解できるように、制限速度を提示した道路標識は国により数値の大きさ、形状、数値間の距離が異なる場合がある。また、図28(c)のドイツの制限速度の解除を提示した道路標識と、図28(d)のイタリアの制限速度の解除を提示した道路標識とを比較して理解できるように、斜線の角度が異なる場合がある。
(Differences in road signs by country)
FIG. 28 is an explanatory view showing a display mode of country-specific road signs. As can be understood by comparing the road sign indicating the speed limit for Germany in FIG. 28 (a) with the road sign indicating the speed limit for Switzerland in FIG. 28 (b), the road sign indicating the speed limit is The size, shape, and distance between values may vary from country to country. In addition, as shown in FIG. 28 (c), the road sign indicating the release of the speed limit for Germany is compared with the road sign indicating the release of the speed limit for Italy in FIG. 28 (d). The angle may be different.

そこで、標識内容確定部174は、上記のように道路標識の内容を時間方向に累積して確定するのと並行して、制限速度候補がいずれの国の道路標識であるかを判定する。そして、現在走行している国を正しく把握し、その国のテンプレートを用いて制限速度等を適切に認識する。   Accordingly, the sign content determination unit 174 determines in which country the road speed candidate is the road sign in parallel with the determination of the road sign contents accumulated and determined in the time direction as described above. Then, the country where the vehicle is currently traveling is correctly grasped, and the speed limit or the like is appropriately recognized using the template of the country.

図29は道路標識のテンプレートを説明するための説明図である。国判定処理は、基本的に、各国毎のテンプレートを用いて実行する。したがって、図29のように各国(A国〜Z国)毎と各制限速度(「10」〜「150」)毎の二次元に配列されたテンプレートが準備される。なお、制限速度の解除を提示した道路標識については、テンプレートの代わりに斜線の角度情報を保持する。また、標識検出処理S202における半径nや標識内容認識処理S204におけるN値化の閾値(所定%)等の情報も国別に保持されている。   FIG. 29 is an explanatory diagram for describing a road sign template. The country determination process is basically executed using a template for each country. Therefore, as shown in FIG. 29, templates arranged in two dimensions are prepared for each country (country A to country Z) and for each speed limit ("10" to "150"). For road signs that indicate the release of the speed limit, the angle information of the diagonal lines is held instead of the template. Information such as the radius n in the sign detection process S202 and the threshold value (predetermined percentage) for N-value conversion in the sign content recognition process S204 is also stored for each country.

ここで、当該車外環境認識システム100がナビゲーションシステムと連動している場合、そのナビゲーションシステムから得られる現在国情報によりテンプレートを切り替えればよいが、ナビゲーションシステムと連動していない場合、以下のような手順により、国判定を行う。   Here, when the environment recognition system 100 outside the vehicle is linked to the navigation system, the template may be switched according to the current country information obtained from the navigation system. The country is determined.

なお、国判定処理は、リアルタイム性の要求が低いため、認識対象領域の画像を1度取得すると、それをテンポラリーの画像メモリに一時的に保持し、フレーム毎の車外環境認識処理終了後の空き時間で、フレームを跨いで処理を遂行する。また、ここでは、国を判定するために、変数として、国の1または複数の候補それぞれに設けられる国別累計ポイントを用いる。標識内容確定部174は、所定のタイミングで、テンポラリーの画像メモリ領域、および、国別累積ポイントを初期化する。   Since the country determination process has a low real-time requirement, once the image of the recognition target area is acquired, it is temporarily stored in the temporary image memory, and the space after the vehicle environment recognition process for each frame is completed. Process over time and across frames. Here, in order to determine the country, the country-specific accumulated points provided for each of one or more candidates for the country are used as variables. The sign content determination unit 174 initializes the temporary image memory area and the country-specific accumulated points at a predetermined timing.

国判定処理において、標識内容確定部174は、今回フレームで、既に国判定処理が実行されているか否か判定する。その結果、既に国判定処理が実行されていれば、その処理を継続し、前回の国判定処理が完了していれば、新たに国判定処理を開始する。かかる国判定処理は、上記のように、空き時間で行われるため、処理の途中でフレームの規定処理時間に到達した場合は処理を一時停止し、次回フレームで続きを行う。   In the country determination process, the sign content determination unit 174 determines whether the country determination process has already been executed in the current frame. As a result, if the country determination process has already been executed, the process is continued. If the previous country determination process has been completed, a new country determination process is started. Since the country determination process is performed in the free time as described above, if the specified processing time of the frame is reached during the process, the process is temporarily stopped and continued in the next frame.

そして、標識内容確定部174は、今回フレームの上述した標識内容確定処理S206において、道路標識の1または複数の候補において、1の制限速度(複数の道路標識で同じ場合も含む)のみが標識累計ポイントを得ているか否か判定する。その結果、道路標識が検出されなかったり、複数の道路標識で複数の制限速度についてポイントが得られている等、1の道路標識の制限速度のみが標識累計ポイントを得ていない場合、今回フレームの処理を終了し、次回フレームで当該標識累計ポイントの判定を繰り返す。   Then, in the above-described sign content confirmation process S206 of the current frame, the sign content confirmation unit 174 determines that only one speed limit (including the same case of a plurality of road signs) is the cumulative number of signs in one or a plurality of road sign candidates. Determine whether you have earned points. As a result, if no road sign is detected, or points for multiple speed limits are obtained with multiple road signs, only the speed limit for one road sign has not obtained the cumulative number of signs, The process is terminated, and the determination of the accumulated mark points is repeated in the next frame.

続いて、標識内容確定部174は、1の制限速度のみが標識累計ポイントを得ている場合、その制限速度の認識結果を制限速度Vとし、認識対象領域370の画像をテンポラリーの画像メモリに記憶する。ここで、候補となっている複数の道路標識全てについて制限速度Vが標識累計ポイントを得ている場合、総合評価値E(im,V)が一番低い(相関が最大となる)候補の認識対象領域370の画像を記憶する。ここで記憶する画像は標識検出処理S202の終了後の水平所定画素×垂直所定画素の矩形に正規化された占有領域346である。   Subsequently, when only one speed limit is obtained for the total number of signs, the sign content determination unit 174 stores the image of the recognition target area 370 in the temporary image memory with the recognition result of the speed limit as the speed limit V. To do. Here, when the speed limit V has obtained the total number of sign points for all the plurality of candidate road signs, the comprehensive evaluation value E (im, V) is the lowest (the correlation is maximized). The image of the target area 370 is stored. The image stored here is the occupied area 346 normalized to a rectangle of horizontal predetermined pixels × vertical predetermined pixels after the end of the sign detection process S202.

次に、標識内容確定部174は、画像メモリに記憶された占有領域の画像に基づき、各国の制限速度Vのテンプレートに対して標識内容認識処理S204を実行する。すなわち、上述した標識内容認識処理S204では、図29のテンプレートにおいて破線で示すように、1の国に関する各制限速度Tのテンプレートを用いていたところ、ここでは、図29のテンプレートにおいて実線で示すように、1の制限速度Vに関する各国のテンプレートを用いることとなる。したがって、国の識別子をCN、制限速度をVとした場合、総合評価値E(im,T)の代わりに、総合評価値E(CN,V)を導出することとなる。かかる処理でテンプレートとして準備している国分の評価値E(CN、V)を得ることができる。   Next, the sign content determination unit 174 executes the sign content recognition process S204 on the template of the speed limit V of each country based on the image of the occupied area stored in the image memory. That is, in the above-described sign content recognition processing S204, as shown by the broken line in the template of FIG. 29, the template of each speed limit T for one country is used. Here, as shown by the solid line in the template of FIG. In addition, each country's template for one speed limit V is used. Therefore, when the country identifier is CN and the speed limit is V, the comprehensive evaluation value E (CN, V) is derived instead of the comprehensive evaluation value E (im, T). The evaluation value E (CN, V) for the country prepared as a template can be obtained by such processing.

ただし、本実施形態においては、現在認識している国とその他の評価値E(CN,V)に対して重み付けを異ならせる。例えば、標識内容確定部174は、現在認識している国の評価値E(CN,V)にのみ重み付け係数(例えば1以下の0.8)を乗じる。これは、現在認識している国の評価値E(CN,V)を相対的に低くし(相関を大きくし)国判定の結果に、ハンチングが生じないようにするためである。また、現在認識している国に隣接する国を把握している場合、その隣接している国にも重み付け係数(例えば0.8以上1以下の0.95)を乗じるとしてもよい。   However, in the present embodiment, the weights of the currently recognized country and the other evaluation values E (CN, V) are different. For example, the sign content determination unit 174 multiplies only the evaluation value E (CN, V) of the currently recognized country by a weighting coefficient (for example, 0.8 of 1 or less). This is to make the evaluation value E (CN, V) of the currently recognized country relatively low (increase the correlation) so that hunting does not occur in the country determination result. Further, when the country adjacent to the currently recognized country is grasped, the adjacent country may be multiplied by a weighting coefficient (for example, 0.95 between 0.8 and 1).

標識内容確定部174は、このようにして導出された全ての国に関する評価値E(CN,V)を比較して最小値ECMを導出する。そして、最小値ECMと他の全てのテンプレートの評価値E(CN,V)との差が所定値以上となれば、最小値ECMのテンプレートの国別累計ポイントに+1を加算する。   The sign content determination unit 174 compares the evaluation values E (CN, V) for all the countries derived in this way to derive the minimum value ECM. Then, if the difference between the minimum value ECM and the evaluation values E (CN, V) of all other templates is equal to or greater than a predetermined value, +1 is added to the cumulative total points of the minimum value ECM template by country.

続いて、標識内容確定部174は、国別累計ポイントの最大値と、他の全ての国別累計ポイントとを比較し、その差が所定値(例えば30)以上あれば、最大値となった国が現在認識している国と等しいか否か判定する。その結果、最大値となった国と現在認識している国とが等しければ、全ての国別累計ポイントに1/2を乗じ、公正な判断のため全体的な標識累計ポイントを下げる。また、最大値となった国と現在認識している国とが異なっていれば、走行している国が変わったと判定して、現在認識している国を最大値となった国に更新し、テンポラリーの画像メモリ領域、および、国別累積ポイントを初期化する。また、国別累計ポイントの最大値と、他の全ての国別累計ポイントとの差が所定値未満であれば、テンポラリーの画像メモリ領域を初期化して、次回フレームで当該標識累計ポイントの判定を繰り返す。   Subsequently, the sign content determination unit 174 compares the maximum value of the cumulative points by country with all the cumulative points of other countries, and if the difference is equal to or greater than a predetermined value (for example, 30), the maximum value is obtained. Determine if the country is equal to the currently recognized country. As a result, if the country with the maximum value is equal to the currently recognized country, all country cumulative points are multiplied by ½, and the total cumulative marker points are lowered for fair judgment. Also, if the country with the highest value is different from the currently recognized country, it is determined that the country where the vehicle is traveling has changed, and the currently recognized country is updated to the country with the highest value. Initialize the temporary image memory area and country cumulative points. In addition, if the difference between the maximum value of country cumulative points and all other country cumulative points is less than the predetermined value, the temporary image memory area is initialized, and the marker cumulative points are determined in the next frame. repeat.

このように、現在走行している国を適切に判定することで、道路標識の内容の特定精度を高めることができる。また、以上の国判定処理を、1の国の道路標識の認識処理のアンダーグラウンドで実行することで、処理負荷の増大を抑制することが可能となる。   As described above, by appropriately determining the country in which the vehicle is currently traveling, it is possible to increase the accuracy of identifying the content of the road sign. Moreover, it is possible to suppress an increase in processing load by executing the above country determination process in the background of the recognition process of the road sign of one country.

以上、説明したように、本実施形態の車外環境認識装置120では、処理負荷の増大を抑制しつつ、道路標識の内容の認識精度を向上することが可能となる。   As described above, in the outside environment recognition device 120 of the present embodiment, it is possible to improve the recognition accuracy of the content of the road sign while suppressing an increase in processing load.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、路上に設置された道路標識の内容を認識する車外環境認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a vehicle environment recognition device that recognizes the contents of road signs installed on the road.

120 車外環境認識装置
160 画像取得部
162 位置情報導出部
164 特徴点特定部
166 投票部
168 標識特定部
170 標識補正部
172 標識内容認識部
174 標識内容確定部
120 Outside-vehicle environment recognition device 160 Image acquisition unit 162 Position information deriving unit 164 Feature point specifying unit 166 Voting unit 168 Sign specifying unit 170 Sign correcting unit 172 Sign content recognizing unit 174 Sign content determining unit

Claims (3)

画像を取得する画像取得部と、
前記画像を用い、道路標識の円周の部分部位となり得る画素をそれぞれ特徴点として複数特定する特徴点特定部と、
複数の前記特徴点それぞれから所定の距離離隔した円周上の点およびその半径に基づいて、少なくとも水平画素位置および垂直画素位置を含む第1の投票テーブル、ならびに、該第1の投票テーブルより水平画素位置および垂直画素位置に関するテーブルの分解能が低く、かつ、次元数が大きい第2の投票テーブルのいずれにも投票する投票部と、
前記第1の投票テーブルにおいて得票数が所定値以上となる画素を中心とし、前記第2の投票テーブルにおける該画素に対応する位置において得票数が所定値以上となる半径で形成される複数の円形状の道路標識の候補から1または複数の道路標識を特定する標識特定部と、
特定された前記道路標識の内容を認識する標識内容認識部と、
を備え、
前記道路標識の複数の候補が前記画像上で重複する場合、前記標識特定部は、前記第1の投票テーブルの得票数および前記第2の投票テーブルの得票数の大小関係に基づいて、いずれかの候補を除外することを特徴とする車外環境認識装置。
An image acquisition unit for acquiring images;
Using the image, a feature point specifying unit that specifies a plurality of pixels each of which can be a partial portion of the circumference of a road sign as a feature point,
A first voting table including at least a horizontal pixel position and a vertical pixel position based on a point on the circumference that is separated from each of the plurality of feature points by a predetermined distance and its radius, and a level that is more horizontal than the first voting table A voting unit for voting to any one of the second voting tables having a low resolution and a large number of dimensions with respect to the pixel position and the vertical pixel position;
The number of votes in the first voting table around the pixel to be greater than a predetermined value, the number of votes is more that will be formed with a radius equal to or greater than a predetermined value at a position corresponding to the pixel in the second voting table A sign identifying unit that identifies one or more road signs from circular road sign candidates;
A sign content recognition unit for recognizing the content of the identified road sign;
With
When a plurality of candidates for the road sign overlap on the image, the sign specifying unit is any one based on the magnitude relationship between the number of votes in the first voting table and the number of votes in the second voting table. An outside environment recognition device characterized by excluding candidates.
前記標識特定部は、前記第1の投票テーブルの得票数および前記第2の投票テーブルの得票数のいずれもが小さい候補を除外することを特徴とする請求項1に記載の車外環境認識装置。   The outside environment recognition device according to claim 1, wherein the sign specifying unit excludes candidates in which both the number of votes in the first voting table and the number of votes in the second voting table are small. 前記標識特定部は、前記第1の投票テーブルの得票数および前記第2の投票テーブルの得票数の一方が小さく、他方が大きい場合、前記画像上で下方に位置する候補を除外することを特徴とする請求項1に記載の車外環境認識装置。 The sign specifying unit excludes a candidate located below in the image when one of the number of votes in the first voting table and the number of votes in the second voting table is small and the other is large. The external environment recognition device according to claim 1.
JP2014070490A 2014-03-28 2014-03-28 Outside environment recognition device Active JP6317607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014070490A JP6317607B2 (en) 2014-03-28 2014-03-28 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014070490A JP6317607B2 (en) 2014-03-28 2014-03-28 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2015192430A JP2015192430A (en) 2015-11-02
JP6317607B2 true JP6317607B2 (en) 2018-04-25

Family

ID=54426581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014070490A Active JP6317607B2 (en) 2014-03-28 2014-03-28 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6317607B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6590153B2 (en) * 2016-03-23 2019-10-16 パナソニックIpマネジメント株式会社 Projection instruction apparatus, package sorting system, and projection instruction method
JP6414567B2 (en) * 2016-06-02 2018-10-31 トヨタ自動車株式会社 Speed limit display device for vehicle
JP6792387B2 (en) * 2016-09-15 2020-11-25 株式会社Subaru Similar curve extractor
JP7289723B2 (en) * 2019-05-23 2023-06-12 日立Astemo株式会社 Object recognition device
WO2024042762A1 (en) * 2022-08-23 2024-02-29 マクセル株式会社 Head-up display device and video data processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5011268B2 (en) * 2008-12-02 2012-08-29 三菱電機株式会社 Image detection apparatus and image detection method
JP2010205160A (en) * 2009-03-05 2010-09-16 Denso Corp Method for notifying speed-limit sign recognition result
JP2011242915A (en) * 2010-05-17 2011-12-01 Panasonic Corp Shape recognition device
JP2012243051A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method

Also Published As

Publication number Publication date
JP2015192430A (en) 2015-11-02

Similar Documents

Publication Publication Date Title
JP5961207B2 (en) Outside environment recognition device
US9489586B2 (en) Traffic sign recognizing apparatus and operating method thereof
US9721460B2 (en) In-vehicle surrounding environment recognition device
JP6317607B2 (en) Outside environment recognition device
US9117115B2 (en) Exterior environment recognition device and exterior environment recognition method
JP6236039B2 (en) Outside environment recognition device
JP5065172B2 (en) Vehicle lighting determination device and program
JP6339840B2 (en) Outside environment recognition device
WO2011039977A1 (en) Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
US11010618B2 (en) Apparatus for identifying line marking on road surface
JP6243780B2 (en) Outside environment recognition device
JP5434277B2 (en) Driving support device and driving support method
JP6348747B2 (en) Outside environment recognition device
JP6280418B2 (en) Outside environment recognition device
JP6339839B2 (en) Outside environment recognition device
JP6527617B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP2010286995A (en) Image processing system for vehicle
JP6329413B2 (en) Outside environment recognition device
JP6247584B2 (en) Outside environment recognition device
KR101865958B1 (en) Method and apparatus for recognizing speed limit signs
JP4842301B2 (en) Pedestrian detection device and program
JP6569416B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
JP2014010765A (en) Mobile object detector, image type sensor, and computer program
JP5724473B2 (en) Vehicular image recognition apparatus, vehicular image recognition method, program, and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180330

R150 Certificate of patent or registration of utility model

Ref document number: 6317607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250