JP6527617B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP6527617B2
JP6527617B2 JP2018081648A JP2018081648A JP6527617B2 JP 6527617 B2 JP6527617 B2 JP 6527617B2 JP 2018081648 A JP2018081648 A JP 2018081648A JP 2018081648 A JP2018081648 A JP 2018081648A JP 6527617 B2 JP6527617 B2 JP 6527617B2
Authority
JP
Japan
Prior art keywords
road sign
sign
unit
voting
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018081648A
Other languages
Japanese (ja)
Other versions
JP2018120629A (en
Inventor
原也 小川
原也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018081648A priority Critical patent/JP6527617B2/en
Publication of JP2018120629A publication Critical patent/JP2018120629A/en
Application granted granted Critical
Publication of JP6527617B2 publication Critical patent/JP6527617B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車外に確認された道路標識の内容を認識する車外環境認識装置に関する。   The present invention relates to an outside environment recognizing device for recognizing contents of a road sign confirmed outside the vehicle.

従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。また、速度超過に起因する事故を低減すべく、道路毎に設けられた制限速度を認識して自車両の速度を制御する技術も需要が高まっている。   Conventionally, a specific object such as a vehicle located in front of the own vehicle is detected to avoid collision with the preceding vehicle (collision avoidance control) or to control the distance between the preceding vehicle to be a safe distance ( Cruise control) technology is known (for example, patent document 1). In addition, in order to reduce accidents caused by overspeeding, there is a growing demand for a technology for controlling the speed of the vehicle by recognizing the speed limit provided for each road.

自車両の速度を制限速度内として車両を安全に走行させるためには、路肩やゲートに配置された道路標識の内容を認識し、現在走行中の道路の制限速度を正しく把握する必要がある。例えば、特許文献2には、画面上のエッジに相当する部位にハフ変換を施して円形の道路標識の画像(以下、道路標識の画像も単に道路標識という)を認識する技術が記載されている。かかる技術では、ハフ変換に費やす処理負荷を軽減することで道路標識の特定効率の向上を図ることができる。   In order to make the vehicle travel safely with the speed of the host vehicle within the speed limit, it is necessary to recognize the contents of the road sign arranged on the road shoulder and the gate, and to correctly grasp the speed limit of the road currently being traveled. For example, Patent Document 2 describes a technique for performing Hough transform on a portion corresponding to an edge on a screen to recognize an image of a circular road sign (hereinafter, the image of a road sign is also simply referred to as a road sign). . According to such a technology, it is possible to improve the identification efficiency of the road sign by reducing the processing load spent on the Hough transform.

特許第3349060号公報Patent No. 3349060 特開2012−243051号公報JP 2012-243051 A

ハフ変換を施して円形の道路標識を認識するには、まず、円周の部分部位に相当する特徴点を特定しなければならない。特許文献1では、特徴点としてエッジを有するブロックを特定している。また、エッジの代わりに、任意の色成分を条件として特徴点を特定することも考えられる。ただし、エッジや色成分を固定の閾値による抽出条件で抽出するのみでは、特徴点が無数に特定され、処理負荷が増大してしまう。そうすると、特徴点の特定に割り当てられた処理時間を超過するおそれが生じる。   In order to perform the Hough transformation and recognize a circular road sign, first, feature points corresponding to partial portions of the circumference must be identified. In Patent Document 1, a block having an edge as a feature point is identified. It is also conceivable to specify a feature point on the basis of an arbitrary color component instead of the edge. However, only by extracting edges and color components under extraction conditions using a fixed threshold, feature points are identified innumerably and processing load increases. Then, there is a possibility that the processing time assigned to the feature point identification may be exceeded.

本発明は、このような課題に鑑み、エッジや色成分による特徴点の抽出条件を随時変更することで、特徴点の数を所定の範囲内に抑えることが可能な、車外環境認識装置を提供することを目的としている。   SUMMARY OF THE INVENTION In view of such problems, the present invention provides an outside environment recognition system capable of suppressing the number of feature points within a predetermined range by changing the extraction conditions of feature points by edge or color component as needed. The purpose is to

上記課題を解決するために、本発明の車外環境認識装置は、画像を取得する画像取得部と、画像を用い、エッジ強度が所定値以上となる画素を特徴点として特定する特徴点特定部と、特徴点に基づいて円形状の道路標識を特定する標識特定部と、特定された道路標識の内容を認識する標識内容認識部と、を備え、特徴点特定部は、画像の上方から順に特徴点を特定していき、特定された特徴点数が予め決められた規定数以上になると、特徴点の特定を中止し、特定された特徴点数が所定の特徴点上限値を超えていれば、所定値を大きくし、特定された特徴点数が所定の特徴点下限値未満であれば、所定値を小さくして、エッジ強度との次回の比較に用いることを特徴とする。   In order to solve the above problems, an environment recognition apparatus for the outside of a vehicle according to the present invention includes: an image acquisition unit that acquires an image; and a feature point identification unit that identifies a pixel whose edge intensity is a predetermined value or more , A sign identification unit that identifies a circular road sign based on feature points, and a sign content recognition unit that recognizes the contents of the identified road sign, and the feature point identification unit is characterized in order from the top of the image The points are identified, and when the identified feature points become equal to or more than a predetermined number, identification of the feature points is stopped, and if the identified feature points exceed a predetermined feature point upper limit, the predetermined point is determined. If the value is increased and the specified number of feature points is less than the predetermined feature point lower limit value, the predetermined value is decreased and used for the next comparison with the edge strength.

本発明によれば、エッジや色成分による特徴点の抽出条件を随時変更することで、特徴点の数を所定の範囲内に抑えることが可能となる。   According to the present invention, it is possible to suppress the number of feature points within a predetermined range by changing the extraction condition of feature points by edge or color component as needed.

車外環境認識システムの接続関係を示したブロック図である。It is a block diagram showing the connection relation of the environment recognition system outside a car. カラー画像と距離画像を説明するための説明図である。It is an explanatory view for explaining a color image and a distance image. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is a functional block diagram showing a schematic function of an outside environment recognition device. 道路標識を説明する説明図である。It is an explanatory view explaining a road sign. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an environment recognition process outside a vehicle. 画像取得部が取得するカラー画像を説明するための説明図である。It is an explanatory view for explaining a color image which an image acquisition part acquires. ハフ変換を説明するための説明図である。It is an explanatory view for explaining Hough transformation. ハフ変換を説明するための説明図である。It is an explanatory view for explaining Hough transformation. 第4の抽出条件を説明するための説明図である。It is an explanatory view for explaining the 4th extraction condition. 特徴点特定処理の一例を示したフローチャートである。It is the flowchart which showed an example of the feature point identification process. 特徴点特定処理の一例を示した説明図である。It is an explanatory view showing an example of feature point specific processing. 投票処理を説明するための説明図である。It is an explanatory view for explaining voting processing. 投票テーブルを説明するための説明図である。It is an explanatory view for explaining a voting table. 中心点候補リストを説明するための説明図である。It is an explanatory view for explaining a central point candidate list. フラグテーブルを説明するための説明図である。It is explanatory drawing for demonstrating a flag table. 標識特定処理の一例を示したフローチャートである。It is the flowchart which showed an example of the label | marker identification process. 標識補正部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a label | marker correction | amendment part. 標識内容認識処理の具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the concrete processing of mark contents recognition processing. 認識対象領域を説明するための説明図である。It is an explanatory view for explaining a recognition object field. 制限速度の解除を提示した道路標識を説明するための説明図である。It is an explanatory view for explaining a road sign which presented cancellation of speed limit. 垂直方向位置合わせ処理を説明するための説明図である。It is an explanatory view for explaining vertical direction alignment processing. テンプレートを説明するための説明図である。It is an explanatory view for explaining a template. 水平方向のマッチング処理を説明するための説明図である。It is explanatory drawing for demonstrating the matching process of a horizontal direction. DPマッチングを説明するための説明図である。It is an explanatory view for explaining DP matching. 注目部位のマッチング処理を説明するための説明図である。It is explanatory drawing for demonstrating the matching process of an attention site. 評価判定結果を説明するための説明図である。It is an explanatory view for explaining an evaluation judging result. 道路標識の結果報知の流れを示したタイムチャートである。It is the time chart which showed the flow of the result information of the road sign. 国別の道路標識の表示態様を示した説明図である。It is explanatory drawing which showed the display mode of the road sign according to country. 道路標識のテンプレートを説明するための説明図である。It is an explanatory view for explaining a template of a road sign.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values and the like shown in the embodiment are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the specification and the drawings, elements having substantially the same functions and configurations will be denoted by the same reference numerals to omit repeated description, and elements not directly related to the present invention will not be illustrated. Do.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Outside environment recognition system 100)
FIG. 1 is a block diagram showing the connection relationship of the outside environment recognition system 100. As shown in FIG. The external environment recognition system 100 includes an imaging device 110, an external environment recognition device 120, and a vehicle control unit (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、カラー値で表されるカラー画像を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(U、V)からなるYUV形式の色空間、3つの色相(R(赤)、G(緑)、B(青))からなるRGB形式の色空間、または、色相(H)、彩度(S)、明度(B)からなるHSB形式の色空間のいずれかで表される数値群である。本実施形態では、画像として、YUV形式のカラー値によるカラー画像を例に挙げて説明するが、任意の部分的処理においてカラー画像に依存することなく処理を遂行できるアプリケーションについては、カラー画像のみならず、輝度(Y)で表される輝度画像(モノクロ画像)を用いることができる。   The imaging device 110 is configured to include an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), captures an environment corresponding to the front of the host vehicle 1, and is represented by color values. Color images can be generated. Here, the color value is a YUV color space consisting of one luminance (Y) and two color differences (U, V), and three hues (R (red), G (green), B (blue)). It is a numerical value group represented by either the RGB color space or the HSB color space consisting of hue (H), saturation (S) and lightness (B). In the present embodiment, a color image by color values in YUV format is described as an example of an image, but for an application that can execute processing without depending on the color image in any partial processing, only color images may be used. Instead, a luminance image (monochrome image) represented by luminance (Y) can be used.

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像したカラー画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する対象物は、車両、歩行者、信号機、道路(進行路)、道路標識、ゲート、ガードレール、建物といった独立して存在する立体物のみならず、道路標識の内容、ブレーキランプ、ハイマウントストップランプ、テールランプ、ウィンカー、信号機の各点灯部分等、立体物の一部として特定できる物も含む。以下の実施形態における各機能部は、このようなカラー画像の更新を契機としてフレーム毎に各処理を遂行する。   Moreover, the imaging devices 110 are spaced apart in the substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates, for example, a frame image (60 fps) obtained by imaging an object present in a detection area in front of the host vehicle 1 every 1/60 second. Here, the objects to be recognized are not only three-dimensional objects that exist independently such as vehicles, pedestrians, traffic lights, roads (traveling roads), road signs, gates, guard rails, buildings, etc., but also the contents of road signs, brake lamps, It includes items that can be identified as part of a three-dimensional object, such as high-mounted stop lamps, tail lamps, blinkers, and lighting parts of traffic lights. Each functional unit in the following embodiments performs each process for each frame triggered by such updating of a color image.

さらに、本実施形態において、撮像装置110は、車外環境の明るさ(照度計の計測結果等)に応じた露光時間や絞りを示す第1露光態様で検出領域を撮像し、第1画像を生成する。また、撮像装置110は、電光表示タイプの道路標識等、特定の発光源が自発光しているか否かを判別可能な画像を生成する。その方法としては、ダイナミックレンジが広い撮像素子を用い、発光していない対象物が黒く潰れず、発光源が白とびしないように撮像してもよいし、第1露光態様とは露光態様(露光時間、絞り)が異なる第2露光態様で検出領域を撮像し、第2画像を生成してもよい。例えば、昼間であれば、明るい車外環境に応じた第1露光態様の露光時間より第2露光態様の露光時間を短くして、または、絞りを強くして第2画像を生成する。本実施形態において、第1画像および第2画像はそれぞれカラー画像および距離画像として用いられる。また、上記第1露光態様と第2露光態様とは、以下のようにして実現される。   Furthermore, in the present embodiment, the imaging device 110 captures a detection area in a first exposure mode that indicates an exposure time and an aperture according to the brightness of the environment outside the vehicle (measurement results of an illuminance meter and the like), and generates a first image. Do. Further, the imaging device 110 generates an image that can determine whether or not a specific light emission source, such as a road sign of an electric light display type, emits light by itself. As the method, an image pickup element having a wide dynamic range may be used to pick up an image so that the non-emitting object is not blacked out and the light source is not overexposed, and the first exposure mode is an exposure mode (exposure The detection area may be imaged in a second exposure mode different in time and aperture) to generate a second image. For example, in the daytime, the exposure time of the second exposure mode is shorter than the exposure time of the first exposure mode according to the bright external environment, or the aperture is made stronger to generate the second image. In the present embodiment, the first image and the second image are used as a color image and a distance image, respectively. Further, the first exposure mode and the second exposure mode are realized as follows.

例えば、撮像装置110の周期的な撮像タイミングを時分割し、第1露光態様による撮像と第2露光態様による撮像とを交互に行うことで、第1画像と第2画像とを順次生成することができる。また、画素毎に2つのキャパシタが設けられ、その2つのキャパシタに並行して電荷をチャージできる撮像素子において、一度の露光でチャージする時間を異ならせて露光態様の異なる2つの画像を並行して生成することもできる。さらに、1つのキャパシタの電荷のチャージ中に、時間を異ならせて2回読み出し、露光態様の異なる2つの画像を並行して生成したりすることでも上記の目的を達成できる。また、撮像装置110を、露光態様を異ならせて予め2セット準備しておき(ここでは、2つの撮像装置110×2セット)、2セットの撮像装置110からそれぞれ画像を生成したりすることも可能である。   For example, by periodically dividing the periodic imaging timing of the imaging device 110 and alternately performing imaging in the first exposure mode and imaging in the second exposure mode, the first image and the second image are sequentially generated. Can. In addition, in an image pickup element in which two capacitors are provided for each pixel and charge can be charged in parallel to the two capacitors, two images having different exposure modes are made in parallel by changing the charging time in one exposure. It can also be generated. Furthermore, the above object can also be achieved by reading out twice at different times during charge charging of one capacitor and generating two images in different exposure modes in parallel. Alternatively, two sets of imaging devices 110 may be prepared in advance with different exposure modes (here, two imaging devices 110 × 2 sets), and images may be generated from the two sets of imaging devices 110, respectively. It is possible.

車外環境認識装置120は、2つの撮像装置110それぞれからカラー画像を取得し、一方のカラー画像から任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方のカラー画像から検索する、所謂パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。   The environment outside environment recognition device 120 acquires a color image from each of two imaging devices 110, and the block corresponding to a block arbitrarily extracted from one color image (for example, an array of 4 horizontal pixels × 4 vertical pixels) The parallax information including the parallax and the screen position indicating the position of the arbitrary block in the screen is derived using so-called pattern matching which is searched from the image. Here, horizontal indicates the screen horizontal direction of the captured image, and vertical indicates the screen vertical direction of the captured image. As this pattern matching, it is conceivable to compare the luminance (Y) in arbitrary block units between a pair of images. For example, SAD (Sum of Absolute Difference) which takes a difference of luminance, SSD (Sum of Squared intensity Difference) which uses the difference as a square, NCC which takes similarity of the dispersion value which subtracted the average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The environment outside environment recognition device 120 performs such block-based parallax deriving processing for all blocks displayed in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be set arbitrarily.

ただし、車外環境認識装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を対応付けた画像を、上述したカラー画像と区別して距離画像という。   However, in the external environment recognition device 120, although the parallax can be derived for each block which is a detection resolution unit, it is not possible to recognize what part of the object the block is. Therefore, the disparity information is not independently derived from the object unit, but is independently derived on a detection resolution unit (for example, block unit) in the detection area. Here, the image associated with the parallax information derived in this manner is referred to as a distance image to distinguish it from the color image described above.

図2は、カラー画像126と距離画像128を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域124について図2(a)のようなカラー画像126が生成されたとする。ただし、ここでは、理解を容易にするため、2つのカラー画像126の一方のみを模式的に示している。車外環境認識装置120は、このようなカラー画像126からブロック毎の視差を求め、図2(b)のような距離画像128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。本実施形態では、このようなカラー画像126と距離画像128とを第1画像および第2画像それぞれに基づいて生成している。   FIG. 2 is an explanatory diagram for explaining the color image 126 and the distance image 128. As shown in FIG. For example, it is assumed that a color image 126 as shown in FIG. 2A is generated for the detection area 124 through the two imaging devices 110. However, here, only one of the two color images 126 is schematically shown to facilitate understanding. The external environment recognition device 120 obtains the parallax for each block from such a color image 126, and forms a distance image 128 as shown in FIG. 2 (b). Each block in the distance image 128 is associated with the parallax of that block. Here, for convenience of explanation, the block from which the parallax is derived is represented by black dots. In the present embodiment, the color image 126 and the distance image 128 are generated based on the first image and the second image.

また、車外環境認識装置120は、カラー画像126に基づくカラー値、および、距離画像128に基づいて算出された、自車両1との相対距離を含む実空間における三次元の位置情報を用い、カラー値が等しく三次元の位置情報が近いブロック同士を対象物としてグループ化して、自車両1前方の検出領域における対象物がいずれの特定物(例えば、先行車両)に対応するかを特定する。例えば、相対距離等によって前方を走行する先行車両を特定し、さらに、カラー値によってその先行車両のブレーキランプの点灯有無を正確に認識することで先行車両の加減速を把握することができる。また、車外環境認識装置120は、路肩やゲートに配置された道路標識を特定し、さらに、その道路標識の内容、例えば制限速度を認識し、車両制御装置130を通じて、自車両1の速度を制限速度内の安全な速度に制御する。   Further, the external environment recognition device 120 uses color values based on the color image 126 and three-dimensional positional information in real space including the relative distance to the vehicle 1 calculated based on the distance image 128, Blocks having equal values and close three-dimensional position information are grouped as objects, and it is specified to which specific object (for example, a preceding vehicle) an object in a detection area in front of the host vehicle 1 corresponds. For example, it is possible to identify the preceding vehicle traveling ahead by the relative distance or the like, and further, by accurately recognizing whether or not the brake lamp of the preceding vehicle is lit by the color value, it is possible to grasp acceleration / deceleration of the preceding vehicle. In addition, the environment recognition device outside the vehicle 120 identifies a road sign arranged on the road shoulder or gate, further recognizes the content of the road sign, for example, the speed limit, and limits the speed of the vehicle 1 through the vehicle control device 130. Control to a safe speed within the speed.

なお、上記相対距離は、距離画像128におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。   The relative distance can be obtained by converting disparity information of each block in the distance image 128 into three-dimensional position information using a so-called stereo method. Here, the stereo method is a method of deriving the relative distance of the object to the imaging device 110 from the parallax of the object by using the triangulation method.

図1に戻って説明すると、車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。   Referring back to FIG. 1, the vehicle control device 130 receives the operation input of the driver through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and transmits it to the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146. The host vehicle 1 is controlled. Further, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 according to the instruction of the external environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、道路標識の特定処理について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the external environment recognition device 120 will be described in detail. Here, the process of identifying a road sign, which is characteristic of the present embodiment, will be described in detail, and the description of the configuration irrelevant to the feature of the present embodiment will be omitted.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Exterior environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the external environment recognition device 120. As shown in FIG. As shown in FIG. 3, the external environment recognition apparatus 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像(第1画像および第2画像に基づくカラー画像126、距離画像128)を一時的に保持する。   The I / F unit 150 is an interface for performing two-way information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 is configured by a RAM, a flash memory, an HDD, and the like, holds various information necessary for processing of each functional unit described below, and receives an image received from the imaging device 110 (first image and first image The color image 126 based on the two images, the distance image 128) is temporarily held.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像取得部160、位置情報導出部162、特徴点特定部164、投票部166、標識特定部168、標識補正部170、標識内容認識部172、標識内容確定部174としても機能する。以下、本実施形態において認識目的としている道路標識を説明し、その後、本実施形態に特徴的な車外環境認識処理について、当該中央制御部154の各機能部の動作も踏まえて詳述する。   The central control unit 154 is constituted by a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which programs and the like are stored, and a RAM as a work area, and the I / F unit 150 and the data holding unit Control 152 and the like. Further, in the present embodiment, the central control unit 154 includes an image acquisition unit 160, a position information derivation unit 162, a feature point identification unit 164, a voting unit 166, a sign identification unit 168, a sign correction unit 170, a sign content recognition unit 172, It also functions as the sign content determination unit 174. Hereinafter, the road sign which is the recognition object in the present embodiment will be described, and then the outside environment recognition processing characteristic of the present embodiment will be described in detail in consideration of the operation of each functional unit of the central control unit 154.

図4は、道路標識を説明する説明図である。道路標識の種別としては、制限速度を提示した道路標識や制限速度の解除を提示した道路標識がある。制限速度を提示した道路標識は、図4(a)のように、円形状の枠内に制限速度を示す数値が記載されている。また、制限速度の解除を提示した道路標識には、図4(b)のように、無地の背景に右上から左下にかかる斜線が記載されたものや、図4(c)のように、制限速度を示す数値を背景に同斜線が記載されたものもある。   FIG. 4 is an explanatory view for explaining a road sign. As the type of road sign, there are a road sign presenting a speed limit and a road sign presenting a release of the speed limit. As for the road sign which presented speed limit, the numerical value which shows speed limit is described in the circle-like frame like Fig.4 (a). In addition, on the road sign that presented the release of the speed limit, as shown in Fig. 4 (b), a solid background with diagonal lines extending from the upper right to the lower left is described, or as shown in Fig. 4 (c). In some cases, the same diagonal lines are written against a numerical value indicating speed.

また、道路標識の表示態様としては、LED等の発光源を有する電光表示タイプと、発光源を有さず色分けされただけの非電光表示タイプがある。また、道路標識の配置としては、道路の路肩に配置されたものや、道路の両路肩に跨がってアーチ形状に立設されたゲートの道路上方に対応する位置に配置されたものがある。   Moreover, as a display mode of a road sign, there are an electro-optical display type having a light emission source such as an LED or the like and a non-electro-optical display type only having a color classification without having a light emission source. In addition, as the arrangement of the road sign, there are those which are arranged on the road shoulder of the road, and those which are arranged on the upper side of the road of the gate erected in arch shape straddling both road shoulders. .

本実施形態の車外環境認識装置120は、上述した中央制御部154の各機能部によって、このような配置、表示態様、種別の異なる道路標識それぞれの内容を認識する。車外環境認識装置120は、道路標識の内容を認識すると、その内容、例えば、現在走行している道路の制限速度を運転者に報知したり、現在の速度が制限速度を超過している場合にその旨を運転者に報知したり、制限速度を超過しないように車両制御装置130を制御したりすることができる。このため、自車両1が、道路標識を確認可能な位置に到達した瞬間に道路標識を認識する必要は必ずしもなく、道路標識を通過した時点、もしくは、その後に認識できれば足りる。したがって、道路標識を複数のフレームに亘って認識し、その複数のフレームの情報から道路標識の内容を確定すればよいことになる。   The external environment recognition device 120 according to the present embodiment recognizes the contents of each of the road signs of different types, such as the arrangement, the display mode, and the like, by the respective functional units of the central control unit 154 described above. When recognizing the contents of the road sign, the outside environment recognition device 120 notifies the driver of the contents, for example, the speed limit of the road on which the vehicle is currently traveling, or when the current speed exceeds the speed limit. This can be notified to the driver, or the vehicle control device 130 can be controlled so as not to exceed the speed limit. For this reason, it is not necessary to recognize the road sign at the moment when the vehicle 1 reaches a position at which the road sign can be confirmed, and it is sufficient if it can be recognized when passing the road sign or later. Therefore, it is sufficient to recognize the road sign over a plurality of frames and to determine the content of the road sign from the information of the plurality of frames.

(車外環境認識処理)
図5は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、大きく分けて、画像を取得する画像取得処理(S200)、道路標識、特に円形状の枠を検出する標識検出処理(S202)、道路標識の内容(数値や図柄のパターン)を認識する標識内容認識処理(S204)、認識した道路標識の内容を時間方向に累積して確定する標識内容確定処理(S206)を、その順に実行する。
(Outside environment recognition processing)
FIG. 5 is a flow chart showing the flow of the outside environment recognition process. In the environment recognition process outside the vehicle, the image acquisition process (S200) that acquires an image is roughly divided, the road sign, especially the sign detection process that detects a circular frame (S202), the contents of the road sign (numerical value and pattern pattern) The marker content recognition process (S204) for recognizing the mark content, and the marker content confirmation process (S206) for accumulating and confirming the content of the recognized road marker in the time direction are executed in that order.

(画像取得処理S200)
画像取得部160は、撮像装置110からカラー画像126を取得する。上述したように、本実施形態において対象としている道路標識には、電光表示タイプと非電光表示タイプといったように表示態様が異なるものがあり、また、路肩とゲートといったように配置も異なるものがある。したがって、撮像装置110は、第1露光態様と第2露光態様の2つの露光態様で、それぞれ路肩とゲートとを検出可能な2つの検出領域を撮像し、画像取得部160は、このように撮像された4つのカラー画像126を取得する。
(Image acquisition processing S200)
The image acquisition unit 160 acquires the color image 126 from the imaging device 110. As described above, some road signs targeted in the present embodiment have different display modes such as an electric display type and a non-electric display type, and some have a different arrangement such as a road shoulder and a gate. . Therefore, the imaging device 110 images two detection areas capable of detecting the road shoulder and the gate in the two exposure modes of the first exposure mode and the second exposure mode, and the image acquisition unit 160 captures an image in this manner. The acquired four color images 126 are acquired.

図6は、画像取得部160が取得するカラー画像126を説明するための説明図である。例えば、撮像装置110では、相対的に露光時間が長い第1露光態様で、図6(a)および図6(b)に示すカラー画像126を撮像する。ただし、図6(a)は、路肩を検出可能な画角で撮像されたカラー画像126を示し、図6(b)は、ゲートを検出するため、図6(a)より画角を広げる方向に切り換えて撮像されたカラー画像126を示している。そして、撮像装置110は、露光態様を第2露光態様に切り換え、例えば、露光時間を相対的に短く設定して、図6(c)および図6(d)に示すカラー画像126を撮像する。ただし、図6(c)および図6(d)は、図6(a)および図6(b)同様、検出対象に応じ画角を切り換えて撮像されている。ここでは、4つのカラー画像126を挙げているが、路肩およびゲートさえ検出できれば、その数と種別は任意に設定することができる。   FIG. 6 is an explanatory diagram for explaining the color image 126 acquired by the image acquisition unit 160. As shown in FIG. For example, in the imaging device 110, the color image 126 shown in FIGS. 6A and 6B is captured in the first exposure mode in which the exposure time is relatively long. However, FIG. 6 (a) shows a color image 126 captured at an angle of view that can detect the road shoulder, and FIG. 6 (b) is a direction in which the angle of view is wider than in FIG. , And the color image 126 captured and displayed. Then, the imaging device 110 switches the exposure mode to the second exposure mode, for example, sets the exposure time relatively short, and captures the color image 126 shown in FIGS. 6C and 6D. However, FIG. 6C and FIG. 6D, like FIGS. 6A and 6B, are captured by switching the angle of view according to the object to be detected. Here, four color images 126 are listed, but the number and type can be set arbitrarily as long as the road shoulder and the gate can be detected.

こうして、露光態様および検出領域の異なる4つのカラー画像126が取得される。このように複数の露光態様や検出領域で撮像することで、発光源の輝度が飽和したり、画角を広くとり過ぎて分解能が低くなる等の問題を解消でき、検出精度を十分に高めることができる。かかる4つのカラー画像126は時分割で撮像され、その順は任意に設定できる。ただし、本実施形態では、道路標識を通過した時点、もしくは、その後に道路標識を認識できればよいので、必ずしも4つのカラー画像126を同タイミングで撮像する必要はない。   Thus, four color images 126 with different exposure modes and detection areas are obtained. By imaging in a plurality of exposure modes and detection areas as described above, it is possible to solve problems such as saturation of the luminance of the light source or excessive resolution and a decrease in resolution, thereby sufficiently enhancing detection accuracy. Can. The four color images 126 are captured in time division, and the order can be set arbitrarily. However, in the present embodiment, four color images 126 do not necessarily have to be imaged at the same timing, as long as the road sign can be recognized when or after passing the road sign.

位置情報導出部162は、2つの撮像装置110それぞれから第1露光で撮像した第1画像に基づくカラー画像(図6(a)、図6(b))を取得し、パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出して距離画像128を生成する。そして、位置情報導出部162は、距離画像128における検出領域124内のブロック毎の視差情報を、ステレオ法を用いて、自車両1の水平方向中央を中心とした水平方向の相対距離である水平距離x、道路表面からの高さyおよび自車両1との奥行き方向の相対距離zを含む三次元の位置情報に変換する。ただし、位置情報導出部162は、三次元の位置情報に変換する前に予め道路表面の垂直位置を求め、ブロック毎の垂直位置と道路表面の垂直位置との相対距離から道路表面からの高さyを導出する。ここで、視差情報が、距離画像128における各ブロックの視差を示すのに対し、三次元の位置情報は、実空間における各ブロックの相対距離zの情報を示す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属する全ての画素の視差情報とみなして、画素単位の計算を実行することができる。かかる三次元の位置情報への変換については、特開2013−109391号公報等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。   The position information deriving unit 162 acquires color images (FIG. 6A and FIG. 6B) based on the first image captured at the first exposure from each of the two imaging devices 110, and generates a parallax using pattern matching. And disparity information including a screen position indicating a position in the screen of an arbitrary block is derived to generate a distance image 128. Then, using the stereo method, the position information deriving unit 162 uses the stereo method to generate horizontal information that is a horizontal relative distance around the center of the host vehicle 1 in the horizontal direction, using the parallax method for each block in the detection area 124 in the distance image 128 It is converted into three-dimensional position information including the distance x, the height y from the road surface, and the relative distance z with the vehicle 1 in the depth direction. However, the position information deriving unit 162 obtains the vertical position of the road surface in advance before converting into three-dimensional position information, and the height from the road surface from the relative distance between the vertical position of each block and the vertical position of the road surface. derive y. Here, the parallax information indicates the parallax of each block in the distance image 128, while the three-dimensional position information indicates the information of the relative distance z of each block in the real space. In addition, when disparity information is derived not in units of pixels but in units of blocks, that is, in units of a plurality of pixels, the disparity information may be regarded as disparity information of all pixels belonging to a block to perform calculation in units of pixels. it can. About conversion to such three-dimensional position information, since existing technology, such as JP 2013-109391, A, can be referred to, the detailed description thereof is omitted here.

(標識検出処理S202)
本実施形態では、道路標識のうち、特に円形状の道路標識の認識を目的としている。このような円形状の道路標識は、ハフ変換を用いて検出される。ここで、ハフ変換は、カラー画像上の特徴点から、対象が存在する可能性のある点に投票を行い、得票数が多い(所定値以上となる)対象を検出する技術である。このように本実施形態では、ハフ変換に特化して説明するが、車外環境認識処理の任意の部分的処理においてハフ変換に依存することなく道路標識を特定できるアプリケーションについてはハフ変換のみならず、ハフ変換以外のテンプレートマッチングや最小二乗法等の既存の様々な形状認識手法を用いることができる。
(Label detection process S202)
In the present embodiment, it is an object of the present invention to recognize, among road signs, particularly circular road signs. Such circular road signs are detected using Hough transformation. Here, the Hough transform is a technique of voting from a feature point on a color image to a point where an object may exist and detecting an object having a large number of votes (equal to or more than a predetermined value). As described above, although the Hough transform is specifically described in this embodiment, not only the Hough transform but also an application that can specify a road sign without relying on the Hough transform in any partial process of the environment recognition process outside the vehicle Various existing shape recognition methods such as template matching other than the Hough transform and the least squares method can be used.

図7および図8は、ハフ変換を説明するための説明図である。ここでは、カラー画像126から図7(a)の如くエッジを有する3つの画素220c、220d、220eを抽出したとする。かかる3つの画素220c、220d、220eは、本来、円形状の道路標識222の一部であるが、通常、カラー画像126から明確に円形状であることは把握できない。   7 and 8 are explanatory diagrams for describing the Hough transform. Here, it is assumed that three pixels 220c, 220d, and 220e having edges as shown in FIG. 7A are extracted from the color image 126. The three pixels 220c, 220d, and 220e are originally part of the circular road sign 222, but normally it can not be clearly understood from the color image 126 that they are circular.

ハフ変換は、複数の点から円や直線などの幾何学的な形状を検出する手法であり、任意の画素220を通り、かつ、半径nである円の中心は、その任意の画素220を中心とした半径nの円周上に存在するという理論に基づいている。例えば、図7(a)の3つの画素220c、220d、220eを通る円の中心は、3つの画素220c、220d、220eそれぞれを中心とした円周上にある。しかし、エッジのみの情報では、その半径nを特定できないため、相異なる複数段階の半径nを準備して、3つの画素220c、220d、220eを中心とした複数段階の半径nの円上の画素に投票し、得票数が予め定められた所定値以上となれば半径nと中心とを道路標識222として決定する。   The Hough transform is a method of detecting a geometric shape such as a circle or a straight line from a plurality of points, and the center of a circle passing through any pixel 220 and having a radius n is centered on that any pixel 220 It is based on the theory that it exists on the circumference of radius n. For example, the center of the circle passing through the three pixels 220c, 220d, and 220e in FIG. 7A is on the circumference centered on each of the three pixels 220c, 220d, and 220e. However, since the radius n can not be specified by the information of only the edge, the radius n of different stages is prepared, and pixels on the circle of the radius n of multiple stages centered on the three pixels 220c, 220d and 220e If the number of votes is equal to or greater than a predetermined value, the radius n and the center are determined as the road sign 222.

例えば、図7(b)、図7(c)、図7(d)のように、3つの画素220c、220d、220eを中心にして、相異なる半径n=4、5、6の円を形成し、その円の軌跡に含まれる画素に投票する(単位指標を関連付ける)。すると、図7(b)では、2つの画素224で得票数が2となる(単位指標が2つ関連付けられる)。また、図7(c)では、3つの画素224で得票数が2となり、1つの画素226で得票数が3となる。同様に、図7(d)では、6つの画素224で得票数が2となる。   For example, as shown in FIGS. 7 (b), 7 (c) and 7 (d), circles having different radii n = 4, 5, 6 are formed around three pixels 220c, 220d, 220e. And vote for the pixels included in the locus of the circle (associate the unit index). Then, in FIG. 7B, the number of votes obtained is two for two pixels 224 (two unit indices are associated). Further, in FIG. 7C, the number of votes obtained is three in three pixels 224, and the number of votes obtained is three in one pixel 226. Similarly, in FIG. 7D, the number of votes obtained is six for six pixels 224.

このとき、得票数が3(所定値以上)となるのは画素226のみとなり、その画素226を3つの画素220c、220d、220eを通る円の中心とし、その画素226を導出した際の半径n=5を円の半径と特定することができる。こうして、図7(e)のように、3つの画素220c、220d、220eを通る円228が特定される。ここでは、説明の便宜上、3つの画素220c、220d、220eを挙げて説明したが、円228に含まれない画素が特徴点となったり、画素化(離散化)により本来の位置と異なる位置に出現した画素が特徴点となったりすることがあるので、このようなノイズの影響を回避すべく、実際には、多数の点を投票に用い、数の原理で安定した検出を行っている。本実施形態では、このようなハフ変換を、例えば、図6(b)に示したカラー画像126に適用し、特徴点特定部164、投票部166、標識特定部168によって円形状の道路標識を特定する。以下、図8を用いて、各機能部の基本的な処理を説明する。   At this time, only the pixel 226 has 3 votes (more than a predetermined value), and the pixel 226 is the center of a circle passing through the three pixels 220c, 220d and 220e, and the radius n when the pixel 226 is derived We can specify = 5 as the radius of the circle. Thus, as shown in FIG. 7E, a circle 228 passing through the three pixels 220c, 220d and 220e is identified. Here, for convenience of explanation, although three pixels 220c, 220d, and 220e were mentioned and explained, the pixel which is not included in circle 228 becomes a feature point, or a position different from the original position by pixelization (discretization) Since the pixel which appeared may become a feature point, in order to avoid the influence of such noise, in fact, a large number of points are used for voting, and the stable detection is performed by the principle of number. In the present embodiment, such Hough transform is applied to, for example, the color image 126 shown in FIG. 6B, and the feature point identifying unit 164, the voting unit 166, and the sign identifying unit 168 use circular road signs. Identify. The basic processing of each functional unit will be described below with reference to FIG.

まず、特徴点特定部164は、カラー画像126から、円周の部分部位に相当する特徴点を特定する(特徴点特定処理)。例えば、特徴点特定部164が、図8(a)のカラー画像126において、特徴点としてエッジを有する画素220f、220g、220h、220i、220j、220kを特定したとする。なお、図8(a)の点線は走行車線に対応している。   First, the feature point identifying unit 164 identifies a feature point corresponding to a partial portion of the circumference from the color image 126 (feature point identifying process). For example, it is assumed that the feature point identification unit 164 identifies the pixels 220f, 220g, 220h, 220i, 220j, and 220k having an edge as a feature point in the color image 126 of FIG. 8A. The dotted line in FIG. 8A corresponds to the traveling lane.

次に、投票部166は、特徴点から半径nに相当する所定の距離に投票する(投票処理)。ここでは、上記6つの画素220に対し、説明の便宜上、画素220f、220g、220hについては半径nを仮に30画素とし、画素220i、220j、220kについては半径nを仮に23画素とする。投票部166は、図8(b)のカラー画像126において、画素220f、220g、220h、220i、220j、220kを中心に、画素220それぞれから半径n(30画素、23画素)にある円上の画素全てに投票する。そして、図8(c)に示す投票テーブル230における投票先(画素、半径n)に1が投票(加算)される。ここで、投票テーブル230は、ハフ変換による投票空間であり、投票先となる画素の画面位置(x、y)と半径nとの三次元で表される。   Next, the voting unit 166 votes at a predetermined distance corresponding to the radius n from the feature point (voting process). Here, with respect to the six pixels 220, for convenience of description, the radius n is temporarily set to 30 pixels for the pixels 220f, 220g, and 220h, and the radius n is temporarily set to 23 pixels for the pixels 220i, 220j, and 220k. The voting unit 166 is located on a circle having a radius n (30 pixels, 23 pixels) from each of the pixels 220 around the pixels 220f, 220g, 220h, 220i, 220j, and 220k in the color image 126 of FIG. Vote for all the pixels. Then, 1 is voted (added) to the voting destination (pixel, radius n) in the voting table 230 shown in FIG. 8C. Here, the voting table 230 is a Hough transform voting space, and is represented in three dimensions of the screen position (x, y) of the pixel to be voted on and the radius n.

続いて、標識特定部168は、投票テーブル230の得票数を検出し、得票数が多い投票先の画素と半径nとに基づいて円の中心と半径nとを導出する。そして、図8(d)のように、得票数が多い画素234を中心に読み出した半径nの円236を形成し、それを道路標識として特定する(標識特定処理)。以下、特徴点特定部164、投票部166、標識特定部168それぞれによる特徴点特定処理、投票処理、標識特定処理の具体的な動作を説明する。   Subsequently, the sign specifying unit 168 detects the number of votes in the voting table 230, and derives the center of the circle and the radius n based on the pixel of the voting destination having a large number of votes and the radius n. Then, as shown in FIG. 8D, a circle 236 with a radius n read about the pixel 234 having a large number of votes is formed, and it is identified as a road sign (sign identification process). Hereinafter, specific operations of the feature point identifying process, the voting process, and the sign identifying process by the feature point identifying unit 164, the voting unit 166, and the sign identifying unit 168 will be described.

(特徴点特定処理)
特徴点特定部164は、カラー画像126を用い、第1の抽出条件として、画素220のうち、所定のエッジ強度を有する画素220を特徴点の候補とする。エッジ強度は、例えば、ゾーベル(Sobel)フィルタで表してもよい。特徴点特定部164は、各画素220の座標を(i,j)とし、輝度をA(i,j)とした場合、以下の数式1を用いて、垂直方向のゾーベルフィルタと水平方向のゾーベルフィルタの絶対値の和を導出し、その値(エッジ強度)が予め定められた所定値以上であればその画素(i,j)を特徴点の候補とする。
エッジ強度=|A(i+1,j+1)+2A(i+1,j)+A(i+1,j-1) - A(i-1,j+1)-2A(i-1,j)-A(i-1,j-1)|
+|A(i+1,j+1)+2A(i,j+1)+A(i-1,j+1) - A(i+1,j-1)-2A(i,j-1)-A(i-1,j-1)|…(数式1)
(Feature point identification process)
The feature point identifying unit 164 uses the color image 126 and sets a pixel 220 having a predetermined edge intensity among the pixels 220 as a feature point candidate as a first extraction condition. The edge strength may, for example, be represented by a Sobel filter. Assuming that the coordinates of each pixel 220 are (i, j) and the luminance is A (i, j), the feature point identifying unit 164 uses the following equation 1 to set the Sobel filter in the vertical direction and the horizontal direction: The sum of absolute values of the Sobel filter is derived, and if the value (edge strength) is equal to or greater than a predetermined value, the pixel (i, j) is set as a candidate of the feature point.
Edge strength = | A (i + 1, j + 1) +2 A (i + 1, j) + A (i + 1, j-1) -A (i-1, j + 1) -2 A (i- 1, j)-A (i-1, j-1) |
+ | A (i + 1, j + 1) + 2A (i, j + 1) + A (i-1, j + 1) -A (i + 1, j-1) -2A (i, j- 1) -A (i-1, j-1) | ... (Equation 1)

ここでは、ゾーベルフィルタによってエッジ強度を導出する例を挙げたが、かかる場合に限られず、プレヴィット(Prewitt)フィルタ等、既存の様々な技術を適用することができる。   Here, although the example which derives edge intensity with Sobel filter was mentioned, it is not restricted to such a case, and various existing techniques, such as a Prewitt (Prewitt) filter, can be applied.

また、特徴点特定部164は、カラー画像126を用い、第2の抽出条件として、画素220のうち、所定のカラー値のうちの所定の色成分、例えば、YUV形式の色空間におけるV成分が予め定められた所定値以上であれば、その画素220を特徴点の候補とする。制限速度を提示した道路標識は周囲が赤色の円で構成され、制限速度の解除を提示した道路標識は周囲が白色または黒色の円で構成される。したがって、V成分が所定値以上である領域に属する色のみを抽出し特徴点の候補とする。こうして、走行中の多くの機会で確認される樹木等の緑色系の画素を除外することができ、特徴点の適切な絞込みが可能になる。   In addition, the feature point specifying unit 164 uses the color image 126, and as the second extraction condition, a predetermined color component of the predetermined color value of the pixel 220, for example, a V component in the YUV color space If the value is equal to or greater than a predetermined value, the pixel 220 is set as a feature point candidate. A road sign presenting a speed limit is composed of a circle with a red circumference, and a road sign presenting a release of the speed limitation is composed of a circle with a white or black circumference. Therefore, only the color belonging to the region where the V component is equal to or more than the predetermined value is extracted as a candidate of the feature point. In this way, it is possible to exclude green-based pixels such as trees that are identified on many occasions while traveling, and to enable appropriate narrowing of feature points.

なお、カラー画像がRGB形式の色空間で構成されている場合、任意の変換式によってYUV形式の色空間に変換する。かかる変換式は、既存の技術なので、ここではその詳細な説明を省略する。   If the color image is configured in the RGB color space, it is converted to the YUV color space by an arbitrary conversion formula. Since this conversion formula is an existing technology, the detailed description thereof is omitted here.

また、特徴点特定部164は、距離画像128を用い、第3の抽出条件として、画素220のうち、相対距離zが所定範囲内、路面からの高さyが所定範囲内、および、水平距離xが所定範囲内のいずれか1または複数の条件を満たした画素220を特徴点の候補とする。   Further, the feature point identifying unit 164 uses the distance image 128, and as the third extraction condition, the relative distance z is within a predetermined range, the height y from the road surface is within a predetermined range, and the horizontal distance among the pixels 220. A pixel 220 in which x satisfies any one or more conditions within a predetermined range is set as a feature point candidate.

具体的に、特徴点特定部164は、距離画像128から任意の画素220を抽出し、その画素220の三次元の位置情報を参照し、画素220に対応する対象物の相対距離zが、例えば10m以上、50m未満に位置する場合にその画素220を特徴点の候補とする。これは、10m未満では露光時間内における画像上での対象物の移動量が長くなり、それに伴って画像ボケの影響が大きくなるからであり、また、50m以上では画像の分解能の関係から道路標識の内容を正しく認識できないことが多いからである。このように相対距離zを制限することで、処理負荷の軽減を図るとともに、誤認識を低減することが可能となる。   Specifically, the feature point identifying unit 164 extracts an arbitrary pixel 220 from the distance image 128, refers to three-dimensional position information of the pixel 220, and the relative distance z of the object corresponding to the pixel 220 is, for example, When the pixel 220 is positioned at 10 m or more and less than 50 m, the pixel 220 is set as a feature point candidate. This is because if the distance is less than 10 m, the amount of movement of the object on the image in the exposure time becomes long, and the influence of the image blur increases accordingly, and if it is 50 m or more, the road sign In many cases, the content of the can not be recognized correctly. By limiting the relative distance z in this manner, it is possible to reduce the processing load and to reduce misrecognition.

また、特徴点特定部164は、同画素220に対応する対象物の路面からの高さyが、例えば0.5m以上、6.0m未満に位置する場合にその画素220を特徴点の候補とする。かかる範囲を0.5m以上とすることで、認識対象として路面標示やレーンを除外することができ、また、6.0m未満とすることで、それ以上に位置する樹木等を除外することができる。かかる条件によっても、処理負荷の軽減を図るとともに、誤認識を低減することが可能となる。   The feature point identifying unit 164 sets the pixel 220 as a feature point candidate when the height y of the object corresponding to the pixel 220 from the road surface is, for example, 0.5 m or more and less than 6.0 m. Do. By setting the range to 0.5 m or more, road markings and lanes can be excluded as a recognition target, and by setting the range to less than 6.0 m, trees etc. located above can be excluded. . Such a condition also makes it possible to reduce processing load and reduce false recognition.

また、特徴点特定部164は、同画素220に対応する対象物の水平距離xが、例えば12mの範囲(−12m以上、12m未満)に位置する場合にその画素220を特徴点の候補とする。かかる範囲を12mとすることで、自車両1が走行しているレーンに関する道路標識以外の道路標識を除外することができる。かかる条件によっても、処理負荷の軽減を図るとともに、誤認識を低減することが可能となる。   In addition, when the horizontal distance x of the object corresponding to the pixel 220 is, for example, within a range of 12 m (−12 m or more and less than 12 m), the feature point identifying unit 164 sets the pixel 220 as a feature point candidate. . By setting this range to 12 m, it is possible to exclude road signs other than the road signs related to the lane in which the vehicle 1 is traveling. Such a condition also makes it possible to reduce processing load and reduce false recognition.

また、特徴点特定部164は、カラー画像126および距離画像128を用い、第4の抽出条件として、近接する画素220同士の少なくとも1の色成分(例えばU成分)の差分が所定範囲内であり、かつ、そのような画素220同士が所定の一方向に対して所定距離(長さ)以上連続していない画素を、特徴点の候補とする。   In addition, the feature point identifying unit 164 uses the color image 126 and the distance image 128, and the difference between at least one color component (for example, U component) of adjacent pixels 220 is within a predetermined range as the fourth extraction condition. In addition, pixels in which such pixels 220 are not continuous with each other in a predetermined direction by a predetermined distance (length) or more are set as feature point candidates.

図9は、第4の抽出条件を説明するための説明図である。例えば、図9(a)の路肩に示す紅葉した樹木240等は、第1〜第3の抽出条件を全て満たしてしまう場合がある。また、紅葉した樹木240はテクスチャとして認識できる箇所が多いので、広い範囲で特徴点として抽出されてしまう場合が多い。そうすると、テクスチャの多い樹木240等において広い範囲で特徴点が特定されてしまい、処理負荷が増大してしまう。   FIG. 9 is an explanatory diagram for explaining the fourth extraction condition. For example, there may be a case where a tree 240 or the like with colored leaves shown on the road shoulder in FIG. 9A satisfies all of the first to third extraction conditions. In addition, since there are many places that can be recognized as textures, the trees 240 that have fallen leaves are often extracted as feature points in a wide range. Then, feature points are identified in a wide range in a tree 240 or the like with many textures, and the processing load increases.

そこで、特徴点特定部164は、画素220同士の距離、すなわち、奥行き方向の距離、垂直方向の距離、および、水平方向の距離のいずれか1または複数の合成距離が、例えば、所定距離(例えば0.5m)未満であり、かつ、1の色成分(例えばU成分)の差分が所定値(例えば10)以内であるか否か判定する。そして、特徴点特定部164は、合成距離が0.5m未満であり、かつ、U成分の差分が10以内である画素220同士が画面の一方向(例えば水平方向)に30画素連続している場合、その画素220全てを特徴点から除外する。道路標識では、図9(b)に示すようにその周囲が同一色の円で構成されているが、所定の一方向、例えば、水平方向や垂直方向に30画素連続することはない。このような道路標識の表示形式の特徴に基づいて特徴点を特定することで、本来、特徴点として抽出すべきでない第1〜第3の抽出条件を満たしている画素220を除外することができ、特徴点の特定効率の向上を図ることが可能となる。   Therefore, the feature point identifying unit 164 determines that the distance between the pixels 220, that is, the distance in the depth direction, the distance in the vertical direction, and the combined distance in the horizontal direction is, for example, a predetermined distance (for example, a predetermined distance) It is determined whether the difference is less than 0.5 m and the difference between one color component (e.g. U component) is within a predetermined value (e.g. 10). Then, in the feature point identifying unit 164, pixels 220 whose combined distance is less than 0.5 m and whose U component difference is within 10 are 30 consecutive pixels in one direction (for example, the horizontal direction) of the screen. In the case, all the pixels 220 are excluded from the feature points. In the road sign, as shown in FIG. 9 (b), the periphery is constituted by circles of the same color, but there is no 30 pixels continuous in a predetermined one direction, for example, the horizontal direction or the vertical direction. By specifying the feature points based on the features of the display format of such a road sign, it is possible to exclude the pixels 220 that satisfy the first to third extraction conditions that should not be extracted as feature points originally. It is possible to improve the efficiency of specifying feature points.

ただし、道路標識のカラー画像126上の大きさは、相対距離zによって変化する。そこで、特徴点特定部164は、画素220同士が所定の方向に対して連続しているか否かの閾値である所定距離を、自車両1との相対距離zに応じて変更してもよい。具体的に、相対距離zが短いほど所定距離を長くし、相対距離zが長いほど、所定距離を短くする。こうすることで、道路標識のカラー画像126上の大きさに応じて適切な閾値を設けることができ、本来、特徴点として抽出すべきでない第1〜第3の抽出条件を満たしている画素220を適切に除外することが可能となる。   However, the size of the road sign on the color image 126 changes with the relative distance z. Therefore, the feature point identifying unit 164 may change a predetermined distance, which is a threshold value as to whether the pixels 220 are continuous in a predetermined direction, according to the relative distance z to the host vehicle 1. Specifically, the predetermined distance is made longer as the relative distance z is shorter, and the predetermined distance is made shorter as the relative distance z is longer. By doing this, it is possible to provide an appropriate threshold value according to the size of the road sign on the color image 126, and the pixels 220 that satisfy the first to third extraction conditions that should not be extracted as feature points originally. Can be properly excluded.

そして、特徴点特定部164は、第3および第4の抽出条件をいずれも満たす画素220のうち、第1または第2の抽出条件を満たしている画素220を特徴点として特定する。こうして、特徴点として適切な画素220が特定される。   Then, the feature point identifying unit 164 identifies, as a feature point, a pixel 220 satisfying the first or second extraction condition among the pixels 220 satisfying both the third and fourth extraction conditions. Thus, a pixel 220 appropriate as a feature point is identified.

また、特徴点特定部164は、特徴点の数が予め定められた所定値以上となると、1フレーム中の当該特徴点特定処理を中止してもよい。車外環境に応じてカラー画像126は様々に変化し、撮像された環境によって特徴点が非常に多くなる場合がある。このように特徴点の数が増加すると、それに伴って処理負荷が増大し、1フレーム中に割り当てられた処理時間を超過してしまうおそれがある。そこで、特徴点特定部164は、特徴点の数が予め定められた所定値以上となると、1フレーム中の当該特徴点特定処理を中止し、その時点までに特定した特徴点についてのみ、投票処理以降の処理を遂行する。   In addition, the feature point identifying unit 164 may cancel the feature point identifying process in one frame when the number of feature points becomes equal to or greater than a predetermined value. The color image 126 changes variously according to the environment outside the vehicle, and there may be a large number of feature points depending on the captured environment. As the number of feature points increases in this manner, the processing load increases accordingly, and the processing time allocated in one frame may be exceeded. Therefore, when the number of feature points becomes equal to or more than a predetermined value, the feature point identifying unit 164 cancels the feature point identifying process in one frame, and performs voting process only for the feature points identified up to that point. Perform the following processing.

ただし、道路標識はカラー画像126の比較的上方に位置することが多いので、特徴点特定部164は、カラー画像126の上方から順に特徴点を特定する。こうして、道路標識の円周の部分部位に相当する特徴点を適切に抽出することが可能となる。   However, since the road sign is often positioned relatively above the color image 126, the feature point identification unit 164 identifies feature points in order from the top of the color image 126. In this way, it is possible to appropriately extract feature points corresponding to partial portions of the circumference of the road sign.

また、特徴点特定部164は、上記のように特徴点の数を所定値以内に抑えるべく、第1の抽出条件におけるエッジ強度の所定値や第2の抽出条件におけるV成分の所定値をフレーム毎に変化させるとしてもよい。車外環境はフレーム単位では変化に乏しいので、特徴点の数もさほど変化しない。したがって、1のフレームにおいて特徴点が多数抽出されると、以降のフレームにおいても連続して特徴点が多数抽出される。そこで、1フレーム中における特徴点の特定に割り当てられた処理時間を超過しないように、第1の抽出条件におけるエッジ強度の所定値や第2の抽出条件におけるV成分の所定値を所定の範囲内(40〜150)で調整しつつ、特徴点の数を所定の範囲内(200〜2000)に抑える。   In addition, the feature point identifying unit 164 frames the predetermined value of the edge strength in the first extraction condition and the predetermined value of the V component in the second extraction condition in order to keep the number of feature points within the predetermined value as described above. It may be changed every time. Since the environment outside the vehicle has little change on a frame basis, the number of feature points does not change much. Therefore, when a large number of feature points are extracted in one frame, a large number of feature points are continuously extracted in subsequent frames. Therefore, the predetermined value of the edge strength in the first extraction condition and the predetermined value of the V component in the second extraction condition are within the predetermined range so that the processing time assigned to identify the feature point in one frame is not exceeded. While adjusting at (40 to 150), the number of feature points is suppressed within a predetermined range (200 to 2000).

図10は、特徴点特定処理の一例を示したフローチャートである。図10(a)に示すように、特徴点特定部164は、1フレーム中、第1の抽出条件下で抽出した特徴点の数が特徴点上限値(ここでは2000)を超えているか否か判定する(S240)。その結果、特徴点の数が特徴点上限値を超えていたら(S240におけるYES)、特徴点特定部164は、エッジ強度の所定値がエッジ強度上限値(ここでは150)未満であるか否か判定する(S242)。その結果、エッジ強度の所定値がエッジ強度上限値未満であれば(S242におけるYES)、特徴点特定部164は、エッジ強度の所定値をインクリメントする(S244)。かかるエッジ強度の所定値は、次回フレームの特定物特定処理から反映される。また、エッジ強度の所定値がエッジ強度上限値以上であれば(S242におけるNO)、特徴点特定部164は、エッジ強度の所定値のインクリメントを行わず、エッジ強度上限値に達した所定値を維持する(所定の範囲内に維持する)。   FIG. 10 is a flowchart showing an example of feature point identification processing. As shown in FIG. 10A, the feature point identifying unit 164 determines whether the number of feature points extracted under the first extraction condition in one frame exceeds the feature point upper limit (here, 2000). It determines (S240). As a result, if the number of feature points exceeds the feature point upper limit (YES in S240), the feature point identifying unit 164 determines whether the predetermined value of the edge strength is less than the edge strength upper limit (here, 150) It determines (S242). As a result, if the predetermined value of the edge strength is less than the edge strength upper limit (YES in S242), the feature point identifying unit 164 increments the predetermined value of the edge strength (S244). The predetermined value of the edge strength is reflected from the specific object identification process of the next frame. If the predetermined value of the edge strength is equal to or higher than the upper limit of edge strength (NO in S242), the feature point identifying unit 164 does not increment the predetermined value of the edge strength, and the predetermined value reaching the upper limit of edge strength is used. Maintain (maintain within the given range).

ステップS240において、特徴点の数が特徴点上限値以下であれば(S240におけるNO)、特徴点特定部164は、1フレーム中で抽出した特徴点の数が特徴点下限値(ここでは200)未満であるか否か判定する(S246)。その結果、特徴点の数が特徴点下限値未満であれば(S246におけるYES)、特徴点特定部164は、エッジ強度の所定値がエッジ強度下限値(ここでは40)を超えているか否か判定する(S248)。その結果、エッジ強度の所定値がエッジ強度下限値を超えていれば(S248におけるYES)、特徴点特定部164は、エッジ強度の所定値をデクリメントする(S250)。また、エッジ強度の所定値がエッジ強度下限値以下であれば(S248におけるNO)、特徴点特定部164は、エッジ強度の所定値のデクリメントを行わず、特徴点下限値に達した所定値を維持する(所定の範囲内に維持する)。また、特徴点の数が特徴点下限値以上であれば(S246におけるNO)、何ら処理を行わない。   In step S240, if the number of feature points is equal to or less than the feature point upper limit (NO in S240), the feature point identifying unit 164 determines that the number of feature points extracted in one frame is the feature point lower limit value (here 200). It is determined whether it is less than (S246). As a result, if the number of feature points is less than the feature point lower limit (YES in S246), the feature point identifying unit 164 determines whether the predetermined value of the edge strength exceeds the edge strength lower limit (here, 40). It determines (S248). As a result, if the predetermined value of the edge strength exceeds the edge strength lower limit (YES in S248), the feature point identifying unit 164 decrements the predetermined value of the edge strength (S250). If the predetermined value of the edge strength is equal to or less than the lower limit value of the edge strength (NO in S248), the feature point identifying unit 164 does not decrement the predetermined value of the edge strength, and the predetermined value reaching the feature point lower limit value Maintain (maintain within the given range). If the number of feature points is equal to or more than the feature point lower limit (NO in S246), no processing is performed.

また、図10(b)に示すように、特徴点特定部164は、1フレーム中、第2の抽出条件下で抽出した特徴点の数が特徴点上限値(ここでは2000)を超えているか否か判定する(S260)。その結果、特徴点の数が特徴点上限値を超えていたら(S260におけるYES)、特徴点特定部164は、V成分の所定値がV成分上限値(ここでは150)未満であるか否か判定する(S262)。その結果、V成分の所定値がV成分上限値未満であれば(S262におけるYES)、特徴点特定部164は、V成分の所定値をインクリメントする(S264)。かかるV成分の所定値は、次回フレームの特定物特定処理から反映される。また、V成分の所定値がV成分上限値以上であれば(S262におけるNO)、特徴点特定部164は、V成分の所定値のインクリメントを行わず、特徴点上限値に達した所定値を維持する(所定の範囲内に維持する)。   Also, as shown in FIG. 10B, the feature point identifying unit 164 determines whether the number of feature points extracted under the second extraction condition in one frame exceeds the feature point upper limit value (here, 2000) It is determined whether or not (S260). As a result, if the number of feature points exceeds the feature point upper limit (YES in S260), the feature point identifying unit 164 determines whether the predetermined value of the V component is less than the V component upper limit (here, 150) It determines (S262). As a result, if the predetermined value of the V component is less than the V component upper limit value (YES in S262), the feature point identifying unit 164 increments the predetermined value of the V component (S264). The predetermined value of the V component is reflected from the specific object identification process of the next frame. Further, if the predetermined value of the V component is equal to or more than the V component upper limit (NO in S262), the feature point identifying unit 164 does not increment the predetermined value of the V component, and the predetermined value reaching the feature point upper limit Maintain (maintain within the given range).

ステップS260において、特徴点の数が特徴点上限値以下であれば(S260におけるNO)、特徴点特定部164は、1フレーム中で抽出した特徴点の数が特徴点下限値(ここでは200)未満であるか否か判定する(S266)。その結果、特徴点の数が特徴点下限値未満であれば(S266におけるYES)、特徴点特定部164は、V成分の所定値がV成分下限値(ここでは40)を超えているか否か判定する(S268)。その結果、V成分の所定値がV成分下限値を超えていれば(S268におけるYES)、特徴点特定部164は、V成分の所定値をデクリメントする(S270)。また、V成分の所定値がV成分下限値以下であれば(S268におけるNO)、特徴点特定部164は、V成分の所定値のデクリメントを行わず、特徴点下限値に達した所定値を維持する(所定の範囲内に維持する)。また、特徴点の数が特徴点下限値以上であれば(S266におけるNO)、何ら処理を行わない。   In step S260, if the number of feature points is equal to or less than the feature point upper limit (NO in S260), the feature point identifying unit 164 determines that the number of feature points extracted in one frame is the feature point lower limit value (here 200). It is determined whether it is less than (S266). As a result, if the number of feature points is less than the feature point lower limit (YES in S266), the feature point identifying unit 164 determines whether the predetermined value of the V component exceeds the V component lower limit (here, 40). It determines (S268). As a result, if the predetermined value of the V component exceeds the V component lower limit value (YES in S268), the feature point identifying unit 164 decrements the predetermined value of the V component (S270). If the predetermined value of the V component is less than or equal to the V component lower limit (NO in S268), the feature point identifying unit 164 does not decrement the predetermined value of the V component, and the predetermined value reaching the feature point lower limit Maintain (maintain within the given range). If the number of feature points is equal to or more than the feature point lower limit value (NO in S266), no processing is performed.

上述したように、本実施形態では、第1の抽出条件または第2の抽出条件のいずれかを満たしている画素220を特徴点として特定している。したがって、第1の抽出条件と第2の抽出条件とは図10(a)と図10(b)のように独立して特徴点の数が調整される。こうして、第1の抽出条件におけるエッジ強度の所定値や第2の抽出条件におけるV成分の所定値を所定の範囲内(40〜150)に抑えつつ、特徴点の数を所定の範囲内(200〜2000)で調整して、1フレームにおける当該特徴点の特定に割り当てられた処理時間を維持することが可能となる。   As described above, in the present embodiment, the pixel 220 satisfying either the first extraction condition or the second extraction condition is specified as the feature point. Therefore, as for the first extraction condition and the second extraction condition, the number of feature points is adjusted independently as shown in FIGS. 10 (a) and 10 (b). Thus, the number of feature points is within the predetermined range (200 to 200) while the predetermined value of the edge strength under the first extraction condition and the predetermined value of the V component under the second extraction condition are suppressed within the predetermined range (40 to 150). It becomes possible to adjust by -2000) and to maintain the processing time allocated to the specification of the said feature point in 1 flame | frame.

また、特徴点特定部164は、第2の抽出条件におけるV成分の所定値を道路面の色成分に応じてフレーム毎に変更するとしてもよい。カラー画像126全体の色成分は、日射条件や照明環境により変化する。例えば、橙色の照明が設置されているトンネル内では、カラー画像126全体のV成分が増加する。そこで、特徴点特定部164は、第2の抽出条件におけるV成分の所定値を道路面の色成分に応じて変更することで、日射や照明の変化が特徴点の特定に及ぼす影響を抑制する。   Further, the feature point identifying unit 164 may change the predetermined value of the V component under the second extraction condition for each frame according to the color component of the road surface. The color components of the entire color image 126 change depending on the solar radiation conditions and the illumination environment. For example, in a tunnel in which orange illumination is installed, the V component of the entire color image 126 is increased. Therefore, the feature point identifying unit 164 suppresses the influence of changes in solar radiation and illumination on the feature point identification by changing the predetermined value of the V component in the second extraction condition according to the color component of the road surface. .

図11は、特徴点特定処理の一例を示した説明図である。特徴点特定部164は、図11(a)に示すように、カラー画像126における車両前方の道路面が映る可能性の高い予め定められた相対距離zにある4つの点280におけるRGB形式のカラー値を取得する。そして、特徴点特定部164は、4つの点280それぞれのG成分/R成分を求め、その値の平均値AVを導出する。続いて、特徴点特定部164は、カラー画像126の全ての画素のR成分に当該平均値AVを乗じ、YUV形式に変換し、当該変換後のV成分と所定値とを比較して特徴点の候補を特定する。   FIG. 11 is an explanatory view showing an example of feature point identification processing. As shown in FIG. 11A, the feature point identifying unit 164 is a color of RGB format at four points 280 at a predetermined relative distance z at which the road surface ahead of the vehicle in the color image 126 is likely to appear. Get the value. Then, the feature point identifying unit 164 obtains the G component / R component of each of the four points 280, and derives the average value AV of the values. Subsequently, the feature point identifying unit 164 multiplies the R component of all the pixels of the color image 126 by the average value AV, converts the result to YUV format, and compares the V component after the conversion with a predetermined value. Identify candidates for

ただし、図11(b)に示すように、車外環境認識装置120が認識した先行車両の相対距離zが所定範囲内(例えば20m以内)に位置している場合、当該カラー画像126から平均値AVを求めず、前回フレームで導出された(用いられた)平均値AVを利用する。これは、先行車両の色成分を道路面の色成分として取得してしまい、V成分に影響を与えて、誤った特徴点の候補が抽出されるのを回避するためである。   However, as shown in FIG. 11 (b), when the relative distance z of the preceding vehicle recognized by the external environment recognition device 120 is located within a predetermined range (for example, within 20 m), the average value AV is obtained from the color image 126. And use the average value AV (used) derived in the previous frame. This is for acquiring the color component of the preceding vehicle as the color component of the road surface and affecting the V component to avoid the extraction of an erroneous feature point candidate.

また、今回フレームで計算した平均値AVと、前回フレームで導出した(用いられた)平均値AVとが、露光態様が変化していない(周囲の明るさに大きな変化がない)にも拘わらず、予め定められた所定値(例えば±50%)以上異なっている場合も、当該カラー画像126から平均値AVを求めず、前回フレームで導出した(用いられた)平均値AVを利用する。これは、道路面が赤色系の塗料で彩色されていた場合に、V成分に影響を与えてしまい、誤った特徴点の候補が抽出されるのを回避するためである。ただし、道路面に影ができた場合、灰色はRGB方式の各色成分(RGB)に均等に影響し、G成分/R成分の値に影響を及ぼさないので、問題とはならない。   Also, although the average value AV calculated in the current frame and the average value AV derived (used) in the previous frame do not change the exposure mode (there is no significant change in the ambient brightness). Also in the case where the predetermined value (for example, ± 50%) or more differs in advance, the average value AV is not obtained from the color image 126 but the average value AV (used) derived in the previous frame is used. This is for the purpose of affecting the V component when the road surface is colored with a red-based paint, and for avoiding extraction of an erroneous feature point candidate. However, when there is a shadow on the road surface, gray affects the color components (RGB) of the RGB system equally, and does not affect the values of the G component / R component, which is not a problem.

(投票処理)
投票部166は、特徴点特定部164が特定した特徴点から半径n離隔した円周上に投票する。これは、特徴点が任意の円周の部分部位に相当すると仮定すると、その特徴点から半径nの円周上に、特徴点を円周の部分部位とする円の中心があるはずという根拠に基づく。したがって、投票部166は、特徴点を円周の部分部位とする円の中心となり得る対応点のさらに半径nの点に投票する。
(Vote process)
The voting unit 166 votes on the circumference separated by radius n from the feature point identified by the feature point identifying unit 164. This is based on the premise that, assuming that a feature point corresponds to a partial portion of an arbitrary circumference, the center of a circle having the feature point as a partial portion of the circumference on the circumference of radius n from the feature point Based on. Therefore, the voting unit 166 votes at a point of a further radius n of the corresponding point which can be the center of the circle having the feature point as a partial portion of the circumference.

図12は、投票処理を説明するための説明図である。ここで、仮に1の半径nを挙げて説明すると、図12(a)に示すように、投票部166は、通常、特徴点300を中心とする半径nの円周302上の全ての画素220を対応点304とし、その画面位置の半径nの点に対して投票を行う。しかし、このような半径nに関する対応点304は円周302上の全ての画素220となるので、多大な数となり、さらに、半径nを変化させると、その数は無数に大きくなる。そこで、投票の効率化を図るべく、1の半径nに対する対応点304および半径nの数を制限する。   FIG. 12 is an explanatory diagram for explaining the voting process. Here, assuming that a radius n of 1 is mentioned and described, as shown in FIG. 12A, the voting section 166 usually includes all the pixels 220 on the circumference 302 of the radius n centered on the feature point 300. Is a corresponding point 304, and a vote is made on a point of radius n of the screen position. However, since the corresponding points 304 with respect to such a radius n become all the pixels 220 on the circumference 302, they become a large number, and further, if the radius n is changed, the number becomes infinitely large. Therefore, the number of corresponding points 304 and the radius n with respect to the radius n of 1 is limited in order to improve the voting efficiency.

ここで、円の接線は接点と円の中心を結ぶ線分と垂直となることが知られている。また、円の接線は画素220におけるエッジ延伸方向に相当する。したがって、対応点304は、特徴点300のエッジ延伸方向に垂直な線分上にしか出現しない。そこで、投票部166は、特徴点300のエッジ延伸方向を把握し、エッジ延伸方向に垂直な方向に対応点304を定めることができる。   Here, it is known that the tangent of the circle is perpendicular to the line connecting the contact point and the center of the circle. Also, the tangent of the circle corresponds to the edge extension direction in the pixel 220. Therefore, the corresponding points 304 appear only on line segments perpendicular to the edge extending direction of the feature points 300. Therefore, the voting unit 166 can grasp the edge extending direction of the feature point 300 and determine the corresponding point 304 in the direction perpendicular to the edge extending direction.

ここで、投票部166は、各画素220の座標を(i,j)とした場合の輝度をA(i,j)とすると、以下の数式2に示すように、垂直方向のゾーベルフィルタと水平方向のゾーベルフィルタの絶対値の比によってエッジ延伸方向に垂直な線分を導出する。
エッジ延伸方向に垂直な線分=atan(
|A(i+1,j+1)+2A(i,j+1)+A(i-1,j+1) - A(i+1,j-1)-2A(i,j-1)-A(i-1,j-1)|
/|A(i+1,j+1)+2A(i+1,j)+A(i+1,j-1) - A(i-1,j+1)-2A(i-1,j)-A(i-1,j-1)|
)…(数式2)
Here, assuming that the luminance when the coordinates of each pixel 220 is (i, j) is A (i, j), the voting unit 166 outputs a Sobel filter in the vertical direction as shown in Formula 2 below. A line segment perpendicular to the edge extending direction is derived by the ratio of absolute values of the Sobel filter in the horizontal direction.
Line segment perpendicular to edge extension direction = atan (
| A (i + 1, j + 1) + 2A (i, j + 1) + A (i-1, j + 1) -A (i + 1, j-1) -2A (i, j-1) ) -A (i-1, j-1) |
/ | A (i + 1, j + 1) + 2A (i + 1, j) + A (i + 1, j-1) -A (i-1, j + 1) -2A (i-1, j) j) -A (i-1, j-1) |
) ... (Equation 2)

ここでは、ゾーベルフィルタによってエッジ延伸方向に垂直な線分を導出する例を挙げているが、かかる場合に限られず、既存の様々な技術を適用することができる。また、数式2では、除算とアークタンジェント(atan)を用いているが、これらにより処理負荷が増大する場合、垂直方向のゾーベルフィルタと水平方向のゾーベルフィルタの絶対値を入力としてエッジ延伸方向に垂直な線分を一意に導出するルックアップテーブルを用いてもよい。   Here, although the example which derives the line segment perpendicular | vertical to the edge extension direction with the Sobel filter is mentioned, it is not restricted to such a case, Various existing techniques can be applied. In addition, although division and arctangent (atan) are used in Equation 2, when the processing load increases due to these, the edge stretch direction with the absolute value of the Sobel filter in the vertical direction and the Sobel filter in the horizontal direction as an input A lookup table may be used to uniquely derive a line segment perpendicular to.

例えば、図12(b)のように、特徴点300のエッジ延伸方向が破線の線分306で示される場合、その線分306に垂直な方向に相当する一点鎖線の線分308上に対応点304を定めることができる。ここで、仮に1の半径nを挙げると、対応点304は、特徴点300のエッジ延伸方向に垂直な方向の線分308上で、特徴点300から半径n離隔した2つの点に絞ることができる。   For example, as shown in FIG. 12B, when the edge extension direction of the feature point 300 is indicated by a broken line segment 306, the corresponding point is on the line segment 308 of a dashed dotted line corresponding to the direction perpendicular to the line segment 306. 304 can be defined. Here, if a radius n of 1 is mentioned, the corresponding point 304 can be narrowed to two points separated from the feature point 300 by a radius n on the line segment 308 in a direction perpendicular to the edge extension direction of the feature point 300 it can.

また、道路標識は、各国毎の法律や規則で、大きさが1または複数に定まっていることもある。そうすると、相対距離zによって道路標識のカラー画像126上の大きさが定まる。そこで、投票部166は、相対距離zに応じて、三次元の位置情報を導出した関数の逆関数を用いてカラー画像126上の道路標識の大きさ(半径n)を推定し、投票に用いる半径nの数を絞る。例えば、制限速度を提示した道路標識や制限速度の解除を提示した道路標識の大きさが3つに限られる場合、図12(c)に示すように、その数(3)×2に対応点304が絞られる。   In addition, the road sign may be one or more in size according to the laws and regulations of each country. Then, the relative distance z determines the size of the road sign on the color image 126. Therefore, the voting unit 166 estimates the size (radius n) of the road sign on the color image 126 using the inverse function of the function from which the three-dimensional position information is derived according to the relative distance z, and uses it for voting. Narrow the number of radius n. For example, when the size of the road sign presenting the speed limit or the road sign presenting the release of the speed limit is limited to three, as shown in FIG. 12C, the number (3) × 2 corresponds to the points 304 is squeezed.

このように、1の半径nに対する対応点304を特徴点300のエッジ延伸方向に垂直な方向の線分308上に制限し、また、半径nの数を所定の大きさおよび相対距離zに応じて1または複数に制限することで、本来対応点304が存在しないはずの不本意な投票を回避することができる。したがって、対応点304の誤設定による道路標識の誤検出を防止するとともに、無駄なハフ変換処理を回避して処理負荷の軽減を図ることができる。   Thus, the corresponding point 304 for the radius n of 1 is restricted on the line segment 308 in the direction perpendicular to the edge extension direction of the feature point 300, and the number of the radius n is determined according to the predetermined size and relative distance z. By limiting the number to one or more, it is possible to avoid an unwilling vote that the corresponding point 304 should not exist. Therefore, it is possible to prevent the erroneous detection of the road sign due to the erroneous setting of the corresponding point 304, and to reduce the processing load by avoiding the useless Hough transform processing.

投票部166は、このように対応点304を制限した上で、上述した投票テーブル230に対し投票を行う。ここでは、三次元の投票空間を挙げて説明するが、道路標識が横向きや上下方向に傾きがある場合に対する対応として、横向きや上下方向に関する次元(例えば回転)を拡張したM次元(Mは正の整数)の投票空間を形成することもできる。   The voting unit 166 votes the voting table 230 described above after limiting the corresponding points 304 in this manner. Here, although a three-dimensional voting space is mentioned and explained, M dimension (M is positive) which expanded the dimension (for example, rotation) about sideways and up-and-down direction as a response to the case where a road sign inclines sideways or up-down direction. Can also form a voting space of

図13は、投票テーブル230を説明するための説明図である。投票テーブル230は、通常、図13(a)に示すようにカラー画像126の水平画素数H×垂直画素数V×半径nの取り得る値Nといったように三次元の投票空間からなり、投票先となる画素の画面位置(x、y)と半径nとの三次元位置(点)に得票数が保持される。例えば、得票数の最大値を255(1BYTE)とすると、投票テーブル230の大きさは、H×V×N(BYTE)となる。そうすると、仮に高解像度のカラー画像126を用いる場合は、投票テーブル230に費やすメモリの記憶領域が大きくなるという問題に加え、得票数が限られる(少ない)場合は、ノイズ等の影響で得票数のピークが出にくくなるという問題も生じ得る。   FIG. 13 is an explanatory diagram for explaining the voting table 230. As shown in FIG. The voting table 230 usually comprises a three-dimensional voting space such as the number of horizontal pixels H of the color image 126 × the number of vertical pixels V × the possible value N of the radius n, as shown in FIG. The number of votes is held at the three-dimensional position (point) of the screen position (x, y) of the pixel and the radius n. For example, assuming that the maximum value of the number of votes is 255 (1 BYTE), the size of the voting table 230 is H × V × N (BYTE). Then, if the color image 126 of high resolution is used, in addition to the problem that the memory storage area spent in the voting table 230 becomes large, and if the number of votes is limited (small), the number of votes obtained due to the influence of noise or the like. The problem that a peak becomes difficult to come out may also arise.

後者の問題については、ノイズ分を考慮して、マージンを付加した投票処理、例えば、対応点304の半径nのみならず、対応点304の近傍の半径nにも投票することにより対策を行うことができるが、それに伴って処理負荷が増大する問題が生じる。また、分解能を下げ、例えば、水平2画素×垂直2画素のブロック単位で投票することも考えられるが、分解能を下げた分、対応点304の道路標識の特定精度の悪化は避けられない。   Regarding the latter problem, taking measures against the voting process with a margin added in consideration of noise, for example, voting not only on the radius n of the corresponding point 304 but also on the radius n near the corresponding point 304 However, the processing load increases. Further, it is conceivable to lower the resolution and vote, for example, in a block unit of horizontal 2 pixels × vertical 2 pixels. However, because the resolution is lowered, deterioration in the specific accuracy of the road sign of the corresponding point 304 can not be avoided.

そこで、本実施形態では、次元および分解能の異なる2つの投票テーブル230a(第1の投票テーブル)、230b(第2の投票テーブル)を設け、投票部166は、それぞれの投票テーブル230a、230bに同時に投票することとする。   Therefore, in the present embodiment, two voting tables 230a (first voting table) and 230b (second voting table) having different dimensions and resolutions are provided, and the voting unit 166 simultaneously performs each of the voting tables 230a and 230b. I will vote.

投票テーブル230aは、図13(b)に示すように、カラー画像126の分解能は水平画素数H×垂直画素数Vのままで、半径nの情報を省略して次元を1つ落とした二次元(水平画素位置、垂直画素位置)の投票空間で示される。したがって、投票テーブル230aの大きさは、H×V(BYTE)となり、投票先となる画素の画面位置(x、y)の二次元位置に全ての半径nに対する得票数が保持される。一方、投票テーブル230bは、図13(c)に示すように、半径nに関する分解能はそのままの値Nで、次元も省略せず、その代わり、カラー画像126の分解能を水平および垂直それぞれで1/4に圧縮して(分解能を低くして)水平画素数H/4(水平画素数を圧縮した値)×垂直画素数V/4(垂直画素数を圧縮した値)とした三次元の投票空間で示される。したがって、投票テーブル230bの大きさは、H/4×V/4×N(BYTE)となり、投票先となる画素の画面位置(x、y)が属するブロック(水平4画素×垂直4画素)と半径nとの三次元位置に得票数が保持される。このように、投票テーブル230a、230bはそれぞれ、半径nの分解能を敢えて下げたものと、画面の位置の分解能を敢えて下げたものということになる。   In the voting table 230a, as shown in FIG. 13B, the resolution of the color image 126 remains the number of horizontal pixels H × the number of vertical pixels V, and information of the radius n is omitted to reduce one dimension. It is shown in the voting space of (horizontal pixel position, vertical pixel position). Therefore, the size of the voting table 230a is H × V (BYTE), and the number of votes for all the radius n is held at the two-dimensional position of the screen position (x, y) of the pixel to be voted. On the other hand, in the voting table 230b, as shown in FIG. 13C, the resolution with respect to the radius n is the value N as it is, and the dimensions are not omitted. Instead, the resolution of the color image 126 is 1 / H each in horizontal and vertical. Three-dimensional voting space compressed to 4 (with reduced resolution) horizontal pixel number H / 4 (value obtained by compressing horizontal pixel number) × vertical pixel number V / 4 (value obtained by compressing vertical pixel number) It is indicated by. Therefore, the size of the voting table 230b is H / 4 × V / 4 × N (BYTE), and the block (four horizontal pixels × four vertical pixels) to which the screen position (x, y) of the pixel to be voted belongs The number of votes is held at the three-dimensional position with the radius n. As described above, the voting tables 230a and 230b are the one with the resolution of the radius n lowered and the one with the resolution of the screen position lowered.

投票部166は、特徴点300に基づいて対応点304を導出すると、それぞれの投票テーブル230a、230bに同時に投票する。ただし、投票テーブル230aについては、半径nに拘わらず、対応点304に相当する1の点に投票し、投票テーブル230bについては、対応点304が属するブロックの半径nの点に投票する。こうして、投票が完了すると、投票部166は、投票テーブル230aにおいて半径nの総合的な得票数が多い点(対応点304)を道路標識の中心位置の候補とし、投票テーブル230bにおいて当該中心位置に対応するブロックで得票数が多い半径nを道路標識の半径nの候補とすることが可能となる。   When the voting unit 166 derives the corresponding point 304 based on the feature point 300, the voting unit 166 simultaneously votes in the respective voting tables 230a and 230b. However, for the voting table 230a, regardless of the radius n, it votes for the point of 1 corresponding to the corresponding point 304, and for the voting table 230b, votes for the point of the radius n of the block to which the corresponding point 304 belongs. Thus, when the voting is completed, the voting unit 166 sets a point (corresponding point 304) having a large total number of votes of the radius n in the voting table 230a as a candidate for the center position of the road sign. It is possible to set the radius n having a large number of votes in the corresponding block as a candidate for the radius n of the road sign.

このようにして、道路標識の中心の特定精度を高精度に維持しつつ、投票テーブル230の総合的な記憶容量を、H×V+H/4×V/4×N(BYTE)に低減させることが可能となる。ここで、H=600画素、V=200画素、N=20画素とすると、本来600×200×20=2,400,000BYTE必要なところ、約1/10に相当する600×200+600/4×200/4×20=270,000BYTEに低減することができる。   In this manner, the overall storage capacity of the voting table 230 can be reduced to H × V + H / 4 × V / 4 × N (BYTE) while maintaining the accuracy of identifying the center of the road sign with high accuracy. It becomes possible. Here, assuming that H = 600 pixels, V = 200 pixels, and N = 20 pixels, the originally required 600 × 200 × 20 = 2,400,000 BYTE is equivalent to approximately 1/10, 600 × 200 + 600/4 × 200. It can be reduced to / 4 × 20 = 270,000 BYTE.

ところで、投票部166は、全ての特徴点で投票処理を終えた後に、投票テーブル230の各点から得票数を抽出し、その半径nの総合的な得票数が所定値以上となる対応点304を道路標識の中心点の候補とする。しかし、投票テーブル230の記憶容量を低減させたとはいえ、投票空間がある程度の広さを有する場合、投票テーブル230全体の得票数の大小を判定するのは処理負荷が大きくなる。そこで、投票部166は、投票と並行して中心点の候補を選定することで、中心点の候補の抽出効率を向上させる。   By the way, the voting section 166 extracts the number of votes obtained from each point of the voting table 230 after finishing the voting process for all the feature points, and the corresponding point 304 where the total number of votes obtained with the radius n is equal to or more than a predetermined value. As a candidate for the center point of the road sign. However, although the storage capacity of the voting table 230 is reduced, when the voting space has a certain size, determining the size of the number of votes obtained in the entire voting table 230 increases the processing load. Therefore, the voting unit 166 improves the extraction efficiency of the center point candidate by selecting the center point candidate in parallel with the voting.

図14は、中心点候補リスト310を説明するための説明図である。ここでは、投票テーブル230以外に、中心点候補リスト310を設ける。かかる中心点候補リスト310には、少なくとも、投票テーブル230aに関する画面位置(x、y)が登録される。投票部166は、現在投票している点の投票テーブル230a上の得票数が所定数以上となると、その点に相当する対応点304を当該中心点候補リスト310に追加的に随時登録する。そして、投票部166は、全ての特徴点で投票処理を終えた後に、その中心点候補リスト310に登録されたもののみを道路標識の候補とする。   FIG. 14 is an explanatory diagram for explaining the center point candidate list 310. As shown in FIG. Here, in addition to the voting table 230, a center point candidate list 310 is provided. In the center point candidate list 310, at least screen position (x, y) related to the voting table 230a is registered. When the number of votes on the voting table 230a of the point currently voting is equal to or more than a predetermined number, the voting unit 166 additionally registers the corresponding point 304 corresponding to the point in the center point candidate list 310 as needed. Then, the voting unit 166 sets only those registered in the center point candidate list 310 as road sign candidates after finishing the voting process at all feature points.

かかる構成により、投票テーブル230全体の得票数の大小を判定するのを回避しつつ、すなわち、処理負荷を軽減しつつ、適切に中心点の候補を抽出することが可能となる。なお、投票部166は、中心点候補リスト310に登録する中心点の候補を、所定値(例えば、50)までに制限する。これは、以下の理由による。すなわち、ノイズ等の影響で対応点304が複数の中心点の候補に分散すると、本来は1の道路標識であるが、複数の中心点が候補となる場合がある。この場合に、無制限に中心点の候補を抽出すべきではなく、また、通常、カラー画像126中に50個以上の標識が存在する可能性が小さいからである。このように中心点候補リスト310の中心点候補が50以上となると、投票部166は、1フレーム中の当該投票処理を中止し、その時点までに特定した中心点候補についてのみ、標識特定処理以降の処理を遂行する。   With this configuration, it is possible to appropriately extract center point candidates while avoiding determination of the number of votes of the entire voting table 230, that is, reducing the processing load. In addition, the voting unit 166 limits the candidates of the center point registered in the center point candidate list 310 to a predetermined value (for example, 50). This is due to the following reasons. That is, when the corresponding points 304 are dispersed into a plurality of center point candidates due to the influence of noise or the like, although it is originally a road sign of 1, there are cases where a plurality of center points become candidates. In this case, candidates for center points should not be extracted without limit, and usually, the possibility that 50 or more labels will be present in the color image 126 is small. As described above, when the number of center point candidates in the center point candidate list 310 becomes 50 or more, the voting unit 166 cancels the voting process in one frame, and for the center point candidates identified up to that point Perform the processing of

このように、投票部166によって、中心点候補リスト310が生成され、中心点候補リスト310には、画面位置(中央位置)の他、半径、投票テーブル230a、230bにおける得票数、当該画素の三次元位置といった情報も関連付けられる。   Thus, the center point candidate list 310 is generated by the voting unit 166, and the center point candidate list 310 includes the radius, the number of votes obtained in the voting tables 230a and 230b, and the third order of the pixel in addition to the screen position (center position). Information such as the original position is also associated.

投票部166は、このように投票テーブル230a、230bへの投票を行うと、次回フレームにおける投票のため、投票テーブル230a、230bの各点を得票数が0となるように初期化する。しかし、カラー画像126の解像度によっては、投票テーブル230a、230bの初期化に費やす処理時間も無視できるものではなく、例えば、当該標識検出処理S202全体の40%を占有する場合もある。投票テーブル230a、230bにおいては、次元数が増える程、メモリの記憶容量が増大するので、特に、三次元の投票テーブル230bに対する初期化処理の負荷の影響が大きくなる。   When the voting unit 166 thus votes on the voting tables 230a and 230b, each point of the voting tables 230a and 230b is initialized so that the number of votes becomes 0 for voting in the next frame. However, depending on the resolution of the color image 126, the processing time spent for initializing the voting tables 230a and 230b can not be ignored, and may occupy, for example, 40% of the entire marker detection process S202. In the voting tables 230a and 230b, as the number of dimensions increases, the storage capacity of the memory increases, and in particular, the influence of the load of the initialization processing on the three-dimensional voting table 230b increases.

図15は、フラグテーブル320を説明するための説明図である。ここでは、投票テーブル230a、230b以外に、フラグテーブル320を設ける。かかるフラグテーブル320は、図15(a)のように、投票テーブル230bの次元数を半径n分減らした(一次元減らした)テーブルであり、投票先となる画素の画面位置(x、y)が属するブロック(水平4画素×垂直4画素)の二次元位置にフラグが設定されている。したがって、フラグテーブル320の大きさは、H/4×V/4(BYTE)となる。   FIG. 15 is an explanatory diagram for explaining the flag table 320. As shown in FIG. Here, a flag table 320 is provided in addition to the voting tables 230a and 230b. The flag table 320 is a table in which the number of dimensions of the voting table 230b is reduced by one radius (one dimension reduced) as shown in FIG. 15A, and the screen position (x, y) of the pixel to be the voting destination A flag is set at the two-dimensional position of the block (four horizontal pixels × four vertical pixels) to which X belongs. Therefore, the size of the flag table 320 is H / 4 × V / 4 (BYTE).

投票部166は、図15(b)にクロスハッチングで示した投票テーブル230bの任意のブロックの任意の半径nに投票を行うと、図15(a)にクロスハッチングで示したフラグテーブル320における、そのブロックと等しいブロックのフラグをONする。したがって、投票テーブル230bの各ブロックにおける半径nのいずれかに投票されると、それに対応するフラグテーブル320のブロックがONされることとなる。そして、投票テーブル230a、230bへの投票を完了すると、投票部166は、図15(a)にハッチングで示した、フラグテーブル320においてフラグがONされているブロックに対応する、図15(b)にハッチングで示した、投票テーブル230bのN個分のブロックのみ、各点を得票数が0となるように初期化する。換言すれば、投票部166は、フラグテーブル320においてフラグがOFFされているブロックに対応する投票テーブル230bのブロックについては初期化処理を行わない。   When the voting unit 166 votes at an arbitrary radius n of an arbitrary block of the voting table 230b indicated by cross hatching in FIG. 15 (b), in the flag table 320 indicated by cross hatching in FIG. 15 (a), Turn on the flag of the block equal to that block. Therefore, when one of the radius n in each block of the voting table 230b is voted, the corresponding block of the flag table 320 is turned ON. Then, when the voting on the voting tables 230a and 230b is completed, the voting unit 166 corresponds to the block indicated by hatching in FIG. 15A and for which the flag is turned on in the flag table 320, FIG. In each of the N blocks of the voting table 230b indicated by hatching, each point is initialized so that the number of votes is 0. In other words, the voting unit 166 does not perform initialization processing for the block of the voting table 230 b corresponding to the block whose flag is turned off in the flag table 320.

ここでは、フラグテーブル320の対象として投票テーブル230bを挙げているが、かかる場合に限らず、このフラグテーブル320の概念は、大きさがH×V×N(BYTE)の投票テーブル230にも適用できる。その場合、フラグテーブル320の大きさは、H×V(BYTE)となる。   Here, although the voting table 230b is listed as the target of the flag table 320, the concept of the flag table 320 is not limited to this case, and the concept of the flag table 320 is also applied to the voting table 230 of size H × V × N (BYTE). it can. In that case, the size of the flag table 320 is H × V (BYTE).

また、フラグテーブル320を設ける代わりに、投票テーブル230aの各ブロックに対応する領域に投票が為されているか否か判定し、投票が為されていたら、そのブロックに対応する投票テーブル230bのブロックのみ、各点を得票数が0となるように初期化するとしてもよい。こうして、投票テーブル230b全ての点を初期化する必要がなくなるので、初期化処理の負荷を著しく低減することができる。   Further, instead of providing the flag table 320, it is judged whether or not the voting is done in the area corresponding to each block of the voting table 230a, and if the voting is done, only the blocks of the voting table 230b corresponding to that block Each point may be initialized so that the number of votes is zero. In this way, it is possible to significantly reduce the load of the initialization process because it is not necessary to initialize all the points of the voting table 230b.

また、投票テーブル230a、230bへの投票を完了すると、投票部166は、図15(c)にハッチングで示したように、フラグテーブル320においてフラグがONされているブロックに対応する投票テーブル230aの複数の画素(水平4画素×垂直4画素)のみ、各点を得票数が0となるように初期化するとしてもよい。こうして、投票テーブル230b同様、投票テーブル230a全ての点を初期化する必要がなくなるので、初期化処理の負荷を著しく低減することができる。   Further, when the voting on the voting tables 230a and 230b is completed, the voting unit 166, as indicated by hatching in FIG. 15 (c), of the voting table 230a corresponding to the block for which the flag is ON in the flag table 320. Only the plurality of pixels (four horizontal pixels × four vertical pixels) may be initialized so that each point is zero. Thus, as with the voting table 230b, there is no need to initialize all the points of the voting table 230a, so the load of the initialization process can be significantly reduced.

そして、投票部166は、かかる初期化処理が終了した後、フラグテーブル320のフラグを全てOFFに初期化する。こうして、初期化処理の負荷の増大を招くことなく、適切に、投票テーブルの初期化を図ることが可能となる。   Then, the voting unit 166 initializes all the flags of the flag table 320 to OFF after the initialization process is completed. In this way, it is possible to properly initialize the voting table without increasing the load of the initialization process.

(標識特定処理)
標識特定部168は、投票部166によって導出された道路標識の候補を第1〜3の絞り込み条件に基づいて絞り込み、道路標識を特定する。
(Sign identification process)
The sign specifying unit 168 narrows down the road sign candidate derived by the voting unit 166 based on the first to third narrowing conditions, and specifies the road sign.

標識特定部168は、第1の絞り込み条件として、投票テーブル230aの得票数が所定値以上であり、投票テーブル230bにおけるブロックの得票数が所定値以上である半径nを、それぞれ中心点および半径として絞り込む。ただし、上述したように、投票部166も、投票テーブル230a、230bの得票数に応じて、その対応点304を中心点候補リスト310に随時登録している。しかし、かかる中心点候補リスト310への登録は、まだ最終的な得票数が不明な投票途中において為されるものであり、投票が完了した際の得票数を判定したものではない。そこで、本実施形態では、中心点候補リスト310に登録された対応点304を、改めて、登録時より大きい所定値と画一的に比較することで、ノイズに相当する対応点304を除外し、適切な対応点304のみを残すことが可能となる。   As a first narrowing condition, the sign specifying unit 168 sets a radius n where the number of votes in the voting table 230a is a predetermined value or more and the number of votes in a block in the voting table 230b is a predetermined value or more as a center point and a radius, respectively. Narrow down. However, as described above, the voting unit 166 also registers the corresponding points 304 in the center point candidate list 310 as needed according to the number of votes obtained in the voting tables 230a and 230b. However, the registration to the center point candidate list 310 is performed during a vote where the final number of votes is still unknown, and it is not a determination of the number of votes obtained when the voting is completed. Therefore, in the present embodiment, the corresponding points 304 corresponding to noise are excluded by again comparing the corresponding points 304 registered in the center point candidate list 310 with a predetermined value larger than that at the time of registration. It is possible to leave only the appropriate corresponding point 304.

続いて、標識特定部168は、上記中心位置および半径nに基づいて、半径nの2倍の長さを一辺とし中心位置を中心とする矩形を占有領域として導出する。ただし、任意の2つの対応点304に関し、かかる占有領域が重複(重畳)していると、一方によって他方が認識不能に陥るおそれがある。この場合に、認識不能となった他方の対応点304の道路標識が、制限速度を提示した道路標識等、重要な道路標識であった場合、そのような重要な道路標識が認識されない事態が生じてしまう。そこで、標識特定部168は、第2の絞り込み条件として、任意の対応点304の占有領域が、他の対応点304の占有領域と画面上で重複している場合、道路標識として信頼性の低い方を除外することで、信頼性の高い道路標識を残す。このような道路標識の信頼性は、二次元の投票テーブル230aの得票数および三次元の投票テーブル230bの得票数の大小関係に基づいて求める。   Subsequently, based on the center position and the radius n, the sign specifying unit 168 derives a rectangle whose center is twice the length of the radius n and whose center is the center position as the occupied area. However, with regard to any two corresponding points 304, when such occupied areas overlap (overlap), one may cause the other to be unrecognizable. In this case, when the road sign at the other corresponding point 304 which has become unrecognizable is an important road sign such as a road sign presenting a speed limit, such an important road sign may not be recognized. It will Therefore, when the occupied area of any corresponding point 304 overlaps the occupied area of another corresponding point 304 on the screen as the second narrowing condition, the sign specifying unit 168 has low reliability as a road sign Leave a reliable road sign by excluding people. The reliability of such a road sign is obtained based on the magnitude relationship between the number of votes obtained on the two-dimensional voting table 230a and the number of votes obtained on the three-dimensional voting table 230b.

図16は、標識特定処理の一例を示したフローチャートである。図16に示すように、標識特定部168は、道路標識の候補の中から、順次2つの候補を選択する(S330)。そして、標識特定部168は、選択した2つの候補の占有領域が重複するか否か判定する(S332)。その結果、2つの候補の占有領域が重複していれば(S332におけるYES)、標識特定部168は、一方の候補の投票テーブル230a、230bの得票数C、Dが、他方の候補の投票テーブル230a、230bの得票数C、Dよりいずれも大きいか否か判定する(S334)。その結果、いずれも大きい、すなわち、C>CかつD>Dであれば(S334におけるYES)、標識特定部168は、他方の候補を除外する(S336)。また、2つの候補の占有領域が重複していなければ(S332におけるNO)、ステップS344に処理を移す。 FIG. 16 is a flowchart showing an example of the marker identification process. As shown in FIG. 16, the sign specifying unit 168 sequentially selects two candidates out of the road sign candidates (S330). Then, the label specifying unit 168 determines whether or not the occupied areas of the two selected candidates overlap (S332). As a result, if the occupied areas of the two candidates overlap (YES in S332), the marker identifying unit 168 determines that the votes C 1 and D 1 of the voting tables 230a and 230b of one candidate are the other candidates. It is determined whether or not the number of votes C 2 and D 2 of the voting tables 230 a and 230 b is greater than either of the two (S 334). As a result, if all are large, that is, if C 1 > C 2 and D 1 > D 2 (YES in S334), the label identifying unit 168 excludes the other candidate (S336). If the two candidate occupied areas do not overlap (NO in S332), the process moves to step S344.

また、C>CかつD>Dでなければ(S334におけるNO)、標識特定部168は、一方の候補の投票テーブル230a、230bの得票数C、Dが、他方の候補の投票テーブル230a、230bの得票数C、Dよりいずれも小さいか否か判定する(S338)。その結果、いずれも小さい、すなわち、C<CかつD<Dであれば(S338におけるYES)、標識特定部168は、一方の候補を除外する(S340)。このように、候補の投票テーブル230a、230bの得票数がいずれも大きい場合、道路標識である信頼性が高いとして、得票数がいずれも小さい候補を除外し、得票数がいずれも大きい候補のみを残す。 Further, if C 1 > C 2 and D 1 > D 2 (NO in S334), the marker identifying unit 168 determines that the number of votes C 1 and D 1 of the voting tables 230a and 230b of one candidate is the other candidate It is determined whether or not the number of votes C 2 and D 2 of the voting tables 230 a and 230 b is smaller than any of the votes C 2 and D 2 (S 338). As a result, if all are small, that is, if C 1 <C 2 and D 1 <D 2 (YES in S338), the label identifying unit 168 excludes one candidate (S340). As described above, when the number of votes obtained in the candidate voting tables 230a and 230b is large, it is assumed that the reliability of the road sign is high, and the candidates with small numbers of votes are excluded and only the candidates with large numbers of votes are excluded. leave.

また、C<CかつD<Dでなければ(S338におけるNO)、標識特定部168は、一方の候補と他方の候補とのカラー画像126上の位置に基づいて、いずれか下方に位置する候補を除外する(S342)。このように、候補の投票テーブル230a、230bの得票数のうち、いずれかが大きく、いずれかが小さい場合、得票数のみで判定できないので、上方に位置する候補のみを採用し、下方に位置する候補は除外する。これは、仮に垂直方向上下に2つの道路標識が配置されている場合、相対的に重要な、制限速度を提示した道路標識が上方に配置されるようになっているからである。 Further, if C 1 <C 2 and D 1 <D 2 (NO in S 338), the marker identifying unit 168 lowers any one of the candidate and the other candidate based on the position on the color image 126. The candidate located at is excluded (S342). As described above, when one of the votes obtained from the candidate voting tables 230a and 230b is large and any one is small, it can not be determined only by the number of votes obtained, so only the candidate positioned above is adopted and positioned below. Exclude candidates. This is because if two road signs are arranged vertically in the vertical direction, a road sign presenting a relatively important speed limit is arranged at the upper side.

このように選択された2つの候補が重複していた場合に、いずれを除外するか決定されると、標識特定部168は、選択すべき2つの候補の全ての組み合わせが終了したか否か判定する(S344)。その結果、終了していれば(S344におけるYES)、当該標識特定処理を終了し、終了していなければ(S344におけるNO)、ステップS330からの処理を繰り返す。こうして、道路標識の2つの候補の占有領域が重複する場合であっても、適切に信頼性の高い候補に絞ることが可能となる。   If two candidates selected in this manner overlap, and it is determined which to exclude, the label identifying unit 168 determines whether all combinations of the two candidates to be selected have ended. (S344). As a result, if it has ended (YES in S344), the label identification processing is ended, and if it has not ended (NO in S344), the processing from step S330 is repeated. In this way, even when the occupied areas of the two road sign candidates overlap, it is possible to appropriately narrow down to highly reliable candidates.

次に、標識特定部168は、第3の絞り込み条件として、第1および第2の絞り込み条件によって絞り込まれた道路標識の候補が候補上限値(ここでは3)を超えているか否か判定する。ここで、候補上限値を超えていれば、標識特定部168は、候補を候補上限値以下に絞って、他の候補については以降の処理を実行しない。具体的に、道路標識の候補が候補上限値を超えていた場合、全ての候補の三次元位置における水平距離xを比較して、自車両1のレーンからの水平距離xが短い順に候補上限値の候補に絞る。こうして、自車両1に対する道路標識である可能性が高い、自車両1のレーンに近い候補を適切に抽出することが可能となる。   Next, as a third narrowing-down condition, the sign specifying unit 168 determines whether the road sign candidate narrowed down by the first and second narrowing-down conditions exceeds the candidate upper limit value (here, 3). Here, if the candidate upper limit value is exceeded, the marker identifying unit 168 narrows the candidates to the candidate upper limit value or less, and does not execute the subsequent processes for other candidates. Specifically, when the road sign candidate exceeds the candidate upper limit, the horizontal distances x at the three-dimensional positions of all the candidates are compared, and the candidate upper limit is ordered in order of decreasing horizontal distance x from the lane of the vehicle 1 Focus on candidates for In this manner, it is possible to appropriately extract a candidate close to the lane of the host vehicle 1 which is likely to be a road sign for the host vehicle 1.

続いて、標識補正部170は、候補上限値以下に絞り込んだ道路標識の位置や大きさの補正を行う。これは、本実施形態において、道路標識の内容を認識する上でテンプレートマッチングを用いているからであり、テンプレートマッチングは、画像の位置ズレが認識精度に大きく影響するからである。そこで、ここでは、投票部166が導出した中心位置や半径nを補正し、改めて道路標識の占有領域を設定し直す。このため、標識補正部170は、道路標識の各候補の中心位置から水平方向および垂直方向の4方向に存在する赤色枠を検出し、その赤色枠(道路標識の円周部分)が外接する矩形となるように占有領域を補正する。具体的には以下(1)〜(7)の手順で占有領域を補正する。   Subsequently, the sign correction unit 170 corrects the position and the size of the road sign narrowed down to the candidate upper limit value or less. This is because, in the present embodiment, template matching is used to recognize the content of a road sign, and in template matching, positional deviation of an image greatly affects recognition accuracy. Therefore, here, the central position and radius n derived by the voting unit 166 are corrected, and the occupied area of the road sign is set again. For this reason, the sign correction unit 170 detects a red frame existing in four directions in the horizontal direction and the vertical direction from the center position of each candidate of the road sign, and the red frame (circumferential portion of the road sign) circumscribes a rectangle Correct the occupied area so that Specifically, the occupied area is corrected by the following procedures (1) to (7).

図17は、標識補正部170の処理を説明するための説明図である。(1)まず、標識補正部170は、図17(a)に示す、半径nの2倍の長さを一辺とし中心位置を中心とする矩形を占有領域346として、その占有領域346全体におけるV成分のヒストグラムを求める(横軸をV成分として投票する)。そして、標識補正部170は、V成分のヒストグラムの最大値と最小値の差分が所定値以上となれば、当該候補を赤色枠であると判断する。また、V成分のヒストグラムの最大値と最小値の差分が所定値未満であれば、当該候補を黒色枠であると判定し、V成分のヒストグラムをY成分のヒストグラムに差し替える。以下では赤色枠の候補を挙げて占有領域346の補正処理を説明するが、黒色枠にも当然適用できるのは言うまでも無い。   FIG. 17 is an explanatory diagram for explaining the process of the sign correction unit 170. As shown in FIG. (1) First, the sign correction unit 170 sets V as the entire occupied area 346, with a rectangle having a length twice the radius n as one side and the center position as the center shown in FIG. The histogram of the components is determined (the horizontal axis is voted as the V component). Then, when the difference between the maximum value and the minimum value of the histogram of the V component is equal to or more than a predetermined value, the marker correction unit 170 determines that the candidate is a red frame. If the difference between the maximum value and the minimum value of the V component histogram is less than a predetermined value, it is determined that the candidate is a black frame, and the V component histogram is replaced with the Y component histogram. In the following, correction processing of the occupied area 346 will be described by citing red frame candidates, but it goes without saying that the present invention can naturally be applied to a black frame.

(2)標識補正部170は、上記V成分のヒストグラムのうち上位から所定%(例えば30%)となる(ヒストグラムを面積に換算した場合の上位:下位の面積比が3:7となる)V成分の値(閾値Vthr)を導出する。かかる閾値Vthrは、特徴点を特定するために用いたV成分の所定値と異なる。これは、それぞれの候補毎に最適な閾値を設定するためである。なお、閾値Vthrが所定値(例えば−5)以下となった場合、不適切な閾値として以降の処理を行わない。   (2) The marker correction unit 170 obtains a predetermined% (for example, 30%) from the top of the histogram of the V component (upper: lower area ratio of 3: 7 when the histogram is converted to an area) V The component value (threshold Vthr) is derived. The threshold value Vthr is different from the predetermined value of the V component used to identify the feature point. This is to set an optimal threshold for each candidate. When the threshold value Vthr becomes equal to or less than a predetermined value (for example, -5), the subsequent processes are not performed as an inappropriate threshold value.

(3)標識補正部170は、図17(b)において矢印で示すように、道路標識の各候補の中心位置から、各画素のV成分が閾値Vthr以上であるか否か判定しつつ、水平方向および垂直方向の4方向に検出画素を移動する。そして、V成分が閾値Vthr以上となる画素が所定数(例えば3画素)連続すると、その閾値Vthr以上のV成分が検出され始めた画素を赤色枠の内縁エッジ348とする。ここでは、検出方向として水平方向および垂直方向の4方向を挙げて説明しているが、かかる場合に限らず、直交する放射状の4つの方向であれば足り、また、斜めの方向等を加えて、検出精度を高めることもできる。   (3) The sign correction unit 170 determines whether the V component of each pixel is equal to or more than the threshold value Vthr from the center position of each candidate of the road sign, as indicated by the arrow in FIG. The detection pixel is moved in four directions, the direction and the vertical direction. Then, when a predetermined number (for example, three pixels) of pixels whose V component exceeds the threshold Vthr continue, the pixel whose V component above the threshold Vthr starts to be detected is set as the inner edge 348 of the red frame. Here, four horizontal and vertical directions are described as detection directions. However, the present invention is not limited to this case, and four orthogonal radial directions may be sufficient, and an oblique direction or the like may be added. The detection accuracy can also be enhanced.

(4)続いて、標識補正部170は、赤色枠の内縁エッジ348の位置が、本来位置すべき所定範囲内にあるか否か判定する。具体的に、例えば、水平右方向に検出する場合、中心の横座標をJ、占有領域346の水平右端のx座標をRとし、求めた赤色枠の内縁エッジ348の座標をREとすると、以下の数式3を満たす場合、その赤色枠の内縁エッジ348の座標REを不適切な値として以降の処理を行わない。
RE < (R−J)×K+J …(数式3)
(4) Subsequently, the marker correction unit 170 determines whether or not the position of the inner edge 348 of the red frame is within the predetermined range to be originally positioned. Specifically, for example, when detecting in the horizontal right direction, assuming that the horizontal coordinate of the center is J, the x coordinate of the horizontal right end of the occupied area 346 is R, and the coordinates of the inner edge 348 of the obtained red frame are RE If Equation 3 is satisfied, the coordinate RE of the inner edge 348 of the red frame is regarded as an inappropriate value, and the subsequent processing is not performed.
RE <(R−J) × K + J (Equation 3)

ここでKは0〜1のうちの任意の値をとる係数である。例えば、水平方向の検出においては0.6とし、垂直方向の検出においては0.5とする。また、(R−J)×Kは、内縁エッジ348が取り得る半径方向の下限値(内縁エッジ下限値)である。かかる処理は、例えば、電光表示タイプの道路標識において数値が橙色となった場合に、V成分に影響して誤った内縁エッジ348をとらないようにするための対処である。   Here, K is a coefficient taking any value of 0 to 1. For example, 0.6 in horizontal detection and 0.5 in vertical detection. Further, (R−J) × K is a lower limit value (inner edge lower limit value) in the radial direction that the inner edge 348 can take. Such processing is a measure for preventing the erroneous inner edge 348 from being affected by affecting the V component when, for example, the numerical value becomes orange in a road sign of the electronic display type.

(5)次に、標識補正部170は、任意の道路標識において、水平方向および垂直方向の4方向全て適合した場合、各内縁エッジ348の位置に基づいて、画像の中心位置および半径nを再度導出する。具体的に、水平方向の内縁エッジ348のうち、左に位置する内縁エッジ348をLE、右に位置する内縁エッジ348をREとしたときの中心位置は、(LE+RE)/2で定まり、半径nは、(RE−LE)/2で定まる。また、垂直方向の内縁エッジ348についても同様の処理で中心位置および半径nが定まる。こうして、道路標識の中心位置によって特定される占有領域346が新たに規定される。   (5) Next, the sign correction unit 170 re-selects the center position and the radius n of the image based on the position of each inner edge 348 when all four directions in the horizontal direction and the vertical direction are matched in any road sign. To derive. Specifically, of the horizontal inner edge 348, the center position when the inner edge 348 located on the left is LE and the inner edge 348 located on the right is RE is defined by (LE + RE) / 2, and the radius n Is determined by (RE−LE) / 2. Further, the center position and the radius n are determined for the vertical inner edge 348 in the same manner. Thus, the occupied area 346 specified by the center position of the road sign is newly defined.

(6)続いて、標識補正部170は、道路標識について、補正前の半径nと補正後の半径nを比較し、その比率が所定範囲(例えば、0.75倍以上、1.5倍未満)を逸脱していれば、不適合な値として以降の処理を行わない。   (6) Subsequently, the sign correction unit 170 compares, for the road sign, the radius n before correction and the radius n after correction, and the ratio is within a predetermined range (for example, 0.75 times or more and less than 1.5 times If it deviates from), the subsequent processing will not be performed as an inappropriate value.

(7)最後に、標識補正部170は、補正後の占有領域346を、水平所定画素×垂直所定画素の矩形にリサイズして当該補正処理を終了する。このように、道路標識の中心位置や半径の再調整を行うことで、パターンマッチングによる認識の高精度化を図ることが可能となる。なお、リサイズとしては、アレストネイバー等の一般的な手法を用いることができる。   (7) Finally, the sign correction unit 170 resizes the corrected occupied area 346 into a rectangle of horizontal predetermined pixels × vertical predetermined pixels, and ends the correction processing. As described above, by re-adjusting the center position and the radius of the road sign, it is possible to achieve high accuracy in recognition by pattern matching. In addition, as resizing, a general method such as arrest neighbor can be used.

(標識内容認識処理S204)
図18は、標識内容認識処理S204の具体的な処理の流れを示したフローチャートである。標識内容認識部172は、標識補正部170が補正した道路標識に対し、そのままの画像で、占有領域346に対応する画像の輝度を離散化し(S350)、その道路標識が制限速度の解除を提示した道路標識であるか判定する(S352)。そして、標識内容認識部172は、制限速度の解除を提示した道路標識でなければ、その道路標識を、制限速度を提示した道路標識と判定して垂直方向の位置合わせを行い(S354)、位置合わせ後、水平方向のマッチングを実行する(S356)。続いて、標識内容認識部172は、道路標識の内容の所定の部位に注目し、その注目部位のテンプレートマッチングを行い(S358)、総合評価値を導出して、いずれの制限速度であるか判定する(S360)。
(Mark content recognition processing S204)
FIG. 18 is a flowchart showing a specific processing flow of the tag content recognition processing S204. The sign content recognition unit 172 discretizes the brightness of the image corresponding to the occupied area 346 with the image as it is for the road sign corrected by the sign correction unit 170 (S350), and the road sign presents the release of the speed limit. It is determined whether or not the road sign is a road sign (S352). Then, the sign content recognition unit 172 determines that the road sign is not the road sign presenting the release of the speed limit, and performs the vertical alignment (S354), unless the road sign presents the release of the speed limit. After alignment, matching in the horizontal direction is performed (S356). Subsequently, the sign content recognition unit 172 focuses on a predetermined portion of the contents of the road sign, performs template matching of the portion of interest (S 358), derives the comprehensive evaluation value, and determines which speed limit it is (S360).

ところで、上述したように、本実施形態が目的とする道路標識には、電光表示タイプと非電光表示タイプがある。電光表示タイプは、道路標識の内容、例えば、数値の輝度が、その周囲の輝度より高く、非電光表示タイプは、道路標識の内容、例えば、数値の輝度が、その周囲の輝度より低いといった特性を有する。   By the way, as above-mentioned, there exist a lightning display type and a non-light display type in the road sign which this embodiment aims at. The electronic display type is characterized in that the content of the road sign, for example, the brightness of the numerical value is higher than the brightness of its surroundings, and the non-electric display type is such that the content of the road sign, for example, the brightness of the numerical value is lower Have.

当該標識内容認識処理S204においては、いずれの表示タイプであるか把握されていないので、両表示タイプであることを想定して認識処理を実行する。例えば、標識内容認識部172は、ステップS350〜S360までの一連の処理を標識補正部170が補正した道路標識そのままの画像を用いて実行し、道路標識の内容を有効に認識できたか否か判定する(S362)。その結果、ステップS350〜S360のいずれかの処理において、道路標識の内容を有効に認識できなかったと判定されていると(S362におけるNO)、標識補正部170が補正した道路標識の輝度を反転し(S364)、輝度を反転した道路標識(反転道路標識)に対し、ステップS350〜S360までの一連の処理を再度実行する。   In the label content recognition process S204, since it is not grasped which display type it is, the recognition process is executed on the assumption that both display types are used. For example, the sign content recognition unit 172 executes a series of processes from step S350 to S360 using the image as it is on the road sign corrected by the sign correction unit 170, and determines whether the contents of the road sign can be effectively recognized. (S362). As a result, if it is determined that the contents of the road sign can not be effectively recognized in any of the processes in steps S350 to S360 (NO in S362), the luminance of the road sign corrected by the sign correction unit 170 is reversed. (S364) A series of processes from step S350 to step S360 are executed again on the road sign whose inverted luminance (inverted road sign).

また、ステップS350〜S360のいずれの処理においても道路標識の内容を有効に認識できていると判定されると(S362におけるYES)、道路標識の反転を行うことなく、または、反転道路標識の内容を認識することなく、ステップS366に処理を移す。こうして、標識補正部170が補正した道路標識または反転道路標識のいずれかを認識することができ、電光非電光等の表示タイプの違いに拘わらず、適切に道路標識の内容を認識することが可能となる。   In addition, if it is determined that the contents of the road sign can be effectively recognized in any of the processes in steps S350 to S360 (YES in S362), the road sign is not reversed or the contents of the reversed road sign The process moves to step S366 without recognizing. Thus, it is possible to recognize either the road sign or the inverted road sign corrected by the sign correction unit 170, and it is possible to appropriately recognize the contents of the road sign regardless of the difference in display type such as lightning non-lighting It becomes.

ただし、反転前におけるステップS350〜S360のいずれかの処理で道路標識の内容を有効に認識できないと判定されれば、認識処理の途中であっても処理を中断し、以降の処理を省略してステップS362に処理を移すこともできる。こうして、不要な認識処理を回避し、処理負荷を軽減することができる。補正後の画像とその輝度を反転した画像は、同一の処理が施されるので、説明の便宜上、以下では、補正後の画像の処理を説明し、輝度を反転した画像については詳細な説明を省略する。   However, if it is determined that the contents of the road sign can not be effectively recognized in any of the steps S350 to S360 before the reversal, the process is interrupted even during the recognition process, and the subsequent processes are omitted. The processing can also be transferred to step S362. Thus, unnecessary recognition processing can be avoided and processing load can be reduced. The image after correction and the image obtained by inverting the luminance thereof are subjected to the same processing. Therefore, for convenience of explanation, in the following, processing of the image after correction will be described, and a detailed description of the image whose luminance is inverted I omit it.

ここでは、補正後の画像の処理の後、輝度を反転した画像の処理を行っているが、かかる順は逆であってもよい。例えば、車外環境に応じ、制限速度を提示した道路標識が路肩に位置している場合、道路標識が非電光表示タイプである可能性が高いので補正後の画像の処理を先に処理し、ゲートに位置している場合、道路標識が電光表示タイプである可能性が高いので輝度を反転した画像について先に処理を行う。このようにして、1巡(ステップS350〜S360)で評価が完了する可能性が高い方から先に処理することで、標識内容認識処理S204の効率化を図ることができる。   Here, after the processing of the image after correction, the processing of the image whose luminance is reversed is performed, but the order may be reversed. For example, if the road sign presenting the speed limit is located on the road shoulder according to the environment outside the vehicle, the processing of the image after correction is processed first because the road sign is likely to be of the non-electric display type. If the road sign is located, the road sign is likely to be of the electric display type, so that the process is first performed on the image whose brightness is reversed. In this manner, by performing processing in descending order of possibility of evaluation being completed in one cycle (steps S350 to S360), it is possible to achieve efficiency of the label content recognition processing S204.

また、補正後の画像かその輝度を反転した反転画像のいずれかにおいて有効に道路標識の内容を認識できれば(S362におけるYES)、標識内容認識部172は、標識補正部170が補正した道路標識全てに対してこのようなステップS350〜S364の処理が実行されたか否か判定する(S366)。その結果、全ての道路標識が完了していなければ(S366におけるNO)、標識内容認識部172は、完了するまで(S366におけるYES)、ステップS350からの処理を繰り返す。以下、ステップS350〜S360の処理の内容を詳述する。   Further, if the contents of the road sign can be effectively recognized in any of the image after correction or the inverted image obtained by inverting the luminance thereof (YES in S362), the sign content recognition unit 172 recognizes all the road signs corrected by the sign correction unit 170. It is determined whether or not the process of steps S350 to S364 has been executed (S366). As a result, if all the road signs are not completed (NO in S366), the sign content recognition unit 172 repeats the processing from step S350 until the completion (YES in S366). The contents of the processes of steps S350 to S360 will be described in detail below.

(輝度離散化処理S350)
標識内容認識部172は、標識補正部170が補正した道路標識それぞれの占有領域346に対し、各画素の輝度を離散化する。こうして撮像状態に依存せず認識可能な画像パターンに変換する。
(Luminance discretization processing S350)
The sign content recognition unit 172 discretizes the luminance of each pixel in the occupied area 346 of each road sign corrected by the sign correction unit 170. Thus, the image pattern is converted into a recognizable image pattern regardless of the imaging state.

図19は、認識対象領域370を説明するための説明図である。まず、標識内容認識部172は、水平所定画素×垂直所定画素の矩形中の認識処理を施す領域(以下、認識対象領域という)370を設定する。かかる認識対象領域370は、図19に示した占有領域346のうち赤色枠の内縁エッジ348に接する矩形の領域をいい、以降の処理ではかかる認識対象領域370に対して処理が施される。   FIG. 19 is an explanatory diagram for describing the recognition target area 370. As shown in FIG. First, the tag content recognition unit 172 sets an area (hereinafter referred to as a recognition target area) 370 to be subjected to recognition processing in a rectangle of horizontal predetermined pixels × vertical predetermined pixels. The recognition target area 370 is a rectangular area in contact with the inner edge 348 of the red frame in the occupied area 346 shown in FIG. 19, and in the subsequent processing, the recognition target area 370 is processed.

次に標識内容認識部172は、認識対象領域370の各画素を離散化し、N値化を図る。例えばN=2の場合、各画素の輝度は0または255のいずれかの値を有することになる。ここで、Nは2以上の値であるが、閾値の設定等の影響で2値化がうまくいかなかった場合におけるパターンマッチングに与える影響を抑えるため、本実施形態では、例えば、N=5とする。5値化の場合、離散化の閾値は4つとなり、輝度のヒストグラムのうち上位から4つの所定%(例えば20、25、35、40%)を設定する。かかる所定%は、独立かつ任意に設定できる。   Next, the tag content recognition unit 172 discretizes each pixel of the recognition target area 370 to achieve N-value conversion. For example, in the case of N = 2, the luminance of each pixel will have a value of either 0 or 255. Here, N is a value of 2 or more, but in the present embodiment, for example, N = 5, in order to suppress the influence on pattern matching in the case where binarization does not go well due to the influence of setting of a threshold or the like. Do. In the case of pentanization, there are four discretization thresholds, and four predetermined percentages (for example, 20, 25, 35, 40%) from the top of the luminance histogram are set. The predetermined percentage can be set independently and arbitrarily.

かかる構成により、輝度値の分布の違いに拘わらず、適切に道路標識の内容を認識可能となる。また、ここでは、輝度のヒストグラムの上位の値を基準にしているので、認識対象領域370それぞれの輝度の分布態様に拘わらず適切に5値化を行うことができ、離散化とともに正規化も図れることになる。   According to this configuration, the contents of the road sign can be appropriately recognized regardless of the difference in the distribution of the luminance values. Further, since the upper value of the luminance histogram is used as a reference here, it is possible to appropriately perform five-value conversion regardless of the luminance distribution mode of each of the recognition target areas 370, and normalization can be achieved along with discretization. It will be.

(制限速度解除判定処理S352)
標識内容認識部172は、5値化した認識対象領域370に対し、制限速度の解除を提示した道路標識または制限速度を提示した道路標識それぞれに対応した認識処理を行うが、前者の方が処理負荷を小さくできるため、まず、前者であることを前提に処理を行い、前者でなければ、後者に対する処理を行う。こうして、不要に、制限速度を提示した道路標識の認識処理を行うのを回避できる。
(Speed limit release determination process S352)
The sign content recognition unit 172 performs recognition processing corresponding to the road sign presenting the release of the speed limit or the road sign presenting the speed limit with respect to the 5-valued recognition target area 370, but the former process is more effective. Since the load can be reduced, first, processing is performed on the premise that the former is used, and processing for the latter is performed if not. In this way, it is possible to avoid performing recognition processing of the road sign that presented the speed limit unnecessarily.

図20は、制限速度の解除を提示した道路標識を説明するための説明図である。標識内容認識部172は、図20に示す認識対象領域370における、認識対象領域370上で交差する、傾斜角を有する(傾斜した)4つの線分L1、L2、L3、L4に対応する複数の画素の輝度をそれぞれ累積し、各線分L1、L2、L3、L4での累積輝度値をS1、S2、S3、S4とする。かかる線分の傾斜角は、制限速度の解除を提示した道路標識の表示態様に合わせた角度とする。ここで、それぞれの累積輝度値S1、S2、S3、S4を判定するための閾値をTS1、TS2、TS3、TS4とする。ただし、TS4はTS4a<TS4bの関係を有する2つの閾値から構成される。また、TS2=TS3としてもよい。標識内容認識部172は、4つの線分L1、L2、L3、L4における濃淡の違いを数値化する以下の数式4に基づき、数式4を全て満たす場合に当該道路標識を制限速度の解除を提示した道路標識と認識する。
S1<TS1
S2>TS2
S3>TS3
TS4a<S4<TS4b …(数式4)
ここでは、位置ズレや明るさによる輝度の偏差は補正しているので、上記の数式4のように非常に単純な処理で道路標識の内容を認識することが可能となる。
FIG. 20 is an explanatory view for explaining a road sign presenting cancellation of the speed limit. The tag content recognition unit 172 is a recognition target area 370 shown in FIG. 20, which intersects on the recognition target area 370 and has a plurality of inclined line segments L1, L2, L3 and L4 corresponding to four inclined line segments (tilted). The luminances of the pixels are accumulated, and the accumulated luminance values at the line segments L1, L2, L3, and L4 are S1, S2, S3, and S4, respectively. The inclination angle of such a line segment is an angle in accordance with the display mode of the road sign for which release of the speed limit has been presented. Here, threshold values for determining the respective accumulated luminance values S1, S2, S3, and S4 are taken as TS1, TS2, TS3, and TS4. However, TS4 is comprised from two threshold values which have a relationship of TS4a <TS4b. Also, TS2 = TS3 may be set. The sign content recognition unit 172 presents the release of the speed limit of the road sign when the formula 4 is all satisfied, based on the following formula 4 for quantifying the difference in density in the four line segments L1, L2, L3, L4. Recognize it as a road sign.
S1 <TS1
S2> TS2
S3> TS3
TS4a <S4 <TS4b (Equation 4)
Here, since the deviation of the luminance due to the positional deviation and the brightness is corrected, it is possible to recognize the content of the road sign by a very simple process as in the above-mentioned equation 4.

(垂直方向位置合わせ処理S354)
上記の処理によって制限速度の解除を提示した道路標識と判定されなかった場合、その道路標識は、制限速度を提示した道路標識として判定される。標識内容認識部172は、まず、認識対象領域370中における数値が占有する数値領域について垂直方向の位置合わせを行う。これは、認識対象領域370が微細な位置ズレを含んでいたり、国毎、または、国内の設置態様毎に数値の大きさ、形状、数値間の距離等が異なる場合があるからである。
(Vertical alignment processing S354)
If the road sign is not determined to be the road sign presenting the release of the speed limit by the above processing, the road sign is determined as the road sign presenting the speed limit. The label content recognition unit 172 first performs alignment in the vertical direction with respect to the numerical value area occupied by the numerical value in the recognition target area 370. This is because the recognition target area 370 may include minute positional deviations, or the size, shape, distance between the numerical values, and the like may differ depending on the installation mode of each country or country.

図21は、垂直方向位置合わせ処理を説明するための説明図である。標識内容認識部172は、図21のように、認識対象領域370の各画素の輝度を水平方向に累積し、その累積輝度値を垂直方向に並べて、垂直方向の輝度分布372を生成する。ただし、図21の道路標識の場合、数値部分が周囲に対して低輝度となっているので、図21の輝度分布372では、数値部分を抽出すべく、輝度を反転した上で累積輝度値を求めている。そして、標識内容認識部172は、認識対象領域370の中心部分から垂直上下領域いずれも累積輝度値の最大値374を求め、その最大値の所定%(例えば25%)を閾値として、中心部分から垂直上下に検出画素を移動し、輝度累積値が閾値を下回る画素が所定数(例えば2回)連続すると、その場所を数値領域376の上端および下端とする。   FIG. 21 is an explanatory view for explaining the vertical alignment processing. The sign content recognition unit 172 accumulates the luminance of each pixel of the recognition target area 370 in the horizontal direction, arranges the accumulated luminance values in the vertical direction, and generates a luminance distribution 372 in the vertical direction, as shown in FIG. However, in the case of the road sign of FIG. 21, since the numerical value portion has low luminance relative to the surroundings, in the luminance distribution 372 of FIG. 21, the cumulative luminance value is inverted after the luminance is extracted to extract the numerical value portion. I'm asking. Then, the tag content recognition unit 172 obtains the maximum value 374 of the accumulated luminance value for all vertical upper and lower areas from the central part of the recognition target area 370, and using a predetermined% (for example 25%) of the maximum value as a threshold The detection pixels are moved vertically and vertically, and when the predetermined number (for example, twice) of pixels whose accumulated luminance value falls below the threshold value continue, that location is set as the upper end and lower end of the numerical value area 376.

次に、標識内容認識部172は、このように導出された数値領域376の上端および下端を用い、垂直方向の大きさを拡大または縮小して正規化する。例えば、数値領域376の上端と下端との間の距離をHI、テンプレートの垂直方向の距離をHTとすると、標識内容認識部172は、数値領域376を垂直方向にHT/HI倍する。こうして、数値領域376の大きさを、以降にマッチングを行うテンプレートの垂直方向の大きさに合わせることができる。また、補正はニアストネイバーにより行われる。   Next, the tag content recognition unit 172 uses the upper end and the lower end of the numerical value area 376 derived in this manner to enlarge or reduce the size in the vertical direction and normalize it. For example, assuming that the distance between the upper end and the lower end of the numerical value area 376 is HI, and the distance in the vertical direction of the template is HT, the tag content recognition unit 172 vertically multiplies the numerical value area 376 by HT / HI. Thus, the size of the numerical value area 376 can be adjusted to the vertical size of the template to be matched later. Also, the correction is performed by the nearest neighbor.

このような処理により、例えば、図21の下方において累積輝度値にノイズが生じているが、その影響を除外でき、正規化された数値領域376を適切に抽出できる。   By such processing, for example, although noise is generated in the accumulated luminance value in the lower part of FIG. 21, the influence thereof can be excluded, and the normalized numerical region 376 can be appropriately extracted.

(水平方向マッチング処理S356)
図22は、テンプレートを説明するための説明図である。標識内容認識部172は、垂直方向の位置合わせがなされた認識対象領域370の内容、すなわち、数値を認識する。かかる認識はあらかじめ準備されたテンプレートとのマッチングにより行う。テンプレートは、図22に示すように、例えば、10〜90(2桁)、100〜130(3桁)と10刻みで13種類準備されている。
(Horizontal matching process S356)
FIG. 22 is an explanatory diagram for describing a template. The marker content recognition unit 172 recognizes the content of the recognition target area 370 in which the vertical alignment is performed, that is, the numerical value. Such recognition is performed by matching with a previously prepared template. As shown in FIG. 22, for example, 13 types of templates, 10 to 90 (2 digits), 100 to 130 (3 digits) and 10 steps, are prepared.

図23は、水平方向のマッチング処理を説明するための説明図である。標識内容認識部172は、図23のように、垂直方向に正規化された認識対象領域370の各画素を垂直方向に累積し、その累積輝度値を水平方向に並べて、水平方向の輝度分布380を生成する。こうして二次元画像の一次元化が行われる。ただし、垂直方向の位置合わせ同様、数値部分が低輝度となっているので、図23の輝度分布380では、数値部分を抽出すべく、輝度を反転した上で累積輝度値を求めている。また、垂直方向の累積範囲は、垂直方向の位置合わせで導出された数値領域376の上端から下端の範囲のみとする。従って、垂直方向の数値領域以外の不要な領域に関する輝度の累積を回避できる。標識内容認識部172は、このようにして導出された図23の輝度分布380とテンプレートに基づく輝度分布をDPマッチングすることで、各テンプレートとの相関評価値(相関評価値が低いほど相関が高い)を算出する。   FIG. 23 is an explanatory diagram for explaining the matching processing in the horizontal direction. The sign content recognition unit 172 accumulates each pixel of the recognition target area 370 normalized in the vertical direction in the vertical direction and arranges the accumulated luminance values in the horizontal direction as shown in FIG. Generate Thus, one-dimensionalization of the two-dimensional image is performed. However, as in the alignment in the vertical direction, since the numerical value portion has low luminance, in the luminance distribution 380 of FIG. 23, in order to extract the numerical value portion, the accumulated luminance value is obtained after inverting the luminance. Also, the cumulative range in the vertical direction is limited to only the range from the upper end to the lower end of the numerical value area 376 derived by the vertical alignment. Therefore, it is possible to avoid the accumulation of luminance for unnecessary areas other than the vertical numerical area. The sign content recognition unit 172 DP-matches the brightness distribution 380 of FIG. 23 derived in this manner and the brightness distribution based on the template so that the correlation evaluation value with each template (the lower the correlation evaluation value, the higher the correlation is Calculate).

ここでは、垂直方向の位置合わせと同様、数値の大きさの違いや、数値間の余白の間隔などの違いが存在するため、固定サイズのテンプレートを用いると充分な性能が出せない。そのため、水平方向の伸縮が許容されるDPマッチングを用いる。かかるDPマッチングを二次元で行うことも原理的には可能ではあるが、処理量が膨大になってしまうため、本実施形態では一次元のDPマッチングを用いている。   Here, as in the case of the alignment in the vertical direction, since there are differences in numerical value size and spacing between the numerical values, sufficient performance can not be obtained when using a fixed size template. Therefore, DP matching is used in which horizontal expansion and contraction are allowed. Although it is possible in principle to perform such DP matching in two dimensions, one-dimensional DP matching is used in the present embodiment because the processing amount becomes enormous.

図24は、DPマッチングを説明するための説明図である。標識内容認識部172は、例えば、「130」のテンプレートとDPマッチングを行い、図24のような結果を得る。ここでは、破線がDPマッチング前の認識対象領域370の輝度分布380を示し、実線がDPマッチング後の認識対象領域370の輝度分布382を示し、一点鎖線がテンプレートの輝度分布384を示している。DPマッチングでは、テンプレートの輝度分布384に合わせるように認識対象領域370の輝度分布380を伸縮させてマッチングを行う。したがって、図24を参照して理解できるように、伸縮前の認識対象領域370の輝度分布380とテンプレートの輝度分布384とは相関が低いが、伸縮後の認識対象領域370の輝度分布382とテンプレートの輝度分布384とは相関が高くなる。   FIG. 24 is an explanatory diagram for explaining the DP matching. The label content recognition unit 172 performs, for example, DP matching with the template of “130” to obtain a result as shown in FIG. Here, the broken line indicates the luminance distribution 380 of the recognition target area 370 before DP matching, the solid line indicates the luminance distribution 382 of the recognition target area 370 after DP matching, and the alternate long and short dash line indicates the luminance distribution 384 of the template. In DP matching, matching is performed by expanding and contracting the luminance distribution 380 of the recognition target area 370 so as to match the luminance distribution 384 of the template. Therefore, as can be understood with reference to FIG. 24, although the correlation between the luminance distribution 380 of the recognition target area 370 before expansion and contraction and the luminance distribution 384 of the template is low, the luminance distribution 382 of the recognition target area 370 after expansion and contraction and the template The correlation with the luminance distribution 384 is high.

ただし、ここでは、相関の高低に拘わらず、伸縮後の認識対象領域370の輝度分布382と複数のテンプレートの輝度分布384との全ての相関評価値を求める。具体的に、伸縮後の認識対象領域370の輝度分布382をim、テンプレートの数値(制限速度)をTとした場合に、標識内容認識部172は、伸縮後の相関評価値(差分の二乗和)であるDP(im,T)を、DP(im,10)〜DP(im,130)まで順次導出する。   However, here, all correlation evaluation values between the luminance distribution 382 of the recognition target area 370 and the luminance distribution 384 of the plurality of templates after expansion and contraction are obtained regardless of the level of the correlation. Specifically, when the luminance distribution 382 of the recognition target area 370 after expansion and contraction is im, and the numerical value (limit speed) of the template is T, the marker content recognition unit 172 determines the correlation evaluation value after expansion and contraction (square sum of differences ) Is derived sequentially from DP (im, 10) to DP (im, 130).

ただし、明らかにテンプレートと異なる候補に関しては、以降の処理を行わない。例えば、認識対象領域370の輝度分布382が「130」であるのに対し、2桁の「10」〜「90」はそもそも桁数が違うため、「10」〜「90」に対応するDP(im,10)〜DP(im,90)は相関が低くなる。したがって、DP(im,T)の値が閾値を上回る(相関が低い)テンプレートに関しては以降の処理を省略する。   However, for the candidate that is obviously different from the template, the subsequent processing is not performed. For example, while the luminance distribution 382 of the recognition target area 370 is “130”, the two-digit “10” to “90” originally have different numbers of digits, so DPs corresponding to “10” to “90” im, 10) to DP (im, 90) have a low correlation. Therefore, the subsequent processing is omitted for a template in which the value of DP (im, T) exceeds the threshold (the correlation is low).

(注目部位マッチング処理S358)
ここでは、数値の桁数に拘わらず、相関評価値DP(im,T)を求めたが、本実施形態のように予め数値の変化傾向が定まっている場合、2桁や3桁の数値全てにおいてマッチングを行うのは得策ではない。これは、例えば、「10」〜「90」の数値では、全ての数値で1桁目の「0」の部分が共通し、「100」〜「130」では、1桁目の「0」の部分と3桁目の「1」の部分が共通しているからである。したがって、その共通部分に関しては、いずれの数値も一致するため、全ての桁を対象にマッチングを行うと、相関評価値に差が生じ難くなる。
(Target part matching process S358)
Here, the correlation evaluation value DP (im, T) is obtained regardless of the number of digits of the numerical value, but when the tendency of change of the numerical value is determined in advance as in the present embodiment, all two-digit and three-digit numerical values It is not a good idea to perform matching in This is because, for example, in the numerical values of "10" to "90", the portion of "0" in the first digit is common to all the numerical values, and in the case of "100" to "130," the "0" in the first digit This is because the part and the part of "1" in the third digit are common. Therefore, with regard to the common part, since any numerical value is the same, when matching is performed for all the digits, a difference in the correlation evaluation value hardly occurs.

そこで、標識内容認識部172は、上述したように相関評価値DP(im,T)を求めるとともに、数値の形状に差が生じる2桁目のみをマッチングする。ただし、認識対象領域370の輝度分布382は、水平方向に伸縮されているので、認識対象領域370の輝度分布382のどの部分がテンプレートの輝度分布384のどの部分と一致しているかを導出しなければならない。したがって、標識内容認識部172は、テンプレートの2桁目の開始位置の水平座標TS(T)に相当する、認識対象領域370の輝度分布382の2桁目の開始位置に相当する水平座標DPR(im,T)を導出する。かかる水平座標は、DPマッチングにおいて特徴点を組み合わせる処理の履歴から求めることができる。具体的に、特徴点の組み合わせに関する情報(例えばルート)を予め記憶しておき、それを逆算することで水平座標を導出する。かかる構成によりDPマッチングの途中結果を利用して効率的に水平座標を求めることができる。このようなDPマッチングの具体的な手順については、既に様々な技術文献を通じて公開されているので、ここでは、その詳細な説明を省略する。   Therefore, the marker content recognition unit 172 finds the correlation evaluation value DP (im, T) as described above, and matches only the second digit that causes a difference in the shape of the numerical value. However, since the luminance distribution 382 of the recognition target area 370 is expanded and contracted in the horizontal direction, it is necessary to derive which part of the luminance distribution 382 of the recognition target area 370 matches which part of the luminance distribution 384 of the template. You must. Therefore, the marker content recognition unit 172 calculates the horizontal coordinate DPR (corresponding to the start position of the second digit of the luminance distribution 382 of the recognition target area 370) corresponding to the horizontal coordinate TS (T) of the start position of the second digit of the template. Derivate im, T). Such horizontal coordinates can be obtained from the history of processing for combining feature points in DP matching. Specifically, information (for example, a route) related to the combination of feature points is stored in advance, and the horizontal coordinate is derived by backward calculation. According to this configuration, horizontal coordinates can be efficiently obtained by using an intermediate result of DP matching. The specific procedure of such DP matching has already been disclosed through various technical documents, and thus the detailed description thereof is omitted here.

図25は、注目部位のマッチング処理を説明するための説明図である。上記のようにして2桁目の数値領域の開始位置に相当する水平座標が求まると、標識内容認識部172は、単純なテンプレートマッチングを行う。テンプレートマッチングには何の指標を用いてもよいが、たとえば差の絶対値和(SAD)を用いる。かかるマッチングの対象範囲は、図25の「130」の例に示すように、認識対象領域370の輝度分布382の開始位置に相当する水平座標DPR(im,T)、および、テンプレートの2桁目の開始位置に相当する水平座標TS(T)から、テンプレートの2桁目の数値の水平方向の長さ分とする。ここでは、既に水平方向の位置合わせが行われているので、位置をずらしたマッチングによる最適値探索等の処理を行う必要は無く、処理負荷が大幅に低減される。   FIG. 25 is an explanatory view for explaining the matching processing of the target portion. As described above, when the horizontal coordinate corresponding to the start position of the second digit numerical value area is obtained, the tag content recognition unit 172 performs simple template matching. Although any index may be used for template matching, for example, the sum of absolute differences (SAD) is used. The target range of the matching is, as shown in the example of “130” in FIG. 25, the horizontal coordinate DPR (im, T) corresponding to the start position of the luminance distribution 382 of the recognition target area 370, and the second digit of the template. From the horizontal coordinate TS (T) corresponding to the start position of, the horizontal length of the numerical value of the second digit of the template. Here, since alignment in the horizontal direction has already been performed, there is no need to perform processing such as optimum value search by matching with shifted positions, and the processing load is significantly reduced.

ただし、例えば、数値が2桁の場合と3桁の場合では、水平方向の長さ(数値の横幅)が異なるので、数値の横幅の違いがマッチングの結果に影響を及ぼすことがある。そこで、標識内容認識部172は、2桁目のDPマッチングの相関評価値TM(im,T)に、桁数の多い数値の認識対象領域370の横幅と桁数の少ない数値の認識対象領域370の横幅との比に応じて、テンプレート毎に予め定められた正規化係数を乗じることとする。例えば、2桁の数値と3桁の数値の横幅の比が3:2であれば、標識内容認識部172は、「100」〜「130」の2桁目の相関評価値TM(im,T)を導出した後、さらに、その値に3/2を乗じた結果をTM(im,T)とする。こうして、桁数に拘わらず、適切な評価を行うことができる。   However, for example, when the number is two digits and three digits, since the horizontal length (width of the number) is different, the difference in the width of the number may affect the matching result. Therefore, the tag content recognition unit 172 uses the second evaluation value TM (im, T) of the DP matching in the second digit, the horizontal width of the recognition target area 370 having a large number of digits, and the recognition target area 370 having a small number of digits. In accordance with the ratio to the width of, the template is multiplied by a predetermined normalization factor. For example, if the width ratio of the 2-digit numerical value to the 3-digit numerical value is 3: 2, the marker content recognition unit 172 evaluates the second digit correlation evaluation value TM (im, T) of "100" to "130". After deriving), the value obtained by multiplying the value by 3/2 is taken as TM (im, T). Thus, appropriate evaluation can be performed regardless of the number of digits.

(評価値判定処理S360)
続いて、標識内容認識部172は、テンプレート毎に求められた相関評価値DP(im,T)、2桁目の相関評価値TM(im,T)を用い、以下の数式5、6を通じてテンプレート毎の総合評価値E(im,T)を導出する。
総合評価値E(im,T)=DP(im,T)×TM(im,T)/F(im)…(数式5)
F(im)=max(min(TM(im,T)),th)…(数式6)
ここで、数値全体の相関はDP(im,T)で表現されるため、そのままの値を用い、2桁目の部分的な相関は他のテンプレートとの比較TM(im,T)/F(im)によって表現する。ここで、F(im)は、相関評価値の最小値min(TM(im,T))であるが、min(TM(im,T))の値が小さくなりすぎると総合評価値E(im,T)が発散するおそれがあるため、min(TM(im,T))が、所定の値thより小さくなると、F(im)として値thを採用する。
(Evaluation value determination processing S360)
Subsequently, the marker content recognition unit 172 uses the correlation evaluation value DP (im, T) obtained for each template and the correlation evaluation value TM (im, T) in the second digit, and uses the templates of Equations 5 and 6 below. The total evaluation value E (im, T) for each is derived.
Comprehensive evaluation value E (im, T) = DP (im, T) x TM (im, T) / F (im) ... (Equation 5)
F (im) = max (min (TM (im, T)), th) (6)
Here, since the correlation of the whole numerical value is expressed by DP (im, T), the value as it is is used, and the partial correlation of the second digit is compared with other templates TM (im, T) / F ( Expressed by im). Here, F (im) is the minimum value min (TM (im, T)) of the correlation evaluation value, but if the value of min (TM (im, T)) becomes too small, the comprehensive evaluation value E (im) , T) may diverge, so if min (TM (im, T)) becomes smaller than a predetermined value th, the value th is adopted as F (im).

図26は、評価判定結果を説明するための説明図である。ここでは、破線が相関評価値DP(im,T)を示し、一点鎖線が2桁目の相関評価値TM(im,T)を示し、実線が総合評価値E(im,T)を示している。図26を参照すると、「100」〜「130」について、数値の全ての桁でのマッチングでは本来の数値と他の数値との差が小さいが、2桁目のみのマッチングを加えることで、実際の数値である「130」のテンプレートとのマッチングの総合評価値E(im,T)が最小(相関が最大)となっているのが理解できる。なお、図26は説明の便宜のため、本来、計算が省略されるテンプレートも表示しており、また、「150」までのテンプレートを表示している。   FIG. 26 is an explanatory diagram for describing an evaluation determination result. Here, the broken line indicates the correlation evaluation value DP (im, T), the dashed-dotted line indicates the second digit correlation evaluation value TM (im, T), and the solid line indicates the comprehensive evaluation value E (im, T). There is. Referring to FIG. 26, for "100" to "130", the difference between the original numerical value and the other numerical values is small in matching in all digits of the numerical value, but adding the matching only in the second digit actually It can be understood that the integrated evaluation value E (im, T) of the matching with the template of “130” which is the numerical value of is the smallest (the correlation is the largest). Note that FIG. 26 also displays a template for which the calculation is originally omitted, and also displays templates up to “150” for the convenience of description.

このように、数値の全ての桁でのマッチングと、2桁目のみのマッチングとの2段階で行うことで、精度を向上するとともに、処理時間も削減可能となる。   As described above, the accuracy can be improved and the processing time can be reduced by performing the matching in all the digits of the numerical value and the matching of only the second digit.

(標識内容確定処理S206)
上記では、道路標識の内容が認識された。ただし、上述したように、道路標識を前方に確認可能な位置に到達した瞬間に道路標識を認識する必要は必ずしもなく、道路標識を通過した時点、もしくは、その後に認識できれば足りる。したがって、道路標識を複数のフレームに亘って認識し、その複数のフレームの情報から道路標識の内容を確定すればよい。そこで、標識内容確定部174は、このように1フレーム内で認識された道路標識の内容を時間方向に累積して確定する。
(Label contents determination processing S206)
Above, the contents of the road sign were recognized. However, as described above, it is not necessary to recognize the road sign at the moment when the road sign reaches the position where it can be confirmed forward, and it is sufficient if it can be recognized when passing the road sign or later. Therefore, the road sign may be recognized over a plurality of frames, and the contents of the road sign may be determined from the information of the plurality of frames. Therefore, the sign content determination unit 174 accumulates and determines the contents of the road sign recognized in one frame in this manner in the time direction.

ここでは、道路標識の内容を確定するために、標識累積ポイント、制限速度候補、標識無検出時間、制限速度出力の4つの変数を用いる。ここで、標識累積ポイントは、道路標識の1または複数の候補それぞれに設けられ、標識内容認識処理S204における種々の評価値(E(im,T)、DP(im,T)、TM(im,T))に応じたポイントを示す。制限速度候補は、制限速度の1の候補を示す。標識無検出時間は、いずれの道路標識も検出されていない連続時間を示す。制限速度出力は、制限速度候補のラッチに用いられる。制限速度候補によって制限速度出力が更新されると、かかる制限速度出力に値が保持されている間、その値を運転者に報知したり、車両制御装置130の制御入力として利用する。   Here, in order to determine the content of the road sign, four variables of a sign accumulation point, a speed limit candidate, a sign no detection time, and a speed limit output are used. Here, the sign accumulation point is provided for each of one or more candidates of the road sign, and various evaluation values (E (im, T), DP (im, T), TM (im, T) in the sign content recognition processing S 204 are provided. Indicate points according to T)). The speed limit candidate indicates one candidate for the speed limit. The marker non-detection time indicates a continuous time when no road sign is detected. The speed limit output is used to latch speed limit candidates. When the speed limit output is updated by the speed limit candidate, while the value is held in the speed limit output, the value is notified to the driver or used as a control input of the vehicle control device 130.

標識内容確定部174は、標識内容認識部172が導出した、制限速度の確からしさを評価する種々の評価値(E(im,T)、DP(im,T)、TM(im,T))を用い、以下の(1)〜(4)の条件に応じて標識累積ポイントを累積する。
(1)E(im,T)<ETHR1 & DP(im,T)<DTHR1 & TM(im,T)<TTHR1であれば+4ポイント
(2)(1)の条件を満たしておらず、かつ、E(im,T)<ETHR2 & DP(im,T)<DTHR2 & TM(im,T)<TTHR2であれば+2ポイント
ただし、ETHR1<ETHR2、DTHR1<DTHR2、TTHR1<TTHR2
(3)(1)の条件を満たしたテンプレートのうち、E(im,T)の最小値EMと、他の全てのテンプレートのE(im,T)との差が所定値以上の場合、最小値EMのテンプレートに+2ポイント
(4)(1)の条件を満たしたテンプレートのうち、E(im,T)の最小値EMと、他の1以上のテンプレートのE(im,T)との差が所定値(ETHR3)以内の場合、所定値以内となったテンプレート全てに+1ポイント
このように、(1)、(2)の条件によって基本的なポイントを加算し、(3)、(4)の条件によって他のテンプレートとの比較に基づくポイントを加算する。
The marker content determination unit 174 determines various evaluation values (E (im, T), DP (im, T), TM (im, T)) for evaluating the certainty of the speed limit derived by the marker content recognition unit 172. The marker accumulation point is accumulated according to the following conditions (1) to (4) using.
(1) If E (im, T) <ETHR1 & DP (im, T) <DTHR1 & TM (im, T) <TTHR1 + 4 points (2) (1) is not satisfied, and E (im, T) <ETHR2 & DP (im, T) <DTHR2 & TM (im, T) + 2 points if TTHR2 but ETHR1 <ETHR2, DTHR1 <DTHR2, TTHR1 <TTHR2
(3) Of the templates satisfying the condition of (1), the minimum value EM of E (im, T) and the difference between E (im, T) of all the other templates are at least a predetermined value. Among the templates satisfying the condition of +2 points (4) (1) in the template of value EM, the difference between the minimum value EM of E (im, T) and E (im, T) of one or more other templates Is within the predetermined value (ETHR3), +1 point is added to all the templates within the predetermined value. Thus, basic points are added according to the conditions of (1) and (2), (3) and (4) Add points based on comparison with other templates according to the condition of.

例えば、図26の例において、(1)〜(4)の条件を、ETHR1=80、ETHR2=100、ETHR3=5、DTHR1=80、DTHR2=100、TTHR1=100、TTHR2=150とすると、(1)の条件に基づいて「120」、「130」が+4ポイント、(2)の条件に基づいて「100」、「150」が+2ポイント、(3)の条件に基づいて「130」が+2ポイントとなる。これを総合すると、「130」が6ポイント、「120」が4ポイント、「100」、「150」が2ポイントとなり、他の数値は0ポイントとなる。なお、制限速度解除判定処理において制限速度を提示した道路標識と認識された場合は一律6ポイントとする。   For example, in the example of FIG. 26, assuming that the conditions (1) to (4) are ETHR1 = 80, ETHR2 = 100, ETHR3 = 5, DTHR1 = 80, DTHR2 = 100, TTHR1 = 100, and TTHR2 = 150 "120", "130" +4 points based on the condition 1), "100" and "150" +2 points based on the condition (2), "130" +2 points based on the condition (3) It becomes a point. In total, "130" is 6 points, "120" is 4 points, "100" and "150" are 2 points, and the other numerical values are 0 points. In addition, when it is recognized as a road sign which presented speed limit in the speed limit cancellation determination processing, it is uniformly 6 points.

標識内容確定部174は、このようにして求められた標識累計ポイントに基づいて、以下のように道路標識の内容を時間方向に累積して、最終的な出力を行う。   The sign content determination unit 174 performs final output by accumulating the contents of the road sign in the time direction as follows, based on the sign accumulated points thus obtained.

図27は、道路標識の結果報知の流れを示したタイムチャートである。標識内容確定部174は、フレーム毎に、検出された道路標識の候補全てに対して、それぞれ常に標識累積ポイントを累積する。そして、標識内容確定部174は、今回フレームの標識累積ポイントと前回フレームの標識累積ポイントとを比較して、ポイントが変化していなければ、図27(1)に示すように、今回フレームでは道路標識が検出されなかったとして標識無検出時間をインクリメントする。また、ポイントが変化していれば、図27(2)に示すように、今回フレームでは道路標識が検出されたとして標識無検出時間を0にリセットする。   FIG. 27 is a time chart showing the flow of notification of the result of a road sign. The sign content determination unit 174 always accumulates sign accumulation points for all the detected road sign candidates for each frame. Then, the sign content determination unit 174 compares the sign accumulation point of the current frame with the sign accumulation point of the previous frame, and if the point does not change, as shown in FIG. The label no detection time is incremented as no label is detected. Also, if the point has changed, as shown in FIG. 27 (2), it is reset that the marker non-detection time is 0, as the road marker is detected in this frame.

また、今回フレームで道路標識が検出されれば、標識内容確定部174は、図27(3)に示すように、複数の道路標識候補から標識累積ポイントが大きい上位から2つの道路標識候補の標識累計ポイントと、それぞれ認識された制限速度とを抽出する。この時点で、制限速度出力が新たに更新されることが確定するので、現在維持されている制限速度出力をリセットする。したがって、制限速度の報知は行われない。こうして前回の速度制限を不要に報知し続けるのを回避できる。   In addition, if a road sign is detected in the current frame, the sign content determination unit 174 is, as shown in FIG. 27 (3), signs of two road sign candidates from the top from a plurality of road sign candidates. Extract the accumulated points and the recognized speed limit. At this point, since it is determined that the speed limit output is newly updated, the currently maintained speed limit output is reset. Therefore, notification of the speed limit is not performed. In this way, it is possible to avoid continuing unnecessary notification of the previous speed limit.

標識内容確定部174は、標識累積ポイントの最大値が所定値(例えば8ポイント)を超えている場合、2番目に大きい標識累積ポイントとの差が所定値(例えば4ポイント)以上であれば、図27(4)に示すように、標識累積ポイントが最大値となっている道路標識の制限速度(例えば40)で、制限速度候補を更新する(出力候補として確定する)。こうして制限速度の候補が抽出される。所定値未満であれば、制限速度候補を「不定」に更新する。また、標識累積ポイントの最大値が所定値以下の場合、制限速度候補は更新しない。したがって、制限速度候補は「候補なし」を維持する。   When the maximum value of the sign accumulation points exceeds a predetermined value (for example, 8 points), the sign content determination unit 174 determines that the difference with the second largest sign accumulation point is a predetermined value (for example, 4 points) or more. As shown in FIG. 27 (4), the speed limit candidate is updated (fixed as an output candidate) at the speed limit (for example, 40) of the road sign at which the sign cumulative point is the maximum value. Thus, candidates for the speed limit are extracted. If it is less than the predetermined value, the speed limit candidate is updated to "undefined". Also, if the maximum value of the sign accumulation point is equal to or less than the predetermined value, the speed limit candidate is not updated. Therefore, the speed limit candidate maintains "no candidate".

そして、標識累積ポイントの変化がなくなった(道路標識を通過した)後、標識無検出時間が出力設定時間(例えば3秒)経過すると、図27(5)に示すように、標識内容確定部174は、制限速度候補が存在するか否か判定する。そして、制限速度候補が存在すれば、その制限速度候補(例えば40)で制限速度出力を更新し、制限速度の報知が再開する。こうして、道路標識の内容のノイズ的な入力を排除することができる。   Then, after the change in the sign accumulation point disappears (the road sign is passed) and the output setting time (for example, 3 seconds) elapses, the sign content determination unit 174 is performed, as shown in FIG. 27 (5). Determines whether there is a speed limit candidate. Then, if there is a speed limit candidate, the speed limit output is updated with the speed limit candidate (for example, 40), and notification of the speed limit is resumed. In this way, noisy input of the content of the road sign can be eliminated.

続いて、標識累積ポイントの変化がなくなった後、標識無検出時間が出力設定時間より長いリセット時間(例えば5秒)経過すると、図27(6)に示すように、標識内容確定部174は、次の道路標識の準備として、標識累積ポイントと制限速度候補をリセットする。こうして、新たな道路標識の認識のための準備を行う。   Subsequently, after the change in the marker accumulation point disappears, when the marker non-detection time elapses a reset time (for example, 5 seconds) longer than the output setting time, as shown in FIG. In preparation for the next road sign, reset the sign accumulation point and speed limit candidate. Thus, preparation is made for recognition of a new road sign.

続いて、標識累積ポイントの変化がなくなった後、標識無検出時間が報知上限時間(例えば10分)経過すると、図27(7)に示すように、標識内容確定部174は、制限速度出力をリセットする。こうして前回の速度制限を不要に報知し続けるのを回避できる。   Subsequently, after the change in the marker accumulated point disappears, when the marker non-detection time has passed the notification upper limit time (for example, 10 minutes), as shown in FIG. 27 (7), the marker content determination unit 174 outputs the limited speed. Reset. In this way, it is possible to avoid continuing unnecessary notification of the previous speed limit.

また、標識内容確定部174は、自車両1が左折中または右折中である(例えば舵角の絶対値が360度を超えている)と判断されると、標識累積ポイント、制限速度候補、制限速度出力を全てリセットする。これは、自車両1が左折または右折すると、走行する道路が変わるので、それまでに走行していた道路の制限速度が適用されなくなるからである。   In addition, when it is determined that the vehicle 1 is turning left or right (for example, the absolute value of the steering angle exceeds 360 degrees), the sign content determination unit 174 determines the sign accumulation point, the speed limit candidate, and the limit. Reset all speed outputs. This is because when the host vehicle 1 turns left or right, the road on which the vehicle travels changes, and the speed limit of the road that has been traveled by that time is not applied.

このように構成することで、標識内容確定部174は、道路標識を通過してから3秒後に制限速度を報知し、10分経過、右左折、または、他の道路標識を検出するまで制限速度を維持することができる。また、道路標識の内容のノイズ的な入力を排除し、道路標識の内容の特定精度を高めることが可能となる。   By configuring in this manner, the sign content determination unit 174 notifies the speed limit 3 seconds after passing the road sign, and until 10 minutes pass, a left turn, or another road sign is detected. Can be maintained. Moreover, it becomes possible to eliminate the noise-like input of the content of a road sign, and to improve the specification precision of the content of a road sign.

また、より実用性を上げるために以下の処理を付加的に行うこともできる。例えば、車両のレーンが複数ある場合に、ゲートに配置された道路標識では、レーン毎に制限速度が異なることがある。本実施形態では、認識する道路標識の数を3つ以内に制限しているので、このようにレーン毎に制限速度が異なる場合、異なる道路標識それぞれの標識累積ポイントが存在することになる。仮にそれぞれの道路標識で正しい制限速度のみが累積されたとすると、いずれの制限速度も標識累積ポイントが例えば6ポイントとなる。そうすると、適切にポイントが累積されているにも拘わらず、上記の判定では制限速度候補が「不定」に更新されてしまう。   Also, the following processing can be additionally performed to further enhance the practicability. For example, in the case of a plurality of lanes of the vehicle, the road sign arranged at the gate may have different speed limits for each lane. In the present embodiment, since the number of road signs to be recognized is limited to three or less, when the speed limit differs for each lane as described above, a sign accumulation point for each of the different road signs is present. Assuming that only the correct speed limit is accumulated for each road sign, the sign accumulation point is, for example, 6 points in any speed limit. Then, in the above determination, the speed limit candidate is updated to "indefinite" even though the points are appropriately accumulated.

そこで、本実施形態では、標識内容確定部174は、標識累計ポイントが有意な値である道路標識の候補が1フレームにおいて一度に複数あった場合、それぞれの水平距離xを導出し、いずれか1の道路標識の水平距離xが閾値(例えば3m)未満であり、他の道路標識が閾値以上であれば、1の道路標識に1ポイント加算し、他の道路標識は1ポイント減算する。こうして、自車両1に最も近い道路標識の制限速度を優先的に制限速度候補とすることができる。   Therefore, in the present embodiment, the sign content determination unit 174 derives each horizontal distance x when there are a plurality of road sign candidates having significant sign accumulated points at one time in one frame, and any one of them is 1 If the horizontal distance x of the road sign is less than a threshold (for example, 3 m) and the other road sign is equal to or more than the threshold, 1 point is added to the road sign and 1 point is subtracted from the other road sign. In this way, the speed limit of the road sign closest to the host vehicle 1 can be prioritized as the speed limit candidate.

(国毎の道路標識の違い)
図28は、国別の道路標識の表示態様を示した説明図である。図28(a)のドイツの制限速度を提示した道路標識と、図28(b)のスイスの制限速度を提示した道路標識とを比較して理解できるように、制限速度を提示した道路標識は国により数値の大きさ、形状、数値間の距離が異なる場合がある。また、図28(c)のドイツの制限速度の解除を提示した道路標識と、図28(d)のイタリアの制限速度の解除を提示した道路標識とを比較して理解できるように、斜線の角度が異なる場合がある。
(Difference of road sign every country)
FIG. 28 is an explanatory view showing a display mode of a road sign according to country. The road sign presenting the speed limit is such that it can be understood by comparing the road sign presenting the German speed limit of FIG. 28 (a) with the road sign presenting the Swiss speed limit of FIG. 28 (b) The size, shape, and distance between numbers may differ from country to country. In addition, the road sign indicating the release of the German speed limit in FIG. 28 (c) can be understood by comparing it with the road sign presenting the release of the Italian speed limit in FIG. 28 (d). The angles may be different.

そこで、標識内容確定部174は、上記のように道路標識の内容を時間方向に累積して確定するのと並行して、制限速度候補がいずれの国の道路標識であるかを判定する。そして、現在走行している国を正しく把握し、その国のテンプレートを用いて制限速度等を適切に認識する。   Therefore, the sign content determination unit 174 determines which country's road sign the speed limit candidate is in parallel with determining and accumulating the contents of the road sign in the time direction as described above. Then, correctly grasp the country where you are currently traveling, and use the template of that country to properly recognize the speed limit, etc.

図29は道路標識のテンプレートを説明するための説明図である。国判定処理は、基本的に、各国毎のテンプレートを用いて実行する。したがって、図29のように各国(A国〜Z国)毎と各制限速度(「10」〜「150」)毎の二次元に配列されたテンプレートが準備される。なお、制限速度の解除を提示した道路標識については、テンプレートの代わりに斜線の角度情報を保持する。また、標識検出処理S202における半径nや標識内容認識処理S204におけるN値化の閾値(所定%)等の情報も国別に保持されている。   FIG. 29 is an explanatory view for explaining a template of a road sign. The country determination process is basically performed using a template for each country. Therefore, as shown in FIG. 29, templates arranged in two dimensions for each country (country A to country Z) and each speed limit ("10" to "150") are prepared. In addition, as for the road sign for which release of the speed limit has been presented, angle information of oblique lines is held instead of the template. In addition, information such as the radius n in the marker detection process S202 and the threshold (predetermined%) of N-value conversion in the marker content recognition process S204 is also held by country.

ここで、当該車外環境認識システム100がナビゲーションシステムと連動している場合、そのナビゲーションシステムから得られる現在国情報によりテンプレートを切り替えればよいが、ナビゲーションシステムと連動していない場合、以下のような手順により、国判定を行う。   Here, when the external environment recognition system 100 is linked with the navigation system, the template may be switched according to the current country information obtained from the navigation system, but when it is not linked with the navigation system, the following procedure Make a country decision.

なお、国判定処理は、リアルタイム性の要求が低いため、認識対象領域の画像を1度取得すると、それをテンポラリーの画像メモリに一時的に保持し、フレーム毎の車外環境認識処理終了後の空き時間で、フレームを跨いで処理を遂行する。また、ここでは、国を判定するために、変数として、国の1または複数の候補それぞれに設けられる国別累計ポイントを用いる。標識内容確定部174は、所定のタイミングで、テンポラリーの画像メモリ領域、および、国別累積ポイントを初期化する。   In the country determination process, since the request for real-time performance is low, once the image of the recognition target area is acquired, it is temporarily stored in the temporary image memory, and the space after the outside environment recognition process for each frame ends. Perform processing across frames in time. Also, here, in order to determine a country, a country-by-country cumulative point provided for each of one or more country candidates is used as a variable. The labeled content determination unit 174 initializes a temporary image memory area and a country-by-country cumulative point at a predetermined timing.

国判定処理において、標識内容確定部174は、今回フレームで、既に国判定処理が実行されているか否か判定する。その結果、既に国判定処理が実行されていれば、その処理を継続し、前回の国判定処理が完了していれば、新たに国判定処理を開始する。かかる国判定処理は、上記のように、空き時間で行われるため、処理の途中でフレームの規定処理時間に到達した場合は処理を一時停止し、次回フレームで続きを行う。   In the country determination process, the label content determination unit 174 determines whether the country determination process has already been performed in the current frame. As a result, if the country determination process has already been executed, the process is continued, and if the previous country determination process is completed, the country determination process is newly started. Since the country determination process is performed in the idle time as described above, when the specified process time of a frame is reached in the middle of the process, the process is paused and the next frame is continued.

そして、標識内容確定部174は、今回フレームの上述した標識内容確定処理S206において、道路標識の1または複数の候補において、1の制限速度(複数の道路標識で同じ場合も含む)のみが標識累計ポイントを得ているか否か判定する。その結果、道路標識が検出されなかったり、複数の道路標識で複数の制限速度についてポイントが得られている等、1の道路標識の制限速度のみが標識累計ポイントを得ていない場合、今回フレームの処理を終了し、次回フレームで当該標識累計ポイントの判定を繰り返す。   Then, in the above-described sign content determination process S206 of the present frame, the sign content determination unit 174 determines that only one speed limit (including the same case among a plurality of road signs) is accumulated in one or more road sign candidates. Determine if you are earning points. As a result, if no road sign is detected, or if only one road sign's speed limit has not obtained a sign cumulative point, such as when points are obtained for a plurality of speed limits with a plurality of road signs, The process is ended, and the determination of the sign accumulated point is repeated in the next frame.

続いて、標識内容確定部174は、1の制限速度のみが標識累計ポイントを得ている場合、その制限速度の認識結果を制限速度Vとし、認識対象領域370の画像をテンポラリーの画像メモリに記憶する。ここで、候補となっている複数の道路標識全てについて制限速度Vが標識累計ポイントを得ている場合、総合評価値E(im,V)が一番低い(相関が最大となる)候補の認識対象領域370の画像を記憶する。ここで記憶する画像は標識検出処理S202の終了後の水平所定画素×垂直所定画素の矩形に正規化された占有領域346である。   Subsequently, when only the speed limit of 1 obtains marker accumulated points, the sign content determination unit 174 sets the recognition result of the speed limit as the speed limit V and stores the image of the recognition target area 370 in the temporary image memory. Do. Here, in the case where the speed limit V has obtained the sign cumulative point for all of the plurality of road signs that have become candidates, recognition of a candidate with the lowest overall evaluation value E (im, V) (the correlation is maximized) The image of the target area 370 is stored. The image stored here is an occupied area 346 normalized to a rectangle of horizontal predetermined pixels × vertical predetermined pixels after completion of the marker detection processing S202.

次に、標識内容確定部174は、画像メモリに記憶された占有領域の画像に基づき、各国の制限速度Vのテンプレートに対して標識内容認識処理S204を実行する。すなわち、上述した標識内容認識処理S204では、図29のテンプレートにおいて破線で示すように、1の国に関する各制限速度Tのテンプレートを用いていたところ、ここでは、図29のテンプレートにおいて実線で示すように、1の制限速度Vに関する各国のテンプレートを用いることとなる。したがって、国の識別子をCN、制限速度をVとした場合、総合評価値E(im,T)の代わりに、総合評価値E(CN,V)を導出することとなる。かかる処理でテンプレートとして準備している国分の評価値E(CN、V)を得ることができる。   Next, based on the image of the occupied area stored in the image memory, the marker content determination unit 174 executes the marker content recognition process S204 on the template of the speed limit V of each country. That is, in the sign content recognition processing S204 described above, as shown by the broken line in the template of FIG. 29, the template of each speed limit T for one country is used, but here, as shown by the solid line in the template of FIG. Then, the template of each country regarding the speed limit V of 1 will be used. Therefore, when the national identifier is CN and the speed limit is V, the comprehensive evaluation value E (CN, V) is derived instead of the comprehensive evaluation value E (im, T). In this process, it is possible to obtain an evaluation value E (CN, V) of the national weight prepared as a template.

ただし、本実施形態においては、現在認識している国とその他の評価値E(CN,V)に対して重み付けを異ならせる。例えば、標識内容確定部174は、現在認識している国の評価値E(CN,V)にのみ重み付け係数(例えば1以下の0.8)を乗じる。これは、現在認識している国の評価値E(CN,V)を相対的に低くし(相関を大きくし)国判定の結果に、ハンチングが生じないようにするためである。また、現在認識している国に隣接する国を把握している場合、その隣接している国にも重み付け係数(例えば0.8以上1以下の0.95)を乗じるとしてもよい。   However, in the present embodiment, the weighting is made different for the currently recognized country and the other evaluation values E (CN, V). For example, the tag content determination unit 174 multiplies only the evaluation value E (CN, V) of the currently recognized country by a weighting factor (for example, 0.8 of 1 or less). This is to make the evaluation value E (CN, V) of the currently recognized country relatively low (increase the correlation) so that hunting does not occur in the result of the country determination. In addition, when a country adjacent to the currently recognized country is known, the adjacent country may also be multiplied by a weighting factor (for example, 0.95 greater than or equal to 0.8 and less than or equal to 1).

標識内容確定部174は、このようにして導出された全ての国に関する評価値E(CN,V)を比較して最小値ECMを導出する。そして、最小値ECMと他の全てのテンプレートの評価値E(CN,V)との差が所定値以上となれば、最小値ECMのテンプレートの国別累計ポイントに+1を加算する。   The tag content determination unit 174 compares the evaluation values E (CN, V) of all the countries thus derived to derive the minimum value ECM. Then, when the difference between the minimum value ECM and the evaluation values E (CN, V) of all the other templates becomes equal to or more than a predetermined value, +1 is added to the country cumulative point of the minimum value ECM template.

続いて、標識内容確定部174は、国別累計ポイントの最大値と、他の全ての国別累計ポイントとを比較し、その差が所定値(例えば30)以上あれば、最大値となった国が現在認識している国と等しいか否か判定する。その結果、最大値となった国と現在認識している国とが等しければ、全ての国別累計ポイントに1/2を乗じ、公正な判断のため全体的な標識累計ポイントを下げる。また、最大値となった国と現在認識している国とが異なっていれば、走行している国が変わったと判定して、現在認識している国を最大値となった国に更新し、テンポラリーの画像メモリ領域、および、国別累積ポイントを初期化する。また、国別累計ポイントの最大値と、他の全ての国別累計ポイントとの差が所定値未満であれば、テンポラリーの画像メモリ領域を初期化して、次回フレームで当該標識累計ポイントの判定を繰り返す。   Subsequently, the sign content determination unit 174 compares the maximum value of the country-by-country cumulative points with all other country-by-country cumulative points, and when the difference is equal to or more than a predetermined value (for example, 30), the maximum value is obtained. Determine whether the country is equal to the currently recognized country. As a result, if the country with the maximum value and the country currently recognized are equal, all the country cumulative points are multiplied by 1⁄2 to reduce the overall marker cumulative points for fair judgment. Also, if the country with the highest value is different from the country currently recognized, it is determined that the country you are driving has changed, and the country currently recognized is updated with the country with the highest value. , Temporary image memory area, and country cumulative points are initialized. In addition, if the difference between the maximum value of accumulated points by country and the accumulated points by all other countries is less than a predetermined value, the temporary image memory area is initialized, and the judgment of the relevant accumulated points in the next frame is performed. repeat.

このように、現在走行している国を適切に判定することで、道路標識の内容の特定精度を高めることができる。また、以上の国判定処理を、1の国の道路標識の認識処理のアンダーグラウンドで実行することで、処理負荷の増大を抑制することが可能となる。   As described above, by appropriately determining the country in which the vehicle is currently traveling, it is possible to enhance the accuracy in identifying the contents of the road sign. Moreover, it becomes possible to suppress increase of processing load by performing the above-mentioned country judging processing under the recognition processing of a road sign of one country.

以上、説明したように、本実施形態の車外環境認識装置120では、処理負荷の増大を抑制しつつ、道路標識の内容の認識精度を向上することが可能となる。   As described above, in the outside environment recognition apparatus 120 according to the present embodiment, it is possible to improve the recognition accuracy of the content of the road sign while suppressing an increase in the processing load.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   In addition, a program that causes a computer to function as the environment recognition device outside the vehicle 120 and a computer readable flexible disk, a magneto-optical disk, a ROM, a CD, a DVD, a BD, and other storage media storing the program are also provided. Here, the program refers to data processing means described in any language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   Although the preferred embodiments of the present invention have been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to such embodiments. It is obvious that those skilled in the art can conceive of various changes or modifications within the scope of the claims, and it is naturally understood that they are also within the technical scope of the present invention. Be done.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each process of the outside environment recognition process of the present specification does not necessarily have to be processed in chronological order according to the order described as the flowchart, and may include processes in parallel or by a subroutine.

本発明は、路上に設置された道路標識の内容を認識する車外環境認識装置に利用することができる。   The present invention can be used for an external environment recognition device that recognizes the contents of a road sign installed on a road.

120 車外環境認識装置
160 画像取得部
162 位置情報導出部
164 特徴点特定部
166 投票部
168 標識特定部
170 標識補正部
172 標識内容認識部
174 標識内容確定部
120 Vehicle outside environment recognition device 160 Image acquisition unit 162 Position information derivation unit 164 Feature point identification unit 166 Voting unit 168 Sign identification unit 170 Sign correction unit 172 Sign content recognition unit 174 Sign content determination unit

Claims (1)

画像を取得する画像取得部と、
前記画像を用い、エッジ強度が所定値以上となる画素を特徴点として特定する特徴点特定部と、
前記特徴点に基づいて円形状の道路標識を特定する標識特定部と、
特定された前記道路標識の内容を認識する標識内容認識部と、
を備え、
前記特徴点特定部は、
前記画像の上方から順に前記特徴点を特定していき、特定された特徴点数が予め決められた規定数以上になると、該特徴点の特定を中止し、
特定された特徴点数が所定の特徴点上限値を超えていれば、前記所定値を大きくし、特定された特徴点数が所定の特徴点下限値未満であれば、該所定値を小さくして、エッジ強度との次回の比較に用いることを特徴とする車外環境認識装置。
An image acquisition unit for acquiring an image;
A feature point identification unit that identifies pixels having edge strengths equal to or greater than a predetermined value as feature points using the image;
A sign identification unit that identifies a circular road sign based on the feature points;
A sign content recognition unit that recognizes the contents of the identified road sign;
Equipped with
The feature point identification unit
The feature points are specified sequentially from the upper side of the image, and when the specified number of feature points becomes equal to or more than a predetermined number determined in advance, the specification of the feature points is stopped.
If the identified feature score exceeds the predetermined feature point upper limit, the predetermined value is increased, and if the identified feature score is less than the predetermined feature point lower limit, the predetermined value is decreased. An outside environment recognition device characterized in that it is used for next comparison with edge strength.
JP2018081648A 2018-04-20 2018-04-20 Outside environment recognition device Active JP6527617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018081648A JP6527617B2 (en) 2018-04-20 2018-04-20 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081648A JP6527617B2 (en) 2018-04-20 2018-04-20 Outside environment recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014070491A Division JP6329413B2 (en) 2014-03-28 2014-03-28 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2018120629A JP2018120629A (en) 2018-08-02
JP6527617B2 true JP6527617B2 (en) 2019-06-05

Family

ID=63043922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081648A Active JP6527617B2 (en) 2018-04-20 2018-04-20 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6527617B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022030901A (en) 2020-08-07 2022-02-18 富士通株式会社 Apparatus and program for extracting circular sign candidate

Also Published As

Publication number Publication date
JP2018120629A (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP5961207B2 (en) Outside environment recognition device
JP5499011B2 (en) Outside environment recognition device and outside environment recognition method
US9117115B2 (en) Exterior environment recognition device and exterior environment recognition method
JP5880703B2 (en) Lane marking indicator, driving support system
JP6317607B2 (en) Outside environment recognition device
JP2012173879A (en) Traffic signal detection apparatus and program therefor
JP5065172B2 (en) Vehicle lighting determination device and program
JP2009043068A (en) Traffic light recognition system
JP6339840B2 (en) Outside environment recognition device
KR20130003308A (en) Method of lane detection for vehicle
JP5353531B2 (en) Vehicle light recognition device and program
JP6527617B2 (en) Outside environment recognition device
JP6243780B2 (en) Outside environment recognition device
JP5189556B2 (en) Lane detection device
JP7229032B2 (en) External object detection device
JP6339839B2 (en) Outside environment recognition device
JP6348747B2 (en) Outside environment recognition device
JP6993205B2 (en) Compartment line identification device
JP6280418B2 (en) Outside environment recognition device
JP2010286995A (en) Image processing system for vehicle
Chen et al. Robust rear light status recognition using symmetrical surfs
JP6329413B2 (en) Outside environment recognition device
JP6247584B2 (en) Outside environment recognition device
JP4842301B2 (en) Pedestrian detection device and program
JP2014010765A (en) Mobile object detector, image type sensor, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R150 Certificate of patent or registration of utility model

Ref document number: 6527617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250