JP2915067B2 - Target area identification method in image processing - Google Patents

Target area identification method in image processing

Info

Publication number
JP2915067B2
JP2915067B2 JP2112988A JP11298890A JP2915067B2 JP 2915067 B2 JP2915067 B2 JP 2915067B2 JP 2112988 A JP2112988 A JP 2112988A JP 11298890 A JP11298890 A JP 11298890A JP 2915067 B2 JP2915067 B2 JP 2915067B2
Authority
JP
Japan
Prior art keywords
area
value
boundary
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2112988A
Other languages
Japanese (ja)
Other versions
JPH0410080A (en
Inventor
義秋 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2112988A priority Critical patent/JP2915067B2/en
Publication of JPH0410080A publication Critical patent/JPH0410080A/en
Application granted granted Critical
Publication of JP2915067B2 publication Critical patent/JP2915067B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理において対象領域と背景領域との境
界を求めて対象領域を抽出する対象領域識別方法に関す
るものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a target area identifying method for extracting a target area by finding a boundary between a target area and a background area in image processing.

〔従来の技術〕[Conventional technology]

自動車の自律走行には、画像処理による走行路判別の
技術が必要とされている。従来、画像分割領域から道路
端や走行コースを求めるには、得らえた走行コース領域
と背景領域との境界を逐次追跡して境界線に対応する点
列群を求めることにより行われていた。つまり、走行路
領域の境界部に位置する画素をこの境界に沿って一つ一
つ逐次追跡し、この追跡の跡を点列群とし、この点列群
に基づいて道路端を判断していた。
Autonomous traveling of an automobile requires a technology for discriminating a traveling route by image processing. Conventionally, a road edge or a running course is obtained from an image division area by sequentially tracking the boundary between the obtained running course area and the background area to obtain a point sequence group corresponding to the boundary line. That is, the pixels located at the boundary of the travel road area are sequentially tracked one by one along this boundary, and the trace of this tracking is used as a point sequence, and the road edge is determined based on the point sequence. .

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

このため、従来の走行領域の境界端を求める方法にお
いては、求まる点列群の数が多くなる。従って、走行路
領域の境界を多角形で近似し、余分な点を間引く必要が
あり、処理に時間がかかる。また、画像処理の結果得ら
れる走行路領域の境界は滑らかなものであれば良いが、
実際にはこの境界の形状が複雑になる。従って、複数の
領域について境界の画素を逐次追跡することにより得ら
れるデータは大量になり、この結果、処理に時間がかか
る。このように処理時間がかかると自立走行の自動走行
に支障を来たすことになる。
For this reason, in the conventional method for determining the boundary end of the traveling area, the number of point sequence groups to be determined increases. Therefore, it is necessary to approximate the boundary of the travel road area with a polygon and to thin out extra points, which takes time. Also, the boundary of the traveling road area obtained as a result of the image processing may be smooth,
In practice, the shape of this boundary becomes complicated. Therefore, a large amount of data can be obtained by sequentially tracking the boundary pixels in a plurality of areas, and as a result, the processing takes time. If the processing time is long as described above, the automatic running of the self-sustaining running is hindered.

〔課題を解決するための手段〕[Means for solving the problem]

本発明はこのような課題を解消するためになされたも
ので、画像分割された各領域にラベル付けされた画像を
一定方向の区分線により区分し、一定方向に直交する方
向のリストを区分線毎に作成し、区分線に沿って画像走
査して各領域のラベル値の変化点を識別することにより
区分線と各領域の境界線との交点に位置する境界点を求
めて一定方向におけるリストを境界点毎に作成し、各領
域のラベル値の接続関係に基づいて一定方向における区
分線に沿った境界点の属性を求めて一定方向のリストに
属性を記述し、各領域のラベル値の接続関係に基づいて
一定方向に直交する方向における分割領域の境界線に沿
った境界点の属性を求めて一定方向のリストに属性を記
述し、各リストに記述された属性に基づいて一定方向に
直交する方向のリストの連結長さを求め、長さが所定長
さ以上のリストに対応する境界点の点列を対象領域の境
界に該当するものと判断し、対象領域の境界を識別する
ものである。
The present invention has been made in order to solve such a problem, and divides an image labeled in each area obtained by dividing an image by a dividing line in a certain direction, and displays a list in a direction orthogonal to the certain direction as a dividing line. Created for each area, scan the image along the dividing line, identify the changing point of the label value of each area, find the boundary point located at the intersection of the dividing line and the boundary line of each area, and list in a certain direction Is created for each boundary point, the attribute of the boundary point along the dividing line in a certain direction is obtained based on the connection relationship of the label value of each area, and the attribute is described in a list in a certain direction. Based on the connection relationship, the attribute of the boundary point along the boundary of the divided area in the direction orthogonal to the fixed direction is obtained, the attribute is described in a list in a certain direction, and in a certain direction based on the attribute described in each list. Squirrel in orthogonal direction Seeking a connection length of the one in which the length is determined that corresponds to the boundary of the target region sequence of points of the boundary points corresponding to the list of predetermined length or more, to identify the boundary of the target area.

〔作用〕[Action]

リストに記述された属性により、各領域の境界点の連
結関係が構造化されたストラクチャにおいて表現され、
このストラクチャから対象領域の境界が識別される。
By the attributes described in the list, the connection relationship of the boundary points of each area is expressed in a structured structure,
From this structure, the boundaries of the region of interest are identified.

〔実施例〕〔Example〕

本発明の一実施例によるカラー画像処理装置における
対象領域識別方法を、自律走行車の走行制御に適用した
場合について以下に説明する。本実施例の方法により、
走行車の走行コースは自動的に認識され、走行車は認識
された走行コースに基づいてステアリングの操舵角やエ
ンジンへの燃料噴出量などを決定し、自律走行する。
A case where the target area identification method in the color image processing apparatus according to one embodiment of the present invention is applied to traveling control of an autonomous traveling vehicle will be described below. According to the method of the present embodiment,
The traveling course of the traveling vehicle is automatically recognized, and the traveling vehicle determines the steering angle of the steering, the amount of fuel injected to the engine, and the like based on the recognized traveling course, and travels autonomously.

第45図は本実施例によるカラー画像処理装置全体の概
略構成を示すブロック図である。
FIG. 45 is a block diagram showing a schematic configuration of the entire color image processing apparatus according to the present embodiment.

カラー画像処理装置は、道路情報を撮像するカラーカ
メラ101と、撮像されたRGB情報をISH変換するISH変換部
102と、ISH変換された画像情報から道路候補領域等を抽
出するカラー処理部103と、カラー処理された画像につ
いてラベリング処理を施すラベリングハード部104と、
ラベリングされた画像領域について併合処理等を実行す
るCPU処理部105とに大別される。ISH変換部102は、カラ
ーカメラ入力ボード,ISH変換ボードおよびフィルタ等に
よって構成されている。
The color image processing apparatus includes a color camera 101 that captures road information and an ISH conversion unit that performs ISH conversion of the captured RGB information.
102, a color processing unit 103 that extracts a road candidate region or the like from the ISH-converted image information, a labeling hardware unit 104 that performs a labeling process on the color-processed image,
It is broadly divided into a CPU processing unit 105 that executes a merging process or the like on the labeled image area. The ISH conversion unit 102 includes a color camera input board, an ISH conversion board, a filter, and the like.

第2図はこのカラー画像処理装置における画像処理方
法を示す概略のフローチャートである。
FIG. 2 is a schematic flowchart showing an image processing method in the color image processing apparatus.

カラーカメラ101により道路画像106がRGB情報として
取り込まれ、ISH変換部102において明度(I),彩度
(S),色相(H)の各画像に変換される(ステップ20
1)。これら各画像を基にしてカラー処理部103において
走行コースの基になる道路候補領域が抽出される(ステ
ップ202)。ここで、CPUのステータスレジスタにある低
輝度のしきい値存在フラグがオンしているか否かを判断
する(ステップ203)。このフラグは取り込まれた原画
像に影や変色部分などの低輝度領域が有るか否かを示す
フラグであり、フラグがオンしていればカラー処理部10
3において低輝度領域が抽出される(ステップ204)。抽
出された道路候補領域および低輝度領域はラベリングハ
ード部104においてラベル付けされ、各領域間の接続関
係が判断される。この判断結果に基づき、各領域が併合
すべき関係にある場合にはCPU処理部105においてマージ
(併合)処理が実行される(ステップ205)。
The road image 106 is fetched as RGB information by the color camera 101, and is converted into brightness (I), saturation (S), and hue (H) images in the ISH conversion unit 102 (step 20).
1). On the basis of these images, the color processing unit 103 extracts a road candidate area serving as a basis of the traveling course (step 202). Here, it is determined whether or not the low-luminance threshold value flag in the status register of the CPU is turned on (step 203). This flag indicates whether or not the captured original image has a low-luminance area such as a shadow or a discolored portion.
In 3, a low-luminance area is extracted (step 204). The extracted road candidate area and low-luminance area are labeled in the labeling hardware unit 104, and the connection relationship between the areas is determined. On the basis of this determination result, when the respective areas are in a relationship to be merged, the CPU processing unit 105 executes a merge (merge) process (step 205).

次に、CPUのステータスレジスタにある高輝度のしき
い値存在フラグがオンしているか否かを判断する(ステ
ップ206)。ステップ203において低輝度のしきい値存在
フラグがオンしていない場合には、直ちにこのステップ
206の処理が実行される。この高輝度のしきい値存在フ
ラグは、取り込まれた原画像に日向や変色部分などの高
輝度領域が有るか否かを示すフラグであり、フラグがオ
ンしていればカラー処理部103において高輝度領域が抽
出される(ステップ207)。抽出された道路候補領域お
よび高輝度領域はラベリングハード部104においてラベ
ル付けされ、各領域間の接続関係が判断される。この判
断結果に基づき、各領域が併合すべき関係にある場合に
はCPU処理部105においてマージ(併合)処理が実行され
る(ステップ208)。
Next, it is determined whether or not the high luminance threshold value presence flag in the status register of the CPU is turned on (step 206). If the low luminance threshold existence flag is not turned on in step 203, this step
Step 206 is executed. The high-luminance threshold value presence flag is a flag indicating whether or not the captured original image has a high-luminance area such as a sunlit area or a discolored part. A luminance area is extracted (step 207). The extracted road candidate area and high-luminance area are labeled in the labeling hardware unit 104, and the connection relationship between the areas is determined. On the basis of this determination result, when the respective areas are in a relationship to be merged, the CPU processing unit 105 executes a merge (merge) process (step 208).

このようにして併合された道路候補領域に基づき、領
域の左右の境界端、つまり、道路端の境界線が点列とし
て求められる。この点列情報により、今回撮像された原
画像に基づく走行コースが認識される(ステップ20
9)。この後、ステップ201の処理に戻り、自律走行車の
移動に伴って引き続いて得られる画像情報について上記
と同様な処理が繰り返し実行され、自律走行車の走行制
御が実行される。
Based on the thus merged road candidate areas, the left and right boundary edges of the area, that is, the road edge boundary lines are obtained as a point sequence. The running course based on the original image captured this time is recognized based on the point sequence information (step 20).
9). Thereafter, the process returns to step 201, and the same processing as described above is repeatedly executed for the image information subsequently obtained along with the movement of the autonomous traveling vehicle, and the traveling control of the autonomous traveling vehicle is executed.

次に、以上の処理内容について、第45図に示されたカ
ラー処理装置の構成図に基づいてより詳しく説明する。
Next, the above processing content will be described in more detail based on the configuration diagram of the color processing apparatus shown in FIG.

カラーカメラ101は自律走行車の車体に固定して設置
してあり、このカラーカメラ101には走行車の前方に位
置する道路画像106がRGB情報として撮像される。ISH変
換部102の変換処理部107には、このRGB情報が与えられ
る。この変換処理部107において、後に詳述する「ROMテ
ーブルを用いたカラー画像のISH変換処理」が実行さ
れ、RGBの道路画像情報は明度(I)画像108,彩度
(S)画像109および色相(H)画像110の各画像情報に
変換される。
The color camera 101 is fixedly installed on the body of the autonomous traveling vehicle, and the color camera 101 captures a road image 106 located in front of the traveling vehicle as RGB information. The RGB information is given to the conversion processing unit 107 of the ISH conversion unit 102. In this conversion processing unit 107, “ISH conversion processing of a color image using a ROM table” which will be described in detail later is executed, and the RGB road image information is converted into a brightness (I) image 108, a saturation (S) image 109, and a hue. (H) It is converted into each image information of the image 110.

明度画像108は道路候補領域抽出手段111に与えられ、
後に詳述する「テンプレート画像を用いた繰返しきい値
処理による走行コースの抽出手法」により、明度画像に
基づく道路候補領域画像113が抽出される。また、彩度
画像109は道路候補領域抽出手段112に与えられ、上記と
同様の手法により、彩度画像に基づく道路候補領域114
が抽出される。この手法における領域区分のためのしき
い値は、後に詳述する「繰返しきい値処理における特徴
量ヒストグラムの形状に基づくしきい値設定手段」によ
り決定される。求められた各道路候補領域画像113,114
は論理積演算手段115に与えられ、明度および彩度から
得られた各道路候補領域の共通部分が取り出され、カラ
ー情報に基づく新たな道路候補領域画像116になる。
The brightness image 108 is given to the road candidate area extracting means 111,
The road candidate area image 113 based on the brightness image is extracted by a “running course extraction method using repeated threshold processing using a template image” described in detail later. The saturation image 109 is given to the road candidate area extracting means 112, and the road candidate area 114 based on the saturation image is processed in the same manner as described above.
Is extracted. The threshold value for the area division in this method is determined by “threshold setting means based on the shape of the feature amount histogram in the repeated threshold processing” described later. Obtained road candidate area images 113 and 114
Is given to the logical product operation means 115, the common part of each road candidate area obtained from the brightness and the saturation is extracted, and a new road candidate area image 116 based on the color information is obtained.

また、明度画像108から抽出した道路候補領域に低輝
度領域が繋がっている場合には、CPUのステータスレジ
スタ117に有る低輝度のしきい値存在フラグがオンす
る。このフラグがオンしている場合に、低輝度領域抽出
手段118は明度画像108を取り込む。そして、後に詳述す
る「明るさの違いに注目した走行コースからの影や高輝
度部分の抽出部分」により、低輝度領域を抽出する。抽
出された低輝度領域は低輝度画像119になる。この低輝
度領域画像119は、論理積演算手段120において、彩度画
像109から抽出された道路候補領域画像114と論理積が取
られ、低輝度領域のうちで道路候補領域と似た彩度の領
域が抽出される。抽出されたこの低輝度領域の画像情報
は、道路候補領域画像116に加えられる。
When a low-luminance area is connected to the road candidate area extracted from the brightness image 108, the low-luminance threshold value flag in the status register 117 of the CPU is turned on. When this flag is on, the low-luminance area extraction means 118 takes in the brightness image 108. Then, a low-brightness area is extracted by “extraction of a shadow or a high-brightness portion from a traveling course focusing on a difference in brightness” which will be described in detail later. The extracted low luminance area becomes a low luminance image 119. The low-luminance area image 119 is logically ANDed with the road candidate area image 114 extracted from the saturation image 109 by the AND operation means 120, and the low-luminance area has a saturation similar to that of the road candidate area. The region is extracted. The extracted image information of the low luminance region is added to the road candidate region image 116.

また、明度画像108に高輝度領域が存在している場合
には、カラー処理部のステータスレジスタ117にある高
輝度のしきい値存在フラグがオンする。このフラグがオ
ンしている場合に、高輝度領域抽出手段121は明度画像1
08を取り込む。そして、後に詳述する「明るさの違いに
注目した走行コースからの影や高輝度部分の抽出手段」
により、高輝度領域を抽出する。抽出された高輝度領域
は高輝度領域画像122になる。この高輝度領域画像122
は、論理積演算手段123において、彩度画像109から抽出
された道路候補領域画像114と論理積が取られ、高輝度
領域のうちで道路候補領域と似た彩度の領域が抽出され
る。抽出されたこの高輝度領域の画像情報は、道路候補
領域画像116に加えられる。
When a high-luminance area exists in the brightness image 108, a high-luminance threshold value flag in the status register 117 of the color processing unit is turned on. When this flag is on, the high-luminance area extraction means 121
Capture 08. Then, “extraction means for shadows and high-luminance parts from the traveling course focusing on the difference in brightness” described in detail later
, A high-luminance area is extracted. The extracted high luminance area becomes the high luminance area image 122. This high brightness area image 122
In the logical product calculating means 123, a logical product is taken with the road candidate region image 114 extracted from the chroma image 109, and a region having a similar chroma to the road candidate region is extracted from the high luminance regions. The extracted image information of the high luminance area is added to the road candidate area image 116.

上記各手段により、道路候補領域画像116には、画素
値1の道路候補領域画像113,画像値2の低輝度領域画像
119および画素値3の高輝度領域画像122が含まれる。
By the above means, the road candidate area image 116 has a road candidate area image 113 having a pixel value of 1 and a low luminance area image having an image value of 2
119 and a high-luminance area image 122 having a pixel value of 3 are included.

道路候補領域画像116はラベリング処理部124に与えら
れる。ラベリング処理部124は与えられた画像の各領域
にラベル付けをし、ラベル画像126を作成する。また、
これと同時に、ラベリング処理部124は同一ラベル領域
の面積や重心などを演算する。これらの各演算値はラベ
リング処理部124に対応した演算値125になる。このラベ
リング処理は、後に詳述する「ラベリング処理装置」に
よって実行される。
The road candidate area image 116 is provided to the labeling processing unit 124. The labeling processing unit 124 labels each area of the given image to create a label image 126. Also,
At the same time, the labeling processing unit 124 calculates the area and the center of gravity of the same label area. Each of these operation values becomes an operation value 125 corresponding to the labeling processing unit 124. This labeling processing is executed by a “labeling processing device” described in detail later.

CPUはラベル画像126を小領域除去手段127に取り込
む。ここで、ノイズ等によって生じた小領域や地平線位
置より重心が上に位置する領域は、道路領域に該当する
ものではないものとし、これら領域は各ラベル画像の中
から除去される。小領域除去手段127により、道路候補
領域から小領域が除去されたラベル画像は、新たなラベ
ル画像128になる。また、各領域に付けられたラベル毎
の演算値125(特徴量)の内、小領域除去手段127によっ
て除去されなかった各領域の特徴量はリスト1に記述さ
れる。
The CPU fetches the label image 126 into the small area removing unit 127. Here, it is assumed that a small region caused by noise or the like or a region whose center of gravity is located above the horizon does not correspond to a road region, and these regions are removed from each label image. The label image from which the small area has been removed from the road candidate area by the small area removing means 127 becomes a new label image 128. Also, of the calculation values 125 (feature values) for each label attached to each region, the feature value of each region that has not been removed by the small region removal means 127 is described in List 1.

リスト1に記憶された特徴量129,ラベル画像128,道路
面積116に基づいて、道路候補領域画像の各ラベル領域
と低輝度領域画像の各ラベル画像、および道路候補領域
画像の各ラベル領域と高輝度領域画像の各ラベル画像が
併合すべき関係にある場合には、領域併合手段130にお
いて併合処理が実行され、新たなラベル画像131がメモ
リ1に記憶される。以上の併合処理は、後に詳述する
「複数の領域の併合手段」により実行される。
Based on the feature amount 129, the label image 128, and the road area 116 stored in the list 1, each label region of the road candidate region image, each label image of the low luminance region image, and each label region of the road candidate region image and the high When the respective label images of the luminance area images are in a relation to be merged, the area merging means 130 executes the merging process, and the new label image 131 is stored in the memory 1. The above merging process is executed by "merging means for a plurality of areas" described later in detail.

最終的に得られたラベル画像131に基づいて道路領域
の左右端の道路位置座標132が演算される。この道路端
位置座標132に基づき、道路端に相当する点列データ133
が求まる。この道路端を求める処理は、後に詳述する
「走行可能範囲を求める手段」、並びに本発明の特徴で
ある「多様な形状の走行コースの内部表現手法」により
実行される。この点列データ133は、自立走行車の走行
制御のための画像処理データ統括管理を行うデータ管理
部へ送出され、カラー画像処理が終了する。
Road position coordinates 132 at the left and right ends of the road area are calculated based on the finally obtained label image 131. Based on the road end position coordinates 132, point sequence data 133 corresponding to the road end
Is found. The process of obtaining the road edge is executed by "means for obtaining a travelable range" described later in detail, and by "an internal representation method of a running course of various shapes" which is a feature of the present invention. The point sequence data 133 is sent to a data management unit that performs overall management of image processing data for traveling control of the autonomous traveling vehicle, and the color image processing ends.

次に、カラーカメラで撮像して得られたRGBデータ
を、明度I,彩度S,色相Hの各データに変換する「ROMテ
ーブルを用いたカラー画像のISH変換処理」について、
第3図を用いて以下に説明する。
Next, regarding the “ISH conversion processing of a color image using a ROM table” for converting RGB data obtained by imaging with a color camera into respective data of lightness I, saturation S, and hue H,
This will be described below with reference to FIG.

まず、カラーカメラから原画像301をRGBデータとして
入力する。原画像301にはRGBの各データが混在している
ため、RGBデータの各成分を分離する。そして、分離し
た各RGBデータをR画像メモリ302,G画像メモリ303およ
びB画像メモリ304の3つの各画像メモリに各々別個に
記憶する。これら各R,G,B画像メモリ302〜304は8ビッ
トの階調を持った複数の画素値から構成されており、次
のようにISH変換される。
First, an original image 301 is input as RGB data from a color camera. Since the RGB image data is mixed in the original image 301, each component of the RGB data is separated. Then, each of the separated RGB data is separately stored in each of the three image memories of the R image memory 302, the G image memory 303, and the B image memory 304. Each of these R, G, B image memories 302 to 304 is composed of a plurality of pixel values having 8-bit gradation, and is subjected to ISH conversion as follows.

まず、8ビットの各RGBデータを読み出す際に上位の
6ビットのみを読みだし、下位2ビットを切り捨てる。
つまり、上位6ビットをとることにより、8階調の画素
値を6階調の画素値に近似する。この上位6ビットによ
る数値は16進数で00〜3F(hex)の間で変化する(切り
捨てた下位2ビットを考慮すると00〜FC(hex)の間で
変化する)。また、この上位6ビットの値を40(hex)
で割った数値をそれぞれR,G,B値とする。これらR,G,Bの
各値は実数の0から約1までの範囲で変化する。
First, when reading each of the 8-bit RGB data, only the upper 6 bits are read, and the lower 2 bits are discarded.
That is, by taking the upper 6 bits, the pixel value of 8 gradations is approximated to the pixel value of 6 gradations. The numerical value of the upper 6 bits varies between 00 and 3F (hex) in hexadecimal (changes between 00 and FC (hex) considering the truncated lower 2 bits). The value of the upper 6 bits is 40 (hex).
The R, G, and B values are the values divided by. Each of these values of R, G, and B changes in the range from a real number of 0 to about 1.

R,G,Bの各値を(R+G+B)で割った値をそれぞれ
r,g,bとすると、R,G,B値からI,S,H値への変換は次式に
従って行われる。ここで、min(r,g,b)は、r,g,bの各
特徴量のうちの最少の値を持つ特徴量の値を示す。
Each value of R, G, B divided by (R + G + B)
Assuming r, g, b, the conversion from the R, G, B values to the I, S, H values is performed according to the following equation. Here, min (r, g, b) indicates the value of the feature value having the minimum value among the feature values of r, g, and b.

I=(R+G+B)/3 …(1) S=1−(1/3)・min(r,g,b) H=1/2+(1/π)・arctan{(3)1/2・(g−b)/(2r−g−b)} この変換はラスタスキャン順にR,G,Bの各画素毎に行
われ、変換された各I,S,H値は全て0から1までの値と
る実数となる。ROM305にはRGBから明度Iへの変換テー
ブルデータ、ROM306にはRGBから彩度Sへの変換テーブ
ルデータ、ROM307にはRGBから色相Hへの変換テーブル
データが記憶されている。これら各ROM305〜307はルッ
クアップテーブルとして機能する。また、各ROM305〜30
7にデータが記憶されるアドレスは、変換前の各R,G,B値
の8ビットの数値のうち、上位6ビットの数値によって
定まる。なお、各ROM305〜307の記憶容量は18ビット
(=256Kバイト)である。
I = (R + G + B) / 3 (1) S = 1− (1/3) · min (r, g, b) H = 1/2 + (1 / π) · arctan {(3) 1/2 · ( gb) / (2r-gb)} This conversion is performed for each pixel of R, G, and B in raster scan order, and the converted I, S, and H values are all values from 0 to 1. It is a real number. The ROM 305 stores conversion table data from RGB to lightness I, the ROM 306 stores conversion table data from RGB to saturation S, and the ROM 307 stores conversion table data from RGB to hue H. Each of these ROMs 305 to 307 functions as a look-up table. In addition, each ROM 305-30
The address at which the data is stored in 7 is determined by the upper 6 bits of the 8-bit numerical values of the R, G, B values before conversion. The storage capacity of each of the ROMs 305 to 307 is 18 bits (= 256 Kbytes).

ROM305,306に記憶された各特徴量はCPUからの取り込
み命令に応じて明度データ308,彩度データ309として即
座に読み出され、必要とされる画像処理にリアルタイム
に供給される。また、ROM307から読み出された色相デー
タ310の特徴量は、さらに、3×3平均値フィルタ311に
よってノイズが除去されて平均化される。このため、各
画像処理に供される色相データ312は平滑化されたノイ
ズのないデータとなる。また、読み出された各特徴量デ
ータ(明度308,彩度309,色相310および312)は下位2ビ
ットが0で、上位6ビットが有効な8ビットの近似デー
タである。
Each feature amount stored in the ROMs 305 and 306 is immediately read out as brightness data 308 and saturation data 309 in response to a fetch instruction from the CPU, and is supplied in real time to required image processing. Further, the feature amount of the hue data 310 read from the ROM 307 is further averaged by removing noise by a 3 × 3 average value filter 311. Therefore, the hue data 312 provided for each image processing is smoothed and noise-free data. Each of the read feature amount data (brightness 308, saturation 309, hue 310 and 312) is 8-bit approximate data in which the lower 2 bits are 0 and the upper 6 bits are valid.

次に、本アルゴリズムを用いたIHS変換処理例につい
て、本アルゴリズムを用いないIHS変換処理例と比較し
つつ、第4図〜第7図を参照して説明する。
Next, an example of the IHS conversion processing using the present algorithm will be described with reference to FIGS. 4 to 7 while comparing with an IHS conversion processing example not using the present algorithm.

各図の(a)はカラーカメラに撮像された原画像の概
略である。つまり、第4図(a)は走行路が遠方でカー
ブする情景を示し、走行路の片側にはガードレールが設
置されており、このガードレールの遠方には樹木が生い
茂っている。第5図(a)は走行路端が雑草等によって
区画されている走行路を示し、遠方には住居や樹木等が
ある情景になっている。第6図(a)は夜間の高速道路
における走行路を示し、路面は月明りおよび照明燈によ
ってわずかな光が照らされている情景になっている。第
7図(a)は天気の良い日中の走行路を示し、走行路上
にはブロック塀の中にある樹木による影ができている情
景になっている。
(A) of each figure is an outline of an original image captured by a color camera. That is, FIG. 4 (a) shows a scene in which the traveling path curves far away, and a guardrail is installed on one side of the traveling path, and trees are overgrown in the far side of the guardrail. FIG. 5 (a) shows a traveling road where the traveling road edge is partitioned by weeds or the like, and the scene includes a house, trees, and the like in the distance. FIG. 6 (a) shows a road on a highway at night, where the road surface is a scene lit by moonlight and a small amount of light by a lamp. FIG. 7 (a) shows a daytime running path in good weather, and the roadway is shaded by trees in a block wall.

また、第4図から第7図の各図の(b−1)および
(b−2)は明度Iを特徴量とするヒストグラム、各図
の(c−1)および(c−2)は彩度Sを特徴量とする
ヒストグラム、各図の(d−1)および(d−2)は3
×3平均値フィルタ311にかける前の色相H′を特徴量
とするヒストグラム、各図の(e−1)および(e−
2)は3×3平均値フィルタ311にかけた後の色相Hを
特徴量とするヒストグラムである。
4B to 7B, (b-1) and (b-2) are histograms using the lightness I as a feature amount, and (c-1) and (c-2) in each of FIGS. The histogram in which the degree S is a feature amount, (d-1) and (d-2) of each figure are 3
A histogram using the hue H ′ before being applied to the × 3 average value filter 311 as a feature amount, (e-1) and (e−
2) is a histogram having the hue H after being subjected to the 3 × 3 average value filter 311 as a feature amount.

各ヒストグラムの縦軸は各特徴量の画素数を示し、全
画面の1/4を最大としている。また、各ヒストグラムの
横軸は明度I、彩度S、色相H′,Hの各特徴量の度合い
を示す。この各特徴量の度合いは原点から遠ざかる程強
まるように表示されており、0〜FF(hex)の各数値に
割り当てられた各特徴量の度合いを64分割して表示して
ある。また、原画像の画素数は512×512より若干少なく
なっている。これは画像周辺部にはR,G,Bの各データが
全て0の部分があるためであり、各ヒストグラムはこの
部分を含んだデータ値により表されているからである。
The vertical axis of each histogram indicates the number of pixels of each feature amount, with 1/4 of the entire screen being the maximum. The horizontal axis of each histogram indicates the degree of each feature amount of lightness I, saturation S, and hue H ′, H. The degree of each feature amount is displayed so as to increase as the distance from the origin increases, and the degree of each feature amount assigned to each numerical value of 0 to FF (hex) is divided into 64 and displayed. The number of pixels of the original image is slightly smaller than 512 × 512. This is because the R, G, and B data all have a portion of 0 in the peripheral portion of the image, and each histogram is represented by a data value including this portion.

また、各図の(b−1),(c−1),(d−1),
(e−1)は従来手法に基づいて得られたヒストグラム
であり、各画像メモリにCPUが直接アクセスし、R,G,Bデ
ータを変換式に従ってI,S,Hデータに変換することによ
り得られたものである。これに対して各図の(b−
2),(c−2),(d−2),(e−2)は本実施例
の手法によるアルゴリズムに基づいて得られたヒストグ
ラムであり、ROMに6ビット階調のRGBデータからI,S,H
の各特徴量への変換テーブルを記憶し、これを読み出す
ことにより得られたものである。
Also, (b-1), (c-1), (d-1),
(E-1) is a histogram obtained based on the conventional method, which is obtained by the CPU directly accessing each image memory and converting the R, G, B data into I, S, H data according to a conversion formula. It is a thing. In contrast, (b-
2), (c-2), (d-2), and (e-2) are histograms obtained based on the algorithm according to the method of the present embodiment. S, H
This is obtained by storing a conversion table for each feature amount and reading out the conversion table.

第4図〜第7図の各(b−1),(b−2)および各
(c−1),(c−2)に示されるように、明度Iおよ
び彩度Sについては、本手法によるヒストグラム分布と
従来手法によるヒストグラム分布とには大差がないこと
が分かる。このことは、RGBデータをISHデータに変換す
る本手法による機能は、従来手法による変換機能に比較
して劣る面がないことを示している。一方、各図の(d
−1),(d−2)に示される3×3平均値フィルタ31
1にかける前の特徴量である色相H′のヒストグラム分
布は、従来手法と本手法とでは全体的な傾向が変わって
いる。これは本例に用いたような画像では、RGBデータ
から色相Hへ変換する式の中の(g−b)および(2r−
g−b)の値は0付近の極めて限定された値しか取らな
いため、本手法によるデータの6ビットへの圧縮により
情報が極端に離散化してしまったことに起因する。
As shown in each of (b-1) and (b-2) and each of (c-1) and (c-2) in FIGS. 4 to 7, the brightness I and the saturation S It can be seen that there is no significant difference between the histogram distribution according to the conventional method and the histogram distribution according to the conventional method. This indicates that the function of converting RGB data to ISH data by the present method has no inferior aspect to the conversion function by the conventional method. On the other hand, (d) of each figure
-1), 3 × 3 average value filter 31 shown in (d-2)
The overall distribution of the histogram distribution of the hue H ′, which is the feature value before the multiplication by 1, is different between the conventional method and the present method. This is because (gb) and (2r-) in the expression for converting the RGB data to the hue H in the image used in this example.
Since the value of g-b) takes only a very limited value near 0, the information is extremely discretized by the compression of the data into 6 bits by the present method.

しかし、この色相H′を3×3平均値フィルタ311に
かけることにより得られるヒストグラム分布は、各図の
(e−1),(e−2)に示されるように、従来手法に
よる分布に十分対応するものになっている。色相データ
の計算値はRGBデータの小さな雑音によって容易に変化
する不安定な値であり、また、色相の画像には非常に大
きなノイズがある。このため、本手法のように、色相変
換の計算値結果について何等かの平滑化を行うことは妥
当な処理であり、この平滑化を行うことにより特徴量を
6ビットに圧縮して処理しても何等問題は生じないこと
が理解される。なお、色相の計算値は雑音によって容易
に変化する不安定な値であるからこそ、色相H′のデー
タを平均値フィルタに通すことにより、従来手法による
ヒストグラム分布と同様な分布が得られた。
However, the histogram distribution obtained by applying the hue H ′ to the 3 × 3 average value filter 311 is not enough for the distribution according to the conventional method as shown in (e-1) and (e-2) of each figure. It is corresponding. The calculated value of the hue data is an unstable value that easily changes due to small noise in the RGB data, and the hue image has very large noise. Therefore, it is appropriate to perform some kind of smoothing on the calculation value result of the hue conversion as in the present method, and by performing this smoothing, the feature amount is compressed to 6 bits and processed. It is understood that no problem occurs. Since the calculated value of the hue is an unstable value that easily changes due to noise, the same distribution as the histogram distribution by the conventional method was obtained by passing the data of the hue H ′ through an average filter.

このように、ROM305〜307をルックアップテーブルと
して用いてI,S,Hの各特徴量を予め変換処理することに
より、従来のように処理が必要とされる度毎に各画像メ
モリにCPUがアクセスして演算する必要は無くなる。こ
の結果、本実施例によるデータ変換の際の演算処理速度
はビデオレートで高速に実行することが可能となり、処
理速度が向上する。また、上述のR,G,BデータからI,S,H
データへの変換式が変わっても、同一のハードウエアに
よって対処することが可能である。つまり、この変換式
の変更が与える影響は、ROM305〜307の記憶内容の変化
だけである。このため、ハードウエアは変換式の変更に
よっては変化しない。また、R,G,Bの各画素値を6ビッ
トに圧縮したため、ハードウエアの量を小さくすること
が可能になる。さらに、ルックアップテーブルから色相
Hを読み出す際に3×3平均値フィルタ311を通すこと
により、データを6ビットに圧縮したことによる悪影
響、例えば、ヒストグラムの離散化等を防ぐことができ
る。
As described above, by performing the conversion process on each of the I, S, and H feature amounts in advance by using the ROMs 305 to 307 as a look-up table, the CPU is stored in each image memory every time processing is required as in the related art. There is no need to access and perform calculations. As a result, the arithmetic processing speed at the time of data conversion according to the present embodiment can be executed at a high video rate, and the processing speed is improved. Also, from the R, G, B data described above, I, S, H
Even if the conversion formula for data changes, it can be dealt with by the same hardware. In other words, the effect of the change of the conversion formula is only the change of the storage contents of the ROMs 305 to 307. Therefore, the hardware is not changed by changing the conversion formula. Also, since each pixel value of R, G, B is compressed to 6 bits, the amount of hardware can be reduced. Further, when the hue H is read from the look-up table, the data is passed through the 3 × 3 average value filter 311, so that the adverse effect of compressing the data to 6 bits, for example, the discretization of the histogram can be prevented.

次に、「繰返しきい値処理における特徴量ヒストグラ
ムの形状に基づくしきい値設定手段」について説明す
る。この手段は走行路領域を抽出するカラー画像処理の
前処理として行われる。
Next, “threshold setting means based on the shape of the feature amount histogram in the repetitive threshold processing” will be described. This means is performed as a pre-process of the color image processing for extracting the travel road area.

第8図はこの処理過程の概略を示すフローチャートで
あり、走行車両に設置されたカラーカメラから得られた
原画像データのコントラストが低い場合における処理を
示す。
FIG. 8 is a flowchart showing the outline of this processing, and shows the processing when the contrast of the original image data obtained from the color camera installed in the traveling vehicle is low.

まず、カメラから得られた原画像のRGBデジタル画像
データを基にして色の特徴量(明度または彩度)に対す
る頻度を表すヒストグラムを作成する。このヒストグラ
ムの横軸は色の特徴量(明度または彩度),縦軸は特徴
量の頻度に設定する、このヒストグラムは原画像のコン
トラストが低いため、ヒストグラムの原点側に偏って分
布する。また、コントラストの低い画像はモードが単峰
形になり易く、明確な谷が発生しない。このため、一般
的には各画素値について所定の演算を行って画像強調を
行った後にヒストグラムを作成するのであるが、本手法
の場合には、ヒストグラムのデータ上でこのヒストグラ
ムを横軸方向に単に引き伸ばすことにより、画像強調を
行う(ステップ801)。
First, a histogram representing a frequency with respect to a color feature (brightness or saturation) is created based on RGB digital image data of an original image obtained from a camera. The horizontal axis of this histogram is set to the color feature (lightness or saturation), and the vertical axis is set to the frequency of the feature. Since the contrast of the original image is low, the histogram is distributed toward the origin of the histogram. On the other hand, an image having a low contrast tends to have a single-peak mode, and a clear valley does not occur. For this reason, in general, a histogram is created after performing an image enhancement by performing a predetermined operation on each pixel value. In the case of this method, however, the histogram is expressed in the horizontal axis direction on the histogram data. Image enhancement is performed by simply stretching (step 801).

そして、強調されたヒストグラムの左端処理(ステッ
プ802)、および右端処理(ステップ803)を実行する。
次に、ヒストグラムの頻度の分布状態から特徴量に対す
る頻度の大きい仮の頂上(ピーク)、および特徴量に対
する頻度の小さい仮の谷をピーク・谷テーブル上に設定
する(ステップ804)。求まった仮の谷の頻度に基づい
て谷の評価をこのテーブル上で行う(ステップ805)。
さらに、この谷に隣接するピークに基づいて再度谷の評
価をテーブル上で行う(ステップ806)。最後に、評価
されたピーク・谷テーブルの平滑化を行い、ピークと谷
の相対関係から領域区分の対象領域とこの背景領域との
区分に有効な谷を抽出する(ステップ807)。
Then, the left end processing (step 802) and the right end processing (step 803) of the emphasized histogram are executed.
Next, from the frequency distribution state of the histogram, a temporary peak (peak) having a high frequency for the feature value and a temporary valley having a low frequency for the feature value are set on the peak / valley table (step 804). The valleys are evaluated on this table based on the obtained temporary valley frequencies (step 805).
Further, the valley is evaluated again on the table based on the peak adjacent to the valley (step 806). Finally, the evaluated peak / valley table is smoothed, and a valley effective for the division between the target region of the region division and the background region is extracted from the relative relationship between the peak and the valley (step 807).

一方、上記の処理に並行してステップ801で作成され
たヒストグラムに対して大津の判別分析法を適用し、こ
の判別分析法による領域区分しきい値を得る。そして、
得られたしきい値とステップ807で抽出された谷の位置
とを比較し、しきい値の近傍に位置する谷の頻度を真の
しきい値とし、大津の判別分析法によるしきい値を補正
する。
On the other hand, in parallel with the above processing, the Otsu's discriminant analysis method is applied to the histogram created in step 801 to obtain a region segmentation threshold value by this discriminant analysis method. And
The obtained threshold value is compared with the position of the valley extracted in step 807, and the frequency of the valley located near the threshold value is set as a true threshold value. to correct.

次に、各処理の詳細について以下に説明する。 Next, details of each process will be described below.

ステップ804における仮のピークおよび仮の谷の設定
は次のように行われる。つまり、特徴量に対する頻度の
分布状態を基にして仮のピークおよび谷を判断する。具
体的には、ヒストグラム上の着目点の左右の隣接点の頻
度により、ピークおよび谷の状態は第9図(a)〜
(f)に図示される6通りの状態に分けられる。ここ
で、ヒストグラム上の着目点をhi(添字のiはヒストグ
ラムの横軸に添ってN個の点を均等に割り振った時の任
意の1点を意味し、0〜N−1の値とする)、着目点hi
より特徴量が小さい隣接点をhi−1、着目点hiより特徴
量が大きい隣接点をhi+1とする。また、着目点hiと隣
接点hi−1との各頻度の差をピッチpi1(pi1=hi−hi−
1)、隣接点hi+1と着目点hiとの各頻度の差をピッチ
pi2(pi2=hi+1−hi)とする。
The setting of the temporary peak and the temporary valley in step 804 is performed as follows. That is, provisional peaks and valleys are determined based on the frequency distribution state for the feature amount. Specifically, the states of the peaks and valleys are shown in FIG.
The state is divided into six states shown in FIG. Here, the point of interest on the histogram is hi (the subscript i means an arbitrary point when N points are evenly allocated along the horizontal axis of the histogram, and has a value of 0 to N-1). ), Attention point hi
An adjacent point having a smaller feature amount is defined as hi-1, and an adjacent point having a larger feature amount than the target point hi is defined as hi + 1. Further, the difference between the frequencies of the point of interest hi and the adjacent point hi-1 is represented by the pitch pi1 (pi1 = hi-hi-
1) pitch difference between each frequency of adjacent point hi + 1 and point of interest hi
pi2 (pi2 = hi + 1-hi).

i=1〜N−2の範囲(ヒストグラムの両端点は除
く)において、ピーク・谷テーブル値pktiを以下のよう
に設定する。すなわち、pi1の符号とpi2の符号が異なる
時、 (1) pi1≧0、かつ、pi2≦0ならば、テーブル値pk
ti=1 (2) pi1≦0、かつ、pi2≧0ならば、テーブル値pk
ti=−1 第9図(a)は、pi1>0、かつ、pi2=0の状態であ
り、従ってテーブル値pkti=1である。同図(b)は、
pi1>0、かつ、pi2<0の状態であり、従ってテーブル
値pkti=1である。同図(c)は、pi1=0、かつ、pi2
<0の状態であり、従ってテーブル値pkti=1である。
同図(d)は、pi1<0、かつ、pi2=0の状態であり、
従ってテーブル値pkti=−1である。同図(e)は、pi
1<0、かつ、pi2>0の状態であり、従ってテーブル値
pkti=−1である。同図(f)は、pi1=0、かつ、pi2
>0の状態であり、従ってテーブル値pkti=−1であ
る。
In the range of i = 1 to N−2 (excluding both end points of the histogram), the peak / valley table value pkti is set as follows. That is, when the sign of pi1 is different from the sign of pi2, (1) If pi1 ≧ 0 and pi2 ≦ 0, the table value pk
ti = 1 (2) If pi1 ≦ 0 and pi2 ≧ 0, the table value pk
ti = -1 FIG. 9 (a) shows a state where pi1> 0 and pi2 = 0, and therefore the table value pkti = 1. FIG.
pi1> 0 and pi2 <0, so that the table value pkti = 1. FIG. 3C shows that pi1 = 0 and pi2
<0, therefore the table value pkti = 1.
FIG. 6D shows a state where pi1 <0 and pi2 = 0.
Therefore, the table value pkti = -1. (E) of FIG.
1 <0 and pi2> 0, therefore the table value
pkti = -1. FIG. 7F shows that pi1 = 0 and pi2
> 0 and therefore the table value pkti = -1.

このようにして隣接する各点の相対的な各頻度の関係
から、同図(a),(b),(c)の状態はpkti=1で
あると演算され、着目点hiは仮のピークと判断される。
同図(d),(e),(f)の状態はpkti=−1である
と演算され、着目点hiは仮の谷と判断される。
In this way, from the relation of the relative frequencies of the adjacent points, the states of FIGS. 7A, 7B, and 7C are calculated to be pkti = 1, and the point of interest hi is a temporary peak Is determined.
In the states shown in FIGS. 4D, 4E and 4F, it is calculated that pkti = −1, and the point of interest hi is determined to be a temporary valley.

また、ステップ805における頻度による谷の評価処理
は次のように行われる。つまり、i=1〜N−2におい
て着目点hiが仮のピークであるとき(pkti=1)、 (1) 隣接点hjと着目点hiとの比が0.1より小さい(h
j/hi<0.1)隣接点hjが着目点hiの左側にあるならば、
隣接点hjに対応するテーブル値pktjを−1にする(pktj
=−1)。
In addition, the valley evaluation processing based on the frequency in step 805 is performed as follows. That is, when the point of interest hi is a temporary peak at i = 1 to N-2 (pkti = 1), (1) the ratio between the adjacent point hj and the point of interest hi is smaller than 0.1 (h
j / hi <0.1) If the adjacent point hj is on the left side of the point of interest hi,
The table value pktj corresponding to the adjacent point hj is set to −1 (pktj
= -1).

(2) 隣接点hmと着目点hiとの比が0.1より小さい(h
m/hi<0.1)隣接点hmが着目点hiの右側にあるならば、
隣接点hmに対応するテーブル値pktmを−1にする(pktm
=−1)。
(2) The ratio between the adjacent point hm and the point of interest hi is smaller than 0.1 (h
m / hi <0.1) If the adjacent point hm is to the right of the point of interest hi,
Set the table value pktm corresponding to the adjacent point hm to -1 (pktm
= -1).

また、ステップ806における隣接ピークに基づく谷の
評価処理は次のように行われる。
The valley evaluation processing based on the adjacent peak in step 806 is performed as follows.

i=0〜N−1において、 (1) 着目点hiが仮の谷の時(pkti=−1)、 谷の左側の仮のピーク(隣接点hk、テーブル値pktk=
1)をtopLと呼ぶことにする。
When i = 0 to N−1, (1) When the point of interest hi is a temporary valley (pkti = −1), a temporary peak on the left side of the valley (neighboring point hk, table value pktk =
Let 1) be called topL.

谷の右側の仮のピーク(隣接点hj,テーブル値pktj=
1)をtopRと呼ぶことにする。
A temporary peak on the right side of the valley (neighboring point hj, table value pktj =
Let 1) be called topR.

(2) 着目点hiにtopLおよびtopRが共に存在する時、 着目点hiとtopLとの比l(l=hi/topL)が着目点hi
とtopRとの比r(r=hi/topR)より小さければ(l<
r)、テーブル値pktjに1を加算する。
(2) When topL and topR are both present at the point of interest hi, the ratio l (l = hi / topL) between the point of interest hi and topL is the point of interest hi
If it is smaller than the ratio r between r and topR (r = hi / topR), (l <
r), add 1 to the table value pktj.

比l(hi/topL)が比r(hi/topR)より大きければ
(l≧r)、テーブル値pktkに1を加算する。
If the ratio l (hi / topL) is larger than the ratio r (hi / topR) (l ≧ r), 1 is added to the table value pktk.

(3) 着目点hiにtopLおよびtopRが共に存在し、か
つ、比l<0.5、または比r<0.5ならば、着目点hiに対
応するテーブル値pktiから1を減じる。
(3) If both topL and topR are present at the point of interest hi and the ratio l <0.5 or the ratio r <0.5, 1 is subtracted from the table value pkti corresponding to the point of interest hi.

(4) 上記の(3)以外の場合には、テーブル値pkti
を−4に書き替える。
(4) In cases other than the above (3), the table value pkti
To -4.

(5) 谷の右側にのみ仮のピークtopRが存在する時、
比r<0.5ならば、テーブル値pktiから1を減じる。
(5) When the temporary peak topR exists only on the right side of the valley,
If the ratio r <0.5, 1 is subtracted from the table value pkti.

(6) 谷の左側にのみ仮のピークtopLが存在する時、
比l<0.5ならば、隣接点hjに対応するテーブル値pktj
から1を減じる。
(6) When the temporary peak topL exists only on the left side of the valley,
If the ratio l <0.5, the table value pktj corresponding to the adjacent point hj
Minus 1 from

また、ステップ807におけるピーク・谷テーブルの平
滑化処理、つまり、ピーク・谷テーブルpktにおいて、
求まった谷どうしの距離が十分に近い場合には平滑化処
理が次のように行われる。
Also, in the peak / valley table smoothing process in step 807, that is, in the peak / valley table pkt,
When the distance between the obtained valleys is sufficiently short, the smoothing process is performed as follows.

i=1〜N−1において、着目点hiに対応するテーブ
ル値pktiが−2であり、この谷の右側に位置する谷のテ
ーブル値pktjも−2であり、しかも、これら谷どうしの
距離(j−i)が所定のしきい値よりも小さい時、 (1) 着目点hiの頻度の方が隣接点hjの頻度よりも大
きければ(hi>hj)、テーブル値pktiを0にする(pkti
=0)。
At i = 1 to N-1, the table value pktj corresponding to the point of interest hi is -2, and the table value pktj of the valley located on the right side of the valley is also -2, and the distance between these valleys ( When ji) is smaller than a predetermined threshold value, (1) If the frequency of the point of interest hi is higher than the frequency of the adjacent point hj (hi> hj), the table value pkti is set to 0 (pkti).
= 0).

(2) 着目点hiの頻度の方が隣接点hjの頻度よりも小
さければ(hi≦hj)、右側に位置する谷のテーブル値pk
tjを0にする(pktj=0)。
(2) If the frequency of the point of interest hi is lower than the frequency of the adjacent point hj (hi ≦ hj), the table value pk of the valley located on the right side
Set tj to 0 (pktj = 0).

次に、上記方法を用いた具体的に例について以下に説
明する。
Next, a specific example using the above method will be described below.

例えば、第10図(a)に示される特徴量ヒストグラム
が得られた場合を想定する。同図の横軸は明度または彩
度の色の特徴量であり、縦軸はその特徴量の画像におけ
る頻度である。このヒストグラムについて第8図に示さ
れた処理を行うと、同図(b)に示されるピーク・谷テ
ーブルpktのテーブル値は、同図(b)の一番左側の列
に記された1〜8の番号に沿って以下のように推移す
る。この推移の結果、再下段に示された数値が最終のテ
ーブル値として求まる。なお、同図(b)の各テーブル
値が記載されている位置は、同図(a)のヒストグラム
の各特徴量A〜Lに対応している。つまり、記載された
各テーブル値は、点線で示されるように、その記載され
た位置の上方の特徴量に対応している。
For example, assume that the feature amount histogram shown in FIG. 10 (a) is obtained. The horizontal axis in the figure is the lightness or chroma color feature amount, and the vertical axis is the frequency of the feature amount in the image. When the processing shown in FIG. 8 is performed on this histogram, the table values of the peak / valley table pkt shown in FIG. 8B are 1 to 3 shown in the leftmost column of FIG. The transition is as follows along the number 8. As a result of this transition, the numerical value shown in the lower row is obtained as the final table value. The positions at which the table values in FIG. 3B are described correspond to the feature amounts A to L of the histogram in FIG. That is, each listed table value corresponds to a feature value above the described position, as indicated by a dotted line.

まず、特徴量ヒストグラムの左端処理および右端処理
を実行し(ステップ802,803)、引き続いて仮ピークお
よび仮の谷を設定する(ステップ804)。この設定は前
述のステップ804の処理に従って行われ、この結果得ら
れる各テーブル値は番号1のテーブルに示されるものと
なる。次に、頻度による谷の評価(ステップ805)およ
び隣接ピークに基づく谷の評価(ステップ806)を、前
述の処理に従って行う。
First, a left end process and a right end process of the feature amount histogram are executed (steps 802 and 803), and then a temporary peak and a temporary valley are set (step 804). This setting is performed in accordance with the processing of step 804 described above, and the table values obtained as a result are as shown in the table of No. 1. Next, valley evaluation based on frequency (step 805) and valley evaluation based on adjacent peaks (step 806) are performed according to the above-described processing.

特徴量がAの谷の場合には谷の右側にtopRのみが存在
し、また、特徴量Aにおける頻度と谷の右側の仮のピー
クの頻度との比rは0.5以下である(hi/topR<0.5)。
このため、特徴量Aに対応するテーブル値から1を減
じ、この結果、テーブル値は−2になってテーブルは番
号2に示されるテーブルに推移する。
When the feature value is the valley of A, only topR exists on the right side of the valley, and the ratio r between the frequency in the feature value A and the frequency of the temporary peak on the right side of the valley is 0.5 or less (hi / topR). <0.5).
For this reason, 1 is subtracted from the table value corresponding to the feature amount A, and as a result, the table value becomes -2 and the table changes to the table indicated by the number 2.

また、特徴量がDの谷の場合には、この谷の両側にto
pLおよびtopRが共に存在する。しかも、この谷の頻度と
左側の仮のピークの頻度との比lは0.5以下である(hi/
topL<0.5)。従って、特徴量Dに対応するテーブル値p
ktiから1を減じ、この結果、テーブル値は−2にな
る。また、特徴量がDの谷の両側の仮の各ピーク値の頻
度と谷の頻度との各比lおよび比rは、比rの方が大き
い(l<r)。従って、谷の右側に位置する仮のピーク
(特徴量E)のテーブル値pktjに1を加算することによ
り、テーブル値は2になる。この結果、ピーク・谷テー
ブルは番号3に示されるテーブルになる。
When the feature amount is a valley of D, to
pL and topR are both present. Moreover, the ratio 1 between the frequency of this valley and the frequency of the temporary peak on the left is 0.5 or less (hi /
topL <0.5). Therefore, the table value p corresponding to the feature amount D
One is subtracted from kti, resulting in a table value of -2. The ratio r and the ratio r between the frequency of each temporary peak value and the frequency of the valley on both sides of the valley having the feature value D are larger in the ratio r (l <r). Therefore, by adding 1 to the table value pktj of the temporary peak (feature amount E) located on the right side of the valley, the table value becomes 2. As a result, the peak / valley table becomes the table indicated by No. 3.

また、特徴量がFの谷の両側には共にtopLおよびtopR
が存在し、比lまたは比rの一方は0.5より小さい(l,r
<0.5)。従って、特徴量Fに対応するテーブル値pkti
から1を減じ、テーブル値を−2にする。また、比lは
比rより大きい(l≧r)。従って、谷の左側に位置す
る仮のピーク(特徴量E)のテーブル値pktkに1を加算
し、テーブル値を3にする。この結果、テーブルは番号
4に示されるテーブルに推移する。
In addition, both topL and topR are on both sides of the valley where the feature value is F.
And one of the ratios l or r is less than 0.5 (l, r
<0.5). Therefore, the table value pkti corresponding to the feature value F
Is subtracted from 1 to make the table value −2. Further, the ratio 1 is larger than the ratio r (l ≧ r). Therefore, 1 is added to the table value pktk of the temporary peak (feature amount E) located on the left side of the valley, and the table value is set to 3. As a result, the table changes to the table indicated by No. 4.

また、特徴量がHの谷の両側には共にtopLおよびtopR
が存在し、比lまたは比rの一方が0.5より大きい(l,r
≧0.5)。従って、特徴量Hに対応するテーブル値pkt1
を−4に書き替える。また、比lは比rよりも小さい
(l<r)。従って、谷の右側の仮のピーク(特徴量
I)に対応するテーブル値pktjに1を加える。この結
果、特徴量Iに対応するテーブル値は2になり、テーブ
ルは番号5に示されるテーブルに推移する。
Also, on both sides of the valley where the feature value is H, both topL and topR
And one of the ratios l or r is greater than 0.5 (l, r
≧ 0.5). Therefore, the table value pkt1 corresponding to the feature amount H
To -4. Further, the ratio 1 is smaller than the ratio r (l <r). Therefore, 1 is added to the table value pktj corresponding to the temporary peak (feature amount I) on the right side of the valley. As a result, the table value corresponding to the feature value I becomes 2, and the table changes to the table indicated by No. 5.

また、特徴量Jの谷の両側には共にtopLおよびtopRが
存在し、比rは0.5より小さい(r<0.5)。従って、こ
の谷に対応するテーブル値pktiから1を減じる。また、
比lは比rより大きい(l≧r)。従って、谷の左側に
位置する仮のピーク(特徴量I)に対応するテーブル値
pktkに1を加算し、テーブル値を3にする。この結果、
テーブルは番号6に示されるテーブルに推移する。
Further, both sides of the valley of the feature amount J have topL and topR, and the ratio r is smaller than 0.5 (r <0.5). Therefore, 1 is subtracted from the table value pkti corresponding to this valley. Also,
The ratio l is greater than the ratio r (l ≧ r). Therefore, the table value corresponding to the temporary peak (feature amount I) located on the left side of the valley
Add 1 to pktk and set the table value to 3. As a result,
The table changes to the table indicated by number 6.

また、特徴量Lの谷は谷の左側にtopLのみが存在し、
比lは0.5より小さい(l<0.5)。従って、この谷に対
応するテーブル値pktiから1を減じる。この結果、テー
ブル値は−2になり、テーブルは番号7に示されるテー
ブルに推移する。
Also, the valley of the feature amount L has only topL on the left side of the valley,
The ratio 1 is less than 0.5 (l <0.5). Therefore, 1 is subtracted from the table value pkti corresponding to this valley. As a result, the table value becomes -2, and the table shifts to the table indicated by number 7.

次に、このようにして得られた番号7のピーク・谷テ
ーブルpktについてデータの平滑化を前述のように行う
(ステップ807)。つまり、特徴量Dの谷hiとこの右側
に位置する特徴量Fの谷hjとの距離は所定のしきい値よ
り小さく、かつ、各谷のテーブル値は−2である。さら
に、特徴量Fの谷の頻度は特徴量Dの谷の頻度より大き
い(hi≦hj)。従って、特徴量Fの谷に対応するテーブ
ル値pktjを0にする。この結果、テーブルは最終的に第
10図(b)の最下段に示されるテーブルになる。
Next, data is smoothed as described above for the peak / valley table pkt of number 7 obtained in this manner (step 807). That is, the distance between the valley hi of the characteristic amount D and the valley hj of the characteristic amount F located on the right side thereof is smaller than the predetermined threshold value, and the table value of each valley is -2. Further, the frequency of the valley of the feature F is higher than the frequency of the valley of the feature D (hi ≦ hj). Therefore, the table value pktj corresponding to the valley of the feature value F is set to 0. As a result, the table is eventually
10 The table shown at the bottom of FIG.

この最終的なテーブルのうち、特徴量A,D,H,J,Lに対
応するヒストグラム上の各点が谷として求まるが、ヒス
トグラムの両端にある谷A,Lは対象にはならず、また、
テーブル値が−4の谷(特徴量H)も対象にはならな
い。すなわち、データ画像を対象領域と背景領域とに区
分するのに有効な谷は、テーブル値−2が二重丸で囲ま
れた特徴量DおよびJに対応する谷である。これら谷の
うち、第10図(a)のヒストグラムに大津の判別分析法
を適用して得られた領域区分しきい値に近い谷の頻度が
真の領域区分しきい値になる。このように大津の判別分
析法のあいまいな結果が補正されることにより、誤差が
少なく確度の高い走行路判別を行うことが可能になる。
In this final table, each point on the histogram corresponding to the feature values A, D, H, J, L is obtained as a valley, but the valleys A, L at both ends of the histogram are not targeted, and ,
The valley having the table value of -4 (the feature amount H) is not a target. That is, the valleys effective for dividing the data image into the target area and the background area are valleys corresponding to the feature values D and J in which the table value-2 is surrounded by double circles. Of these valleys, the frequency of valleys close to the region division threshold obtained by applying the Otsu discriminant analysis method to the histogram of FIG. 10 (a) becomes the true region division threshold. By correcting the ambiguous result of the Otsu's discriminant analysis method in this way, it is possible to perform a highly accurate traveling road discrimination with a small error.

次に、「テンプレート画像を用いた繰返しきい値処理
による走行コースの抽出手法」について説明する。な
お、以下の説明では、自律走行車が草や土等で区切られ
たコースを走行することを前提にし、走行路領域を抽出
する場合について述べることにする。
Next, a description will be given of a “running course extraction method using repeated threshold processing using a template image”. In the following description, it is assumed that the autonomous traveling vehicle travels on a course sectioned by grass, soil, and the like, and a case in which a traveling road region is extracted will be described.

第11図は走行路認識のアルゴリズムの概要を表すフロ
ーチャートである。
FIG. 11 is a flowchart showing an outline of an algorithm for recognition of a traveling road.

まず、走行車に搭載されたカラーCCDカメラにより、
走行路の情景を撮像する(ステップ1101)。そして、撮
像されたRGBのカラー画像信号をカラーカメラ入力装置
に取り込み、取り込んだRGB原画像データを前述のよう
にISHデータに変換する(ステップ1102)。ISHデータに
変換された特徴量画像に基づき、前述のように各特徴量
とその画素数との特性を表すヒストグラムをカラー画像
処理装置で作成する(ステップ1103)。
First, with the color CCD camera mounted on the traveling car,
The scene of the traveling road is imaged (step 1101). Then, the captured RGB color image signal is input to a color camera input device, and the input RGB original image data is converted into ISH data as described above (step 1102). Based on the feature image converted to the ISH data, a histogram representing the characteristics of each feature and the number of pixels is created by the color image processing device as described above (step 1103).

次に、作成したヒストグラムに基づき、しきい値処理
を繰り返し適用して走行路を2値化画像として抽出す
る。このように抽出された画像はノイズや細かく分断さ
れた領域を有するので、次の処理を実行する。つまり、
後に詳述するラベリング装置によって各領域にラベルを
付ける(ステップ1104)。そして、ラベル付けされた各
領域の面積と重心とを計測し、カメラの取り付け位置か
ら計算される地平線位置より重心が上の領域、および面
積が小さい領域を除去する(ステップ1105)。
Next, based on the created histogram, the threshold value processing is repeatedly applied to extract the traveling road as a binarized image. Since the image extracted in this manner has noise and finely divided areas, the following processing is executed. That is,
Each area is labeled by a labeling device described later (step 1104). Then, the area and the center of gravity of each labeled area are measured, and the area having the center of gravity higher than the horizon position calculated from the camera mounting position and the area having a smaller area are removed (step 1105).

次に、カラー画像処理装置において最初に抽出された
走行路画像に基づいて、走行路領域より明るさが暗い領
域および明るい領域を求め、これらの領域を併合し、ま
た、各領域どうしの関係を記述する(ステップ1106)。
この領域併合および領域関係の記述を基にして走行可能
範囲、つまり、道路端を検出し、画像取り込み時刻をそ
の走行可能範囲情報に付与する。そして、走行可能範囲
情報を画像処理装置を構成するデータ管理部へ伝送する
(ステップ1107)。この後、ステップ1102に戻って以上
の処理を繰り返す。
Next, based on the traveling road image first extracted in the color image processing device, an area having a brightness lower than that of the traveling road area and a bright area are obtained, these areas are merged, and a relationship between the respective areas is determined. This is described (step 1106).
A travelable range, that is, a road edge is detected based on the description of the area merging and the area relationship, and an image capture time is added to the travelable range information. Then, the travelable range information is transmitted to the data management unit included in the image processing apparatus (step 1107). Thereafter, the process returns to step 1102 to repeat the above processing.

第12図は走行路領域を抽出する処理の詳細を表すブロ
ック図である。
FIG. 12 is a block diagram showing details of a process for extracting a travel road region.

まず、撮像された原画像のRGBデータから明度データ
Iおよび彩度データSを求め、各データを特徴量画像と
して画像メモリに記憶する(ブロック1201)。次に、画
像メモリに記憶された明度データIを基にして明度を特
徴量とするヒストグラムを作成する(ブロック1202)。
このヒストグラムの横軸となる特徴量の分割数は40ポイ
ントであり、このポイント数は大局的に走行路の抽出を
行うのには十分な大きさである。次に、作成したヒスト
グラムを正規化する(ブロック1203)。そして、正規化
されたヒストグラムについて周知の大津の判別分析法を
適用し、走行路領域と背景領域とを区分するためのしき
い値を計算する(ブロック1204)。
First, lightness data I and saturation data S are obtained from RGB data of a captured original image, and each data is stored as a feature image in an image memory (block 1201). Next, based on the brightness data I stored in the image memory, a histogram having brightness as a feature amount is created (block 1202).
The number of divisions of the feature amount on the horizontal axis of this histogram is 40 points, and the number of points is large enough to globally extract the traveling road. Next, the generated histogram is normalized (block 1203). Then, a well-known Otsu's discriminant analysis method is applied to the normalized histogram to calculate a threshold value for distinguishing between the roadway region and the background region (block 1204).

一方、作成したヒストグラムの形状に基づいて特徴量
の画素数が多いピーク、および特徴量の画素数が少ない
谷を前述のように求め、ピークと谷の一覧表であるピー
ク・谷テーブルを作成する(ブロック1205)。各ピーク
および谷における各特徴量の値をしきい値処理のための
候補値とする。
On the other hand, a peak having a large number of feature amount pixels and a valley having a small number of feature amount pixels are obtained based on the shape of the created histogram as described above, and a peak / valley table which is a list of peaks and valleys is created. (Block 1205). The value of each feature amount at each peak and valley is set as a candidate value for threshold processing.

ブロック1204で求めた大津の判別分析法によるしきい
値には誤差が含まれる場合があるため、ブロック1205で
求めたしきい値処理のための候補値により、大津の判別
分析法によるしきい値を補正する。つまり、ブロック12
04で求めたしきい値とブロック1205で求めた候補値とを
比較し、ブロック1204のしきい値に最も近いブロック12
05の候補値を走行路領域と背景領域とを区分するための
しきい値とする(ブロック1206)。次に、このしきい値
により明度画像を2値化する(ブロック1207)。
Since the threshold value obtained by the Otsu discriminant analysis method obtained in block 1204 may include an error, the threshold value obtained by the Otsu discriminant analysis method Is corrected. That is, block 12
The threshold value obtained in step 04 is compared with the candidate value obtained in block 1205.
The candidate value of 05 is set as a threshold value for distinguishing the travel road area from the background area (block 1206). Next, the brightness image is binarized using the threshold value (block 1207).

明度画像は512×512個の画素によって構成されてお
り、I(i,j)として表現される。ここで、i,jは条件式
0≦i,j≦511を満足する整数である。また、ブロック12
06で求まったしきい値をX1,領域分割の対象となる特徴
量範囲の最少の特徴量の値をしきい値X0,最大の特徴量
の値をしきい値X2とする。なお、しきい値X0およびX2の
各初期値は0およびFF(hex)である。ここで、明度画
像I(i,j)が次の条件式を満足する場合には、メモリM
1(i,j)にFF(hex)を書き込む(ブロック1208)。
The brightness image is composed of 512 × 512 pixels and is represented as I (i, j). Here, i, j is an integer satisfying the conditional expression 0 ≦ i, j ≦ 511. Also block 12
It is assumed that the threshold value obtained in 06 is X1, the minimum feature value of the feature amount range to be divided into regions is a threshold value X0, and the maximum feature value is a threshold value X2. The initial values of the thresholds X0 and X2 are 0 and FF (hex). If the brightness image I (i, j) satisfies the following conditional expression, the memory M
Write FF (hex) to 1 (i, j) (block 1208).

X0≦I(i,j)<X1 また、明度画像I(i,j)が次の条件式を満足する場
合には、メモリM2(i,j)にFF(hex)を書き込む(ブロ
ック1209)。
X0 ≦ I (i, j) <X1 If the brightness image I (i, j) satisfies the following conditional expression, FF (hex) is written to the memory M2 (i, j) (block 1209). .

X1≦I(i,j)<X2 次に、ROMに記憶されたテンプレート画像を読み出す
(ブロック1210)。このテンプレート画像内には最も安
定した走行路情報が得られるようにテンプレート領域が
設定されている。この領域設定は自律走行車に取り付け
られたカラーカメラの俯角,画角,焦点距離を基にして
行われ、テンプレート領域に対応するメモリにはFF(he
x)が記憶されている。次に、読み出したテンプレート
画像とメモリM1およびメモリM2との重複度を計算する
(ブロック1211)。つまり、テンプレート画像とメモリ
M1およびメモリM2との各論理積を取り、論理積結果が
「1」の画素数を各メモリM1およびメモリM2毎に累計す
る。
X1 ≦ I (i, j) <X2 Next, the template image stored in the ROM is read (block 1210). A template area is set in this template image so that the most stable travel path information can be obtained. This area setting is performed based on the depression angle, the angle of view, and the focal length of the color camera attached to the autonomous vehicle, and the memory corresponding to the template area has FF (he
x) is stored. Next, the degree of overlap between the read template image and the memories M1 and M2 is calculated (block 1211). That is, the template image and the memory
The logical product of the memory M1 and the memory M2 is calculated, and the number of pixels whose logical product is “1” is accumulated for each of the memories M1 and M2.

次に、各メモリ毎に累計された画素数が、テンプレー
ト領域内にある画素数に占める比率を求める。この比率
が50%以上になるメモリ情報には走行路領域が含まれて
いるものとし、さらに、比率が50%以上のメモリM1また
はM2に記憶された画像について、以下のように繰り返し
て領域分割を行う。また、この比率に基づくメモリの選
択により、しきい値X1によって画像が領域分割されたこ
とになり、また、ヒストグラム上においても分割が行わ
れたことになる。
Next, a ratio of the number of pixels accumulated in each memory to the number of pixels in the template area is calculated. It is assumed that the memory information in which the ratio is 50% or more includes the travel road area. Further, the image stored in the memory M1 or M2 in which the ratio is 50% or more is repeatedly divided into regions as follows. I do. Further, by selecting a memory based on this ratio, the image is divided into regions by the threshold value X1, and the division is also performed on the histogram.

つまり、特徴量がX0〜X1の範囲内にあるメモリM1に記
憶された領域と、特徴量がX1〜X2の範囲内にあるメモリ
M2に記憶された領域とに分割されたことになる。また、
各メモリM1およびM2とテンプレート画像との重複度がい
ずれも50%を越えない時には、メモリM1とメモリM2との
和が記憶されたメモリM3が選択され(ブロック1212)、
メモリM3に基づいた領域分割が次に行われる。
In other words, the area stored in the memory M1 whose characteristic amount is in the range of X0 to X1, and the memory whose characteristic amount is in the range of X1 to X2
This means that the area is divided into the area stored in M2. Also,
When the degree of overlap between each of the memories M1 and M2 and the template image does not exceed 50%, the memory M3 storing the sum of the memories M1 and M2 is selected (block 1212).
Area division based on the memory M3 is performed next.

例えば、メモリM1とテンプレート画像との重複度が高
かった場合には、しきい値X0からX1内の特徴量によって
構成された領域を道路候補領域にする(ブロック121
3)。そして、この道路候補領域をさらに繰り返して領
域分割する。この繰り返し領域分割のためのしきい値X
1′は、ブロック1205で求めた谷の候補値のうち、しき
い値X0〜X1の範囲内にあるものとなる(ブロック121
4)。また、もし、この範囲内に谷の候補値が無い場合
には、繰り返し分割処理は行われない。
For example, when the degree of overlap between the memory M1 and the template image is high, an area constituted by the feature values within the threshold values X0 to X1 is set as a road candidate area (block 121).
3). Then, the road candidate area is further divided into areas. Threshold X for this repetition area segmentation
1 ′ is a candidate value of the valley obtained in the block 1205 and is within the range of the threshold value X0 to X1 (block 121).
Four). If there is no valley candidate value within this range, the repetitive division processing is not performed.

繰り返し領域分割の対象となる特徴量範囲の最小値X
0′は前回の領域分割と変わらないしきい値X0になり、
最大値X2′はしきい値X1になる。この範囲内の特徴量に
より構成される領域についてブロック1207で再度2値化
を行い、その後前回の領域分割と同様な処理を実行する
ことにより、繰り返し領域分割が行われる。この繰り返
しは、分割する道路候補領域の特徴量の範囲内にブロッ
ク1205で求めた谷の候補値がなくなるまで行う。このよ
うにして処理を繰り返して実行することにより、最終的
に最初の道路画像領域が得られる。
Minimum value X of the feature amount range to be iteratively divided into regions
0 ′ becomes the threshold value X0 which is the same as the previous area division,
The maximum value X2 'becomes the threshold value X1. The area constituted by the feature amounts within this range is re-binarized in block 1207, and then the same processing as the previous area division is performed, thereby repeatedly performing area division. This repetition is performed until there are no more valley candidate values obtained in block 1205 within the range of the feature amount of the road candidate area to be divided. By repeatedly executing the processing in this manner, the first road image area is finally obtained.

得られた道路画像領域の明度より暗い影の領域、およ
び明るい高輝度の領域がある場合には、これらの各領域
を求めるためのしきい値を後述のように設定する(ブロ
ック1215)。そして、このしきい値に基づき、各領域に
ついて前述と同様にして領域分割し、影の領域および高
輝度の領域を求める。また、同時に行われる彩度画像に
基づく処理結果により、求めた影の領域の彩度と道路画
像領域の彩度とが似ている場合には、各々の論理積をと
り、1つの領域として最終的な低輝度領域とする。ま
た、同時に、求めた高輝度領域の彩度と道路画像領域の
彩度とが似ている場合には、各々の論理積をとり、1つ
の領域として最終的な高輝度領域とする。さらに、道路
画像領域と低輝度領域との接続関係を調べ、併合できる
関係にある場合は併合処理を行う。また、同様に、道路
画像領域と高輝度領域との接続関係を調べる。
If there is a shadow area darker than the brightness of the obtained road image area and a bright high-luminance area, thresholds for obtaining these areas are set as described later (block 1215). Then, based on the threshold value, each region is divided into regions in the same manner as described above, and a shadow region and a high luminance region are obtained. When the saturation of the obtained shadow area and the saturation of the road image area are similar according to the processing result based on the saturation image performed at the same time, the logical product of each of them is calculated, and the final is determined as one area. Low brightness area. At the same time, when the obtained saturation of the high luminance area is similar to the saturation of the road image area, the logical product of each of them is taken and one area is set as a final high luminance area. Further, the connection relationship between the road image region and the low-luminance region is checked, and if there is a relationship that can be combined, a merging process is performed. Similarly, the connection relationship between the road image area and the high brightness area is checked.

このように併合できる関係にある場合には併合処理を
行う。この結果、走行路に影がある場合または自己の位
置が影内で走行路の遠方に直射日光が照射されて高輝度
部分がある場合には、この併合処理を行うことによって
現実の走行路に即した形状の走行路領域が得られること
になる。
When there is such a relationship that merging is possible, merging processing is performed. As a result, when there is a shadow on the traveling road or when the position of the vehicle itself is in the shadow and direct sunlight is radiated to the far side of the traveling road and there is a high luminance portion, by performing this merging process, the actual traveling road is A travel path region having a suitable shape can be obtained.

以上の処理は明度画像に対するものであったが、彩度
画像に対しても同様な処理を行う。但し、ブロック1215
の処理は明度画像に対する特有なものであるため、この
処理は実行しない。この彩度画像による処理結果におい
て、各領域のR,G,Bが似た値になる同系色の場合には、
各領域のヒストグラム分布は同様な形状になる。これ
は、前述のRGBデータから彩度Sデータへの変換式(S
=1−min(r,g,b)/3)から理解される。
Although the above processing is for a lightness image, the same processing is performed for a saturation image. However, block 1215
This process is not performed because it is unique to the brightness image. In the processing result by this saturation image, when the R, G, and B of each area are similar colors having similar values,
The histogram distribution of each area has a similar shape. This is based on the above-described conversion formula (S
= 1−min (r, g, b) / 3).

従って、R,G,Bの各値が似た値になる曇天時の空や一
般舗装路では、彩度に基づいて各領域を区別することは
困難である。しかし、色差があって各領域のR,G,B値が
似ていない場合には、各領域の明度に差がなくても各領
域を区別することが可能である。このため、道路画像領
域をいかなる情景の下でも正確に抽出するために、明度
および彩度の2つの特徴量を用いる。そして、明度画像
および彩度画像から抽出した2種類の道路画像の論理積
を取ることにより、確度の高い走行路領域情報を得るこ
とが出来る。
Therefore, it is difficult to distinguish each area based on the saturation in the sky on a cloudy day or a general pavement road where the values of R, G, and B are similar. However, when there is a color difference and the R, G, and B values of each area are not similar, each area can be distinguished even if there is no difference in brightness of each area. Therefore, in order to accurately extract the road image area under any scene, two feature amounts of lightness and saturation are used. Then, by taking the logical product of the two types of road images extracted from the brightness image and the saturation image, it is possible to obtain highly-accurate traveling road area information.

第13図は、道路画像領域の抽出処理における道路候補
領域の抽出過程を示す。
FIG. 13 shows a process of extracting a road candidate region in a road image region extraction process.

まず、明度の特徴量画像1301から特徴量ヒストグラム
1302を作成する。このヒストグラム1302の横軸は明度を
示し、この明度は0〜FF(hex)の数値によって表現さ
れている。また、縦軸は各明度における原画像中の画素
数を示す。大津の判別分析法をこのヒストグラム1302に
適用し、道路領域と背景領域とを区別するためのしきい
値cを求める。また、ヒストグラム1302の形状に基づ
き、ヒストグラムのピークおよび谷を求め、ピーク・谷
テーブルを作成する。そして、求めた谷を繰返しきい値
処理のためのしきい値の候補値とする。このヒストグラ
ム1302では特徴量a,b,d,e,fが候補値になっている。
First, a feature amount histogram is obtained from the brightness feature amount image 1301.
Create 1302. The horizontal axis of the histogram 1302 indicates lightness, and the lightness is represented by numerical values of 0 to FF (hex). The vertical axis indicates the number of pixels in the original image at each brightness. Otsu's discriminant analysis method is applied to the histogram 1302, and a threshold value c for distinguishing a road region from a background region is obtained. Further, based on the shape of the histogram 1302, a peak and a valley of the histogram are obtained, and a peak / valley table is created. Then, the obtained valley is set as a candidate value of the threshold value for the repeated threshold value process. In this histogram 1302, the feature values a, b, d, e, and f are candidate values.

大津の判別分析法によって求めたしきい値cを、ピー
ク・谷テーブルから求めた候補値によって補正する。つ
まり、しきい値cに最も近い候補値bを補正したしきい
値とする。そして、このしきい値bによって特徴量画像
1301を2値化する。この結果、特徴量が00(hex)〜b
の分割画像1303と、特徴量がb〜FF(hex)の分割画像1
304とが得られる。この時点では分割された各画像1303,
1304のうち、どちらの画像に走行路領域が含まれている
のかが分からない。
The threshold value c obtained by the Otsu discriminant analysis method is corrected by the candidate value obtained from the peak / valley table. That is, the candidate value b closest to the threshold value c is set as the corrected threshold value. Then, the feature amount image is determined by the threshold value b.
Binarize 1301. As a result, the feature amount is 00 (hex) to b
Divided image 1303 and divided image 1 whose feature amount is b to FF (hex)
304 is obtained. At this point, each divided image 1303,
It is not known which of the images 1304 includes the travel path area.

このため、道路位置を想定したテンプレート画像1305
と各画像1303,1304との論理積を取り、各画像との重複
度を計算する。テンプレート画像1305の下部には台形の
テンプレート領域が図示のように設定されている。この
テンプレート領域に対応するメモリ素子には前述したよ
うにFF(hex)が記憶されており、また、テンプレート
領域の背景領域に対応するメモリ素子には00(hex)が
記憶されている。本例の場合には、画像1304にテンプレ
ート画像1305との重なり部分が最も多く存在する。この
ため、重複度の計算結果により、特徴量がb〜FF(he
x)の画像1304に走行路領域が含まれているものと判断
され、画像1304に対応した道路候補領域画像1306が得ら
れる。
Therefore, the template image 1305 assuming the road position
And the logical product of each image 1303 and 1304 is calculated, and the degree of overlap with each image is calculated. Below the template image 1305, a trapezoidal template area is set as shown. As described above, FF (hex) is stored in the memory element corresponding to the template area, and 00 (hex) is stored in the memory element corresponding to the background area of the template area. In the case of this example, the image 1304 has the most overlapping portion with the template image 1305. Therefore, according to the calculation result of the degree of overlap, the feature amount is b to FF (he
It is determined that the traveling road area is included in the image 1304 of x), and the road candidate area image 1306 corresponding to the image 1304 is obtained.

b〜FF(hex)の特徴量の間にはまだ他の候補値が残
っているので、次に、さらにこの道路候補領域画像1306
について領域分割を行う。つまり、道路候補領域画像13
06をしきい値dで2値化する。この2値化により、特徴
量がb〜dの分割画像1307と、特徴量がd〜FF(hex)
の分割画像1308とが得られる。次に、得られた各画像13
07,1308について、前述と同様にしてテンプレート画像1
305との重複度を計算する。本例の場合には、画像1308
の方がテンプレート画像1305との重複度が高いため、特
徴量がd〜FF(hex)の画像1308に走行路領域が含まれ
ているものと判断され、画像1308に対応した道路候補領
域画像1309が得られる。
Since other candidate values still remain between the feature values of b to FF (hex), the road candidate area image 1306 is further added.
Is divided into regions. That is, the road candidate area image 13
06 is binarized by a threshold value d. By this binarization, a divided image 1307 whose feature amount is b to d and a feature amount of d to FF (hex)
Is obtained. Next, each of the obtained images 13
07, 1308, template image 1
Calculate the degree of overlap with 305. In this case, image 1308
Has a higher degree of overlap with the template image 1305, it is determined that the image 1308 having the feature amount of d to FF (hex) includes the travel road area, and the road candidate area image 1309 corresponding to the image 1308 Is obtained.

d〜FF(hex)の特徴量の間にはまだ他の候補値eが
残っているため、道路候補領域画像1309をこのしきい値
eで2値化する。この2値化により、特徴量がd〜eの
分割画像1310と、特徴量がe〜FF(hex)の分割画像131
1とが得られる。そして、前述と同様にして各画像1310,
1311とテンプレート画像1305との重複度を計算する。本
例の場合には、画像1310の方がテンプレート画像1305と
の重複度が高いため、特徴量がd〜eの画像1310に走行
路領域が含まれているものと判断され、画像1310に対応
した道路候補領域1312が得られる。
Since another candidate value e still remains between the feature amounts of d to FF (hex), the road candidate region image 1309 is binarized by the threshold value e. As a result of this binarization, a divided image 1310 having a feature amount of de to e and a divided image 131 having a feature amount of e to FF (hex) are obtained.
1 is obtained. Then, each image 1310,
The degree of overlap between 1311 and the template image 1305 is calculated. In the case of this example, since the image 1310 has a higher degree of overlap with the template image 1305, it is determined that the image 1310 having the feature amounts d to e includes the travel path region, and the image 1310 corresponds to the image 1310. The obtained road candidate area 1312 is obtained.

d〜eの特徴量の間にはもう他の候補値が残っていな
いので、この道路候補領域1312が最終的な道路領域の2
値画像になる。以上の処理は明度画像に対して行った
が、彩度画像に対しても同様な処理を行う。その後、明
度画像から抽出された走行路領域と彩度画像から抽出さ
れた走行路領域との論理積を取り、最終的な走行路領域
を得る。
Since no other candidate values remain between the feature amounts d to e, this road candidate area 1312 is the final road area 2
Value image. The above processing is performed on the brightness image, but the same processing is performed on the saturation image. Thereafter, a logical product of the traveling road region extracted from the brightness image and the traveling road region extracted from the saturation image is obtained to obtain a final traveling road region.

しきい値を用いて画像を2値化し、画像の領域分割を
する手法は一般的である。しかし、本実施例のように、
走行路の位置を考慮したテンプレート画像を用いて分割
画像との重複度を計算することにより、ヒストグラム上
において行われる次の領域分割のためのしきい値を決定
する処理は高速にかつ簡素に行える。この結果、現実の
走行路に即した走行路領域が高速にかつ容易にかつ低コ
ストで得られる。
It is general to binarize an image using a threshold value and divide the image into regions. However, as in this embodiment,
By calculating the degree of overlap with the divided image using the template image considering the position of the traveling road, the process of determining the threshold for the next region division performed on the histogram can be performed quickly and simply. . As a result, a travel path area that matches the actual travel path can be obtained at high speed, easily, and at low cost.

また、次のようにカメラに撮像される情景の明暗が変
化する場合がある。例えば、自車の進行方向がカーブに
よって変更したために明るさが変化した場合や、天候が
晴れたり曇ったりするために明暗が変わる場合などがあ
る。このような場合には、特徴量ヒストグラムは常に一
定の形状を示さないため、固定されたしきい値による領
域分割では正しい走行路領域が得られない。しかし、本
手法では、入力された画像の状態、つまり、明るさが時
々刻々と変化しても常に正確な走行路領域の抽出を行う
ことが可能である。これは、本手法では、テンプレート
画像との重複度が最も高い特徴量分布を見つけ、時々刻
々と変化する画像についてその時の特徴量に応じた最適
なしきい値をその都度設定するからである。
Further, the brightness of a scene captured by a camera may change as follows. For example, there is a case where the brightness changes because the traveling direction of the own vehicle is changed by a curve, and a case where the brightness changes because the weather is sunny or cloudy. In such a case, since the feature amount histogram does not always show a fixed shape, a correct travel road region cannot be obtained by region segmentation using a fixed threshold value. However, in this method, it is possible to always accurately extract the traveling road area even if the state of the input image, that is, the brightness changes every moment. This is because, in the present method, a feature amount distribution having the highest degree of overlap with the template image is found, and an optimum threshold value according to the feature amount at that time is set for an image that changes every moment.

従来、領域分割を行う画像処理にあっては、原画像を
複数の領域に分割し、分割した画像について識別処理を
行って道路の妥当性を検証していた。しかし、上述した
本手法にあっては、目的とする対象物(道路)を抽出す
るために、しきい値処理による領域分割を行っている。
このように、従来の手法では処理結果から対象物を検証
したが、本手法では処理の当初から対象物を目的として
いる点で処理のアプローチが逆になっている。このた
め、道路領域を効率良く抽出することが可能になってい
る。
2. Description of the Related Art Conventionally, in image processing for region division, an original image is divided into a plurality of regions, and identification processing is performed on the divided images to verify the validity of a road. However, in the above-described method, region extraction is performed by threshold processing in order to extract a target object (road).
As described above, in the conventional method, the target is verified from the processing result, but in the present method, the processing approach is reversed in that the target is targeted from the beginning of the processing. For this reason, it is possible to efficiently extract the road area.

次に、「明るさの違いに注目した走行コースからの影
や高輝度部分の抽出手法」について説明する。本手法は
上述した「テンプレート画像を用いた繰返しきい値処理
による走行コースの抽出手法」の説明において既に簡単
に説明したものであり、以下にこの手法を詳述する。
Next, a method of extracting a shadow or a high-luminance portion from a traveling course focusing on a difference in brightness will be described. This method has already been described briefly in the description of the “running course extraction method by repeated threshold processing using a template image”, and this method will be described in detail below.

明度画像について、上述した「テンプレート画像を用
いた繰返しきい値処理による走行コースの抽出手法」,
および「繰返しきい値処理における特徴量ヒストグラム
の形状に基づくしきい値設定手法」を適用することによ
り、走行コースの特徴量の分布するヒストグラムが求め
られた。本手法は、このヒストグラムを基にして道路領
域より暗い領域および道路領域より明るい領域を求める
ものである。また、本手法はカラー画像処理装置内で処
理されるものである。
Regarding the brightness image, the above-mentioned “running course extraction method by repeated threshold processing using template images”,
By applying the "threshold setting method based on the shape of the feature amount histogram in the repetitive threshold value process", a histogram in which the feature amount of the traveling course is distributed was obtained. In this method, an area darker than a road area and an area lighter than a road area are obtained based on the histogram. In addition, this method is processed in the color image processing apparatus.

第14図は、種々の入力画像が撮像された各ケースにつ
いて、本手法を適用した場合の処理の概要を示す。ケー
ス1は、一様な路面状況の走行コースのみが入力画像と
して撮像された場合である。この場合、自車は、右側に
カーブする道路のカーブ手前に位置している。このケー
ス1において抽出された道路候補領域は、入力画像と同
様な形状になる。これは入力画像が一様な走行コースの
みだからであり、従って、本手法により低輝度領域およ
び高輝度領域は抽出されない。
FIG. 14 shows an outline of processing when the present method is applied to each case where various input images are captured. Case 1 is a case where only a traveling course having a uniform road surface condition is captured as an input image. In this case, the vehicle is located just before the curve of the road that curves to the right. The road candidate area extracted in this case 1 has the same shape as the input image. This is because the input image has only a uniform traveling course, and therefore, the low luminance region and the high luminance region are not extracted by this method.

また、ケース2は、走行コースの路面上に部分的に影
ができ、しかも、走行コースの遠方に反射光などによる
高輝度部分ができている入力画像が撮像された場合であ
る。この場合の例では、道路は右側にカーブし、この右
側カーブの手前に左側にカーブする分岐路を有してい
る。自車はこれらカーブの手前に位置している。このケ
ース2において抽出される道路候補領域は、影ができて
いる暗い領域および高輝度領域である明るい領域が除外
された形状になる。また、道路の手前側にできている影
の部分は本手法による低輝度領域の抽出により、個別に
取り出すことができる。また、道路の遠方にできている
反射光による高輝度領域は高輝度領域の抽出により、個
別に取り出すことができる。
Case 2 is a case where an input image in which a shadow is partially formed on the road surface of the traveling course and a high-luminance portion is formed far away from the traveling course due to reflected light or the like. In the example in this case, the road curves rightward and has a fork that curves leftward just before the right curve. Your vehicle is located before these curves. The road candidate area extracted in this case 2 has a shape excluding a dark area where a shadow is formed and a bright area which is a high luminance area. In addition, a shadow portion formed on the front side of the road can be individually extracted by extracting a low-luminance region by the present method. In addition, a high-luminance area due to reflected light formed far away on a road can be individually extracted by extracting a high-luminance area.

ケース3は、陽射しが強い天候の時に、樹木による影
が走行コースの路面上にできている入力画像が撮像され
た場合であり、路面上に木洩れ日がさしている場合であ
る。この場合の例では、自車は、左側にカーブする道路
のカーブ手前に位置している。このケース3において抽
出される道路候補領域は、木洩れ日によってできる影と
同じ形状である。これは、強い陽射しのために影が、テ
ンプレート画像との重複度が高くなるためである。従っ
て、本手法により低輝度の領域は抽出されない。また、
遠方の道路領域および木洩れ日がさしている部分は強い
陽射しのために高輝度の領域として抽出される。
Case 3 is a case where an input image in which a shadow of a tree is formed on the road surface of the traveling course is captured in a case of strong sunshine, and a day when a tree leaks on the road surface. In the example of this case, the own vehicle is located in front of a curve on a road that curves to the left. The road candidate area extracted in this case 3 has the same shape as the shadow formed by the tree leaking day. This is because the shadow due to strong sunlight has a high degree of overlap with the template image. Therefore, a low-luminance region is not extracted by this method. Also,
A distant road area and a part where a tree leaks are extracted as high-luminance areas due to strong sunlight.

ケース4は、道路の側帯に沿って帯状に変色部分がで
きている場合であり、例えば、舗装路の工事等によって
道路が変色した場合である。この場合の例では、自車
は、直線状に進む道路にできた変色部分を右手にみて走
行する位置にある。このケース4において抽出される道
路候補領域は、この変色部分が除外された形状になる。
また、この変色部分は道路領域より明度が高いため、本
手法により高輝度領域として抽出される。また、道路の
路面上には影などがないため、低輝度領域は抽出されな
い。
Case 4 is a case where a discolored portion is formed in a belt shape along a side band of the road, for example, a case where the road is discolored due to pavement road construction or the like. In the example of this case, the own vehicle is located at a position where the vehicle travels by looking at the discolored portion formed on the road traveling in a straight line to the right. The road candidate area extracted in this case 4 has a shape excluding this discolored portion.
In addition, since the discolored portion has higher brightness than the road region, the discolored portion is extracted as a high luminance region by this method. Further, since there is no shadow or the like on the road surface, a low luminance area is not extracted.

次に、上述したケース2を例として、本手法の詳細を
以下に説明する。
Next, the details of the present method will be described below using the case 2 described above as an example.

第15図は、ケース2において撮像された入力画像を基
にして作成されたヒストグラムである。このヒストグラ
ムの特徴量は明度であり、横軸にこの明度が示されてい
る。また、縦軸は、各明度における画素数である。
FIG. 15 is a histogram created based on the input image captured in Case 2. The feature amount of this histogram is lightness, and this lightness is shown on the horizontal axis. The vertical axis indicates the number of pixels at each brightness.

図のA部分の特徴量範囲は走行路領域が含まれる範囲
であり、前述した「テンプレート画像を用いた繰返しき
い値処理による走行コースの抽出手法」において最も走
行コースに相当する画素が含まれる範囲とされる部分で
ある。また、範囲Aは特徴量がt1からt2までの範囲であ
り、各特徴量t1およびt2をしきい値として領域分割され
る。また、特徴量t1より左側にあるB部分は谷と谷とに
挾まれた1つの山を形成し、A部分より明度の低い暗い
範囲の特徴量分布である。このB部分の特徴量範囲はt3
からt1までであり、各特徴量t3およびt1は領域分割のた
めのしきい値になる。また、特徴量t2より右側にあるC
部分は、A部分より明度の高い明るい範囲の特徴量分布
であり、B部分と同様に谷と谷とに挾まれた1つの山を
形成している。このC部分の特徴量範囲はt2からt4まで
であり、各特徴量t2およびt4は領域分割のためのしきい
値になる。
The feature amount range of the portion A in the drawing is a range including the travel road area, and a range including the pixel corresponding to the travel course most in the above-described “running course extraction method by repeated threshold processing using a template image”. It is the part that is said to be. The range A is a range in which the feature amount is from t1 to t2, and the area is divided using the feature amounts t1 and t2 as thresholds. A portion B located on the left side of the feature amount t1 forms a single crest sandwiched between valleys, and is a feature amount distribution in a dark range where the brightness is lower than the portion A. The feature value range of this B part is t3
To t1, and each of the feature amounts t3 and t1 becomes a threshold for region division. Also, C on the right side of the feature amount t2
The portion is a feature amount distribution in a bright range where the brightness is higher than the portion A, and forms one mountain sandwiched between valleys like the portion B. The feature amount range of the C portion is from t2 to t4, and each of the feature amounts t2 and t4 is a threshold for region division.

なお、図に示されるB部分やC部分は1つの山を形成
しているが、このように1つの山を形成しない特徴量分
布は、画像上において領域分割のために有意義な領域を
形成する分布とは認められない。このため、このような
特徴量分布は優位な分布ではないものとして領域抽出の
対象として選定しない。図示の本例の場合にはB部分お
よびC部分の双方ともに優位な分布になっているが、一
方のみが優位な分布であっても本手法は適用される。
The portions B and C shown in the figure form one peak, but such a feature distribution that does not form one peak forms a meaningful region on the image for region division. Not recognized as distribution. Therefore, such a feature amount distribution is not selected as a region extraction target because it is not a superior distribution. In the illustrated example, both the B portion and the C portion have a dominant distribution, but the present method can be applied even if only one of the distributions is dominant.

A部分の特徴量分布は第14図に示されたケース2の道
路候補領域に相当する。また、B部分の特徴量分布はこ
の道路候補領域より明度の低い影の領域に相当し、C部
分の特徴量分布は道路候補領域よりも明度の高い高輝度
部分に相当するものである。本手法は、A部分に隣接す
るB部分およびC部分の各特徴量分布に相当する各領域
を抽出するものである。
The feature amount distribution of the portion A corresponds to the road candidate region of case 2 shown in FIG. The feature amount distribution of the portion B corresponds to a shadow region having lower brightness than the road candidate region, and the feature amount distribution of the portion C corresponds to a high brightness portion having higher brightness than the road candidate region. In this method, each region corresponding to each feature amount distribution of the B portion and the C portion adjacent to the A portion is extracted.

まず、ヒストグラムのB部分に相当する領域を抽出す
るため、しきい値t3およびt1によって明度を特徴量とす
る入力画像を2値化する。また、前述した「テンプレー
ト画像を用いた繰返しきい値処理による走行コースの抽
出手法」において、彩度を特徴量とする入力画像に基づ
いて道路領域画像が求められていた。この道路領域画像
は、原画像が最初に領域分割されることにより得られた
ものであり、影などの暗い領域や高輝度領域が道路領域
に含まれた状態の画像である。この道路領域に相当する
メモリ素子には1が記憶されており、その他の背景領域
に相当するメモリ素子には0が記憶されている。また、
上記の2値化画像において、明度がt3からt1の画素領域
に相当するメモリ素子には1が記憶されており、その他
の領域に相当するメモリ素子には0が記憶されている。
このため、道路領域画像と2値化画像との論理積をとる
ことにより、走行路領域上にある例えば影の部分などの
暗い領域のみが個別に抽出される。
First, in order to extract a region corresponding to the B portion of the histogram, the threshold value t3 and the threshold value t1 are used to binarize an input image whose brightness is a feature amount. Further, in the above-described “running course extraction method using repeated threshold processing using a template image”, a road region image is obtained based on an input image having a saturation as a feature amount. The road area image is obtained by first dividing the original image into areas, and is an image in which a dark area such as a shadow or a high luminance area is included in the road area. 1 is stored in the memory element corresponding to the road area, and 0 is stored in the memory elements corresponding to the other background areas. Also,
In the above-described binarized image, 1 is stored in a memory element corresponding to a pixel area having a brightness of t3 to t1, and 0 is stored in a memory element corresponding to another area.
For this reason, by taking the logical product of the road area image and the binarized image, only dark areas such as, for example, shadows on the travel road area are individually extracted.

また、C部分に相当する領域を抽出するため、上記の
暗い領域を求めるのと同様に、しきい値t2およびt4によ
って明度画像を2値化する。そして、彩度画像から抽出
された道路領域画像とこの2値化画像との論理積を上記
のB部分の抽出の場合と同様にとることにより、高輝度
領域が個別に抽出される。
Further, in order to extract a region corresponding to the portion C, the brightness image is binarized by the threshold values t2 and t4 in the same manner as in the case of obtaining the dark region. Then, by taking the logical product of the road area image extracted from the saturation image and this binarized image in the same manner as in the case of the extraction of the B portion, the high-brightness areas are individually extracted.

次に、B部分およびC部分を領域分割する際に必要と
されるしきい値t3およびt4を求める方法について説明す
る。前述した「繰返しきい値処理における特徴量ヒスト
グラムの形状に基づくしきい値設定手段」により、第10
図(b)に示されるピーク・谷テーブルを求めたが、第
15図に示されるヒストグラムについてもこれと同様にし
て図示しないピーク・谷テーブルを求める。このピーク
・谷テーブルにおける各テーブル値は、第10図(b)と
同様に、pktiとして表現する。添字のiは、グラフの原
点側から各テーブル値に対応して順にi=0,1,2,…N,N
−1と変化するものとする。
Next, a method of obtaining threshold values t3 and t4 required for dividing the B portion and the C portion into regions will be described. The “threshold setting means based on the shape of the feature amount histogram in the repetitive threshold processing” described above
The peak / valley table shown in FIG.
Similarly, a peak / valley table (not shown) is obtained for the histogram shown in FIG. Each table value in this peak / valley table is expressed as pkti, as in FIG. 10 (b). The subscript i is i = 0, 1, 2,... N, N in order corresponding to each table value from the origin side of the graph.
It is assumed to change to -1.

第15図のヒストグラムにおいて、しきい値t1に相当す
るテーブル値をpktjとする。そして、ピーク・谷テーブ
ルにおいてこのテーブル値pktiから左側へ各テーブル値
を見て行き、pkt0のところまでにテーブル値が負となる
pktk(pktk<0)があるか否かを判断する。テーブル値
が負になる特徴点は谷の底に相当する点である。pkt0ま
でに負となるpktkが有り、しかも、pktjの特徴点からpk
tkの特徴点までの距離がしきい値より小さい場合(pktj
−pktk<しきい値)、このテーブル値pktkに相当する特
徴量をしきい値t3とする。また、pkt0までに負となるpk
tkが無い場合、または距離がしきい値を越える場合に
は、道路領域より暗い優位な領域は無いものとする。
In the histogram of FIG. 15, the table value corresponding to the threshold value t1 is pktj. Then, in the peak / valley table, look at each table value to the left from this table value pkti, and the table value becomes negative up to pkt0
It is determined whether or not pktk (pktk <0) exists. The feature point where the table value becomes negative is a point corresponding to the bottom of the valley. There is a negative pktk by pkt0, and pktk from the feature point of pktj
When the distance to the feature point of tk is smaller than the threshold (pktj
−pktk <threshold value), and a feature amount corresponding to the table value pktk is set as a threshold value t3. Also, pk that becomes negative by pkt0
If there is no tk or the distance exceeds the threshold, it is assumed that there is no dominant area darker than the road area.

ヒストグラム上のしきい値t4に相当する特徴量は、し
きい値t3に相当する特徴量を求める方法と同様にして求
めることができる。つまり、しきい値t2に相当するピー
ク・谷テーブル値をpktmとすると、このpktmから右側へ
各テーブル値を見て行き、pktN−1までに負となるpktn
(pktn<0)が有るか否かを判断する。pktN−1までに
負となるpktnが有り、しかも、pktnの特徴点からpktmの
特徴点までの距離がしきい値より小さい場合(pktn−pk
tm<しきい値)、このテーブル値pktnに相当する特徴量
をしきい値t4とする。また、pktN−1までに負となるpk
tnが無い場合、または、距離がしきい値を越える場合に
は、道路領域より明るい優位な領域は無いものとする。
The feature amount corresponding to the threshold value t4 on the histogram can be obtained in the same manner as the method for obtaining the feature amount corresponding to the threshold value t3. That is, assuming that the peak / valley table value corresponding to the threshold value t2 is pktm, each table value is looked to the right from this pktm, and pktn which becomes negative by pktN-1
It is determined whether (pktn <0) exists. If there is a negative pktn by pktN−1 and the distance from the pktn feature point to the pktm feature point is smaller than the threshold value (pktn−pk
tm <threshold value), and a feature amount corresponding to this table value pktn is set as a threshold value t4. Also, pk that becomes negative by pktN-1
If there is no tn, or if the distance exceeds the threshold, it is assumed that there is no dominant area brighter than the road area.

以上のように、本手法は、「繰返しきい値処理におけ
る特徴量ヒストグラムの形状に基づくしきい値設定手
段」で求められたピーク・谷テーブルを利用することに
より、天候の変化や舗装路の工事等によって道路の路面
状況が変化しても、影や高輝度部分および変色部分を個
別に抽出することができる。
As described above, the present method uses the peak / valley table obtained by the “threshold setting means based on the shape of the feature amount histogram in the repetitive threshold value processing” to change the weather and construct pavement roads. For example, even if the road surface condition of the road changes, shadows, high-luminance portions, and discolored portions can be individually extracted.

次に、「ラベリング装置」について以下に詳述する。
「テンプレート画像を用いた繰返しきい値処理による走
行コースの抽出手法」において抽出された画像は、ノイ
ズや細かく分断された領域を有する。このため、ラベリ
ング装置により抽出画像の各領域にラベル付けをし、ラ
ベル付けされた各領域の有効性を判断する。このラベリ
ング処理の結果に基づき、地平線位置より重心が上の領
域や、ノイズ等によって発生した不要な小領域を除去す
る。
Next, the “labeling device” will be described in detail below.
The image extracted in the “running course extraction method by repeated threshold processing using a template image” has noise and finely divided regions. Therefore, each area of the extracted image is labeled by the labeling device, and the validity of each labeled area is determined. Based on the result of the labeling process, a region having a center of gravity higher than the horizon position and an unnecessary small region generated by noise or the like are removed.

第16図はこのラベリング装置の概略構成を示すブロッ
ク図であり、第17図はこのラベリング処理の概略を示す
ゼネラルフローチャートである。まず、カラー処理装置
において抽出された画像を画像バス(NE BUS)を介して
入力メモリ1601に取り込む(ステップ1701)。この画像
情報は512×512×8ビットの情報であり、これを多値の
原画像入力とする。次に、後述するランを用いた仮ラベ
ル付け方式を用いて1次ラベリングを行う(ステップ17
02)。この1次ラベリングは、ラベリングプロセッサ
(KLP)1602,ラインバッファメモリ(LBM)1603および
ラベルマッチングメモリ(LMM)1604等において主とし
て実行される。
FIG. 16 is a block diagram showing a schematic configuration of the labeling device, and FIG. 17 is a general flowchart showing an outline of the labeling process. First, the image extracted by the color processing device is loaded into the input memory 1601 via the image bus (NE BUS) (step 1701). This image information is 512 × 512 × 8 bit information, which is used as a multi-valued original image input. Next, primary labeling is performed using a temporary labeling method using a run described later (step 17).
02). This primary labeling is mainly executed in a labeling processor (KLP) 1602, a line buffer memory (LBM) 1603, a label matching memory (LMM) 1604, and the like.

この1次ラベリングの後、ラベルマッチングメモリLM
M1604のデータ配置を整理するために前処理を行う(ス
テップ1703)。この前処理の後に2次ラベリングを行う
と同時に各領域の面積や重心などの特徴量を抽出する
(ステップ1704)。ステップ1703およびステップ1704の
処理は主として特徴抽出プロセッサKLC1605において実
行される。この2次ラベリングにより、各アドレスに位
置する画素に付けられたラベルをラベルメモリ(LABEL
M)1606に記憶する。また、同時に、抽出された各領域
の面積や重心を特徴メモリ1607に記憶する。この後、LA
BELM1606に記憶されたラベル画像情報をNE BUSに出力す
る(ステップ1705)。
After this primary labeling, the label matching memory LM
Preprocessing is performed to arrange the data arrangement of M1604 (step 1703). After this preprocessing, secondary labeling is performed, and at the same time, feature amounts such as the area and the center of gravity of each region are extracted (step 1704). The processing of steps 1703 and 1704 is mainly executed by the feature extraction processor KLC1605. By this secondary labeling, the label attached to the pixel located at each address is stored in a label memory (LABEL).
M) Store in 1606. At the same time, the area and the center of gravity of each extracted region are stored in the feature memory 1607. After this, LA
The label image information stored in BELM 1606 is output to NE BUS (step 1705).

ラベル生成のためのKLP1602の使用個数は1個であ
り、ラン処理用のラインレジスタであるLBM1603は後述
するラベルメモリKLMを4個使用して構成する。また、L
MM1604は仮ラベルの最大数が1023の時にはKLMを8個使
用して構成する。仮ラベルの最大数が4095の時にはKLM
を32個使用してLMM1604を構成する。
The number of KLPs 1602 used for label generation is one, and the LBM 1603, which is a line register for run processing, is configured using four label memories KLM described later. Also, L
When the maximum number of temporary labels is 1023, the MM1604 is configured using eight KLMs. KLM when the maximum number of temporary labels is 4095
Are used to configure the LMM1604.

従来のラベリングは入力画像が2値画像の場合につい
てだけ行っていたが、本手法によるラベリングはKLP160
2を使用することにより、多値画像についてもラベリン
グを行うことが可能になっている。つまり、数種類の画
像を一度にラベリングをすることが可能である。例え
ば、第18図に示されるように、3種類の2値入力画像18
01,1802,1803が入力された場合を想定する。これら2値
画像は足し合されて512×512×8ビットの多値画像1804
に変換される。この変換処理はラベリング処理の前処理
として行われる。ラインレジスタ1805(LBM1603)たラ
ベルマッチングメモリ1806(LMM1604)とを使用したラ
ベリングプロセッサ1807(KLP1602)の制御により、多
値入力画像1804はラベリングされる。このラベリングに
おいて各領域のラベル付けを整理し、最終的に512×512
×12ビットのラベル画像1808として出力する。このラベ
リングプロセッサ1807(KLP1602)を使用することによ
り、多値画像に対してのラベリング処理、ランを用いた
仮ラベル数の削減および1スキャンラベリングが可能に
なる。
Conventional labeling has been performed only when the input image is a binary image.
By using 2, it is possible to perform labeling on multi-valued images. That is, it is possible to label several types of images at once. For example, as shown in FIG.
It is assumed that 01, 1802, and 1803 are input. These binary images are added to form a 512 × 512 × 8 bit multi-valued image 1804
Is converted to This conversion processing is performed as preprocessing of the labeling processing. Under the control of the labeling processor 1807 (KLP1602) using the label matching memory 1806 (LMM1604) instead of the line register 1805 (LBM1603), the multilevel input image 1804 is labeled. In this labeling, the labeling of each area is organized and finally 512 × 512
Output as a label image 1808 of × 12 bits. By using the labeling processor 1807 (KLP1602), it is possible to perform labeling processing on a multi-valued image, reduce the number of temporary labels using runs, and perform one-scan labeling.

多値入力画像の各画素には、各画素値に応じたラベル
付けがKLP1602の制御によって行われる。そして、同一
のラベル値を持つ各画素間の結合関係に基づいて領域区
分が行われ、また、この結合関係に基づいて新しいラベ
ルが生成される。例えば、従来、入力画像に第19図
(a)に示される階段状画素からなる領域が形成されて
いる場合には、ラスタ走査の順番に沿って各画素に仮ラ
ベル付けを行い、再度各画素について走査を行うことに
よりラベル生成が実行されていた。この結果、仮ラベル
付けの際には、図示のごとく1〜3の3種類の仮ラベル
を必要としていた。
Labeling according to each pixel value is performed on each pixel of the multi-valued input image under the control of the KLP1602. Then, area division is performed based on the connection relationship between the pixels having the same label value, and a new label is generated based on the connection relationship. For example, conventionally, in the case where an area composed of stepped pixels shown in FIG. 19 (a) is formed in an input image, temporary labeling is performed on each pixel in the order of raster scanning, and each pixel is again labeled. The label generation has been performed by scanning for. As a result, at the time of provisional labeling, three types of provisional labels 1 to 3 were required as shown in the figure.

しかし、本方式によるランを用いたラベリング方式に
よれば、第19図(a)と同様な階段状画素からなる同図
(b)に示される入力画像が有っても、ランプを用いる
ことにより仮ラベル数を削減することが出来る。つま
り、同図(c)に示されるように、各画素をラスタ走査
に沿ったランという1つの行毎に区分けする。図示の場
合には、2つのラン1およびラン2に区分けされる。ラ
ベリングプロセッサKLPはランの走査が最後の画素に至
るまではラインバッファメモリLBMにフラグを書き込
み、仮ラベルの判定を行い、その行の最後の画素でその
ランの全画素に各画素間の結合関係を考慮した仮ラベル
を書き込む。
However, according to the labeling method using a run according to the present method, even if there is an input image shown in FIG. 19B composed of step-like pixels similar to FIG. The number of temporary labels can be reduced. That is, as shown in FIG. 3C, each pixel is divided into one row of runs along raster scanning. In the case shown in the figure, it is divided into two runs 1 and 2. The labeling processor KLP writes a flag in the line buffer memory LBM until the last scan of the run reaches the last pixel, determines a temporary label, and connects all pixels of the run to all pixels of the run at the last pixel of the row. Is written in consideration of the temporary label.

同図(c)に示されるラン1について走査して上記の
処理を施した結果、ラン1に対応する画素には同図
(d)に示される仮ラベル付けが行われる。この仮ラベ
ル「1」のラベル付けは、各画素に同時に行われる。こ
れは、メモリには後に詳述するラベリングメモリKLMが
使用されているためである。引き続いてラン2について
走査することにより、同図(e)に示される仮ラベル付
けが行われる。ラン2はラン1の仮ラベル「1」に接続
されているので、ラン2の最後の画素を走査する時点で
ラン2の各画素には仮ラベル「1」が同時に書き込まれ
る。このようにランを用いたラベリングにより、同図
(b)に示される階段状画素へのラベル付けは、1種類
のラベル「1」によって行うことが出来、仮ラベル数は
削減される。つまり、画素をランという1つのまとまり
にまとめ、ラン単位で処理を行うことにより、ラベリン
グ回路の規模を削減することが出来る。
As a result of scanning the run 1 shown in FIG. 9C and performing the above-described processing, the temporary labeling shown in FIG. The labeling of the temporary label “1” is performed on each pixel at the same time. This is because a labeling memory KLM, which will be described in detail later, is used as the memory. Subsequently, by scanning the run 2, the temporary labeling shown in FIG. Since Run 2 is connected to the temporary label “1” of Run 1, the temporary label “1” is simultaneously written to each pixel of Run 2 when the last pixel of Run 2 is scanned. By the labeling using the run as described above, the labeling to the step-like pixels shown in FIG. 9B can be performed by one kind of label “1”, and the number of temporary labels is reduced. In other words, the pixels are grouped into a single unit called a run, and processing is performed in units of a run, whereby the size of the labeling circuit can be reduced.

次に、ラベリングプロセッサKLPによるラベリング処
理の詳細について説明する。ラベリングは第20図に示さ
れるウインドが各ラインに沿って各画素を走査すること
により行われる。このウインドを各ランに沿って走査す
ることにより、T(ターゲット)部には注目する画素が
現れ、a部にはT部の上に位置する画素が現れ、b部に
はT部の右側の隣に位置する画素が現れる。以下、T,a,
bは各部に現れる入力画像のラベル値を示すことにす
る。なお、ランの途中をウインドが走査している時に
は、出力ラベルとしてフラグの値がラインバッファメモ
リLBMに出力され、ウインドがランの最後の画素に達し
た時に、フラグの立っている全ての画素にラベルが書き
込まれる。
Next, details of the labeling process by the labeling processor KLP will be described. Labeling is performed by the window shown in FIG. 20 scanning each pixel along each line. By scanning this window along each run, a pixel of interest appears in the T (target) portion, a pixel located above the T portion appears in the a portion, and a pixel located on the right side of the T portion appears in the b portion. The next neighboring pixel appears. Hereafter, T, a,
b indicates the label value of the input image appearing in each part. When the window is scanning in the middle of the run, the value of the flag is output to the line buffer memory LBM as an output label, and when the window reaches the last pixel of the run, all the flagged pixels are output. The label is written.

KLPの内部構成は第21図のブロック構成図に示され
る。KLPは、セレクタ2101,仮ラベルレジスタTml2102,カ
ウンタCnt2103,第1の比較回路2104および第2の比較回
路2105により構成されている。第1の比較回路2104には
ラベル値T,a,bが与えられ、入力画像の多値比較が行わ
れる。この比較結果はセレクタ2101のセレクト端子sel1
に与えられる。第2の比較回路2105には、ラベル値aの
ラベルマッチングメモリLMMの値Mat(a),仮ラベルレ
ジスタTml2102の値およびカウンタCnt2103の値が与えら
れ、同時に各値はセレクタ2101の端子A,B,Cに与えられ
る。このTml2102の値は、セレクタ2101からの出力信号
によって決定される。また、セレクタ2101の端子Dには
ラインバッファメモリLBMに記憶されるフラグFLAGの値
が与えられる。
The internal configuration of the KLP is shown in the block diagram of FIG. The KLP includes a selector 2101, a temporary label register Tml2102, a counter Cnt2103, a first comparison circuit 2104, and a second comparison circuit 2105. The first comparison circuit 2104 is provided with the label values T, a, and b, and performs a multi-value comparison of the input image. The comparison result is the select terminal sel1 of the selector 2101.
Given to. The value Mat (a) of the label matching memory LMM of the label value a, the value of the temporary label register Tml2102, and the value of the counter Cnt2103 are given to the second comparison circuit 2105, and at the same time, each value is the terminal A, B of the selector 2101. , C. The value of Tml2102 is determined by the output signal from selector 2101. The value of the flag FLAG stored in the line buffer memory LBM is given to the terminal D of the selector 2101.

第2の比較回路2105は与えられたこれらの各値を比較
する。この比較結果により各ラベル間の連結関係が判断
され、比較結果はセレクタ2101のセルクト端子sel0に出
力される。セレクタ2101は与えられた各値に基づき、マ
ッチングアドレスMAT ADDRおよびマッチングデータMAT
DATAを出力し、ラベルマッチングメモリLMMの記憶内容
の変更を行う。また、これと共に、セレクタ2101は仮ラ
ベルの値および出力ラベルの値(LABEL)を出力する。
The second comparison circuit 2105 compares these given values. The connection relationship between the labels is determined based on the comparison result, and the comparison result is output to the SELECT terminal sel0 of the selector 2101. The selector 2101 determines the matching address MAT ADDR and the matching data MAT based on the given values.
Outputs DATA to change the contents of the label matching memory LMM. At the same time, the selector 2101 outputs the value of the temporary label and the value of the output label (LABEL).

第22図〜第27図はウインド処理のフローチャートを示
す。
FIG. 22 to FIG. 27 show a flowchart of the window processing.

第22図は、第1の比較回路2104における各値T,a,bの
比較判断処理を示す際のフローチャートを示す。まず、
着目画素のラベル値Tが0に等しいか否かを判断する
(ステップ2201)。Tが0の場合には後述する処理1を
実行する(ステップ2202)。Tが0でない場合には、ラ
ベル値Tとラベル値bとを比較する(ステップ2203)。
ラベル値Tとラベル値bとが等しい場合には、ラベル値
Tとラベル値aとを比較する(ステップ2204)。ラベル
値Tとラベル値aとが等しい場合には処理2を実行する
(ステップ2205)。つまり、処理2は各値T,a,bが等し
い場合に実行される処理である。この場合、各ラベル値
を○と表現すると、ウインドウ状態はステップ2205の図
示の処理ボックスに隣接して描かれた状態になる。
FIG. 22 is a flowchart showing a process of comparing and judging each value T, a, b in the first comparison circuit 2104. First,
It is determined whether the label value T of the pixel of interest is equal to 0 (step 2201). If T is 0, processing 1 described later is executed (step 2202). If T is not 0, the label value T is compared with the label value b (step 2203).
If the label value T is equal to the label value b, the label value T is compared with the label value a (step 2204). If the label value T is equal to the label value a, processing 2 is executed (step 2205). That is, the process 2 is a process executed when the values T, a, and b are equal. In this case, when each label value is expressed as ○, the window state is a state drawn adjacent to the illustrated processing box in step 2205.

ラベル値Tとラベル値aとが等しくない場合には処理
3を実行する(ステップ2206)。つまり、処理3はラベ
ル値Tとラベル値bとが等しく、ラベル値Tとラベル値
aとが異なる場合に実行される処理である。この場合、
ラベル値Tとラベル値bを○と表現し、ラベル値aを×
と表現すると、ウインドウ状態はステップ2206の図示の
処理ボックスに隣接して描かれた状態になる。そして、
ステップ2205またはステップ2206の処理後に、ラインバ
ッファメモリLBM1603のウインドTの位置にフラグを立
てる(ステップ2207)。
If the label value T is not equal to the label value a, processing 3 is executed (step 2206). That is, the process 3 is a process executed when the label value T is equal to the label value b and the label value T is different from the label value a. in this case,
The label value T and the label value b are expressed as ○, and the label value a is expressed as ×
In this case, the window state is a state drawn adjacent to the illustrated processing box in step 2206. And
After the processing in step 2205 or 2206, a flag is set at the position of window T in line buffer memory LBM1603 (step 2207).

また、ステップ2203において、ラベル値Tとラベル値
bとが等しくない場合にも、ラベル値Tとラベル値aと
を比較する(ステップ2208)。ラベル値Tとラベル値a
とが等しい場合には処理4を実行する(ステップ220
9)。つまり、処理4はラベルTとラベルaとが等し
く、ラベル値Tとラベル値bとが異なる場合に実行され
る処理である。この場合、ラベル値Tとラベル値aを○
と表現し、ラベル値bを×と表現すると、ウインドウ状
態はステップ2209の図示の処理ボックスに隣接して描か
れた状態になる。
Further, even when the label value T is not equal to the label value b in step 2203, the label value T is compared with the label value a (step 2208). Label value T and label value a
Are equal to each other, processing 4 is executed (step 220).
9). That is, the process 4 is a process executed when the label T is equal to the label a and the label value T is different from the label value b. In this case, the label value T and the label value a
When the label value b is expressed as x, the window state is a state drawn adjacent to the illustrated processing box in step 2209.

ラベル値Tとラベル値aとが等しくない場合には処理
5を実行する(ステップ2210)。つまり、処理5はラベ
ル値Tとラベル値aとが異なり、しかも、ラベル値Tと
ラベル値bとが異なる場合に実行される処理である。こ
の場合、ラベル値Tを○と表現し、ラベル値aとラベル
値bを×と表現すると、ウインドウ状態はステップ2210
の図示の処理ボックスに隣接して描かれた状態になる。
そして、ステップ2209またはステップ2210の処理後にKL
P内の仮ラベルレジスタTmlをクリアする(ステップ221
1)。このTmlは、現在のウインド位置に達する直前のT
部に有った画素に対するラベルが記憶されているもので
ある。
If the label value T is not equal to the label value a, processing 5 is executed (step 2210). That is, the process 5 is a process executed when the label value T is different from the label value a and the label value T is different from the label value b. In this case, if the label value T is represented by ○ and the label value a and the label value b are represented by ×, the window state is set to step 2210.
Is drawn adjacent to the processing box shown in FIG.
Then, after the processing of step 2209 or step 2210, KL
Clear the temporary label register Tml in P (step 221)
1). This Tml is the T just before reaching the current window position.
The label for the pixel in the section is stored.

以下に説明する第23図から第27図のフローチャート
は、処理1から処理5までの比較判断処理のフローチャ
ートを示す。
The flowcharts of FIGS. 23 to 27 described below show the flowcharts of the comparison determination processing from processing 1 to processing 5.

第23図は上述の処理1のフローチャートを示す。処理
1は何も実行せずに終了する。
FIG. 23 shows a flowchart of the above-mentioned processing 1. Processing 1 ends without executing anything.

第24図は上述の処理2のフローチャートを示す。ま
ず、仮ラベルレジスタTm1に記憶された前回の画素のラ
ベル値と0とを比較する(ステップ2401)、Tmlのラベ
ル値が0に等しい場合には、ラベル値aのラベルマッチ
ングメモリ(LMM)1604の値Mat(a)を仮ラベルレジス
タTml2102に書き込む(ステップ2402)。Tmlのラベル値
が0と等しくない場合には、Tmlのラベル値とカウンタC
nt2103のカウンタ値とを比較する(ステップ2403)。カ
ウンタ2103には最も新しいラベルの値が記憶されてい
る。
FIG. 24 shows a flowchart of the above-mentioned process 2. First, the label value of the previous pixel stored in the temporary label register Tm1 is compared with 0 (Step 2401). If the label value of Tml is equal to 0, the label matching memory (LMM) 1604 of the label value a is used. Is written to the temporary label register Tml2102 (step 2402). If the label value of Tml is not equal to 0, the label value of Tml and the counter C
The value is compared with the counter value of nt2103 (step 2403). The newest label value is stored in the counter 2103.

仮ラベルレジスタTmlのラベル値とカウンタCntのカウ
ンタ値とが等しい場合には、ラベル値aのラベルマッチ
ングメモリ(LMM)の値Mat(a)をTmlに書き込む(ス
テップ2404)。また、Tmlの値とカウンタCntの値とが等
しくない場合には、LMMの値Mat(a)とTmlの値とを比
較する(ステップ2405)。LMMの値Mat(a)とTmlの値
とが等しい場合には何も実行されない(ステップ240
6)。LMMの値Mat(a)とTmlの値とが等しくない場合に
は、Tmlの値とLMMの値Mat(a)とのうちの小さい方の
値{Min(Tml,Mat(a))}をTmlに書き込む。さら
に、両者のうちの小さい方の値{Min(Tml,Mat
(a))}を、両者のうちの大きい方の値に等しいラベ
ル値のラベルマッチングメモリ に書き込む(ステップ2407)。
When the label value of the temporary label register Tml is equal to the counter value of the counter Cnt, the value Mat (a) of the label matching memory (LMM) of the label value a is written to Tml (step 2404). If the value of Tml is not equal to the value of the counter Cnt, the value of the LMM Mat (a) is compared with the value of Tml (step 2405). If the value of LMM Mat (a) is equal to the value of Tml, nothing is executed (step 240).
6). When the value of LMM Mat (a) and the value of Tml are not equal, the smaller value {Min (Tml, Mat (a))} of the value of Tml and the value of LMM Mat (a) is calculated. Write to Tml. Furthermore, the smaller value of the two, {Min (Tml, Mat
(A)) a label matching memory for a label value equal to the larger of the two (Step 2407).

第25図は前述の処理3のフローチャートを示す図であ
る。処理3では、まず、仮ラベルレジスタTmlの値と0
を比較する(ステップ2501)。Tmlの値が0に等しい場
合には、カウンタ2103のカウンタ値をTmlに書き込む
(ステップ2502)。また、Tmlの値が0に等しくない場
合には、何も実行されない(ステップ2503)。
FIG. 25 is a diagram showing a flowchart of the above-mentioned process 3. In the process 3, first, the value of the temporary label register Tml and 0
Are compared (step 2501). If the value of Tml is equal to 0, the counter value of the counter 2103 is written to Tml (step 2502). If the value of Tml is not equal to 0, nothing is executed (step 2503).

第26図は前述の処理4のフローチャートを示す図であ
る。まず、Tmlの値と0とを比較する(ステップ260
1)。Tmlの値が0に等しい場合には、ラベル値aのLMM
の値Mat(a)をターゲットエリアのラベル値として、
T部とフラグが立っている全てのレジスタにこのMat
(a)を書き込む(ステップ2602)。この時、LBMのフ
ラグは全てクリアされる。また、ステップ2601でTmlの
値が0に等しくない場合には、Tmlの値とCntの値とを比
較する(ステップ2603)。Tmlの値とCntの値とが等しい
場合には、ラベル値aのLMMの値Mat(a)をターゲット
エリアのラベル値として、T部とフラグが立っている全
てのレジスタにこのMat(a)を書き込む(ステップ260
4)。この時、LBMのフラグは全てクリアされる。
FIG. 26 is a diagram showing a flowchart of the above-mentioned process 4. First, the value of Tml is compared with 0 (step 260).
1). If the value of Tml is equal to 0, the LMM of the label value a
Value Mat (a) as the label value of the target area,
This Mat is used for all registers where the T section and flags are set.
Write (a) (step 2602). At this time, all the LBM flags are cleared. If the value of Tml is not equal to 0 in step 2601, the value of Tml is compared with the value of Cnt (step 2603). When the value of Tml is equal to the value of Cnt, the value of the LMM Mat (a) of the label value a is set as the label value of the target area, and the Mat (a) is set in all the registers where the flag is set in the T section. Write (Step 260
Four). At this time, all the LBM flags are cleared.

また、Tmlの値とCntの値とが等しくない場合には、Tm
lの値とMat(a)の値とを比較する(ステップ2605)。
そして、Tmlの値とMat(a)の値とが等しい場合には、
ラベル値aのLMMの値Mat(a)をターゲットエリアのラ
ベル値として、T部とフラグが立っている全てのレジス
タにこのMat(a)を書き込む(ステップ2606)。この
時、LBMのフラグは全てクリアされる。また、Tmlの値と
Mat(a)の値とが等しくない場合には、Tmlの値とラベ
ル値aのLMMの値Mat(a)との小さい方の値{Min(Tm
l,Mat(a))}をターゲットエリアのラベル値とし
て、T部とフラグが立っている全てのレジスタに書き込
む。この時、LBMのフラグは全てクリアされる。さら
に、Tmlの値とLMMの値Mat(a)とのうちの小さい方の
値{Min(Tml,Mat(a))}を、これら両者のうちの大
きい方の値に等しいラベル値のラベルマッチングメモリ に書き込む(ステップ2607)。
If the value of Tml is not equal to the value of Cnt, Tm
The value of l is compared with the value of Mat (a) (step 2605).
Then, when the value of Tml is equal to the value of Mat (a),
This Mat (a) is written to all the registers where the flag is set with the T part, using the LMM value Mat (a) of the label value a as the label value of the target area (step 2606). At this time, all the LBM flags are cleared. Also, the value of Tml
If the value of Mat (a) is not equal, the smaller value of the value of Tml and the value of LMM Mat (a) of the label value a {Min (Tm
l, Mat (a))} as the label value of the target area, and writes it to all the registers in which the T section and the flag are set. At this time, all the LBM flags are cleared. Furthermore, the smaller value {Min (Tml, Mat (a))} of the value of Tml and the value of LMM Mat (a) is matched with the label value of the label value equal to the larger value of both. memory (Step 2607).

第27図は前述の処理5のフローチャートを示す図であ
る。まず、仮ラベルレジスタTmlの値と0とを比較する
(ステップ2701)。Tmlの値が0に等しい場合には、Cut
の値をターゲットエリアのラベル値として、T部とフラ
グが立っている全てのレジスタにこのCntの値を書き込
む。この時、LBMのフラグは全てクリアされる。さら
に、Cntの値を、Cntの値に等しいラベル値のMat(Cnt)
に書き込み、Cntの値を1つカウントアップする(ステ
ップ2702)。
FIG. 27 is a diagram showing a flowchart of the aforementioned process 5. First, the value of the temporary label register Tml is compared with 0 (step 2701). Cut if the value of Tml is equal to 0
Is used as the label value of the target area, and the value of Cnt is written to the T section and all the registers in which the flags are set. At this time, all the LBM flags are cleared. In addition, the value of Cnt is replaced by the label value Mat (Cnt) equal to the value of Cnt.
And increment the value of Cnt by one (step 2702).

また、Tmlの値が0に等しくない場合には、Tmlの値を
ターゲットエリアのラベル値として、T部とフラグが立
っている全てのレジスタにTmlの値を書き込む(ステッ
プ2703)。この時、LBMの全てのフラグはクリアされ
る。次に、Tmlの値とCntの値とを比較する(ステップ27
04)。Tmlの値とCntの値とが等しい場合には、Cntの値
を、Cntの値に等しいラベル値のMat(Cnt)に書き込
む。さらに、Cntの値を1つカウントアップする(ステ
ップ2705)。また、Tmlの値とCntの値とが等しくない場
合には、何も実行しない(ステップ2706)。
If the value of Tml is not equal to 0, the value of Tml is written to all the registers in which the T section and the flag are set, using the value of Tml as the label value of the target area (step 2703). At this time, all the flags of the LBM are cleared. Next, the value of Tml is compared with the value of Cnt (step 27).
04). If the value of Tml is equal to the value of Cnt, the value of Cnt is written to Mat (Cnt) of the label value equal to the value of Cnt. Further, the value of Cnt is incremented by one (step 2705). If the value of Tml is not equal to the value of Cnt, nothing is executed (step 2706).

次に、ラインバッファメモリLBMやラベルマッチング
メモリLMMに使用されるラベリングメモリKLMについて説
明する。今までのメモリは、1回のアドレス指定により
1個の内部レジスタにしかデータが書き込めなかった。
しかし、以下に説明するKLMを使用することにより、複
数個の内部レジスタに1度にデータを書き込むことが出
来る。このため、本ラベリングメモリKLMは、ラン処理
用のラインレジスタ(LBM),ラベル統合不要のラベル
マッチングメモリ(LMM),1スキャン用のラベル画像メ
モリ(LABELM)およびラベル整合を行えるラベルマッチ
ングメモリに使用することが出来る。
Next, the labeling memory KLM used for the line buffer memory LBM and the label matching memory LMM will be described. Until now, data could only be written to one internal register by one address specification.
However, by using the KLM described below, data can be written into a plurality of internal registers at once. For this reason, this labeling memory KLM is used for a line register (LBM) for run processing, a label matching memory (LMM) that does not require label integration, a label image memory (LABELM) for one scan, and a label matching memory that can perform label matching. You can do it.

LKMは複数のレジスタにより構成されているが、第28
図はこれらレジスタの中の1個のレジスタのブロック構
成を示している。このブロックはKLMの構成の1単位に
なっている。各レジスタ2801にはコンパレータ2802が対
になって接続されている。このコンパレータ2802には、
レジスタ2801からの出力データDATAおよびこの出力デー
タに比較されるべき情報COMが与えられる。コンパレー
タ2802は与えられたデータを比較し、その比較結果をア
ンド回路2803に出力する。アンド回路2803にはこの他に
アドレスデコーダ回路2804の出力が与えられる。アンド
回路2803は、コンパレータ2802またはデコーダ回路2804
のいずれか一方が信号を出力していれば、オア回路2805
に信号を出力する。
LKM is composed of multiple registers.
The figure shows a block configuration of one of these registers. This block is one unit of the KLM configuration. Each register 2801 is connected to a comparator 2802 as a pair. This comparator 2802 includes:
Output data DATA from the register 2801 and information COM to be compared with the output data are provided. Comparator 2802 compares the applied data and outputs the comparison result to AND circuit 2803. The output of the address decoder circuit 2804 is also supplied to the AND circuit 2803. The AND circuit 2803 includes a comparator 2802 or a decoder circuit 2804.
If one of the two outputs a signal, the OR circuit 2805
Output the signal.

オア回路2805にはCPUからのライト信号WRが与えられ
ており、このライト信号▲▼に同期してレジスタ28
01にイネーブル信号が与えられる。つまり、アドレスデ
コーダ回路2804によってセレクトされるか、コンパレー
タ回路2802での比較結果が一致した場合に、ライト信号
WRに同期してレジスタ2801にデータが書き込まれる。各
デコーダ回路2804へのアドレシングおよび各コンパレー
タ回路2802での比較判断は全て同時に実行される。この
ため、1回のアドレシングまたは1回のデータの比較判
断により、KLMを構成する複数個のレジスタの内容を同
時に書き替えることが可能である。
The OR circuit 2805 is supplied with a write signal WR from the CPU.
01 is supplied with an enable signal. That is, when the address is selected by the address decoder circuit 2804 or the comparison result in the comparator circuit 2802 matches, the write signal
Data is written to the register 2801 in synchronization with WR. The addressing to each decoder circuit 2804 and the comparison judgment in each comparator circuit 2802 are all executed simultaneously. Therefore, the contents of a plurality of registers constituting the KLM can be rewritten simultaneously by one addressing or one data comparison judgment.

前述したランを用いたラベリング処理によって得られ
た仮ラベルは、ラベル統合を行うと不連続な値になる。
この時のラベルマッチングメモリLMMの内容は第29図
(a)に示される。各アドレス1〜10の画素に対応して
ラベル1,3,6がデータとして記憶されている。このラベ
ル値は不連続な値になっているため、同図(b)に示さ
れ後に詳述する特徴抽出プロセッサKLCにより、同図
(c)に示される連続な値を持つラベルに変換する。す
なわち、KLMによって構成されたラベルマッチングメモ
リLMMに記憶されるラベル値は、1,2,3と連続した値にな
る。
The temporary label obtained by the labeling process using the run described above becomes a discontinuous value when the label integration is performed.
The contents of the label matching memory LMM at this time are shown in FIG. Labels 1, 3, and 6 are stored as data corresponding to the pixels at addresses 1 to 10, respectively. Since this label value is a discontinuous value, it is converted into a label having a continuous value shown in FIG. 3C by the feature extraction processor KLC shown in FIG. That is, the label value stored in the label matching memory LMM constituted by the KLM is a continuous value of 1, 2, and 3.

より詳細には、ラベリングプロセッサKLCはLMMのアド
レスを発生し、該当アドレスの示すデータを取り込む。
引き続いて取り込んだデータとアドレスとを比較し、各
値が同じならば新しいデータをLMMに出力してラベル値
を書き替える。また、各値が異なる場合には、LMMへ次
のアドレスを出力して次のアドレスとデータとを比較す
る。以後、この処理を繰り返して実行することにより、
第29図(a)に示される不連続なラベル値は同図(c)
に示される連続なラベル値に変換される。
More specifically, the labeling processor KLC generates an address of the LMM and takes in the data indicated by the address.
Subsequently, the fetched data is compared with the address, and if the values are the same, new data is output to the LMM to rewrite the label value. If the values are different, the next address is output to the LMM, and the next address is compared with the data. Thereafter, by repeatedly executing this process,
The discontinuous label values shown in FIG. 29 (a) are shown in FIG. 29 (c).
Is converted to the continuous label value shown in.

具体的には、同図(a)のアドレス1のデータ(1)
はアドレスと同じであるため、KLCは新しいデータとし
て1を出力し、アドレス1のデータと同じデータ(1)
を持つアドレス2,4,5,7のデータを新しいデータ1に書
き替える。図示の場合には、古いデータと新しいデータ
とがたまたま同じ1になっているため、同図(a)と同
図(c)との該当アドレスのデータに変化は無い。次
に、アドレス2のデータ(1)とアドレスとを比較す
る。アドレスとデータとは異なるため、次のアドレス3
を発生する。そして、アドレス3のデータ(3)とアド
レスとを比較する。アドレスとデータとは同じであるた
め、新しいデータとして2を出力する。LMMはKLMによっ
て構成されていため、アドレス3のデータと同じデータ
(3)を持つアドレス9,10のデータは同図(c)に示さ
れるように全て同時に2に書き替えられる。次に、KLC
は新たなアドレス4を発生する。アドレスとデータとは
異なるためにさらに次にアドレス5を発生し、以後、上
記と同様な処理を繰り返す。この結果、不連続値は連続
値に変換される。
Specifically, the data (1) at address 1 in FIG.
Is the same as the address, so KLC outputs 1 as new data, and the same data (1) as the data at address 1
Is rewritten with new data 1 at addresses 2, 4, 5, and 7 having. In the case shown in the figure, the old data and the new data happen to be the same 1, so that there is no change in the data of the corresponding address in FIGS. Next, the data (1) at address 2 is compared with the address. Since the address and the data are different, the next address 3
Occurs. Then, data (3) at address 3 is compared with the address. Since the address and the data are the same, 2 is output as new data. Since the LMM is constituted by the KLM, the data at addresses 9 and 10 having the same data (3) as the data at address 3 are all rewritten to 2 at the same time as shown in FIG. Next, KLC
Generates a new address 4. Since the address and the data are different, the address 5 is generated next, and thereafter, the same processing as described above is repeated. As a result, discontinuous values are converted to continuous values.

第30図はこの特徴抽出プロセッサKLCの内部構成を示
すブロック図である。このKLCを使用することにより、
1次ラベリングによって発生する仮ラベルの前処理が行
われる。また、2次ラベリングの時、ラベリングと同時
に、同一ラベル領域の面積の演算,同一ラベル領域のX
方向アドレスの合計の演算および同一ラベル領域のY方
向アドレスの合計の演算がこのKLCによって実行され
る。
FIG. 30 is a block diagram showing the internal configuration of this feature extraction processor KLC. By using this KLC,
Pre-processing of temporary labels generated by primary labeling is performed. At the time of the secondary labeling, at the same time as the labeling, the calculation of the area of the same label area, the X of the same label area are performed.
The KLC executes the calculation of the sum of the direction addresses and the calculation of the sum of the Y-direction addresses of the same label area.

KLCは、+1加算器3001と、2つの加算器3002,3003
と、比較器3004および2つのカウンタ3005,3006とから
構成されている。+1加算器3001は、同一ラベル値を持
つ画素入力が有った場合にそのカウント数を1つづつカ
ウントアップし、同一ラベル領域の面積を演算してこれ
をSizeとして出力する。加算器3002,3003にはX方向ア
ドレス値,Y方向アドレス値が入力されている。そして、
同一ラベル値の画素入力が有った場合に、各方向ごとに
アドレス値を加算していき、各アドレス方向ごとに同一
ラベル領域のアドレス値の合計を演算する。各合計値は
X ADDRおよびY ADDRとして出力される。各方向のアドレ
スの合計値を同一ラベル領域の面積で割ることにより、
各方向の重心を求めることが出来る。そして、各同一ラ
ベル領域の重心を求め、地平線よりも上に重心がある領
域は、道路候補領域の抽出に有効な領域ではないものと
して除去する。
KLC consists of a +1 adder 3001 and two adders 3002, 3003
And a comparator 3004 and two counters 3005 and 3006. When there is a pixel input having the same label value, the +1 adder 3001 counts up the count number one by one, calculates the area of the same label area, and outputs the result as Size. The X direction address value and the Y direction address value are input to the adders 3002 and 3003. And
When there is a pixel input of the same label value, the address value is added for each direction, and the sum of the address values of the same label area is calculated for each address direction. Each sum is
Output as X ADDR and Y ADDR. By dividing the sum of the addresses in each direction by the area of the same label area,
The center of gravity in each direction can be obtained. Then, the center of gravity of each identical label region is obtained, and the region having the center of gravity above the horizon is removed as not being an effective region for extracting a road candidate region.

比較器3004およびカウンタ3005,3006は、1次ラベリ
ングの時に発生する仮ラベルの前処理、つまり、不連続
なラベル値を連続なラベル値に変換する処理に使用され
る。カウンタ3005,3006にはクロック信号CLKが入力さ
れ、カウンタ3005の出力はラベルマッチングメモリLMM
へ出力されるマッチングアドレスMAT ADDRになる。この
アドレスは比較器3004にも同時に与えられる。また、カ
ウンタ3006の出力はラベルマッチングメモリLMMへ出力
されるデータMAT DATAになる。比較器3004は与えられた
アドレスおよびデータを前述のようにして比較し、アド
レスとデータの各値が一致する場合にはカウンタ3006に
信号を出力する。カウンタ3006はこの信号を入力した場
合にはMat DATAに現在のカウンタの値を出力し、値を1
つカウントアップする。
The comparator 3004 and the counters 3005 and 3006 are used for preprocessing of temporary labels generated at the time of primary labeling, that is, processing for converting discontinuous label values to continuous label values. The clock signal CLK is input to the counters 3005 and 3006, and the output of the counter 3005 is a label matching memory LMM.
Becomes the matching address MAT ADDR output to This address is also given to the comparator 3004 at the same time. The output of the counter 3006 is data MAT DATA output to the label matching memory LMM. The comparator 3004 compares the given address and data as described above, and outputs a signal to the counter 3006 when the respective values of the address and data match. When this signal is input, the counter 3006 outputs the current counter value to Mat DATA and sets the value to 1
Count up.

以上説明してきたラベリング処理の処理時間は、各ラ
ンに沿って行われる2スキャンのラスタ走査時間と、ラ
ベル統合時間との和の時間を必要とした。しかし、第16
図に示されるラベルメモリLABELM1606に前述したラベリ
ングメモリKLMを使用して構成することにより、1スキ
ャンでラベリング処理を実行することが出来る。すなわ
ち、第31図に示されるように、多値の入力画像3101が取
り込まれた場合に、ラベリングプロセッサKLP3102はラ
インレジスタ3103およびラベルマッチングメモリ3104を
使用して前述と同様にラベリング処理を実行する。そし
て、このラベリングによって得られた各画素のラベル値
は、各ランの最終の画素の走査時点でラベル画像メモリ
3105にそのまま書き込まれる。なお、ラベル統合は行わ
れないため、各ラベルの値は不連続な値のままに記憶さ
れる。
The processing time of the labeling process described above requires the sum of the raster scanning time of two scans performed along each run and the label integration time. But the 16th
By configuring the label memory LABELM1606 shown in the figure using the above-described labeling memory KLM, the labeling process can be executed in one scan. That is, as shown in FIG. 31, when a multi-valued input image 3101 is captured, the labeling processor KLP3102 executes a labeling process using the line register 3103 and the label matching memory 3104 in the same manner as described above. The label value of each pixel obtained by this labeling is stored in the label image memory at the time of scanning the last pixel of each run.
It is written to 3105 as it is. Since label integration is not performed, the value of each label is stored as a discontinuous value.

ラベリングメモリKLMは、前述したように、各内部レ
ジスタにコンパレータが対になって接続されており、コ
ンパレータでの比較結果が一致したレジスタおよびアド
レスセレクトされたレジスタに、一度に新しいデータが
書き込まれるものである。このKLMの特徴によって1ス
キャンラベリングが可能になっている。また、ラベリン
グプロセッサKLPは、本方式のアルゴリズムがハードウ
エア化されたものであり、高速ラベリングを可能にする
ものである。
As described above, the labeling memory KLM has a pair of comparators connected to each internal register, and new data is written at a time to the register whose comparison result matches and the register whose address is selected. It is. This KLM feature allows one-scan labeling. The labeling processor KLP is a hardware version of the algorithm of the present system, and enables high-speed labeling.

この1スキャンラベリング方式により、ラベリング処
理時間を今までの1/2以下に短縮することが可能にな
る。例えば、装置が8MHzのクロック信号で動作している
場合には、今までのラベリング処理時間には、ウインド
ウを2スキャンするための66msecと、ラベル統合に必要
とされる時間とを必要とした。しかし、この1スキャン
方式によれば、1/2以下の33msecでラベリング処理を行
うことが出来る。
With this one-scan labeling method, it is possible to reduce the labeling processing time to half or less than before. For example, when the device is operating with a clock signal of 8 MHz, the labeling processing time up to now required 66 msec for scanning two windows and the time required for label integration. However, according to the one-scan method, the labeling processing can be performed in 33 msec which is 1/2 or less.

また、通常の画素の走査は入力画像の画面左上から右
下に行うが、道路領域を抽出する画像処理においては、
目的とする画像は画像の下方に位置する。従って、目的
とする画像を走査する際に仮ラベルを記憶するメモリが
オーバーフローする事態が発生する可能性がある。この
ため、走査を画面の右下から左上に行い、目的とする画
像を初めに走査することにより、目的とする画像を常に
取得できるようにする。つまり、目的とする画像を最初
に取得すれば、メモリのオーバーフローが発生してもそ
のオーバーフロー時の画像走査は不要な画像部分につい
ての走査になり、目的とする画像を常に取得することが
できる。
In addition, normal pixel scanning is performed from the upper left to the lower right of the screen of the input image, but in image processing for extracting a road region,
The target image is located below the image. Therefore, there is a possibility that the memory for storing the temporary label overflows when the target image is scanned. For this reason, scanning is performed from the lower right to the upper left of the screen, and the target image is scanned first so that the target image can always be obtained. That is, if the target image is acquired first, even if a memory overflow occurs, the image scanning at the time of the overflow becomes a scan for an unnecessary image portion, and the target image can always be acquired.

次に、画像分割されて得られた「複数の領域の併合手
法」について説明する。
Next, the “method of merging a plurality of regions” obtained by dividing an image will be described.

「テンプレート画像を用いた繰返しきい値処理による
走行コースの抽出手法」により道路候補領域が求めら
れ、「明るさの違いに注目した走行コース上の影や高輝
度部分の抽出手段」により低輝度領域である影や高輝度
領域が求められた。この道路候補領域を基準にし、道路
候補領域と強く繋がっている低輝度領域や高輝度領域を
道路候補領域に併合し、一つの領域として扱い、これを
走行コースとみなす。このためには、各領域に隣接して
いる共通境界長と各領域の周囲長とを求め、繋がってい
る各領域どうしの関係を記述する。この各領域どうしの
関係の記述により併合関係が表され、従来のようにラベ
ルの付け替え操作を行わなくても、領域と領域の併合処
理をしたのと同じ結果が得られる。なお、共通境界長は
各領域に隣接している画素の辺の長さに基づいて求ま
り、周囲長は各領域の最外部の画素の辺の長さに基づい
て求まる。
A road candidate area is obtained by "a method of extracting a traveling course by repeated threshold processing using a template image", and a low-luminance area is extracted by "an extraction means of a shadow or a high-luminance portion on the traveling course focusing on a difference in brightness". Shadows and high-luminance areas. Based on this road candidate area, a low-luminance area and a high-luminance area strongly connected to the road candidate area are merged into a road candidate area, treated as one area, and regarded as a traveling course. For this purpose, the common boundary length adjacent to each area and the perimeter of each area are determined, and the relationship between the connected areas is described. The description of the relationship between the regions indicates the merging relationship, and the same result as that of the merging process of the regions can be obtained without performing the label change operation as in the related art. Note that the common boundary length is determined based on the length of the side of the pixel adjacent to each area, and the perimeter is determined based on the length of the side of the outermost pixel of each area.

以下に本手法のアルゴリズムを示す。本手法は二通り
であり、第1に、逆L字のマスクを走査させる逆L字マ
スク走査式手法があり、この手法は簡単なアルゴリズム
でハードウエア化に適している。第2に、領域の境界を
局所的に探査する領域境界探査式手法があり、この手法
は必要な領域の境界のみを探査するため、少ないメモリ
で処理できて有効である。
The algorithm of this method is shown below. This method is of two types. First, there is an inverted L-shaped mask scanning method for scanning an inverted L-shaped mask. This method is a simple algorithm suitable for hardware implementation. Secondly, there is an area boundary search method for locally searching the boundary of an area. This method searches only the boundary of a necessary area, so that it can be processed with a small memory and is effective.

第1の手法である逆L字マスク走査式手法は、第32図
に示される逆L字マスクをラベル画像の左から右へ、上
から下へ走査することにより実行される。図示のマスク
に現れるx画素は着目する画素であり、a画素は着目画
素xの上に位置する画素、b画素は着目画素xの左隣に
位置する画素である。例えば、第33図に示される画素領
域を想定する。同図に示される□は1つの画素を表して
おり、この□の中の数値はその画素のラベル値を表して
いる。本例の場合には、ラベル値1の領域とラベル値4
の領域とが隣接している。なお、図には示されていない
が、背景領域はラベル値が0になっている。
The first method, the inverted L-shaped mask scanning method, is executed by scanning the inverted L-shaped mask shown in FIG. 32 from left to right and from top to bottom of the label image. The x pixel appearing in the illustrated mask is a pixel of interest, the a pixel is a pixel located above the pixel of interest x, and the b pixel is a pixel located to the left of the pixel of interest x. For example, assume the pixel area shown in FIG. The □ shown in the figure represents one pixel, and the numerical value in the □ represents the label value of the pixel. In the case of this example, the area of label value 1 and the label value 4
Are adjacent to each other. Although not shown in the figure, the label value of the background area is 0.

各領域の周囲長obは、逆L字マスクを各領域の行に沿
って、つまり、ランに沿って走査することにより求ま
る。具体的には、ラベル値1の領域の周囲長ob1は次の
ように求まる。まず、逆L字マスクのx画素を最上段の
ランの左端に位置する画素に合わせる。この場合、a画
素およびb画素は背景領域にあり、ラベル値は0になっ
ているため、この画素の2辺はラベル値1の領域の周囲
に位置していることが分かる。従って、周囲長ob1をカ
ウントするカウンタに2を加える。次に、逆L字マスク
を右に走査し、x画素を右隣の画素に合わせる。この場
合、a画素は背景領域にあり、b画素は前回マスクを合
わせたラベル値1の本領域内の画素にある。従って、こ
の画素の1辺がラベル値1の本領域の周囲に位置してい
ることが分かり、カウンタにさらに1を加える。このよ
うに逆L字マスクをランに沿ってラベル値1の領域につ
いて走査することにより、周囲長ob1は18になる。な
お、周囲長obの単位は画素の辺の数である。
The perimeter length ob of each area is obtained by scanning the inverted L-shaped mask along the row of each area, that is, along the run. Specifically, the perimeter ob1 of the area of the label value 1 is obtained as follows. First, the x pixel of the inverted L-shaped mask is matched with the pixel located at the left end of the uppermost run. In this case, since the pixel a and the pixel b are in the background area and the label value is 0, it can be understood that two sides of this pixel are located around the area of the label value 1. Therefore, 2 is added to the counter for counting the perimeter ob1. Next, the inverted L-shaped mask is scanned to the right, and the x pixel is adjusted to the pixel on the right. In this case, the pixel a is located in the background area, and the pixel b is located in a pixel in the main area having a label value of 1 with the previous mask. Therefore, it is found that one side of this pixel is located around the main area of the label value 1, and 1 is added to the counter. By scanning the area of the label value 1 along the run with the inverted L-shaped mask in this manner, the perimeter ob1 becomes 18. The unit of the perimeter ob is the number of sides of the pixel.

ラベル値4の領域の周囲長ob4も上記の周囲長ob1と同
様にして求められ、その値は20になる。
The perimeter ob4 of the area of the label value 4 is also obtained in the same manner as the above perimeter ob1, and its value is 20.

また、ラベル値1の領域とラベル値4の領域との共通
境界長cbは次のようにして求めることが出来る。この共
通境界長cbは、ラベル値1の領域から見たラベル値4の
領域との共通境界長cb14と、ラベル値4の領域から見た
ラベル値1の領域との共通境界長cb41とで異なる場合が
ある。つまり、マスクが逆L字の形状をしており、各画
素の2近傍の画素しか考慮しないために共通境界長に差
が生じるのであるが、複数の領域の併合処理に際しては
何等問題とならない。なお、走査するマスクを着目画素
の4近傍を見る十字形状にすれば、共通境界長に差がで
きることはない。
Further, the common boundary length cb between the area of the label value 1 and the area of the label value 4 can be obtained as follows. The common boundary length cb is different between a common boundary length cb14 with the label value 4 area viewed from the label value 1 area and a common boundary length cb41 with the label value 1 area viewed from the label value 4 area. There are cases. In other words, the mask has an inverted L-shape, and only two neighboring pixels of each pixel are taken into account, causing a difference in the common boundary length. However, there is no problem in the merging processing of a plurality of regions. It should be noted that if the mask to be scanned has a cross shape that looks at the vicinity of 4 of the pixel of interest, there is no difference in the common boundary length.

ラベル値1の領域から見たラベル値4との共通境界長
cb14は、周囲長ob1を求める際のマスク走査によって求
められる。この共通境界長cb14は0になる。すなわち、
ラベル値1の領域の各ランについて逆L字マスクを走査
しても、a画素およびb画素にはラベル値4の画素が現
れないからである。
Common boundary length with label value 4 as seen from the area of label value 1
cb14 is obtained by mask scanning when obtaining the perimeter ob1. This common boundary length cb14 becomes zero. That is,
This is because even if the inverted L-shaped mask is scanned for each run in the area with the label value 1, the pixel with the label value 4 does not appear in the a-pixel and the b-pixel.

ラベル値4の領域から見たラベル値1の領域との共通
境界長cb41は、周囲長ob4を求める際のマスク走査によ
って求めることが出来る。この共通境界長cb41は3にな
る。すなわち、ラベル値4の領域の2段目および3段目
のランの先頭画素にマスクが位置する場合、b画素には
ラベル値1の画素が現れる。このため、3段目までのラ
ンについてのマスク走査により、共通境界長cb41をカウ
ントするカウンタの値は2になる。さらに、4段目のラ
ンの先頭位置にマスクが位置する際には、マスクのa画
素にはラベル値1の画素が現れる。このため、カウンタ
に1が加えられてカウンタの積算値は3になり、共通境
界長cb41は3になる。なお、共通境界長cbの単位は画素
の辺の数である。
The common boundary length cb41 with the label value 1 area viewed from the label value 4 area can be obtained by mask scanning when obtaining the peripheral length ob4. This common boundary length cb41 is 3. That is, when the mask is located at the first pixel of the second and third runs in the area with the label value 4, the pixel with the label value 1 appears at the b pixel. Therefore, the value of the counter that counts the common boundary length cb41 becomes 2 by the mask scanning for the runs up to the third stage. Further, when the mask is located at the head position of the fourth run, a pixel having a label value of 1 appears at the a pixel of the mask. Therefore, 1 is added to the counter, the integrated value of the counter becomes 3, and the common boundary length cb41 becomes 3. The unit of the common boundary length cb is the number of sides of the pixel.

次に、このように求めた各領域間の共通境界長および
各領域の周囲長は、第34図に示されるラベル間境界長マ
トリクスにその値が記憶される。同マトリクスの各列に
付された数字0,1,2,…,j,…k、および各行に付された
数字0,1,2,…,i,…lはラベル値を示す。各列および各
行の数値によって指定される場所に記憶される数値mij
は、ラベル値iの領域から見たラベル値jの領域との共
通境界長である。また、k+1番目の列に記憶される数
値tiは、ラベル値iの領域の周囲長である。
Next, the values of the common boundary length between the regions and the perimeter of each region thus determined are stored in the boundary length matrix between labels shown in FIG. The numbers 0, 1, 2,..., J,... K assigned to each column of the matrix and the numbers 0, 1, 2,. The numeric value mij stored in the location specified by the numeric value in each column and each row
Is a common boundary length with the area of the label value j as viewed from the area of the label value i. The numerical value ti stored in the (k + 1) th column is the perimeter of the area of the label value i.

第33図に示された画素領域を例とすると、ラベル値1
の領域から見たラベル値4の領域との共通境界長cb14の
値は0であるため、同マトリクスの1行4列に位置する
メモリには0が記憶される。また、ラベル値4の領域か
ら見たラベル値1の領域との共通境界長cb41の値は3で
あるため、同マトリクスの4行1列に位置するメモリに
は3が記憶される。
Taking the pixel area shown in FIG. 33 as an example, label value 1
Since the value of the common boundary length cb14 with respect to the area of the label value 4 as viewed from the area of 0 is 0, 0 is stored in the memory located in the first row and the fourth column of the same matrix. Further, since the value of the common boundary length cb41 with the area of the label value 1 as viewed from the area of the label value 4 is 3, 3 is stored in the memory located at the 4th row and the 1st column of the same matrix.

各領域の周囲長および各領域間の共通境界長を求めて
マトリクスを作成した後、各領域間の接続度を計算す
る。この接続度は共通境界長と周囲長とに基づく次式に
より求まる。
After a matrix is created by calculating the perimeter of each region and the common boundary length between the regions, the connectivity between the regions is calculated. This connection degree is obtained by the following equation based on the common boundary length and the perimeter.

接続度=X/min(A,B) ここで、Aはラベル値iの領域の周囲長、Bはラベル
値jの領域の周囲長であり、min(A,B)はA,Bの各数値
の内の小さい方の数値を表す。また、Xは次式で表され
る各領域間の共通境界長の平均値である。
Degree of connection = X / min (A, B) where A is the perimeter of the area of the label value i, B is the perimeter of the area of the label value j, and min (A, B) is each of A and B Represents the smaller of the numbers. X is the average value of the common boundary length between the respective areas represented by the following equation.

X=(X1+X2)/2 X1はラベル値iの領域から見たラベル値jの領域との
共通境界長、X2はラベル値jの領域から見たラベル値i
の領域との共通境界長である。上記のXを示す式は、X1
およびX2共に0でない(X1≠0,X2≠0)場合に有効であ
る。X2が0(X2=0)の場合にはXは次式に示される。
X = (X1 + X2) / 2 X1 is a common boundary length with the area of the label value j viewed from the area of the label value i, and X2 is the label value i viewed from the area of the label value j.
Is the common boundary length with the region of. The above expression for X is X1
This is effective when both X2 and X2 are not 0 (X1 ≠ 0, X2 ≠ 0). When X2 is 0 (X2 = 0), X is represented by the following equation.

X=X1 X1が0(X1=0)の場合にはXは次式に示される。 X = X1 When X1 is 0 (X1 = 0), X is represented by the following equation.

X=X2 計算した接続度が所定のしきい値以上であれば、ラベ
ル値iの領域とラベル値jの領域との繋がりは強く、各
領域は併合すべき関係にある。また、接続度が所定のし
きい値以下であれば、ラベル値iの領域とラベル値jの
領域との繋がりは薄く、各領域は併合すべき関係にはな
い。この併合関係は、第35図に示される特徴量リストの
接続ラベル欄に記述される。
X = X2 If the calculated connectivity is equal to or greater than a predetermined threshold, the connection between the area of the label value i and the area of the label value j is strong, and the respective areas are in a relationship to be merged. If the degree of connection is equal to or less than the predetermined threshold value, the connection between the area of the label value i and the area of the label value j is weak, and the areas do not have to be merged. This merging relationship is described in the connection label column of the feature amount list shown in FIG.

同リストのラベルNo.はラベル値であり、面積,重心
はそのラベル値の領域の面積および重心である。この面
積および重心は前述のラベリング処理の時に得られる。
外接長方形とは、そのラベル値の領域内の全ての画素を
囲む長方形である。外接長方形は、辺と辺との交点であ
る4つの頂点の内、左上の頂点の座標tL(x,y)と、右
下の頂点の座標bR(x,y)とによって特定される。各座
標は上述の境界の探査過程処理の時に求められる。ま
た、接続ラベル欄に記載されたラベルNo.は、そのラベ
ル値の領域と併合すべき関係にある領域のラベル値を示
している。この欄に記載された領域とさらに併合すべき
領域がある場合には、図示のように、接続ラベルがさら
にポインタにより繋げられる。
The label No. of the list is a label value, and the area and the center of gravity are the area and the center of gravity of the area of the label value. The area and the center of gravity are obtained at the time of the labeling process described above.
The circumscribed rectangle is a rectangle that surrounds all the pixels in the area of the label value. The circumscribed rectangle is specified by the coordinates tL (x, y) of the upper left vertex and the coordinates bR (x, y) of the lower right vertex among the four vertices that are the intersections of the sides. Each coordinate is obtained in the above-described boundary search process. Further, the label No. described in the connection label column indicates the label value of an area which is to be merged with the area of the label value. When there is an area to be further merged with the area described in this column, as shown in the figure, the connection labels are further connected by a pointer.

また、同リストに記述された各特徴量は第36図に示さ
れる各領域のものである。各領域にはラベル値l1〜l4が
付され、また、G1〜G4は各領域の重心位置を示してい
る。また、各領域には外接長方形が描かれている。この
長方形の上の1辺と領域との接点は座標st(x,y)とし
て表され、領域開始点tL(x,y)から水平操作すること
により求まる。座標stは後述する手法において利用され
る。
Each feature described in the list is for each area shown in FIG. Label values l1 to l4 are assigned to the respective regions, and G1 to G4 indicate the positions of the centers of gravity of the respective regions. A circumscribed rectangle is drawn in each area. A contact point between one side on the rectangle and the region is represented as coordinates st (x, y), and is obtained by performing a horizontal operation from the region start point tL (x, y). The coordinates st are used in a method described later.

ラベル値l1の領域とラベル値l2の領域とは併合すべき
関係にあるため、特徴量リストのラベルNo.l1の行の接
続ラベル欄にはラベル値l2が記述される。さらに、ラベ
ル値l1の領域は、ラベル値l3の領域およびラベル値l4の
領域とも併合すべき関係にあるため、ラベル値l3および
l4の接続ラベルがポインタにより繋げられる。また、ラ
ベルNo.l2〜l4の各行の接続ラベル欄にも同様な考え方
で各領域間の接続関係が記述される。
Since the area of the label value l1 and the area of the label value l2 are to be merged, the label value l2 is described in the connection label column of the label No. l1 line of the feature amount list. Furthermore, since the area of the label value l1 has a relationship to be merged with the area of the label value l3 and the area of the label value l4,
The connection label of l4 is connected by the pointer. Further, the connection relation between the respective areas is described in the connection label column of each row of the label Nos. L2 to l4 in the same way.

次に、領域境界探査式手法について説明する。 Next, an area boundary search method will be described.

まず、対象とする領域に外接する長方形を描き、この
外接長方形と領域とが接する座標st(x,y)に位置する
探索開始画素を求める。そして、この探査開始画素の8
近傍に位置する画素について調査する。8近傍に位置す
る各参照画素には、第37図に示されるように位置No.を
付す。つまり、着目画素の上に位置するNo.を0とし、
時計回りに順に番号を付す。探索開始画素の次に探索す
べき画素の座標は、第38図(a),(b)に表された画
素参照テーブルを用いて決定する。同図(a)に示され
るテーブルは画素の探索を時計回り(右回り)に実行す
る際に参照されるテーブルであり、同図(b)に示され
るテーブルは画素の探索を反時計回り(左回り)に実行
する際に参照されるテーブルである。テーブルの括弧
{ }に挾まれた0〜7の数値は、第37図の参照画素の
位置No.に対応するものである。
First, a rectangle circumscribing the target area is drawn, and a search start pixel located at coordinates st (x, y) where the circumscribed rectangle and the area are tangent is determined. And 8 of this search start pixel
Investigate the pixels located in the vicinity. Each reference pixel located in the vicinity of No. 8 is assigned a position No. as shown in FIG. That is, the No. located above the pixel of interest is set to 0,
Number sequentially in clockwise order. The coordinates of the pixel to be searched next to the search start pixel are determined using the pixel reference tables shown in FIGS. 38 (a) and (b). The table shown in FIG. 6A is a table referred to when a pixel search is performed clockwise (clockwise), and the table shown in FIG. This is a table that is referred to when executing clockwise. Numerals 0 to 7 between parentheses {} in the table correspond to the position numbers of the reference pixels in FIG.

次に探査すべき画素は、前回の画素位置に対する今回
の画素位置に対応する参照画素位置No.を求め、この位
置No.に一致するテーブルの行No.の列No.を参照するこ
とにより決定される。画素参照テーブルを用いた探索画
素の決定方式について以下に具体的に説明する。画素領
域の境界部が第39図のように形成されている場合を想定
する。同図の斜線が付された□はラベル値が0ではない
画素を示している。前回探索した画素を記号△で示し、
現在探索する画素を記号○で示し、次に探索すべき画素
を記号◎で示す。
The pixel to be searched next is determined by obtaining the reference pixel position number corresponding to the current pixel position with respect to the previous pixel position, and referring to the column number of the row number of the table corresponding to this position number. Is done. A method for determining a search pixel using the pixel reference table will be specifically described below. Assume that the boundary of the pixel area is formed as shown in FIG. In the figure, the hatched squares indicate pixels whose label value is not 0. The previously searched pixel is indicated by the symbol △,
The currently searched pixel is indicated by a symbol 、, and the next pixel to be searched is indicated by a symbol ◎.

前回の画素位置△に対する今回の画素位置○は、第37
図の参照画素位置No.では1に対応する。領域の境界付
近の画素を右回りに探索することにすると、画素参照テ
ーブルは第38図(a)のテーブルを参照することにな
る。参照画素位置No.は1であるため、行No.が1の列N
o.{7,0,1,2,3,4,5,6}を参照する。なお、行No.は最上
段の行が0であり、順に1〜7となっている。また、列
No.には参照すべき画素のNo.が全て記されており、画素
の8近傍の参照をこの順番に従って行うことにより、通
常のアドレス計算におけるモジュロ計算を避けることが
出来る。
The current pixel position △ with respect to the previous pixel position 、 is the 37th
The reference pixel position No. in the figure corresponds to 1. If the pixel near the boundary of the area is searched clockwise, the pixel reference table refers to the table in FIG. 38 (a). Since the reference pixel position No. is 1, the row No. is 1 and the column N
o. Refer to {7,0,1,2,3,4,5,6}. The row No. is 0 in the top row, and is 1 to 7 in order. Also columns
The number of the pixel to be referred is described in the No., and the modulo calculation in the normal address calculation can be avoided by referring to the eight neighborhoods of the pixel in this order.

すなわち、列No.は7から始まっているため、次に探
査すべき画素は現在位置○の斜め左上に位置する画素◎
になる。画素◎は背景領域であり、ラベル値は0である
ため、列No.に従って次の画素を探索する。つまり、次
の参照画素位置No.は0であるため、現在位置○の上に
位置する画素を探索する。この画素も背景領域にあるた
め、さらに、列No.に従って参照画素位置No.が1の画素
を探索する。この画素はラベル値を持っており、0では
ないため、次に探索する画素の基準をこの位置No.1の画
素におき、この8近傍について上記と同様に探索する。
そして、領域の境界に沿った各画素について上記の処理
を行い、探索開始画素に戻るまで同様の処理を各画素に
ついて繰り返す。
That is, since the column No. starts from 7, the next pixel to be searched is a pixel ◎ which is located diagonally upper left of the current position ◎.
become. Pixel ◎ is a background area, and the label value is 0, so the next pixel is searched according to the column No. That is, since the next reference pixel position No. is 0, a pixel located above the current position ○ is searched. Since this pixel is also in the background area, a search is made for a pixel whose reference pixel position No. is 1 according to the column No. Since this pixel has a label value and is not 0, the reference of the next pixel to be searched is set to the pixel at this position No. 1, and the search for the eight neighboring pixels is performed in the same manner as described above.
Then, the above processing is performed for each pixel along the boundary of the area, and the same processing is repeated for each pixel until the pixel returns to the search start pixel.

また、この探索の処理において、次の規則に従った処
理を行うことにより、ラベル値iの自身の領域の周囲長
obiおよびラベル値jの隣接する領域との共通境界長cbi
jを求めることが出来る。つまり、現在位置の上下左右
の4近傍に隣接する領域にラベル値jが存在すれば、共
通境界長cbijをカウントするカウンタに1を加算する。
同時に、自己の周囲長obiをカウントするカウンタに1
を加算する。また、現在位置の4近傍に自身のラベル値
iと同一のラベル値の画素が存在しない場合には、自己
の周囲長のカウントに1を加算する。
In addition, in this search processing, by performing processing according to the following rules, the perimeter of the own area of the label value i is obtained.
common boundary length cbi between obi and the adjacent region of label value j
j can be obtained. That is, if the label value j exists in the area adjacent to the four neighborhoods of the current position, up, down, left, and right, 1 is added to the counter that counts the common boundary length cbij.
At the same time, the counter that counts the obi
Is added. If there is no pixel having the same label value as its own label value i in the vicinity of 4 at the current position, 1 is added to the count of its own perimeter.

次に、求めた周囲長および共通境界長に基づき、逆L
字マスク操作式手法における計算と同様にして各領域間
の接続度を求める。これと同時に前述と同様にして特徴
量リストを作成する。この特徴量リストの接続ラベルに
は各領域間の接続関係が記述され、複数の領域の併合関
係が判断される。つまり、本手法によっても、各領域の
ラベルの付け替え操作を行わなくとも各領域の併合関係
が判明する。なお、上記の境界探査は右回りに行った
が、境界探査を左回りに実行する場合には、第38図
(b)に示される左回り用の画素参照テーブルを用いる
ことにより、右回りと同様にして処理を行うことが可能
である。
Next, based on the determined perimeter and common boundary length, the inverse L
The connectivity between the respective regions is obtained in the same manner as the calculation in the character mask operation formula method. At the same time, a feature amount list is created in the same manner as described above. The connection label between the regions is described in the connection label of the feature amount list, and the merging relationship of a plurality of regions is determined. That is, even with this method, the merging relationship of each area can be determined without performing a label change operation of each area. The above boundary search was performed clockwise. However, when the boundary search is performed counterclockwise, the clockwise and counterclockwise search is performed by using the counterclockwise pixel reference table shown in FIG. 38 (b). Processing can be performed in a similar manner.

このように画素参照テーブルを用いることにより、速
い境界探査が可能になる。つまり、探索の基準となる画
素の8近傍の全ての画素について調査する必要は無い。
また、領域の境界部付近の画素のみを探索すれば良く、
領域内の全ての画素について探索する必要が無くなる。
従って、処理時間は短縮される。
By using the pixel reference table in this manner, a fast boundary search can be performed. In other words, it is not necessary to check all the pixels in the vicinity of the pixel 8 serving as the reference for the search.
Also, only the pixels near the boundary of the region need to be searched,
There is no need to search for all the pixels in the area.
Therefore, processing time is reduced.

以上説明した各手法によれば、従来のようにラベルの
付け替え操作を行わずに各分割領域間の併合関係を判断
することが出来る。つまり、「テンプレート画像を用い
た繰返しきい値処理による走行コースの抽出手法」で得
られた道路候補領域と、「明るさの違いに注目した走行
コース上の影や高輝度部分の抽出手段」で得られた低輝
度および高輝度領域とが併合され、現実に即した走行コ
ース領域を得ることが出来る。
According to each of the methods described above, the merging relationship between the divided areas can be determined without performing the label replacement operation as in the related art. In other words, the road candidate area obtained by the “extraction method of the traveling course by the repetitive threshold value processing using the template image” and the “extraction means of the shadow and the high luminance portion on the traveling course focusing on the difference in brightness” are used. The obtained low-brightness and high-brightness areas are merged, and a real-world running course area can be obtained.

次に、「走行可能範囲を求める手段」について説明す
る。本手段は、「テンプレート画像を用いた繰返しきい
値処理による走行コースの抽出手法」,「繰返しきい値
処理における特徴量ヒストグラムの形状に基づくしきい
値設定手段」,「明るさの違いに注目した走行コース上
の影や高輝度部分の抽出手段」によって求められた走行
コース画像から最終的な走行可能範囲、すなわち、道路
端座標を求めるものである。
Next, the "means for determining the travelable range" will be described. This means is based on “a method of extracting a running course by repeated threshold processing using template images”, “threshold setting means based on the shape of the feature histogram in repeated threshold processing”, and “focusing on differences in brightness. The final travelable range, that is, road end coordinates, is obtained from the traveling course image obtained by the “extraction means for shadows and high-luminance portions on the traveling course”.

第40図は本手法による走行コース認識システムの処理
全体の流れを示すフローチャートである。まず、カラー
カメラ入力装置によって走行コースの画像情報を取り込
み、取り込まれたR,G,B画像を前述のようにして明度I,
彩度Sの各画像に変換する。変換された各画像に基づ
き、カラー処理装置において明度Iを特徴量とするヒス
トグラムおよび彩度Sを特徴量とするヒストグラムを前
述のように作成する(ステップ4001)。次に、作成した
各ヒストグラムに基づき、「テンプレート画像を用いた
繰返しきい値処理による走行コースの抽出手法」により
道路候補領域を抽出し、小領域を除去する(ステップ40
02)。
FIG. 40 is a flowchart showing a flow of the entire processing of the traveling course recognition system according to the present technique. First, the image information of the traveling course is captured by the color camera input device, and the captured R, G, B images are converted into the brightness I,
The image is converted into each image of the saturation S. Based on each of the converted images, a histogram using the brightness I as a feature amount and a histogram using the saturation S as a feature amount are created in the color processing apparatus as described above (step 4001). Next, based on each of the created histograms, a road candidate area is extracted by a “running course extraction method using repeated threshold processing using a template image”, and small areas are removed (step 40).
02).

次に、本手法により、抽出した道路候補領域の道路端
の点列を評価する(ステップ4003)。そして、この道路
端の点列の評価結果に基づき、抽出した道路候補領域は
単調路か否かを判断する(ステップ4004)。道路らしい
単調路である場合には、さらに、求まった複数の各点列
間の関係を比較し、評価する(ステップ4005)。そし
て、この評価結果を最終的に出力する(ステップ400
6)。この後、今回入力された画像に対する点列は求め
られたものとし、次の画像に対する処理を実行する。
Next, a point sequence at the road end of the extracted road candidate area is evaluated by this method (step 4003). Then, based on the evaluation result of the point sequence at the road end, it is determined whether or not the extracted road candidate area is a monotone road (step 4004). If the road is a road-like monotone road, the relation between the plurality of obtained point sequences is further compared and evaluated (step 4005). Then, the evaluation result is finally output (step 400).
6). Thereafter, it is assumed that a dot sequence for the image input this time has been obtained, and the process for the next image is executed.

また、ステップ4004での判断結果が道路らしさが低く
て単調路でない場合には、「明るさの違いに注目した走
行コース上の影や高輝度部分の抽出手段」により、低輝
度領域が有ればこれを抽出する(ステップ4007)。そし
て、求めた低輝度領域と道路候補領域とを併合し、本手
法により道路端の点列を評価する(ステップ4008)。こ
の道路端の点列の評価結果に基づき、抽出した道路候補
領域は単調路か否かを判断する(ステップ4009)。単調
路である場合には、ステップ4005以降の処理を実行し、
次の画像に対する処理に移行する。
If the result of the determination in step 4004 is that the road-likeness is low and the road is not a monotonous road, a low-luminance area is present due to “extraction means for shadows and high-luminance parts on the traveling course focusing on the difference in brightness”. If this is the case, it is extracted (step 4007). Then, the obtained low-luminance area and the road candidate area are merged, and the point sequence at the road end is evaluated by this method (step 4008). Based on the evaluation result of the point sequence at the road end, it is determined whether or not the extracted road candidate area is a monotone road (step 4009). If the road is a monotone road, execute the processing after step 4005,
The processing shifts to processing for the next image.

また、単調路でない場合には、次に、「明るさの違い
に注目した走行コース上の影や高輝度部分の抽出手段」
により、高輝度領域が有ればこれを抽出する(ステップ
4010)。そして、求めた高輝度領域と道路候補領域とを
併合し、本手法により道路端の点列を評価する(ステッ
プ4011)。この道路端の点列の評価結果に基づき、抽出
した道路候補領域は単調路か否かを判断する(ステップ
4012)。単調路である場合には、ステップ4005以降の処
理を実行し、次の画像に対する処理に移行する。単調路
でない場合には、低輝度領域および高輝度領域を道路候
補領域に併合し、3領域を併合した領域から得られる道
路端の点列を評価する(ステップ4013)。この後ステッ
プ4005移行の処理を実行し、次の画像に対する処理に移
行する。
If the road is not a monotonous road, then, “extraction means for shadows and high-luminance parts on the traveling course focusing on the difference in brightness”
, If there is a high-luminance area, extract it (step
4010). Then, the obtained high-luminance area and the road candidate area are merged, and the point sequence at the road end is evaluated by this method (step 4011). Based on the evaluation result of the point sequence at the road end, it is determined whether or not the extracted road candidate area is a monotone road (step
4012). If the road is a monotone road, the processing after step 4005 is executed, and the processing shifts to the processing for the next image. If the road is not a monotone road, the low-luminance area and the high-luminance area are merged with the road candidate area, and the point sequence at the road end obtained from the merged area of the three areas is evaluated (step 4013). Thereafter, the process of step 4005 is executed, and the process proceeds to the next image.

次に、上記の道路候補領域の道路端の点列座標を求め
る手法について以下に説明する。
Next, a method for obtaining the point sequence coordinates of the road end of the road candidate area will be described below.

例えば、第41図に示される画像領域が得られた場合を
想定する。図の左上を原点とし、x座標は水平方向を右
に向かって正とし、y座標は垂直方向を下に向かって正
とする。この画像に示された道路領域には切れ込みが存
在し、また、ノイズ等により画像情報が得られなかった
箇所が散在する。同図に示される画像の各画素にラベリ
ング処理が行われ、この処理結果、得られる画素領域が
第42図のように示されたものとする。同図の斜線部はラ
ベル値が0ではなく、あるラベル値を持った画素とす
る。なお、斜線のない画素はラベル値が0の背景領域に
位置する画素である。また、3×3個の画素を囲む枠42
01はウインドウWであり、ウインドウWの中に存在する
斜線画素(0でない画素値を有する画素)の数はヒスト
グラムの値になる。図示に位置する場合のウインドウW
によるヒストグラムの値は5である。また、図示のウイ
ンドWは3×3のウインドウになっているが、5×5等
の他の大きさのウインドウであっても良い。
For example, assume that the image area shown in FIG. 41 is obtained. The origin is at the upper left of the figure, the x coordinate is positive in the horizontal direction to the right, and the y coordinate is positive in the vertical direction downward. There are cuts in the road area shown in this image, and places where image information could not be obtained due to noise or the like are scattered. It is assumed that a labeling process is performed on each pixel of the image shown in FIG. 42, and a pixel region obtained as a result of this process is as shown in FIG. The hatched portion in the figure is a pixel having a certain label value instead of a label value of zero. Note that pixels without oblique lines are pixels located in the background area where the label value is 0. A frame 42 surrounding 3 × 3 pixels
01 is a window W, and the number of hatched pixels (pixels having pixel values other than 0) existing in the window W is a histogram value. Window W when positioned as shown
The value of the histogram according to is 5. Although the illustrated window W is a 3 × 3 window, it may be a window of another size such as 5 × 5.

まず、ウインドウWを画像の中央部から左に向けて水
平に走査する。なお、画像の中央部からウインドウWを
走査するのは、処理の開始時だけである。移動しながら
各位置におけるウインドウWのヒストグラムの値を求め
る。このヒストグラム値を監視しながらウインドウWを
移動し、所定のしきい値以下のヒストグラム値が連続し
て得られた場合、つまり、ウインドウW内の斜線画素の
密度が低くなった場合、ウインドウWは道路領域から外
れたものと判断する。そして、ヒストグラム値が所定の
しきい値以下になった最初のウインドウWの位置を左側
の道路端の点列座標XLとする。次に、ウインドウWを右
側へ向けて水平走査し、ウインドウW内のヒストグラム
値が連続して所定のしきい値以下になった場合、このヒ
ストグラム値の変化する最初のウインドウWの位置を右
側の道路端の点列座標XRとする。
First, the window W is horizontally scanned from the center of the image to the left. The window W is scanned from the center of the image only at the start of the processing. The value of the histogram of the window W at each position is determined while moving. When the window W is moved while monitoring the histogram value, and a histogram value equal to or less than a predetermined threshold value is continuously obtained, that is, when the density of hatched pixels in the window W decreases, the window W It is determined that the vehicle is out of the road area. Then, the position of the first window W where the histogram value becomes equal to or less than the predetermined threshold value is set as the point sequence coordinates XL of the left road end. Next, the window W is horizontally scanned rightward, and when the histogram value in the window W continuously falls below a predetermined threshold value, the position of the first window W where the histogram value changes is set to the right side. Point sequence coordinates XR at the road edge.

次に、ウインドウWの位置するY座標を1つ減らし、
ウインドウWを画像の上方へ移動して4水平走査位置を
ずらす。そして、上記の最初の水平走査により得られた
道路端座標XL,XRから道路領域の中央位置を式(XR−X
L)/2の計算をすることにより求める。この中央位置を
ウインドウWの走査開始位置とし、ウインドウWを左右
に走査する。この走査においても上記と同様にしてウイ
ンドウW内のヒストグラム値を監視し、ヒストグラム値
の変化する位置を道路端の座標とする。以下、水平走査
位置のY座標が地平線位置になるまで同様の処理を繰り
返すことにより、左右の道路端の一連の点列座標を得る
ことが出来る。
Next, the Y coordinate at which the window W is located is reduced by one,
The window W is moved upward of the image to shift four horizontal scanning positions. Then, the center position of the road area is calculated from the road end coordinates XL and XR obtained by the first horizontal scanning by the equation (XR−X
L) / 2 is calculated. The center position is set as the scanning start position of the window W, and the window W is scanned left and right. Also in this scanning, the histogram value in the window W is monitored in the same manner as described above, and the position where the histogram value changes is set as the coordinates of the road edge. Hereinafter, by repeating the same processing until the Y coordinate of the horizontal scanning position becomes the horizon position, a series of point sequence coordinates of the left and right road edges can be obtained.

また、このウインドウWの走査において、走査開始位
置のウインドウWから得られるヒストグラム値が最初か
ら所定のしきい値以下であり、しかも、ウインドウWを
左側へ走査して得られるヒストグラム値が連続して所定
のしきい値以下の場合には、中央位置が道路端座標にな
ってしまう。しかし、この場合にはウインドウWの走査
方向を逆の右側に変える。そして、所定のしきい値以上
のヒストグラム値が連続して得られた場合には、最初に
所定のしきい値以上のヒストグラム値が得られたウイン
ドウWの位置を左側の道路端の座標とする。右側の道路
端の座標は、ウインドウWをさらに右側に走査し、ヒス
トグラム値の変化する位置を求めることにより判明す
る。
In the scanning of the window W, the histogram value obtained from the window W at the scanning start position is equal to or less than the predetermined threshold value from the beginning, and the histogram value obtained by scanning the window W to the left side is continuously. If the distance is equal to or smaller than the predetermined threshold value, the center position becomes the road end coordinates. However, in this case, the scanning direction of the window W is changed to the opposite right side. When the histogram values equal to or more than the predetermined threshold value are continuously obtained, the position of the window W where the histogram value equal to or more than the predetermined threshold value is obtained first is set as the coordinates of the left road edge. . The coordinates of the right side road edge can be found by scanning the window W further rightward and finding the position where the histogram value changes.

次に、このように求めた道路端の点列座標は領域の境
界付近に存在するため、各点を繋ぐことにより得られる
境界線は一様に滑らかなものではない。このため、ある
1点の前後に位置する各点とこの1点とがなす角度を点
列の全点について計算し、この分散値を滑らかさの基準
とする。また、得られた角度が鋭角のときはその点は除
去して計算する。このように左右の道路端の各点列座標
を平滑化した後、これら点列座標を実空間へ射影変換す
る。この射影変換は自律走行車に取り付けたカラーカメ
ラの俯角,高さ,焦点距離に基づいて行われる。
Next, since the point sequence coordinates of the road end obtained in this way exist near the boundary of the area, the boundary line obtained by connecting the points is not uniformly smooth. For this reason, the angles formed by each point located before and after a certain point and this one point are calculated for all the points in the point sequence, and this variance value is used as a reference for smoothness. When the obtained angle is an acute angle, the point is removed for calculation. After smoothing the point sequence coordinates of the left and right road edges in this way, these point sequence coordinates are projectively transformed into the real space. This projective transformation is performed based on the depression angle, height, and focal length of the color camera attached to the autonomous vehicle.

さらに、この射影変換後の点列において、左右の点列
を一組として左右の各点列間の距離、つまり、道路幅を
求める。そして、この道路幅が走行車の車体幅より狭く
なる点の数を数え、点列の全点数に対するこの狭い幅の
点数を計算する。全点数に対する狭い幅の点数の比率が
小さい場合には、狭い幅の点は道路端の点としてはふさ
わしくないため、これら各点は除去する。
Further, in the point sequence after the projective transformation, the distance between the left and right point sequences, that is, the road width, is obtained by setting the left and right point sequences as a set. Then, the number of points where the road width becomes narrower than the vehicle body width of the traveling vehicle is counted, and the points of this narrow width with respect to all points in the point sequence are calculated. When the ratio of the points of the narrow width to the total number of points is small, the points of the narrow width are not suitable as the road end points, and thus these points are removed.

また、この道路端の点列の評価に際して、最初に求め
た一組の左右端によって定まる道路端と差の少ない左右
の組を数える。差の少ない左右の組みが全部の組みに対
して占める比率が大きい場合、つまり、左右の道路端列
がある程度平行している場合には、道路らしさとしての
評価は最も高くなり、単調路として判断される。このよ
うに単調路として判断される場合には、第40図に示され
たフローチャートのステップ4003,4008,4011の処理をし
なくても道路端を得ることが出来る。
In evaluating the point sequence at the road edge, the left and right pairs that have a small difference from the road edge determined by the first set of left and right edges are counted. When the ratio of the left and right pairs with a small difference to the total pair is large, that is, when the left and right road end rows are parallel to some extent, the evaluation as road-likeness is the highest, and it is judged as a monotone road. Is done. When it is determined that the road is a monotonous road, the road edge can be obtained without performing the processing of steps 4003, 4008, and 4011 in the flowchart shown in FIG.

次に、自立走行車が道路端に極端に近付き過ぎた場合
における、道路左右端の点列の補正手段について説明す
る。第43図(a)〜(d)は自律走行車が道路端に近付
く過程を示している。同図(a)は自律走行車が曲率の
きついカーブ手前に位置している場合を示している。こ
の場合には、自律走行車に取り付けられたカラーカメラ
には、左側の道路端Lおよび右側の道路端Rが視野内に
捕らえられている。道路のカーブの曲率がきつ場合、同
図(a)に位置していた自律走行車は同図(b)に示さ
れる位置に移動する。この場合、右側の道路端Rはカメ
ラの視野から消える。
Next, a description will be given of a means for correcting a point sequence at the left and right ends of the road when the self-contained traveling vehicle is extremely close to the road edge. FIGS. 43 (a) to (d) show a process in which an autonomous vehicle approaches a road edge. FIG. 3A shows a case where the autonomous traveling vehicle is located just before a sharp curve. In this case, the left road end L and the right road end R are captured in the field of view by the color camera attached to the autonomous vehicle. When the curvature of the road curve is tight, the autonomous vehicle located in FIG. 11A moves to the position shown in FIG. In this case, the right road edge R disappears from the field of view of the camera.

さらに、自律走行車は同図(c)に示される位置に移
動し、テンプレートに占める道路外領域の比率は段々高
くなる。図示の斜線部は道路外領域を示している。さら
に、自律走行車は同図(d)に示される位置に移動す
る。この場合、カメラの視野には左側の道路端および道
路外領域の左側の境界部が捕らえられている。また、テ
ンプレート画像に占める道路外領域の占める比率は高く
なり、道路外領域が走行路コースと誤認される。この結
果、左側の道路端は右側の道路端Rとして誤認され、道
路外領域の左側の境界は左側の道路端Lと誤認される。
Further, the autonomous vehicle moves to the position shown in FIG. 9C, and the ratio of the area outside the road to the template gradually increases. The shaded area in the figure indicates the area outside the road. Further, the autonomous vehicle moves to the position shown in FIG. In this case, the left side of the road edge on the left side and the left side boundary of the area outside the road are captured in the field of view of the camera. In addition, the ratio of the area outside the road to the template image increases, and the area outside the road is mistaken for the traveling course. As a result, the left road edge is erroneously recognized as the right road edge R, and the left boundary of the area outside the road is erroneously recognized as the left road edge L.

しかし、順次撮像される画像情報から得られる道路端
の点列は、前回画像における右側の点列が今回画像にお
いて極端に左側に位置する点列になることはない。ま
た、逆に、前回画像における左側の点列が今回画像にお
いて極端に右側に位置する点列になることはない。従っ
て、1処理サイクル前の画像情報から得た点列情報を記
憶保持しておき、今回の画像情報から得た点列とこの前
回の画像情報から得た点列との距離を後述するように計
算する。そして、例えば、前回求めた右側の道路端の点
列と今回求めた右側の道路端の点列との距離が離れてお
り、前回の右側点列が今回の左側点列に近い場合には、
左右の道路端の位置が逆転したものと判断する。そし
て、今回得た道路端の右側と左側とを入れ替える。
However, the point sequence at the road end obtained from the sequentially captured image information does not become the point sequence on the right side in the previous image that is extremely left on the current image. Conversely, the point sequence on the left side in the previous image does not become a point sequence extremely located on the right side in the current image. Therefore, the point sequence information obtained from the image information one processing cycle ago is stored and held, and the distance between the point sequence obtained from the current image information and the point sequence obtained from the previous image information will be described later. calculate. Then, for example, if the distance between the right-hand point sequence obtained at the last time and the right-hand point sequence obtained this time is far away, and the last right-point sequence is close to the current left-point sequence,
It is determined that the positions of the left and right road edges have been reversed. Then, the right side and the left side of the road edge obtained this time are switched.

これを第43図に示される画像を用いて説明する。同図
(c)の画像を前回得られた画像とし、左側の道路端の
点列をLi−1と表現する。同図(d)の画像を今回求め
た画像とし、誤認している左側の道路端の点列をLi、誤
認している右側の道路端の点列をRiと表現する。左右の
道路端の点列が逆転しているか否かの判断は、前回の点
列Li−1が今回の点列Li,Riのうちどちらに近いかを判
断することにより行う。前回の点列Li−1が今回の点列
Riに近い場合には、左右の道路端の点列は逆転したもの
と判断する。
This will be described with reference to the image shown in FIG. The image in FIG. 3C is the image obtained last time, and the point sequence at the left side of the road is expressed as Li-1. The image shown in FIG. 3D is the image obtained this time, and the point sequence at the left road edge that is erroneously recognized is expressed as Li, and the point sequence at the right road edge that is erroneously recognized is expressed as Ri. The determination as to whether the point sequence at the left and right road ends is reversed is made by determining which of the current point sequence Li and Ri is closer to the previous point sequence Li-1. The previous point sequence Li-1 is the current point sequence
If it is close to Ri, it is determined that the point sequence at the left and right road edges has been reversed.

一般的に、この点列の近さの判断は次のように行う。
つまり、今回の画像から得た左側の点列を1グループ、
右側の点列をもう1つのグループとし、前回の左側また
は右側の点列がこれら各グループのうちのどちらのグル
ープに近いかを判断することにより行う。このどちらの
グループに近いかの判断は、以下に詳述するマハラノビ
スの汎距離によって決定する。第44図はこのマハラノビ
スの汎距離を説明するための図である。
Generally, the closeness of the point sequence is determined as follows.
That is, the left point sequence obtained from this image is one group,
The point sequence on the right side is regarded as another group, and it is determined by judging which of the groups the previous point sequence on the left or right side is closer to. The determination as to which of these groups is closer is determined by Mahalanobis' generalized distance, which will be described in detail below. FIG. 44 is a diagram for explaining the Mahalanobis' generalized distance.

前回の画像情報による左側点列Li−1(または右側点
列Ri−1)の点を(x,y)、今回の画像情報による左側
点列Liの点を(x1j,y1j)、今回の画像情報による右側
点列Riの点を(x2j,y2j)とする。前回の点列の点(x,
y)が今回の点列LiとRiとのうちのどちらに近いかは、
マハラノビスの汎距離を点列Li−1(または点列Ri−
1)の全点に対して以下のように計算し、距離の短い点
が多く属すほうの点列に近いものとする。また、今回の
画像によって求まった点列が直線の時には、この直線ま
での距離を計算する。
The point of the left point sequence Li-1 (or the right point sequence Ri-1) based on the previous image information is (x, y), the point of the left point sequence Li based on the current image information is (x1j, y1j), and the current image The point of the right point sequence Ri based on the information is (x2j, y2j). The point in the previous point sequence (x,
y) is closer to the current point sequence Li or Ri
The Mahalanobis' generalized distance is calculated using the point sequence Li-1 (or the point sequence Ri-
The calculation is performed as follows for all the points in 1), and it is assumed that points having short distances are closer to the point sequence to which many points belong. When the point sequence obtained from the current image is a straight line, the distance to this straight line is calculated.

まず、点列Li上の各点について、x方向成分の平均値
μ11,y方向成分の平均値μ12,x方向成分の分散値σ11,y
方向成分の分散値σ12,x,y各方向の共分散値σ112およ
び相関係数ρ1を求める。ここで、niは点列Li上に位置
する点の数である。なお、点列Ri上の各点についても以
下の式と同様な式により求めることが出来る。
First, for each point on the point sequence Li, the average value μ11 of the x-direction component, the average value μ12 of the y-direction component, and the variance σ11, y of the x-direction component
A variance value σ12 of the directional component, a covariance value σ112 of each of the x and y directions and a correlation coefficient ρ1 are obtained. Here, ni is the number of points located on the point sequence Li. In addition, each point on the point sequence Ri can also be obtained by an equation similar to the following equation.

μ11=Σx1j/n1,μ12=Σy1j/n1 σ112=Σ(x1j−μ11)2/(n1−1) σ122=Σ(y1j−μ12)2/(n1−1) σ112=Σ(x1j−μ11)(y1j−μ12)/(n1/1) ρ1=σ112/σ11×σ12 これら各数値に基づいて、前回の点列の点(x,y)と
今回の点列Liの点(x1j,y1j)との間のマハラノビスの
汎距離D1を次式により求めることが出来る。
μ11 = Σx1j / n1, μ12 = Σy1j / n1 σ11 2 = Σ (x1j-μ11) 2 / (n1-1) σ12 2 = Σ (y1j-μ12) 2 / (n1-1) σ112 = Σ (x1j-μ11 ) (Y1j−μ12) / (n1 / 1) ρ1 = σ112 / σ11 × σ12 Based on these numerical values, the point (x, y) of the previous point sequence and the point (x1j, y1j) of the current point sequence Li The Mahalanobis' general distance D1 between and can be obtained by the following equation.

D12={[(x−μ11)/σ11]+[(y −μ12)/σ12]−2ρ1[(x−μ11)/σ11] ×[(y−μ12)/σ11]}/(1−ρ1) また、同様に前回の点列の点(x,y)と今回の点列Ri
の点(x2j,y2j)との間のマハラノビスの汎距離D2を次
式により求めることが出来る。
D1 2 = {[(x−μ11) / σ11] 2 + [(y−μ12) / σ12] 2 −2ρ1 [(x−μ11) / σ11] × [(y−μ12) / σ11]} / (1 −ρ1) 2 Similarly, the point (x, y) of the previous point sequence and the current point sequence Ri
The point (x2j, y2j) the Mahalanobis distance D 2 between the can be calculated by the following equation.

D22={[(x−μ21)/σ21]+[(y −μ22)/σ22]−2ρ2[(x−μ21)/σ21] ×[(y−μ22)/σ22]}/(1−ρ2) 上記の各式に基づいて各汎距離を計算した結果、D12
>D22が成立する場合には、前回の点(x,y)は今回の右
側の道路端の点列Riに近いことになる。また、D12>D22
が成立しない場合には、逆に、前回の点(x,y)は今回
の左側の道路端の点列Liに近いことになる。
D2 2 = {[(x−μ21) / σ21] 2 + [(y−μ22) / σ22] 2 −2ρ2 [(x−μ21) / σ21] × [(y−μ22) / σ22]} / (1 −ρ2) 2 As a result of calculating each general distance based on the above equations, D1 2
> If the D2 2 is satisfied, the last point (x, y) will be close to the point sequence Ri of this right roadside. Also, D1 2 > D2 2
Does not hold, on the contrary, the previous point (x, y) is close to the current point sequence Li on the left side of the road.

以上のように画像分割処理の結果得られた道路候補領
域が、ノイズなどによって不明瞭な輪郭の領域になって
も、本手法による前記のウインドウのヒストグラム値の
変化に基づけば、道路の端点を確実に得ることが出来
る。これは、本手法が領域を基にしてその端点を探索し
ているためであり、本手法によれば領域の左右端を明確
に区別することが出来る。
As described above, even if the road candidate area obtained as a result of the image division processing becomes an area with an unclear contour due to noise or the like, the end point of the road is determined based on the change in the histogram value of the window according to the present method. Can be obtained reliably. This is because the present method searches for the end point based on the region, and according to the present method, the left and right ends of the region can be clearly distinguished.

また、「明るさの違いに注目した走行コース上の影や
高輝度領域の抽出手段」で求められた低輝度領域は、走
行コースが全体的に暗い場合には、道路外に位置する場
合もある。このような場合に道路外の低輝度領域と道路
領域とが併合される場合があり、道路候補領域の輪郭の
形状が複雑化する。しかし、本手法により、得られた道
路端の点列データを平滑化することにより、複雑な輪郭
の領域は大局的に評価され、上記のような低輝度領域は
無視され、自動車が走行する上で何等支障の無い道路端
の情報を得ることが出来る。
In addition, the low-luminance area obtained by “extraction means for shadows and high-luminance areas on the traveling course focusing on the difference in brightness” may be located outside the road when the traveling course is entirely dark. is there. In such a case, the low luminance area outside the road and the road area may be merged, and the shape of the contour of the road candidate area becomes complicated. However, by smoothing the obtained point sequence data at the road edge according to the present method, the area of a complicated contour is globally evaluated, the low luminance area as described above is ignored, and the Thus, information on the road edge without any trouble can be obtained.

また、「テンプレート画像を用いた繰返しきい値処理
による走行コースの抽出手法」によれば、自律走行車が
曲率のきつい道路の左または右に極端に近付いた場合、
テンプレートが道路外に出てしまってそこを道路とみな
してしまう場合がある。この場合には道路端の左右の認
識を誤ってしまう。しかし、上述の本手法によれば、道
路の左右端のデータを誤って認識しても、直ぐにこの認
識は補正され、常に信頼性の高い道路端の情報を得るこ
とが出来る。
Also, according to the “running course extraction method using repeated threshold processing using a template image”, when an autonomous vehicle is extremely close to the left or right of a road with a sharp curvature,
In some cases, the template goes out of the road and regards it as a road. In this case, the recognition of the left and right of the road edge is erroneous. However, according to the above-described method, even if the data at the right and left ends of the road is erroneously recognized, this recognition is immediately corrected, and highly reliable road edge information can always be obtained.

次に、本発明の特徴である「多様な形状の走行コース
の内部表現手法」、つまり、得られた道路端の多様な点
列を構造化して表現する手法について説明する。
Next, a description will be given of a feature of the present invention, that is, a “method of internally expressing traveling courses of various shapes”, that is, a method of structuring and expressing various obtained point sequences of road edges.

本手法は、「テンプレート画像を用いた繰返しきい値
処理による走行コースの抽出手段」で得られた走行コー
スの画像と、「明るさの違いに注目した走行コースから
の影や高輝度部分の抽出手段」で得られた画像と、「複
数の領域の併合手段」で求めた特徴量リストに基づき、
画像のラベル変位箇所を検知しながら領域の境界点のス
トラクチャを作成し、前後方向のリンクを付け、境界の
属性を付与することによって、走行コースをコンピュー
タ内部に表現し、走行のための有効な点列群を求めるも
のである。「複数の領域を併合する手段」において作成
された領域と領域との記述を表した特徴量リストを利用
して、高速に領域の端点が得られ、道路端,路肩端,分
岐路および合流路は計算機の内部に構造化されたリスト
によって表現される。
This method is based on the method of extracting the running course image obtained by the "running course extraction means by repeated threshold processing using template images" and "extracting shadows and high-luminance parts from the running course focusing on the difference in brightness." Based on the image obtained by the “means” and the feature list obtained by the “means of merging multiple areas”,
By creating a structure of the boundary point of the area while detecting the label displacement part of the image, attaching a link in the front and back direction and adding the attribute of the boundary, the travel course is expressed inside the computer, and the effective This is for obtaining a point sequence group. Using the feature list showing the description of the areas created by the "means for merging a plurality of areas", the end points of the area can be obtained at high speed, and the road end, the roadside end, the branch road, and the junction flow path are obtained. Is represented by a structured list inside the computer.

第1図は道路の構造化処理の概略を示すフローチャー
トである。
FIG. 1 is a flowchart showing the outline of the road structuring process.

まず、カラーカメラ入力装置などの各ハードウエアの
初期設定時に領域境界点ストラクチャのy方向のリスト
を作成する(ステップ4501)。次に、各領域に付けられ
たラベル値のx方向の変化箇所を検出してx方向のリス
トを作成し、各境界点のx方向についてリンクする(ス
テップ4502)。そして各領域の特徴量リストの接続ラベ
ルを考慮して領域の左端および右端にその属性を付与
し、各領域の左右端を区分する(ステップ4503)。次
に、後述する穴などの属性を各境界点に付与しながら、
画面の前後方向(y方向)の各境界点の関連付けを行
い、各境界点のy方向についてリンクする(ステップ45
04)。また、道路領域が分岐したり、合流したりする場
合が有り、これら各場合に各領域の境界の連続性を判断
し、各境界点に付与された属性の付け替えを行う(ステ
ップ4505)。この後、各領域の境界点の点列の開始位置
を選択し、有効点列を検出する(ステップ4506)。
First, a list in the y direction of the area boundary point structure is created at the time of initial setting of each hardware such as a color camera input device (step 4501). Next, a change in the x direction of the label value attached to each area is detected to create a list in the x direction, and a link is made in the x direction at each boundary point (step 4502). Then, the attribute is given to the left end and the right end of the area in consideration of the connection label of the feature amount list of each area, and the left and right ends of each area are classified (step 4503). Next, while adding attributes such as holes to be described later to each boundary point,
The respective boundary points in the front-rear direction (y direction) of the screen are associated with each other and linked in the y direction of each boundary point (step 45).
04). In addition, there is a case where the road area branches or merges. In each of these cases, the continuity of the boundary of each area is determined, and the attribute assigned to each boundary point is changed (step 4505). Thereafter, the start position of the point sequence at the boundary point of each area is selected, and an effective point sequence is detected (step 4506).

以下の各処理について以下に詳述する。 The following processes will be described in detail below.

ステップ4501の処理について、第46図を参照して説明
する。
The processing in step 4501 will be described with reference to FIG.

同図(a)は、実空間上における道路面(水平面と仮
定する)を画像上に射影変換する際の原理を示す図であ
る。道路面4601は等間隔(l)に区分され、道路領域お
よび道路上の各区分線は遠方の1点に向けて画像4602上
に射影され、カラーカメラのビューポートが得られる。
同図(b)はこのようにして得られた画像の詳細を示す
図である。画像上には道路領域の境界線4603および区分
線4604が射影変換されている。実空間上における区分線
は間隔lの等間隔であったが、画像上においては道路領
域の遠方に行くに従ってその間隔が詰まっている。この
各区分線4604が位置するy座標を求め、同図(c)に示
されるy方向の領域境界点ストラクチャ4605を作成す
る。
FIG. 1A is a diagram showing the principle of projective transformation of a road surface (assumed as a horizontal plane) in real space onto an image. The road surface 4601 is sectioned at equal intervals (l), and the road area and each dividing line on the road are projected on the image 4602 toward a distant point, and a viewport of a color camera is obtained.
FIG. 2B is a diagram showing details of the image obtained in this manner. On the image, the boundary line 4603 and the division line 4604 of the road area are projectively transformed. Although the dividing lines in the real space have an equal interval of l, the intervals on the image become narrower as the distance from the road area increases. The y-coordinate at which each section line 4604 is located is determined, and a region boundary point structure 4605 in the y-direction shown in FIG.

この領域境界点ストラクチャ4605の各枠は、道路領域
の境界線4603のうちの左端の境界線と区分線4604との交
点に位置する各境界点に対応している。各枠は、図示の
矢印に示されるポインタによって相互の連結関係が表現
されている。これらの各枠内には各境界点の特徴が、同
図(d)に示されるリスト4606として記述されている。
まず、求めたy座標の各値がリスト4606に記述され、y
方向のリストが作成される。このリスト4606には、上記
のy座標の他に各境界点が有する後述する各特徴が記述
される。
Each frame of the area boundary point structure 4605 corresponds to each boundary point located at the intersection of the leftmost boundary line of the road area boundary line 4603 and the division line 4604. In each frame, a mutual connection relationship is represented by a pointer indicated by an illustrated arrow. In each of these frames, the features of each boundary point are described as a list 4606 shown in FIG.
First, each value of the obtained y coordinate is described in a list 4606, and y
A list of directions is created. In this list 4606, in addition to the above-mentioned y-coordinate, the following characteristics of each boundary point are described.

つまり、x座標,点列開始点iDを表す属性1,実空間に
おける隣接点間距離を表す属性2,着目する境界点と右隣
の境界点との連結関係を表す右隣へのポインタ,左隣の
境界点との連結関係を表す左隣へのポインタ,y方向にお
ける画面手前の境界点との連結関係を表す手前へのポイ
ンタおよび画面後方の次の境界点との連結関係を表す次
へのポインタが記述される。
That is, the x coordinate, the attribute representing the point sequence starting point iD, the attribute 2 representing the distance between adjacent points in the real space, the pointer to the right indicating the connection relationship between the boundary point of interest and the boundary point on the right, the left Pointer to the left indicating the connection with the next boundary point, pointer to the front indicating the connection with the boundary point in front of the screen in the y direction, and Next indicating the connection with the next boundary point behind the screen Is described.

次にステップ4502の処理について、第47図を参照して
説明する。
Next, the process of step 4502 will be described with reference to FIG.

同図(a)に示される画像4701は撮像された画像につ
いてラベリング処理が実行された画像である。このラベ
リング処理により、道路領域を構成する各領域のそれぞ
れにはラベル値が付けられる。各区分線と領域の境界と
の交点のうち、○印が付された交点は、ラベル値が変化
するラベル変位箇所である。まず、ステップ4501の処理
で求めたリストの各y座標装置において水平方向、つま
り、x方向に画像を走査する。この走査において、ラベ
ル値が0である背景領域からラベル値が0ではない道路
領域に移動した場合、または、ラベル値が0ではない道
路領域からラベル値が0である背景領域に移動した場
合、新しい領域境界点ストラクチャを作成する。
An image 4701 shown in FIG. 11A is an image obtained by performing a labeling process on a captured image. By this labeling process, a label value is assigned to each of the regions constituting the road region. Among the intersections between the dividing lines and the boundaries of the areas, the intersections marked with a circle are label displacement points where the label value changes. First, the image is scanned in the horizontal direction, that is, in the x direction in each of the y coordinate devices in the list obtained in the processing of step 4501. In this scanning, when moving from a background area having a label value of 0 to a road area having a label value other than 0, or when moving from a road area having a label value other than 0 to a background area having a label value of 0, Create a new region boundary point structure.

この領域境界点ストラクチャは同図(b)に示され
る。図示のように、各領域の境界と区分線との交点に位
置する各境界点に対応して、新たにx方向に枠が設けら
れる。この新たな各枠は、既に前述のステップで作成さ
れたy方向の領域境界点ストラクチャの各枠と連結され
る。この連結関係は図示の矢印に表されるポインタによ
り表現され、このポインタにより各枠は水平方向にリン
クされている。
This region boundary point structure is shown in FIG. As shown in the drawing, a frame is newly provided in the x direction corresponding to each boundary point located at the intersection of the boundary of each area and the dividing line. Each new frame is connected to each frame of the y-direction region boundary point structure created in the above-described steps. This connection relationship is represented by a pointer represented by an arrow shown, and the frames are linked in the horizontal direction by the pointer.

次に、ステップ4503の処理について、第48図を参照し
て説明する。
Next, the process of step 4503 will be described with reference to FIG.

ステップ4502の処理で作成された領域境界点ストラク
チャの水平方向の各点の組が同一領域に存在するか否か
を判断する。同一領域であるか否かの判断は、前述の
「複数の領域の併合手法」において求めた特徴量リスト
に基づいて行われる。隣接する各点が同一領域に存在す
る場合、左側に位置する境界点は左エッジ、右側に位置
する境界点は右エッジとし、この属性を各リストに記述
する。この属性により、領域の左右端を区別することが
出来る。また、この左エッジから右エッジまでの実空間
における距離を演算し、同様に各リストに記述する。こ
の距離演算には、前述の射影変換と逆の処理である逆射
影変換処理を実行し、画像から現実の道路領域を求める
必要がある。
It is determined whether or not each set of points in the horizontal direction of the region boundary point structure created in the process of step 4502 exists in the same region. The determination as to whether or not the areas are the same is made based on the feature list obtained in the above-described “method of merging a plurality of areas”. When adjacent points exist in the same area, the boundary point located on the left side is a left edge, and the boundary point located on the right side is a right edge, and this attribute is described in each list. With this attribute, the left and right ends of the area can be distinguished. Further, the distance in the real space from the left edge to the right edge is calculated, and similarly described in each list. In this distance calculation, it is necessary to execute a reverse projection conversion process, which is a process reverse to the above-described projection conversion, to obtain an actual road region from the image.

第48図(a)に示される画像について、エッジの識別
方法を具体的に説明する。道路領域4801は3つの領域A,
B,Cが併合されて表現されている。ここで、前述の特徴
量リストの接続ラベルは同図(b)のように示されてい
る。つまり、領域Aの接続ラベル欄には領域Cが記述さ
れており、領域Bの接続ラベル欄には何も記述されてお
らず、領域Cの接続ラベル欄には領域Aが記述されてい
る。このため、領域Aと領域Cとは併合すべき同一領域
であることが判別され、また、領域Bは領域Aと領域B
とで形成される領域とは異なる領域であることが判別す
る。
For the image shown in FIG. 48 (a), a method of identifying edges will be specifically described. Road area 4801 has three areas A,
B and C are combined and expressed. Here, the connection labels of the above-described feature amount list are shown as in FIG. That is, the area C is described in the connection label section of the area A, nothing is described in the connection label section of the area B, and the area A is described in the connection label section of the area C. Therefore, it is determined that the area A and the area C are the same area to be merged, and the area B is the area A and the area B
It is determined that this is an area different from the area formed by.

従って、各境界点を区分線4802に沿って水平方向に画
像走査した場合、○印の付された境界点a,b,c,dがラベ
ル変位箇所として求まる。従って、境界点aと境界点b
とは同一領域上の点として存在しており、境界点aは左
エッジ,境界点bは右エッジという属性が付与され、領
域境界点ストラクチャのリストに記述される。また、境
界点cと境界点dはそのラベル値が同じであるために同
一領域に存在しており、境界点cは左エッジ,境界点d
は右エッジという属性が付与され、領域境界点ストラク
チャのリストに記述される。
Therefore, when each boundary point is horizontally image-scanned along the dividing line 4802, the boundary points a, b, c, and d marked with と し て are obtained as label displacement portions. Therefore, the boundary point a and the boundary point b
Exist as points on the same area, the boundary point a is given the attribute of the left edge, and the boundary point b is given the attribute of the right edge, and are described in the list of the area boundary point structure. The boundary point c and the boundary point d are in the same area because their label values are the same, and the boundary point c is a left edge, a boundary point d.
Has a right edge attribute, and is described in the list of region boundary point structures.

次に、ステップ4504の処理について、第49図および第
50図を参照して説明する。
Next, the processing in step 4504 will be described with reference to FIGS.
This will be described with reference to FIG.

第49図(a)に示される画像において、左側の境界線
と各区分線との交点に位置する各境界点をai,ai+1、
右側の境界線と各区分線との交点に位置する各境界点を
bi,bi+1とする。ここで、領域境界点ストラクチャの
y方向でi番目とi+1番目の各領域点が同一領域に存
在するか否かを判断し、同一領域ならば前後のリンクを
行う。つまり、境界点aiとai+1とが同一領域に有るか
否か、また、境界点biとbi+1とが同一領域に有るか否
かを判断する。図示の場合には、各境界点は同一領域に
有るため、同図(b)に示される領域境界点ストラクチ
ャにおいて、太い線で示されるポインタにより画面の前
後に位置する各境界点がリンクされる。
In the image shown in FIG. 49 (a), each boundary point located at the intersection of the left boundary line and each partition line is denoted by ai, ai + 1,
Each boundary point located at the intersection of the right boundary line and each division line
bi and bi + 1. Here, it is determined whether or not the i-th and (i + 1) -th area points in the y direction of the area boundary point structure exist in the same area. That is, it is determined whether the boundary points ai and ai + 1 are in the same area, and whether the boundary points bi and bi + 1 are in the same area. In the case shown in the figure, since each boundary point is in the same region, in the region boundary point structure shown in FIG. 3B, the boundary points located before and after the screen are linked by a pointer indicated by a thick line. .

また、左エッジと右エッジとの間に存在する内部点が
有るならば、第50図に示されるように、領域の境界を追
跡する。同図(a)は、処理の対象とする道路領域5001
の中央部に車線区分線である白線5002が描かれている画
像である。この白線5002のラベル値は0である。ここ
で、各区分線に沿って水平方向に画像を走査すると、白
線5002部において、同図(b)に示される内部点E1i,Ei
+1,E2i,E2i+1が得られる。従って、領域の境界を追
跡して各内部点の関係を探査する。E1iから白線5002の
境界線に沿ってこの境界を追跡すると内部点E1i+1に
達する。また、内部点E2iから境界を追跡すると内部点E
2i+1に達する。このように隣接する内部点E1i,E2i
が、より上に位置する区分線上の次の内部点E1i+1,E2i
+1に連続している時、左側に位置する内部点E1iを内
部点左エッジ,右側に位置する内部点E2iを内部点右エ
ッジという属性を付ける。
If there is an internal point between the left edge and the right edge, the boundary of the area is tracked as shown in FIG. FIG. 13A shows a road area 5001 to be processed.
Is an image in which a white line 5002, which is a lane dividing line, is drawn in the center of the image. The label value of this white line 5002 is 0. Here, when the image is scanned in the horizontal direction along each section line, the internal points E1i and Ei shown in FIG.
+1 and E2i and E2i + 1 are obtained. Therefore, the boundaries of the area are tracked to explore the relationship between each interior point. When this boundary is traced from E1i along the boundary of the white line 5002, an internal point E1i + 1 is reached. When the boundary is traced from the internal point E2i, the internal point E2i
Reach 2i + 1. Thus, the adjacent internal points E1i, E2i
Is the next interior point E1i + 1, E2i on the partition line located above
When the number is consecutive to +1, an attribute is added such that the inner point E1i located on the left side is an inner point left edge, and the inner point E2i located on the right side is an inner point right edge.

また、境界を追跡して内部点がより上の区分線上の内
部点に連続せずに隣接する内部点に達する時は、隣接す
る各内部点に穴という属性を付与する。つまり、内部点
E1i+1から境界を追跡すると、隣接する内部点E2i+1
に達する。この場合、各内部点Ei+1,E2i+1に穴とい
う属性を付与する。以上の処理をリストの各y座標に沿
ってこのy座標が地平線位置5003に達するまで行う。ま
た、この際、内部点左エッジから内部点右エッジまでの
実空間上における距離Lを演算する。この演算は、実空
間上における右エッジ点のx座標値から実空間上におけ
る左エッジ点のx座標値を引き算することにより求ま
る。
When the internal points reach adjacent internal points without continuation of the internal points on the upper dividing line by tracking the boundary, an attribute of a hole is given to each adjacent internal point. That is, the interior point
Following the boundary from E1i + 1, the adjacent interior point E2i + 1
Reach In this case, an attribute called a hole is given to each of the internal points Ei + 1 and E2i + 1. The above process is performed along each y coordinate of the list until the y coordinate reaches the horizon position 5003. At this time, the distance L in the real space from the left edge of the internal point to the right edge of the internal point is calculated. This calculation is obtained by subtracting the x coordinate value of the left edge point in the real space from the x coordinate value of the right edge point in the real space.

次に、ステップ4505の処理について、第51図を参照し
て説明する。
Next, the process of step 4505 will be described with reference to FIG.

以上の各ステップの処理による属性の付与の方法で
は、道路がY字状に分岐したり、道路が合流する場合に
は正しい属性が付与されない。つまり、各境界点の前後
方向の関連付けが正しく行われない場合がある。このた
め、このような場合に本ステップにおいて、境界を追跡
して境界の評価を修正する。
In the method of assigning attributes by the processing of each step described above, a correct attribute is not assigned when a road branches in a Y-shape or when roads merge. That is, there is a case where the front-back direction association of each boundary point is not performed correctly. Therefore, in such a case, in this step, the boundary is tracked and the evaluation of the boundary is corrected.

例えば、ここまでの各ステップの処理により、第51図
(a)に示される画像が得られたとする。この画像にお
ける道路領域5101はY字状に分岐しており、本道5102と
分岐路5103とに分かれている。画面の下側から上側に向
かって各区分線(i,i+1,i+2,…)は画像走査され、ま
た、各区分線において画面左側から右側へ画像走査され
る。この走査により、左端の境界線と各区分線との交点
に位置する境界点にはaという符号が付けられ、左端の
境界線から一つ右に位置する境界線と区分線との交点に
位置する境界点にはbという符号が付けられ、左端の境
界線から二つ右に位置する境界線と区分線との交点に位
置する境界点にはcという符号が付けられる。この結
果、同図(b)に示される領域境界点ストライチャが得
られる。
For example, it is assumed that the image shown in FIG. The road area 5101 in this image is branched in a Y-shape, and is divided into a main road 5102 and a branch road 5103. Each division line (i, i + 1, i + 2,...) Is image-scanned from the bottom to the top of the screen, and the image is scanned from the left to the right of the screen at each division line. As a result of this scanning, the boundary point located at the intersection between the leftmost boundary line and each of the division lines is denoted by the symbol a, and the boundary point located at the intersection of the boundary line and the division line one position to the right from the leftmost boundary line is located. The boundary point is denoted by b, and the boundary point located at the intersection of the boundary line and the division line located two right to the left end boundary line is denoted by c. As a result, the region boundary point striker shown in FIG.

この領域境界点ストラクチャによる各境界点の関連付
けは図から理解されるように現実の道路の境界に合致し
ておらず、各境界点には正しい属性が付与されていな
い。このため、内部点から領域の境界を追跡し、次の点
が左または右の領域端に存在する境界点であれば、この
内部点と次の点とは連結しているものと判断し、これら
各点のリンクの付け替えを行う。同図の場合にあって
は、内部点ci+4から領域の境界を追跡する。追跡する
と次の点はai+5であり、この点は左の領域端であるた
め、リンクの付け替えを行う。つまり、ai+5以降の各
境界点に付けられた属性を内部点ci+4と同じcの属性
とする。このリンクの付け替え処理により、同図(c)
に示される領域境界点ストラクチャが得られる。このス
トラクチャは現実の道路の境界に合致したものとなって
いる。
The association of each boundary point by the area boundary point structure does not match the actual road boundary as understood from the figure, and each boundary point is not given a correct attribute. Therefore, the boundary of the area is tracked from the interior point, and if the next point is a boundary point existing at the left or right edge of the area, it is determined that the interior point and the next point are connected, The link of each point is replaced. In the case of the figure, the boundary of the area is traced from the internal point ci + 4. When tracking, the next point is ai + 5. Since this point is the left edge of the area, the link is replaced. That is, the attribute assigned to each boundary point after ai + 5 is the same attribute as c as the internal point ci + 4. By this link replacement processing, FIG.
Is obtained. This structure conforms to the actual road boundaries.

同図(d)および(e)は、このリンクの付け替え処
理の前および後の領域境界の状態をベクトル表現によっ
て示した図である。つまり、同図(d)はリンクの付け
替え前のベクトル状態であり、同図(b)の領域境界点
ストラクチャに基づいて各境界線の連結関係をベクトル
により表現したものである。属性aが付けられたベクト
ルおよび属性cが付けられたベクトルは現実の道路の境
界に対応したものとなっていない。同図(e)はリンク
の付け替え処理を実行した後のベクトル状態であり、同
図(c)の修正された領域境界点ストラクチャに基づい
て各境界線の連結関係をベクトルにより表現したもので
ある。属性aが付けられたベクトルの終端部分は上述の
ように修正され、属性cに付け替えられている。このた
め、各ベクトルa,b,cによって表現される道路領域の境
界は現実のものに即した形状になっている。
FIGS. 9D and 9E are diagrams showing the state of the area boundary before and after the link replacement processing by vector expression. That is, FIG. 11D shows a vector state before the link replacement, and the vector represents the connection relationship between the boundaries based on the area boundary point structure shown in FIG. The vector with the attribute a and the vector with the attribute c do not correspond to the actual road boundary. FIG. 11E shows a vector state after the link replacement processing is performed, and the vector represents the connection relationship of each boundary line based on the modified area boundary point structure shown in FIG. . The terminal part of the vector to which the attribute a is attached is modified as described above, and is replaced with the attribute c. For this reason, the boundary of the road area represented by each of the vectors a, b, and c has a shape conforming to a real thing.

同図(f)および(g)は、道路が合流する場合の領
域境界の状態を上記と同様にしてベクトルにより表現し
た図である。同図(f)はリンクの付け替え前の領域境
界をベクトルによって表現したものである。属性dが付
けられたベクトルは、属性eおよびfが付けられたベク
トルが形成する合流路の入り口を塞いでいる。同図
(g)は、前述と同様なリンクの付け替え処理後の領域
境界をベクトルによって表現したものである。属性dが
付けられたベクトルの始端部分はリンクの付け替え処理
により、属性fに修正され、領域境界は現実の合流路に
合致したものとなっている。
(F) and (g) are diagrams expressing the state of the region boundary when the roads merge, by using a vector in the same manner as described above. FIG. 11F illustrates the area boundary before the link replacement by a vector. The vector with the attribute d blocks the entrance of the merging path formed by the vectors with the attributes e and f. FIG. 9G illustrates the area boundaries after the link replacement processing similar to the above by using vectors. The start portion of the vector to which the attribute d is attached is corrected to the attribute f by the link replacement process, and the area boundary matches the actual merging path.

次に、ステップ4506の処理について、第52図を参照し
て説明する。
Next, the process of step 4506 will be described with reference to FIG.

例えば、同図(a)に示される道路画像を想定する。
この道路画像には道路領域5201があり、道路領域5201の
左側には白線5202で区切られた路肩5203がある。この道
路画像の各領域の境界線と区分線との交点には境界点が
付けられ、同図(b)に示される道路端および路肩端の
点列が得られる。なお、画像の縁に掛かる点は点列から
除いてある。以上の各ステップの操作により得られたy
方向の各領域境界点ストラクチャのリンクを画像下部に
相当するところから上部へ辿る。そして、領域境界点ス
トラクチャのリンクが所定個数以上ある場合には、この
領域境界点ストラクチャのリンクの画像下部に相当する
ところに点列の開始点という属性を付ける。図示の点列
の開始点は△印で示されている。
For example, assume a road image shown in FIG.
This road image has a road area 5201, and a road shoulder 5203 separated by a white line 5202 is on the left side of the road area 5201. A boundary point is provided at the intersection of the boundary line and the division line of each area of the road image, and a point sequence at the road end and the road shoulder end shown in FIG. Note that points that fall on the edge of the image are excluded from the point sequence. Y obtained by the operation of each of the above steps
The link of each area boundary point structure in the direction is traced upward from a position corresponding to the lower part of the image. When the number of links of the area boundary point structure is equal to or more than a predetermined number, an attribute called a start point of a point sequence is attached to a portion corresponding to the lower part of the image of the area boundary point structure link. The starting point of the illustrated point sequence is indicated by a triangle.

開始点という属性が付いているストラクチャのうち、
領域境界の左エッジから右エッジまでの実空間における
距離が走行車の車幅以上のストラクチャの組を道路端と
する。同図(b)の場合には、点列5204および点列5205
に相当するストラクチャの組が道路端となる。また、道
路端の隣にストラクチャの組があり、このストラクチャ
群と道路端との間の距離が道路端を表すストラクチャ群
の幅より狭く、かつ、ストラクチャ群と他方の道路端と
の間の距離が車幅より広く、しかも、ストラクチャ群の
相互の実距離が20cm前後で連続する場合には、このスト
ラクチャ群は白線を形成するものとする。そして、スト
ラクチャ群と一方の道路端とに挾まれたところは白線で
区分された路肩とみなす。
Of the structures with the attribute of starting point,
A set of structures whose distance in the real space from the left edge to the right edge of the region boundary is equal to or greater than the width of the traveling vehicle is defined as a road edge. In the case of FIG. 14B, the dot sequence 5204 and the dot sequence 5205
Is a set of structures corresponding to. Also, there is a set of structures next to the road edge, the distance between this structure group and the road edge is smaller than the width of the structure group representing the road edge, and the distance between the structure group and the other road edge. Is larger than the vehicle width and the actual distance between the structures is continuous at about 20 cm, the structures form a white line. Then, a portion sandwiched between the structure group and one road end is regarded as a road shoulder divided by a white line.

同図(b)の点列においては、点列5206および点列52
07に相当するストラクチャの組により白線が形成され、
この白線と道路端5204との間が路肩とみなされる。
In the point sequence shown in FIG.
A white line is formed by a set of structures equivalent to 07,
A portion between the white line and the road edge 5204 is regarded as a road shoulder.

ところで、前述した「走行可能範囲を求める手段」は
領域を主体として走行コースを認識するものであり、画
像処理の結果得られる道路領域が1つの領域となること
が前提である。同手段によれば、単調路や分岐路の道路
端を識別することは可能である。しかし、白線によって
分断された領域、特に、道路と路肩とに分断された場合
には、それらを区分して取り扱うことは困難である。こ
れは、同手段が領域の内部からウインドウを走査して領
域境界を探査するため、同時に道路端と路肩端とを識別
できないからである。
By the way, the above-mentioned "means for obtaining a travelable range" is for recognizing a traveling course mainly on an area, and is premised on that a road area obtained as a result of image processing is one area. According to this means, it is possible to identify a road end of a monotone road or a branch road. However, when the area is divided by the white line, particularly, when the area is divided into a road and a road shoulder, it is difficult to handle them separately. This is because the means scans the window from the inside of the area to search for the area boundary, so that the road edge and the shoulder edge cannot be distinguished at the same time.

しかし、以上のように、ラベル画像を画像の下部から
上部まで水平に走査し、局所的な領域の境界追跡を行っ
て各領域のラベル値の変位箇所を求めることにより、領
域の境界を知ることが出来る。これと共に、領域間の関
係をストラクチャにおいて更新し、領域の境界点を構造
化することにより、道路領域は計算機内部に構造化して
表現される。従って、この「多様な形状の走行コースの
内部表現手法」によれば、路肩や走行車線等の複数の領
域の境界端座標が得られ、領域境界を容易に検出するこ
とが出来、「走行可能範囲を求める手段」のように対象
とする領域が単一領域に限定されない。さらに、上記の
白線によって分断された路肩等をも識別することが出来
る。
However, as described above, by scanning the label image horizontally from the bottom to the top of the image, tracking the boundary of the local region, and finding the displacement position of the label value of each region, knowing the boundary of the region Can be done. At the same time, by updating the relationship between the regions in the structure and structuring the boundary points of the regions, the road region is structured and represented inside the computer. Therefore, according to the “internal representation method of traveling courses of various shapes”, it is possible to obtain the boundary end coordinates of a plurality of regions such as a road shoulder and a traveling lane, to easily detect the region boundaries, and The target region is not limited to a single region as in “means for obtaining range”. Further, the road shoulder and the like separated by the white line can be identified.

また、従来の領域境界手法に比べてメモリ容量は少な
くて済み、自立走行車が自動走行するのに十分な走行コ
ースの走行可能範囲を、逐次的な境界探査や多角形近似
を行って評価するといった処理をすることなく得ること
が出来る。さらに、走行コースが単調路で無く、道路が
分岐していたり、合流していたりする場合においても、
これら分岐路や合流路の形状を統一的に表現することが
でき、走行コースの境界を正確に識別することが可能で
ある。
In addition, the required memory capacity is smaller than that of the conventional area boundary method, and the traveling range of the traveling course sufficient for the autonomous vehicle to automatically travel is evaluated by performing sequential boundary search or polygon approximation. It can be obtained without performing such processing. Furthermore, even when the traveling course is not a monotonous road and the road branches or merges,
The shapes of these branch roads and junctions can be expressed in a unified manner, and the boundaries of the traveling course can be accurately identified.

以上説明したように「多様な形状の走行コースの内部
表現手法」によれば、リストに記述された属性により、
各領域の境界点の連結関係が構造化されたストラクチャ
において表現され、このストラクチャから対象領域の境
界が識別される。このため、従来のように求まる点列群
の数が多いため、対象領域の境界を多角形で近似し、余
分な点を間引く処理が無くなる。また、従来のように各
領域の全ての境界画素を逐次的に一つ一つ追跡する必要
は無くなり、所定の境界画素のみについて処理すること
により、対象領域が識別される。従って、処理時間は短
縮され、自立走行車の自動走行に適した領域識別方法が
提供される。
As described above, according to the “internal representation method of traveling courses of various shapes”, according to the attributes described in the list,
The connection relationship between the boundary points of each region is expressed in a structured structure, and the boundary of the target region is identified from the structure. For this reason, since the number of point sequence groups determined as in the related art is large, the process of approximating the boundary of the target area with a polygon and eliminating unnecessary points is eliminated. Further, it is not necessary to sequentially track all the boundary pixels of each region one by one as in the related art, and the target region is identified by processing only predetermined boundary pixels. Therefore, the processing time is shortened, and an area identification method suitable for automatic traveling of the self-contained traveling vehicle is provided.

〔発明の効果〕〔The invention's effect〕

以上説明したように本発明によれば、リストに記述さ
れた属性により、各領域の境界点の連結関係が構造化さ
れたストラクチャにおいて表現され、このストラクチャ
から対象領域の境界が識別される。このため、従来のよ
うに求まる点列群の数が多いため、対象領域の境界を多
角形で近似し、余分な点を間引く処理が無くなる。ま
た、従来のように各領域の全ての境界画素を逐次的に一
つ一つ追跡する必要は無くなり、所定の境界画素のみに
ついて処理することにより、対象領域が識別される。従
って、処理時間は短縮され、自立走行車の自動走行に適
した領域識別方法が提供される。
As described above, according to the present invention, the connection relationship between the boundary points of each region is expressed in a structured structure by the attributes described in the list, and the boundary of the target region is identified from this structure. For this reason, since the number of point sequence groups determined as in the related art is large, the process of approximating the boundary of the target area with a polygon and eliminating unnecessary points is eliminated. Further, it is not necessary to sequentially track all the boundary pixels of each region one by one as in the related art, and the target region is identified by processing only predetermined boundary pixels. Therefore, the processing time is shortened, and an area identification method suitable for automatic traveling of the self-contained traveling vehicle is provided.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例による「多様な形状の走行コ
ースの内部表現手法」における道路領域の構造化処理の
概略を示すフロチャート、第2図は走行路領域を抽出す
るカラー画像処理の概略の流れを示すフローチャート、
第3図は「ROMテーブルを用いたカラー画像のISH変換処
理」におけるISH変換処理のアルゴリズムを示すブロッ
ク図、第4図および第5図および第6図および第7図の
それぞれはこのISH交換処理の処理例を従来の処理例と
比較して説明するための図、第8図は「繰返しきい値処
理における特徴量ヒストグラムの形状に基づくしきい値
設定手段」におけるカラー画像の前処理の概略を示すフ
ローチャート、第9図はこの前処理におけるピーク・谷
の状態を説明するための図、第10図はこの前処理におけ
るテーブル値の推移を説明するための図、第11図は走行
路の認識処理の概要を示すフローチャート、第12図は
「テンプレート画像を用いた繰返しきい値処理による走
行コースの抽出手段」における走行路抽出の処理の詳細
を示すフローチャート、第13図はこの道路候補領域の抽
出処理における各過程を説明するための図、第14図は
「明るさの違いに注目した走行コースからの影や高輝度
部分の抽出手段」における種々の入力画像に対する処理
の概要を説明するための図、第15図はこの手段における
影や高輝度部分の説明をするための明度ヒストグラムの
一例を示すグラフ、第16図は「ラベリング処理装置」の
ラベリングボード構成図、第17図はラベリング処理のゼ
ネラルフローチャート、第18図は多値入力ラベリング方
式を説明するための図、第19図はランを用いたラベリン
グ方式を説明するための図、第20図はラベリング処理の
画像走査で使用されるウインドウを示す図、第21図はラ
ベリングプロセッサKLPの構成図、第22図および第23図
および第24図および第25図および第26図および第27図の
それぞれはラベリング処理の画像走査で行われるウイン
ドウ処理を示すフローチャート、第28図はラベリングメ
モリKLMの構成図、第29図は最終的に付与されるラベル
値を整合する処理を説明するための図、第30図は特徴抽
出プロセッサKLCの構成図、第31図は1スキャンラベリ
ング方式を説明するための図、第32図は「複数の領域の
併合手段」においてラベル領域を探査するために使用さ
れる逆L字マスクを示す図、第33図は第32図に示された
逆L字マスクを用いた領域境界探査を説明する際に使用
される分割領域の一例を示す図、第34図は逆L字マスク
走査式手法により求まったラベル領域間境界長および領
域の周囲長が記憶されるラベル間境界長マトリスクを示
す図、第35図は各領域間の接続関係および各ラベル領域
の有する特徴量が記述される特徴量リストを示す図、第
36図は第35図に示された特徴量リストに記述された各特
徴量を有するラベル領域の一例、第37図は境界探査式手
法において着目される画素の近傍に付される参照画素位
置No.を示す図、第38図は境界探査式手法において使用
される画素参照テーブルを示す図、第39図は第38図に示
された画素参照テーブルの使用方法を説明する際に用い
られる画素領域の一例を示す図、第40図は「走行可能範
囲を求める手段」における走行コース認識システムの処
理の流れを示すフローチャート、第41図はこの手段の説
明において使用される取り込み画像でのウインドウの移
動を示す図、第42図は対象領域におけるウインドウおよ
びヒストグラムの値を説明するための図、第43図は曲率
のきついカーブで走行車が道路端に近付き過ぎた場合に
生じる道路端の識別の逆転を説明するための図、第44図
は第43図に示された道路端の認識の逆転を防止するため
に求めた点列群の関係をマハラノビスの汎距離を用いて
補正する手法を説明するための図、第45図はカラー画像
処理装置全体の概略構成を示すブロック図、第46図は
「多様な形状の走行コースの内部表現手法」におけるy
方向リストと領域境界点ストラクチャとを説明するため
の図、第47図はラベル変位箇所と領域境界点ストラクチ
ャとを説明するための図、第48図は領域境界の属性を説
明するための図、第49図は領域境界点の前後方向のリン
ク処理を説明するための図、第50図は内部点エッジおよ
び穴という属性を説明するための図、第51図は一旦付与
された属性の付け替え処理を説明するための図、第52図
は道路端および路肩端の検出を説明するための図であ
る。 101……カラーカメラ、102……ISH変換部、103……カラ
ー処理部、104……ラベリングハード、105……CPU処理
部、148……ラベル画像、149……特徴量リスト1、150
……道路位置座標、151……点列画像、4603……道路領
域の境界線、4604……区分線、4605……y方向の領域境
界点ストラクチャ、4606……リスト。
FIG. 1 is a flowchart showing an outline of a structuring process of a road area in a "method of internally expressing a traveling course having various shapes" according to an embodiment of the present invention. FIG. 2 is a color image processing for extracting a traveling road area. A flowchart showing the schematic flow of
FIG. 3 is a block diagram showing an algorithm of the ISH conversion processing in the "ISH conversion processing of a color image using a ROM table". FIGS. 4 and 5, FIG. 6, and FIG. FIG. 8 is a diagram for explaining the example of the processing in comparison with the conventional example of processing, and FIG. FIG. 9 is a diagram for explaining the state of peaks and valleys in this pre-processing, FIG. 10 is a diagram for explaining changes in table values in this pre-processing, and FIG. FIG. 12 is a flowchart showing an outline of the processing, and FIG. 12 is a flowchart showing details of a traveling path extraction process in “traveling course extraction means by repeated threshold processing using a template image”; Fig. 14 is a diagram for explaining each process in the road candidate region extraction process. Fig. 14 is a process for various input images in "means for extracting a shadow or a high-brightness portion from a traveling course focusing on a difference in brightness". FIG. 15 is a graph showing an example of a brightness histogram for explaining shadows and high-luminance portions in this means, FIG. 16 is a diagram showing a labeling board configuration of a `` labeling processing device '', FIG. 17 is a general flowchart of the labeling process, FIG. 18 is a diagram for explaining a multi-valued input labeling system, FIG. 19 is a diagram for explaining a labeling system using a run, and FIG. 20 is a diagram of the labeling process. FIG. 21 is a view showing a window used in image scanning, FIG. 21 is a block diagram of a labeling processor KLP, and FIGS. 22, 23, 24, 25, 26, and 27; Is a flowchart showing window processing performed in image scanning of the labeling processing, FIG. 28 is a configuration diagram of the labeling memory KLM, FIG. 29 is a view for explaining processing for matching finally applied label values, FIG. FIG. 30 is a configuration diagram of the feature extraction processor KLC, FIG. 31 is a diagram for explaining the one-scan labeling method, and FIG. 32 is an inverse diagram used for searching for a label region in the “unit for merging a plurality of regions”. FIG. 33 is a view showing an L-shaped mask, FIG. 33 is a view showing an example of a divided area used for explaining the area boundary search using the inverted L-shaped mask shown in FIG. 32, and FIG. FIG. 35 is a diagram showing the label-to-label boundary length matrix where the label-to-label boundary length and the perimeter of the region obtained by the character mask scanning method are stored. Feature value to be described Figure showing the strike
FIG. 36 is an example of a label area having each feature described in the feature list shown in FIG. 35, and FIG. 37 is a reference pixel position No. assigned near the pixel of interest in the boundary search method. FIG. 38 is a diagram showing a pixel reference table used in the boundary search method, and FIG. 39 is a pixel area used in explaining how to use the pixel reference table shown in FIG. 38. FIG. 40 is a flowchart showing the flow of the processing of the traveling course recognition system in “means for obtaining a travelable range”, and FIG. 41 is movement of a window in a captured image used in the description of this means. FIG. 42 is a diagram for explaining the values of the window and the histogram in the target area. FIG. 44 is a diagram for explaining, and FIG. 44 is a diagram for explaining a method of correcting the relation of the point sequence group obtained in order to prevent the reversal of the recognition of the road edge shown in FIG. 43 using the Mahalanobis general distance. FIG. 45 is a block diagram showing a schematic configuration of the entire color image processing apparatus, and FIG. 46 is a view showing y in the “internal representation method of traveling course of various shapes”.
FIG. 47 is a diagram for explaining the direction list and the region boundary point structure, FIG. 47 is a diagram for explaining the label displacement portion and the region boundary point structure, FIG. 48 is a diagram for explaining the attribute of the region boundary, FIG. 49 is a diagram for explaining the link processing in the front-back direction of the region boundary point, FIG. 50 is a diagram for explaining the attributes of the internal point edge and the hole, and FIG. 51 is a process of replacing the attribute once given FIG. 52 is a diagram for explaining detection of a road edge and a road shoulder edge. 101: color camera, 102: ISH conversion unit, 103: color processing unit, 104: labeling hardware, 105: CPU processing unit, 148: label image, 149: feature amount list 1, 150
... road position coordinates, 151 ... point sequence image, 4603 ... road area boundary line, 4604 ... partition line, 4605 ... area boundary point structure in y direction, 4606 ... list.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像分割された各領域にラベル付けされた
画像を一定方向の区分線により区分し、該一定方向に直
交する方向のリストを前記区分線毎に作成し、 前記区分線に沿って画像走査して前記各領域のラベル値
の変化点を識別することにより該区分線と前記各領域の
境界線との交点に位置する境界点を求めて前記一定方向
におけるリストを該境界点毎に作成し、 各領域のラベル値の接続関係に基づいて前記一定方向に
おける前記区分線に沿った前記境界点の属性を求めて前
記一定方向のリストに該属性を記述し、 各領域のラベル値の接続関係に基づいて前記一定方向に
直交する方向における前記分割領域の境界線に沿った前
記境界点の属性を求めて前記一定方向のリストに該属性
を記述し、 前記各リストに記述された前記属性に基づいて前記一定
方向に直交する方向のリストの連結長さを求め、該長さ
が所定長さ以上のリストに対応する前記境界点の点列を
対象領域の境界に該当するものと判断し、 対象領域の境界を識別することを特徴とする画像処理に
おける対象領域識別方法。
An image labeled in each area obtained by dividing an image is divided by a dividing line in a certain direction, and a list in a direction orthogonal to the certain direction is created for each of the dividing lines. By scanning the image, a change point of the label value of each area is identified to obtain a boundary point located at the intersection of the division line and the boundary line of each area, and a list in the fixed direction is obtained for each of the boundary points. The attribute of the boundary point along the dividing line in the certain direction is obtained based on the connection relation of the label value of each area, and the attribute is described in the list of the certain direction. The attribute of the boundary point along the boundary line of the divided area in the direction orthogonal to the predetermined direction is obtained based on the connection relationship, and the attribute is described in the list in the predetermined direction, and the attribute is described in each of the lists. Based on the attributes The list length of the list in the direction orthogonal to the certain direction is determined, and the point sequence of the boundary points corresponding to the list having the length equal to or more than the predetermined length is determined to correspond to the boundary of the target area. A method for identifying a target area in image processing, characterized by identifying a boundary of the area.
【請求項2】対象領域の境界端の間に内部点が存在する
場合、該内部点から前記一定方向に直交する方向に沿っ
て分割領域の境界を追跡し、次に現れる境界点が別の内
部点であり、該別の内部点が前記区分線上で隣接するさ
らに別の内部点に連結している場合には、これら各内部
点により前記対象領域中に別の領域が形成されているも
のと認識することを特徴とする請求項1記載の対象領域
識別方法。
2. When there is an internal point between the boundary edges of the target area, the boundary of the divided area is tracked from the internal point along the direction orthogonal to the predetermined direction, and the next boundary point appears. An internal point, wherein, when the another internal point is connected to another internal point adjacent on the dividing line, another area is formed in the target area by each of the internal points. 2. The method according to claim 1, wherein the target area is recognized.
【請求項3】対象領域の境界端の間に内部点が存在する
場合、この内部点から前記一定方向に直交する方向に沿
って分割領域の境界を追跡し、次に現れる境界点が対象
領域の境界端に有る境界点である場合には、前記内部点
と該境界点とは連結関係にあるものと判断し、該境界点
と該境界点を求める以前に求めた境界点との連結関係を
切断し、該境界点と前記内部点とを連結することによ
り、求めた対象領域の境界を修正することを特徴とする
請求項1または請求項2記載の対象領域識別方法。
3. When an internal point exists between the boundary edges of the target area, the boundary of the divided area is traced from the internal point along the direction orthogonal to the predetermined direction, and the next boundary point appears as the target area. If the boundary point is located at the boundary end of the boundary point, it is determined that the interior point and the boundary point are connected, and the connection point between the boundary point and the boundary point obtained before the boundary point is obtained. 3. The method according to claim 1, wherein the boundary of the target region is corrected by cutting the boundary and connecting the boundary point and the interior point.
JP2112988A 1990-04-27 1990-04-27 Target area identification method in image processing Expired - Fee Related JP2915067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2112988A JP2915067B2 (en) 1990-04-27 1990-04-27 Target area identification method in image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2112988A JP2915067B2 (en) 1990-04-27 1990-04-27 Target area identification method in image processing

Publications (2)

Publication Number Publication Date
JPH0410080A JPH0410080A (en) 1992-01-14
JP2915067B2 true JP2915067B2 (en) 1999-07-05

Family

ID=14600609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2112988A Expired - Fee Related JP2915067B2 (en) 1990-04-27 1990-04-27 Target area identification method in image processing

Country Status (1)

Country Link
JP (1) JP2915067B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872610B2 (en) * 2006-11-09 2012-02-08 カシオ計算機株式会社 Camera pointer device, labeling method and program
CN115166120A (en) * 2022-06-23 2022-10-11 中国科学院苏州生物医学工程技术研究所 Spectral peak identification method, device, medium and product

Also Published As

Publication number Publication date
JPH0410080A (en) 1992-01-14

Similar Documents

Publication Publication Date Title
CN108304798B (en) Street level order event video detection method based on deep learning and motion consistency
WO2018107939A1 (en) Edge completeness-based optimal identification method for image segmentation
CN104050481B (en) Multi-template infrared image real-time pedestrian detection method combining contour feature and gray level
Xu Robust traffic sign shape recognition using geometric matching
CN110210428A (en) A kind of smog root node detection method under remote complex environment based on MSER
Schiopu et al. Pothole detection and tracking in car video sequence
CN115620090A (en) Model training method, low-illumination target re-recognition method and device and terminal equipment
JP3333468B2 (en) Roadway image processing device for autonomous running of vehicles
JP3232064B2 (en) Target area extraction method for color images
US6963664B2 (en) Segmentation of digital images
JP2963138B2 (en) Color image processing equipment
JP2915067B2 (en) Target area identification method in image processing
JP3421274B2 (en) Labeling device for color images
CN107832732A (en) Method for detecting lane lines based on ternary tree traversal
WO2022045877A1 (en) A system and method for identifying occupancy of parking lots
JP3232065B2 (en) A method for merging multiple regions in a color image
JP3243230B2 (en) Boundary identification method of target area in color image
Ilehag et al. Classification and representation of commonly used roofing material using multisensorial aerial data
CN102073868A (en) Digital image closed contour chain-based image area identification method
Grote et al. Road extraction for the update of road databases in suburban areas
CN115620259A (en) Lane line detection method based on traffic off-site law enforcement scene
CN111382718B (en) Night pedestrian detection system and pedestrian detection method based on same
Haverkamp et al. Complementary methods for extracting road centerlines from IKONOS imagery
CN113780049A (en) Y-shaped bifurcation unstructured road identification method based on OSTU method
Gao et al. Research on license plate detection and recognition based on deep learning

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080416

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100416

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees