JPH0410079A - Device and method for processing color image - Google Patents
Device and method for processing color imageInfo
- Publication number
- JPH0410079A JPH0410079A JP2112986A JP11298690A JPH0410079A JP H0410079 A JPH0410079 A JP H0410079A JP 2112986 A JP2112986 A JP 2112986A JP 11298690 A JP11298690 A JP 11298690A JP H0410079 A JPH0410079 A JP H0410079A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- value
- pixel
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 200
- 238000000034 method Methods 0.000 title claims description 204
- 238000002372 labelling Methods 0.000 claims abstract description 143
- 238000006243 chemical reaction Methods 0.000 claims abstract description 46
- 239000000284 extract Substances 0.000 claims abstract description 15
- 230000015654 memory Effects 0.000 claims description 137
- 238000000605 extraction Methods 0.000 claims description 32
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 13
- 230000010354 integration Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000002441 reversible effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 102
- 238000010586 diagram Methods 0.000 description 48
- 238000004364 calculation method Methods 0.000 description 17
- 238000007796 conventional method Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 15
- 230000005484 gravity Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 9
- 230000002829 reductive effect Effects 0.000 description 8
- 238000009499 grossing Methods 0.000 description 7
- 101150097388 rgy gene Proteins 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 229910052739 hydrogen Inorganic materials 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 244000025254 Cannabis sativa Species 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- LUEWUZLMQUOBSB-UHFFFAOYSA-N 2-[6-[4,5-dihydroxy-2-(hydroxymethyl)-6-[4,5,6-trihydroxy-2-(hydroxymethyl)oxan-3-yl]oxyoxan-3-yl]oxy-4,5-dihydroxy-2-(hydroxymethyl)oxan-3-yl]oxy-6-(hydroxymethyl)oxane-3,4,5-triol Chemical compound OC1C(O)C(O)C(CO)OC1OC1C(CO)OC(OC2C(OC(OC3C(OC(O)C(O)C3O)CO)C(O)C2O)CO)C(O)C1O LUEWUZLMQUOBSB-UHFFFAOYSA-N 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、自動車の自律走行に必要とされる走行路判別
の技術等に応用されるカラー画像処理装置およびその処
理方法に関するものである。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a color image processing device and a processing method thereof, which are applied to technology for determining travel routes required for autonomous driving of automobiles.
従来、走行路領域を抽出する手法は、そのほとんどがモ
ノクロ画像によるエツジ検出に基づくものであり、カラ
ー画像に基づいてこの種の走行路判別を行う技術は、は
とんど提供されていない。Conventionally, most of the methods for extracting a driving path region are based on edge detection using monochrome images, and techniques for performing this type of driving path discrimination based on color images are rarely provided.
また、デジタル値化されたカラー画像情報を取り扱うと
きには、RGBデータ(三原色情報−R赤、G;緑、B
;青)以外に、明度I (色の明るさの程度)、彩度S
(色のあざやかさの程度)。In addition, when handling digitalized color image information, RGB data (three primary color information - R red, G; green, B
; blue), brightness I (degree of brightness of color), saturation S
(degree of vividness of color).
色相H(色の種類に関する分類を示す値)などが特徴量
として使用される場合が多い。これら明度!、彩度Sお
よび色相Hの特徴量は、RGBデータを所定の変換式に
代入することにより、求められる。従来、このRGBデ
ータからISHデータへの変換処理は、画像処理におい
てISHデータが必要になる度毎に行われていた。つま
り、ISHデータが必要になった際には、CPUは、R
データが記憶された2画像メモリ、Gデータが記憶され
た6画像メモリおよびBデータが記憶された8画像メモ
リにアクセスし、RGBデータを収集する。そして、C
PUはこのRGBデータを基にした所定の変換処理を行
うことにより、必要とするISHデータを演算していた
。Hue H (value indicating classification regarding color type) etc. are often used as a feature amount. These brightness! , saturation S, and hue H are obtained by substituting RGB data into a predetermined conversion formula. Conventionally, this conversion process from RGB data to ISH data has been performed every time ISH data is required in image processing. In other words, when ISH data is needed, the CPU
2 image memories storing data, 6 image memories storing G data, and 8 image memories storing B data are accessed to collect RGB data. And C
The PU calculates the necessary ISH data by performing a predetermined conversion process based on this RGB data.
また、従来の走行路領域の判別は、モノクロ画像による
エツジ検出により走行路に描かれた白線やランドマーク
を検知し、この白線やランドマークに基づいて行われて
いた。Furthermore, in the conventional method of determining the driving path area, white lines and landmarks drawn on the driving path are detected by edge detection using a monochrome image, and are performed based on these white lines and landmarks.
また、限定された走行コースではなく、一般環境の道路
を自律走行車が走行する場合には、様々な路面状況が考
えられる。特に、走行コースの周囲に種々の立体物が存
在する場合には、路面上には影が出来る。路面上に影が
存在する場合には走行路領域は−様な色にはならない。Furthermore, when an autonomous vehicle runs on a road in a general environment rather than on a limited driving course, various road surface conditions are possible. In particular, when various three-dimensional objects exist around the driving course, shadows are formed on the road surface. If there is a shadow on the road surface, the running road area will not have a negative color.
このため、画像処理により走行路領域を抽出するには、
走行路領域にある影を考慮して行わなければならない。Therefore, in order to extract the driving road area by image processing,
This must be done taking into account the shadows in the area of the driving path.
従来、この影を認識するため、走行コースの路面状況を
限定し、この限定時における日向部分や影部分の色の分
布を予め計測しておいて走行路領域を抽出する手法が一
部の研究において行われている。この手法は、計測した
各部分の色の分布をコンピュータに保存しておき、実際
の画像を取り入れた時に、保存しておいた色の分布を読
み出して入力画像の色の分布と比較して走行路領域を判
断するものである。Conventionally, in order to recognize this shadow, some research has focused on limiting the road surface conditions of the driving course, measuring the color distribution of sunny areas and shadow areas in advance during these limited times, and then extracting the driving road area. It is carried out in This method saves the measured color distribution of each part on a computer, and when the actual image is imported, reads out the saved color distribution and compares it with the color distribution of the input image. This is to determine the road area.
また、走行路領域を判別するため、画像分割した各領域
にラベル付けを行い、各領域を区分する必要がある。こ
のラベリング処理は、2値画像内の対象領域の面積や重
心を計算するために必要不可欠なものとなっている。従
来、提案されてきたラベリングアルゴリズムとしては、
ラスク走査型、ランコート型、境界追跡型に大別できる
。しかし、ハードウェア化(高速化)に際してはそのリ
アルタイム処理の可能性や回路規模、実現の容易性等か
らラスク走査型が一般的に用いられている。この走査は
、まず、1回目の走査で仮ラベルを割り付けながら異な
った値を持つ仮ラベル同士の連結を示す情報を保持し、
次いでその統合情報を解析することにより、対象領域と
1対1で対応した最終ラベルを得る。最後に、1回目の
走査で得られた仮ラベル画像を再度走査し、仮ラベルを
最終ラベルで置き換えることによりラベリングが実行さ
れる。In addition, in order to determine the travel path area, it is necessary to label each area into which the image has been divided and to classify each area. This labeling process is essential for calculating the area and center of gravity of a target region within a binary image. Labeling algorithms that have been proposed so far include:
It can be roughly divided into Rusk scanning type, Rancourt type, and boundary tracking type. However, when converting to hardware (speeding up), the rask scanning type is generally used because of its real-time processing potential, circuit scale, and ease of implementation. This scan first allocates temporary labels in the first scan and retains information indicating connections between temporary labels with different values.
Then, by analyzing the integrated information, a final label that corresponds one-to-one with the target area is obtained. Finally, labeling is performed by scanning the temporary label image obtained in the first scan again and replacing the temporary label with the final label.
また、与えられた画像を領域分割手法によって分割する
と画像領域は過分割される。このため、過分割された各
領域の色や、各領域の周囲領域との連結具合に基づき、
過分割された各領域の併合処理を行う。すなわち、分割
領域の個々にラベル付けをした後、各ラベル間の連結関
係を記述する。Furthermore, when a given image is divided by the area division method, the image area is over-divided. Therefore, based on the color of each over-segmented region and the degree of connection of each region with surrounding regions,
Perform merging processing of each over-divided area. That is, after labeling each divided area, the connection relationship between each label is described.
そして、この記述に基づき、併合される領域のラベルを
併合する領域のラベルに書き替えるラベルの付は替え操
作を実行する。ラベルの付は替えは、画像を走査して併
合される対象の領域の画素ならばラベル値すなわち画素
値を変更することにより行われる。Then, based on this description, a label change operation is performed to rewrite the label of the area to be merged with the label of the area to be merged. Relabeling is performed by scanning the image and changing the label value, that is, the pixel value, if the image is a pixel in an area to be merged.
また、従来、画像分割領域から道路端や走行コースを求
める場合には、得られた走行コース領域と背景領域との
境界を追跡して境界線に対応する点列群を求めていた。Furthermore, conventionally, when determining a road edge or a driving course from an image segmentation region, the boundary between the obtained driving course region and the background region is traced to obtain a point sequence corresponding to the boundary line.
つまり、走行領域の境界部に位置する画素をこの境界に
沿って一つ一つ追跡し、この追跡の跡を点列群とし、こ
の点列群に基づいて道路端を判断していた。In other words, the pixels located at the boundary of the driving area are tracked one by one along this boundary, the traces of this tracking are made into a series of points, and the edge of the road is determined based on this series of points.
カラー画像を用いてこのような画像処理を行うことは、
モノクロ画像を用いて処理を行う場合に比較してコスト
が高くなり、産業分野におけるカラー画像処理の事例は
少ない。Performing this kind of image processing using color images is
The cost is higher than processing using monochrome images, and there are few examples of color image processing in the industrial field.
また、上記従来のRGBデータからIHSデータへの変
換処理は、画像処理においてIHSデータが必要になる
度毎に行われていたため、処理に時間を要していた。特
にRGBデータから色相データHへの変換処理には非常
に時間がかかり、例えば、ワークステーション(S u
n 3)であってもこの変換処理には約1分の時間を
要していた。Further, the conventional conversion process from RGB data to IHS data was performed every time IHS data was required in image processing, and therefore the process required time. In particular, the conversion process from RGB data to hue data H takes a very long time.
Even with n3), this conversion process required about 1 minute.
このため、リアルタイム処理が必要とされる自動車の自
律走行等における画像処理においては、演算処理に時間
がかかり、十分な走行制御を行うことが出来なかった。For this reason, in image processing for autonomous driving of automobiles, etc., which requires real-time processing, calculation processing takes time, and sufficient driving control cannot be performed.
また、上記従来のモノクロ画像におけるエツジ検出を用
いた手法は、走行路上に描かれた白線やランドマークを
追跡することによって走行コースを認識するため、走行
路上に必ず白線やランドマークを必要とする。また、カ
メラで撮像した画像を処理した結果、走行路を照射する
光源の状態や不明瞭な白線などが原因になり、検出した
エツジが途切れている場合があり、このような場合には
走行路領域を検出することが困難である。In addition, the conventional method using edge detection in monochrome images described above recognizes the driving course by tracking white lines and landmarks drawn on the driving road, so white lines and landmarks are always required on the driving road. . In addition, as a result of processing images captured by a camera, the detected edges may be interrupted due to the condition of the light source illuminating the driving path or unclear white lines. The area is difficult to detect.
また、走行路上にゴミがあったり、影が出来ている場合
には、白線やランドマークを誤検知してしまい、正確な
走行路情報が得られない場合がある。また、走行路領域
と背景領域との境界が草や土で区分されている場合には
、境界部分に相当するエツジの変化が小さく、境界の認
識が困難である。また、天候や太陽の位置により、時々
刻々と走行路の明るさが変化する場合、走行路領域と背
景領域との領域区分のためのしきい値を固定したものと
すると正しい走行路領域を求めることが出来なくなる。Furthermore, if there is dust or shadows on the road, white lines or landmarks may be falsely detected, and accurate road information may not be obtained. Further, when the boundary between the driving path region and the background region is divided by grass or soil, the change in the edge corresponding to the boundary portion is small, making it difficult to recognize the boundary. In addition, if the brightness of the driving path changes from moment to moment depending on the weather or the position of the sun, the correct driving path area can be determined by fixing the threshold value for dividing the driving path area and the background area. I can't do anything.
また、上述したように、一般の道路ではその走行時の天
候、太陽の位置や雲の動きなどによって路面上の明るさ
の分布は時々刻々と変化している。Further, as described above, on a general road, the brightness distribution on the road surface changes from moment to moment depending on the weather at the time of driving, the position of the sun, movement of clouds, etc.
このため、予め色の分布を計測しておいてこれを入力画
像と比較判断する従来手法では、この比較判断処理は上
記の明るさの変化に追従することが出来ず、影の部分を
必ずしも抽出できるとは限らない。また、舗装工事など
で道路の一部が変色している場合、この変色の度合いに
よっては画像処理によって変色部分の道路領域が抽出さ
れない場合がある。For this reason, with the conventional method of measuring the color distribution in advance and comparing it with the input image, this comparison and judgment process cannot follow the changes in brightness mentioned above, and shadow areas cannot always be extracted. It's not necessarily possible. Further, if a part of the road is discolored due to paving work or the like, the road area of the discolored part may not be extracted by image processing depending on the degree of discoloration.
本発明は一般道路であっても適確に影や変色部分を抽出
することができる画像処理方法を提供することを目的と
する。An object of the present invention is to provide an image processing method that can accurately extract shadows and discolored parts even on ordinary roads.
また、今までのラベリング処理の対象とする画像は全て
2値画像であり、多値画像に対してはラベリングを行う
ことか出来なかった。また、ラスク走査型は、1回の走
査では対象領域と1対1で対応したラベルを付けること
が出来ない。また、1次ラベリングと2次ラベリングに
ついては比較的簡単にハードウェア化を行うことが出来
るが、統合情報の解析、つまり、統合処理についてはハ
ードウェア化が困難である。そして、ラスク走査型のア
ルゴリズムでは仮ラベル付は時に大量の統合情報が発生
するため、統合処理の負荷が大きく、ラベリング処理全
体で見たときの処理性能は上がらない。Furthermore, all images targeted for labeling processing up to now have been binary images, and it has been impossible to label multivalued images. Further, in the rask scanning type, it is not possible to attach a label that corresponds one-to-one to the target area in one scan. Further, although primary labeling and secondary labeling can be implemented relatively easily in hardware, analysis of integrated information, that is, integration processing, is difficult to implement in hardware. In addition, in the rask scanning algorithm, provisional labeling sometimes generates a large amount of integrated information, so the integration processing load is large, and the processing performance of the labeling process as a whole does not improve.
また、従来の領域併合のためのラベル値の付は替え操作
は、画像の全画素について、または、少なくとも併合領
域に外接する長方形内の画素について走査することによ
り行われる。従って、ラベルの付は替え走査に時間を要
し、自動車の自律走行に必要とされる高速処理が困難に
なる。また、処理コストが低減されないという欠点もあ
る。Furthermore, the conventional label value replacement operation for merging regions is performed by scanning all pixels of an image, or at least pixels within a rectangle circumscribing the merging region. Therefore, labeling requires time for replacement scanning, making it difficult to perform high-speed processing required for autonomous driving of automobiles. Another disadvantage is that processing costs are not reduced.
また、領域境界部の画素を一つ一つ逐次追跡していって
道路端を求める上記従来の方法は、処理に時間がかかる
。そのうえ、複数の領域がある場合には何を基準にして
道路端の判断処理をするかが問題になる。また、走行コ
ース領域と分割領域とがごくわずかに繋がっており、し
がち、この分割領域が走行コースでない場合が画像処理
の結果によっては起こり得る。このような場合に、従来
の領域の境界を逐次追跡していく方法では、実際に走行
コースでない領域の境界も点列として求まってしまう。Furthermore, the conventional method of determining the road edge by sequentially tracking each pixel at the region boundary takes time. Furthermore, when there are multiple areas, it becomes a problem as to what criteria should be used to determine the edge of the road. Furthermore, the driving course area and the divided areas are connected very slightly, and depending on the result of image processing, it is possible that this divided area may not be the driving course. In such a case, with the conventional method of sequentially tracing the boundaries of regions, boundaries of regions that are not actually the driving course are also found as a series of points.
この結果、正確な道路端情報を得ることが出来ない。ま
た、得られた点列群が繋がらずに分離したとしていても
、複数の点列群の妥当性を検証する必要があり、処理が
複雑になる。さらには、得られた画像にノイズによる穴
や切れ込みが有る場合には、得られる点列群が清らがで
なくなってしまう。As a result, accurate road edge information cannot be obtained. Further, even if the obtained point sequence groups are separated without being connected, it is necessary to verify the validity of a plurality of point sequence groups, which complicates the processing. Furthermore, if the obtained image has holes or cuts due to noise, the obtained point sequence will not be clear.
本発明はこのような課題を解消するためになされたもの
で、原画像をRGB情報として取り込む撮像装置と、撮
像装置に取り込まれたRGB情報を明度、彩度1色相の
ISH情報に変換するISH変換部と、ISH変換部に
より変換されたISH情報のうち明度と彩度に基づいて
対象領域を抽出するカラー処理部と、カラー処理部によ
り抽出された対象領域を構成する各領域にラベル付けを
するラベリング部と、ラベリング部によりラベル付けさ
れた各領域の接続関係を求めて各領域間の併合処理を行
う併合手段と、併合された領域の境界端を求める領域境
界識別手段とを備えて構成されものである。The present invention has been made to solve these problems, and includes an imaging device that captures an original image as RGB information, and an ISH that converts the RGB information captured by the imaging device into ISH information with one hue of brightness and saturation. A conversion unit, a color processing unit that extracts a target area based on brightness and saturation from the ISH information converted by the ISH conversion unit, and a labeling unit that labels each area constituting the target area extracted by the color processing unit. a labeling unit that performs a merging process between the areas by determining the connection relationship between the areas labeled by the labeling unit, and an area boundary identification unit that determines the boundary edge of the merged areas. It is something to be admired.
また、原画像データが記憶される原画像メモリと、原画
像データに含まれるRGBデータのうちのRデータを記
憶するR画像メモリと、Gデータを記憶する0画像メモ
リと、Bデータを記憶する8画像メモリと、RGBデー
タから変換された明度データが記憶される第1の記憶素
子と、RGBデータから変換された彩度データが記憶さ
れる第2の記憶素子と、RGBデータから変換された色
相データが記憶される第3の記憶素子と、この第3の記
憶素子から出力される色相データを平均化する平均値フ
ィルタとを備えたものである。Further, an original image memory stores original image data, an R image memory stores R data of RGB data included in the original image data, a 0 image memory stores G data, and a 0 image memory stores B data. 8 image memories, a first storage element that stores brightness data converted from RGB data, a second storage element that stores chroma data converted from RGB data, and a second storage element that stores saturation data converted from RGB data. This device includes a third storage element in which hue data is stored, and an average value filter that averages the hue data output from the third storage element.
また、撮像された原画像データからRGBデータを抽出
し、このRGBデータを明度データと彩度データに変換
し、各データから特徴量ヒストグラムを作成し、このヒ
ストグラムに基づいて領域区分しきい値を設定し、この
しきい値によって原画像を2値化することにより領域分
割して分割画像を作成し、走行路が撮像される画像位置
に想定された所定領域およびその他の領域に2値化され
たテンプレート画像と分割画像との重複度を計算し、重
複度の大きい分割画像に走行路領域が含まれているもの
と判断し、走行路領域を抽出するものである。In addition, RGB data is extracted from the captured original image data, this RGB data is converted into brightness data and saturation data, a feature histogram is created from each data, and a region segmentation threshold is determined based on this histogram. By setting and binarizing the original image using this threshold, the area is divided into divided images, and the image is binarized into a predetermined area assumed at the image position where the driving road is imaged and other areas. The system calculates the degree of overlap between the template image and the divided images, determines that the divided image with a high degree of overlap includes the running road area, and extracts the running road area.
また、明度データから抽出した走行路領域より暗い領域
または明るい領域がある場合に、この暗い領域または明
るい領域を特徴量ヒストグラムの形状に基づいて求めた
谷の候補値に基づいて2値化し、この2値化画像と彩度
画像から求めた走行路領域画像とに基づいて暗い領域ま
たは明るい領域を求めるものである。In addition, if there is an area darker or brighter than the driving road area extracted from the brightness data, this dark area or bright area is binarized based on the valley candidate value obtained based on the shape of the feature value histogram, and A dark area or a bright area is determined based on a binary image and a travel road area image determined from a chroma image.
また、複数の2値入力画像が足し合わされた多値の画像
情報を記憶する入力メモリと、入力メモリに記憶された
各画素に画素値に応じてラベル付けを行うラベリングプ
ロセッサと、ラベリングプロセッサによって付けられた
各画素の出力ラベル値を記憶するラベルメモリとを備え
て構成されたものである。また、ラベルマツチングメモ
リおよびラベルメモリに同時に各素子の情報を書き替え
られるラベリングメモリを採用したものである。In addition, there is an input memory that stores multivalued image information obtained by adding up multiple binary input images, a labeling processor that labels each pixel stored in the input memory according to the pixel value, and a labeling processor that labels each pixel stored in the input memory according to the pixel value. and a label memory for storing the output label value of each pixel. Furthermore, a labeling memory is used as the label matching memory and the label memory in which information on each element can be rewritten simultaneously.
また、ラインバッファメモリを使用して画像の各ランご
とにラベル付けを行うようにしたものである。Additionally, a line buffer memory is used to label each run of the image.
また、画像分割されラベル付けされた各領域の画素につ
いてマスクを走査することにより、同一ラベル領域の周
囲長および同一ラベル領域に隣接する領域との間の共通
境界長を求め、周囲長と共通境界長との比率に基づいて
隣接領域間の接続度を求め、この接続度をメモリに記述
して各領域間の繋がりの関係を判断するものである。In addition, by scanning the mask for the pixels of each area that has been segmented and labeled, the perimeter of the same label area and the common boundary length between the areas adjacent to the same label area are calculated, and the perimeter and common boundary are calculated. The degree of connectivity between adjacent regions is determined based on the ratio to the length, and this degree of connectivity is written in memory to determine the connection relationship between each region.
また、着目画素の近傍に位置する各画素に位置を示す番
号を付与し、位置番号を列方向および行方向に所定順番
に並べた画素参照テーブルを予め作成し、この画素参照
テーブルに基づいて領域の境界にある画素の近傍の画素
を探索することにより領域の周囲長および隣接領域間と
の共通境界長を求め、周囲長と共通境界長との比率に基
づいて隣接領域間の接続度を求め、この接続度をメモリ
に記述して各領域間の繋がりの関係を判断するものであ
る。In addition, a pixel reference table is created in advance in which each pixel located near the pixel of interest is given a number indicating its position, and the position numbers are arranged in a predetermined order in the column and row directions. Find the perimeter of the region and the common boundary length between adjacent regions by searching for pixels near the pixels on the boundary of , this degree of connectivity is written in memory to determine the connection relationship between each area.
また、所定数の画素を囲むウィンドウを画像分割された
対象領域の水平方向に走査し、ウィンドウ内に存在する
所定画素値を有する画素数を各走査位置ごとに数え、所
定画素値を有する画素数が所定数以下になるウィンドウ
位置が連続して存在するとき、画素数が所定数以下にな
り始めるウィンドウ位置を対象領域の境界と判断し、対
象領域の境界を識別するものである。In addition, a window surrounding a predetermined number of pixels is scanned in the horizontal direction of the image-divided target area, and the number of pixels with a predetermined pixel value existing within the window is counted for each scanning position, and the number of pixels with a predetermined pixel value is calculated. When there are consecutive window positions where the number of pixels is less than or equal to a predetermined number, the window position where the number of pixels starts to become less than or equal to the predetermined number is determined to be the boundary of the target area, and the boundary of the target area is identified.
〔作用〕
RGBデータからISHデータへの変換処理は各記憶素
子にISHデータを格納する際にのみ行われ、以後は各
記憶素子からISHデータが直接読み取れる。[Operation] The conversion process from RGB data to ISH data is performed only when storing ISH data in each storage element, and thereafter the ISH data can be directly read from each storage element.
また、しきい値によって領域分割された各画像は、テン
プレート画像との重複度が計算されることにより、対象
領域との関係が判明する。Furthermore, the relationship between each image divided into regions based on the threshold value and the target region is determined by calculating the degree of overlap with the template image.
また、対象領域より低輝度の同系色領域は対象領域にで
きた影などの部分に相当するものとして個別に抽出され
、対象領域より高輝度の同系色領域は対象領域に照射さ
れた日向などの部分に相当するものとして個別に抽出さ
れる。In addition, similar color areas with lower brightness than the target area are extracted individually as corresponding to parts such as shadows formed in the target area, and similar color areas with higher brightness than the target area correspond to parts such as sunlight shining on the target area. They are extracted individually as corresponding parts.
また、ラベリングプロセッサにより多値の入力画像に対
してもラベリングがされる。また、ラベリングメモリは
各レジスタに記憶されている情報を同時に書き替えるこ
とが出来、ラベリング処理時間は短縮され、凹路規模は
縮小される。The labeling processor also labels multivalued input images. Furthermore, the labeling memory can simultaneously rewrite the information stored in each register, reducing the labeling processing time and reducing the size of the concave path.
また、ラベルの付は替え走査を行わずに分割された各領
域間の併合関係が判断される。In addition, labeling is performed by determining the merging relationship between the divided regions without performing scanning.
また、対象領域の範囲はウィンドウ内に存在する画素数
を基にして判断される。つまり、この対象領域上をウィ
ンドウを左右に水平走査してウィンドウ内の画素数の変
化を調べることにより、対象領域と背景領域との境界が
識別される。Further, the range of the target area is determined based on the number of pixels existing within the window. In other words, the boundary between the target area and the background area is identified by scanning the window horizontally from side to side over the target area and examining changes in the number of pixels within the window.
本発明の一実施例によるカラー画像処理装置およびその
処理方法を、自律走行車の走行制御に適用した場合につ
いて以下に説明する。本実施例の装置および方法により
、走行車の走行コースは自動的に認識され、走行車は認
識された走行コースに基づいてステアリングの操舵角や
エンジンへの燃料噴出量などを決定し、自律走行する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A case where a color image processing apparatus and a processing method thereof according to an embodiment of the present invention are applied to driving control of an autonomous vehicle will be described below. With the device and method of this embodiment, the driving course of the vehicle is automatically recognized, and the vehicle determines the steering angle, fuel injection amount to the engine, etc. based on the recognized driving course, and autonomously runs the vehicle. do.
第1図は本実施例によるカラー画像処理装置全体の概略
構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of the entire color image processing apparatus according to this embodiment.
カラー画像処理装置は、道路情報を撮像するカラーカメ
ラ101と、撮像されたRGB情報を■SH変換するI
SH変換部102と、ISH変換された画像情報から道
路候補領域等を抽出するカラー処理部103と、カラー
処理された画像についてラベリング処理を施すラベリン
グハード部104と、ラベリングされた画像領域につい
て併合処理等を実行するCPU処理部105とに大別さ
れる。ISH変換部102は、カラーカメラ入力ボード
、ISH変換ボードおよびフィルタ等によって構成され
ている。The color image processing device includes a color camera 101 that captures road information, and an I that performs SH conversion on the captured RGB information.
An SH conversion unit 102, a color processing unit 103 that extracts road candidate areas etc. from the ISH converted image information, a labeling hardware unit 104 that performs labeling processing on the color-processed image, and a merging process on the labeled image areas. It is roughly divided into a CPU processing unit 105 that executes the following operations. The ISH converting unit 102 includes a color camera input board, an ISH converting board, a filter, and the like.
第2図はこのカラー画像処理装置における画像処理方法
を示す概略のフローチャートである。FIG. 2 is a schematic flowchart showing an image processing method in this color image processing apparatus.
カラーカメラ101により道路画像106がRGB情報
として取り込まれ、ISH変換部102において明度(
1)、彩度(S)1色相(H)の各画像に変換される(
ステップ201)。これら各画像を基にしてカラー処理
部103において走行コースの基になる道路候補領域が
抽出される(ステップ202)。ここで、CPUのステ
ータスレジスタにある低輝度のしきい値存在フラグがオ
ンしているか否かを判断する(ステップ203)。この
フラグは取り込まれた原画像に影や変色部などの低バ度
領域が有るか否かを示すフラグであり、フラグがオンし
ていればカラー処理部103において低輝度領域が抽出
される(ステップ204)。抽出された道路候補領域お
よび低輝度領域はラベリングハード部104においてラ
ベル付けされ、各領域間の接続関係が判断される。A road image 106 is captured by the color camera 101 as RGB information, and the ISH conversion unit 102 converts the brightness (
1), each image is converted into one image of saturation (S) and hue (H) (
Step 201). Based on each of these images, the color processing unit 103 extracts a road candidate area that will become the basis of a driving course (step 202). Here, it is determined whether the low brightness threshold existence flag in the status register of the CPU is on (step 203). This flag indicates whether or not there is a low brightness area such as a shadow or a discolored part in the captured original image. If the flag is on, the low brightness area is extracted in the color processing unit 103 ( Step 204). The extracted road candidate areas and low-luminance areas are labeled by the labeling hardware unit 104, and the connection relationship between each area is determined.
この判断結果に基づき、各領域が併合すべき関係にある
場合にはCPU処理部105にお(\てマージ(併合)
処理が実行される(ステ・ツブ205)。Based on this judgment result, if each area is in a relationship that should be merged, the CPU processing unit 105 (\merge)
Processing is executed (step 205).
次に、CPUのステータスレジスタにある高輝度のしき
い値存在フラグがオンしているか否かを判断する(ステ
ップ206)。ステ・ツブ203(こおいて低輝度のし
きい値存在フラグがオンしても)ない場合には、直ちに
このステ・ツブ206の処理が実行される。この高輝度
のしきい値存在フラグは、取り込まれた原画像に日向や
変色部分などの高輝度領域が有るか否かを示すフラグで
あり、フラグがオンしていればカラー処理部103にお
(覆で高輝度領域が抽出される(ステ・ツブ207)。Next, it is determined whether the high brightness threshold presence flag in the CPU status register is on (step 206). If there is no step 203 (even if the low-luminance threshold presence flag is turned on), the process of step 206 is immediately executed. This high brightness threshold presence flag is a flag that indicates whether or not there is a high brightness area such as sunlight or discolored areas in the captured original image.If the flag is on, the color processing unit 103 (The high-brightness area is extracted with the cover (Step 207).
抽出された道路候補領域および高輝度領域はラベリング
ハード部104においてラベル付けされ、各領域間の接
続関係が判断される。この判断結果に基づき、各領域が
併合すべき関係にある場合にはCPU処理部105にお
いてマージ(併合)処理が実行される(ステップ208
)。The extracted road candidate areas and high brightness areas are labeled by the labeling hardware unit 104, and the connection relationship between each area is determined. Based on the result of this determination, if the areas are in a relationship that should be merged, the CPU processing unit 105 executes a merge process (step 208).
).
このようにして併合された道路候補領域に基づき、領域
の左右の境界端、つまり、道路端の境界線か点列として
求められる。この点列情報により、今回撮像された原画
像に基づく走行コースが認識される(ステップ209)
。この後、ステップ201の処理に戻り、自律走行車の
移動に伴って引き続いて得られる画像情報について上記
と同様な処理が繰り返し実行され、自律走行車の走行制
御が実行される。Based on the road candidate areas merged in this way, the left and right boundary edges of the area, that is, the boundary lines of the road edges, are determined as a dot sequence. Using this point sequence information, the driving course based on the original image taken this time is recognized (step 209).
. Thereafter, the process returns to step 201, and the same process as described above is repeatedly performed on image information that is subsequently obtained as the autonomous vehicle moves, and travel control of the autonomous vehicle is executed.
次に、以上の処理内容について、第1図に示されたカラ
ー処理装置の構成図に基づいてより詳しく説明する。Next, the above processing will be explained in more detail based on the configuration diagram of the color processing apparatus shown in FIG.
カラーカメラ101は自律走行車の車体に固定して設置
してあり、このカラーカメラ101には走行車の前方に
位置する道路画像106がRGB情報として撮像される
。ISH変換部102の変換処理部107には、このR
GB情報が与えられる。この変換処理部107において
、後に詳述するFROMテーブルを用いたカラー画像の
ISH変換処理」が実行され、RGBの道路画像情報は
明度(1)画像108.彩度(S)画像109および色
相(H)画像110の各画像情報に変換される。A color camera 101 is fixedly installed on the body of an autonomous vehicle, and the color camera 101 captures a road image 106 located in front of the vehicle as RGB information. The conversion processing unit 107 of the ISH conversion unit 102 has this R
GB information is given. In this conversion processing unit 107, a color image ISH conversion process using a FROM table, which will be described in detail later, is executed, and the RGB road image information is converted into a brightness (1) image 108. It is converted into image information of a saturation (S) image 109 and a hue (H) image 110.
明度画像108は道路候補領域抽出手段111に与えら
れ、後に詳述する「テンプレート画像を用いた繰返しき
い値処理による走行コースの抽出手法」により、明度画
像に基づく道路候補領域画像113が抽出される。また
、彩度画像109は道路候補領域抽出手段112に与え
られ、上記と同様の手法により、彩度画像に基づく道路
候補領域114が抽出される。この手法における領域区
分のためのしきい値は、後に詳述する「繰返しきい値処
理における特徴量ヒストグラムの形状に基づくしきい値
設定手段」により決定される。求められた各道路候補領
域画像1.13,114は論理積演算手段115に与え
られ、明度および彩度から得られた各道路候補領域の共
通部分が取り出され、カラー情報に基づく新たな道路候
補領域画像116になる。The brightness image 108 is given to the road candidate area extraction means 111, and a road candidate area image 113 based on the brightness image is extracted by a "driving course extraction method by iterative threshold processing using a template image" which will be described in detail later. . Further, the chroma image 109 is provided to the road candidate region extracting means 112, and a road candidate region 114 based on the chroma image is extracted using the same method as described above. The threshold value for region segmentation in this method is determined by "threshold setting means based on the shape of the feature histogram in iterative threshold processing" which will be described in detail later. The obtained road candidate area images 1, 13, 114 are given to the logical product calculation means 115, the common part of each road candidate area obtained from the brightness and saturation is extracted, and a new road candidate is created based on the color information. This becomes a region image 116.
また、明度画像108に低輝度領域が存在している場合
には、カラー処理部のステータスレジスタ117に有る
低輝度のしきい値存在フラグがオンする。このフラグが
オンしている場合に、低輝度領域抽出手段118は明度
画像108を取り込む。そして、後に詳述する「明るさ
の違いに注目した走行コースからの影や高輝度部分の抽
出手段」により、低輝度領域を抽出する。抽出された低
輝度領域は低輝度画像119になる。この低輝度領域画
像119は、論理積演算手段120において、彩度画像
109から抽出された道路候補領域画像114と論理積
が取られ、低輝度領域のうちで道路候補領域と似た彩度
の領域が抽出される。抽出されたこの低輝度領域の画像
情報は、道路候補領域画1象116に加えられる。Furthermore, if a low brightness area exists in the brightness image 108, a low brightness threshold presence flag in the status register 117 of the color processing section is turned on. When this flag is on, the low brightness area extraction means 118 captures the brightness image 108. The low-luminance area is then extracted using a ``extraction means for extracting shadows and high-luminance areas from the driving course that focuses on differences in brightness'', which will be described in detail later. The extracted low brightness area becomes a low brightness image 119. This low brightness area image 119 is logically ANDed with the road candidate area image 114 extracted from the saturation image 109 in the logical product calculation means 120, and the low brightness area has a color saturation similar to that of the road candidate area. A region is extracted. The extracted image information of this low brightness area is added to the road candidate area image 116.
また、明度画像108に高輝度領域が存在している場合
には、カラー処理部のステータスレジスタ117にある
高輝度のしきい値存在フラグがオンする。このフラグが
オンしている場合に、高輝度領域抽出手段121は明度
画像108を取り込む。そして、後に詳述する「明るさ
の違いに注目した走行コースからの影や高輝度部分の抽
出手段」により、高輝度領域を抽出する。抽出された高
輝度領域は高輝度領域画像122になる。この高輝度領
域画像122は、論理積演算手段123において、彩度
画像109から抽出された道路候補領域画像114と論
理積が取られ、高輝度領域のうちで道路候補領域と似た
彩度の領域が抽出される。Furthermore, if a high brightness area exists in the brightness image 108, the high brightness threshold presence flag in the status register 117 of the color processing section is turned on. When this flag is on, the high brightness area extraction means 121 captures the brightness image 108. Then, the high-brightness area is extracted using a ``extraction means for extracting shadows and high-brightness areas from the driving course that focuses on differences in brightness'', which will be described in detail later. The extracted high brightness area becomes a high brightness area image 122. This high brightness area image 122 is logically ANDed with the road candidate area image 114 extracted from the saturation image 109 in the logical product calculation means 123, and the high brightness area has a saturation similar to that of the road candidate area. A region is extracted.
抽出されたこの高輝度領域の画像情報は道路候補領域画
像116に加えられる。The extracted image information of this high brightness area is added to the road candidate area image 116.
上記各手段により、道路候補領域画像116には、画素
値1の道路候補領域画像113と、画素値2の低輝度領
域画像119と、画素値3の高輝度領域画像122とが
含まれることになる。By each of the above means, the road candidate area image 116 includes a road candidate area image 113 with a pixel value of 1, a low brightness area image 119 with a pixel value of 2, and a high brightness area image 122 with a pixel value of 3. Become.
道路候補領域画像116はラベリング処理部124に与
えられる。ラベリング処理部124は与えられた画像の
各領域にラベル付けをし、ラベル画像126を作成する
。また、これと同時に、ラベリング処理部124は同一
ラベル領域の面積や重心などを演算する。これらの各演
算値はラベリング処理部124に対応した演算値125
になる。このラベリング処理は、後に詳述する「ラベリ
ング処理装置」によって実行される。The road candidate area image 116 is provided to the labeling processing section 124. The labeling processing unit 124 labels each region of the given image and creates a label image 126. At the same time, the labeling processing unit 124 calculates the area, center of gravity, etc. of the same label area. Each of these calculated values is calculated as a calculated value 125 corresponding to the labeling processing unit 124.
become. This labeling process is executed by a "labeling processing device" which will be described in detail later.
CPUはラベル画像126を小領域除去手段127に取
り込む。ここで、ノイズ等によって生じた小領域や地平
線位置より重心が上に位置する領域は、道路領域に該当
するものではないものとし、これら領域は各ラベル画像
の中から除去される。小領域除去手段127により、道
路候補領域から小領域が除去されたラベル画像は、新た
なラベル画像128になる。また、各領域に付けられた
ラベル毎の演算値125の内、小領域除去手段127に
よって除去されなかった各領域の特徴量はりスト1に記
一連される。The CPU takes the label image 126 into the small area removing means 127. Here, it is assumed that small areas caused by noise or the like and areas whose center of gravity is located above the horizon position do not correspond to road areas, and these areas are removed from each label image. The label image from which the small area has been removed from the road candidate area by the small area removing means 127 becomes a new label image 128 . In addition, among the calculated values 125 for each label attached to each region, the features of each region not removed by the small region removing means 127 are recorded in the feature list 1.
リスト1に記憶された特徴量129.ラベル画像128
.道路画像116に基づいて、道路候補領域画像の各ラ
ベル領域と低輝度領域画像の各ラベル領域、および道路
候補領域画像の各ラベル領域と高輝度領域画像の各ラベ
ル領域が併合すべき関係にある場合には、領域併合手段
130において併合処理が実行され、新たなラベル画像
131がメモリ1に記憶される。以上の併合処理は、後
に詳述する「複数の領域の併合手段」により実行される
。Feature amount 129 stored in list 1. Label image 128
.. Based on the road image 116, each label area of the road candidate area image and each label area of the low brightness area image, and each label area of the road candidate area image and each label area of the high brightness area image are in a relationship that should be merged. In this case, the area merging means 130 executes the merging process, and a new label image 131 is stored in the memory 1. The above merging process is executed by a "multiple area merging means" which will be described in detail later.
最終的に得られたラベル画像131に基づいて道路領域
の左右端の道路位置座標132が演算される。この道路
端位置座標132に基づき、道路端に相当する点列デー
タ133が求まる。この道路端を求める処理は、後に詳
述する「走行可能範囲を求める手段J、並びに「多様な
形状の走行コースの内部表現手法」により実行される。Road position coordinates 132 of the left and right ends of the road area are calculated based on the label image 131 finally obtained. Based on the road edge position coordinates 132, point sequence data 133 corresponding to the road edge is determined. This process of determining the road edge is executed by a ``means J for determining a drivable range'' and an ``internal representation method for driving courses of various shapes'' which will be described in detail later.
この点列データ133は、自律走行車の走行制御のため
の画像処理データ統括管理を行うデータ管理部へ送出さ
れ、カラー画像処理が終了する。This point sequence data 133 is sent to a data management unit that performs overall management of image processing data for driving control of the autonomous vehicle, and color image processing is completed.
次に、カラーカメラで撮像して得られたRGBデータを
、明度I、彩彩度8免
変換するFROMテーブルを用いたカラー画像のISH
変換処理」について、第3図を用いて以下に説明する。Next, ISH of a color image using a FROM table that converts RGB data obtained by capturing an image with a color camera to brightness I and saturation 8
The "conversion process" will be explained below using FIG.
まず、カラーカメラから原画像301をRGBデータと
して入力する。原画像301にはRGBの各データが混
在しているため、RGBデータの各成分を分離する。そ
して、分離した各RGBデータをR画像メモリ302,
0画像メモリ303および8画像メモリ304の3つの
各画像メモリに各々別個に記憶する。これら各R,G,
B画像メモリ302〜304は8ビツトの階調を持った
複数の画素値から構成されており、次のようにISH変
換される。First, an original image 301 is input as RGB data from a color camera. Since the original image 301 contains a mixture of RGB data, each component of the RGB data is separated. Then, each separated RGB data is stored in an R image memory 302,
The images are stored separately in each of three image memories, 0 image memory 303 and 8 image memory 304. Each of these R, G,
The B image memories 302 to 304 are composed of a plurality of pixel values having 8-bit gradation, and are subjected to ISH conversion as follows.
まず、8ビツトの各RGBデータを読み出す際に上位の
6ビツトのみを読みだし、下位2ビツトを切り捨てる。First, when reading each 8-bit RGB data, only the upper 6 bits are read and the lower 2 bits are discarded.
つまり、上位6ビツトをとることにより、8階調の画素
値を6階調の画素値に近似する。この上位6ビツトによ
る数値は16進数で00〜3F (hex)の間で変化
する(切り捨てた下位2ビツトを考慮すると00〜FC
(hex)の間で変化する)。また、この上位6ビツ
トの値を40(hex)で割った数値をそれぞれR,G
。That is, by taking the upper 6 bits, a pixel value of 8 gradations is approximated to a pixel value of 6 gradations. The value of the upper 6 bits changes between 00 and 3F (hex) in hexadecimal (00 to FC when the lower 2 bits are rounded down).
(hex)). In addition, the value obtained by dividing this upper 6 bit value by 40 (hex) is calculated as R and G, respectively.
.
B値とする。これらR,G,Bの各位は実数の0から約
1までの範囲で変化する。Let it be the B value. Each of these R, G, and B digits varies in the range of real numbers from 0 to about 1.
R,G,Bの各位を(R+G+B)で割った値をそれぞ
れr,g,bとすると、R,G,B値からI,S,H値
への変換は次式に従って行われる。Assuming that the values obtained by dividing each of R, G, and B by (R+G+B) are r, g, and b, respectively, the conversion from R, G, and B values to I, S, and H values is performed according to the following equation.
ここで、min (r,g,b)は、r,g,bの各特
徴量のうちの最少の値を持つ特徴量の値を示す。Here, min (r, g, b) indicates the value of the feature amount having the minimum value among the feature amounts r, g, and b.
1 − (R+G+B)/3
・・・ (1 )S=1 − (1/3) ・ m
in (r, g, b)H=1/2+(1/π
) ・arcta’n ( (3) ”2(g−b)
/ (2 r−g−b) 1この変換はラスク
スキャン順にR,G,Bの各画素毎に行われ、変換され
た各1.3,H値は全て0から1までの値をとる実数と
なる。ROM305にはRGBから明度Iへの変換テー
ブルデータ、ROM306にはRGBから彩度Sへの変
換テーブルデータ、ROM307にはRGBから色相H
への変換テーブルデータが記憶されている。1 - (R+G+B)/3
... (1) S=1 - (1/3) ・m
in (r, g, b)H=1/2+(1/π
) ・arcta'n ( (3) "2 (g-b)
/ (2 r-g-b) 1 This conversion is performed for each R, G, and B pixel in the order of rask scan, and the converted 1.3 and H values are all real numbers that take values from 0 to 1. becomes. ROM 305 has conversion table data from RGB to brightness I, ROM 306 has conversion table data from RGB to saturation S, and ROM 307 has conversion table data from RGB to hue H.
Conversion table data is stored.
これら各ROM’305〜307はルックアップテーブ
ルとして機能する。また、各ROM305〜307にデ
ータが記憶されるアドレスは、変換前の各R,G,B値
の8ビツトの数値のうち、上位6ビツトの数値によって
定まる。なお、各ROM305〜307の記憶8皿は1
8ビット(ー256にバイト)である。Each of these ROM'305-307 functions as a lookup table. Further, the address at which data is stored in each ROM 305 to 307 is determined by the upper 6 bits of the 8 bits of each R, G, B value before conversion. In addition, each ROM 305 to 307 has 8 memory trays.
It is 8 bits (-256 bytes).
ROM305,306に記憶された各特徴間はCPUか
らの取り込み命令に応じて明度データ308、彩度デー
タ309として即座に読み出され、必要とされる画像処
理にリアルタイムに供給される。また、ROM307か
ら読み出された色相データ310の特徴間は、さらに、
3×3平均値フイルタ311によってノイズが除去され
て平均化される。このため、各画像処理に供される色相
データ312は平滑化されたノイズのないデータとなる
。また、読み出された各特徴量データ(明度308.彩
度3091色相310および312)は下位2ビツトが
0で、上位6ビツトが有効な8ビツトの近似データであ
る。The features stored in the ROMs 305 and 306 are immediately read out as brightness data 308 and chroma data 309 in response to a fetch command from the CPU, and are supplied to necessary image processing in real time. Furthermore, the characteristics of the hue data 310 read from the ROM 307 are as follows:
Noise is removed and averaged by a 3×3 average value filter 311. Therefore, the hue data 312 used for each image process is smoothed data without noise. Further, each of the read feature data (brightness 308, saturation 3091, hue 310 and 312) is 8-bit approximate data in which the lower 2 bits are 0 and the upper 6 bits are valid.
次に、本アルゴリズムを用いたISH変換処理例につい
て、本アルゴリズムを用いないISH変換処理例と比較
しつつ、第4図〜第7図を参照して説明する。Next, an example of ISH conversion processing using this algorithm will be described with reference to FIGS. 4 to 7, while comparing it with an example of ISH conversion processing that does not use this algorithm.
各図の(a)はカラーカメラに撮像された原画像の概略
である。つまり、第4図(a)は走行路が遠方でカーブ
する情景を示し、走行路の片側にはガードレールが設置
されており、このガードレールの遠方には樹木が生い茂
っている。第5図(a)は走行路端が雑草等によって区
画されている走行路を示し、遠方には住居や樹木等があ
る情景になっている。第6図(a)は夜間の高速道路に
おける走行路を示し、路面は月明りおよび照明燈によっ
てわすかな光が照らされている情景になっている。第7
図(a)は天気の良い日中の走行路を示し、走行路上に
はブロック塀の中にある樹木による影ができている情景
になηている。(a) of each figure is an outline of an original image captured by a color camera. In other words, FIG. 4(a) shows a scene in which a running road curves in the distance, a guardrail is installed on one side of the running road, and trees are growing in the distance from this guardrail. FIG. 5(a) shows a road where the edges of the road are divided by weeds, etc., and there are houses, trees, etc. in the distance. FIG. 6(a) shows a driving route on an expressway at night, and the road surface is faintly illuminated by moonlight and lamps. 7th
Figure (a) shows a driving route on a sunny day, and the driving path is shaded by trees inside a block wall.
また、第4図から第7図の各図の(b−1)および(b
−2)は明度Iを特徴間とするヒストグラム、各図の(
c−1)および(c−2)は彩度Sを特徴間とするヒス
トグラム、各図の(d−1)および(d−2)は3×3
平均値フイルタ311にかける前の色相H′を特徴間と
するヒストグラム、各図の(e−1)および(e−2)
は3×3平均値フイルタ311にかけた後の色相Hを特
徴間とするヒストグラムである。In addition, (b-1) and (b-1) of each figure from FIG. 4 to FIG.
-2) is a histogram with brightness I as the feature, and (
c-1) and (c-2) are histograms with saturation S as the feature, and (d-1) and (d-2) in each figure are 3×3
Histograms with hue H' as a feature before being applied to the average value filter 311, (e-1) and (e-2) in each figure
is a histogram whose feature is the hue H after being applied to the 3×3 average value filter 311.
各ヒストグラムの縦軸は各特徴間の画素数を示し、全画
面の1/4を最大としている。また、各ヒストグラムの
横軸は明度I、彩度81色相H′Hの各特徴間の度合い
を示す。この各特徴間の度合いは原点から遠ざかる程強
まるように表示されており、0〜F F (h e x
)の各数値に割り当てられた各特徴間の度合いを64分
割して表示しである。また、原画像の画素数は512X
512より若干少なくなっている。これは画像周辺部に
はR,G、Bの各データが全て0の部分があるためであ
り、各ヒストグラムはこの部分を含んだデータ値により
表されているからである。The vertical axis of each histogram indicates the number of pixels between each feature, and the maximum is 1/4 of the entire screen. Further, the horizontal axis of each histogram indicates the degree of each feature of brightness I and saturation 81 and hue H'H. The degrees between these features are displayed so that they become stronger as they move away from the origin, and range from 0 to FF (h e x
) The degree between each feature assigned to each numerical value is divided into 64 and displayed. Also, the number of pixels of the original image is 512X
It is slightly smaller than 512. This is because there is a portion in the periphery of the image where all R, G, and B data are 0, and each histogram is represented by data values that include this portion.
また、各図の(b−1)、 (c−1)、 (d
−1)、(e−1)は従来手法に基づいて得られたヒス
トグラムであり、各画像メモリにCPUが直接アクセス
し、R,G、Bデータを変換式に従ってI、S、Hデー
タに変換することにより得られたものである。これに対
して各図の(b−2)。Also, (b-1), (c-1), (d
-1) and (e-1) are histograms obtained based on the conventional method, in which the CPU directly accesses each image memory and converts R, G, and B data into I, S, and H data according to the conversion formula. This was obtained by In contrast, (b-2) in each figure.
(c−2)、 (d−2)、 (e−2)は本実施
例の手法によるアルゴリズムに基づいて得られたヒスト
グラムであり、ROMに6ビツト階調のRGBデータか
らI、S、Hの各特徴間への変換テーブルを記憶し、こ
れを読み出すことにより得られたものである。(c-2), (d-2), and (e-2) are histograms obtained based on the algorithm according to the method of this embodiment. This is obtained by storing and reading out a conversion table between each feature.
第4図〜第7図の各(b−1)、(b−2)および各(
c−1)、 (c−2)に示されるように、明度Iお
よび彩度Sについては、本手法によるヒストグラム分布
と従来手法によるヒストグラム分布とには大差がないこ
とが分かる。このことは、RGBデータをISHデータ
に変換する本手法による機能は、従来手法による変換・
機能に比較して劣る面がないことを示している。一方、
各図の(d−1)、(d−2)に示される3X3平均値
フイルタ311にかける前の特徴間である色相H′のヒ
ストグラム分布は、従来手法と本手法とでは全体的な傾
向が変わっている。これは本例に用いたような画像では
、RGBデータから色相Hへ変換する式の中の(g−b
)および(2r−g−b>の値はO付近の極めて限定さ
れた値しか取らないため、本手法によるデータの6ビツ
トへの圧縮により情報が極端に離散化してしまったこと
に起因する。Each (b-1), (b-2) and each (
As shown in c-1) and (c-2), it can be seen that there is not much difference in brightness I and saturation S between the histogram distribution according to the present method and the histogram distribution according to the conventional method. This means that the function of this method to convert RGB data to ISH data is different from that of the conventional method.
This shows that there is no inferiority in terms of functionality. on the other hand,
The histogram distribution of the hue H' between the features before being applied to the 3X3 average value filter 311 shown in (d-1) and (d-2) of each figure shows an overall tendency between the conventional method and the present method. It has changed. In the image used in this example, this is the result of (g-b
) and (2r-g-b> take only extremely limited values around O, this is because the information is extremely discretized by compressing data to 6 bits using this method.
しかし、この色相H′を3×3平均値フイルタ311に
かけることにより得られるヒストグラム分布は、各図の
(e−1)、 (e−2)に示されるように、従来手
法による分布に十分対応するものになっている。色相デ
ータの計算値はRGBデータの小さな雑音によって容易
に変化する不安定な値であり、また、色相の画像には非
常に大きなノイズがある。このため、本手法のように、
色相変換の計算値結果について何等かの平滑化を行うこ
とは妥当な処理であり、この平滑化を行うことにより特
徴量を6ビツトに圧縮して処理しても同等問題は生じな
いことが理解される。なお、色相の計算値は雑音によっ
て容易に変化する不安定な値であるからこそ、色相H′
のデータを平均値フィルタに通すことにより、従来手法
によるヒストグラム分布と同様な分布が得られた。However, as shown in (e-1) and (e-2) of each figure, the histogram distribution obtained by applying this hue H' to the 3×3 average value filter 311 is not sufficient to the distribution obtained by the conventional method. It is compatible. The calculated value of the hue data is an unstable value that easily changes due to small noise in the RGB data, and the hue image has very large noise. For this reason, as in this method,
Understand that it is appropriate to perform some kind of smoothing on the calculated value results of hue conversion, and that the same problem will not occur even if the feature values are compressed to 6 bits and processed by performing this smoothing. be done. Note that the calculated value of hue is an unstable value that easily changes due to noise, so the hue H′
By passing the data through an average value filter, a distribution similar to the histogram distribution obtained by the conventional method was obtained.
このように、ROM305〜307をルックアップテー
ブルとして用いてI、S、Hの各特徴量を予め変換処理
することにより、従来のように処理が必要とされる度毎
に各画像メモリにCPUがアクセスして演算する必要は
無くなる。この結果、本実施例によるデータ変換の際の
演算処理速度はビデオレートで高速に実行することが可
能となり、処理速度が向上する。また、上述のR,G、
BデータからI、S、Hデータへの変換式が変わっても
、同一のハードウェアによって対処することが可能であ
る。つまり、この変換式の変更が与える影響は、ROM
305〜307の記憶内容の変化だけである。このため
、ハードウェアは変換式の変更によっては変化しない。In this way, by using the ROMs 305 to 307 as look-up tables and converting each of the I, S, and H feature quantities in advance, the CPU is not required to store each image memory each time processing is required, unlike in the past. There is no need to access and calculate. As a result, the arithmetic processing speed during data conversion according to this embodiment can be executed at high speed at the video rate, and the processing speed is improved. In addition, the above-mentioned R, G,
Even if the conversion formula from B data to I, S, H data changes, it can be handled by the same hardware. In other words, the effect of changing this conversion formula is
There is only a change in the memory contents of 305 to 307. Therefore, the hardware does not change even if the conversion formula is changed.
また、R,G、Bの各画素値を6ビツトに圧縮したため
、ハードウェアの量を小さくすることが可能になる。さ
らに、ルックアップテーブルから色相Hを読み出す際に
3×3平均値フイルタ311を通すことにより、データ
を6ビツトに圧縮したことによる悪影響、例えば、ヒス
トグラムの離散化等を防ぐことができる。Furthermore, since each pixel value of R, G, and B is compressed to 6 bits, the amount of hardware can be reduced. Furthermore, by passing the hue H through the 3×3 average value filter 311 when reading out the hue H from the lookup table, it is possible to prevent adverse effects caused by compressing the data to 6 bits, such as discretization of the histogram.
次に、「繰返しきい値処理における特徴量ヒストグラム
の形状に基づくしきい値設定手段」について説明する。Next, "threshold setting means based on the shape of the feature amount histogram in repeated threshold processing" will be explained.
この手段は走行路領域を抽出するカラー画像処理の前処
理として行われる。This means is performed as a pre-processing of color image processing for extracting the travel road area.
第8図はこの処理過程の概略を示すフローチャートであ
り、走行車両に設置されたカラーカメラから得られた原
画像データのコントラストが低い場合における処理を示
す。FIG. 8 is a flowchart showing an outline of this processing process, and shows the processing when the contrast of the original image data obtained from a color camera installed in a running vehicle is low.
まず、カメラから得られた原画像のRGBデジタル画像
データを基にして色の特徴量(明度または彩度)に対す
る頻度を表すヒストグラムを作成する。このヒストグラ
ムの横軸は色の特徴量(明度または彩度)、縦軸は特徴
量の頻度に設定する。First, a histogram representing the frequency with respect to color feature quantity (brightness or saturation) is created based on RGB digital image data of an original image obtained from a camera. The horizontal axis of this histogram is set to the color feature amount (lightness or saturation), and the vertical axis is set to the frequency of the feature amount.
このヒストグラムは原画像のコントラストが低いため、
ヒストグラムの原点側に偏って分布する。This histogram has low contrast in the original image, so
The distribution is biased towards the origin of the histogram.
また、コントラストの低い画像はモードが単峰形になり
易く、明確な谷が発生しない。このため、−膜内には各
画素値について所定の演算を行って画像強調を行った後
にヒストグラムを作成するのであるが、本手法の場合に
は、ヒストグラムのデータ上でこのヒストグラムを横軸
方向に単に引き伸ばすことにより、画像強調を行う(ス
テップ801)。Furthermore, images with low contrast tend to have a single peak mode, and no clear valleys occur. Therefore, a histogram is created after image enhancement is performed by performing predetermined calculations on each pixel value in the film, but in the case of this method, this histogram is displayed on the histogram data in the Image enhancement is performed by simply stretching the image (step 801).
そして、強調されたヒストグラムの左端処理(ステップ
802)、および右端処理(ステップ803)を実行す
る。次に、ヒストグラムの頻度の分布状態から特徴量に
対する頻度の大きい仮の頂上(ピーク)、および特徴量
に対する頻度の小さい仮の谷をピーク・谷テーブル上に
設定する(ステップ804)。求まった仮の谷の頻度に
基づいて谷の評価をこのテーブル上で行う(ステップ8
05)。さらに、この谷に隣接するピークに基づいて再
度谷の評価をテーブル上で行う(ステップ806)。最
後に、評価されたピーク・谷テーブルの平滑化を行い、
ピークと谷の相対関係から領域区分の対象領域とこの背
景領域との区分に有効な谷を抽出する(ステップ807
)。Then, left end processing (step 802) and right end processing (step 803) of the emphasized histogram are executed. Next, from the frequency distribution state of the histogram, a temporary top (peak) with a high frequency for the feature amount and a temporary trough with a low frequency for the feature amount are set on the peak/trough table (step 804). Evaluation of valleys is performed on this table based on the frequency of temporary valleys obtained (step 8).
05). Furthermore, the valley is evaluated again on the table based on the peaks adjacent to this valley (step 806). Finally, smooth the evaluated peak/valley table,
From the relative relationship between peaks and valleys, valleys that are effective for segmenting the target area of area segmentation and this background area are extracted (step 807
).
一方、上記の処理に並行してステップ801で作成され
たヒストグラムに対して大津の判別分析法を適用し、こ
の判別分析法による領域区分しきい値を得る。そして、
得られたしきい値とステッブ807で抽出された谷の位
置とを比較し、しきい値の近傍に位置する谷の頻度を真
のしきい値とし、大津の判別分析法によるしきい値を補
正する。On the other hand, in parallel with the above processing, Otsu's discriminant analysis method is applied to the histogram created in step 801, and area segmentation thresholds based on this discriminant analysis method are obtained. and,
The obtained threshold value is compared with the position of the valley extracted in step 807, the frequency of valleys located near the threshold value is taken as the true threshold value, and the threshold value based on Otsu's discriminant analysis method is determined. to correct.
次に、各処理の詳細について以下に説明する。Next, details of each process will be explained below.
ステップ804における仮のピークおよび仮の谷の設定
は次のように行われる。つまり、特徴量に対する頻度の
分布状態を基にして仮のピークおよび谷を判断する。具
体的には、ヒストグラム上の着目点の左右の隣接点の頻
度により、ピークおよび谷の状態は第9図(a)〜(f
)に図示される6通りの状態に分けられる。ここで、ヒ
ストグラム上の着目点をhl (添字のiはヒストグ
ラムの横軸に添ってN個の点を均等に割り振った時の任
意の1点を意味し、0〜N−1の値とする)、着目点h
1より特徴量が小さい隣接点をh j−1、着目点h1
より特徴量が大きい隣接点をh Illとする。また、
着目点h+と隣接点h j−1との各頻度の差をピッチ
pif (pil−hl −hi−1) 、隣接点h
141と着目点h1との各頻度の差をピッチp 12
(p I2− h i+1− h i )とする。Setting of a temporary peak and a temporary valley in step 804 is performed as follows. That is, tentative peaks and valleys are determined based on the distribution of frequencies for the feature amounts. Specifically, depending on the frequency of adjacent points on the left and right of the point of interest on the histogram, the states of peaks and valleys are determined as shown in Figures 9(a) to (f).
) is divided into six states shown in the figure. Here, the point of interest on the histogram is hl (the subscript i means any one point when N points are equally distributed along the horizontal axis of the histogram, and the value is from 0 to N-1). ), focus point h
The adjacent point with a feature value smaller than 1 is h j−1, the focus point h1
Let h Ill be an adjacent point with a larger feature amount. Also,
The difference in frequency between the point of interest h+ and the adjacent point hj-1 is expressed as the pitch pif (pil-hl-hi-1), and the adjacent point h
141 and the point of interest h1 as pitch p12
(p I2- h i +1- h i ).
i−1〜N−2の範囲(ヒストグラムの両端点は除く)
において、ピーク・谷テーブル値pk1+を以下のよう
に設定する。すなわち、pifの符号とpH2の符号が
異なる時、
(1) pj1≧0、゛かつ、pI2≦0ならば、テ
ーブル値pkti −1
(2) pH≦0、かつ、p12≧0ならば、テーブ
ル値pktl−−1
第9図(a)は、pH>0、かつ、p I2−0の状態
であり、従ってテーブル値pkt+−1である。同図(
b)は、p il> 0、かつ、p 12< Oの状態
であり、従ってテーブル値pkt! −1である。同図
(c)は、pit−0、かつ、p I2< Oの状態で
あり、従ってテーブル値pkti−1である。同図(d
)は、pll< 0、かつ、pH2−0の状態であり、
従ってテーブル値pkti=−1である。同図(e)は
、p il< 0、かつ、p12> 0の状態てあり、
従ってテーブル値pktj−−1である。同図(f)は
、pil−0、かつ、p12〉0の状態であり、従って
テーブル値pkt1−−1である。Range from i-1 to N-2 (excluding both end points of the histogram)
In this case, the peak/trough table value pk1+ is set as follows. That is, when the sign of pif and the sign of pH2 are different, (1) If pj1≧0,゛ and pI2≦0, the table value pkti −1 (2) If pH≦0 and p12≧0, the table value Value pktl--1 FIG. 9(a) shows a state where pH>0 and p I2-0, and therefore the table value pkt+-1. Same figure (
b) is a state where p il > 0 and p 12 < O, so the table value pkt! -1. In the same figure (c), the state is pit-0 and p I2 < O, and therefore the table value is pkti-1. The same figure (d
) is in a state where pll < 0 and pH 2-0,
Therefore, the table value pkti=-1. In the same figure (e), there is a state where p il < 0 and p12 > 0,
Therefore, the table value is pktj--1. FIG. 5(f) shows a state where pil-0 and p12>0, and therefore the table value is pkt1--1.
このようにして隣接する各点の相対的な各頻度の関係か
ら、同図(a)、(b)、(c)の状態はpkti=1
であると演算され、着目点hiは仮のピークと判断され
る。同図(d)、(e)。In this way, from the relationship of relative frequencies of adjacent points, the states of (a), (b), and (c) in the same figure are pkti=1
, and the point of interest hi is determined to be a temporary peak. Figures (d) and (e).
(f)の状態はpkti−−1であると演算され、着目
点hiは仮の谷と判断される。The state of (f) is calculated to be pkti--1, and the point of interest hi is determined to be a temporary valley.
また、ステップ805における頻度による谷の評価処理
は次のように行われる。つまり、i−1〜N −2にお
いて着目点h1が仮のピークであるとき(pkti=1
)、
(1)隣接点hjと着目点h1との比が0.1より小さ
い(hj /hi <0.1)隣接点hjが着目点hi
の左側にあるならば、隣接点hjに対応するテーブル値
pk tjを−1にする(pktj=−1)。Furthermore, the process of evaluating valleys based on frequency in step 805 is performed as follows. In other words, when the point of interest h1 is a temporary peak in i-1 to N-2 (pkti=1
), (1) The ratio between the adjacent point hj and the point of interest h1 is smaller than 0.1 (hj /hi <0.1) The adjacent point hj is the point of interest hi
, the table value pktj corresponding to the adjacent point hj is set to -1 (pktj=-1).
(2)隣接点hI11と着目点hiとの比が0.1より
小さい(hm /h+ <0.1)隣接点hmが着目点
h1の右側にあるならば、隣接点hlOに対応するテー
ブル値pktIIlを−1にする(pkt Ill −
−1) 。(2) If the ratio between the adjacent point hI11 and the point of interest hi is smaller than 0.1 (hm /h+ <0.1) and the adjacent point hm is on the right side of the point of interest h1, then the table value corresponding to the adjacent point hlO Set pktIIl to -1 (pktIll -
-1).
また、ステップ806における隣接ピークに基づく谷の
評価処理は次のように行われる。Furthermore, the valley evaluation process based on adjacent peaks in step 806 is performed as follows.
i−0〜N−1において、
(1)着目点hiが仮の谷の時(pktl −−1)、
■谷の左側の仮のピーク(隣接点hk、テーブル値pk
tk−1)をtopLと呼ぶことにする。In i-0 to N-1, (1) When the point of interest hi is a temporary valley (pktl −-1), ■ A temporary peak on the left side of the valley (adjacent point hk, table value pk
tk-1) will be called topL.
■谷の右側の仮のピーク(隣接点hj、テーブル値pk
tj−1)をtopRと呼ぶことにする。■Temporary peak on the right side of the valley (adjacent point hj, table value pk
tj-1) will be called topR.
(2)着目点h+にt opLおよびtopRが共に存
在する時、
■着目点h+ とtopLとの比g (ρ−hl/1o
pL)が着目点hiとtopRとの比r(r−hj/1
opR)より小さければ(Ω<r)、テーブル値pk
tjに1を加算する。(2) When both topL and topR exist at the point of interest h+, ■Ratio g between the point of interest h+ and topL (ρ-hl/1o
pL) is the ratio r(r-hj/1
opR) is smaller than (Ω<r), the table value pk
Add 1 to tj.
■比ρ (hj/1opL)が比r(hi/1opR)
より大きければ(g≧r)、テーブル値pk tkに1
を加算する。■The ratio ρ (hj/1opL) is the ratio r (hi/1opR)
If larger (g≧r), set 1 to table value pk tk
Add.
(3) 着目点hiにtopLおよびtopRが共に
存在し、かつ、比Ωく屹 5、または比rく0,5なら
ば、着目点h1に対応するテーブル値pk tiから1
を減じる。(3) If topL and topR both exist at the point of interest hi, and the ratio Ω is 5, or the ratio r is 0,5, then the table value pk ti corresponding to the point of interest h1 is 1
decrease.
(4) 上記の(3)以外の場合には、テーブル値p
k tiを−4に書き替える。(4) In cases other than (3) above, the table value p
Rewrite k ti to -4.
(5) 谷の右側にのみ仮のピークtopRが存在す
る時、比r<0.5ならば、テーブル値pk tiから
1を減じる。(5) When the temporary peak topR exists only on the right side of the valley, if the ratio r<0.5, subtract 1 from the table value pk ti.
(6) 谷の左側にのみ仮のピークt opLが存在
する時、比Ωく0.5ならば、隣接点hjに対応するテ
ーブル値pk tjから1を減じる。(6) When the temporary peak topL exists only on the left side of the valley, if the ratio Ω is 0.5, subtract 1 from the table value pktj corresponding to the adjacent point hj.
また、ステップ807におけるピーク・谷テーブルの平
滑化処理、つまり、ピーク・谷テーブルpktにおいて
、求まった谷どうしの距離が十分に近い場合には平滑化
処理が次のように行われる。Furthermore, in the peak/trough table smoothing process in step 807, that is, in the peak/trough table pkt, if the distances between the determined valleys are sufficiently close, the smoothing process is performed as follows.
iwl〜N−1において、着目点hiに対応するテーブ
ル値pktlが−2であり、この谷の右側に位置する谷
のテーブル値pk tjも−2であり、しかも、これら
谷どうしの距離(j−i)が所定のしきい値よりも小さ
い時、
(+) 着目点hiの頻度の方か隣接点hjの頻度よ
りも大きければ(hi >hj ) 、テーブル値pk
tiを0にする(pkti−0)。In iwl~N-1, the table value pktl corresponding to the point of interest hi is -2, the table value pk tj of the valley located on the right side of this valley is also -2, and the distance between these valleys (j -i) is smaller than a predetermined threshold, (+) If the frequency of the point of interest hi is greater than the frequency of the adjacent point hj (hi > hj), the table value pk
Set ti to 0 (pkti-0).
(2) 着目点hiの頻度の方が隣接点hjの頻度よ
りも小さければ(hi ≦hj)、右側に位置する谷の
テーブル値pk tjをOにする(pktj=0)。(2) If the frequency of the point of interest hi is smaller than the frequency of the adjacent point hj (hi ≦hj), the table value pk tj of the valley located on the right side is set to O (pktj = 0).
次に、上記方法を用いた具体的な例について以下に説明
する。Next, a specific example using the above method will be described below.
例えば、第10図(a)に示される特徴量ヒストグラム
が得られた場合を想定する。同図の横軸は明度または彩
度の色の特徴量であり、縦軸はその特徴量の画像におけ
る頻度である。このヒストグラムについて第8図に示さ
れた処理を行うと、同図(b)に示されるピーク・谷テ
ーブルpktのテーブル値は、同図(b)の一番人側の
列に記された1〜8の番号に沿って以下のように推移す
る。この推移の結果、再下段に示された数値が最終のテ
ーブル値として求まる。なお、同図(b)の各テーブル
値が記載されている位置は、同図(a)のヒストグラム
の各特徴1A−Lに対応している。つまり、記載された
各テーブル値は、点線で示されるように、その記載され
た位置の上方の特徴量に対応している。For example, assume that the feature histogram shown in FIG. 10(a) is obtained. In the figure, the horizontal axis is the color feature amount of brightness or saturation, and the vertical axis is the frequency of the feature amount in the image. When the processing shown in FIG. 8 is performed on this histogram, the table value of the peak/trough table pkt shown in FIG. The transition is as follows along the numbers 8 to 8. As a result of this transition, the numerical values shown in the lower row are determined as the final table values. It should be noted that the positions where each table value in FIG. 4B corresponds to each feature 1A-L of the histogram in FIG. That is, each described table value corresponds to the feature amount above the described position, as shown by the dotted line.
まず、特徴量ヒストグラムの左端処理および右端処理を
実行しくステップ802,803) 、引き続いて仮ピ
ークおよび仮の谷を設定する(ステップ804)。この
設定は前述のステップ804の処理に従って行われ、こ
の結果得られる各テーブル値は番号1のテーブルに示さ
れるものとなる。First, left end processing and right end processing of the feature quantity histogram are executed (steps 802, 803), and then temporary peaks and temporary valleys are set (step 804). This setting is performed according to the process of step 804 described above, and each table value obtained as a result is shown in the table numbered 1.
次に、頻度による谷の評価(ステップ805)および隣
接ピークに基づく谷の評価(ステップ806)を、前述
の処理に従って行う。Next, evaluation of valleys based on frequency (step 805) and evaluation of valleys based on adjacent peaks (step 806) are performed according to the process described above.
特徴量がAの谷の場合には谷の右側にtopRのみが存
在し、また、特徴ff1Aにおける頻度と谷の右側の仮
のピークの頻度との比rは0.5以下である(hi /
l opR<0.5)。このため、特徴11Aに対応す
るテーブル値から1を減じ、この結果、テーブル値は−
2になってテーブルは番号2に示されるテーブルに推移
する。When the feature amount is a valley of A, only topR exists on the right side of the valley, and the ratio r between the frequency of the feature ff1A and the frequency of the temporary peak on the right side of the valley is 0.5 or less (hi /
lopR<0.5). Therefore, 1 is subtracted from the table value corresponding to feature 11A, resulting in a table value of -
2, the table changes to the table indicated by number 2.
また、特徴量かDの谷の場合には、この谷の両側にt
opLおよびtopRが共に存在する。しかも、この谷
の頻度と左側の仮のピークの頻度との比pは0.5以下
である(hi/1opL<0.5)。従って、特徴量り
に対応するテーブル値pk tiから1を減じ、この結
果、テーブル値は−2になる。また、特徴量がDの谷の
両側の仮の各ピーク値の頻度と谷の頻度との6比Ωおよ
び比rは、比rの方が大きい(Nor)。従って、谷の
右側に位置する仮のピーク(特徴ff1E)のテーブル
値pk tjに1を加算することにより、テーブル値は
2になる。この結果、ピーク・谷テーブルは番号3に示
されるテーブルになる。In addition, in the case of a valley of the feature value D, t on both sides of this valley
opL and topR are both present. Furthermore, the ratio p between the frequency of this valley and the frequency of the tentative peak on the left side is less than 0.5 (hi/1opL<0.5). Therefore, 1 is subtracted from the table value pk ti corresponding to the feature quantity, resulting in a table value of -2. Furthermore, the ratio Ω and the ratio r between the frequency of each tentative peak value on both sides of the valley with the feature amount D and the frequency of the valley are larger (Nor). Therefore, by adding 1 to the table value pk tj of the temporary peak (feature ff1E) located on the right side of the valley, the table value becomes 2. As a result, the peak/trough table becomes the table shown by number 3.
また、特徴量がFの谷の両側には共にtopLおよびt
opRが存在し、比Ωまたは比rの一方は0.5より小
さい(Ω、r<0.5)。従って、特徴ff1Fに対応
するテーブル値pk tlから1を減じ、テーブル値を
−2にする。また、比gは比「より大きい(Ω≧「)。In addition, both topL and t are on both sides of the valley where the feature value is F.
opR exists and either the ratio Ω or the ratio r is less than 0.5 (Ω, r<0.5). Therefore, 1 is subtracted from the table value pk tl corresponding to the feature ff1F, making the table value -2. Further, the ratio g is greater than the ratio (Ω≧“).
従って、谷の左側に位置する仮のピーク(特徴ff1E
)のテーブル値pktkに1を加算し、テーブル値を3
にする。Therefore, the temporary peak located on the left side of the valley (feature ff1E
), add 1 to the table value pktk, and set the table value to 3.
Make it.
この結果、テーブルは番号4に示されるテーブルに推移
する。As a result, the table transitions to the table indicated by number 4.
また、特徴量がHの谷の両側には共にtopLおよびt
opRが存在し、比Ωまたは比rの一方が0.5より大
きい(N、r≧0.5)。従って、特徴量Hに対応する
テーブル値pktiを−4に書き替える。また、比ρは
比rよりも小さい(g<f)。従って、谷の右側の仮の
ピーク(特徴量I)に対応するテーブル値pk tjに
1を加える。In addition, both topL and t are on both sides of the valley where the feature value is H.
opR exists, and either the ratio Ω or the ratio r is greater than 0.5 (N, r≧0.5). Therefore, the table value pkti corresponding to the feature amount H is rewritten to -4. Further, the ratio ρ is smaller than the ratio r (g<f). Therefore, 1 is added to the table value pk tj corresponding to the temporary peak (feature quantity I) on the right side of the valley.
この結果、特徴mlに対応するテーブル値は2になり、
テーブルは番号5に示されるテーブルに推移する。As a result, the table value corresponding to the feature ml is 2,
The table transitions to the table indicated by number 5.
また、特徴ff1Jの谷の両側には共にt opLおよ
びtopRが存在し、比「は0.5より小さい(r<0
.5)。従って、この谷に対応するテーブル値pk t
lから1を減じる。また、比gは比rより大きい(Ω≧
r)。従って、谷の左側に位置する仮のピーク(特徴量
りに対応するテーブル値pktkに1を加算し、テーブ
ル値を3にする。この結果、テーブルは番号6に示され
る一テーブルに推移する。Furthermore, topL and topR exist on both sides of the valley of feature ff1J, and the ratio ``is smaller than 0.5 (r<0
.. 5). Therefore, the table value pk t corresponding to this valley
Subtract 1 from l. Also, the ratio g is larger than the ratio r (Ω≧
r). Therefore, 1 is added to the table value pktk corresponding to the temporary peak (feature metric) located on the left side of the valley, making the table value 3. As a result, the table changes to one table indicated by number 6.
また、特徴mLの谷は谷の左側にtopLのみが存在し
、lt Nは0.5より小さい(1) <0.5)。従
って、この谷に対応するテーブル値pk tjから1を
減じる。この結果、テーブル値は−2になり、テーブル
は番号7に示されるテーブルに推移する。Further, in the valley of the feature mL, only topL exists on the left side of the valley, and lt N is smaller than 0.5 (1) <0.5. Therefore, 1 is subtracted from the table value pk tj corresponding to this valley. As a result, the table value becomes -2 and the table transitions to the table indicated by number 7.
次に、このようにして得られた番号7のピーク・谷テー
ブルpktについてデータの平滑化を前述のように行う
(ステップ807)。つまり、特徴iDの谷h+ とこ
の右側に位置する特徴iFの谷hjとの距離は所定のし
きい値より小さく、かつ、6谷のテーブル値は−2であ
る。さらに、特徴量Fの谷の頻度は特徴量りの谷の頻度
より大きい(hf≦hj)。従って、特徴量Fの谷に対
応するテーブル値pktjを0にする。この結果、テー
ブルは最終的に第10図(b)の最下段に示されるテー
ブルになる。Next, data is smoothed as described above for the peak/trough table pkt number 7 obtained in this way (step 807). In other words, the distance between the valley h+ of the feature iD and the valley hj of the feature iF located on the right side thereof is smaller than a predetermined threshold, and the table value of the 6 valleys is -2. Furthermore, the frequency of valleys in the feature amount F is greater than the frequency of valleys in the feature amount (hf≦hj). Therefore, the table value pktj corresponding to the valley of the feature amount F is set to 0. As a result, the table finally becomes the table shown at the bottom of FIG. 10(b).
この最終的なテーブルのうち、特徴ff1A、D。Of this final table, features ff1A,D.
H,J、Lに対応するヒストグラム上の各点が谷として
求まるが、ヒストグラムの両端にある谷ALは対象には
ならず、また、テーブル値が−4の谷(特徴M H)も
対象にはならない。すなわち、データ画像を対象領域と
背景領域とに区分するのに有効な谷は、テーブル値−2
が二重丸で囲まれた特徴ff1DおよびJに対応する谷
である。これら谷のうち、第10図(a)のヒストグラ
ムに大津の判別分析法を適用して得られた領域区分しき
い値に近い谷の頻度が真の領域区分しきい値になる。Each point on the histogram corresponding to H, J, and L is found as a valley, but the valleys AL at both ends of the histogram are not considered, and the valley with a table value of -4 (feature M H) is also considered. Must not be. In other words, the effective valley for dividing the data image into the target area and the background area is the table value - 2.
are the valleys corresponding to the double-circled features ff1D and J. Among these valleys, the frequency of valleys close to the area segmentation threshold obtained by applying Otsu's discriminant analysis method to the histogram in FIG. 10(a) becomes the true area segmentation threshold.
このように大津の判別分析法のあいまいな結果が補正さ
れることにより、誤差が少なく確度の高い走行路判別を
行うことが可能になる。By correcting the ambiguous results of Otsu's discriminant analysis method in this way, it becomes possible to perform highly accurate travel route discrimination with few errors.
次に、[テンプレート画像を用いた繰返しきい値処理に
よる走行コースの抽出手法」について説明する。なお、
以下の説明では、自律走行車が草や土等で区切られたコ
ースを走行することを前提にし、走行路領域を抽出する
場合について述べることにする。Next, a description will be given of a method for extracting a driving course by iterative threshold processing using a template image. In addition,
In the following explanation, it is assumed that the autonomous vehicle travels on a course divided by grass, dirt, etc., and a case will be described in which a traveling road area is extracted.
第11図は走行路認識のアルゴリズムの概要を表すフロ
ーチャートである。FIG. 11 is a flowchart showing an overview of the algorithm for recognizing the driving route.
まず、走行車に搭載されたカラーCCDカメラにより、
走行路の情景を撮像する(ステップ1101)。そして
、撮像されたRGBのカラー画像信号をカラーカメラ入
力装置に取り込み、取り込んだRGB原画像データを前
述のようにISHデータに変換する(ステップ1102
)。ISHデータに変換された特徴量画像に基づき、前
述のように各特徴量とその画素数との特性を表すヒスト
グラムをカラー画像処理装置で作成する(ステップ11
03)。First, using a color CCD camera installed in the vehicle,
The scene of the driving route is imaged (step 1101). Then, the captured RGB color image signals are imported into the color camera input device, and the imported RGB original image data is converted into ISH data as described above (step 1102
). Based on the feature image converted to ISH data, a color image processing device creates a histogram representing the characteristics of each feature and its number of pixels as described above (step 11).
03).
次に、作成したヒストグラムに基づき、しきい値処理を
繰り返し適用して走行路を2値化画像として抽出する。Next, based on the created histogram, threshold processing is repeatedly applied to extract the driving route as a binarized image.
このように抽出された画像はノイズや細かく分断された
領域を有するので、次の処理を実行する。つまり、後に
詳述するラベリング装置によって各領域にラベルを付け
る(ステップ1104)。そして、ラベル付けされた各
領域の面積と重心とを計測し、カメラの取り付は位置か
ら計算される地平線位置より重心が上の領域、および面
積が小さい領域を除去する(ステップ1105)。Since the image extracted in this way has noise and finely divided areas, the following processing is performed. That is, each area is labeled by a labeling device which will be described in detail later (step 1104). Then, the area and center of gravity of each labeled area are measured, and areas where the center of gravity is above the horizon position calculated from the camera attachment position and areas with small areas are removed (step 1105).
次に、カラー画像処理装置において最初に抽出された走
行路画像に基づいて、走行路領域より明るさが暗い領域
および明るい領域を求め、これらの領域を併合し、また
、各領域どうしの関係を記述する(ステップ1106)
。この領域併合および領域関係の記述を基にして走行可
能範囲、つまり、道路端を検出し、画像取り込み時刻を
この走行可能範囲情報に付与する。そして、走行可能範
囲情報を画像処理装置を構成するデータ管理部へ伝送す
る(ステップ1107)。この後、ステップ1102に
戻って以上の処理を繰り返す。Next, based on the driving path image that was first extracted by the color image processing device, areas that are darker and brighter than the driving path area are found, these areas are merged, and the relationship between each area is determined. Describe (step 1106)
. The drivable range, that is, the road edge, is detected based on this area merging and the description of the area relationship, and the image capture time is added to this drivable range information. Then, the drivable range information is transmitted to the data management unit that constitutes the image processing device (step 1107). After this, the process returns to step 1102 and repeats the above process.
第12図は走行路領域を抽出する処理の詳細を表すブロ
ック図である。FIG. 12 is a block diagram showing the details of the process of extracting the travel road area.
まず、撮像された原画像のRGBデータから明度データ
Iおよび彩度データSを求め、各データを特徴量画像と
して画像メモリに記憶する(ブロック1201)。次に
、画像メモリに記憶された明度データエを基にして明度
を特徴量とするヒストグラムを作成する(ブロック12
02)。このヒストグラムの横軸となる特徴量の分割数
は40ポイントであり、このポイント数は大局的に走行
路の抽出を行うのには十分な大きさである。次に、作成
したヒストグラムを正規化する(ブロック1203)。First, brightness data I and saturation data S are obtained from the RGB data of the captured original image, and each data is stored in the image memory as a feature image (block 1201). Next, a histogram with brightness as a feature quantity is created based on the brightness data stored in the image memory (block 12).
02). The number of divisions of the feature amount, which is the horizontal axis of this histogram, is 40 points, and this number of points is large enough to extract the driving route from a global perspective. Next, the created histogram is normalized (block 1203).
そして、正規化されたヒストグラムについて周知の大津
の判別分析法を適用し、走行路領域と背景領域とを区分
するためのしきい値を計算する(ブロック1204)。Then, the well-known Otsu's discriminant analysis method is applied to the normalized histogram to calculate a threshold value for distinguishing the driving road region from the background region (block 1204).
一方、作成したヒストグラムの形状に基づいて特徴量の
画素数が多いピーク、および特徴量の画素数が少ない谷
を前述のように求め、ピークと谷の一覧表であるピーク
・谷テーブルを作成する(ブロック1205)。各ピー
クおよび谷における各特徴量の値をしきい値処理のため
の候補値とする。On the other hand, based on the shape of the created histogram, peaks with a large number of feature pixels and valleys with a small number of feature pixels are determined as described above, and a peak/trough table, which is a list of peaks and valleys, is created. (Block 1205). The value of each feature amount at each peak and valley is used as a candidate value for threshold processing.
ブロック1204で求めた大津の判別分析法によるしき
い値には誤差が含まれる場合があるため、ブロック12
05で求めたしきい値処理のための候補値により、大津
の判別分析法によるしきい値を補正する。つまり、ブロ
ック1204で求めたしきい値とブロック1205で求
めた候補値とを比較し、ブロック1204のしきい値に
最も近いブロック1205の候補値を走行路領域と背景
領域とを区分するためのしきい値とする(ブロック12
06)。次に、このしきい値により明度画像を2値化す
る(ブロック1207)。Since the threshold value determined by Otsu's discriminant analysis method in block 1204 may contain an error, block 1204
The threshold value based on Otsu's discriminant analysis method is corrected using the candidate value for threshold processing obtained in step 05. In other words, the threshold value obtained in block 1204 and the candidate value obtained in block 1205 are compared, and the candidate value in block 1205 that is closest to the threshold value in block 1204 is used for separating the driving road region and the background region. Set as threshold (block 12
06). Next, the brightness image is binarized using this threshold value (block 1207).
明度画像は512X512個の画素によって構成されて
おり、I(i、j)として表現される。The brightness image is composed of 512×512 pixels and is expressed as I(i,j).
ここで、i+ Jは条件式O≦i+ J≦511を
満足する整数である。また、ブロック1206で求まっ
たしきい値をXI、領域分割の対象となる特徴量範囲の
最少の特徴量の値をしきい値XO1最大の特徴量の値を
しきい値X2とする。なお、しきい値XOおよびX2の
各初期値は0およびFF(h e x)である。ここで
、明度画像1 (i、j)が次の条件式を満足する場合
には、メモリM1ct、j)にF F (h e x)
を書き込む(ブロック1208)。Here, i+J is an integer that satisfies the conditional expression O≦i+J≦511. In addition, the threshold value found in block 1206 is set as XI, the minimum feature value in the feature range to be divided into regions is a threshold value XO1, and the maximum feature value is a threshold value X2. Note that the initial values of the thresholds XO and X2 are 0 and FF (h e x). Here, if the brightness image 1 (i, j) satisfies the following conditional expression, F F (h e x) is stored in the memory M1ct, j).
(block 1208).
XO≦I (i、j)<XI
また、明度画像1 (i、j)が次の条件式を満足す
る場合には、メモリM2(i、j)にFF(hex)を
書き込む(ブロック1209)。XO≦I (i, j)<XI Also, if brightness image 1 (i, j) satisfies the following conditional expression, write FF (hex) to memory M2 (i, j) (block 1209) .
X1≦l (i、j)<X2
次に、ROMに記憶されたテンプレート画像を読み出す
(ブロック1210)。このテンプレート画像内には最
も安定した走行路情報が得られるようにテンプレート領
域が設定されている。この領域設定は自律走行車に取り
付けられたカラーカメラの俯角1画角、焦点距離を基に
して行われ、テンプレート領域に対応するメモリにはF
F(h e x)が記憶されている。次に、読み出した
テンプレート画像とメモリM1およびメモリM2との重
複度を計算する(ブロック1211)。つまり、テンプ
レート画像とメモリM1およびメモリM2との各論理積
を取り、論理積結果が「1」の画素数を各メモリM1お
よびメモリM2毎に累計する。X1≦l (i, j)<X2 Next, the template image stored in the ROM is read (block 1210). A template area is set within this template image so that the most stable driving route information can be obtained. This area setting is performed based on the angle of depression, 1 angle of view, and focal length of the color camera attached to the autonomous vehicle, and the memory corresponding to the template area is
F(h e x) is stored. Next, the degree of overlap between the read template image and the memories M1 and M2 is calculated (block 1211). That is, the logical product of the template image and the memory M1 and the memory M2 is calculated, and the number of pixels whose logical product is "1" is accumulated for each memory M1 and memory M2.
次に、各メモリ毎に累計された画素数が、テンプレート
領域内にある画素数に占める比率を求める。この比率が
50%以上になるメモリ情報には走行路領域が含まれて
いるものとし、さらに、比率が50%以上のメモリM1
またはM2に記憶された画像ついて、以下のように繰り
返して領域分割を行う。また、この比率に基づくメモリ
の選択により、しきい値X1によって画像が領域分割さ
れたことになり、また、ヒストグラム上においても分割
が行われたことになる。Next, the ratio of the total number of pixels for each memory to the number of pixels in the template area is determined. It is assumed that the memory information for which this ratio is 50% or more includes the running road area, and further, the memory M1 for which the ratio is 50% or more
Alternatively, the image stored in M2 is repeatedly divided into regions as follows. Further, by selecting a memory based on this ratio, the image is divided into regions by the threshold value X1, and division is also performed on the histogram.
つまり、特徴量がXO〜X1の範囲内にあるメモリM1
に記憶された領域と、特徴量がX1〜X2の範囲内にあ
るメモリM2に記憶された領域とに分割されたことにな
る。また、各メモリM1およびM2とテンプレート画像
との重複度がいずれも50%を越えない時には、メモリ
M1とメモリM2との和が記憶されたメモリM3が選択
され(ブロック1212)、メモリM3に基づいた領域
分割が次に行われる。In other words, the memory M1 whose feature value is within the range of XO to X1
This means that the area stored in the memory M2 is divided into the area stored in the memory M2 and the area stored in the memory M2 whose feature amount is within the range of X1 to X2. Further, when the degree of overlap between each memory M1 and M2 and the template image does not exceed 50%, memory M3 in which the sum of memory M1 and memory M2 is stored is selected (block 1212), and based on memory M3, Area segmentation is then performed.
例えば、メモリM1とテンプレート画像との重複度が高
かった場合には、しきい値XOからX1内の特徴量によ
って構成された領域を道路候補領域にする(ブロック1
21 B)。そして、この道路候補領域をさらに繰り返
して領域分割する。この縁り返し領域分割のためのしき
い値X1′は、ブロック1205で求めた谷の候補値の
うち、しきい値XO〜X1の範囲内にあるものとなる(
ブロック1214)。また、もし、この範囲内に谷の候
補値が無い場合には、繰り返し分割処理は行われない。For example, if the degree of overlap between the memory M1 and the template image is high, the area configured by the feature values within X1 from the threshold value XO is set as the road candidate area (block 1
21 B). Then, this road candidate region is further repeatedly divided into regions. The threshold value X1' for this edge-returning region division is the value within the range of the threshold values XO to X1 among the valley candidate values found in block 1205 (
block 1214). Furthermore, if there is no valley candidate value within this range, the repeated division process is not performed.
繰り返し領域分割の対象となる特徴量範囲の最小値XO
′は前回の領域分割と変わらないしきい値XOになり、
最大値X2’はしきい値X1になる。この範囲内の特徴
量により構成される領域についてブロック1207で再
度2値化を行い、その後前回の領域分割と同様な処理を
実行することにより、繰り返し領域分割が行われる。こ
の繰り返しは、分割する道路候補領域の特徴量の範囲内
にブロック1205で求めた谷の候補値がなくなるまで
行う。このようにして処理を繰り返して実行することに
より、最終的に最初の道路画像領域が得られる。Minimum value XO of the feature range subject to repeated region segmentation
' is the same threshold value XO as the previous area division,
The maximum value X2' becomes the threshold value X1. Regions constituted by feature amounts within this range are binarized again in block 1207, and then the same processing as the previous region division is performed to perform repeated region division. This repetition is performed until there are no valley candidate values found in block 1205 within the feature amount of the road candidate region to be divided. By repeating the process in this way, the first road image area is finally obtained.
得られた道路画像領域の明度より暗い影の領域、および
明るい高輝度の領域がある場合には、これらの各領域を
求めるためのしきい値を後述のように設定する(ブロッ
ク1215)。そして、このしきい値に基づき、各領域
について前述と同様にして領域分割し、影の領域および
高輝度の領域を求める。また、同時に行われる彩度画像
に基づく処理結果により、求めた影の領域の彩度と道路
画像領域の彩度とが似ている場合には、各々の論理積を
とり、1つの領域として最終的な低輝度領域とする。ま
た、同様に、求めた高輝度領域の彩度と道路画像領域の
彩度とが似ている場合には、各々の論理積をとり、1つ
の領域として最終的な高輝度領域とする。さらに、道路
画像領域と低輝度領域との接続関係を調べ、併合できる
関係にある場合には併合処理を行う。また、同様に、道
路画像領域と高輝度領域との接続関係を調べる。If there is a shadow area that is darker than the brightness of the obtained road image area and a bright high-intensity area, thresholds for determining these areas are set as described below (block 1215). Then, based on this threshold, each region is divided into regions in the same manner as described above to obtain shadow regions and high brightness regions. In addition, if the saturation of the shadow area and the saturation of the road image area are similar based on the processing results based on the saturation images that are performed at the same time, then the logical product of each is taken and the final image is combined into one area. Low brightness area. Similarly, if the calculated saturation of the high brightness area and the saturation of the road image area are similar, the logical product of each is taken and the final high brightness area is determined as one area. Furthermore, the connection relationship between the road image area and the low-luminance area is checked, and if there is a relationship that allows them to be merged, merging processing is performed. Similarly, the connection relationship between the road image area and the high brightness area is investigated.
このように併合できる関係にある場合には併合処理を行
う。この結果、走行路に影がある場合または自己の位置
が影内で走行路の遠方に直射日光が照射されて高輝度部
分がある場合には、この併合処理を行うことによって現
実の走行路に即した形状の走行路領域が得られることに
なる。If there is a relationship that allows merging in this way, merging processing is performed. As a result, if there is a shadow on the driving path, or if your position is in the shadow and there is a high brightness part due to direct sunlight irradiating the driving path far away, by performing this merging process, it will be possible to match the actual driving path. This results in a travel path area having a suitable shape.
以上の処理は明度画像に対するものであったが、彩度画
像に対しても同様な処理を行う。但し、ブロック121
5の処理は明度画像に対する′特有なものであるため、
この処理は実行しない。この彩度画像による処理結果に
おいて、各領域のR,GBが似た値になる同系色の場合
には、各領域のヒストグラム分布は同様な形状になる。Although the above processing was performed on brightness images, similar processing is performed on chroma images as well. However, block 121
Since the processing in step 5 is unique to brightness images,
This process is not executed. In the processing result using this chroma image, if each region has similar colors in which R and GB have similar values, the histogram distribution of each region has a similar shape.
これは、前述のRGBデータから彩度Sデータへの変換
式%式%)
従って、R,G、Bの6値が似た値になる曇天時の空や
一般舗装路では、彩度に基づいて各領域を区別すること
は困難である。しかし、色差があって各領域のR,G、
B値が似ていない場合には、各領域の明度に差がなくて
も各領域を区別することが可能である。このため、道路
画像領域をいかなる情景の下でも正確に抽出するために
、明度および彩度の2つの特徴量を用いる。そして、明
度画像および彩度画像から抽出した2種類の道路画像の
論理積を取ることにより、確度の高い走行路領域情報を
得ることが出来る。This is the above-mentioned conversion formula from RGB data to saturation S data (% formula %) Therefore, when the six values of R, G, and B are similar, in cloudy skies or on ordinary paved roads, the saturation is It is difficult to distinguish between each region. However, there are color differences, and R, G,
If the B values are not similar, it is possible to distinguish each region even if there is no difference in brightness between the regions. Therefore, in order to accurately extract the road image area under any scene, two feature quantities, brightness and saturation, are used. Then, by taking the logical product of the two types of road images extracted from the brightness image and the chroma image, highly accurate driving road area information can be obtained.
第13図は、道路画像領域の抽出処理における道路候補
領域の抽出過程を示す。FIG. 13 shows the process of extracting a road candidate region in the road image region extraction process.
まず、明度の特徴量画像1301から特徴量ヒストグラ
ム1302を作成する。このヒストグラム1302の横
軸は明度を示し、この明度は0〜F F (h e x
)の数値によって表現されている。First, a feature histogram 1302 is created from a lightness feature image 1301. The horizontal axis of this histogram 1302 indicates brightness, and this brightness ranges from 0 to FF (h e x
) is expressed as a numerical value.
また、縦軸は各明度における原画像中の画素数を示す。Further, the vertical axis indicates the number of pixels in the original image at each brightness.
大津の判別分析法をこのヒストグラム1302に適用し
、道路領域と背景領域とを区別するためのしきい値Cを
求める。また、ヒストグラム1302の形状に基づき、
ヒストグラムのピークおよび谷を求め、ピーク・谷テー
ブルを作成する。そして、求めた谷を繰返しきい値処理
のためのしきい値の候補値とする。このヒストグラム1
302では特徴量a、b、d、e、fが候補値になって
いる。Otsu's discriminant analysis method is applied to this histogram 1302 to find a threshold value C for distinguishing between the road region and the background region. Also, based on the shape of the histogram 1302,
Find the peaks and valleys of the histogram and create a peak/trough table. Then, the obtained valley is used as a threshold candidate value for the iterative threshold processing. This histogram 1
In 302, feature quantities a, b, d, e, and f are candidate values.
大津の判別分析法によって求めたしきい値Cを、ピーク
・谷テーブルから求めた候補値によって補正する。つま
り、しきい値Cに最も近い候補値すを補正したしきい値
とする。そして、このしきい値すによって特徴量画像1
301を2値化する。The threshold value C obtained by Otsu's discriminant analysis method is corrected by the candidate value obtained from the peak/trough table. In other words, the candidate value closest to the threshold value C is set as the corrected threshold value. Then, by using this threshold value, the feature image 1
301 is binarized.
この結果、特徴量か00(hex)〜bの分割画像13
03と、特徴量がb−FF(hex)の分割画像130
4とが得られる。この時点では分割された各画像130
3.1304のうち、どちらの画像に走行路領域が含ま
れているのかが分からない。As a result, the divided image 13 of feature amount 00 (hex) ~ b
03 and divided image 130 with feature amount b-FF (hex)
4 is obtained. At this point, each divided image 130
3. It is not known which image of 1304 includes the driving road area.
このため、道路位置を想定したテンプレート画像130
5と各画像1303.1304との論理積を取り、各画
像との重複度を計算する。テンプレート画像1305の
下部には台形のテンプレート領域が図示のように設定さ
れている。このテンプレート領域に対応するメモリ素子
には前述したようにFF (hex)が記憶されており
、また、テンプレート領域の背景領域に対応するメモリ
素子には00(hex)が記憶されている。本例の場合
には、画像1304にテンプレート画像1305との重
なり部分が最も多く存在する。このため、重複度の計算
結果により、特徴量がb〜F F (h e x)の画
像1304に走行路領域が含まれているものと判断され
、画像1304に対応した道路候補領域画像1306が
得られる。For this reason, the template image 130 assuming the road position
5 and each image 1303 and 1304 to calculate the degree of overlap with each image. A trapezoidal template area is set at the bottom of the template image 1305 as shown. As described above, FF (hex) is stored in the memory element corresponding to this template area, and 00 (hex) is stored in the memory element corresponding to the background area of the template area. In the case of this example, the image 1304 has the largest number of overlapping parts with the template image 1305. Therefore, based on the calculation result of the degree of overlap, it is determined that the image 1304 with the feature amount b to F F (h e x) includes the driving road area, and the road candidate area image 1306 corresponding to the image 1304 is can get.
b−FF(hex)の特徴量の間にはまだ他の候補値が
残っているので、次に、さらにこの道路候補領域画像1
306について領域分割を行う。Since there are still other candidate values remaining between the feature values of b-FF (hex), next, this road candidate area image 1
Area division is performed for 306.
つまり、道路候補領域画像1306をしきい値dで2値
化する。この2値化により、特徴量がb〜dの分割画像
1307と、特徴量がd−FF(h e x)の分割画
像1308とが得られる。次に、得られた各画像130
7.1308について、前述と同様にしてテンプレート
画像1305との重複度を計算する。本例の場合には、
画像1308の方がテンプレート画像1305との重複
度が高いため、特徴量がd−FF (hex)の画像1
308に走行路領域が含まれているものと判断され、画
像1308に対応した道路候補領域画像1309が得ら
れる。That is, the road candidate area image 1306 is binarized using the threshold value d. Through this binarization, a divided image 1307 with feature amounts b to d and a divided image 1308 with feature amount d-FF (hex) are obtained. Next, each image 130 obtained
7. The degree of overlap with template image 1305 is calculated for 1308 in the same manner as described above. In this example,
Image 1308 has a higher degree of overlap with template image 1305, so image 1 with the feature amount d-FF (hex)
It is determined that image 308 includes a driving road area, and a road candidate area image 1309 corresponding to image 1308 is obtained.
d−FF(hex)の特徴量の間にはまた他の候補値e
が残っているため、道路候補領域画像1309をこのし
きい値eで2値化する。この2値化により、特y!!、
iがd −eの分割画像1310と、特徴量がe−FF
(hex)の分割画像1311とが得られる。そして、
前述と同様にして各画像1310.1311とテンプレ
ート画像1305との重複度を計算する。本例の場合に
は、画像1310の方がテンプレート画像1305との
重複度が高いため、特徴量がd−eの画像1310に走
行路領域が含まれているものと判断され、画像1310
に対応した道路候補領域1312が得られる。There are also other candidate values e between the features of d-FF (hex).
remains, the road candidate area image 1309 is binarized using this threshold value e. With this binarization, special y! ! ,
A divided image 1310 where i is d - e and the feature amount is e - FF
(hex) divided images 1311 are obtained. and,
The degree of overlap between each image 1310, 1311 and the template image 1305 is calculated in the same manner as described above. In the case of this example, since the image 1310 has a higher degree of overlap with the template image 1305, it is determined that the image 1310 with the feature amount de contains the driving road area, and the image 1310
A road candidate area 1312 corresponding to is obtained.
d −eの特徴量の間にはもう他の候補値が残っていな
いので、この道路候補領域1312が最終的な道路領域
の2値画像になる。以上の処理は明度画像に対して行っ
たが、彩度画像に対しても同様な処理を行う。その後、
明度画像から抽出された走行路領域と彩度画像から抽出
された走行路領域との論理積を取り、最終的な走行路領
域を得る。Since there are no other candidate values remaining between the feature values d - e, this road candidate region 1312 becomes the final binary image of the road region. Although the above processing was performed on the brightness image, similar processing is performed on the chroma image as well. after that,
The final driving path area is obtained by performing a logical product of the driving path area extracted from the brightness image and the driving path area extracted from the saturation image.
しきい値を用いて画像を2値化し、画像の領域分割をす
る手法は一般的である。しかし、本実施例のように、走
行路の位置を考慮したテンプレート画像を用いて分割画
像との重複度を計算することにより、ヒストグラム上に
おいて行われる次の領域分割のためのしきい値を決定す
る処理は高速にかつ簡素に行える。この結果、現実の走
行路に即した走行路領域が高速にかつ容易にかつ低コス
トで得られる。A common method is to binarize an image using a threshold and divide the image into regions. However, as in this example, by calculating the degree of overlap with the segmented images using a template image that takes into account the position of the driving route, the threshold value for the next region segmentation performed on the histogram is determined. This process can be performed quickly and simply. As a result, a travel road area matching an actual travel route can be obtained quickly, easily, and at low cost.
また、次のようにカメラに撮像される情景の明暗が変化
する場合がある。例えば、自軍の進行方向がカーブによ
って変更したために明るさが変化した場合や、天候が晴
れたり曇ったりするために明暗が変わる場合などがある
。このような場合には、特徴量ヒストグラムは常に一定
の形状を示さないため、固定されたしきい値による領域
分割では正しい走行路領域が得られない。しかし、本手
法では、入力された画像の状態、つまり、明るさが時々
刻々と変化しても常に正確な走行路領域の抽出を行うこ
とが可能である。これは、本手法では、テンプレート画
像との重複度が最も高い特徴量分布を見つけ、時々刻々
と変化する画像についてその時の特徴量に応じた最適な
しきい値をその都度設定するからである。Furthermore, the brightness of the scene captured by the camera may change as follows. For example, the brightness may change because the direction of movement of your army changes due to a curve, or the brightness may change because the weather becomes sunny or cloudy. In such a case, the feature value histogram does not always show a constant shape, so region segmentation using a fixed threshold value does not provide a correct driving path region. However, with this method, even if the state of the input image, that is, the brightness, changes from moment to moment, it is possible to always accurately extract the travel road area. This is because the present method finds the feature quantity distribution with the highest degree of overlap with the template image, and sets the optimal threshold value each time according to the feature quantity at that time for images that change moment by moment.
従来、領域分割を行う画像処理にあっては、原画像を複
数の領域に分割し、分割した画像について識別処理を行
って道路の妥当性を検証していた。Conventionally, in image processing that performs region division, an original image is divided into a plurality of regions, and identification processing is performed on the divided images to verify the validity of roads.
しかし、上述した本手法にあっては、目的とする対象物
(道路)を抽出するために、しきい値処理による領域分
割を行っている。このように、従来の手法では処理結果
から対象物を検証したが、本手法では処理の当初から対
象物を目的としている点で処理のアプローチが逆になっ
ている。このため、道路領域を効率良く抽出することが
可能になっている。However, in this method described above, area segmentation is performed using threshold processing in order to extract the target object (road). In this way, in the conventional method, the object was verified from the processing results, but in this method, the processing approach is reversed in that the object is the object from the beginning of the processing. Therefore, it is possible to efficiently extract the road area.
次に、「明るさの違いに注目した走行コースからの影や
高輝度部分の抽出手法」について説明する。本手法は上
述した[テンプレート画像を用いた繰返しきい値処理に
よる走行コースの抽出手法」の説明において既に簡単に
説明したものであり、以下にこの手法を詳述する。Next, we will explain ``a method for extracting shadows and high-brightness areas from a driving course that focuses on differences in brightness''. This method has already been briefly explained in the above-mentioned "Travel course extraction method by iterative threshold processing using a template image," and this method will be described in detail below.
明度画像について、上述した「テンプレート画像を用い
た繰返しきい値処理による走行コースの抽出手法」、お
よび「繰返しきい値処理における特徴量ヒストグラムの
形状に基づくしきい値設定手法」を適用することにより
、走行コースの特徴量の分布するヒストグラムが求めら
れた。本手法は、このヒストグラムを基にして道路領域
より暗い領域および道路領域より明るい領域を求めるも
のである。また、本手法はカラー画像処理装置内で処理
されるものである。For the brightness image, by applying the above-mentioned "driving course extraction method using iterative threshold processing using a template image" and "threshold setting method based on the shape of the feature histogram in iterative threshold processing", A histogram showing the distribution of features of the driving course was obtained. This method determines areas darker than the road area and areas lighter than the road area based on this histogram. Further, this method is processed within a color image processing device.
第14図は、種々の入力画像が撮像された各ケースにつ
いて、本手法を適用した場合の処理の概要を示す。ケー
ス1は、−様な路面状況の走行コースのみが入力画像と
して撮像された場合である。FIG. 14 shows an overview of processing when this method is applied to each case in which various input images are captured. Case 1 is a case where only a driving course with negative road surface conditions is captured as an input image.
この場合、自車は、右側にカーブする道路のカーブ手前
に位置している。このケース1において抽出される道路
候補領域は、入力画像と同様な形状になる。これは入力
画像が−様な走行コースのみだからであり、従って、本
手法により低輝度領域および高輝度領域は抽出されない
。In this case, the own vehicle is located in front of a curve on a road that curves to the right. The road candidate area extracted in this case 1 has the same shape as the input image. This is because the input image is only a --like driving course, and therefore low-luminance areas and high-luminance areas are not extracted by this method.
また、ケース2は、走行コースの路面上に部分的に影が
でき、しかも、走行コースの遠方に反射光などによる高
輝度部分ができている入力画像が撮像された場合である
。この場合の例では、道路は右側にカーブし、この右側
カーブの手前に左側にカーブする分岐路を有している。Case 2 is a case where an input image is captured in which there is a partial shadow on the road surface of the driving course and a high brightness part due to reflected light or the like is formed in the far part of the driving course. In this example, the road curves to the right, and before the right curve there is a branch road that curves to the left.
自車はこれらカーブの手前に位置している。このケース
2において抽出される道路候補領域は、影ができている
暗い領域および高輝度領域である明るい領域が除外され
た形状になる。また、道路の手前側にできている影の部
分は本手法による低輝度領域の抽出により、個別に取り
出すことができる。また、道路の遠方にできている反射
光による高輝度領域は高輝度領域の抽出により、個別に
取り出すことかできる。The vehicle is located in front of these curves. The road candidate area extracted in this case 2 has a shape in which dark areas with shadows and bright areas with high brightness are excluded. In addition, shadow parts that appear on the near side of the road can be individually extracted by extracting low-luminance areas using this method. Further, high brightness areas due to reflected light that are formed far away from the road can be individually extracted by extracting the high brightness areas.
ケース3は、陽射しが強い天候の時に、樹木による影が
走行コースの路面上にできている入力画像が撮像された
場合であり、路面上に木洩れ日がさしている場合である
。この場合の例では、自軍は、左側にカーブする道路の
カーブ手前に位置している。このケース3において抽出
される道路候補領域は、木洩れ日によってできる影と同
じ形状である。これは、強い陽射しのために影の部分が
テンプレート画像との重複度が高くなるためである。従
って、本手法により低輝度の領域は抽出されない。また
、遠方の道路領域および木洩れ日がさしている部分は強
い陽射しのために高輝度の領域として抽出される。Case 3 is a case where an input image in which shadows from trees are formed on the road surface of the driving course is captured during weather with strong sunlight, and the road surface is illuminated by sunlight filtering through the trees. In this example, the own army is located in front of a curve on a road that curves to the left. The road candidate area extracted in this case 3 has the same shape as a shadow created by sunlight filtering through the trees. This is because the shadow portion has a high degree of overlap with the template image due to strong sunlight. Therefore, low brightness areas are not extracted by this method. Further, distant road areas and areas where sunlight shines through the trees are extracted as high brightness areas due to strong sunlight.
ケース4は、道路の側帯に沿って帯状に変色部分ができ
ている場合であり、例えば、舗装路の工事等によって道
路が変色した場合である。この場合の例では、自車は、
直線状に進む道路にできた変色部分を右手にみて走行す
る位置にある。このケース4において抽出される道路候
補領域は、この変色部分が除外された形状になる。また
、この変色部分は道路領域より明度が高いため、本手法
により高輝度領域として抽出される。また、道路の路面
上には影などがないため、低輝度領域は抽出されない。Case 4 is a case where a band-shaped discolored portion is formed along the side strip of the road, for example, when the road is discolored due to construction of a paved road or the like. In this example, the own car is
It is located in a position where you can see the discolored area on the straight road on your right. The road candidate region extracted in this case 4 has a shape in which this discolored portion is excluded. Furthermore, since this discolored portion has higher brightness than the road area, it is extracted as a high-brightness area by this method. Furthermore, since there are no shadows on the road surface, low-luminance areas are not extracted.
次に、上述したケース2を例として、本手法の詳細を以
下に説明する。Next, the details of this method will be explained below using Case 2 mentioned above as an example.
第15図は、ケース2において撮像された入力画像を基
にして作成されたヒストグラムである。FIG. 15 is a histogram created based on the input image captured in case 2.
このヒストグラムの特徴量は明度であり、横軸にこの明
度が示されている。また、縦軸は、各明度における画素
数である。The feature amount of this histogram is brightness, and this brightness is shown on the horizontal axis. Moreover, the vertical axis is the number of pixels at each brightness.
図のA部分の特徴量範囲は走行路領域が含まれる範囲で
あり、前述した「テンプレート画像を用いた繰返しきい
値処理による走行コースの抽出手法」において最も走行
コースに相当する画素が含まれる範囲とされる部分であ
る。また、範囲Aは特徴量がtlからt2までの範囲で
あり、各特徴ff1tlおよびt2をしきい値として領
域分割される。また、特徴量t1より左側にあるB部分
は谷と谷とに挾まれた1つの山を形成し、A部分より明
度の低い暗い範囲の特徴量分布である。このB部分の特
徴量範囲はt3からtlまでであり、各特徴mt3およ
びt〕は領域分割のためのしきい値になる。また、特徴
量t2より右側にあるC部分は、A部分より明度の高い
明るい範囲の特徴量分布であり、B部分と同様に谷と谷
とに挾まれた1つの山を形成している。このC部分の特
徴量範囲はt2からt4まてであり、各特徴ff1t2
およびt4は領域分割のためのしきい値になる。The feature value range in part A of the figure is the range that includes the driving road area, and the range that includes the pixels most corresponding to the driving course in the aforementioned "driving course extraction method by iterative threshold processing using a template image". This is the part that is said to be. Further, range A is a range in which the feature amount is from tl to t2, and is divided into regions using each feature ff1tl and t2 as thresholds. Furthermore, the portion B on the left side of the feature amount t1 forms one mountain sandwiched between valleys, and has a feature amount distribution in a dark range with lower brightness than the portion A. The feature amount range of this part B is from t3 to tl, and each feature mt3 and t] becomes a threshold for region division. Further, the C portion on the right side of the feature amount t2 has a feature amount distribution in a bright range with higher brightness than the A portion, and forms one mountain sandwiched between valleys like the B portion. The feature amount range of this C part is from t2 to t4, and each feature ff1t2
and t4 becomes a threshold for region division.
なお、図に示されるB部分やC部分は1つの山を形成し
ているが、このように1つの山を形成しない特徴回分布
は、画像上において領域分割のために有意義な領域を形
成する分布とは認められない。このため、このような特
徴量分布は優位な分布ではないものとして領域抽出の対
象として選定しない。図示の本例の場合にはB部分およ
びC部分の双方ともに優位な分布になっているが、一方
のみが優位な分布であっても本手法は適用される。Note that portions B and C shown in the figure form one mountain, but a feature frequency distribution that does not form a single mountain like this forms a meaningful region for region segmentation on the image. It cannot be recognized as a distribution. Therefore, such a feature quantity distribution is not selected as a region extraction target as it is not a dominant distribution. In the illustrated example, both the B portion and the C portion have a dominant distribution, but the present method is applicable even if only one is a dominant distribution.
A部分の特徴量分布は第14図に示されたケース2の道
路候補領域に相当する。また、B部分の特徴量分布はこ
の道路候補領域より明度の低い影の領域に相当し、C部
分の特徴量分布は道路候補領域よりも明度の高い高輝度
部分に相当するものである。本手法は、A部分に隣接す
るB部分およびC部分の各特徴量分布に相当する各領域
を抽出するものである。The feature quantity distribution of part A corresponds to the road candidate area of case 2 shown in FIG. Further, the feature amount distribution of portion B corresponds to a shadow region having a lower brightness than this road candidate region, and the feature amount distribution of portion C corresponds to a high brightness portion having higher brightness than the road candidate region. This method extracts each area corresponding to each feature value distribution of the B part and C part adjacent to the A part.
まず、ヒストグラムのB部分に相当する領域を抽出する
ため、しきい値t3およびtlによって明度を特徴量と
する入力画像を2値化する。また、前述した「テンプレ
ート画像を用いた繰返しきい値処理による走行コースの
抽出手法」において、彩度を特徴量とする入力画像に基
づいて道路領域画像が求められていた。この道路領域画
像は、原画像が最初に領域分割されることにより得られ
たものであり、影などの暗い領域や高輝度領域が道路領
域に含まれた状態の画像である。この道路領域に相当す
るメモリ素子には1が記憶されており、その他の背景領
域に相当するメモリ素子には0が記憶されている。また
、上記の2値化画像において、明度がt3からtlの画
素領域に相当するメモリ素子には1が記憶されており、
その他の領域に相当するメモリ素子には0が記憶されて
いる。First, in order to extract a region corresponding to part B of the histogram, an input image whose feature quantity is brightness is binarized using thresholds t3 and tl. Furthermore, in the aforementioned "driving course extraction method using iterative threshold processing using a template image", a road area image is obtained based on an input image that uses saturation as a feature. This road area image is obtained by first dividing the original image into areas, and is an image in which dark areas such as shadows and high brightness areas are included in the road area. 1 is stored in the memory element corresponding to this road area, and 0 is stored in the memory element corresponding to the other background areas. Further, in the above binarized image, 1 is stored in the memory element corresponding to the pixel area whose brightness is from t3 to tl,
0 is stored in memory elements corresponding to other areas.
このため、道路領域画像と2値化画像との論理積をとる
ことにより、走行路領域上にある例えば影の部分などの
暗い領域のみが個別に抽出される。Therefore, by performing a logical product of the road area image and the binarized image, only dark areas such as shadow parts on the driving road area are individually extracted.
また、C部分に相当する領域を抽出する゛ため、上記の
暗い領域を求めるのと同様に、しきい値t2およびti
によって明度画像を2値化する。In addition, in order to extract the area corresponding to part C, the threshold value t2 and ti
The brightness image is binarized by
そして、彩度画像から抽出された道路領域画像とこの2
値化画像との論理積を上記のB部分の抽出の場合と同様
にとることにより、高輝度領域が個別に抽出される。Then, the road area image extracted from the saturation image and these two
High brightness areas are individually extracted by performing a logical product with the valued image in the same manner as in the case of extracting the B portion described above.
次に、B部分およびC部分を領域分割する際に必要とさ
れるしきい値t3およびtiを求める方法について説明
する。前述した「繰返しきい値処理における特徴量ヒス
トグラムの形状に基づくしきい値設定手段」により、第
10図(b)に示されるピーク・谷テーブルを求めたが
、第15図に示されるヒストグラムについてもこれと同
様にして図示しないピーク・谷テーブルを求める。この
ピーク・谷テーブルにおける各テーブル値は、第10図
(b)と同様に、pktIとして表現する。Next, a method for determining the threshold values t3 and ti required when dividing portions B and C into regions will be described. Although the peak/trough table shown in FIG. 10(b) was obtained using the above-mentioned "threshold setting means based on the shape of the feature histogram in repeated threshold processing," the histogram shown in FIG. In the same way, a peak/trough table (not shown) is obtained. Each table value in this peak/trough table is expressed as pktI as in FIG. 10(b).
添字のiは、グラフの原点側から各テーブル値に対応し
て順にi−0,1,2,・・N、N−1と変化するもの
とする。It is assumed that the subscript i changes from i-0, 1, 2, . . . N, N-1 in order from the origin of the graph corresponding to each table value.
第15図のヒストグラムにおいて、しきい値t1に相当
するテーブル値をpk tjとする。そして、ピーク・
谷テーブルにおいてこのテーブル値pk tiから左側
へ各テーブル値を見て行き、pk tOのところまでに
テーブル値が負となるpk’tk (pktk<O)
があるか否かを判断する。テーブル値が負になる特徴点
は谷の底に相当する点である。pk tOまでに負とな
るpk tkが有り、しかも、pktjの特徴点からp
k tkの特徴点までの距離がしきい値より小さい場合
(pk tj −pk tk <Lきい値)、このテー
ブル値pktkに相当する特徴量をしきい値t3とする
。また、pk tOまでに負となるpk tkが無い場
合、または距離がしきい値を越える場合には、道路領域
より暗い優位な領域は無いものとする。In the histogram of FIG. 15, the table value corresponding to the threshold value t1 is assumed to be pk tj. And peak
In the valley table, look at each table value from this table value pk ti to the left, and find pk'tk (pktk<O) where the table value becomes negative by pk tO.
Determine whether or not there is. A feature point with a negative table value is a point corresponding to the bottom of a valley. There is pk tk that becomes negative by pk tO, and furthermore, from the feature point of pktj to p
When the distance to the feature point k tk is smaller than the threshold value (pk tj −pk tk <L threshold), the feature amount corresponding to this table value pktk is set as the threshold value t3. Furthermore, if there is no pk tk that becomes negative by pk tO, or if the distance exceeds the threshold, it is assumed that there is no dominant region darker than the road region.
ヒストグラム上のしきい値t4に相当する特徴量は、し
きい値t3に相当する特徴量を求める方法と同様にして
求めることができる。つまり、しきい値t2に相当する
ピーク・谷テーブル値をpktraとすると、このpk
tmから右側へ各テーブル値を見て行き、p k t
N−1までに負となるpk tn (pk tn <
O)が有るか否かを判断する。p k t N−1まで
に負となるpk tnが有り、しかも、pk tnの特
徴点からpktmの特徴点までの距離がしきい値より小
さい場合(pktn−pktIll<Lきい値)、この
テーブル値pk tnに相当する特徴量をしきい値t4
とする。The feature quantity corresponding to the threshold value t4 on the histogram can be obtained in the same manner as the method for obtaining the feature quantity corresponding to the threshold value t3. In other words, if the peak-trough table value corresponding to threshold t2 is pktra, then this pk
Looking at each table value from tm to the right, p k t
pk tn (pk tn <
O) is present or not. If pk tn becomes negative by p k t N-1, and the distance from the feature point of pk tn to the feature point of pktm is smaller than the threshold (pktn - pktIll<L threshold), this table The feature amount corresponding to the value pk tn is set to the threshold value t4
shall be.
また、p k t N−1までに負となるpk tnが
無い場合、または、距離がしきい値を越える場合には、
道路領域より明るい優位な領域は無いものとする。Furthermore, if there is no pk tn that becomes negative by p k t N-1, or if the distance exceeds the threshold,
It is assumed that there is no dominant region that is brighter than the road region.
以上のように、本手法は、「繰返しきい値処理における
特徴量ヒストグラムの形状に基づくしきい値設定手段」
で求められたピーク・谷テーブルを利用することにより
、天候の変化や舗装路の工事等によって道路の路面状況
が変化しても、影や高輝度部分および変色部分を個別に
抽出することができる。As described above, this method is a "threshold setting means based on the shape of the feature histogram in iterative threshold processing"
By using the peak/trough table obtained in , it is possible to individually extract shadows, high-intensity areas, and discolored areas even if the road surface conditions change due to changes in the weather or pavement construction. .
次に、「ラベリング装置」について以下に詳述する。[
テンプレート画像を用いた繰返しきい値処理による走行
コースの抽出手法」において抽出された画像は、ノイズ
や細かく分断された領域を有する。このため、ラベリン
グ装置により抽出画像の各領域にラベル付けをし、ラベ
ル付けされた各領域の有効性を判断する。このラベリン
グ処理の結果に基づき、地平線位置より重心が上の領域
や、ノイズ等によって発生した不要な小領域を除去する
。Next, the "labeling device" will be explained in detail below. [
The image extracted by the method for extracting a driving course by repeated threshold processing using a template image has noise and finely divided regions. For this purpose, each region of the extracted image is labeled by a labeling device, and the validity of each labeled region is determined. Based on the results of this labeling process, areas where the center of gravity is above the horizon position and unnecessary small areas caused by noise or the like are removed.
第16図はこのラベリング装置の概略構成を示すブロッ
ク図であり、第17図はこのラベリング処理の概略を示
すゼネラルフローチャートである。FIG. 16 is a block diagram showing a schematic configuration of this labeling apparatus, and FIG. 17 is a general flowchart showing an outline of this labeling process.
まず、カラー処理装置において抽出された画像を画像バ
ス(NE Bus)を介して入力メモリ1601に取
り込む(ステップ1701)。この画像情報は512x
512x8ビツトの情報であり、これを多値の原画像入
力とする。次に、後述するランを用いた仮ラベル付は方
式を用いて1次ラベリングを行う(ステップ1702)
。この1次ラベリングは、ラベリングプロセッサ(KL
P)1602. ラインバッファメモリ(LBM)1
603およびラベルマツチングメモリ(LMM)160
4等において主として実行される。First, an image extracted by the color processing device is loaded into the input memory 1601 via the image bus (NE Bus) (step 1701). This image information is 512x
This is 512x8 bit information, and this is used as a multivalued original image input. Next, primary labeling is performed using the run-based temporary labeling method described later (step 1702).
. This primary labeling is performed by a labeling processor (KL).
P) 1602. Line buffer memory (LBM) 1
603 and label matching memory (LMM) 160
It is mainly executed in the 4th class.
この1次ラベリングの後、ラベルマツチングメモリLM
M1604のデータ配置を整理するために前処理を行う
(ステップ1703)。この前処理の後に2次ラベリン
グを行うと同時に各領域の面積や重心などの特徴量を抽
出する(ステップ1704)。ステップ1703および
ステップ1704の処理は主として特徴抽出プロセッサ
KLC1605において実行される。この2次ラベリン
グにより、各アドレスに位置する画素に付けられたラベ
ルをラベルメモリ(LABELM)1606に記憶する
。また、同時に、抽出された各領域の面積や重心を特徴
メモリ1607に記憶する。この後、LABELM16
06に記憶されたラベル画像情報をNE BUSに出
力する(ステップ1705.)。After this primary labeling, the label matching memory LM
Preprocessing is performed to organize the data arrangement of M1604 (step 1703). After this preprocessing, secondary labeling is performed and at the same time feature quantities such as the area and center of gravity of each region are extracted (step 1704). The processing in steps 1703 and 1704 is mainly executed in the feature extraction processor KLC1605. Through this secondary labeling, a label attached to a pixel located at each address is stored in a label memory (LABELM) 1606. At the same time, the area and center of gravity of each extracted region are stored in the feature memory 1607. After this, LABELM16
The label image information stored in 06 is output to the NE BUS (step 1705).
ラベル生成のためのKLP1602の使用個数は]個で
あり、ラン処理用のラインレジスタであるLBM160
3は後述するラベルメモリKLMを4個使用して構成す
る。また、LMM1604は仮ラベルの最大数が102
3の時にはKLMを8個使用して構成する。仮ラベルの
最大数が4095の時にはKLMを32個使用してLM
M1604を構成する。The number of KLP1602s used for label generation is ], and the number of LBM160s used is the line register for run processing.
3 is configured using four label memories KLM, which will be described later. Additionally, the maximum number of temporary labels for LMM1604 is 102.
3, it is configured using eight KLMs. When the maximum number of temporary labels is 4095, 32 KLMs are used and LM
Configure M1604.
従来のラベリングは入力画像が2値画像の場合について
だけ行っていたが、本手法によるラベリングはKLP1
602を使用することにより、多値画像についてもラベ
リングを行うことが可能になっている。つまり、数種類
の画像を一度にラベリングをすることが可能である。例
えば、第18図に示されるように、3種類の2値入力画
像1801.1802.1803が入力された場合を想
定する。これら2値画像は足し合されて512X512
X8ビツトの多値画像1804に変換される。この変換
処理はラベリング処理の前処理として行われる。ライン
レジスタ1805(LBM1603)とラベルマツチン
グメモリ1806 (LMM1604)とを使用したラ
ベリングプロセッサ1807 (KLP1602)の制
御により、多値入力画像1804はラベリングされる。Conventional labeling was performed only when the input image was a binary image, but labeling using this method
By using 602, it is possible to label multivalued images as well. In other words, it is possible to label several types of images at once. For example, as shown in FIG. 18, assume that three types of binary input images 1801, 1802, and 1803 are input. These binary images are added together to form a 512x512
It is converted into a multivalued image 1804 of x8 bits. This conversion process is performed as pre-processing of the labeling process. A multivalued input image 1804 is labeled under the control of a labeling processor 1807 (KLP1602) using a line register 1805 (LBM1603) and a label matching memory 1806 (LMM1604).
このラベリングにおいて各領域のラベル付けを整理し、
最終的に512X512X12ビツトのラベル画像18
08として出力する。このラベリングプロセッサ180
7 (KLP1602)を使用することにより、多値画
像に対してのラベリング処理、ランを用いた仮ラベル数
の削減および1スキャンラベリングが可能になる。In this labeling, organize the labeling of each area,
Final label image 18 of 512 x 512 x 12 bits
Output as 08. This labeling processor 180
7 (KLP1602) enables labeling processing for multivalued images, reduction of the number of temporary labels using runs, and single-scan labeling.
多値入力画像の各画素には、各画素値に応じたラベル付
けがKLP1602の制御によって行われる。そして、
同一のラベル値を持つ各画素間の結合関係に基づいて領
域区分が行われ、また、この結合関係に基づいて新しい
ラベルが生成される。Each pixel of the multivalued input image is labeled according to each pixel value under the control of the KLP 1602. and,
Region segmentation is performed based on the connection relationship between pixels having the same label value, and a new label is generated based on this connection relationship.
例えば、従来、入力画像に第19図(a)に示される階
段状画素からなる領域が形成されている場合には、ラス
ク走査の順番に沿って各画素に仮ラベル付けを行い、再
度各画素について走査を行うことによりラベル生成が実
行されていた。この結果、仮ラベル付けの際には、図示
のごとく1〜3の3種類の仮ラベルを必要としていた。For example, conventionally, when an input image has a region made up of step-like pixels shown in FIG. Label generation was performed by scanning the . As a result, when attaching temporary labels, three types of temporary labels, 1 to 3, are required as shown in the figure.
しかし、本方式によるランを用いたラベリング方式によ
れば、第19図(a)と同様な階段状画素からなる同図
(b)に示される入力画像が有っても、ランを用いるこ
とにより仮ラベル数を削減することが出来る。つまり、
同図(C)に示されるように、各画素をラスク走査に沿
ったランという1つの行毎に区分けする。図示の場合に
は、2つのラン1およびラン2に区分けされる。ラベリ
ングプロセッサKLPはランの走査が最後の画素に至る
まではラインバッファメモリLBMにフラグを書き込み
、仮ラベルの判定を行い、その行の最後の画素でそのラ
ンの全画素に各画素間の結合関係を考慮した仮ラベルを
書き込む。However, according to the labeling method using runs according to the present method, even if there is an input image shown in FIG. 19(b) consisting of stepped pixels similar to FIG. The number of temporary labels can be reduced. In other words,
As shown in FIG. 3C, each pixel is divided into rows called runs along the rask scan. In the illustrated case, it is divided into two run 1 and run 2. The labeling processor KLP writes a flag in the line buffer memory LBM until the scanning of the run reaches the last pixel, judges the temporary label, and at the last pixel of the row, connects all pixels of the run to the connection relation between each pixel. Write a temporary label that takes into account.
同図(C)に示されるラン1について走査して上記の処
理を施した結果、ラン1に対応する画素には同図(d)
に示される仮ラベル付けが行われる。この仮ラベル「1
」のラベル付けは、各画素に同時に行われる。これは、
メモリには後に詳述するラベリングメモリKLMが使用
されているためである。引き続いてラン2について走査
することにより、同図(e)に示される仮ラベル付けが
行われる。ラン2はラン1の仮ラベル「1」に接続され
ているので、ラン2の最後の画素を走査する時点でラン
2の各画素には仮ラベル「1」が同時に書き込まれる。As a result of scanning and performing the above processing on run 1 shown in the same figure (C), the pixels corresponding to run 1 are shown in the same figure (d).
The temporary labeling shown in is performed. This temporary label "1"
' labeling is done simultaneously for each pixel. this is,
This is because the labeling memory KLM, which will be described in detail later, is used as the memory. By subsequently scanning run 2, the provisional labeling shown in FIG. 4(e) is performed. Since run 2 is connected to the temporary label "1" of run 1, when the last pixel of run 2 is scanned, the temporary label "1" is simultaneously written to each pixel of run 2.
このようにランを用いたラベリングにより、同図(b)
に示される階段状画素ヘノラベル付けは、1種類のラベ
ル「1」によって行うことが出来、仮ラベル数は削減さ
れる。つまり、画素をランという1つのまとまりにまと
め、ラン単位で処理を行うことにより、ラベリング回路
の規模を削減することが出来る。By labeling using runs in this way, the same figure (b)
The stepped pixel labeling shown in can be performed using one type of label "1", and the number of temporary labels is reduced. In other words, the scale of the labeling circuit can be reduced by grouping pixels into one group called a run and performing processing on a run-by-run basis.
次に、ラベリングプロセッサKLPによるラベリング処
理の詳細について説明する。ラベリングは第20図に示
されるウィンドが各ランに沿って各画素を走査すること
により行われる。このウィンドを各ランに沿って走査す
ることにより、T(ターゲット)部には注目する画素が
現れ、a部にはT部の上に位置する画素が現れ、b部に
はT部の右側の隣に位置する画素が現れる。以下、T。Next, details of the labeling process by the labeling processor KLP will be explained. Labeling is performed by scanning each pixel along each run with the window shown in FIG. By scanning this window along each run, the pixel of interest appears in the T (target) section, the pixel located above the T section appears in the a section, and the pixel on the right side of the T section appears in the b section. Pixels located next to each other appear. Below, T.
a、bは各部に現れる入力画像のラベル値を示すことに
する。なお、ランの途中をウィンドが走査している時に
は、出力ラベルとしてフラグの値がラインバッファメモ
リLBMに出力され、ウィンドがランの最後の画素に達
した時に、フラグの立っている全ての画素にラベルが書
き込まれる。Let a and b indicate label values of the input image appearing in each part. Note that when the window is scanning in the middle of a run, the value of the flag is output to the line buffer memory LBM as an output label, and when the window reaches the last pixel of the run, all flagged pixels are Label is written.
KLPの内部構成は第21図のブロック構成図に示され
る。KLPは、セレクタ2101.仮ラベルレジスタT
m12102. カウンタCnt2103、第1の比較
回路2104および第2の比較回路2105により構成
されている。第1の比較回路2104にはラベル値T、
a、bが与えられ、入力画像の多値比較が行われる。こ
の比較結果はセレクタ2101のセレクト端子5ell
に与えられる。第2の比較回路2105には、ラベル値
aのラベルマツチングメモリLMMの値Mat(a)、
仮ラベルレジスタTm12102の値およびカウンタC
nt2103の値が与えられ、同時に6値はセレクタ2
101の端子A、B。The internal structure of KLP is shown in the block diagram of FIG. KLP selector 2101. Temporary label register T
m12102. It is composed of a counter Cnt 2103, a first comparison circuit 2104, and a second comparison circuit 2105. The first comparison circuit 2104 has a label value T,
a and b are given, and a multi-value comparison of input images is performed. The result of this comparison is the select terminal 5ell of the selector 2101.
given to. The second comparison circuit 2105 includes a value Mat(a) of the label matching memory LMM of the label value a,
Value of temporary label register Tm12102 and counter C
The value of nt2103 is given, and at the same time the 6 value is selector 2
101 terminals A and B.
Cに与えられる。このTm12102の値は、セレクタ
2101からの出力信号によって決定される。また、セ
レクタ2101の端子りにはラインバッファメモリLB
Mに記憶されるフラグFLAGの値が与えられる。given to C. The value of Tm12102 is determined by the output signal from selector 2101. Also, a line buffer memory LB is connected to the terminal of the selector 2101.
The value of the flag FLAG stored in M is given.
第2の比較回路2105は与えられたこれらの6値を比
較する。この比較結果により各ラベル間の連結関係が判
断され、比較結果はセレクタ2101のセレクト端子5
elOに出力される。The second comparison circuit 2105 compares these six applied values. The connection relationship between each label is determined based on the comparison result, and the comparison result is transmitted to the select terminal 5 of the selector 2101.
Output to elO.
セレクタ2101は与えられた6値に基づき、マツチン
グアドレスMAT ADDRおよびマツチングデータ
MAT DATAを出力し、ラベルマツチングメモリ
LMMの記憶内容の変更を行う。The selector 2101 outputs a matching address MAT ADDR and matching data MAT DATA based on the six supplied values, and changes the storage contents of the label matching memory LMM.
また、これと共に、セレクタ2101は仮ラベルの値お
よび出力ラベルの値(LABEL)を出力する。At the same time, the selector 2101 outputs a temporary label value and an output label value (LABEL).
第22図〜第27図はウィンド処理のフローチャートを
示す。22 to 27 show flowcharts of window processing.
第22図は、第1の比較回路2104における6値T、
a、bの比較判断処理をする際のフローチャートを示す
。ます、着目画素のラベル値Tが0に等しいか否かを判
断する(ステップ2201)。Tが0の場合には後述す
る処理1を実行する(ステップ2202)。Tが0でな
い場合には、ラベル値Tとラベル値すとを比較する(ス
テップ2203)。ラベル値Tとラベル値すとが等しい
場合には、ラベル値Tとラベル値aとを比較する(ステ
ップ2204)。ラベル値Tとラベル値aとが等しい場
合には処理2を実行する(ステップ2205)。つまり
、処理2は6値Ta、bが等しい場合に実行される処理
である。この場合、各ラベル値を○と表現すると、ウィ
ンドウ状態はステップ2205の図示の処理ボックスに
隣接して描かれた状態になる。FIG. 22 shows the 6-value T in the first comparison circuit 2104,
A flowchart is shown when performing a comparison judgment process between a and b. First, it is determined whether the label value T of the pixel of interest is equal to 0 (step 2201). If T is 0, processing 1 described later is executed (step 2202). If T is not 0, label value T and label value S are compared (step 2203). When label value T and label value S are equal, label value T and label value a are compared (step 2204). If the label value T and the label value a are equal, process 2 is executed (step 2205). In other words, process 2 is a process executed when the six values Ta and b are equal. In this case, if each label value is expressed as a circle, the window state will be the state drawn adjacent to the processing box shown in step 2205.
ラベル値Tとラベル値aとが等しくない場合には処理3
を実行する(ステップ2206)。つまり、処理3はラ
ベル値Tとラベル値すとが等しく、ラベル値Tとラベル
値aとが異なる場合に実行される処理である。この場合
、ラベル値Tとラベル値すをOと表現し、ラベル値aを
×と表現すると、ウィンドウ状態はステップ2206の
図示の処理ボックスに隣接して描かれた状態になる。そ
して、ステップ2205またはステップ2206の処理
後に、ラインバッファメモリLBM1603のウィンド
Tの位置にフラグを立てる(ステップ2207)。If label value T and label value a are not equal, process 3
(step 2206). In other words, process 3 is a process that is executed when label value T and label value S are equal and label value T and label value a are different. In this case, if label value T and label value S are expressed as O, and label value a is expressed as x, the window state will be the state drawn adjacent to the processing box shown in step 2206. After the processing in step 2205 or step 2206, a flag is set at the position of window T in the line buffer memory LBM 1603 (step 2207).
また、ステップ2203において、ラベル値Tとラベル
値すとが等しくない場合にも、ラベル値Tとラベル値a
とを比較する(ステップ2208)。ラベル値Tとラベ
ル値aとが等しい場合には処理4を実行する(ステップ
2209)。Further, in step 2203, even if label value T and label value a are not equal, label value T and label value a
(step 2208). If the label value T and the label value a are equal, process 4 is executed (step 2209).
つまり、処理4はラベル値Tとラベル値aとが等しく、
ラベル値Tとラベル値すとが異なる場合に実行される処
理である。この場合、ラベル値Tとラベル値aをOと表
現し、ラベル値すを×と表現すると、ウィンドウ状態は
ステップ2209の図示の処理ボックスに隣接して描か
れた状態になる。In other words, in process 4, label value T and label value a are equal,
This is a process executed when label value T and label value S are different. In this case, if label value T and label value a are expressed as O, and label value S is expressed as x, the window state becomes the state drawn adjacent to the processing box shown in step 2209.
ラベル値Tとラベル値aとが等しくない場合には処理5
を実行する(ステップ2210)。つまり、処理5はラ
ベル値Tとラベル値aとが異なり、しかも、ラベル値T
とラベル値すとが異なる場合に実行される処理である。If label value T and label value a are not equal, process 5
(step 2210). In other words, in process 5, label value T and label value a are different, and label value T
This is the process that is executed when the label value and the label value are different.
この場合、ラベル値TをOと表現し、ラベル値aとラベ
ル値すを×と表現すると、ウィンドウ状態はステップ2
210の図示の処理ボックスに隣接して描かれた状態に
なる。そして、ステップ2209またはステップ221
0の処理後にKLP内の仮ラベルレジスタTmlをクリ
アする(ステップ2211)。このTmlは、現在のウ
ィンド位置に達する直前のT部に有った画素に対するラ
ベルが記憶されているものである。In this case, if label value T is expressed as O and label value a and label value S are expressed as ×, the window state is set to step 2.
It is drawn adjacent to the illustrated processing box 210 . Then, step 2209 or step 221
After processing 0, the temporary label register Tml in KLP is cleared (step 2211). This Tml stores a label for a pixel that was in the T portion immediately before reaching the current window position.
以下に説明する第23図から第27図のフローチャート
は、処理1から処理5までの比較判断処理のフローチャ
ートを示す。The flowcharts in FIGS. 23 to 27 described below show flowcharts of the comparison judgment processing from processing 1 to processing 5.
第23図は上述の処理1のフローチャートを示す。処理
1は何も実行せずに終了する。FIG. 23 shows a flowchart of the above-mentioned process 1. Process 1 ends without executing anything.
第24図は上述の処理2のフローチャートを示す。まず
、仮ラベルレジスタTmlに記憶された前回の画素のラ
ベル値と0とを比較する(ステップ2401)。Tml
のラベル値が0に等しい場合には、ラベル値aのラベル
マツチングメモリ(LMM)1604の値Mat(a)
を仮ラベルレジスタT m l 2 ]、 02に書き
込む(ステップ2402)。Tmlのラベル値が0と等
しくない場合には、Tmlのラベル値とカウンタCnt
2103のカウンタ値とを比較する(ステップ2403
)。カウンタ2103には最も新しいラベルの値が記憶
されている。FIG. 24 shows a flowchart of the above-mentioned process 2. First, the label value of the previous pixel stored in the temporary label register Tml is compared with 0 (step 2401). Tml
When the label value of is equal to 0, the value Mat(a) of the label matching memory (LMM) 1604 of the label value a
is written into the temporary label register T m l 2 ], 02 (step 2402). If the label value of Tml is not equal to 0, the label value of Tml and the counter Cnt
Compare with the counter value of 2103 (step 2403
). The counter 2103 stores the value of the newest label.
仮ラベルレジスタTmlのラベル値とカウンタCntの
カウンタ値とが等しい場合には、ラベル値aのラベルマ
ツチングメモリ(LMM)の値Mat(a)をTmlに
書き込む(ステップ2404)、また、Tmlの値とカ
ウンタCntの値とが等しくない場合には、LMMの値
Mat(a)とTmlの値とを比較する(ステップ24
05)、LMMの値Mat(a)とTmlの値とが等し
い場合には何も実行されない(ステップ2406)、L
MMの値Mat(a)とTmlの値とが等しくない場合
には、Tmlの値とLMMの値Mat(a)とのうちの
小さい方の値iMi n (Tm 1. Ma t (
a) ) lをTmlに書き込む。さらに、両者のうち
の小さい方の値fM i n (Tm 1. Ma t
(a) ) l を、両者のうちの大きい方の値に等
しいラベル値のラベルマ2407) 。If the label value of the temporary label register Tml and the counter value of the counter Cnt are equal, the value Mat(a) of the label matching memory (LMM) of the label value a is written to Tml (step 2404), and the value of Tml is written. If the value and the value of the counter Cnt are not equal, the value Mat(a) of LMM and the value of Tml are compared (step 24
05), If the value Mat(a) of LMM and the value of Tml are equal, nothing is executed (step 2406), L
If the value of MM Mat(a) and the value of Tml are not equal, the smaller value of the value of Tml and the value of LMM Mat(a) iMin (Tm 1. Mat (
a) ) Write l to Tml. Furthermore, the smaller value fM i n (Tm 1. Ma t
(a)) Label matrix 2407) with a label value equal to the larger of the two values.
第25図は前述の処理3のフローチャートを示す図であ
る。処理3では、まず、仮ラベルレジスタTmlの値と
0とを比較する(ステップ2501)。Tmlの値がO
に等しい場合には、カウンタ2103のカウンタ値をT
mlに書き込む(ステップ2502)。また、Tmlの
値が0ニ等シくない場合には、何も実行されない(ステ
ップ2503)。FIG. 25 is a diagram showing a flowchart of the above-mentioned process 3. In process 3, first, the value of the temporary label register Tml is compared with 0 (step 2501). Tml value is O
, the counter value of the counter 2103 is set to T
ml (step 2502). Further, if the value of Tml is not equal to 0, nothing is executed (step 2503).
第26図は前述の処理4のフローチャートを示す図であ
る。まず、Tmlの値と0とを比較する(ステップ26
01)。Tmlの値が0に等しい場合には、ラベル値a
のLMMの値Mat(a)をターゲットエリアのラベル
値として、T部とフラグが立っている全てのレジスタに
このMat(a)を書き込む(ステップ2602)。こ
の時、LBMのフラグは全てクリアされる。また、ステ
ップ2601でTmlの値が0に等しくない場合には、
Tmlの値とCntの値とを比較する(ステップ260
3)。Tmlの値とCntの値とが等しい場合には、ラ
ベル値aのLMMの値Mat(a)をターゲットエリア
のラベル値として、T部とフラグが立っている全てのレ
ジスタにこのMat(a)を書き込む(ステップ260
4)。FIG. 26 is a diagram showing a flowchart of the above-mentioned process 4. First, the value of Tml is compared with 0 (step 26
01). If the value of Tml is equal to 0, the label value a
The LMM value Mat(a) is set as the label value of the target area, and this Mat(a) is written into the T section and all registers with flags set (step 2602). At this time, all LBM flags are cleared. Further, if the value of Tml is not equal to 0 in step 2601,
Compare the value of Tml and the value of Cnt (step 260
3). If the value of Tml and the value of Cnt are equal, the LMM value Mat(a) of label value a is set as the label value of the target area, and this Mat(a) is stored in all registers where the T part and flag are set. (step 260)
4).
この時、LBMのフラグは全てクリアされる。At this time, all LBM flags are cleared.
また、Tmlの値とCntの値とが等しくない場合には
、Tmlの値とMat(a)の値とを比較する(ステッ
プ2605)。そして、Tmlの値とMat(a)の値
とが等しい場合には、ラベル値aのLMMの値Mat(
a)をターゲットエリアのラベル値として、T部とフラ
グが立っている全てのレジスタにこのMat(a)を書
き込む(ステップ2606)。この時、LBMのフラグ
は全てクリアされる。また、Tmlの値とMat(a)
の値とが等しくない場合には、Tmlの値とラベル値a
のLMMの値Mat(a)との小さい方の値fM i
n (Tm I、 Ma t (a) ) lをターゲ
ットエリアのラベル値として、T部とフラグが立ってい
る全てのレジスタに書き込む。この時、LBMのフラグ
は全てクリアされる。さらに、Tmlの値とLMMの値
Mat(a)とのうちの小さい方の値(Mi n (T
m l、 Ma t (a) ) 1を、これら両者
のうちの大きい方の値に等しいラベル値のラベルマツチ
ングメモリ[Mat(Mi n (Tm l、 M
a t (a) ) l コに書き込む(ステップ2
607)。Furthermore, if the value of Tml and the value of Cnt are not equal, the value of Tml and the value of Mat(a) are compared (step 2605). Then, when the value of Tml and the value of Mat(a) are equal, the value of LMM of label value a Mat(
With a) as the label value of the target area, this Mat(a) is written to the T section and all registers with flags set (step 2606). At this time, all LBM flags are cleared. Also, the value of Tml and Mat(a)
If the values of Tml and label value a are not equal, the value of Tml and the label value a
The smaller value fM i of the LMM value Mat(a) of
n (Tm I, Mat (a)) Write l as the label value of the target area to the T section and all registers where the flag is set. At this time, all LBM flags are cleared. Furthermore, the smaller value (Min (T
m l, Mat (a) ) 1 is defined as a label matching memory [Mat(Min (Tm l, M
a t (a) ) l Write in (Step 2)
607).
第27図は前述の処理5のフローチャートを示す図であ
る。まず、仮ラベルレジスタTmlの値と0とを比較す
る(ステップ2701)。Tmlの値が0に等しい場合
には、Cntの値をターゲットエリアのラベル値として
、T部とフラグが立っている全てのレジスタにこのCn
tの値を書き込む。この時、LBMのフラグは全てクリ
アされる。さらに、Cntの値を、Cntの値に等しい
ラベル値のMat(Cnt)に書き込み、Cntの値を
1つカウントアツプする(ステップ2702)。FIG. 27 is a diagram showing a flowchart of the above-mentioned process 5. First, the value of the temporary label register Tml is compared with 0 (step 2701). If the value of Tml is equal to 0, the value of Cnt is used as the label value of the target area, and this Cn is stored in the T part and all registers where the flag is set.
Write the value of t. At this time, all LBM flags are cleared. Further, the value of Cnt is written to Mat(Cnt) with a label value equal to the value of Cnt, and the value of Cnt is counted up by one (step 2702).
また、Tmlの値が0に等しくない場合には、Tmlの
値をターゲットエリアのラベル値として、T部とフラグ
が立っている全てのレジスタにTmlの値を書き込む(
ステップ2703)。この時、LBMの全てのフラグは
クリアされる。次に、Tmlの値とCntの値とを比較
する(ステップ2704)。Tmlの値とCntの値と
が等しい場合には、Cntの値を、Cntの値に等しい
ラベル値のMat(Cnt)に書き込む。さらに、Cn
tの値を1つカウントアツプする(ステップ2705)
、また、Tmlの値とCntの値とが等しくない場合に
は、何も実行しない(ステップ2706)。Also, if the value of Tml is not equal to 0, the value of Tml is written to the T part and all registers where the flag is set, using the value of Tml as the label value of the target area (
Step 2703). At this time, all flags of the LBM are cleared. Next, the value of Tml and the value of Cnt are compared (step 2704). If the value of Tml and the value of Cnt are equal, the value of Cnt is written to Mat(Cnt) of the label value equal to the value of Cnt. Furthermore, Cn
Count up the value of t by 1 (step 2705)
, and if the value of Tml and the value of Cnt are not equal, nothing is executed (step 2706).
次に、ラインバッファメモリLBMやラベルマツチング
メモリLMMに使用されるラベリングメモリKLMにつ
いて説明する。今までのメモリは、1回のアドレス指定
により1個の内部レジスタにしかデータが書き込めなか
った。しかし、以下に説明するKLMを使用することに
より、複数個の内部レジスタに1度にデータを書き込む
ことが出来る。このため、本ラベリングメモリKLMは
、ラン処理用のラインレジスタ(LBM)、 ラベル統
合不要のラベルマツチングメモリ(LMM)1スキャン
用のラベル画像メモリ(LABELM)およびラベル整
合を行えるラベルマツチングメモリに使用することが出
来る。Next, the labeling memory KLM used in the line buffer memory LBM and label matching memory LMM will be explained. In conventional memories, data could only be written to one internal register with one address specification. However, by using the KLM described below, data can be written to multiple internal registers at once. For this reason, this labeling memory KLM consists of a line register (LBM) for run processing, a label matching memory (LMM) that does not require label integration, a label image memory (LABELM) for one scan, and a label matching memory that can perform label matching. It can be used.
KLMは複数のレジスタにより構成されているが、第2
8図はこれらレジスタの中の1個のレジスタのブロック
構成を示している。このブロックはKLMの構成の1単
位になっている。各レジスタ2801にはコンパレータ
2802が対になっ・て接続されている。このコンパレ
ータ28021:は、レジスタ2801からの出力デー
タDATAおよびこの出力データに比較されるべき情報
COMが与えられる。コンパレータ2802は与えられ
たデータを比較し、その比較結果をアンド回路2803
に出力する。アンド回路2803にはこの他にアドレス
デコーダ回路2804の出力が与えられている。アンド
回路2803は、コンパレータ2802またはデコーダ
回路2804のいずれか一方が信号を出力していれば、
オア回路2805に信号を出力する。KLM is composed of multiple registers, but the second
FIG. 8 shows the block configuration of one of these registers. This block is one unit of the KLM structure. Comparators 2802 are connected to each register 2801 in pairs. This comparator 28021: is given output data DATA from the register 2801 and information COM to be compared with this output data. Comparator 2802 compares the given data and sends the comparison result to AND circuit 2803.
Output to. In addition to this, the output of an address decoder circuit 2804 is given to the AND circuit 2803. AND circuit 2803 outputs a signal if either comparator 2802 or decoder circuit 2804 outputs a signal.
A signal is output to OR circuit 2805.
オア回路2805にはCPUからのライト信号WRが与
えられており、このライト信号WRに同期してレジスタ
2801にイネーブル信号が与えられる。つまり、アド
レスデコーダ回路2804によってセレクトされるか、
コンパレータ回路2802での比較結果が一致した場合
に、ライト信号WRに同期してレジスタ2801にデー
タが書き込まれる。各デコーダ回路2804へのアドレ
シングおよび各コンパレータ回路2802での比較判断
は全て同時に実行される。このため、1回のアドレシン
グまたは1回のデータの比較判断により、KLMを構成
する複数個のレジスタの内容を同時に書き替えることが
可能である。A write signal WR from the CPU is applied to the OR circuit 2805, and an enable signal is applied to the register 2801 in synchronization with the write signal WR. In other words, whether it is selected by the address decoder circuit 2804 or
If the comparison result in comparator circuit 2802 matches, data is written to register 2801 in synchronization with write signal WR. Addressing each decoder circuit 2804 and comparison judgment in each comparator circuit 2802 are all performed simultaneously. Therefore, it is possible to simultaneously rewrite the contents of a plurality of registers constituting the KLM by one addressing or one data comparison decision.
前述したランを用いたラベリング処理によって得られた
仮ラベルは、ラベル統合を行うと不連続な値になる。こ
の時のラベルマツチングメモリLMMの内容は第29図
(a)に示される。各アドレス1〜10の画素に対応し
てラベル1,3.6がデータとして記憶されている。こ
のラベル値は不連続な値になっているため、同図(b)
に示され後に詳述する特徴抽出プロセッサKLCにより
、同図(c)に示される連続な値を持つラベルに変換す
る。すなわち、KLMによって構成されたラベルマツチ
ングメモリL M Mに記憶されるラベル値は、1,2
.3と連続した値になる。The temporary labels obtained by the labeling process using the runs described above become discontinuous values when the labels are integrated. The contents of the label matching memory LMM at this time are shown in FIG. 29(a). Labels 1, 3.6 are stored as data corresponding to pixels at addresses 1 to 10. Since this label value is a discontinuous value, the same figure (b)
A feature extraction processor KLC shown in FIG. 1 and described in detail later converts the label into a label having continuous values as shown in FIG. That is, the label values stored in the label matching memory LMM configured by KLM are 1, 2.
.. It becomes a continuous value of 3.
より詳細には、ラベリングプロセッサKLCはLMMの
アドレスを発生し、該当アドレスの示すデータを取り込
む。引き続いて取り込んだデータとアドレスとを比較し
、各位が同じならば新しいデータをLMMに出力してラ
ベル値を書き替える。More specifically, the labeling processor KLC generates an address for the LMM and takes in the data indicated by the corresponding address. Subsequently, the fetched data and address are compared, and if they are the same, new data is output to the LMM and the label value is rewritten.
また、各位が異なる場合には、LMMへ次のアドレスを
出力して次のアドレスとデータとを比較する。以後、こ
の処理を繰り返して実行することにより、第29図(a
)に示される不連続なラベル値は同図(C)に示される
連続なラベル値に変換される。If each location is different, the next address is output to the LMM and the data is compared with the next address. Thereafter, by repeatedly executing this process, the image shown in FIG. 29 (a
) are converted into continuous label values shown in (C) of the same figure.
具体的には、同図(a)のアドレス1のデータ(1)は
アドレスと同じであるため、KLCは新しいデータとし
て1を出力し、アドレス1のデータと同じデータ(1)
を持つアドレス2,4,5゜7のデータを新しいデータ
1に書き替える。図示の場合には、古いデータと新しい
データとがたまたま同じ1になっているため、同図(a
)と同図(c)との該当アドレスのデータに変化は無い
。Specifically, since the data (1) at address 1 in FIG.
Rewrite the data at addresses 2, 4, 5°7 with new data 1. In the case shown in the figure, the old data and new data happen to be the same 1, so the figure (a
) and (c) of the same figure, there is no change in the data at the corresponding address.
次に、アドレス2のデータ(1)とアドレスとを比較す
る。アドレスとデータとは異なるため、次のアドレス3
を発生する。そして、アドレス3のデータ(3)とアド
レスとを比較する。アドレスとデータとは同じであるた
め、新しいデータとして2を出力する。LMMはKLM
によって構成されていため、アドレス3のデータと同じ
データ(3)を持つアドレス9,10のデータは同図(
C)に示されるように全て同時に2に書き替えられる。Next, data (1) at address 2 is compared with the address. Since the address and data are different, the next address 3
occurs. Then, data (3) at address 3 is compared with the address. Since the address and data are the same, 2 is output as new data. LMM is KLM
Therefore, the data at addresses 9 and 10 that have the same data (3) as the data at address 3 are shown in the same figure (
As shown in C), all are rewritten to 2 at the same time.
次に、KLCは新たなアドレス4を発生する。アドレス
とデータとは異なるためにさらに次にアドレス5を発生
し、以後、上記と同様な処理を繰り返す。この結果、不
連続値は連続値に変換される。The KLC then generates a new address 4. Since the address and data are different, address 5 is generated next, and thereafter, the same process as above is repeated. As a result, discrete values are converted to continuous values.
第30図はこの特徴抽出プロセッサK L Cの内部構
成を示すブロック図である。このKLCを使用すること
により、1次ラベリングによって発生する仮ラベルの前
処理が行われる。また、2次ラベリングの時、ラベリン
グと同時に、同一ラベル領域の面積の演算、同一ラベル
領域のX方向アドレスの合計の演算および同一ラベル領
域のY方向アドレスの合計の演算がこのKLCによって
実行される。FIG. 30 is a block diagram showing the internal configuration of this feature extraction processor KLC. By using this KLC, preprocessing of temporary labels generated by primary labeling is performed. In addition, during secondary labeling, at the same time as labeling, calculation of the area of the same label area, calculation of the sum of the X-direction addresses of the same label area, and calculation of the sum of the Y-direction addresses of the same label area are executed by this KLC. .
KLCは、+1加算器3001と、2つの加算器300
2.3003と、比較器3004および2つのカウンタ
3005,3006とから構成されている。+1加算器
3001は、同一ラベル値を持つ画素入力が有った場合
にそのカウント数を1つづつカウントアツプし、同一ラ
ベル領域の面積を演算してこれを5izeとして出力す
る。加算器3002.3003にはX方向アドレス値。KLC has a +1 adder 3001 and two adders 300
2.3003, a comparator 3004, and two counters 3005 and 3006. The +1 adder 3001 increments the count by one when there is a pixel input having the same label value, calculates the area of the same label area, and outputs it as 5ize. Adders 3002 and 3003 contain X-direction address values.
Y方向アドレス値が入力されている。そして、同一ラベ
ル値の画素入力が有った場合に、各方向ごとにアドレス
値を加算していき、各アドレス方向ごとに同一ラベル領
域のアドレス値の合計を演算する。各合計値はX A
DDRおよびY ADDRとして出力される。各方向
のアドレスの合計値を同一ラベル領域の面積で割ること
により、各方向の重心を求めることが出来る。そして、
各同一ラベル領域の重心を求め、地平線よりも上に重心
がある領域は、道路候補領域の抽出に有効な領域ではな
いものとして除去する。A Y-direction address value has been input. Then, when there is a pixel input with the same label value, the address values are added in each direction, and the sum of the address values of the same label area is calculated for each address direction. Each total value is X A
Output as DDR and Y ADDR. By dividing the total value of addresses in each direction by the area of the same label area, the center of gravity in each direction can be determined. and,
The center of gravity of each identically labeled area is determined, and areas whose center of gravity is above the horizon are removed as not being effective for extracting road candidate areas.
比較器3004およびカウンタ3005゜3006は、
1次ラベリングの時に発生する仮ラベルの前処理、つま
り、不連続なラベル値を連続なラベル値に変換する処理
に使用される。カウンタ3005,3006にはクロッ
ク信号CLKが入力され、カウンタ3005の出力はラ
ベルマツチングメモリLMMへ出力されるマツチングア
ドレスMAT ADDRになる。このアドレスは比較
器3004にも同時に与えられる。また、カウンタ30
06の出力はラベルマツチングメモリしMMへ出力され
るデータMAT DATAになる。The comparator 3004 and counters 3005 and 3006 are
It is used for preprocessing of temporary labels that occur during primary labeling, that is, for converting discontinuous label values into continuous label values. A clock signal CLK is input to counters 3005 and 3006, and the output of counter 3005 becomes a matching address MAT ADDR that is output to label matching memory LMM. This address is also given to comparator 3004 at the same time. Also, counter 30
The output of 06 becomes data MAT DATA which is sent to the label matching memory and output to MM.
比較器3004は与えられたアドレスおよびデータを前
述のようにして比較し、アドレスとデータの6値が一致
する場合にはカウンタ3006に信号を出力する。カウ
ンタ3006はこの信号を入力した場合にはMat
DATAに現在のカウンタの値を出力し、値を1つカウ
ントアツプする。The comparator 3004 compares the given address and data as described above, and outputs a signal to the counter 3006 if the six values of the address and data match. When the counter 3006 receives this signal, the Mat
Outputs the current counter value to DATA and increments the value by one.
以上説明してきたラベリング処理の処理時間は、各ラン
に沿って行われる2スキャンのラスク走査時間と、ラベ
ル統合時間との和の時間を必要とした。しかし、第16
図に示されるラベルメモリLABELM1606に前述
したラベリングメモリKLMを使用して構成することに
より、1スキャンでラベリング処理を実行することが出
来る。すなわち、第31図に示されるように、多値の入
力画像3101が取り込まれた場合に、ラベリングプロ
セッサKLP3102はラインレジスタ3103および
ラベルマツチングメモリ3104を使用して前述と同様
にラベリング処理を実行する。そして、このラベリング
によって得られた各画素のラベル値は、各ランの最終の
画素の走査時点でラベル画像メモリ3105にそのまま
書き込まれる。なお、ラベル統合は行われないため、各
ラベルの値は不連続な値のままに記憶される。The processing time of the labeling process described above required the sum of the rask scanning time of two scans performed along each run and the label integration time. However, the 16th
By configuring the label memory LABELM 1606 shown in the figure using the labeling memory KLM described above, labeling processing can be executed in one scan. That is, as shown in FIG. 31, when a multivalued input image 3101 is captured, the labeling processor KLP 3102 uses the line register 3103 and the label matching memory 3104 to execute the labeling process in the same manner as described above. . The label value of each pixel obtained by this labeling is written as is into the label image memory 3105 at the time of scanning the last pixel of each run. Note that since label integration is not performed, the values of each label are stored as discontinuous values.
ラベリングメモリKLMは、前述したように、各内部レ
ジスタにコンパレータが対になって接続されており、コ
ンパレータでの比較結果が一致したレジスタおよびアド
レスセレクトされたレジスタに、−度に新しいデータが
書き込まれるものである。このKLMの特徴によって1
スキャンラベリングが可能になっている。また、ラベリ
ングプロセッサKLPは、本方式のアルゴリズムがハー
ドウェア化されたものであり、高速ラベリングを可能に
するものである。As mentioned above, in the labeling memory KLM, a comparator is connected to each internal register in pairs, and new data is written to the register whose comparison result by the comparator matches and the register whose address has been selected at - degrees. It is something. With this KLM feature 1
Scan labeling is now possible. Furthermore, the labeling processor KLP is a hardware implementation of the algorithm of this method, and enables high-speed labeling.
この1スキャンラベリング方式により、ラベリング処理
時間を今までの1/2以下に短縮することが可能になる
。例えば、装置が8 M Hzのクロック信号で動作し
ている場合には、今までのラベリング処理時間には、ウ
ィンドウを2スキャンするための66m5ecと、ラベ
ル統合に必要とされる時間とを必要とした。しかし、こ
の1スキャン方式によれば、1/2以下の33m5ec
でラベリング処理を行うことが出来る。This one-scan labeling method makes it possible to reduce the labeling processing time to less than half of the previous one. For example, if the device is operating with an 8 MHz clock signal, the traditional labeling processing time requires 66 m5ec for two window scans, plus the time required for label integration. did. However, according to this one scan method, 33m5ec, which is less than 1/2
The labeling process can be performed with .
また、通常の画素の走査は入力画像の画面左上から右下
に行うが、道路領域を抽出する画像処理においては、目
的とする画像は画像の下方に位置する。従って、目的と
する画像を走査する際に仮ラベルを一記憶するメモリが
オーバーフローする事態が発生する可能性がある。この
ため、走査を画面の右下から左上に行い、目的とする画
像を初めに走査することにより、目的とする画像を常に
取得できるようにする。つまり、目的とする画像を最初
に取得すれば、メモリのオーバーフローが発生してもそ
のオーバーフローの時の画像走査は不要な画像部分につ
いての走査になり、目的とする画像を常に取得すること
ができる。Further, although normal pixel scanning is performed from the upper left to the lower right of the screen of the input image, in image processing for extracting a road area, the target image is located at the bottom of the image. Therefore, when scanning a target image, there is a possibility that the memory that stores temporary labels will overflow. Therefore, by scanning from the lower right to the upper left of the screen and scanning the target image first, the target image can always be obtained. In other words, if you acquire the target image first, even if memory overflows, the image scan at the time of the overflow will be a scan of unnecessary image parts, and you can always acquire the target image. .
次に、画像分割されて得られた「複数の領域の併合手法
」について説明する。Next, a "method for merging multiple regions" obtained by dividing an image will be described.
「テンプレート画像を用いた繰返しきい値処理による走
行コースの抽出手法」により道路候補領域が求められ、
「明るさの違いに注目した走行コース上の影や高輝度部
分の抽出手段」により低輝度領域である影や高輝度領域
が求められた。この道路候補領域を基準にし、道路候補
領域と強く繋がっている低輝度領域や高輝度領域を道路
候補領域に併合し、一つの領域として扱い、これを走行
コースとみなす。このためには、各領域に隣接している
共通境界共と各領域の周囲長とを求め、繋がっている各
領域どうしの関係を記述する。この各領域どうしの関係
の記述により併合関係が表され、従来のようにラベルの
付は替え操作を行わなくても、領域と領域の併合処理を
したのと同じ結果が得られる。なお、共通境界共は各領
域に隣接している画素の辺の長さに基づいて求まり、周
囲長は各領域の最外部の画素の辺の長さに基づいて求ま
る。Road candidate areas are determined by the “driving course extraction method using iterative threshold processing using template images”.
Shadows and high-brightness areas, which are low-brightness areas, were found using ``a method for extracting shadows and high-brightness areas on a driving course that focuses on differences in brightness.'' Using this road candidate area as a reference, low-luminance areas and high-luminance areas that are strongly connected to the road candidate area are merged into the road candidate area, treated as one area, and regarded as a driving course. To do this, the common boundary adjacent to each area and the perimeter of each area are determined, and the relationship between the connected areas is described. The merging relationship is expressed by the description of the relationship between each region, and the same result as merging regions can be obtained without changing labels as in the conventional method. Note that the common boundary is determined based on the length of the side of the pixels adjacent to each region, and the perimeter is determined based on the length of the side of the outermost pixel of each region.
以下に本手法のアルゴリズムを示す。本手法は二通りあ
り、第1に、逆り字のマスクを走査させる逆り字マスク
走査式手法があり、この手法は簡単なアルゴリズムでハ
ードウェア化に適している。The algorithm of this method is shown below. There are two methods for this method. Firstly, there is an inverted character mask scanning method in which a mask of inverted characters is scanned. This method is a simple algorithm and is suitable for hardware implementation.
第2に、領域の境界を局所的に探査する領域境界探査式
手法かあり、この手法は必要な領域の境界のみを探査す
るため、少ないメモリで処理できて有効である。Secondly, there is a region boundary search method that locally searches the boundaries of a region, and this method is effective because it searches only the boundaries of a necessary region, so it can be processed with a small amount of memory.
第1の手法である逆り字マスク走査式手法は、第32図
に示される逆り字マスクをラベル画像の左から右へ、上
から下へ走査することにより実行される。図示のマスク
に現れるX画素は着目する画素であり、a画素は着目画
素Xの上に位置する画素、b画素は着目画素Xの左隣に
位置する画素である。例えば、第33図に示される画素
領域を想定する。同図に示される口は1つの画素を表し
ており、この口の中の数値はその画素のラベル値を表し
ている。本例の場合には、ラベル値1の領域とラベル値
4の領域とが隣接している。なお、図には示されていな
いが、背景領域はラベル値が0になっている。The first method, the reverse character mask scanning method, is executed by scanning the reverse character mask shown in FIG. 32 from left to right and from top to bottom of the label image. The X pixel appearing in the illustrated mask is the pixel of interest, the a pixel is a pixel located above the pixel of interest X, and the b pixel is a pixel located to the left of the pixel of interest X. For example, assume a pixel area shown in FIG. 33. The mouth shown in the figure represents one pixel, and the numerical value inside the mouth represents the label value of that pixel. In this example, the area with label value 1 and the area with label value 4 are adjacent to each other. Although not shown in the figure, the label value of the background area is 0.
各領域の周囲長obは、逆り字マスクを各領域の行に沿
って、つまり、ランに沿って走査することにより求まる
。具体的には、ラベル値1の領域の周囲長oblは次の
ように求まる。まず、逆り字マスクのX画素を最上段の
ランの左端に位置する画素に合わせる。この場合、a画
素およびb画素は背景領域にあり、ラベル値は0になっ
ているため、この画素の2辺はラベル値1の領域の周囲
に位置していることが分かる。従って、周囲長oblを
カウントするカウンタに2を加える。次に、逆り字マス
クを右に走査し、X画素を右隣の画素に合わせる。この
場合、a画素は背景領域にあり、b画素は前回マスクを
合わせたラベル値1の本領域内の画素にある。従って、
この画素の1辺がラベル値1の本領域の周囲に位置して
いることが分かり、カウンタにさらに1を加える。この
ように逆り字マスクをランに沿ってラベル値1の領域に
ついて走査することにより、周囲長oblは18になる
。なお、周囲長obの単位は画素の辺の数である。The perimeter ob of each region is determined by scanning the inverted mask along the rows of each region, that is, along the runs. Specifically, the perimeter obl of the area with the label value 1 is determined as follows. First, the X pixel of the inverted character mask is aligned with the pixel located at the left end of the top run. In this case, since pixel a and pixel b are in the background area and have a label value of 0, it can be seen that the two sides of this pixel are located around the area with the label value of 1. Therefore, 2 is added to the counter that counts the perimeter obl. Next, the reverse character mask is scanned to the right, and the X pixel is aligned with the pixel on the right. In this case, the a pixel is in the background area, and the b pixel is in the main area with a label value of 1, which is the sum of the previous mask. Therefore,
It is found that one side of this pixel is located around the main area with the label value 1, and 1 is added to the counter. By scanning the inverted character mask along the run for the area with the label value 1 in this manner, the perimeter obl becomes 18. Note that the unit of the perimeter ob is the number of sides of a pixel.
ラベル値4の領域の周囲長ob4も上記の周囲長obl
と同様にして求められ、その値は2oになる。The perimeter ob4 of the area with label value 4 is also the perimeter obl above.
It is obtained in the same way as , and the value is 2o.
また、ラベル値1の領域とラベル値4の領域との共通境
界共cbは次のようにして求めることが出来る。この共
通境界共cbは、ラベル値1の領域から見たラベル値4
の領域との共通境界共cb14と、ラベル値4の領域か
ら見たラベル値1の領域との共通境界共cb41とで異
なる場合がある。つまり、マスクか逆り字の形状をして
おり、各画素の2近傍の画素しか考慮しないために共通
境界共に差が生じるのであるが、複数の領域の併合処理
に際しては同等問題とならない。なお、走査するマスク
を着目画素の4近傍を見る十字形状にすれば、共通境界
共に差がでることはない。Further, the common boundary cb between the area with label value 1 and the area with label value 4 can be found as follows. This common boundary cb is the label value 4 seen from the area with label value 1.
The common boundary cb14 with the area of label value 4 may be different from the common boundary cb41 with the area of label value 1 viewed from the area of label value 4. In other words, since it has the shape of a mask or an inverted character, and only two neighboring pixels of each pixel are considered, a difference occurs in the common boundary, but this does not pose an equivalent problem when merging multiple regions. Note that if the mask to be scanned is made into a cross shape that looks at four neighborhoods of the pixel of interest, there will be no difference between the common boundaries.
ラベル値1の領域から見たラベル値4との共通境界共c
b14は、周囲長oblを求める際のマスク走査によっ
て求められる。この共通境界共cb14は0になる。す
なわち、ラベル値1の領域の各ランについて逆り字マス
クを走査しても、a画素およびb画素にはラベル値4の
画素が現れないからである。The common boundary with label value 4 seen from the area of label value 1 c
b14 is determined by mask scanning when determining the perimeter obl. This common boundary cb14 becomes 0. That is, even if the inverted character mask is scanned for each run in the area with the label value 1, the pixels with the label value 4 do not appear in the a and b pixels.
ラベル値4の領域から見たラベル値1の領域との共通境
界共cb41は、周囲長ob4を求める際のマスク走査
によって求めることが出来る。この共通境界共cb41
は3になる。すなわち、ラベル値4の領域の2段目およ
び3段目のランの先頭画素にマスクが位置する場合、b
画素にはラベル値1の画素が現れる。このため、3段目
までのランについてのマスク走査により、共通境界共c
b41をカウントするカウンタの値は2になる。The common boundary cb41 between the area of label value 1 and the area of label value 1 viewed from the area of label value 4 can be found by mask scanning when calculating the perimeter ob4. This common boundary cb41
becomes 3. In other words, if the mask is located at the first pixel of the second and third runs in the area with label value 4, b
A pixel with a label value of 1 appears in the pixel. Therefore, by mask scanning for the runs up to the third stage, the common boundary is c
The value of the counter that counts b41 becomes 2.
さらに、4段目のランの先頭位置にマスクが位置する際
には、マスクのa画素にはラベル値1の画素が現れる。Further, when the mask is located at the beginning of the fourth run, a pixel with a label value of 1 appears at pixel a of the mask.
このため、カウンタに1が加えられてカウンタの積算値
は3になり、共通境界共cb41は3になる。なお、共
通境界共cbの単位は画素の辺の数である。Therefore, 1 is added to the counter, the integrated value of the counter becomes 3, and the common boundary cb41 becomes 3. Note that the unit of the common boundary cb is the number of sides of a pixel.
次に、このように求めた各領域間の共通境界共および各
領域の周囲長は、第34図に示されるラベル間境界長マ
トリクスにその値が記憶される。Next, the values of the common boundary between each area and the perimeter of each area determined in this way are stored in an inter-label boundary length matrix shown in FIG. 34.
同マトリクスの各列に付された数字0,1,2゜・・・
、j、・・・klおよび各行に付された数字0,1゜2
、・・・、i、・・・Ωはラベル値を示す。各列および
各行の数値によって指定される場所に記憶される数値m
ijは、ラベル値iの領域から見たラベル値jの領域と
の共通境界共である。また、k+]番目の列に記憶され
る数値2は、ラベル値lの領域の周囲長である。The numbers 0, 1, 2°, etc. attached to each column of the same matrix
, j, ... kl and the numbers 0, 1゜2 attached to each line
, . . . , i, . . . Ω indicate label values. A number m stored in the location specified by the number in each column and row
ij is the common boundary between the area of label value j and the area of label value j as seen from the area of label value i. Further, the numerical value 2 stored in the k+]th column is the perimeter of the area of the label value l.
第33図に示された画素領域を例とすると、ラベル値1
の領域から見たラベル値4の領域との共通境界共cb1
4の値は0であるため、同マトリクスの1行4列に位置
するメモリには0が記憶される。また、ラベル値4の領
域から見たラベル・値1の領域との共通境界共cb41
の値は3であるため、同マトリクスの4行1列に位置す
るメモリには3が記憶される。Taking the pixel area shown in FIG. 33 as an example, the label value 1
The common boundary with the area with label value 4 seen from the area is cb1
Since the value of 4 is 0, 0 is stored in the memory located in the 1st row and 4th column of the same matrix. Also, the common boundary with the area with label/value 1 seen from the area with label value 4 is cb41
Since the value of is 3, 3 is stored in the memory located in the 4th row and 1st column of the same matrix.
各領域の周囲長および各領域間の共通境界共を求めてマ
トリクスを作成した後、各領域間の接続度を計算する。After creating a matrix by finding the perimeter of each region and the common boundary between each region, the degree of connectivity between each region is calculated.
この接続度は共通境界共と周囲長とに基づく次式により
求まる。This degree of connectivity is determined by the following equation based on the common boundary and the perimeter.
接続度−X/m i n (A、 B)ここで、Aは
ラベル値iの領域の周囲長、Bはラベル値jの領域の周
囲長であり、m1n(A。Connectivity - X/min (A, B) where A is the perimeter of the region with label value i, B is the perimeter of the region with label value j, and m1n(A.
B)はA、Bの各数値の内の小さい方の数値を表す。ま
た、Xは次式で表される各領域間の共通境界共の平均値
である。B) represents the smaller of A and B. Moreover, X is the average value of the common boundaries between each region expressed by the following equation.
X−(X1+X2)/2
Xlはラベル値iの領域から見たラベル値jの領域との
共通境界共、X2はラベル値jの領域から見たラベル値
iの領域との共通境界共である。X-(X1+X2)/2 Xl is the common boundary with the area of label value j seen from the area of label value i, and X2 is the common boundary with the area of label value i seen from the area of label value j. .
上記のXを示す式は、XlおよびX2共に0でない(X
i≠0.X2≠0)場合に有効である。In the above formula showing X, both Xl and X2 are not 0 (X
i≠0. This is valid when X2≠0).
X2がO(X2−0)の場合にはXは次式に示される。When X2 is O(X2-0), X is represented by the following formula.
−X 1
Xlが0 (Xi−0)の場合にはXは次式に示される
。-X 1 When Xl is 0 (Xi-0), X is represented by the following formula.
−X2
計算した接続度が所定のしきい値以上であれば、ラベル
値iの領域とラベル値jの領域との繋がりは強く、各領
域は併合すべき関係にある。また、接続度が所定のしき
い値以下であれば、ラベル値iの領域とラベル値jの領
域との繋がりは薄く、各領域は併合すべき関係にはない
。この併合関係は、第35図に示される特徴量リストの
接続ラベル欄に記述される。-X2 If the calculated degree of connectivity is greater than or equal to a predetermined threshold, the connection between the region with label value i and the region with label value j is strong, and the regions should be merged. Furthermore, if the degree of connectivity is below a predetermined threshold, the connection between the region with label value i and the region with label value j is weak, and the regions are not in a relationship that should be merged. This merging relationship is described in the connection label column of the feature list shown in FIG. 35.
同リストのラベルNo、はラベル値であり、面積1重心
はそのラベル値の領域の面積および重心である。この面
積および重心は前述のラベリング処理の時に得られる。The label No. in the same list is a label value, and the area 1 centroid is the area and centroid of the area of that label value. This area and center of gravity are obtained during the labeling process described above.
外接長方形とは、そのラベル値の領域内の全ての画素を
囲む長方形である。A circumscribing rectangle is a rectangle that encloses all pixels within the region of the label value.
外接長方形は、辺と辺との交点である4つの頂点の内、
左上の頂点の座標tL (x、y)と、右下の頂点の座
標bR(x、y)とによって特定される。各座標は上述
の境界の探査過程処理の時に求められる。また、接続ラ
ベル欄に記載されたラベルNo、は、そのラベル値の領
域と併合すべき関係にある領域のラベル値を示している
。この欄に記載された領域とさらに併合すべき領域があ
る場合には、図示のように、接続ラベルがさらにポイン
タにより繋げられる。A circumscribed rectangle has four vertices that are intersections between sides,
It is specified by the coordinates tL (x, y) of the top left vertex and the coordinates bR (x, y) of the bottom right vertex. Each coordinate is determined during the boundary exploration process described above. Further, the label No. written in the connection label column indicates the label value of the area that should be merged with the area of that label value. If there is an area to be merged with the area described in this column, connection labels are further connected by a pointer as shown in the figure.
また、同リストに記述された各特徴量は第36図に示さ
れる各領域のものである。各領域にはラベル値IIl〜
p4が付され、また、01〜G4は各領域の重心位置を
示している。また、各領域には外接長方形が描かれてい
る。この長方形の上の1辺と領域との接点は座標s t
(x、 y)として表され、領域開始点tL (x
、y)から水平操作することにより求まる。座標stは
後述する手法において利用される。Further, each feature amount described in the same list is for each area shown in FIG. 36. Each area has a label value IIl~
p4 is attached, and 01 to G4 indicate the center of gravity of each region. Also, a circumscribed rectangle is drawn in each area. The point of contact between the upper side of this rectangle and the area is the coordinate s t
(x, y), and the region starting point tL (x
, y) by horizontal operation. The coordinate st is used in the method described later.
ラベル値p1の領域とラベル値112の領域とは併合す
べき関係にあるため、特徴量リストのラベルN o 、
ρ1の行の接続ラベル欄にはラベル値p2が記述される
。さらに、ラベル値g1の領域は、ラベル値Ω3の領域
およびラベル値g4の領域とも併合すべき関係にあるた
め、ラベル値g3およびg4の接続ラベルがポインタに
より繋げられる。また、ラベルNo、f12〜Ω4の各
行の接続ラベル欄にも同様な考え方で各領域間の接続関
係が記述される。Since the region with the label value p1 and the region with the label value 112 are in a relationship that should be merged, the label No. of the feature value list,
A label value p2 is written in the connection label field of the row of ρ1. Further, since the area with the label value g1 is in a relationship to be merged with the area with the label value Ω3 and the area with the label value g4, the connected labels of the label values g3 and g4 are connected by a pointer. Furthermore, the connection relationships between the areas are described in the same way in the connection label columns of the rows of label No. f12 to Ω4.
次に、領域境界探査式手法について説明する。Next, the area boundary exploration method will be explained.
まず、対象とする領域に外接する長方形を描き、この外
接長方形と領域とが接する座標5t(x。First, draw a rectangle that circumscribes the target area, and the coordinates 5t (x) where this circumscribed rectangle and the area touch.
y)に位置する探索開始画素を求める。そして、この探
索開始画素の8近傍に位置する画素について調査する。Find the search start pixel located at y). Then, eight pixels located in the vicinity of this search start pixel are investigated.
8近傍に位置する各参照画素には、第37図に示される
ように位置No、を付す。つまり、着目画素の上に位置
するNo、を0とし、時計回りに順に番号を付す。探索
開始画素の次に探索すべき画素の座標は、第38図(a
)、(b)に表された画素参照テーブルを用いて決定す
る。8. Each reference pixel located in the vicinity is given a position number as shown in FIG. That is, the number located above the pixel of interest is set to 0, and the numbers are assigned in clockwise order. The coordinates of the pixel to be searched next to the search start pixel are shown in Figure 38 (a
), (b) using the pixel reference table.
同図(a)に示されるテーブルは画素の探索を時計回り
(右回り)に実行する際に参照されるテーブルであり、
同図(b)に示されるテーブルは画素の探索を反時計回
り(左回り)に実行する際に参照されるテーブルである
。テーブルの括弧()に挾まれたO〜7の数値は、第3
7図の参照画素の位置No、に対応するものである。The table shown in (a) of the same figure is a table that is referred to when performing a pixel search clockwise (clockwise).
The table shown in FIG. 4B is a table that is referred to when performing a pixel search counterclockwise (counterclockwise). The numbers from O to 7 in parentheses () in the table are the third
This corresponds to the position No. of the reference pixel in FIG.
次に探査すべき画素は、前回の画素位置に対する今回の
画素位置に対応する参照画素位置No。The next pixel to be searched is the reference pixel position No. corresponding to the current pixel position relative to the previous pixel position.
を求め、この位置No、に一致するテーブルの行No、
の列No、を参照することにより決定される。画素参照
テーブルを用いた探索画素の決定方式について以下に具
体的に説明する。画素領域の境界部が第39図のように
形成されている場合を想定する。同図の斜線が付された
口はラベル値が0ではない画素を示している。前回探索
した画素を記号△で示し、現在探索する画素を記号Oで
示し、次に探索すべき画素を記号◎で示す。Find the row number of the table that matches this position number,
It is determined by referring to the column No. A method for determining search pixels using a pixel reference table will be specifically described below. Assume that the boundary of the pixel area is formed as shown in FIG. 39. The hatched areas in the figure indicate pixels whose label values are not 0. The previously searched pixel is indicated by the symbol △, the currently searched pixel is indicated by the symbol O, and the next pixel to be searched is indicated by the symbol ◎.
前回の画素位置△に対する今回の画素位置Oは、第37
図の参照画素位置No、では1に対応する。The current pixel position O with respect to the previous pixel position △ is the 37th pixel position O.
The reference pixel position No. in the figure corresponds to 1.
領域の境界付近の画素を右回りに探索することにすると
、画素参照テーブルは第38図(a)のテーブルを参照
することになる。参照画素位置No。If pixels near the boundary of the area are searched clockwise, the pixel reference table will refer to the table in FIG. 38(a). Reference pixel position No.
は1であるため、行No、が1の列No、 (7゜0
.1.2,3,4,5.61を参照する。なお、行No
、は最上段の行がOであり、順に1〜7となっている。is 1, so the column number where the row number is 1, (7°0
.. See 1.2, 3, 4, 5.61. In addition, line No.
, the top row is O, and the numbers 1 to 7 are in order.
また、列No、には参照すべき画素のNo、が全で記さ
れており、画素の8近傍の参照をこの順番に従って行う
ことにより、通常のアドレス計算におけるモジュロ計算
を避けることが出来る。Further, column No. indicates all the numbers of the pixels to be referenced, and by referring to the eight neighboring pixels of the pixel in this order, it is possible to avoid modulo calculation in normal address calculation.
すなわち、列No、は7から始まっているため、次に探
査すべき画素は現在位置○の斜め左上に位置する画素◎
になる。画素◎は背景領域であり、ラベル値は0である
ため、列No、に従って次の画素を探索する。つまり、
次の参照画素位置No。In other words, since the column number starts from 7, the next pixel to be searched is the pixel located diagonally to the upper left of the current position ◎
become. Since the pixel ◎ is in the background area and the label value is 0, the next pixel is searched according to the column number. In other words,
Next reference pixel position number.
は0であるため、現在位置Oの上に位置する画素を探索
する。この画素も背景領域にあるため、さらに、列No
、に従って参照画素位置No、が1の画素を探索する。Since is 0, a pixel located above the current position O is searched. Since this pixel is also in the background area, the column No.
, a pixel whose reference pixel position No. is 1 is searched for.
この画素はラベル値を持っており、0ではないため、次
に探索する画素の基準をこの位置No、1の画素におき
、この8近傍について上記と同様に探索する。そして、
領域の境界に沿った各画素について上記の処理を行い、
探索開始画素に戻るまで同様の処理を各画素について繰
り返す。Since this pixel has a label value and is not 0, the reference for the next pixel to be searched is set to the pixel at this position No. 1, and the eight neighboring pixels are searched in the same manner as above. and,
Perform the above processing for each pixel along the region boundary,
Similar processing is repeated for each pixel until returning to the search start pixel.
また、この探索の処理において、次の規則に従った処理
を行うことにより、ラベル値iの自身の領域の周囲長o
biおよびラベル値jの隣接する領域との共通境界長c
bljを求めることが出来る。In addition, in this search process, by performing processing according to the following rules, the perimeter o of the own area of label value i
common boundary length c between bi and adjacent areas of label value j
blj can be found.
つまり、現在位置の上下左右の4近傍に隣接する領域に
ラベル値jが存在すれば、共通境界長cb1jをカウン
トするカウンタに1を加算する。同時に、自己の周囲長
obiをカウントするカウンタに1を加算する。また、
現在位置の4近傍に自身のラベル値iと同一のラベル値
の画素が存在しない場合には、自己の周囲長のカウンタ
に1を加算する。In other words, if the label value j exists in four neighboring areas on the upper, lower, left, and right sides of the current position, 1 is added to the counter that counts the common boundary length cb1j. At the same time, 1 is added to a counter that counts its own perimeter obi. Also,
If there is no pixel with the same label value as its own label value i in the four vicinity of the current position, 1 is added to its own perimeter counter.
次に、求めた周囲長および共通境界長に基づき、逆り字
マスク操作式手法における計算と同様にして各領域間の
接続度を求める。これと同時に前述と同様にして特徴量
リストを作成する。この特徴量リストの接続ラベルには
各領域間の接続関係が記述され、複数の領域の併合関係
が判断される。Next, based on the obtained perimeter length and common boundary length, the degree of connectivity between each region is obtained in the same way as calculation in the inverted mask operation method. At the same time, a feature list is created in the same manner as described above. The connection label of this feature list describes the connection relationship between each area, and the merging relationship of multiple areas is determined.
つまり、本手法によっても、各領域のラベルの付は替え
操作を行わなくとも各領域の併合関係が判明する。なお
、上記の境界探査は右回りに行ったが、境界探査を左回
りに実行する場合には、第38図(b)に示される左回
り用の画素参照テーブルを用いることにより、右回りと
同様にして処理を行うことが可能である。In other words, even with this method, the merging relationship of each area can be determined without changing the label of each area. Although the above boundary search was performed clockwise, if the boundary search is to be performed counterclockwise, it can be performed clockwise or counterclockwise by using the counterclockwise pixel reference table shown in FIG. 38(b). Processing can be performed in a similar manner.
このように画素参照テーブルを用いることにより、速い
境界探査が可能になる。つまり、探索の基準となる画素
の8近傍の全ての画素について調査する必要は無い。ま
た、領域の境界部付近の画素のみを探索すれば良く、領
域内の全ての画素について探索する必要が無くなる。従
って、処理時間は短縮される。Using a pixel lookup table in this way allows for fast boundary exploration. In other words, it is not necessary to investigate all eight pixels in the vicinity of the pixel serving as the search reference. Further, it is only necessary to search for pixels near the boundary of the area, and there is no need to search for all pixels within the area. Therefore, processing time is reduced.
以上説明した各手法によれば、従来のようにラベルの付
は替え走査を行わずに各分割領域間の併合関係を判断す
ることが出来る。つまり、「テンプレート画像を用いた
繰返しきい値処理による走行コースの抽出手法」で得ら
れた道路候補領域と、「明るさの違いに注目した走行コ
ース上の影や高輝度部分の抽出手段」で得られた低輝度
および高輝度領域とが併合され、現実に即した走行コー
ス領域を得ることが出来る。According to each of the methods described above, it is possible to determine the merging relationship between the divided regions without changing the labeling and scanning as in the conventional method. In other words, the road candidate areas obtained by the ``driving course extraction method using iterative threshold processing using template images'' and the ``extraction method of shadows and high-brightness parts on the driving course that focuses on differences in brightness'' are used. The obtained low-luminance and high-luminance areas are combined to obtain a realistic driving course area.
次に、「走行可能範囲を求める手段」について説明する
。本手段は、「テンプレート画像を用いた繰返しきい値
処理による走行コースの抽出手法」、「繰返しきい値処
理における特徴量ヒストグラムの形状に基づくしきい値
設定手段」、「明るさの違いに注目した走行コース上の
影や高輝度部分の抽出手段」によって求められた走行コ
ース画像から最終的な走行可能範囲、すなわち、道路端
座標を求めるものである。Next, the "means for determining the travelable range" will be explained. This method consists of ``a driving course extraction method using iterative threshold processing using a template image,'' ``a threshold setting method based on the shape of the feature histogram in iterative threshold processing,'' and ``a method that focuses on differences in brightness. The final drivable range, that is, the road edge coordinates, is determined from the driving course image obtained by the ``extraction means for extracting shadows and high-luminance portions on the driving course''.
第40図は本手法による走行コース認識システムの処理
全体の流れを示すフローチャートである。FIG. 40 is a flowchart showing the overall processing flow of the driving course recognition system according to the present method.
まず、カラーカメラ入力装置によって走行コースの画像
情報を取り込み、取り込まれたR、G、B画像を前述の
ようにして明度I、彩度Sの各画像に変換する。変換さ
れた各画像に基づき、カラー処理装置において明度Iを
特徴量とするヒストグラムおよび彩度Sを特徴量とする
ヒストグラムを前述のように作成する(ステップ400
1)。次に、作成した各ヒストグラムに基づき、「テン
プレート画像を用いた繰返しきい値処理による走行コー
スの抽出手法」により道路候補領域を抽出し、小領域を
除去する(ステップ4002)。First, image information of a driving course is captured by a color camera input device, and the captured R, G, and B images are converted into images of brightness I and saturation S as described above. Based on each converted image, a histogram having lightness I as a feature and a histogram having saturation S as a feature are created in the color processing device as described above (step 400
1). Next, based on each of the created histograms, road candidate regions are extracted using a "driving course extraction method based on iterative threshold processing using a template image" and small regions are removed (step 4002).
次に、本手法により、抽出した道路候補領域の゛道路端
の点列を評価する(ステップ4003)。Next, using this method, the point sequence of the road edge of the extracted road candidate area is evaluated (step 4003).
そして、この道路端の点列の評価結果に基づき、抽出し
た道路候補領域は単調路か否がを判断する(ステップ4
004)。道路らしい単調路である場合には、さらに、
求まった複数の各点列間の関係を比較し、評価する(ス
テップ4005)。そして、この評価結果を最終的に出
力する(ステップ4006)。この後、今回入力された
画像に対する点列は求められたものとし、次の画像に対
する処理を実行する。Then, based on the evaluation result of this road edge point sequence, it is determined whether the extracted road candidate area is a monotonous road or not (step 4).
004). In addition, if the road is monotonous like a road,
The relationships between the obtained plurality of point sequences are compared and evaluated (step 4005). Then, this evaluation result is finally output (step 4006). After this, it is assumed that the point sequence for the currently input image has been obtained, and processing is executed for the next image.
また、ステップ4004での判断結果が道路らしさが低
くて単調路でない場合には、「明るさの違いに注目した
走行コース上の影や高輝度部分の抽出手段」により、低
輝度領域が有ればこれを抽出する(ステップ4007)
。そして、求めた低輝度領域と道路候補領域とを併合し
、本手法により道路端の点列を評価する(ステップ40
08)。In addition, if the judgment result in step 4004 is that the road is not a monotonous road with low road-likeness, the "extraction means for extracting shadows and high-brightness parts on the driving course that focuses on differences in brightness" is used to detect low-brightness areas. Extract this (step 4007)
. Then, the obtained low-luminance area and the road candidate area are merged, and the road edge point sequence is evaluated using this method (step 40
08).
この道路端の点列の評価結果に基づき、抽出した道路候
補領域は単調路か否がを判断する(ステップ4009)
。単調路である場合には、ステップ4005以降の処理
を実行し、次の画像に対する処理に移行する。Based on the evaluation result of this road edge point sequence, it is determined whether the extracted road candidate area is a monotonous road or not (step 4009).
. If the path is monotonous, the process from step 4005 onwards is executed, and the process moves on to the next image.
また、単調路でない場合には、次に、「明るさの違いに
注目した走行コース上の影や高輝度部分の抽出手段」に
より、高輝度領域が有ればこれを抽出する(ステップ4
010)。そして、求めた高輝度領域と道路候補領域と
を併合し、本手法により道路端の点列を評価する(ステ
ップ4011)。この道路端の点列の評価結果に基づき
、抽出した道路候補領域は単調路か否かを判断する(ス
テップ4012)。単調路である場合には、ステップ4
005以降の処理を実行し、次の画像に対する処理に移
行する。単調路でない場合には、低輝度領域および高輝
度領域を道路候補領域に併合し、3領域を併合した領域
から得られる道路端の点列を評価する(ステップ401
B)。In addition, if the road is not monotonous, next, if there is a high brightness area, it is extracted using "a means for extracting shadows and high brightness parts on the driving course that focuses on differences in brightness" (step 4).
010). Then, the obtained high-luminance region and the road candidate region are merged, and the road edge point sequence is evaluated using this method (step 4011). Based on the evaluation result of this road edge point sequence, it is determined whether the extracted road candidate area is a monotonous road (step 4012). If the road is monotonous, step 4
The processes after 005 are executed, and the process moves on to the next image. If the road is not monotonous, the low-luminance area and the high-luminance area are merged into the road candidate area, and the road edge point sequence obtained from the merged area of the three areas is evaluated (step 401
B).
この後ステップ4005移行の処理を実行し、次の画像
に対する処理に移行する。Thereafter, the process of moving to step 4005 is executed, and the process moves to the next image.
次に、上記の道路候補領域の道路端の点列座標を求める
手法について以下に説明する。Next, a method for obtaining the point sequence coordinates of the road edge in the road candidate area will be described below.
例えば、第41図に示される画像領域が得られた場合を
想定する。図の左上を原点とし、X座標は水平方向を右
に向かって正とし、X座標は垂直方向を下に向かって正
とする。この画像に示された道路領域には切れ込みが存
在し、また、ノイズ等により画像情報が得られなかった
箇所か散在する。同図に示される画像の各画素にラベリ
ング処理が行われ、この処理結果、得られる画素領域が
第42図のように示されたものとする。同図の斜線部は
ラベル値がOではなく、あるラベル値を持った画素とす
る。なお、斜線のない画素はラベル値が0の背景領域に
位置する画素である。また、3×3個の画素を囲む枠4
201はウィンドウWであり、ウィンドウWの中に存在
する斜線画素(0でない画素値を有する画素)の数はヒ
ストグラムの値になる。図示に位置する場合のウィンド
ウWによるヒストグラムの値は5である。また、図示の
ウィンドWは3×3のウィンドウになっているが、5×
5等の他の大きさのウィンドウであっても良い。For example, assume that the image area shown in FIG. 41 is obtained. The upper left of the figure is the origin, the X coordinate is positive in the horizontal direction toward the right, and the X coordinate is positive in the vertical direction toward the bottom. There are notches in the road area shown in this image, and there are also scattered locations where image information could not be obtained due to noise or the like. It is assumed that labeling processing is performed on each pixel of the image shown in the same figure, and the resulting pixel area is shown as shown in FIG. 42 as a result of this processing. The shaded area in the figure is a pixel with a label value of a certain label value, rather than a label value of O. Note that pixels without diagonal lines are pixels located in a background area with a label value of 0. Also, a frame 4 surrounding 3 x 3 pixels
201 is a window W, and the number of diagonally lined pixels (pixels having non-zero pixel values) existing in the window W becomes the value of the histogram. The value of the histogram by window W in the case shown is 5. Also, although the illustrated window W is a 3×3 window, it is 5×
It may be a window of other size, such as 5 or the like.
まず、ウィンドウWを画像の中央部から左に向けて水平
に走査する。なお、画像の中央部がらウィンドウWを走
査するのは、処理の開始時だけである。移動しながら各
位置におけるウィンドウWのヒストグラムの値を求める
。このヒストグラム値を監視しながらウィンドウWを移
動し、所定のしきい値以下のヒストグラム値が連続して
得られた場合、つまり、ウィンドウW内の斜線画素の密
度が低くなった場合、ウィンドウWは道路領域から外れ
たものと判断する。そして、ヒストグラム値が所定のし
きい値以下になった最初のウィンドウWの位置を左側の
道路端の点列座標XLとする。First, the window W is scanned horizontally from the center of the image toward the left. Note that the window W is scanned from the center of the image only at the start of the process. The histogram value of the window W at each position is determined while moving. The window W is moved while monitoring this histogram value, and if histogram values below a predetermined threshold are continuously obtained, that is, if the density of diagonally lined pixels in the window W becomes low, the window W is It is determined that the vehicle is out of the road area. Then, the position of the first window W whose histogram value becomes less than or equal to a predetermined threshold value is set as the point sequence coordinate XL of the left road edge.
次に、ウィンドウWを右側へ向けて水平走査し、ウィン
ドウW内のヒストグラム値が連続して所定のしきい値以
下になった場合、このヒストグラム値の変化する最初の
ウィンドウWの位置を右側の道路端の点列座標XRとす
る。Next, the window W is horizontally scanned toward the right side, and when the histogram values within the window W are continuously below a predetermined threshold, the position of the window W where the histogram value first changes is set to the right side. Let the point sequence coordinates of the road edge be XR.
次に、ウィンドウWの位置するY座標を1つ減らし、ウ
ィンドウWを画像の上方へ移動して水平走査位置をずら
す。そして、上記の最初の水平走査により得られた道路
端座機XL、XRがら道路領域の中央位置を式(XR−
XL)/2の計算をすることにより求める。この中央位
置をウィンドウWの走査開始位置とし、ウィンドウWを
左右に走査する。この走査においても上記と同様にして
ウィンドウW内のヒストグラム値を監視し、ヒストグラ
ム値の変化する位置を道路端の座標とする。Next, the Y coordinate at which the window W is located is decreased by one, and the window W is moved above the image to shift the horizontal scanning position. Then, the center position of the road area is calculated using the formula (XR-
It is obtained by calculating XL)/2. This center position is set as the scanning start position of the window W, and the window W is scanned left and right. In this scanning as well, the histogram value within the window W is monitored in the same manner as above, and the position where the histogram value changes is taken as the coordinates of the road edge.
以下、水平走査位置のY座標が地平線位置になるまで同
様の処理を繰り返すことにより、左右の道路端の一連の
点列座標を得ることが出来る。Thereafter, by repeating the same process until the Y coordinate of the horizontal scanning position reaches the horizon position, a series of point sequence coordinates of the left and right road edges can be obtained.
また、このウィンドウWの走査において、走査開始位置
のウィンドウWがら得られるヒストグラム値が最初から
所定のしきい値以下であり、しがも、ウィンドウWを左
側へ走査して得られるヒストグラム値が連続して所定の
しきい値以下の場合には、中央位置が道路端座機になっ
てしまう。しかし、この場合にはウィンドウWの走査方
向を逆の右側に変える。そして、所定のしきい値以上の
ヒストグラム値が連続して得られた場合には、最初に所
定のしきい値以上のヒストグラム値が得られたウィンド
ウWの位置を左側の道路端の座標とする。右側の道路端
の座標は、ウィンドウWをさらに右側に走査し、ヒスト
グラム値の変化する位置を求めることにより判明する。In addition, in scanning this window W, the histogram values obtained from the window W at the scanning start position are below the predetermined threshold from the beginning, and the histogram values obtained by scanning the window W to the left are continuous. If this is less than a predetermined threshold, the center position becomes a roadside seat. However, in this case, the scanning direction of the window W is changed to the right side. Then, when histogram values greater than or equal to a predetermined threshold are obtained consecutively, the position of the window W where a histogram value greater than or equal to the predetermined threshold is first obtained is set as the coordinates of the left road edge. . The coordinates of the right road edge can be found by scanning the window W further to the right and finding the position where the histogram value changes.
次に、このように求めた道路端の点列座標は領域の境界
付近に存在するため、各点を繋ぐことにより得られる境
界線は一様に滑らかなものではない。このため、ある1
点の前後に位置する各点とこの1点とがなす角度を点列
の全点について計算し、この分散値を滑らかさの基準と
する。また、得られた角度が鋭角のときはその点は除去
して計算する。このように左右の道路端の各点列座標を
平滑化した後、これら点列座標を実空間へ射影変換する
。この射影変換は自律走行車に取り付けたカラーカメラ
の俯角、高さ、焦点距離に基づいて行われる。Next, since the point sequence coordinates of the road edge obtained in this way exist near the boundary of the area, the boundary line obtained by connecting each point is not uniformly smooth. For this reason, a certain 1
The angle formed by each point located before and after the point and this one point is calculated for all points in the point sequence, and this variance value is used as a standard for smoothness. Also, if the obtained angle is an acute angle, that point is removed from the calculation. After smoothing the point sequence coordinates of the left and right road edges in this manner, these point sequence coordinates are projectively transformed into real space. This projective transformation is performed based on the depression angle, height, and focal length of a color camera attached to the autonomous vehicle.
さらに、この射影変換後の点列において、左右の点列を
一組として左右の各点列間の距離、つまり、道路幅を求
める。そして、この道路幅が走行車の車体幅より狭くな
る点の数を数え、点列の全点数に対するこの狭い幅の点
数を計算する。全点数に対する狭い幅の点数の比率が小
さい場合には、狭い幅の点は道路端の点としてはふされ
しくないため、これら各点は除去する。Furthermore, in the point sequence after projective transformation, the distance between the left and right point sequences, that is, the road width, is determined by setting the left and right point sequences as a set. Then, the number of points where this road width is narrower than the vehicle body width of the traveling vehicle is counted, and the number of points of this narrow width relative to the total number of points in the point sequence is calculated. If the ratio of the narrow width points to the total number of points is small, the narrow width points are not suitable as road edge points, so these points are removed.
また、この道路端の点列の評価に際して、最初に求めた
一組の左右端によって定まる道路幅と差の少ない左右の
組を数える。差の少ない左右の組みが全部の組みに対し
て占める比率が大きい場合、つまり、左右の道路端列が
ある程度平行している場合には、道路らしさとしての評
価は最も高くなり、単調路として判断される。このよう
に単調路として判断される場合には、第40図に示され
たフローチャートのステップ4003.4008゜40
11の処理をしなくても道路端を得ることが出来る。In addition, when evaluating this road edge point sequence, the left and right pairs that have a small difference from the road width determined by the initially determined pair of left and right edges are counted. When the ratio of left and right sets with little difference to the total number of sets is large, that is, when the left and right road edge rows are parallel to some extent, the evaluation as road-likeness is highest, and the road is judged as a monotonous road. be done. If the path is determined to be monotonous in this way, steps 4003, 4008, 40 in the flowchart shown in FIG.
It is possible to obtain the road edge without performing the processing in step 11.
次に、自立走行車が道路端に極端に近付き過ぎた場合に
おける、道路左右端の点列の補正手段について説明する
。第43図(a)〜(d)は自律走行車が道路端に近付
(過程を示している。同図(a)は自律走行車が曲率の
きついカーブ手前に位置している場合を示している。こ
の場合には、自律走行車に取り付けられたカラーカメラ
には、左側の道路端りおよび右側の道路端Rが視野内に
捕らえられている。道路のカーブの曲率がきつい場合、
同図(a)に位置していた自律走行車は同図(b)に示
される位置に移動する。この場合、右側の道路端Rはカ
メラの視野から消える。Next, a description will be given of means for correcting the point sequence at the left and right edges of the road when the autonomous vehicle approaches the road edge too much. Figures 43 (a) to (d) show the process in which an autonomous vehicle approaches the edge of the road. Figure 43 (a) shows a case where the autonomous vehicle is located in front of a curve with a sharp curvature. In this case, the color camera attached to the autonomous vehicle captures the left road edge and the right road edge R within its field of view.If the curvature of the road is steep,
The autonomous vehicle located in (a) of the figure moves to the position shown in (b) of the figure. In this case, the right road edge R disappears from the field of view of the camera.
さらに、自律走行車は同図(c)に示される位置に移動
し、テンプレートに占める道路外領域の比率は段々高く
なる。図示の斜線部は道路外領域を示している。さらに
、自律走行車は同図(d)に示される位置に移動する。Further, the autonomous vehicle moves to the position shown in FIG. 2(c), and the ratio of the off-road area to the template gradually increases. The illustrated shaded area indicates the area outside the road. Furthermore, the autonomous vehicle moves to the position shown in FIG.
この場合、カメラの視野には左側の道路端および道路外
領域の左側の境界部が捕らえられている。また、テンプ
レート画像に占める道路外領域の占める比率は高くなり
、道路外領域が走行路コースと誤認される。この結果、
左側の道路端は右側の道路端Rとして誤認され、道路外
領域の左側の境界は左側の道路端りと誤認される。In this case, the left road edge and the left boundary of the off-road area are captured in the field of view of the camera. Moreover, the ratio of the area outside the road to the template image becomes high, and the area outside the road is mistakenly recognized as the driving course. As a result,
The left road edge is mistakenly recognized as the right road edge R, and the left boundary of the off-road area is mistakenly recognized as the left road edge.
しかし、順次撮像される画像情報から得られる道路端の
点列は、前回画像における右側の点列が今回画像におい
て極端に左側に位置する点列になることはない。また、
逆に、前回画像における左側の点列が今回画像において
極端に右側に位置する点列になることはない。従って、
1処理サイクル前の画像情報から得た点列情報を記憶保
持しておき、今回の画像情報から得た点列とこの前回の
画像情報から得た点列との距離を後述するように計算す
る。そして、例えば、前回求めた右側の道路端の点列と
今回求めた右側の道路端の点列との距離が離れており、
前回の右側点列が今回の左側点列に近い場合には、左右
の道路端の位置が逆転したものと判断する。そして、今
回得た道路端の右側と左側とを入れ替える。However, in the point sequence of the road edge obtained from sequentially captured image information, the point sequence on the right side in the previous image does not become the point sequence located extremely on the left side in the current image. Also,
Conversely, the point sequence on the left side in the previous image will not become the point sequence located extremely on the right side in the current image. Therefore,
The point sequence information obtained from the image information one processing cycle ago is stored and retained, and the distance between the point sequence obtained from the current image information and the point sequence obtained from the previous image information is calculated as described later. . For example, the distance between the point sequence of the right road edge found last time and the point sequence of the right road end found this time is far apart,
If the previous right side point sequence is close to the current left side point sequence, it is determined that the positions of the left and right road edges have been reversed. Then, swap the right and left sides of the road edge obtained this time.
これを第43図に示される画像を用いて説明する。同図
(c)の画像を前回得られた画像とし、左側の道路端の
点列をLifと表現する。同図(d)の画像を今回求め
た画像とし、誤認している左側の道路端の点列をLl、
誤認している右側の道路端の点列をRiと表現する。左
右の道路端の点列が逆転しているか否かの判断は、前回
の点列L1−1が今回の点列Li、R1のうちどちらに
近いかを判断することにより行う。前回の点列L1−1
が今回の点列R1に近い場合には、左右の道路端の点列
は逆転したものと判断する。This will be explained using the image shown in FIG. The image shown in FIG. 4C is the image obtained last time, and the point sequence at the left side of the road is expressed as Lif. The image in (d) of the figure is the image obtained this time, and the misidentified left road edge point sequence is Ll,
The misidentified right-side road edge point sequence is expressed as Ri. A determination as to whether or not the left and right road edge point sequences are reversed is made by determining which of the current point sequence Li and R1 the previous point sequence L1-1 is closer to. Previous point sequence L1-1
is close to the current point sequence R1, it is determined that the point sequences at the left and right road edges have been reversed.
−膜内に、この点列の近さの判断は次のように行う。つ
まり、今回の画像から得た左側の点列を1グループ、右
側の点列をもう1つのグループとし、前回の左側または
右側の点列がこれら各グループのうちのどちらのグルー
プに近いかを判断することにより行う。このどちらのグ
ループに近いかの判断は、以−下に詳述するマハラノビ
スの汎距離によって決定する。第44図はこのマハラノ
ビスの汎距離を説明するための図である。- The proximity of this point sequence within the film is determined as follows. In other words, the left-hand point sequence obtained from this image is one group, the right-hand point sequence is another group, and it is determined which of these groups the previous left-hand or right-hand point sequence is closer to. Do by doing. The determination of which group it is closer to is determined by Mahalanobis' general distance, which will be explained in detail below. FIG. 44 is a diagram for explaining the Mahalanobis general distance.
前回の画像情報による左側点列L1−1(または右側点
列R1−1)の点を(x、y)、今回の画像情報による
左側点列Liの点を(x lj、 y 1j)、今回
の画像情報による右側点列Riの点を(x 2j。The point of the left point sequence L1-1 (or right point sequence R1-1) according to the previous image information is (x, y), the point of the left point sequence Li according to the current image information is (x lj, y 1j), this time The points of the right-hand point sequence Ri based on the image information of (x 2j.
y 2j)とする。前回の点列の点(x、y)が今回の
点列L1とR1とのうちのどちらに近いかは、マハラノ
ビスの汎距離を点列Ll−1(または点列R1−1)の
全点に対して以下のように計算し、距離の短い点が多く
属すほうの点列に近いものとする。また、今回の画像に
より求まった点列が直線の時には、この直線までの距離
を計算する。y2j). To determine which point (x, y) in the previous point sequence is closer to the current point sequence L1 or R1, calculate the Mahalanobis general distance for all points in the point sequence Ll-1 (or point sequence R1-1). Calculate as below for Furthermore, when the point sequence determined from the current image is a straight line, the distance to this straight line is calculated.
まず、点列L+上の各点について、X方向成分の平均値
μm1.X方向成分の平均値μm2.X方向成分の分散
値σ11.y方向成分の分散値σ12. xy各方向
の共分散値σ112および相関係数ρ1を求める。ここ
で、ni(よ点列lj上に位置する点の数である。なお
、点列R4上の各点についても以下の式と同様な式によ
り求めることが出来る。First, for each point on the point sequence L+, the average value μm1 of the X direction component. Average value of the X direction component μm2. Variance value σ11 of the X direction component. Variance value σ12 of the y-direction component. A covariance value σ112 and a correlation coefficient ρ1 in each of the x and y directions are determined. Here, ni (is the number of points located on the point sequence lj. Note that each point on the point sequence R4 can also be determined by a formula similar to the following formula.
μm1−Σxlj/nl 、 R12−Σy lj/
n 1σ112−Σ(xlj−μll) 2/ (n
l −1)σ122−Σ(y lj−μm2) 2/
(nl −1)σ112−Σ(x lj−μm1)
(y lj−R12)/(nl −1)
ρl −σ112 /σIIX σ12これら各数値に
基づいて、前回の点列の点(x。μm1-Σxlj/nl, R12-Σy lj/
n 1σ112−Σ(xlj−μll) 2/(n
l −1) σ122−Σ(y lj−μm2) 2/
(nl −1)σ112−Σ(x lj−μm1)
(y lj - R12) / (nl -1) ρl - σ112 / σIIX σ12 Based on these values, the point (x) of the previous point sequence is calculated.
y)と今回の点列L+の点(x lj、 y lj)
との間のマ・・ラノビスの汎距JIIDI ”を次式に
より求めることか出来る。y) and the point (x lj, y lj) of the current point sequence L+
The general distance JIIDI'' of Ma. Lanobis between can be calculated using the following formula.
Di 2= ([(x−、CZII) /(711]
2+ [(y−、cz12) /cr12] 2−2ρ
1 [(x−μll) /σ11]X[(y−μm2
)/σ11] 1 /(1−ρ1)2また、同様に前回
の点列の点(x、y)と今回の点列R1の点(x 2j
、 y 2j)との間のマ/%ラノビスの汎距離D2
2を次式により求めることが出来、る。Di 2= ([(x-, CZII) / (711]
2+ [(y-, cz12) /cr12] 2-2ρ
1 [(x-μll) /σ11]X[(y-μm2
)/σ11] 1/(1-ρ1)2 Similarly, the point (x, y) of the previous point sequence and the point (x 2j) of the current point sequence R1
, y 2j)
2 can be found using the following formula.
D2 2−([(x −μ 21) / σ 21コ
2 +[(y−R22)/σ22]2−2ρ2 [(
X−R21)/σ 21]×[(y −μ 22)
/ σ 22コ ) l(1−ρ 2)2上記の各
式に基づいて各汎距離を計算した結果、Dl 2>D2
2が成立する場合には、前回の点(x、y)は今回の右
側の道路端の点列R1に近いことになる。また、Di2
〉D22が成立しない場合には、逆に、前回の点(x、
y)は今回の左側の道路端の点列L1に近いことになる
。D2 2-([(x - μ 21) / σ 21ko 2 + [(y-R22)/σ22] 2-2ρ2 [(
X-R21)/σ21]×[(y-μ22)
/σ22ko) l(1-ρ2)2 As a result of calculating each general distance based on each formula above, Dl2>D2
If 2 holds true, the previous point (x, y) is close to the current point sequence R1 of the right road edge. Also, Di2
〉If D22 does not hold, conversely, the previous point (x,
y) is close to the current point sequence L1 at the left road edge.
以上のように画像分割処理の結果得られた道路候補領域
が、ノイズなどによって不明瞭な輪郭の領域になっても
、本手法による前記のウィンドウのヒストグラム値の変
化に基づけば、道路の端点を確実に得ることが出来る。As described above, even if the road candidate region obtained as a result of the image segmentation process has an unclear outline due to noise, etc., the edge points of the road can be determined based on the changes in the histogram values of the window described above using this method. You can definitely get it.
これは、本手法が領域を基にしてその端点を探索してい
るためであり、本手法によれば領域の左右端を明確に区
別することが出来る。This is because the present method searches for the end points of the region based on the region, and according to the present method, the left and right ends of the region can be clearly distinguished.
また、「明るさの違いに注目した走行コース上の影や高
輝度領域の抽出手段」で求められた低輝度領域は、走行
コースが全体的に暗い場合には、道路外に位置する場合
もある。このような場合に道路外の低輝度領域と道路領
域とが併合される場合があり、道路候補領域の輪郭の形
状が複雑化する。しかし、本手法により、得られた道路
端の点列データを平滑化することにより、複雑な輪郭の
領域は大局的に評価され、上記のような低輝度領域は無
視され、自動車が走行する上で同等支障の無い道路端の
情報を得ることが出来る。In addition, low-luminance areas found using the "extraction method for shadows and high-luminance areas on a driving course that focuses on differences in brightness" may be located outside the road if the driving course is dark overall. be. In such a case, the low-luminance area outside the road and the road area may be merged, and the shape of the outline of the road candidate area becomes complicated. However, by smoothing the obtained road edge point sequence data using this method, regions with complex contours can be evaluated in a global manner, and low-luminance regions such as those mentioned above are ignored. It is possible to obtain road edge information without any problems.
また、「テンプレート画像を用いた繰返しきい値処理に
よる走行コースの抽出手法」によれば、自律走行車が曲
率のきつい道路の左または右に極端に近付いた場合、テ
ンプレートが道路外に出てしまってそこを道路とみなし
てしまう場合がある。In addition, according to the ``driving course extraction method using iterative threshold processing using template images,'' when an autonomous vehicle approaches the left or right side of a road with a sharp curvature, the template may veer off the road. In some cases, the road may be considered a road.
この場合には道路端の左右の認識を誤ってしまう。In this case, the left and right sides of the road edge will be incorrectly recognized.
しかし、上述の本手法によれば、道路の左右端のデータ
を誤って認識しても、直ぐにこの認識は補正され、常に
信頼性の高い道路端の情報を得ることが出来る。However, according to this method described above, even if the left and right edge data of the road is incorrectly recognized, this recognition is immediately corrected, and highly reliable road edge information can always be obtained.
次に、「多様な形状の走行コースの内部表現手法」、つ
まり、得られた道路端の多様な点列を構造化して表現す
る手法について説明する。Next, a description will be given of an "internal representation method for driving courses with various shapes," that is, a method for structuring and representing various point sequences of the obtained road edges.
本手法は、「テンプレート画像を用いた繰返しきい値処
理による走行コースの抽出手段」で得られた走行コース
の画像と、「明るさの違いに注目した走行コースからの
影や高輝度部分の抽出手段」で得られた画像と、「複数
の領域の併合手段」で求めた特徴量リストに基づき、画
像のラベル変位箇所を検知しながら領域の境界点のスト
ラフチャを作成し、前後方向のリンクを付け、境界の属
性を付与することによって、走行コースをコンピュータ
内部に表現し、走行のための有効な点列群を求めるもの
である。「複数の領域を併合する手段」において作成さ
れた領域と領域との記述を表した特徴量リストを利用し
て、高速に領域の端点が得られ、道路端、路肩端2分岐
路および合流路は計算機の内部に構造化されたリストに
よって表現される。This method uses an image of a driving course obtained by ``a means of extracting a driving course by iterative threshold processing using a template image'' and ``extracting shadows and high-brightness parts from the driving course by focusing on differences in brightness.'' Based on the image obtained by the "method for merging multiple regions" and the feature list obtained by the "method for merging multiple regions," a strafture of region boundary points is created while detecting the label displacement location of the image, and links in the forward and backward directions are created. The driving course is expressed inside the computer by adding boundary attributes and determining a valid point sequence for driving. By using the feature list representing the region and the description of the region created in "Means for merging multiple regions", the end points of the region can be quickly obtained, and the end points of the region can be quickly obtained, such as road edges, road shoulders, two branch roads, and merging roads. is represented by a structured list inside the computer.
第45図は道路の構造化処理の概略を示すフローチャー
トである。FIG. 45 is a flowchart showing an outline of road structuring processing.
まず、カラーカメラ入力装置などの各ハードウェアの初
期設定時に領域境界点ストラフチャのX方向のリストを
作成する(ステップ4501)。First, when initializing each piece of hardware such as a color camera input device, a list of region boundary point struc- tures in the X direction is created (step 4501).
次に、各領域に付けられたラベル値のX方向の変化箇所
を検出してX方向のリストを作成し、各境界点のX方向
についてリンクする(ステップ4502)。そして各領
域の特徴量リストの接続ラベルを考慮して領域の左端お
よび右端にその属性を付与し、各領域の左右端を区分す
る(ステップ450B)。次に、後述する穴などの属性
を各境界点に付与しながら、画面の前後方向(X方向)
の各境界点の関連付けを行い、各境界点のX方向につい
てリンクする(ステップ4504)、また、道路領域が
分岐したり、合流したりする場合が有り、これら各場合
に各領域の境界の連続性を判断し、各境界点に付与され
た属性の付は替えを行う(ステップ4505)。この後
、各領域の境界点の点列の開始位置を選択し、有効点列
を検出する(ステップ4506)。Next, a change point in the X direction of the label value attached to each area is detected, a list in the X direction is created, and a link is made in the X direction of each boundary point (step 4502). Then, considering the connection label of the feature quantity list of each region, attributes are given to the left and right ends of the region, and the left and right ends of each region are divided (step 450B). Next, while adding attributes such as holes, which will be described later, to each boundary point,
The boundary points of each boundary point are associated and linked in the X direction of each boundary point (step 4504).Also, there are cases where road areas diverge or merge, and in each of these cases, the continuity of the boundaries of each area is Then, the attribute assigned to each boundary point is changed (step 4505). Thereafter, the starting position of the point sequence of the boundary points of each area is selected, and a valid point sequence is detected (step 4506).
以上の各処理について以下に詳述する。Each of the above processes will be explained in detail below.
ステップ4501の処理について、第46図を参照して
説明する。The process of step 4501 will be explained with reference to FIG. 46.
同図(a)は、実空間上における道路面(水平面と仮定
する)を画像上に射影変換する際の原理を示す図である
。道路面4601は等間隔(N)に区分され、道路領域
および道路上の各区分線は遠方の1点に向けて画像46
02上に射影され、カラーカメラのビューボートが得ら
れる。同図(b)はこのようにして得られた画像の詳細
を示す図である。画像上には道路領域の境界線4603
および区分線4604が射影変換されている。実空間上
における区分線は間隔gの等間隔であったが、画像上に
おいては道路領域の遠方に行くに従ってその間隔が詰ま
っている。この各区分線4604が位置するy座標を求
め、同図(c)に示されるX方向の領域境界点ストラフ
チャ4605を作成する。FIG. 5A is a diagram showing the principle of projective transformation of a road surface (assumed to be a horizontal surface) in real space onto an image. The road surface 4601 is divided into equal intervals (N), and the road area and each division line on the road are divided into the image 46 toward one point in the distance.
02 to obtain the viewport of the color camera. FIG. 4B is a diagram showing details of the image obtained in this manner. On the image there is a boundary line 4603 of the road area.
and the dividing line 4604 have been projectively transformed. In real space, the lane markings are equally spaced at intervals g, but in the image, the intervals become closer as you get farther from the road area. The y-coordinates at which each division line 4604 is located are determined, and an area boundary point structure 4605 in the X direction shown in FIG. 4(c) is created.
この領域境界点ストラフチャ4605の6枠は、道路領
域の境界線4603のうちの左端の境界線と区分線46
04との交点に位置する各境界点に対応している。6枠
は、図示の矢印に示されるポインタによって相互の連結
関係が表現されている。The six frames of this area boundary point struc- ture 4605 are the leftmost boundary line and the dividing line 46 of the road area boundary lines 4603.
This corresponds to each boundary point located at the intersection with 04. The mutual connection relationship of the six frames is expressed by pointers indicated by arrows in the figure.
これらの各枠内には各境界点の特徴が、同図(d)に示
されるリスト4606として記述されている。In each of these frames, the characteristics of each boundary point are described as a list 4606 shown in FIG. 4(d).
まず、求めたy座標の6値がリスト4606に記述され
、X方向のリストが作成される。このリスト4606に
は、上記のy座標の他に各境界点が有する後述する各特
徴が記述される。First, the six values of the determined y coordinate are written in a list 4606, and a list in the X direction is created. In addition to the above y-coordinate, this list 4606 describes each feature that each boundary point has, which will be described later.
つまり、X座標1点列開始点iDを表す属性1゜実空間
における隣接点間距離を表す属性22着目する境界点と
右隣の境界点との連結関係を表す右隣へのポインタ、左
隣の境界点との連結関係を表す左隣へのポインタ、X方
向における画面手前の境界点との連結関係を表す手前へ
のポインタおよび画面後方の次の境界点との連結関係を
表す次へのポインタが記述される。In other words, attribute 1 representing the X coordinate 1 point sequence start point iD, attribute 22 representing the distance between adjacent points in real space, pointer to the right neighbor representing the connection relationship between the boundary point of interest and the boundary point to the right, pointer to the left neighbor A pointer to the left that represents the connection relationship with the boundary point, a pointer to the front that represents the connection relationship with the boundary point in front of the screen in the A pointer is written.
次にステップ4502の処理について、第47図を参照
して説明する。Next, the process of step 4502 will be explained with reference to FIG. 47.
同図(a)に示される画像4701は撮像された画像に
ついてラベリング処理が実行された画像である。このラ
ベリング処理により、道路領域を構成する各領域のそれ
ぞれにはラベル値が付けられる。各区分線と領域の境界
との交点のうち、O印が付された交点は、ラベル値が変
化するラベル変位箇所である。まず、ステップ4501
の処理で求めたリストの各y座標位置において水平方向
、つまり、X方向に画像を走査する。この走査において
、ラベル値が0である背景領域からラベル値が0ではな
い道路領域に移動した場合、または、ラベル値が0では
ない道路領域からラベル値が0である背景領域に移動し
た場合、新しい領域境界点ストラフチャを作成する。An image 4701 shown in FIG. 4A is an image obtained by performing labeling processing on a captured image. Through this labeling process, each region constituting the road region is assigned a label value. Among the intersections between each division line and the area boundary, the intersection marked with an O mark is a label displacement location where the label value changes. First, step 4501
The image is scanned in the horizontal direction, that is, in the X direction at each y-coordinate position of the list obtained by the process. In this scan, if you move from a background area whose label value is 0 to a road area whose label value is not 0, or if you move from a road area whose label value is not 0 to a background area whose label value is 0, Create a new region boundary point structure.
この領域境界点ストラフチャは同図(b)に示される。This region boundary point struc- ture is shown in FIG. 4(b).
図示のように、各領域の境界と区分線との交点に位置す
る各境界点に対応して、新たにX方向に枠が設けられる
。この新たな6枠は、既に前述のステップで作成された
y方向の領域境界点ストラフチャの6枠と連結される。As shown in the figure, a new frame is provided in the X direction corresponding to each boundary point located at the intersection of the boundary of each area and the division line. These six new frames are connected to the six frames of the y-direction area boundary point structure already created in the previous step.
この連結関係は図示の矢印に表されるポインタにより表
現され、このポインタにより6枠は水平方向にリンクさ
れている。This connection relationship is expressed by a pointer represented by an arrow in the figure, and the six frames are linked in the horizontal direction by this pointer.
次に、ステップ4503の処理について、第48図を参
照して説明する。Next, the process of step 4503 will be explained with reference to FIG.
ステップ4502の処理で作成された領域境界点ストラ
フチャの水平方向の各点の組が同一領域に存在するか否
かを判断する。同一領域であるか否かの判断は、前述の
「複数の領域の併合手法」において求めた特微量リスト
に基づいて行われる。It is determined whether each set of points in the horizontal direction of the area boundary point structure created in step 4502 exists in the same area. A determination as to whether the regions are the same is made based on the feature quantity list obtained in the above-mentioned "method for merging multiple regions."
隣接する各点が同一領域に存在する場合、左側に位置す
る境界点は左エツジ、右側に位置する境界点は右エツジ
とし、この属性を各リストに記述する。この属性により
、領域の左右端を区別することが出来る。また、この左
エツジから右エツジまでの実空間における距離を演算し
、同様に各リストに記述する。この距離演算には、前述
の射影変換と逆の処理である逆射影変換処理を実行し、
画像から現実の道路領域を求める必要がある。When adjacent points exist in the same area, the boundary point located on the left side is treated as a left edge, and the boundary point located on the right side is treated as a right edge, and this attribute is described in each list. This attribute allows the left and right ends of the area to be distinguished. Furthermore, the distance in real space from this left edge to the right edge is calculated and similarly written in each list. This distance calculation involves performing inverse projective transformation processing, which is the inverse of the projective transformation described above.
It is necessary to find the actual road area from the image.
第48図(a)に示される画像について、エツジの識別
方法を具体的に説明する。道路領域4801は3つの領
域A、B、Cが併合されて表現されている。ここで、前
述の特微量リストの接続ラベルは同図(b)のように示
されている。つまり、領域Aの接続ラベル欄には領域C
が記述されており、領域Bの接続ラベル欄には何も記述
されておらず、領域Cの接続ラベル欄には領域Aが記述
されている。このため、領域Aと領域Cとは併合すべき
同一領域であることが判別され、−また、領域Bは領域
Aと領域Bとで形成される領域とは異なる領域であるこ
とが判別する。The edge identification method for the image shown in FIG. 48(a) will be specifically explained. The road area 4801 is expressed by merging three areas A, B, and C. Here, the connection labels of the above-mentioned feature quantity list are shown as shown in FIG. 2(b). In other words, the connection label column for area A contains area C.
is written, nothing is written in the connection label column of area B, and area A is written in the connection label column of area C. Therefore, it is determined that area A and area C are the same area to be merged, and it is also determined that area B is a different area from the area formed by area A and area B.
従って、各境界点を区分線4802に沿って水平方向に
画像走査した場合、O印の付された境界点a、b、c、
dがラベル変位箇所として求まる。Therefore, when the image is scanned horizontally along the dividing line 4802, the boundary points a, b, c marked with O,
d is determined as the label displacement location.
従って、境界点aと境界点すとは同一領域上の点として
存在しており、境界点aは左エツジ、境界点すは右エツ
ジという属性が付与され、領域境界点ストラフチャのリ
ストに記述される。また、境界点Cと境界点dはそのラ
ベル値が同じであるために同一領域に存在しており、境
界点Cは左エツジ、境界点dは右エツジという属性が付
与され、領域境界点ストラフチャのリストに記述される
。Therefore, boundary point a and boundary point S exist as points on the same area, boundary point a is given the attribute of left edge, boundary point A is given the attribute of right edge, and is described in the list of area boundary point structure. Ru. In addition, boundary point C and boundary point d exist in the same area because their label values are the same, and boundary point C is given the attribute of left edge, boundary point d is given the right edge, and the area boundary point struc- ture is described in the list.
次に、ステップ4504の処理について、第49図およ
び第50図を参照して説明する。Next, the process of step 4504 will be explained with reference to FIGS. 49 and 50.
第49図(a)に示される画像において、左側の境界線
と各区分線との交点に位置する各境界点をa j 、a
I”l 、右側の境界線と各区分線との交点に位置す
る各境界点をbi、bl+1とする。ここで、領域境界
点ストラフチャのy方向でi番目とi+1番目の各境界
点が同一領域に存在するか否かを判断し、同一領域なら
ば前後のリンクを行う。つまり、境界点atとa tr
iとが同一領域に有るか否か、また、境界点bj とb
illとが同一領域に有るか否かを判断する。図示の
場合には、各境界点は同一領域に有るため、同図(b)
に示される領域境界点ストラフチャにおいて、太い線で
示されるポインタにより画面の前後に位置する各境界点
がリンクされる。In the image shown in FIG. 49(a), each boundary point located at the intersection of the left boundary line and each division line is a j , a
I”l, the boundary points located at the intersections of the right boundary line and each division line are bi, bl+1. Here, the i-th and i+1-th boundary points in the y direction of the area boundary point struc- ture are the same. It is determined whether or not it exists in the area, and if it is the same area, it is linked before and after.In other words, the boundary points at and a tr
i is in the same area, and the boundary points bj and b
It is determined whether or not the ``ill'' and ``ill'' are in the same area. In the case shown in the figure, each boundary point is in the same area, so the figure (b)
In the area boundary point structure shown in , each boundary point located before and after the screen is linked by a pointer shown by a thick line.
また、左エツジと右エツジとの間に存在する内部点が有
るならば、第50図に示されるように、領域の境界を追
跡する。同図(a)は、処理の対象とする道路領域50
01の中央部に車線区分線である白15002が描かれ
ている画像である。Furthermore, if there is an internal point existing between the left edge and the right edge, the boundary of the area is traced as shown in FIG. The figure (a) shows a road area 50 to be processed.
This is an image in which white 15002, which is a lane marking, is drawn in the center of 01.
この白線5002のラベル値は0である。ここで、各区
分線に沿って水平方向に画像を走査すると、白線500
2部において、同図(b)に示される内部点E 11.
E 1i+1. E 21. E 2i+1が
得られる。The label value of this white line 5002 is 0. Here, when scanning the image horizontally along each dividing line, the white line 500
In the second part, the internal point E shown in FIG. 11(b) 11.
E 1i+1. E21. E 2i+1 is obtained.
従って、領域の境界を追跡して各内部点の関係を探査す
る。内部点Elfから白線5002の境界線に沿ってこ
の境界を追跡すると内部点E 1141に達する。また
、内部点E2jから境界を追跡すると内部点E 2i+
lに達する。このように隣接する内部点E 11.
E 2iが、より上に位置す、る区分線上の次の内部点
E t++t、 E 21+1に連続している時、左
側に位置する内部点Elfを内部点左エツジ、右側に位
置する内部点E2+を内部点右エツジという属性を付け
る。Therefore, the boundaries of the region are tracked to explore the relationships between each internal point. If this boundary is traced along the boundary line of the white line 5002 from the interior point Elf, the interior point E 1141 is reached. Also, when tracing the boundary from the interior point E2j, the interior point E2i+
reach l. In this way, adjacent internal points E11.
When E 2i is continuous to the next internal point E t++t, E 21+1 on the dividing line located above, the internal point Elf located on the left side is the internal point left edge, and the internal point E2+ located on the right side is Give an attribute of internal point right edge.
また、境界を追跡して内部点がより上の区分線上の内部
点に連続せずに隣接する内部点に達する時は、隣接する
各内部点に穴という属性を付与する。つまり、内部点E
11+1から境界を追跡すると、隣接する内部点E 2
i+1に達する。この場合、各内部点E II+l、
E 2i+1に穴という属性を付与する。Further, when tracing the boundary and reaching an adjacent internal point without being continuous with an internal point on the upper division line, each adjacent internal point is given the attribute of hole. In other words, the interior point E
Tracing the boundary from 11+1, the adjacent interior point E 2
reaches i+1. In this case, each internal point E II+l,
Give E 2i+1 the attribute of hole.
以上の処理をリストの各y座標に沿ってこのy座標が地
平線位置5003に達するまで行う。また、この際、内
部点左エツジから内部点右エツジまでの実空間上におけ
る距離りを演算する。この演算は、実空間上における右
エツジ点のX座標値から実空間上における左エツジ点の
X座標値を引き算することにより求まる。The above processing is performed along each y-coordinate in the list until this y-coordinate reaches the horizon position 5003. At this time, the distance in real space from the left edge of the interior point to the right edge of the interior point is calculated. This calculation is obtained by subtracting the X-coordinate value of the left edge point in real space from the X-coordinate value of the right edge point in real space.
次に、ステップ4505の処理について、第51図を参
照して説明する。Next, the process of step 4505 will be explained with reference to FIG. 51.
以上の各ステップの処理による属性の付与の方法では、
道路がY字状に分岐したり、道路が合流する場合には正
しい属性が付与されない。つまり、各境界点の前後方向
の関連付けが正しく行われない場合がある。このため、
このような場合に本ステップにおいて、境界を追跡して
境界の評価を修正する。In the method of assigning attributes by processing each step above,
If a road branches into a Y-shape or merges, correct attributes will not be assigned. In other words, the association of each boundary point in the front-back direction may not be performed correctly. For this reason,
In such a case, in this step, the boundary is tracked and the boundary evaluation is corrected.
例えば、ここまでの各ステップの処理により、第51図
(a)に示される画像が得られたとする。For example, suppose that the image shown in FIG. 51(a) is obtained through the processing of each step up to this point.
この画像における道路領域5101はY字状に分岐して
おり、本道5102と分岐路5103とに分かれている
。画面の下側から上側に向かって各区分線(i、i+1
.i+2.・・・)は画像走査され、また、各区分線に
おいて画面左側から右側へ画像走査される。この走査に
より、左端の境界線と各区分線との交点に位置する境界
点にはaという符号が付けられ、左端の境界線から一つ
右に位置する境界線と区分線との交点に位置する境界点
にはbという符号が付けられ、左端の境界線から二つ右
に位置する境界線と区分線との交点に位置する境界点に
はCという符号が付けられる。この結果、同図(b)に
示される領域境界点ストラフチャが得られる。A road area 5101 in this image branches into a Y-shape, and is divided into a main road 5102 and a branch road 5103. Each dividing line (i, i+1
.. i+2. ) is image scanned, and the image is scanned from the left side of the screen to the right side at each dividing line. Through this scanning, the boundary point located at the intersection of the leftmost boundary line and each division line is given the symbol a, and the boundary point located at the intersection of the boundary line located one place to the right of the leftmost boundary line and the division line is assigned the symbol a. The boundary point located at the intersection of the boundary line two positions to the right of the leftmost boundary line and the division line is labeled C. As a result, the region boundary point struc- ture shown in FIG. 2(b) is obtained.
この領域境界点ストラフチャによる各境界点の関連付け
は図から理解されるように現実の道路の境界に合致して
おらず、各境界点には正しい属性が付与されていない。As can be seen from the diagram, the association of each boundary point by this region boundary point struc- ture does not match the actual road boundary, and each boundary point is not given a correct attribute.
このため、内部点から領域の境界を追跡し、次の点が左
または右の領域端に存在する境界点であれば、この内部
点と次の点とは連結しているものと判断し、これら各点
のリンクの付は替えを行う。同図の場合にあっては、内
部点CI+4から領域の境界を追跡する。追跡すると次
の点はa1+5であり、この点は左の領域端であるため
、リンクの付は替えを行う。つまり、a1+5以降の各
境界点に付けられた属性を内部点c i+4と同じCの
属性とする。このリンクの付は替え処理により、同図(
c)に示される領域境界点ストラフチャが得られる。こ
のストラフチャは現実の道路の境界に合致したものとな
っている。Therefore, the boundary of the area is traced from the internal point, and if the next point is a boundary point that exists at the left or right edge of the area, this internal point and the next point are determined to be connected, The links at each of these points will be changed. In the case of the figure, the boundary of the area is traced from the internal point CI+4. When traced, the next point is a1+5, and since this point is the edge of the left area, the link attachment is changed. In other words, the attribute given to each boundary point after a1+5 is the same attribute of C as the internal point c i+4. This link was added in the same figure (
The region boundary point structure shown in c) is obtained. This strafture matches the boundaries of the actual road.
同図(d)および(e)は、このリンクの付は替え処理
の前および後の領域境界の状態をベクトル表現によって
示した図である。つまり、同図(d)はリンクの付は替
え前のベクトル状態であリ、同図(b)の領域境界点ス
トラフチャに基づいて各境界線の連結関係をベクトルに
より表現したものである。属性aが付けられたベクトル
および属性Cが付けられたベクトルは現実の道路の境界
に対応したものとなっていない。同図(e)はリンクの
付は替え処理を実行した後のベクトル状態であり、同図
(c)の修正された領域境界点ストラフチャに基づいて
各境界線の連結関係をベクトルにより表現したものであ
る。属性aが付けられたベクトルの終端部分は上述のよ
うに修正され、属性Cに付は替えられている。このため
、各ベクトルa、b、cによって表現される道路領域の
境界は現実のものに即した形状になっている。Figures (d) and (e) are diagrams showing the state of the area boundary before and after the link replacement process using vector representations. In other words, FIG. 4(d) shows the vector state before the link assignment is changed, and the connection relationship of each boundary line is expressed by a vector based on the area boundary point struc- ture shown in FIG. 4(b). The vectors to which attribute a is attached and the vectors to which attribute C is attached do not correspond to actual road boundaries. Figure (e) shows the vector state after the link replacement process is performed, and the connection relationship between each boundary line is expressed by a vector based on the corrected region boundary point structure in Figure (c). It is. The terminal portion of the vector to which the attribute a has been attached is modified as described above, and the attribute C has been assigned. Therefore, the boundaries of the road area represented by the vectors a, b, and c have shapes that match reality.
同図(f)および(g)は、道路が合流する場合の領域
境界の状態を上記と同様にしてベクトルにより表現した
図である。同図(f)はリンクの付は替え前の領域境界
をベクトルによって表現したものである。属性dが付け
られたベクトルは、属性eおよびfが付けられたベクト
ルが形成する合流路の入り口を塞いでいる。同図(g)
は、前述と同様なリンクの付は替え処理後の領域境界を
ベクトルによって表現したものである。属性dが付けら
れたベクトルの始端部分はリンクの付は替え処理により
、属性fに修正され、領域境界は現実の合流路に合致し
たものとなっている。Figures (f) and (g) are diagrams in which the state of area boundaries when roads merge are expressed by vectors in the same way as above. FIG. 3(f) is a vector representation of the area boundary before the link is added. The vector with the attribute d blocks the entrance of the confluence path formed by the vectors with the attributes e and f. Same figure (g)
is a vector representation of the area boundary after the same linking and replacing process as described above. The starting end portion of the vector to which the attribute d has been attached is modified to the attribute f by the link reassignment processing, and the area boundary matches the actual confluence route.
次に、ステップ4506の処理について、第52図を参
照して説明する。Next, the process of step 4506 will be explained with reference to FIG. 52.
例えば、同図(a)に示される道路画像を想定する。こ
の道路画像には道路領域5201があり、道路領域52
01の左側には白線5202で区切られた路肩5203
がある。この道路画像の各領域の境界線と区分線との交
点には境界点が付けられ、同図(b)に示される道路端
および路肩端の点列が得られる。なお、画像の縁に掛か
る点は点列から除いである。以上の各ステップの操作に
より得られたy方向の各領域境界点ストラフチャのリン
クを画像下部に相当するところから上部へ辿る。そして
、領域境界点ストラフチャのリンクが所定個数以上ある
場合には、この領域境界点ストラフチャのリンクの画像
下部に相当するところに点列の開始点という属性を付け
る。図示の点列の開始点はΔ印で示されている。For example, assume the road image shown in FIG. This road image includes a road area 5201 and a road area 52.
On the left side of 01 is a road shoulder 5203 separated by a white line 5202.
There is. Boundary points are attached to the intersections between the boundary lines of each region of this road image and the lane markings, and the point sequence of the road edge and road shoulder edge shown in FIG. 4(b) is obtained. Note that points that overlap the edges of the image are excluded from the point sequence. The links of the region boundary point struc- tures in the y direction obtained by the operations in each step above are traced from the part corresponding to the bottom of the image to the top. If there are more than a predetermined number of links of the area boundary point struc- ture, an attribute of a starting point of a point sequence is attached to a location corresponding to the lower part of the image of the links of this area boundary point struc- ture. The starting point of the illustrated sequence of points is indicated by a Δ symbol.
開始点という属性が付いているストラフチャのうち、領
域境界の左エツジから右エツジまでの実空間における距
離が走行車の車幅以上のストラフチャの組を道路端とす
る。同図(b)の場合には、点列5204および点列5
205に相当するストラフチャの組が道路端となる。ま
た、道路端の隣にストラフチャの組があり、このストラ
フチャ群と道路端との間の距離が道路端を表すストラフ
チャ群の幅より狭く、かつ、ストラフチャ群と他方の道
路端との間の距離が車幅より広く、しがも、ストラフチ
ャ群の相互の実距離が20cm前後で連続する場合には
、このストラフチャ群は白線を形成するものとする。そ
して、ストラフチャ群と一方の道路端とに挾まれたとこ
ろは白線で区分された路肩とみなす。Among the struttles with the attribute of starting point, a set of struttles whose distance in real space from the left edge to the right edge of the area boundary is equal to or greater than the vehicle width of the traveling vehicle is defined as a road edge. In the case of the same figure (b), point sequence 5204 and point sequence 5
The struture set corresponding to 205 becomes the road edge. In addition, there is a set of straftures next to the road edge, and the distance between this strafture group and the road edge is narrower than the width of the straffure group representing the road edge, and the distance between the straffure group and the other road edge is is wider than the vehicle width, and if the actual distance between struture groups is approximately 20 cm and continuous, then this struture group is assumed to form a white line. The area between the strafture group and one road edge is considered to be a shoulder separated by a white line.
同図(b)の点列においては、点列52o6および点列
5207に相当するストラフチャの組により白線が形成
され、この白線と道路端52o4との間が路肩とみなさ
れる。In the sequence of points in FIG. 2B, a white line is formed by a set of strutures corresponding to the sequence of points 52o6 and 5207, and the area between this white line and the road edge 52o4 is considered to be the shoulder.
ところで、前述した「走行可能範囲を求める手段」は領
域を主体として走行コースを認識するものであり、画像
処理の結果帯られる道路領域が1つの領域となることが
前提である。同手段によれば、単調路や分岐路の道路端
を識別することは可能である。しかし、白線によって分
断された領域、特に、道路と路肩とに分断された場合に
は、それらを区別して取り扱うことは困難である。これ
は、同手段が領域の内部からウィンドウを走査して領域
境界を探査するため、同時に道路端と路肩端とを識別で
きないからである。By the way, the above-mentioned "means for determining the drivable range" recognizes the driving course based on the area, and is based on the premise that the road area covered as a result of image processing is one area. According to this means, it is possible to identify the road edge of a monotonous road or a branch road. However, when an area is divided by a white line, especially into a road and a road shoulder, it is difficult to distinguish between them. This is because the means scans the window from inside the area to search for area boundaries, and therefore cannot identify the edge of the road and the edge of the road at the same time.
しかし、以上のように、ラベル画像を画像の下部から上
部まで水平に走査し、局所的な領域の境界追跡を行って
各領域のラベル値の変位箇所を求めることにより、領域
の境界を知ることが出来る。However, as described above, it is possible to know the boundaries of an area by scanning the label image horizontally from the bottom to the top of the image, tracking the boundaries of local areas, and finding the displacement location of the label value of each area. I can do it.
これと共に、領域間の関係をストラフチャにおいて更新
し、領域の境界点を構造化することにより、道路領域は
計算機内部に構造化して表現される。At the same time, the relationship between regions is updated in the strafture, and the boundary points of the regions are structured, so that the road region is represented in a structured manner inside the computer.
従って、この「多様な形状の走行コースの内部表現手法
」によれば、路肩や走行車線等の複数の領域の境界端座
標が得られ、領域境界を容易に検出することが出来、「
走行可能範囲を求める手段」のように対象とする領域が
単一領域に限定されない。さらに、上記の白線によって
分断された路肩等をも識別することが出来る。Therefore, according to this "internal representation method for driving courses with various shapes", the boundary edge coordinates of multiple areas such as road shoulders and driving lanes can be obtained, and the area boundaries can be easily detected.
The target area is not limited to a single area as in the case of ``Means for Determining Drivable Range''. Furthermore, it is also possible to identify road shoulders divided by the above-mentioned white lines.
また、従来の領域境界手法に比べてメモリ容量は少なく
て済み、自立走行車が自動走行するのに十分な走行コー
スの走行可能範囲を、逐次的な境界探査や多角形近似を
行って評価するといった処理をすることなく得ることが
出来る。さらに、走行コースが単調路で無く、道路が分
岐していたり、合流していたりする場合においても、こ
れら分岐路や合流路の形状を統一的に表現することがで
き、走行コースの境界を正確に識別することが可能であ
る。In addition, it requires less memory capacity than conventional domain boundary methods, and evaluates the possible travel range of a driving course that is sufficient for an autonomous vehicle to drive automatically by performing sequential boundary exploration and polygon approximation. This can be obtained without any processing. Furthermore, even if the driving course is not a monotonous road, and the roads are branching or merging, the shapes of these branching roads and merging roads can be expressed uniformly, and the boundaries of the driving course can be accurately determined. It is possible to identify
以上説明したように「多様な形状の走行コースの内部表
現手法」によれば、リストに記述された属性により、各
領域の境界点の連結関係が構造化されたストラフチャに
おいて表現され、このストラフチャから対象領域の境界
が識別される。このため、従来のように求まる点列群の
数が多いため、対象領域の境界を多角形で近似し、余分
な点を間引く処理が無くなる。また、従来のように各領
域の全ての境界画素を逐次的に一つ一つ追跡する必要は
無くなり、所定の境界画素のみについて処理することに
より、対象領域が識別される。従って、処理時間は短縮
され、自立走行車の自動走行に適した領域識別方法が提
供される。As explained above, according to the "internal representation method for travel courses with various shapes", the connection relationships between the boundary points of each area are expressed in a structured strafcha using the attributes described in the list, and from this strafcha. The boundaries of the region of interest are identified. Therefore, since the number of point sequences that can be determined is large as in the conventional method, the process of approximating the boundary of the target area with a polygon and thinning out unnecessary points is no longer necessary. Further, it is no longer necessary to sequentially track all the boundary pixels of each area one by one as in the conventional method, and the target area is identified by processing only predetermined boundary pixels. Therefore, the processing time is shortened, and an area identification method suitable for autonomous driving of autonomous vehicles is provided.
以上説明したように本発明によれば、カラー画像から対
象領域を安価、高速かつ正確に抽出することが可能にな
る。As described above, according to the present invention, it is possible to extract a target area from a color image at low cost, at high speed, and accurately.
また、RGBデータからISHデータへの変換処理は各
記憶素子にISHデータを格納する際にのみ行われ、以
後は各記憶素子からISHデータが直接読み取れる。こ
のため、ISHデータが必要になった際には記憶素子に
あるデータを読み出す処理だけ行えば良く、従来のよう
にその都度RGBデータからISHデータへの変換処理
を行う必要はなく、高速な演算処理をすることが可能に
なる。Further, the conversion process from RGB data to ISH data is performed only when storing ISH data in each storage element, and thereafter the ISH data can be directly read from each storage element. Therefore, when ISH data is needed, it is only necessary to read out the data in the storage element, and there is no need to convert RGB data to ISH data each time as in the past, allowing for high-speed calculations. processing becomes possible.
また、しきい値によって領域分割された各画像は、テン
プレート画像との重複度が計算されることにより、走行
路領域との関係が判明する。このため、走行路上に白線
やランドマークが無くても、走行路領域を検出すること
が可能である。また、走行路を照射する光源の状態や不
明瞭な白線などにかかわらず、走行路領域を検出するこ
とが可能である。また、走行路上にゴミがあったり、影
が出来ている場合であっても正確に走行路情報を得るこ
とが出来る。また、走行路領域と背景領域との境界が草
や土で区分されていても、また、天候や太陽の位置によ
り、時々刻々と走行路の明るさが変化する場合であって
も正しい走行路領域を求めることが出来る。しかも、こ
れらテンプレート画像を用いた処理は特別な装置を必要
としないで効率良く実現することが出来、処理コストを
抑えることが出来る。Furthermore, the relationship between each image divided into regions based on the threshold value and the driving road region is determined by calculating the degree of overlap with the template image. Therefore, even if there are no white lines or landmarks on the road, it is possible to detect the road area. Further, it is possible to detect the driving road area regardless of the state of the light source illuminating the driving road or unclear white lines. Furthermore, even if there is trash or a shadow on the road, accurate information on the road can be obtained. In addition, even if the boundary between the driving path area and the background area is divided by grass or dirt, or if the brightness of the driving path changes from moment to moment depending on the weather or the position of the sun, the correct driving path can be maintained. You can find the area. Moreover, processing using these template images can be efficiently realized without requiring any special equipment, and processing costs can be suppressed.
また、走行路領域より低輝度の同系色領域は走行路にで
きた影などの部分に相当するものとして個別に抽出され
る。同様に、走行路領域より高輝度の同系色領域は走行
路に照射された日向などの部分に相当するものとして個
別に抽出される。このため、従来のように、限定された
走行路領域の色の分布を予め計測しておいてこれを入力
画像と比較判断する必要は無くなり、路面状況が天候の
変化や舗装工事等によって変わる一般路であっても、低
輝度部分および高輝度部分を個別にかつ高速に抽出する
ことか可能になった。Further, similar color areas having lower luminance than the driving road area are individually extracted as corresponding to parts such as shadows formed on the driving road. Similarly, areas of similar colors that are brighter than the driving path area are individually extracted as corresponding to areas such as sunlight illuminated on the driving path. This eliminates the need to measure the color distribution of a limited driving road area in advance and compare it with the input image, as was the case in the past. It is now possible to extract low-brightness parts and high-brightness parts individually and at high speed even when the road is wide.
また、ラベリングプロセッサを使用することにより、多
値の入力画像に対してもラベリング処理を行うことが出
来る。また、ランを用いてラベリングを行うことにより
、ラベリング処理装置の回路規模を小さくすることが出
来る。また、ラベルマツチングメモリを使用することに
より、ラベル統合が不要になってラベル統合時間が0に
なり、ラベリング処理時間が短縮される。また、ラベル
マツチングメモリを同時に情報を書き替えることの出来
るラベリングメモリを用いて構成することにより、リア
ルタイム処理も可能になる。Furthermore, by using a labeling processor, labeling processing can also be performed on multivalued input images. Furthermore, by performing labeling using runs, the circuit scale of the labeling processing device can be reduced. Furthermore, by using the label matching memory, label integration becomes unnecessary, the label integration time becomes zero, and the labeling processing time is shortened. In addition, by configuring the label matching memory using a labeling memory that can simultaneously rewrite information, real-time processing becomes possible.
また、特徴抽出プロセッサを使用することにより、1次
ラベリングで発生した不連続な仮ラベルを連続な最終ラ
ベルとすることが出来る。また、最終ラベルが連続にな
ってデータが圧縮されることにより、以後の特徴量抽出
の実行時間は短縮される。また、特徴抽出プロセッサに
より、2次ラベリングの時、同時に同一ラベル領域の面
積および同一ラベル領域の重心を演算することが出来る
。Furthermore, by using the feature extraction processor, discontinuous temporary labels generated in the primary labeling can be made into continuous final labels. Furthermore, since the final labels are continuous and the data is compressed, the execution time for subsequent feature quantity extraction is shortened. Furthermore, the feature extraction processor can simultaneously calculate the area of the same label region and the center of gravity of the same label region during secondary labeling.
この演算は今までは2スキャンのラベリングの後にもう
1スキャン行うことにより実行されていた。Until now, this calculation has been performed by performing one more scan after two scans of labeling.
また、ラベリングを画面の右下から左上に行うことによ
り、仮ラベルがオーバーフローしたとしても道路領域の
抽出は確実に行われる。また、出力ラベル値が記憶され
るラベルメモリを、同時に情報を書き替えることの可能
なラベリングメモリを用いて構成することにより、1ス
キャンラベリングが可能になる。Furthermore, by performing labeling from the lower right to the upper left of the screen, the road area can be reliably extracted even if the temporary label overflows. Further, by configuring the label memory in which output label values are stored using a labeling memory in which information can be simultaneously rewritten, one-scan labeling becomes possible.
また、領域併合のための処理時間がかかるラベル値の付
は替え操作は不要となり、短時間で複数の領域の併合処
理を行えるようになった。このため、自動車の自立走行
に必要とされる高速処理が可能になり、しかも、処理コ
ストが低減される。In addition, it is no longer necessary to change label values, which takes a long processing time to merge regions, and it is now possible to merge multiple regions in a short time. Therefore, high-speed processing required for self-sustaining automobiles is possible, and processing costs are reduced.
また、対象領域の範囲をウィンドウ内に存在する画素数
を基にして判断し、この対象領域上をウィンドウを左右
に水平走査してウィンドウ内の画素数の変化を調べるこ
とにより、対象領域と背致領域との境界が識別される。In addition, the range of the target area is determined based on the number of pixels existing in the window, and by scanning the window horizontally from side to side over this target area and examining changes in the number of pixels within the window, the range of the target area and the background can be determined. The boundary with the matching area is identified.
このため、領域の輪郭が不明瞭であったり、切れ込みな
どが有って輪郭が複雑な形状をしている場合においても
、領域を基準にして境界を探査するために確実に境界の
左右端を得ることが出来る。また、求めた境界の左右端
の点列を平滑化することにより、複雑な形状をした輪郭
は大局的に判断され、走行に十分な左右端の点列を得る
ことが出来る。Therefore, even if the outline of the area is unclear or has a complex shape due to notches, etc., the left and right edges of the boundary can be reliably detected in order to search the boundary based on the area. You can get it. In addition, by smoothing the point sequence at the left and right ends of the obtained boundary, a contour with a complex shape can be judged from a global perspective, and it is possible to obtain a point sequence at the left and right ends sufficient for driving.
また、車体の動きによって境界の左右端を一時的に誤っ
ても、このデータは直ぐに補正されるため、信頼性の高
い情報を得ることが出来る。さらに、このように点列の
評価を行い、有効な点列が得られた時点で次の画像処理
へ移行するので処理効率が向上する。Furthermore, even if the left and right edges of the boundary are temporarily incorrect due to vehicle movement, this data is immediately corrected, making it possible to obtain highly reliable information. Furthermore, since the point sequence is evaluated in this way and the process moves to the next image processing when a valid point sequence is obtained, processing efficiency is improved.
第1図は本発明の一実施例によるカラー画像処理装置全
体の概略構成を示すブロック図、第2図は本実施例の概
略処理の流れを示すフロチャート、第3図はFROMテ
ーブルを用いたカラー画像のISH変換処理」における
ISH変換処理のアルゴリズムを示すブロック図、第4
図および第5図および第6図および第7図のそれぞれは
このISH変換処理の処理例を従来の処理例と比較して
説明するための図、第8図は「繰返しきい値処理におけ
る特徴量ヒストグラムの形状に基づくしきい値設定手段
」におけるカラー画像の前処理の概略を示すフローチャ
ート、第9図はこの前処理におけるピーク・谷の状態を
説明するための図、第1′0図はこの前処理におけるテ
ーブル値の推移を説明するだめの図、第11図は走行路
の認識処理の概要を示すフローチャート、第12図は「
テンプレート画像を用いた繰返しきい値処理による走行
コースの抽出手段」における走行路抽出の処理の詳細を
示すフローチャート、第13図はこの道路候補領域の抽
出処理における各過程を説明するための図、第14図は
「明るさの違いに注目した走行コースからの影や高輝度
部分の抽出手段」における種々の入力画像に対する処理
の概要を説明するための図、第15図はこの手段におけ
る影や高輝度部分の説明をするための明度ヒストグラム
の一例を示すグラフ、第16図は「ラベリング処理装置
」のラベリングボード構成図、第17図はラベリング処
理のゼネラルフローチャート、第18図は多値入力ラベ
リング方式を説明するための図、第19図はランを用い
たラベリング方式を説明するための図、第20図はラベ
リング処理の画像走査で使用されるウィンドウを示す図
、第21図はラベリングプロセッサKLPの構成図、第
22図および第23図および第24図および第25図お
よび第26図および第27図のそれぞれはラベリング処
理の画像走査で行われるウィンドウ処理を示すフローチ
ャート、第28図はラベリングメモリKLMの構成図、
第29図は最終的に付与されるラベル値を整合する処理
を説明するための図、第30図は特徴抽出プロセッサK
LCの構成図、第31図は1スキャンラベリング方式を
説明するための図、第32図は「複数の領域の併合手段
」においてラベル領域を探査するために使用される逆り
字マスクを示す図、第33図は第32図に示された逆り
字マスクを用いた領域境界探査を説明する際に使用され
る分割領域の一例を示す図、第34図は逆り字マスク走
査式手法により求まったラベール領域間境界長および領
域の周囲長が記憶されるラベル間境界長マドリスクを示
す図、第35図は各領域間の接続関係および各ラベル領
域の有する特徴間が記述される特徴量リストを示す図、
第36図は第35図に示された特徴量リストに記述され
た各特徴間を有するラベル領域の一例、第37図は境界
探査式手法において着目される画素の近傍に付される参
照画素位置No。
を示す図、第38図は境界探査式手法において使用され
る画素参照テーブルを示す図、第39図は第38図に示
された画素参照テーブルの使用方法を説明する際に用い
られる画素領域の一例を示す図、第40図は「走行可能
範囲を求める手段」における走行コース認識システムの
処理の流れを示すフローチャート、第41図はこの手段
の説明において使用される取り込み画像でのウィンドウ
の移動を示す図、第42図は対象領域におけるウィンド
ウおよびヒストグラムの値を説明するための図、第43
図は曲率のきついカーブで走行車が道路端に近付き過ぎ
た場合に生じる道路端の識別の逆転を説明するための図
、第44図は第43図に示された道路端の認識の逆転を
防止するために求めた点列群の関係をマハラノビスの汎
距離を用いて補正する手法を説明するための図、第45
図は「多様な形状の走行コースの内部表現手法」におけ
る道路領域の構造化処理の概略を示すフローチャート、
第46図はy方向リストと領域境界点ストラフチャとを
説明するための図、第47図はラベル変位箇所と領域境
界点ストラフチャとを説明するための図、第48図は領
域境界の属性を説明するための図、第49図は領域境界
点の前後方向のリンク処理を説明するための図、第50
図は内部点エツジおよび穴という属性を説明するための
図、第51図は一旦付与された属性の付は替え処理を説
明するための図、第52図は道路端および路肩端の検出
を説明するための図である。
101・・・カラーカメラ、102・・・ISH変換部
、103・・・カラー処理部、104・・・ラベリング
ハード、105・・・CPU処理部。FIG. 1 is a block diagram showing a schematic configuration of the entire color image processing apparatus according to an embodiment of the present invention, FIG. 2 is a flowchart showing a schematic processing flow of this embodiment, and FIG. Block diagram illustrating the algorithm of ISH conversion processing in ``ISH conversion processing of color images'', Part 4
5, 6, and 7 are diagrams for explaining a processing example of this ISH conversion process in comparison with a conventional processing example, and FIG. A flowchart showing an outline of the preprocessing of a color image in "threshold setting means based on the shape of the histogram", Fig. 9 is a diagram for explaining the state of peaks and valleys in this preprocessing, and Fig. Figure 11 is a flowchart showing an overview of the travel route recognition process, and Figure 12 is a diagram for explaining the transition of table values in preprocessing.
FIG. 13 is a flowchart showing the details of the driving route extraction process in the driving course extraction means by repeated threshold processing using a template image, and FIG. Figure 14 is a diagram for explaining the outline of the processing for various input images in the ``Method for extracting shadows and high-luminance parts from a driving course that focuses on differences in brightness.'' A graph showing an example of a brightness histogram to explain the luminance part, Fig. 16 is a labeling board configuration diagram of the "labeling processing device", Fig. 17 is a general flowchart of labeling processing, and Fig. 18 is a multi-value input labeling method. Figure 19 is a diagram to explain the labeling method using runs, Figure 20 is a diagram showing the window used in image scanning for labeling processing, and Figure 21 is a diagram of the labeling processor KLP. 22, FIG. 23, FIG. 24, FIG. 25, FIG. 26, and FIG. 27 are flowcharts showing window processing performed in image scanning of labeling processing, and FIG. 28 is a flowchart showing the labeling memory KLM. Configuration diagram,
FIG. 29 is a diagram for explaining the process of matching finally assigned label values, and FIG. 30 is a diagram for explaining the process of matching the label values finally assigned.
A configuration diagram of the LC, FIG. 31 is a diagram for explaining the 1-scan labeling method, and FIG. 32 is a diagram showing an inverted mask used to search the label area in the "merging means of multiple areas" , FIG. 33 is a diagram showing an example of divided regions used to explain the area boundary exploration using the inverted mask shown in FIG. 32, and FIG. A diagram showing an inter-label boundary length madrisk in which the determined boundary length between label regions and the perimeter of the region are stored, and FIG. 35 is a feature value list that describes the connection relationship between each region and the features possessed by each label region. A diagram showing
Fig. 36 is an example of a label region having the features described in the feature list shown in Fig. 35, and Fig. 37 is a reference pixel position attached near the pixel of interest in the boundary search method. No. , FIG. 38 is a diagram showing a pixel reference table used in the boundary search method, and FIG. 39 is a diagram showing a pixel area used to explain how to use the pixel reference table shown in FIG. 38. FIG. 40 is a flowchart showing the processing flow of the driving course recognition system in the "means for determining the drivable range", and FIG. 41 shows the movement of the window in the captured image used in the explanation of this means. Figure 42 is a diagram for explaining the window and histogram values in the target area, Figure 43 is a diagram for explaining the window and histogram values in the target area.
The figure is a diagram to explain the reversal of road edge recognition that occurs when a vehicle approaches the road edge too closely on a curve with a tight curvature. Figure 44 shows the reversal of road edge recognition shown in Figure 43. Diagram 45 for explaining the method of correcting the relationship of the point sequence obtained to prevent the problem using Mahalanobis' general distance
The figure is a flowchart outlining the process of structuring a road area in the ``internal representation method for driving courses with various shapes.''
Fig. 46 is a diagram for explaining the y-direction list and the area boundary point struc- ture, Fig. 47 is a diagram for explaining the label displacement location and the area boundary point struc- ture, and Fig. 48 is a diagram for explaining the attributes of the area boundary. FIG. 49 is a diagram for explaining link processing in the front and back direction of area boundary points, and FIG.
The figure is a diagram to explain the attributes of internal point edges and holes, Figure 51 is a diagram to explain the process of replacing attributes once assigned, and Figure 52 is a diagram to explain the detection of road edges and road shoulder edges. This is a diagram for 101... Color camera, 102... ISH conversion unit, 103... Color processing unit, 104... Labeling hardware, 105... CPU processing unit.
Claims (1)
撮像装置に取り込まれた前記RGB情報を明度、彩度、
色相のISH情報に変換するISH変換部と、該ISH
変換部により変換された明度、彩度の前記IS情報に基
づいて対象領域を抽出するカラー処理部と、該カラー処
理部により抽出された前記対象領域を構成する各領域に
ラベル付けをするラベリング部と、該ラベリング部によ
りラベル付けされた前記各領域の接続関係を求めて各領
域間の併合処理を行う併合手段と、併合された領域の境
界端を求める領域境界識別手段とを備えて構成され、撮
像された対象領域の形状を識別することを特徴とするカ
ラー画像処理装置。 2、撮像された原画像データが記憶される原画像メモリ
と、該原画像データに含まれるRGBデータのうちのR
データを記憶するR画像メモリと、前記RGBデータの
うちのGデータを記憶するG画像メモリと、前記RGB
データのうちのBデータを記憶するB画像メモリと、前
記R画像メモリ、前記G画像メモリおよび前記B画像メ
モリに記憶されたRGBデータから変換された明度デー
タが記憶される第1の記憶素子と、前記R画像メモリ、
前記G画像メモリおよび前記B画像メモリに記憶された
RGBデータから変換された彩度データが記憶される第
2の記憶素子と、前記R画像メモリ、前記G画像メモリ
および前記B画像メモリに記憶されたRGBデータから
変換された色相データが記憶される第3の記憶素子と、
該第3の記憶素子から出力される前記色相データを平均
化する平均値フィルタとを備えたことを特徴とするカラ
ー画像処理におけるISH変換装置。 3、撮像された原画像データからRGBデータを抽出し
、該RGBデータを明度データ、彩度データ、色相デー
タに変換し、該明度データ、彩度データ、色相データを
各々別個の記憶素子に記憶し、前記明度データおよび彩
度データは前記各記憶素子から読み出されて直接画像処
理に供され、前記色相データは前記記憶素子から読み出
されて平均値フィルタに通された後に画像処理に供され
ることを特徴とするカラー画像処理におけるISH変換
方法。 4、撮像された原画像データからRGBデータを抽出し
、該RGBデータを明度データに変換し、該明度データ
から特徴量ヒストグラムを作成し、該特徴量ヒストグラ
ムに基づいて領域区分しきい値を設定し、該領域区分し
きい値により原画像を2値化することにより領域分割し
て分割画像を作成し、対象領域が撮像される画像位置に
想定された所定領域およびその他の領域に2値化された
テンプレート画像と前記分割画像との重複度を計算し、
該重複度の大きい前記分割画像に対象領域が含まれてい
るものと判断し、対象領域を背景領域から抽出すること
を特徴とする対象領域抽出方法。 5、RGBデータから彩度データに変換し、該彩度デー
タから特徴量ヒストグラムを作成し、該特徴量ヒストグ
ラムに基づいて領域区分しきい値を設定し、該領域区分
しきい値により原画像を2値化することにより領域分割
して分割画像を作成し、テンプレート画像と前記分割画
像との重複度を計算し、該重複度の大きい前記分割画像
に対象領域が含まれているものと判断して対象領域を抽
出し、該対象領域と明度データから抽出した前記対象領
域とに基づいてより現実に即した対象領域を求めること
を特徴とする請求項4記載の対象領域抽出方法。 6、特徴量ヒストグラムに基づく領域区分しきい値の設
定は、大津の判別分析法で求めたしきい値を前記特徴量
ヒストグラムの形状に基づいて求めた谷の候補値によっ
て補正することを特徴とする請求項4記載の対象領域抽
出方法。 7、特徴量ヒストグラムに基づく領域区分しきい値の設
定は、大津の判別分析法で求めたしきい値を前記特徴量
ヒストグラムの形状に基づいて求めた谷の候補値によっ
て補正することを特徴とする請求項5記載の対象領域抽
出方法。 8、テンプレート画像との重複度が高い分割画像の中に
特徴量ヒストグラムの形状に基づいて求めた谷の候補値
がある場合には、さらに、該候補値によって前記分割画
像を領域分割し、該分割された画像の中に前記候補値が
無くなるまで領域分割を繰り返すことを特徴とする請求
項6記載の対象領域抽出方法。 9、テンプレート画像との重複度が高い分割画像の中に
特徴量ヒストグラムの形状に基づいて求めた谷の候補値
がある場合には、さらに、該候補値によって前記分割画
像を領域分割し、該分割された画像の中に前記候補値が
無くなるまで領域分割を繰り返すことを特徴とする請求
項7記載の対象領域抽出方法。 10、明度データから抽出した対象領域より暗い領域ま
たは明るい領域がある場合には、該暗い領域または明る
い領域を特徴量ヒストグラムの形状に基づいて求めた谷
の候補値に基づいて2値化し、該2値化された明度画像
と彩度画像から求められた前記対象領域画像とに基づい
て前記明るい領域または暗い領域を抽出することを特徴
とする請求項5または請求項7または請求項9記載の対
象領域抽出方法。 11、抽出した明るい領域または暗い領域を明度画像お
よび彩度画像から求められた対象領域に併合することを
特徴とする請求項10記載の対象領域抽出方法。 12、複数の2値入力画像が足し合わされた多値の画像
情報を記憶する入力メモリと、該入力メモリに記憶され
た各画素に画素値に応じてラベル付けを行うラベリング
プロセッサと、該ラベリングプロセッサによって付けら
れた各画素の出力ラベル値を記憶するラベルメモリとを
備えて構成され、多値の入力画像に対してもラベリング
処理を行うことを特徴とするラベリング処理装置。 13、ラベリングプロセッサは、着目する画素および該
着目画素に隣接する各画素のラベル値を比較する第1の
比較回路と、前記着目画素および前記隣接画素の連結関
係を前記ラベル値に基づいて比較する第2の比較回路と
、前記第1の比較回路および前記第2の比較回路の比較
結果に基づいて着目画素のラベル値を決定するセレクタ
回路とを備えて構成されたことを特徴とする請求項12
記載のラベリング装置。 14、ラベリングプロセッサによる1次走査によって付
けられた各画素の仮ラベル値を記憶するラベルマッチン
グメモリを備え、前記ラベリングプロセッサによる2次
走査において該ラベルマッチングメモリに記憶された仮
ラベル値を整列しラベルメモリに出力ラベル値として記
憶しなおして画像出力することを特徴とする請求項12
または請求項13記載のラベリング装置。 15、ラベルマッチングメモリは、情報を記憶する記憶
回路と、該記憶回路に記憶された情報および外部からの
入力情報を比較して該各情報が一致した場合に信号を出
力する比較回路と、アドレス信号を入力して該信号をデ
コードして出力するデコーダ回路と、前記比較回路およ
び前記デコーダ回路のいづれかの回路から有効な信号が
出力されている場合に前記記憶回路のイネーブル端子に
信号を出力して前記記憶回路に記憶された情報を書き替
え可能状態にする論理回路とを構成の一単位とするラベ
リングメモリにより構成され、ラベル統合を不要とした
ことを特徴とする請求項14記載のラベリング装置。 16、ラベリングプロセッサによる各画素の走査を入力
画像の画面右下から左上に行うことを特徴とする請求項
12または請求項13または請求項14または請求項1
5記載のラベリング装置。 17、ラベリングメモリにより構成された1走査分の画
像情報を記憶するラインバッファメモリを備え、 入力画像の画素領域が階段状に形成されている場合に、
ラベリングプロセッサは前記入力画像の画素領域を各行
ごとにラン単位に区分し、該ランの走査中において同一
ラベル値の画素が続く限り前記ラインバッファメモリに
フラグを立て、同一ラベル画素の終了時点または該ラン
の最終画素の走査時点で前記フラグの立った各画素にラ
ベルを同時に付けることを特徴とする請求項12または
請求項13または請求項14または請求項15記載のラ
ベリング装置。 18、所定クロックに同期して発生するカウントパルス
をアドレスとしてラベルマッチングメモリへ出力する第
1のカウンタ回路と、前記クロックに同期して発生する
カウントパルスをデータとしてラベルマッチングメモリ
へ出力する第2のカウンタ回路と、前記第1のカウンタ
回路の出力するアドレスおよび前記第2のカウンタ回路
の出力するデータの各値を比較して各値が異なる場合に
は前記第2のカウンタ回路のカウントアップを見合わせ
る比較回路とを備え、 ラベリングプロセッサによる1次走査によって一時的に
ラベルマッチングメモリに記憶された不連続な値の仮ラ
ベル値を連続な値に変換することを特徴とする請求項1
4または請求項15または請求項17記載のラベリング
装置。 19、同一ラベル値の画素を入力する毎に1づつカウン
トアップするカウンタ回路と、同一ラベル値の画素を入
力する毎に該画素のX方向アドレスのアドレス値を加算
していく第1の加算器と、同一ラベル値の画素を入力す
る毎に該画素のY方向アドレスのアドレス値を加算して
いく第2の加算器とを備え、 ラベリングプロセッサによる2次ラベリングの際に、同
一ラベル領域の面積、同一ラベル領域のX方向アドレス
の合計値および同一ラベル領域のY方向アドレスの合計
値を求めることを特徴とする請求項14または請求項1
5または請求項17記載のラベリング装置。20、出力
ラベル値を記憶するラベルメモリはラベリングメモリに
より構成され、ラベリングプロセッサによる画素の走査
を1スキャンのみ行うことによってラベリングをするこ
とを特徴とする請求項12または請求項13記載のラベ
リング装置。 21、画像分割されラベル付けされた各領域の画素につ
いてマスクを走査し、該マスクに現れる着目画素のラベ
ル値と該着目画素に隣接する画素のラベル値との連結関
係に基づいて同一ラベル領域の周囲長および該同一ラベ
ル領域に隣接する領域との間の共通境界長を求め、該周
囲長と該共通境界長との比率に基づいて隣接領域間の接
続度を求め、この接続度をメモリに記述して各領域間の
繋がりの関係を判断することを特徴とする複数の領域の
併合方法。 22、着目画素の近傍に位置する各画素に位置を示す番
号を付与し、該位置番号を列方向および行方向に所定順
番に並べた画素参照テーブルを予め作成し、 画像分割されラベル付けされた領域の境界にある1つの
画素に着目して該画素の近傍の画素のラベル値を調べる
ことにより該画素付近の領域の境界を局所的に探索し、 探索した該画素に繋がりかつ領域の境界に位置する次に
探索すべき画素の位置番号を、探索した前記画素を基準
にして判断し、該位置番号で特定される前記画素参照テ
ーブルの位置番号列に従って次に探索すべき前記画素の
近傍の画素を探索することにより、次に探索すべき前記
画素付近の領域の境界を局所的に探索し、 以下順に領域の境界にある各画素の近傍に位置する画素
を前記画素参照テーブルによって指示される位置番号列
に従って局所的に探索し、 領域の周囲長および該領域に隣接する領域との共通境界
長を求め、該周囲長と該共通境界長との比率に基づいて
隣接領域間の接続度を求め、この接続度をメモリに記述
して各領域間の繋がりの関係を判断することを特徴とす
る複数の領域の併合方法。 23、所定数の画素を囲むウィンドウを画像分割された
対象領域の水平方向に走査し、前記ウィンドウ内に存在
する所定画素値を有する画素数を各走査位置ごとに数え
、所定画素値を有する該画素数が所定数以下になるウィ
ンドウ位置が連続して存在するとき、該画素数が所定数
以下になり始めるウィンドウ位置を前記対象領域の背景
領域との境界と判断し、前記対象領域の境界を識別する
ことを特徴とする対象領域の境界識別方法。 24、求めた対象領域の境界をなす点列どうしの隣接す
る各点がなす角度を計算し、該角度の分散値を点列の滑
らかさの基準とし、該角度に基づいて前記境界の点列を
平滑化し、前記対象領域の境界を大局的に評価すること
を特徴とする請求項23記載の対象領域の境界識別方法
。 25、前回入力した画像から求めた対象領域の境界の左
端または右端の点列の点と、今回入力した画像から求め
た対象領域の境界の左端の点列の点および右端の点列の
点との間のマハラノビスの汎距離を求め、前記前回画像
における点列の点と近い距離に位置する前記今回画像に
おける点列とは同一の点列と判断し、対象領域の境界の
左右端の点列を逆に認識することを防止することを特徴
とする請求項23または請求項24記載の対象領域の境
界識別方法。[Scope of Claims] 1. An imaging device that captures an original image as RGB information, and a system that uses the RGB information captured by the imaging device to determine brightness, saturation,
an ISH conversion unit that converts into hue ISH information;
a color processing unit that extracts a target area based on the IS information of brightness and saturation converted by the conversion unit; and a labeling unit that labels each area forming the target area extracted by the color processing unit. , merging means for determining the connection relationship between the regions labeled by the labeling unit and performing merging processing between the regions, and region boundary identification means for determining the boundary edges of the merged regions. , a color image processing device characterized by identifying the shape of an imaged target area. 2. An original image memory in which captured original image data is stored, and R of RGB data included in the original image data.
an R image memory that stores data; a G image memory that stores G data of the RGB data; and a G image memory that stores G data of the RGB data;
a B image memory that stores B data of the data; a first storage element that stores brightness data converted from the RGB data stored in the R image memory, the G image memory, and the B image memory; , the R image memory;
a second storage element in which saturation data converted from the RGB data stored in the G image memory and the B image memory is stored; a third storage element in which hue data converted from the RGB data is stored;
An ISH conversion device for color image processing, comprising: an average value filter that averages the hue data output from the third storage element. 3. Extract RGB data from the captured original image data, convert the RGB data into brightness data, chroma data, and hue data, and store the brightness data, chroma data, and hue data in separate storage elements. The brightness data and saturation data are read out from each storage element and directly subjected to image processing, and the hue data is read out from the storage element and passed through an average value filter before being subjected to image processing. An ISH conversion method in color image processing, characterized in that: 4. Extract RGB data from the captured original image data, convert the RGB data to brightness data, create a feature histogram from the brightness data, and set area segmentation thresholds based on the feature histogram. Then, the original image is binarized using the area segmentation threshold to create segmented images, and the target area is binarized into a predetermined area assumed to be at the image position where the image is captured and other areas. calculating the degree of overlap between the template image and the divided image;
A method for extracting a target region, comprising: determining that a target region is included in the divided images having a high degree of overlap, and extracting the target region from a background region. 5. Convert RGB data to saturation data, create a feature histogram from the saturation data, set a region segmentation threshold based on the feature histogram, and divide the original image using the region segmentation threshold. A divided image is created by dividing the area by binarization, the degree of overlap between the template image and the divided image is calculated, and it is determined that the target area is included in the divided image with the higher degree of overlap. 5. The target area extraction method according to claim 4, further comprising extracting a target area based on the target area and determining a more realistic target area based on the target area and the target area extracted from the brightness data. 6. The setting of the region segmentation threshold based on the feature histogram is characterized in that the threshold obtained by Otsu's discriminant analysis method is corrected by the valley candidate value obtained based on the shape of the feature histogram. 5. The target area extraction method according to claim 4. 7. The setting of the region segmentation threshold based on the feature histogram is characterized in that the threshold obtained by Otsu's discriminant analysis method is corrected by the valley candidate value obtained based on the shape of the feature histogram. 6. The target area extraction method according to claim 5. 8. If there is a valley candidate value found based on the shape of the feature value histogram in a divided image with a high degree of overlap with the template image, the divided image is further divided into regions according to the candidate value, and the divided image is divided into regions according to the candidate value. 7. The target area extraction method according to claim 6, further comprising repeating the area division until the candidate value is no longer present in the divided image. 9. If there is a valley candidate value determined based on the shape of the feature value histogram in the divided image with a high degree of overlap with the template image, the divided image is further divided into regions according to the candidate value, and the divided image is divided into regions according to the candidate value. 8. The target region extraction method according to claim 7, wherein region division is repeated until the candidate value is no longer present in the divided image. 10. If there is a region darker or brighter than the target region extracted from the brightness data, the dark or bright region is binarized based on the valley candidate value obtained based on the shape of the feature value histogram, and the target region is extracted from the brightness data. The bright area or the dark area is extracted based on the target area image obtained from the binarized brightness image and the chroma image. Target area extraction method. 11. The target area extraction method according to claim 10, characterized in that the extracted bright area or dark area is merged with the target area determined from the brightness image and the chroma image. 12. An input memory that stores multivalued image information obtained by adding together a plurality of binary input images, a labeling processor that labels each pixel stored in the input memory according to the pixel value, and the labeling processor. What is claimed is: 1. A labeling processing device comprising: a label memory for storing output label values of each pixel assigned by the method, and capable of performing labeling processing even on multivalued input images. 13. The labeling processor compares the connection relationship between the pixel of interest and the adjacent pixels based on the label value with a first comparison circuit that compares the label values of the pixel of interest and each pixel adjacent to the pixel of interest. Claim characterized in that it is configured to include a second comparison circuit and a selector circuit that determines a label value of a pixel of interest based on comparison results of the first comparison circuit and the second comparison circuit. 12
Labeling device as described. 14. A label matching memory is provided to store the temporary label value of each pixel attached by the primary scanning by the labeling processor, and the temporary label values stored in the label matching memory are arranged in the secondary scanning by the labeling processor to form a label. Claim 12 characterized in that the image is output after being stored in memory as an output label value.
Or the labeling device according to claim 13. 15. The label matching memory includes a storage circuit that stores information, a comparison circuit that compares the information stored in the storage circuit and input information from the outside and outputs a signal when the information matches, and an address a decoder circuit that inputs a signal, decodes and outputs the signal; and outputs a signal to an enable terminal of the storage circuit when a valid signal is output from any one of the comparator circuit and the decoder circuit; 15. The labeling device according to claim 14, characterized in that the labeling device comprises a labeling memory having a logic circuit as one unit of the configuration, which makes the information stored in the storage circuit into a rewritable state, and eliminates the need for label integration. . 16. Claim 12, Claim 13, Claim 14, or Claim 1, characterized in that each pixel is scanned by the labeling processor from the bottom right to the top left of the screen of the input image.
5. The labeling device according to 5. 17. Equipped with a line buffer memory configured by a labeling memory to store image information for one scan, and when the pixel area of the input image is formed in a step-like manner,
The labeling processor divides the pixel area of the input image into runs for each row, sets a flag in the line buffer memory as long as pixels with the same label value continue during scanning of the run, and sets a flag in the line buffer memory at the end of the same label pixel or at the end of the same label pixel. 16. The labeling apparatus according to claim 12, 13, 14, or 15, wherein a label is attached to each flagged pixel at the same time when the last pixel of a run is scanned. 18. A first counter circuit that outputs count pulses generated in synchronization with a predetermined clock as an address to the label matching memory, and a second counter circuit that outputs count pulses generated in synchronization with the clock as data to the label matching memory. A counter circuit compares each value of the address outputted by the first counter circuit and the data outputted by the second counter circuit, and if the respective values are different, the count-up of the second counter circuit is stopped. Claim 1, further comprising: a comparison circuit, which converts temporary label values of discontinuous values temporarily stored in a label matching memory into continuous values through primary scanning by a labeling processor.
4. The labeling device according to claim 4, claim 15, or claim 17. 19. A counter circuit that counts up by one each time a pixel with the same label value is input, and a first adder that adds the address value of the X-direction address of the pixel each time a pixel with the same label value is input. and a second adder that adds the address value of the Y-direction address of the pixel each time a pixel with the same label value is input, and when performing secondary labeling by the labeling processor, the area of the same label area , the total value of the X-direction addresses of the same label area and the total value of the Y-direction addresses of the same label area are determined.
18. The labeling device according to claim 5 or claim 17. 20. The labeling apparatus according to claim 12 or 13, wherein the label memory for storing the output label value is constituted by a labeling memory, and the labeling is performed by performing only one scan of pixels by a labeling processor. 21. A mask is scanned for the pixels in each area that has been divided into images and labeled, and the labels of the same labeled area are determined based on the connection relationship between the label value of the pixel of interest appearing in the mask and the label value of the pixel adjacent to the pixel of interest. Determine the perimeter and the common boundary length between the regions adjacent to the same labeled region, determine the degree of connectivity between the adjacent regions based on the ratio of the perimeter and the common boundary length, and store this degree of connectivity in memory. A method for merging multiple areas, characterized by describing and determining connections between each area. 22. A pixel reference table is created in advance in which each pixel located in the vicinity of the pixel of interest is given a number indicating its position, and the position numbers are arranged in a predetermined order in the column and row directions, and the image is divided and labeled. Focusing on one pixel at the boundary of a region, by checking the label values of pixels in the vicinity of this pixel, the boundary of the region near this pixel is locally searched, and the method connects to the searched pixel and is located at the boundary of the region. The position number of the next pixel to be searched is determined based on the searched pixel, and the position number of the next pixel to be searched is determined according to the position number column of the pixel reference table specified by the position number. By searching for a pixel, the boundary of the area near the next pixel to be searched is locally searched, and the pixels located in the vicinity of each pixel at the boundary of the area are sequentially specified by the pixel reference table. Search locally according to the position number sequence, find the perimeter of the region and the common boundary length with the region adjacent to the region, and calculate the degree of connectivity between the adjacent regions based on the ratio of the perimeter and the common boundary length. A method for merging a plurality of regions, characterized in that the degree of connectivity is determined in memory and the degree of connection between the regions is determined. 23. Scan a window surrounding a predetermined number of pixels in the horizontal direction of the image-divided target area, count the number of pixels with a predetermined pixel value existing within the window for each scanning position, and calculate the number of pixels having the predetermined pixel value. When there are consecutive window positions where the number of pixels is less than or equal to a predetermined number, the window position where the number of pixels starts to become less than or equal to the predetermined number is determined to be the boundary between the target area and the background area, and the boundary of the target area is determined. A method for identifying boundaries of a target area, characterized by identifying boundaries. 24. Calculate the angle formed by each adjacent point of the point sequence that forms the boundary of the obtained target area, use the variance value of this angle as a standard for the smoothness of the point sequence, and calculate the point sequence of the boundary based on the angle. 24. The method for identifying boundaries of a target area according to claim 23, wherein the boundary of the target area is evaluated globally. 25. The points in the leftmost or rightmost point sequence of the boundary of the target area obtained from the image input last time, the points in the leftmost point sequence and the points in the rightmost point sequence of the boundary of the target area calculated from the image input this time. The Mahalanobis general distance between the points is determined to be the same as the point sequence in the current image that is located at a close distance to the point sequence in the previous image, and the point sequence at the left and right ends of the boundary of the target area is determined. 25. The method for identifying boundaries of a target area according to claim 23 or 24, wherein the method prevents reverse recognition of the target area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2112986A JP2963138B2 (en) | 1990-04-27 | 1990-04-27 | Color image processing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2112986A JP2963138B2 (en) | 1990-04-27 | 1990-04-27 | Color image processing equipment |
Related Child Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14296099A Division JP3232064B2 (en) | 1999-05-24 | 1999-05-24 | Target area extraction method for color images |
JP14295999A Division JP3333468B2 (en) | 1999-05-24 | 1999-05-24 | Roadway image processing device for autonomous running of vehicles |
JP14296199A Division JP3421274B2 (en) | 1999-05-24 | 1999-05-24 | Labeling device for color images |
JP14296399A Division JP3243230B2 (en) | 1999-05-24 | 1999-05-24 | Boundary identification method of target area in color image |
JP14296299A Division JP3232065B2 (en) | 1999-05-24 | 1999-05-24 | A method for merging multiple regions in a color image |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0410079A true JPH0410079A (en) | 1992-01-14 |
JP2963138B2 JP2963138B2 (en) | 1999-10-12 |
Family
ID=14600553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2112986A Expired - Fee Related JP2963138B2 (en) | 1990-04-27 | 1990-04-27 | Color image processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2963138B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003081359A (en) * | 2001-09-11 | 2003-03-19 | Toyo Seikan Kaisha Ltd | Packaging bag for microwave oven and manufacturing method for packaging item having content filled in packaging bag |
JP2007028279A (en) * | 2005-07-19 | 2007-02-01 | Honda Motor Co Ltd | Vehicle and road surface label recognizing device |
JP2014039100A (en) * | 2012-08-13 | 2014-02-27 | Nikon Corp | Image processing apparatus, imaging device, and image processing program |
KR20140134311A (en) | 2012-03-07 | 2014-11-21 | 도판 인사츠 가부시키가이샤 | Steam release standing pouch and content-enclosing standing pouch |
-
1990
- 1990-04-27 JP JP2112986A patent/JP2963138B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003081359A (en) * | 2001-09-11 | 2003-03-19 | Toyo Seikan Kaisha Ltd | Packaging bag for microwave oven and manufacturing method for packaging item having content filled in packaging bag |
JP2007028279A (en) * | 2005-07-19 | 2007-02-01 | Honda Motor Co Ltd | Vehicle and road surface label recognizing device |
KR20140134311A (en) | 2012-03-07 | 2014-11-21 | 도판 인사츠 가부시키가이샤 | Steam release standing pouch and content-enclosing standing pouch |
US9527629B2 (en) | 2012-03-07 | 2016-12-27 | Toppan Printing Co., Ltd. | Steam release standing pouch and content-enclosing standing pouch |
US9776769B2 (en) | 2012-03-07 | 2017-10-03 | Toppan Printing Co., Ltd. | Steam release standing pouch and content-enclosing standing pouch |
JP2014039100A (en) * | 2012-08-13 | 2014-02-27 | Nikon Corp | Image processing apparatus, imaging device, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2963138B2 (en) | 1999-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103927526B (en) | Vehicle detecting method based on Gauss difference multi-scale edge fusion | |
CN110309808B (en) | Self-adaptive smoke root node detection method in large-scale space | |
JPH0676062A (en) | Picture processor | |
Li et al. | Detection of vehicles from traffic scenes using fuzzy integrals | |
Chen | Nighttime vehicle light detection on a moving vehicle using image segmentation and analysis techniques | |
CN108765456B (en) | Target tracking method and system based on linear edge characteristics | |
Shneier | Using pyramids to define local thresholds for blob detection | |
JP3333468B2 (en) | Roadway image processing device for autonomous running of vehicles | |
JP3232064B2 (en) | Target area extraction method for color images | |
CN109977714A (en) | A kind of integrated vision positioning method of the more QR codes of warehoused cargo | |
KR100638347B1 (en) | Crack recognition and control system for use in crack sealer | |
Tung et al. | Binarization of uneven-lighting image by maximizing boundary connectivity | |
JP3421274B2 (en) | Labeling device for color images | |
JPH0410079A (en) | Device and method for processing color image | |
CN107832732A (en) | Method for detecting lane lines based on ternary tree traversal | |
JP3232065B2 (en) | A method for merging multiple regions in a color image | |
JP3243230B2 (en) | Boundary identification method of target area in color image | |
CN102073868A (en) | Digital image closed contour chain-based image area identification method | |
CN115797870A (en) | AI object detection system, method, electronic device and storage medium based on lightweight motion detection | |
JP2915067B2 (en) | Target area identification method in image processing | |
Le et al. | A robust and flexible license plate detection method | |
Hoogs et al. | An integrated boundary and region approach to perceptual grouping | |
Ramalingam et al. | Vehicle detection for traffic flow analysis | |
Rosebrock et al. | Real-time vehicle detection with a single camera using shadow segmentation and temporal verification | |
EP1095357B1 (en) | Automatic masking of objects in images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |