JPH0676065A - Method and device for recognizing road circumstances - Google Patents

Method and device for recognizing road circumstances

Info

Publication number
JPH0676065A
JPH0676065A JP4226897A JP22689792A JPH0676065A JP H0676065 A JPH0676065 A JP H0676065A JP 4226897 A JP4226897 A JP 4226897A JP 22689792 A JP22689792 A JP 22689792A JP H0676065 A JPH0676065 A JP H0676065A
Authority
JP
Japan
Prior art keywords
data
image data
area
sample
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4226897A
Other languages
Japanese (ja)
Inventor
Yuko Teranishi
優子 寺西
Makoto Shiotani
真 塩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4226897A priority Critical patent/JPH0676065A/en
Publication of JPH0676065A publication Critical patent/JPH0676065A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To reduce the capacity of a memory to be used, to increase the processing speed, and to meet the personal needs with an inexpensive device with respect to the road circumstance recognition method using picture recognition as the driver aid. CONSTITUTION:This method consists of a picture input device 1, a picture data storage memory 2 where input picture data is stored, a feature point extraction processing 3 which extracts feature points of a picture, an area extraction processing 4 which extracts a mark area, a feature point interpolation processing 5 which connects feature points, a sample area designating part 6 which designates a sample area, a sample data storage memory 7, a picture data comparison processing 8 which compares the input picture with sample data, and a display device 9 on which the recognition result is displayed. Since the preprocessing of picture processing is omitted and partial data is processed, the memory capacity to be used is reduced, and the processing speed is increased. Since sample data is inputted, recognition meeting the personal purpose is realized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】自動車運転時の運転者支援の方法
として、道路上の車線や障害物、標識等を認識して運転
者に知らせたり、自動的に停止したりする方法がある。
本発明は道路環境の画像を処理することにより、運転者
の支援をしたり、自動運転のための基本情報を得る道路
環境認識方法及び装置に関する。
[Field of Industrial Application] As a method for supporting a driver when driving a vehicle, there is a method of recognizing a lane, an obstacle, a sign, etc. on a road to inform the driver or automatically stopping.
The present invention relates to a road environment recognition method and apparatus for processing a road environment image to assist a driver and obtain basic information for automatic driving.

【0002】[0002]

【従来の技術】道路環境の画像認識技術において、標識
・信号・道路表示などの認識方法が多種提案されてい
る。例えば、標識の認識については、特開平1−265
400号で、道路領域を求め、その結果から標識等が存
在する領域を推定し、その領域から特徴点を抽出して、
色・形状・大きさ等から標識を認識する方法が提案され
ている。さらに、道路の認識については、特開平1−2
65399号で、特徴点および色及び面積等から道路の
領域を認識する方法が提案されている。
2. Description of the Related Art In image recognition technology for road environments, various recognition methods for signs, signals, road displays, etc. have been proposed. For example, regarding the recognition of a sign, JP-A-1-265 is available.
In No. 400, the road area is obtained, the area where the sign or the like exists is estimated from the result, and the feature points are extracted from the area,
A method of recognizing a sign from color, shape, size, etc. has been proposed. Further, regarding the recognition of roads, JP-A 1-2
Japanese Patent No. 65399 proposes a method of recognizing a road region from feature points, colors, areas, and the like.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術では、入
力した画像のすべての領域で特徴点抽出、ノイズ処理を
行い、いくつかの領域に分け、それらの色や形状などか
ら道路を認識している。また、認識された道路から、標
識等の位置を推定し、標識の認識を行っている。従っ
て、入力画像1画面あたりの処理時間が長く、また処理
に必要なメモリ領域が大きくなってしまっている。ま
た、多種にわたる標識等の認識について、それらの特徴
量の違いを考慮に入れていない。また、使用者への認識
結果の通知方法については特に述べられていない。
In the above prior art, feature points are extracted and noise processing is performed in all areas of the input image, and the areas are divided into several areas, and the road is recognized based on their colors and shapes. There is. Further, the position of a sign or the like is estimated from the recognized road to recognize the sign. Therefore, the processing time per screen of the input image is long, and the memory area required for the processing is large. Further, regarding the recognition of a wide variety of signs and the like, the difference in their feature amounts is not taken into consideration. Further, there is no particular description about the method of notifying the user of the recognition result.

【0004】本発明の第1の目的は、上記課題を解決
し、処理時間が短く、少ないメモリ領域で処理できる道
路環境認識方法を提供することにある。第2の目的は、
種々の標識等を使用者が指定することにより、指定され
た種類の標識を個別に認識することにある。第3の目的
は、解像度の低いビデオカメラや、処理速度の遅い演算
装置でも認識ができるようにし、安価な装置での道路環
境認識を可能とすることにある。第4の目的は、車線や
標識等の認識結果を効率的に使用者に通知することを目
的とする。
A first object of the present invention is to solve the above problems and to provide a road environment recognition method capable of processing in a short processing time and a small memory area. The second purpose is
The user specifies various kinds of signs and the like to individually recognize the specified kinds of signs. A third object is to enable recognition by a low-resolution video camera or an arithmetic device having a slow processing speed, and to enable road environment recognition by an inexpensive device. The fourth purpose is to efficiently notify the user of the recognition result of lanes, signs, and the like.

【0005】[0005]

【課題を解決するための手段】上記目的を実現するため
の、本発明の構造図が図1である。
FIG. 1 is a structural diagram of the present invention for achieving the above object.

【0006】画像データ入力装置1によって入力した画
像データは、画像データ記憶メモリ2に記憶される。サ
ンプル領域指定部6によりユーザが認識したい標識等を
指定するための構成である。特徴点抽出処理3は、画像
データの1部の特徴を抽出する処理であり、この特徴を
もとに領域抽出処理4は標識の候補を抽出し、特徴点補
間処理5は車線を抽出する。画像データ比較処理8は、
サンプルデータと入力画像データの特徴を比較して指定
された標識であるかを判定する。表示装置9は、入力画
像及び認識結果を表示する。
The image data input by the image data input device 1 is stored in the image data storage memory 2. The sample area designating unit 6 is a configuration for designating a marker or the like that the user wants to recognize. The feature point extraction process 3 is a process of extracting a part of the features of the image data. Based on this feature, the region extraction process 4 extracts a candidate for a marker, and the feature point interpolation process 5 extracts a lane. The image data comparison processing 8 is
The characteristics of the sample data and the input image data are compared to determine whether the marker is the designated marker. The display device 9 displays the input image and the recognition result.

【0007】[0007]

【作用】サンプルデータを入力するようにして、サンプ
ルデータと入力データを比較して認識を行うようにした
ので、目的の標識等を個別に認識できるようになり、使
用者の意図に対応した認識ができるようになった。標識
等の形状・大きさ・色を厳密な計算や、ノイズ処理を省
略しても認識できるようにしたので、解像度の低いカメ
ラで入力した、ぼけが存在したりノイズのある画像でも
画像認識できるようになった。さらに、入力された画像
データの1部または複数の部分を取り出して処理するよ
うにし、ノイズ処理など画像認識における前処理を省略
するようにしたので、認識にかかる処理時間が短縮で
き、使用するメモリを削減できた。このことによって、
使用する画像入力装置(例えばカメラ)や、メモリを備
えた演算処理装置、(例えばコンピュータ)がある程度
安価なものでも、道路環境認識を行えるようになった。
車線上の安全領域を画像データに重ねて表示するように
したので、使用者が一目で安全領域を確認できるように
なった。表示装置に認識結果表示部を設けたので、使用
者が標識等を見逃しても、認識結果を表示装置上で確認
できるようになった。
[Function] Since the sample data is input and the recognition is performed by comparing the sample data with the input data, it becomes possible to individually recognize the target signs and the like, and the recognition corresponding to the intention of the user. Is now possible. Since the shape, size, and color of signs, etc. can be recognized even if strict calculation and noise processing are omitted, it is possible to recognize images with blurry or noisy images input with a low-resolution camera. It became so. Furthermore, since one or more parts of the input image data are extracted and processed, and preprocessing for image recognition such as noise processing is omitted, the processing time required for recognition can be shortened and the memory used Could be reduced. By this,
Even if an image input device (for example, a camera) to be used, an arithmetic processing device including a memory, or (for example, a computer) that is inexpensive to some extent, road environment recognition can be performed.
Since the safety area on the lane is displayed over the image data, the user can check the safety area at a glance. Since the recognition result display unit is provided in the display device, even if the user misses the sign or the like, the recognition result can be confirmed on the display device.

【0008】[0008]

【実施例】以下、図面にもとづき本発明の実施例を詳細
に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0009】図1は本発明のシステム構成図である画像
データ入力装置1によって入力されディジタルデータに
変換された画像データは、画像データ記憶メモリ2に格
納される。サンプル領域指定部6は、指定された領域を
画像データ記憶メモリ2から取り出し、特徴点抽出処理
によって抽出された特徴データと共にサンプルデータ記
憶メモリ7に格納する。特徴点抽出処理3は、画像デー
タ記憶メモリ2及びサンプル領域指定部6の画像データ
の特徴を抽出し、領域抽出処理4は抽出された特徴点を
用いて、認識の対象物に対応する領域を抽出する。サン
プルデータの領域を抽出した場合は、サンプルデータ記
憶メモリ7にその領域の特徴等を記録しておき、画像デ
ータ記憶メモリ2のデータの場合は、画像データ比較処
理8に領域データをわたす。画像データ比較処理8は、
サンプルデータ記憶メモリ7と領域抽出処理4のデータ
を比較し、サンプルデータと同じものかどうか判断し、
同じと判断された場合は表示装置9に表示する。図2
は、画像データの1例である。斜線で示した部分10及
びその特徴をサンプルデータとして記録しておくことに
より、同じ特徴量の標識を認識することができる。表示
装置9を入力画像データの表示部と、認識結果の表示部
にわけ、標識等の認識結果は、認識結果の表示部に表示
する。
FIG. 1 is a system configuration diagram of the present invention. Image data input by an image data input device 1 and converted into digital data is stored in an image data storage memory 2. The sample area designation unit 6 takes out the designated area from the image data storage memory 2 and stores it in the sample data storage memory 7 together with the feature data extracted by the feature point extraction processing. The feature point extraction process 3 extracts the features of the image data in the image data storage memory 2 and the sample region designating unit 6, and the region extraction process 4 uses the extracted feature points to identify the region corresponding to the recognition target. Extract. When the area of the sample data is extracted, the characteristics of the area are recorded in the sample data storage memory 7, and in the case of the data of the image data storage memory 2, the area data is passed to the image data comparison processing 8. The image data comparison processing 8 is
The data of the sample data storage memory 7 and the data of the area extraction processing 4 are compared to determine whether they are the same as the sample data,
When it is determined that they are the same, it is displayed on the display device 9. Figure 2
Is an example of image data. By recording the shaded portion 10 and its characteristics as sample data, it is possible to recognize markers having the same characteristic amount. The display device 9 is divided into an input image data display section and a recognition result display section, and the recognition results such as signs are displayed on the recognition result display section.

【0010】また、図2における線11〜16を部分デ
ータとして入力し、各線上の特徴点を結ぶことにより、
現在自車のいる車線上の安全領域、すなわち、前方車両
や障害物がなく、かつ、車線内である領域を切り出すこ
とができる。図1における特徴点抽出処理3が部分的な
画像データをとりだし、特徴点を抽出し、特徴点補間処
理5に特徴点データをわたす。特徴点補間処理5は、各
特徴点を横方向の座標順に並びかえ、それらの点を辺上
にもつ多角形をつくる。この多角形を画像データに重ね
て表示装置9に表示することにより、車線上の安全領域
を示す。または、多角形の形状や大きさなどを考慮し
て、前方車や障害物のセンターラインの認識を行う。
By inputting the lines 11 to 16 in FIG. 2 as partial data and connecting the characteristic points on each line,
It is possible to cut out a safety area on the lane in which the vehicle is currently located, that is, an area in the lane where there is no preceding vehicle or obstacle. The feature point extraction processing 3 in FIG. 1 extracts partial image data, extracts the feature points, and passes the feature point data to the feature point interpolation processing 5. The feature point interpolation process 5 rearranges the feature points in the lateral coordinate order and creates a polygon having these points on the sides. By displaying the polygon on the display device 9 by superimposing it on the image data, the safety area on the lane is indicated. Alternatively, the center line of a vehicle ahead or an obstacle is recognized in consideration of the shape and size of the polygon.

【0011】以下、各処理の詳細な動作を説明する。The detailed operation of each process will be described below.

【0012】図3は、図1における特徴点抽出処理3の
動作フローチャートである。特徴点抽出処理3は、画像
データ記憶メモリ2の画像データから、必要な部分を切
り出す(ステップ101)。切り出す部分は、例えば、
道路標識であれば左上部分、信号であれば上部分とな
り、道路の認識であれば図2に示した線11〜16のよ
うな線分となる。道路標識の認識のために切り出す部分
の大きさは、大きいほど標識を見逃してしまう確率は低
くなるが、処理する領域が大きくなるので、使用メモ
リ、処理時間共に大きくなってしまう。領域の大きさ
は、演算装置の処理速度やメモリの容量によって決定さ
れる。次に、切り出した画像データのエッジを抽出する
(102)。このとき、標識認識の場合は切り出した画
像データの全てのエッジを抽出する。道路認識の場合
は、縦の線(図2における11〜13)は画像の下の部
分、すなわち、自車に近い部分からエッジを捜してい
き、始めにエッジが見つかったところでエッジ抽出を終
える。横の線(図2の14〜16)は画像の中央、すな
わち、自車の正面から左右にそれぞれエッジを捜し、始
めにエッジが見つかったところでエッジ抽出を終える。
縦及び横の線の場合と同様に自車から左右の斜め前方に
向かう斜めの線を用い、その線を自車の方から遠ざかる
方向にエッジを捜しても良い。それぞれの線上で見つか
ったエッジを、辺上の点として持つ領域が、求める安全
領域となる。このようなエッジの捜査を行うのは、車線
の認識の場合、前方の安全領域を認識するため、安全領
域の外側の部分のエッジは必要ないため、自車に近い部
分のエッジを求めるようにしたためである。この捜査方
法により、不要なエッジ抽出は行わないため、処理時間
をより短縮することができる。ノイズ処理を行わないの
で、誤ったエッジをひろってしまう可能性があるが、エ
ッジ処理の際のしきい値を高くすることにより、ノイズ
に対処することができる。次に、切り出したデータが車
線用データの場合(103)は、特徴点補間処理5へエ
ッジデータを渡し(105)、そうでないときは、領域
抽出処理4へ画像及びエッジデータを渡す(104)。
FIG. 3 is an operation flowchart of the feature point extraction processing 3 in FIG. The feature point extraction processing 3 cuts out a necessary portion from the image data in the image data storage memory 2 (step 101). The part to be cut out is, for example,
If it is a road sign, it is the upper left part, if it is a signal, it is the upper part, and if it is a road recognition, it is a line segment such as lines 11 to 16 shown in FIG. The larger the size of the portion cut out for the recognition of the road sign, the lower the probability of missing the sign, but the larger the area to be processed, the larger the memory used and the processing time. The size of the area is determined by the processing speed of the arithmetic device and the capacity of the memory. Next, the edges of the cut out image data are extracted (102). At this time, in the case of sign recognition, all edges of the cut out image data are extracted. In the case of road recognition, the vertical line (11 to 13 in FIG. 2) searches for an edge from the lower part of the image, that is, a part near the vehicle, and ends the edge extraction when the edge is first found. The horizontal lines (14 to 16 in FIG. 2) search for an edge in the center of the image, that is, from the front of the vehicle to the left and right, and end the edge extraction when the edge is first found.
Similar to the case of the vertical and horizontal lines, it is also possible to use an oblique line that goes diagonally forward and to the left and right from the vehicle and search for the edge in the direction away from the vehicle. An area having the edge found on each line as a point on the side is the required safety area. In the case of lane recognition, such an edge search is performed in order to recognize the front safety area.Therefore, the edges outside the safety area are not required. Because it was done. By this search method, unnecessary edge extraction is not performed, so the processing time can be further shortened. Since noise processing is not performed, false edges may be picked up, but noise can be dealt with by increasing the threshold value for edge processing. Next, if the cut out data is lane data (103), the edge data is passed to the feature point interpolation processing 5 (105), and if not, the image and the edge data are passed to the area extraction processing 4 (104). .

【0013】図4は、領域抽出処理4の動作フローチャ
ートである。特徴点抽出処理3より画像データ及びエッ
ジデータを入力すると(121)、縦横方向で連続し
た、エッジのない部分の領域を抽出する。すなわち、縦
及び横方向に隣り合った画素どうしがともにエッジのな
い部分であるとき、これらの画素が連続しているとみな
す。このとき、領域のなかにエッジが存在しても、他の
部分で領域が連続していれば、これを1つの領域と見な
す。例えば、図11に示すような標識では、文字にあた
る部分はエッジとして抽出されるが、文字のまわりはエ
ッジがなく、標識内の文字以外の部分は連続したエッジ
のない部分となるので、この標識の文字以外の部分は1
つの領域とみなす。エッジの連続性を見るのではなく、
エッジのない部分の連続性を標識の認識に使用している
のは、標識の文字や矢印以外の部分は一様で色の変化が
あまりなく、エッジが少なく、エッジのない部分が連続
していることが多いからである。もし、ノイズがあって
も、ノイズは小さなエッジのかたまりとして現れること
が多く、そのまわりでエッジのない部分が連続していれ
ば、1つの領域として認識されてノイズは無視されるの
で、事実上ノイズ処理をしていることになる。もし、エ
ッジの連続性によって標識を認識するとすれば、ノイズ
がエッジとして検出されたり、逆にノイズによってエッ
ジが消されてしまうことがあるので、エッジの連続した
部分を追跡していくことによって標識を認識すること
は、前処理でノイズ消去を行わないかぎり困難である。
また、木や草むらなどの自然のもの等でエッジが複雑に
存在する箇所と標識などのエッジの現れにくい箇所との
区別もつけやすいという利点もある。
FIG. 4 is an operation flowchart of the area extraction processing 4. When the image data and the edge data are input from the feature point extraction processing 3 (121), a continuous area in the vertical and horizontal directions having no edge is extracted. That is, when pixels adjacent to each other in the vertical and horizontal directions have no edges, it is considered that these pixels are continuous. At this time, even if an edge exists in the area, if the area is continuous in another portion, this is regarded as one area. For example, in a sign as shown in FIG. 11, a part corresponding to a character is extracted as an edge, but there is no edge around the character, and a part other than the character in the sign is a part without continuous edges. 1 other than characters
Considered as one area. Instead of looking at the continuity of the edges,
The continuity of the part without edges is used for the recognition of the sign because the parts other than the characters and arrows of the sign are uniform, there is not much color change, there are few edges, and the part without edges is continuous. This is because there are many cases. Even if there is noise, noise often appears as a group of small edges, and if there is a continuous area without edges around it, it is recognized as one region and the noise is ignored, so in practice This means that noise processing is being performed. If the sign is recognized based on the continuity of the edges, noise may be detected as an edge or, on the contrary, the edge may be erased by the noise. Is difficult to recognize unless noise elimination is performed in the preprocessing.
In addition, there is an advantage that it is easy to distinguish between a place where edges are complicated such as a tree or a grass or the like, and a place where edges hardly appear such as a sign.

【0014】次に、抽出された連続領域の色のヒストグ
ラムを作成する(123)。図5において、ディジタル
画像の各画素は、赤R、緑G、青Bの3元色の輝度によ
って色が示されているとする。3元色各色のヒストグラ
ムを作成する。ヒストグラムは、横軸に輝度、縦軸に各
輝度に対応する画素の数を表す。このとき、各色が例え
ば256段階の輝度で表されるとすると、ヒストグラム
は、256段階全ての画素数を取るのではなく、例えば
16段階に輝度の大きさをわけて、ヒストグラムを作る
ようにする。今、ある画素の赤の輝度が256段階でr
のとき、ヒストグラムでは、r/16番目にこの画素が
加算される。このヒストグラムの作成方法によって、メ
モリの節約、さらに、後の処理の時間短縮につながる。
次に、領域の形状と面積を算出する(124)。しか
し、形状の算出は、まわりの環境によっては省略可能で
ある。市街地など、標識のまわりにさまざまな色や形状
の建造物や看板などがある場合は、誤認識を防ぐために
形状を判断の材料にする必要があるが、まわりが林や田
畑のような背景を持つものに対しては、色の情報と面積
のみで標識の認識は可能である。形状の算出は見る方向
による形状の歪みなどに対する補正を必要とするので、
処理時間が長くなるので、省略可能な場合はなるべく行
わないようにする。次に、入力データがサンプルデータ
であるときは(125)、色ヒストグラムと領域の形状
や面積の情報をサンプルデータ記憶メモリ7に格納する
(126)。そうでないときは、画像データ比較処理へ
同様のデータをおくる(127)。
Next, a color histogram of the extracted continuous area is created (123). In FIG. 5, it is assumed that each pixel of the digital image is indicated by the luminance of the ternary color of red R, green G, and blue B. Create a histogram for each of the three primary colors. In the histogram, the horizontal axis represents luminance and the vertical axis represents the number of pixels corresponding to each luminance. At this time, assuming that each color is represented by 256 levels of brightness, the histogram does not take the number of pixels in all of 256 levels, but divides the brightness into 16 levels to create a histogram. . Now, the red brightness of a pixel is r in 256 levels.
At this time, in the histogram, this pixel is added to the r / 16th position. This method of creating a histogram saves memory and further shortens the time for subsequent processing.
Next, the shape and area of the region are calculated (124). However, the calculation of the shape can be omitted depending on the surrounding environment. If there are buildings or signs with various colors and shapes around the sign, such as in urban areas, it is necessary to use the shape as a judgment material to prevent misrecognition, but the background is such as a forest or a field. For objects that have it, it is possible to recognize the sign only by the color information and the area. Since the calculation of the shape requires correction for the distortion of the shape depending on the viewing direction,
Since it takes a long processing time, if it is possible to omit it, avoid it. Next, when the input data is sample data (125), the color histogram and information on the shape and area of the area are stored in the sample data storage memory 7 (126). If not, the same data is sent to the image data comparison process (127).

【0015】図6(a)は、特徴点抽出処理3によって
抽出された車線の特徴点の位置を表す図である。画面2
00で、横方向で左から右へx軸、縦方向で上から下へ
y軸とする。点201〜208はそれぞれ図2の線11
〜16上で抽出された特徴点である。図6(b)は、こ
れらの特徴点をx座標の小さい順に線分で結んでいくこ
とにより作成した多角形である。この多角形内が車線上
の安全領域となる。
FIG. 6A is a diagram showing the positions of the characteristic points of the lane extracted by the characteristic point extraction processing 3. Screen 2
00, the x-axis is from left to right in the horizontal direction, and the y-axis is from top to bottom in the vertical direction. The points 201 to 208 are the lines 11 in FIG.
16 are the feature points extracted above. FIG. 6B is a polygon created by connecting these feature points with line segments in ascending order of the x coordinate. The inside of this polygon is the safety area on the lane.

【0016】図7は、特徴点補間処理5の動作フローチ
ャートである。特徴点抽出処理3からエッジの位置を入
力し(141)、それらのエッジをx座標の小さい順に
並びかえ(142)、並びかえた順に線分で結んで多角
形を作成し(143)、表示する(144)。車線の形
状は直線だけでなく、カーブなどさまざまであるが、上
記のように特徴点を結んだ多角形は、これらの形状に近
似したものが得られる。より近似した多角形を得るの
は、画像データ記憶メモリから取り出す線の数を増やす
ことによって可能だが、線の数は処理に必要なメモリ容
量及び処理時間と比例するので、用いる演算装置やメモ
リの能力によって決められる。
FIG. 7 is an operation flowchart of the feature point interpolation processing 5. The position of the edge is input from the feature point extraction processing 3 (141), the edges are rearranged in ascending order of the x coordinate (142), and a polygon is created by connecting line segments in the rearranged order (143) and displayed. Yes (144). The shape of a lane is not limited to a straight line, but various shapes such as a curve can be obtained. As described above, the polygon connecting the characteristic points can be approximated to these shapes. It is possible to obtain a more approximate polygon by increasing the number of lines taken out from the image data storage memory, but since the number of lines is proportional to the memory capacity and processing time required for processing, Determined by ability.

【0017】図8は、画像データ比較処理8の動作フロ
ーチャートである。領域抽出処理4から画像データ及び
エッジデータを入力し(161)、サンプルデータ記憶
メモリ7からサンプルデータを入力する(162)。入
力した2つのデータを比較して同等のデータであると判
断すると(163)、その結果を表示装置9に表示する
(164)。このとき、画像データと、サンプルデータ
は、まわりの明るさ、光線の角度、自車との距離や、カ
メラの角度などによって、色や大きさ、形状が多少異な
る場合がある。したがって、同等のデータであるかを判
断する際に、上記のようなまわりの環境の差を考慮に入
れる必要がある。
FIG. 8 is an operation flowchart of the image data comparison processing 8. Image data and edge data are input from the area extraction processing 4 (161), and sample data are input from the sample data storage memory 7 (162). When the two input data are compared and judged to be equivalent data (163), the result is displayed on the display device 9 (164). At this time, the image data and the sample data may be slightly different in color, size, and shape depending on the ambient brightness, the angle of the light beam, the distance from the vehicle, the angle of the camera, and the like. Therefore, it is necessary to take the above-mentioned difference in surrounding environment into consideration when determining whether the data are equivalent.

【0018】以上のように、図1の各構成要素が動作す
ることによって、道路環境認識が実現する。
As described above, the road environment recognition is realized by the operation of each constituent element of FIG.

【0019】次に、認識結果を表す方法について述べ
る。図9に、表示装置9の表示画面の例を示す。図9
(a)及び(b)は、車線の認識結果を表示した例であ
る。(a)は、入力画像の上に、認識結果の多角形を重
ねて示した図である。これによって、ユーザは前方の安
全な領域を一目で理解できる。これにたいし、図(b)
は、多角形のかわりに特徴点を線分で結んだものであ
る。これは、(a)の表示を簡便化するとともに、安全
領域内の道路を完全に覆ってしまわないため、ユーザが
認識結果を確認することができる。この他、前方の特徴
点の位置を文字として表示したり、音声によってユーザ
に知らせる方法が考えられる。これは、カメラの設置位
置や角度から、画面の縦方向の位置すなわち、y座標が
自車からどの位の距離にあたるかあらかじめ測定してお
き、特徴点のy座標から、前方車等の障害物までの距離
を算出することによって可能である。
Next, a method of expressing the recognition result will be described. FIG. 9 shows an example of the display screen of the display device 9. Figure 9
(A) and (b) are the examples which displayed the recognition result of a lane. FIG. 9A is a diagram showing a recognition result polygon overlaid on an input image. This allows the user to see the safe area in front at a glance. On the other hand, figure (b)
Is a line connecting characteristic points instead of a polygon. This simplifies the display of (a) and does not completely cover the road in the safety area, so that the user can confirm the recognition result. In addition to this, a method of displaying the position of the front characteristic point as a character or notifying the user by voice may be considered. This is because the vertical position of the screen, that is, the distance of the y-coordinate from the own vehicle is measured in advance from the installation position and angle of the camera, and obstacles such as vehicles ahead of the vehicle are determined from the y-coordinate of the characteristic point. This is possible by calculating the distance to.

【0020】図9(c)は、標識認識結果の表示例であ
る。表示画面を入力画像表示部301と標識認識結果表
示部302にわける。画像データ記憶メモリ2から切り
出した部分データ内に標識があると認識したときは、部
分データを標識結果表示部302に表示する。部分デー
タ内から標識の領域を取り出して表示する方法もある
が、標識を取り出す処理に時間がかかると思われる。ま
た、図9(c)のように、標識認識結果表示部にいくつ
かの認識結果を表示し、最新の認識結果は太い枠などで
印をつける。これによってユーザは、見落とした標識の
確認等ができるようになる。
FIG. 9C is a display example of the sign recognition result. The display screen is divided into an input image display unit 301 and a sign recognition result display unit 302. When it is recognized that there is a marker in the partial data cut out from the image data storage memory 2, the partial data is displayed on the marker result display unit 302. There is also a method of displaying the area of the sign from the partial data and displaying it, but it seems that it takes time to extract the sign. Further, as shown in FIG. 9C, some recognition results are displayed on the sign recognition result display section, and the latest recognition result is marked with a thick frame or the like. This allows the user to confirm the overlooked sign and the like.

【0021】図10は、サンプル領域指定部6における
サンプル領域の指定方法を示す。図10(a)は、サン
プルとして指定する標識が矩形の場合の指定方法で、始
点及び終点の位置を入力するか、または始点位置と縦横
長を入力する。位置の入力は、数字をキーボード等から
入力する他、マウス・トラックボール・ライトペン・タ
ッチパネル等画面上の点を直接入力することができるデ
バイスを使用することで簡略化できる。図10(b)お
よび(c)は標識矩形以外の形状を持つ場合の入力方法
である。(b)はライトペン等で標識の輪郭をなぞる方
法で、(c)は(a)と同様に標 識を含む矩形領域を
指定する方法である。(c)の方法では、なるべく標識
以外の部分を含まないように指定することにより、誤認
識の確率を減らすことができる。これらの方法以外に、
いくつかの形状(矩形、円、三角形など)のいくつかの
大きさの標準的な領域を用意しておき、ユーザはその中
から適当なものを選択して、領域の中心などの位置をタ
ッチパネル等から入力する方法もある。
FIG. 10 shows a method of designating a sample area in the sample area designating section 6. FIG. 10A is a designation method in the case where the marker designated as a sample is a rectangle, and the positions of the start point and the end point are input, or the start point position and the vertical and horizontal lengths are input. The input of the position can be simplified by using a device such as a mouse, a trackball, a light pen, or a touch panel, which can directly input a point on the screen, in addition to inputting a numeral from a keyboard. FIGS. 10B and 10C show an input method in the case of a shape other than the sign rectangle. (B) is a method of tracing the contour of the sign with a light pen or the like, and (c) is a method of designating a rectangular area including the mark as in (a). In the method of (c), the probability of erroneous recognition can be reduced by designating that the portion other than the sign is not included as much as possible. Besides these methods,
Prepare standard areas of some sizes (rectangles, circles, triangles, etc.), and select the appropriate area from among them, and touch the area such as the center of the area on the touch panel. There is also a method of inputting from etc.

【0022】[0022]

【発明の効果】本方法により、サンプルデータを入力で
きるようにしたので、使用者の意図にあった標識の認識
ができるようになった。また、ノイズ処理等の前処理を
省略しても画像認識ができるようにしたので、標識認
識、車線認識共に処理時間が短くなった。入力画像から
必要な部分のみを取り出して処理するようにしたので、
処理に必要なメモリが少なくなり、処理時間が短くなっ
た。家庭用ビデオカメラ、パーソナルコンピュータでも
道路環境認識ができるようになったため、安価な道路環
境認識装置ができるようになった。
According to the present method, since the sample data can be input, it is possible to recognize the mark which is intended by the user. Further, since image recognition can be performed even if pre-processing such as noise processing is omitted, processing time for both sign recognition and lane recognition is shortened. Since I took out only the necessary part from the input image and processed it,
The memory required for processing has decreased and the processing time has shortened. Since it became possible to recognize the road environment even with a home video camera or a personal computer, an inexpensive road environment recognition device became possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシステム構成図。FIG. 1 is a system configuration diagram of the present invention.

【図2】部分データの説明図。FIG. 2 is an explanatory diagram of partial data.

【図3】特徴点抽出処理の動作フローチャート。FIG. 3 is an operation flowchart of feature point extraction processing.

【図4】領域抽出処理の動作フローチャート。FIG. 4 is an operation flowchart of region extraction processing.

【図5】色ヒストグラムの説明図。FIG. 5 is an explanatory diagram of a color histogram.

【図6】車線上の特徴点の説明図。FIG. 6 is an explanatory diagram of characteristic points on a lane.

【図7】特徴点補間処理の動作フローチャート。FIG. 7 is an operation flowchart of feature point interpolation processing.

【図8】画像データ比較処理の動作フローチャート。FIG. 8 is an operation flowchart of image data comparison processing.

【図9】画面表示例の説明図。FIG. 9 is an explanatory diagram of a screen display example.

【図10】サンプル領域指定方法の説明図。FIG. 10 is an explanatory diagram of a sample area specifying method.

【図11】連続領域の説明図。FIG. 11 is an explanatory diagram of a continuous area.

【符号の説明】[Explanation of symbols]

1…画像データ入力装置、2…画像データ記憶メモリ、
3…特徴点抽出処理、4…領域抽出処理、5…特徴点補
間処理、6…サンプル領域指定部、7…サンプルデータ
記憶メモリ、8…画像データ比較処理、9…表示装置。
1 ... Image data input device, 2 ... Image data storage memory,
3 ... Feature point extraction process, 4 ... Region extraction process, 5 ... Feature point interpolation process, 6 ... Sample region designation unit, 7 ... Sample data storage memory, 8 ... Image data comparison process, 9 ... Display device.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】画像データ入力装置より画像データを入力
し、入力された画像データを画像データ記憶メモリに記
憶し、部分的な画像データの特徴点を抽出し、画像デー
タ及び特徴点データから領域を抽出し、部分的な特徴点
データを補間し、サンプルの領域を指定し、サンプル領
域の特徴をサンプルデータ記憶メモリに記録し、サンプ
ルデータと入力画像データの特徴を比較し、比較結果を
表示装置に表示する道路環境認識方法。
1. An image data input device inputs image data, the input image data is stored in an image data storage memory, partial feature points of the image data are extracted, and a region is extracted from the image data and the feature point data. Extract, interpolate partial feature point data, specify the area of the sample, record the characteristics of the sample area in the sample data storage memory, compare the characteristics of the sample data and the input image data, and display the comparison result. Road environment recognition method displayed on the device.
【請求項2】上記サンプル領域指定部により、画像デー
タ中の道路標識等の含まれる領域を指定し、標識の色情
報等の特徴量をサンプルデータとして入力し、サンプル
データ記憶メモリに入力し、画像データ比較処理により
入力画像内のデータの特徴量情報とサンプルデータ記憶
メモリ内の情報を比較することによって道路標識等を認
識する請求項1項の道路環境認識方法。
2. The sample area designating section designates an area including road signs and the like in the image data, inputs characteristic quantities such as color information of the signs as sample data, and inputs them to a sample data storage memory, 2. The road environment recognition method according to claim 1, wherein a road sign or the like is recognized by comparing the feature amount information of the data in the input image with the information in the sample data storage memory by the image data comparison process.
【請求項3】上記画像データ入力装置によって入力され
た画像データの1部または複数部分をとりだし、特徴点
抽出処理により取り出された部分的画像データを特徴点
を抽出し、領域抽出処理により部分的画像データおよび
特徴点から領域を抽出することにより、車線等を認識す
る請求項1項の道路環境認識方法。
3. A part or a plurality of parts of the image data input by the image data input device is extracted, the characteristic points are extracted from the partial image data extracted by the characteristic point extraction processing, and the partial image data is partially extracted by the area extraction processing. The road environment recognition method according to claim 1, wherein a lane or the like is recognized by extracting a region from the image data and the feature point.
【請求項4】道路環境画像を入力するビデオカメラ、ビ
デオ信号をディジタルデータに変換するビデオデータ変
換装置、変換したディジタルデータ及びサンプルデータ
を記憶するメモリを具備した、ディジタルデータから道
路環境認識処理を行う演算処理装置からなる道路環境認
識装置。
4. A road environment recognition process from digital data, comprising a video camera for inputting a road environment image, a video data conversion device for converting a video signal into digital data, and a memory for storing the converted digital data and sample data. A road environment recognition device composed of an arithmetic processing unit for performing.
【請求項5】道路環境画像を入力する家庭用ビデオカメ
ラ、ビデオ信号をディジタルデータに変換するビデオデ
ータ変換装置、変換されたディジタルデータから道路環
境認識処理を行うパーソナルコンピュータからなる道路
環境認識装置。
5. A road environment recognition device comprising a home video camera for inputting a road environment image, a video data conversion device for converting a video signal into digital data, and a personal computer for performing road environment recognition processing from the converted digital data.
【請求項6】上記車線等の認識結果より求めた車線上の
安全領域を表わす多角形または折線を、入力画像データ
に重ねて上記表示装置に表示する請求項1項の道路環境
認識方法。
6. The road environment recognition method according to claim 1, wherein a polygon or a polygonal line representing a safety area on the lane obtained from the recognition result of the lane or the like is displayed on the display device while being superimposed on the input image data.
【請求項7】上記表示装置の表示画面上に認識結果表示
部分を設け、認識した1つ以上の道路標識等の画像を該
認識結果表示部分に表示する請求項1項の道路環境認識
方法。
7. The road environment recognition method according to claim 1, wherein a recognition result display portion is provided on a display screen of the display device, and images of one or more recognized road signs are displayed on the recognition result display portion.
JP4226897A 1992-08-26 1992-08-26 Method and device for recognizing road circumstances Pending JPH0676065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4226897A JPH0676065A (en) 1992-08-26 1992-08-26 Method and device for recognizing road circumstances

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4226897A JPH0676065A (en) 1992-08-26 1992-08-26 Method and device for recognizing road circumstances

Publications (1)

Publication Number Publication Date
JPH0676065A true JPH0676065A (en) 1994-03-18

Family

ID=16852305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4226897A Pending JPH0676065A (en) 1992-08-26 1992-08-26 Method and device for recognizing road circumstances

Country Status (1)

Country Link
JP (1) JPH0676065A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001514110A (en) * 1997-08-23 2001-09-11 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Information indication method in vehicle
JP2005079725A (en) * 2003-08-28 2005-03-24 Aisin Seiki Co Ltd Vehicle annunciator
JP2009163682A (en) * 2008-01-10 2009-07-23 Toyota Central R&D Labs Inc Image discrimination device and program
WO2012127776A1 (en) * 2011-03-23 2012-09-27 株式会社デンソー Vehicle display apparatus
JP2018092334A (en) * 2016-12-01 2018-06-14 本田技研工業株式会社 Travel control apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001514110A (en) * 1997-08-23 2001-09-11 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Information indication method in vehicle
JP4690543B2 (en) * 1997-08-23 2011-06-01 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Information instruction method in vehicle
JP2005079725A (en) * 2003-08-28 2005-03-24 Aisin Seiki Co Ltd Vehicle annunciator
JP2009163682A (en) * 2008-01-10 2009-07-23 Toyota Central R&D Labs Inc Image discrimination device and program
WO2012127776A1 (en) * 2011-03-23 2012-09-27 株式会社デンソー Vehicle display apparatus
JP2012213129A (en) * 2011-03-23 2012-11-01 Denso Corp Vehicle display apparatus
US8521423B2 (en) 2011-03-23 2013-08-27 Denso Corporation In-vehicle display apparatus
JP2018092334A (en) * 2016-12-01 2018-06-14 本田技研工業株式会社 Travel control apparatus

Similar Documents

Publication Publication Date Title
JP4309920B2 (en) Car navigation system, road marking identification program, and road marking identification method
JP3169483B2 (en) Road environment recognition device
JP3381351B2 (en) Ambient situation display device for vehicles
WO2013161028A1 (en) Image display device, navigation device, image display method, image display program and recording medium
JP4991384B2 (en) Approaching object detection device and approaching object detection program
JP2003123197A (en) Recognition device for road mark or the like
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
JPH11195127A (en) Method for recognizing white line and device therefor
EP3905115A1 (en) Road shape determination method and road shape determination program
JPH0676065A (en) Method and device for recognizing road circumstances
JP3326988B2 (en) Road environment recognition device
JP2715442B2 (en) Traveling vehicle recognition device
JP6831396B2 (en) Video monitoring device
Onoguchi et al. Planar projection stereopsis method for road extraction
JP2008137425A (en) Parking assisting method and parking assisting device
JP3260503B2 (en) Runway recognition device and runway recognition method
US20240071104A1 (en) Image processing device, image processing method, and recording medium
JP4842301B2 (en) Pedestrian detection device and program
JP3601951B2 (en) Moving object display method, display system using the same, and program recording medium therefor
JP2664182B2 (en) Traffic flow measurement system
JP2005217482A (en) Vehicle periphery monitoring method and apparatus thereof
JP2005121495A (en) Information display device and information display method
JP3095470B2 (en) Character recognition device
JPH0410200A (en) Traffic lane edge recognizing device
JPH0268237A (en) Vision recognition system for vehicle