JPH0290381A - Running path discriminating method - Google Patents

Running path discriminating method

Info

Publication number
JPH0290381A
JPH0290381A JP63243331A JP24333188A JPH0290381A JP H0290381 A JPH0290381 A JP H0290381A JP 63243331 A JP63243331 A JP 63243331A JP 24333188 A JP24333188 A JP 24333188A JP H0290381 A JPH0290381 A JP H0290381A
Authority
JP
Japan
Prior art keywords
straight line
image
straight lines
region
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63243331A
Other languages
Japanese (ja)
Other versions
JPH0624036B2 (en
Inventor
Hiroshi Hasegawa
洋 長谷川
Shigeto Nakayama
仲山 茂人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP63243331A priority Critical patent/JPH0624036B2/en
Priority to DE68925091T priority patent/DE68925091T2/en
Priority to EP89309876A priority patent/EP0361914B1/en
Publication of JPH0290381A publication Critical patent/JPH0290381A/en
Priority to US08/032,409 priority patent/US5359666A/en
Publication of JPH0624036B2 publication Critical patent/JPH0624036B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To execute discrimination at high speed by dividing an image obtained by bringing a running path to image pickup into areas of this side and a remote side, extracting a first straight lien corresponding to one running path end in the this side area and extracting a second straight line of the other which passes through the vicinity of an intersection to its area boundary. CONSTITUTION:Image data of a running path which is inputted by a camera 1 is stored temporarily in an image memory 3. Subsequently, a straight line group corresponding to the feature of an image is obtained by a DDA arithmetic part 5 through a pre-processing part 4, and sent to a straight line extracting/ selecting part 9 after filtering, sorting and clustering are performed. The image is divided into a this side area and remote side area, and in the this side area, the first straight line corresponding to one running path end is extracted. Next, the second straight line corresponding to the other running path end is extracted from the straight line group which passes through the vicinity of the intersection of both boundaries and the first straight line. A discriminating part 10 discriminates the shape of the running path, based on the first straight line and the second straight line, and the shape of the running path can be recognized at high speed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理によって走行路の形状を認識するに際
して、走行路端の連続する方向を容易に判別できる走行
路判別方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Field of Application] The present invention relates to a roadway discrimination method that can easily determine the direction in which the edges of the roadway continue when the shape of the roadway is recognized by image processing.

〔従来の技術〕[Conventional technology]

走行路の形状を認識するにあたっては、その端部(走行
路端)を抽出することが必要であり、かつその連続する
方向を容易に判別することが重要になる。このためには
、カメラによって得られた画像データを処理することが
必要になり、その手法として例えばHough変換と呼
ばれるものがある(特開昭62−24310号、同62
−70916号など)。これによれば、画像特徴量とし
て得られた原画の微分画像の各エツジ点に対してHou
gh変換を行なうことにより、画素の分布の特徴に対応
した直線群を求めることができる。
In order to recognize the shape of a travel road, it is necessary to extract its edges (traveling road edges), and it is important to easily determine the direction in which they continue. For this purpose, it is necessary to process the image data obtained by the camera, and there is a method called Hough transformation, for example (Japanese Patent Laid-Open No. 62-24310, No. 62
-70916 etc.). According to this, for each edge point of the differential image of the original image obtained as the image feature amount, Ho
By performing the gh transformation, a group of straight lines corresponding to the characteristics of the pixel distribution can be obtained.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、このようにして得られる直線は極めて多
数である反面、走行路がカーブしていたりすると異なっ
た属性の直線が多く含まれることになるので、走行路が
原画像上で連続している方向を判別するのは容易でない
。ところで、走行路を撮像して得られる画像をその特徴
量の直線的並びの点から検討してみると、画像には特徴
量の直線的な並びの特徴がよく現れる領域とあまり現れ
ない領域がある。そして、−船釣には、上記の特徴がよ
く現れる領域では特徴量の並びに近似した直線の抽出は
容易であり、特徴のあまり現れない領域では上記直線の
抽出は困難である。
However, while the number of straight lines obtained in this way is extremely large, if the traveling route is curved, many straight lines with different attributes will be included, so the direction in which the traveling route is continuous on the original image It is not easy to determine. By the way, if we examine an image obtained by capturing a driving route from the viewpoint of the linear arrangement of its feature quantities, we will find that there are areas in the image where features with a linear arrangement of feature quantities often appear and areas where they do not appear often. be. In boat fishing, it is easy to extract a straight line that approximates the arrangement of features in areas where the above-mentioned features often appear, but it is difficult to extract the above-mentioned straight lines in areas where features do not appear much.

しかしながら、従来の方法ではこれらの領域を一括して
画像処理することを基本としているので、結果的には高
速かつ容易に走行路の形状を判別することができなかっ
た。本発明はかかる問題点を解決することを目的になさ
れたものである。
However, since the conventional method is based on performing image processing on these areas all at once, the shape of the traveling road cannot be determined easily and quickly. The present invention has been made to solve such problems.

〔課題を解決するための手段〕[Means to solve the problem]

本発明には係る走行路判別方法の第1の態様は、走行路
を撮像して得られた画像に含まれる画像特徴量からその
形状を判別する走行路判別方法において、画像を特徴量
の並びが最も特徴的に現れる第1領域と、当該並びが連
続する方向で当該第1領域と隣接する第2領域とを含む
少なくとも2つの領域に分割する第1のステップと、そ
れぞれの領域での特徴量に対応した複数の直線からなる
直線群を求める第2のステップと、第1領域で一方の走
行路端に対応して現れる特徴量の並びに近似した第1の
直線を抽出する第3のステップと、第2領域で一方の走
行路端に対応して現れる特徴量の並びに近似した第2の
直線を、第1および第2領域の境界と第1の直線の交点
近傍を通る直線群から抽出する第4のステップと、第1
および第2の直線にもとづいて走行路の形状を判別する
第5のステップとを備えることを特徴とする。
A first aspect of the driving path determination method according to the present invention is a driving path determination method in which the shape of the driving path is determined from the image feature amounts included in the image obtained by imaging the driving path. A first step of dividing into at least two regions including a first region in which the most characteristic appears and a second region adjacent to the first region in a direction in which the arrangement is continuous, and characteristics in each region. a second step of finding a straight line group consisting of a plurality of straight lines corresponding to the amount, and a third step of extracting the first straight line that approximates the arrangement of the feature amounts that appear corresponding to one running road edge in the first region. Then, the arrangement of feature values that appear corresponding to one running road edge in the second region and the approximated second straight line are extracted from a group of straight lines passing near the intersection of the first straight line and the boundary of the first and second regions. The fourth step is to
and a fifth step of determining the shape of the travel path based on the second straight line.

また本発明の第2の態様は、上記第1および第2のステ
ップに加えて、第3のステップでは、第1領域で一方お
よび他方の走行路端に対応して現れる特徴量の並びに近
似した第1の直線対を抽出するようにし、第4のステッ
プでは第2領域で一方および他方の走行路端に対応して
現れる特徴量の並びに近似した第2の直線対を、第1お
よび第2領域の境界と第1の直線対の交点近傍を通る直
線群から抽出するようにし、第5のステップではこれら
第1および第2の直線対にもとづいて走行路の形状を判
別するようにしている。
Further, in the second aspect of the present invention, in addition to the first and second steps, in the third step, the arrangement of the feature amounts appearing corresponding to one and the other traveling road edges in the first region is approximated. The first pair of straight lines are extracted, and in the fourth step, the second pair of straight lines approximated by the features that appear corresponding to one and the other road edge in the second area are extracted. The straight lines are extracted from a group of straight lines that pass near the intersection of the region boundary and the first pair of straight lines, and in the fifth step, the shape of the travel path is determined based on the first and second pairs of straight lines. .

〔作用〕[Effect]

本発明によれば、画像特徴量の並びに近似した直線の抽
出が容易な領域(第1領域)でまず第1の直線(直線対
)が抽出され、これにもとづいて画像特徴量の並びに近
似した直線の抽出が困難な領域(第2領域)の第2の直
線(直線対)が抽出される。そして、この第1の直線と
第2の直線は上記第1および第2領域の境界近傍で交叉
している。
According to the present invention, a first straight line (straight line pair) is first extracted in a region (first region) where it is easy to extract an arrangement of image features and an approximate straight line, and based on this, an arrangement of image features is approximated. A second straight line (straight line pair) is extracted from a region (second region) in which it is difficult to extract a straight line. The first straight line and the second straight line intersect near the boundary between the first and second regions.

〔実施例〕〔Example〕

以下、添付図面を参照して本発明の詳細な説明する。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

第1図は本発明の基本概念を示している。まず、走行車
両に搭載されたカメラにより取り込まれる情景が、例え
ば第1図(a)のようになっているとする。すなわち、
走行路端51を境界とする走行路の左端にはガードレー
ル52、右側にはあぜ道53があり、地平線54まで走
行路端51が延びている。このような情景を原画像とし
て撮像し、微分して得られるエツジデータをドツト56
で表現すると、例えば第1図(b)のようになる。そこ
で、このドツト56に対して後述のHo u gh変換
を施してHough曲線を求め、その交叉点のカウント
処理を行なっていくと、第1図(C)のような直線L 
−L5などを含む直線群が得られる。
FIG. 1 shows the basic concept of the invention. First, assume that a scene captured by a camera mounted on a traveling vehicle is, for example, as shown in FIG. 1(a). That is,
There is a guardrail 52 at the left end of the running road with the running road edge 51 as a boundary, a furrow 53 on the right side, and the running road edge 51 extends to the horizon 54. Such a scene is captured as an original image, and the edge data obtained by differentiation is used as a dot 56.
For example, if expressed as shown in FIG. 1(b). Therefore, by performing the Hough transformation described later on this dot 56 to obtain a Hough curve, and counting the intersection points, a straight line L as shown in Fig. 1(C) is obtained.
A group of straight lines including -L5 etc. is obtained.

このHo u gh変換の結果に対し、後述のフィフ ルタリング処理、ソーティング処理およびクラスタリン
グ処理を行なうと、エツジデータ(ドツト56)の特徴
的な並びに近似した直線を代表値として求めることがで
きる。従って、この代表値に着目して処理を行なえば、
走行路端51に対応する直線を求められる訳であるが、
第1図(c)を見ても明らかなように、原画像の下側(
手前側)では走行路端51に対応する直線の特徴が比較
的明確に現われているのに対し、原画像の上側(遠方側
)では走行路端51に対応する直線が他の情景に対応す
る直線と混ざり合い、特徴部分の判別が難しくなってい
る。
When the results of this Hough transformation are subjected to filtering processing, sorting processing, and clustering processing, which will be described later, it is possible to obtain characteristic lines and approximate straight lines of the edge data (dots 56) as representative values. Therefore, if we focus on this representative value and perform processing,
Although the straight line corresponding to the running road edge 51 can be found,
As is clear from Figure 1(c), the lower part of the original image (
On the near side), the feature of the straight line corresponding to the road edge 51 appears relatively clearly, whereas on the upper side (far side) of the original image, the straight line corresponding to the road edge 51 corresponds to another scene. It is mixed with straight lines, making it difficult to distinguish the characteristic parts.

そこで、原画像の中でドツト56の並びが特徴的に現わ
れる手前側領域に対して、第1図(d)のように第1領
域A1を設定し、この領域において走行路端51に対応
する直線を探す。この直線の探し方は上述の代表値を調
べればよく、はとんどの場合には最大の代表値の直線が
走行路端51に対応している。いま、走行路端51に対
応する直線p 、ρ′1が最大の代表値および次の代表
値に対応しているとすると、この直線j71゜g′1は
第1図(d)のように描かれる。
Therefore, a first area A1 is set as shown in FIG. 1(d) for the near side area where the arrangement of dots 56 characteristically appears in the original image, and the area corresponding to the road edge 51 is set in this area. Find a straight line. To find this straight line, it is sufficient to check the above-mentioned representative values, and in most cases, the straight line with the maximum representative value corresponds to the road edge 51. Now, assuming that the straight lines p and ρ'1 corresponding to the road edge 51 correspond to the maximum representative value and the next representative value, this straight line j71°g'1 is expressed as shown in Fig. 1(d). be painted.

次に、この第1領域A1に隣接する第2領域A2を第1
図(e)のように設定することになるが、この第2領域
A2は第1領域A1におけるΩ 、ρ′1が連続する方
向に設定される。そし■ て、第2領域A2における走行路端51に対応した直線
p 、ρ′2を抽出する。この場合、直線Ω 、ρ′ 
 と#  l)’  の交点P  、Q  は、第1図
(e)にように第1領域A1と第2領域A2の境界線近
傍に位置するはずであるので、第1領域A1におけるp
 、ρ′lが求まれば第2■ 領域A2におけるΩ 、j!′  は点P  、Q  
の2  2   l  1 近傍を通る直線の中から見出すことができる。しかも、
この直線p 、Ω′2の交点は地平線H8の近傍にある
と予測できるので、この抽出は容易である。
Next, a second area A2 adjacent to this first area A1 is
The second area A2 is set as shown in Figure (e), and the second area A2 is set in the direction in which Ω and ρ'1 in the first area A1 are continuous. Then, straight lines p and ρ'2 corresponding to the road edge 51 in the second area A2 are extracted. In this case, the straight lines Ω, ρ′
The intersection points P and Q of and #l)' should be located near the boundary line between the first area A1 and the second area A2, as shown in FIG.
, ρ'l is found, the second ■ Ω in area A2, j! ′ are points P, Q
It can be found from among the straight lines passing through the vicinity of 2 2 l 1 . Moreover,
Since the intersection of the straight lines p and Ω'2 can be predicted to be near the horizon H8, this extraction is easy.

さらに、第2領域A2に連続して第1図(f)にょうに
第3領域A3を設定し、ここでの走行路端51に対応す
る直線1 .1’3を求める。この直線ρ 、11′ 
 についても、第2領域A2における直線ρ 、ρ′2
と同様に、簡単に求めることができる。このように本発
明は、画像データ(ドツト)の並びが特徴的な領域(第
1領域AI)について、まず近似直線を抽出するだめの
処理を行ない、これにもとづいて他の領域(第2領域A
2以下)における近似直線を求めようとするものである
Furthermore, a third area A3 is set as shown in FIG. 1(f) following the second area A2, and a straight line 1. Find 1'3. This straight line ρ, 11'
Also, the straight lines ρ, ρ′2 in the second region A2
can be easily found as well. In this way, the present invention first performs processing to extract an approximate straight line for a region (first region AI) in which the arrangement of image data (dots) is characteristic, and then extracts an approximate straight line based on this. A
2 or less).

次に、本発明を実施例に従って順次説明していく。Next, the present invention will be sequentially explained according to examples.

第2図は本発明の実施例を適用した装置を、機能実現手
段の結合として表現した概念図である。
FIG. 2 is a conceptual diagram illustrating a device to which an embodiment of the present invention is applied as a combination of function realizing means.

図示の通り、カメラ1て取り込まれた走行路の画像デー
タはA/D変換部2てディジタルデータに変換され、画
像メモリ3に一時的に格納される。
As shown in the figure, the image data of the driving route captured by the camera 1 is converted into digital data by the A/D converter 2 and temporarily stored in the image memory 3.

画像メモリ3から読み出された画像データは前処理部4
に与えられ、ここで微分によるエツジ検出、ルックアッ
プテーブル(LUT)による閾値処理、領域設定、座標
変換などが行なわれる。DDA演算部5はいわゆるディ
ジタル微分解析(DigitalDif’ferent
ial Analysis )を行なうもので、Ho 
u gh変換がパイプライン方式でなされる。
The image data read out from the image memory 3 is sent to the preprocessing section 4.
Here, edge detection by differentiation, threshold processing by a look-up table (LUT), area setting, coordinate transformation, etc. are performed. The DDA calculation section 5 performs so-called digital differential analysis (Digital Difference Analysis).
ial analysis).
The u gh transformation is done in a pipelined manner.

そして、このHough変換によって画像の特徴に対応
する直線群が得られる。
Then, by this Hough transformation, a group of straight lines corresponding to the features of the image is obtained.

Hough変換により得られた直線群に関するデータは
近傍フィルタリング部6に与えられ、ここで例えば8近
傍フイルタリング処理が施された後に、ピークソーティ
ング部7に与えられ、さらにクラスタリング部8におけ
るクラスタリング処理によって代表値が選ばれ、これが
直線抽出/選定部9に送られる。抽出および選定された
直線に関するデータは判別部10に送られ、ここで走行
路の形状が判別される。判別出力は外部の装置(図示せ
ず)に送られると共に、モニタ制御部11にも送られ、
走行路の画像と共にモニタ12で表示される。なお、上
記の機能実現手段の動作はコントローラ13で制御され
る。また、初期設定部14は走行路幅のデータなどを初
期設定するために用いられる。
The data related to the straight line group obtained by Hough transformation is given to the neighborhood filtering section 6, where it is subjected to, for example, 8 neighborhood filtering processing, and then given to the peak sorting section 7, and furthermore, it is given to the peak sorting section 7 by the clustering processing in the clustering section 8 to A value is selected and sent to the straight line extraction/selection section 9. The data regarding the extracted and selected straight lines is sent to the determining section 10, where the shape of the traveling path is determined. The determination output is sent to an external device (not shown) and also to the monitor control unit 11,
It is displayed on the monitor 12 together with the image of the running route. Note that the operation of the above function realizing means is controlled by the controller 13. Further, the initial setting section 14 is used to initialize data such as travel road width.

次に、上記装置に適用された実施例の作用を順次に説明
する。
Next, the effects of the embodiment applied to the above device will be sequentially explained.

第3図は処理の流れを全体的に示すフローチャー1・で
ある。まず、処理の開始に際しては初期設定か行なわれ
る(ステップ201)。この初期設定には走行路幅WR
の設定の他、カメラ1の俯角θ。、カメラ]のレンズ焦
点距離f1カメラ1の取付高さHが含まれる。これを第
4図および第5図により説明する。
FIG. 3 is a flowchart 1 showing the overall process flow. First, when starting the process, initial settings are performed (step 201). This initial setting includes the driving road width WR.
In addition to the setting, the depression angle θ of camera 1. , camera] lens focal length f1 of the camera 1 and the mounting height H of the camera 1. This will be explained with reference to FIGS. 4 and 5.

第4図(a)に示すように、走行路31上に走行車両3
2が存在しているとし、走行車両32にはカメラ1が固
定されているとする。すると、カメラ1の俯角θ。およ
び取付高さH8は構造上あらかしめ既知の値として設定
できる。また、レンズ焦点距離fについてもカメラ1の
構造から既知の値として設定できる。なお、第4図(b
)は同図(a)の光学系の位置関係を拡大して示したち
のである。一方、走行路幅WRについては第5図に示す
ものが設定される。上記のデータが設定されると、第5
図に示すような画像下端部での走行路幅wrを求めるこ
とができる。すなわち、画像上での走行路幅wrは wr=(WR’  ・f) /((L  十H−1anθ ) COSθ )low
   c     o     。
As shown in FIG. 4(a), a traveling vehicle 3 is placed on a traveling path 31.
2 exists, and it is assumed that the camera 1 is fixed to the traveling vehicle 32. Then, the depression angle θ of camera 1. The mounting height H8 can be set as a known value based on the structure. Further, the lens focal length f can also be set as a known value based on the structure of the camera 1. In addition, Fig. 4 (b
) is an enlarged view of the positional relationship of the optical system in figure (a). On the other hand, the traveling road width WR is set as shown in FIG. 5. Once the above data is set, the fifth
The running road width wr at the lower end of the image as shown in the figure can be determined. That is, the running road width wr on the image is wr = (WR' ・f) / ((L + H - 1anθ) COSθ)low
co.

・・・(1) となる。ここで、L  は第4図(b)においlow て I L     =H/jan(H+jan   (y  
   /f))ow     c        o 
          ow・・・ (2) として求まり、WR’ は第5図(b)において傾き角
ψから WR’ =WR/sinψ       −(3)とし
て求まる。
...(1) becomes. Here, L is low in FIG. 4(b) and I L =H/jan(H+jan (y
/f))ow c o
ow... (2) WR' is determined from the inclination angle ψ in FIG. 5(b) as WR' = WR/sin ψ - (3).

次に、第3図のステップ202として、画像上での地平
線の算出がなされる。この地平線位置Hは第4図(b)
において、 H=f−tan θo         −(4)とし
て算出される。そして、第3図のステップ204として
第1領域A1と第2領域A2と第3領域A3の設定が行
なわれる。すなわち、第1図(d)、(e)、(f)に
示すように走行路31の手前側を第1領域A1とし、前
方側を第2領域A2とし、さらに遠方側を第3領域八3
とする。
Next, in step 202 in FIG. 3, the horizon on the image is calculated. This horizon position H is shown in Figure 4(b)
, it is calculated as H=f-tan θo-(4). Then, as step 204 in FIG. 3, a first area A1, a second area A2, and a third area A3 are set. That is, as shown in FIGS. 1(d), (e), and (f), the near side of the running path 31 is defined as a first area A1, the front side is defined as a second area A2, and the far side is defined as a third area 8. 3
shall be.

そして、第1領域A1と第2領域A2の比および第2領
域A2と第3領域A3の比はそれぞれ3:2程度とし、
かつ第3領域A3の上端部が地平線位置Hにほぼ一致す
るようにしておく。なお、実施例においては説明を簡単
にするため、分割されるのは第1.第2領域AI、A2
の2領域とする。
The ratio of the first area A1 to the second area A2 and the ratio of the second area A2 to the third area A3 are each about 3:2,
In addition, the upper end of the third area A3 is made to substantially coincide with the horizon position H. In addition, in the embodiment, in order to simplify the explanation, the first . Second area AI, A2
There are two areas.

以上のような前段階の処理が終了したら、画像データの
処理を繰り返して実行する。すなわち、まず第3図のス
テップ205において画像データをディジタルデータと
して第2図の画像メモリ3から入力し、前処理部4で所
定の前処理を行なう。
After the above-mentioned pre-processing is completed, the image data processing is repeated. That is, first, in step 205 in FIG. 3, image data is input as digital data from the image memory 3 in FIG. 2, and preprocessing section 4 performs predetermined preprocessing.

ここでは、例えば5obelなどのエツジ検出を行ない
、このエツジ化データについて第2図のDDA演算部5
でHough変換を行なう。このHough変換は直列
接続された複数のDDA演算回路(図示せず)を用いて
パイプライン方式で行なうことができるか、その処理の
概要は例えば、米国特許第3069654号や本出願人
による特願昭63−112243号に示されている。す
なわち、原画像を微分してエツジ画像を求め、そこにお
ける各エツジ点に対して所定の原点から直線を引く。そ
して、この原点と各エツジ点の距離をρ、この直線と横
軸とのなす角をθとして上記θの値を変えていくと、H
ough曲線と呼ばれるサインカーブをρ、θ平面で描
くことができる。
Here, for example, edge detection such as 5 obel is performed, and the DDA calculation unit 5 in FIG.
Perform Hough transformation. Is it possible to perform this Hough conversion in a pipeline system using multiple DDA calculation circuits (not shown) connected in series? For an overview of the process, see, for example, U.S. Pat. It is shown in Sho 63-112243. That is, an edge image is obtained by differentiating the original image, and a straight line is drawn from a predetermined origin to each edge point therein. Then, if the distance between this origin and each edge point is ρ, and the angle between this straight line and the horizontal axis is θ, and the value of θ is changed, H
A sine curve called an ough curve can be drawn on the ρ, θ plane.

このHough曲線は各エツジごとに異なり、これらは
ρ、θ平面で交叉点を有しているので、この交叉点のヒ
ストグラムを調べることで、エツジ点の並びに近似した
直線gをρ、θの値で求めることができる。
This Hough curve is different for each edge, and these curves have intersection points on the ρ and θ planes, so by examining the histogram of these intersection points, we can calculate the alignment of the edge points and the approximate straight line g with the values of ρ and θ. It can be found by

これを、第6図面の簡単な説明する。This will be briefly explained in the sixth drawing.

いま、x−y平面(原画像平面)上のエツジ点が、第6
図(a)に示すようにEP、EP。
Now, the edge point on the x-y plane (original image plane) is the sixth
EP, EP as shown in figure (a).

EP2の3点であったとする。すると、各エツジ点EP
o−EP2のそれぞれにつき1本づつのHough曲線
(サインカーブ)がρ−θ平面で描かれ、しかもエツジ
点EPoとEP、による2本のHough曲線は(ρ 
、θ )で交点をもち、エツジ点EP  とEP2によ
る2本のHough曲線は(ρ 、C2)で交点をもつ
Assume that there are 3 points for EP2. Then, each edge point EP
One Hough curve (sine curve) for each o-EP2 is drawn on the ρ-θ plane, and the two Hough curves due to the edge points EPo and EP are (ρ
, θ ), and the two Hough curves formed by edge points EP 1 and EP2 have an intersection at (ρ , C2).

そこで、第6図(b)のようにEPo−EP14の15
個のエツジ点が並んでいたとすると、各エツジについて
各1本づつのHough曲線がρ−θ平面で描かれるこ
とになる。そして、エツジ点EP −EP8の9本のR
ough曲線については(ρ 、θ )で交叉し、エツ
ジ点EP8〜CC E P toの3本のHo u gh曲線については(
ρb。
Therefore, as shown in Figure 6(b), 15 of EPo-EP14
If these edge points are lined up, one Hough curve will be drawn for each edge on the ρ-θ plane. And the 9 R's of edge point EP-EP8
The Hough curve intersects at (ρ, θ), and the three Hough curves from edge point EP8 to CCE Pto intersect at (ρ, θ).
ρb.

θ )で交叉し、エツジ点EP1o−EP14の5本す のHough曲線については(ρ 、θ )で交a  
    a 叉する。
For the five Hough curves of edge points EP1o-EP14, they intersect at (ρ, θ).
a. To bite.

上記の説明から明らかなように、Hough曲線の交点
を頻度をカウントすれば、エツジ点の並びに近似した直
線を求められることがわかる。そして、これにエツジ点
の輝度を重み付けすれば、交叉点のヒストグラムを知る
ことで画像におけるデータの特徴的な並びを認識するこ
とができることになる。
As is clear from the above description, by counting the frequency of intersections of Hough curves, it is possible to obtain a straight line that approximates the arrangement of edge points. Then, by weighting this with the brightness of the edge points, it becomes possible to recognize the characteristic arrangement of data in the image by knowing the histogram of the intersection points.

次に、第3図のステップ210に対応するフィルタリン
グ処理を第7図により説明する。
Next, the filtering process corresponding to step 210 in FIG. 3 will be explained with reference to FIG.

第7図はρ、θ座標におけるカウント値(輝度で重みづ
けされた交叉点のヒストグラム)を示している。ここで
8近傍のフィルタリング処理は、ある(ρ6.θ、)に
おけるカウント値C0,に1     j      
               1.コついて、その近
傍の8つのカウント値と比較することで行なう。すなわ
ち、(ρ  、θ、 )〜1−I   J−1 (ρ、 、θ、 )のカウント値をC1−1,、+−1
i十l      J+1 C9、とじたときに、C9,かいずれのカラ1+1.3
+1                1+コント値よ
りも大であるときに、これをピークとして抽出する。従
って、例えば第7図の符号F1で示す範囲では(ρ 、
θ )−7はピークとして抽出されるが、符号F2で示
す(ρ 、θ )−6はピークとして抽出されない。
FIG. 7 shows count values (a histogram of intersection points weighted by brightness) at the ρ and θ coordinates. Here, the 8-neighborhood filtering process applies 1 j to the count value C0 at a certain (ρ6.θ,)
1. This is done by comparing the count values with eight nearby count values. That is, the count value of (ρ, θ, ) ~ 1-I J-1 (ρ, , θ, ) is C1-1,,+-1
i ten l J+1 C9, when closed, C9, either color 1+1.3
+1 When it is greater than 1+Conte value, this is extracted as a peak. Therefore, for example, in the range indicated by the symbol F1 in FIG. 7, (ρ,
θ )-7 is extracted as a peak, but (ρ , θ )-6, indicated by symbol F2, is not extracted as a peak.

フィルタリング処理の次には、ソーティング処理がなさ
れる。これは、上記のカウント値Cの大きい順にデータ
を並びかえるもので、ソフトウェアにより実現してもよ
く、専用のハードウェアにより実現してもよい。
After the filtering process, a sorting process is performed. This is to rearrange the data in descending order of the count value C described above, and may be realized by software or by dedicated hardware.

以上のソーティング処理が終了したら、次にクラスタリ
ング処理による代表値の選定がなされる(第3図のステ
ップ213)。これを第8図ないし第10図により説明
する。
After the above sorting process is completed, representative values are selected by clustering process (step 213 in FIG. 3). This will be explained with reference to FIGS. 8 to 10.

第8図はソーティングされたデータを示している。ここ
で、カウント値C,C,C2,・・・Cについては、ソ
ーティング処理によってC>C>C>・・・〉Cとなっ
ている。りOJ、   2     n−1 ラスクリング処理にあたっては、第9図のフローチャー
トの如くますに=o、i=1に設定しくステップ501
)、ステップ502〜515の処理か繰り返される。そ
こで、上記i、kを用いてこの処理を一般的に説明する
と、次のようになる。
FIG. 8 shows the sorted data. Here, the count values C, C, C2, . . . C are set as C>C>C> . . .>C by the sorting process. For the OJ, 2n-1 rusk ring process, set =o and i=1 as shown in the flowchart of FIG. 9 in step 501.
), the processing of steps 502 to 515 is repeated. Therefore, a general explanation of this process using the above i and k will be as follows.

まずステップ502において、inkとなっているi番
目の直線がすでに他の直線の仲間になっているか否かが
調べられ、仲間となっていないときに ρ −Δρ≦ρ・ ≦ρに+Δρ に1 θ −Δθ≦θ、≦θに+Δθ に1 が調べられる(ステップ504)。そして、上記の関係
が成立するときのみi番目の直線はに番目の直線の仲間
とされる(ステップ505)。次に、i、に1が加算さ
れ(ステップ507)、データが有りのときのみ(ステ
ップ508)i番目のカウント値C3が最大のものに比
べて小さすぎないか調べられる(ステップ510)。こ
れは、カウント値があまり小さいものは処理の必要性が
乏しいからである。
First, in step 502, it is checked whether the i-th straight line that is ink is already a member of another straight line, and if it is not a member, ρ −Δρ≦ρ・≦ρ +Δρ is 1 1 is checked for θ −Δθ≦θ, ≦θ and +Δθ (step 504). Then, only when the above relationship is established, the i-th straight line is determined to be a member of the i-th straight line (step 505). Next, 1 is added to i (step 507), and only when data is present (step 508), it is checked whether the i-th count value C3 is too small compared to the maximum value (step 510). This is because if the count value is too small, there is little need for processing.

小さすぎないときは再びステップ502の処理に戻るが
、小さすぎるときはkに1が加算され(ステップ511
)、別のクラスタリングがステップ513から始められ
る。すなわち、k番目の直線がすてに他の直線の挿間に
なっているか否かが調べられ(ステップ51B)、仲間
となっているときにはステップ511でkに1が加算さ
れて再びステップ513が実行される。仲間となってい
ないときは、k番目の次のi  (=に+l)番目につ
いて(ステップ515)、再びステップ502が実行さ
れる。
If it is not too small, the process returns to step 502, but if it is too small, 1 is added to k (step 511).
), another clustering is started at step 513. That is, it is checked whether the kth straight line is already an interpolation of another straight line (step 51B), and if it is a member, 1 is added to k in step 511, and step 513 is performed again. executed. If they are not friends, step 502 is executed again for the i (=+l)th one after the kth one (step 515).

上記の処理によってクラスタリングを行なった具体例を
第10図に示す。同図において、第1の代表値はp =
 200 (dots) 、θ=45Cdeglであり
、第2の代表値はp = 2401:dots:l 、
θ=123Cdeg)であることがわかる。
A specific example of clustering performed by the above process is shown in FIG. In the same figure, the first representative value is p =
200 (dots), θ=45Cdegl, and the second representative value is p=2401:dots:l,
It can be seen that θ=123Cdeg).

上記の処理の後には、第3図にステップ214で示す第
1領域A1の直線抽出/選定がなされる。
After the above processing, straight line extraction/selection of the first area A1 shown in step 214 in FIG. 3 is performed.

第11図ないし第13図はそのフローチャートである。FIGS. 11 to 13 are flowcharts thereof.

第1領域A1における直線の抽出は、第11図のフロー
チャートに示すように、まず第N(=1)番目の代表値
の直線が一方の第1の直線g1として取り出され、この
直線がカメラ1に対して右側か左側かが調べられる(ス
テップ552)。右側のときは他方の第1の直線ρ2は
左側にあるはずなのでその理論値が求められ(ステップ
554)、左側のときは他方の第1の直線Ω2は右側に
あるはずのなのでその理論値が求められる(ステップ5
55)。ここで、直線ρ1=(ρ 、θ )の右側の直
線N  =(ρ 、θ )1    1       
        2r      2r    2rの
理論値は ρ =HΦsin  θ2゜ 2r   。
To extract straight lines in the first area A1, as shown in the flowchart of FIG. It is checked whether it is on the right side or on the left side (step 552). When it is on the right side, the other first line ρ2 should be on the left side, so its theoretical value is calculated (step 554), and when it is on the left side, the other first line Ω2 should be on the right side, so its theoretical value is found. required (step 5
55). Here, the straight line N = (ρ, θ)1 1 on the right side of the straight line ρ1 = (ρ, θ)
The theoretical value of 2r 2r 2r is ρ = HΦsin θ2°2r.

=1 θ2.=tan   ([(ρ1/cos θ1+Wr
〕/H8 左側の直線Ill   =(ρ  、θ  )の理論2
ρ   2.&   2.Q 値は =H−5in 02Ω ρ2Ω   O e   =jan −’ (〔p  /cos e  
’−wr:12 Ω             11/
H8 として求まる。
=1 θ2. = tan ([(ρ1/cos θ1+Wr
]/H8 Left straight line Ill = (ρ, θ) Theory 2
ρ 2. & 2. The Q value is = H-5in 02Ω ρ2Ω O e =jan -' ([p/cos e
'-wr: 12 Ω 11/
It is found as H8.

そして、上記第1の直線Ω1に対応する代表値以外の代
表値に理論値と近いものがあるまで(ステップ557)
、上記の操作が繰り返される(ステップ558)。
Then, until there is a representative value other than the representative value corresponding to the first straight line Ω1 that is close to the theoretical value (step 557)
, the above operations are repeated (step 558).

ここで、一方の第1の直線p1が第14図のようになっ
ているとすると、理論値は走行路画像幅wrと地平線位
置Hの関係から求められるが、この理論値に対応する代
表値の直線がステップ560の処理結果として第14図
中のL2でありたとする。このときには、これを他方の
第1の直°線Ω2の候補直線として直線確定操作を行な
う(ステップ561)。
Here, if one of the first straight lines p1 is as shown in FIG. 14, the theoretical value can be found from the relationship between the travel road image width wr and the horizon position H, and the representative value corresponding to this theoretical value Assume that the straight line is L2 in FIG. 14 as the processing result of step 560. At this time, a straight line determination operation is performed using this as a candidate straight line for the other first straight line Ω2 (step 561).

ステップ56]の処理の詳細は、第12図のようになっ
ている。まず、他方の第1の直線ρ2の候補直線のグル
ープを作る(ステップ571)。
The details of the process in step 56] are as shown in FIG. First, a group of candidate straight lines for the other first straight line ρ2 is created (step 571).

このグループの作り方としては、代表値のうち所定範囲
内のものをまとめる方式や、Hough変換の際の分割
数を補間する方式などがあるが、いずれにせよ理論値に
近い直線L2の他、最終的に選定される他方の第1の直
線g2を含んだグループか作られる(第14図参照)。
There are ways to create this group, such as grouping together representative values within a predetermined range, or interpolating the number of divisions during Hough transformation, but in any case, in addition to the straight line L2 close to the theoretical value, the final A group is created that includes the other first straight line g2 selected as follows (see FIG. 14).

次に、第14図のエツジ点EPか各候補直線の下に何個
あるかをカウントシ(ステップ572)、最もカウント
数の大きいものを最終的な他方の第1の直線Ω2とする
。このようにして、直線り、L2’ などに惑わされる
ことなく、本来の第1の直線g2を選定できる。
Next, the number of edge points EP in FIG. 14 below each candidate straight line is counted (step 572), and the one with the largest count is set as the final other first straight line Ω2. In this way, the original first straight line g2 can be selected without being confused by straight lines, L2', etc.

上記のような第1領域A1の処理が終了したら、第13
図のような第2領域A2の処理を行なう。
When the processing of the first area A1 as described above is completed, the processing of the 13th area A1 is completed.
Processing of the second area A2 as shown in the figure is performed.

まず、ステップ581で第1領域A1の第1の直線対g
 、ρ2と第1領域A1上端部との交点】 P、Qを第14図のように求める。次に、点Pの近傍を
通る直線を一方の第2の直線g3の候補とする(ステッ
プ582)。そして、この直線に対して第12図のよう
な直線確定操作を行なうと(584) 、近くの直線(
例えば第14図のL3)に惑わされることなく本来の一
方の第2の直線93を抽出できる。しかる後、他方の第
2の直線Ω4の抽出(ステップ585)を行なう訳であ
るが、この抽出は第11図のステップ551〜560と
同様に行なわれる。最後に、第12図のような直線確定
操作を行なえば、第14図のし4などに惑わされること
なく、他方の第2の直線Ω4が抽出できる。
First, in step 581, the first pair of straight lines g in the first area A1 is
, ρ2 and the upper end of the first area A1] P and Q are determined as shown in FIG. Next, a straight line passing near point P is selected as a candidate for one of the second straight lines g3 (step 582). Then, when performing the straight line determination operation as shown in Fig. 12 on this straight line (584), the nearby straight line (
For example, one of the original second straight lines 93 can be extracted without being confused by L3) in FIG. Thereafter, the other second straight line Ω4 is extracted (step 585), and this extraction is performed in the same manner as steps 551 to 560 in FIG. Finally, by performing the straight line determination operation as shown in FIG. 12, the other second straight line Ω4 can be extracted without being confused by the arrow 4 in FIG.

以上・の処理が、終了したら、最後に走行路の形状判別
を行なう(第3図のステップ217)。
When the above processing is completed, the shape of the travel path is finally determined (step 217 in FIG. 3).

〔発明の効果〕〔Effect of the invention〕

以上、詳細に説明した通り本発明によれば、画像特微量
の並びに対して、それを近似した直線の抽出が容易な領
域(第1領域)でまず第1の直線(直線対)が抽出され
、これにもとづいて画像特微量の並びに近似した直線の
抽出が困難な領域(第2領域)の第2の直線(直線対)
が抽出される。ここにおいて、第1の直線と第2の直線
が上記第1および第2領域の境界近傍で交叉しているこ
とを利用することにより、第2の直線(直線対)を容易
に抽出できることになる。このため、高速かつ容易な走
行路の判別が可能になる。
As described in detail above, according to the present invention, for a sequence of image features, a first straight line (straight line pair) is first extracted in a region (first region) in which it is easy to extract a straight line that approximates it. , based on this, the arrangement of the image features and the second straight line (straight line pair) in the region (second region) where it is difficult to extract an approximate straight line
is extracted. Here, by utilizing the fact that the first straight line and the second straight line intersect near the boundary of the first and second regions, the second straight line (straight line pair) can be easily extracted. . Therefore, it becomes possible to quickly and easily determine the travel route.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の実施例の基本概念の説明図、第2図
は、実施例を適用した装置における機能実現手段の概念
図、第3図は、全体的な処理を示すフローチャート、第
4図は、カメラの取付位置の説明図、第5図は、走行路
における車両の状態と画像の関係の説明図、第6図は、
Ho ugh変換の説明図、第7図は、フィルタリング
処理の説明図、第8図は、Hough変換とソーティン
グ処理の結果の説明図、第9図は、クラスタリング処理
の説明図、第10図は、クラスタリング処理の結果の具
体例の説明図、第11図は、第1領域A1における直線
の抽出および選定のフローチャ一ト、第12図は、直線
確定操作のフローチャート、第13図は、第2領域A2
における直線の抽出および選定のフロ、−チャート、第
14図は、直線Ω1〜g4の抽出および選定を画像上で
説明する図である。 1・・・カメラ、2・・・A/D変換部、3・・・画像
メモリ、5・・・DDA演算部、6・・・近傍フィルタ
リング部、7・・・ピークソーティング部、8・・・ク
ラスタリング部、9・・・直線抽出/選定部、10・・
・判別部、11・・・モニタ制御部、12・・・モニタ
、13・・・コントローラ、14・・・初期設定部、Ω
1・・・一方の第1の直線、ρ2・・・他方の第1の直
線、g3・・・一方の第2の直線、Ω4・・・他方の第
2の直線、A1・・・第1領域、A2・・・第2領域、
A3・・・第3領域。 特許出願人  本田技研工業株式会社 代理人弁理士   長谷用  芳  樹本発明/1基不
梱液・(荊判 第 図 不発明め幕芥俺々(橋わ 第 図
FIG. 1 is an explanatory diagram of the basic concept of an embodiment of the present invention, FIG. 2 is a conceptual diagram of a function realizing means in a device to which the embodiment is applied, and FIG. 3 is a flowchart showing the overall processing. Figure 4 is an explanatory diagram of the mounting position of the camera, Figure 5 is an explanatory diagram of the relationship between the vehicle condition on the road and the image, and Figure 6 is:
FIG. 7 is an explanatory diagram of the Hough transformation. FIG. 7 is an explanatory diagram of the filtering process. FIG. 8 is an explanatory diagram of the results of the Hough transformation and sorting process. FIG. 9 is an explanatory diagram of the clustering process. An explanatory diagram of a specific example of the results of the clustering process, FIG. 11 is a flowchart for extracting and selecting straight lines in the first area A1, FIG. 12 is a flowchart for straight line confirmation operation, and FIG. 13 is a flowchart for straight line determination in the first area A1 A2
FIG. 14 is a diagram illustrating the extraction and selection of straight lines Ω1 to g4 on an image. DESCRIPTION OF SYMBOLS 1... Camera, 2... A/D conversion part, 3... Image memory, 5... DDA calculation part, 6... Neighborhood filtering part, 7... Peak sorting part, 8...・Clustering section, 9...Line extraction/selection section, 10...
- Discrimination unit, 11... Monitor control unit, 12... Monitor, 13... Controller, 14... Initial setting unit, Ω
1... One first straight line, ρ2... Other first straight line, g3... One second straight line, Ω4... Other second straight line, A1... First Area, A2...second area,
A3...Third area. Patent Applicant: Honda Motor Co., Ltd. Representative Patent Attorney Yoshiki Hase

Claims (1)

【特許請求の範囲】 1、走行路を撮像して得られた画像に含まれる画像特徴
量からその形状を判別する走行路判別方法において、 前記画像を前記画像特徴量の並びが最も特徴的に現れる
第1領域と、当該並びが連続する方向で当該第1領域と
隣接する第2領域とを含む少なくとも2つの領域に分割
する第1のステップと、前記画像上での前記画像特徴量
に対応した複数の直線からなる直線群を求める第2のス
テップと、前記第1領域で一方の走行路端に対応して現
れる前記画像特徴量の並びに近似した第1の直線を抽出
する第3のステップと、 前記第2領域で一方の走行路端に対応して現れる前記画
像特徴量の並びに近似した第2の直線を、前記第1およ
び第2領域の境界と前記第1の直線の交点近傍を通る直
線群から抽出する第4のステップと、 前記第1および第2の直線にもとづいて走行路の形状を
判別する第5のステップと を備えることを特徴とする走行路判別方法。 2、前記第1のステップに先立ち前記第2のステップを
実行することを特徴とする請求項1記載の走行路判別方
法。 3、走行路を撮像して得られた画像に含まれる画像特徴
量からその形状を判別する走行路判別方法において、 前記画像を前記画像特徴量の並びが最も特徴的に現れる
第1領域と、当該並びが連続する方向で当該第1領域と
隣接する第2領域とを含む少なくとも2つの領域に分割
する第1のステップと、前記画像上での前記画像特徴量
に対応した複数の直線からなる直線群を求める第2のス
テップと、前記第1領域で一方および他方の走行路端に
対応して現れる前記画像特徴量の並びに近似した第1の
直線対を抽出する第3のステップと、 前記第2領域で一方および他方の走行路端に対応して現
れる前記画像特徴量の並びに近似した第2の直線対を、
前記第1および第2領域の境界と前記第1の直線対の交
点近傍を通る直線群から抽出する第4のステップと、 前記第1および第2の直線対にもとづいて走行路の形状
を判別する第5のステップと を備えることを特徴とする走行路判別方法。 4、前記第1のステップに先立ち前記第2のステップを
実行することを特徴とする請求項3記載の走行路判別方
法。 5、前記第3のステップは、前記第1領域で一方の走行
路端に対応して現れる前記画像特徴量の並びに近似した
一方の第1の直線を抽出し、この一方の第1の直線とあ
らかじめ設定された走行路幅情報にもとづき他方の走行
路端に対応して現れる他方の第1の直線を選定するステ
ップを含み、前記第4のステップは、前記第2領域で一
方の走行路端に対応して現れる前記画像特徴量の並びに
近似した一方の第2の直線を、前記第1および第2領域
の境界と前記一方の第1の直線の交点近傍を通る直線群
から抽出し、かつこの一方の第2の直線とあらかじめ設
定された走行路幅情報にもとづき他方の走行路端に対応
して現れる他方の第2の直線を選定するステップを含む
ことを特徴とする請求項3記載の走行路判別方法。
[Scope of Claims] 1. In a driving route discrimination method for determining the shape of an image from image feature quantities included in an image obtained by capturing an image of a running road, the image is characterized in that the arrangement of the image feature quantities is the most characteristic. a first step of dividing into at least two regions including a first region that appears and a second region adjacent to the first region in a direction in which the arrangement continues, and corresponding to the image feature amount on the image; a second step of finding a straight line group consisting of a plurality of straight lines, and a third step of extracting a first straight line that approximates the arrangement of the image features appearing in the first region corresponding to one of the road edges. and a second straight line approximated by the arrangement of the image features appearing in the second region corresponding to one road edge, and a second straight line approximated by the boundary between the first and second regions and the first straight line. A driving path determination method comprising: a fourth step of extracting from a group of passing straight lines; and a fifth step of determining the shape of the driving path based on the first and second straight lines. 2. The driving path determination method according to claim 1, wherein the second step is executed prior to the first step. 3. In a driving road discrimination method that determines the shape of an image from image features included in an image obtained by capturing an image of a driving road, the image is defined as a first region in which the arrangement of the image features most characteristically appears; a first step of dividing into at least two regions including the first region and an adjacent second region in a direction in which the arrangement is continuous; and a plurality of straight lines on the image corresponding to the image feature amount. a second step of obtaining a group of straight lines; a third step of extracting a first pair of straight lines that approximates the arrangement of the image features that appear corresponding to one and the other road edge in the first region; A second pair of straight lines approximated by the arrangement of the image features that appear corresponding to one and the other road edge in the second region,
a fourth step of extracting from a group of straight lines passing near the intersection of the boundary of the first and second regions and the first pair of straight lines; and determining the shape of the traveling path based on the first and second pair of straight lines. A driving route determination method, comprising: a fifth step. 4. The driving route determination method according to claim 3, wherein the second step is executed prior to the first step. 5. The third step is to extract one of the first straight lines that approximates the arrangement of the image features that appear in the first region corresponding to one of the road edges, and to The fourth step includes the step of selecting the other first straight line that appears corresponding to the other running road edge based on preset running road width information, and the fourth step includes selecting one of the running road edges in the second area. extracting one of the second straight lines approximated to the arrangement of the image features that appears corresponding to from a group of straight lines passing near the intersection of the boundary of the first and second regions and the one of the first straight lines, and 4. The method according to claim 3, further comprising a step of selecting the other second straight line that appears corresponding to the edge of the other running road based on the one second straight line and preset running road width information. Driving route determination method.
JP63243331A 1988-09-28 1988-09-28 Driving path identification method Expired - Fee Related JPH0624036B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63243331A JPH0624036B2 (en) 1988-09-28 1988-09-28 Driving path identification method
DE68925091T DE68925091T2 (en) 1988-09-28 1989-09-28 Method and device for estimating the route
EP89309876A EP0361914B1 (en) 1988-09-28 1989-09-28 A driving way judging device and method
US08/032,409 US5359666A (en) 1988-09-28 1993-03-15 Driving way judging device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63243331A JPH0624036B2 (en) 1988-09-28 1988-09-28 Driving path identification method

Publications (2)

Publication Number Publication Date
JPH0290381A true JPH0290381A (en) 1990-03-29
JPH0624036B2 JPH0624036B2 (en) 1994-03-30

Family

ID=17102234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63243331A Expired - Fee Related JPH0624036B2 (en) 1988-09-28 1988-09-28 Driving path identification method

Country Status (1)

Country Link
JP (1) JPH0624036B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
US6493458B2 (en) 1996-08-28 2002-12-10 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor
JP2005339468A (en) * 2004-05-31 2005-12-08 Mitsubishi Electric Corp On-vehicle road marking detector
JP2010225125A (en) * 2009-03-25 2010-10-07 Ihi Corp Passage detecting program, and passage detection device and method
JP2014229034A (en) * 2013-05-22 2014-12-08 ホーチキ株式会社 Fire detection device and fire detection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
US6493458B2 (en) 1996-08-28 2002-12-10 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor
JP2005339468A (en) * 2004-05-31 2005-12-08 Mitsubishi Electric Corp On-vehicle road marking detector
JP4575031B2 (en) * 2004-05-31 2010-11-04 三菱電機株式会社 In-vehicle road marking detection device
JP2010225125A (en) * 2009-03-25 2010-10-07 Ihi Corp Passage detecting program, and passage detection device and method
JP2014229034A (en) * 2013-05-22 2014-12-08 ホーチキ株式会社 Fire detection device and fire detection method

Also Published As

Publication number Publication date
JPH0624036B2 (en) 1994-03-30

Similar Documents

Publication Publication Date Title
CN109948661B (en) 3D vehicle detection method based on multi-sensor fusion
US5359666A (en) Driving way judging device and method
EP0361914B1 (en) A driving way judging device and method
CN104700072B (en) Recognition methods based on lane line historical frames
CN107273816B (en) Traffic speed limit label detection recognition methods based on vehicle-mounted forward sight monocular camera
CN108491892A (en) fruit sorting system based on machine vision
CN112766136B (en) Space parking space detection method based on deep learning
CN111382658B (en) Road traffic sign detection method in natural environment based on image gray gradient consistency
CN112507862A (en) Vehicle orientation detection method and system based on multitask convolutional neural network
CN101369312B (en) Method and equipment for detecting intersection in image
CN110956119A (en) Accurate and rapid target detection method in image
JPH0290381A (en) Running path discriminating method
CN110733416A (en) lane departure early warning method based on inverse perspective transformation
JPH0290379A (en) Running path discriminating device
CN114529715B (en) Image identification method and system based on edge extraction
CN111241911A (en) Self-adaptive lane line detection method
CN115440052A (en) Traffic flow control method and device based on big data
JPH0290380A (en) Running path discriminating method
CN113822149A (en) Emergency lane visual detection method and system based on view angle of unmanned aerial vehicle
CN103473953A (en) Pedestrian detection method and system
Zhao et al. A robust lane detection algorithm based on differential excitation
CN103679738B (en) Method for detecting image edge based on color radius adjacent domains pixel classifications
CN113836978A (en) Road area determination device and method and electronic equipment
CN113780049A (en) Y-shaped bifurcation unstructured road identification method based on OSTU method
CN111462080A (en) Defect detection method for glass flat area

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees