JPH09223218A - Method and device for detecting traveling route - Google Patents

Method and device for detecting traveling route

Info

Publication number
JPH09223218A
JPH09223218A JP8027502A JP2750296A JPH09223218A JP H09223218 A JPH09223218 A JP H09223218A JP 8027502 A JP8027502 A JP 8027502A JP 2750296 A JP2750296 A JP 2750296A JP H09223218 A JPH09223218 A JP H09223218A
Authority
JP
Japan
Prior art keywords
window
lane marker
neural network
road
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8027502A
Other languages
Japanese (ja)
Inventor
Katsuji Imai
勝次 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP8027502A priority Critical patent/JPH09223218A/en
Publication of JPH09223218A publication Critical patent/JPH09223218A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To effectively detect a white line (lane marker) on a road. SOLUTION: A picture signal obtained by a camera 10 is converted into digital data by a conversion part 12. A part of the digital data is segmented as an window and processed by a neural network processing part 16. The processing part 16 has learned the shapes of various white lines and outputs the detection of a white line and its inclination value. Thereby the window can be moved along the white line by determining the position of an window processing part 14 based on the detection result of the processing part 16. The white line on the whole picture can be detected by the setting of a suitable window and the white line can be quickly and surely detected. Especially an almost erased white line, a white line like a broken line, etc., can be also surely detected by learning then.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、走路の路面上に形
成される白線などのレーンマーカの検出に関し、特にニ
ューラルネットワークを利用するものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the detection of lane markers such as white lines formed on the road surface of a track, and more particularly to the use of neural networks.

【0002】[0002]

【従来の技術】自動車の自動操縦(無人運転)を実現す
るためには、自動車を走行レーンに沿って走行させるこ
とが必要である。このため、走行レーンを何らかの手段
で検出する必要がある。一方、自動車が走行する道路に
は、通常白線が走行レーンを規定するレーンマーカとし
て形成されている。そこで、車両前方を撮影し、この輝
度変化などから白線を検出することで、走行レーンを認
識することができる。
2. Description of the Related Art In order to realize automatic driving (unmanned driving) of a vehicle, it is necessary to drive the vehicle along a driving lane. Therefore, it is necessary to detect the traveling lane by some means. On the other hand, a white line is usually formed as a lane marker that defines a traveling lane on the road on which the automobile runs. Therefore, the traveling lane can be recognized by photographing the front of the vehicle and detecting the white line from the change in brightness.

【0003】しかし、得られた画像をすべてに渡って画
像処理すると、白線のない部分についての処理がほとん
どであり、無駄な処理が多く時間がかかる。一方、高速
の自動操縦等のためには、白線検出はなるべく簡単な処
理で、短時間で済ませたい。
However, when the image processing is performed on all the obtained images, most of the processing is performed on the part without the white line, and a lot of wasteful processing takes time. On the other hand, for high-speed automatic piloting, white line detection should be as simple as possible and should be completed in a short time.

【0004】そこで、白線の位置を推定して白線を検出
することが提案されている。例えば、特開平5−151
341号公報では、画像中にウインドウを設定し、その
ウインドウ内における濃度勾配からエッジ点を検出し、
曲線適合を行って白線形状を検出する。そして、検出さ
れた白線形状に基づいて、次のウインドウを決定してい
る。
Therefore, it has been proposed to estimate the position of the white line and detect the white line. For example, JP-A-5-151
In Japanese Patent No. 341, a window is set in an image, an edge point is detected from a density gradient in the window,
Curve fitting is performed to detect the white line shape. Then, the next window is determined based on the detected white line shape.

【0005】このように、ウインドウを設定すること
で、処理範囲を限定することができ、効率的な走路検出
が行える。
As described above, by setting the window, the processing range can be limited, and the travel route can be detected efficiently.

【0006】[0006]

【発明が解決しようとする課題】ここで、レーンマーカ
(白線)には、連続した線の他、破線なども用いられ
る。また、カーブにおいても正確な検出を行う必要があ
る。そこで、カーブにおいて破線が採用されている場合
などでは、ウインドウの位置の決定が困難であった。ま
た、路面上に形成された白線は、使用によって薄くな
る。このような白線の場合、検出された白線の幅が所定
値以下となり、白線が検出できない場合も生じる。
The lane marker (white line) may be a continuous line or a broken line. In addition, it is necessary to accurately detect a curve. Therefore, it is difficult to determine the position of the window when the broken line is used in the curve. In addition, the white line formed on the road surface becomes thin with use. In the case of such a white line, the width of the detected white line becomes less than or equal to a predetermined value, and the white line may not be detected.

【0007】さらに、高速道路における高速走行時に
は、白線の検出を非常に高速に行わなければならない。
上記従来例の処理では、エッジ点を求めるに際して画像
内の濃度勾配を検出している。このような処理は、通常
「if〜then」を含むアルゴリズムを実行するソフ
トウェア処理で行われる。ソフトウェア処理を高速化す
るには、並列処理などが必要であり、十分高速な処理を
行うことが難しかった。
Further, when the vehicle runs at high speed on a highway, the white line must be detected at a very high speed.
In the processing of the conventional example, the density gradient in the image is detected when the edge point is obtained. Such processing is usually performed by software processing that executes an algorithm including “if to then”. In order to speed up software processing, parallel processing or the like is necessary, and it has been difficult to perform sufficiently high speed processing.

【0008】本発明は、上記問題点を解決することを課
題としてなされたものであり、各種のレーンマーカを正
確かつ高速に検出することができる走路検出方法及び装
置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a running road detecting method and apparatus capable of detecting various lane markers accurately and at high speed.

【0009】[0009]

【課題を解決するための手段】本発明は、車両が走行す
る走路を規定するレーンマーカを検出する走路検出方法
であって、走路の路面画像を撮像する撮像ステップと、
路面画像の一部をウインドウとして抽出する抽出ステッ
プと、ウインドウ内の画像情報をこれを構成する複数の
画素毎の画像情報としてニューラルネットワークに入力
する入力ステップと、ニューラルネットワークにおいて
入力された画像情報からウインドウ内に存在するレーン
マーカの形状を求める形状判定ステップと、を含むこと
を特徴とする。
SUMMARY OF THE INVENTION The present invention is a method for detecting a lane marker that defines a running path on which a vehicle travels, the method including an imaging step for capturing a road surface image of the running path,
From the extraction step of extracting a part of the road surface image as a window, the input step of inputting the image information in the window to the neural network as the image information of each of a plurality of pixels forming the window, and the image information input in the neural network. A shape determining step of obtaining a shape of a lane marker existing in the window.

【0010】また、他の発明は、車両に搭載され、走路
を規定するレーンマーカを検出する走路検出装置であっ
て、走路の路面画像を撮像する撮像手段と、路面画像の
一部にウインドウを設定し、ウインドウ内の画像情報を
抽出する抽出手段と、抽出されたウインドウ内の画像情
報がこれを構成する複数の画素毎の画像情報として入力
され、この入力された画像情報からウインドウ内に存在
するレーンマーカの形状を求めるニューラルネット処理
手段と、を含むことを特徴とする。
Another aspect of the present invention is a track detection device which is mounted on a vehicle and detects a lane marker that defines a track, wherein image pickup means for picking up a road surface image of the road and a window set in a part of the road surface image. Then, the extraction means for extracting the image information in the window and the image information in the extracted window are input as image information for each of a plurality of pixels forming the window, and exist in the window from the input image information. Neural network processing means for obtaining the shape of the lane marker.

【0011】また、さらに他の発明は、上記抽出手段に
おけるウインドウの位置を上記ニューラルネット処理手
段において検出したレーンマーカの形状に応じて決定
し、1つの路面画像の中でウインドウをレーンマーカに
沿って移動させることを特徴とする。
Still another aspect of the present invention determines the position of the window in the extraction means according to the shape of the lane marker detected by the neural network processing means, and moves the window along the lane marker in one road surface image. It is characterized by

【0012】また、さらに他の発明は、上記ニューラル
ネット処理手段が、ウインドウを縦方向に複数の領域に
分割し、各領域内におけるレーンマーカの傾きについて
の係数を算出することを特徴とする。
Still another invention is characterized in that the neural network processing means divides the window vertically into a plurality of regions and calculates a coefficient for the inclination of the lane marker in each region.

【0013】このように、本発明では、ニューラルネッ
トワークを利用して、白線等のレーンマーカを検出す
る。このニューラルネットワークは、予め各種のレーン
マーカについて、学習しておくことができる。すなわ
ち、大きく曲がったものや、消えかかったものや、破線
形状のもの等各種のレーンマーカについて、学習してお
くことができる。そこで、単なるしきい値との比較では
認識が困難な各種のレーンマーカについて、確実に認識
することができる。
As described above, in the present invention, the lane marker such as the white line is detected by using the neural network. This neural network can learn various lane markers in advance. That is, it is possible to learn various types of lane markers such as one that is greatly bent, one that is about to disappear, and one that is in the shape of a broken line. Therefore, it is possible to reliably recognize various lane markers that are difficult to recognize by simply comparing with a threshold value.

【0014】また、ニューラルネットワークの処理結果
からウインドウの位置を走路に沿って移動させることに
よって、不要な場所についての処理を省略することがで
き、効率的な画像処理が行える。このため、高速走行時
において、十分な応答速度でレーンマーカを検出するこ
とができる。そこで、検出結果を利用して、操舵制御な
どを行い、高速時における無人運転制御などが行える。
Further, by moving the position of the window along the running path from the processing result of the neural network, it is possible to omit the processing for unnecessary places, and it is possible to perform efficient image processing. Therefore, the lane marker can be detected at a sufficient response speed when traveling at high speed. Therefore, using the detection result, steering control or the like can be performed, and unmanned operation control at high speed can be performed.

【0015】また、ウインドウ内を縦に複数の領域に分
割することによって、カメラなどで撮影された前方の画
像を車両からの距離に従って分割できる。そして、領域
毎にレーン形状についての係数を出力することで、より
適切なウインドウの位置設定を行うことができる。
Further, by dividing the inside of the window vertically into a plurality of regions, the front image taken by a camera or the like can be divided according to the distance from the vehicle. Then, by outputting the coefficient for the lane shape for each region, more appropriate window position setting can be performed.

【0016】[0016]

【発明の実施の形態】以下、本発明に好適な実施の形態
(以下、実施形態という)について、図面に基づいて説
明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention (hereinafter referred to as embodiments) will be described below with reference to the drawings.

【0017】「システム構成」図1は、本発明の走路検
出装置を搭載したシステムを示すブロック図であり、車
両の前方の走路(道路)を撮影する撮像手段としてカメ
ラ10を有している。このカメラ10としては、例えば
CCDカメラが採用される。
[System Configuration] FIG. 1 is a block diagram showing a system equipped with the road detecting device of the present invention, and has a camera 10 as an image pickup means for photographing a road (road) in front of the vehicle. A CCD camera, for example, is used as the camera 10.

【0018】このカメラ10には、変換部12が接続さ
れており、この変換部12は、カメラ10から供給され
る映像信号をその輝度に応じて、画素毎にデジタルデー
タに変換し、得られたデジタルの画像データを出力す
る。変換部12には、抽出手段として機能するウインド
ウ処理部14が接続されている。このウインドウ処理部
14は、画像データについて、所定の小さな領域(ウイ
ンドウ)のみを抽出し、抽出した部分のデータを出力す
る。
A conversion unit 12 is connected to the camera 10, and the conversion unit 12 converts the video signal supplied from the camera 10 into digital data for each pixel according to its brightness and obtains it. Output digital image data. A window processing unit 14 that functions as an extraction unit is connected to the conversion unit 12. The window processing unit 14 extracts only a predetermined small area (window) from the image data and outputs the data of the extracted portion.

【0019】このウインドウ処理部14には、ニューラ
ルネット処理部16が接続されている。ニューラルネッ
ト処理部16は、供給されるウインドウ内の画素毎の画
像データを入力信号として、白線(レーンマーカ)の存
在についての判定結果YNと、レーンマーカの傾きにつ
いての判定結果LC1,LC2,LC3を出力すると共
に、YN=1であるウインドウの位置をレーンマーカ位
置として出力する。そして、このニューラルネット処理
部16の判定結果は、ウインドウ指令として、ウインド
ウ処理部14にフィードバックされる。そこで、ウイン
ドウ処理部14は、このウインドウ指令に基づいて、同
一画像内のウインドウを変更して、画像データをニュー
ラルネット処理部16に供給したり、新たに供給される
画像データについてのウインドウの位置を決定する。
A neural network processing unit 16 is connected to the window processing unit 14. The neural network processing unit 16 outputs the determination result YN regarding the existence of a white line (lane marker) and the determination results LC1, LC2, LC3 regarding the inclination of the lane marker, using the image data for each pixel in the supplied window as an input signal. At the same time, the position of the window with YN = 1 is output as the lane marker position. Then, the determination result of the neural network processing unit 16 is fed back to the window processing unit 14 as a window command. Therefore, the window processing unit 14 changes the window in the same image based on this window command to supply the image data to the neural network processing unit 16 or the position of the window for the newly supplied image data. To decide.

【0020】ニューラルネット処理部16には、制御部
18が接続されている。この制御部18は、ニューラル
ネット処理部16から供給されるレーンマーカ位置に応
じて、車両の走行を制御する。すなわち、この実施形態
では、制御部18に、ステアリング制御部20、アクセ
ル制御部22、ブレーキ制御部24の3つの走行制御部
が接続されており、制御部18が検出されたレーンマー
カ位置に応じて、車両が所定速度で、レーンマーカに沿
って走行できるように車両の走行を制御する。なお、制
御部18が直接走行を制御せず、ドライバーにステアリ
ング操作加減速制御などの必要性を知らせるようにして
もよい。
A control unit 18 is connected to the neural network processing unit 16. The control unit 18 controls the traveling of the vehicle according to the lane marker position supplied from the neural network processing unit 16. That is, in this embodiment, three traveling control units, that is, the steering control unit 20, the accelerator control unit 22, and the brake control unit 24 are connected to the control unit 18, and the control unit 18 responds to the detected lane marker position. , The traveling of the vehicle is controlled so that the vehicle can travel along the lane marker at a predetermined speed. The control unit 18 may not directly control the traveling, but may notify the driver of the necessity of steering operation acceleration / deceleration control.

【0021】このように、本実施形態のシステムでは、
検出したレーンマーカに基づいて、車両の走行を制御で
きる。ここで、本実施形態では、レーンマーカの検出に
ニューラルネットワークを利用するニューラルネット処
理部16を用いている。そこで、ニューラルネットワー
クを利用した処理について、説明する。
As described above, in the system of this embodiment,
The traveling of the vehicle can be controlled based on the detected lane marker. Here, in the present embodiment, the neural network processing unit 16 that uses a neural network is used to detect the lane marker. Therefore, the processing using the neural network will be described.

【0022】「ニューラルネットの基本構成」ニューラ
ルネットの基本構成を図2に示す。このように、この例
では、入力層、中間層、出力層の3層構造になってい
る。なお、中間層は1層以上であれば、何層でもよい。
そして、各層は、入力されるデータ数nに合わせて、n
個ずつの演算部を有しており、各演算部の変換関数は、 f(x)=2/(1+e[−x])−1 ・・・ (1) に設定されている。そこで、各演算部が、入力されてく
る各データにそれぞれ所定のウェイトwiを乗算した後
加算する重み付け加算を行いxを算出した後、上記
(1)式の演算を行い、演算結果を出力する。各演算部
におけるウェイトは、予め行った学習によって設定され
ている。
"Basic Structure of Neural Network" The basic structure of the neural network is shown in FIG. As described above, this example has a three-layer structure of the input layer, the intermediate layer, and the output layer. The intermediate layer may have any number of layers as long as it is one or more layers.
Then, each layer is adjusted to n according to the number of input data n.
Each of the arithmetic units has an arithmetic unit, and the conversion function of each arithmetic unit is set to f (x) = 2 / (1 + e [-x])-1 (1). Therefore, each arithmetic unit performs weighted addition of multiplying each input data by a predetermined weight wi and then adds the weighted data to calculate x, and then performs the operation of the equation (1) and outputs the operation result. . The weight in each arithmetic unit is set by learning performed in advance.

【0023】例えば、1つのウインドウが縦9×横9=
81画素からなっている場合、入力層及び中間層の演算
部は、それぞれ81個ずつあり、出力層は、その出力の
数4に合わせて4つの演算部からなっている。まず、入
力層には、81画素の輝度がそのまま入力される。ここ
で、この輝度は、例えば、変換部12の出力が8ビット
とすれば、0〜255で表される。また、被写体とこの
画像データの値との関係は、学習の時と同様の関係にし
てある。すなわち、学習の時には、値が0〜255で変
化したのに、実際の処理の際には、値が0〜50しか変
化しない等ということのないようにレベルを合わせてあ
る。
For example, one window has vertical 9 × horizontal 9 =
In the case of 81 pixels, there are 81 arithmetic units in each of the input layer and the intermediate layer, and the output layer is composed of four arithmetic units according to the number 4 of the outputs. First, the brightness of 81 pixels is directly input to the input layer. Here, this brightness is represented by 0 to 255, for example, if the output of the conversion unit 12 is 8 bits. Further, the relationship between the subject and the value of this image data is the same as that at the time of learning. That is, the levels are adjusted so that the value changes from 0 to 255 during learning, but the value does not change from 0 to 50 during actual processing.

【0024】まず、入力層の各演算部は、学習処理によ
って予め設定されているウェイトwA1〜wA81を入
力にそれぞれ乗算し、得られたxから式(1)により、
出力値を得る。中間層の各演算部は、入力層の各演算部
の出力にそれぞれ予め設定されているウェイトwB1i
〜wB81i(i=1〜81)をそれぞれ乗算後これら
を加算してxを得て、その後(1)式により出力を演算
する。そして、出力層においても同様に、中間層の各演
算部の出力にウェイトwC1j〜wC4j(j=1〜8
1)を乗算した後、(1)式により4つの出力LC1、
LC2、LC3、YNを演算出力する。
First, each arithmetic unit of the input layer multiplies the inputs by weights wA1 to wA81 preset by the learning process, and from the obtained x, according to equation (1),
Get the output value. Each of the arithmetic units of the intermediate layer has a weight wB1i set in advance for the output of each arithmetic unit of the input layer.
.About.wB81i (i = 1 to 81) are multiplied and then added to obtain x, and then the output is calculated by the equation (1). Similarly, in the output layer, the weights wC1j to wC4j (j = 1 to 8) are added to the outputs of the arithmetic units of the intermediate layer.
After multiplying by 1), four outputs LC1,
LC2, LC3, YN are calculated and output.

【0025】「ニューラルネットによる処理」カメラ1
0によって、得られる走路についての画像が、図3のよ
うなものであった場合、ウインドウ処理部14において
は、その中の一部をウインドウとして切り出し、これを
ニューラルネットに入力する。
"Processing by Neural Network" Camera 1
When the obtained image of the runway is 0 as shown in FIG. 3, the window processing unit 14 cuts out a part of the image as a window and inputs it to the neural network.

【0026】そこで、このニューラルネットにおける処
理を図4に基づいて説明する。まず、新しく走路につい
ての画像を得た場合には、どこに白線(レーンマーク)
が存在するかが分からない。そこで、後述する初期走査
によって、レーンマーカの位置、及びその傾きを検出す
る(S11)。
Therefore, the processing in this neural network will be described with reference to FIG. First of all, if you get a new image of the track, where is the white line (lane mark)
I don't know if exists. Therefore, the position of the lane marker and its inclination are detected by the initial scanning described later (S11).

【0027】次に、レーン走査回数についての変数n=
1とし(S12)、1つのレーンマーカについて、画面
の下端から上端までの検出を行うレーン走査を行う(S
13)。このレーン走査についても、後述する。そし
て、レーンマーカが検出され、レーン走査が終了した場
合には、n=n+1とする(S14)。次に、nが画面
上の走路におけるレーンマーカの存在数N以上となった
かを判定し(S15)、NOであれば、S13に戻り、
次のレーン走査、レーンマーカの検出を同様にして行
う。そして、S15において、YESとなり、検出すべ
きレーンマーカについてすべてのレーン走査が終了した
場合には、1画面についてのレーンマーカ検出の処理を
終了する。
Next, a variable n = for the number of lane scans
1 (S12), for one lane marker, lane scanning is performed to detect from the lower end to the upper end of the screen (S).
13). This lane scanning will also be described later. When the lane marker is detected and the lane scanning is completed, n = n + 1 is set (S14). Next, it is determined whether n is equal to or more than the number N of lane markers existing on the runway on the screen (S15). If NO, the process returns to S13,
The next lane scanning and lane marker detection are performed in the same manner. Then, in S15, if YES is obtained and all the lane scanning is completed for the lane marker to be detected, the lane marker detection process for one screen is completed.

【0028】次に、S11の初期走査について、図5に
基づいて説明する。この初期走査の場合には、図3の下
の方に示したように、水平方向にウインドウを移動す
る。すなわち、まずウインドウを画面の左下にセットす
る(S21)。このウインドウにおける画像データをニ
ューラルネットに入力し、出力LC1,LC2,LC3
及びYNを得る(S22)。そして、YN=1かを判定
する(S23)。YN=1、すなわちレーンマーカが存
在しなかった場合には、ウインドウを1画素右にずらし
(S24)、ウインドウが右下かを判定する(S2
5)。右下でなかった場合には、S24に1画素ずらし
たウインドウをニューラルネットに入力して、その判定
結果がYN=1かをみる(S22,S23)。そして、
S13において、YN=1であった場合には、レーン数
N=N+1とし(S26)、ウインドウの位置、LC
1、LC2、LC3、を記憶する(S27)。なお、N
の初期値は0としておく。
Next, the initial scanning of S11 will be described with reference to FIG. In the case of this initial scanning, the window is moved horizontally as shown in the lower part of FIG. That is, first, the window is set at the lower left of the screen (S21). The image data in this window is input to the neural network, and the outputs LC1, LC2, LC3 are output.
And YN are obtained (S22). Then, it is determined whether YN = 1 (S23). If YN = 1, that is, if the lane marker does not exist, the window is shifted to the right by one pixel (S24), and it is determined whether the window is the lower right corner (S2).
5). If it is not lower right, the window shifted by one pixel in S24 is input to the neural network, and it is checked whether the determination result is YN = 1 (S22, S23). And
If YN = 1 in S13, the number of lanes N = N + 1 is set (S26), the window position, LC
1, LC2, LC3 are stored (S27). Note that N
The initial value of is set to 0.

【0029】このように、レーンマーカが検出された場
合には、ウインドウを右へp画素スライドさせる(S2
8)。これは、同一のレーンマーカについて、2度検出
することをさけるためであり、このp画素はレーンマー
カ幅以上、例えばウインドウの横幅の半分の値に設定し
てある。そして、このような処理をウインドウが右下に
至るまで繰り返す。これによって、画面においてウイン
ドウを水平方向に移動した際に検出されたレーンマーカ
数がNに記憶される。また、検出されたレーンマーカの
それぞれについてその位置がウインドウの位置として記
憶されると共に、その時のLC1,LC2、LC3の値
がそれぞれについて記憶される。なお、水平方向1列だ
けでは、レーンマーカが途切れていたときなどに、レー
ンマーカ数を正しく認識できない場合もあり、1画面の
ある程度の範囲(飛び飛びでもよい)において、初期走
査を行い、存在するレーンマーカを確実に検出するよう
にするとよい。
In this way, when the lane marker is detected, the window is slid to the right by p pixels (S2).
8). This is to avoid detecting the same lane marker twice, and this p pixel is set to a value equal to or larger than the lane marker width, for example, half the width of the window. Then, such processing is repeated until the window reaches the lower right. As a result, the number of lane markers detected when the window is moved in the horizontal direction on the screen is stored in N. The position of each detected lane marker is stored as the position of the window, and the values of LC1, LC2, and LC3 at that time are stored for each. It should be noted that the number of lane markers may not be recognized correctly when the lane markers are interrupted with only one row in the horizontal direction, and initial scanning is performed within a certain range (may be skipped) of one screen to detect existing lane markers. It is better to make sure that it is detected.

【0030】次に、S13のレーン走査について、図6
に基づいて説明する。まず、1つのレーンマーカについ
て、そのレーンマーカが検出されたウインドウ位置、L
C1〜LC3を取り込む(S31)。最初であれば、n
=1番目のレーンマーカであって、初期走査によって記
憶されたものを取り込む。次に、LC1〜LC3よりカ
ーブの曲率を計算し(S32)、ウインドウを曲率に対
応して、距離Rだけ傾けた上で曲率方向に移動してウイ
ンドウを設定する(S33)。
Next, regarding the lane scanning in S13, FIG.
It will be described based on. First, for one lane marker, the window position where the lane marker is detected, L
C1-LC3 are taken in (S31). If first, n
= The first lane marker, which is stored in the initial scan, is captured. Next, the curvature of the curve is calculated from LC1 to LC3 (S32), the window is tilted by the distance R corresponding to the curvature, and then moved in the curvature direction to set the window (S33).

【0031】そして、このウインドウの画像データをニ
ューラルネットに入力し、所定の範囲A−B間でレーン
マーカ(YN=1)を探す(S34)。このウインドウ
の移動は、初期位置を中心に左右に移動させることによ
って行う。すなわち、初期のウインドウ位置においてレ
ーンマーカが検出できなかった場合には、左側に1画素
ずらし、ここでも見つからなかった場合には、初期位置
の右側に1画素分ずらす。そして、これを繰り返し、初
期位置の周辺でレーンマーカを検出する。なお、このよ
うにしてずらす最大値は、1つの走行レーンの幅よりあ
る程度小さな所定値に設定してある。従って、この範囲
で、レーンマーカが見つからなかった場合には、レーン
マーカの探索を終了する。
Then, the image data of this window is input to the neural network, and a lane marker (YN = 1) is searched for in a predetermined range AB (S34). This window is moved by moving it left and right around the initial position. That is, if the lane marker cannot be detected at the initial window position, the pixel is shifted to the left by one pixel, and if it is not found here either, the pixel is shifted to the right of the initial position by one pixel. Then, this is repeated to detect the lane marker around the initial position. The maximum value to be shifted in this way is set to a predetermined value that is somewhat smaller than the width of one traveling lane. Therefore, when the lane marker is not found in this range, the search for the lane marker is ended.

【0032】また、YN=0であっても、そのときのL
C1〜LC3の値の状況によって、レーンマーカの位置
が推定できる場合もある。その場合には、この推定に基
づいて、ウインドウの位置を1画素ずつ推定された方向
に移動してもよい。
Even if YN = 0, L at that time
The position of the lane marker may be estimated depending on the situation of the values of C1 to LC3. In that case, based on this estimation, the position of the window may be moved pixel by pixel in the estimated direction.

【0033】さらに、急カーブなどの場合には、レーン
マーカが大きく曲がっているために、YN=1とならな
い場合もある。このような場合には、ウインドウの縦方
向の幅を1/2に縮小し、YN=1かをもう一度判定す
るとよい。これによって、例えば図7に示したような場
合に、レーンマーカの検出が行える。
Further, in the case of a sharp curve or the like, YN = 1 may not be obtained because the lane marker is largely bent. In such a case, it is advisable to reduce the width of the window in the vertical direction to 1/2 and determine again whether YN = 1. As a result, the lane marker can be detected in the case shown in FIG. 7, for example.

【0034】そして、レーンマーカが見つかった場合に
は、LC1〜LC3をその時の値に、更新する(S3
5)。次に、S35で更新された場合、及びS34にお
いてレーンマーカが見つけられなかった場合には、ウイ
ンドウをウインドウの進行方向に向けてずらし(S3
6)、画面の上端に来たかを判定する(S37)。上端
でなかった場合には、S32に戻り、S36で上方向に
ずらしたウインドウに基づいて、同様のレーンマーカ検
出を行う。そして、S37でYESであれば、S13の
レーン走査の処理を終了する。
If the lane marker is found, LC1 to LC3 are updated to the values at that time (S3).
5). Next, when it is updated in S35, and when the lane marker is not found in S34, the window is shifted toward the traveling direction of the window (S3
6) It is determined whether the screen has reached the upper end (S37). If it is not at the upper end, the process returns to S32, and the same lane marker detection is performed based on the window shifted upward in S36. If YES in S37, the lane scanning process in S13 ends.

【0035】このようにして、図8に示すように、ウイ
ンドウは、レーンマーカに沿って上方に移動する。ま
た、レーンマーカが途切れた場合には、S35において
LC1〜LC3の値を更新せずに、S36でウインドウ
をずらす。そこで、図9に示すように、レーンマーカが
途切れた後、再び現れた場合には、ウインドウの位置が
レーンマーカからずれている可能性が高い。しかし、S
34においては、上述のようにウインドウを所定範囲で
移動させるため、レーンマーカを確実に検出することが
できる。なお、S35において、レーンが検出されない
場合には、レーンがなくなった場合と、途切れている場
合の2つがあるが、上述のようにして、途切れている場
合には、その後レーンマーカを検出することができるた
め、1回の判定では、区別のできないものも判定でき
る。
In this way, as shown in FIG. 8, the window moves upward along the lane marker. If the lane marker is interrupted, the window is shifted in S36 without updating the values of LC1 to LC3 in S35. Therefore, as shown in FIG. 9, when the lane marker appears again after being interrupted, there is a high possibility that the window position deviates from the lane marker. However, S
In 34, since the window is moved within the predetermined range as described above, the lane marker can be reliably detected. In S35, when the lane is not detected, there are two cases, that is, the case where the lane disappears and the case where the lane is discontinued. As described above, when the lane is discontinued, the lane marker can be detected thereafter. Therefore, it is possible to determine the indistinguishable items with one determination.

【0036】「YN及びLC1〜LC3について」図1
0に、画面上のレーンマーカの形状について、6つの場
合を示す。YNは、画面の下端から上端に突き抜けてい
るときにのみYN=1とする。従って、図10(a)
(b)(c)では、YN=0である。すなわち、(a)
では、右隅のみにレーンマーカがあり、上端に突き抜け
ていない。また、(b)では、下端に突き抜けていな
い。さらに、(c)は、レーンマーカが検出されておら
ず空白と判定される。(d)〜(f)は、レーンマーカ
が上下に突き抜けているため、YN=1である。なお、
(a)のように、上端が突き抜けていない場合に、ウイ
ンドウの縦を1/2にして、再度判定するとよい。
[Regarding YN and LC1 to LC3] FIG.
Six cases are shown in 0 for the shape of the lane marker on the screen. YN is set to YN = 1 only when penetrating from the lower end to the upper end of the screen. Therefore, FIG.
In (b) and (c), YN = 0. That is, (a)
Then, there is a lane marker only in the right corner, and it does not penetrate to the upper end. Moreover, in (b), it has not penetrated to the lower end. Further, in (c), the lane marker is not detected and it is determined to be blank. In (d) to (f), YN = 1 because the lane marker penetrates vertically. In addition,
As shown in (a), when the upper end does not penetrate, the height of the window may be halved and the determination may be performed again.

【0037】次に、LC1〜LC3は、図11に示した
ように、縦方向を3つの領域に分割して得た傾きについ
てのアナログ量を示す値であり、LC1が最も上方(遠
方)、LC2が真ん中、LC3が最も下(手前)という
風に分担している。そして、傾きは、図12に示すよう
に、まっすぐの直線が0、45゜の右上がりが1.0、
傾き45゜の右下がりが−1.0に設定されている。こ
れについては、楕円で近似する場合も含め後述する。
Next, as shown in FIG. 11, LC1 to LC3 are values indicating the analog amount about the inclination obtained by dividing the vertical direction into three regions, and LC1 is the highest (far), LC2 is in the middle, and LC3 is the lowest (front). As shown in FIG. 12, the inclination is 0 for a straight straight line, 1.0 for a 45 ° rightward rise,
The downward slope of 45 ° is set to -1.0. This will be described later, including the case of approximation with an ellipse.

【0038】また、レーンマーカの形状を楕円で近似す
るときには、LC1〜LC3の値は、次のように決定さ
れる。すなわち、楕円の短径をa、長径をbとしたと
き、楕円の方程式は、 (x/a)2 +(y/b)2 =1 である。
When the shape of the lane marker is approximated by an ellipse, the values of LC1 to LC3 are determined as follows. That is, when the minor axis of the ellipse is a and the major axis is b, the equation of the ellipse is (x / a) 2 + (y / b) 2 = 1.

【0039】そして、楕円の中心がx軸上のみで移動す
るとして、近似すると、レーンマーカは図13(A)
(B)に示すような楕円で近似される。このため、LC
1〜LC3は、3つの領域の中央を通るx軸に平行な線
と、楕円の交点のx座標の値として得られる。すなわ
ち、ウインドウの縦をYとし、これを6等分した場合の
y=5Y/6,y=Y/2,y=Y/6の3つの直線と
の交点のx座標が、それぞれLC1、LC2、LC3に
なる。
If the center of the ellipse is moved only on the x-axis, the lane marker is approximated as shown in FIG. 13 (A).
It is approximated by an ellipse as shown in (B). Therefore, LC
1 to LC3 are obtained as the values of the x-coordinates of the intersection points of the ellipse and the line parallel to the x-axis that passes through the centers of the three regions. That is, when the vertical direction of the window is Y and the window is divided into six equal parts, the x-coordinates of the intersections with the three straight lines of y = 5Y / 6, y = Y / 2, y = Y / 6 are LC1 and LC2, respectively. , LC3.

【0040】ここで、楕円の中心が原点からx軸上で、
α(図示の場合α=a)だけずれるとすると、カーブが
左に曲がっている場合(図13(A)の場合)には、 {(x+α)/a}2 +(y/b)2 =1 カーブが右に曲がっている場合(図13(B)の場合)
には、 {(x−α)/a}2 +(y/b)2 =1 で、楕円が表される。
Here, the center of the ellipse is on the x-axis from the origin,
If it is deviated by α (α = a in the figure), when the curve is curved to the left (in the case of FIG. 13A), {(x + α) / a} 2 + (y / b) 2 = 1 When the curve is bent to the right (in the case of Fig. 13 (B))
Represents an ellipse with {(x-α) / a} 2 + (y / b) 2 = 1.

【0041】また、レーンマーカーがウインドウの左ま
たは右に切れている時には、交点がない場合がある。そ
の場合には、図14(A)(B)に示すように、ウイン
ドウの幅Xの1/2の値(X/2)にする。
When the lane marker is cut to the left or right of the window, there may be no intersection. In that case, as shown in FIGS. 14 (A) and 14 (B), it is set to a value (X / 2) that is 1/2 the width X of the window.

【0042】このように、本実施形態では、ウインドウ
内を縦方向に3つの領域に分割する。これら3つの領域
は、車両から近い領域、次に近い領域、遠い領域に分け
られる。そして、画面上の距離と実際の距離の関係は、
遠い領域ほど画面上の距離が実際の大きな距離に対応す
る。従って、レーンマーカの形状も各領域で異なる可能
性が高い。本実施形態のように、縦方向に分割し、各領
域において、形状を検出することによって、より適切な
形状の把握が達成できる。
As described above, in this embodiment, the inside of the window is vertically divided into three regions. These three regions are divided into a region closer to the vehicle, a region next closer to the vehicle, and a region farther from the vehicle. And the relationship between the distance on the screen and the actual distance is
The farther the area, the larger the distance on the screen corresponds to the actual distance. Therefore, the shape of the lane marker is also likely to be different in each region. As in the present embodiment, by dividing vertically and detecting the shape in each region, a more appropriate grasp of the shape can be achieved.

【0043】「LC1〜LC3からの曲率の算出」さら
に、図6のS32において、LC1〜LC3からカーブ
曲率を求める。これは、次のようにして求める。
[Calculation of Curvature from LC1 to LC3] Further, in S32 of FIG. 6, the curve curvature is calculated from LC1 to LC3. This is obtained as follows.

【0044】(i)楕円の時(LC1<LC2<LC3
<0、または0>LC1>LC2>LC3) この場合は、次の3元1次連立方程式を逆行列を使って
解くことにより、a,b,cを求めればよい。
(I) When elliptical (LC1 <LC2 <LC3
<0, or 0>LC1>LC2> LC3) In this case, a, b, and c may be obtained by solving the following three-dimensional simultaneous linear equation using an inverse matrix.

【0045】 {(X/2)LC1−c}2 +(y1/b)2 {(X/2)LC2−c}2 +(y2/b)2 {(X/2)LC3−c}2 +(y3/b)2 ここで、Xはウインドウのx方向の幅、y1〜y3はウ
インドウのy方向の大きさYを用いて、y1=5Y/
6,y2=Y/2,y3=Y/6で表される。
{(X / 2) LC1-c} 2 + (y1 / b) 2 {(X / 2) LC2-c} 2 + (y2 / b) 2 {(X / 2) LC3-c} 2 + (Y3 / b) 2 where X is the width of the window in the x direction, y1 to y3 are the sizes Y of the window in the y direction, and y1 = 5Y /
6, y2 = Y / 2 and y3 = Y / 6.

【0046】(ii)また、直線の時(|LC1−LC
2|,|LC2−LC3|,|LC3−LC1|がいず
れも十分小さい時) この場合には、 x={(LC1+LC2+LC3)/3}・X/2 により、直線を定めればよい。
(Ii) When the line is straight (| LC1-LC
2 |, | LC2-LC3 |, | LC3-LC1 | are all sufficiently small) In this case, a straight line may be defined by x = {(LC1 + LC2 + LC3) / 3} · X / 2.

【0047】「ニューラルネットの学習」ニューラルネ
ットの各層のそれぞれ設けられた複数の演算部における
ウェイトwは、所定のデータによる学習によって設定す
る。そこで、この学習について、図15に基づいて説明
する。
"Learning of Neural Network" The weight w in each of the plurality of arithmetic units provided in each layer of the neural network is set by learning with predetermined data. Therefore, this learning will be described based on FIG.

【0048】まず、ニューラルネットのすべての演算部
における入力に対するウェイトをランダムに設定する
(S41)。次に、パターンジェネレータによって、直
線、楕円、何も発生しないの3種類をそれぞれ、N1/
N、N2/N、N3/Nの確率で発生すると共に(S4
2)、これによって場合分けする。なお、N1+N2+
N3=Nである。
First, weights for inputs in all the operation units of the neural network are randomly set (S41). Then, the pattern generator generates N1 / 3
It occurs with a probability of N, N2 / N, N3 / N and (S4
2) According to this, cases are divided. Note that N1 + N2 +
N3 = N.

【0049】楕円の場合には、 {(x+c)2 /a2 2 +(y/b)2 =1 を発生する(S43)。ここで、aは0<A1≦a≦A
2<∞の範囲の乱数であり、bは0<B1≦b≦B2<
∞の範囲の乱数であり、−∞<C1≦c≦C2<∞の乱
数である。なお、bはウインドウ内に楕円の線が2本現
れることはないように、所定値以上に設定する。
In the case of an ellipse, {(x + c) 2 / a 2 } 2 + (y / b) 2 = 1 is generated (S43). Here, a is 0 <A1 ≦ a ≦ A
It is a random number in the range of 2 <∞, and b is 0 <B1 ≦ b ≦ B2 <
It is a random number in the range of ∞, and is a random number of −∞ <C1 ≦ c ≦ C2 <∞. In addition, b is set to a predetermined value or more so that two elliptical lines do not appear in the window.

【0050】直線の場合には、x=Dの直線を発生する
(S44)。ここで、Dは−A3≦D≦A3の範囲の乱
数である。また、A3は任意の数であるが、十分小さい
値に設定し、直線は、原点に十分近い範囲で発生するよ
うにする。一方、何も発生しない場合には、空白画面を
発生する(S45)。
If it is a straight line, a straight line of x = D is generated (S44). Here, D is a random number in the range of −A3 ≦ D ≦ A3. A3 is an arbitrary number, but is set to a sufficiently small value so that the straight line is generated in a range sufficiently close to the origin. On the other hand, if nothing occurs, a blank screen is generated (S45).

【0051】そして、S43,S44により、楕円、直
線を発生した場合には、レーンマーカの幅tを0<T1
≦t≦T2<∞の範囲の乱数として発生し(S46)、
線幅tでレーンマーカを線描画する(S47)。
When an ellipse or a straight line is generated in S43 and S44, the width t of the lane marker is set to 0 <T1.
It is generated as a random number in the range of ≤t≤T2 <∞ (S46),
A lane marker is drawn with a line width t (S47).

【0052】次に、画面の各画素にノイズをばらまく
(S48)。このノイズの大きさnは、0<n1≦n≦
n2≦Pに設定する。なお、Pは、ノイズの最大濃度で
ある。
Next, noise is distributed to each pixel on the screen (S48). The magnitude n of this noise is 0 <n1 ≦ n ≦
Set n2 ≦ P. Note that P is the maximum density of noise.

【0053】そして、発生したレーンマーカの種類に応
じて条件分けし(S49)、YN、LC1〜LC3を発
生する。
Then, the conditions are classified according to the type of the generated lane marker (S49), and YN and LC1 to LC3 are generated.

【0054】まず、−A3≦LC2≦A3の楕円(I)
の場合には、YN=1、 (X/2)・LC1=±√[a2 {1−(5Y/6)2 /b2 }]−c (X/2)・LC2=±√[a2 {1−(Y/2)2 /b2 }]−c (X/2)・LC3=±√[a2 {1−(Y/6)2 /b2 }]−c を発生する(S50)。
First, an ellipse (I) with -A3≤LC2≤A3
In the case of, YN = 1, (X / 2) · LC1 = ± √ [a 2 {1- (5Y / 6) 2 / b 2 }]-c (X / 2) · LC2 = ± √ [a 2 {1- (Y / 2) 2 / b 2 }]-c (X / 2) · LC3 = ± √ [a 2 {1- (Y / 6) 2 / b 2 }]-c is generated ( S50).

【0055】次に、A3≦LC2またはA3≦LC2の
楕円(II)の場合には、YN=1、 LC1=±1 (X/2)・LC2=±√[a2 {1−(Y/2)2 /b2 }]−c (X/2)・LC3=±√[a2 {1−(Y/6)2 /b2 }]−c を発生する(S51)。
Next, in the case of an ellipse (II) with A3 ≦ LC2 or A3 ≦ LC2, YN = 1, LC1 = ± 1 (X / 2) · LC2 = ± √ [a 2 {1- (Y / 2) 2 / b 2 }]-c (X / 2) · LC3 = ± √ [a 2 {1- (Y / 6) 2 / b 2 }]-c is generated (S51).

【0056】また、直線の場合には、YN=1、 (X/2)・LC1=D (X/2)・LC2=D (X/2)・LC3=D を発生する。In the case of a straight line, YN = 1, (X / 2) .LC1 = D (X / 2) .LC2 = D (X / 2) .LC3 = D.

【0057】さらに、空白の場合には、YN=0、LC
1=LC2=LC3=0を発生する。そして、S48で
得られた画像をニューラルネットに入力し、S50〜S
53で得られるYN、LC1〜LC3の値を教師とし学
習を行う(S54)。そして、出力誤差が規定値以下か
を判定し(S55)、誤差が規定値以下になるまで学習
を繰り返す。
Further, if blank, YN = 0, LC
Generate 1 = LC2 = LC3 = 0. Then, the image obtained in S48 is input to the neural network, and S50-S
Learning is performed by using the values of YN and LC1 to LC3 obtained in 53 as a teacher (S54). Then, it is determined whether the output error is less than or equal to the specified value (S55), and learning is repeated until the error becomes less than or equal to the specified value.

【0058】このような学習によって、ニューラルネッ
トにおけるウェイトが所定のものに設定され、各種パタ
ーンの画像に対し、適切なYN、LC1〜LC3が得ら
れるニューラルネットが得られる。
By such learning, the weight in the neural network is set to a predetermined value, and a neural network in which appropriate YN and LC1 to LC3 are obtained for images of various patterns can be obtained.

【0059】なお、この例で用いたA1、A2、A3、
B1、B2、C1、C2、D等は、ウインドウの大きさ
(横X、縦Y)等に対し適当な値となるように設定す
る。
In addition, A1, A2, A3 used in this example,
B1, B2, C1, C2, D, etc. are set to have appropriate values for the size of the window (horizontal X, vertical Y) and the like.

【0060】また、上述の例では、ウインドウを縦方向
に3等分し、LC1〜LC3を求めたが、必ずしも等分
する必要はない。すなわち、レーンマーカのカーブの状
態に合わせて、カーブの状態がより適切に表現されるよ
うに、3つの領域の大きさを変更することが好適であ
る。学習の際に、分割を適切に設定にしておくことによ
り、その分割に応じた解が得られる。このため、得られ
たLC1〜LC3からその値に対応した曲率を計算する
ことができ、より適切なウインドウの設定が行える。さ
らに、分割数を4分割以上としてもよい。
Further, in the above example, the window is divided into three equal parts in the vertical direction and LC1 to LC3 are obtained, but it is not always necessary to divide the window into equal parts. That is, it is preferable to change the sizes of the three regions according to the curve state of the lane marker so that the curve state is more appropriately expressed. By setting the division appropriately during learning, a solution corresponding to the division can be obtained. Therefore, the curvature corresponding to the value can be calculated from the obtained LC1 to LC3, and more appropriate window can be set. Further, the number of divisions may be four or more.

【0061】本実施形態によれば、レーンマーカに沿っ
て、ウインドウを移動することができるため、ウインド
ウの設定が適切なものとなり、無駄な処理を最小限にで
きる。従って、処理効率を高く、高速の処理が行える。
そこで、高速走行においても十分なレーンマーカ検出が
行え、これに基づいて走行制御を行うことができる。
According to the present embodiment, the window can be moved along the lane marker, so that the window setting becomes appropriate and unnecessary processing can be minimized. Therefore, high processing efficiency and high-speed processing can be performed.
Therefore, sufficient lane marker detection can be performed even during high-speed traveling, and traveling control can be performed based on this.

【図面の簡単な説明】[Brief description of drawings]

【図1】 全体構成を示す図である。FIG. 1 is a diagram showing an overall configuration.

【図2】 ニューラルネットの構成を示す図である。FIG. 2 is a diagram showing a configuration of a neural network.

【図3】 画面上のウインドウを示す図である。FIG. 3 is a diagram showing a window on a screen.

【図4】 全体動作を示すフローチャートである。FIG. 4 is a flowchart showing the entire operation.

【図5】 初期走査を示すフローチャートである。FIG. 5 is a flowchart showing initial scanning.

【図6】 レーン走査を示すフローチャートである。FIG. 6 is a flowchart showing lane scanning.

【図7】 急カーブにおけるウインドウを示す図であ
る。
FIG. 7 is a diagram showing a window in a sharp curve.

【図8】 ウインドウの移動状態を示す図である。FIG. 8 is a diagram showing a moving state of a window.

【図9】 レーンマーカの途切れた場合のウインドウ設
定状態を示す図である。
FIG. 9 is a diagram showing a window setting state when a lane marker is interrupted.

【図10】 レーンマーカの状態とYN、LC1〜LC
3の値の関係を示す図である。
FIG. 10: Lane marker state and YN, LC1 to LC
It is a figure which shows the relationship of the value of 3.

【図11】 ウインドウの分割状態を示す図である。FIG. 11 is a diagram showing a divided state of a window.

【図12】 レーンマーカの傾きとLC1〜LC3の値
との関係を示す図である。
FIG. 12 is a diagram showing the relationship between the inclination of the lane marker and the values of LC1 to LC3.

【図13】 LC1〜LC3の値を示す図である。FIG. 13 is a diagram showing values of LC1 to LC3.

【図14】 LC1〜LC3の値を示す図である。FIG. 14 is a diagram showing values of LC1 to LC3.

【図15】 ニューラルネットの学習を示すフローチャ
ートである。
FIG. 15 is a flowchart showing learning of a neural network.

【符号の説明】[Explanation of symbols]

10 カメラ、12 変換部、14 ウインドウ処理
部、16 ニューラルネット処理部、18 制御部。
10 camera, 12 conversion unit, 14 window processing unit, 16 neural network processing unit, 18 control unit.

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05D 1/02 G08G 1/16 G08G 1/16 G06F 15/70 460F Front page continuation (51) Int.Cl. 6 Identification code Office reference number FI Technical display location G05D 1/02 G08G 1/16 G08G 1/16 G06F 15/70 460F

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 車両が走行する走路を規定するレーンマ
ーカを検出する走路検出方法であって、 走路の路面画像を撮像する撮像ステップと、 路面画像の一部をウインドウとして抽出する抽出ステッ
プと、 ウインドウ内の画像情報をこれを構成する複数の画素毎
の画像情報としてニューラルネットワークに入力する入
力ステップと、 ニューラルネットワークにおいて入力された画像情報か
らウインドウ内に存在するレーンマーカの形状を求める
形状判定ステップと、 を含むことを特徴とする走路検出方法。
1. A running road detection method for detecting a lane marker that defines a running road on which a vehicle travels, comprising: an imaging step of taking a road surface image of the running road; an extracting step of extracting a part of the road surface image as a window; An input step of inputting the image information in the neural network as image information for each of a plurality of pixels forming the image information; and a shape determining step of obtaining the shape of the lane marker existing in the window from the image information input in the neural network, A method for detecting a road, comprising:
【請求項2】 車両に搭載され、走路を規定するレーン
マーカを検出する走路検出装置であって、 走路の路面画像を撮像する撮像手段と、 路面画像の一部をウインドウとして抽出する抽出手段
と、 抽出されたウインドウ内の画像情報がこれを構成する複
数の画素毎の画像情報として入力され、この入力された
画像情報からウインドウ内に存在するレーンマーカの形
状を求めるニューラルネット処理手段と、 を含むことを特徴とする走路検出装置。
2. A track detecting device which is mounted on a vehicle and detects a lane marker that defines a track, comprising: an image capturing unit that captures a road image of the road; and an extracting unit that extracts a part of the road image as a window. The extracted image information in the window is input as image information for each of a plurality of pixels forming the window, and the neural network processing means for determining the shape of the lane marker existing in the window from the input image information is included. A track detection device.
【請求項3】 請求項2に記載の装置において、 上記抽出手段におけるウインドウの位置を上記ニューラ
ルネット処理手段において検出したレーンマーカの形状
に応じて決定し、1つの路面画像の中でウインドウをレ
ーンマーカに沿って移動させることを特徴とする走路検
出装置。
3. The apparatus according to claim 2, wherein the position of the window in the extraction means is determined according to the shape of the lane marker detected by the neural network processing means, and the window is used as the lane marker in one road surface image. A traveling road detection device characterized by being moved along.
【請求項4】 請求項2または3に記載の装置であっ
て、 上記ニューラルネット処理手段は、 ウインドウを縦方向に複数の領域に分割し、各領域内に
おけるレーンマーカの傾きについての係数を算出するこ
とを特徴とする走路検出装置。
4. The apparatus according to claim 2, wherein the neural network processing means divides the window into a plurality of regions in the vertical direction, and calculates a coefficient for the inclination of the lane marker in each region. A track detection device characterized by the above.
JP8027502A 1996-02-15 1996-02-15 Method and device for detecting traveling route Pending JPH09223218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8027502A JPH09223218A (en) 1996-02-15 1996-02-15 Method and device for detecting traveling route

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8027502A JPH09223218A (en) 1996-02-15 1996-02-15 Method and device for detecting traveling route

Publications (1)

Publication Number Publication Date
JPH09223218A true JPH09223218A (en) 1997-08-26

Family

ID=12222926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8027502A Pending JPH09223218A (en) 1996-02-15 1996-02-15 Method and device for detecting traveling route

Country Status (1)

Country Link
JP (1) JPH09223218A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123058A (en) * 2001-10-17 2003-04-25 Hitachi Ltd Traveling lane recognition device
JP2004120585A (en) * 2002-09-27 2004-04-15 Mitsubishi Electric Corp On-vehicle driving lane recognition device
JP2008198078A (en) * 2007-02-15 2008-08-28 Toyota Central R&D Labs Inc Image detection device
JP2009151644A (en) * 2007-12-21 2009-07-09 Toyota Motor Corp Traveling possible area generation device
CN109740469A (en) * 2018-12-24 2019-05-10 百度在线网络技术(北京)有限公司 Method for detecting lane lines, device, computer equipment and storage medium
JP2020038660A (en) * 2018-09-05 2020-03-12 株式会社ストラドビジョン Learning method and learning device for detecting lane by using cnn, and test method and test device using the same
JP2020038661A (en) * 2018-09-05 2020-03-12 株式会社ストラドビジョン Learning method and learning device for detecting lane by using lane model, and test method and test device using the same
KR102164800B1 (en) * 2019-10-21 2020-10-14 인천대학교 산학협력단 Artificial intelligence based moving path generation device using an around view monitoring system and operating method thereof
JP2021503414A (en) * 2018-08-22 2021-02-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Intelligent driving control methods and devices, electronics, programs and media
CN117593717A (en) * 2024-01-18 2024-02-23 武汉大学 Lane tracking method and system based on deep learning

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123058A (en) * 2001-10-17 2003-04-25 Hitachi Ltd Traveling lane recognition device
JP2004120585A (en) * 2002-09-27 2004-04-15 Mitsubishi Electric Corp On-vehicle driving lane recognition device
US7724921B2 (en) 2002-09-27 2010-05-25 Mitsubishi Denki Kabushiki Kaisha Vehicle-onboard driving lane recognizing apparatus
JP2008198078A (en) * 2007-02-15 2008-08-28 Toyota Central R&D Labs Inc Image detection device
JP2009151644A (en) * 2007-12-21 2009-07-09 Toyota Motor Corp Traveling possible area generation device
JP2021503414A (en) * 2018-08-22 2021-02-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Intelligent driving control methods and devices, electronics, programs and media
JP2020038660A (en) * 2018-09-05 2020-03-12 株式会社ストラドビジョン Learning method and learning device for detecting lane by using cnn, and test method and test device using the same
JP2020038661A (en) * 2018-09-05 2020-03-12 株式会社ストラドビジョン Learning method and learning device for detecting lane by using lane model, and test method and test device using the same
CN110879961A (en) * 2018-09-05 2020-03-13 斯特拉德视觉公司 Lane detection method and apparatus using lane model
CN110879961B (en) * 2018-09-05 2023-10-17 斯特拉德视觉公司 Lane detection method and device using lane model
CN109740469A (en) * 2018-12-24 2019-05-10 百度在线网络技术(北京)有限公司 Method for detecting lane lines, device, computer equipment and storage medium
KR102164800B1 (en) * 2019-10-21 2020-10-14 인천대학교 산학협력단 Artificial intelligence based moving path generation device using an around view monitoring system and operating method thereof
CN117593717A (en) * 2024-01-18 2024-02-23 武汉大学 Lane tracking method and system based on deep learning
CN117593717B (en) * 2024-01-18 2024-04-05 武汉大学 Lane tracking method and system based on deep learning

Similar Documents

Publication Publication Date Title
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
JP5127182B2 (en) Object detection device
JP5900623B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
JP3931891B2 (en) In-vehicle image processing device
CN104376297A (en) Detection method and device for linear indication signs on road
CN104239867A (en) License plate locating method and system
US20010010540A1 (en) Environment monitoring apparatus for vehicle
JP2000048209A (en) Method and device for image processing
JPH09223218A (en) Method and device for detecting traveling route
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JPH07111734B2 (en) Driving path identification method
CN108256470A (en) A kind of lane shift judgment method and automobile
CN110088807A (en) Separator bar identification device
JPH0981734A (en) Image processor
JP6608664B2 (en) Own vehicle position recognition device
JP3254464B2 (en) Vehicle recognition device and moving object recognition method
JP2012150595A (en) Stop line detection device and program
JP2002042140A (en) Moving object measuring device and traffic flow measured image processing device
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device
CN111079598B (en) Lane line detection method based on image texture and machine learning
JP7383954B2 (en) Learning data collection device
JP3331095B2 (en) In-vehicle image processing device
JPH06119594A (en) Guide line detector
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device