JPH08202877A - Picture recognition device - Google Patents

Picture recognition device

Info

Publication number
JPH08202877A
JPH08202877A JP7014006A JP1400695A JPH08202877A JP H08202877 A JPH08202877 A JP H08202877A JP 7014006 A JP7014006 A JP 7014006A JP 1400695 A JP1400695 A JP 1400695A JP H08202877 A JPH08202877 A JP H08202877A
Authority
JP
Japan
Prior art keywords
image
white line
picture
learning
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7014006A
Other languages
Japanese (ja)
Inventor
Hiroshi Tominaga
博 富永
Toshihiko Suzuki
敏彦 鈴木
Keiji Aoki
啓二 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP7014006A priority Critical patent/JPH08202877A/en
Publication of JPH08202877A publication Critical patent/JPH08202877A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE: To speedily and accurately recognize desired objects such as white line from a picked-up picture obtained under various conditions by executing correlation arithmetic between a reference picture and the picked-up picture through the use of the neural network(NN) of excellent panning ability. CONSTITUTION: A vehicle is provided with a picture pickup means 1 to pickup a picture anterior to the vehicle including the white line on the surface of a road by the picture pickup means 1. In addition, a reference picture storing means 2 is provided to store a reference picture specified in advance as a pattern. The reference picture is inputted to an arithmetic means 3 consisting of NN to learn NN by a pattern learning means 4. Next, with respect to NN learned through the use of the reference picture, the picture picked-up by the picture pickup means 1 (a processing object picture) is inputted and processed through the use of NN to output a correlation value. Based on the change of this correlation value corresponding to the position, an object such as the white line is detected. As the result of this, even when the object varies in terms of the shape and luminance, the object can speedily and accurately be recognized from the obtained picture.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像認識装置、特にニュ
ーラルネットワーク(以下、NNと称する)を用いた装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition device, and more particularly to a device using a neural network (hereinafter referred to as NN).

【0002】[0002]

【従来の技術】従来より、車両運転者の負担を軽減する
ための装置が各種提案されており、究極的なものとして
は走路形状を認識して自動操舵を行う自動運転装置があ
る。走路形状を認識する方法としては、画像処理により
走路を認識する方法や電磁誘導方式などが提案されてい
るが、この中でも特に路面の白線を画像処理により認識
する方法は既存の白線をそのまま利用できる利点がある
ため、実現に向け鋭意研究、開発が行われている。
2. Description of the Related Art Conventionally, various devices have been proposed for reducing the burden on a vehicle driver, and the ultimate one is an automatic driving device that recognizes a running shape and performs automatic steering. As a method of recognizing the shape of the road, a method of recognizing the road by image processing and an electromagnetic induction method have been proposed. Among them, the method of recognizing the white line on the road surface by image processing can use the existing white line as it is. Because of its advantages, research and development are being carried out earnestly toward its realization.

【0003】例えば、特開平6−119593号公報に
は、カメラにより得た画像をフレームメモリに記憶し、
所定のサーチウィンドウ毎にメモリから読み出して所定
のテンプレートを比較し相関演算を行う装置が提案され
ている。テンプレートとの相関の高い位置が白線位置で
あり、サーチウィンドウを車両に近い側から遠い側に向
けて順次移動させつつ同様の相関演算を行い、連続した
白線位置を検出する。
For example, in Japanese Patent Laid-Open No. 6-119593, an image obtained by a camera is stored in a frame memory,
An apparatus has been proposed which reads out from a memory for each predetermined search window, compares predetermined templates, and performs a correlation calculation. The position with a high correlation with the template is the white line position, and the same correlation calculation is performed while sequentially moving the search window from the side closer to the vehicle to the side farther from the vehicle, and continuous white line positions are detected.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、テンプ
レートを用いた差分和に基づく相関法では、白線などの
対象物体の形状変化や輝度変化に対する柔軟性、応答性
に欠け、これらの影響による相関量の低下が著しいとい
う問題があった。
However, the correlation method based on the difference sum using the template lacks flexibility and responsiveness to the shape change and brightness change of the target object such as a white line, and the correlation amount due to these influences There was a problem that the decrease was remarkable.

【0005】もちろん、このような問題に対し予め複数
のテンプレートを用意して複数回の相関演算を行う、あ
るいは対象物体の変化に応じてテンプレートを順次最新
のものに更新する、処理対象画像の輝度正規化を行った
後に相関演算を行う、等のアプローチが考えられるが、
処理の複雑化を招いて処理時間が増大してしまう問題が
新たに生じる。特に、車両に搭載してリアルタイムで白
線検出を行う場合、迅速性が高度に要求されるため、こ
のような処理時間の増大は無視できない。
Of course, in order to solve such a problem, a plurality of templates are prepared in advance and a plurality of correlation calculations are performed, or the templates are sequentially updated to the latest one according to the change of the target object. An approach such as performing a correlation operation after performing normalization can be considered.
A new problem arises that the processing becomes complicated and the processing time increases. In particular, when a vehicle is mounted on a vehicle and white line detection is performed in real time, high speed is highly required, and thus such an increase in processing time cannot be ignored.

【0006】本発明は上記従来技術の有する課題に鑑み
なされたものであり、白線等の対象物体が形状や輝度の
点で種々変化していても、迅速かつ確実に取得画像から
認識できる画像認識装置を提供することにある。
The present invention has been made in view of the above problems of the prior art. Image recognition can be quickly and reliably recognized from an acquired image even if a target object such as a white line changes in various points in terms of shape and brightness. To provide a device.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の画像認識装置は、車両周囲画像を撮
像する画像撮像手段と、予め用意された代表的な基準画
像を記憶する記憶手段と、前記画像撮像手段で得られた
画像の所定領域内の画像と前記基準画像の相関を、前記
基準画像を用いて学習したNNで演算する演算手段とを
有することを特徴とする。
In order to achieve the above object, the image recognition apparatus according to claim 1 stores an image pickup means for picking up an image of a vehicle surroundings and a representative reference image prepared in advance. It is characterized by comprising a storage means and a calculation means for calculating a correlation between an image in a predetermined region of the image obtained by the image capturing means and the reference image, by NN learned using the reference image.

【0008】また、上記目的を達成するために、請求項
2記載の画像認識装置は、請求項1記載の画像認識装置
において、前記画像撮像手段での撮像条件に応じて前記
基準画像は複数用意され、前記演算手段は前記複数の基
準画像を用いて追加学習したNNを用いて相関を演算す
ることを特徴とする。
In order to achieve the above object, the image recognition apparatus according to a second aspect is the image recognition apparatus according to the first aspect, wherein a plurality of the reference images are prepared according to the image pickup conditions of the image pickup means. The calculation means calculates the correlation using the NN additionally learned using the plurality of reference images.

【0009】[0009]

【作用】請求項1記載の画像認識装置では、汎化能力に
優れたNNを用いて基準画像と撮像画像との相関演算を
行う。NNの学習は、認識すべき物体の基準画像を用い
て行われ、これにより種々の条件下で得られた画像から
複雑な処理を追加することなく確実に対象物体を認識す
ることができる。
In the image recognition apparatus according to the first aspect, the correlation calculation between the reference image and the picked-up image is performed by using the NN having excellent generalization ability. The NN learning is performed using the reference image of the object to be recognized, whereby the target object can be surely recognized from the images obtained under various conditions without adding complicated processing.

【0010】請求項2記載の画像認識装置では、NNの
追加学習能力を巧みに利用し、基準画像を複数用意して
NNの追加学習を行う。この追加学習により、NNの汎
化能力が拡大し、より厳しい条件下での撮像画像に対し
ても確実に対象物体を認識できる。
In the image recognition apparatus according to the second aspect of the present invention, the additional learning ability of the NN is skillfully utilized to prepare a plurality of reference images to perform the additional learning of the NN. By this additional learning, the generalization ability of the NN is expanded, and the target object can be reliably recognized even in a captured image under more severe conditions.

【0011】[0011]

【実施例】以下、図面に基づき本発明の実施例について
路面の白線を認識する場合を例にとり説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings by exemplifying a case of recognizing a white line on a road surface.

【0012】図1には本実施例の概念構成図が示されて
いる。車両に画像撮像手段1が設けられ、画像撮像手段
1により路面の白線を含む車両前方画像を撮像する。ま
た、基準画像記憶手段2が設けられ、予め定められた基
準画像がパターンとして記憶されている。基準画像はN
Nから構成される演算手段3に入力され、パターン学習
手段4によりNNの学習が行われる。この学習は、基準
画像パターンがNNの入力層に入力された場合に出力層
から所定値(例えば1.0)が出力されるようにNNを
構成する各ニューロンの重みを決定することにより行わ
れるが、その詳細は後述する。基準画像を用いた学習さ
れたNNに対し、画像撮像手段1で撮像された画像(処
理対象画像)が入力され、NNを用いて処理されて相関
値が出力される。この相関値は、従来の差分和による相
関値に対応するものであり、この相関値の位置による変
化に基づいて白線などの対象物体が検出される。
FIG. 1 is a conceptual block diagram of this embodiment. The image pickup means 1 is provided in the vehicle, and the image pickup means 1 picks up a vehicle front image including a white line on the road surface. Further, a reference image storage means 2 is provided, and a predetermined reference image is stored as a pattern. Reference image is N
It is input to the calculation means 3 composed of N, and the pattern learning means 4 learns NN. This learning is performed by determining the weight of each neuron forming the NN so that a predetermined value (for example, 1.0) is output from the output layer when the reference image pattern is input to the NN input layer. However, the details will be described later. The image (processing target image) captured by the image capturing unit 1 is input to the learned NN using the reference image, processed using the NN, and the correlation value is output. This correlation value corresponds to the correlation value obtained by the conventional sum of differences, and a target object such as a white line is detected based on the change in the correlation value depending on the position.

【0013】また、パターン学習手段4は、撮像条件に
応じて追加学習が必要な場合には基準画像記憶手段2に
記憶された複数の基準画像を用いてNNの追加学習を行
い、入力した撮像画像の相関値を演算する。なお、追加
学習とは、基準画像が2個(それぞれ基準画像I、II
とする)存在する場合には、まず基準画像Iを用いてN
Nを学習し、学習済みのNNに対してさらに基準画像I
Iを用いて学習することをいい、基準画像I及びIIを
同時にNNの入力層に入力して学習を行うことを意味す
るものではない。
Further, the pattern learning means 4 carries out additional learning of the NN using a plurality of reference images stored in the reference image storage means 2 when additional learning is required according to the image pickup conditions, and the input image pickup is carried out. Calculate the correlation value of the image. Note that the additional learning means that there are two reference images (reference images I and II, respectively).
If it exists, the reference image I is first used to generate N
After learning N, the reference image I is further learned with respect to the learned NN.
This means learning using I, and does not mean that the reference images I and II are simultaneously input to the NN input layer to perform learning.

【0014】図2には本実施例の具体的な構成ブロック
図が示されている。画像撮像手段1としてはCCDカメ
ラ10が車両に設けられ、車両前方画像を撮像する。得
られた前方画像はA/Dコンバータ12に出力され、デ
ジタル信号に変換されてビデオRAM14に格納され
る。本実施例では撮像画像は512×512画素から構
成され、A/Dコンバータ12では各画素は8ビットの
256階調にデジタル化される。
FIG. 2 shows a concrete block diagram of the present embodiment. A CCD camera 10 is provided in the vehicle as the image capturing means 1 and captures a vehicle front image. The obtained forward image is output to the A / D converter 12, converted into a digital signal, and stored in the video RAM 14. In the present embodiment, the captured image is composed of 512 × 512 pixels, and each pixel is digitized in the A / D converter 12 into 8-bit 256 gradations.

【0015】一方、予め用意される8×8画素の基準画
像はメインRAM18内に格納され、この基準画像がN
Nをハード的に構成する演算手段3としてのDSP(デ
ジタルシグナルプロセッサ)16に供給される。DSP
16では、基準画像がNNの入力層に入力された時に出
力層から所定値が出力されるようにNNを構成する各ニ
ューロンの重みをユーザROMに格納されているNN用
ソフトウエアに従って学習により決定する。従って、こ
のユーザROM22がパターン学習手段4を構成するこ
とになる。なお、使用されるNNモデルはパーセプトロ
ン型NNである。
On the other hand, a standard image of 8 × 8 pixels prepared in advance is stored in the main RAM 18, and the standard image is N
It is supplied to a DSP (digital signal processor) 16 as a calculation means 3 that configures N as a hardware. DSP
In No. 16, the weight of each neuron constituting the NN is determined by learning according to the NN software stored in the user ROM so that a predetermined value is output from the output layer when the reference image is input to the NN input layer. To do. Therefore, this user ROM 22 constitutes the pattern learning means 4. The NN model used is a perceptron type NN.

【0016】学習が終了した後、ビデオRAM14に格
納された画像のなかの所定領域の画像が所定の順序で読
み出され、DSP16に供給される。DSP16は入力
された画像と学習済みのNNを用いて演算を行い、演算
結果をメインRAM18に出力する。DSP16に順次
供給される画像は基準画像の大きさに対応した8×8画
素の画像である。所定領域内の全ての画像について演算
が行われた後、DSP16はメインRAM18に格納さ
れている演算結果から白線位置を決定し、撮像画像とと
もにビデオRAM24に格納する。ビデオRAM24に
格納されたデータはD/Aコンバータ26でアナログ信
号に変換され、ビデオディスプレイ28に出力され、撮
像画像とともに白線位置が画面上に表示される。
After the learning is completed, the images in a predetermined area among the images stored in the video RAM 14 are read out in a predetermined order and supplied to the DSP 16. The DSP 16 performs an operation using the input image and the learned NN, and outputs the operation result to the main RAM 18. The image sequentially supplied to the DSP 16 is an 8 × 8 pixel image corresponding to the size of the reference image. After the calculation is performed on all the images in the predetermined area, the DSP 16 determines the white line position from the calculation result stored in the main RAM 18, and stores it in the video RAM 24 together with the captured image. The data stored in the video RAM 24 is converted into an analog signal by the D / A converter 26, output to the video display 28, and the white line position is displayed on the screen together with the captured image.

【0017】ここで、DSP16で構成されるNNの入
力ノード数は、8×8画素の入力画像の各画素に1ノー
ドを割り当てるため64個に設定され、中間ノード数は
2〜32の範囲で設定して最適値を求める構成とし、出
力ノード数は後述する2種類の学習法に応じて1個また
は2個としている。
Here, the number of input nodes of the NN formed by the DSP 16 is set to 64 in order to allocate one node to each pixel of the input image of 8 × 8 pixels, and the number of intermediate nodes is in the range of 2 to 32. The number of output nodes is set to one or two according to two types of learning methods described later.

【0018】図3にはビデオRAM14に格納された撮
像画像の中の所定領域であるサーチエリア及びNNを構
成するDSP16に順次入力される入力画像が示されて
いる。サーチエリアは8×L画素から構成され、入力画
素は上述したように8×8画素である。この入力画像が
図において順次1画素ずつ横にずれていき、各位置毎に
DSP16でNNによる演算が実行される。
FIG. 3 shows a search area which is a predetermined area in the picked-up image stored in the video RAM 14 and an input image which is sequentially input to the DSP 16 which constitutes the NN. The search area is composed of 8 × L pixels, and the input pixels are 8 × 8 pixels as described above. The input image sequentially shifts laterally by one pixel in the figure, and the DSP 16 executes the calculation by NN for each position.

【0019】このようにしてサーチエリア内の全ての画
像がDSP16に入力されると、サーチエリア内の全て
の位置に対してNN出力が得られ、結局位置の関数とし
てNN出力が得られることになる。
When all images in the search area are input to the DSP 16 in this manner, NN outputs are obtained for all positions in the search area, and eventually NN outputs are obtained as a function of the position. Become.

【0020】図4にはこのようなNN出力の一例が示さ
れており、各画像位置Xに対してNN出力、すなわち入
力画像と基準画像との相関値が示されている。この関係
は、ちょうど従来の差分和による相関値に対応するもの
である。従って、このグラフの絶対値及び傾きから、ど
の位置が最も相関が高く白線位置であるかを特定するこ
とができる。
FIG. 4 shows an example of such an NN output, and shows the NN output for each image position X, that is, the correlation value between the input image and the reference image. This relationship corresponds to the correlation value based on the conventional sum of differences. Therefore, it is possible to specify which position has the highest correlation and is the white line position from the absolute value and the slope of this graph.

【0021】図5にはNNを学習させる際に用いられる
白線位置が示されており、標準的な白線の左側エッジ部
分である。この部分の画像を基準画像としてNNに入力
することにより、標準的な白線左エッジの輝度パターン
を学習させるのである。なお、エッジ部分のパターンを
学習させるのは白線の幅に依存しない認識を行わせるた
めであり、また、輝度分布を反転させることにより容易
に白線右側のエッジの認識に拡張することができる。
FIG. 5 shows the position of the white line used when learning the NN, which is the left edge portion of the standard white line. By inputting the image of this portion to the NN as a reference image, the standard luminance pattern of the left edge of the white line is learned. Note that the pattern of the edge portion is learned in order to perform recognition that does not depend on the width of the white line, and by inverting the luminance distribution, it is possible to easily extend the recognition to the edge on the right side of the white line.

【0022】<NNの学習方法>ここで、NNの学習方
法について説明する。本実施例においてNNを学習させ
る目的は、代表的な基準画像パターンをNNに学習させ
ることにより、NN自体の汎化能力により種々の撮像条
件下での白線候補位置認識を可能とすることである。そ
こで、本実施例では、以下の2つの方法で学習を行って
いる。
<NN Learning Method> Here, the NN learning method will be described. The purpose of learning the NN in this embodiment is to enable the NN to recognize a white line candidate position under various imaging conditions by learning the typical reference image pattern by the NN itself. . Therefore, in this embodiment, learning is performed by the following two methods.

【0023】(1)昼間晴天時の基準画像パターンを学
習させる学習法I (2)昼間曇天時の基準画像パターンを(1)のパター
ンに追加して学習させる学習法II。
(1) Learning method I for learning the reference image pattern during daytime fine weather (2) Learning method II for learning by adding the reference image pattern during daytime cloudy weather to the pattern of (1).

【0024】図6には、学習法Iで用いられる基準画像
パターンが示されている。学習法Iでは、基準画像パタ
ーンとして(a)、(b)、(c)の3つが用意され、
(b)が昼間晴天時の白線左エッジ部の基準画像に相当
する。そして、学習法はパターン(b)に対し出力1、
パターン(a)、(c)に対し出力0となるように学習
する。また、図7には学習法IIで用いられる基準画像
パターンが示されている。基準画像パターンとして
(a)、(b)、(c)、(d)の4つが用意され、
(a)、(b)、(d)は学習法Iと同一であり、新た
に付加されたパターン(c)が昼間曇天時の白線左エッ
ジ部の基準画像に相当する。そして、NNの出力ノード
数を2とし、パターン(a)、(d)に対し出力00、
パターン(b)に対し出力10、パターン(c)に対し
出力01となるように学習する。
FIG. 6 shows a reference image pattern used in the learning method I. In the learning method I, three reference image patterns (a), (b), and (c) are prepared,
(B) corresponds to the reference image of the left edge portion of the white line during fine weather in the daytime. Then, the learning method outputs 1 for the pattern (b),
Learning is performed so that the output becomes 0 for the patterns (a) and (c). Further, FIG. 7 shows a reference image pattern used in the learning method II. Four reference image patterns (a), (b), (c), (d) are prepared,
(A), (b), and (d) are the same as the learning method I, and the newly added pattern (c) corresponds to the reference image of the left edge portion of the white line during cloudy daytime. Then, the number of output nodes of the NN is set to 2, and outputs 00 to the patterns (a) and (d)
Learning is performed so that the output is 10 for the pattern (b) and the output 01 is for the pattern (c).

【0025】図8(A)及び(B)には、それぞれ学習
法Iのパターン(b)及び学習法IIのパターン(c)
で使われる入力画像の実際の輝度分布の一例が示されて
いる。上述したように輝度は0〜255で表され、NN
の学習はこれらの値を255で割り、0〜1の範囲へと
正規化した値を用いて行われる。なお、学習法I、II
のパターン(a)は全て0で表され、学習法Iのパター
ン(c)及び学習法IIのパターン(d)は全て255
(正規化した場合は1)で表される。
FIGS. 8A and 8B show a learning method I pattern (b) and a learning method II pattern (c), respectively.
An example of the actual luminance distribution of the input image used in is shown. As described above, the brightness is represented by 0 to 255, and NN
Learning is performed using values that are obtained by dividing these values by 255 and normalizing them into a range of 0 to 1. Learning methods I and II
Of the learning method I and the pattern (d) of the learning method II are all 255.
It is represented by (1 when normalized).

【0026】図9には、DSP16がNNソフトウェア
に基づき実行するNNの学習フローチャートが示されて
いる。この学習アルゴリズムはバックプロパゲーション
(BP)法による。まず、結合係数とオフセットを乱数
を用いて初期化し(S101)、学習パターンをセット
する(S102)。すなわち、図6及び図7に示された
入力パターンとそれに対応する出力パターンを設定す
る。学習法Iでは、学習パターンは3組であり、学習法
IIでは4組である。次に、中間層ユニットの出力計算
及び出力層ユニットの出力計算を行う(S103、S1
04)。この計算は、k層第iユニットへの入力をik
i 、出力をOk i 、(k−1)層の第iユニットからk
層の第jユニットへの重みをWk.k-1 ijとすると、
FIG. 9 shows a NN learning flowchart executed by the DSP 16 based on the NN software. This learning algorithm is based on the back propagation (BP) method. First, the coupling coefficient and offset are initialized using random numbers (S101), and a learning pattern is set (S102). That is, the input patterns shown in FIGS. 6 and 7 and the output patterns corresponding to them are set. The learning method I has three learning patterns, and the learning method II has four learning patterns. Next, the output calculation of the middle layer unit and the output calculation of the output layer unit are performed (S103, S1).
04). This calculation calculates the input to the k-th layer i-th unit by i k
i , the output is O k i , k from the i-th unit of the (k−1) th layer
If the weight for the j-th unit of the layer is W kk-1 ij ,

【数1】ik j =Σ(Wk-1,k ijk-1 i )、Ok i
f(ik i ) 但し、Qをオフセットとして
## EQU1 ## i k j = Σ (W k-1, k ij O k-1 i ), O k i =
f (i k i ) where Q is an offset

【数2】f(x)=1/{1+exp(−x+Q)} である。## EQU00002 ## f (x) = 1 / {1 + exp (-x + Q)}.

【0027】出力層ユニットの出力計算が終了した後そ
の誤差を計算し、さらに中間層ユニットの誤差を計算す
る(S105、S106)。この誤差計算は、提示した
出力パターンmの第i要素をtm i 、実際にNNが出力
した出力パターンmの第i要素をOm i とすると、
After the output calculation of the output layer unit is completed, the error is calculated, and further the error of the intermediate layer unit is calculated (S105, S106). In this error calculation, if the i-th element of the presented output pattern m is t m i and the i-th element of the output pattern m actually output by the NN is O m i ,

【数3】E=Σ{1/2・Σ(tm i −Om i 2 } により行われる。そして、この誤差Eの値に応じて中間
層と出力層間の結合係数及び出力層ユニットのオフセッ
トの更新を行い(S107)、さらに入力層と中間層間
の結合係数及び中間層ユニットのオフセットの更新を行
う(S108)。このようにして1組の入出力パターン
での学習が終了した後、次の入出力パターンでの学習を
行う(S109、S110)。全てのパターンでの学習
が終了した後(学習法Iでは3組、学習法IIでは4組
である)、学習繰り返し回数を順次インクリメントして
いき(S111)、所定の繰り返し回数に達するまでこ
れらの処理を繰り返す(S112)。
(3) E = Σ {1 / 2Σ (t m i −O m i ) 2 }. Then, the coupling coefficient between the intermediate layer and the output layer and the offset of the output layer unit are updated according to the value of the error E (S107), and the coupling coefficient between the input layer and the intermediate layer and the offset of the intermediate layer unit are updated. Perform (S108). After the learning with one set of input / output patterns is completed in this way, the learning with the next input / output pattern is performed (S109, S110). After the learning in all patterns is completed (learning method I has 3 sets, learning method II has 4 sets), the number of learning iterations is sequentially incremented (S111), and these are repeated until the predetermined number of iterations is reached. The process is repeated (S112).

【0028】なお、学習法Iあるいは学習法IIのいず
れを用いるかは適宜選択可能とすることができ、好条件
の場合には学習法Iを選択し、比較的条件の厳しい場合
には学習IIを選択することができる。または、予め学
習法Iで学習したものと学習法IIで学習したものの2
種類用意しておき、まず学習法1で学習したもので画像
認識を行い、良好な結果が得られなかった場合に、次に
学習法IIで学習したもので画像認識を行う2段階処理
も考えられる。
It should be noted that which of the learning method I and the learning method II is to be used can be appropriately selected. When the condition is favorable, the learning method I is selected, and when the condition is relatively severe, the learning method II is selected. Can be selected. Alternatively, 2 of those learned in Learning Method I and those learned in Learning Method II in advance.
Consider a two-step process in which types are prepared and image recognition is first performed by the learning method 1, and when a good result is not obtained, then image recognition is performed by the learning method II. To be

【0029】<白線認識>以上のようにしてNNの学習
が完了すると、実際にCCDカメラ10で得られた画像
の評価に移行する。図10には、学習が完了したDSP
16での白線認識処理フローチャートが示されている。
なお、図10は学習法Iあるいは学習法IIのいずれか
の方法で学習した場合の処理フローチャートである。ま
ず、図3に示すように画像内にサーチエリアを設定し
(S201)、入力画像エリアの位置Xをリセットした
後(S202)、NNの64個の入力ノードへ8×8画
像の各画素を入力する(S203)。NN(実際にはD
SP16)では、入力層、中間層、出力層を経て計算が
行われ、最終的に1個の出力層から0〜1の間の数値が
出力される(S204)。もちろん、入力画像パターン
が図6(a)、(c)に近い場合には出力値は0近傍と
なり、入力画像パターンが図6(b)に近い場合には出
力値は1近傍になる。以下同様にしてサーチエリア内で
入力画像を順次移動して計算を繰り返し、入力画像位置
xがサーチエリアの終端(右端)に達した場合には(S
205)、DSP16は、位置xの関数として求められ
たNN出力値が最大、つまり最も1に近い値となる位置
Xを求める(S206)。
<White Line Recognition> When the learning of the NN is completed as described above, the process shifts to the evaluation of the image actually obtained by the CCD camera 10. FIG. 10 shows a DSP whose learning has been completed.
The white line recognition processing flowchart in 16 is shown.
It should be noted that FIG. 10 is a processing flowchart when learning is performed by either the learning method I or the learning method II. First, as shown in FIG. 3, after setting a search area in the image (S201) and resetting the position X of the input image area (S202), each pixel of the 8 × 8 image is input to 64 input nodes of NN. Input (S203). NN (actually D
In SP16), the calculation is performed through the input layer, the intermediate layer, and the output layer, and finally a numerical value between 0 and 1 is output from one output layer (S204). Of course, when the input image pattern is close to FIG. 6A and FIG. 6C, the output value is close to 0, and when the input image pattern is close to FIG. 6B, the output value is close to 1. Similarly, the input image is sequentially moved in the search area and the calculation is repeated. When the input image position x reaches the end (right end) of the search area (S
205), the DSP 16 obtains the position X where the NN output value obtained as a function of the position x is the maximum, that is, the value closest to 1 (S206).

【0030】そして、位置XにおけるNN出力値が所定
値aより大きいか否か、及びその近傍におけるNNの変
化率(グラフの傾き)の絶対値が所定値bより大きいか
否かを判定し(S207)、いずれも大きい場合には、
最も相関の強い位置はXであるとして位置Xに白線があ
ると判定する(S208)。一方、NN出力値が所定値
以下、あるいは変化率が所定値以下である場合には、相
関が十分強くないとして白線はないと判定する(S20
9)。
Then, it is judged whether or not the NN output value at the position X is larger than a predetermined value a, and whether or not the absolute value of the change rate (gradient of the graph) of the NN in the vicinity thereof is larger than a predetermined value b ( S207), if both are large,
The position having the strongest correlation is X, and it is determined that the position X has a white line (S208). On the other hand, if the NN output value is less than or equal to the predetermined value or the change rate is less than or equal to the predetermined value, it is determined that the correlation is not sufficiently strong and there is no white line (S20).
9).

【0031】なお、学習法IIを用いる場合には、出力
ノードが2個であるので、S206では2個の出力値の
内、値の大きい方をその位置xにおけるNN出力値とす
る。また、学習法I及び学習法IIをともに用いる場合
には、まず学習法Iで学習したものでNN出力を計算
し、S207でNN出力値が所定値以下、あるいは変化
率が所定値以下であると判定された場合に学習法IIで
学習したもので再びNN出力を計算し、S207の判定
を行う。その結果、位置XにおけるNN出力値が所定値
aより大きく、その近傍におけるNNの変化率(グラフ
の傾き)の絶対値が所定値より大きい場合には、最も相
関の強い位置はXであるとして位置Xに白線があると判
定し、そうでない場合には白線はないと判定すればよ
い。
Since the number of output nodes is two when the learning method II is used, the larger one of the two output values is set as the NN output value at the position x in S206. When both the learning method I and the learning method II are used, the NN output is first calculated by the learning method I and the NN output value is below a predetermined value or the change rate is below a predetermined value in S207. If it is determined that the NN output is calculated again by the learning method II, the determination of S207 is performed. As a result, when the NN output value at the position X is larger than the predetermined value a and the absolute value of the change rate (gradient of the graph) of the NN in the vicinity thereof is larger than the predetermined value, it is determined that the position having the strongest correlation is X. It may be determined that the position X has a white line, and if not, it may be determined that there is no white line.

【0032】図11乃至図15には、本実施例で白線認
識を試みた5個の画像の輝度分布が示されている。各図
において、横軸は画像内の横位置、縦軸は画面上方から
200ビットの位置における画像断層の輝度(0〜25
5)を示している。図11は白線の一部に歩道橋の影が
存在する場合の画像であり、影が存在する領域では路面
と白線間の輝度差は小さく、白線内の輝度は一定で、白
線のエッジは明確であるという特徴を有する。図12は
トンネル内の画像であり、路面と白線間の輝度差は小さ
く、白線内の輝度は一定で、白線のエッジはやや不明確
であるという特徴を有する。図13は白線かすれの画像
であり、路面と白線間の輝度差は小さく、白線内の輝度
は一定でなく、白線のエッジはやや不明確であるという
特徴を有する。図14は雨天の場合の画像であり、路面
と白線間の輝度差は小さく、白線内の輝度は一定でな
く、白線のエッジはやや不明確であるという特徴を有す
る。図15は夜間の画像であり、路面と白線間の輝度差
は大きく、白線内の輝度は一定でなく、白線のエッジは
不明確であるという特徴を有する。
11 to 15 show the luminance distributions of five images for which white line recognition was attempted in this embodiment. In each figure, the horizontal axis represents the horizontal position in the image, and the vertical axis represents the brightness of the image slice (0 to 25
5) is shown. FIG. 11 is an image in the case where a shadow of a pedestrian bridge exists on a part of the white line. In the area where the shadow exists, the brightness difference between the road surface and the white line is small, the brightness inside the white line is constant, and the edge of the white line is clear. It has the feature of being. FIG. 12 shows an image in a tunnel, which is characterized in that the difference in brightness between the road surface and the white line is small, the brightness in the white line is constant, and the edges of the white line are somewhat unclear. FIG. 13 is an image with a faint white line. The brightness difference between the road surface and the white line is small, the brightness inside the white line is not constant, and the edges of the white line are somewhat unclear. FIG. 14 is an image in the case of rain, and has the characteristics that the difference in brightness between the road surface and the white line is small, the brightness within the white line is not constant, and the edges of the white line are somewhat unclear. FIG. 15 is an image at night, and has a feature that the brightness difference between the road surface and the white line is large, the brightness inside the white line is not constant, and the edge of the white line is unclear.

【0033】図16乃至図21には、これらの図で示さ
れる輝度分布を有する各画像を入力した場合の、DSP
16の処理結果(NN出力値)である。なお、図16は
標準的(晴天で影がなく、白線かすれもない)時の画像
を入力した場合の学習法Iによる処理結果であり、横軸
は位置x,縦軸は0〜1のNN出力値(相関量)を表し
ている。また、図17が図11の画像を入力した場合の
NN出力値であり、学習法Iで学習した場合の値であ
る。図18は図12の画像を入力した場合のNN出力値
であり、学習法IIで学習した場合の値である。学習法
IIとしたのは、学習法Iでは良好な結果が得られなか
ったからである。図19は図13の画像を入力した場合
のNN出力値であり、学習法IIで学習した場合の値で
ある。図20は図14の画像を入力した場合のNN出力
値であり、学習法IIで学習した場合の値である。図2
1は図15の画像を入力した場合のNN出力値であり、
学習法Iで学習した場合の値である。なお、各図におい
て、比較のため従来のテンプレートを用いた差分和によ
る相関演算法により得られる相関量も示している。従来
の差分演算に比べ、NNによる相関量は大きく、かつ、
鋭いピークを示していることがわかる。
FIGS. 16 to 21 show the DSP when each image having the luminance distribution shown in these figures is input.
16 is the processing result (NN output value) of 16. Note that FIG. 16 shows a processing result by the learning method I when an image in a standard condition (there is no shadow in the clear sky and no white line blurring) is input, and the horizontal axis represents the position x and the vertical axis represents the NN of 0 to 1. It represents the output value (correlation amount). Further, FIG. 17 shows the NN output value when the image of FIG. 11 is input, and the value when the learning method I is used for learning. FIG. 18 shows NN output values when the image of FIG. 12 is input, and values when learning is performed by the learning method II. The learning method II is used because the learning method I did not give good results. FIG. 19 shows the NN output value when the image of FIG. 13 is input, and the value when the learning method II is used for learning. FIG. 20 shows NN output values when the image of FIG. 14 is input, and values when learning is performed by the learning method II. Figure 2
1 is the NN output value when the image of FIG. 15 is input,
It is a value when learning is performed by the learning method I. In addition, in each figure, the correlation amount obtained by the correlation calculation method by the sum of differences using the conventional template is also shown for comparison. Compared to the conventional difference calculation, the correlation amount by NN is large, and
It can be seen that it shows a sharp peak.

【0034】<評価>図16乃至図21の各画像処理結
果を評価すべく、以下のような基準を用いた。(1)N
Nによる処理 (a)白線以外の位置でのNN出力が0.5以上または
白線位置でのNN出力が0.5以下の場合:評価X (b)白線以外の位置でのNN出力が0.5以下、か
つ、白線位置でのNN出力が0.5〜0.8:評価△ (c)白線以外の位置でのNN出力が0.5以下、か
つ、白線位置でのNN出力が0.8以上:評価○ (2)従来のテンプレートを用いた差分和による処理 白線位置での相関量及び相関グラフの傾きを基準として
NNの場合と同様に評価した。
<Evaluation> The following criteria were used to evaluate the image processing results of FIGS. 16 to 21. (1) N
Processing by N (a) When the NN output at a position other than the white line is 0.5 or more or the NN output at a white line position is 0.5 or less: Evaluation X (b) The NN output at a position other than the white line is 0. 5 or less, and the NN output at the position of the white line is 0.5 to 0.8: Evaluation Δ (c) The NN output at positions other than the white line is 0.5 or less, and the NN output at the position of the white line is 0. 8 or more: Evaluation ○ (2) Processing by sum of differences using conventional template Evaluation was performed in the same manner as in the case of NN with reference to the correlation amount at the white line position and the slope of the correlation graph.

【0035】図22には、このような基準に基づき評価
した結果が示されている。画像番号1〜6はそれぞれ図
16〜図21に対応するものである。なお、図において
NN学習法I及びIIにおける「2」「32」は中間層
のノード数を表している。これらの結果から、NNを用
いた処理方法では従来方法に比べ白線と路面間での出力
差が明確に現れ、十分な白線認識が行えることが分か
る。
FIG. 22 shows the result of evaluation based on such criteria. Image numbers 1 to 6 correspond to FIGS. 16 to 21, respectively. In the figure, “2” and “32” in the NN learning methods I and II represent the number of nodes in the intermediate layer. From these results, it can be seen that the output difference between the white line and the road surface appears more clearly in the processing method using the NN than in the conventional method, and sufficient white line recognition can be performed.

【0036】なお、白線と路面間の輝度差が認識能力に
与える影響は大きく、差の小さな画像番号3、4、5
(図18、図19、図20に相当)では上述したように
学習法Iでは十分な認識結果を得ることはできなかっ
た。また、中間層のノード数を変化させても、認識結果
には大きな差はなく、いずれの場合も同等の認識結果が
得られた。
It should be noted that the difference in brightness between the white line and the road surface has a great influence on the recognition ability, and the image numbers 3, 4, 5 having a small difference are recognized.
In (corresponding to FIG. 18, FIG. 19, and FIG. 20), the learning method I could not obtain a sufficient recognition result as described above. Moreover, even if the number of nodes in the middle layer was changed, there was no big difference in the recognition results, and the same recognition result was obtained in all cases.

【0037】このように、本実施例では、NNを用いて
撮像画像を処理することにより、従来の差分和による相
関演算法では白線を認識することができないような状況
下でも、容易にかつ迅速に白線を認識することができ
る。特に、NNには追加学習能力があるため、より条件
の厳しい画像の場合には、新たな白線輝度変化パターン
を基準画像として追加学習することにより、容易に対応
可能となる利点がある。また、追加学習はいわゆるオフ
ライン処理で行われる(実際の画像処理に先立って別個
に行われる)ため、認識処理する実時間も増加すること
はない。
As described above, in the present embodiment, the captured image is processed by using the NN, so that the white line cannot be easily recognized by the conventional correlation calculation method using the sum of differences. You can recognize the white line on the. In particular, since the NN has an additional learning capability, in the case of an image with more severe conditions, there is an advantage that it can be easily dealt with by additionally learning a new white line luminance change pattern as a reference image. Further, since the additional learning is performed by so-called off-line processing (which is separately performed prior to the actual image processing), the real time for the recognition processing does not increase.

【0038】なお、上記実施例では画像内の白線を認識
する場合を例示したが、本発明はこれに限定されるもの
ではなく、例えば車両周囲に存在する他の車両のエッジ
部を検出する、あるいは路面に存在する標識を認識する
等の応用が考えられる。他の車両のエッジ部を認識する
場合には、基準画像として標準的なエッジ画像パターン
を用いてNNを学習させておく必要があることは言うま
でもない。
In the above embodiment, the case of recognizing the white line in the image is illustrated, but the present invention is not limited to this, and for example, the edge portion of another vehicle existing around the vehicle is detected. Alternatively, applications such as recognizing signs existing on the road surface can be considered. Needless to say, when recognizing the edge portion of another vehicle, it is necessary to learn the NN using a standard edge image pattern as a reference image.

【0039】[0039]

【発明の効果】以上説明したように、請求項1乃至請求
項2記載の画像認識装置によれば、種々の条件下で得ら
れた撮像画像から、白線等の所望の対象物を迅速かつ確
実に認識することができる。
As described above, according to the image recognition device of the first or second aspect, a desired object such as a white line can be swiftly and surely obtained from captured images obtained under various conditions. Can be recognized.

【0040】特に、請求項2記載の画像認識装置によれ
ば、NNの追加学習により、より条件の厳しい画像に対
しても、認識処理時間を増大させることなく容易に対応
することが可能となる。
In particular, according to the image recognition device of the second aspect, by the additional learning of the NN, it becomes possible to easily cope with an image under more severe conditions without increasing the recognition processing time. .

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施例の概念構成図である。FIG. 1 is a conceptual configuration diagram of an embodiment of the present invention.

【図2】 同実施例の構成ブロック図である。FIG. 2 is a configuration block diagram of the embodiment.

【図3】 同実施例のサーチエリア説明図である。FIG. 3 is an explanatory diagram of a search area of the same embodiment.

【図4】 同実施例のNNによる相関量演算の説明図で
ある。
FIG. 4 is an explanatory diagram of a correlation amount calculation by the NN of the embodiment.

【図5】 同実施例のNNの学習位置説明図である。FIG. 5 is an explanatory diagram of an NN learning position of the embodiment.

【図6】 同実施例の学習法Iの基準画像パターン説明
図である。
FIG. 6 is an explanatory diagram of a reference image pattern of learning method I according to the embodiment.

【図7】 同実施例の学習法IIの基準画像パターン説
明図である。
FIG. 7 is an explanatory diagram of a reference image pattern of learning method II according to the same embodiment.

【図8】 同実施例の基準パターンの輝度分布説明図で
ある。
FIG. 8 is an explanatory diagram of a luminance distribution of a reference pattern of the example.

【図9】 同実施例のNN学習フローチャートである。FIG. 9 is a NN learning flowchart of the embodiment.

【図10】 同実施例のNNによる白線認識フローチャ
ートである。
FIG. 10 is a white line recognition flowchart by the NN of the embodiment.

【図11】 同実施例の歩道橋影の画像輝度分布図であ
る。
FIG. 11 is an image luminance distribution diagram of a shadow of a pedestrian bridge in the same example.

【図12】 同実施例のトンネル内の画像輝度分布図で
ある。
FIG. 12 is an image brightness distribution diagram in the tunnel of the embodiment.

【図13】 同実施例の白線かすれの画像輝度分布図で
ある。
FIG. 13 is an image luminance distribution chart of a faint white line in the example.

【図14】 同実施例の雨天の画像輝度分布図である。FIG. 14 is an image luminance distribution diagram in rainy weather in the example.

【図15】 同実施例の夜間の画像輝度分布図である。FIG. 15 is a nighttime image brightness distribution diagram of the same example.

【図16】 同実施例の晴天時の相関量説明図である。FIG. 16 is an explanatory diagram of a correlation amount in fine weather according to the same embodiment.

【図17】 同実施例の歩道橋影の相関量説明図であ
る。
FIG. 17 is an explanatory diagram of a correlation amount of a pedestrian bridge shadow in the example.

【図18】 同実施例のトンネル内の相関量説明図であ
る。
FIG. 18 is an explanatory diagram of a correlation amount in the tunnel of the example.

【図19】 同実施例の白線かすれの相関量説明図であ
る。
FIG. 19 is an explanatory diagram of a white line blur correlation amount in the example.

【図20】 同実施例の雨天の相関量説明図である。FIG. 20 is an explanatory diagram of a correlation amount in rainy weather in the example.

【図21】 同実施例の夜間の相関量説明図である。FIG. 21 is an explanatory diagram of a nighttime correlation amount according to the embodiment.

【図22】 同実施例の評価結果を示す表図である。FIG. 22 is a table showing the evaluation results of the same example.

【符号の説明】[Explanation of symbols]

10 CCDカメラ、12 A/Dコンバータ、14
ビデオRAM、16DSP、18 メインRAM、20
システムROM、22 ユーザROM、24 ビデR
AM、26 D/Aコンバータ、28 ビデオディスプ
レイ。
10 CCD camera, 12 A / D converter, 14
Video RAM, 16 DSP, 18 Main RAM, 20
System ROM, 22 User ROM, 24 Bide R
AM, 26 D / A converter, 28 video display.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 車両周囲画像を撮像する画像撮像手段
と、 予め用意された代表的な基準画像を記憶する記憶手段
と、 前記画像撮像手段で得られた画像の所定領域内の画像と
前記基準画像の相関を、前記基準画像を用いて学習した
ニューラルネットワークで演算する演算手段と、 を有
することを特徴とする画像認識装置。
1. An image pickup means for picking up a vehicle surroundings image, a storage means for storing a representative reference image prepared in advance, an image in a predetermined region of the image obtained by the image pickup means, and the reference. An image recognizing device, comprising: a calculating unit that calculates a correlation between images by a neural network learned using the reference image.
【請求項2】 請求項1記載の画像認識装置において、 前記画像撮像手段での撮像条件に応じて前記基準画像は
複数用意され、 前記演算手段は前記複数の基準画像を用いて追加学習し
たニューラルネットワークを用いて相関を演算すること
を特徴とする画像認識装置。
2. The image recognition apparatus according to claim 1, wherein a plurality of the reference images are prepared according to the image pickup conditions of the image pickup means, and the calculation means additionally learns using the plurality of reference images. An image recognition device characterized by calculating a correlation using a network.
JP7014006A 1995-01-31 1995-01-31 Picture recognition device Pending JPH08202877A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7014006A JPH08202877A (en) 1995-01-31 1995-01-31 Picture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7014006A JPH08202877A (en) 1995-01-31 1995-01-31 Picture recognition device

Publications (1)

Publication Number Publication Date
JPH08202877A true JPH08202877A (en) 1996-08-09

Family

ID=11849135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7014006A Pending JPH08202877A (en) 1995-01-31 1995-01-31 Picture recognition device

Country Status (1)

Country Link
JP (1) JPH08202877A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309605A (en) * 2005-04-28 2006-11-09 Honda Motor Co Ltd Vehicles, image processing system, image processing method and image processing program
US9802599B2 (en) 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
JP2018523875A (en) * 2015-08-03 2018-08-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Lane recognition modeling method, apparatus, storage medium and device, and lane recognition method, apparatus, storage medium and apparatus
JP2020003400A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Lateral position estimating device and lateral position estimating method
JP2020534600A (en) * 2017-09-22 2020-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Lane recognition methods and devices, driver assistance systems and vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04274935A (en) * 1991-02-28 1992-09-30 Toyota Central Res & Dev Lab Inc Device for deciding quantity of operation of vehicle
JPH0554196A (en) * 1991-08-22 1993-03-05 Amano Corp Number plate recognition device
JPH0650738A (en) * 1992-07-31 1994-02-25 Toyota Motor Corp Image contour line detector
JPH0660300A (en) * 1992-08-04 1994-03-04 Takata Kk Collision prevention and prediction system by neural network
JPH06119593A (en) * 1992-10-05 1994-04-28 Toyota Motor Corp Guide line detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04274935A (en) * 1991-02-28 1992-09-30 Toyota Central Res & Dev Lab Inc Device for deciding quantity of operation of vehicle
JPH0554196A (en) * 1991-08-22 1993-03-05 Amano Corp Number plate recognition device
JPH0650738A (en) * 1992-07-31 1994-02-25 Toyota Motor Corp Image contour line detector
JPH0660300A (en) * 1992-08-04 1994-03-04 Takata Kk Collision prevention and prediction system by neural network
JPH06119593A (en) * 1992-10-05 1994-04-28 Toyota Motor Corp Guide line detector

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309605A (en) * 2005-04-28 2006-11-09 Honda Motor Co Ltd Vehicles, image processing system, image processing method and image processing program
WO2006117951A1 (en) * 2005-04-28 2006-11-09 Honda Motor Co., Ltd. Vehicle, image processing system, image processing method, image processing program, image processing system configuration method, and server
JP4616068B2 (en) * 2005-04-28 2011-01-19 本田技研工業株式会社 Vehicle, image processing system, image processing method, and image processing program
US8107683B2 (en) 2005-04-28 2012-01-31 Honda Motor Co., Ltd. Method and system for in-vehicle image processing
JP2018523875A (en) * 2015-08-03 2018-08-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Lane recognition modeling method, apparatus, storage medium and device, and lane recognition method, apparatus, storage medium and apparatus
US10699134B2 (en) 2015-08-03 2020-06-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line
US9802599B2 (en) 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
JP2020534600A (en) * 2017-09-22 2020-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Lane recognition methods and devices, driver assistance systems and vehicles
JP2020003400A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Lateral position estimating device and lateral position estimating method

Similar Documents

Publication Publication Date Title
CN109741356B (en) Sub-pixel edge detection method and system
EP0686943B1 (en) Differential motion detection method using background image
JPH10512694A (en) Method and apparatus for detecting movement of an object in a continuous image
JP2000293696A (en) Picture recognizing device
CN113592911B (en) Apparent enhanced depth target tracking method
CN110310305B (en) Target tracking method and device based on BSSD detection and Kalman filtering
CN110378837A (en) Object detection method, device and storage medium based on fish-eye camera
CN111144213A (en) Object detection method and related equipment
JP2003051017A (en) White line detector
CN115797225A (en) Unmanned ship acquisition image enhancement method for underwater topography measurement
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
CN113327206B (en) Image fuzzy processing method of intelligent power transmission line inspection system based on artificial intelligence
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
CN113223044A (en) Infrared video target detection method combining feature aggregation and attention mechanism
CN114708615B (en) Human body detection method based on image enhancement in low-illumination environment, electronic equipment and storage medium
CN109784216A (en) Vehicle-mounted thermal imaging pedestrian detection RoIs extracting method based on probability graph
JPH09282452A (en) Monitor
CN112819710B (en) Unmanned aerial vehicle jelly effect self-adaptive compensation method and system based on artificial intelligence
JPH08202877A (en) Picture recognition device
CN111539975B (en) Method, device, equipment and storage medium for detecting moving object
CN113627481A (en) Multi-model combined unmanned aerial vehicle garbage classification method for smart gardens
CN110717910B (en) CT image target detection method based on convolutional neural network and CT scanner
CN116777956A (en) Moving target screening method based on multi-scale track management
JP3269222B2 (en) Distance measuring device
JP2004304303A (en) Object recognizer and object recognizing method