JP2934330B2 - Vehicle operation amount determination device - Google Patents
Vehicle operation amount determination deviceInfo
- Publication number
- JP2934330B2 JP2934330B2 JP3059592A JP5959291A JP2934330B2 JP 2934330 B2 JP2934330 B2 JP 2934330B2 JP 3059592 A JP3059592 A JP 3059592A JP 5959291 A JP5959291 A JP 5959291A JP 2934330 B2 JP2934330 B2 JP 2934330B2
- Authority
- JP
- Japan
- Prior art keywords
- road
- vehicle
- operation amount
- neural network
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Vehicle Engines Or Engines For Specific Uses (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、車両の走行中に得られ
た走行路面の道路画像情報から、車両のその時の望まし
い操作量を直接的に決定することにより、短い演算時間
でリアルタイムに車両の操作量を決定する装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for directly determining a desired operation amount of a vehicle from road image information on a traveling road surface obtained while the vehicle is running, thereby realizing the vehicle in a short calculation time in real time. The present invention relates to an apparatus for determining an operation amount of a vehicle.
【0002】[0002]
【従来技術】従来より、車両にTVカメラを搭載して走
行経路を撮像し、これを画像処理して道路と車両の進行
方向のなす角や車両の位置等を演算し、演算された結果
より車両の操作量であるアクセル、ブレーキ及びステア
リング等の操作量と車両の運動特性とに応じた制御アル
ゴリズムに基づき、車両の操作量を決定する装置が知ら
れている(特開昭62-140110 号公報、特開昭63-273917
号公報、特開昭60-157611 号公報) 。2. Description of the Related Art Conventionally, a TV camera is mounted on a vehicle to image a travel route, and the image is processed to calculate an angle between a road and a traveling direction of the vehicle, a position of the vehicle, and the like. 2. Description of the Related Art There is known a device for determining an operation amount of a vehicle based on a control algorithm according to an operation amount of an accelerator, a brake, a steering, or the like, which is an operation amount of a vehicle, and a motion characteristic of the vehicle (Japanese Patent Laid-Open No. 62-140110) Gazette, JP 63-273917
JP-A-60-157611).
【0003】[0003]
【発明が解決しようとする課題】しかし、この従来技術
では、車両の位置・方位を決定するための画像処理に多
大の時間を要し、しかも制御アルゴリズムは複雑なもの
となるため、適切な処理プログラムが得られず、車載装
置としては大規模なシステムが必要になるという問題が
あった。However, in this prior art, a great deal of time is required for image processing for determining the position and orientation of the vehicle, and the control algorithm becomes complicated. There was a problem that a program could not be obtained and a large-scale system was required as an in-vehicle device.
【0004】本発明は上記課題を解決するために成され
たものであり、その目的は、道路画像情報から車両の操
作量を直接的に決定することにより、短い演算時間でリ
アルタイムに車両の操作量を決定することである。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and an object of the present invention is to directly determine the operation amount of a vehicle from road image information, thereby realizing a real-time operation of the vehicle in a short calculation time. Is to determine the amount.
【0005】[0005]
【問題を解決するための手段】上記課題を解決するため
の発明の構成は、車両の走行中において車両の走行路面
を撮像し、撮像により得られた道路画像情報を多数の小
領域に分割し、この分割された分割領域毎に、この分割
領域における道路部分の存在情報を示した道路データを
作成する道路データ作成手段と、分割領域毎の各道路デ
ータを、分割領域のそれぞれに対応して入力する複数の
入力素子と、車両の挙動を決定する操作値を出力とする
出力素子とを有するニューラルネットワークとを有する
ことを特徴とする。In order to solve the above-mentioned problems, the present invention is directed to an image pickup apparatus for taking an image of a traveling road surface of a vehicle while the vehicle is traveling, and dividing road image information obtained by the imaging into a number of small areas. For each of the divided areas, road data creating means for creating road data indicating the existence information of the road portion in this divided area, and road data for each of the divided areas, corresponding to each of the divided areas A neural network having a plurality of input elements for inputting and an output element for outputting an operation value for determining a behavior of the vehicle is provided.
【0006】[0006]
【作用】道路データ作成手段において、車両の走行中に
おいて車両の走行路面が撮像され、その撮像により得ら
れた道路画像情報が多数の小領域に分割される。そし
て、この多数の小領域に分割された道路画像情報におい
て、各分割領域毎にその分割領域における道路部分の存
在情報を示す道路データが作成される。In the road data creating means, the road surface of the vehicle is imaged while the vehicle is running, and the road image information obtained by the imaging is divided into a number of small areas. Then, in the road image information divided into the plurality of small regions, road data indicating existence information of a road portion in each divided region is created for each divided region.
【0007】次に、この各分割領域毎の道路データは、
その各分割領域に対応したニューラルネットワークの入
力素子に入力される。そして、ニューラルネットワーク
の出力素子から、撮像により得られた道路画像情報に応
じて最適な車両の挙動を決定する操作値が出力される。Next, the road data for each divided area is
The input is input to the input element of the neural network corresponding to each of the divided areas. Then, from the output element of the neural network, an operation value for determining an optimum behavior of the vehicle according to the road image information obtained by the imaging is output.
【0008】尚、このニューラルネットワークの結合係
数は、様々な道路画像情報から得られた道路データ、即
ち、様々な道路の曲率、曲がる方向、道路の傾斜等の道
路環境に対応した車両の最適な挙動を決定する操作値を
教師信号として予め教示されている。Incidentally, the coupling coefficient of this neural network is determined by the road data obtained from various road image information, that is, the optimum data of the vehicle corresponding to the road environment such as the curvature of the various roads, the turning direction, and the inclination of the road. The operation value for determining the behavior is taught in advance as a teacher signal.
【0009】[0009]
【実施例】車両の運転席から見た道路の画像は、直進
路、カーブ、交差点などの道路状況及び道路に対する車
の位置と方向により変化する。即ち、道路画像は道路の
状況と道路に対する車の相対的な位置方位関係を表して
いる。このため、種々の道路画像に対する車のアクセ
ル、ブレーキ、ステアリングなど走行制御装置の操作量
の関係を求め、道路画像の特徴から直接的に操作量を決
定することができる。この時、走行制御装置の操作特性
や、道路画像から操作量を求めるアルゴリズムは用いら
れない。DESCRIPTION OF THE PREFERRED EMBODIMENTS An image of a road viewed from the driver's seat of a vehicle changes depending on road conditions such as a straight road, a curve, an intersection, and the position and direction of a vehicle with respect to the road. That is, the road image represents the road condition and the relative position and orientation of the vehicle with respect to the road. Therefore, the relationship between the operation amounts of the travel control device such as the accelerator, the brake, and the steering of the vehicle with respect to various road images can be obtained, and the operation amounts can be directly determined from the features of the road images. At this time, the operation characteristics of the travel control device and the algorithm for obtaining the operation amount from the road image are not used.
【0010】今、道路画像がRの時の操作量、例えば、
ステアリングの操作量をSRとする。又、道路画像Rを
横方向(車両の幅方向)にn、縦方向(車両の進行方
向)にm分割して多数の小領域に分割する。この分割領
域をapq、分割領域apq内を道路が占める割合をrpq、
その分割領域apqを道路が占めることにより、分割領域
apqが操作量SRに寄与する割合をgpqとする。尚、簡
単のために、操作量SRは車の速度に影響されないと
し、画像の分割領域間の相互作用はないと仮定する。こ
の条件の時、操作量SRは次の式で表される。Now, the operation amount when the road image is R, for example,
The amount of steering operation is SR. Further, the road image R is divided into n in the horizontal direction (the width direction of the vehicle) and m in the vertical direction (the traveling direction of the vehicle) to be divided into a number of small areas. This divided area is a pq , the ratio of the road occupying the divided area a pq is r pq ,
By occupying the divided regions a pq road, the divided region a pq contributes proportion to the manipulation amount SR and g pq. For the sake of simplicity, it is assumed that the operation amount SR is not affected by the speed of the vehicle, and that there is no interaction between the divided regions of the image. Under this condition, the manipulated variable SR is expressed by the following equation.
【0011】[0011]
【数1】 SR=r11・g11+r12・g12+…+rpq・gpq+…+rnm・gnm …(1)[Number 1] SR = r 11 · g 11 + r 12 · g 12 + ... + r pq · g pq + ... + r nm · g nm ... (1)
【0012】種々の環境の道路画像Rとその道路環境に
最適な操作量SRとの組合せに関して、(1) 式を作り、
この式をn×m次の連立方程式として解いてgpqを求め
る。即ち、道路画像の各分割領域の操作量に対する寄与
率gpqの表( 以下これを寄与率のマップと呼ぶ) を作成
することができる。Formula (1) is created for a combination of road images R of various environments and an operation amount SR optimal for the road environment.
This equation is solved as an n × m-order simultaneous equation to obtain g pq . That is, a table of the contribution rates g pq to the operation amounts of the respective divided areas of the road image (hereinafter referred to as a contribution rate map) can be created.
【0013】この方法によれば、道路画像の分割数n×
m回の積和演算により、道路画像から直接に且つ高速度
で操作量を求めることができる。しかし、実際には、操
作量は車の速度の影響を受けるため、速度毎の寄与率の
マップが必要になる。このため、寄与率のマップを記憶
するための大容量メモリを必要とし、しかも、車速にに
応じた寄与率のマップを選択することと、速度に対応す
る寄与率のマップが存在しない場合に速度に対応した寄
与率を求めるための補間計算に多大な処理時間が必要と
なる。According to this method, the number of divisions of the road image is n ×
The operation amount can be obtained directly and at high speed from the road image by m times of product-sum operations. However, in practice, since the operation amount is affected by the speed of the vehicle, a map of the contribution ratio for each speed is required. For this reason, a large-capacity memory for storing the map of the contribution ratio is required. In addition, when the map of the contribution ratio corresponding to the vehicle speed is selected, and when the map of the contribution ratio corresponding to the speed does not exist, the speed is determined. A large amount of processing time is required for the interpolation calculation for finding the contribution rate corresponding to.
【0014】又、(1) 式は、分割領域間の相互作用を考
慮していない。例えば、分割領域a11と分割領域a12に
ついてみると、この2つの分割領域から求まる操作量
は、(1) 式によれば、r11×g11+r12×g12で決定さ
れる。すなわち、(1) 式は、r11とr12の値で決まり、
r11とr12との相互作用を表す項(r11+r12)×g
11.12 (g11.12 はr11およびr12の寄与率)が存在し
ない。この相互作用を加味するためには、全ての領域間
の相互作用を表す寄与率のマップを各速度毎に準備する
必要がある。このため、寄与率のマップを記憶するの
に、膨大な容量のメモリが必要となると共に、操作量を
演算するのに多くの時間が必要となる。又、相互作用に
非線形要素が含まれる場合には、寄与率を数式で解くこ
とも困難である。Equation (1) does not consider the interaction between the divided areas. For example, regarding the divided area a 11 and the divided area a 12 , the operation amount obtained from the two divided areas is determined by r 11 × g 11 + r 12 × g 12 according to the equation (1). That is, equation (1) is determined by the values of r 11 and r 12 ,
A term (r 11 + r 12 ) × g representing the interaction between r 11 and r 12
11.12 (g 11.12 is the contribution of r 11 and r 12 ) does not exist. In order to take this interaction into account, it is necessary to prepare a map of the contribution ratio representing the interaction between all the regions for each speed. Therefore, an enormous amount of memory is required to store the map of the contribution ratio, and much time is required to calculate the operation amount. Further, when a nonlinear element is included in the interaction, it is also difficult to solve the contribution ratio by a mathematical expression.
【0015】これらの問題を解決するために、本発明者
等は、道路画像又は道路画像と車速等の他の要素を入力
データとし、車両の操作量を出力データとするニューラ
ルネットワークを導入した。このニューラルネットワー
クは、各種の道路画像又は道路画像と車速等の他の要素
から成る入力データに対して、最適な操作量を教師信号
として予め学習されている。このように、道路画像と操
作量との間の関係が非線形な関係を含めて、ニューラル
ネットワークの結合係数として学習される。この結合係
数の学習により、上述のように寄与率を解くことができ
ない場合にも、道路画像からその道路環境に最適な操作
量を直接的に求めることが可能となる。In order to solve these problems, the present inventors have introduced a neural network in which a road image or a road image and other elements such as a vehicle speed are used as input data, and a vehicle operation amount is used as output data. This neural network is learned in advance with respect to input data including various road images or road images and other elements such as vehicle speed, using an optimal operation amount as a teacher signal. As described above, the relationship between the road image and the operation amount, including the nonlinear relationship, is learned as the coupling coefficient of the neural network. By learning the coupling coefficient, even when the contribution rate cannot be solved as described above, it becomes possible to directly obtain the optimal operation amount for the road environment from the road image.
【0016】尚、交差点においては、何方の方向に進行
するべきかの運転者の意図が必要となるので、道路環境
から一意的には車両の操作量を求めることができない
が、そのような場合には、別の手段、たとえば、公知の
ナビゲーション装置を用いたり、交差点で進行方向を直
接指定したりすることになる。At an intersection, the driver's intention of which direction the vehicle should proceed is required. Therefore, it is not possible to uniquely determine the operation amount of the vehicle from the road environment. In this case, another means, for example, a known navigation device is used, or the traveling direction is directly designated at an intersection.
【0017】図1は本実施例装置の全体の構成を示した
ブロック図である。CCDカメラ10は、車両1の走行
方向の前方の走行路を撮像するように、車両1の車室内
の天井部に進行方向前方に面して取り付けられている。
CCDカメラ10は画像処理装置12によりある一定の
周期で駆動され、車両の走行とリアルタイムで、車両の
走行方向前方の走行環境を撮像する。CCDカメラ10
の1フレームの各画素は、画像処理装置12により走査
され、各画素毎の濃淡レベルがディジタル化される。そ
のディジタル化された1フレームの画像データはフレー
ムメモリ14に記憶される。FIG. 1 is a block diagram showing the overall configuration of the apparatus according to the present embodiment. The CCD camera 10 is mounted on the ceiling of the vehicle 1 facing forward in the traveling direction so as to capture an image of a traveling path ahead in the traveling direction of the vehicle 1.
The CCD camera 10 is driven at a certain period by the image processing device 12, and captures an image of the traveling environment ahead of the vehicle in the traveling direction in real time with the traveling of the vehicle. CCD camera 10
Each pixel of one frame is scanned by the image processing device 12, and the gray level of each pixel is digitized. The digitized image data of one frame is stored in the frame memory 14.
【0018】次に、画像処理装置12は、所定の撮像周
期で、図2に示す処理を繰り返し実行する。ステップ1
00では、フレームメモリ14から1フレームの画像デ
ータが読出される。そして、ステップ102において、
読み出された画像データから良く知られたグラジェント
演算により微分画像が生成され、その微分画像は微分画
像メモリ16に記憶される。次に、ステップ104にお
いて、微分画像メモリ16に生成された微分画像からエ
ッジ線分が抽出される。更に、ステップ106におい
て、抽出された多数のエッジ線分間の相互距離、相互角
が演算され、同一の長い線分や、曲率の等しい連続した
曲線を構成する複数のエッジ線分をクラスタリングす
る。これにより、連続直線、連続曲線が抽出可能とな
る。Next, the image processing apparatus 12 repeatedly executes the processing shown in FIG. 2 at a predetermined imaging cycle. Step 1
At 00, one frame of image data is read from the frame memory 14. Then, in step 102,
A differential image is generated by a well-known gradient operation from the read image data, and the differential image is stored in the differential image memory 16. Next, in step 104, an edge line segment is extracted from the differential image generated in the differential image memory 16. Further, in step 106, the mutual distance and mutual angle between the extracted many edge lines are calculated, and the same long line segment and a plurality of edge line segments constituting a continuous curve having the same curvature are clustered. Thereby, a continuous straight line and a continuous curve can be extracted.
【0019】次に、ステップ108において、道路の縁
石ラインや道路両端ラインのパターンマッチングによ
り、道路の両側の縁石ライン等が特定される。次に、ス
テップ110において、得られた画像において、道路形
状のパターンマッチングにより道路部分が特定される。
この結果得られた道路部分の画像は、図3に示すような
画像となる。図3に示すような道路部分の画像は道路画
像メモリ18に記憶される。Next, in step 108, curb lines on both sides of the road and the like are specified by pattern matching of the curb lines of the road and both end lines of the road. Next, in step 110, a road portion is specified by pattern matching of the road shape in the obtained image.
The image of the road portion obtained as a result is an image as shown in FIG. The image of the road portion as shown in FIG. 3 is stored in the road image memory 18.
【0020】次に、ステップ112において、道路画像
メモリ18上の撮像画面は、図4に示すように小領域に
分割される。即ち、車両の進行方向にはm分割、進行方
向に垂直な車両の幅方向にはn分割される。運転席から
見た道路画像を作成するための画像処理範囲は、図4に
示す範囲である。即ち、視点の高さはH(m) 、可視距離
は運転者の位置から前方にXO(m)からXL(m) の範
囲、位置XOにおける左右の可視範囲はWX0(m) 、位
置XLでの左右の可視範囲はWXLである。尚、WXL
=XL/XO×WXOである。また、位置XLにおい
て、左右の可視範囲をWXN(WXN≦WXL)として
も良い。このようにすることで、遠方での不要な画像を
削除することができる。Next, in step 112, the captured image on the road image memory 18 is divided into small areas as shown in FIG. That is, the vehicle is divided into m parts in the traveling direction and n parts in the width direction of the vehicle perpendicular to the traveling direction. The image processing range for creating a road image viewed from the driver's seat is the range shown in FIG. That is, the height of the viewpoint is H (m), the visible distance is in the range from XO (m) to XL (m) forward from the driver's position, the left and right visible ranges at position XO are WX0 (m), and position XL. The visible range on the left and right is WXL. In addition, WXL
= XL / XO × WXO. At the position XL, the left and right visible ranges may be set to WXN (WXN ≦ WXL). In this way, unnecessary images at a distant place can be deleted.
【0021】この画像処理範囲は、左右方向(横方向)
にn、車両の進行方向(縦方向)にm分割される。左右
方向の分割は等距離に分割される。又、進行方向の分割
は、視点と位置XOを結ぶ線分と、視点と位置XLを結
ぶ線分との成す角(視角)θを等角度で分割することで
行われる。 具体的には、視点の高さ: H=1.0(m) 画像処理範囲: XO= 2.0(m) 、XL=8.0(m) WXO=10.0(m) 、WXL=40.0(m) 、WXN=20.0
(m) 画像分解能: n=20、m=6 である。This image processing range is in the horizontal direction (horizontal direction).
Is divided into n and m in the traveling direction (longitudinal direction) of the vehicle. The division in the left-right direction is divided into equal distances. The division in the traveling direction is performed by dividing an angle (viewing angle) θ between a line segment connecting the viewpoint and the position XO and a line segment connecting the viewpoint and the position XL at an equal angle. Specifically, the height of the viewpoint: H = 1.0 (m) Image processing range: XO = 2.0 (m), XL = 8.0 (m) WXO = 10.0 (m), WXL = 40.0 (m), WXN = 20.0
(m) Image resolution: n = 20, m = 6.
【0022】図5は、n×mの小領域に分割された領域
をapqとし、各分割領域apqを、全て同一面積、同一形
状の正方形で表した時の画像処理範囲を示す。ステップ
114において、各分割領域apqが、図3に示す道路部
分で占有される割合rpqが演算される。そして、ステッ
プ116において、この占有割合rpqが道路データとし
て、道路データメモリ20に記憶される。この道路デー
タrpqとしては、各分割領域apqの中心位置に道路が存
在する時「1」、道路が存在しない時「0」の2値とし
ても良い。各分割領域apqは画像処理範囲をn×mに分
割した各領域を示すが、図5において「×」で示された
分割領域は、前述の如く遠方での不要な画像として調査
の範囲から除外された可視領域外の分割領域である。従
って、可視領域外の分割領域の道路データrpqは、道路
部分の存在に係わらず「0」である。FIG. 5 shows an image processing range when a region divided into n × m small regions is a pq and each divided region a pq is represented by a square having the same area and the same shape. In step 114, a ratio r pq of each divided area a pq occupied by the road portion shown in FIG. 3 is calculated. Then, in step 116, the occupation ratio rpq is stored in the road data memory 20 as road data. The road data r pq may be a binary value “1” when a road exists at the center position of each divided area a pq and “0” when no road exists. Each divided area a pq indicates each area obtained by dividing the image processing range into n × m. In FIG. 5, the divided area indicated by “x” is an unnecessary image at a distant place from the range of the survey as described above. This is a divided region outside the excluded visible region. Therefore, the road data rpq of the divided region outside the visible region is “0” regardless of the existence of the road portion.
【0023】道路が図6に示すようなトラックに構成さ
れている場合には、車両の存在位置A,B,Cに対応し
て、撮像して得られた道路データrpqは、図7の
(A),(B),(C)に示すようになる。尚、図にお
いて、黒塗りの分割領域apqの道路データrpqは
「1」、即ち、道路部分の存在を意味し、白抜きの分割
領域apqの道路データrpqは「0」、即ち、道路部分の
不存在を意味する。(A)は車両がトラックの直線部分
を走行している時に得られる道路データを示し、(B)
は車両がトラックのコーナー部分に差し掛かった時に得
られる道路データを示し、(C)は車両がトラックのコ
ーナー部分を走行している時に得られる道路データを示
している。このようにして、画像処理装置12によって
得られた図7に示すような道路データrpqは、ステップ
116において、道路データメモリ20に記憶される。
以上のようにして、画像処理装置12は所定の撮像周期
に同期して、上記した演算を実行して道路データを道路
データメモリ20に生成する。When the road is constituted by a truck as shown in FIG. 6, road data rpq obtained by imaging corresponding to the vehicle locations A, B, and C is shown in FIG. (A), (B) and (C) are obtained. In the drawing, the road data r pq divided area a pq of black "1", i.e., to mean the presence of a road section, the road data r pq divided area a pq of the open box "0", i.e., Means the absence of a road section. (A) shows road data obtained when the vehicle is traveling on a straight line portion of a truck, (B)
Indicates road data obtained when the vehicle approaches the corner of the truck, and (C) indicates road data obtained when the vehicle is traveling on the corner of the truck. The road data rpq as shown in FIG. 7 obtained by the image processing device 12 in this way is stored in the road data memory 20 in step 116.
As described above, the image processing device 12 generates the road data in the road data memory 20 by executing the above-described calculation in synchronization with the predetermined imaging cycle.
【0024】一方、良く知られた車両のナビゲーション
装置50が用いられており、そのナビゲーション装置5
0は図8に示すように道路地図のデータを記憶した地図
データメモリ52と図8に示すように車両の交差点での
進行方向の指令値を記憶した走行経路データメモリ56
と車両の現在の位置及び方位を演算する位置演算装置5
4とで構成されている。そして、位置演算装置54によ
って時々刻々演算される車両の現在位置と地図データと
から、車両の現在位置が地図上で特定される。たとえ
ば、図8に示すように、現在位置は、位置a又は位置b
のように地図上で特定される。この位置の特定データは
画像処理装置30に出力される。On the other hand, a well-known vehicle navigation device 50 is used.
0 is a map data memory 52 that stores road map data as shown in FIG. 8 and a travel route data memory 56 that stores a command value of a traveling direction at an intersection of vehicles as shown in FIG.
Calculation device 5 for calculating the current position and direction of the vehicle
4. Then, the current position of the vehicle is specified on the map from the current position of the vehicle calculated every moment by the position calculation device 54 and the map data. For example, as shown in FIG. 8, the current position is the position a or the position b.
As specified on the map. The specific data of this position is output to the image processing device 30.
【0025】画像処理装置30は、図9に示す処理を実
行する装置である。ステップ200において、道路デー
タメモリ20に形成されている現在の道路データが入力
され、ステップ202において、その道路データが交差
点を示すか否かが判定される。車両が現在進行している
道路が車両の進行方向が多岐に別れる交差点に差し掛か
ったか否かの道路データによる判定は、予め準備された
多数の交差点パターンと照合するか否かで実行される。The image processing device 30 is a device for executing the processing shown in FIG. In step 200, the current road data formed in the road data memory 20 is input, and in step 202, it is determined whether or not the road data indicates an intersection. The determination based on the road data as to whether or not the road on which the vehicle is currently traveling has reached an intersection where the traveling direction of the vehicle diverges is performed based on whether or not the road is compared with a number of intersection patterns prepared in advance.
【0026】道路データが交差点を示すものでない場合
には、ステップ204において、位置演算装置54の出
力が交差点を示すか否かが判定され、判定結果がNOの場
合には、ステップ200に戻り、次の撮像周期に同期し
て、道路データを入力して、同様な判定が実行される。
このように、通常は、撮像周期に同期して生成された道
路データ及び位置演算装置54の出力結果から車両が交
差点に差し掛かったか否かが常時監視されている。If the road data does not indicate an intersection, it is determined in step 204 whether or not the output of the position calculation device 54 indicates an intersection. If the determination result is NO, the process returns to step 200, and Similar determination is performed by inputting road data in synchronization with the next imaging cycle.
As described above, usually, whether or not the vehicle has approached the intersection is constantly monitored based on the road data generated in synchronization with the imaging cycle and the output result of the position calculation device 54.
【0027】画像処理装置30により車両が交差点付近
に差し掛かったと判定された場合には、画像処理装置3
0は、ステップ206において位置演算装置54から地
図上の車両の位置を特定する特定データを入力する。そ
して、ステップ208において、その特定データに基づ
いて、走行経路データメモリ56をアクセスして、道路
上の特定位置での進行方向の指令値を入力する。If the image processing device 30 determines that the vehicle is approaching the intersection, the image processing device 3
In step 206, specific data for specifying the position of the vehicle on the map is input from the position calculation device 54 in step 206. Then, in step 208, the travel route data memory 56 is accessed based on the specific data, and a command value for the traveling direction at the specific position on the road is input.
【0028】次に、画像処理装置30は、ステップ21
0において、この進行方向の指令値に基づいて、道路デ
ータメモリ20に現在作成されている道路データにおい
て、車両の進行方向の道路データだけ残し、車両が進行
しない方向の道路データを「0」とする。たとえば、図
8の道路地図上で、車両が位置a、位置bのように交差
点に差し掛かった場合には、道路データメモリ20に形
成されている道路データは図10に示すようになってい
る。車両が図8の位置aに位置する場合には、走行経路
データメモリ56から与えられるその時の走行経路の指
令値は「右折」である。従って、この場合には、画像処
理装置30は、図11の(A)に示すように、車両の左
方向及び直進方向の非進行方向の道路データを「0」と
してマスクする。Next, the image processing apparatus 30 executes step 21
0, based on the command value of the traveling direction, the road data currently created in the road data memory 20 leaves only the road data in the traveling direction of the vehicle, and sets the road data in the direction in which the vehicle does not travel to “0”. I do. For example, when a vehicle approaches an intersection like a position a and a position b on the road map of FIG. 8, the road data formed in the road data memory 20 is as shown in FIG. When the vehicle is located at the position a in FIG. 8, the command value of the traveling route at that time provided from the traveling route data memory 56 is “turn right”. Therefore, in this case, as shown in FIG. 11A, the image processing device 30 masks the road data in the non-traveling direction of the left direction and the straight traveling direction of the vehicle as “0”.
【0029】また、車両が図8の位置bの交差点に差し
掛かっている場合には、走行経路データメモリ56から
与えられるその時の走行経路の指令値は「直進」であ
る。よって、この場合には、画像処理装置30は、図1
1の(B)に示すように、車両の左右方向の非進行方向
の道路データを「0」としてマスクする。尚、走行経路
の指令値は、走行経路データメモリ56に予め記憶させ
る他、車両の走行とリアルタイムで交差点に差し掛かっ
た時に、運転者によって与えるようにしても良い。When the vehicle is approaching the intersection at the position b in FIG. 8, the command value of the traveling route at that time given from the traveling route data memory 56 is "straight ahead". Therefore, in this case, the image processing device 30
As shown in (B) of FIG. 1, road data in the non-traveling direction in the left-right direction of the vehicle is masked as “0”. The command value of the travel route may be stored in advance in the travel route data memory 56 or may be given by the driver when the vehicle approaches the intersection in real time with the travel of the vehicle.
【0030】道路データメモリ30に形成された図11
に示すような進行方向の道路形状を示す各分割領域apq
の各道路データrpqは、ニューラルネットワーク40の
入力層の各入力素子に入力する。又、車速検出器22に
より測定された車両の現在における車速データは、ニュ
ーラルネットワーク40の入力層の1つの入力素子に入
力する。FIG. 11 formed in the road data memory 30
Each divided area a pq indicating the road shape in the traveling direction as shown in
Each road data r pq of inputs to each input element of the input layer of the neural network 40. The current vehicle speed data of the vehicle measured by the vehicle speed detector 22 is input to one input element of the input layer of the neural network 40.
【0031】ニューラルネットワーク40は、図12に
示すように、入力層401と出力層402とで構成され
ている。入力層401は、道路データのデータ点数(1
20)と車速データのデータ点数(1)を入力する12
1個の入力素子で構成されており、出力層402は、ア
クセル、ブレーキ、操舵量の3種の車両の操作量Ac,
Br,Stを出力する3個の出力素子で構成されてい
る。The neural network 40 includes an input layer 401 and an output layer 402, as shown in FIG. The input layer 401 stores the data points (1
20) and input the number of data points (1) of the vehicle speed data 12
The output layer 402 is composed of one input element, and the output layer 402 has three types of operation amounts Ac,
It is composed of three output elements that output Br and St.
【0032】ニューラルネットワークは、図12に示す
ように2層とする他、図13に示すように、中間層40
3を設けても良い。さらに、この中間層は、任意の複数
の層で構成されていても良い。ニューラルネットワーク
は、一般的に、次の演算を行う装置として定義される。
第i 層の第j 番目の素子の出力Oi j は、次式で演算され
る。但し、i ≧2 である。The neural network has two layers as shown in FIG. 12 and an intermediate layer 40 as shown in FIG.
3 may be provided. Further, the intermediate layer may be composed of an arbitrary plurality of layers. A neural network is generally defined as a device that performs the following operations.
Output O i j of the j-th element of the i-layer is calculated by the following equation. Here, i ≧ 2.
【0033】[0033]
【数2】 Oi j =f(Ii j) …(2)[Equation 2] O i j = f (I i j ) (2)
【数3】 Ii j=ΣWi-1 k, i j・Oi-1 k +Vi j …(3) k [Equation 3] I i j = ΣW i-1 k, i j · O i-1 k + V i j ... (3) k
【数4】 f(x)=1/{1+exp(-x)} …(4)[Equation 4] f (x) = 1 / {1 + exp (-x)}… (4)
【0034】但し、Vi j は第i 層の第j 番目の演算素子
のバイアス、Wi-1 k, i jは、第i-1 層の第k 番目の素子と
第i 層の第j 番目の素子間の結合係数、O1 j は第1 層の
第 j番目の素子の出力値を表す。即ち、第1 層であるか
ら演算を行うことなく、そのまま入力を出力するので、
入力層(第1層)の第j 番目の素子の入力値でもある。
従って、[0034] However, V i j bias of the j th processing element of the i-th layer, W i-1 k, i j is the first i-1 layer k-th element and the j of the i-th layer The coupling coefficient between the first element and O 1 j represents the output value of the j-th element in the first layer. That is, since it is the first layer, the input is output as it is without performing any operation,
It is also the input value of the j-th element in the input layer (first layer).
Therefore,
【0035】[0035]
【数5】 O1 j=rpq …(5) 即ち、O1 jは、各分割領域apqの道路データrpqに等
しい。Equation 5] O 1 j = r pq ... ( 5) i.e., O 1 j is equal to the road data r pq of the divided regions a pq.
【0036】次に、図13に示す3層構造のニューラル
ネットワーク41の演算手順について図14を参照して
説明する。なお、ニューラルネットワーク41の中間層
の素子数はs個である。ステップ300において、中間
層(第2層)の第j 番目の素子は、入力層(第1層)の
各素子からの出力値O1 j =(rpq) を入力して、(3) 式を
具体化した次式の積和関数演算を行なう。Next, the calculation procedure of the neural network 41 having a three-layer structure shown in FIG. 13 will be described with reference to FIG. The number of elements in the intermediate layer of the neural network 41 is s. In step 300, the j-th element of the intermediate layer (second layer) receives the output value O 1 j = (r pq ) from each element of the input layer (first layer), and obtains equation (3). Then, the product-sum function operation of the following equation is performed.
【数6】 121 I2 j=ΣW1 k, 2 j・O1 k+V2 j …(6) k=1 (Equation 6)121 ITwo j= ΣW1 k, Two j・ O1 k+ VTwo j … (6)k = 1
【0037】次に、ステップ302において、次式によ
り、(6) 式で表される入力値の積和関数値のシグモイド
関数により、中間層(第2層)の各素子の出力が演算さ
れる。第2層の第j 番目の素子の出力値は次式で演算さ
れる。Next, in step 302, the output of each element of the intermediate layer (second layer) is calculated by the following equation using the sigmoid function of the product-sum function value of the input value expressed by equation (6). . The output value of the j-th element in the second layer is calculated by the following equation.
【0038】[0038]
【数7】 O2 j=f(I2 j )=1/{1+exp(-I2 j) } …(7) この出力値 O2 j は出力層(第3層)の各素子の入力値
となる。次に、ステップ304において、出力層(第3
層)の各素子の入力値の積和演算が実行される。O 2 j = f (I 2 j ) = 1 / {1 + exp (−I 2 j )… (7) The output value O 2 j is the value of each element of the output layer (third layer). Input value. Next, in step 304, the output layer (third
The product-sum operation of the input values of each element of the layer is executed.
【0039】[0039]
【数8】 s I3 j=ΣW2 k, 3 j・O2 k +V3 j …(8) k=1 次に、ステップ306において、(7) 式と同様に、シ
グモイド関数により、出力層の各素子の出力値が演算さ
れる。この出力値 O3 j は、それぞれ、アクセル、ブレ
ーキ、ステアリングの操作量を示す。即ち、操作量 O3
j は次式で求められる。(Equation 8)s IThree j= ΣWTwo k, Three j・ OTwo k+ VThree j … (8)k = 1 Next, in step 306, similar to equation (7),
The output value of each element in the output layer is calculated using the Gmoid function.
It is. This output value OThree jAre the accelerator and blur, respectively.
Indicates the amount of steering and steering operation. That is, the operation amount OThree
jIs obtained by the following equation.
【0040】[0040]
【数9】 O3 j=f(I3 j)=1/{1+exp(-I3 j)} …(9)[Equation 9] O 3 j = f (I 3 j ) = 1 / {1 + exp (-I 3 j )} (9)
【0041】尚、このニューラルネットワークは、図1
5に示す手順で学習される。結合係数は良く知られたバ
ックプロパーゲーション法により実行される。この学習
は、各種の道路データを入力とし、その道路データに最
適な操作量を教師信号として予め実行される他、車両の
現実の運転時に運転者により操作される適正な操作量を
教師信号として実行することもできる。この場合、長く
使用されるに伴って、更に適正な操作量が求められるこ
とになる。This neural network is similar to that shown in FIG.
The learning is performed according to the procedure shown in FIG. The coupling coefficient is performed by a well-known back propagation method. This learning is performed in advance by inputting various road data and using an optimal operation amount for the road data as a teacher signal in addition to an appropriate operation amount operated by a driver during actual driving of the vehicle as a teacher signal. You can also do it. In this case, as the device is used for a long time, a more appropriate operation amount is required.
【0042】図15のステップ400において、次式に
より出力層の各素子の学習信号δ3 jが演算される。In step 400 of FIG. 15, a learning signal δ 3 j for each element in the output layer is calculated by the following equation.
【数10】 δ3 j=(Tj-O3 j)・f'(I3 j) …(10) 但し、Tj は出力である操作量 O3 j に対する教師信号
であり、外部から付与される。又、f'(x) はシグモイド
関数の導関数である。Δ 3 j = (T j −O 3 j ) · f ′ (I 3 j ) (10) where T j is a teacher signal for the manipulated variable O 3 j as an output, and is externally given. Is done. F ′ (x) is a derivative of the sigmoid function.
【0043】次に、ステップ402において、中間層の
学習信号δ2 j が次式で演算される。Next, in step 402, the learning signal δ 2 j of the intermediate layer is calculated by the following equation.
【数11】 3 δ2 j= f'(I2 j)・Σδ3 k・W2 j, 3 k …(11) k=1 [Equation 11] 3 δ 2 j = f ′ (I 2 j ) · Σδ 3 k · W 2 j, 3 k … (11) k = 1
【0044】次に、ステップ404において、出力層
の各結合係数が補正される。補正量は次式で求められ
る。Next, in step 404, each coupling coefficient of the output layer is corrected. The correction amount is obtained by the following equation.
【数12】 Δω2 i, 3 j(t)=P・δ3 j・O2 i +Q・Δω2 i, 3 j(t-1) …(12) 但し、Δω2 i, 3 j(t) は、出力層の第j 番目の素子と中
間層の第i 番目の素子との間の結合係数の第t 回目演算
の補正量である。又、Δω2 i, 3 j(t-1) は、その結合係
数の前回の補正量である。P,Q は比例定数である。よっ
て、結合係数は、Δω 2 i, 3 j (t) = P · δ 3 j · O 2 i + Q · Δω 2 i, 3 j (t-1) (12) where Δω 2 i, 3 j ( t) is the correction amount of the t-th calculation of the coupling coefficient between the j-th element of the output layer and the i-th element of the intermediate layer. Δω 2 i, 3 j (t−1) is the previous correction amount of the coupling coefficient. P and Q are proportional constants. Therefore, the coupling coefficient is
【0045】[0045]
【数13】 W2 i, 3 j+Δω2 i, 3 j(t) →W2 i, 3 j …(13) により、補正された結合係数が求められる。次に、ステ
ップ406へ移行して、中間層の各素の結合係数が補正
される。その結合係数の補正量は出力層の場合と同様
に、次式で求められる。(13) The corrected coupling coefficient is obtained from W 2 i, 3 j + Δω 2 i, 3 j (t) → W 2 i, 3 j (13) Next, the process proceeds to step 406, where the coupling coefficient of each element of the intermediate layer is corrected. The correction amount of the coupling coefficient is obtained by the following equation, as in the case of the output layer.
【0046】[0046]
【数14】 Δω1 i, 2 j(t)=P・δ2 j・O1 i +Q・Δω1 i, 2 j(t-1) …(14) よって、結合係数は、Δω 1 i, 2 j (t) = P · δ 2 j · O 1 i + Q · Δω 1 i, 2 j (t−1) (14) Therefore, the coupling coefficient is
【数15】 W1 i, 2 j + Δω1 i, 2 j(t) →W1 i, 2 j …(15) により、補正された結合係数が求められる。## EQU15 ## The corrected coupling coefficient is obtained from W 1 i, 2 j + Δω 1 i, 2 j (t) → W 1 i, 2 j (15).
【0047】次に、ステップ408において、結合係数
の補正量が所定の値以下になったか否かを判定して、結
合係数が収束したか否かが判定される。結合係数が収束
していなければ、ステップ400に戻り、新たに補正さ
れた結合係数を用いて、同様な演算が繰り返され、結合
係数が再度補正される。このような演算の繰り返しによ
り、学習が完了する。Next, in step 408, it is determined whether or not the correction amount of the coupling coefficient has become a predetermined value or less, and it is determined whether or not the coupling coefficient has converged. If the coupling coefficient has not converged, the process returns to step 400, and the same operation is repeated using the newly corrected coupling coefficient, so that the coupling coefficient is corrected again. The learning is completed by repeating such calculations.
【0048】上記のニューラルネットワークの学習は、
熟練した運転者の運転により図6のようなトラックや一
般の道路を多数回走行して、得られる道路データを入力
とし、運転者による操作量を教師信号とすることで、実
行することができる。Learning of the above neural network is as follows.
It can be executed by traveling a truck or a general road many times as shown in FIG. 6 by a skilled driver, inputting the obtained road data, and using the operation amount by the driver as a teacher signal. .
【0050】図12に示すニューラルネットワーク40
の出力は、アクセル、ブレーキ、ステアリングの各操作
量Ac,Br,Stであるが、3種の操作量を全て用い
ても良く、又、任意の2種又は1種の操作量であっても
良い。図12のニューラルネッワーク40の結合係数
は、分割領域apqにおける寄与率gpqである。又、この
結合係数には、車速による影響も当然に含まれる。又、
図13に示すように多層構造のニューラルネットワーク
41を用いた場合には、分割領域間の相互作用、分割領
域と車速との相互作用が考慮された操作量を得ることが
できる。The neural network 40 shown in FIG.
Are the operation amounts Ac, Br, and St of the accelerator, brake, and steering, but all three operation amounts may be used, or any two or one operation amount may be used. good. The coupling coefficient of the neural network 40 in FIG. 12 is a contribution ratio g pq in the divided area a pq . The coupling coefficient naturally includes the influence of the vehicle speed. or,
As shown in FIG. 13, when the neural network 41 having a multilayer structure is used, it is possible to obtain an operation amount in consideration of the interaction between the divided regions and the interaction between the divided region and the vehicle speed.
【0051】このようにして、学習されたニューラルネ
ットワークを用いて、現実の走行時にニューラルネット
ワークから得られた操作量は、走行制御装置24に入力
する。走行制御装置24は車両1のアクセル、ブレー
キ、ステアリングを駆動して、車両の挙動を道路環境に
応じて最適化する。一方、警報装置として用いるときは
ニューラルネットワーク40の出力は比較装置26に入
力する。又、比較装置26において、運転者により操作
された車両1の操作量が入力され、その操作量とニュー
ラルネットワーク40の出力する操作量とが比較され
る。そして、差が所定値以上となった場合には、警報装
置28が駆動されて、運転者の操作がニューラルネット
ワーク40による操作量と大きく外れていることを警報
することにより、居眠りなどによる操作ミスを防ぐこと
ができる。The operation amount obtained from the neural network at the time of actual traveling using the learned neural network is input to the traveling control device 24. The travel control device 24 drives the accelerator, brake, and steering of the vehicle 1 to optimize the behavior of the vehicle according to the road environment. On the other hand, when used as an alarm device, the output of the neural network 40 is input to the comparison device 26. The operation amount of the vehicle 1 operated by the driver is input to the comparison device 26, and the operation amount is compared with the operation amount output from the neural network 40. When the difference is equal to or more than the predetermined value, the alarm device 28 is driven to warn that the driver's operation is largely out of the operation amount by the neural network 40, thereby causing an operation error due to falling asleep or the like. Can be prevented.
【0052】上記の図13に示すニューラルネットワー
ク41に代えて、図16に示すようにニューラルネット
ワークを用いることが可能である。図16に示すニュー
ラルネットワークは、運転者によるステアリングの操作
量を入力値に加えている。そして、ステアリングの現実
の操作量と道路データと車速のそれぞれの相互作用が加
味されて、アクセルとブレーキの操作量が決定される。
このように、ニューラルネットワークの入力値にステア
リングの現実の操作量を用いているので、運転者がステ
アリング操作量を自ら決定する場合は、運転者の意志に
更に忠実に適切なアクセルおよびブレーキの操作量を決
定することができる。Instead of the neural network 41 shown in FIG. 13, it is possible to use a neural network as shown in FIG. The neural network shown in FIG. 16 adds the amount of steering operation by the driver to the input value. Then, the actual operation amount of the steering, the interaction between the road data and the vehicle speed are taken into account, and the operation amount of the accelerator and the brake is determined.
As described above, since the actual operation amount of the steering is used as the input value of the neural network, when the driver determines the steering operation amount by himself / herself, the operation of the accelerator and the brake is more faithfully performed according to the driver's will. The amount can be determined.
【0053】又、ニューラルネットワークは図17に示
すような構成とすることもできる。この場合には、ニュ
ーラルネットワークの入力は、道路データ、車速、前回
制御時(微小時間前)のアクセル、ブレーキ、ステアリ
ングの操作量であり、出力はアクセル、ブレーキ、ステ
アリングの操作量の変化ΔAc,ΔBr,ΔStであ
る。このニューラルネットワークは、前回制御時の操作
量、道路データ、車速を入力データとして、操作量の変
化を教師信号として学習される。尚、入力データの操作
量と出力の操作量の変化は、アクセル、ブレーキ、ステ
アリング操作量の中の任意の1種、任意の2種であって
も良い。The neural network may have a configuration as shown in FIG. In this case, the inputs of the neural network are road data, vehicle speed, and the operation amount of the accelerator, brake, and steering at the time of the previous control (before a minute time), and the output is the change ΔAc, of the operation amount of the accelerator, brake, and steering. ΔBr and ΔSt. This neural network learns the operation amount, road data, and vehicle speed at the time of the previous control as input data, and a change in the operation amount as a teacher signal. The change in the operation amount of the input data and the change in the operation amount of the output may be any one type or any two types of accelerator, brake, and steering operation amounts.
【0054】又、ニューラルネットワークは、図18に
示すように構成しても良い。このニューラルネットワー
クを用いれば、過去の履歴データを入力して、出力され
る操作量をより最適化することができる。即ち、ニュー
ラルネットワークの入力データは、前回制御時の道路デ
ータと車速及び今回制御時の道路データと車速である。
ニューラルネットワークの出力はアクセル、ブレーキ、
ステアリングの操作量である。前回制御時の道路データ
と車速が今回制御時のそれらのデータとの相互作用を含
めて考慮されることから、道路データと車速の連続性が
考慮されることになり、より最適な操作量が求められ
る。このニューラルネットワークの学習は、過去の道路
データと車速を入力データとして、この時の操作量を教
師信号とすることで実行することが可能である。又、こ
のニューラルネットワークにおいて、出力を前回制御時
における操作量からの操作量の変化とすることもでき
る。その場合には、教師信号は操作量の変化が用いられ
る。The neural network may be configured as shown in FIG. With this neural network, past history data can be input, and the output operation amount can be further optimized. That is, the input data of the neural network are the road data and the vehicle speed during the previous control and the road data and the vehicle speed during the current control.
The outputs of the neural network are accelerator, brake,
This is the steering operation amount. Since the road data at the previous control and the vehicle speed are considered including the interaction with those data at the current control, the continuity of the road data and the vehicle speed is taken into account, and a more optimal operation amount is reduced. Desired. This learning of the neural network can be executed by using past road data and vehicle speed as input data and using the operation amount at this time as a teacher signal. Further, in this neural network, the output may be a change in the operation amount from the operation amount in the previous control. In that case, a change in the operation amount is used as the teacher signal.
【0055】[0055]
【発明の効果】以上述べたように、本発明は、車両の走
行時において、走行路面をリアルタイムで撮像し、その
撮像画像から各分割領域毎に道路部分を特定した道路デ
ータを生成し、その道路データをニューラルネットワー
クの入力値として車両の挙動を決定する操作量を出力値
とするようにしたものである。従って、道路環境から直
接に車両の挙動を決定する操作量を求めることができる
ので、操作量の決定時間を極めて短くすることができ
る。又、操作量の決定は、ニューラルネットワークの結
合係数によって行われることから、アルゴリズムにより
操作量を決定する場合に比べて、演算速度が向上し、記
憶装置の容量が少なくて済む。更に、ニューラルネット
ワークの結合係数は、現実の車両の走行と並行して学習
させることができるので、道路環境により最適化された
操作量を得ることができる。As described above, according to the present invention, when a vehicle is traveling, a road surface is imaged in real time, and road data in which a road portion is specified for each divided region is generated from the captured image. The road data is used as an input value of the neural network, and an operation amount for determining the behavior of the vehicle is used as an output value. Therefore, since the operation amount for determining the behavior of the vehicle can be obtained directly from the road environment, the time for determining the operation amount can be extremely shortened. Further, since the operation amount is determined by the coupling coefficient of the neural network, the operation speed is improved and the storage device capacity is smaller than when the operation amount is determined by an algorithm. Further, since the coupling coefficient of the neural network can be learned in parallel with the actual running of the vehicle, an operation amount optimized by the road environment can be obtained.
【図1】本発明の具体的な一実施例に係る操作量決定装
置の構成を示したブロック図。FIG. 1 is a block diagram showing a configuration of an operation amount determining device according to a specific embodiment of the present invention.
【図2】操作量決定装置の画像処理装置12の処理手順
を示したフローチャート。FIG. 2 is a flowchart showing a processing procedure of an image processing device 12 of the operation amount determining device.
【図3】撮像画面から道路部分を特定した画像を示した
説明図。FIG. 3 is an explanatory diagram showing an image in which a road portion is specified from an imaging screen.
【図4】撮像画面の分割を示した説明図。FIG. 4 is an explanatory diagram showing division of an imaging screen.
【図5】多数の分割領域で構成された画面を示した説明
図。FIG. 5 is an explanatory diagram showing a screen composed of a number of divided areas.
【図6】車両の走行する道路を示した説明図。FIG. 6 is an explanatory diagram showing a road on which a vehicle travels.
【図7】道路画像から生成された道路データを示した説
明図。FIG. 7 is an explanatory diagram showing road data generated from a road image.
【図8】道路網の構成と進行方向の指令を示した説明
図。FIG. 8 is an explanatory diagram showing a configuration of a road network and a command for a traveling direction.
【図9】画像処理装置30の処理手順を示したフローチ
ャート。FIG. 9 is a flowchart showing a processing procedure of the image processing apparatus 30.
【図10】交差点付近で得られる道路データを示した説
明図。FIG. 10 is an explanatory diagram showing road data obtained near an intersection.
【図11】進行方向の指令値に応じてマスク処理された
道路データを示した説明図。FIG. 11 is an explanatory diagram showing road data that has been masked in accordance with a command value for a traveling direction.
【図12】ニューラルネットワークの構成を示した構成
図。FIG. 12 is a configuration diagram showing a configuration of a neural network.
【図13】ニューラルネットワークの構成を示した構成
図。FIG. 13 is a configuration diagram showing a configuration of a neural network.
【図14】ニューラルネットワークでの演算手順を示し
たフローチャート。FIG. 14 is a flowchart showing a calculation procedure in the neural network.
【図15】ニューラルネットワークの学習手順を示した
フローチャート。FIG. 15 is a flowchart showing a learning procedure of the neural network.
【図16】他の実施例に係る操作量決定装置のニューラ
ルネットワークの構成を示した構成図。FIG. 16 is a configuration diagram showing a configuration of a neural network of an operation amount determination device according to another embodiment.
【図17】他の実施例に係る操作量決定装置のニューラ
ルネットワークの構成を示した構成図。FIG. 17 is a configuration diagram showing a configuration of a neural network of an operation amount determination device according to another embodiment.
【図18】他の実施例に係る操作量決定装置のニューラ
ルネットワークの構成を示した構成図。FIG. 18 is a configuration diagram showing a configuration of a neural network of an operation amount determination device according to another embodiment.
10…CCDカメラ 12…画像処理装置 20…道
路データメモリ 30…画像処理装置 40,41…ニューラルネットワ
ークReference Signs List 10 CCD camera 12 Image processing device 20 Road data memory 30 Image processing device 40, 41 Neural network
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G08G 1/09 G08G 1/09 V H04N 7/18 H04N 7/18 C (73)特許権者 000000011 アイシン精機株式会社 愛知県刈谷市朝日町2丁目1番地 (72)発明者 松成 文夫 愛知県愛知郡長久手町大字長湫字横道41 番地の1 株式会社豊田中央研究所内 (72)発明者 大嶋 満寿治 愛知県愛知郡長久手町大字長湫字横道41 番地の1 株式会社豊田中央研究所内 (72)発明者 吉田 浩之 愛知県愛知郡長久手町大字長湫字横道41 番地の1 株式会社豊田中央研究所内 (72)発明者 大田 一晴 愛知県刈谷市豊田町2丁目1番地 株式 会社豊田自動織機製作所内 (72)発明者 石本 豪 愛知県豊田市トヨタ町1番地 トヨタ自 動車株式会社内 (72)発明者 所 節夫 愛知県豊田市トヨタ町1番地 トヨタ自 動車株式会社内 (72)発明者 加藤 康聡 愛知県刈谷市昭和町1丁目1番地 日本 電装株式会社内 (72)発明者 浅野 憲司 愛知県刈谷市朝日町2丁目1番地 アイ シン精機株式会社内 (56)参考文献 特開 昭63−174199(JP,A) 特開 平4−12144(JP,A) 特開 平4−12143(JP,A) 特開 平4−12142(JP,A) 特開 平4−11522(JP,A) 特開 平3−282708(JP,A) 特開 平3−268110(JP,A) 特開 平3−235723(JP,A) 特開 平4−252308(JP,A) 特開 平2−238600(JP,A) 特開 平2−238599(JP,A) (58)調査した分野(Int.Cl.6,DB名) B60K 41/28 F02D 29/02 F02D 45/00 370 G06F 15/18 520 G08G 1/04 G08G 1/09 ────────────────────────────────────────────────── ─── Continued on the front page (51) Int.Cl. 6 Identification code FI G08G 1/09 G08G 1/09 V H04N 7/18 H04N 7/18 C (73) Patent holder 000000011 Aisin Seiki Co., Ltd. Kariya, Aichi 2-1-1, Asahi-cho, Yokohama-shi (72) Inventor Fumio Matsunari 41 41, Chuchu-Yokomichi, Oku-cho, Nagakute-cho, Aichi-gun, Aichi Prefecture Inside Toyota Central Research Laboratory Co., Ltd. No. 41, Chochu-Yokomichi, Toyota Central Research Institute, Inc. (72) Inventor Hiroyuki Yoshida 41, Nagakute-cho, Aichi-gun, Aichi Prefecture, Japan. No. 41, Toyota Chuo Research Institute, Inc. (72) Inventor Kazuharu Ota Aichi Prefecture 2-1-1 Toyota-cho, Kariya City Inside Toyota Industries Corporation (72) Inventor Go Ishimoto 1-Toyota-cho, Toyota-cho, Toyota-shi, Aichi Prefecture Toyota (72) Inventor Setsuo 1 Toyota Town, Toyota City, Aichi Prefecture Toyota Motor Corporation (72) Inventor Yasutoshi Kato 1-1-1 Showacho, Kariya City, Aichi Prefecture Japan Denso Co., Ltd. (72 Inventor Kenji Asano 2-1-1 Asahi-cho, Kariya-shi, Aichi Aisin Seiki Co., Ltd. (56) References JP-A-63-174199 (JP, A) JP-A-4-12144 (JP, A) JP-A-4-12143 (JP, A) JP-A-4-12142 (JP, A) JP-A-4-11522 (JP, A) JP-A-3-282708 (JP, A) JP-A-3-268110 (JP JP-A-3-235723 (JP, A) JP-A-4-252308 (JP, A) JP-A-2-238600 (JP, A) JP-A-2-238599 (JP, A) (58) Surveyed field (Int.Cl. 6 , DB name) B60K 41/28 F02D 29/02 F02D 45/00 370 G06F 15/18 520 G08G 1/04 G08G 1/09
Claims (1)
撮像し、撮像により得られた道路画像情報を多数の小領
域に分割し、この分割された分割領域毎に、この分割領
域における道路部分の存在情報を示した道路データを作
成する道路データ作成手段と、前記分割領域毎の各道路
データを、前記分割領域のそれぞれに対応して入力する
複数の入力素子と、前記車両の挙動を決定する操作値を
出力とする出力素子とを有するニューラルネットワーク
とを有することを特徴とする車両の操作量決定装置。An image of a traveling road surface of a vehicle is taken while the vehicle is traveling, road image information obtained by the imaging is divided into a number of small regions, and a road portion in each of the divided regions is divided. Road data generating means for generating road data indicating presence information of the vehicle, a plurality of input elements for inputting each road data for each of the divided areas corresponding to each of the divided areas, and determining a behavior of the vehicle. And a neural network having an output element that outputs an operation value to be operated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3059592A JP2934330B2 (en) | 1991-02-28 | 1991-02-28 | Vehicle operation amount determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3059592A JP2934330B2 (en) | 1991-02-28 | 1991-02-28 | Vehicle operation amount determination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04274935A JPH04274935A (en) | 1992-09-30 |
JP2934330B2 true JP2934330B2 (en) | 1999-08-16 |
Family
ID=13117665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3059592A Expired - Fee Related JP2934330B2 (en) | 1991-02-28 | 1991-02-28 | Vehicle operation amount determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2934330B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07189795A (en) * | 1993-12-28 | 1995-07-28 | Hitachi Ltd | Controller and control method for automobile |
JPH07225894A (en) * | 1994-02-15 | 1995-08-22 | Toshiba Corp | Vehicle traveling controller and its control acknowledge acquiring method |
JP3508328B2 (en) * | 1995-10-03 | 2004-03-22 | 松下電器産業株式会社 | Air-fuel ratio control device |
JPH08202877A (en) * | 1995-01-31 | 1996-08-09 | Toyota Motor Corp | Picture recognition device |
JP3758539B2 (en) * | 2001-09-10 | 2006-03-22 | 株式会社日立製作所 | Control apparatus and control method for automobile |
JP3758547B2 (en) * | 2001-10-10 | 2006-03-22 | 株式会社日立製作所 | Control device and control method for automobile |
DE10355221A1 (en) | 2003-11-26 | 2005-06-23 | Daimlerchrysler Ag | A method and computer program for detecting inattentiveness of the driver of a vehicle |
JP5277944B2 (en) * | 2008-12-22 | 2013-08-28 | 日産自動車株式会社 | Information providing apparatus and information providing method for vehicle |
US10997491B2 (en) | 2017-10-04 | 2021-05-04 | Huawei Technologies Co., Ltd. | Method of prediction of a state of an object in the environment using an action model of a neural network |
JP6832267B2 (en) * | 2017-10-30 | 2021-02-24 | 日本電信電話株式会社 | Value function parameter learning device, signal information instruction device, movement route instruction device, value function parameter learning method, signal information instruction method, movement route instruction method, and program |
JP6702390B2 (en) * | 2018-10-09 | 2020-06-03 | トヨタ自動車株式会社 | Vehicle drive control device, vehicle-mounted electronic control unit, learned model, machine learning system, vehicle drive control method, electronic control unit manufacturing method, and output parameter calculation device |
JP6702389B2 (en) * | 2018-10-09 | 2020-06-03 | トヨタ自動車株式会社 | Vehicle drive control device, vehicle-mounted electronic control unit, learned model, machine learning system, vehicle drive control method, electronic control unit manufacturing method, and output parameter calculation device |
-
1991
- 1991-02-28 JP JP3059592A patent/JP2934330B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04274935A (en) | 1992-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11816991B2 (en) | Vehicle environment modeling with a camera | |
CN111442776B (en) | Method and equipment for sequential ground scene image projection synthesis and complex scene reconstruction | |
US9884623B2 (en) | Method for image-based vehicle localization | |
JP2934330B2 (en) | Vehicle operation amount determination device | |
CN107808390A (en) | Estimated using the object distance of the data from single camera | |
CN101408978B (en) | Method and apparatus for detecting barrier based on monocular vision | |
US11720992B2 (en) | Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image | |
DE102020100685A1 (en) | PREDICTION OF TEMPORARY INFORMATION IN AUTONOMOUS MACHINE APPLICATIONS | |
DE102021119920A1 (en) | Method for predicting a trajectory of a vehicle | |
JP2020502850A (en) | Method and apparatus for creating a depiction of a periphery of a vehicle in a vehicle | |
JP2019139420A (en) | Three-dimensional object recognition device, imaging device, and vehicle | |
JP5388059B2 (en) | Object detection method and object detection apparatus based on background image estimation | |
CN113139567B (en) | Information processing apparatus, control method thereof, vehicle, recording medium, information processing server, information processing method, and program | |
US11869253B2 (en) | Vehicle environment modeling with a camera | |
CN116437189A (en) | Monitoring system for space | |
Seki et al. | Ego-motion estimation by matching dewarped road regions using stereo images | |
US20210190956A1 (en) | Ground surface imaging combining lidar and camera data | |
Dirdal | End-to-end learning and sensor fusion with deep convolutional networks for steering an off-road unmanned ground vehicle | |
JPH06265330A (en) | Image measuring apparatus | |
WO2023281647A1 (en) | Machine learning device | |
JP3156950B2 (en) | Image processing method | |
CN115424227A (en) | Route line fitting prediction method, device, system, equipment and storage medium | |
CN118644836A (en) | Vehicle target detection method and system based on monocular vision | |
CN115147528A (en) | Learning device, learning method, storage medium, and object detection device | |
Abrosimov et al. | TECHNOLOGIES OF ARTIFICIAL INTELLIGENCE IN THE PROBLEM OF ANALYSIS OF ROAD SITUATION BY AUTONOMOUS VEHICLE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080528 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090528 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090528 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100528 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |