JPH03231311A - Automatic traveling device - Google Patents

Automatic traveling device

Info

Publication number
JPH03231311A
JPH03231311A JP2027688A JP2768890A JPH03231311A JP H03231311 A JPH03231311 A JP H03231311A JP 2027688 A JP2027688 A JP 2027688A JP 2768890 A JP2768890 A JP 2768890A JP H03231311 A JPH03231311 A JP H03231311A
Authority
JP
Japan
Prior art keywords
vehicle
target
route
road
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2027688A
Other languages
Japanese (ja)
Other versions
JP2923664B2 (en
Inventor
Shinnosuke Ishida
真之助 石田
Osamu Furukawa
修 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2027688A priority Critical patent/JP2923664B2/en
Publication of JPH03231311A publication Critical patent/JPH03231311A/en
Application granted granted Critical
Publication of JP2923664B2 publication Critical patent/JP2923664B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

PURPOSE:To perform the optimum traveling control of a vehicle in order to make the vehicle follow a target route by obtaining the target control value with which the vehicle can follow the target route and setting the vehicle to be controlled at the steering angle of the vehicle with the target control value defined as the steering angle correction value respectively. CONSTITUTION:The input image sent from an image pickup part 1 which photographs the surface of the frontward road of a vehicle is differentiated by an image processing part 2 to undergo the detection of its edge. Then the optimum threshold value is automatically set by an automatic threshold value setting circuit of the part 2 and according to the gradation of the input image. Then the edge image is binarized. Based on this processed image, the X-Y coordinates are converted into the rho-theta coordinates. Thus the continuous segment information on the road edge are obtained. A travel enable area recognizing part 3 applies the projection conversion processing to the relevant image and recognizes the area between the continuous road edges as a travel enable area of the vehicle. A target route setting part 4 sets a target route on the recognized road as an optimum traveling route. A control part 5 sets the target control value and obtains the steering angle correction value for traveling of the vehicle on the target road to define that correction value as the target control value for traveling control of the vehicle.

Description

【発明の詳細な説明】 技術分野 本発明は5走行路を探索しながら車両の自動走行を行わ
せる自動走行装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Technical Field The present invention relates to an automatic driving device that allows a vehicle to automatically travel while searching five driving routes.

従来技術 最近、自ら走行路を探索しながら、その走行路上に最適
な目標経路を設定して、車両がその目標経路上を走行す
るべく車両の走行制御を行わせるようにした自動走行装
置が開発されている。
Prior Art Recently, an automatic driving device has been developed that searches its own driving route, sets an optimal target route on the route, and controls the vehicle so that the vehicle travels on the target route. has been done.

この種の自動走行装置にあっては、現在における車両の
車速、舵角、ヨーレート(ヨ一方向変化の角速度)など
の走行状態を検出し、その検出された車両の走行状態に
もとづいて所定の演算処理によって車両が目標経路上を
追従して走行できるような制御目標量を求めて車両の走
行制御を行わせることが考えられるが、その際、車両走
行の目標経路に対する追従性を良くするために、制御対
象を何に設定して、その制御目標量をどのようにして決
定するかが重要な課題となっている。
This type of automatic driving system detects the current running conditions of the vehicle, such as the vehicle speed, steering angle, and yaw rate (angular velocity of change in one direction), and then performs a predetermined operation based on the detected running condition of the vehicle. It is conceivable to perform vehicle travel control by determining a control target amount that allows the vehicle to follow the target route through arithmetic processing, but in this case, in order to improve the ability of the vehicle to follow the target route, Another important issue is what to set as the controlled object and how to determine the control target amount.

−l的 本発明は以上の点を考慮してなされたもので。-l-like The present invention has been made in consideration of the above points.

現在における車両の走行状態を検出し、その検出された
車両の走行状態にもとづいて、車両が目標経路上を追従
して走行できるような制御目標量を求めて車両の走行制
御を行わせる際、制御対象を車両の舵角に設定し、制御
目標量を舵角補正量として、車両が常t;目標経路上を
走行するべく舵角の制御を還適に行わせるようにした自
動走行装置を提供するものである。
When detecting the current running state of the vehicle and determining a control target amount that allows the vehicle to follow and run on the target route based on the detected running state of the vehicle, and controlling the running of the vehicle, An automatic driving system is provided in which the steering angle of the vehicle is set as the control target, the steering angle correction amount is set as the control target amount, and the steering angle is appropriately controlled so that the vehicle always travels on the target route. This is what we provide.

菜−戊 以下、添付図面を参照して本発明の一実施例について詳
述する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will now be described in detail with reference to the accompanying drawings.

本発明による自動走行装置にあっては、第1図に示すよ
うに、車両の進行方向の領域を撮像することができるよ
うに車両に取り付けられたビデオカメラによる撮像部1
と、そのビデオカメラによって撮像された画像を処理し
て連続した線分の抽出などを行う画像処理部2と5その
抽出された連続した線分にしたがって車両の進行方向に
おける道路などの走行可能領域をL2m、する走行可能
領域認識部3と、その認識された走行可能領域内に車両
走行の目標経路を設定する目標経路設定部4と、車両の
走行速度Vを検出する車速センサ6、車両の走行にとも
なうヨーレートTを検出するヨーレートセンサ7および
車両の操舵によるタイヤ角度δを検出する舵角センサ8
などの各センサ出力に応じてそのときの車両の走行状態
を検出して、その検出された車両の走行状態にもとづい
て車両が目標経路上を走行するのに必要な操舵の制御目
標量を所定の演算処理によって求める制御部5と。
In the automatic driving device according to the present invention, as shown in FIG.
and an image processing section 2 and 5 that process the image captured by the video camera and extract continuous line segments, etc., and 5. A driveable area such as a road in the direction of travel of the vehicle according to the extracted continuous line segments. L2m, a travelable area recognition unit 3, a target route setting unit 4 that sets a target route for the vehicle within the recognized travelable area, a vehicle speed sensor 6 that detects the vehicle travel speed V, and a vehicle speed sensor 6 that detects the vehicle travel speed V. A yaw rate sensor 7 that detects a yaw rate T as the vehicle travels, and a steering angle sensor 8 that detects a tire angle δ caused by steering the vehicle.
The current running state of the vehicle is detected according to the output of each sensor such as, and based on the detected running state of the vehicle, a target amount of steering control necessary for the vehicle to travel on the target route is determined. and the control unit 5 which is obtained by the calculation process.

その求められた制御目標量にしたがって車両の操舵を行
わせるステアリング制御部9およびステアリング駆動部
10とによって構成されている。
It is comprised of a steering control section 9 and a steering drive section 10 that steer the vehicle in accordance with the determined control target amount.

実際には、画像処理部2.走行可能領域認識部3、目標
経路設定部4および制御部5はマイクロコンピュータに
よって置き換えられる。また、そのコンピュータにステ
アリング制御部9をも含めることも可能である。
Actually, the image processing section 2. The travelable area recognition section 3, target route setting section 4, and control section 5 are replaced by a microcomputer. It is also possible to include the steering control section 9 in the computer.

撮像部1におけるビデオカメラとしては、標準レンズに
よるもの以外に、車速や走行中の道路状況などに応じた
適切な画像が得られるように望遠レンズや広角レンズに
よるものが設けられ、また夜間用などに赤外線カメラや
超高感度カメラなどの特殊なビデオカメラが複数設けら
れており、コンピュータの制御下において、それら複数
のビデオカメラが車速や撮像画像の状態などに応じて適
宜切り換えられて使用されるようになっている。
In addition to the standard lens, the video camera in the imaging unit 1 is equipped with a telephoto lens or a wide-angle lens to obtain images appropriate to the vehicle speed, road conditions, etc. The vehicle is equipped with multiple special video cameras such as infrared cameras and ultra-high sensitivity cameras, and under computer control, these multiple video cameras are switched as appropriate depending on the vehicle speed, the state of the captured image, etc. It looks like this.

また、撮像特性が同一の2台のビデオカメラを並設して
、2眼立体視による画像を得るようにすることも可能で
ある。
Furthermore, it is also possible to arrange two video cameras with the same imaging characteristics in parallel to obtain binocular stereoscopic images.

画像処理部2における道路エツジなどの連続した線分の
抽出は、以下のようにして行われる。
Extraction of continuous line segments such as road edges in the image processing section 2 is performed as follows.

まず、車両前方の路面を撮像する撮像部Iから送られて
くる入力画像を微分することによって画像のエツジ検出
の処理を行わせたうえで、画像処理部2内に設けられた
自動しきい値設定回路により、そのときの入力画像の濃
淡の程度に応じた最適しきい値を自動的に設定して、そ
のエツジ画像の2値化を行わせる。
First, an image edge detection process is performed by differentiating the input image sent from the imaging unit I that images the road surface in front of the vehicle. The setting circuit automatically sets an optimum threshold value according to the degree of shading of the input image at that time, and binarizes the edge image.

なおその際、入力画像の2値化を先に行わせたうえで、
エツジ検出のための微分処理を行わせるようにしてもよ
い。また、2値化を行わせる代わりに、画像の濃淡を表
現した多値化を行わせるようにしてもよい。
In this case, the input image must be binarized first, and then
Differential processing may be performed for edge detection. Further, instead of performing binarization, multi-value conversion that expresses the shading of the image may be performed.

次いで、そのエツジ検出され、2値化または多値化され
た処理画像1こもとづいて、X−Y座標上の線分をρ−
θ座標上の点であられす座標変換を行わせる公知手法で
あるHough変換処理を行わせることにより、連続性
のある点列を結合したり、連続性のない孤立した点を除
去したりして、例えば第2図に示すような道路エツジの
連続した線分の情報を得る。
Next, based on the edge detected and binarized or multivalued processed image 1, line segments on the X-Y coordinates are expressed as ρ-
By performing Hough transformation processing, which is a well-known method that performs gray coordinate transformation on points on the θ coordinate, it is possible to combine continuous point sequences and remove isolated points without continuity. For example, information on continuous line segments of road edges as shown in FIG. 2 is obtained.

ここで、0はX−Y座標上の直線からその座標の原点に
おろした垂線の角度であり、またρはその垂線の長さで
ある。例えば、第4図に示すX−■座標上の線分りは、
第5図に示すようにρ−O座標」〕における点01とし
てあられされる。
Here, 0 is the angle of a perpendicular drawn from a straight line on the XY coordinate to the origin of the coordinate, and ρ is the length of the perpendicular. For example, the line segment on the X-■ coordinate shown in Figure 4 is
As shown in FIG. 5, it appears as point 01 at the ρ-O coordinate.

なおその際、2値化された処理画像にもとづいて、エツ
ジ追跡の処理を行わせて連続性をもった画像のエツジ部
分をわり出すようにしてもよい。
At this time, edge tracking processing may be performed based on the binarized processed image to find edge portions of the image that have continuity.

また、画像エツジの連続性を求めるためのHo u g
 h変換処理およびエツジ追跡処理などの複数の処理を
並列的に行わせ、それら各処理結果から総合的に判断す
るようにすれば、より精度の高い道路エツジの情報を求
めることができるようになる。さらに、車両の走行にと
もなって入力画像の領域成長を行いながら前述の連続性
ある画像エツジの抽出のための処理を行えば、より精度
の高い道路エツジの情報の抽出を行うことができるよう
になる。
In addition, Houg is used to determine the continuity of image edges.
By performing multiple processes such as h-conversion processing and edge tracking processing in parallel, and making comprehensive judgments based on the results of each process, more accurate road edge information can be obtained. . Furthermore, if the above-mentioned process for extracting continuous image edges is performed while growing the region of the input image as the vehicle travels, it is possible to extract road edge information with higher accuracy. Become.

そして、走行可能領域認識部3は、撮像部1におけるビ
デオカメラによって撮像される画像が遠近投影によるも
のであるため、第2図に示すような遠近投影による道路
エツジの画像を第3図に示すような遠近投影の影響をな
くした道路エツジの画像に変換する公知手法である射影
変換処理を行って、その連続した道路エツジ間を車両の
走行可能領域として認識する。
Since the image captured by the video camera in the imaging unit 1 is based on perspective projection, the driveable area recognition unit 3 converts the image of the road edge based on perspective projection as shown in FIG. 2 into the image shown in FIG. Projective transformation processing, which is a known method for converting images of road edges that eliminate the effects of perspective projection, is performed, and the area between consecutive road edges is recognized as a driveable area for a vehicle.

なおその射影変換特性は、ビデオカメラの遠近投影の特
性にしたがって、予め走行可能領域認識部3に設定され
ている。
Note that the projective transformation characteristics are set in advance in the driveable area recognition unit 3 according to the perspective projection characteristics of the video camera.

次に、走行可能領域認識部3において認識された走行可
能領域である車両前方の道路が認識されると、目標経路
設定部4において、その認識された道路上における車両
の最適な走行経路となる目標経路が以下のようにして設
定される。
Next, when the road in front of the vehicle that is the recognized drivable area is recognized by the drivable area recognition unit 3, the target route setting unit 4 determines the optimum driving route for the vehicle on the recognized road. A target route is set as follows.

その目標経路は、後述するようし;、道路形状および車
速をも考慮したうえで、そのときの車両の走行状況に適
するように設定されるのが望ましいが、基本的には、認
識された道路が狭いかまたは広いかによって以下のよう
にして一律に認定される。
The target route is desirably set to be suitable for the vehicle's driving conditions at that time, taking into consideration the road shape and vehicle speed, as will be described later. It is uniformly certified as follows depending on whether it is narrow or wide.

すなわち、目標経路設定部4において、道路幅が一定以
上の広軌道であると判断された場合には、例えば第6図
に示すように、左側通行路の場合、道路の左側の基準エ
ツジから例えば1,5m程度の所定の隔灘幅Wをもって
その基準エツジに沿う目標経路○Cを設定する。
That is, when the target route setting unit 4 determines that the road is a wide track with a width of a certain level or more, for example, as shown in FIG. A target route ○C is set along the reference edge with a predetermined gap width W of about 1.5 m.

また、目標経路設定部4において、道路幅が一定未満の
狭軌道であると判断された場合には、特に図示しないが
、その道路の中央に目標経路を設定する。
Furthermore, if the target route setting unit 4 determines that the road is a narrow track with a width less than a certain level, the target route is set at the center of the road, although not particularly shown.

そしてその設定された目標経路のX−Y座標上の位置が
、目標経路設定部4の内部メモリに、車両の走行が進む
にしたがって逐次更新されながら記t12される。その
際、X−Y座標上の尺度は、撮像部lにおけるビデオカ
メラの倍率によって決定される。
The position on the X-Y coordinates of the set target route is then recorded in the internal memory of the target route setting section 4 while being updated sequentially as the vehicle travels. At this time, the scale on the X-Y coordinates is determined by the magnification of the video camera in the imaging section l.

なお、第6図において、P点は車両の現在位置を示すも
ので、例えばビデオカメラによる撮像面の中央下端がP
点となるように、予めそのビデオカメラの車両における
搭載位置が設定されている。
Note that in FIG. 6, point P indicates the current position of the vehicle; for example, the center lower end of the imaging surface by a video camera is P.
The mounting position of the video camera in the vehicle is set in advance so that it becomes a point.

図中、P点からO点l;至るまでの軌跡は、後述するよ
うに5制御部5の制御下において車両の操舵制御がなさ
れることにより、P点にいる車両が目標経路○Cに合流
するまでの走行経路を示している。0点は、そのときの
車両の目標経路OCへの合流位置となる。
In the figure, the trajectory from point P to point O is determined by the steering control of the vehicle under the control of the control unit 5, as described later, so that the vehicle at point P joins the target route ○C. It shows the driving route until the end. The 0 point is the merging position of the vehicle to the target route OC at that time.

また本発明では、車両の走行状態を検出して、その検出
された走行状態にしたがい、以下のように道路における
最適な車両の目標経路を設定するようにすることも可能
である。
Further, in the present invention, it is also possible to detect the driving state of the vehicle and set an optimal target route for the vehicle on the road in accordance with the detected driving state as described below.

すなわち、目標経路設定部4において1例えば。That is, in the target route setting section 4, for example.

車速センサ6によって検出される車両の走行速度を読み
込んで、そのときの車速が予め設定されたしきい値以下
の低速域内にあれば、第7図(a)に示すように、道路
の形状に沿うように目標経路OCを設定する。
The vehicle speed detected by the vehicle speed sensor 6 is read, and if the vehicle speed at that time is within the low speed range below a preset threshold, the road shape is changed as shown in FIG. 7(a). Set the target route OC to follow.

同様に、そのときの車速か予め設定されたしきい値を越
える高速域内にあれば、第7図(b)に示すように1曲
りくねった道路を走行する場合。
Similarly, if the vehicle speed at that time is within a high speed range exceeding a preset threshold value, the vehicle is traveling on a winding road as shown in FIG. 7(b).

車両に作用する横方向の加速度ができるだけ軽減されろ
ような緩い曲率をもった目標経路Ocを道路内に設定す
る。
A target route Oc is set within the road with a gentle curvature so that the lateral acceleration acting on the vehicle is reduced as much as possible.

次に、道路上における目標経路が設定されたら。Next, once the target route on the road is set.

制御部5において、車両をその目標経路に合流させるた
めの制御目標量が、以下のように演算処理によって求め
られる。
In the control unit 5, a control target amount for causing the vehicle to join the target route is determined by the following calculation process.

その際、本発明では、特に、制御対象を車両の舵角に設
定し、現在検出されている車両の走行状態からこれから
先の走行経路を予測し、その車両の予測経路と目標経路
との偏差から車両がその目標経路上を走行するための舵
角補正量を求め、その舵角補正量を制御目標量として、
その舵角補正量にしたがって車両の走行制御を行わせる
ようにしている。
In this case, in particular, the present invention sets the control target to the steering angle of the vehicle, predicts the future traveling route from the currently detected traveling state of the vehicle, and calculates the difference between the predicted route of the vehicle and the target route. Find the steering angle correction amount for the vehicle to travel on the target route from , and use the steering angle correction amount as the control target amount,
The vehicle is controlled to travel in accordance with the steering angle correction amount.

具体的には1例えば、車両の走行状態から現在の車両の
向きをY軸方向としたときのY軸方向の一定距離先にお
けるX軸上の車両到達位置を予測し、その予測位置とY
軸方向の一定距離先における目標経路上の前記同一のX
軸上にある目標位置との偏差に応じた舵角補正量を求め
るようにしている。
Specifically, 1. For example, if the current direction of the vehicle is in the Y-axis direction based on the running state of the vehicle, the vehicle arrival position on the X-axis at a certain distance ahead in the Y-axis direction is predicted, and the predicted position and Y
The same X on the target path at a certain distance in the axial direction
The steering angle correction amount is calculated according to the deviation from the target position on the axis.

いま、例えば第8図に示すように、P点にある車両45
を目標経路OCに合流させる場合を考えてみる。
Now, for example, as shown in FIG. 8, a vehicle 45 at point P
Let us consider the case where the route OC merges with the target route OC.

まず、車速センサ6によって検出された車両の現在車速
v(m/s)にもとづいて、P点にある車両のt n+
秒後後おけるY軸上の距離L(m)(L=vxtn、)
が求められ、そのY軸上におけるP点から距離したけ離
れた0点と目標経路OCとの間の偏差xjl、すなわち
【、。後後における目標経路OC上の位置に比例した値
がわり出される。
First, based on the current vehicle speed v (m/s) of the vehicle detected by the vehicle speed sensor 6, t n+ of the vehicle at point P
Distance L (m) on the Y axis after seconds (L=vxtn,)
is calculated, and the deviation xjl between the 0 point on the Y axis, which is the distance away from the point P, and the target route OC, that is, [,. A value proportional to the position on the target route OC is calculated.

同様に、ヨーレートセンサ7によって検出される車両の
ヨーレートT (rad/ s )にもとづいて車両の
現在の舵角におけろ予測経路ACがわり出され、Y軸上
の0点からの予d111紅路ACの偏差Xm+すなわち
tmm後後おける予測経路AC上の位置に比例した値が
以下のようにして求められる。
Similarly, a predicted route AC at the current steering angle of the vehicle is calculated based on the yaw rate T (rad/s) of the vehicle detected by the yaw rate sensor 7, and a predicted route AC is calculated from the zero point on the Y axis. The AC deviation Xm+, that is, a value proportional to the position on the predicted route AC after tmm is obtained as follows.

いま、予測径路ACが描く円弧の半径をRとしたとき、
xmは次式によって与えられる。
Now, when the radius of the arc drawn by the predicted route AC is R,
xm is given by the following equation.

x、、、 =R−(R” −(v X tm)z )”
=R−R(1−(v X tm /R)” )”ここで
、R>vxtlllとすると。
x,,, =R-(R"-(vXtm)z)"
=R-R(1-(vXtm/R)")"Here, if R>vxtll.

x、、、 ’=R−R(1−(v X trn/R)”
 / 2)=v2Xtm”/2R =L”/2R・・・(1) また、 T = v / R・・・ (2) であるので、(1)、(2)式から、 XLn:L2 、T/2v     ・・・(3)なお
、ヨーレートTの符号としては、例えば予7Il+1紅
路ACが左曲りのときを正とする。
x,,,'=R-R(1-(v X trn/R)"
/ 2) = v2 T/2v (3) Note that the sign of the yaw rate T is positive when, for example, 7Il+1 Benji AC is turning left.

そして、各求められた偏差XΩとxlIlとの差e(e
=)cλ−xm)に応じて車両の修正すべきヨーレート
ΔTが下記式にしたがって求められる。
Then, the difference e(e
=)cλ-xm), the yaw rate ΔT of the vehicle to be corrected is determined according to the following formula.

ΔT=eX2v/L2    − (4)次いで、舵角
センサ8によって検出されたP点における車両のタイヤ
角度δがとり込まれ、車両を目標経路OCに合流させる
ためのタイヤ角度の制御部45JLδ′が以下のように
して決定される。
ΔT=eX2v/L2 − (4) Next, the tire angle δ of the vehicle at point P detected by the steering angle sensor 8 is taken in, and the tire angle control unit 45JLδ′ for merging the vehicle onto the target route OC It is determined as follows.

いま、第9図に示す関係にあって。Now, we have the relationship shown in Figure 9.

R>Qのとき。When R>Q.

δ千12/R・・・(5) となり、(2)、(5)式から δ=(12/v)T        ・・・(6)が得
られろ。ここで、Qはホイールベースである。
δ12/R...(5) From equations (2) and (5), δ=(12/v)T...(6) can be obtained. Here, Q is the wheelbase.

したがって、(6)式の関係からして、車両の修正すべ
きヨーレー1−ΔTに応じたタイヤ角度の修正分Δδは
1次式によって与えられる。
Therefore, in view of the relationship in equation (6), the correction amount Δδ of the tire angle according to the yaw 1−ΔT of the vehicle to be corrected is given by a linear equation.

Δδ=(4/v)ΔT      ・・・(7)ここで
、車速Vに対する舵角の一般式である悲=Q(1+Kv
”)を考慮すると、(7)式からΔδ=ΔT ((1(
1+Kv” )/v)−(8)となる、には、タイヤ特
性やホイールベースなどの車両特性によって決まる一定
の係数(スタビリテイファクター)である。
Δδ=(4/v)ΔT (7) Here, the general formula for steering angle with respect to vehicle speed V is Q(1+Kv
”), from equation (7), Δδ=ΔT ((1(
1+Kv'')/v)-(8) is a constant coefficient (stability factor) determined by vehicle characteristics such as tire characteristics and wheel base.

そして、車両を目標経路OCに合流させるためのタイヤ
角度の制御目標量δ′は、 δ′=δ+Δδ        ・・・(9)として求
められる。
Then, the target tire angle control amount δ' for causing the vehicle to join the target route OC is determined as δ'=δ+Δδ (9).

ステアリング制御部9は、制御部5から与えられる制御
目標量δ′に応じてステアリング駆動部10に駆動指令
を出し、それによりステアリング駆動部lOがステアリ
ングの駆動を適宜なして車両を目標経路OCへ合流させ
るような操舵を行う。
The steering control section 9 issues a drive command to the steering drive section 10 in accordance with the control target amount δ' given from the control section 5, so that the steering drive section 10 drives the steering appropriately to move the vehicle toward the target path OC. Perform steering to merge.

以上の処理が予め設定された数秒オーダの所定時間ごと
にくり返し行われ、それにより車両を目セ経路oC上に
沿って自動的に走行させることができるようになる。
The above process is repeated at predetermined time intervals on the order of several seconds, thereby making it possible for the vehicle to automatically travel along the intended route oC.

第10図は、第1図に示した本発明による自動走行装置
の詳細なブロック構成例を示している。
FIG. 10 shows a detailed block configuration example of the automatic traveling device according to the present invention shown in FIG.

ここで1画像処理部2としては、大局的線分抽出部I1
.局所的線分追跡部I2および領域抽出部13からなっ
ている。
Here, the 1 image processing section 2 includes a global line segment extraction section I1.
.. It consists of a local line segment tracing section I2 and a region extraction section 13.

大局的線分抽出部11は、直線道路などの形状が単純な
道路の境界線の線分を大局的に得るものである。ここで
は、高速道路などの直線的で単純な道路の場合、直線検
出手段であるthough変換の処理を搬像部1におけ
るビデオカメラの取付角度から得られる道路が存在する
であろう領域に対して施すことによって、画像中の広い
範囲を1度に処理するようにしている。その処理領域が
道路全体をカバーするほど大きくても、直線的な道路な
らばその境界線の線分を抽出でき、しかもただ1度の!
I o u g h変換処理によって高速に抽出が可能
となる。
The global line segment extraction unit 11 globally obtains line segments of boundaries of roads with simple shapes such as straight roads. Here, in the case of a straight and simple road such as an expressway, the processing of the though transformation, which is a straight line detection means, is applied to the area where the road is likely to exist, which is obtained from the mounting angle of the video camera in the image carrier 1. By applying this process, a wide range in the image can be processed at once. Even if the processing area is large enough to cover the entire road, if it is a straight road, the boundary line segments can be extracted, and only once!
The Iough conversion process enables high-speed extraction.

また、この大局的線分抽出部11では、後述する道路線
分のデータをベクトル表現化してローカルマツプデータ
として管理するローカルマツプデータベース18に蓄積
されている前回の処理までの道路線分のデータを受は取
って、今回処理時の入力画像に写っていることが予想さ
れる道路の線分とのつながりをみるなどして処理の参考
にすることにより、道路線分抽出の高い信頼性を得るよ
うにしている。
In addition, this global line segment extraction unit 11 converts road line segment data up to the previous processing stored in a local map database 18, which converts road line segment data (described later) into vector representations and manages them as local map data. High reliability of road line segment extraction can be obtained by taking the information and using it as a reference for processing by checking connections with road line segments that are expected to appear in the input image for this processing. That's what I do.

局所的線分追跡部12は、形状の入り組んだ複雑な道路
の境界線の線分を局部的に得るものである。ここでは、
交差点や複雑な分岐路、急なカーブなどの道路において
、Rough変換によって道路の境界線を検出できる微
小な範囲で、その道路の境界線を細く局所的に追跡する
ようにしている。
The local line segment tracing unit 12 locally obtains line segments of boundary lines of roads with complicated shapes. here,
On roads such as intersections, complex branch roads, and sharp curves, the road boundary lines are locally traced within a minute range in which the road boundary lines can be detected by Rough transformation.

また、この局所的線分追跡部12では、前述の大局的線
分抽出部11における処理結果やローカルマツプデータ
を利用して探索開始点と探索方向などの初期データを得
るようにして、道路線分抽出の信頼性を向上させ、その
処理時間を短縮できるようにしている。
In addition, this local line segment tracing unit 12 uses the processing results and local map data in the global line segment extraction unit 11 described above to obtain initial data such as a search starting point and a search direction. This improves the reliability of minute extraction and reduces processing time.

領域抽出部13は、白線などの明瞭な境界線がない道路
の領域の輪郭を抽出するものである。白線などの明瞭な
境界線がないアスファルト道路などでは、その道路と路
肩の土や草などとの境界部分による道路線分の抽出は不
安定となる。このような道路においては、カラー特徴な
どによる領域抽出が有効である。ここでは、車両の前方
は道路領域であるという仮定にもとづき、その領域内の
特徴と類似した部分を取り出すことによって道路領域を
抽出するようにしている。基本的に、同様の手法によっ
て、たとえば夜間の赤外線映像から、道路の温度によっ
て道路領域の抽出が可能である。
The area extraction unit 13 extracts the outline of a road area that does not have clear boundaries such as white lines. On asphalt roads that do not have clear boundaries such as white lines, extraction of road line segments based on the boundary between the road and the dirt, grass, etc. on the shoulder of the road becomes unstable. For such roads, region extraction using color features or the like is effective. Here, based on the assumption that the area in front of the vehicle is a road area, the road area is extracted by extracting parts similar to the features within that area. Fundamentally, using a similar method, it is possible to extract a road area based on the road temperature, for example from an infrared image at night.

また、この領域抽出部13にこおける処理は、明確な境
界が得られない道路の領域抽出のためだけではなく、前
述した大局的線分抽出や局所的線分抽出の各処理時に、
道路端のガードレールや壁などを誤って道路と認識しな
いためにも利用される。
In addition, the processing performed by the region extraction unit 13 is not only for extracting regions of roads where clear boundaries cannot be obtained, but also for each of the aforementioned global line segment extraction and local line segment extraction processing.
It is also used to prevent guardrails and walls at the edge of the road from being mistakenly recognized as roads.

さらに、この領域抽出部13における処理は。Furthermore, the processing in this area extraction section 13 is as follows.

ローカルマツプデータを利用して、前回までの処理結果
と比較することで、高い信頼性が得られる。
High reliability can be obtained by using local map data and comparing it with previous processing results.

また、第10図の構成にあって、走行可能領域認識およ
び目標経路設定部14(第1図に示す走行可能領域認識
部3および目標経路設定部4に相当する)としては、デ
ータ管理部15.データ評価部16.ローカルマツプ管
理部17およびローカルマツプデータベース18.制御
スーパバイザ19からなっている。
In addition, in the configuration shown in FIG. 10, the data management unit 15 serves as the drivable area recognition and target route setting unit 14 (corresponding to the drivable area recognition unit 3 and target route setting unit 4 shown in FIG. 1). .. Data evaluation section 16. Local map management section 17 and local map database 18. It consists of a control supervisor 19.

ここでは1画像以外の外界情報を得て、車両前方の障害
物などを検知するためのレーダ装置W20が設けられて
いる。
Here, a radar device W20 is provided for obtaining external world information other than one image and detecting obstacles in front of the vehicle.

また、車両の走行距離および進行方向を検出しなからX
−Y座標上の位置を演算によって求めて。
In addition, the distance traveled and the direction of travel of the vehicle are detected.
- Find the position on the Y coordinate by calculation.

その求められた車両の位置を道路地図上に表示しながら
、車両がその道路地図上における予定の位置にくると予
め入力されている所定の誘導情報を出力するナビゲーシ
ョン装置21が設けられている。
A navigation device 21 is provided that displays the determined vehicle position on a road map and outputs predetermined guidance information that has been input in advance when the vehicle reaches a scheduled position on the road map.

データ管理部15は1画像処理部2における複数の画像
処理結果の時間管理を行い、また遠近投影による道路エ
ツジの画像を2次元平面上に投影する射影変換の処理を
行う。さらに、画像取得時間の違いによる座標上の位置
のずれを、後述する紅路予測部22で計算された予測経
路テーブルをもとに各々座標変換することによって補正
する。
The data management section 15 performs time management of a plurality of image processing results in one image processing section 2, and also performs projective transformation processing for projecting an image of a road edge by perspective projection onto a two-dimensional plane. Furthermore, positional deviations on the coordinates due to differences in image acquisition time are corrected by respectively performing coordinate transformation based on a predicted route table calculated by a red road prediction unit 22, which will be described later.

すなわち1画像処理部2における各画像処理の実行時間
は同一でなく、状況に応じてそれぞれに変化していくた
め、最終的に各処理結果を同一の時刻、座標上で統合す
るようにしている。
In other words, the execution time of each image process in the image processing unit 2 is not the same and changes depending on the situation, so the results of each process are finally integrated at the same time and coordinates. .

そのため、データ管理部15は、基準時計をもって時々
刻々の車両の移動量を測定し、非同期に実行される各画
像処理結果を任意の時刻の同一座標上に換算する機能を
独立してもたせる手段をとるようにしている。
Therefore, the data management unit 15 has means for independently providing a function of measuring the amount of movement of the vehicle from moment to moment using a reference clock and converting the results of each image processing executed asynchronously to the same coordinates at an arbitrary time. I try to take it.

その手段をとることにより、非同期、並列に実行される
各画像処理結果を効率良く同一の時刻。
By taking this measure, the results of each image processing performed asynchronously and in parallel can be efficiently processed at the same time.

座標上に換算でき、また座標変換などの同一処理の集約
化が可能となり、また画像処理、距離情報検出処理、そ
の後の統合評価段階での通信および演算処理の負荷軽減
が有効に図られ、また各処理間における通信が簡素化さ
れる。
It can be converted into coordinates, and the same processing such as coordinate transformation can be consolidated, and the load on image processing, distance information detection processing, and communication and calculation processing at the subsequent integrated evaluation stage can be effectively reduced. Communication between each process is simplified.

この手段によれば、画像入力時刻などをそれぞれの画像
処理結果に付すだけで、後はまったく独立に処理してい
くことが可能であり、例えば手前寄りの走行路を短い処
理サイクルで!!識可能ならば、遠方の走行路認識にや
や時間がかかっても、七れぞれを並行に実行することで
、高速での自動走行が可能となる。
According to this means, by simply adding the image input time etc. to each image processing result, it is possible to process the rest completely independently. For example, it is possible to process a driving road closer to the front in a short processing cycle! ! Even if it takes some time to recognize the long-distance driving route, by running each of the seven processes in parallel, high-speed automatic driving becomes possible.

なお、複数の画像処理結果を同一の時刻、座標上で統合
して評価するために1例えば全ての処理を同時に開始し
て、その全ての処理が完了した時点で各処理結果を統合
することが考えられるが。
In addition, in order to integrate and evaluate multiple image processing results at the same time and coordinates, it is possible to start all the processing at the same time, and then integrate the processing results when all the processing is completed. I can think of it.

それでは最も長い処理時間によってサイクルが拘束され
てしまい、さらに開始時刻を揃えるために各処理間で緊
密な通信を行う必要を生じてしまう。
In this case, the cycle is constrained by the longest processing time, and furthermore, it becomes necessary to perform close communication between each process in order to align the start times.

また、複数の画像処理手段およびレーダ装[20などの
距離情報獲得手段をもつ場合には、今までの走行路認識
結果やお互いの処理結果を参照し利用することで認識の
信頼性を大きく向上することができる。しかしながら、
それら各処理の実行時間は同一ではなく、状況に応じて
それぞれに変化していくものであり、また扱う座標系も
異なっている場合がある。そうした場合に、データ管理
部15は効率的に各処理が必要とする情報を授受できる
ようにしている。
In addition, if you have multiple image processing means and distance information acquisition means such as radar equipment [20], the reliability of recognition can be greatly improved by referring to and using the previous driving route recognition results and each other's processing results. can do. however,
The execution time of each of these processes is not the same, but changes depending on the situation, and the coordinate systems handled may also be different. In such a case, the data management unit 15 is designed to efficiently exchange information necessary for each process.

そのため、データ管理部15は、基準時計をもって時々
刻々の車両の移動量を測定し、非同期に実行される各処
理において必要とされる走行路認識結果や他の処理結果
などを任意の時刻の任意の座標上に換算する機能を独立
してもたせる手段をとるようにしている。
Therefore, the data management unit 15 measures the amount of movement of the vehicle from moment to moment using a reference clock, and outputs the driving route recognition results and other processing results required in each process executed asynchronously at any time. A method is taken to independently provide the function of converting to the coordinates of .

その手段をとることにより、複数処理のさまざまな要求
に応じた時刻および座標の変換を効率良く行うことがで
き、また座標変換などの同一処理の集約化が可能となり
、また各処理での通信および演算処理の負荷軽減が有効
に図られる。
By taking this method, it is possible to efficiently convert time and coordinates in response to various requests for multiple processes, it is also possible to consolidate the same processing such as coordinate conversion, and it is also possible to perform communication and The load on arithmetic processing can be effectively reduced.

過去に処理してきた走行路認識結果やお互いの処理結果
を参照し利用するためには、時刻合せや車両の移動量で
の補正を行うことが必要である。
In order to refer to and utilize previously processed travel path recognition results and each other's processing results, it is necessary to perform time adjustment and correction based on the amount of movement of the vehicle.

しかし、各処理が直接にデータをやりとりし、時刻、座
標系を換算しては通信、演算時間ともに大きな負担とな
る。
However, each process directly exchanges data and converts time and coordinate systems, which creates a large burden on both communication and calculation time.

この手段によれば、各処理結果がそれぞれ独立して11
理、保存され、さらに任意の時刻、形態のデータを希望
に応じて作成でき、通信、演算時間が大幅に減少するた
め、全体の処理サイクルの高速化が図られる。
According to this means, each processing result is independently
Furthermore, data can be created at any time and in any format as desired, and communication and calculation time are significantly reduced, resulting in faster overall processing cycles.

複数の画像処理手段とレーダ装f120などの距離情報
獲得手段の処理結果を統一的に管理し、さまざまな要求
に応じて任意の時刻における同一座標上のデータに変換
するといった機能を効率的に行わせるため、ここではデ
ータ管理部15を第11図に示すようなデータベースを
中心とした構造とした。
It efficiently performs functions such as uniformly managing the processing results of multiple image processing means and distance information acquisition means such as radar equipment F120, and converting them into data on the same coordinates at any time in response to various requests. In order to achieve this, the data management section 15 is structured around a database as shown in FIG. 11.

画像処理部2における大局的線分抽出部11゜局所的線
分追跡部12および領域抽出部13、レーダY装置20
.制御部5における経路予測部22からの各データは、
まず非同期にデュアルポートRAM27に1き込まれる
。同様に、ローカルマツプデータやデータ評価部16か
らの評価結果のデータなどがそのデュアルポートRAM
27に書き込まれる。
Global line segment extraction unit 11° local line segment tracing unit 12 and area extraction unit 13 in image processing unit 2, radar Y device 20
.. Each data from the route prediction unit 22 in the control unit 5 is
First, 1 is written into the dual port RAM 27 asynchronously. Similarly, local map data and evaluation result data from the data evaluation section 16 are stored in the dual port RAM.
27.

データ管理部15は、定期的にデュアルポーi〜RAM
27の内容を読みにいく。
The data management unit 15 periodically updates the dual port i~RAM.
Go read the contents of 27.

そのとき、各部11〜13,20.22から出力された
新しいデータがあれば、それをデータベース書込ポー1
へ28を通して各々のデータベース29〜34に格納す
る。ここで、データベース29はデータ評価結実用のも
の、データベース30は大局的線分抽出結実用のもの、
データベース31は局所的線分追跡結実用のもの、デー
タベース32は領域抽出結実用のもの、データベース3
3は距離情報獲得結実用のもの、データベース34は経
路予測結実用のものである。
At that time, if there is new data output from each section 11 to 13, 20.22, it is sent to the database write port.
28 and stored in each database 29-34. Here, the database 29 is a practical data evaluation database, the database 30 is a global line segment extraction practical database,
Database 31 is for local line segment tracing, database 32 is for region extraction, and database 3 is for local line segment tracing.
3 is used for distance information acquisition, and database 34 is used for route prediction.

このときの処理のフローを、第12図に示している。The flow of processing at this time is shown in FIG.

また、デュアルポートRAM27の内容を読んだ結果、
それがデータリクエストであれば、データ管理部15は
データベース読出ボート35を通して希望に応じたデー
タを各データベース29〜34から適宜検索し、さらに
射影変換処理部3G、時刻5位置補正処理部37および
逆射影変換処理部38において希望に沿った形に適宜デ
ータ変換して出力用のデュアルポートRAM39に書き
込む。
Also, as a result of reading the contents of dual port RAM27,
If it is a data request, the data management unit 15 searches each database 29 to 34 for data according to the request through the database readout boat 35, and further processes the projective transformation processing unit 3G, the time 5 position correction processing unit 37, and the inverse The projective transformation processing section 38 appropriately transforms the data into a desired form and writes it into the dual port RAM 39 for output.

いま、例えばデータ評価部16からデータリクエストが
あった場合、最新の画像処理結果のデータと距離情報1
得のデータとが各データベースから読み出され、画像処
理結果が道路面上の座標に射影変換されろ。さらに、画
像処理結果が要望の時刻での車両との位置関係に補正さ
れて、データ評価部16へと渡される。
Now, for example, if there is a data request from the data evaluation unit 16, the latest image processing result data and distance information 1
The obtained data are read from each database, and the image processing results are projectively transformed into coordinates on the road surface. Furthermore, the image processing result is corrected to the positional relationship with the vehicle at the desired time, and then passed to the data evaluation section 16.

また1例えば画像処理部2からある時刻で距離情報のリ
クエストがなされた場合、所定のデータベースから該当
するデータが読み出され、要望の時刻での位置に補正さ
れてリクエスト先に渡される。その際、特に画像処理部
2からのリクエストでは、撮像部lにおける画像メモリ
上の座標に逆射影変換されたデータをリクエスト先に渡
すようにして1画像処理部2における処理の負担を減軽
している。
For example, when a request for distance information is made from the image processing unit 2 at a certain time, the corresponding data is read out from a predetermined database, corrected to the position at the requested time, and delivered to the request destination. At that time, especially in the case of a request from the image processing section 2, the processing load on the image processing section 2 is reduced by passing the data that has been inverse projectively transformed to the coordinates on the image memory in the imaging section 1 to the request destination. ing.

このときの処理のフローを、第13図に示している。The flow of processing at this time is shown in FIG.

また、画像処理結果を要望の時刻での車両との位置関係
に補正する場合、要望のあった時刻をt2、画像の入力
時刻などの該当データの入力時刻をtlとすると、第1
4図に示すように、時刻tl。
In addition, when correcting the image processing result to the positional relationship with the vehicle at the requested time, if the requested time is t2 and the input time of the relevant data such as the image input time is tl, then the first
As shown in FIG. 4, time tl.

t2での経路予測データ(各時刻での絶対座標X−Y上
における車両の位置および向き)を経路予測結果データ
ベース34から読みとり、それらのデータにより5時刻
t1での該当データの各点を時刻t2での車両との相対
座標上の位置に補正する。
The route prediction data at time t2 (position and orientation of the vehicle on the absolute coordinates X-Y at each time) is read from the route prediction result database 34, and each point of the corresponding data at time t1 is set at time t2 using these data. Correct the position on the relative coordinates with the vehicle.

第14図において、Plは時刻t1における車両の位置
、DIはそのP1位置における車両の進行方向、P2は
時刻t2における車両の位置、D2はそのP2位置にお
ける車両の進行方向を示している。
In FIG. 14, Pl represents the position of the vehicle at time t1, DI represents the traveling direction of the vehicle at the P1 position, P2 represents the vehicle position at time t2, and D2 represents the traveling direction of the vehicle at the P2 position.

このときの処理のフローを、第15図に示している。The flow of processing at this time is shown in FIG.

また、その位置補正としては、第16図(a)に示すよ
うに、時刻tlでの相対座標をXY+時刻t2での相対
座標をxL  、 / としたとき。
Further, as for the position correction, as shown in FIG. 16(a), when the relative coordinate at time tl is XY+the relative coordinate at time t2 is xL, /.

同図(b)に示すように、時刻tlでの相対座標x−y
上における点p(xx、yl)を時刻t2での相対座標
x′−y′上における点P’(x2゜y2)に変換する
As shown in the same figure (b), relative coordinates x-y at time tl
Point p (xx, yl) on the top is converted to point P' (x2°y2) on relative coordinates x'-y' at time t2.

そのときの変換式は、次式によって与えられる。The conversion formula at that time is given by the following formula.

また、第10図の構成にあって、データ評価部16は、
データ管理部15から受は取った複数の射影変換された
道路エツジのデータを、道路モデルとの適合性および道
路データ相互間の関係から評価し1間違ったデータを除
去したうえで、適正と判断された複数の道路エツジデー
タを一平面上に融合する。
Furthermore, in the configuration shown in FIG. 10, the data evaluation section 16 is
The plurality of projection-transformed road edge data received from the data management unit 15 are evaluated based on their compatibility with the road model and the relationship between the road data, and after removing incorrect data, it is determined to be appropriate. The multiple road edge data obtained are merged onto a single plane.

ここでは、複数の画像処理結果を用いることにより、互
いの弱点を補った評価結果のデータを得るようにしてい
る。
Here, by using a plurality of image processing results, evaluation result data that compensate for each other's weaknesses is obtained.

したがって1例えば、白線が引いである道路にあっては
白線の抽出に最適な画像処理結果を用い、また白線が引
かれていない道路にあってはカラー特徴などによる領域
抽出の画像処理結果を用いるなど、多様に変化する環境
に対して、より柔軟に対応可能となる。
Therefore, 1. For example, for roads with drawn white lines, the optimal image processing results are used to extract the white lines, and for roads without white lines, the image processing results for region extraction based on color features, etc. are used. This makes it possible to respond more flexibly to a diversely changing environment.

また、ここでは、信頼性のある道路データを作成できる
ように、各画像処理結果に対して、道路データとして妥
当か否かの検証を以下に示す簡単な条件により行うよう
にしている。
In addition, here, in order to create reliable road data, each image processing result is verified to determine whether it is appropriate as road data or not under the following simple conditions.

道路は、ある道幅をもっている(道幅条件)。A road has a certain width (road width condition).

道路を構成する線分は、滑らかにつながっている(滑ら
かさ条件)。
The line segments that make up the road are connected smoothly (smoothness condition).

点列で示される道路データの点数は、ある値以上必要で
ある(異常点条件1)。
The number of points in the road data indicated by the point sequence must be greater than or equal to a certain value (abnormal point condition 1).

道路データは、測定範囲外に存在しない(異常点条件2
)。
Road data does not exist outside the measurement range (abnormal point condition 2)
).

道路データは、道路領域外に存在しない(異常点条件3
)。
Road data does not exist outside the road area (abnormal point condition 3)
).

このように、道路データを点で評価し、かつ領域データ
と線分データとの整合をとるようにしているので、道路
を認識するための優れた評価結果が得られる。
In this way, since the road data is evaluated in terms of points and the area data and line segment data are matched, excellent evaluation results for road recognition can be obtained.

データ評価部16における処理のフローは、第17図に
示すようになる。
The flow of processing in the data evaluation section 16 is shown in FIG.

データ管理部15からの同一時刻に位置補正された射影
変換後の3つの画像処理結果にもとづいて、まず道路デ
ータとして妥当か否かを以下の条件により決定し、その
結果にしたがって1つの信頼できる道路データを作成し
てローカルマツプ管理部17に出力する。
Based on the three image processing results after projective transformation whose position was corrected at the same time from the data management unit 15, first, it is determined whether or not it is valid as road data based on the following conditions, and according to the result, one reliable image is determined. Road data is created and output to the local map management section 17.

なお、その際、同一時刻に位置補正することにより3つ
の画像処理結果であるデータ間の比較を容易にしている
。また、射影変換することにより、道路が平面であると
いう条件のもとで、道路データの幾何学的評価を容易に
している。
Note that, at this time, by performing positional correction at the same time, it is possible to easily compare the data that is the result of the three image processings. In addition, projective transformation facilitates geometric evaluation of road data under the condition that the road is flat.

また、第1O図の構成にあって、ローカルマツプ管理部
17は、道路エツジデータをベクトル表現化し、ローカ
ルマツプデータとしてローカルマツプデータベース18
に格納する。
In addition, in the configuration shown in FIG. 1O, the local map management unit 17 converts the road edge data into a vector representation and stores it as local map data in the local map database 18.
Store in.

そのモジュールとしては、データ評価部16から与えら
れる道路区分線のデータやレーダ装置20から与えられ
る障害物位置のデータなどから、車両のおかれた環境を
ローカルマツプという形で表現する部分と、その作成さ
れたローカルマツプを管理する部分とからなっている。
The module includes a part that expresses the environment in which the vehicle is located in the form of a local map based on data on road markings given from the data evaluation unit 16, data on obstacle positions given from the radar device 20, etc. It consists of a part that manages the created local map.

ローカルマツプとは、車両を原点に据えた地表面の平面
座標上に道路区分線や障害物位置などを写像したマツプ
である。
A local map is a map in which road markings, obstacle positions, etc. are mapped onto the plane coordinates of the ground surface with the vehicle as the origin.

そして、ローカルマツプ管理部17は、画像処理部2、
データ管理部15、データ評価部16゜ナビゲーション
装置21からのマツプ参照の要求に対して、必要な範囲
のマツプをローカルマツプデータベース18より取り出
して、現在時刻の車両位置に合せて座標変換して出力す
る。
Then, the local map management section 17 includes the image processing section 2,
Data management unit 15, data evaluation unit 16: In response to a map reference request from the navigation device 21, a map of the necessary range is retrieved from the local map database 18, coordinates are converted according to the vehicle position at the current time, and output. do.

また、ローカルマツプ管理部17は、ローカルマツプ上
に今回処理時の道路エツジの線分を重ね、過去のデータ
との連結関係、車両との相対位置関係などによってその
線分の属性を決定し、何れの属性にも属さない線分を除
去する。
In addition, the local map management unit 17 superimposes the line segment of the road edge at the time of current processing on the local map, determines the attributes of the line segment based on the connection relationship with past data, the relative positional relationship with the vehicle, etc. Remove line segments that do not belong to any attribute.

ローカルマツプをもつ利点としては、各種のセンサ系か
らの出力を統一的に取り扱うことが可能となり、また、
−度の画像処理では曲り角などのカメラ視野の死角とな
って見えなくなる部分を過去のデータを用いて補足する
ことが可能となり、また、ローカルマツプをセンサ系が
参照することで系の信頼性を向上させることが可能とな
ることなどがあげられる。
The advantage of having a local map is that it makes it possible to handle outputs from various sensor systems in a unified manner, and
- degree image processing makes it possible to use past data to supplement areas that become invisible due to blind spots in the camera field of view, such as curved corners, and also improves the reliability of the system by having the sensor system refer to the local map. Examples include things that can be improved.

また、ローカルマツプ管理部17は、複数のローカルマ
ツプを作成し、保持している。それにより、他の構成部
からのアクセス要求があった場合。
Furthermore, the local map management section 17 creates and maintains a plurality of local maps. As a result, if there is an access request from another component.

すでに処理の終っているローカルマツプのデータを参照
すればよく、現在処理中のローカルマツプの完成をまつ
必要がないという利点と、排他制御が必要なくなるため
にアクセス管理が容易になるという利点をあわせもつ。
This method has the advantage of not having to wait for the completion of the local map that is currently being processed as it is only necessary to refer to the data of the local map that has already been processed, and the advantage that access management becomes easier because exclusive control is no longer required. Motsu.

また、第10図の構成にあって、制御スーパバイザ19
は、運転者とのマンマシンインタフェネスにより、自動
走行と手動走行との切換え、および自動走行による走行
開始と走行中止との切換えを行う。
Furthermore, in the configuration shown in FIG. 10, the control supervisor 19
uses a man-machine interface with the driver to switch between automatic driving and manual driving, and to switch between starting and stopping automatic driving.

また、制御スーパバイザ19は、ローカルマツプ、ナビ
ゲーション装T121からの地図情報および誘4情報、
レーダ装置20によって検知された障害物などの画像以
外の外界情報をもとに、走行車線の選択、障害物回避の
必要性の吟味などを行い、走行可能領域を決定する。そ
して、その決定された走行可能領域内において車両走行
の目標経路を設定し、その目標経路のデータを制御部5
′に学える。
The control supervisor 19 also receives the local map, map information from the navigation device T121, and information from the navigation device T121.
Based on outside world information other than images of obstacles detected by the radar device 20, a driving lane is selected, the necessity of avoiding obstacles is examined, and a driveable area is determined. Then, a target route for the vehicle is set within the determined drivable area, and the data of the target route is sent to the control unit 5.
You can learn from '.

また、制御スーパバイザ19は、画像の視野距離、車速
1画像処理に要する時間、ナビゲーション装置21から
得られる現在走行中の道路における法定速度などの情報
を参酌して、車両の走行速度を決定し、その決定された
走行速度、およびその走行速度に達するまでの走行距離
の各指定を制御部5′に与える。
In addition, the control supervisor 19 determines the traveling speed of the vehicle by taking into account information such as the visual field distance of the image, the time required for one image processing of the vehicle speed, and the legal speed on the road on which the vehicle is currently traveling obtained from the navigation device 21. The determined running speed and each designation of the running distance until reaching the running speed are given to the control section 5'.

制御部5′としては、ここでは、経路予測部22、経路
制御部23および車速制御部24からなっている。
The control section 5' here includes a route prediction section 22, a route control section 23, and a vehicle speed control section 24.

経路予測部22は、各センサによってそれぞれ検出され
た車速V、ヨーレートT、タイヤ角度δによって求めら
れる車体の運動量(その他、横加速度センサによって検
出される車体の横滑り角などを加味してもよい)にした
がって、車両のX−Y座標上の予測経路(第8図中の予
測経路AC)を算出する。また、それは1時刻と座標を
共有メモリ上に書き込むことにより、本装置の基準時計
の役目を果たす。
The route prediction unit 22 calculates the momentum of the vehicle body determined by the vehicle speed V, yaw rate T, and tire angle δ detected by each sensor (other factors such as the sideslip angle of the vehicle body detected by the lateral acceleration sensor may also be taken into consideration). Accordingly, a predicted route of the vehicle on the X-Y coordinates (predicted route AC in FIG. 8) is calculated. It also serves as a reference clock for the device by writing the time and coordinates on the shared memory.

経路制御部23は、制御スーパバイザ19から与えられ
る走行可能領域内に設定された目標経路のデータと、経
路予測部22から与えられる予測経路のデータとに応じ
て、現在の車両位置および車両の走行状態を考慮して、
実現可能で、かつ車両の走行を目標経路になめらかに追
従させる走行計画経路を発生する。そして、その走行計
画経路にしたがう舵角の目標値を決定し5舵角の制御指
令をステアリング制御部9に与えて、実際の舵角が目標
値になるような制御を行わせる。その際。
The route control unit 23 determines the current vehicle position and the travel of the vehicle according to the data of the target route set within the drivable area given by the control supervisor 19 and the data of the predicted route given from the route prediction unit 22. Considering the condition,
To generate a travel plan route that is realizable and allows a vehicle to smoothly follow a target route. Then, a target value of the steering angle according to the planned travel route is determined, and a control command for five steering angles is given to the steering control section 9 to perform control so that the actual steering angle becomes the target value. that time.

車両の走行状態をフィードバックして走行計画経路に追
従させるような舵角制御が行われる。
Steering angle control is performed that feeds back the driving state of the vehicle and causes the vehicle to follow the planned travel route.

このときの処理のフローを、第18図に示している。The flow of processing at this time is shown in FIG.

車速制御部24は、制御スーパバイザ19から指示され
た走行距離において指定速度になるように、車速の変化
パターンを計画する。
The vehicle speed control unit 24 plans a pattern of changes in vehicle speed so that the designated speed is achieved over the travel distance instructed by the control supervisor 19.

そして、その計画された車速変化パターンに実車速が追
従するようにスロットル開度およびブレーキ圧の目標値
を決定し、そのスロットル開度およびブレーキ圧の制御
指令をアクチュエータ制御部25に与えて、その制御下
において、実際のスロットル開度およびブレーキ圧が目
標値になるように、スコツ1−ルモータおよびブレーキ
ソレノイドバルブなどからなるアクチュエータ26の駆
動が行われる。
Then, target values for the throttle opening and brake pressure are determined so that the actual vehicle speed follows the planned vehicle speed change pattern, and control commands for the throttle opening and brake pressure are given to the actuator control section 25, and Under the control, the actuator 26, which is comprised of a scooter motor, a brake solenoid valve, etc., is driven so that the actual throttle opening and brake pressure become the target values.

第19図は車速制御のためのブロック構成例を示すもの
で、車速計画発生部40と、スロットル開度およびブレ
ーキ圧決定部41と、アクチュエータ制御部42と、ス
ロットルモータ43およびブレーキソレノイドバルブ4
4からなるアクチュエータとからなっている。図中、4
5は車速制御の対象となる車両を示している。スロット
ルモータ43には、そのモータ駆動量にしたがって実ス
ロツトル開度Txを検出するセンサ(図示せず)が設け
られている。ブレーキソレノイドバルブ44には、その
バルブ駆動量にしたがって実ブレーキ圧Bxを検出する
センサ(図示せず)が設けられている。また、車両45
には、実走行比11Lx、実車速Vxおよび実加速度A
xをそれぞれ検出する各センサ(図示せず)が設けられ
ている。
FIG. 19 shows an example of a block configuration for vehicle speed control, which includes a vehicle speed plan generation section 40, a throttle opening and brake pressure determination section 41, an actuator control section 42, a throttle motor 43, and a brake solenoid valve 4.
It consists of four actuators. In the diagram, 4
5 indicates a vehicle subject to vehicle speed control. The throttle motor 43 is provided with a sensor (not shown) that detects the actual throttle opening Tx according to the amount of motor drive. The brake solenoid valve 44 is provided with a sensor (not shown) that detects the actual brake pressure Bx according to the valve drive amount. In addition, vehicle 45
The actual driving ratio 11Lx, the actual vehicle speed Vx, and the actual acceleration A
Sensors (not shown) are provided to respectively detect x.

車速計画発生部40は、指定走行距離Lr、指定速度V
rおよび目標経路O8の各入力データにしたがって、そ
の目標経路O8上を指定された距1i 1− rだけ走
行したときに指定された車速になるような車速計画を1
例えばファジィ推論によって作成する。そして、車両の
実走行圧1iLxおよび実車速Vxに応して、その作成
された車速計画にしたがって目標車速Vsを逐次設定し
ていく。
The vehicle speed plan generation unit 40 generates a specified travel distance Lr and a specified speed V.
According to each input data of r and the target route O8, a vehicle speed plan is created so that the vehicle reaches the specified speed when traveling the specified distance 1i 1-r on the target route O8.
For example, it is created by fuzzy reasoning. Then, the target vehicle speed Vs is successively set according to the created vehicle speed plan in accordance with the vehicle's actual running pressure 1iLx and the actual vehicle speed Vx.

スロットル開度およびブレーキ圧決定部41は。The throttle opening degree and brake pressure determination section 41 is.

中速計画発生部40から与えられる目標車速Vsにした
がって、実際に検出される車両の車速Vxおよび加速度
Axから得られる車両の走行状態をみながら、その目標
車速Vsに追従させるための目標スロットル開度Tsお
よび目標ブレーキ圧Bxを、例えばファジィ推論によっ
て決定する。
In accordance with the target vehicle speed Vs given from the medium-speed plan generator 40, the target throttle opening is set to follow the target vehicle speed Vs while looking at the running state of the vehicle obtained from the actually detected vehicle speed Vx and acceleration Ax. The brake pressure Ts and the target brake pressure Bx are determined by, for example, fuzzy reasoning.

アクチュエータ制御部42は、スロットル開度およびブ
レーキ圧決定部41から与えられる目標スロットル開度
Tsおよび目標ブレーキ圧Bsになるように、実スロツ
トル開度Txおよび実ブレーキ圧Bxをフィードバック
させながら、スロットルモータ43およびブレーキソレ
ノイドバルブ44の駆動制御をそれぞれ行う。
The actuator control unit 42 controls the throttle motor while feeding back the actual throttle opening Tx and the actual brake pressure Bx so that the target throttle opening Ts and target brake pressure Bs given by the throttle opening and brake pressure determining unit 41 are achieved. 43 and brake solenoid valve 44, respectively.

第20図はナビゲーション装置21の構成例を示すもの
で5例えば車両のタイヤの回転に応じて単位走行距離ご
とのパルス信号を出力する光電式。
FIG. 20 shows an example of the configuration of the navigation device 21. For example, it is a photoelectric type that outputs a pulse signal for each unit travel distance according to the rotation of the tires of a vehicle.

電磁式または機械接点式などによる距離センサ46と、
例えば車両の走行にともなうヨ一方向の角速度の変化量
を比例した信号を出力するジャイロスコープなどからな
るヨーレートセンサ47と。
A distance sensor 46 of an electromagnetic type or a mechanical contact type,
For example, a yaw rate sensor 47 comprising a gyroscope that outputs a signal proportional to the amount of change in angular velocity in one direction as the vehicle travels.

距離センサ46からのパルス信号数をカウントして車両
の走行距離を計測するとともに、ヨーレートセンサ47
の出力信号にしたがって車両の進行方向の変化を求めて
、車両の単位走行距離ごとにおけるX−Y座標上の位置
を逐次演算によって求め、かつナビゲーション装置全体
の集中制御を行わせるC P U 、プログラム用RO
Mおよび制御用RAMなどからなる信号処理装置(コン
ピュータ制御部[)48と、その信号処理装置48によ
って求められた刻々変化するX−Y座標上の位置のデー
タを順次格納し、車両の現在位置に対応する有限の連続
位置情報としてそれを保持する走行軌跡記憶装置!49
と、予めデジタル化された道路地図情報がファイル11
1位で複数格納されている地図情報記憶媒体50と、そ
の記憶媒体50から必要な地図情報を選択的に読み出す
記憶媒体再生袋[!!51と、その読み出された地図情
報に応じて地図面性を画面に表示させるとともに、走行
軌跡記憶装置49に格納された位置データにもとづいて
車両の現在位置、それまでの走行軌跡および現在の進行
方向などを同一画面に刻々更新表示させる表示装置i!
52と、信号処理装置48へ動作指令を与えろとともに
1表示袋に52に表示させる地図の選択指定およびその
表示された地図上における車両の出発点の設定を行わせ
、また表示される地図上における走行予定経路にしたが
って車両の走行を誘導するための誘導情報の入力指示を
適宜性わせることのできる操作装置i!53とによって
構成されている。
The number of pulse signals from the distance sensor 46 is counted to measure the traveling distance of the vehicle, and the yaw rate sensor 47
A CPU, a program that determines changes in the traveling direction of the vehicle in accordance with output signals of the vehicle, determines the position on the X-Y coordinates for each unit traveling distance of the vehicle by sequential calculation, and performs centralized control of the entire navigation device. For RO
A signal processing device (computer control unit [) 48 consisting of M and control RAM, etc., sequentially stores the data of the position on the X-Y coordinates that changes every moment obtained by the signal processing device 48, and calculates the current position of the vehicle. A travel trajectory storage device that stores it as finite continuous position information corresponding to! 49
The road map information digitized in advance is file 11.
A storage medium recycling bag [! ! 51, the map surface characteristics are displayed on the screen according to the read map information, and the current position of the vehicle, the previous travel trajectory, and the current location are displayed based on the position data stored in the travel trajectory storage device 49. Display device i! that constantly updates information such as the direction of travel on the same screen!
52 and the signal processing device 48, as well as specifying the selection of the map to be displayed on the display bag 52 and setting the starting point of the vehicle on the displayed map, and An operating device i that can appropriately input guidance information for guiding the vehicle to travel according to the planned travel route! 53.

このように構成されたものでは、第21図に示すように
、選択的に読み出された道路地図が表示装置52の画面
に映し出されるとともに、その地図上において設定され
た出発点からの車両の走行にしたがって信号処理装置4
8により予め設定された地図の縮尺率に応じてX−Y座
標上に車両の現在位置を示す表示マークMl、その現在
位置における車両の進行方向を示す表示マークM2およ
び出発点Sから現在位置に至るまでの走行軌跡表示マー
クM3が車両の走行状態に追従して模擬的に表示される
With this configuration, as shown in FIG. 21, a road map that has been selectively read out is displayed on the screen of the display device 52, and the vehicle can be seen from the starting point set on the map. Signal processing device 4 as the vehicle travels
A display mark Ml indicating the current position of the vehicle on the X-Y coordinates according to the map scale rate preset by 8, a display mark M2 indicating the traveling direction of the vehicle at the current position, and a display mark M2 indicating the direction of travel of the vehicle at the current position, A driving trajectory display mark M3 up to this point is displayed in a simulative manner following the driving state of the vehicle.

また操作装置53の入力操作によって、画面に写し出さ
れた地図上における走行予定経路にしたがって車両の走
行を誘導するための誘導情報の入力指定を行わせる際1
例えば第22図に示すように、地図上の走行予定経路に
おける主要な交差点や分岐点に目標点a、b、e、・・
・を設定するとともに、その各目標点で右、左折などの
指示を与えることができるようにしている。
In addition, when inputting guidance information for guiding the vehicle to travel according to the planned travel route on the map displayed on the screen by inputting the operation device 53, 1
For example, as shown in Figure 22, target points a, b, e...
・It is also possible to give instructions such as turning right or left at each target point.

そして、信号処理装置!48がその入力された誘導情報
を読み込んで、例えば車両の現在位置の表示マークMl
が目標点aの一定の距離手前の位置りにきたときに、「
先方に7字路あり、右方の分岐路に進め」などを指示す
る誘導情報を発するようになっている。
And a signal processing device! 48 reads the input guidance information and displays, for example, a display mark Ml of the vehicle's current position.
When comes to a certain distance in front of target point a,
It is designed to emit guidance information such as ``There is a 7-junction ahead, take the fork on the right.''

しかして、第1O図に示した自動走行装置にあって、制
御スーパバイザ19は、ナビゲーション装置21から1
例えば「先方のY字路を右方の分岐路に進め」なる誘導
情報が与えられると、そこでは先方のY字路に相当する
走行可能領域が認識されているので、そのY字路の右方
の分岐路に相当する領域内に目標経路を設定するように
する。
Therefore, in the automatic traveling system shown in FIG.
For example, when guidance information such as ``Go to the right branch road at the Y-junction ahead'' is given, the driveable area corresponding to the Y-junction ahead is recognized, so the right side of the Y-junction The target route is set within the area corresponding to the branch road.

また、ナビゲーション装[21における地図情報記憶媒
体50には、地図上における各道路の法定速度などの種
々の誘導情報が登録されており。
Furthermore, various guidance information such as the legal speed of each road on the map is registered in the map information storage medium 50 in the navigation device [21].

車両が現在走行中の道路における法定速度などの誘導情
報が読み出されて制御スーパバイザ19に与えられるよ
うになっている。
Guidance information such as the legal speed on the road on which the vehicle is currently traveling is read out and given to the control supervisor 19.

紘果 以上、本発明による自動走行装置にあっては、車両に取
り付けられた撮像装置により車両の進行方向の領域を撮
像することによって得られる画像を画像処理することに
より車両の走行可能領域を認識する手段と、その認識結
果にもとづいて走行可能領域内における車両走行の目標
経路を設定する手段と、車両の走行状態を検出する手段
と、その検出された車両の走行状態にもとづいて車両が
目標経路上を走行するのに必要な制御目標量を求める手
段と、その求められた制御目標量にしたがって目標経路
に追従させるように車両の走行制御を行わせる手段とを
有するものにおいて、特に、制御対象を車両の舵角に設
定し、現在検出されている車両の走行状態からこれから
先の走行経路を予測し、その車両の予測経路と前記目標
経路との偏差から車両が目標経路上を走行するための舵
角補正量を求め、その舵角補正量を前記制御目標量とし
て車両の走行制御を行わせるようにしたもので、車両の
実際の走行状態にみあった目標経路へ追従させるための
走行制御を最適に行わせることができるという優れた利
点を有している。
Hiroka As described above, the automatic driving device according to the present invention recognizes the driveable area of the vehicle by image processing an image obtained by capturing an area in the direction of travel of the vehicle using an imaging device attached to the vehicle. means for setting a target route for the vehicle within the drivable area based on the recognition result; means for detecting the driving condition of the vehicle; and means for determining the target route for the vehicle based on the detected driving condition. In a vehicle having a means for determining a control target amount necessary for traveling on a route, and a means for controlling the vehicle to follow the target route according to the determined control target amount, in particular, the control The target is set to the vehicle's steering angle, the future travel route is predicted from the currently detected vehicle travel state, and the vehicle travels on the target route based on the deviation between the vehicle's predicted route and the target route. The steering angle correction amount is determined and the steering angle correction amount is used as the control target amount to control the running of the vehicle. It has the excellent advantage of being able to optimally perform travel control.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明による自動走行装置の一実施例を示すブ
ロック構成図、第2図はビデオカメラによって撮像され
た画像のデータ処理を行うことによって得られた道路の
線分を示す図、第3図は第2図の画像を射影変換するこ
とによって得られた画像を示す図、第4図はX−Y座標
上の線分を示す図、第5図は第4図の線分をHough
変換したときのρ−θ座標上の点を示す図、第6図は道
路上に設定された目標経路の一例を示す図、第7図(a
)、(b)は車両の低速時および高速時に道路上に設定
される目標経路をそれぞれ示す図、第8図は目標経路と
車両の予測経路との関係を示す図、第9図は車両の舵角
とその回転半径との関係を示す図、第10図は第1図に
示した本発明による自動走行装置のより詳細なブロック
構成図、第11図はデータ管理部の構成例を示すブロッ
ク図。 第12図はデータ管理部がデュアルポートRAMの内容
を読みにいく際の処理のフローを示す図、第13図はデ
ータ管理部におけるデータリクエスト時の処理のフロー
を示す図、第14図は異なる時刻における絶対座標X−
Y上における車両の位置と向きを示す特性図、第15図
は画像処理結果を要望の時刻での車両の位置関係に補正
する際の処理のフローを示す図、第16図(a)、(b
)は車両のある時刻における位置の相対座標上の点を車
両の異なる時刻における位置の他の相対座標上の点に変
換する際の各座標位置関係を示す図。 第17図はデータ評価部における処理のフローを示す図
、第18図は経路制御部における処理のフローを示す図
、第19図は車速制御部の構成例を示すブロック図、第
20図はナビゲーション装置の構成例を示すブロック図
、第21図はナビゲーション装置の表示画面の一例を示
す図、第22図はナビゲーション装置における走行予定
経路上への誘導情報の入力状態を示す図である。 1・・・撮像部 2・・・画像処理部 3・・・走行可
能領域認識部 4・・・目標経路設定部 5・・・制御
部 6・・車速センサ 7・・・ヨーレートセンサ 8
・・・舵角センサ 9・・・ステアリング制御部 IO
・・・ステアリング駆動部 11・・・大局的線分抽出
部 12・・・局所的線分追跡部 13・・・領域抽出
部 14・・・走行可能領域認識および目標経路設定部
 I5・・・データ管理部 16・・・データ評価部 
17・・・ローカルマツプ管理部 18・・・ローカル
マツプデータベース 19・・・制御スーパバイザ 2
o・・・レーダ装置21・・・ナビゲーション装置 2
2・・・経路予測部23経路制御部 24・・・車速制
御部 AC・・・予測経路 OC・・・目標経路 畠願人代理人  鳥井 清 第 図 第 図 ρ 第 6 図 (○) (b) 第 図 第 0 図 第 6 図 第 12 図 第 3 図 第 14 図 第 5 図 第 7 図 第 8 図 第 21 図 3 第 2 図
FIG. 1 is a block configuration diagram showing an embodiment of an automatic driving device according to the present invention, FIG. 2 is a diagram showing road line segments obtained by data processing an image captured by a video camera, and FIG. Figure 3 is a diagram showing an image obtained by projective transformation of the image in Figure 2, Figure 4 is a diagram showing line segments on the X-Y coordinates, and Figure 5 is a diagram showing the line segments in Figure 4 by Hough
Figure 6 shows an example of a target route set on a road; Figure 7 shows points on the ρ-θ coordinates when converted;
) and (b) are diagrams showing the target routes set on the road when the vehicle is running at low speeds and at high speeds, Figure 8 is a diagram showing the relationship between the target route and the predicted route of the vehicle, and Figure 9 is a diagram showing the relationship between the target route and the predicted route of the vehicle. A diagram showing the relationship between the steering angle and its turning radius, FIG. 10 is a more detailed block configuration diagram of the automatic traveling device according to the present invention shown in FIG. 1, and FIG. 11 is a block diagram showing an example of the configuration of the data management section. figure. Figure 12 is a diagram showing the flow of processing when the data management unit reads the contents of the dual port RAM, Figure 13 is a diagram showing the flow of processing when the data management unit requests data, and Figure 14 is different. Absolute coordinate at time X-
A characteristic diagram showing the position and orientation of the vehicle on Y, FIG. 15 is a diagram showing the processing flow when correcting the image processing result to the positional relationship of the vehicle at the desired time, and FIGS. 16(a), ( b
) is a diagram showing each coordinate positional relationship when converting a point on the relative coordinates of the vehicle's position at a certain time to a point on the other relative coordinates of the vehicle's position at a different time. Fig. 17 is a diagram showing the flow of processing in the data evaluation unit, Fig. 18 is a diagram showing the flow of processing in the route control unit, Fig. 19 is a block diagram showing a configuration example of the vehicle speed control unit, and Fig. 20 is a navigation diagram. FIG. 21 is a block diagram showing an example of the configuration of the device, FIG. 21 is a diagram showing an example of a display screen of the navigation device, and FIG. 22 is a diagram showing the input state of guidance information on the planned travel route in the navigation device. 1... Imaging unit 2... Image processing unit 3... Drivable area recognition unit 4... Target route setting unit 5... Control unit 6... Vehicle speed sensor 7... Yaw rate sensor 8
... Rudder angle sensor 9 ... Steering control section IO
...Steering drive unit 11...Global line segment extraction unit 12...Local line segment tracing unit 13...Region extraction unit 14...Drivable area recognition and target route setting unit I5... Data management department 16...Data evaluation department
17...Local map management section 18...Local map database 19...Control supervisor 2
o...Radar device 21...Navigation device 2
2...Route prediction unit 23 Route control unit 24...Vehicle speed control unit AC...Predicted route OC...Target route Hatake Gan's agent Kiyoshi Torii Figure ρ Figure 6 (○) (b ) Figure 0 Figure 6 Figure 12 Figure 3 Figure 14 Figure 5 Figure 7 Figure 8 Figure 21 Figure 3 Figure 2

Claims (1)

【特許請求の範囲】 1、車両に取り付けられた撮像装置により車両の進行方
向の領域を撮像することによって得られる画像を画像処
理することにより車両の走行可能領域を認識する手段と
、その認識結果にもとづいて走行可能領域内における車
両走行の目標経路を設定する手段と、車両の走行状態を
検出する手段と、その検出された車両の走行状態にもと
づいて車両が目標経路上を走行するのに必要な制御目標
量を求める手段と、その求められた制御目標量にしたが
って目標経路に追従させるように車両の走行制御を行わ
せる手段とを有し、制御対象を車両の舵角に設定し、現
在検出されている車両の走行状態からこれから先の走行
経路を予測し、その車両の予測経路と前記目標経路との
偏差から車両が目標経路上を走行するための舵角補正量
を求め、その舵角補正量を前記制御目標量として車両の
走行制御を行わせるようにしたことを特徴とする自動走
行装置。 2、現在の車両の向きをY軸方向としたときのY軸方向
の一定距離先におけるX軸上の車両到達位置を予測し、
その予測位置とY軸方向の一定距離先における目標経路
上の前記同一のX軸上にある目標位置との偏差に応じた
舵角補正量を求めるようにしたことを特徴とする前記第
1項の記載による自動走行装置。
[Claims] 1. Means for recognizing a driveable area of a vehicle by image processing an image obtained by capturing an area in the traveling direction of the vehicle with an imaging device attached to the vehicle, and the recognition result. means for setting a target route for a vehicle to travel within a drivable area based on the driving conditions; means for detecting a driving condition of the vehicle; It has means for determining a necessary control target amount, and means for controlling the running of the vehicle so as to follow the target route in accordance with the determined control target amount, and the control target is set to the steering angle of the vehicle, The future driving route is predicted from the currently detected driving state of the vehicle, and the amount of steering angle correction for the vehicle to travel on the target route is calculated from the deviation between the predicted route of the vehicle and the target route. An automatic travel device characterized in that a vehicle travel control is performed using a steering angle correction amount as the control target amount. 2. Predict the vehicle's arrival position on the X-axis after a certain distance in the Y-axis direction when the current direction of the vehicle is in the Y-axis direction,
Item 1 above, wherein a steering angle correction amount is determined in accordance with a deviation between the predicted position and a target position on the same X-axis on the target route at a certain distance ahead in the Y-axis direction. Automatic traveling device according to the description.
JP2027688A 1990-02-07 1990-02-07 Automatic traveling device Expired - Lifetime JP2923664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2027688A JP2923664B2 (en) 1990-02-07 1990-02-07 Automatic traveling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2027688A JP2923664B2 (en) 1990-02-07 1990-02-07 Automatic traveling device

Publications (2)

Publication Number Publication Date
JPH03231311A true JPH03231311A (en) 1991-10-15
JP2923664B2 JP2923664B2 (en) 1999-07-26

Family

ID=12227911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2027688A Expired - Lifetime JP2923664B2 (en) 1990-02-07 1990-02-07 Automatic traveling device

Country Status (1)

Country Link
JP (1) JP2923664B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5350912A (en) * 1992-01-17 1994-09-27 Honda Giken Kogyo Kabushiki Kaisha System for controlling movement of a mobile body along a target path
JP2005228136A (en) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd Road area detecting device
CN112673230A (en) * 2018-07-04 2021-04-16 日产自动车株式会社 Driving assistance method and driving assistance device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5350912A (en) * 1992-01-17 1994-09-27 Honda Giken Kogyo Kabushiki Kaisha System for controlling movement of a mobile body along a target path
DE4300941B4 (en) * 1992-01-17 2009-06-04 Honda Giken Kogyo K.K. System for controlling a moving body
JP2005228136A (en) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd Road area detecting device
CN112673230A (en) * 2018-07-04 2021-04-16 日产自动车株式会社 Driving assistance method and driving assistance device

Also Published As

Publication number Publication date
JP2923664B2 (en) 1999-07-26

Similar Documents

Publication Publication Date Title
US5307419A (en) Control device of an autonomously moving body and evaluation method for data thereof
US10118614B2 (en) Detailed map format for autonomous driving
JP2660727B2 (en) Automatic traveling device
US9921585B2 (en) Detailed map format for autonomous driving
CN107422730A (en) The AGV transportation systems of view-based access control model guiding and its driving control method
CN108622093A (en) The track of intelligent vehicle keeps control method and device
JPH03268109A (en) Automatic traveling device
JP2022504728A (en) Positioning methods, routing methods, devices, robots and storage media
CN107389084A (en) Planning driving path planing method and storage medium
CN108398951A (en) A kind of robot pose measurement method and apparatus combined of multi-sensor information
Jun et al. Autonomous driving system design for formula student driverless racecar
Miao et al. Path-following control based on ground-watching navigation
JPH0727541A (en) Measuring device for road shape and vehicle position
CN111857121A (en) Patrol robot walking obstacle avoidance method and system based on inertial navigation and laser radar
EP0354562B1 (en) Automatic travelling apparatus
JPH07296291A (en) Traveling lane detector for vehicle
JPH03268110A (en) Automatic traveling device
JP2603523B2 (en) Automatic traveling device
JP2923664B2 (en) Automatic traveling device
JP3200062B2 (en) Evaluation method for moving path data
JPH07271978A (en) Image processor
JP3736044B2 (en) Road white line detector
Liu et al. Campus guide: A lidar-based mobile robot
Heimes et al. Real-time tracking of intersections in image sequences of a moving camera
JP2836949B2 (en) Control device for autonomous mobile

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080507

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100507

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100507

Year of fee payment: 11