JP2835765B2 - Automatic traveling device - Google Patents

Automatic traveling device

Info

Publication number
JP2835765B2
JP2835765B2 JP2064588A JP6458890A JP2835765B2 JP 2835765 B2 JP2835765 B2 JP 2835765B2 JP 2064588 A JP2064588 A JP 2064588A JP 6458890 A JP6458890 A JP 6458890A JP 2835765 B2 JP2835765 B2 JP 2835765B2
Authority
JP
Japan
Prior art keywords
vehicle
target
traveling
image
target route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2064588A
Other languages
Japanese (ja)
Other versions
JPH03265009A (en
Inventor
真之助 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2064588A priority Critical patent/JP2835765B2/en
Publication of JPH03265009A publication Critical patent/JPH03265009A/en
Application granted granted Critical
Publication of JP2835765B2 publication Critical patent/JP2835765B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 技術分野 本発明は、走行路を探索しながら車両の自動走行を行
わせる自動走行装置に関する。
Description: TECHNICAL FIELD The present invention relates to an automatic traveling device that allows a vehicle to travel automatically while searching for a traveling road.

従来技術 最近、自ら走行路を探索しながら、その走行路上に最
適な目標経路を設定して、車両がその目標経路上を走行
するべく車両の走行制御を行わせるようにした自動走行
装置が開発されている。
2. Description of the Related Art Recently, there has been developed an automatic traveling device that sets an optimal target route on a traveling route while searching for the traveling route by oneself and controls the traveling of the vehicle so that the vehicle travels on the target route. Have been.

従来、この種の自動走行装置にあっては、車両に取り
付けられた撮像装置により車両の進行方向の領域を撮像
し、サンプリングすることによって得られた画像のデー
タにもとづいて道路エッジなどの連続した線分の抽出を
行い、その抽出された線分にもとづいて車両の進行方向
における走行可能領域を認識し、その認識された走行可
能領域内に車両走行の目標経路を設定したうえで、現在
検出されている車両の走行状態にしたがって、目標経路
上に設定された目標点に車両を合流させるのに必要な制
御目標量を所定の演算によって予測的に求め、その求め
られた制御目標量にしたがって、車両を目標経路に追従
して走行させるような車両の走行制御を、所定の制御周
期をもって順次行わせるようにしている(特願昭63−19
9610号参照)。
Conventionally, in an automatic traveling apparatus of this type, an image capturing apparatus attached to a vehicle captures an image of a region in a traveling direction of the vehicle, and a continuous image such as a road edge is obtained based on image data obtained by sampling. A line segment is extracted, a travelable region in the traveling direction of the vehicle is recognized based on the extracted line segment, and a target route for vehicle travel is set in the recognized travelable region, and the current detection is performed. According to the running state of the vehicle, a control target amount required to join the vehicle to a target point set on the target route is predictively obtained by a predetermined calculation, and according to the obtained control target amount. The running control of the vehicle such that the vehicle follows the target route is sequentially performed at a predetermined control cycle (Japanese Patent Application No. 63-19 / 1988).
No. 9610).

しかして、このような自動走行装置では、撮像画像を
サンプリングしてから、そのサンプリング画像のデータ
にもとづいて車両の走行可能領域を認識するまでの処理
に要する時間(以下これを画像処理時間という)が、撮
像装置によって撮像される車両の進行方向の領域が複雑
か否か、すなわちサンプリング画像のデータ量が多いか
否かによって、または画像のなかから走行可能領域を認
識するために用いられる道路エッジの抽出やカラー情報
による道路の白線抽出などの具体的な画像処理方法に応
じて、それぞれ異なるものとなっている。
In such an automatic traveling apparatus, a time required for processing from sampling of a captured image to recognizing a travelable area of the vehicle based on data of the sampled image (hereinafter, referred to as image processing time). However, a road edge used for recognizing a travelable area based on whether the area in the traveling direction of the vehicle imaged by the imaging device is complex, that is, whether the data amount of the sampling image is large, or from the image. And different image processing methods such as extraction of white lines on a road using color information.

また、目標経路上に目標点を設定する場合、従来で
は、目標点への合流を車両の走行速度に応じて円滑に行
わせるべく、一定の予測時間を定めて、その予測時間と
現在検出されている車速とから求められる所定の距離だ
け先方の位置に、目標点を設定するようにしている。
In addition, when setting a target point on a target route, conventionally, in order to smoothly join the target point in accordance with the traveling speed of the vehicle, a predetermined prediction time is determined, and the prediction time and the current detection time are determined. The target point is set at a position ahead of the vehicle by a predetermined distance obtained from the vehicle speed.

このように従来では、画像処理時間を何ら考慮するこ
となく、目標経路上に目標点を設定して、その目標点に
車両を合流させるような車両の走行制御を行わせるよう
にしているので、その制御に直接かかわりのない前処理
としての画像処理時間が長くなると、目標経路に対する
追従性が低下してしまい、目標経路に追従させる際の車
両の走行が不安定になってしまう。
As described above, conventionally, without considering the image processing time, a target point is set on the target route, and the traveling control of the vehicle such that the vehicle joins the target point is performed. If the image processing time as the pre-processing that is not directly related to the control becomes long, the followability to the target route is reduced, and the running of the vehicle when following the target route becomes unstable.

また、目標経路上の目標点に車両を合流させるような
車両の走行制御を行わせるに際して、画像処理時間が変
動すると、目標経路に対する実際の車両位置が不定とな
って制御量が変化し、制御の応答ゲインが変動したこと
と同じになって、画像処理時間が長くなると車両の走行
制御が不安定になってしまう。
In addition, when performing the running control of the vehicle such that the vehicle merges with the target point on the target route, if the image processing time fluctuates, the actual vehicle position with respect to the target route becomes unstable, and the control amount changes. As the response gain changes, the running control of the vehicle becomes unstable if the image processing time becomes longer.

目的 本発明は以上の点を考慮してなされたもので、各制御
周期ごとに不定となり、またその制御周期に大きな割合
を占める画像処理時間を考慮して、その認識された走行
可能領域内に設定された目標経路に追従して車両を走行
させるための制御を最適に行わせることができるように
した自動走行装置を提供するものである。
Objective The present invention has been made in consideration of the above points, and becomes indefinite for each control cycle, and takes into consideration the image processing time that accounts for a large proportion of the control cycle, and within the recognized travelable area. It is an object of the present invention to provide an automatic traveling device that can optimally perform control for traveling a vehicle following a set target route.

構成 本発明は、その目的達成のため、目標経路上に目標点
を設定して、車両をその目標点に合流させるための制御
目標量を予測的に求めて車両の走行制御を行わせる際、
撮像画像をサンプリングしてから走行可能領域を認識す
るまでの画像処理時間に応じて、前記目標経路上におけ
る目標点の位置を可変に設定するようにしたことを特徴
としている。
Configuration The present invention sets a target point on a target route to achieve the object, and when performing a traveling control of the vehicle by predictively obtaining a control target amount for merging the vehicle with the target point,
The position of the target point on the target route is variably set according to the image processing time from the sampling of the captured image to the recognition of the travelable area.

以下、添付図面を参照して本発明の一実施例について
詳述する。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

本発明による自動走行装置にあっては、第1図に示す
ように、車両の進行方向の領域を撮像することができる
ように車両に取り付けられたビデオカメラなどによる撮
像部1と、その撮像部1によって撮像された画像をサン
プリングし、そのサンプリング画像のデータを処理して
道路エッジなどの連続した線分の抽出を行う画像処理部
2と、その抽出された連続した線分にしたがって道路な
どの車両の走行可能領域を認識する走行可能領域認識部
3と、その認識された走行可能領域内に車両走行の目標
経路を設定する目標経路設定部4と、車両の走行速度v
を検出する車速センサ6,車両の走行にともなうヨー方向
の角速度変化分であるヨーレートΥを検出するヨーレー
トセンサ7および車両の舵角δを検出する舵角センサ8
などの各センサ出力に応じてそのときの車両の走行状態
を検出して、その検出された車両の走行状態にもとづい
て車両が目標経路上を走行するのに必要な舵角の制御目
標量を所定の演算処理によって求めるとともに、この自
動走行装置全体の集中制御を行わせ、また画像をサンプ
リングしてから走行可能領域が認識されるまでの所要時
間(画像処理時間)を計測する制御部5と、その求めら
れた制御目標量にしたがって車両の操舵を行わせるステ
アリング制御部9およびステアリング駆動部10とによっ
て構成されている。
In an automatic traveling apparatus according to the present invention, as shown in FIG. 1, an imaging unit 1 such as a video camera attached to a vehicle so as to be able to image an area in the traveling direction of the vehicle, and the imaging unit An image processing unit 2 that samples an image captured by the image processing unit 1 and processes data of the sampled image to extract a continuous line segment such as a road edge; and a road or the like according to the extracted continuous line segment. A travelable area recognizing section 3 for recognizing a travelable area of the vehicle, a target route setting section 4 for setting a target route for vehicle travel in the recognized travelable area, and a traveling speed v of the vehicle.
, A yaw rate sensor 7 for detecting a yaw rate あ る, which is an angular velocity change in the yaw direction along with the running of the vehicle, and a steering angle sensor 8 for detecting a steering angle δ of the vehicle.
Detects the running state of the vehicle at that time according to the output of each sensor, and determines the control target amount of the steering angle required for the vehicle to travel on the target route based on the detected running state of the vehicle. A control unit 5 for obtaining a predetermined arithmetic processing, performing centralized control of the entire automatic traveling apparatus, and measuring a required time (image processing time) from sampling of an image to recognition of a travelable area; And a steering control unit 9 and a steering drive unit 10 for steering the vehicle according to the obtained control target amount.

実際には、画像処理部2,走行可能領域認識部3,目標経
路設定部4および制御部5はマイクロコンピュータによ
って置き換えられる。また、そのコンピュータにステア
リング制御部9をも含めることも可能である。
Actually, the image processing unit 2, the travelable area recognition unit 3, the target route setting unit 4, and the control unit 5 are replaced by a microcomputer. Further, the steering control unit 9 can be included in the computer.

撮像部1におけるビデオカメラとしては、標準レンズ
によるもの以外に、車速や走行中の道路状況などに応じ
た適切な画像が得られるように望遠レンズや広角レンズ
によるものが設けられ、また夜間用などに赤外線カメラ
や超高感度カメラなどの特殊なビデオカメラが複数設け
られており、コンピュータの制御下において、それら複
数のビデオカメラが車速や撮像画像の状態などに応じて
適宜切り換えられて使用されるようになっている。
As a video camera in the imaging unit 1, a camera using a telephoto lens or a wide-angle lens is provided in addition to a camera using a standard lens so that an appropriate image can be obtained according to a vehicle speed or a road condition during traveling. Are provided with a plurality of special video cameras such as an infrared camera and an ultra-sensitive camera, and under control of a computer, the plurality of video cameras are appropriately switched and used according to a vehicle speed, a state of a captured image, and the like. It has become.

また、撮像特性が同一の2台のビデオカメラを並設し
て、2眼立体視による画像を得るようにすることも可能
である。
It is also possible to arrange two video cameras having the same imaging characteristics in parallel to obtain an image by binocular stereovision.

画像処理部2における道路エッジなどの連続した線分
の抽出は、以下のようにして行われる。
The extraction of continuous line segments such as road edges in the image processing unit 2 is performed as follows.

まず、撮像部1から送られてくる撮像画像をサンプリ
ングして、そのサンプリングされた入力画像を微分処理
することによって画像エッジの検出の処理を行わせたう
えで、画像処理部2内に設けられた自動しきい値設定回
路により、そのときの入力画像の濃淡の程度に応じた最
適しきい値を自動的に設定して、そのエッジ画像の2値
化を行わせる。
First, a sampled image sent from the image pickup unit 1 is sampled, and the sampled input image is differentiated to perform image edge detection processing. The automatic threshold value setting circuit automatically sets an optimum threshold value according to the density of the input image at that time, and binarizes the edge image.

なおその際、入力画像の2値化を先に行わせたうえ
で、エッジ検出のための微分処理を行わせるようにして
もよい。また、2値化を行わせる代わりに、画像の濃淡
を表現した多値化を行わせるようにしてもよい。
At that time, the binarization of the input image may be performed first, and then the differentiation processing for edge detection may be performed. Further, instead of performing binarization, multi-value conversion expressing the shading of an image may be performed.

次いで、そのエッジ検出され、2値化または多値化さ
れた処理画像にもとづいて、X−Y座標上の線分をρ−
θ座標上の点であらわす座標変換を行わせる公知手法で
あるHough変換処理を行わせることにより、連続性のあ
る点列を結合したり、連続性のない孤立した点を除去し
たりして、例えば第2図に示すような道路エッジの連続
した線分の情報を得る。
Next, based on the edge-detected and binarized or multi-valued processed image, a line segment on the XY coordinate is defined as ρ-
By performing a Hough transformation process, which is a known method of performing coordinate transformation represented by a point on the θ coordinate, a continuous point sequence is combined, or an isolated point having no continuity is removed, For example, information on a continuous line segment of a road edge as shown in FIG. 2 is obtained.

ここで、θはX−Y座標上の直線からその座標の原点
におろした垂線の角度であり、またρはその垂線の長さ
である。例えば、第8図に示すX−Y座標上の線分L
は、第9図に示すようにρ−θ座標上における点O1とし
てあらわされる。
Here, θ is the angle of the perpendicular drawn from the straight line on the XY coordinate to the origin of the coordinate, and ρ is the length of the perpendicular. For example, a line segment L on the XY coordinates shown in FIG.
Is represented as a point O1 on the ρ-θ coordinates as shown in FIG.

なおその際、2値化された処理画像にもとづいて、エ
ッジ追跡の処理を行わせて連続性をもった画像のエッジ
部分をわり出すようにしてもよい。また、画像エッジの
連続性を求めるためのHough変換処理およびエッジ追跡
処理などの複数の処理を並列的に行わせ、それら各処理
結果から総合的に判断するようにすれば、より精度の高
い道路エッジの情報を求めることができるようになる。
さらに、車両の走行にともなって入力画像の領域成長を
行いながら前述の連続性ある画像エッジの抽出のための
処理を行えば、より精度の高い道路エッジの情報の抽出
を行うことができるようになる。
In this case, based on the binarized processed image, an edge tracking process may be performed to extract an edge portion of the image having continuity. In addition, a plurality of processes such as a Hough transform process and an edge tracing process for obtaining continuity of an image edge are performed in parallel, and a comprehensive judgment is made based on a result of each of the processes. Edge information can be obtained.
Further, if the processing for extracting the above-described continuous image edge is performed while growing the area of the input image as the vehicle travels, more accurate road edge information can be extracted. Become.

走行可能領域認識部3は、撮像部1におけるビデオカ
メラによって撮像される画像が遠近投影によるものであ
るため、第2図に示すような遠近投影による道路エッジ
の画像を第3図に示すような遠近投影の影響をなくした
道路エッジの画像に変換する公知手法である射影変換処
理を行う。
Since the image captured by the video camera in the imaging unit 1 is based on the perspective projection, the travelable area recognition unit 3 uses the perspective projection road image shown in FIG. 2 as shown in FIG. A projection conversion process, which is a known method for converting the image into a road edge image in which the influence of the perspective projection is eliminated, is performed.

なお、その射影変換特性は、ビデオカメラの遠近投影
の特性にしたがって、予め走行可能領域認識部3に設定
されている。
The projection conversion characteristics are set in advance in the travelable area recognition unit 3 in accordance with the characteristics of the perspective projection of the video camera.

そして、走行可能領域認識部3は、射影変換処理され
た道路エッジの画像にもとづいて、例えば4図に示すよ
うに、連続した道路エッジE1,E2間を、撮像部1の撮像
方向すなわち車両11の進行方向をY軸方向としたときの
X−Y座標上における車両の走行可能領域RAとして認識
する。
Then, based on the road edge image subjected to the projective transformation processing, for example, as shown in FIG. 4, the travelable area recognition unit 3 connects the continuous road edges E1 and E2 to the image pickup direction of the image pickup unit 1, that is, the vehicle 11. Of the vehicle on the XY coordinates when the traveling direction of the vehicle is the Y-axis direction.

なお、第4図において、P点は車両11の現在位置を示
すもので、撮像部1のビデオカメラによる撮像領域の下
端中央がP点としてX−Y座標上の原点の位置にくるよ
うに、予めビデオカメラの車両に対する搭載位置が設定
されている。
In FIG. 4, the point P indicates the current position of the vehicle 11, and the center of the lower end of the imaging area of the imaging unit 1 by the video camera is set as the point P at the position of the origin on the XY coordinates. The mounting position of the video camera with respect to the vehicle is set in advance.

そして、制御部5において、撮像画像をサンプリング
してから走行可能領域RAが認識されるまでの所要時間
(画像処理時間)が、内部クロックによって計測され
る。
Then, in the control unit 5, a required time (image processing time) from sampling of the captured image to recognition of the travelable area RA is measured by an internal clock.

第10図に、画像処理時間測定のフローを示している。 FIG. 10 shows a flow of the image processing time measurement.

次に、走行可能領域認識部3において認識された走行
可能領域である車両前方の道路が認識されると、目標経
路設定部4において、その認識された道路上における車
両の最適な走行経路となる目標経路が以下のようにして
設定される。
Next, when the road ahead of the vehicle, which is the driveable area recognized by the driveable area recognition unit 3, is recognized, the target route setting unit 4 becomes the optimal travel route of the vehicle on the recognized road. The target route is set as follows.

その目標経路は、後述するように、道路形状および車
速をも考慮したうえで、そのときの車両の走行状況に適
するように設定されるのが望ましいが、基本的には、認
識された道路が狭いかまたは広いかによって以下のよう
にして一律に認定される。
The target route is desirably set so as to be suitable for the running condition of the vehicle at that time, taking into account the road shape and the vehicle speed, as described later. It is uniformly recognized as follows depending on whether it is narrow or wide.

すなわち、目標経路設定部4において、道路幅が一定
以上の広軌道であると判断された場合には、例えば第4
図に示すように、左側通行路の場合、道路の左側の基準
となるエッジから例えば1.5m程度の所定の隔離幅wをも
ってその基準エッジに沿う目標経路OCを設定する。
That is, when the target route setting unit 4 determines that the road width is a wide orbit having a certain width or more, for example, the fourth
As shown in the figure, in the case of a left-hand traffic road, a target route OC is set along the reference edge with a predetermined separation width w of, for example, about 1.5 m from the reference edge on the left side of the road.

また、目標経路設定部4において、道路幅が一定未満
の狭軌道であると判断された場合には、特に図示しない
が、その道路の中央に目標経路を設定する。
When the target route setting unit 4 determines that the track is a narrow track with a road width smaller than a certain value, the target route is set at the center of the road, though not particularly shown.

そしてその設定された目標経路のX−Y座標上におけ
る位置のデータが、目標経路設定部4の内部メモリに記
憶される。
Then, data of the position of the set target route on the XY coordinates is stored in the internal memory of the target route setting unit 4.

なお、X−Y座標上における走行可能領域および目標
経路の尺度は、撮像部1におけるビデオカメラの倍率に
よって決定される。
Note that the scale of the travelable area and the target route on the XY coordinates is determined by the magnification of the video camera in the imaging unit 1.

第4図中、P点からO点に至るまでの軌跡は、後述す
るように、制御部5の制御下において車両の操舵制御が
なされることにより、P点にいる車両が目標経路OCに合
流するまでの走行経路を示している。O点は、そのとき
の車両の目標経路OCへの合流の目標点となる。
In FIG. 4, the trajectory from the point P to the point O indicates that the vehicle at the point P joins the target route OC by controlling the steering of the vehicle under the control of the control unit 5 as described later. It shows a traveling route up to the start. The point O is a target point at which the vehicle joins the target route OC at that time.

また本発明では、車両の走行状態を検出して、その検
出された走行状態にしたがい、以下のように道路におけ
る最適な車両の目標経路を設定するようにすることも可
能である。
In the present invention, it is also possible to detect the running state of the vehicle and set an optimal target path of the vehicle on the road as described below according to the detected running state.

すなわち、目標経路設定部4において、例えば、車速
センサ6によって検出される車両の走行速度を読み込ん
で、そのときの車速が予め設定されたしきい値以下の低
速域内にあれば、第5図(a)に示すように、道路の形
状に沿うように目標経路OCを設定する。
That is, the target route setting unit 4 reads, for example, the traveling speed of the vehicle detected by the vehicle speed sensor 6, and if the vehicle speed at that time is within a low speed range equal to or less than a preset threshold value, FIG. As shown in a), the target route OC is set so as to follow the shape of the road.

同様に、そのときの車速が予め設定されたしきい値を
越える高速域内にあれば、第5図(b)に示すように、
曲りくねった道路を走行する場合、車両に作用する横方
向の加速度ができるだけ軽減されるような緩い曲率をも
った目標経路OCを道路内に設定する。
Similarly, if the vehicle speed at that time is within a high-speed range exceeding a preset threshold value, as shown in FIG.
When traveling on a winding road, a target route OC having a gentle curvature is set in the road so that the lateral acceleration acting on the vehicle is reduced as much as possible.

次に、道路上における目標経路が設定されたら、制御
部5において、車両をその目標経路に合流させるための
舵角の制御目標量が、以下のように求められる。
Next, when the target route on the road is set, the control unit 5 obtains the control target amount of the steering angle for joining the vehicle to the target route as follows.

本発明では、現在検出されている車両の走行状態から
これから先の走行経路を予測し、その車両の予測経路と
目標経路との偏差から、車両がその目標経路上を走行す
るための舵角の補正量を求め、そ舵角補正量から制御目
標量をわり出すようにしている。
According to the present invention, a future traveling route is predicted from the traveling state of the currently detected vehicle, and a deviation between the predicted route of the vehicle and the target route is used to calculate a steering angle for the vehicle to travel on the target route. A correction amount is obtained, and a control target amount is calculated from the steering angle correction amount.

基本的には、現在の車両の走行速度から、一定時間後
における予測経路上の車両の到達点を予測するととも
に、その車両の走行速度と一定時間とによって求められ
る目標経路上の位置に車両を合流させる目標点を設定
し、予測された到達点と目標点との偏差に応じて舵角補
正量を求めるようにしている。
Basically, based on the running speed of the current vehicle, the arrival point of the vehicle on the predicted route after a certain time is predicted, and the vehicle is moved to a position on the target route obtained by the running speed of the vehicle and the certain time. A target point to be merged is set, and a steering angle correction amount is obtained according to a deviation between the predicted arrival point and the target point.

その際、本発明では、特に、前記一定時間に制御部5
において計測された画像処理時間を加味して、目標経路
上の目標点を、予測経路上の予測到達点とともに、可変
に設定するようにしている。
At this time, in the present invention, in particular, the control unit 5
In consideration of the image processing time measured in, the target point on the target route is variably set together with the predicted arrival point on the predicted route.

いま、例えば第6図に示すように、P点にある車両11
を目標経路OCに合流させる場合を考えてみる。
Now, for example, as shown in FIG.
Let's consider a case in which is merged with the target route OC.

まず、車速センサ6によって検出された車両の現在車
速v(m/s)にもとづいて、P点にある車両の一定時間t
mに画像処理時間tBを加味した所定の時間(tm+tB)秒
後におけるY軸上の距離L(m){L=(tm+tB)×
v}が求められ、そのY軸上におけるP点から距離Lだ
け離れたC点と目標経路OCとの間におけるX軸上の偏差
xl、すなわち(tm+tB)秒後における目標経路OC上に設
定された目標点Oの位置に比例した値がわり出される。
First, based on the current vehicle speed v (m / s) of the vehicle detected by the vehicle speed sensor 6, a predetermined time t of the vehicle at the point P is determined.
m predetermined time in consideration of the image processing time t B to (t m + t B) the distance on the Y-axis after seconds L (m) {L = ( t m + t B) ×
v} is obtained, and the deviation on the X axis between the target path OC and the point C separated by a distance L from the point P on the Y axis.
x l, issued namely (t m + t B) seconds value instead of the usual proportional to the position of the target point O set on the target course OC after.

同様に、ヨーレートセンサ7によって検出される車両
のヨーレートΥ(rad/s)にもとづいて車両の予測経路A
Cがわり出され、Y軸上のC点からの予測経路ACの偏差x
m、すなわち(tm+tB)秒後における予測経路AC上の車
両の到達点Mの位置に比例した値が以下のようにして求
められる。
Similarly, the predicted path A of the vehicle based on the yaw rate Υ (rad / s) of the vehicle detected by the yaw rate sensor 7
C is calculated and the deviation x of the predicted route AC from the point C on the Y axis
m, that is, a value proportional to the position of the arrival point M of the vehicle on the predicted path AC in (t m + t B) seconds after is obtained as follows.

いま、予測経路ACが描く円弧の半径をRとしたとき、
xmは次式によって与えられる。
Now, assuming that the radius of the arc drawn by the predicted route AC is R,
x m is given by:

xm=R−{R2−L21/2 =R−R{1−(L/R)1/2 ここで、R≫Lとすると、 xm≒R−R{1−(L/R)2/2} =L2/2R …(1) また、 Υ=v/R …(2) であるので、(1),(2)式から、 xm=L2・Υ/2v …(3) なお、ヨーレートΥの符号としては、例えば予測経路
ACが左曲りのときを正とする。
x m = R− {R 2 −L 21/2 = R−R {1− (L / R) 21/2 where R ≒ L, x m ≒ R−R {1− (L / R) 2/2 } = L 2 / 2R ... (1) in addition, since it is Υ = v / R ... (2 ), (1), (2) where, x m = L 2 · Υ / 2v (3) The sign of the yaw rate 例 え ば is, for example, a predicted path.
When AC turns left, it is defined as positive.

そして、各求められた偏差xlとxmとの差e(e=xl
xm)に応じて車両の修正すべきヨーレートΔΥが下記式
にしたがって求められる。
Then, a difference e (e = x l −) between the obtained deviations x l and x m is obtained.
x m ), the yaw rate ΔΥ of the vehicle to be corrected is determined according to the following equation.

ΔΥ=e×2v/L2 …(4) 次いで、舵角センサ8によって検出されたP点におけ
る車両の舵角δがとり込まれ、車両を目標経路OCに合流
させるための舵角の制御目標量δ′が以下のようにして
決定される。
ΔΥ = e × 2v / L 2 (4) Next, the steering angle δ of the vehicle at the point P detected by the steering angle sensor 8 is taken in, and the steering angle control target for merging the vehicle with the target route OC is obtained. The quantity δ 'is determined as follows.

いま、第7図に示す関係にあって、 R≫lのとき、 δ≒l/R …(5) となり、(2),(5)式から δ=(l/v)Υ …(6) が得られる。ここで、lはホイールベースである。 Now, in the relationship shown in FIG. 7, when R≫1, δ ≒ l / R (5), and from equations (2) and (5), δ = (l / v) Υ (6) Is obtained. Here, 1 is a wheel base.

したがって、(6)式の関係からして、車両の修正す
べきヨーレートΔΥに応じた舵角の修正分Δδは、次式
によって与えられる。
Therefore, from the relationship of the equation (6), the correction amount Δδ of the steering angle corresponding to the yaw rate ΔΥ to be corrected of the vehicle is given by the following equation.

Δδ=(l/v)ΔΥ …(7) ここで、車速vに対する舵角の一般式であるl=l
(1+Kv2)を考慮すると、(7)式から Δδ=ΔΥ{l(1+Kv2)/v} …(8) となる。
Δδ = (l / v) ΔΥ (7) where l = l which is a general formula of the steering angle with respect to the vehicle speed v
In consideration of (1 + Kv 2 ), from Expression (7), Δδ = ΔΥ {l (1 + Kv 2 ) / v} (8)

Kは、タイヤ特性やホイールベースなどの車両特性に
よって決まる一定の係数(スタビリティファクタ)であ
る。
K is a constant coefficient (stability factor) determined by vehicle characteristics such as tire characteristics and wheelbase.

そして、車両を目標経路OCに合流させるための舵度の
制御目標量δ′は、 δ′=δ+Δδ …(9) として求められる。
Then, the control target amount δ ′ of the steering degree for merging the vehicle with the target route OC is obtained as δ ′ = δ + Δδ (9).

ステアリング制御部9は、制御部5から与えられる制
御目標量δ′に応じてステアリング駆動部10に駆動指令
を出し、それによりステアリング駆動部10がステアリン
グの駆動を適宜なして車両を目標経路OCへ合流させるよ
うな操舵を行う。
The steering control unit 9 issues a drive command to the steering drive unit 10 according to the control target amount δ ′ given from the control unit 5, whereby the steering drive unit 10 appropriately drives the steering to move the vehicle to the target route OC. Steer to join.

なお、第6図の関係にあって、目標経路OC上に目標点
Oを設定する基準となる距離Lを定める場合、制御部5
の制御下において、車速センサ6によって検出される車
速vに応じてtm時間を適宜調整することにより、その距
離Lを可変に設定することができる。
In the relationship shown in FIG. 6, when the distance L serving as a reference for setting the target point O on the target route OC is determined, the control unit 5
Under the control of, by appropriately adjusting the t m time in accordance with the vehicle speed v detected by the vehicle speed sensor 6, it is possible to set the distance L variable.

すなわち、走行速度vが低速であるほどその距離Lを
短く設定し、P点にいる車両の目標経路OCに合流するま
での走行経路が短くなるようにして、車両の目標経路OC
への合流を速やかに行なわせる。また、走行速度vが高
速であるほどその距離Lを長く設定し、P点にいる車両
の目標経路OCに合流するまでの走行経路が長くなるよう
にして、車両の目標経路OCへの合流を緩やかに行なわせ
る。
That is, the lower the traveling speed v, the shorter the distance L is set, and the shorter the traveling route until the vehicle is merged with the target route OC of the vehicle at the point P, the shorter the target route OC of the vehicle.
Merge quickly. Further, the higher the traveling speed v, the longer the distance L is set, and the longer the traveling route until the vehicle at the point P joins the target route OC, the longer the traveling route is. Let it run slowly.

さらに、曲りくねった道路を走行する場合、その曲率
が小さいほど距離Lを短く設定して、車両の目標経路OC
への合流を速やかに行なわせるようにすることも可能で
ある。
Further, when traveling on a winding road, the smaller the curvature is, the shorter the distance L is set, and the target route OC of the vehicle is set.
It is also possible to cause the merging to be performed quickly.

以上の処理が、所定の制御周期をもってくり返し行わ
れ、それにより車両の走行が進むにしたがって、各制御
周期ごとに逐次認識された走行可能領域内に設定されて
いく目標経路OCに追従する車両の走行制御が継続的に行
われていく。
The above processing is repeatedly performed with a predetermined control cycle, and as the traveling of the vehicle progresses, the vehicle following the target route OC set in the travelable area sequentially recognized in each control cycle is determined. Travel control is continuously performed.

第11図に、本発明における制御フローを示している。 FIG. 11 shows a control flow in the present invention.

効果 以上、本発明による自動走行装置にあっては、車両に
取り付けられた撮像装置により車両の進行方向を撮像す
ることにより得られる画像にもとづいて走行可能領域を
認識しながら、その認識された走行可能領域内に目標経
路を設定し、さらにその目標経路上に目標点を設定し
て、車両をその目標点に合流させるための制御目標量を
所定の演算により求めて車両の舵角の制御を行わせる
際、撮像画像をサンプリングしてから走行可能領域を認
識するまでの画像処理時間に応じて、前記目標経路上に
おける目標点の位置を可変に設定するようにしたもの
で、各制御周期ごとに不定となり、かつ制御周期におい
て大きな割合を占める画像処理時間を加味した車両の走
行制御を最適に行わせることができ、目標経路に対する
車両走行の追従性が良くなって、車両走行を安定して行
わせることができるようになる。
Effect As described above, in the automatic traveling apparatus according to the present invention, the recognized traveling is performed while recognizing the travelable area based on the image obtained by capturing the traveling direction of the vehicle by the imaging device attached to the vehicle. A target route is set in the possible area, a target point is set on the target route, and a control target amount for joining the vehicle to the target point is obtained by a predetermined calculation to control the steering angle of the vehicle. When performing the control, the position of the target point on the target route is set variably according to the image processing time from sampling the captured image to recognizing the travelable area. In addition, it is possible to optimally perform the traveling control of the vehicle in consideration of the image processing time which accounts for a large proportion in the control cycle, and the followability of the vehicle traveling on the target route is good. As a result, the vehicle can be stably driven.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明による自動走行装置の一実施例を示すブ
ロック構成図、第2図はビデオカメラによって撮像され
た画像のデータ処理を行うことによって得られた道路の
線分を示す図、第3図は第2図の画像を射影変換するこ
とによって得られた画像を示す図、第4図は認識された
道路エッジ間の走行可能領域に設定された目標経路の一
例を示す図、第5図(a),(b)は車両の低速時およ
び高速時に道路上に設定される目標経路をそれぞれ示す
図、第6図は目標経路と車両の予測経路との関係を示す
図、第7図は車両の舵角とその回転半径との関係を示す
図、第8図はX−Y座標上の線分を示す図、第9図は第
8図の線分をHough変換したときのρ−θ座標上の点を
示す図、第10図は画像処理時間測定のフローを示す図、
第11図は本発明における制御フローを示す図である。 1……撮像部、2……画像処理部、3……走行可能領域
認識部、4……目標経路設定部、5……制御部、6……
車速センサ、7……ヨーレートセンサ、8……舵角セン
サ、9……ステアリング制御部、10……ステアリング駆
動部、11……車両、RA……走行可能領域、OC……目標経
路、P……車両の位置
FIG. 1 is a block diagram showing an embodiment of an automatic traveling apparatus according to the present invention. FIG. 2 is a view showing road segments obtained by performing data processing on an image taken by a video camera. FIG. 3 is a diagram showing an image obtained by projectively transforming the image of FIG. 2, FIG. 4 is a diagram showing an example of a target route set in a travelable area between recognized road edges, and FIG. FIGS. 7A and 7B show target routes set on the road at low and high speeds of the vehicle, respectively. FIG. 6 shows the relationship between the target route and the predicted route of the vehicle. Is a diagram showing the relationship between the steering angle of the vehicle and its turning radius, FIG. 8 is a diagram showing a line segment on the XY coordinate, and FIG. 9 is a graph showing ρ- Diagram showing a point on the θ coordinate, FIG. 10 is a diagram showing a flow of image processing time measurement,
FIG. 11 is a diagram showing a control flow in the present invention. DESCRIPTION OF SYMBOLS 1 ... Image pick-up part, 2 ... Image processing part, 3 ... Drivable area | region recognition part, 4 ... Target route setting part, 5 ... Control part, 6 ...
Vehicle speed sensor 7, yaw rate sensor 8, steering angle sensor 9, steering control unit 10, steering drive unit 11, vehicle, RA, travelable area, OC, target route, P … Vehicle position

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】車両に取り付けられた撮像装置により車両
の進行方向の領域を撮像する手段と、その撮像された画
像をサンプリングし、そのサンプリング画像をデータ処
理することにより線分の抽出を行う手段と、その抽出さ
れた線分にもとづいて車両の進行方向における走行可能
領域を認識する手段と、その認識された走行可能領域内
に目標経路を設定する手段と、車両の走行状態を検出す
る手段と、前記目標経路上に目標点を設定し、検出され
た車両の走行状態にもとづいて、その目標点に車両を合
流させるのに必要な制御目標量を求める手段と、その求
められた制御目標量にしたがって車両の走行制御を行わ
せる手段とからなる自動走行装置において、画像処理に
要する時間を計測し、その計測された時間に応じて前記
目標経路上に設定される目標点までの距離を比例的に変
化させるようにしたことを特徴とする自動走行装置。
1. A means for imaging a region in the traveling direction of a vehicle by an imaging device mounted on a vehicle, and a means for extracting a line segment by sampling the captured image and subjecting the sampled image to data processing. Means for recognizing a travelable area in the traveling direction of the vehicle based on the extracted line segment, means for setting a target route in the recognized travelable area, and means for detecting a traveling state of the vehicle Means for setting a target point on the target route and obtaining a control target amount necessary for merging the vehicle with the target point based on the detected traveling state of the vehicle; and the obtained control target. In an automatic traveling apparatus comprising means for controlling traveling of the vehicle according to the amount, the time required for image processing is measured and set on the target route according to the measured time. Automatic traveling apparatus characterized by the distance to the target point and so as to proportionally change that.
【請求項2】車両の走行状態がヨーレートと車速である
ことを特徴とする前記第1項の記載による自動走行装
置。
2. The automatic traveling apparatus according to claim 1, wherein the traveling state of the vehicle is a yaw rate and a vehicle speed.
【請求項3】車両の走行制御の対象が蛇角であることを
特徴とする前記第1項の記載による自動走行装置。
3. The automatic traveling apparatus according to claim 1, wherein an object of traveling control of the vehicle is a steering angle.
JP2064588A 1990-03-15 1990-03-15 Automatic traveling device Expired - Fee Related JP2835765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2064588A JP2835765B2 (en) 1990-03-15 1990-03-15 Automatic traveling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2064588A JP2835765B2 (en) 1990-03-15 1990-03-15 Automatic traveling device

Publications (2)

Publication Number Publication Date
JPH03265009A JPH03265009A (en) 1991-11-26
JP2835765B2 true JP2835765B2 (en) 1998-12-14

Family

ID=13262559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2064588A Expired - Fee Related JP2835765B2 (en) 1990-03-15 1990-03-15 Automatic traveling device

Country Status (1)

Country Link
JP (1) JP2835765B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3875889B2 (en) * 2002-01-21 2007-01-31 日本信号株式会社 Image speed detection system and image speed detection method

Also Published As

Publication number Publication date
JPH03265009A (en) 1991-11-26

Similar Documents

Publication Publication Date Title
JP2844242B2 (en) Automatic traveling device
JP2835764B2 (en) Automatic traveling device
JP2844240B2 (en) Automatic traveling device
JP2660727B2 (en) Automatic traveling device
KR100250323B1 (en) Image processing device and method
JP2844243B2 (en) Automatic traveling device
JP2923670B2 (en) Automatic steering device
JP2835765B2 (en) Automatic traveling device
JP2835766B2 (en) Automatic traveling device
JP3227247B2 (en) Roadway detection device
JP2844236B2 (en) Automatic traveling device
JPH0248705A (en) Automatic travel device
JP2923668B2 (en) Automatic traveling device
JP2923667B2 (en) Automatic traveling device
JP3054952B2 (en) Automatic traveling device
JPH03268108A (en) Automatic traveling device
JP2514405B2 (en) Automatic traveling device
JP2923664B2 (en) Automatic traveling device
JP2004326214A (en) Lane detecting device
JP2003276542A (en) Rearward monitoring device for vehicle
JP2683899B2 (en) Unmanned carrier
JPH01251209A (en) Unmanned car running device
JP2765877B2 (en) Mobile car image processing device
JPH0535885B2 (en)
JPH03265010A (en) Automatic traveling device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees