JPH0781604A - Automatic travel vehicle - Google Patents

Automatic travel vehicle

Info

Publication number
JPH0781604A
JPH0781604A JP5254896A JP25489693A JPH0781604A JP H0781604 A JPH0781604 A JP H0781604A JP 5254896 A JP5254896 A JP 5254896A JP 25489693 A JP25489693 A JP 25489693A JP H0781604 A JPH0781604 A JP H0781604A
Authority
JP
Japan
Prior art keywords
vehicle
lane
obstacle
travel
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5254896A
Other languages
Japanese (ja)
Other versions
JP2853077B2 (en
Inventor
Shinnosuke Ishida
真之助 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP5254896A priority Critical patent/JP2853077B2/en
Publication of JPH0781604A publication Critical patent/JPH0781604A/en
Application granted granted Critical
Publication of JP2853077B2 publication Critical patent/JP2853077B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To judge travel possibility degree by conducting fuzzy theory based on respective detection values of obstacle conditions and own vehicle conditions, recognize travel environment including other vehicles by selecting one of the plural travel possible regions based on the results, and enable automatic travel while changing a traffic lane arbitrarily. CONSTITUTION:An automatic travel vehicle is provided with a CCD camera 10, a radar unit 12 consisting of a millimeter wave radar, a yaw rate sensor 14, a speed sensor 16, a steering angle sensor 18, etc., a plurality of travel possible regions are recognized in the vehicle approach direction by a controller based on these detection signals, and the conditions of an obstacle including at least location of the obstacle existing around the vehicle is detected. Fuzzy theory is conducted based on detection value of the own vehicle so as to judge travel possibility degree, either of a plurality of travel possible region is selected based on the judgement result, and control quantity of vehicle travel is calculated based on own vehicle conditions and calculated travel locus so as to make it travel in the selected travel possible region.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は自動走行車両に関し、
より具体的には高速自動車道など複数の車線が存在する
道路環境において、他車を含む走行環境を認識して任意
に車線変更しつつ自動走行できる様にした自動走行車両
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous vehicle,
More specifically, the present invention relates to an automated vehicle capable of automatically traveling while recognizing a traveling environment including other vehicles and arbitrarily changing lanes in a road environment where there are a plurality of lanes such as a highway.

【0002】[0002]

【従来の技術】自動走行技術に関しては従来より種々の
ものが提案されており、例えば特開平2−226310
号公報においては、走行路面の映像画像から抽出された
車線境界線や障害物情報などに基づいてファジィ推論を
行って車両の操舵を制御する技術が提案されている。ま
た本出願人も先に特開平3−158976号公報で自動
走行車両において車線境界線を認識する技術を提案して
いる。
2. Description of the Related Art Various automatic driving techniques have been proposed in the past, for example, Japanese Patent Laid-Open No. 2-226310.
In the publication, a technique is proposed in which the steering of the vehicle is controlled by performing fuzzy inference based on lane boundaries, obstacle information, and the like extracted from a video image of the road surface on which the vehicle travels. Further, the present applicant has previously proposed a technique for recognizing a lane boundary line in an automatic vehicle in Japanese Patent Laid-Open No. 3-158976.

【0003】[0003]

【発明が解決しようとする課題】この様に自動走行技術
については今まで様々な技術が提案されているが、複数
の車線(レーン)を有する道路において任意に車線変更
(レーンチェンジ)して自動走行できる様にしたものは
提案されていなかった。この様な技術は、高速自動車道
などを自動走行するときに極めて有益であるが、他車を
含む障害物が存在する道路環境の中で自ら行動を決定し
つつ最適な車線を選択して自動走行するには解決すべき
課題が多い。
As described above, various technologies have been proposed so far for automatic driving technology. However, on a road having a plurality of lanes (lanes), lanes are arbitrarily changed to automatically There was no proposal to make it run. Such a technology is extremely useful when automatically driving on a highway, etc., but in the road environment where obstacles including other vehicles exist, it determines its own behavior while automatically selecting the optimal lane. There are many problems to be solved in order to drive.

【0004】従って、この発明の目的は上記の課題を解
決し、複数の車線を有すると共に、他車を含む障害物が
存在する道路環境において、最適な車線を選択して安定
して自動走行する様にした自動走行車両を提供すること
にある。
Therefore, an object of the present invention is to solve the above-mentioned problems, and in a road environment having a plurality of lanes and obstacles including other vehicles, the optimum lane is selected to stably and automatically drive. The purpose is to provide such an automated vehicle.

【0005】更には、複数の車線を有すると共に、他車
を含む障害物が存在する走路環境において最適な車線を
選択すると共に、障害物を回避しつつ前車への追従走行
なども可能とする自動走行車両を提供することを目的と
する。
Further, the vehicle has a plurality of lanes, and in addition to selecting an optimal lane in a road environment where obstacles including other vehicles exist, it is possible to follow the preceding vehicle while avoiding obstacles. It is intended to provide an autonomous vehicle.

【0006】更には、ファジィ推論を用いると共に、そ
の推論を簡略化して演算量および使用メモリの低減を図
ると共に、デバッグ効率を向上させた自動走行車両を提
供することを目的とする。
Further, it is an object of the present invention to provide an automatic vehicle which uses fuzzy inference and simplifies the inference to reduce the amount of calculation and memory used, and which improves the debugging efficiency.

【0007】[0007]

【課題を解決するための手段】上記の目的を解決するた
めに本発明は例えば請求項1項に示す如く、外界を認識
しつつ自動走行する車両において、車両進行方向に対し
て複数の走行可能領域を認識する認識手段、車両周囲に
存在する障害物の少なくとも位置を含む障害物の状態を
検出する障害物状態検出手段、車速および前記複数の走
行可能領域に対する自車の位置と方位とを少なくとも含
む自車の状態を検出する自車状態検出手段、検出値に基
づいてファジィ推論を行って前記複数の走行可能領域に
ついて走行可能度合いを判定する走行可能度合い判定手
段、判定された走行可能度合いに基づいて前記複数の走
行可能領域のいずれかを選択する選択手段、少なくとも
前記検出された自車状態に基づいて自車の走行軌跡を求
める軌跡算出手段、および選択された走行可能領域を走
行すべく少なくとも前記検出された自車の状態と算出さ
れた走行軌跡とに基づいて車両走行の制御量を算出する
制御量算出手段、を備える如く構成した。
In order to solve the above-mentioned problems, the present invention is, for example, as set forth in claim 1, in a vehicle which automatically travels while recognizing the outside world, a plurality of traveling directions are possible in the traveling direction of the vehicle. At least the recognition means for recognizing the area, the obstacle state detection means for detecting the state of the obstacle including at least the position of the obstacle existing around the vehicle, the vehicle speed, and the position and direction of the own vehicle with respect to the plurality of drivable areas Own vehicle state detecting means for detecting the state of the own vehicle, traveling possibility degree determining means for determining a traveling possibility degree for the plurality of traveling possible areas by performing fuzzy inference based on the detected value, and the determined traveling possibility degree Selecting means for selecting any one of the plurality of drivable areas based on the trajectory, and trajectory calculating means for determining the traveling trajectory of the vehicle based on at least the detected vehicle state And the control amount calculating means for calculating a control amount of the vehicle traveling on the basis in order to travel the selected travelable regions on at least the detected travel locus calculated between the vehicle state, and as constituted comprising a.

【0008】[0008]

【作用】他車を含む障害物の存在する複数の走行可能領
域を有する道路環境において最適な走行可能領域を選択
しつつ安定に自動走行することができる。尚、ここで走
行可能領域は車線を意味する。
In the road environment having a plurality of drivable areas including obstacles including other vehicles, stable automatic driving can be performed while selecting an optimal drivable area. The drivable area here means the lane.

【0009】[0009]

【実施例】以下、添付図面に即してこの発明の実施例を
説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0010】図1はこの発明に係る自動走行車両を全体
的に示す透視図である。図において、自動走行車両はC
CDカメラ10を1基備える。CCDカメラ10は運転
席上方のルームミラー取り付け位置に固定され、車両進
行方向を単眼視する。符号12はミリ波レーダからなる
レーダユニットを示し、車両前方に取り付けられた2基
の前方レーダ12a、車両側方に取り付けられた3基の
側方レーダ12bおよび車両後方に取り付けられた2基
の後方レーダ(図示せず)の計10基のレーダ群からな
り、反射波を通じて他車などの立体障害物の存在を検出
する。車両室内の中央部付近にはヨーレートセンサ14
が設けられ、車両の鉛直軸(z軸)回りの角加速度を検
出する。更に、車両のドライブシャフト(図示せず)の
付近にはリードスイッチからなる車速センサ16が設け
られ、車両の進行速度を検出すると共に、舵角センサ1
8が車両のステアリングシャフト20の付近に設けられ
てステアリング舵角を検出する。
FIG. 1 is an overall perspective view of an automatic vehicle according to the present invention. In the figure, the autonomous vehicle is C
It has one CD camera 10. The CCD camera 10 is fixed to the rear-view mirror mounting position above the driver's seat, and allows a monocular view of the vehicle traveling direction. Reference numeral 12 denotes a radar unit composed of a millimeter wave radar, which includes two front radars 12a attached to the front of the vehicle, three side radars 12b attached to the side of the vehicle, and two rear radars attached to the rear of the vehicle. A rear radar (not shown) comprises a total of 10 radar groups, and detects the presence of a three-dimensional obstacle such as another vehicle through reflected waves. A yaw rate sensor 14 is provided near the center of the vehicle interior.
Is provided to detect the angular acceleration about the vertical axis (z axis) of the vehicle. Further, a vehicle speed sensor 16 including a reed switch is provided near a drive shaft (not shown) of the vehicle to detect the traveling speed of the vehicle and to detect the steering angle sensor 1
8 is provided in the vicinity of the steering shaft 20 of the vehicle to detect the steering rudder angle.

【0011】また、該ステアリングシャフト20には舵
角制御モータ22が取り付けられると共に、スロットル
弁(図示せず)にはパルスモータからなるスロットルア
クチュエータ24が取り付けられ、更にブレーキ(図示
せず)にはブレーキ圧力アクチュエータ26(図1で図
示省略)が取り付けられる。この構成において、車両は
算出された舵角制御量に応じて舵角制御されると共に、
スロットル弁が開閉されて車速が調節され、また必要に
応じてブレーキが作動させられて自動走行する。
A steering angle control motor 22 is attached to the steering shaft 20, a throttle actuator 24 composed of a pulse motor is attached to a throttle valve (not shown), and a brake (not shown) is further provided. A brake pressure actuator 26 (not shown in Figure 1) is attached. In this configuration, the vehicle is steered in accordance with the calculated steering angle control amount,
The throttle valve is opened and closed to adjust the vehicle speed, and the brakes are activated as necessary to automatically drive the vehicle.

【0012】図2は上記の構成をより詳細に示すブロッ
ク図である。CCDカメラ10の出力は画像処理ハード
ウェア30に送られて必要な処理が行われ、その結果は
バス32を介して共有メモリ34にストアされる。画像
処理CPU36および画像評価CPU38は所定時刻ご
とにストア値を読み出して走行路面の状態を検出する。
レーダユニット12の出力はレーダ処理回路40および
バス32を介して共有メモリ34にストアされる。レー
ダ評価CPU42は所定時刻毎にストア値を読み出して
障害物の位置を座標上で検出する。
FIG. 2 is a block diagram showing the above structure in more detail. The output of the CCD camera 10 is sent to the image processing hardware 30 and subjected to necessary processing, and the result is stored in the shared memory 34 via the bus 32. The image processing CPU 36 and the image evaluation CPU 38 read the stored value at every predetermined time to detect the state of the road surface on which the vehicle travels.
The output of the radar unit 12 is stored in the shared memory 34 via the radar processing circuit 40 and the bus 32. The radar evaluation CPU 42 reads the store value at every predetermined time and detects the position of the obstacle on the coordinates.

【0013】また車速センサ16などの出力は軌跡推定
CPU44に送られて自車両の移動軌跡が推定される。
行動計画意思決定CPU50は前記ストア値から目標経
路を作成する。その目標経路と推定された自車の移動軌
跡は軌跡追従CPU46に送られ、そこで軌跡(目標経
路)追従制御量が決定される。更に、軌跡追従制御CP
U46は、舵角制御量を算出して舵角制御CPU52に
出力する。舵角制御CPU52はPWMコントローラ5
4およびドライバ56を介して前記舵角制御モータ22
を駆動する。尚、モータ駆動量はエンコーダ58を通じ
て検出され、フィードバック制御が行われる。
The outputs of the vehicle speed sensor 16 and the like are sent to the locus estimation CPU 44 to estimate the locus of movement of the vehicle.
The action plan decision making CPU 50 creates a target route from the store value. The movement locus of the vehicle estimated as the target route is sent to the locus tracking CPU 46, and the locus (target route) tracking control amount is determined there. Furthermore, trajectory tracking control CP
U46 calculates the steering angle control amount and outputs it to the steering angle control CPU52. The steering angle control CPU 52 is the PWM controller 5
4 and the driver 56 to control the steering angle control motor 22.
To drive. The motor drive amount is detected by the encoder 58 and feedback control is performed.

【0014】また行動計画意思決定CPU50はその速
度・追従制御部で後述の様に車体の目標加速度を求め、
車速制御CPU60に送出する。車速制御CPU60は
アクセルパルスモータコントローラ62、ドライバ64
を介してスロットルアクチュエータ24を駆動すると共
に、ブレーキソレノイドコントローラ66およびドライ
バ68を介してブレーキ圧力アクチュエータ26を駆動
する。その駆動量は圧力センサ70を介して検出され、
第2のフィードバック制御が行われる。尚、上記におい
て、図示の簡略化のため、波形整形回路などセンサの処
理回路は省いた。図3は図2ブロック図を機能的に示す
ものである。
Further, the action plan decision-making CPU 50 obtains a target acceleration of the vehicle body by the speed / following control section thereof as described later,
It is sent to the vehicle speed control CPU 60. The vehicle speed control CPU 60 is an accelerator pulse motor controller 62, a driver 64
The throttle actuator 24 is driven via the brake solenoid actuator 66, and the brake pressure actuator 26 is driven via the brake solenoid controller 66 and the driver 68. The driving amount is detected via the pressure sensor 70,
The second feedback control is performed. In the above, the processing circuit of the sensor such as the waveform shaping circuit is omitted for simplification of the drawing. FIG. 3 functionally shows the block diagram of FIG.

【0015】続いて、図4フロー・チャートを参照して
この自動走行車両の動作を説明する。図4フロー・チャ
ートは、前記した行動計画意思決定CPU50が行う動
作を示す。
Next, the operation of this automatic vehicle will be described with reference to the flow chart of FIG. The flow chart of FIG. 4 shows the operation performed by the action plan decision-making CPU 50 described above.

【0016】先ず、S10において画像評価結果を入力
する。これは前記した画像処理CPU36および画像評
価CPU38の出力を入力して行う。即ち、画像処理C
PU36は図5に示す様な入力画像から道路区分線(車
線境界線。白色または黄色の実線ないし破線で示され
る)を抽出して画像平面座標を求め、それを射影変換し
て実平面座標を求め、各線成分を実平面上の点列データ
として幾何学的関係を付加して出力する。画像評価CP
U38は、それに基づいて後で述べる様に車線幅などの
詳細なデータを出力する。S10においてはこれらを入
力する。
First, in S10, the image evaluation result is input. This is done by inputting the outputs of the image processing CPU 36 and the image evaluation CPU 38 described above. That is, image processing C
The PU 36 extracts road lane markings (lane boundaries, indicated by white or yellow solid lines or broken lines) from the input image as shown in FIG. 5 to obtain image plane coordinates, and projectively transforms them to obtain real plane coordinates. Then, each line component is output as point sequence data on the real plane with a geometrical relation added. Image evaluation CP
The U38 outputs detailed data such as the lane width based on it. These are input in S10.

【0017】続いてS12に進んでレーダ評価結果を入
力する。これは前記したレーダ評価CPU42の出力を
入力することで行う。S10およびS12を経ることに
より行動計画意思決定CPU50は図6に示す様な外部
環境情報を得る。
Then, in S12, the radar evaluation result is input. This is done by inputting the output of the radar evaluation CPU 42 described above. By going through S10 and S12, the action plan decision making CPU 50 obtains the external environment information as shown in FIG.

【0018】続いてS14に進んで車線境界線(ないし
車線)と自車との位置関係を求める。画像評価CPU3
8からの車線データは毎時刻同じものが出力されるので
はなく、認識された車線境界線がリアルタイムに出力さ
れる。そこで同一車線境界線および車線には同一の番号
を付して特定し、車線境界線(ないし車線)と自車との
位置関係を対応づける。上記を図7に示す。尚、車線境
界線(ないし車線)の特定については同日付けで提出し
た別出願(整理番号A93−1025)に述べてあるの
で、この程度の説明に止める。
Next, in S14, the positional relationship between the lane boundary line (or lane) and the own vehicle is obtained. Image evaluation CPU3
The same lane data from 8 is not output every time, but the recognized lane boundary line is output in real time. Therefore, the same lane boundaries and lanes are identified by the same numbers, and the positional relationship between the lane boundaries (or lanes) and the vehicle is associated. The above is shown in FIG. The specification of the lane boundary line (or lane) is described in another application (reference number A93-1025) filed on the same date, so the description will be limited to this extent.

【0019】続いてS16に進んで車線と障害物との位
置関係を求める。図示は省略するが、これもS14の作
業と同様であり、障害物と車線境界線(ないし車線)と
の位置関係を対応づける作業である。尚、障害物が複数
個存在するときは、番号を付して特定する。
Then, in S16, the positional relationship between the lane and the obstacle is obtained. Although illustration is omitted, this is also the same as the operation in S14, and is an operation for associating the positional relationship between the obstacle and the lane boundary line (or lane). If there are multiple obstacles, specify them by adding numbers.

【0020】続いてS18に進んで車線の情報を抽出
し、S20に進んで車線内の障害物情報を抽出する。こ
れは続いて行うファジィ推論のために、適宜な処理を行
って特徴および特徴量を求める作業である。
Then, the process proceeds to S18 to extract the lane information, and the process proceeds to S20 to extract the obstacle information in the lane. This is a work for obtaining a feature and a feature amount by performing an appropriate process for the fuzzy inference performed subsequently.

【0021】より具体的には、車線の情報は入力値の状
態では単なる線分の座標に過ぎないため、図8に示す如
く線形化して車線幅および車線長さをその特徴ないし特
徴量として求める。また障害物情報も入力値の状態では
単なる座標に存在する障害物に過ぎないため、図9に示
す様に各障害物までの距離などの特徴ないし特徴量を抽
出して自車両との関係を求め、最終的に図示の如く、各
障害物までの距離、自車速度と障害物速度の相対速度お
よび目標車速と障害物速度との偏差を求めて特徴量とす
る。
More specifically, since the lane information is merely the coordinates of the line segment in the state of the input value, it is linearized as shown in FIG. 8 to obtain the lane width and the lane length as its features or feature quantities. . In addition, since the obstacle information is merely an obstacle existing in the coordinates in the state of the input value, as shown in FIG. 9, the features such as the distance to each obstacle or the feature amount is extracted to show the relationship with the own vehicle. Finally, as shown in the figure, the distance to each obstacle, the relative speed between the own vehicle speed and the obstacle speed, and the deviation between the target vehicle speed and the obstacle speed are obtained and used as the characteristic amount.

【0022】続いてS22に進んで上記特徴量(推論パ
ラメータ)をファジィ量へ変換する。ファジィ推論での
入力値は基本的に−1から1の値をとるため、入力値を
正規化すると共に、不要な大きな値のために正規化した
情報量のダイナミックレンジが失われない様、その範囲
に止める。実施例の場合には具体的には以下の如く決定
した。 特徴量 ファジィ量 車線長さ 0〜100m 0〜1 車線幅 0〜5m 0〜1 各障害物までの距離 0〜100m 0〜1 自車速度と障害物速度の 相対速度 −100〜100km/h −1〜1 目標車速と障害物速度の 偏差 −100〜100km/h −1〜1
Subsequently, the process proceeds to S22, and the above-mentioned characteristic amount (inference parameter) is converted into a fuzzy amount. The input value in fuzzy inference basically takes a value from -1 to 1, so that the input value is normalized and the dynamic range of the normalized information amount is not lost due to an unnecessary large value. Stop in range. In the case of the example, the specific determination was made as follows. Feature quantity Fuzzy quantity Lane length 0-100m 0-1 Lane width 0-5m 0-1 Distance to each obstacle 0-100m 0-1 Relative speed between own vehicle speed and obstacle speed-100-100km / h- 1-1 Deviation between target vehicle speed and obstacle speed -100 to 100 km / h -1 to 1

【0023】また、併せて、ファジィ集合のメンバーシ
ップ関数(以下「ファジィラベル」と言う)を設定す
る。図10ないし図11に設定したファジィラベルを示
す。実施例においてファジィラベルとして、ZO
(零),PS(少し大きい),PM(大きさが中位),
PB(非常に大きい),NB(非常に小さい),NM
(小ささが中位),N(小さい),Z(零付近),P
(大きい)の9種を用い、特徴量(推論パラメータ)に
より使い分けた。
At the same time, a membership function of the fuzzy set (hereinafter referred to as "fuzzy label") is set. The set fuzzy labels are shown in FIGS. In the embodiment, ZO is used as the fuzzy label.
(Zero), PS (slightly large), PM (medium size),
PB (very large), NB (very small), NM
(Small size is medium), N (small), Z (near zero), P
Nine kinds (large) were used and used properly according to the feature amount (inference parameter).

【0024】続いてS24に進んでファジィエキスパー
トシステムにより車線ごとに走行可能度合いを推論す
る。
Then, in S24, the fuzzy expert system infers the drivability degree for each lane.

【0025】それについて説明すると、道路、障害物な
どが複雑に絡み合う環境において車線毎に前方、側方、
後方の様々な状況に応じて最適に判断して行動させるに
は、単なるルールの記述手法では組み合わせが一意に定
まらず、ルールの増大、抜け、矛盾が発生し易い。また
自動運転の感覚と同乗者のドライブ感覚とを違和感なく
調整するのも極めて困難である。この様な状況で最適か
つ同乗者に与える違和感の少ない制御手法には、ファジ
ィ推論を用いるファジィエキスパートシステムが最適と
考えられる。ファジィエキスパートシステムであれば、
多入力、平行同時推論が可能であり、判断パターンも漏
れなく組み合わせることができる上、メンバーシップ関
数を変更するだけで人間のフィーリングにマッチする様
に調整することができるからである。そこで、実施例で
はファジィエキスパートシステムを用いることにした。
Explaining this, in an environment in which roads, obstacles, etc. are intricately entwined with each other, front, side, and
In order to optimally judge and act according to various situations in the back, the combination of rules is not uniquely determined by a simple rule description method, and rules increase, omissions, and inconsistencies are likely to occur. In addition, it is extremely difficult to adjust the feeling of autonomous driving and the feeling of driving of the passenger without any discomfort. A fuzzy expert system that uses fuzzy inference is considered to be the most suitable control method that is optimal and has little discomfort to passengers in such a situation. If it is a fuzzy expert system,
This is because multiple inputs and parallel simultaneous inference are possible, judgment patterns can be combined without omission, and adjustments can be made to match the human feeling simply by changing the membership function. Therefore, in the embodiment, the fuzzy expert system is used.

【0026】ところで、ファジィエキスパートシステム
を用いるとしても、入力条件が多いため、ルール数が膨
大になってしまう。そこで、以下に述べる様な手法を採
用してルール数を削減した。
By the way, even if the fuzzy expert system is used, the number of rules becomes huge because of the large number of input conditions. Therefore, the number of rules was reduced by adopting the method described below.

【0027】図12に実施例でのファジィエキスパート
システムを示す。実施例では、ファジィ推論を一次推論
と二次推論とから構成した。一次推論では、道路の特徴
量から車線走行可能度合いルールを用いて各車線の走行
可能度合いが推論されると共に、障害物の特徴量から2
種の障害物危険判定ルールを用いて障害物走行可能度合
いが推論される。
FIG. 12 shows a fuzzy expert system in the embodiment. In the embodiment, the fuzzy reasoning is composed of primary reasoning and secondary reasoning. In the first-order inference, the drivability degree of each lane is inferred from the characteristic amount of the road by using the lane drivability degree rule, and 2 from the characteristic amount of the obstacle.
The degree of obstacle runnability is inferred using certain types of obstacle risk determination rules.

【0028】二次推論では、車線走行可能度合いルール
を通じて推論された走行可能度合いと、2種の障害物危
険判定ルール(障害物危険度合いルールと総称する)を
通じて得られた走行可能度合いから、走行可能判定ルー
ルを用いて各車線の走行可能度合いがトータルに推論さ
れる。
In the second-order inference, traveling is performed based on the traveling possibility inferred through the lane traveling possibility rule and the traveling possible degree obtained through two kinds of obstacle danger judgment rules (collectively referred to as obstacle danger degree rules). The drivability degree of each lane is totally inferred using the possibility determination rule.

【0029】尚、特徴量(推論パラメータ)自体は車線
によって相違しないので、同一のルール群を用いて各車
線ごとに推論する。但し、検出する推論パラメータが車
線により相違するので、推論値が車線によって相違する
のは言うまでもない。
Since the feature amount (inference parameter) itself does not differ depending on the lane, the same rule group is used to infer each lane. However, it goes without saying that the inference parameter to be detected differs depending on the lane because the inference parameter to be detected differs depending on the lane.

【0030】図13ないし図16に、これらの3種の一
次推論用ルールおよび二次推論用の1種のルール群を示
す。図示の如く、それらは全て、前件部が2個のファジ
ィラベルからなる16個のルールより構成される。
FIGS. 13 to 16 show these three types of primary inference rules and one type of rule group for secondary inference. As shown, they all consist of 16 rules whose antecedent part consists of two fuzzy labels.

【0031】ここで本発明の推論手法(以下「多重推
論」と言う)を説明すると、この多重推論においては図
17に示す如く、一次推論ルールの後件部を二次推論の
前件部として使用する様にした。より具体的には図13
ないし図16および図18に示す如く、一次推論ルール
の後件部について各ファジィラベルのグレード値が最大
となるルールをそれぞれ選択し、そのグレード値(重み
を示す)をそのファジィラベルの代表値として二次推論
ルールの前件部のファジィラベルに当てはめ、二次推論
ルールの最終出力を求めてファジィエキスパートシステ
ムの出力とする様にした。
The inference method of the present invention (hereinafter referred to as "multiple inference") will now be described. In this multiple inference, as shown in FIG. 17, the consequent part of the primary inference rule is used as the antecedent part of the secondary inference. I decided to use it. More specifically, FIG.
As shown in FIG. 16 and FIG. 18, a rule having the maximum grade value of each fuzzy label is selected for the consequent part of the primary inference rule, and the grade value (indicating weight) is used as the representative value of the fuzzy label. It was applied to the fuzzy label in the antecedent part of the secondary inference rule, and the final output of the secondary inference rule was obtained and used as the output of the fuzzy expert system.

【0032】即ち、通常のファジィ推論は図19に示す
様に、ルールR1(説明の便宜のため使用ルールがR
1,R2の2個とする)について前件部ファジィラベル
A11,12のメンバーシップ値のうち最小値を選択し
て後件部ファジィラベルB1のグレード値ω1を求め、
ルールR2についても同様の作業を行って後件部ファジ
ィラベルB2のグレード値ω2を求め、定義域上で両者
の和集合B0を求め、その重心y0を求めてルール群R
1,R2の最終出力とする。その結果、図12に示す様
にファジィ推論を連続的に行うとき、通常の手法に従う
と、図20に記載する様にルール数が膨大となる。
That is, as shown in FIG. 19, the usual fuzzy inference is rule R1 (for convenience of explanation, the usage rule is R
1 and R2), the minimum value of the membership values of the antecedent fuzzy labels A11, 12 is selected to obtain the grade value ω1 of the antecedent fuzzy label B1.
The same operation is performed for the rule R2 to obtain the grade value ω2 of the consequent part fuzzy label B2, the union B0 of the two is obtained on the domain, and the center of gravity y0 is obtained to obtain the rule group R2.
The final output of 1 and R2. As a result, when the fuzzy inference is continuously performed as shown in FIG. 12, the number of rules becomes enormous as shown in FIG. 20 according to the usual method.

【0033】そこで、実施例においては図13などに示
す様に、各ファジィラベルについてグレード値が最大と
なるものを選択し、そのファジィラベルを代表させる様
にした。即ち、図13の場合、ファジィラベルとしてZ
O,PS,PM,PBの4種を使用しているが、後件部
は同一ファジィラベルについて複数個の値を持つ。例え
ば、PMで言えば3個の値を持つ。そしてPMの3個の
値は、同図下部に示す様に大小関係にある。
Therefore, in the embodiment, as shown in FIG. 13 and the like, a fuzzy label having the maximum grade value is selected and the fuzzy label is represented. That is, in the case of FIG. 13, Z is used as the fuzzy label.
Although four types of O, PS, PM and PB are used, the consequent part has a plurality of values for the same fuzzy label. For example, in terms of PM, it has three values. The three values of PM have a magnitude relationship as shown in the lower part of the figure.

【0034】ここで、PMの3個の値の大小関係を見る
と、その中で最大のものは、そのファジィラベル(即
ち、PM)で最もルールの満足度が高いのであるから、
グレード値が最大となったものでそのファジィラベルを
代表させることができるとみなすこともできる。そこ
で、この発明においては各ファジィラベルについてグレ
ード値が最大となる値をそれぞれ求め、そのグレード値
を二次推論ルールの前件部の当該ファジィラベルに代入
することとした。
Looking at the magnitude relation of the three values of PM, the largest one among them is that the fuzzy label (that is, PM) has the highest degree of satisfaction of the rule.
It can be considered that the fuzzy label can be represented by the one with the maximum grade value. Therefore, in the present invention, the maximum grade value is obtained for each fuzzy label, and the grade value is substituted for the fuzzy label in the antecedent part of the secondary inference rule.

【0035】グレード値はファジィ推論において重みを
意味するが、換言すれば、一次推論では各ファジィラベ
ルの重みのみ求めて定義域上の最終出力を求めず、二次
推論でその重みを用いて初めて定義域上の最終出力を求
める様にした。図16の末尾に、この様にして求める二
次推論ルールの最終出力の算出を示す。尚、一般に最終
出力は前記の如く後件部メンバーシップ値の和集合の重
心を求めることで行われるが、処理時間がかかるため、
ここではいわゆるシングルトン方式と呼ばれる簡易重心
計算を用いた。
The grade value means a weight in fuzzy inference. In other words, in the first inference, only the weight of each fuzzy label is obtained and the final output on the domain is not obtained, and the weight is first used in the second inference. The final output on the domain is calculated. The final output of the secondary inference rule thus obtained is shown at the end of FIG. Incidentally, the final output is generally performed by obtaining the center of gravity of the union of the consequent part membership values as described above, but it takes processing time.
Here, a simple center of gravity calculation called the so-called singleton method was used.

【0036】この結果、図20に示す様に、ルール数を
大幅に低減することができ、その結果、演算量ないし使
用メモリ容量を低減することができ、またデバッグ効率
を向上することができた。
As a result, as shown in FIG. 20, it is possible to greatly reduce the number of rules, and as a result, it is possible to reduce the calculation amount or the used memory capacity, and it is possible to improve the debugging efficiency. .

【0037】図21は上記したファジィエキスパートシ
ステムの推論で得られる走行可能度合いの出力例を示
す。走行可能度合いは各車線ごとに0〜1までの実数値
で図示の如く決定される。図示例は、自車線を中心に左
右に計3個の車線が存在する道路環境の場合である。出
力は認識される全ての車線に対して行われ、以前の推論
時刻で認識され、当該推論時刻で認識されない車線の出
力値は0となる。
FIG. 21 shows an output example of the drivability degree obtained by the inference of the fuzzy expert system described above. The drivability is determined as a real number from 0 to 1 for each lane as shown in the figure. The illustrated example is a case of a road environment in which there are a total of three lanes on the left and right around the own lane. The output is performed for all the recognized lanes, and the output value of the lane which is recognized at the previous inference time and is not recognized at the inference time becomes 0.

【0038】実施例においては、各車線をこの様に評価
したことから、障害物が各車線の種々の位置に存在し、
しかも時々刻々変動する様な複雑な道路状況を的確に評
価することができた。図12に示す様に、次いでこれに
基づいて車線のいずれかを選択することになるが、その
選択作業も簡易となって円滑に行うことができる。
In the example, since each lane was evaluated in this way, obstacles exist at various positions in each lane,
Moreover, it was possible to accurately evaluate the complicated road conditions that change from moment to moment. As shown in FIG. 12, one of the lanes is then selected based on this, but the selection work can be simplified and can be performed smoothly.

【0039】図4フロー・チャートに戻ると、続いてS
26に進んでその目標車線の決定を行う。尚、これには
ファジィ推論を用いない。
Returning to the flow chart of FIG.
Proceed to step 26 to determine the target lane. Fuzzy reasoning is not used for this.

【0040】図22はその選択作業を示すフロー・チャ
ートである。同図の説明に入る前に図23を参照してこ
の選択作業を簡単に説明すると、自車線の走行可能度合
いがスレッシュオルド値以下になるまで、他の車線の走
行可能度合いがそれより大きくても車線変更しない様に
した。またスレッシュオルド値以下となったときは、走
行可能度合いがスレッシュオルド値より大きい車線を選
択すると共に、一旦選択した後は、選択車線の走行可能
度合いがスレッシュオルド値以下となっても、選択車線
と他の車線の走行可能度合いの差が設定値(適宜設定)
を超えない限り、車線変更を行わない様にした。即ち、
ヒステリシスを設けて制御ハンチングが生じない様にし
た。
FIG. 22 is a flow chart showing the selection work. Before entering the description of FIG. 23, the selection work will be briefly described with reference to FIG. 23. Until the drivability degree of the own lane becomes equal to or lower than the threshold old value, the drivability degree of the other lane is larger than that. I did not change the lane. When the vehicle becomes less than the threshold old value, a lane with a driving possibility greater than the threshold old value is selected, and once selected, even if the driving possibility of the selected lane becomes less than the threshold old value, the selected lane is selected. And the difference in the degree of drivability in other lanes are set values (set appropriately)
Unless you exceed the limit, you will not change lanes. That is,
Hysteresis is provided to prevent control hunting.

【0041】図22を参照して上記を説明すると、先ず
S100で自車線の走行可能度合いがスレッシュオルド
値以下か否か判断し、否定されるときはS102に進ん
で自車線を維持し、S104に進んで目標車線を自車線
と置き換える(但し、この場合には自車線がそのまま自
車線に置き換えられる)。S100で肯定されるときは
S106に進み、右車線の走行可能度合いがスレッシュ
オルド値以上か否か判断する。
Explaining the above with reference to FIG. 22, first, in S100, it is judged whether or not the travelable degree of the own lane is less than or equal to the threshold value. If the result is negative, the routine proceeds to S102 to maintain the own lane, and S104 Go to and replace the target lane with your own lane (however, in this case, your own lane is replaced with your own lane). When the result in S100 is affirmative, the program proceeds to S106, in which it is determined whether or not the drivability in the right lane is greater than or equal to the threshold value.

【0042】S106で肯定されるときはS108に進
み、そこで自車線の走行可能度合いと右車線の走行可能
度合いの差が、前記した設定値より小さいか否か判断す
る。これは右車線に変更しても走行可能度合いに大差な
い場合には車線を変更する意義が少ないことから、それ
を判定するためである。従って、否定されるときは走行
可能度合いの差が小さくないので、S110に進んで目
標車線を右車線とし、S104に進んで目標車線を自車
線と置き換える。
When the result in S106 is affirmative, the program proceeds to S108, in which it is determined whether or not the difference between the travelable degree in the own lane and the travelable degree in the right lane is smaller than the set value. This is because if there is no great difference in the degree of drivability even if the lane is changed to the right lane, the lane change is of little significance, and therefore it is determined. Therefore, when the determination is negative, the difference in the travelable degree is not small, and thus the process proceeds to S110, where the target lane is the right lane, and the process proceeds to S104 where the target lane is replaced with the own lane.

【0043】他方、S108で右車線との走行可能度合
いの差が設定値より小さいと判断されるときはS112
に進んで左車線の走行可能度合いがスレッシュオルド値
以上か否か判断する。尚、S106で否定されるときは
右車線についてそれ以上検討する益がないので、直ちに
S112にジャンプする。
On the other hand, if it is determined in S108 that the difference in the degree of travelability from the right lane is smaller than the set value, S112.
Then, it is judged whether or not the degree of drivability in the left lane is equal to or more than the threshold old value. When the result in S106 is negative, there is no further consideration for the right lane, so the process immediately jumps to S112.

【0044】S112で左車線の走行可能度合いがスレ
ッシュオルド値以上ではないと判断されるときは左車線
に変更する意味がないので、S102に進んで自車線を
維持すると共に、S112で肯定されるときはS114
に進み、そこで自車線と左車線の走行可能度合いの差が
設定値より小さいか否か判断し、肯定されるときはS1
02に進んで自車線を維持すると共に、否定されるとき
はS116に進んで左車線を目標車線とする。尚、右車
線から判断する様にしたのは、法令上追越しは右側から
行うことが原則となっているからである。
If it is determined in S112 that the left lane is not more than the threshold value, it is meaningless to change to the left lane. Therefore, the process proceeds to S102 to maintain the own lane and is affirmed in S112. When S114
Then, it is determined whether the difference between the driving lanes of the own lane and the left lane is smaller than the set value, and when the determination is affirmative, S1
When it is denied, the program proceeds to 02 to maintain the own lane, and when the result is negative, the program proceeds to S116 to set the left lane as the target lane. It should be noted that the reason why the judgment is made from the right lane is that, in principle, overtaking is done from the right side when passing by law.

【0045】図4フロー・チャートに戻ると、続いてS
28に進んで決定された目標車線に対して目標経路を計
画する。
Returning to the flow chart of FIG.
Proceed to step 28 to plan a target route for the determined target lane.

【0046】図24を参照して説明すると、目標車線が
自車線の場合には車線の中央に2.5mおきにx,yの
点を車線上に設定する。ここで、x,yは図25に示す
様な座標上の位置を示す。車線の中央に目標経路を計画
することにより、安全に自動走行することができる。
尚、この実施例において座標のX軸は車両進行方向にと
る。
Referring to FIG. 24, when the target lane is the own lane, points x and y are set on the lane every 2.5 m in the center of the lane. Here, x and y indicate positions on coordinates as shown in FIG. By planning a target route in the center of the lane, you can drive safely and automatically.
In this embodiment, the X axis of the coordinates is in the vehicle traveling direction.

【0047】また、目標車線が他車線の場合、その車線
の中央に基準線を求め、基準線上に適宜な位置(目標レ
ーンチェンジ、ポイント)(a)を選択し、その位置
(a)から自車位置までの線分(b)を求め、その線分
に対し、2.5mおきにx,yの点を設定する。尚、こ
こで位置(a)は、自車速Vに車線変更(レーンチェン
ジ)予定時間Tを乗じた距離Lで求める。尚、レーンチ
ェンジした後は目標経路が中央基準線に沿って計画され
るのは自車線を走行する場合と同様である。
When the target lane is another lane, a reference line is obtained in the center of the lane, an appropriate position (target lane change, point) (a) is selected on the reference line, and the own position is selected from the position (a). A line segment (b) to the vehicle position is obtained, and points x and y are set every 2.5 m for the line segment. The position (a) is obtained by the distance L obtained by multiplying the own vehicle speed V by the scheduled lane change (lane change) time T. After the lane change, the target route is planned along the central reference line as in the case of traveling in the own lane.

【0048】更に、位置(a)の付近に障害物が存在す
る場合、接触する可能性があるので、その障害物の位置
から5m減算した位置を目標とし、自車位置までの線分
(b)を求めて同様に処理する。
Furthermore, if there is an obstacle near the position (a), there is a possibility of contact, so the target position is the position obtained by subtracting 5 m from the position of the obstacle, and the line segment (b ) And perform the same processing.

【0049】次いでS30に進んで軌跡推定結果を入力
する。先に図2に関して述べた様に、ヨーレートセンサ
14などの出力から軌跡推定CPU44において自車の
走行軌跡が図25に示す様に推定されて共有メモリ34
にストアされており、このステップではそのストア値を
読み出して自車の現在位置を推定する。
Next, in S30, the trajectory estimation result is input. As described above with reference to FIG. 2, the locus estimation CPU 44 estimates the traveling locus of the own vehicle from the output of the yaw rate sensor 14 as shown in FIG.
The stored value is read out and the present position of the vehicle is estimated in this step.

【0050】続いてS32に進んで目標経路の遅れ時間
補正を行う。
Then, in S32, the delay time of the target route is corrected.

【0051】即ち、S28で目標経路が計画され、それ
に沿って進行すべくS30で自車の走行軌跡を入力した
が、目標車線の決定までにある程度の処理時間を要し、
自車は明らかにその間に移動している。従って、図26
に示す様に、画像入力時と処理時間経過後とでは自車の
位置は相違している筈であり、その移動した位置を考慮
して目標経路を定めないと、目標経路追従制御に誤差が
生じる。従って、このステップで図26に示す様に、自
車の位置を前記座標の原点位置に置く様に座標変更し、
目標経路(点列で示される)を遅れ補正する。
That is, the target route is planned in S28, and the traveling locus of the own vehicle is input in S30 to proceed along the route, but it takes some processing time to determine the target lane,
My car is obviously moving in the meantime. Therefore, FIG.
As shown in, the position of the host vehicle should be different between when the image is input and after the processing time has elapsed.Therefore, if the target route is not determined in consideration of the moved position, there will be an error in the target route tracking control. Occurs. Therefore, in this step, as shown in FIG. 26, the coordinates are changed so that the position of the own vehicle is placed at the origin position of the coordinates,
Delay correction of the target route (indicated by a sequence of points).

【0052】続いてS34に進んでファジィコントロー
ルシステムによる目標走行速度(加速度)を算出する。
Then, in S34, the target traveling speed (acceleration) is calculated by the fuzzy control system.

【0053】図27はそれを示すブロック図であり、図
28はその中の加速度制御器の詳細を示すブロック図で
ある。また、図29は目標加速度の推論に使用されるフ
ァジィ・メンバーシップ関数を示す。図27においてフ
ァジィ推論器は障害物までの距離、自車速度と障害物速
度の相対速度および自車速度を入力パラメータとしてフ
ァジィ推論を行い、目標加速度を算出する。尚、加速度
は車速の1階差分値で表す。また、ファジィ推論は前述
した多重推論ではなく、従来手法を用いる。
FIG. 27 is a block diagram showing this, and FIG. 28 is a block diagram showing details of the acceleration controller therein. Further, FIG. 29 shows a fuzzy membership function used for inferring the target acceleration. In FIG. 27, the fuzzy inference unit performs fuzzy inference using the distance to the obstacle, the relative speed of the own vehicle speed and the obstacle speed, and the own vehicle speed as input parameters to calculate the target acceleration. The acceleration is represented by the first-order difference value of the vehicle speed. Moreover, the fuzzy inference uses the conventional method instead of the multiple inference described above.

【0054】図28に詳細を示す加速度制御器において
は目標加速度と実加速度との偏差を求め、偏差に応じて
スロットル開度ないしブレーキ圧力を目標値にPID制
御する。かかる構成により、前車との距離を所定の値に
保ちつつ目標加速度で自動走行することができ、前車の
動きに応じて加減速ないし停止することができる。
In the acceleration controller shown in detail in FIG. 28, the deviation between the target acceleration and the actual acceleration is obtained, and the throttle opening or the brake pressure is PID-controlled to the target value according to the deviation. With such a configuration, it is possible to automatically travel at the target acceleration while keeping the distance to the front vehicle at a predetermined value, and it is possible to accelerate or decelerate or stop according to the movement of the front vehicle.

【0055】最後にS36で図2の軌跡追従制御CPU
46、舵角制御CPU52、車速制御(加速度制御)C
PU60に目標経路、目標速度(加速度)を出力して終
わる。
Finally, in S36, the trajectory tracking control CPU shown in FIG.
46, steering angle control CPU 52, vehicle speed control (acceleration control) C
The target route and the target speed (acceleration) are output to the PU 60, and the process ends.

【0056】図30ないし図33に上記についての実車
走行テスト結果を示す。図30は定速走行する前走車に
追従走行した場合を示し、所定の離間距離を保ちつつ前
走車に正確に追従している様子が見てとれよう。図31
に、そのときの走行可能度合いを従来手法により推論し
た場合とこの発明で提案する多重推論を用いて推論した
場合を対比して示す。図示の如く、両者の結果にほとん
ど差異がなかった。
30 to 33 show the actual vehicle running test results for the above. FIG. 30 shows the case of following a preceding vehicle traveling at a constant speed, and it can be seen that the vehicle is accurately following the preceding vehicle while maintaining a predetermined separation distance. Figure 31
Fig. 3 shows a comparison between the case where the travelable degree at that time is inferred by the conventional method and the case where the inference is performed using the multiple inference proposed by the present invention. As shown in the figure, there was almost no difference between the two results.

【0057】図32も図30と同様のテストデータ図で
前走車に応じて停止した場合を示す。また、図33に、
そのときの走行可能度合い推論を障害物発見ポイントに
ついて従来手法とこの発明で提案する多重推論を用いて
推論した場合を対比して示す。図31と同様に、このテ
スト結果でも両者にほとんど差異がなかった。
FIG. 32 is a test data diagram similar to that of FIG. 30 and shows a case where the vehicle is stopped in response to a vehicle in front. In addition, in FIG.
The inference of the drivability degree at that time is shown in comparison between the conventional method and the case of using the multiple inference proposed in the present invention for the obstacle detection point. Similar to FIG. 31, there is almost no difference between the two in this test result.

【0058】この実施例は上記の如く車線の走行可能度
合いなる概念を用い、それをファジィ推論を通じて判定
する様にしたので、複数の車線が平行し障害物が点在す
る道路環境においても常に最適な車線を選択して安定に
走行することができる。また、障害物の有無などから車
線ごとの走行可能度合いを推論して車線を選択するの
で、障害物と接触するなどの危険がない。
In this embodiment, the concept of the degree of lane travelability is used as described above, and it is determined by fuzzy reasoning. Therefore, it is always optimal even in a road environment in which a plurality of lanes are parallel and obstacles are scattered. You can select a different lane and drive stably. In addition, since the lane is selected by inferring the drivability for each lane based on the presence or absence of an obstacle, there is no danger of contact with the obstacle.

【0059】更に、ファジィ推論を通じて車線ごとの走
行可能度合いを判断する様にしたので、同乗者のフィー
リングに合った運転制御が可能となると共に、そのファ
ジィ推論においては多重推論を用いたので、演算量およ
びメモリ量を低減でき、デバッグ効率も向上する。
Further, since the degree of running possibility for each lane is determined through fuzzy inference, driving control suitable for the passenger's feeling is possible, and multiple inference is used in the fuzzy inference. The amount of calculation and the amount of memory can be reduced, and the debugging efficiency also improves.

【0060】更に、ファジィ推論を通じて車線ごとの走
行可能度合いを判断すると共に、それから目標車線を決
定するに際してスレッシュオルド値との比較から行う様
にしたので、スレッシュオルド値を上下させることによ
っても車線変更の頻度などを調節することができ、道路
環境に応じて一層最適に走行することができる。
Furthermore, since the degree of drivability for each lane is determined through fuzzy reasoning, and the target lane is then determined by comparison with the threshold old value, the lane can be changed by raising or lowering the threshold old value. The frequency and the like can be adjusted, and the vehicle can travel more optimally according to the road environment.

【0061】尚、上記において、ファジィ推論の多重推
論を2段接続としたが、推論パラメータが干渉し合わな
い限り、3段ないしはそれ以上を接続しても良い。
In the above description, the fuzzy inference multiple inference is connected in two stages, but three or more stages may be connected as long as the inference parameters do not interfere with each other.

【0062】更に、ファジィ推論パラメータとして実施
例で示した他に、車線の曲率、障害物の速度、自車速
度、目標車速など種々のものを用いても良い。また、実
施例では障害物に関して前方に存在するものだけをファ
ジィ推論パラメータとしたが、後方に存在するものにつ
いてもファジィ推論パラメータに使用しても良い。
In addition to the fuzzy inference parameters shown in the embodiment, various parameters such as lane curvature, obstacle speed, own vehicle speed, and target vehicle speed may be used. Further, in the embodiment, only the obstacle existing ahead of the obstacle is used as the fuzzy inference parameter, but the obstacle existing behind the obstacle may be used as the fuzzy inference parameter.

【0063】更に、視覚センサを単眼視としたが、両眼
視を用いて前方レーダなどを省略しても良い。
Furthermore, although the visual sensor is monocular, the front radar may be omitted by using binocular vision.

【0064】[0064]

【発明の効果】請求項1項にあっては、複数の車線が平
行し、障害物が存在する道路環境においても常に最適な
車線を選択して安定に走行することができる。
According to the first aspect of the present invention, the optimum lane can always be selected and the vehicle can travel stably even in a road environment where a plurality of lanes are parallel to each other and obstacles exist.

【0065】請求項2項にあっては、前記した効果に加
えて、障害物を確実に回避しつつ最適な車速を選択して
走行することができる。
According to the second aspect, in addition to the above-mentioned effects, it is possible to select an optimum vehicle speed and travel while reliably avoiding an obstacle.

【0066】請求項3項にあっては、複数の車線が平行
し、障害物が存在する道路環境においても常に最適な車
線を選択することができると共に、選択された車線に向
かう目標軌跡に沿って正確に走行することができる。
According to the third aspect of the present invention, it is possible to always select the optimum lane even in a road environment in which a plurality of lanes are parallel to each other and obstacles exist, and along the target locus toward the selected lane. And can drive accurately.

【0067】請求項4項にあっては、複数の車線が平行
し、障害物が存在する道路環境においても常に最適な車
線を選択することができると共に、車線の中央を走行す
ることから、安全に走行することができる。
According to the present invention, a plurality of lanes are parallel to each other, the optimum lane can always be selected even in a road environment where obstacles exist, and the vehicle runs in the center of the lane. You can drive to.

【0068】請求項5項にあっては、ファジィ推論を用
いて自動走行に必要な制御値を求めることで人間のフィ
ーリングにマッチした制御が容易に可能になると共に、
推論の演算量および使用メモリ容量の低減を図ることが
でき、デバッグ効率の向上も図ることができる。
According to the fifth aspect of the present invention, fuzzy inference is used to obtain a control value required for automatic driving, and control matching the human feeling is easily possible.
The calculation amount of inference and the memory capacity used can be reduced, and the debugging efficiency can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明に係る自動走行車両を全体的に示す説
明透視図である。
FIG. 1 is an explanatory perspective view generally showing an automatic vehicle according to the present invention.

【図2】図1に示すセンサおよびその処理などを詳細に
示すブロック図である。
FIG. 2 is a block diagram showing in detail the sensor shown in FIG. 1 and its processing.

【図3】図2ブロック図の構成をより機能的に示す図2
と同様の説明図である。
3 is a functional block diagram of the configuration of the block diagram of FIG. 2;
It is an explanatory view similar to.

【図4】図2ブロック図の行動計画意思決定CPUの動
作で自動走行動作を示すフロー・チャートである。
FIG. 4 is a flow chart showing an automatic traveling operation by the operation of the action plan decision-making CPU of the block diagram of FIG.

【図5】図4フロー・チャートの画像評価結果を説明す
る画像処理の説明図である。
FIG. 5 is an explanatory diagram of image processing for explaining the image evaluation result of the flow chart of FIG. 4;

【図6】図4フロー・チャートの画像評価結果およびレ
ーダ評価結果の入力を通じて得られる外部環境情報を示
す説明図である。
FIG. 6 is an explanatory diagram showing external environment information obtained by inputting image evaluation results and radar evaluation results in the flow chart of FIG. 4;

【図7】図4フロー・チャートの車線境界線と自己位置
(自車)の位置関係を説明する説明図である。
7 is an explanatory diagram illustrating a positional relationship between a lane boundary line and a self-position (self-vehicle) in the flow chart of FIG. 4;

【図8】図4フロー・チャートの車線の特徴量を示す説
明図である。
FIG. 8 is an explanatory diagram showing characteristic amounts of lanes in the flow chart of FIG. 4;

【図9】図4フロー・チャートの障害物の特徴量を示す
説明図である。
FIG. 9 is an explanatory diagram showing feature quantities of obstacles in the flow chart of FIG. 4;

【図10】図8の車線の特徴量について設定したメンバ
ーシップ関数(ファジィラベル)を示す説明図である。
10 is an explanatory diagram showing a membership function (fuzzy label) set for the feature amount of the lane of FIG.

【図11】図9の障害物の特徴量について設定したメン
バーシップ関数(ファジィラベル)を示す説明図であ
る。
11 is an explanatory diagram showing a membership function (fuzzy label) set for the feature quantity of the obstacle in FIG. 9. FIG.

【図12】図8フロー・チャートのファジィエキスパー
トシステムによる車線ごとの走行可能度合い推論および
推論値により行われる目標車線決定を全体的に示す説明
図である。
FIG. 12 is an explanatory diagram generally showing target lane determination performed by the driving degree inference for each lane and the inference value by the fuzzy expert system of the flow chart of FIG. 8;

【図13】図12のファジィエキスパートシステムで使
用される車線走行可能度合いルール群を示す説明図であ
る。
13 is an explanatory diagram showing a lane traveling possibility degree rule group used in the fuzzy expert system of FIG. 12;

【図14】図12のファジィエキスパートシステムで使
用される障害物危険判定ルール群を示す説明図である。
14 is an explanatory diagram showing an obstacle risk determination rule group used in the fuzzy expert system of FIG.

【図15】図12のファジィエキスパートシステムで使
用される別の障害物危険判定ルール群を示す説明図であ
る。
15 is an explanatory diagram showing another obstacle risk determination rule group used in the fuzzy expert system in FIG. 12. FIG.

【図16】図12のファジィエキスパートシステムで使
用される二次推論用のトータルの走行可能度合いルール
群を示す説明図である。
16 is an explanatory diagram showing a total runnability degree rule group for secondary inference used in the fuzzy expert system of FIG. 12;

【図17】この発明で用いる多重推論なる手法を示す説
明図である。
FIG. 17 is an explanatory diagram showing a technique called multiple inference used in the present invention.

【図18】この発明で用いる多重推論なる手法をより具
体的に示す説明図である。
FIG. 18 is an explanatory diagram more specifically showing the method of multiple inference used in the present invention.

【図19】従来技術によるファジィ推論を示す説明図で
ある。
FIG. 19 is an explanatory diagram showing fuzzy inference according to a conventional technique.

【図20】従来技術によるファジィ推論に比較してこの
発明で用いる多重推論によるルール数の減少度を示す説
明図である。
FIG. 20 is an explanatory diagram showing the reduction degree of the number of rules by the multiple inference used in the present invention as compared with the fuzzy inference by the conventional technique.

【図21】図4フロー・チャートで推論される走行可能
度合いを示すタイミング・チャートである。
FIG. 21 is a timing chart showing the drivability degree inferred from the flow chart of FIG.

【図22】図4フロー・チャートの目標車線決定作業を
説明するサブルーチン・フロー・チャートである。
22 is a subroutine flow chart for explaining the target lane determination work of the flow chart of FIG.

【図23】図4フロー・チャートの目標車線決定作業を
説明するタイミング・チャートである。
FIG. 23 is a timing chart explaining the target lane determination work of the flow chart of FIG. 4;

【図24】図4フロー・チャートの目標車線に対する目
標経路の計画作業を示す説明図である。
FIG. 24 is an explanatory diagram showing a work of planning a target route for a target lane in the flow chart of FIG. 4;

【図25】図4フロー・チャートの軌跡推定結果を説明
する説明図である。
FIG. 25 is an explanatory diagram illustrating a trajectory estimation result of the flow chart of FIG. 4;

【図26】図4フロー・チャートの目標経路の遅れ時間
補正作業を示す説明図である。
FIG. 26 is an explanatory diagram showing a delay time correction operation for the target route in the flow chart of FIG. 4;

【図27】図4フロー・チャートの目標走行速度(加速
度)制御のブロック図である。
FIG. 27 is a block diagram of target traveling speed (acceleration) control of the flow chart of FIG.

【図28】図27の中の加速度制御器の詳細を示すブロ
ック図である。
28 is a block diagram showing details of the acceleration controller in FIG. 27. FIG.

【図29】図27の制御の目標加速度のファジィ推論で
使用するパラメータである。
FIG. 29 is a parameter used in fuzzy inference of the target acceleration in the control of FIG.

【図30】この発明による自動走行動作で前走車追従走
行のテストデータ図である。
FIG. 30 is a test data diagram of following vehicle traveling in the automatic traveling operation according to the present invention.

【図31】図30のテストで走行可能度合いを従来手法
で推論した場合とこの発明による多重推論で推論した場
合とを対比して示す説明図である。
FIG. 31 is an explanatory view showing a case where the travelable degree is inferred by the conventional method in the test of FIG. 30 and a case where it is inferred by multiple inference according to the present invention in comparison.

【図32】図30と同様の実車走行テストデータ図であ
る。
FIG. 32 is an actual vehicle running test data diagram similar to FIG. 30.

【図33】図32と同様に推論結果を対比的に示す説明
図である。
FIG. 33 is an explanatory diagram showing comparison of inference results as in the case of FIG. 32.

【符号の説明】[Explanation of symbols]

10 CCDカメラ 12 レーダユニット 14 ヨーレートセンサ 16 車速センサ 18 舵角センサ 30 画像処理CPU 36 画像評価CPU 42 レーダ評価CPU 44 軌跡推定CPU 46 軌跡追従制御CPU 50 行動計画意思決定CPU 52 舵角制御CPU 60 車速制御(加速度制御)CPU 10 CCD camera 12 radar unit 14 yaw rate sensor 16 vehicle speed sensor 18 steering angle sensor 30 image processing CPU 36 image evaluation CPU 42 radar evaluation CPU 44 trajectory estimation CPU 46 trajectory tracking control CPU 50 action plan decision making CPU 52 steering angle control CPU 60 vehicle speed Control (acceleration control) CPU

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/16 C 7531−3H // G05B 13/02 N 9131−3H B62D 101:00 113:00 137:00 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G08G 1/16 C 7531-3H // G05B 13/02 N 9131-3H B62D 101: 00 113: 00 137: 00

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 外界を認識しつつ自動走行する車両にお
いて、 a.車両進行方向に対して複数の走行可能領域を認識す
る認識手段、 b.車両周囲に存在する障害物の少なくとも位置を含む
障害物の状態を検出する障害物状態検出手段、 c.車速および前記複数の走行可能領域に対する自車の
位置と方位とを少なくとも含む自車の状態を検出する自
車状態検出手段、 d.検出値に基づいてファジィ推論を行って前記複数の
走行可能領域について走行可能度合いを判定する走行可
能度合い判定手段、 e.判定された走行可能度合いに基づいて前記複数の走
行可能領域のいずれかを選択する選択手段、 f.少なくとも前記検出された自車状態に基づいて自車
の走行軌跡を求める軌跡算出手段、および g.選択された走行可能領域を走行すべく少なくとも前
記検出された自車の状態と算出された走行軌跡とに基づ
いて車両走行の制御量を算出する制御量算出手段、を備
えたことを特徴とする自動走行車両。
1. A vehicle that automatically travels while recognizing the outside world, comprising: a. Recognition means for recognizing a plurality of drivable areas in the traveling direction of the vehicle, b. Obstacle state detecting means for detecting the state of the obstacle including at least the position of the obstacle existing around the vehicle, c. Vehicle state detection means for detecting the state of the vehicle including at least the vehicle speed and the position and direction of the vehicle with respect to the plurality of drivable areas; d. Drivability degree determining means for determining a drivability degree for the plurality of drivable areas by performing fuzzy inference based on the detected value, e. Selecting means for selecting one of the plurality of drivable areas based on the determined drivability degree; f. Trajectory calculating means for obtaining a traveling locus of the own vehicle based on at least the detected state of the own vehicle, and g. A control amount calculation means for calculating a control amount of vehicle traveling based on at least the detected state of the own vehicle and the calculated traveling locus for traveling in the selected travelable region is provided. Self-driving vehicle.
【請求項2】h.少なくとも前記検出された障害物の状
態に基づいて障害物の移動軌跡を求める移動軌跡算出手
段、を備え、前記制御量算出手段は、少なくとも前記求
めた自車の軌跡と障害物の移動軌跡とに基づいて前記車
両走行の制御量を算出することを特徴とする請求項1項
記載の自動走行車両。
2. h. At least the moving locus calculating means for obtaining a moving locus of the obstacle based on the detected state of the obstacle, the control amount calculating means is at least the obtained locus of the own vehicle and the moving locus of the obstacle. The automatic vehicle according to claim 1, wherein the control amount of the vehicle traveling is calculated based on the vehicle traveling amount.
【請求項3】 前記制御量算出手段は、前記選択された
走行可能領域へ自車が移動を開始するまでの時間遅れを
補正する手段を備えることを特徴とする請求項1項また
は2項記載の自動走行車両。
3. The control amount calculation means comprises means for correcting a time delay until the vehicle starts moving to the selected travelable area. Self-driving vehicle.
【請求項4】 前記制御量算出手段は、前記選択された
走行可能領域に対する自車の最適位置を求める手段を備
えることを特徴とする請求項1項ないし3項のいずれか
に記載の自動走行車両。
4. The automatic travel according to claim 1, wherein the control amount calculation means includes means for determining an optimum position of the vehicle with respect to the selected travelable area. vehicle.
【請求項5】 外界を認識しつつ自動走行する車両にお
いて、 a.少なくとも車両が走行する走行可能領域を認識して
走行可能領域の状態を示すパラメータを検出する手段、 b.少なくとも車両の走行状態を示すパラメータを検出
する手段、 c.前記検出されたパラメータを前件部に用いてファジ
ィプロダクションルールを設定し、ファジィ推論を行っ
てその後件部の重みを求める第1ファジィ推論手段、 d.前記後件部を前件部に用いて第n(n≧2)のファ
ジィプロダクションルールを設定し、第nのファジィ推
論を行って第nルールの後件部の重みと重心位置とから
後件部の出力を求める第nファジィ推論手段、および e.求めた後件部の出力に基づいて車両走行の制御量を
算出する制御量算出手段、を備えたことを特徴とする自
動走行車両。
5. A vehicle that automatically travels while recognizing the outside world, comprising: a. At least means for recognizing a travelable area in which the vehicle travels and detecting a parameter indicating a state of the travelable area, b. Means for detecting at least a parameter indicating the traveling state of the vehicle, c. A first fuzzy inference means for setting a fuzzy production rule using the detected parameters in the antecedent part, performing fuzzy inference, and then obtaining the weight of the antecedent part; d. The consequent part is used as the antecedent part to set the nth (n ≧ 2) fuzzy production rule, and the nth fuzzy inference is performed to determine the consequent from the weight and the position of the center of gravity of the consequent part of the nth rule. N fuzzy inference means for obtaining the output of the section, and e. An automatic traveling vehicle comprising: a control amount calculating means for calculating a control amount of vehicle traveling based on the obtained output of the consequent portion.
JP5254896A 1993-09-17 1993-09-17 Self-driving vehicle Expired - Fee Related JP2853077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5254896A JP2853077B2 (en) 1993-09-17 1993-09-17 Self-driving vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5254896A JP2853077B2 (en) 1993-09-17 1993-09-17 Self-driving vehicle

Publications (2)

Publication Number Publication Date
JPH0781604A true JPH0781604A (en) 1995-03-28
JP2853077B2 JP2853077B2 (en) 1999-02-03

Family

ID=17271353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5254896A Expired - Fee Related JP2853077B2 (en) 1993-09-17 1993-09-17 Self-driving vehicle

Country Status (1)

Country Link
JP (1) JP2853077B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19546506A1 (en) * 1995-12-13 1997-06-19 Daimler Benz Ag Vehicle navigation system and signal processing method for such a navigation system
US5710565A (en) * 1995-04-06 1998-01-20 Nippondenso Co., Ltd. System for controlling distance to a vehicle traveling ahead based on an adjustable probability distribution
EP0849144A2 (en) * 1996-12-17 1998-06-24 Honda Giken Kogyo Kabushiki Kaisha Automatic steering apparatus for vehicles
WO1998054629A1 (en) * 1997-05-30 1998-12-03 Raytheon Company Obstacle avoidance processing method for vehicles using an autom ated highway system
US5913375A (en) * 1995-08-31 1999-06-22 Honda Giken Kogyo Kabushiki Kaisha Vehicle steering force correction system
US5929802A (en) * 1997-11-21 1999-07-27 Raytheon Company Automotive forward looking sensor application
US5959570A (en) * 1997-11-21 1999-09-28 Raytheon Company Automotive forward looking sensor blockage detection system and related techniques
EP0835796A3 (en) * 1996-10-09 2000-09-20 Honda Giken Kogyo Kabushiki Kaisha Automatic steering system for verhicle
JP2004157731A (en) * 2002-11-06 2004-06-03 Nissan Motor Co Ltd Vehicular recommended control input generation system
JP2004157910A (en) * 2002-11-08 2004-06-03 Nissan Motor Co Ltd Vehicular recommended control input generation system
WO2005013236A1 (en) * 2003-07-30 2005-02-10 Olympus Corporation Safe movement support device
JP2006163879A (en) * 2004-12-08 2006-06-22 Daihatsu Motor Co Ltd Image processing method and image processing apparatus
US7243026B2 (en) 2003-12-05 2007-07-10 Fuji Jukogyo Kabushiki Kaisha Vehicle traveling control device
JP2009043090A (en) * 2007-08-09 2009-02-26 Toyota Motor Corp Traveling control plan evaluation device
JP2009157499A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Driving support device and driving support system
JP2010247580A (en) * 2009-04-13 2010-11-04 Toyota Motor Corp Travel supporting device
CN104183150A (en) * 2014-08-15 2014-12-03 山东交通学院 Vehicle-mounted single road traffic state distinguishing device and method
TWI613115B (en) * 2017-03-30 2018-02-01 H P B Optoelectronic Co Ltd Vehicle warning system
WO2018123344A1 (en) * 2016-12-27 2018-07-05 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
CN108693878A (en) * 2017-04-06 2018-10-23 丰田自动车株式会社 Advance route setting device and advance route setting method
JP2018203034A (en) * 2017-06-02 2018-12-27 本田技研工業株式会社 Travel track determination device and automatic driving device
JP2019199205A (en) * 2018-05-17 2019-11-21 トヨタ自動車株式会社 Automatic driving system
WO2019220717A1 (en) * 2018-05-15 2019-11-21 日立オートモティブシステムズ株式会社 Vehicle control device
CN111462493A (en) * 2020-04-10 2020-07-28 北京工业大学 Overtaking situation perception early warning system based on internet of vehicles
KR20200102378A (en) * 2019-02-21 2020-08-31 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Information processing method and device and storage medium
CN111645677A (en) * 2020-05-20 2020-09-11 吉林大学 Vehicle braking and steering coordinated control emergency anti-collision system and control method

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5710565A (en) * 1995-04-06 1998-01-20 Nippondenso Co., Ltd. System for controlling distance to a vehicle traveling ahead based on an adjustable probability distribution
DE19635009B4 (en) * 1995-08-31 2010-05-27 Honda Giken Kogyo K.K. System for correcting the steering force of a vehicle
US5913375A (en) * 1995-08-31 1999-06-22 Honda Giken Kogyo Kabushiki Kaisha Vehicle steering force correction system
US6414712B1 (en) 1995-12-13 2002-07-02 Daimlerchrylsler, Ag Vehicle navigational system and signal processing method for said navigational system
DE19546506A1 (en) * 1995-12-13 1997-06-19 Daimler Benz Ag Vehicle navigation system and signal processing method for such a navigation system
EP0835796A3 (en) * 1996-10-09 2000-09-20 Honda Giken Kogyo Kabushiki Kaisha Automatic steering system for verhicle
US6170591B1 (en) 1996-12-17 2001-01-09 Honda Giken Kogyo Kabushiki Kaisha Automatic steering apparatus for vehicles
EP0849144A2 (en) * 1996-12-17 1998-06-24 Honda Giken Kogyo Kabushiki Kaisha Automatic steering apparatus for vehicles
EP0849144A3 (en) * 1996-12-17 2000-05-24 Honda Giken Kogyo Kabushiki Kaisha Automatic steering apparatus for vehicles
WO1998054629A1 (en) * 1997-05-30 1998-12-03 Raytheon Company Obstacle avoidance processing method for vehicles using an autom ated highway system
US5959570A (en) * 1997-11-21 1999-09-28 Raytheon Company Automotive forward looking sensor blockage detection system and related techniques
US5929802A (en) * 1997-11-21 1999-07-27 Raytheon Company Automotive forward looking sensor application
JP2004157731A (en) * 2002-11-06 2004-06-03 Nissan Motor Co Ltd Vehicular recommended control input generation system
JP2004157910A (en) * 2002-11-08 2004-06-03 Nissan Motor Co Ltd Vehicular recommended control input generation system
WO2005013236A1 (en) * 2003-07-30 2005-02-10 Olympus Corporation Safe movement support device
US7243026B2 (en) 2003-12-05 2007-07-10 Fuji Jukogyo Kabushiki Kaisha Vehicle traveling control device
JP2006163879A (en) * 2004-12-08 2006-06-22 Daihatsu Motor Co Ltd Image processing method and image processing apparatus
JP4530827B2 (en) * 2004-12-08 2010-08-25 ダイハツ工業株式会社 Image processing method and image processing apparatus
JP2009043090A (en) * 2007-08-09 2009-02-26 Toyota Motor Corp Traveling control plan evaluation device
JP2009157499A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Driving support device and driving support system
JP2010247580A (en) * 2009-04-13 2010-11-04 Toyota Motor Corp Travel supporting device
CN104183150A (en) * 2014-08-15 2014-12-03 山东交通学院 Vehicle-mounted single road traffic state distinguishing device and method
CN104183150B (en) * 2014-08-15 2016-03-16 山东交通学院 Vehicle-mounted monomer road traffic state discriminating gear and method
CN110114253A (en) * 2016-12-27 2019-08-09 本田技研工业株式会社 Controller of vehicle, control method for vehicle and program
WO2018123344A1 (en) * 2016-12-27 2018-07-05 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JPWO2018123344A1 (en) * 2016-12-27 2019-06-27 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
TWI613115B (en) * 2017-03-30 2018-02-01 H P B Optoelectronic Co Ltd Vehicle warning system
CN108693878A (en) * 2017-04-06 2018-10-23 丰田自动车株式会社 Advance route setting device and advance route setting method
US10775798B2 (en) 2017-06-02 2020-09-15 Honda Motor Co., Ltd. Running track determining device and automatic driving apparatus
JP2018203034A (en) * 2017-06-02 2018-12-27 本田技研工業株式会社 Travel track determination device and automatic driving device
WO2019220717A1 (en) * 2018-05-15 2019-11-21 日立オートモティブシステムズ株式会社 Vehicle control device
JPWO2019220717A1 (en) * 2018-05-15 2021-05-27 日立Astemo株式会社 Vehicle control device
JP2019199205A (en) * 2018-05-17 2019-11-21 トヨタ自動車株式会社 Automatic driving system
KR20200102378A (en) * 2019-02-21 2020-08-31 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Information processing method and device and storage medium
EP3699890A3 (en) * 2019-02-21 2020-11-25 Baidu Online Network Technology (Beijing) Co., Ltd. Information processing method and apparatus, and storage medium
CN111462493A (en) * 2020-04-10 2020-07-28 北京工业大学 Overtaking situation perception early warning system based on internet of vehicles
CN111462493B (en) * 2020-04-10 2021-05-28 北京工业大学 Overtaking situation perception early warning system based on internet of vehicles
CN111645677A (en) * 2020-05-20 2020-09-11 吉林大学 Vehicle braking and steering coordinated control emergency anti-collision system and control method

Also Published As

Publication number Publication date
JP2853077B2 (en) 1999-02-03

Similar Documents

Publication Publication Date Title
JP2853077B2 (en) Self-driving vehicle
US11932284B2 (en) Trajectory setting device and trajectory setting method
CN109131326B (en) Self-adaptive cruise controller with lane change auxiliary function and working method thereof
EP1400391B1 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
US20200238980A1 (en) Vehicle control device
JP5130638B2 (en) Avoidance operation calculation device, avoidance control device, vehicle including each device, avoidance operation calculation method, and avoidance control method
US7860653B2 (en) Obstacle avoidance control apparatus
US20200353918A1 (en) Vehicle control device
US5101351A (en) Autonomous vehicle using fuzzy control
CN109649393A (en) A kind of paths planning method and device of automatic Pilot changing Lane
JP7151179B2 (en) Lane change estimation device and lane change estimation method, vehicle control device and vehicle control method
US20200317192A1 (en) Vehicle control device
JP2004504216A (en) Automatic braking and steering system for vehicles
JPH02226310A (en) Autonomous running vehicle
US20200384999A1 (en) Vehicle control device
EP1407915B1 (en) Vehicle surroundings monitoring system and traveling control system incorporating the monitoring system
US20200391747A1 (en) Vehicle control device
CN112896188B (en) Automatic driving decision control system considering front vehicle encounter
US20200180614A1 (en) Vehicle control device
CN112965476A (en) High-speed unmanned vehicle trajectory planning system and method based on multi-window sampling
JP5023869B2 (en) VEHICLE DRIVE OPERATION SUPPORT DEVICE AND VEHICLE DRIVE OPERATION SUPPORT METHOD
CN114103893A (en) Unmanned vehicle trajectory prediction anti-collision method
EP4049916A1 (en) Vehicle control method, vehicle control system, and vehicle
WO2022130701A1 (en) Vehicle control device
JP2024506972A (en) Ways to avoid obstacles

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981006

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071120

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081120

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081120

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091120

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091120

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101120

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees