JP2018092334A - Travel control apparatus - Google Patents

Travel control apparatus Download PDF

Info

Publication number
JP2018092334A
JP2018092334A JP2016234482A JP2016234482A JP2018092334A JP 2018092334 A JP2018092334 A JP 2018092334A JP 2016234482 A JP2016234482 A JP 2016234482A JP 2016234482 A JP2016234482 A JP 2016234482A JP 2018092334 A JP2018092334 A JP 2018092334A
Authority
JP
Japan
Prior art keywords
vehicle
measurement point
region
measurement points
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016234482A
Other languages
Japanese (ja)
Inventor
新井 健太郎
Kentaro Arai
健太郎 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016234482A priority Critical patent/JP2018092334A/en
Publication of JP2018092334A publication Critical patent/JP2018092334A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a travel control apparatus capable of predicting a travelable area of a vehicle without being influenced by a change in luminance of an object (another moving object) and performing a preferable automatic operation according to a plan of an own vehicle traveling route.SOLUTION: A travel control apparatus includes a sensor for detecting an object existing in front of an own travelling vehicle, an obstacle identifying unit 212 for determining a plurality of measurement points each indicating at least the existence of the object on the basis of a detection output from the sensor to specify two measurement points arranged in a width direction of a road of the object, and an area setting unit 214 for setting a travelable area 232 on the basis of at least two measurement points.SELECTED DRAWING: Figure 3

Description

本発明は、運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置に関する。   The present invention relates to a travel control device that controls automatic driving capable of traveling without requiring a driver's driving operation or automatic driving that assists the driver's driving operation.

特許文献1では、自車と障害物が衝突する可能性があるか否かを精度よく判定することを課題としている。   In Patent Document 1, an object is to accurately determine whether or not there is a possibility of collision between the own vehicle and an obstacle.

当該課題を解決するため、特許文献1では、画像に写る障害物の位置を示すフレームと、当該障害物についてのオプティカルフローの消失点との距離に基づいて、自車両に対する障害物の相対移動方向に直交する方向についての、自車両と障害物との距離を算出する。そして、自車両と障害物との距離と、撮影装置と自車両の側面までの距離とを比較することにより、自車両と障害物とが衝突するか否かを判定する。   In order to solve the problem, in Patent Document 1, the relative movement direction of the obstacle with respect to the host vehicle based on the distance between the frame indicating the position of the obstacle in the image and the vanishing point of the optical flow for the obstacle. The distance between the host vehicle and the obstacle in the direction orthogonal to is calculated. Then, by comparing the distance between the host vehicle and the obstacle and the distance between the photographing device and the side surface of the host vehicle, it is determined whether or not the host vehicle and the obstacle collide.

特開2014−106901号公報JP 2014-106901 A

特許文献1では、オプティカルフローによって対象物(障害物)の速度推定を行うことから、画素が移動しても明るさ(画素値)が不変であること、画素の移動量が小さい(1画素以下)等が前提となる。   In Patent Document 1, since the speed of an object (obstacle) is estimated by optical flow, the brightness (pixel value) remains unchanged even when the pixel moves, and the amount of movement of the pixel is small (1 pixel or less). ) Etc. are assumed.

そのため、例えばトンネル進入/退出、ライトの明滅等によって、対象物に輝度変化があった場合、対象物の速度推定が機能しなくなるおそれがある。   For this reason, when there is a change in the brightness of the object due to, for example, entering / exiting a tunnel or blinking of a light, the speed estimation of the object may not function.

本発明は上述した問題を解決するためになされたものであり、対象物(他の移動体)の輝度変化に影響されることなく自車の走行可能領域を予測することができ、自車移動経路の計画に応じた好適な自動運転を可能とする走行制御装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and can predict the travelable area of the host vehicle without being affected by the luminance change of the object (other moving body). It is an object of the present invention to provide a travel control device that enables suitable automatic driving according to a route plan.

[1] 本発明に係る走行制御装置は、運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置であって、自車の走行前方に存在する物体を検出するセンサと、前記センサからの検出出力に基づいて、それぞれ少なくとも前記物体の存在を示す複数の測定点を求め、前記物体の道路幅方向に並ぶ少なくとも2つの測定点を特定する物体特定部と、少なくとも前記2つの測定点に基づいて、前記物体が存在しない領域を設定する領域設定部とを有することを特徴とする。 [1] A travel control device according to the present invention is a travel control device that controls automatic driving capable of traveling without requiring a driver's driving operation or automatic driving that assists the driver's driving operation. And at least two measurements arranged in the road width direction of the object based on the detection output from the sensor and a plurality of measurement points each indicating the presence of the object. An object specifying unit that specifies a point and an area setting unit that sets an area where the object does not exist based on at least the two measurement points.

これにより、自車の移動可能な領域が明確になり、自車の走行制御を余裕をもって行うことができる。また、少なくとも2つの測定点に基づいて物体が存在しない領域を設定するため、物体(他の移動体や静止物等)の輝度変化に影響されることなく、自車の移動可能な領域を設定することができる。しかも、ECU等による認識負荷が小さく、タイムラグの無い認識を行うことができる。   Thereby, the area | region which the own vehicle can move becomes clear, and traveling control of the own vehicle can be performed with a margin. In addition, since an area where no object exists is set based on at least two measurement points, an area where the vehicle can move is set without being affected by changes in luminance of the object (other moving objects, stationary objects, etc.). can do. In addition, recognition load by the ECU or the like is small, and recognition without time lag can be performed.

[2] 本発明において、前記領域設定部は、前記物体が存在しない領域として、少なくとも前記2つの測定点に基づいた第1辺を含む領域を設定してもよい。 [2] In the present invention, the region setting unit may set a region including at least a first side based on the two measurement points as a region where the object does not exist.

物体が存在しない領域は、物体の道路幅方向に並ぶ少なくとも2つの測定点に基づいた第1辺を含めばよいため、物体が存在しない領域を簡単に設定することができる。しかも、自車を、第1辺よりも前方に進行しないように制御すればよいため、電子制御装置(ECU)での目標走行軌跡の算出も短時間で実施することが可能となる。   Since the area where no object is present only needs to include the first side based on at least two measurement points arranged in the road width direction of the object, the area where no object exists can be easily set. In addition, since it is only necessary to control the vehicle so that it does not travel further forward than the first side, the calculation of the target travel locus by the electronic control unit (ECU) can be performed in a short time.

[3] この場合、前記領域設定部は、前記第1辺の端部から前記センサの法線方向に延びる第2辺を設定し、前記物体が存在しない領域として、前記第1辺と前記第2辺とを含む多角形の領域を設定してもよい。 [3] In this case, the region setting unit sets a second side extending in the normal direction of the sensor from the end of the first side, and the first side and the first side are defined as a region where the object does not exist. A polygonal region including two sides may be set.

第1辺と第2辺とを含む多角形の領域を設定するため、物体が存在しない領域として、第1辺の後方の領域だけでなく、障害物と並走する領域も設定することが可能となり、自車が走行することができる領域の選択の幅を広げることができる。   Since a polygonal area including the first side and the second side is set, it is possible to set not only the area behind the first side but also the area running parallel to the obstacle as the area where the object does not exist. Thus, the range of selection of the area where the vehicle can travel can be expanded.

[4] 本発明において、前回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ前回の特徴量として算出し、今回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ今回の特徴量として算出する特徴量算出部と、前記前回の特徴量と前記今回の特徴量とが同一とみなせる場合、前回の前記第1測定点及び前記第2測定点が、今回の前記第1測定点及び前記第2測定点に移動したものとみなす物体トラッキング処理部とを有してもよい。 [4] In the present invention, at least one of the angle or the distance between the first measurement point detected last time and the second measurement point adjacent to the first measurement point is calculated as the previous feature amount, and the first detected this time. A feature amount calculation unit for calculating at least one of an angle or a distance between a measurement point and a second measurement point adjacent to the first measurement point as a current feature amount, the previous feature amount, and the current feature amount, Can be regarded as the same, the previous first measurement point and the second measurement point may include an object tracking processing unit that is regarded as having moved to the current first measurement point and the second measurement point. Good.

物体を特徴的に示す測定点に角度や距離を示す特徴量を持たせることで、刻々変わる物体の移動方向や物体の速度、加速度、物体の位置等を容易に追跡することができる。その結果、例えば自動運転のための各種走行制御のうち、特に、先行車に対する追従制御、先行車に対する追い越し制御等を容易に実施することができる。   By providing a characteristic point indicating an angle or distance to a measurement point that characterizes an object, it is possible to easily track the moving direction of the object, the speed, acceleration, and the position of the object that change every moment. As a result, for example, among various types of traveling control for automatic driving, in particular, follow-up control for the preceding vehicle, overtaking control for the preceding vehicle, and the like can be easily performed.

[5] 本発明において、前回検知した少なくとも2つの測定点と、今回検知した少なくとも2つの測定点とから、将来の前記物体の位置を予測する物体位置予測部と、将来の前記物体の道路幅方向に並ぶ少なくとも2つの測定点に基づいて、将来の前記物体が存在しない領域を予測する領域予測部とを有してもよい。 [5] In the present invention, an object position prediction unit that predicts a future position of the object from at least two measurement points detected last time and at least two measurement points detected this time, and a road width of the future object. An area predicting unit that predicts an area in which the future object does not exist based on at least two measurement points arranged in the direction may be included.

これにより、将来の物体の位置だけでなく、物体が存在しない領域そのものの将来の位置を求めることが可能となり、先行車に対する追従制御、先行車に対する追い越し制御等の精度を高めることができる。   As a result, not only the position of the future object but also the future position of the area itself where the object does not exist can be obtained, and the accuracy of the follow-up control for the preceding vehicle, the overtaking control for the preceding vehicle, and the like can be improved.

本発明に係る走行制御装置によれば、対象物(他の移動体)の輝度変化に影響されることなく自車の走行可能領域を予測することができ、自車移動経路の計画に応じた好適な自動運転を可能とする。   According to the travel control device of the present invention, it is possible to predict the travelable area of the host vehicle without being affected by the luminance change of the object (other moving body), and according to the plan of the travel path of the host vehicle. A suitable automatic driving is made possible.

本実施の形態に係る走行制御装置としての走行電子制御装置を含む車両の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle containing the travel electronic control apparatus as a travel control apparatus which concerns on this Embodiment. 自動運転制御の全体的な流れを示すフローチャートである。It is a flowchart which shows the whole flow of automatic operation control. 周辺認識部の構成、主に自車の走行可能領域の算出並びに周辺監視制御に関する機能ブロック図である。It is a functional block diagram regarding the structure of a periphery recognition part, mainly calculation of the driving | running | working area | region of the own vehicle, and periphery monitoring control. 少なくとも周辺障害物の存在を示す複数の測定点が展開された座標系を模式的に示す平面図である。It is a top view which shows typically the coordinate system by which the several measurement point which shows the presence of a surrounding obstacle at least was expand | deployed. 図5Aは隣り合う測定点が具備する今回特徴量の一例を示す説明図であり、図5Bは今回の第1測定点と前回の第1測定点が対応していることを示す説明図であり、図5Cは今回の第2測定点と前回の第2測定点が対応していることを示す説明図であり、図5Dは今回の第3測定点と前回の第3測定点が対応していることを示す説明図である。FIG. 5A is an explanatory diagram showing an example of the current feature quantity of adjacent measurement points, and FIG. 5B is an explanatory diagram showing that the current first measurement point and the previous first measurement point correspond to each other. FIG. 5C is an explanatory diagram showing that the current second measurement point corresponds to the previous second measurement point, and FIG. 5D corresponds to the current third measurement point and the previous third measurement point. It is explanatory drawing which shows that it exists. 周辺認識部での処理動作並びに周辺監視制御を示すフローチャートである。It is a flowchart which shows the processing operation and periphery monitoring control in a periphery recognition part.

以下、本発明に係る走行制御装置の実施の形態例を図1〜図6を参照しながら説明する。   Hereinafter, an embodiment of a travel control device according to the present invention will be described with reference to FIGS.

図1は、本発明の一実施の形態に係る走行制御装置としての走行電子制御装置36(以下「走行ECU36」という。)を含む車両10の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a vehicle 10 including a travel electronic control device 36 (hereinafter referred to as “travel ECU 36”) as a travel control device according to an embodiment of the present invention.

車両10(以下「自車10」ともいう。)は、走行ECU36に加え、車両周辺センサ群20と、車体挙動センサ群22と、運転操作センサ群24と、通信装置26と、ヒューマン・マシン・インタフェース28(以下「HMI28」という。)と、駆動力制御システム30と、制動力制御システム32と、電動パワーステアリングシステム34(以下「EPSシステム34」という。)とを有する。   In addition to the travel ECU 36, the vehicle 10 (hereinafter also referred to as “own vehicle 10”) includes a vehicle peripheral sensor group 20, a vehicle body behavior sensor group 22, a driving operation sensor group 24, a communication device 26, a human machine machine. It has an interface 28 (hereinafter referred to as “HMI 28”), a driving force control system 30, a braking force control system 32, and an electric power steering system 34 (hereinafter referred to as “EPS system 34”).

車両周辺センサ群20は、車両10の周辺に関する情報(以下「車両周辺情報Ic」ともいう。)を検出する。車両周辺センサ群20には、複数の車外カメラ50と、複数のレーダ52と、LIDAR54(Light Detection And Ranging)と、グローバル・ポジショニング・システム・センサ56(以下「GPSセンサ56」という。)とが含まれる。   The vehicle periphery sensor group 20 detects information related to the periphery of the vehicle 10 (hereinafter also referred to as “vehicle periphery information Ic”). The vehicle periphery sensor group 20 includes a plurality of outside cameras 50, a plurality of radars 52, a LIDAR 54 (Light Detection And Ranging), and a global positioning system sensor 56 (hereinafter referred to as “GPS sensor 56”). included.

複数の車外カメラ50は、車両10の周辺(前方、側方及び後方)を撮像した画像情報Iimageを出力する。複数のレーダ52は、車両10の周辺(前方、側方及び後方)に送信した電磁波に対する反射波を示すレーダ情報Iraderを出力する。LIDAR54は、車両10の全方位にレーザーを連続的に発射し、その反射波に基づいて反射点の三次元位置を測定して三次元情報Ilidarとして出力する。GPSセンサ56は、車両10の現在位置Pcurを検出する。車外カメラ50、レーダ52、LIDAR54及びGPSセンサ56は、車両周辺情報Icを認識する周辺認識装置である。   The plurality of in-vehicle cameras 50 outputs image information Iimage obtained by imaging the periphery (front, side, and rear) of the vehicle 10. The plurality of radars 52 output radar information Irader indicating reflected waves with respect to electromagnetic waves transmitted to the periphery (front, side, and rear) of the vehicle 10. The LIDAR 54 continuously emits a laser in all directions of the vehicle 10, measures the three-dimensional position of the reflection point based on the reflected wave, and outputs it as three-dimensional information Ilidar. The GPS sensor 56 detects the current position Pcur of the vehicle 10. The outside camera 50, the radar 52, the LIDAR 54, and the GPS sensor 56 are peripheral recognition devices that recognize the vehicle peripheral information Ic.

車体挙動センサ群22は、車両10(特に車体)の挙動に関する情報(以下「車体挙動情報Ib」ともいう。)を検出する。車体挙動センサ群22には、車速センサ60と、横加速度センサ62と、ヨーレートセンサ64とが含まれる。   The vehicle body behavior sensor group 22 detects information related to the behavior of the vehicle 10 (particularly, the vehicle body) (hereinafter also referred to as “vehicle body behavior information Ib”). The vehicle body behavior sensor group 22 includes a vehicle speed sensor 60, a lateral acceleration sensor 62, and a yaw rate sensor 64.

車速センサ60は、車両10の車速V[km/h]を検出する。横加速度センサ62は、車両10の横加速度Glat[m/s/s]を検出する。ヨーレートセンサ64は、車両10のヨーレートYr[rad/s]を検出する。   The vehicle speed sensor 60 detects the vehicle speed V [km / h] of the vehicle 10. The lateral acceleration sensor 62 detects the lateral acceleration Glat [m / s / s] of the vehicle 10. The yaw rate sensor 64 detects the yaw rate Yr [rad / s] of the vehicle 10.

運転操作センサ群24は、運転者による運転操作に関する情報(以下「運転操作情報Io」ともいう。)を検出する。運転操作センサ群24には、アクセルペダルセンサ80と、ブレーキペダルセンサ82と、舵角センサ84と、操舵トルクセンサ86とが含まれる。   The driving operation sensor group 24 detects information related to driving operation by the driver (hereinafter also referred to as “driving operation information Io”). The driving operation sensor group 24 includes an accelerator pedal sensor 80, a brake pedal sensor 82, a steering angle sensor 84, and a steering torque sensor 86.

アクセルペダルセンサ80(以下「APセンサ80」ともいう。)は、アクセルペダル90の操作量θap(以下「AP操作量θap」ともいう。)[%]を検出する。ブレーキペダルセンサ82(以下「BPセンサ82」ともいう。)は、ブレーキペダル92の操作量θbp(以下「BP操作量θbp」ともいう。)[%]を検出する。舵角センサ84は、ステアリングハンドル94の舵角θst(以下「操作量θst」ともいう。)[deg]を検出する。操舵トルクセンサ86は、ステアリングハンドル94に加えられた操舵トルクTst[N・m]を検出する。   An accelerator pedal sensor 80 (hereinafter also referred to as “AP sensor 80”) detects an operation amount θap of the accelerator pedal 90 (hereinafter also referred to as “AP operation amount θap”) [%]. The brake pedal sensor 82 (hereinafter also referred to as “BP sensor 82”) detects an operation amount θbp of the brake pedal 92 (hereinafter also referred to as “BP operation amount θbp”) [%]. The steering angle sensor 84 detects the steering angle θst (hereinafter also referred to as “operation amount θst”) [deg] of the steering handle 94. The steering torque sensor 86 detects the steering torque Tst [N · m] applied to the steering handle 94.

通信装置26は、外部機器との無線通信を行う。ここでの外部機器には、例えば、図示しない交通情報サーバが含まれる。交通情報サーバは、渋滞情報、事故情報、工事情報等の交通情報を各車両10に対して提供する。或いは、外部機器には、図示しない経路案内サーバが含まれてもよい。経路案内サーバは、通信装置26から受信した車両10の現在位置Pcur及び目標地点Pgoalに基づいて、目標地点Pgoalまでの予定経路Rvを走行ECU36に代わって生成又は算出する。   The communication device 26 performs wireless communication with an external device. The external device here includes, for example, a traffic information server (not shown). The traffic information server provides traffic information such as traffic jam information, accident information, and construction information to each vehicle 10. Alternatively, the external device may include a route guidance server (not shown). The route guidance server generates or calculates a planned route Rv to the target point Pgoal instead of the travel ECU 36 based on the current position Pcur of the vehicle 10 received from the communication device 26 and the target point Pgoal.

なお、本実施の形態の通信装置26は、車両10に搭載(又は常時固定)されているものを想定しているが、例えば、携帯電話機又はスマートフォンのように車両10の外部へ持ち運び可能なものであってもよい。   In addition, although the communication apparatus 26 of this Embodiment assumes what is mounted (or always fixed) in the vehicle 10, for example, what can be carried out of the vehicle 10 like a mobile telephone or a smart phone. It may be.

HMI28は、乗員からの操作入力を受け付けると共に、乗員に対して各種情報の提示を、視覚的、聴覚的及び触覚的に行う。HMI28には、自動運転スイッチ110(以下「自動運転SW110」ともいう。)と、表示部112とが含まれる。自動運転SW110は、乗員の操作により自動運転制御の開始及び終了を指令するためのスイッチである。自動運転SW110に加えて又はこれに代えて、その他の方法(図示しないマイクロホンを介しての音声入力等)により自動運転制御の開始又は終了を指令することも可能である。表示部112は、例えば、液晶パネル又は有機ELパネルを含む。表示部112は、タッチパネルとして構成されてもよい。   The HMI 28 receives an operation input from the occupant and presents various information to the occupant visually, audibly, and tactilely. The HMI 28 includes an automatic operation switch 110 (hereinafter also referred to as “automatic operation SW 110”) and a display unit 112. The automatic operation SW 110 is a switch for instructing the start and end of automatic operation control by the operation of the occupant. In addition to or instead of the automatic operation SW 110, the start or end of the automatic operation control can be instructed by other methods (such as voice input via a microphone (not shown)). The display unit 112 includes, for example, a liquid crystal panel or an organic EL panel. The display unit 112 may be configured as a touch panel.

駆動力制御システム30は、エンジン120(駆動源)及び駆動電子制御装置122(以下「駆動ECU122」という。)を有する。上述のAPセンサ80及びアクセルペダル90を駆動力制御システム30の一部として位置付けてもよい。駆動ECU122は、AP操作量θap等を用いて車両10の駆動力制御を実行する。駆動力制御に際し、駆動ECU122は、エンジン120の制御を介して車両10の走行駆動力Fdを制御する。   The driving force control system 30 includes an engine 120 (drive source) and a drive electronic control device 122 (hereinafter referred to as “drive ECU 122”). The AP sensor 80 and the accelerator pedal 90 described above may be positioned as a part of the driving force control system 30. The drive ECU 122 executes drive force control of the vehicle 10 using the AP operation amount θap and the like. In driving force control, the drive ECU 122 controls the driving force Fd of the vehicle 10 through the control of the engine 120.

制動力制御システム32は、ブレーキ機構130及び制動電子制御装置132(以下「制動ECU132」という。)を有する。上述のBPセンサ82及びブレーキペダル92を制動力制御システム32の一部として位置付けてもよい。ブレーキ機構130は、ブレーキモータ(又は油圧機構)等によりブレーキ部材を作動させる。   The braking force control system 32 includes a brake mechanism 130 and a braking electronic control device 132 (hereinafter referred to as “braking ECU 132”). The BP sensor 82 and the brake pedal 92 described above may be positioned as a part of the braking force control system 32. The brake mechanism 130 operates a brake member by a brake motor (or a hydraulic mechanism) or the like.

制動ECU132は、BP操作量θbp等を用いて車両10の制動力制御を実行する。制動力制御に際し、制動ECU132は、ブレーキ機構130等の制御を介して車両10の制動力Fbを制御する。   The braking ECU 132 executes the braking force control of the vehicle 10 using the BP operation amount θbp and the like. In the braking force control, the braking ECU 132 controls the braking force Fb of the vehicle 10 through the control of the brake mechanism 130 and the like.

EPSシステム34は、EPSモータ140と、EPS電子制御装置142(以下「EPS−ECU142」という。)とを有する。上述の舵角センサ84、操舵トルクセンサ86及びステアリングハンドル94をEPSシステム34の一部として位置付けてもよい。   The EPS system 34 includes an EPS motor 140 and an EPS electronic control unit 142 (hereinafter referred to as “EPS-ECU 142”). The steering angle sensor 84, the steering torque sensor 86, and the steering handle 94 described above may be positioned as a part of the EPS system 34.

EPS−ECU142は、走行ECU36からの指令に応じてEPSモータ140を制御して、車両10の旋回量Rを制御する。旋回量Rには、舵角θst、横加速度Glat及びヨーレートYrが含まれる。   The EPS-ECU 142 controls the EPS motor 140 in accordance with a command from the travel ECU 36 to control the turning amount R of the vehicle 10. The turning amount R includes the steering angle θst, the lateral acceleration Glat, and the yaw rate Yr.

走行ECU36は、運転者による運転操作を要さずに目標地点Pgoalまで車両10を運転する自動運転制御を実行するものであり、例えば、中央処理装置(CPU)を含む。ECU36は、入出力部150、演算部152及び記憶部154を有する。   The traveling ECU 36 performs automatic driving control for driving the vehicle 10 to the target point Pgoal without requiring a driving operation by the driver, and includes, for example, a central processing unit (CPU). The ECU 36 includes an input / output unit 150, a calculation unit 152, and a storage unit 154.

なお、走行ECU36の機能の一部を車両10の外部に存在する外部機器に担わせることも可能である。例えば、車両10自体では、後述する行動計画部172及び/又は地図データベース190を有さず、上記経路案内サーバから予定経路Rv及び/又は地図情報Imapを取得する構成も可能である。   A part of the function of the traveling ECU 36 can be assigned to an external device existing outside the vehicle 10. For example, the vehicle 10 itself may have a configuration in which the planned route Rv and / or the map information Imap is acquired from the route guidance server without having the action plan unit 172 and / or the map database 190 described later.

入出力部150は、ECU36以外の機器(センサ群20、22、24、通信装置26等)との入出力を行う。入出力部150は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。   The input / output unit 150 performs input / output with devices other than the ECU 36 (sensor groups 20, 22, 24, communication device 26, etc.). The input / output unit 150 includes an A / D conversion circuit (not shown) that converts an input analog signal into a digital signal.

演算部152は、各センサ群20、22、24、通信装置26、HMI28及び各ECU122、132、142等からの信号に基づいて演算を行う。そして、演算部152は、演算結果に基づき、通信装置26、駆動ECU122、制動ECU132及びEPS−ECU142に対する信号を生成する。   The computing unit 152 performs computation based on signals from the sensor groups 20, 22, 24, the communication device 26, the HMI 28, the ECUs 122, 132, 142, and the like. And the calculating part 152 produces | generates the signal with respect to the communication apparatus 26, drive ECU122, brake ECU132, and EPS-ECU142 based on a calculation result.

図1に示すように、走行ECU36の演算部152は、周辺認識部170と、行動計画部172と、走行制御部174とを有する。これらの各部は、記憶部154に記憶されているプログラムを実行することにより実現される。前記プログラムは、通信装置26を介して外部機器から供給されてもよい。前記プログラムの一部をハードウェア(回路部品)で構成することもできる。   As illustrated in FIG. 1, the calculation unit 152 of the travel ECU 36 includes a periphery recognition unit 170, an action plan unit 172, and a travel control unit 174. Each of these units is realized by executing a program stored in the storage unit 154. The program may be supplied from an external device via the communication device 26. A part of the program can be configured by hardware (circuit parts).

周辺認識部170は、車両周辺センサ群20からの車両周辺情報Icに基づいて、図4に示すように、道路200の境界202a及び202b(レーンマークやガードレール、斜面等)及び周辺障害物204(他車204a、204b、静止物体等)を認識する。例えば、道路200の境界202a及び202bは、画像情報Iimageに基づいて認識する。周辺認識部170は、認識した道路200の境界202a及び202bに基づいて車両10の走行レーン206を認識する。   Based on the vehicle periphery information Ic from the vehicle periphery sensor group 20, the periphery recognition unit 170, as shown in FIG. 4, the boundaries 202a and 202b (lane marks, guardrails, slopes, etc.) of the road 200 and the peripheral obstacle 204 ( Other vehicles 204a, 204b, stationary objects, etc.) are recognized. For example, the boundaries 202a and 202b of the road 200 are recognized based on the image information Iimage. The periphery recognition unit 170 recognizes the travel lane 206 of the vehicle 10 based on the recognized boundaries 202 a and 202 b of the road 200.

また、周辺障害物204は、画像情報Iimage、レーダ情報Irader及び三次元情報Ilidarを用いて認識する。周辺障害物204には、他車(他車204a、204b等)等の移動物体と、建物、標識(例えば信号機)等の静止物体204cとが含まれる。周辺障害物204が信号機である場合、周辺認識部170は、信号機の色を判定する。   The peripheral obstacle 204 is recognized using the image information Iimage, the radar information Irader, and the three-dimensional information Ilidar. The peripheral obstacle 204 includes moving objects such as other vehicles (other vehicles 204a and 204b) and stationary objects 204c such as buildings and signs (for example, traffic lights). When the surrounding obstacle 204 is a traffic signal, the periphery recognition unit 170 determines the color of the traffic signal.

行動計画部172は、HMI28を介して入力された目標地点Pgoalまでの自車10の予定経路Rvを算出し、予定経路Rvに沿った経路案内を行う。   The action planning unit 172 calculates the planned route Rv of the host vehicle 10 to the target point Pgoal input via the HMI 28, and performs route guidance along the planned route Rv.

走行制御部174は、車体挙動を制御する各アクチュエータの出力を制御する。ここにいうアクチュエータには、エンジン120、ブレーキ機構130及びEPSモータ140が含まれる。走行制御部174は、アクチュエータの出力を制御することで、車両10(特に車体)の挙動量(以下「車体挙動量Qb」という。)を制御することとなる。   The travel control unit 174 controls the output of each actuator that controls the vehicle behavior. The actuator here includes the engine 120, the brake mechanism 130, and the EPS motor 140. The travel control unit 174 controls the behavior amount of the vehicle 10 (particularly the vehicle body) (hereinafter referred to as “vehicle body behavior amount Qb”) by controlling the output of the actuator.

ここにいう車体挙動量Qbには、車速V、前後加速度α[m/s/s]、前後減速度β[m/s/s]、舵角θst、横加速度Glat及びヨーレートYrが含まれる。加速度α及び減速度βは、車速Vの時間微分値として算出可能である。   The vehicle body behavior amount Qb mentioned here includes the vehicle speed V, the longitudinal acceleration α [m / s / s], the longitudinal deceleration β [m / s / s], the steering angle θst, the lateral acceleration Glat, and the yaw rate Yr. The acceleration α and the deceleration β can be calculated as time differential values of the vehicle speed V.

走行制御部174は、駆動力制御部180と、制動力制御部182と、旋回制御部184とを有する。駆動力制御部180は、主としてエンジン120の出力を制御することにより、車両10の走行駆動力Fd(又は加速度α)を制御する。制動力制御部182は、主としてブレーキ機構130の出力を制御することにより、車両10の制動力Fb(又は減速度β)を制御する。旋回制御部184は、主として、EPSモータ140の出力を制御することにより、車両10の旋回量R(又は舵角θst、横加速度Glat及びヨーレートYr)を制御する。   The travel control unit 174 includes a driving force control unit 180, a braking force control unit 182, and a turning control unit 184. The driving force control unit 180 controls the traveling driving force Fd (or acceleration α) of the vehicle 10 mainly by controlling the output of the engine 120. The braking force control unit 182 controls the braking force Fb (or the deceleration β) of the vehicle 10 mainly by controlling the output of the brake mechanism 130. The turning control unit 184 mainly controls the turning amount R (or the steering angle θst, the lateral acceleration Glat, and the yaw rate Yr) of the vehicle 10 by controlling the output of the EPS motor 140.

記憶部154は、演算部152が利用するプログラム及びデータ(地図データベース190を含む。)を記憶する。地図データベース190(以下「地図DB190」という。)には、道路地図の情報(地図情報Imap)が記憶される。地図情報Imapには、道路の形状等に関する道路情報Iroadが含まれる。   The storage unit 154 stores programs and data (including the map database 190) used by the calculation unit 152. The map database 190 (hereinafter referred to as “map DB 190”) stores road map information (map information Imap). The map information Imap includes road information Iload related to the shape of the road.

記憶部154は、例えば、ランダム・アクセス・メモリ(以下「RAM」という。)を備える。RAMとしては、レジスタ等の揮発性メモリと、フラッシュメモリ等の不揮発性メモリとを用いることができる。また、記憶部154は、RAMに加え、リード・オンリー・メモリ(以下「ROM」という。)を有してもよい。   The storage unit 154 includes, for example, a random access memory (hereinafter referred to as “RAM”). As the RAM, a volatile memory such as a register and a non-volatile memory such as a flash memory can be used. The storage unit 154 may include a read only memory (hereinafter referred to as “ROM”) in addition to the RAM.

上記のように、本実施の形態の走行ECU36は、自動運転制御を実行する。自動運転制御では、運転者による運転操作を要さずに目標地点Pgoalまで車両10を運転する。但し、自動運転制御では、運転者がアクセルペダル90、ブレーキペダル92又はステアリングハンドル94を操作した場合、当該操作を運転に反映してもよい。本実施の形態の自動運転制御では、自動駆動力制御と、自動制動力制御と、自動旋回制御を組み合わせて用いる。   As described above, the travel ECU 36 of the present embodiment performs automatic operation control. In the automatic driving control, the vehicle 10 is driven to the target point Pgoal without requiring a driving operation by the driver. However, in the automatic driving control, when the driver operates the accelerator pedal 90, the brake pedal 92, or the steering handle 94, the operation may be reflected in the driving. In the automatic driving control of the present embodiment, automatic driving force control, automatic braking force control, and automatic turning control are used in combination.

自動駆動力制御は、車両10の走行駆動力Fdを自動的に制御する。自動制動力制御は、車両10の制動力Fbを自動的に制御する。自動旋回制御は、車両10の旋回量Rを自動的に制御する。ここにいう車両10の旋回は、カーブ路を走行する場合のみならず、車両10の右左折、走行レーンの変更、別レーンへの合流及び走行レーンの維持を含む。なお、走行レーンを維持するための旋回とは、車幅方向において車両10を基準位置(例えば車幅方向の中央)に維持するために旋回(又は操舵)することを意味する。   The automatic driving force control automatically controls the traveling driving force Fd of the vehicle 10. The automatic braking force control automatically controls the braking force Fb of the vehicle 10. The automatic turning control automatically controls the turning amount R of the vehicle 10. The turning of the vehicle 10 here includes not only the case of traveling on a curved road, but also includes turning the vehicle 10 left and right, changing the driving lane, joining to another lane, and maintaining the driving lane. Note that turning for maintaining the traveling lane means turning (or steering) to maintain the vehicle 10 at the reference position (for example, the center in the vehicle width direction) in the vehicle width direction.

自動駆動力制御は、走行駆動力Fdを制御して車両10を走行させる。この際、ECU36は、走行駆動力Fdの目標値(例えば、目標エンジントルク)を設定し、この目標値に応じてアクチュエータ(エンジン120)を制御する。また、ECU36は、車両10の前後加速度αの上限値αmax(以下「加速度上限値αmax」ともいう。)を設定し、前後加速度αが加速度上限値αmaxを超えないように走行駆動力Fdを制御する。   In the automatic driving force control, the vehicle 10 travels by controlling the traveling driving force Fd. At this time, the ECU 36 sets a target value (for example, target engine torque) of the travel driving force Fd, and controls the actuator (engine 120) according to the target value. Further, the ECU 36 sets an upper limit value αmax (hereinafter also referred to as “acceleration upper limit value αmax”) of the longitudinal acceleration α of the vehicle 10 and controls the driving force Fd so that the longitudinal acceleration α does not exceed the acceleration upper limit value αmax. To do.

自動制動力制御は、車両10の制動力Fbを制御して車両10を減速させる。この際、ECU36は、制動力Fbの目標値(例えば、目標前後減速度βtar)を設定し、この目標値に応じてアクチュエータ(ブレーキ機構130)を制御する。また、ECU36は、車両10の減速度βの上限値βmax(以下「減速度上限値βmax」ともいう。)を設定し、減速度βが減速度上限値βmaxを超えないように(急激に減速し過ぎないように)制動力Fbを制御する。   In the automatic braking force control, the vehicle 10 is decelerated by controlling the braking force Fb of the vehicle 10. At this time, the ECU 36 sets a target value (for example, target longitudinal deceleration βtar) of the braking force Fb, and controls the actuator (brake mechanism 130) according to the target value. Further, the ECU 36 sets an upper limit value βmax of the deceleration β of the vehicle 10 (hereinafter also referred to as “deceleration upper limit value βmax”) so that the deceleration β does not exceed the deceleration upper limit value βmax (sudden deceleration). The braking force Fb is controlled so as not to overdo it.

自動旋回制御は、車両10の旋回量Rを制御して車両10を旋回させる。この際、ECU36は、旋回量Rの目標値(例えば、目標舵角θsttar又は目標横加速度Glattar)を設定し、この目標値に応じてアクチュエータ(EPSモータ140)を制御する。また、ECU36は、車両10の旋回量Rの上限値Rmax(以下「旋回量上限値Rmax」ともいう。)を設定し、旋回量Rが旋回量上限値Rmaxを超えないように旋回量Rを制御する。旋回量上限値Rmaxは、例えば、舵角θstの上限値θstmax(以下「舵角上限値θstmax」ともいう。)又は横加速度Glatの上限値Glatmax(以下「横加速度上限値Glatmax」という。)の形で用いられる。   In the automatic turning control, the turning amount R of the vehicle 10 is controlled to turn the vehicle 10. At this time, the ECU 36 sets a target value (for example, target steering angle θstar or target lateral acceleration Glatar) of the turning amount R, and controls the actuator (EPS motor 140) according to the target value. Further, the ECU 36 sets an upper limit value Rmax of the turning amount R of the vehicle 10 (hereinafter also referred to as “turning amount upper limit value Rmax”), and sets the turning amount R so that the turning amount R does not exceed the turning amount upper limit value Rmax. Control. The turning amount upper limit value Rmax is, for example, an upper limit value θstmax of the steering angle θst (hereinafter also referred to as “steering angle upper limit value θstmax”) or an upper limit value Glatmax of the lateral acceleration Glat (hereinafter referred to as “lateral acceleration upper limit value Glatmax”). Used in the form.

図2は、本実施の形態の自動運転制御の全体的な流れを示すフローチャートである。ステップS11において、走行ECU36は、自動運転を開始するか否かを判定する。例えば、ECU36は、自動運転スイッチ110(図1)がオフからオンに切り替えられたか否かを判定する。自動運転を開始する場合(S11:YES)、ステップS12に進む。自動運転を開始しない場合(S11:NO)、今回の処理を終え、所定時間の経過後にステップS11に戻る。   FIG. 2 is a flowchart showing an overall flow of the automatic operation control of the present embodiment. In step S11, the traveling ECU 36 determines whether or not to start automatic driving. For example, the ECU 36 determines whether or not the automatic operation switch 110 (FIG. 1) has been switched from OFF to ON. When the automatic operation is started (S11: YES), the process proceeds to step S12. When the automatic operation is not started (S11: NO), the current process is finished, and the process returns to step S11 after a predetermined time has elapsed.

ステップS12において、ECU36は、目標地点Pgoalを設定する。具体的には、HMI28を介してユーザ(運転者等)から目標地点Pgoalの入力を受け付ける。ステップS13において、ECU36は、現在位置Pcurから目標地点Pgoalまでの予定経路Rvを算出する。なお、後述するステップS21の後にステップS13を行う場合、ECU36は、予定経路Rvを更新する。   In step S12, the ECU 36 sets a target point Pgoal. Specifically, the input of the target point Pgoal is received from the user (driver or the like) via the HMI 28. In step S13, the ECU 36 calculates a planned route Rv from the current position Pcur to the target point Pgoal. In addition, when performing step S13 after step S21 mentioned later, ECU36 updates the scheduled path | route Rv.

ステップS14において、ECU36は、各センサ群20、22、24から車両周辺情報Ic、車体挙動情報Ib及び運転操作情報Ioを取得する。上記のように、車両周辺情報Icには車外カメラ50からの画像情報Iimage、レーダ52からのレーダ情報Irader、LIDAR54からの三次元情報Ilidar、及びGPSセンサ56からの現在位置Pcurが含まれる。車体挙動情報Ibには、車速センサ60からの車速V、横加速度センサ62からの横加速度Glat及びヨーレートセンサ64からのヨーレートYrが含まれる。運転操作情報Ioには、APセンサ80からのAP操作量θap、BPセンサ82からのBP操作量θbp、舵角センサ84からの舵角θst及び操舵トルクセンサ86からの操舵トルクTstが含まれる。   In step S <b> 14, the ECU 36 acquires vehicle surrounding information Ic, vehicle body behavior information Ib, and driving operation information Io from each of the sensor groups 20, 22, 24. As described above, the vehicle periphery information Ic includes the image information Iimage from the outside camera 50, the radar information Irader from the radar 52, the three-dimensional information Ilidar from the LIDAR 54, and the current position Pcur from the GPS sensor 56. The vehicle body behavior information Ib includes the vehicle speed V from the vehicle speed sensor 60, the lateral acceleration Glat from the lateral acceleration sensor 62, and the yaw rate Yr from the yaw rate sensor 64. The driving operation information Io includes an AP operation amount θap from the AP sensor 80, a BP operation amount θbp from the BP sensor 82, a steering angle θst from the steering angle sensor 84, and a steering torque Tst from the steering torque sensor 86.

ステップS15において、ECU36は、各アクチュエータの出力上限値Pmaxを算出する。ここにいうアクチュエータには、エンジン120、ブレーキ機構130及びEPSモータ140が含まれる。   In step S15, the ECU 36 calculates the output upper limit value Pmax of each actuator. The actuator here includes the engine 120, the brake mechanism 130, and the EPS motor 140.

また、エンジン120の出力Pengの上限値Pmax(以下「出力上限値Pengmax」ともいう。)とは、例えば、エンジン120のトルクの上限値とする。ブレーキ機構130の出力Pbの上限値Pmax(以下「出力上限値Pbmax」ともいう。)とは、例えば、制動力Fbの上限値である。EPSモータ140の出力Pepsの上限値Pmax(以下「出力上限値Pepsmax」ともいう。)とは、例えば、EPSモータ140のトルクの上限値とする。これらの出力上限値Pmax(Pengmax、Pbmax、Pepsmax)を用いることで、過度の出力を避けて乗員の乗り心地を高めること等が可能となる。   Further, the upper limit value Pmax of the output Peng of the engine 120 (hereinafter also referred to as “output upper limit value Pengmax”) is, for example, the upper limit value of the torque of the engine 120. The upper limit value Pmax of the output Pb of the brake mechanism 130 (hereinafter also referred to as “output upper limit value Pbmax”) is, for example, the upper limit value of the braking force Fb. The upper limit value Pmax of the output Peps of the EPS motor 140 (hereinafter also referred to as “output upper limit value Pepsmax”) is, for example, the upper limit value of the torque of the EPS motor 140. By using these output upper limit values Pmax (Pengmax, Pbmax, Pepsmax), it becomes possible to avoid excessive output and enhance the riding comfort of the occupant.

出力上限値Pmaxは、車体挙動量Qbの上限値Qbmaxに基づいて算出される。本実施の形態のステップS15では、車速Vに応じて出力上限値Pmaxを切り替える制限制御を実行する。   The output upper limit value Pmax is calculated based on the upper limit value Qbmax of the vehicle body behavior amount Qb. In step S15 of the present embodiment, limit control for switching the output upper limit value Pmax according to the vehicle speed V is executed.

ステップS16において、ECU36は、後述する走行可能領域(図4の走行可能領域232等)を算出する。走行可能領域232は、現時点で車両10が走行可能な領域を示す。例えば、車両10の基準点(例えば車両10の重心、左右後輪を結ぶ線分の中央)を基準として、車両10と各周辺物体との距離が所定値以上となる領域を示す。   In step S16, the ECU 36 calculates a travelable area (such as the travelable area 232 in FIG. 4) described later. The travelable area 232 indicates an area where the vehicle 10 can travel at the present time. For example, a region where the distance between the vehicle 10 and each of the surrounding objects is a predetermined value or more with reference to the reference point of the vehicle 10 (for example, the center of gravity of the vehicle 10 and the center of a line segment connecting the left and right rear wheels) is shown.

走行可能領域232の算出に当たっては、車両10の周辺障害物(特に、前方障害物)(図4の他車204a、204b等)との関係も考慮される。周辺障害物との関係では、ECU36は、周辺監視制御を行う。周辺監視制御については、図3を参照して後述する。   In calculating the travelable region 232, the relationship with the obstacles around the vehicle 10 (particularly, obstacles ahead) (the other cars 204a, 204b, etc. in FIG. 4) is also considered. In relation to surrounding obstacles, the ECU 36 performs surrounding monitoring control. The peripheral monitoring control will be described later with reference to FIG.

なお、周辺認識部170が赤信号を認識した場合、信号機手前の停止線より先の領域は、走行可能領域232から除外することができる。或いは、走行可能領域232は、単に周辺障害物との関係(距離等)によって算出し、後述する目標走行軌跡Ltarの算出に際して、赤信号による走行制限を反映させてもよい。   When the periphery recognition unit 170 recognizes a red signal, the area ahead of the stop line before the traffic light can be excluded from the travelable area 232. Alternatively, the travelable area 232 may be simply calculated based on the relationship (distance, etc.) with the surrounding obstacles, and the travel restriction due to the red signal may be reflected when calculating the target travel locus Ltar described later.

ステップS17において、ECU36は、目標走行軌跡Ltarを算出する。目標走行軌跡Ltarは、車両10の走行軌跡Lの目標値である。本実施の形態において、目標走行軌跡Ltarは、ステップS16で算出された走行可能領域232の中から種々の条件を満たす走行軌跡Lのうち最適のものが選択される。   In step S17, the ECU 36 calculates a target travel locus Ltar. The target travel locus Ltar is a target value of the travel locus L of the vehicle 10. In the present embodiment, the optimal target travel locus Ltar is selected from the travel tracks L that satisfy various conditions from the travelable region 232 calculated in step S16.

ステップS18において、ECU36は、目標走行軌跡Ltarに基づいて各アクチュエータの目標制御量(換言すると目標車体挙動量Qbtar)を算出する。目標車体挙動量Qbtarには、例えば、目標前後加速度αtar、目標前後減速度βtar及び目標横加速度Glattarが含まれる。   In step S18, the ECU 36 calculates a target control amount (in other words, a target vehicle body behavior amount Qbtar) of each actuator based on the target travel locus Ltar. The target vehicle body behavior amount Qbtar includes, for example, a target longitudinal acceleration αtar, a target longitudinal deceleration βtar, and a target lateral acceleration Glatar.

ステップS19において、走行ECU36は、ステップS18で算出した目標制御量を用いて各アクチュエータ(換言すると車体挙動量Qb)を制御する。例えば、駆動力制御部180は、目標前後加速度αtarを実現するようにエンジン120(アクチュエータ)の目標出力Pengtar(例えば目標エンジントルク)を算出する。そして、駆動力制御部180は、当該目標出力Pengtarを実現するように駆動ECU122を介してエンジン120を制御する。   In step S19, the travel ECU 36 controls each actuator (in other words, the vehicle body behavior amount Qb) using the target control amount calculated in step S18. For example, the driving force control unit 180 calculates a target output Pengtar (for example, target engine torque) of the engine 120 (actuator) so as to realize the target longitudinal acceleration αtar. Then, the driving force control unit 180 controls the engine 120 via the driving ECU 122 so as to realize the target output Pengtar.

また、制動力制御部182は、目標前後減速度βtarを実現するようにブレーキ機構130(アクチュエータ)の目標出力Pbtarを算出する。そして、制動力制御部182は、当該目標出力Pbtarを実現するように制動ECU132を介してブレーキ機構130を制御する。   Further, the braking force control unit 182 calculates the target output Pbtar of the brake mechanism 130 (actuator) so as to realize the target longitudinal deceleration βtar. Then, the braking force control unit 182 controls the brake mechanism 130 via the braking ECU 132 so as to realize the target output Pbtar.

さらに、旋回制御部184は、目標横加速度Glattarを実現するように目標舵角θsttarを設定する。そして、旋回制御部184は、当該目標舵角θsttarを実現するようにEPS−ECU142を介してEPSモータ140(アクチュエータ)を制御する。なお、EPSモータ140による旋回に加え又はこれに代えて、左右の車輪のトルク差により車両10を旋回させること(いわゆるトルクベクタリング)も可能である。   Further, the turning control unit 184 sets the target rudder angle θstart so as to realize the target lateral acceleration Glattar. Then, the turning control unit 184 controls the EPS motor 140 (actuator) via the EPS-ECU 142 so as to realize the target steering angle θstar. In addition to or instead of turning by the EPS motor 140, it is also possible to turn the vehicle 10 by a torque difference between the left and right wheels (so-called torque vectoring).

ステップS20において、ECU36は、目標地点Pgoal又は予定経路Rvを変更するか否かを判定する。目標地点Pgoalを変更する場合とは、HMI28の操作を通じて新たな目標地点Pgoalが入力された場合である。予定経路Rvを変更する場合とは、例えば、予定経路Rvにおいて渋滞が発生し、迂回路の設定を要する場合である。渋滞の発生は、例えば、通信装置26を介して前記交通情報サーバから取得した渋滞情報を用いて認識することが可能となる。   In step S20, the ECU 36 determines whether or not to change the target point Pgoal or the planned route Rv. The case where the target point Pgoal is changed is a case where a new target point Pgoal is input through the operation of the HMI 28. The case where the planned route Rv is changed is, for example, a case where traffic congestion occurs in the planned route Rv and it is necessary to set a detour. The occurrence of traffic jams can be recognized using traffic jam information acquired from the traffic information server via the communication device 26, for example.

目標地点Pgoal又は予定経路Rvを変更する場合(S20:YES)、ステップS13に戻り、新たな目標地点Pgoalに基づく予定経路Rvを算出する又は新たな予定経路Rvを算出する。目標地点Pgoal又は予定経路Rvを変更しない場合(S20:NO)、ステップS21に進む。   When the target point Pgoal or the planned route Rv is changed (S20: YES), the process returns to step S13, and the planned route Rv based on the new target point Pgoal is calculated or a new planned route Rv is calculated. When the target point Pgoal or the planned route Rv is not changed (S20: NO), the process proceeds to step S21.

ステップS21において、走行ECU36は、自動運転を終了するか否かを判定する。自動運転を終了するのは、例えば、車両10が目標地点Pgoalに到着した場合、又は自動運転スイッチ110がオンからオフに切り替えられた場合である。或いは、自動運転が困難な周辺環境になった場合、ECU36は、自動運転を終了する。   In step S21, the traveling ECU 36 determines whether or not to end the automatic driving. The automatic driving is terminated, for example, when the vehicle 10 arrives at the target point Pgoal or when the automatic driving switch 110 is switched from on to off. Or when it becomes a surrounding environment where automatic driving | operation becomes difficult, ECU36 complete | finishes automatic driving | operation.

自動運転を終了しない場合(S21:NO)、ステップS13に戻り、ECU36は、現在位置Pcurに基づいて予定経路Rvを更新する。自動運転を終了する場合(S21:YES)、ステップS22に進む。   When the automatic operation is not terminated (S21: NO), the process returns to step S13, and the ECU 36 updates the planned route Rv based on the current position Pcur. When the automatic operation is terminated (S21: YES), the process proceeds to step S22.

ステップS22において、ECU36は、終了処理を実行する。具体的には、車両10が目標地点Pgoalに到着した場合、ECU36は、車両10が目標地点Pgoalに到着した旨を、HMI28を介して音声、表示等により運転者等に通知する。自動運転スイッチ110がオンからオフに切り替えられた場合、ECU36は、自動運転を終了する旨を、HMI28を介して音声、表示等により運転者等に通知する。自動運転が困難な周辺環境になった場合、ECU36は、その旨を、HMI28を介して音声、表示等により運転者等に通知する。   In step S22, the ECU 36 executes an end process. Specifically, when the vehicle 10 arrives at the target point Pgoal, the ECU 36 notifies the driver or the like by voice, display, or the like via the HMI 28 that the vehicle 10 has arrived at the target point Pgoal. When the automatic operation switch 110 is switched from on to off, the ECU 36 notifies the driver or the like via voice, display, or the like via the HMI 28 that automatic operation is to be terminated. When the surrounding environment becomes difficult for automatic driving, the ECU 36 notifies the driver or the like via the HMI 28 by voice, display, or the like.

上記のように、走行可能領域232の算出(図2のS16)に際し、ECU36は、周辺監視制御を実行する。以下、周辺監視制御について、図3〜図6を参照しながら説明する。   As described above, when calculating the travelable region 232 (S16 in FIG. 2), the ECU 36 performs the periphery monitoring control. Hereinafter, the periphery monitoring control will be described with reference to FIGS.

周辺監視制御は、周辺認識部170からの情報に基づいて、車両10の周辺(特に前方)に存在する周辺障害物(図4の他車204a等)との接触回避等を行う制御である。   The peripheral monitoring control is control for avoiding contact with a peripheral obstacle (such as the other vehicle 204a in FIG. 4) existing around the vehicle 10 (particularly in front) based on information from the peripheral recognition unit 170.

周辺認識部170は、図3に示すように、測定点設定部210と、障害物特定部212と、領域設定部214、特徴量算出部216と、障害物トラッキング処理部218と、障害物位置予測部220と、領域予測部222とを有する。   As shown in FIG. 3, the periphery recognition unit 170 includes a measurement point setting unit 210, an obstacle specifying unit 212, a region setting unit 214, a feature amount calculation unit 216, an obstacle tracking processing unit 218, and an obstacle position. A prediction unit 220 and a region prediction unit 222 are included.

測定点設定部210は、単位時間毎に、車両周辺センサ群20からの検出出力に基づいて、走行ECU36上の仮想平面上に、複数の測定点を設定する。単位時間としては、車外カメラ50が1フレーム分の画像を撮像する時間や、LIDAR54のフレームレート等が挙げられる。   The measurement point setting unit 210 sets a plurality of measurement points on a virtual plane on the travel ECU 36 based on the detection output from the vehicle periphery sensor group 20 for each unit time. Examples of the unit time include the time for the outside camera 50 to capture an image for one frame, the frame rate of the LIDAR 54, and the like.

例えば図4に示すように、自車10の進行方向に沿って並ぶ一方の複数の測定点230A〜230Aは道路200の一方の境界202aを示す測定点であり、他方の複数の測定点230B〜230Bは道路200の他方の境界202bを示す測定点である。 For example, as shown in FIG. 4, a plurality of measurement points 230A 1 ~230A n on one arranged along the traveling direction of the vehicle 10 is the measured point indicating the one boundary 202a of the road 200, the other of the plurality of measurement points 230B 1 to 230B n are measurement points indicating the other boundary 202b of the road 200.

走行レーン206内に存在し、道路幅方向に並ぶ測定点は、自車10の前方に存在する周辺障害物204を示す測定点である。例えば他車204a及び204bについてそれぞれ測定点230C〜230C及び230D〜230Dが設定される。 The measurement points that exist in the travel lane 206 and are aligned in the road width direction are measurement points that indicate the peripheral obstacle 204 that exists in front of the host vehicle 10. For example, measurement points 230C 1 to 230C n and 230D 1 to 230D n are set for the other vehicles 204a and 204b, respectively.

測定点に関するデータ、すなわち、走行ECU36の仮想平面上の測定点の座標等は、座標テーブルとしてメモリに登録される。つまり、座標テーブルは、車両周辺センサ群20からの検出出力に基づいて、それぞれ少なくとも周辺障害物の存在を示す複数の測定点が展開された座標系を構成する。各測定点に関するデータは、少なくとも測定点の位置(自車10からの距離)を示す情報等も登録されている。これについては後述する。   Data on the measurement points, that is, the coordinates of the measurement points on the virtual plane of the travel ECU 36 are registered in the memory as a coordinate table. That is, the coordinate table constitutes a coordinate system in which a plurality of measurement points each indicating the presence of a surrounding obstacle are developed based on the detection output from the vehicle surrounding sensor group 20. In the data relating to each measurement point, at least information indicating the position of the measurement point (distance from the vehicle 10) is registered. This will be described later.

障害物特定部212は、道路幅方向に並ぶ複数の測定点のみに注目し、各周辺障害物204についてそれぞれ少なくとも2つの測定点を特定する。測定点230C〜230C及び230D〜230Dのうち、それぞれ道路幅方向両端を示す端点(230C、230C)及び(230D、230D)が周辺障害物A1及びA2を示す測定点として特定される。 The obstacle identifying unit 212 focuses on only a plurality of measurement points arranged in the road width direction, and identifies at least two measurement points for each of the surrounding obstacles 204. Among the measurement points 230C 1 to 230C n and 230D 1 to 230D n , end points (230C 1 , 230C n ) and (230D 1 , 230D n ) indicating both ends in the road width direction respectively indicate measurement points indicating the surrounding obstacles A1 and A2 Identified as

領域設定部214は、特定された周辺障害物204の測定点に基づいて、走行ECU36上の仮想平面上において、周辺障害物204が存在しない領域(以下、走行可能領域232と記す)を設定する。この場合、走行可能領域232として、端点(230C、230C)を結ぶ線及び端点(230D、230D)を結ぶ線をそれぞれ第1辺234a及び234bとする領域を設定する。 The region setting unit 214 sets a region where the peripheral obstacle 204 does not exist (hereinafter referred to as a travelable region 232) on the virtual plane on the travel ECU 36 based on the specified measurement points of the peripheral obstacle 204. . In this case, as the travelable region 232, regions where the lines connecting the end points (230C 1 , 230C n ) and the lines connecting the end points (230D 1 , 230D n ) are respectively set as the first sides 234a and 234b are set.

さらに、領域設定部214は、各第1辺234a及び234bの端部からセンサ(レーダ52、LIDAR54等)の法線方向に延びる第2辺236a及び236bを設定する。そして、周辺障害物204が存在しない領域、すなわち、走行可能領域232として、複数の第1辺234a及び234bと複数の第2辺236a及び236bとを含む多角形の領域を設定する。   Further, the region setting unit 214 sets second sides 236a and 236b extending in the normal direction of the sensor (radar 52, LIDAR 54, etc.) from the ends of the first sides 234a and 234b. Then, a polygonal region including a plurality of first sides 234 a and 234 b and a plurality of second sides 236 a and 236 b is set as a region where the peripheral obstacle 204 does not exist, that is, the travelable region 232.

一方、特徴量算出部216は、今回検知した道路幅方向に並ぶ複数の測定点において、互いに隣り合う測定点の向き(角度)又は距離の少なくとも一方を今回特徴量として算出する。   On the other hand, the feature amount calculation unit 216 calculates at least one of the direction (angle) or the distance between the measurement points adjacent to each other among the plurality of measurement points arranged in the road width direction detected this time as the current feature amount.

例えば図5Aに示すように、隣り合う測定点230Cと測定点230C並びに測定点230Cと測定点230Cを考えた場合、今回特徴量は、3つの測定点に対応して3つの今回特徴量F〜Fが挙げられる。 For example, as shown in FIG. 5A, when considering the measurement point 230C 1 adjacent to the measurement point 230C 2 and the measurement point 230C 2 measurement points 230C 3, this characteristic quantity is three time corresponding to three measurement points Feature amounts F 1 to F 3 can be mentioned.

今回特徴量Fは、測定点230Cの位置(自車10からの距離)、測定点230Cから測定点230Cに延びる第1線分238aの向きd12、第1線分238aの長さL1、測定点230Cから測定点230Cと異なる測定点に線分が延びていないことを示す閉塞フラグ等が挙げられる。 The feature amount F 1 this time is the position of the measurement point 230C 1 (distance from the vehicle 10), the direction d12 of the first line segment 238a extending from the measurement point 230C 1 to the measurement point 230C 2, and the length of the first line segment 238a. L1, occlusion flags indicating that does not extend the line segments and the like from the measurement point 230C 1 to the measuring point 230C 2 different measuring points.

今回特徴量Fは、測定点230Cの位置(自車10からの距離)、測定点230Cから測定点230Cに延びる第1線分238aの向きd21、第1線分238aの長さL1、測定点230Cから測定点230Cに延びる第2線分238bの向きd23、第2線分238bの長さL2等が挙げられる。 The feature amount F 2 this time is the position of the measurement point 230C 2 (distance from the vehicle 10), the direction d21 of the first line segment 238a extending from the measurement point 230C 2 to the measurement point 230C 1, and the length of the first line segment 238a. L1, the measurement point 230C 2 extending measurement point 230C 3 from the second segment 238b of the orientation d23, the length L2 and the like of the second line segment 238b and the like.

今回特徴量Fは、測定点230Cの位置(自車10からの距離)、測定点230Cから測定点230Cに延びる第2線分238bの向きd32、第2線分238bの長さL2、測定点230Cから測定点230C(図示せず)に延びる第3線分238cの向き(図示せず)、第3線分238cの長さ(図示せず)等が挙げられる。以下同様である。 The feature amount F 3 this time is the position of the measurement point 230C 3 (distance from the vehicle 10), the direction d32 of the second line segment 238b extending from the measurement point 230C 3 to the measurement point 230C 2, and the length of the second line segment 238b. L2, (not shown) direction of the third line segment 238c extending from the measurement point 230C 3 to the measuring point 230C 4 (not shown), the length of the third segment 238c (not shown) and the like. The same applies hereinafter.

そして、特徴量算出部216は、後述する周辺障害物204の障害物トラッキング処理が終了した段階で、今回特徴量を前回特徴量として登録し、今回特徴量を初期化する。   Then, the feature quantity calculation unit 216 registers the current feature quantity as the previous feature quantity and initializes the current feature quantity when the obstacle tracking processing of the peripheral obstacle 204 described later is completed.

障害物トラッキング処理部218は、今回特徴量が算出された段階で、今回特徴量と、前回特徴量とを網羅的に比較して、主に今回特徴量と前回特徴量とが同一とみなせる今回の測定点と前回の測定点とを検索し、対応付ける。なお、処理時間の短縮化を図るために、比較対象の今回の測定点と前回の測定点の距離が実測値で例えば2m以内の測定点を対象とすることが好ましい。これは、例えば単位時間を0.015秒(プログレッシブ方式の1フレーム時間)とし、車両10の時速が最大で200km/hを想定した距離範囲である。   The obstacle tracking processing unit 218 comprehensively compares the current feature value with the previous feature value at the stage when the current feature value is calculated, and the current feature value and the previous feature value are mainly regarded as the same. The measurement point of and the previous measurement point are searched and associated. In order to shorten the processing time, it is preferable that the distance between the current measurement point to be compared and the previous measurement point is an actual measurement value, for example, a measurement point within 2 m. For example, this is a distance range in which the unit time is 0.015 seconds (progressive one frame time) and the vehicle 10 is assumed to have a maximum speed of 200 km / h.

そして、例えば図5Bに示すように、前回の測定点230C、230C及び230C(それぞれ破線の丸で示す)、並びに今回の測定点230C、230C及び230C(それぞれ実線の丸で示す)を想定したとき、測定点230Cの今回特徴量が230Cの前回特徴量にのみ同一とみなせる場合、障害物トラッキング処理部218は、今回の測定点230Cと前回の測定点230Cとを対応付ける。「同一とみなせる」とは、例えば線分(第1線分238a等)の向きが±5°以内、線分の長さの差が20mm以内等が挙げられる。 For example, as shown in FIG. 5B, the previous measurement points 230C 1 , 230C 2 and 230C 3 (represented by broken circles) and the current measurement points 230C 1 , 230C 2 and 230C 3 (respectively solid circles) When the current feature value of the measurement point 230C 1 can be regarded as the same only as the previous feature value of 230C 1 , the obstacle tracking processing unit 218 determines that the current measurement point 230C 1 and the previous measurement point 230C 1 Is associated. “Can be regarded as the same” includes, for example, the direction of a line segment (first line segment 238a, etc.) within ± 5 °, and the difference in length of the line segments within 20 mm.

同様に、図5Cに示すように、230Cの今回特徴量が測定点230Cの前回特徴量にのみ同一とみなせる場合、障害物トラッキング処理部218は、今回の測定点230Cと前回の測定点230Cとを対応付ける。同様に、図5Dに示すように、測定点230Cの今回特徴量が測定点230Cの前回特徴量にのみ同一とみなせる場合、障害物トラッキング処理部218は、今回の測定点230Cと前回の測定点230Cとを対応付ける。 Similarly, as shown in FIG. 5C, if the current characteristic of 230C 2 can be regarded as identical only the last feature quantity of the measurement point 230C 2, the obstacle tracking processing unit 218, the measurement of the current measurement point 230C 2 and the previous associates the point 230C 2. Similarly, as shown in FIG. 5D, if the current characteristic of the measured point 230C 3 can be regarded as identical only the last feature quantity of the measurement point 230C 3, the obstacle tracking processing unit 218, the current measurement point 230C 3 and the previous correlating the measurement point 230C 3 of.

その結果、障害物トラッキング処理部218は、前回の測定点230C〜230Cで特定される障害物が、単位時間後に、今回の測定点230C〜230Cで特定される障害物として移動したものと推定する。さらに、障害物トラッキング処理部218は、単位時間毎に推定した速度の情報に基づいて、対応する周辺障害物204の加速度を推定する。なお、対応する周辺障害物204の速度がゼロであれば、当該対応する周辺障害物は、移動体ではなく、静止した障害物であると認定する。 As a result, the obstacle tracking processing unit 218 moves the obstacle specified at the previous measurement points 230C 1 to 230C 3 as the obstacle specified at the current measurement points 230C 1 to 230C 3 after a unit time. Estimated. Further, the obstacle tracking processing unit 218 estimates the acceleration of the corresponding peripheral obstacle 204 based on the information on the speed estimated for each unit time. If the speed of the corresponding peripheral obstacle 204 is zero, it is determined that the corresponding peripheral obstacle is not a moving object but a stationary obstacle.

一方、障害物位置予測部220は、道路幅方向に並ぶ少なくとも2つの測定点230に関する前回特徴量の位置情報と、今回特徴量の位置情報と、上述した単位時間とに基づいて、対応する周辺障害物204の速度、進行方向及び所定時間後の位置を予測する。所定時間としては、単位時間のほか、予め設定した時間(1秒、5秒等)が挙げられる。   On the other hand, the obstacle position predicting unit 220 generates a corresponding peripheral based on the position information of the previous feature amount, the position information of the current feature amount, and the unit time described above with respect to at least two measurement points 230 arranged in the road width direction. The speed of the obstacle 204, the traveling direction, and the position after a predetermined time are predicted. Examples of the predetermined time include a unit time and a preset time (1 second, 5 seconds, etc.).

領域予測部222は、障害物位置予測部220にて予測された道路幅方向に並ぶ少なくとも2つの測定点230の所定時間後の位置に基づいて、所定時間後の走行可能領域232を予測して予想走行可能領域232dとする。   The region prediction unit 222 predicts the travelable region 232 after a predetermined time based on the positions after the predetermined time of at least two measurement points 230 arranged in the road width direction predicted by the obstacle position prediction unit 220. The predicted travelable area 232d is assumed.

ここで、周辺認識部170での処理動作並びに周辺監視制御について図6のフローチャートを参照しながら説明する。周辺認識部170は、単位時間毎に起動される。   Here, the processing operation and the periphery monitoring control in the periphery recognition unit 170 will be described with reference to the flowchart of FIG. The peripheral recognition unit 170 is activated every unit time.

先ず、ステップS101において、測定点設定部210は、単位時間毎に、車両周辺センサ群20からの検出出力に基づいて、走行ECU36上の仮想平面上に、複数の測定点230を設定する。測定点230に関するデータ、すなわち、走行ECU36上の仮想平面上の座標等は、座標テーブルとしてメモリに登録される。   First, in step S101, the measurement point setting unit 210 sets a plurality of measurement points 230 on a virtual plane on the travel ECU 36 based on the detection output from the vehicle surrounding sensor group 20 for each unit time. Data regarding the measurement point 230, that is, coordinates on the virtual plane on the travel ECU 36, etc. are registered in the memory as a coordinate table.

ステップS102において、障害物特定部212は、道路幅方向に並ぶ複数の測定点230のみに注目し、各周辺障害物204についてそれぞれ少なくとも2つの測定点を特定する。   In step S102, the obstacle identifying unit 212 focuses on only the plurality of measurement points 230 arranged in the road width direction, and identifies at least two measurement points for each of the surrounding obstacles 204.

ステップS103において、領域設定部214は、特定された周辺障害物204の測定点230に基づいて、走行ECU36上の仮想平面上において、走行可能領域232を設定する。すなわち、領域設定部214は、対応する測定点230C及び230Cを結ぶ線、測定点230D及び230Dを結ぶ線をそれぞれ第1辺234a、234bとし、さらに、各第1辺234a、234bの端部からセンサ(レーダ52、LIDAR54等)の法線方向に延びる第2辺236a、236bを設定する。そして、領域設定部214は、複数の第1辺234a、234bと複数の第2辺236a、236bとを含む多角形の領域を、走行可能領域232として設定する。 In step S <b> 103, the region setting unit 214 sets the travelable region 232 on the virtual plane on the travel ECU 36 based on the specified measurement point 230 of the surrounding obstacle 204. In other words, the region setting unit 214, a line connecting measurement points 230C 1 and 230C n corresponding, first side 234a of the line connecting the measuring points 230D 1 and 230D n respectively, and 234b, further, the first side 234a, 234b The second sides 236a and 236b extending in the normal direction of the sensor (radar 52, LIDAR 54, etc.) from the end of the sensor are set. Then, the region setting unit 214 sets a polygonal region including the plurality of first sides 234 a and 234 b and the plurality of second sides 236 a and 236 b as the travelable region 232.

ステップS104において、特徴量算出部216は、今回検知した道路幅方向に並ぶ複数の測定点230において、互いに隣り合う測定点230の向き(角度)又は距離の少なくとも一方を今回特徴量として算出する。   In step S104, the feature amount calculation unit 216 calculates at least one of the direction (angle) or distance of the measurement points 230 adjacent to each other among the plurality of measurement points 230 arranged in the road width direction detected this time as the current feature amount.

ステップS105において、障害物トラッキング処理部218は、前回のステップS104において、特徴量算出部216が算出した特徴量(前回特徴量)と、今回のステップS104において、特徴量算出部216が算出した特徴量(今回特徴量)とを網羅的に比較して、主に前回特徴量(線分の向きや線分の長さ)と今回特徴量(線分の向きや線分の長さ)とが同一とみなせる前回の測定点230と今回の測定点230とを探索し、対応付ける。すなわち、障害物トラッキング処理部218は、同一とみなせる前回の測定点230で特定される周辺障害物204と、単位時間後に、今回の測定点230で特定される周辺障害物204とが同一の障害物であるものとして対応付ける。   In step S105, the obstacle tracking processing unit 218 calculates the feature amount (previous feature amount) calculated by the feature amount calculation unit 216 in the previous step S104 and the feature amount calculated by the feature amount calculation unit 216 in the current step S104. Comparing the amount (current feature amount) comprehensively, mainly the previous feature amount (the direction of the line segment and the length of the line segment) and the current feature amount (the direction of the line segment and the length of the line segment) The previous measurement point 230 and the current measurement point 230 that can be regarded as the same are searched and associated with each other. That is, the obstacle tracking processing unit 218 has the same obstacle as the peripheral obstacle 204 specified at the previous measurement point 230 that can be regarded as the same and the peripheral obstacle 204 specified at the current measurement point 230 after the unit time. Correlate as a thing.

ステップS106において、障害物トラッキング処理部218は、前回特徴量の測定点230の位置情報と、今回特徴量の位置情報と、単位時間とに基づいて、対応する周辺障害物204の速度を推定する。   In step S106, the obstacle tracking processing unit 218 estimates the speed of the corresponding surrounding obstacle 204 based on the position information of the previous feature quantity measurement point 230, the current feature quantity position information, and the unit time. .

ステップS107において、障害物トラッキング処理部218は、単位時間毎に推定した速度の情報に基づいて、対応する周辺障害物204の加速度を推定する。   In step S107, the obstacle tracking processing unit 218 estimates the acceleration of the corresponding peripheral obstacle 204 based on the information on the speed estimated for each unit time.

ステップS108において、障害物位置予測部220は、道路幅方向に並ぶ少なくとも2つの測定点230に関する前回特徴量の位置情報と、今回特徴量の位置情報と、単位時間とに基づいて、対応する周辺障害物204の所定時間後の位置を予測する。   In step S108, the obstacle position prediction unit 220 determines the corresponding surroundings based on the position information of the previous feature amount, the position information of the current feature amount, and the unit time with respect to at least two measurement points 230 arranged in the road width direction. The position of the obstacle 204 after a predetermined time is predicted.

ステップS109において、領域予測部222は、障害物位置予測部220にて予測された道路幅方向に並ぶ少なくとも2つの測定点230の所定時間後の位置に基づいて、所定時間後の走行可能領域232を予測する。   In step S <b> 109, the region prediction unit 222 determines the travelable region 232 after a predetermined time based on the positions after the predetermined time of at least two measurement points 230 arranged in the road width direction predicted by the obstacle position prediction unit 220. Predict.

ステップS110において、特徴量算出部216は、今回特徴量を前回特徴量として登録し、今回特徴量を初期化する。   In step S110, the feature quantity calculation unit 216 registers the current feature quantity as the previous feature quantity, and initializes the current feature quantity.

その後、単位時間毎に、周辺認識部170が起動されて、上述したステップS101〜S110の処理が繰り返される。   Then, the periphery recognition part 170 is started for every unit time, and the process of step S101-S110 mentioned above is repeated.

なお、上述したように、図2のステップS17において、走行ECU36は、算出された走行可能領域232の中から種々の条件を満たす走行軌跡Lのうち最適のものを目標走行軌跡Ltarとして選択する。この選択にあたっては、推定した周辺障害物204の速度、加速度、並びに予測した周辺障害物204の所定時間後の位置、予測した所定時間後の走行可能領域232も考慮される。   As described above, in step S17 in FIG. 2, the travel ECU 36 selects, as the target travel locus Ltar, the optimal one of the travel loci L that satisfies various conditions from the calculated travelable region 232. In this selection, the estimated speed and acceleration of the surrounding obstacle 204, the predicted position of the surrounding obstacle 204 after a predetermined time, and the predicted travelable area 232 after the predetermined time are also taken into consideration.

このように、本実施の形態に係る走行制御装置は、運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置であって、自車10の走行前方に存在する物体(周辺障害物204)を検出するセンサ(車両周辺センサ群20)と、センサからの検出出力に基づいて、それぞれ少なくとも物体(周辺障害物204)の存在を示す複数の測定点230を求め、物体(周辺障害物204)の道路幅方向に並ぶ少なくとも2つの点(測定点230)を特定する物体特定部(障害物特定部212)と、少なくとも2つの点(測定点230)に基づいて、物体が存在しない領域(走行可能領域232)を設定する領域設定部214とを有する。   As described above, the travel control apparatus according to the present embodiment is a travel control apparatus that controls automatic driving capable of traveling without requiring a driver's driving operation or automatic driving that assists the driver's driving operation. The presence of at least an object (peripheral obstacle 204) based on a sensor (vehicle peripheral sensor group 20) that detects an object (peripheral obstacle 204) existing in front of the vehicle 10 and the detection output from the sensor. An object specifying unit (obstacle specifying unit 212) for specifying at least two points (measurement points 230) aligned in the road width direction of the object (peripheral obstacle 204), and at least two points And an area setting unit 214 that sets an area where no object exists (travelable area 232) based on the point (measurement point 230).

これにより、自車10の移動可能な領域が明確になり、自車10の走行制御を余裕をもって行うことができる。また、少なくとも2つの測定点230に基づいて走行可能領域232を設定するため、周辺障害物204の輝度変化に影響されることなく、自車10の移動可能な領域を設定することができる。しかも、走行ECU36等による認識負荷が小さく、タイムラグの無い認識を行うことができる。   Thereby, the area | region which the own vehicle 10 can move becomes clear, and traveling control of the own vehicle 10 can be performed with a margin. Further, since the travelable area 232 is set based on at least two measurement points 230, the area where the host vehicle 10 can move can be set without being affected by the luminance change of the surrounding obstacle 204. Moreover, the recognition load by the travel ECU 36 and the like is small, and recognition without time lag can be performed.

本実施の形態において、領域設定部214は、走行可能領域232として、少なくとも2つの測定点230に基づいた第1辺234a、234bを含む領域を設定する。   In the present embodiment, region setting unit 214 sets a region including first sides 234 a and 234 b based on at least two measurement points 230 as travelable region 232.

これにより、走行可能領域232は、周辺障害物204の道路幅方向に並ぶ少なくとも2つの測定点230に基づいた第1辺234a、234bを含めばよいため、走行可能領域232を簡単に設定することができる。しかも、自車10を、第1辺234a、234bよりも前方に進行しないように制御すればよいため、走行ECU36での目標走行軌跡Ltarの算出も短時間で実施することが可能となる。   Accordingly, the travelable area 232 only needs to include the first sides 234a and 234b based on at least two measurement points 230 arranged in the road width direction of the surrounding obstacle 204, and thus the travelable area 232 can be easily set. Can do. In addition, since it is only necessary to control the own vehicle 10 so as not to travel forward from the first sides 234a and 234b, the travel ECU 36 can calculate the target travel locus Ltar in a short time.

この場合、領域設定部214は、第1辺234a、234bの端部からセンサの法線方向に延びる第2辺236a、236bを設定し、走行可能領域232として、第1辺234a、234bと第2辺236a、236bとを含む多角形の領域(走行可能領域232)を設定する。   In this case, the region setting unit 214 sets the second sides 236a and 236b extending in the normal direction of the sensor from the ends of the first sides 234a and 234b, and sets the first sides 234a and 234b as the travelable region 232. A polygonal region (travelable region 232) including two sides 236a and 236b is set.

これにより、第1辺234a、234bと第2辺236a、236bとを含む多角形の領域を設定するため、走行可能領域232として、第1辺234a、234bの後方の領域だけでなく、周辺障害物204と並走する領域も設定することが可能となり、自車10が走行することができる領域の選択の幅を広げることができる。   Accordingly, in order to set a polygonal region including the first side 234a, 234b and the second side 236a, 236b, not only the region behind the first side 234a, 234b but also the peripheral obstacle as the travelable region 232 It is possible to set an area where the object 204 runs in parallel, and the range of selection of the area where the vehicle 10 can travel can be expanded.

また、本実施の形態は、前回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ前回の特徴量として算出し、今回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ今回の特徴量として算出するようにしている。そして、前回の特徴量と今回の特徴量とが同一とみなせる場合、前回の第1測定点及び第2測定点が、今回の第1測定点及び第2測定点に移動したものとみなすようにしている。   In the present embodiment, at least one of the angle or the distance between the first measurement point detected last time and the second measurement point adjacent to the first measurement point is calculated as the previous feature amount, and the first detection point detected this time is calculated. At least one of an angle or a distance between one measurement point and a second measurement point adjacent to the first measurement point is calculated as the current feature amount. If the previous feature value and the current feature value can be regarded as the same, the previous first measurement point and the second measurement point are considered to have moved to the current first measurement point and the second measurement point. ing.

これにより、周辺障害物204を特徴的に示す測定点に角度や距離を示す特徴量を持たせることで、刻々変わる周辺障害物204の移動方向や周辺障害物204の速度、加速度、周辺障害物204の位置等を容易に追跡することができる。その結果、例えば自動運転のための各種走行制御のうち、特に、先行車に対する追従制御、先行車に対する追い越し制御等を容易に実施することができる。   As a result, by providing the measurement points that characteristically indicate the peripheral obstacle 204 with feature quantities indicating the angle and distance, the moving direction of the peripheral obstacle 204 that changes momentarily, the speed, acceleration, and peripheral obstacles of the peripheral obstacle 204 are displayed. The position of 204 can be easily tracked. As a result, for example, among various types of traveling control for automatic driving, in particular, follow-up control for the preceding vehicle, overtaking control for the preceding vehicle, and the like can be easily performed.

本実施の形態は、前回検知した少なくとも2つの測定点230と、今回検知した少なくとも2つの測定点230とから、将来の周辺障害物204の位置を予測し、将来の周辺障害物204の道路幅方向に並ぶ少なくとも2つの測定点230に基づいて、将来の走行可能領域232を予測するようにしている。   In the present embodiment, the position of the future peripheral obstacle 204 is predicted from at least two measurement points 230 detected last time and the at least two measurement points 230 detected this time, and the road width of the future peripheral obstacle 204 is predicted. A future travelable region 232 is predicted based on at least two measurement points 230 arranged in the direction.

これにより、将来の周辺障害物204の位置だけでなく、走行可能領域232そのものの将来の位置を求めることが可能となり、先行車に対する追従制御、先行車に対する追い越し制御等の精度を高めることができる。   As a result, it is possible to obtain not only the future position of the surrounding obstacle 204 but also the future position of the travelable area 232 itself, and the accuracy of the follow-up control for the preceding vehicle, the overtaking control for the preceding vehicle, and the like can be improved. .

なお、この発明は、上述した実施の形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can be freely changed without departing from the gist of the present invention.

例えば領域設定部214にて設定された多角形状の走行可能領域232をフロントガラスに三次元的に表示してもよい。これにより、運転者は、前方のどの領域が走行可能領域232かを直感的に認識することが可能となる。   For example, the polygonal travelable area 232 set by the area setting unit 214 may be displayed three-dimensionally on the windshield. As a result, the driver can intuitively recognize which area in front is the travelable area 232.

上記実施の形態の車両周辺センサ群20には、複数の車外カメラ50を含むが、複数の車外カメラ50に、車両10の前方を検出するステレオカメラが含まれてもよい。   Although the vehicle periphery sensor group 20 of the above embodiment includes a plurality of outside cameras 50, the plurality of outside cameras 50 may include a stereo camera that detects the front of the vehicle 10.

上記実施の形態の車体挙動センサ群22には、車速センサ60、横加速度センサ62及びヨーレートセンサ64を含むが(図1参照)、これに限らない。例えば、横加速度センサ62及びヨーレートセンサ64のいずれか1つ又は複数を省略することも可能である。   The vehicle body behavior sensor group 22 of the above embodiment includes a vehicle speed sensor 60, a lateral acceleration sensor 62, and a yaw rate sensor 64 (see FIG. 1), but is not limited thereto. For example, any one or more of the lateral acceleration sensor 62 and the yaw rate sensor 64 can be omitted.

上記実施の形態の運転操作センサ群24には、APセンサ80、BPセンサ82、舵角センサ84及び操舵トルクセンサ86を含むが(図1参照)、これに限らない。例えば、APセンサ80、BPセンサ82、舵角センサ84及び操舵トルクセンサ86のいずれか1つ又は複数を省略することも可能である。   The driving operation sensor group 24 of the embodiment includes the AP sensor 80, the BP sensor 82, the steering angle sensor 84, and the steering torque sensor 86 (see FIG. 1), but is not limited thereto. For example, any one or more of the AP sensor 80, the BP sensor 82, the steering angle sensor 84, and the steering torque sensor 86 may be omitted.

上記の実施の形態では、自動運転制御で対象となるアクチュエータとして、エンジン120、ブレーキ機構130及びEPSモータ140を用いたが(図1参照)、これに限らない。例えば、エンジン120、ブレーキ機構130及びEPSモータ140のいずれか1つ又は2つを自動運転制御の対象から外すことも可能である。いずれかのアクチュエータを自動運転制御の対象から外した場合、対象から外されたアクチュエータに関する制御は、運転者が行うこととなる。さらに、上記のように、EPSモータ140の代わりに、左右の車輪のトルク差を用いて旋回することも可能である。   In the above-described embodiment, the engine 120, the brake mechanism 130, and the EPS motor 140 are used as the actuators that are targets in the automatic operation control (see FIG. 1), but are not limited thereto. For example, any one or two of the engine 120, the brake mechanism 130, and the EPS motor 140 can be excluded from the targets of automatic operation control. When one of the actuators is excluded from the target of the automatic operation control, the driver performs control related to the actuator that is excluded from the target. Further, as described above, it is possible to turn using the torque difference between the left and right wheels instead of the EPS motor 140.

上記の実施の形態では、車両10の加速、減速及び旋回のいずれについても運転者の運転操作を要さない自動運転について説明したが(図2参照)、これに限らない。例えば、車両10の加速、減速及び旋回のいずれか1つ又は2つについてのみ運転者の運転操作を要さない自動運転、又は運転者の運転操作を補助する自動運転に本発明を適用することも可能である。   In the above-described embodiment, the automatic driving that does not require the driver's driving operation for any of acceleration, deceleration, and turning of the vehicle 10 has been described (see FIG. 2), but is not limited thereto. For example, the present invention is applied to automatic driving that does not require the driver's driving operation for only one or two of acceleration, deceleration, and turning of the vehicle 10, or automatic driving that assists the driving operation of the driver. Is also possible.

10…車両(自車) 20…車両周辺センサ群
36…走行ECU(ECU) 50…車外カメラ
52…レーダ 54…LIDAR
170…周辺認識部 172…行動計画部
174…走行制御部 200…道路
202a、202b…道路の境界 204…周辺障害物
204a、204b…他車 206…走行レーン
210…測定点設定部 212…障害物特定部
214…領域設定部 216…特徴量算出部
218…障害物トラッキング処理部 220…障害物位置予測部
222…領域予測部 230…測定点
232…走行可能領域 234a、234b…第1辺
236a、236b…第2辺 238a…第1線分
238b…第2線分 238c…第3線分
DESCRIPTION OF SYMBOLS 10 ... Vehicle (own vehicle) 20 ... Vehicle periphery sensor group 36 ... Traveling ECU (ECU) 50 ... Outside camera 52 ... Radar 54 ... LIDAR
DESCRIPTION OF SYMBOLS 170 ... Peripheral recognition part 172 ... Action plan part 174 ... Travel control part 200 ... Road 202a, 202b ... Road boundary 204 ... Surrounding obstacle 204a, 204b ... Other vehicle 206 ... Travel lane 210 ... Measurement point setting part 212 ... Obstacle Identification unit 214 ... region setting unit 216 ... feature amount calculation unit 218 ... obstacle tracking processing unit 220 ... obstacle position prediction unit 222 ... region prediction unit 230 ... measurement point 232 ... travelable region 234a, 234b ... first side 236a, 236b ... second side 238a ... first line segment 238b ... second line segment 238c ... third line segment

Claims (5)

運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置であって、
自車の走行前方に存在する物体を検出するセンサと、
前記センサからの検出出力に基づいて、それぞれ少なくとも前記物体の存在を示す複数の測定点を求め、前記物体の道路幅方向に並ぶ少なくとも2つの測定点を特定する物体特定部と、
少なくとも前記2つの測定点に基づいて、前記物体が存在しない領域を設定する領域設定部とを有することを特徴とする走行制御装置。
A travel control device that controls automatic driving that can run without requiring driving operation of the driver or automatic driving that assists the driving operation of the driver,
A sensor for detecting an object existing in front of the vehicle,
An object specifying unit for determining a plurality of measurement points each indicating at least the presence of the object based on a detection output from the sensor, and specifying at least two measurement points arranged in a road width direction of the object;
And a region setting unit that sets a region where the object does not exist based on at least the two measurement points.
請求項1記載の走行制御装置において、
前記領域設定部は、前記物体が存在しない領域として、少なくとも前記2つの測定点に基づいた第1辺を含む領域を設定することを特徴とする走行制御装置。
The travel control device according to claim 1,
The region setting unit sets a region including at least a first side based on the two measurement points as a region where the object does not exist.
請求項2記載の走行制御装置において、
前記領域設定部は、前記第1辺の端部から前記センサの法線方向に延びる第2辺を設定し、前記物体が存在しない領域として、前記第1辺と前記第2辺とを含む多角形の領域を設定することを特徴とする走行制御装置。
The travel control device according to claim 2, wherein
The region setting unit sets a second side extending in the normal direction of the sensor from an end portion of the first side, and includes the first side and the second side as a region where the object does not exist. A travel control device that sets a rectangular region.
請求項1記載の走行制御装置において、
前回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ前回の特徴量として算出し、今回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ今回の特徴量として算出する特徴量算出部と、
前記前回の特徴量と前記今回の特徴量とが同一とみなせる場合、前回の前記第1測定点及び前記第2測定点が、今回の前記第1測定点及び前記第2測定点に移動したものとみなす物体トラッキング処理部とを有することを特徴とする走行制御装置。
The travel control device according to claim 1,
At least one of the angle or the distance between the first measurement point detected last time and the second measurement point adjacent to the first measurement point is calculated as the previous feature amount, and the first measurement point detected this time and the first measurement are calculated. A feature amount calculation unit that calculates at least one of an angle or a distance from a second measurement point adjacent to the point as a feature amount of this time;
When the previous feature value and the current feature value can be regarded as the same, the previous first measurement point and the second measurement point have moved to the current first measurement point and the second measurement point. An object tracking processing unit regarded as a traveling control device.
請求項1記載の走行制御装置において、
前回検知した少なくとも2つの測定点と、今回検知した少なくとも2つの測定点とから、将来の前記物体の位置を予測する物体位置予測部と、
将来の前記物体の道路幅方向に並ぶ少なくとも2つの測定点に基づいて、将来の前記物体が存在しない領域を予測する領域予測部とを有することを特徴とする走行制御装置。
The travel control device according to claim 1,
An object position prediction unit that predicts the position of the object in the future from at least two measurement points detected last time and at least two measurement points detected this time;
A travel control device comprising: a region prediction unit that predicts a region where the future object does not exist based on at least two measurement points arranged in the road width direction of the future object.
JP2016234482A 2016-12-01 2016-12-01 Travel control apparatus Pending JP2018092334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016234482A JP2018092334A (en) 2016-12-01 2016-12-01 Travel control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016234482A JP2018092334A (en) 2016-12-01 2016-12-01 Travel control apparatus

Publications (1)

Publication Number Publication Date
JP2018092334A true JP2018092334A (en) 2018-06-14

Family

ID=62566114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016234482A Pending JP2018092334A (en) 2016-12-01 2016-12-01 Travel control apparatus

Country Status (1)

Country Link
JP (1) JP2018092334A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220070A (en) * 2018-06-22 2019-12-26 株式会社Soken Electronic control unit

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676065A (en) * 1992-08-26 1994-03-18 Hitachi Ltd Method and device for recognizing road circumstances
JP2005049963A (en) * 2003-07-30 2005-02-24 Olympus Corp Safe movement support device
JP2007163431A (en) * 2005-12-16 2007-06-28 Daihatsu Motor Co Ltd Target recognition device of vehicle, and target recognition method
JP2010134852A (en) * 2008-12-08 2010-06-17 Nikon Corp Vehicle accident preventing system
JP2011039968A (en) * 2009-08-18 2011-02-24 Mitsubishi Electric Corp Vehicle movable space detection device
JP2011123551A (en) * 2009-12-08 2011-06-23 Toyota Central R&D Labs Inc Dead corner area estimating device and program
JP2011248445A (en) * 2010-05-24 2011-12-08 Toyota Central R&D Labs Inc Moving object prediction device and program
JP2012099010A (en) * 2010-11-04 2012-05-24 Aisin Aw Co Ltd Image processing apparatus and image processing program
JP2012118909A (en) * 2010-12-03 2012-06-21 Nissan Motor Co Ltd Travel support device
JP2013196109A (en) * 2012-03-16 2013-09-30 Dainippon Printing Co Ltd Individual identification device, individual identification method and program
JP2015057688A (en) * 2013-08-12 2015-03-26 株式会社日本自動車部品総合研究所 Travel route generation apparatus

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676065A (en) * 1992-08-26 1994-03-18 Hitachi Ltd Method and device for recognizing road circumstances
JP2005049963A (en) * 2003-07-30 2005-02-24 Olympus Corp Safe movement support device
JP2007163431A (en) * 2005-12-16 2007-06-28 Daihatsu Motor Co Ltd Target recognition device of vehicle, and target recognition method
JP2010134852A (en) * 2008-12-08 2010-06-17 Nikon Corp Vehicle accident preventing system
JP2011039968A (en) * 2009-08-18 2011-02-24 Mitsubishi Electric Corp Vehicle movable space detection device
JP2011123551A (en) * 2009-12-08 2011-06-23 Toyota Central R&D Labs Inc Dead corner area estimating device and program
JP2011248445A (en) * 2010-05-24 2011-12-08 Toyota Central R&D Labs Inc Moving object prediction device and program
JP2012099010A (en) * 2010-11-04 2012-05-24 Aisin Aw Co Ltd Image processing apparatus and image processing program
JP2012118909A (en) * 2010-12-03 2012-06-21 Nissan Motor Co Ltd Travel support device
JP2013196109A (en) * 2012-03-16 2013-09-30 Dainippon Printing Co Ltd Individual identification device, individual identification method and program
JP2015057688A (en) * 2013-08-12 2015-03-26 株式会社日本自動車部品総合研究所 Travel route generation apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220070A (en) * 2018-06-22 2019-12-26 株式会社Soken Electronic control unit
JP7085259B2 (en) 2018-06-22 2022-06-16 株式会社Soken Vehicle control unit

Similar Documents

Publication Publication Date Title
CN107867289B (en) Travel assist device and travel assist method
KR102138051B1 (en) Drive assist apparatus
US11066073B2 (en) Vehicle control system, vehicle control method, and vehicle control program
US10967876B2 (en) Vehicle control system, vehicle control method, and vehicle control program
US9981658B2 (en) Autonomous driving vehicle system
US9902399B2 (en) Vehicle travelling control device for controlling a vehicle in traffic
RU2760046C1 (en) Driving assistance and driving assistance device
JP6460579B2 (en) Driving support control device
EP3088280A1 (en) Autonomous driving vehicle system
US10421394B2 (en) Driving assistance device, and storage medium
US20190217861A1 (en) Travel control device and travel control method
JP6337435B2 (en) Driving assistance device
JP6832164B2 (en) Driving assistance device and driving assistance method
JP6623311B2 (en) Control apparatus and control method
JP6007739B2 (en) Driving support device and driving support method
JP7156988B2 (en) Travel control device, travel control method, and program
JP7163729B2 (en) vehicle controller
JP7293628B2 (en) Driving support vehicle merging method and merging device
JP7156989B2 (en) Travel control device, travel control method, and program
JP2007257519A (en) Vehicular travel support device
JP2019159611A (en) Vehicle control device, vehicle control method, and program
JP2021014180A (en) Vehicle control device, vehicle control method and program
JP2018041379A (en) Travel control device
JP7377822B2 (en) Driving support method and driving support device
JP2021149319A (en) Display control device, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200707