JP2018092334A - Travel control apparatus - Google Patents
Travel control apparatus Download PDFInfo
- Publication number
- JP2018092334A JP2018092334A JP2016234482A JP2016234482A JP2018092334A JP 2018092334 A JP2018092334 A JP 2018092334A JP 2016234482 A JP2016234482 A JP 2016234482A JP 2016234482 A JP2016234482 A JP 2016234482A JP 2018092334 A JP2018092334 A JP 2018092334A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- measurement point
- region
- measurement points
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置に関する。 The present invention relates to a travel control device that controls automatic driving capable of traveling without requiring a driver's driving operation or automatic driving that assists the driver's driving operation.
特許文献1では、自車と障害物が衝突する可能性があるか否かを精度よく判定することを課題としている。 In Patent Document 1, an object is to accurately determine whether or not there is a possibility of collision between the own vehicle and an obstacle.
当該課題を解決するため、特許文献1では、画像に写る障害物の位置を示すフレームと、当該障害物についてのオプティカルフローの消失点との距離に基づいて、自車両に対する障害物の相対移動方向に直交する方向についての、自車両と障害物との距離を算出する。そして、自車両と障害物との距離と、撮影装置と自車両の側面までの距離とを比較することにより、自車両と障害物とが衝突するか否かを判定する。 In order to solve the problem, in Patent Document 1, the relative movement direction of the obstacle with respect to the host vehicle based on the distance between the frame indicating the position of the obstacle in the image and the vanishing point of the optical flow for the obstacle. The distance between the host vehicle and the obstacle in the direction orthogonal to is calculated. Then, by comparing the distance between the host vehicle and the obstacle and the distance between the photographing device and the side surface of the host vehicle, it is determined whether or not the host vehicle and the obstacle collide.
特許文献1では、オプティカルフローによって対象物(障害物)の速度推定を行うことから、画素が移動しても明るさ(画素値)が不変であること、画素の移動量が小さい(1画素以下)等が前提となる。 In Patent Document 1, since the speed of an object (obstacle) is estimated by optical flow, the brightness (pixel value) remains unchanged even when the pixel moves, and the amount of movement of the pixel is small (1 pixel or less). ) Etc. are assumed.
そのため、例えばトンネル進入/退出、ライトの明滅等によって、対象物に輝度変化があった場合、対象物の速度推定が機能しなくなるおそれがある。 For this reason, when there is a change in the brightness of the object due to, for example, entering / exiting a tunnel or blinking of a light, the speed estimation of the object may not function.
本発明は上述した問題を解決するためになされたものであり、対象物(他の移動体)の輝度変化に影響されることなく自車の走行可能領域を予測することができ、自車移動経路の計画に応じた好適な自動運転を可能とする走行制御装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and can predict the travelable area of the host vehicle without being affected by the luminance change of the object (other moving body). It is an object of the present invention to provide a travel control device that enables suitable automatic driving according to a route plan.
[1] 本発明に係る走行制御装置は、運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置であって、自車の走行前方に存在する物体を検出するセンサと、前記センサからの検出出力に基づいて、それぞれ少なくとも前記物体の存在を示す複数の測定点を求め、前記物体の道路幅方向に並ぶ少なくとも2つの測定点を特定する物体特定部と、少なくとも前記2つの測定点に基づいて、前記物体が存在しない領域を設定する領域設定部とを有することを特徴とする。 [1] A travel control device according to the present invention is a travel control device that controls automatic driving capable of traveling without requiring a driver's driving operation or automatic driving that assists the driver's driving operation. And at least two measurements arranged in the road width direction of the object based on the detection output from the sensor and a plurality of measurement points each indicating the presence of the object. An object specifying unit that specifies a point and an area setting unit that sets an area where the object does not exist based on at least the two measurement points.
これにより、自車の移動可能な領域が明確になり、自車の走行制御を余裕をもって行うことができる。また、少なくとも2つの測定点に基づいて物体が存在しない領域を設定するため、物体(他の移動体や静止物等)の輝度変化に影響されることなく、自車の移動可能な領域を設定することができる。しかも、ECU等による認識負荷が小さく、タイムラグの無い認識を行うことができる。 Thereby, the area | region which the own vehicle can move becomes clear, and traveling control of the own vehicle can be performed with a margin. In addition, since an area where no object exists is set based on at least two measurement points, an area where the vehicle can move is set without being affected by changes in luminance of the object (other moving objects, stationary objects, etc.). can do. In addition, recognition load by the ECU or the like is small, and recognition without time lag can be performed.
[2] 本発明において、前記領域設定部は、前記物体が存在しない領域として、少なくとも前記2つの測定点に基づいた第1辺を含む領域を設定してもよい。 [2] In the present invention, the region setting unit may set a region including at least a first side based on the two measurement points as a region where the object does not exist.
物体が存在しない領域は、物体の道路幅方向に並ぶ少なくとも2つの測定点に基づいた第1辺を含めばよいため、物体が存在しない領域を簡単に設定することができる。しかも、自車を、第1辺よりも前方に進行しないように制御すればよいため、電子制御装置(ECU)での目標走行軌跡の算出も短時間で実施することが可能となる。 Since the area where no object is present only needs to include the first side based on at least two measurement points arranged in the road width direction of the object, the area where no object exists can be easily set. In addition, since it is only necessary to control the vehicle so that it does not travel further forward than the first side, the calculation of the target travel locus by the electronic control unit (ECU) can be performed in a short time.
[3] この場合、前記領域設定部は、前記第1辺の端部から前記センサの法線方向に延びる第2辺を設定し、前記物体が存在しない領域として、前記第1辺と前記第2辺とを含む多角形の領域を設定してもよい。 [3] In this case, the region setting unit sets a second side extending in the normal direction of the sensor from the end of the first side, and the first side and the first side are defined as a region where the object does not exist. A polygonal region including two sides may be set.
第1辺と第2辺とを含む多角形の領域を設定するため、物体が存在しない領域として、第1辺の後方の領域だけでなく、障害物と並走する領域も設定することが可能となり、自車が走行することができる領域の選択の幅を広げることができる。 Since a polygonal area including the first side and the second side is set, it is possible to set not only the area behind the first side but also the area running parallel to the obstacle as the area where the object does not exist. Thus, the range of selection of the area where the vehicle can travel can be expanded.
[4] 本発明において、前回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ前回の特徴量として算出し、今回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ今回の特徴量として算出する特徴量算出部と、前記前回の特徴量と前記今回の特徴量とが同一とみなせる場合、前回の前記第1測定点及び前記第2測定点が、今回の前記第1測定点及び前記第2測定点に移動したものとみなす物体トラッキング処理部とを有してもよい。 [4] In the present invention, at least one of the angle or the distance between the first measurement point detected last time and the second measurement point adjacent to the first measurement point is calculated as the previous feature amount, and the first detected this time. A feature amount calculation unit for calculating at least one of an angle or a distance between a measurement point and a second measurement point adjacent to the first measurement point as a current feature amount, the previous feature amount, and the current feature amount, Can be regarded as the same, the previous first measurement point and the second measurement point may include an object tracking processing unit that is regarded as having moved to the current first measurement point and the second measurement point. Good.
物体を特徴的に示す測定点に角度や距離を示す特徴量を持たせることで、刻々変わる物体の移動方向や物体の速度、加速度、物体の位置等を容易に追跡することができる。その結果、例えば自動運転のための各種走行制御のうち、特に、先行車に対する追従制御、先行車に対する追い越し制御等を容易に実施することができる。 By providing a characteristic point indicating an angle or distance to a measurement point that characterizes an object, it is possible to easily track the moving direction of the object, the speed, acceleration, and the position of the object that change every moment. As a result, for example, among various types of traveling control for automatic driving, in particular, follow-up control for the preceding vehicle, overtaking control for the preceding vehicle, and the like can be easily performed.
[5] 本発明において、前回検知した少なくとも2つの測定点と、今回検知した少なくとも2つの測定点とから、将来の前記物体の位置を予測する物体位置予測部と、将来の前記物体の道路幅方向に並ぶ少なくとも2つの測定点に基づいて、将来の前記物体が存在しない領域を予測する領域予測部とを有してもよい。 [5] In the present invention, an object position prediction unit that predicts a future position of the object from at least two measurement points detected last time and at least two measurement points detected this time, and a road width of the future object. An area predicting unit that predicts an area in which the future object does not exist based on at least two measurement points arranged in the direction may be included.
これにより、将来の物体の位置だけでなく、物体が存在しない領域そのものの将来の位置を求めることが可能となり、先行車に対する追従制御、先行車に対する追い越し制御等の精度を高めることができる。 As a result, not only the position of the future object but also the future position of the area itself where the object does not exist can be obtained, and the accuracy of the follow-up control for the preceding vehicle, the overtaking control for the preceding vehicle, and the like can be improved.
本発明に係る走行制御装置によれば、対象物(他の移動体)の輝度変化に影響されることなく自車の走行可能領域を予測することができ、自車移動経路の計画に応じた好適な自動運転を可能とする。 According to the travel control device of the present invention, it is possible to predict the travelable area of the host vehicle without being affected by the luminance change of the object (other moving body), and according to the plan of the travel path of the host vehicle. A suitable automatic driving is made possible.
以下、本発明に係る走行制御装置の実施の形態例を図1〜図6を参照しながら説明する。 Hereinafter, an embodiment of a travel control device according to the present invention will be described with reference to FIGS.
図1は、本発明の一実施の形態に係る走行制御装置としての走行電子制御装置36(以下「走行ECU36」という。)を含む車両10の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a
車両10(以下「自車10」ともいう。)は、走行ECU36に加え、車両周辺センサ群20と、車体挙動センサ群22と、運転操作センサ群24と、通信装置26と、ヒューマン・マシン・インタフェース28(以下「HMI28」という。)と、駆動力制御システム30と、制動力制御システム32と、電動パワーステアリングシステム34(以下「EPSシステム34」という。)とを有する。
In addition to the travel ECU 36, the vehicle 10 (hereinafter also referred to as “
車両周辺センサ群20は、車両10の周辺に関する情報(以下「車両周辺情報Ic」ともいう。)を検出する。車両周辺センサ群20には、複数の車外カメラ50と、複数のレーダ52と、LIDAR54(Light Detection And Ranging)と、グローバル・ポジショニング・システム・センサ56(以下「GPSセンサ56」という。)とが含まれる。
The vehicle
複数の車外カメラ50は、車両10の周辺(前方、側方及び後方)を撮像した画像情報Iimageを出力する。複数のレーダ52は、車両10の周辺(前方、側方及び後方)に送信した電磁波に対する反射波を示すレーダ情報Iraderを出力する。LIDAR54は、車両10の全方位にレーザーを連続的に発射し、その反射波に基づいて反射点の三次元位置を測定して三次元情報Ilidarとして出力する。GPSセンサ56は、車両10の現在位置Pcurを検出する。車外カメラ50、レーダ52、LIDAR54及びGPSセンサ56は、車両周辺情報Icを認識する周辺認識装置である。
The plurality of in-
車体挙動センサ群22は、車両10(特に車体)の挙動に関する情報(以下「車体挙動情報Ib」ともいう。)を検出する。車体挙動センサ群22には、車速センサ60と、横加速度センサ62と、ヨーレートセンサ64とが含まれる。
The vehicle body
車速センサ60は、車両10の車速V[km/h]を検出する。横加速度センサ62は、車両10の横加速度Glat[m/s/s]を検出する。ヨーレートセンサ64は、車両10のヨーレートYr[rad/s]を検出する。
The
運転操作センサ群24は、運転者による運転操作に関する情報(以下「運転操作情報Io」ともいう。)を検出する。運転操作センサ群24には、アクセルペダルセンサ80と、ブレーキペダルセンサ82と、舵角センサ84と、操舵トルクセンサ86とが含まれる。
The driving
アクセルペダルセンサ80(以下「APセンサ80」ともいう。)は、アクセルペダル90の操作量θap(以下「AP操作量θap」ともいう。)[%]を検出する。ブレーキペダルセンサ82(以下「BPセンサ82」ともいう。)は、ブレーキペダル92の操作量θbp(以下「BP操作量θbp」ともいう。)[%]を検出する。舵角センサ84は、ステアリングハンドル94の舵角θst(以下「操作量θst」ともいう。)[deg]を検出する。操舵トルクセンサ86は、ステアリングハンドル94に加えられた操舵トルクTst[N・m]を検出する。
An accelerator pedal sensor 80 (hereinafter also referred to as “
通信装置26は、外部機器との無線通信を行う。ここでの外部機器には、例えば、図示しない交通情報サーバが含まれる。交通情報サーバは、渋滞情報、事故情報、工事情報等の交通情報を各車両10に対して提供する。或いは、外部機器には、図示しない経路案内サーバが含まれてもよい。経路案内サーバは、通信装置26から受信した車両10の現在位置Pcur及び目標地点Pgoalに基づいて、目標地点Pgoalまでの予定経路Rvを走行ECU36に代わって生成又は算出する。
The
なお、本実施の形態の通信装置26は、車両10に搭載(又は常時固定)されているものを想定しているが、例えば、携帯電話機又はスマートフォンのように車両10の外部へ持ち運び可能なものであってもよい。
In addition, although the
HMI28は、乗員からの操作入力を受け付けると共に、乗員に対して各種情報の提示を、視覚的、聴覚的及び触覚的に行う。HMI28には、自動運転スイッチ110(以下「自動運転SW110」ともいう。)と、表示部112とが含まれる。自動運転SW110は、乗員の操作により自動運転制御の開始及び終了を指令するためのスイッチである。自動運転SW110に加えて又はこれに代えて、その他の方法(図示しないマイクロホンを介しての音声入力等)により自動運転制御の開始又は終了を指令することも可能である。表示部112は、例えば、液晶パネル又は有機ELパネルを含む。表示部112は、タッチパネルとして構成されてもよい。
The
駆動力制御システム30は、エンジン120(駆動源)及び駆動電子制御装置122(以下「駆動ECU122」という。)を有する。上述のAPセンサ80及びアクセルペダル90を駆動力制御システム30の一部として位置付けてもよい。駆動ECU122は、AP操作量θap等を用いて車両10の駆動力制御を実行する。駆動力制御に際し、駆動ECU122は、エンジン120の制御を介して車両10の走行駆動力Fdを制御する。
The driving
制動力制御システム32は、ブレーキ機構130及び制動電子制御装置132(以下「制動ECU132」という。)を有する。上述のBPセンサ82及びブレーキペダル92を制動力制御システム32の一部として位置付けてもよい。ブレーキ機構130は、ブレーキモータ(又は油圧機構)等によりブレーキ部材を作動させる。
The braking
制動ECU132は、BP操作量θbp等を用いて車両10の制動力制御を実行する。制動力制御に際し、制動ECU132は、ブレーキ機構130等の制御を介して車両10の制動力Fbを制御する。
The braking
EPSシステム34は、EPSモータ140と、EPS電子制御装置142(以下「EPS−ECU142」という。)とを有する。上述の舵角センサ84、操舵トルクセンサ86及びステアリングハンドル94をEPSシステム34の一部として位置付けてもよい。
The
EPS−ECU142は、走行ECU36からの指令に応じてEPSモータ140を制御して、車両10の旋回量Rを制御する。旋回量Rには、舵角θst、横加速度Glat及びヨーレートYrが含まれる。
The EPS-
走行ECU36は、運転者による運転操作を要さずに目標地点Pgoalまで車両10を運転する自動運転制御を実行するものであり、例えば、中央処理装置(CPU)を含む。ECU36は、入出力部150、演算部152及び記憶部154を有する。
The traveling
なお、走行ECU36の機能の一部を車両10の外部に存在する外部機器に担わせることも可能である。例えば、車両10自体では、後述する行動計画部172及び/又は地図データベース190を有さず、上記経路案内サーバから予定経路Rv及び/又は地図情報Imapを取得する構成も可能である。
A part of the function of the traveling
入出力部150は、ECU36以外の機器(センサ群20、22、24、通信装置26等)との入出力を行う。入出力部150は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
The input /
演算部152は、各センサ群20、22、24、通信装置26、HMI28及び各ECU122、132、142等からの信号に基づいて演算を行う。そして、演算部152は、演算結果に基づき、通信装置26、駆動ECU122、制動ECU132及びEPS−ECU142に対する信号を生成する。
The
図1に示すように、走行ECU36の演算部152は、周辺認識部170と、行動計画部172と、走行制御部174とを有する。これらの各部は、記憶部154に記憶されているプログラムを実行することにより実現される。前記プログラムは、通信装置26を介して外部機器から供給されてもよい。前記プログラムの一部をハードウェア(回路部品)で構成することもできる。
As illustrated in FIG. 1, the
周辺認識部170は、車両周辺センサ群20からの車両周辺情報Icに基づいて、図4に示すように、道路200の境界202a及び202b(レーンマークやガードレール、斜面等)及び周辺障害物204(他車204a、204b、静止物体等)を認識する。例えば、道路200の境界202a及び202bは、画像情報Iimageに基づいて認識する。周辺認識部170は、認識した道路200の境界202a及び202bに基づいて車両10の走行レーン206を認識する。
Based on the vehicle periphery information Ic from the vehicle
また、周辺障害物204は、画像情報Iimage、レーダ情報Irader及び三次元情報Ilidarを用いて認識する。周辺障害物204には、他車(他車204a、204b等)等の移動物体と、建物、標識(例えば信号機)等の静止物体204cとが含まれる。周辺障害物204が信号機である場合、周辺認識部170は、信号機の色を判定する。
The peripheral obstacle 204 is recognized using the image information Iimage, the radar information Irader, and the three-dimensional information Ilidar. The peripheral obstacle 204 includes moving objects such as other vehicles (
行動計画部172は、HMI28を介して入力された目標地点Pgoalまでの自車10の予定経路Rvを算出し、予定経路Rvに沿った経路案内を行う。
The
走行制御部174は、車体挙動を制御する各アクチュエータの出力を制御する。ここにいうアクチュエータには、エンジン120、ブレーキ機構130及びEPSモータ140が含まれる。走行制御部174は、アクチュエータの出力を制御することで、車両10(特に車体)の挙動量(以下「車体挙動量Qb」という。)を制御することとなる。
The
ここにいう車体挙動量Qbには、車速V、前後加速度α[m/s/s]、前後減速度β[m/s/s]、舵角θst、横加速度Glat及びヨーレートYrが含まれる。加速度α及び減速度βは、車速Vの時間微分値として算出可能である。 The vehicle body behavior amount Qb mentioned here includes the vehicle speed V, the longitudinal acceleration α [m / s / s], the longitudinal deceleration β [m / s / s], the steering angle θst, the lateral acceleration Glat, and the yaw rate Yr. The acceleration α and the deceleration β can be calculated as time differential values of the vehicle speed V.
走行制御部174は、駆動力制御部180と、制動力制御部182と、旋回制御部184とを有する。駆動力制御部180は、主としてエンジン120の出力を制御することにより、車両10の走行駆動力Fd(又は加速度α)を制御する。制動力制御部182は、主としてブレーキ機構130の出力を制御することにより、車両10の制動力Fb(又は減速度β)を制御する。旋回制御部184は、主として、EPSモータ140の出力を制御することにより、車両10の旋回量R(又は舵角θst、横加速度Glat及びヨーレートYr)を制御する。
The
記憶部154は、演算部152が利用するプログラム及びデータ(地図データベース190を含む。)を記憶する。地図データベース190(以下「地図DB190」という。)には、道路地図の情報(地図情報Imap)が記憶される。地図情報Imapには、道路の形状等に関する道路情報Iroadが含まれる。
The
記憶部154は、例えば、ランダム・アクセス・メモリ(以下「RAM」という。)を備える。RAMとしては、レジスタ等の揮発性メモリと、フラッシュメモリ等の不揮発性メモリとを用いることができる。また、記憶部154は、RAMに加え、リード・オンリー・メモリ(以下「ROM」という。)を有してもよい。
The
上記のように、本実施の形態の走行ECU36は、自動運転制御を実行する。自動運転制御では、運転者による運転操作を要さずに目標地点Pgoalまで車両10を運転する。但し、自動運転制御では、運転者がアクセルペダル90、ブレーキペダル92又はステアリングハンドル94を操作した場合、当該操作を運転に反映してもよい。本実施の形態の自動運転制御では、自動駆動力制御と、自動制動力制御と、自動旋回制御を組み合わせて用いる。
As described above, the
自動駆動力制御は、車両10の走行駆動力Fdを自動的に制御する。自動制動力制御は、車両10の制動力Fbを自動的に制御する。自動旋回制御は、車両10の旋回量Rを自動的に制御する。ここにいう車両10の旋回は、カーブ路を走行する場合のみならず、車両10の右左折、走行レーンの変更、別レーンへの合流及び走行レーンの維持を含む。なお、走行レーンを維持するための旋回とは、車幅方向において車両10を基準位置(例えば車幅方向の中央)に維持するために旋回(又は操舵)することを意味する。
The automatic driving force control automatically controls the traveling driving force Fd of the
自動駆動力制御は、走行駆動力Fdを制御して車両10を走行させる。この際、ECU36は、走行駆動力Fdの目標値(例えば、目標エンジントルク)を設定し、この目標値に応じてアクチュエータ(エンジン120)を制御する。また、ECU36は、車両10の前後加速度αの上限値αmax(以下「加速度上限値αmax」ともいう。)を設定し、前後加速度αが加速度上限値αmaxを超えないように走行駆動力Fdを制御する。
In the automatic driving force control, the
自動制動力制御は、車両10の制動力Fbを制御して車両10を減速させる。この際、ECU36は、制動力Fbの目標値(例えば、目標前後減速度βtar)を設定し、この目標値に応じてアクチュエータ(ブレーキ機構130)を制御する。また、ECU36は、車両10の減速度βの上限値βmax(以下「減速度上限値βmax」ともいう。)を設定し、減速度βが減速度上限値βmaxを超えないように(急激に減速し過ぎないように)制動力Fbを制御する。
In the automatic braking force control, the
自動旋回制御は、車両10の旋回量Rを制御して車両10を旋回させる。この際、ECU36は、旋回量Rの目標値(例えば、目標舵角θsttar又は目標横加速度Glattar)を設定し、この目標値に応じてアクチュエータ(EPSモータ140)を制御する。また、ECU36は、車両10の旋回量Rの上限値Rmax(以下「旋回量上限値Rmax」ともいう。)を設定し、旋回量Rが旋回量上限値Rmaxを超えないように旋回量Rを制御する。旋回量上限値Rmaxは、例えば、舵角θstの上限値θstmax(以下「舵角上限値θstmax」ともいう。)又は横加速度Glatの上限値Glatmax(以下「横加速度上限値Glatmax」という。)の形で用いられる。
In the automatic turning control, the turning amount R of the
図2は、本実施の形態の自動運転制御の全体的な流れを示すフローチャートである。ステップS11において、走行ECU36は、自動運転を開始するか否かを判定する。例えば、ECU36は、自動運転スイッチ110(図1)がオフからオンに切り替えられたか否かを判定する。自動運転を開始する場合(S11:YES)、ステップS12に進む。自動運転を開始しない場合(S11:NO)、今回の処理を終え、所定時間の経過後にステップS11に戻る。
FIG. 2 is a flowchart showing an overall flow of the automatic operation control of the present embodiment. In step S11, the traveling
ステップS12において、ECU36は、目標地点Pgoalを設定する。具体的には、HMI28を介してユーザ(運転者等)から目標地点Pgoalの入力を受け付ける。ステップS13において、ECU36は、現在位置Pcurから目標地点Pgoalまでの予定経路Rvを算出する。なお、後述するステップS21の後にステップS13を行う場合、ECU36は、予定経路Rvを更新する。
In step S12, the
ステップS14において、ECU36は、各センサ群20、22、24から車両周辺情報Ic、車体挙動情報Ib及び運転操作情報Ioを取得する。上記のように、車両周辺情報Icには車外カメラ50からの画像情報Iimage、レーダ52からのレーダ情報Irader、LIDAR54からの三次元情報Ilidar、及びGPSセンサ56からの現在位置Pcurが含まれる。車体挙動情報Ibには、車速センサ60からの車速V、横加速度センサ62からの横加速度Glat及びヨーレートセンサ64からのヨーレートYrが含まれる。運転操作情報Ioには、APセンサ80からのAP操作量θap、BPセンサ82からのBP操作量θbp、舵角センサ84からの舵角θst及び操舵トルクセンサ86からの操舵トルクTstが含まれる。
In step S <b> 14, the
ステップS15において、ECU36は、各アクチュエータの出力上限値Pmaxを算出する。ここにいうアクチュエータには、エンジン120、ブレーキ機構130及びEPSモータ140が含まれる。
In step S15, the
また、エンジン120の出力Pengの上限値Pmax(以下「出力上限値Pengmax」ともいう。)とは、例えば、エンジン120のトルクの上限値とする。ブレーキ機構130の出力Pbの上限値Pmax(以下「出力上限値Pbmax」ともいう。)とは、例えば、制動力Fbの上限値である。EPSモータ140の出力Pepsの上限値Pmax(以下「出力上限値Pepsmax」ともいう。)とは、例えば、EPSモータ140のトルクの上限値とする。これらの出力上限値Pmax(Pengmax、Pbmax、Pepsmax)を用いることで、過度の出力を避けて乗員の乗り心地を高めること等が可能となる。
Further, the upper limit value Pmax of the output Peng of the engine 120 (hereinafter also referred to as “output upper limit value Pengmax”) is, for example, the upper limit value of the torque of the
出力上限値Pmaxは、車体挙動量Qbの上限値Qbmaxに基づいて算出される。本実施の形態のステップS15では、車速Vに応じて出力上限値Pmaxを切り替える制限制御を実行する。 The output upper limit value Pmax is calculated based on the upper limit value Qbmax of the vehicle body behavior amount Qb. In step S15 of the present embodiment, limit control for switching the output upper limit value Pmax according to the vehicle speed V is executed.
ステップS16において、ECU36は、後述する走行可能領域(図4の走行可能領域232等)を算出する。走行可能領域232は、現時点で車両10が走行可能な領域を示す。例えば、車両10の基準点(例えば車両10の重心、左右後輪を結ぶ線分の中央)を基準として、車両10と各周辺物体との距離が所定値以上となる領域を示す。
In step S16, the
走行可能領域232の算出に当たっては、車両10の周辺障害物(特に、前方障害物)(図4の他車204a、204b等)との関係も考慮される。周辺障害物との関係では、ECU36は、周辺監視制御を行う。周辺監視制御については、図3を参照して後述する。
In calculating the
なお、周辺認識部170が赤信号を認識した場合、信号機手前の停止線より先の領域は、走行可能領域232から除外することができる。或いは、走行可能領域232は、単に周辺障害物との関係(距離等)によって算出し、後述する目標走行軌跡Ltarの算出に際して、赤信号による走行制限を反映させてもよい。
When the
ステップS17において、ECU36は、目標走行軌跡Ltarを算出する。目標走行軌跡Ltarは、車両10の走行軌跡Lの目標値である。本実施の形態において、目標走行軌跡Ltarは、ステップS16で算出された走行可能領域232の中から種々の条件を満たす走行軌跡Lのうち最適のものが選択される。
In step S17, the
ステップS18において、ECU36は、目標走行軌跡Ltarに基づいて各アクチュエータの目標制御量(換言すると目標車体挙動量Qbtar)を算出する。目標車体挙動量Qbtarには、例えば、目標前後加速度αtar、目標前後減速度βtar及び目標横加速度Glattarが含まれる。
In step S18, the
ステップS19において、走行ECU36は、ステップS18で算出した目標制御量を用いて各アクチュエータ(換言すると車体挙動量Qb)を制御する。例えば、駆動力制御部180は、目標前後加速度αtarを実現するようにエンジン120(アクチュエータ)の目標出力Pengtar(例えば目標エンジントルク)を算出する。そして、駆動力制御部180は、当該目標出力Pengtarを実現するように駆動ECU122を介してエンジン120を制御する。
In step S19, the
また、制動力制御部182は、目標前後減速度βtarを実現するようにブレーキ機構130(アクチュエータ)の目標出力Pbtarを算出する。そして、制動力制御部182は、当該目標出力Pbtarを実現するように制動ECU132を介してブレーキ機構130を制御する。
Further, the braking
さらに、旋回制御部184は、目標横加速度Glattarを実現するように目標舵角θsttarを設定する。そして、旋回制御部184は、当該目標舵角θsttarを実現するようにEPS−ECU142を介してEPSモータ140(アクチュエータ)を制御する。なお、EPSモータ140による旋回に加え又はこれに代えて、左右の車輪のトルク差により車両10を旋回させること(いわゆるトルクベクタリング)も可能である。
Further, the turning
ステップS20において、ECU36は、目標地点Pgoal又は予定経路Rvを変更するか否かを判定する。目標地点Pgoalを変更する場合とは、HMI28の操作を通じて新たな目標地点Pgoalが入力された場合である。予定経路Rvを変更する場合とは、例えば、予定経路Rvにおいて渋滞が発生し、迂回路の設定を要する場合である。渋滞の発生は、例えば、通信装置26を介して前記交通情報サーバから取得した渋滞情報を用いて認識することが可能となる。
In step S20, the
目標地点Pgoal又は予定経路Rvを変更する場合(S20:YES)、ステップS13に戻り、新たな目標地点Pgoalに基づく予定経路Rvを算出する又は新たな予定経路Rvを算出する。目標地点Pgoal又は予定経路Rvを変更しない場合(S20:NO)、ステップS21に進む。 When the target point Pgoal or the planned route Rv is changed (S20: YES), the process returns to step S13, and the planned route Rv based on the new target point Pgoal is calculated or a new planned route Rv is calculated. When the target point Pgoal or the planned route Rv is not changed (S20: NO), the process proceeds to step S21.
ステップS21において、走行ECU36は、自動運転を終了するか否かを判定する。自動運転を終了するのは、例えば、車両10が目標地点Pgoalに到着した場合、又は自動運転スイッチ110がオンからオフに切り替えられた場合である。或いは、自動運転が困難な周辺環境になった場合、ECU36は、自動運転を終了する。
In step S21, the traveling
自動運転を終了しない場合(S21:NO)、ステップS13に戻り、ECU36は、現在位置Pcurに基づいて予定経路Rvを更新する。自動運転を終了する場合(S21:YES)、ステップS22に進む。
When the automatic operation is not terminated (S21: NO), the process returns to step S13, and the
ステップS22において、ECU36は、終了処理を実行する。具体的には、車両10が目標地点Pgoalに到着した場合、ECU36は、車両10が目標地点Pgoalに到着した旨を、HMI28を介して音声、表示等により運転者等に通知する。自動運転スイッチ110がオンからオフに切り替えられた場合、ECU36は、自動運転を終了する旨を、HMI28を介して音声、表示等により運転者等に通知する。自動運転が困難な周辺環境になった場合、ECU36は、その旨を、HMI28を介して音声、表示等により運転者等に通知する。
In step S22, the
上記のように、走行可能領域232の算出(図2のS16)に際し、ECU36は、周辺監視制御を実行する。以下、周辺監視制御について、図3〜図6を参照しながら説明する。
As described above, when calculating the travelable region 232 (S16 in FIG. 2), the
周辺監視制御は、周辺認識部170からの情報に基づいて、車両10の周辺(特に前方)に存在する周辺障害物(図4の他車204a等)との接触回避等を行う制御である。
The peripheral monitoring control is control for avoiding contact with a peripheral obstacle (such as the
周辺認識部170は、図3に示すように、測定点設定部210と、障害物特定部212と、領域設定部214、特徴量算出部216と、障害物トラッキング処理部218と、障害物位置予測部220と、領域予測部222とを有する。
As shown in FIG. 3, the
測定点設定部210は、単位時間毎に、車両周辺センサ群20からの検出出力に基づいて、走行ECU36上の仮想平面上に、複数の測定点を設定する。単位時間としては、車外カメラ50が1フレーム分の画像を撮像する時間や、LIDAR54のフレームレート等が挙げられる。
The measurement
例えば図4に示すように、自車10の進行方向に沿って並ぶ一方の複数の測定点230A1〜230Anは道路200の一方の境界202aを示す測定点であり、他方の複数の測定点230B1〜230Bnは道路200の他方の境界202bを示す測定点である。
For example, as shown in FIG. 4, a plurality of measurement points 230A 1 ~230A n on one arranged along the traveling direction of the
走行レーン206内に存在し、道路幅方向に並ぶ測定点は、自車10の前方に存在する周辺障害物204を示す測定点である。例えば他車204a及び204bについてそれぞれ測定点230C1〜230Cn及び230D1〜230Dnが設定される。
The measurement points that exist in the
測定点に関するデータ、すなわち、走行ECU36の仮想平面上の測定点の座標等は、座標テーブルとしてメモリに登録される。つまり、座標テーブルは、車両周辺センサ群20からの検出出力に基づいて、それぞれ少なくとも周辺障害物の存在を示す複数の測定点が展開された座標系を構成する。各測定点に関するデータは、少なくとも測定点の位置(自車10からの距離)を示す情報等も登録されている。これについては後述する。
Data on the measurement points, that is, the coordinates of the measurement points on the virtual plane of the
障害物特定部212は、道路幅方向に並ぶ複数の測定点のみに注目し、各周辺障害物204についてそれぞれ少なくとも2つの測定点を特定する。測定点230C1〜230Cn及び230D1〜230Dnのうち、それぞれ道路幅方向両端を示す端点(230C1、230Cn)及び(230D1、230Dn)が周辺障害物A1及びA2を示す測定点として特定される。
The
領域設定部214は、特定された周辺障害物204の測定点に基づいて、走行ECU36上の仮想平面上において、周辺障害物204が存在しない領域(以下、走行可能領域232と記す)を設定する。この場合、走行可能領域232として、端点(230C1、230Cn)を結ぶ線及び端点(230D1、230Dn)を結ぶ線をそれぞれ第1辺234a及び234bとする領域を設定する。
The
さらに、領域設定部214は、各第1辺234a及び234bの端部からセンサ(レーダ52、LIDAR54等)の法線方向に延びる第2辺236a及び236bを設定する。そして、周辺障害物204が存在しない領域、すなわち、走行可能領域232として、複数の第1辺234a及び234bと複数の第2辺236a及び236bとを含む多角形の領域を設定する。
Further, the
一方、特徴量算出部216は、今回検知した道路幅方向に並ぶ複数の測定点において、互いに隣り合う測定点の向き(角度)又は距離の少なくとも一方を今回特徴量として算出する。
On the other hand, the feature
例えば図5Aに示すように、隣り合う測定点230C1と測定点230C2並びに測定点230C2と測定点230C3を考えた場合、今回特徴量は、3つの測定点に対応して3つの今回特徴量F1〜F3が挙げられる。 For example, as shown in FIG. 5A, when considering the measurement point 230C 1 adjacent to the measurement point 230C 2 and the measurement point 230C 2 measurement points 230C 3, this characteristic quantity is three time corresponding to three measurement points Feature amounts F 1 to F 3 can be mentioned.
今回特徴量F1は、測定点230C1の位置(自車10からの距離)、測定点230C1から測定点230C2に延びる第1線分238aの向きd12、第1線分238aの長さL1、測定点230C1から測定点230C2と異なる測定点に線分が延びていないことを示す閉塞フラグ等が挙げられる。
The feature amount F 1 this time is the position of the measurement point 230C 1 (distance from the vehicle 10), the direction d12 of the
今回特徴量F2は、測定点230C2の位置(自車10からの距離)、測定点230C2から測定点230C1に延びる第1線分238aの向きd21、第1線分238aの長さL1、測定点230C2から測定点230C3に延びる第2線分238bの向きd23、第2線分238bの長さL2等が挙げられる。
The feature amount F 2 this time is the position of the measurement point 230C 2 (distance from the vehicle 10), the direction d21 of the
今回特徴量F3は、測定点230C3の位置(自車10からの距離)、測定点230C3から測定点230C2に延びる第2線分238bの向きd32、第2線分238bの長さL2、測定点230C3から測定点230C4(図示せず)に延びる第3線分238cの向き(図示せず)、第3線分238cの長さ(図示せず)等が挙げられる。以下同様である。
The feature amount F 3 this time is the position of the measurement point 230C 3 (distance from the vehicle 10), the direction d32 of the
そして、特徴量算出部216は、後述する周辺障害物204の障害物トラッキング処理が終了した段階で、今回特徴量を前回特徴量として登録し、今回特徴量を初期化する。
Then, the feature
障害物トラッキング処理部218は、今回特徴量が算出された段階で、今回特徴量と、前回特徴量とを網羅的に比較して、主に今回特徴量と前回特徴量とが同一とみなせる今回の測定点と前回の測定点とを検索し、対応付ける。なお、処理時間の短縮化を図るために、比較対象の今回の測定点と前回の測定点の距離が実測値で例えば2m以内の測定点を対象とすることが好ましい。これは、例えば単位時間を0.015秒(プログレッシブ方式の1フレーム時間)とし、車両10の時速が最大で200km/hを想定した距離範囲である。
The obstacle
そして、例えば図5Bに示すように、前回の測定点230C1、230C2及び230C3(それぞれ破線の丸で示す)、並びに今回の測定点230C1、230C2及び230C3(それぞれ実線の丸で示す)を想定したとき、測定点230C1の今回特徴量が230C1の前回特徴量にのみ同一とみなせる場合、障害物トラッキング処理部218は、今回の測定点230C1と前回の測定点230C1とを対応付ける。「同一とみなせる」とは、例えば線分(第1線分238a等)の向きが±5°以内、線分の長さの差が20mm以内等が挙げられる。
For example, as shown in FIG. 5B, the previous measurement points 230C 1 , 230C 2 and 230C 3 (represented by broken circles) and the current measurement points 230C 1 , 230C 2 and 230C 3 (respectively solid circles) When the current feature value of the measurement point 230C 1 can be regarded as the same only as the previous feature value of 230C 1 , the obstacle
同様に、図5Cに示すように、230C2の今回特徴量が測定点230C2の前回特徴量にのみ同一とみなせる場合、障害物トラッキング処理部218は、今回の測定点230C2と前回の測定点230C2とを対応付ける。同様に、図5Dに示すように、測定点230C3の今回特徴量が測定点230C3の前回特徴量にのみ同一とみなせる場合、障害物トラッキング処理部218は、今回の測定点230C3と前回の測定点230C3とを対応付ける。
Similarly, as shown in FIG. 5C, if the current characteristic of 230C 2 can be regarded as identical only the last feature quantity of the measurement point 230C 2, the obstacle
その結果、障害物トラッキング処理部218は、前回の測定点230C1〜230C3で特定される障害物が、単位時間後に、今回の測定点230C1〜230C3で特定される障害物として移動したものと推定する。さらに、障害物トラッキング処理部218は、単位時間毎に推定した速度の情報に基づいて、対応する周辺障害物204の加速度を推定する。なお、対応する周辺障害物204の速度がゼロであれば、当該対応する周辺障害物は、移動体ではなく、静止した障害物であると認定する。
As a result, the obstacle
一方、障害物位置予測部220は、道路幅方向に並ぶ少なくとも2つの測定点230に関する前回特徴量の位置情報と、今回特徴量の位置情報と、上述した単位時間とに基づいて、対応する周辺障害物204の速度、進行方向及び所定時間後の位置を予測する。所定時間としては、単位時間のほか、予め設定した時間(1秒、5秒等)が挙げられる。
On the other hand, the obstacle
領域予測部222は、障害物位置予測部220にて予測された道路幅方向に並ぶ少なくとも2つの測定点230の所定時間後の位置に基づいて、所定時間後の走行可能領域232を予測して予想走行可能領域232dとする。
The
ここで、周辺認識部170での処理動作並びに周辺監視制御について図6のフローチャートを参照しながら説明する。周辺認識部170は、単位時間毎に起動される。
Here, the processing operation and the periphery monitoring control in the
先ず、ステップS101において、測定点設定部210は、単位時間毎に、車両周辺センサ群20からの検出出力に基づいて、走行ECU36上の仮想平面上に、複数の測定点230を設定する。測定点230に関するデータ、すなわち、走行ECU36上の仮想平面上の座標等は、座標テーブルとしてメモリに登録される。
First, in step S101, the measurement
ステップS102において、障害物特定部212は、道路幅方向に並ぶ複数の測定点230のみに注目し、各周辺障害物204についてそれぞれ少なくとも2つの測定点を特定する。
In step S102, the
ステップS103において、領域設定部214は、特定された周辺障害物204の測定点230に基づいて、走行ECU36上の仮想平面上において、走行可能領域232を設定する。すなわち、領域設定部214は、対応する測定点230C1及び230Cnを結ぶ線、測定点230D1及び230Dnを結ぶ線をそれぞれ第1辺234a、234bとし、さらに、各第1辺234a、234bの端部からセンサ(レーダ52、LIDAR54等)の法線方向に延びる第2辺236a、236bを設定する。そして、領域設定部214は、複数の第1辺234a、234bと複数の第2辺236a、236bとを含む多角形の領域を、走行可能領域232として設定する。
In step S <b> 103, the
ステップS104において、特徴量算出部216は、今回検知した道路幅方向に並ぶ複数の測定点230において、互いに隣り合う測定点230の向き(角度)又は距離の少なくとも一方を今回特徴量として算出する。
In step S104, the feature
ステップS105において、障害物トラッキング処理部218は、前回のステップS104において、特徴量算出部216が算出した特徴量(前回特徴量)と、今回のステップS104において、特徴量算出部216が算出した特徴量(今回特徴量)とを網羅的に比較して、主に前回特徴量(線分の向きや線分の長さ)と今回特徴量(線分の向きや線分の長さ)とが同一とみなせる前回の測定点230と今回の測定点230とを探索し、対応付ける。すなわち、障害物トラッキング処理部218は、同一とみなせる前回の測定点230で特定される周辺障害物204と、単位時間後に、今回の測定点230で特定される周辺障害物204とが同一の障害物であるものとして対応付ける。
In step S105, the obstacle
ステップS106において、障害物トラッキング処理部218は、前回特徴量の測定点230の位置情報と、今回特徴量の位置情報と、単位時間とに基づいて、対応する周辺障害物204の速度を推定する。
In step S106, the obstacle
ステップS107において、障害物トラッキング処理部218は、単位時間毎に推定した速度の情報に基づいて、対応する周辺障害物204の加速度を推定する。
In step S107, the obstacle
ステップS108において、障害物位置予測部220は、道路幅方向に並ぶ少なくとも2つの測定点230に関する前回特徴量の位置情報と、今回特徴量の位置情報と、単位時間とに基づいて、対応する周辺障害物204の所定時間後の位置を予測する。
In step S108, the obstacle
ステップS109において、領域予測部222は、障害物位置予測部220にて予測された道路幅方向に並ぶ少なくとも2つの測定点230の所定時間後の位置に基づいて、所定時間後の走行可能領域232を予測する。
In step S <b> 109, the
ステップS110において、特徴量算出部216は、今回特徴量を前回特徴量として登録し、今回特徴量を初期化する。
In step S110, the feature
その後、単位時間毎に、周辺認識部170が起動されて、上述したステップS101〜S110の処理が繰り返される。
Then, the
なお、上述したように、図2のステップS17において、走行ECU36は、算出された走行可能領域232の中から種々の条件を満たす走行軌跡Lのうち最適のものを目標走行軌跡Ltarとして選択する。この選択にあたっては、推定した周辺障害物204の速度、加速度、並びに予測した周辺障害物204の所定時間後の位置、予測した所定時間後の走行可能領域232も考慮される。
As described above, in step S17 in FIG. 2, the
このように、本実施の形態に係る走行制御装置は、運転者の運転操作を要さずに走行可能な自動運転又は運転者の運転操作を補助する自動運転を制御する走行制御装置であって、自車10の走行前方に存在する物体(周辺障害物204)を検出するセンサ(車両周辺センサ群20)と、センサからの検出出力に基づいて、それぞれ少なくとも物体(周辺障害物204)の存在を示す複数の測定点230を求め、物体(周辺障害物204)の道路幅方向に並ぶ少なくとも2つの点(測定点230)を特定する物体特定部(障害物特定部212)と、少なくとも2つの点(測定点230)に基づいて、物体が存在しない領域(走行可能領域232)を設定する領域設定部214とを有する。
As described above, the travel control apparatus according to the present embodiment is a travel control apparatus that controls automatic driving capable of traveling without requiring a driver's driving operation or automatic driving that assists the driver's driving operation. The presence of at least an object (peripheral obstacle 204) based on a sensor (vehicle peripheral sensor group 20) that detects an object (peripheral obstacle 204) existing in front of the
これにより、自車10の移動可能な領域が明確になり、自車10の走行制御を余裕をもって行うことができる。また、少なくとも2つの測定点230に基づいて走行可能領域232を設定するため、周辺障害物204の輝度変化に影響されることなく、自車10の移動可能な領域を設定することができる。しかも、走行ECU36等による認識負荷が小さく、タイムラグの無い認識を行うことができる。
Thereby, the area | region which the
本実施の形態において、領域設定部214は、走行可能領域232として、少なくとも2つの測定点230に基づいた第1辺234a、234bを含む領域を設定する。
In the present embodiment,
これにより、走行可能領域232は、周辺障害物204の道路幅方向に並ぶ少なくとも2つの測定点230に基づいた第1辺234a、234bを含めばよいため、走行可能領域232を簡単に設定することができる。しかも、自車10を、第1辺234a、234bよりも前方に進行しないように制御すればよいため、走行ECU36での目標走行軌跡Ltarの算出も短時間で実施することが可能となる。
Accordingly, the travelable
この場合、領域設定部214は、第1辺234a、234bの端部からセンサの法線方向に延びる第2辺236a、236bを設定し、走行可能領域232として、第1辺234a、234bと第2辺236a、236bとを含む多角形の領域(走行可能領域232)を設定する。
In this case, the
これにより、第1辺234a、234bと第2辺236a、236bとを含む多角形の領域を設定するため、走行可能領域232として、第1辺234a、234bの後方の領域だけでなく、周辺障害物204と並走する領域も設定することが可能となり、自車10が走行することができる領域の選択の幅を広げることができる。
Accordingly, in order to set a polygonal region including the
また、本実施の形態は、前回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ前回の特徴量として算出し、今回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ今回の特徴量として算出するようにしている。そして、前回の特徴量と今回の特徴量とが同一とみなせる場合、前回の第1測定点及び第2測定点が、今回の第1測定点及び第2測定点に移動したものとみなすようにしている。 In the present embodiment, at least one of the angle or the distance between the first measurement point detected last time and the second measurement point adjacent to the first measurement point is calculated as the previous feature amount, and the first detection point detected this time is calculated. At least one of an angle or a distance between one measurement point and a second measurement point adjacent to the first measurement point is calculated as the current feature amount. If the previous feature value and the current feature value can be regarded as the same, the previous first measurement point and the second measurement point are considered to have moved to the current first measurement point and the second measurement point. ing.
これにより、周辺障害物204を特徴的に示す測定点に角度や距離を示す特徴量を持たせることで、刻々変わる周辺障害物204の移動方向や周辺障害物204の速度、加速度、周辺障害物204の位置等を容易に追跡することができる。その結果、例えば自動運転のための各種走行制御のうち、特に、先行車に対する追従制御、先行車に対する追い越し制御等を容易に実施することができる。 As a result, by providing the measurement points that characteristically indicate the peripheral obstacle 204 with feature quantities indicating the angle and distance, the moving direction of the peripheral obstacle 204 that changes momentarily, the speed, acceleration, and peripheral obstacles of the peripheral obstacle 204 are displayed. The position of 204 can be easily tracked. As a result, for example, among various types of traveling control for automatic driving, in particular, follow-up control for the preceding vehicle, overtaking control for the preceding vehicle, and the like can be easily performed.
本実施の形態は、前回検知した少なくとも2つの測定点230と、今回検知した少なくとも2つの測定点230とから、将来の周辺障害物204の位置を予測し、将来の周辺障害物204の道路幅方向に並ぶ少なくとも2つの測定点230に基づいて、将来の走行可能領域232を予測するようにしている。
In the present embodiment, the position of the future peripheral obstacle 204 is predicted from at least two measurement points 230 detected last time and the at least two measurement points 230 detected this time, and the road width of the future peripheral obstacle 204 is predicted. A future
これにより、将来の周辺障害物204の位置だけでなく、走行可能領域232そのものの将来の位置を求めることが可能となり、先行車に対する追従制御、先行車に対する追い越し制御等の精度を高めることができる。
As a result, it is possible to obtain not only the future position of the surrounding obstacle 204 but also the future position of the travelable
なお、この発明は、上述した実施の形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。 Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can be freely changed without departing from the gist of the present invention.
例えば領域設定部214にて設定された多角形状の走行可能領域232をフロントガラスに三次元的に表示してもよい。これにより、運転者は、前方のどの領域が走行可能領域232かを直感的に認識することが可能となる。
For example, the polygonal travelable
上記実施の形態の車両周辺センサ群20には、複数の車外カメラ50を含むが、複数の車外カメラ50に、車両10の前方を検出するステレオカメラが含まれてもよい。
Although the vehicle
上記実施の形態の車体挙動センサ群22には、車速センサ60、横加速度センサ62及びヨーレートセンサ64を含むが(図1参照)、これに限らない。例えば、横加速度センサ62及びヨーレートセンサ64のいずれか1つ又は複数を省略することも可能である。
The vehicle body
上記実施の形態の運転操作センサ群24には、APセンサ80、BPセンサ82、舵角センサ84及び操舵トルクセンサ86を含むが(図1参照)、これに限らない。例えば、APセンサ80、BPセンサ82、舵角センサ84及び操舵トルクセンサ86のいずれか1つ又は複数を省略することも可能である。
The driving
上記の実施の形態では、自動運転制御で対象となるアクチュエータとして、エンジン120、ブレーキ機構130及びEPSモータ140を用いたが(図1参照)、これに限らない。例えば、エンジン120、ブレーキ機構130及びEPSモータ140のいずれか1つ又は2つを自動運転制御の対象から外すことも可能である。いずれかのアクチュエータを自動運転制御の対象から外した場合、対象から外されたアクチュエータに関する制御は、運転者が行うこととなる。さらに、上記のように、EPSモータ140の代わりに、左右の車輪のトルク差を用いて旋回することも可能である。
In the above-described embodiment, the
上記の実施の形態では、車両10の加速、減速及び旋回のいずれについても運転者の運転操作を要さない自動運転について説明したが(図2参照)、これに限らない。例えば、車両10の加速、減速及び旋回のいずれか1つ又は2つについてのみ運転者の運転操作を要さない自動運転、又は運転者の運転操作を補助する自動運転に本発明を適用することも可能である。
In the above-described embodiment, the automatic driving that does not require the driver's driving operation for any of acceleration, deceleration, and turning of the
10…車両(自車) 20…車両周辺センサ群
36…走行ECU(ECU) 50…車外カメラ
52…レーダ 54…LIDAR
170…周辺認識部 172…行動計画部
174…走行制御部 200…道路
202a、202b…道路の境界 204…周辺障害物
204a、204b…他車 206…走行レーン
210…測定点設定部 212…障害物特定部
214…領域設定部 216…特徴量算出部
218…障害物トラッキング処理部 220…障害物位置予測部
222…領域予測部 230…測定点
232…走行可能領域 234a、234b…第1辺
236a、236b…第2辺 238a…第1線分
238b…第2線分 238c…第3線分
DESCRIPTION OF
DESCRIPTION OF
Claims (5)
自車の走行前方に存在する物体を検出するセンサと、
前記センサからの検出出力に基づいて、それぞれ少なくとも前記物体の存在を示す複数の測定点を求め、前記物体の道路幅方向に並ぶ少なくとも2つの測定点を特定する物体特定部と、
少なくとも前記2つの測定点に基づいて、前記物体が存在しない領域を設定する領域設定部とを有することを特徴とする走行制御装置。 A travel control device that controls automatic driving that can run without requiring driving operation of the driver or automatic driving that assists the driving operation of the driver,
A sensor for detecting an object existing in front of the vehicle,
An object specifying unit for determining a plurality of measurement points each indicating at least the presence of the object based on a detection output from the sensor, and specifying at least two measurement points arranged in a road width direction of the object;
And a region setting unit that sets a region where the object does not exist based on at least the two measurement points.
前記領域設定部は、前記物体が存在しない領域として、少なくとも前記2つの測定点に基づいた第1辺を含む領域を設定することを特徴とする走行制御装置。 The travel control device according to claim 1,
The region setting unit sets a region including at least a first side based on the two measurement points as a region where the object does not exist.
前記領域設定部は、前記第1辺の端部から前記センサの法線方向に延びる第2辺を設定し、前記物体が存在しない領域として、前記第1辺と前記第2辺とを含む多角形の領域を設定することを特徴とする走行制御装置。 The travel control device according to claim 2, wherein
The region setting unit sets a second side extending in the normal direction of the sensor from an end portion of the first side, and includes the first side and the second side as a region where the object does not exist. A travel control device that sets a rectangular region.
前回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ前回の特徴量として算出し、今回検知した第1測定点と該第1測定点に隣り合う第2測定点との角度又は距離の少なくとも一方をそれぞれ今回の特徴量として算出する特徴量算出部と、
前記前回の特徴量と前記今回の特徴量とが同一とみなせる場合、前回の前記第1測定点及び前記第2測定点が、今回の前記第1測定点及び前記第2測定点に移動したものとみなす物体トラッキング処理部とを有することを特徴とする走行制御装置。 The travel control device according to claim 1,
At least one of the angle or the distance between the first measurement point detected last time and the second measurement point adjacent to the first measurement point is calculated as the previous feature amount, and the first measurement point detected this time and the first measurement are calculated. A feature amount calculation unit that calculates at least one of an angle or a distance from a second measurement point adjacent to the point as a feature amount of this time;
When the previous feature value and the current feature value can be regarded as the same, the previous first measurement point and the second measurement point have moved to the current first measurement point and the second measurement point. An object tracking processing unit regarded as a traveling control device.
前回検知した少なくとも2つの測定点と、今回検知した少なくとも2つの測定点とから、将来の前記物体の位置を予測する物体位置予測部と、
将来の前記物体の道路幅方向に並ぶ少なくとも2つの測定点に基づいて、将来の前記物体が存在しない領域を予測する領域予測部とを有することを特徴とする走行制御装置。 The travel control device according to claim 1,
An object position prediction unit that predicts the position of the object in the future from at least two measurement points detected last time and at least two measurement points detected this time;
A travel control device comprising: a region prediction unit that predicts a region where the future object does not exist based on at least two measurement points arranged in the road width direction of the future object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016234482A JP2018092334A (en) | 2016-12-01 | 2016-12-01 | Travel control apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016234482A JP2018092334A (en) | 2016-12-01 | 2016-12-01 | Travel control apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018092334A true JP2018092334A (en) | 2018-06-14 |
Family
ID=62566114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016234482A Pending JP2018092334A (en) | 2016-12-01 | 2016-12-01 | Travel control apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018092334A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019220070A (en) * | 2018-06-22 | 2019-12-26 | 株式会社Soken | Electronic control unit |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0676065A (en) * | 1992-08-26 | 1994-03-18 | Hitachi Ltd | Method and device for recognizing road circumstances |
JP2005049963A (en) * | 2003-07-30 | 2005-02-24 | Olympus Corp | Safe movement support device |
JP2007163431A (en) * | 2005-12-16 | 2007-06-28 | Daihatsu Motor Co Ltd | Target recognition device of vehicle, and target recognition method |
JP2010134852A (en) * | 2008-12-08 | 2010-06-17 | Nikon Corp | Vehicle accident preventing system |
JP2011039968A (en) * | 2009-08-18 | 2011-02-24 | Mitsubishi Electric Corp | Vehicle movable space detection device |
JP2011123551A (en) * | 2009-12-08 | 2011-06-23 | Toyota Central R&D Labs Inc | Dead corner area estimating device and program |
JP2011248445A (en) * | 2010-05-24 | 2011-12-08 | Toyota Central R&D Labs Inc | Moving object prediction device and program |
JP2012099010A (en) * | 2010-11-04 | 2012-05-24 | Aisin Aw Co Ltd | Image processing apparatus and image processing program |
JP2012118909A (en) * | 2010-12-03 | 2012-06-21 | Nissan Motor Co Ltd | Travel support device |
JP2013196109A (en) * | 2012-03-16 | 2013-09-30 | Dainippon Printing Co Ltd | Individual identification device, individual identification method and program |
JP2015057688A (en) * | 2013-08-12 | 2015-03-26 | 株式会社日本自動車部品総合研究所 | Travel route generation apparatus |
-
2016
- 2016-12-01 JP JP2016234482A patent/JP2018092334A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0676065A (en) * | 1992-08-26 | 1994-03-18 | Hitachi Ltd | Method and device for recognizing road circumstances |
JP2005049963A (en) * | 2003-07-30 | 2005-02-24 | Olympus Corp | Safe movement support device |
JP2007163431A (en) * | 2005-12-16 | 2007-06-28 | Daihatsu Motor Co Ltd | Target recognition device of vehicle, and target recognition method |
JP2010134852A (en) * | 2008-12-08 | 2010-06-17 | Nikon Corp | Vehicle accident preventing system |
JP2011039968A (en) * | 2009-08-18 | 2011-02-24 | Mitsubishi Electric Corp | Vehicle movable space detection device |
JP2011123551A (en) * | 2009-12-08 | 2011-06-23 | Toyota Central R&D Labs Inc | Dead corner area estimating device and program |
JP2011248445A (en) * | 2010-05-24 | 2011-12-08 | Toyota Central R&D Labs Inc | Moving object prediction device and program |
JP2012099010A (en) * | 2010-11-04 | 2012-05-24 | Aisin Aw Co Ltd | Image processing apparatus and image processing program |
JP2012118909A (en) * | 2010-12-03 | 2012-06-21 | Nissan Motor Co Ltd | Travel support device |
JP2013196109A (en) * | 2012-03-16 | 2013-09-30 | Dainippon Printing Co Ltd | Individual identification device, individual identification method and program |
JP2015057688A (en) * | 2013-08-12 | 2015-03-26 | 株式会社日本自動車部品総合研究所 | Travel route generation apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019220070A (en) * | 2018-06-22 | 2019-12-26 | 株式会社Soken | Electronic control unit |
JP7085259B2 (en) | 2018-06-22 | 2022-06-16 | 株式会社Soken | Vehicle control unit |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107867289B (en) | Travel assist device and travel assist method | |
KR102138051B1 (en) | Drive assist apparatus | |
US11066073B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
US10967876B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
US9981658B2 (en) | Autonomous driving vehicle system | |
US9902399B2 (en) | Vehicle travelling control device for controlling a vehicle in traffic | |
RU2760046C1 (en) | Driving assistance and driving assistance device | |
JP6460579B2 (en) | Driving support control device | |
EP3088280A1 (en) | Autonomous driving vehicle system | |
US10421394B2 (en) | Driving assistance device, and storage medium | |
US20190217861A1 (en) | Travel control device and travel control method | |
JP6337435B2 (en) | Driving assistance device | |
JP6832164B2 (en) | Driving assistance device and driving assistance method | |
JP6623311B2 (en) | Control apparatus and control method | |
JP6007739B2 (en) | Driving support device and driving support method | |
JP7156988B2 (en) | Travel control device, travel control method, and program | |
JP7163729B2 (en) | vehicle controller | |
JP7293628B2 (en) | Driving support vehicle merging method and merging device | |
JP7156989B2 (en) | Travel control device, travel control method, and program | |
JP2007257519A (en) | Vehicular travel support device | |
JP2019159611A (en) | Vehicle control device, vehicle control method, and program | |
JP2021014180A (en) | Vehicle control device, vehicle control method and program | |
JP2018041379A (en) | Travel control device | |
JP7377822B2 (en) | Driving support method and driving support device | |
JP2021149319A (en) | Display control device, display control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200707 |