JP6965152B2 - Vehicle control devices, vehicle control methods, and programs - Google Patents
Vehicle control devices, vehicle control methods, and programs Download PDFInfo
- Publication number
- JP6965152B2 JP6965152B2 JP2017248942A JP2017248942A JP6965152B2 JP 6965152 B2 JP6965152 B2 JP 6965152B2 JP 2017248942 A JP2017248942 A JP 2017248942A JP 2017248942 A JP2017248942 A JP 2017248942A JP 6965152 B2 JP6965152 B2 JP 6965152B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- curve
- linear target
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims 1
- 230000009471 action Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
Description
本発明は、車両制御装置、車両制御方法、およびプログラム
に関する。
The present invention relates to vehicle control devices, vehicle control methods, and programs.
近年、車両の走行を自動的に制御すること(以下、自動運転)について研究および実用化が進められている。自動運転において、車両の走行すべき車線を認識することが、安定的な走行を実現する上で重要である。車線を認識するための有力な情報として、道路に描画された白線の位置情報がある。白線は、車載カメラなどで位置が検出される。白線の位置情報は、自動運転だけでなく、車線維持制御などの運転支援制御にも用いられる。白線がかすれて見えなくなると、これらの制御が困難になってしまう。 In recent years, research and practical application of automatic control of vehicle running (hereinafter referred to as automatic driving) have been promoted. In automatic driving, it is important to recognize the lane in which the vehicle should drive in order to realize stable driving. The position information of the white line drawn on the road is a powerful information for recognizing a lane. The position of the white line is detected by an in-vehicle camera or the like. The position information of the white line is used not only for automatic driving but also for driving support control such as lane keeping control. If the white lines are faint and invisible, these controls become difficult.
これに関連し、車載カメラで撮影された画像中の画素の輝度空間微分値を算出し、その極値を示す位置に基づいて、白線のエッジを抽出し、検出されたエッジの輝度値が近いものを白線候補としてまとめ、前記まとめられた白線候補を、それらの位置関係に基づいてグループ化し、左右別々に、1本の白線を検出することを特徴とする道路の白線検出方法の発明が知られている(特許文献1参照)。 In connection with this, the luminance space differential value of the pixel in the image taken by the in-vehicle camera is calculated, the edge of the white line is extracted based on the position showing the extreme value, and the luminance value of the detected edge is close. The invention of a road white line detection method is known, which comprises grouping things as white line candidates, grouping the summarized white line candidates based on their positional relationship, and detecting one white line separately on the left and right sides. (See Patent Document 1).
しかしながら、従来の技術では、ある程度、白線が残っている場合でなければ白線を検出することができない。また、前走車両や後続車両の存在によって白線が認識できない場合にも対応することができない。 However, in the conventional technique, the white line cannot be detected unless the white line remains to some extent. In addition, it is not possible to deal with the case where the white line cannot be recognized due to the presence of the preceding vehicle or the following vehicle.
本発明は、このような事情を考慮してなされたものであり、より広い場面において道路区画線ロスト時の代替制御を行うことができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a vehicle control device, a vehicle control method, and a program capable of performing alternative control when a road lane marking is lost in a wider situation. It is one of the purposes.
(1):車両の前方または後方を撮像する撮像部(10)と、前記撮像部により撮像された画像において、道路とは異なる高さに存在し、上空から見て前記道路に沿って延在する線状物標を認識する線状物標認識部(132)と、前記画像における前記線状物標の位置に基づいて、前記車両の走行を制御する運転制御部(150、160)と、を備える車両制御装置。 (1): In the image pickup unit (10) that images the front or the rear of the vehicle and the image captured by the image pickup unit, the image exists at a height different from the road and extends along the road when viewed from above. A linear target recognition unit (132) that recognizes the linear target, and an operation control unit (150, 160) that controls the running of the vehicle based on the position of the linear target in the image. Vehicle control device.
(2):(1)において、前記運転制御部は、前記画像における前記線状物標の傾きが一定になるように、前記車両の操舵を制御するもの。 (2): In (1), the operation control unit controls the steering of the vehicle so that the inclination of the linear target in the image becomes constant.
(3):(2)において、前記運転制御部は、前記車両の操舵角に対して、前記画像における前記線状物標の傾きを一定に維持するフィードバック制御を行うもの。 (3): In (2), the driving control unit performs feedback control for maintaining a constant inclination of the linear target in the image with respect to the steering angle of the vehicle.
(4):(1)から(3)のうちいずれかにおいて、前記撮像部は、前記車両の前方を撮像し、前記線状物標認識部により認識された線状物標の延在態様に基づいて、前記車両の進行先に存在するカーブの存在を推定するカーブ推定部(134)を更に備えるもの
。
(4): In any one of (1) to (3), the imaging unit images the front of the vehicle, and the linear object is recognized by the linear object recognition unit in an extending mode. Based on this, a curve estimation unit (134) for estimating the existence of a curve existing at the destination of the vehicle is further provided.
(5):(4)において、前記カーブ推定部は、更に、前記車両の進行先に存在するカーブの曲率を推定し、前記運転制御部は、前記カーブ推定部により推定されたカーブの曲率に基づいて前記車両の操舵を制御するもの。 (5): In (4), the curve estimation unit further estimates the curvature of the curve existing at the destination of the vehicle, and the driving control unit determines the curvature of the curve estimated by the curve estimation unit. It controls the steering of the vehicle based on the above.
(6):(1)から(5)のうちいずれかにおいて、前記線状物標は、前記撮像部よりも上方に設置された物体であるもの。 (6): In any one of (1) to (5), the linear target is an object installed above the imaging unit.
(7):(6)において、前記線状物標は、道路の側壁の上端部であるもの。 (7): In (6), the linear target is the upper end of the side wall of the road.
(8):撮像部が、車両の前方または後方を撮像し、線状物標認識部が、前記撮像部により撮像された画像において、道路とは異なる高さに存在し、平面視で前記道路に沿って延在する線状物標を認識し、運転制御部が、前記画像における前記線状物標の位置に基づいて、前記車両の少なくとも操舵を制御する、車両制御方法。 (8): The image pickup unit images the front or the rear of the vehicle, and the linear object recognition unit exists at a height different from the road in the image captured by the image pickup unit, and the road is viewed in a plan view. A vehicle control method in which a driving control unit controls at least steering of the vehicle based on the position of the linear target in the image by recognizing a linear target extending along the line.
(9):車両の前方または後方を撮像する撮像部を備える車両に搭載されるコンピュータに、前記撮像部により撮像された画像において、道路とは異なる高さに存在し、平面視で前記道路に沿って延在する線状物標を認識させ、前記画像における前記線状物標の位置に基づいて、前記車両の少なくとも操舵を制御させる、プログラム。 (9): A computer mounted on a vehicle equipped with an imaging unit that captures an image of the front or rear of the vehicle exists at a height different from that of the road in an image captured by the imaging unit, and is located on the road in a plan view. A program that recognizes a linear target extending along a line and controls at least steering of the vehicle based on the position of the linear target in the image.
(1)〜(9)によれば、より広い場面において道路区画線ロスト時の代替制御を行うことができる。 According to (1) to (9), alternative control at the time of lost road lane marking can be performed in a wider scene.
以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the vehicle control device, vehicle control method, and program of the present invention will be described with reference to the drawings.
<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<First Embodiment>
[overall structure]
FIG. 1 is a configuration diagram of a
車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220と、ヘッドライト装置250とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
The
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。後方を撮像する場合、カメラ10は、例えば、リアバンパー付近に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
The
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
The
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。ファインダ14は、物体検出装置の一例である。 The finder 14 is a LIDAR (Light Detection and Ranging). The finder 14 irradiates the periphery of the own vehicle M with light and measures the scattered light. The finder 14 detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. One or a plurality of finder 14s may be attached to any position of the own vehicle M. The finder 14 is an example of an object detection device.
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。
The
通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
The
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
The
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
The
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。
The
MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
The
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
The
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
The driving
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。自動運転制御装置100は、車両制御装置の一例である。
The automatic
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部150とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現される。これによって、自動運転の信頼性が担保される。
FIG. 2 is a functional configuration diagram of the
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mの周辺状況を認識する。例えば、認識部130は、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。認識部130は、カメラ10の撮像画像に基づいて、自車両Mがこれから通過するカーブの形状を認識する。認識部130は、カーブの形状をカメラ10の撮像画像から実平面に変換し、例えば、二次元の点列情報、或いはこれと同等なモデルを用いて表現した情報を、カーブの形状を示す情報として行動計画生成部150に出力する。
The
認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
The
認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。
When recognizing the traveling lane, the
認識部130は、上記の認識処理において、認識精度を導出し、認識精度情報として行動計画生成部150に出力してもよい。例えば、認識部130は、一定期間において、道路区画線を認識できた頻度に基づいて、認識精度情報を生成する。
In the above recognition process, the
認識部130は、例えば、線状物標認識部132と、カーブ推定部134とを備える。これらについては後述する。
The
行動計画生成部150は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。行動計画生成部150は、起動したイベントに応じて、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、複数の軌道点と、速度要素とを含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
In principle, the action
行動計画生成部150は、例えば、区画線ロスト時制御部152を備える。これについては後述する。
The action
第2制御部160は、行動計画生成部150によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。行動計画生成部150と第2制御部160を合わせたものが、「運転制御部」の一例である。
The
第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部150により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
The
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
The traveling driving
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
The brake device 210 includes, for example, a brake caliper, a cylinder that transmits flood pressure to the brake caliper, an electric motor that generates flood pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
The
[区画線ロスト時制御]
以下、認識部130の線状物標認識部132と、行動計画生成部150の区画線ロスト時制御部152とにより実行される処理の内容について説明する。
[Control when lane marking is lost]
Hereinafter, the contents of the processing executed by the linear
前述したように、認識部130は、主にカメラ10により撮像された画像における道路区画線の位置に基づいて走行車線を認識する。図3は、カメラ10の撮像画像IMの一例を示す図である。本図は、自車両Mが高速道路を走行している場面を示している。図示する撮像画像IMには、自車両Mの走行している車線L1を区画する道路区画線LM1およびLM2、隣接車線L2を区画する道路区画線LM2およびLM3、ガードレールGR、側壁SWなどが写っている。これらの画像要素は、直線状ないし曲線状となっており、且つ輪郭部分における周辺画像とのコントラスト(輝度差)が大きいため、画像認識によって比較的容易に位置が認識可能なものである。例えば、水平エッジ(横方向の隣接画素とのコントラストが大きい画素)を連ねることで道路区画線の輪郭を認識することができ、垂直エッジ(縦方向の隣接画素とのコントラストが大きい画素)を連ねることでガードレールの上端UE(GR)、および側壁の上端UE(SW)を認識することができる。原則的に、認識部130は、道路区画線のうち撮像画像IMにおける所定範囲内にあるものを、自車線を区画する道路区画線とみなし、それらで区画される領域を走行車線として認識する。
As described above, the
そして、行動計画生成部150は、原則的に走行車線を逸脱しないように目標軌道を生成する(車線変更や分岐、合流の場合は、途中で走行車線が切り替わる)。このため、沿う車線が認識できていることは、自動運転の制御において重要な要素となる。
Then, the action
ここで、認識部130は、常時、鮮明に道路区画線を認識できるとは限らない。例えば、白線や黄線で道路に描画されたタイプの道路区画線は、経年劣化でかすれを生じる場合がある。また、道路工事中であったり、料金所の周辺であるといった事情で、道路区画線が無い道路も存在し得る。更に、自車両Mの周辺に存在する他車両などによって道路区画線がカメラ10によって撮像できない場面も生じ得る。以下、このような各種場面を「区画線ロスト時」と称する。区画線ロスト時においても、自車両Mは道路に沿って走行する必要があるため、何らかの代替処理が行われることが好ましい。
Here, the
こうした事情に鑑み、線状物標認識部132は、道路とは異なる高さに存在し、上空から見て前記道路に沿って延在する線状物標を認識する。図3の例では、ガードレールの上端UE(GR)、および側壁の上端UE(SW)が線状物標に該当する。また、線状物標とカメラ10の間に他車両などが入り込むと認識が困難になるため、線状物標は、カメラ10よりも上方に設置された物体であることが好ましい。これに該当するのは、例えば、側壁SWの上端部UE(SW)である。以下、線状物標認識部132は、側壁SWの上端部UE(SW)の撮像画像IM上の位置を認識するものとして説明する。
In view of these circumstances, the linear
線状物標認識部132は、例えば、側壁SWの上端部UE(SW)を構成する複数の画素の位置を認識する。そして、線状物標認識部132は、複数の画素の位置を直線に近似し、画像平面における直線として認識する。これに対して、区画線ロスト時制御部152は、直線の傾きを一定にするように、自車両Mの操舵角をフィードバック制御する。
The linear
図4は、自車両Mの旋回角と側壁SWの上端部UE(SW)の傾きとの関係を示す図である。図示するように、自車両Mが左方向に旋回すると、側壁SWの上端部UE(SW)の画像の横方向に対する傾きは大きくなり(急峻になり)、自車両Mが右方向に旋回すると、側壁SWの上端部UE(SW)の画像の横方向に対する傾きは小さくなる(なだらかになる)。これを利用して、区画線ロスト時制御部152は、式(1)で示すようなフィードバック制御を行う。式中、θは操舵角であり、Δθは操舵角変更量であり、φは、例えば画像における基準方向に対して側壁SWの上端部UE(SW)がなす角度であり、φ0は、区画線ロスト時の初期時点における上記なす角度である。また、KPは比例ゲイン、KIは積分ゲイン、KDは微分ゲインである。式(1)ではPID制御の例を示したが、区画線ロスト時制御部152は、P制御、PI制御、或いはこれに類する任意のフィードバック制御を行ってよい。
FIG. 4 is a diagram showing the relationship between the turning angle of the own vehicle M and the inclination of the upper end UE (SW) of the side wall SW. As shown in the figure, when the own vehicle M turns to the left, the inclination of the image of the upper end UE (SW) of the side wall SW with respect to the lateral direction becomes large (steep), and when the own vehicle M turns to the right, The inclination of the upper end UE (SW) of the side wall SW with respect to the lateral direction becomes small (becomes gentle). Utilizing this, the lane marking lost
Δθ=KP・(φ−φ0)+KI・∫(φ−φ0)・dt+KD・{d(φ−φ0)/dt} …(1) Δθ = KP ・ (φ−φ 0 ) + KI ・ ∫ (φ−φ 0 ) ・ dt + KD ・ {d (φ−φ 0 ) / dt}… (1)
図5は、線状物標認識部132と区画線ロスト時制御部152とにより実行される処理の流れの一例を示すフローチャートである。
FIG. 5 is a flowchart showing an example of the flow of processing executed by the linear
まず、線状物標認識部132は、認識部130が道路区画線をロストした(認識できなくなった)か否かを判定する(ステップS100)。認識部130が道路区画線をロストした場合、線状物標認識部132は、線状物標を認識し、撮像画像IMに対する傾きをメモリに保存する(ステップS102)。この傾きは、前述したφ0として扱われる。
First, the linear
次に、区画線ロスト時制御部152は、自車両Mの操舵角θを、線状物標の画像に対してなす角度φをφ0に近づけるようにフィードバック制御する(ステップS104)。ステップS104の処理は、認識部130により道路区画線が再度認識されるまで実行される(ステップS106)。
Next, the lane marking lost
[カーブ推定]
以下、認識部130の線状物標認識部132およびカーブ推定部134と、行動計画生成部150の区画線ロスト時制御部152とにより実行される処理の内容について説明する。
[Curve estimation]
Hereinafter, the contents of the processing executed by the linear
カーブ推定部134は、線状物標認識部132により認識された線状物標の位置に基づいて、自車両Mの前方に存在するカーブを推定する。図6は、自車両Mの前方に存在するカーブと側壁SWの上端部UE(SW)の関係を示す図である。図示するように、自車両Mの前方に右カーブが存在する場合、側壁SWの上端部UE(SW)は、下に凸形状の曲線となり、且つ自車両Mの前方にカーブが存在しない場合に比して画像の横方向に対する傾きが小さくなる(なだらかになる)。また、自車両Mの前方に左カーブが存在する場合、側壁SWの上端部UE(SW)は、上に凸形状の曲線となり、且つ自車両Mの前方にカーブが存在しない場合に比して画像の横方向に対する傾きが大きくなる(急峻になる)。
The
カーブ推定部134は、線状物標認識部132により認識された線状物標を構成する画素の配列を、三次曲線などの曲線に近似し、曲線のパラメータに基づいて、カーブの開始地点や曲率などを推定する。例えば、カーブ推定部134は、予め用意されたマップにパラメータを当てはめることで、カーブの開始地点や曲率などを推定する。
The
区画線ロスト時制御部152は、自車両Mがカーブ推定部134により推定されたカーブの開始地点に到達し、且つその時点で認識部130が道路区画線をロストしている場合、カーブ推定部134により推定されたカーブの曲率に基づく操舵角θの制御を行う。
When the own vehicle M reaches the start point of the curve estimated by the
例えば、区画線ロスト時制御部152は、フィードフォワード操舵角θffを、式(2)に基づいて導出する。式中、Cはカーブの曲率である。
θff=f(C) …(2)
For example, the lane marking lost
θ ff = f (C)… (2)
また、区画線ロスト時制御部152は、側壁SWの上端部UE(SW)の画像端部における高さ位置(図6におけるh)に基づいて、フィードバック操舵角θfbを求めてもよい。フィードバック操舵角θfbは、式(3)で表される。
Δθfb=KP・(h−h0)+KI・∫(h−h0)・dt+KD・{d(h−h0)/dt} …(3)
Further, the division line lost control unit 152 may obtain the feedback steering angle θ fb based on the height position (h in FIG. 6) of the upper end UE (SW) of the side wall SW at the image end. The feedback steering angle θ fb is expressed by the equation (3).
Δθ fb = KP · (h−h 0 ) + KI · ∫ (h−h 0 ) · dt + KD · {d (h−h 0 ) / dt}… (3)
そして、区画線ロスト時制御部152は、式(4)に示すように、フィードフォワード操舵角θffとフィードバック操舵角θfbとの加重和を求めることで、自車両Mの操舵角θを決定してよい。例えば、α+β=1である。
θ=α×θff+β×θfb …(4)
Then, as shown in the equation (4), the lane marking lost
θ = α × θ ff + β × θ fb … (4)
図7は、線状物標認識部132とカーブ推定部134と区画線ロスト時制御部152とにより実行される処理の流れの一例を示すフローチャートである。図7のフローチャートの処理は、図5のフローチャートの処理と並行して実行されてもよいし、図5と図7のフローチャートの処理のうち、いずれか一方のみが実行されてもよい。
FIG. 7 is a flowchart showing an example of a processing flow executed by the linear
まず、線状物標認識部132が、線状物標を認識する(ステップS200)。次に、カーブ推定部134が、線状物標の延在態様が変化したか否かを判定する(ステップS202)。カーブ推定部134は、図6で説明したように、線状物標の傾きや曲りの方向および程度に基づいて、線状物標の延在態様が変化したか否かを判定する。
First, the linear
線状物標の延在態様が変化したと判定した場合、カーブ推定部134は、カーブの存在、開始地点、曲率などを推定し、それらの情報をメモリに保存する(ステップS204)。次に、区画線ロスト時制御部152は、認識部130が道路区画線をロストした(認識できなくなった)か否かを判定する(ステップS206)。認識部130が道路区画線をロストしていない場合、ステップS200に処理が戻される。
When it is determined that the extension mode of the linear target has changed, the
認識部130が道路区画線をロストした場合、区画線ロスト時制御部152は、メモリ保存された曲率に基づいてフィードフォワード操舵角を求め(ステップS208)、自車両Mがカーブ開始地点に到達するまで待機する(ステップS210)。自車両Mがカーブ開始地点に到達すると、区画線ロスト時制御部152は、前述したようにフィードフォワードおよびフィードバックによって自車両Mの操舵角を制御する(ステップS212)。ステップS212の処理は、認識部130により道路区画線が再度認識されるまで実行される(ステップS214)。なお、ステップS208、S210を実行中に、認識部130により道路区画線が再度認識された場合も、このフローチャートの処理を抜けるようにしてよい。
When the
以上説明した第1実施形態の車両制御装置によれば、車両の前方または後方を撮像する撮像部(10)と、撮像部により撮像された画像において、道路とは異なる高さに存在し、上空から見て前記道路に沿って延在する線状物標を認識する線状物標認識部(132)と、画像における状物標の位置に基づいて、前記車両の走行を制御する運転制御部(150、160)と、を備えることにより、より広い場面において道路区画線ロスト時の代替制御を行うことができる。 According to the vehicle control device of the first embodiment described above, the image pickup unit (10) that images the front or the rear of the vehicle and the image captured by the image pickup unit are present at different heights from the road and are in the sky. A linear target recognition unit (132) that recognizes a linear target extending along the road when viewed from the side, and an operation control unit that controls the running of the vehicle based on the position of the linear target in the image. By providing (150, 160), alternative control at the time of lost road lane marking can be performed in a wider scene.
図4の説明において、カメラ10は自車両Mの前方を撮像することを前提として説明したが、カメラ10は自車両Mの後方を撮像するものであってもよい。その場合、旋回角と傾きの関係は図4で説明したものとは異なる関係を示す。なお、カーブ推定は、カメラ10が自車両Mの前方を撮像していなければ困難である。
In the description of FIG. 4, the
<第2実施形態>
第2実施形態では、車両制御装置が車線維持制御などの運転支援を行う運転支援装置に適用された例について説明する。運転支援装置は、例えば、第1実施形態のような自動運転車両ではなく、主に手動運転が行われる車両に搭載されてもよいし、自動運転と、手動運転プラス運転支援とが選択的に行われる車両に搭載されてもよい。
<Second Embodiment>
In the second embodiment, an example in which the vehicle control device is applied to a driving support device that provides driving support such as lane keeping control will be described. The driving support device may be mounted on a vehicle in which manual driving is mainly performed, instead of the automatic driving vehicle as in the first embodiment, and automatic driving and manual driving plus driving support are selectively selected. It may be mounted on the vehicle to be performed.
図8は、第2実施形態に係る運転支援装置400の構成図である。運転支援装置400は、例えば、車線維持制御部420と、線状物標認識部432と、カーブ推定部434と、区画線ロスト時制御部452とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
FIG. 8 is a configuration diagram of the driving
車線維持制御部420は、第1実施形態に係る認識部130と同様に道路区画線や走行車線を認識し、自車両Mが走行車線を逸脱しないように、ステアリング反力をステアリングホイールに付与したり、逸脱方向と逆方向に操舵角を制御したりする。
The lane
線状物標認識部432、カーブ推定部434、および区画線ロスト時制御部452は、それぞれ、第1実施形態に係る線状物標認識部132、カーブ推定部134、および区画線ロスト時制御部152と同様の機能を有する。これによって、第2実施形態の運転支援装置400は、第1実施形態と同様に、車線維持制御部420が道路区画線をロストした場合に、線状物標の位置に基づいて代替的に車線を維持するための制御を行う。なお、運転支援は手動運転を前提としているため、一定時間、代替的に車線を維持するための制御を行うと、乗員に通知の上、運転支援を停止するようにしてもよい。
The linear
以上説明した第2実施形態によれば、第1実施形態と同様の効果を奏することができる。 According to the second embodiment described above, the same effect as that of the first embodiment can be obtained.
<ハードウェア構成>
図9は、第1実施形態の自動運転制御装置100または第2実施形態の運転支援装置400(以下、自動運転制御装置100等)のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100等は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100等以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、認識部130および行動計画生成部150のうち一方または双方、或いは線状物標認識部432、カーブ推定部434、および区画線ロスト時制御部452のうち一部または全部が実現される。
<Hardware configuration>
FIG. 9 is a diagram showing an example of the hardware configuration of the automatic
上記説明した実施形態は、以下のように表現することができる。
車両の前方または後方を撮像する撮像部と、
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記プログラムを実行することにより、
前記撮像部により撮像された画像において、道路とは異なる高さに存在し、上空から見て前記道路に沿って延在する線状物標を認識し、
前記画像における前記線状物標の位置に基づいて、前記車両の走行を制御する、
ように構成されている、車両制御装置。
The embodiment described above can be expressed as follows.
An imaging unit that captures the front or rear of the vehicle,
A storage device that stores programs and
With a hardware processor,
When the hardware processor executes the program,
In the image captured by the imaging unit, a linear target existing at a height different from the road and extending along the road when viewed from above is recognized.
Controlling the running of the vehicle based on the position of the linear target in the image.
A vehicle control device that is configured to.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
10 カメラ
12 レーダ装置
14 ファインダ
16 物体認識装置
50 ナビゲーション装置
60 MPU
80 運転操作子
100 自動運転制御装置
120 第1制御部
130 認識部
132 線状物標認識部
134 カーブ推定部
150 行動計画生成部
152 区画線ロスト時制御部
160 第2制御部
162 取得部
164 速度制御部
166 操舵制御部
200 走行駆動力出力装置
210 ブレーキ装置
220 ステアリング装置
400 運転支援装置
420 車線維持制御部
432 線状物標認識部
434 カーブ推定部
452 区画線ロスト時制御部
10
80
Claims (5)
前記車両周辺の状況を認識する周辺状況認識部と、
前記撮像部により撮像された画像において、道路とは異なる高さに存在する物標であって上空から見て前記道路に沿って延在する線状物標を認識する線状物標認識部と、
前記画像における前記線状物標の位置に基づいて、前記車両の走行を制御する運転制御部と、
前記線状物標認識部により認識された線状物標の延在態様に基づいて、前記車両の進行先に存在するカーブおよびその曲率を推定するカーブ推定部と、
を備え、
前記運転制御部は、前記車両の操舵角に対して、前記画像における前記線状物標の傾きを一定に維持するフィードバック制御を行うとともに、
前記運転制御部は、前記車両が推定された前記カーブの開始地点に到達し、且つその時点において前記周辺状況認識部が道路区画線を認識していない場合、前記カーブ推定部により推定されたカーブの曲率に基づいて前記車両の操舵角を制御する、
車両制御装置。 An imaging unit that captures the front or rear of the vehicle,
A peripheral situational awareness unit that recognizes the situation around the vehicle and
In the image captured by the imaging unit, a linear target recognizing unit that recognizes a linear target that exists at a height different from the road and extends along the road when viewed from above. ,
A driving control unit that controls the running of the vehicle based on the position of the linear target in the image.
A curve estimation unit that estimates a curve existing at the destination of the vehicle and its curvature based on the extension mode of the linear target recognized by the linear target recognition unit, and a curve estimation unit.
With
The operation control unit may, with respect to the steering angle of the vehicle, performs feedback control for maintaining the inclination of the linear target object in the image to be constant,
When the vehicle reaches the estimated start point of the curve and the peripheral situational awareness unit does not recognize the road marking line at that time, the operation control unit determines the curve estimated by the curve estimation unit. Control the steering angle of the vehicle based on the curvature of
Vehicle control device.
請求項1に記載の車両制御装置。 The linear target is an object installed above the imaging unit.
The vehicle control device according to claim 1.
請求項2に記載の車両制御装置。 The linear marker is the upper end of the side wall of the road.
The vehicle control device according to claim 2.
周辺状況認識部が、前記車両周辺の状況を認識し、
線状物標認識部が、前記撮像部により撮像された画像において、道路とは異なる高さに存在する物標であって上空から見て前記道路に沿って延在する線状物標を認識し、
運転制御部が、前記画像における前記線状物標の位置に基づいて、前記車両の走行を制御し、
カーブ推定部が、前記線状物標認識部により認識された線状物標の延在態様に基づいて、前記車両の進行先に存在するカーブおよびその曲率を推定する、
車両制御方法であって、
前記運転制御部が、前記車両の操舵角に対して、前記画像における前記線状物標の傾きを一定に維持するフィードバック制御を行うとともに、
前記運転制御部が、前記車両が推定された前記カーブの開始地点に到達し、且つその時点において前記周辺状況認識部が道路区画線を認識していない場合、前記カーブ推定部により推定されたカーブの曲率に基づいて前記車両の操舵角を制御する、
車両制御方法。 The imaging unit captures the front or rear of the vehicle.
The surrounding situation awareness unit recognizes the situation around the vehicle and
In the image captured by the imaging unit, the linear target recognition unit recognizes a linear target that exists at a height different from that of the road and extends along the road when viewed from above. death,
Operation control unit, based on the position of the linear target object in the image, and controls the traveling of the vehicle,
The curve estimation unit estimates the curve existing at the destination of the vehicle and its curvature based on the extension mode of the linear target recognized by the linear target recognition unit.
It ’s a vehicle control method.
The operation control unit, with respect to the steering angle of the vehicle, performs feedback control for maintaining the inclination of the linear target object in the image to be constant,
When the driving control unit reaches the starting point of the estimated curve and the surrounding situational awareness unit does not recognize the road marking line at that time, the curve estimated by the curve estimation unit. Control the steering angle of the vehicle based on the curvature of
Vehicle control method.
前記撮像部により撮像された画像において、道路とは異なる高さに存在する物標であって上空から見て前記道路に沿って延在する線状物標を認識させ、
前記画像における前記線状物標の位置に基づいて、前記車両の走行制御を実行させ、
認識された前記線状物標の延在態様に基づいて、前記車両の進行先に存在するカーブおよびその曲率を推定させる、
プログラムであって、
前記走行制御では、前記車両の操舵角に対して、前記画像における前記線状物標の傾きを一定に維持するフィードバック制御を行わせるとともに、
前記車両が推定された前記カーブの開始地点に到達し、且つその時点において前記周辺状況認識部が道路区画線を認識していない場合、前記カーブ推定部により推定されたカーブの曲率に基づいて前記車両の操舵角を制御する、
プログラム。 A computer mounted on a vehicle including an imaging unit that captures an image of the front or rear of the vehicle and a vehicle situational awareness unit that recognizes the situation around the vehicle.
In the image captured by the imaging unit, a linear target that exists at a height different from that of the road and extends along the road when viewed from above is recognized.
Based on the position of the linear target in the image, the traveling control of the vehicle is executed.
Based on the recognized extension mode of the linear target, the curve existing at the destination of the vehicle and its curvature are estimated.
It ’s a program
Wherein the travel control, with respect to the steering angle of the vehicle, along with to perform feedback control for maintaining the inclination of the linear target object in the image to be constant,
When the vehicle reaches the estimated start point of the curve and the surrounding situational awareness unit does not recognize the road marking line at that time, the vehicle is said to be based on the curvature of the curve estimated by the curve estimation unit. Control the steering angle of the vehicle,
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248942A JP6965152B2 (en) | 2017-12-26 | 2017-12-26 | Vehicle control devices, vehicle control methods, and programs |
CN201811587645.4A CN109987082B (en) | 2017-12-26 | 2018-12-24 | Vehicle control device, vehicle control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248942A JP6965152B2 (en) | 2017-12-26 | 2017-12-26 | Vehicle control devices, vehicle control methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019112007A JP2019112007A (en) | 2019-07-11 |
JP6965152B2 true JP6965152B2 (en) | 2021-11-10 |
Family
ID=67129154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017248942A Active JP6965152B2 (en) | 2017-12-26 | 2017-12-26 | Vehicle control devices, vehicle control methods, and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6965152B2 (en) |
CN (1) | CN109987082B (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11352010B2 (en) * | 2019-09-30 | 2022-06-07 | Baidu Usa Llc | Obstacle perception calibration system for autonomous driving vehicles |
JP7325296B2 (en) | 2019-10-25 | 2023-08-14 | 日産自動車株式会社 | Object recognition method and object recognition system |
JP7304379B2 (en) * | 2021-03-30 | 2023-07-06 | 本田技研工業株式会社 | DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE METHOD, AND PROGRAM |
CN115000469B (en) * | 2022-07-11 | 2022-11-08 | 佛山市清极能源科技有限公司 | Power control method of fuel cell system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07125563A (en) * | 1993-11-01 | 1995-05-16 | Mitsubishi Motors Corp | Travel controller of automobile |
JP5007840B2 (en) * | 2009-05-22 | 2012-08-22 | トヨタ自動車株式会社 | Driving assistance device |
CN202271993U (en) * | 2011-07-29 | 2012-06-13 | 富士重工业株式会社 | Vehicle drive-assistant device |
JP2014019262A (en) * | 2012-07-17 | 2014-02-03 | Fuji Heavy Ind Ltd | Vehicular drive support device |
JP6456761B2 (en) * | 2015-04-21 | 2019-01-23 | 本田技研工業株式会社 | Road environment recognition device, vehicle control device, and vehicle control method |
JP2017220056A (en) * | 2016-06-08 | 2017-12-14 | 株式会社デンソー | Information processing device |
-
2017
- 2017-12-26 JP JP2017248942A patent/JP6965152B2/en active Active
-
2018
- 2018-12-24 CN CN201811587645.4A patent/CN109987082B/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019112007A (en) | 2019-07-11 |
CN109987082B (en) | 2022-09-09 |
CN109987082A (en) | 2019-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109484404B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7071173B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP6782370B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7101001B2 (en) | Vehicle controls, vehicle control methods, and programs | |
JP6859239B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
CN109835344B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6965152B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP7071250B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP6827026B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP7345349B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7000202B2 (en) | Vehicle control systems, vehicle control methods, and programs | |
JP2020147139A (en) | Vehicle control device, vehicle control method, and program | |
JP2021068015A (en) | Vehicle control device, vehicle control method, and program | |
US20190286137A1 (en) | Vehicle control device, vehicle control method and storage medium | |
JP6894354B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JPWO2019167247A1 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP2021160399A (en) | Vehicle control device, vehicle control method, and program | |
JP7080091B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP6648384B2 (en) | Vehicle control device, vehicle control method, and program | |
JP2021068014A (en) | Vehicle controller, vehicle control method and program | |
JP6839642B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP2023111162A (en) | Movable body control device, movable body control method, and program | |
JP7028838B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
JP7166988B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM | |
JP2021149464A (en) | Vehicle control apparatus, vehicle control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6965152 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |