JP2021160532A - 車両制御装置、車両制御方法、及びプログラム - Google Patents

車両制御装置、車両制御方法、及びプログラム Download PDF

Info

Publication number
JP2021160532A
JP2021160532A JP2020063515A JP2020063515A JP2021160532A JP 2021160532 A JP2021160532 A JP 2021160532A JP 2020063515 A JP2020063515 A JP 2020063515A JP 2020063515 A JP2020063515 A JP 2020063515A JP 2021160532 A JP2021160532 A JP 2021160532A
Authority
JP
Japan
Prior art keywords
vehicle
environment
difficulty level
target
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020063515A
Other languages
English (en)
Other versions
JP7369078B2 (ja
Inventor
裕司 安井
Yuji Yasui
翼 芝内
Tsubasa Shibauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020063515A priority Critical patent/JP7369078B2/ja
Priority to US17/210,565 priority patent/US20210300414A1/en
Priority to CN202110337089.0A priority patent/CN113460080A/zh
Publication of JP2021160532A publication Critical patent/JP2021160532A/ja
Application granted granted Critical
Publication of JP7369078B2 publication Critical patent/JP7369078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

【課題】車両の周辺の環境を認識する際の難易度に応じて、車両の運転をスムーズに制御すること。
【解決手段】実施形態の車両制御装置は、車両の周辺の環境を認識する認識部と、前記認識部によって認識された前記環境に基づいて、前記環境の認識の難易度を決定する決定部と、前記認識部によって認識された前記環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定部によって決定された前記難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択する生成部と、前記生成部によって選択された前記目標軌道に基づいて、前記車両の運転を自動的に制御する運転制御部と、を備える。
【選択図】図2

Description

本発明は、車両制御装置、車両制御方法、及びプログラムに関する。
自車両の周辺の移動体と自車両との相対位置と、運転者の運転操作との対応関係を定めた複数のモデルの中から、歩行者の進行方向等に応じて、いずれか一つのモデルを選択する技術が知られている(例えば、特許文献1参照)。
国際公開第2013/042260号
しかしながら、従来の技術では、車両の周辺の環境を認識する際の難易度に応じて、車両の運転をスムーズに制御することについて検討されていなかった。
本発明の一態様は、このような事情を考慮してなされたものであり、車両の周辺の環境を認識する際の難易度に応じて、車両の運転をスムーズに制御することができる車両制御装置、車両制御方法、及びプログラムを提供することを目的の一つとする。
本発明に係る車両制御装置、車両制御方法、及びプログラムは以下の構成を採用した。
本発明の第1の態様は、車両の周辺の環境を認識する認識部と、前記認識部によって認識された前記環境に基づいて、前記環境の認識の難易度を決定する決定部と、前記認識部によって認識された前記環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定部によって決定された前記難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択する生成部と、前記生成部によって選択された前記目標軌道に基づいて、前記車両の運転を自動的に制御する運転制御部と、を備える車両制御装置である。
第2の態様は、第1の態様において、前記認識部によって前記環境の一部として認識された物体の周囲に分布するリスクの領域を算出する算出部を更に備え、前記生成部は、前記領域が入力されると前記目標軌道を出力する複数のモデルの其々に対して前記算出部によって算出された前記領域を入力し、前記領域を入力した前記複数のモデルの其々の出力結果に基づいて、前記複数の目標軌道を生成するものである。
第3の態様は、第2の態様において、前記複数のモデルには、ルールベース又はモデルベースの第1モデルと、機械学習ベースの第2モデルとが含まれるものである。
第4の態様は、第3の態様において、前記生成部は、前記難易度が所定値を超える場合、前記第1モデルによって出力された前記目標軌道である第1目標軌道と、前記第2モデルによって出力された前記目標軌道である第2目標軌道とのうち、前記第2目標軌道を選択するものである。
第5の態様は、第1から第4の態様のうちいずれか一つにおいて、前記車両の周囲をセンシングするセンサを更に備え、前記認識部は、ある対象車両の周囲のセンシング結果が入力されると、前記対象車両の周辺の環境を表す情報を出力するように学習された機械学習ベースの第3モデルに対して、前記センサによるセンシング結果を入力し、前記センシング結果を入力した前記第3モデルの出力結果に基づいて、前記車両の周辺の環境を認識するものである。
第6の態様は、第5の態様において、前記決定部は、前記第3モデルの学習量に応じて、前記難易度を決定するものである。
第7の態様は、第6の態様において、前記第3モデルは、ある第1環境下における前記対象車両の周囲のセンシング結果が入力されると、前記対象車両の周辺の環境が前記第1環境であることを表す情報を出力するように学習され、前記第1環境と異なる第2環境下における前記対象車両の周囲のセンシング結果が入力されると、前記対象車両の周辺の環境が前記第2環境であることを表す情報を出力するように学習され、前記決定部は、前記認識部によって前記第1環境が認識された場合、前記第1環境下において学習された前記第3モデルの学習量に応じて前記難易度を決定し、前記認識部によって前記第2環境が認識された場合、前記第2環境下において学習された前記第3モデルの学習量に応じて前記難易度を決定するものである。
第8の態様は、第6又は第7の態様において、前記決定部は、前記第3モデルの学習量が多いほど前記難易度を低くし、前記第3モデルの学習量が少ないほど前記難易度を高くするものである。
第9の態様は、第1から第8の態様のうちいずれか一つにおいて、前記決定部は、前記認識部によって前記環境の一部として認識された移動体の数に応じて、前記難易度を決定するものである。
第10の態様は、第9の態様において、前記決定部は、前記移動体の数が少ないほど前記難易度を低くし、前記移動体の数が多いほど前記難易度を高くするものである。
第11の態様は、第1から第10の態様のうちいずれか一つにおいて、前記決定部は、前記認識部によって前記環境の一部として認識された道路の曲率に応じて、前記難易度を決定するものである。
第12の態様は、第11の態様において、前記決定部は、前記道路の曲率が小さいほど前記難易度を低くし、前記道路の曲率が大きいほど前記難易度を高くするものである。
第13の態様は、第1から第12の態様のうちいずれか一つにおいて、前記決定部は、前記認識部によって前記環境の一部として認識された複数の移動体の平均速度と、前記車両の速度との相対的な速度差に応じて、前記難易度を決定するものである。
第14の態様は、第13の態様において、前記決定部は、前記速度差が小さいほど前記難易度を低くし、前記速度差が大きいほど前記難易度を高くするものである。
第15の態様は、第1から第14の態様のうちいずれか一つにおいて、前記決定部は、前記車両の速度に応じて、前記難易度を決定するものである。
第16の態様は、第15の態様において、前記決定部は、前記速度が大きいほど前記難易度を低くし、前記速度が小さいほど前記難易度を高くするものである。
第17の態様は、第1から第16の態様のうちいずれか一つにおいて、前記決定部は、前記認識部によって前記環境の一部として認識された移動体と前記車両との相対距離及び相対速度に基づいて、前記車両が緊急状態か否かを判定し、前記生成部は、前記決定部によって前記車両が緊急状態であると判定された場合、前記難易度に依らずに、前記第1目標軌道を選択し、前記運転制御部は、前記生成部によって選択された前記第1目標軌道に基づいて、前記移動体を回避するように、前記車両の運転を制御するものである。
第18の態様は、車両に搭載されたコンピュータが、前記車両の周辺の環境を認識し、前記認識した環境に基づいて、前記環境の認識の難易度を決定し、前記認識した環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定した難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択し、前記選択した目標軌道に基づいて、前記車両の運転を自動的に制御する車両制御方法である。
第19の態様は、車両に搭載されたコンピュータに、前記車両の周辺の環境を認識すること、前記認識した環境に基づいて、前記環境の認識の難易度を決定すること、前記認識した環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定した難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択すること、前記選択した目標軌道に基づいて、前記車両の運転を自動的に制御すること、を実行させるためのプログラムである。
上記のいずれかの態様によれば、車両の周辺の環境を認識する際の難易度に応じて、車両の運転をスムーズに制御することができる
第1実施形態に係る車両制御装置を利用した車両システムの構成図である。 第1実施形態に係る第1制御部、第2制御部、及び記憶部の機能構成図である。 リスク領域を説明するための図である。 ある座標x1におけるY方向のリスクポテンシャルの変化を表す図である。 ある座標x2におけるY方向のリスクポテンシャルの変化を表す図である。 ある座標x3におけるY方向のリスクポテンシャルの変化を表す図である。 ある座標y4におけるX方向のリスクポテンシャルの変化を表す図である。 リスクポテンシャルが決定されたリスク領域を表す図である。 目標軌道の生成方法を模式的に表す図である。 ある一つのDNNモデルが出力した目標軌道の一例を表す図である。 第1実施形態に係る自動運転制御装置による一連の処理の流れの一例を示すフローチャートである。 学習量データの一例を表す図である。 第1時刻における場面の一例を表す図である。 第2時刻における場面の一例を表す図である。 自車両が遭遇し得る場面の一例を表す図である。 自車両が遭遇し得る場面の他の例を表す図である。 実施形態の自動運転制御装置のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、及びプログラムの実施形態について説明する。実施形態の車両制御装置は、例えば、自動運転車両に適用される。自動運転とは、例えば、車両の速度または操舵のうち、一方または双方を制御して車両の運転を制御することである。上述した車両の運転制御には、例えば、ACC(Adaptive Cruise Control System)やTJP(Traffic Jam Pilot)、ALC(Auto Lane Changing)、CMBS(Collision Mitigation Brake System)、LKAS(Lane Keeping Assistance System)といった種々の運転制御が含まれる。自動運転車両は、乗員(運転者)の手動運転によって運転が制御されてもよい。
<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両(以下、自車両Mと称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。図1に示す構成はあくまでも一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。自動運転制御装置100は、「車両制御装置」の一例である。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、自車両Mの任意の箇所に取り付けられる。例えば、自車両Mの前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。また、自車両Mの後方を撮像する場合、カメラ10は、リアウィンドシールド上部等に取り付けられる。また、自車両Mの右側方または左側方を撮像する場合、カメラ10は、車体やドアミラーの右側面または左側面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。カメラ10は「センサ」の一例である。
レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。レーダ装置12は「センサ」の他の例である。
LIDAR14は、自車両Mの周辺に光を照射し、その照射した光の散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザ光であってよい。LIDAR14は、自車両Mの任意の箇所に取り付けられる。LIDAR14は「センサ」の他の例である。
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。この場合、車両システム1から物体認識装置16が省略されてもよい。
通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、自車両Mの周辺に存在する他車両と通信したり、或いは無線基地局を介して各種サーバ装置と通信したりする。
HMI30は、自車両Mの乗員(運転者を含む)に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、例えば、ディスプレイ、スピーカ、ブザー、タッチパネル、マイクロフォン、スイッチ、キー等を備えてもよい。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。
GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。
ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。例えば、乗員は、HMI30に対して、自車両Mの目的地を入力することに代えて、或いは加えて、ナビHMI52に対して、自車両Mの目的地を入力してもよい。
経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、HM30やナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。
第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。地図上経路は、MPU60に出力される。
ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、記憶部180とを備える。第1制御部120及び第2制御部160のそれぞれは、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。
記憶部180は、上記の各種記憶装置により実現される。記憶部180は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部180には、例えば、プロセッサによって読み出されて実行されるプログラムに加えて、環境認識モデルデータ182や、軌道生成モデルデータ184、学習量データ186などが格納される。環境認識モデルデータ182や軌道生成モデルデータ184、学習量データ186の詳細については後述する。
図2は、第1実施形態に係る第1制御部120、第2制御部160、及び記憶部180の機能構成図である。第1制御部120は、例えば、認識部130と、難易度決定部135と、行動計画生成部140とを備える。
第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、記憶部180から環境認識モデルデータ182を読み出し、そのデータによって定義されたモデルを用いて、自車両Mの周辺の環境を認識する。
環境認識モデルデータ182は、環境を認識するために利用される環境認識モデルMDL1を定義した情報(プログラムまたはデータ構造)である。環境認識モデルMDL1は、カメラ10、レーダ装置12、LIDAR14といった種々のセンサのセンシング結果が直接的に入力される、又は物体認識装置16を介して間接的に入力されると、物体の種類や状態などを環境の一部として出力するように学習されたDNN(Deep Neural Network(s))である。具体的には、環境認識モデルMDL1は、CNN(Convolutional Neural Network)や、RNN(Reccurent Neural Network)、或いはこれらの組合せであってよい。環境認識モデルMDL1は、「第3モデル」の一例である。
環境認識モデルデータ182には、例えば、DNNを構成する複数の層のそれぞれに含まれるユニットが互いにどのように結合されるのかという結合情報や、結合されたユニット間で入出力されるデータに付与される結合係数などの各種情報が含まれる。
結合情報とは、例えば、各層に含まれるユニット数や、各ユニットの結合先のユニットの種類を指定する情報、各ユニットの活性化関数、隠れ層のユニット間に設けられたゲートなどの情報を含む。活性化関数は、例えば、正規化線形関数(ReLU関数)であってもよいし、シグモイド関数や、ステップ関数、その他の関数などであってもよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ユニット間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、例えば、ニューラルネットワークの隠れ層において、ある層のユニットから、より深い層のユニットにデータが出力される際に、出力データに対して付与される重み係数を含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。
環境認識モデルMDL1は、例えば、教師データに基づいて十分に学習される。教師データは、例えば、ある対象車両に取り付けられたセンサのセンシング結果に対して、その対象車両の周辺に存在する物体の種類及び状態が教師ラベル(ターゲットともいう)として対応付けられたデータセットである。対象車両は、自車両Mであってもよいし、自車両M以外の他の車両であってもよい。すなわち、教師データは、入力データであるセンサのセンシング結果と、出力データである物体の種類及び状態とを組み合わせたデータセットである。
環境認識モデルMDL1によって出力される物体の種類には、例えば、自転車、オートバイク、四輪自動車、歩行者、道路標識、道路標示、区画線、電柱、ガードレール、落下物などが含まれる。環境認識モデルMDL1によって出力される物体の状態には、位置、速度、加速度、ジャークなどが含まれる。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした相対座標上の位置(すなわち自車両Mに対する相対位置)であってよい。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。
例えば、認識部130は、カメラ10の画像を環境認識モデルMDL1に入力することで、その環境認識モデルMDL1が自車両Mの周辺の道路区画線の位置及びパターンの種類を出力したとする。この場合、認識部130は、環境認識モデルMDL1によって出力された道路区画線のパターン(例えば実線と破線の配列)と、第2地図情報62から得られる道路区画線のパターンとを比較し、道路区画線の間の空間を自車線や隣接車線として認識する。
また、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレール等を含む走路境界(道路境界)を認識することで、自車線や隣接車線などを認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識してよい。
認識部130は、自車線を認識する際に、自車線に対する自車両Mの相対位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、自車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、自車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、自車線に対する自車両Mの相対位置として認識してもよい。
難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境に基づいて、環境を認識する際の難易度(以下、環境認識難易度と称する)を決定する。環境認識難易度の具体的な決定方法について後述する。
行動計画生成部140は、例えば、イベント決定部142と、リスク領域算出部144と、目標軌道生成部146とを備える。
イベント決定部142は、推奨車線が決定された経路において自車両Mが自動運転下にある場合、その自動運転の走行態様を決定する。以下、自動運転の走行態様を規定した情報をイベントと称して説明する。
イベントには、例えば、定速走行イベント、追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどが含まれる。定速走行イベントは、自車両Mを一定の速度で同じ車線を走行させる走行態様である。追従走行イベントは、自車線上において自車両Mの前方の所定距離以内(例えば100[m]以内)に存在し、自車両Mに最も近い他車両(以下、先行車両と称する)に自車両Mを追従させる走行態様である。
「追従する」とは、例えば、自車両Mと先行車両との車間距離(相対距離)を一定に維持させる走行態様であってもよいし、自車両Mと先行車両との車間距離を一定に維持させることに加えて、自車両Mを自車線の中央で走行させる走行態様であってもよい。
車線変更イベントは、自車両Mを自車線から隣接車線へと車線変更させる走行態様である。分岐イベントは、道路の分岐地点で自車両Mを目的地側の車線に分岐させる走行態様である。合流イベントは、合流地点で自車両Mを本線に合流させる走行態様である。テイクオーバーイベントは、自動運転を終了して手動運転に切り替える走行態様である。
また、イベントには、例えば、追い越しイベントや、回避イベントなどが含まれてもよい。追い越しイベントは、自車両Mを一旦隣接車線に車線変更させて先行車両を隣接車線において追い越してから再び元の車線へと車線変更させる走行態様である。回避イベントは、自車両Mの前方に存在する障害物を回避するために自車両Mに制動および操舵の少なくとも一方を行わせる走行態様である。
また、イベント決定部142は、例えば、自車両Mの走行時に認識部130により認識された周辺の状況に応じて、現在の区間に対して既に決定したイベントを他のイベントに変更したり、現在の区間に対して新たなイベントを決定したりしてよい。
リスク領域算出部144は、認識部130によって環境の一部として認識された物体の周囲に潜在的に分布する、或いは潜在的に存在するリスクの領域(以下、リスク領域RAと称する)を算出する。リスクは、例えば、物体が自車両Mに対して及ぼすリスクである。より具体的には、リスクは、先行車両が急減速したり、隣接車線から他車両が自車両Mの前方に割り込んだりしたために、自車両Mに急な制動を強いるようなリスクであってもよいし、歩行者や自転車が車道に進入したために、自車両Mに急な転舵を強いるようなリスクであってもよい。また、リスクは、自車両Mが物体に及ぼすリスクであってもよい。以下、このようなリスクの高さを定量的な指標値として扱うものとし、その指標値を「リスクポテンシャルp」と称して説明する。
図3は、リスク領域RAを説明するための図である。図中LN1は、自車線を区画する一方の区画線を表し、LN2は、自車線を区画する他方の区画線であり、且つ隣接車線を区画する一方の区画線を表している。LN3は、隣接車線を区画する他方の区画線を表している。これら複数の区画線のうち、LN1及びLN3は車道外側線であり、LN2は追い越しのために車両がはみ出すことが許容された中央線である。また、図示の例では、自車線上の自車両Mの前方に先行車両m1が存在している。図中Xは車両の進行方向を表し、Yは車両の幅方向を表し、Zは鉛直方向を表している。
図示の状況の場合、リスク領域算出部144は、リスク領域RAの中で、車道外側線LN1及びLN3に近い領域ほどリスクポテンシャルpを高くし、車道外側線LN1及びLN3から遠い領域ほどリスクポテンシャルpを低くする。
また、リスク領域算出部144は、リスク領域RAの中で、中央線LN2に近い領域ほどリスクポテンシャルpを高くし、中央線LN2から遠い領域ほどリスクポテンシャルpを低くする。中央線LN2は、車道外側線LN1及びLN3と異なり、車両がはみ出すことが許容されているため、リスク領域算出部144は、中央線LN2に対するリスクポテンシャルpを、車道外側線LN1及びLN3に対するリスクポテンシャルpよりも低くする。
また、リスク領域算出部144は、リスク領域RAの中で、物体の一種である先行車両m1に近い領域ほどリスクポテンシャルpを高くし、先行車両m1から遠い領域ほどリスクポテンシャルpを低くする。すなわち、リスク領域算出部144は、リスク領域RAの中で、自車両Mと先行車両m1との相対距離が短いほどリスクポテンシャルpを高くし、自車両Mと先行車両m1との相対距離が長いほどリスクポテンシャルpを低くしてよい。この際、リスク領域算出部144は、先行車両m1の絶対速度や絶対加速度が大きいほどリスクポテンシャルpを高くしてよい。また、リスクポテンシャルpは、先行車両m1の絶対速度や絶対加速度に代えて、或いは加えて、自車両Mと先行車両m1との相対速度や相対加速度、TTC(Time to Collision)等に応じて適宜決定されてもよい。
図4は、ある座標x1におけるY方向のリスクポテンシャルpの変化を表す図である。図中y1は、Y方向に関する車道外側線LN1の位置(座標)を表し、y2は、Y方向に関する中央線LN2の位置(座標)を表し、y3は、Y方向に関する車道外側線LN3の位置(座標)を表している。
図示のように、車道外側線LN1が存在する座標(x1,y1)の付近や、車道外側線LN3が存在する座標(x1,y3)の付近では、リスクポテンシャルpが最も高くなり、中央線LN2が存在する座標(x1,y2)の付近では、リスクポテンシャルpが座標(x1,y1)や(x1,y3)の次に高くなる。後述するように、リスクポテンシャルpが、予め決められた閾値Thと同じかそれ以上の領域では、その領域に車両が進入することを防ぐため、目標軌道TRが生成されない。
図5は、ある座標x2におけるY方向のリスクポテンシャルpの変化を表す図である。座標x2は、座標x1よりも先行車両m1に近い。そのため、車道外側線LN1が存在する座標(x2,y1)と、中央線LN2が存在する座標(x2,y2)との間の領域には先行車両m1が存在していないものの、先行車両m1が急減速するなどのリスクが考慮される。その結果、(x2,y1)と(x2,y2)との間の領域のリスクポテンシャルpは、(x1,y1)と(x1,y2)との間の領域のリスクポテンシャルpよりも高くなりやすく、例えば閾値Th以上となる。
図6は、ある座標x3におけるY方向のリスクポテンシャルpの変化を表す図である。座標x3には、先行車両m1が存在している。そのため、車道外側線LN1が存在する座標(x3,y1)と、中央線LN2が存在する座標(x3,y2)との間の領域のリスクポテンシャルpは、(x2,y1)と(x2,y2)との間の領域のリスクポテンシャルpよりも高く、且つ閾値Th以上となる。
図7は、ある座標y4におけるX方向のリスクポテンシャルpの変化を表す図である。座標y4はy1とy2との中間座標であり、その座標y4には先行車両m1が存在している。そのため、座標(x3,y4)におけるリスクポテンシャルpは最も高くなり、座標(x3,y4)よりも先行車両m1から遠い座標(x2,y4)におけるリスクポテンシャルpは、座標(x3,y4)におけるリスクポテンシャルpよりも低くなり、座標(x2,y4)よりも更に先行車両m1から遠い座標(x1,y4)におけるリスクポテンシャルpは、座標(x2,y4)におけるリスクポテンシャルpよりも低くなる。
図8は、リスクポテンシャルpが決定されたリスク領域RAを表す図である。図示のように、リスク領域算出部144は、リスク領域RAを複数のメッシュ(グリッドともいう)で区画し、それら複数のメッシュのそれぞれに対してリスクポテンシャルpを対応付ける。例えば、メッシュ(x,y)には、リスクポテンシャルpijが対応付けられる。すなわち、リスク領域RAは、ベクトルやテンソルといったデータ構造で表される。
リスク領域算出部144は、複数のメッシュに対してリスクポテンシャルpを対応付けると、各メッシュのリスクポテンシャルpを正規化する。
例えば、リスク領域算出部144は、リスクポテンシャルpの最大値が1となり最小値が0となるようにリスクポテンシャルpを正規化してよい。具体的には、リスク領域算出部144は、リスク領域RAに含まれる全メッシュのリスクポテンシャルpの中から、最大値をとるリスクポテンシャルpmaxと、最小値をとるリスクポテンシャルpminとを選択する。リスク領域算出部144は、リスク領域RAに含まれる全メッシュの中から、ある着目する一つのメッシュ(x,y)を選び出し、そのメッシュ(x,y)に対応付けられたリスクポテンシャルpijから最小のリスクポテンシャルpminを減算するとともに、最大のリスクポテンシャルpmaxから最小のリスクポテンシャルpminを減算し、(pij−pmin)を(pmax−pmin)で除算する。リスク領域算出部144は、着目するメッシュを変えながら、上記処理を繰り返す。これによって、リスク領域RAは、リスクポテンシャルpの最大値が1となり最小値が0となるように正規化される。
また、リスク領域算出部144は、リスク領域RAに含まれる全メッシュのリスクポテンシャルpの平均値μと標準偏差σとを算出し、メッシュ(x,y)に対応付けられたリスクポテンシャルpijから平均値μを減算し、(pij−μ)を標準偏差σで除算してもよい。これによって、リスク領域RAは、リスクポテンシャルpの最大値が1となり最小値が0となるように正規化される。
また、リスク領域算出部144は、リスクポテンシャルpの最大値が任意のMとなり最小値が任意のmとなるようにリスクポテンシャルpを正規化してよい。具体的には、リスク領域算出部144は、(pij−pmin)/(pmax−pmin)をAとした場合、そのAに対して(M−m)を乗算し、A(M−m)にmを加算する。これによって、リスク領域RAは、リスクポテンシャルpの最大値がMとなり最小値がmとなるように正規化される。
図2の説明に戻る。目標軌道生成部146は、原則的には推奨車線決定部61により決定された推奨車線を自車両Mが走行し、更に、自車両Mが推奨車線を走行する際に周辺の状況に対応するため、イベントにより規定された走行態様で自車両Mを自動的に(運転者の操作に依らずに)走行させる将来の目標軌道TRを生成する。目標軌道TRには、例えば、将来の自車両Mの位置を定めた位置要素と、将来の自車両Mの速度等を定めた速度要素とが含まれる。
例えば、目標軌道生成部146は、自車両Mが順に到達すべき複数の地点(軌道点)を、目標軌道TRの位置要素として決定する。軌道点は、所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点である。所定の走行距離は、例えば、経路に沿って進んだときの道なり距離によって計算されてよい。
また、目標軌道生成部146は、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度νおよび目標加速度αを、目標軌道TRの速度要素として決定する。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度νや目標加速度αは、サンプリング時間および軌道点の間隔によって決定される。
例えば、目標軌道生成部146は、記憶部180から軌道生成モデルデータ184を読み出し、そのデータによって定義されたモデルを用いて、一つ又は複数の目標軌道TRを生成する。そして、目標軌道生成部146は、難易度決定部135によって決定された環境認識難易度に応じて、生成した一つ又は複数の目標軌道TRの中からいずれか一つの目標軌道TRを選択する。
軌道生成モデルデータ184は、目標軌道TRを生成するために利用される複数の軌道生成モデルMDL2を定義した情報(プログラムまたはデータ構造)である。複数の軌道生成モデルMDL2には、ルールベースによって実装された軌道生成モデルMDL2と、DNNによって実装された軌道生成モデルMDL2とが含まれる。以下、ルールベースによって実装された軌道生成モデルMDL2を「ルールベースモデルMDL2−1」と称し、DNNによって実装された軌道生成モデルMDL2を「DNNモデルMDL2−2」と称して説明する。ルールベースモデルMDL2−1は「第1モデル」の一例であり、DNNモデルMDL2−2は「第2モデル」の一例である。
ルールベースモデルMDL2−1は、専門家などによって予め決められたルール群に基づいて、リスク領域RAから目標軌道TRを導き出すモデルである。このようなルールベースモデルMDL2−1は、専門家などがルール群を決めるため、エキスパートシステムとも呼ばれる。ルール群には、道路交通法などの法律や規則、慣例などが含まれる。
例えば、ルール群の中には、ある条件Xに対して目標軌道TRxが一意に対応付けられたルールが存在し得る。条件Xは、例えば、ルールベースモデルMDL2−1に入力されるリスク領域RAが、自車両Mが片側一車線の道路を走行しており、自車両Mの前方の所定距離以内に時速XX[km/h]の先行車両が存在する際に生成され得るリスク領域RAと同じことである。目標軌道TRxは、例えば、目標速度がνであり、目標加速度がαであり、ステアリングの変位量がuであり、軌道の曲率がκである目標軌道TRである。このようなルールに従った場合、ルールベースモデルMDL2−1は、条件Xを満たすようなリスク領域RAが入力されると、目標軌道TRxを出力することになる。
専門家などがルール群を決めているものの、ありとあらゆるルールが網羅的に決められていることは稀である。そのため、自車両Mがルール群に存在しない状況(専門家が想定していない状況)に陥ることも想定され、ルールベースモデルMDL2−1には、ルール群に該当しないリスク領域RAが入力される場合がある。この場合、ルールベースモデルMDL2−1は、目標軌道TRを出力しないことになる。これに代えて、ルールベースモデルMDL2−1は、ルール群に該当しないリスク領域RAが入力された場合、予め決められた速度で現在の車線を走行する、といったような現状のリスク領域RAに依存しない予め決められた目標軌道TRを出力してもよい。すなわち、ルール群の中に、事前に想定していないリスク領域RAが入力された場合、現状のリスク領域RAに依存しない予め決められた目標軌道TRを出力する、というイレギュラーな状況に対応するための汎用的なルールが含まれていてもよい。
DNNモデルMDL2−2は、リスク領域RAが入力されると、目標軌道TRを出力するように学習されたモデルである。具体的には、DNNモデルMDL2−2は、CNNや、RNN、或いはこれらの組合せであってよい。軌道生成モデルデータ184には、例えば、上述した結合情報や結合係数などの各種情報が含まれる。
DNNモデルMDL2−2は、例えば、教師データに基づいて十分に学習される。教師データは、例えば、リスク領域RAに対して、DNNモデルMDL2−2が出力すべき正解の目標軌道TRが教師ラベル(ターゲットともいう)として対応付けられたデータセットである。すなわち、教師データは、入力データであるリスク領域RAと、出力データである目標軌道TRとを組み合わせたデータセットである。正解の目標軌道TRは、例えば、リスク領域RAに含まれる複数のメッシュの中で、リスクポテンシャルpが閾値Th未満であり、且つ最もリスクポテンシャルpが低いメッシュを通過する目標軌道であってよい。また、正解の目標軌道TRは、例えば、あるリスク領域RA下において、実際に運転者が運転した車両の軌道であってよい。
目標軌道生成部146は、ルールベースモデルMDL2−1と、DNNモデルMDL2−2との其々に対して、リスク領域算出部144によって算出されたリスク領域RAを入力し、そのリスク領域RAを入力した各モデルMDLの出力結果に基づいて、目標軌道TRを生成する。
図9は、目標軌道TRの生成方法を模式的に表す図である。例えば、目標軌道生成部146は、DNNモデルMDL2−2に対して、リスク領域RAを表すベクトル或いはテンソルを入力する。図示の例では、リスク領域RAがm行n列の2階のテンソルとして表されている。リスク領域RAを表すベクトル或いはテンソルが入力されたDNNモデルMDL2−2は、目標軌道TRを出力する。この目標軌道TRは、例えば、目標速度νや、目標加速度α、ステアリングの変位量u、軌道の曲率κ、といった複数の要素を含むベクトル或いはテンソルによって表される。
図10は、軌道生成モデルMDL2が出力した目標軌道TRの一例を表す図である。図示の例のように、先行車両m1の周辺のリスクポテンシャルpは高くなるため、これを避けるように目標軌道TRが生成される。この結果、自車両Mは、区画線LN2及びLN3によって区画された隣接車線に車線変更して先行車両m1を追い越すことになる。
図2の説明に戻る。第2制御部160は、目標軌道生成部146によって生成された目標軌道TRを、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。第2制御部160は、例えば、第1取得部162と、速度制御部164と、操舵制御部166とを備える。第2制御部160は、「運転制御部」の一例である。
第1取得部162は、目標軌道生成部146から目標軌道TRを取得し、記憶部180のメモリに記憶させる。
速度制御部164は、メモリに記憶された目標軌道TRに含まれる速度要素(例えば目標速度νや目標加速度α等)に基づいて、走行駆動力出力装置200およびブレーキ装置210の一方または双方を制御する。
操舵制御部166は、メモリに記憶された目標軌道に含まれる位置要素(例えば目標軌道の曲率κや、軌道点の位置に応じたステアリングの変位量u等)に応じて、ステアリング装置220を制御する。
速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道TRからの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECU(Electronic Control Unit)とを備える。パワーECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[処理フロー]
以下、第1実施形態に係る自動運転制御装置100による一連の処理の流れを、フローチャートを用いて説明する。図11は、第1実施形態に係る自動運転制御装置100による一連の処理の流れの一例を示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し実行されてよい。
まず、認識部130は、自車両Mの周辺の環境を認識する(ステップS100)。例えば、認識部130は、環境認識モデルMDL1を利用して、物体の種類や状態を認識してよい。
次に、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境に基づいて、環境認識難易度を決定する(ステップS102)。ここでいう環境とは、例えば、市街地、郊外、悪天候、良天候、夜間、昼間、一般道、高速道路、といった種々の環境であってよい。
例えば、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境が市街地である場合、認識部130によって認識された自車両Mの周辺の環境が郊外である場合に比べて、環境認識難易度を高くする。言い換えれば、難易度決定部135は、自車両Mが市街地を走行している場合、自車両Mが郊外を走行している場合に比べて、環境認識難易度を高くする。
また、例えば、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境が悪天候である場合、認識部130によって認識された自車両Mの周辺の環境が良天候である場合に比べて、環境認識難易度を高くする。言い換えれば、難易度決定部135は、自車両Mが悪天候の中で走行している場合、自車両Mが良天候の中で走行している場合に比べて、環境認識難易度を高くする。
また、例えば、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境が夜間である場合、認識部130によって認識された自車両Mの周辺の環境が昼間である場合に比べて、環境認識難易度を高くする。言い換えれば、難易度決定部135は、自車両Mが夜間に走行している場合、自車両Mが昼間に走行している場合に比べて、環境認識難易度を高くする。
また、例えば、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境が一般道である場合、認識部130によって認識された自車両Mの周辺の環境が高速道路である場合に比べて、環境認識難易度を高くする。言い換えれば、難易度決定部135は、自車両Mが一般道を走行している場合、自車両Mが高速道路を走行している場合に比べて、環境認識難易度を高くする。
また、難易度決定部135は、認識部130が自車両Mの周辺の環境を認識する際に利用する環境認識モデルMDL1の学習量nに応じて、環境認識難易度を決定してよい。環境認識モデルMDL1の学習量nは、学習量データ186として予め記憶部180に記憶されている。
図12は、学習量データ186の一例を表す図である。図示の例のように、学習量データ186は、互いに種類の異なる複数の環境の其々に対して、環境認識モデルMDL1の学習量nが対応付けられたデータである。
例えば、環境認識モデルMDL1が、ある環境A下において得られたn個の教師データを使用して、n回繰り返し学習されたとする。つまり、環境認識モデルMDL1が、環境A下における対象車両の周囲のセンシング結果が入力されると、その対象車両の周辺の環境として環境Aを表す情報を出力するようにn回繰り返し学習されたとする。この場合、学習量データ186では、環境Aに対して学習量nが対応付けられる。
同様に、環境認識モデルMDL1が、ある環境B下において得られたn個の教師データを使用して、n回繰り返し学習されたとする。つまり、環境認識モデルMDL1が、環境B下における対象車両の周囲のセンシング結果が入力されると、その対象車両の周辺の環境として環境Bを表す情報を出力するようにn回繰り返し学習されたとする。この場合、学習量データ186では、環境Bに対して学習量nが対応付けられる。
例えば、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境が環境Aであった場合、学習量データ186において環境Aに対応付けられた学習量nに応じて、環境認識難易度を決定する。また、難易度決定部135は、認識部130によって認識された自車両Mの周辺の環境が環境Bであった場合、学習量データ186において環境Bに対応付けられた学習量nに応じて、環境認識難易度を決定する。
難易度決定部135は、環境認識モデルMDL1の学習量nが多いほど環境認識難易度を低くし、環境認識モデルMDL1の学習量nが少ないほど環境認識難易度を高くしてよい。これによって、例えば、学習量nに比べて学習量nの方が少ない場合、環境Aに比べて環境Bの環境認識難易度が高くなる。
また、難易度決定部135は、認識部130によって環境の一部として認識された自車両Mの周辺の移動体(例えば他車両や歩行者、自転車など)の数に応じて、環境認識難易度を決定してもよい。具体的には、難易度決定部135は、移動体の数が少ないほど環境認識難易度を低くし、移動体の数が多いほど環境認識難易度を高くしてよい。
また、難易度決定部135は、認識部130によって環境の一部として認識された道路の曲率に応じて、環境認識難易度を決定してもよい。具体的には、難易度決定部135は、道路の曲率が小さいほど環境認識難易度を低くし、道路の曲率が大きいほど環境認識難易度を高くしてよい。
また、難易度決定部135は、認識部130によって環境の一部として認識された複数の移動体の平均速度と、自車両Mとの相対的な速度差に応じて、環境認識難易度を決定してもよい。例えば、認識部130が自車両Mの周辺に3台の他車両が存在することを認識したとする。この場合、難易度決定部135は、3台の他車両の平均速度を算出し、その平均速度と自車両Mとの速度差を算出する。例えば、難易度決定部135は、速度差が小さいほど環境認識難易度を低くし、速度差が大きいほど環境認識難易度を高くしてよい。これによって、自車両Mに比べて周辺の他車両の方が著しく速い又は遅い場合に、環境認識難易度が高くなり、自車両Mと周辺の他車両との速度が同程度である場合に、環境認識難易度が低くなる。
また、難易度決定部135は、自車両Mの速度(絶対速度)に応じて、環境認識難易度を決定してもよい。具体的には、難易度決定部135は、自車両Mの速度が大きいほど環境認識難易度を低くし、自車両Mの速度が小さいほど環境認識難易度を高くしてよい。
図13は、ある第1時刻tにおける場面の一例を表す図である。図14は、第2時刻tにおける場面の一例を表す図である。図13及び図14に例示する場面では、m1〜m3の3台の他車両が存在している。
第1時刻tでは、自車両Mの速度はν(t)であり、他車両m1の速度はνm1(t)であり、他車両m2の速度はνm2(t)であり、他車両m3の速度はνm3(t)である。また、自車両Mに対する先行車両である他車両m2と、自車両Mとの車間距離はD(t)である。
一方、第2時刻tでは、自車両Mの速度は、第1時刻tの速度ν(t)よりも大きいν(t)である。他車両m1の速度は、第1時刻tの速度νm1(t)よりも大きいνm1(t)である。他車両m2の速度は、第1時刻tの速度νm2(t)よりも大きいνm2(t)である。他車両m3の速度は、第1時刻tの速度νm3(t)よりも大きいνm3(t)である。このような速度条件下では、第2時刻tにおける他車両m2と自車両Mとの車間距離D(t)は、第1時刻tのときの車間距離D(t)よりも長くなりやすい。
一般的に、自車両Mの速度が大きいほど、自車両Mの周辺の他車両の速度も大きくなり、安全性を考慮してこれら車両の車間距離は必然的に広くなりやすい。これは、リスク領域R内に存在する移動体の数が少なくなることを意味する。つまり、自車両Mの速度が大きいほど、リスク領域算出部144がリスクポテンシャルpを算出する対象の物体の数が少なくなる。図13の場面では、リスクポテンシャルpの算出対象は、m1〜m3の3台の他車両であるものの、図13の場面よりも自車両Mの速度が大きい図14の場面では、リスクポテンシャルpの算出対象は、他車両m1の1台のみである。
リスクポテンシャルpの算出対象である物体の数が少ないほど、自車両Mの周辺の交通状況は単純化されるため、ルールベースモデルMDL2−1で規定されたルール群に合致しやすくなり、ルールベースモデルMDL2−1によって出力される目標軌道TRが、自車両Mの周辺環境により適した精度の高い軌道となる。
難易度決定部135は、上述した種々の要素を基に決めた環境認識難易度の加重和(線形和)を求めてもよい。例えば、難易度決定部135は、(1)市街地又は郊外に応じた難易度、(2)悪天候又は良天候に応じた難易度、(3)夜間又は昼間に応じた難易度、(4)一般道又は高速道路に応じた難易度、(5)環境認識モデルMDL1の学習量nに応じた難易度、(6)自車両Mの周辺の移動体の数に応じた難易度、(7)複数の移動体の平均速度と自車両Mとの相対的な速度差に応じた難易度、(8)自車両Mの速度に応じた難易度、といった計8種類の難易度の加重和を、最終的な環境認識難易度としてよい。
図11のフローチャートの説明に戻る。次に、リスク領域算出部144は、認識部130によって環境の一部として認識された物体の種類や状態に基づいて、リスク領域RAを算出する(ステップS104)。
例えば、リスク領域算出部144は、自車両Mを基準とした予め決められた範囲内を複数のメッシュに区切り、その複数のメッシュの其々についてリスクポテンシャルpを算出する。そして、リスク領域算出部144は、各メッシュに対してリスクポテンシャルpを対応付けたベクトル或いはテンソルをリスク領域RAとして算出する。この際、リスク領域算出部144は、リスクポテンシャルpを正規化する。
次に、目標軌道生成部146は、ルールベースモデルMDL2−1と、DNNモデルMDL2−2との其々に対して、リスク領域算出部144によって算出されたリスク領域RAを入力し、そのリスク領域RAを入力した各モデルMDLの出力結果に基づいて、複数の目標軌道TRを生成する(ステップS106)。
次に、目標軌道生成部146は、難易度決定部135によって決定された環境認識難易度に応じて、複数の目標軌道TRの中からいずれか一つの目標軌道TRを選択する(ステップS108)。
例えば、環境認識難易度が0から1の数値範囲で表され、0に近いほど難易度が低く、1に近いほど難易度が高いものとする。この場合、目標軌道生成部146は、環境認識難易度が所定値以下の場合(環境認識が易しい場合)、複数の目標軌道TRの中から、ルールベースモデルMDL2−1によって出力された目標軌道TR(以下、第1目標軌道TR1と称する)を選択する。一方、目標軌道生成部146は、環境認識難易度が所定値を超える場合(環境認識が難しい場合)、複数の目標軌道TRの中から、DNNモデルMDL2−2によって出力された目標軌道TR(以下、第2目標軌道TR2と称する)を選択する。所定値は、例えば0.5程度であってよい。
これによって、環境認識難易度が低く、自車両Mの周辺の交通状況が比較的単純な場合には、第1目標軌道TR1が選択されやすくなり、環境認識難易度が高く、自車両Mの周辺の交通状況が複雑な場合には、第2目標軌道TR2が選択されやすくなる。
目標軌道生成部146は、複数の目標軌道TRの中から第1目標軌道TR1又は第2目標軌道TR2のいずれかを選択すると、その選択した目標軌道TRを第2制御部160に出力する。これを受けて、第2制御部160は、目標軌道生成部146によって出力された目標軌道TRに基づいて、自車両Mの速度及び操舵の少なくとも一方を制御する(ステップS110)。これによって本フローチャートの処理が終了する。
以上説明した第1実施形態によれば、自動運転制御装置100は、予め学習された環境認識モデルMDL1を利用して自車両Mの周辺の環境を認識する。自動運転制御装置100は、認識した自車両Mの周辺の環境に基づいて、環境認識難易度を決定する。また、自動運転制御装置100は、認識した自車両Mの周辺の環境に基づいて、ルールベースモデルMDL2−1及びDNNモデルMDL2−2の双方を利用して、複数の目標軌道TRを生成する。自動運転制御装置100は、環境認識難易度に応じて、複数の目標軌道TRの中からいずれか一つの目標軌道TRを選択する。そして、自動運転制御装置100は、選択した目標軌道TRに基づいて、自車両Mの運転を自動的に制御する。これによって、自車両Mの運転をスムーズに制御することができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、自車両Mが緊急状態であれば、環境認識難易度に依らずに、第1目標軌道TR1が選択される点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。
第2実施形態に係る難易度決定部135は、環境認識難易度を決定することに加えて、更に、自車両Mが緊急状態であるのか否かを判定する。緊急状態とは、例えば、回避すべきリスクが自車両Mに差し迫っているような状態である。具体的には、緊急状態は、歩行者や自転車が車道に飛び出した状態や、先行車両が急減速した状態などである。
例えば、難易度決定部135は、認識部130によって環境の一部として認識された移動体(歩行者や先行車両など)と、自車両MとのTTCに基づいて、自車両Mが緊急状態か否かを判定してよい。TTCは、移動体と自車両Mとの相対距離を、移動体と自車両Mとの相対速度で除算したものである。例えば、難易度決定部135は、TTCが閾値TTh以上である場合、自車両Mが緊急状態にないと判定し、TTCが閾値TTh未満である場合、自車両Mが緊急状態にあると判定してよい。
図15は、自車両Mが遭遇し得る場面の一例を表す図である。図中P1は歩行者を表しており、V1は歩行者P1の移動方向を表している。図示の場面では、歩行者P1と自車両MとのTTCM−P1が閾値TTh以上である。この場合、難易度決定部135は、自車両Mが緊急状態にないと判定する。
一方、図示の場面では、歩行者P1に近い領域のリスクポテンシャルpは閾値Th未満である。このような場合、ルールベースモデルMDL2−1は、キープレフトといったルールに従って、車道外側線LN1及びLN2で区画された車線上において、車線中央よりも左寄りの領域を通る軌道を、第1目標軌道TR1として出力する。DNNモデルMDL2−2は、運転者の手動運転の傾向を学習しているため、第1目標軌道TR1と同様に、車線中央よりも左寄りの領域を通る軌道を、第2目標軌道TR2として出力しやすい。
図示の場面では、自車両Mが緊急状態にないと判定されている。この場合、第2実施形態に係る目標軌道生成部146は、環境認識難易度に応じて、第1目標軌道TR1又は第2目標軌道TR2のいずれかを選択する。図示の場面では、道路の曲率が大きいため環境認識難易度が高い。従って、第2目標軌道TR2が選択され、その第2目標軌道TR2に基づいて自車両Mの運転が制御される。
図16は、自車両Mが遭遇し得る場面の他の例を表す図である。図16の場面では、図15の場面よりも歩行者P1が車道に近く、飛び出しのリスクがあることから、歩行者P1と自車両MとのTTCM−P1が閾値TTh未満である。この場合、難易度決定部135は、自車両Mが緊急状態にあると判定する。
一方、図示の場面では、歩行者P1に近い領域のリスクポテンシャルpは閾値Th以上である。このような場合、ルールベースモデルMDL2−1は、障害物に対する相対距離を一定以上維持するといったルールに従って、車線中央よりも右寄りの領域を通る軌道を、第1目標軌道TR1として出力する。DNNモデルMDL2−2は、障害物を避けるような運転者の手動運転の傾向を学習しているため、第1目標軌道TR1と同様に、車線中央よりも右寄りの領域を通る軌道(よりリスクポテンシャルpが低い領域)を、第2目標軌道TR2として出力しやすい。
図示の場面では、自車両Mが緊急状態にあると判定されている。この場合、第2実施形態に係る目標軌道生成部146は、環境認識難易度に依らずに、より安全な運転制御が期待できる第1目標軌道TR1を選択する。これによって、歩行者P1を回避するように自車両Mの運転が制御されるため、より安全に自車両Mの運転を制御することができる。
以上説明した第2実施形態によれば、自動運転制御装置100は、自車両Mが緊急状態か否かを判定し、自車両Mが緊急状態であると判定した場合、環境認識難易度に依らずに、第1目標軌道TR1を選択し、その第1目標軌道TR1に基づいて、歩行者などの移動体を回避するように自車両Mの運転を制御する。これによって、より安全に自車両Mの運転を制御することができる。
<その他の実施形態(変形例)>
以下、その他の実施形態(変形例)について説明する。上述した第1実施形態或いは第2実施形態において、目標軌道生成部146は、ルールベースモデルMDL2−1と、DNNモデルMDL2−2との其々に対して、リスク領域算出部144によって算出されたリスク領域RAを入力し、そのリスク領域RAを入力した各モデルMDLの出力結果に基づいて、複数の目標軌道TRを生成するものとして説明したがこれに限られない。
例えば、目標軌道生成部146は、ルールベースモデルMDL2−1に代えて、或いは加えて、モデルベース或いはモデルベースデザインと呼ばれる手法を基に作られたモデル(以下、モデルベースモデルと称する)を用いて、目標軌道TRを生成してもよい。モデルベースモデルは、モデル予測制御(Model Predictive Control;MPC)などの最適化手法を利用することで、リスク領域RAに応じて目標軌道TRを決定(或いは出力)するモデルである。モデルベースモデルは、「第1モデル」の他の例である。
また、例えば、目標軌道生成部146は、DNNモデルMDL2−2に代えて、或いは加えて、バイナリーツリー型のモデルや、ゲームツリー型のモデル、低層ニューラルネットワークをボルツマンマシンのように相互結合させたモデル、強化学習モデル、深層強化学習モデル、といった他の機械学習をベースとしたモデルを用いて、目標軌道TRを生成してもよい。バイナリーツリー型のモデルや、ゲームツリー型のモデル、低層ニューラルネットワークをボルツマンマシンのように相互結合させたモデル、強化学習モデル、深層強化学習モデルなどは、「第2モデル」の他の例である。
[ハードウェア構成]
図17は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM100−3、ブートプログラム等を格納するROM100−4、フラッシュメモリやHDD等の記憶装置100−5、ドライブ装置100−6等が、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)等によってRAM100−3に展開されて、CPU100−2によって実行される。これによって、第1制御部及び第2制御部160のうち一部または全部が実現される。
上記説明した実施形態は、以下のように表現することができる。
プログラムを格納した少なくとも一つ以上のメモリと、
少なくとも一つ以上のプロセッサと、を備え、
前記プロセッサが前記プログラムを実行することにより、
車両の周辺の環境を認識し、
前記認識した環境に基づいて、前記環境の認識の難易度を決定し、
前記認識した環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定した難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択し、
前記選択した目標軌道に基づいて、前記車両の運転を自動的に制御する、
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、135…難易度決定部、140…行動計画生成部、142…イベント決定部、144…リスク領域算出部、146…目標軌道生成部、160…第2制御部、162…第1取得部、164…速度制御部、166…操舵制御部、180…記憶部、182…環境認識モデルデータ、184…軌道生成モデルデータ、MDL1…環境認識モデル、MDL2…軌道生成モデル、MDL2−1…ルールベースモデル、MDL2−2…DNNモデル、M…自車両

Claims (19)

  1. 車両の周辺の環境を認識する認識部と、
    前記認識部によって認識された前記環境に基づいて、前記環境の認識の難易度を決定する決定部と、
    前記認識部によって認識された前記環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定部によって決定された前記難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択する生成部と、
    前記生成部によって選択された前記目標軌道に基づいて、前記車両の運転を自動的に制御する運転制御部と、
    を備える車両制御装置。
  2. 前記認識部によって前記環境の一部として認識された物体の周囲に分布するリスクの領域を算出する算出部を更に備え、
    前記生成部は、前記領域が入力されると前記目標軌道を出力する複数のモデルの其々に対して前記算出部によって算出された前記領域を入力し、前記領域を入力した前記複数のモデルの其々の出力結果に基づいて、前記複数の目標軌道を生成する、
    請求項1に記載の車両制御装置。
  3. 前記複数のモデルには、ルールベース又はモデルベースの第1モデルと、機械学習ベースの第2モデルとが含まれる、
    請求項2に記載の車両制御装置。
  4. 前記生成部は、前記難易度が所定値を超える場合、前記第1モデルによって出力された前記目標軌道である第1目標軌道と、前記第2モデルによって出力された前記目標軌道である第2目標軌道とのうち、前記第2目標軌道を選択する、
    請求項3に記載の車両制御装置。
  5. 前記車両の周囲をセンシングするセンサを更に備え、
    前記認識部は、ある対象車両の周囲のセンシング結果が入力されると、前記対象車両の周辺の環境を表す情報を出力するように学習された機械学習ベースの第3モデルに対して、前記センサによるセンシング結果を入力し、前記センシング結果を入力した前記第3モデルの出力結果に基づいて、前記車両の周辺の環境を認識する、
    請求項1から4のうちいずれか一項に記載の車両制御装置。
  6. 前記決定部は、前記第3モデルの学習量に応じて、前記難易度を決定する、
    請求項5に記載の車両制御装置。
  7. 前記第3モデルは、ある第1環境下における前記対象車両の周囲のセンシング結果が入力されると、前記対象車両の周辺の環境が前記第1環境であることを表す情報を出力するように学習され、前記第1環境と異なる第2環境下における前記対象車両の周囲のセンシング結果が入力されると、前記対象車両の周辺の環境が前記第2環境であることを表す情報を出力するように学習され、
    前記決定部は、前記認識部によって前記第1環境が認識された場合、前記第1環境下において学習された前記第3モデルの学習量に応じて前記難易度を決定し、前記認識部によって前記第2環境が認識された場合、前記第2環境下において学習された前記第3モデルの学習量に応じて前記難易度を決定する、
    請求項6に記載の車両制御装置。
  8. 前記決定部は、前記第3モデルの学習量が多いほど前記難易度を低くし、前記第3モデルの学習量が少ないほど前記難易度を高くする、
    請求項6又は7に記載の車両制御装置。
  9. 前記決定部は、前記認識部によって前記環境の一部として認識された移動体の数に応じて、前記難易度を決定する、
    請求項1から8のうちいずれか一項に記載の車両制御装置。
  10. 前記決定部は、前記移動体の数が少ないほど前記難易度を低くし、前記移動体の数が多いほど前記難易度を高くする、
    請求項9に記載の車両制御装置。
  11. 前記決定部は、前記認識部によって前記環境の一部として認識された道路の曲率に応じて、前記難易度を決定する、
    請求項1から10のうちいずれか一項に記載の車両制御装置。
  12. 前記決定部は、前記道路の曲率が小さいほど前記難易度を低くし、前記道路の曲率が大きいほど前記難易度を高くする、
    請求項11に記載の車両制御装置。
  13. 前記決定部は、前記認識部によって前記環境の一部として認識された複数の移動体の平均速度と、前記車両の速度との相対的な速度差に応じて、前記難易度を決定する、
    請求項1から12のうちいずれか一項に記載の車両制御装置。
  14. 前記決定部は、前記速度差が小さいほど前記難易度を低くし、前記速度差が大きいほど前記難易度を高くする、
    請求項13に記載の車両制御装置。
  15. 前記決定部は、前記車両の速度に応じて、前記難易度を決定する、
    請求項1から14のうちいずれか一項に記載の車両制御装置。
  16. 前記決定部は、前記速度が大きいほど前記難易度を低くし、前記速度が小さいほど前記難易度を高くする、
    請求項15に記載の車両制御装置。
  17. 前記決定部は、前記認識部によって前記環境の一部として認識された移動体と前記車両との相対距離及び相対速度に基づいて、前記車両が緊急状態か否かを判定し、
    前記生成部は、前記決定部によって前記車両が緊急状態であると判定された場合、前記難易度に依らずに、前記第1目標軌道を選択し、
    前記運転制御部は、前記生成部によって選択された前記第1目標軌道に基づいて、前記移動体を回避するように、前記車両の運転を制御する、
    請求項4に記載の車両制御装置。
  18. 車両に搭載されたコンピュータが、
    前記車両の周辺の環境を認識し、
    前記認識した環境に基づいて、前記環境の認識の難易度を決定し、
    前記認識した環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定した難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択し、
    前記選択した目標軌道に基づいて、前記車両の運転を自動的に制御する、
    車両制御方法。
  19. 車両に搭載されたコンピュータに、
    前記車両の周辺の環境を認識すること、
    前記認識した環境に基づいて、前記環境の認識の難易度を決定すること、
    前記認識した環境に基づいて前記車両が走行すべき複数の目標軌道を生成し、前記決定した難易度に応じて、前記生成した複数の目標軌道の中からいずれか一つの目標軌道を選択すること、
    前記選択した目標軌道に基づいて、前記車両の運転を自動的に制御すること、
    を実行させるためのプログラム。
JP2020063515A 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム Active JP7369078B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020063515A JP7369078B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム
US17/210,565 US20210300414A1 (en) 2020-03-31 2021-03-24 Vehicle control method, vehicle control device, and storage medium
CN202110337089.0A CN113460080A (zh) 2020-03-31 2021-03-29 车辆控制装置、车辆控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020063515A JP7369078B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021160532A true JP2021160532A (ja) 2021-10-11
JP7369078B2 JP7369078B2 (ja) 2023-10-25

Family

ID=77855369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020063515A Active JP7369078B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210300414A1 (ja)
JP (1) JP7369078B2 (ja)
CN (1) CN113460080A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506470A (zh) * 2020-03-24 2021-10-15 深圳市超捷通讯有限公司 超车辅助方法、车载装置及可读存储介质
WO2024081190A1 (en) * 2022-10-14 2024-04-18 Motional Ad Llc Ensemble-based vehicle motion planner

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5286214B2 (ja) 2009-09-30 2013-09-11 日立オートモティブシステムズ株式会社 車両制御装置
JP5663942B2 (ja) 2010-05-11 2015-02-04 トヨタ自動車株式会社 走行軌道作成装置
CN103827938A (zh) 2011-09-22 2014-05-28 丰田自动车株式会社 驾驶辅助装置
JP6270227B2 (ja) 2016-03-14 2018-01-31 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
WO2018026603A1 (en) * 2016-08-02 2018-02-08 Pcms Holdings, Inc. System and method for optimizing autonomous vehicle capabilities in route planning
JP6754448B2 (ja) * 2016-12-21 2020-09-09 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6982405B2 (ja) * 2017-05-22 2021-12-17 本田技研工業株式会社 車両制御装置
US10816973B2 (en) * 2017-06-02 2020-10-27 Baidu Usa Llc Utilizing rule-based and model-based decision systems for autonomous driving control
US20180373992A1 (en) * 2017-06-26 2018-12-27 Futurewei Technologies, Inc. System and methods for object filtering and uniform representation for autonomous systems
JP6651486B2 (ja) 2017-09-01 2020-02-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
KR102485268B1 (ko) * 2017-11-03 2023-01-06 현대자동차주식회사 차량 및 그 제어방법
DE102017125729A1 (de) * 2017-11-03 2019-05-23 Audi Ag Fahrerassistenzsystem für ein zumindest teilweise automatisch fahrendes Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Regeln einer Fahrdynamik
JP6881244B2 (ja) * 2017-11-06 2021-06-02 トヨタ自動車株式会社 自動運転装置
JP7087623B2 (ja) * 2018-04-19 2022-06-21 トヨタ自動車株式会社 車両の制御装置
US11604464B2 (en) * 2018-10-30 2023-03-14 Here Global B.V. Virtual valet
US20200209857A1 (en) * 2018-12-31 2020-07-02 Uber Technologies, Inc. Multimodal control system for self driving vehicle
WO2020184281A1 (ja) * 2019-03-08 2020-09-17 マツダ株式会社 自動車用演算装置
JP2020158048A (ja) * 2019-03-28 2020-10-01 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US20210403051A1 (en) * 2019-06-05 2021-12-30 Lg Electronics Inc. Method for controlling autonomous vehicle
US11433922B1 (en) * 2019-12-20 2022-09-06 Zoox, Inc. Object uncertainty detection

Also Published As

Publication number Publication date
CN113460080A (zh) 2021-10-01
US20210300414A1 (en) 2021-09-30
JP7369078B2 (ja) 2023-10-25

Similar Documents

Publication Publication Date Title
JP6916953B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7440324B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP6710710B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6979366B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7345349B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7048455B2 (ja) 学習装置、シミュレーションシステム、学習方法、およびプログラム
JP7000202B2 (ja) 車両制御システム、車両制御方法、およびプログラム
US20190283740A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2021155006A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP6913716B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7313298B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019185112A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019156271A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020147139A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020163903A (ja) 表示制御装置、表示制御方法、及びプログラム
US20210300414A1 (en) Vehicle control method, vehicle control device, and storage medium
JP7464425B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7236979B2 (ja) 車両制御装置、および車両制御方法
JP6829739B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP7080091B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7465705B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7369077B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2019147437A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7449751B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7166988B2 (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231013

R150 Certificate of patent or registration of utility model

Ref document number: 7369078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150