JP2022064762A - 車両制御装置及び車両制御方法 - Google Patents

車両制御装置及び車両制御方法 Download PDF

Info

Publication number
JP2022064762A
JP2022064762A JP2020173579A JP2020173579A JP2022064762A JP 2022064762 A JP2022064762 A JP 2022064762A JP 2020173579 A JP2020173579 A JP 2020173579A JP 2020173579 A JP2020173579 A JP 2020173579A JP 2022064762 A JP2022064762 A JP 2022064762A
Authority
JP
Japan
Prior art keywords
vehicle
determination unit
road
situation
around
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020173579A
Other languages
English (en)
Inventor
龍介 黒田
Ryusuke Kuroda
拓也 藤木
Takuya Fujiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2020173579A priority Critical patent/JP2022064762A/ja
Priority to US17/498,831 priority patent/US20220111841A1/en
Priority to CN202111190387.8A priority patent/CN114348015A/zh
Publication of JP2022064762A publication Critical patent/JP2022064762A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/162Speed limiting therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps

Abstract

Figure 2022064762000001
【課題】渋滞が解消したと誤判定することを防止できる車両制御装置を提供する。
【解決手段】渋滞中に車両10を自動運転制御する車両制御装置は、車両10の周囲の状況が、車両10の進行方向における、車両10から所定距離以内の道路を走行する他の車両を、車両10に搭載された車両10の周囲の状況を検知するセンサ3で検知することが可能な検知可能状況か否か判定する検知状況判定部32と、車両10の周囲の状況が検知可能状況である場合、センサ3により得られたセンサ信号に基づいて検知された他の車両の挙動に基づいて、車両10の周囲において渋滞が解消したか否かを判定する渋滞解消判定部33とを有する。
【選択図】図3

Description

本発明は、車両を自動運転制御する車両制御装置及び車両制御方法に関する。
車両の周囲が渋滞しているか否かを判定し、車両の周囲が渋滞している場合に車両を制御する技術が研究されている(例えば、特許文献1及び2を参照)。
例えば、特許文献1に記載された技術では、運転支援装置は、受信した道路交通情報が渋滞情報で、かつ、自車両の速度情報が所定速度以下である場合に、道路が渋滞中であると判定する。また、この運転支援装置は、道路が渋滞中であると判定した後に、前方車両との距離が検出されないとき、道路の渋滞が解消されたと判定する。
また、特許文献2に記載された技術では、車両のための間隔・速度制御装置は、渋滞検出装置と、検出された渋滞状況に車両の速度および/または先行車両との間隔を制御するための制御パラメータを調整する。そしてこの間隔・速度制御装置において、渋滞検出装置は、センサシステムが目標対象物として追従する先行車両を測定しない場合に、渋滞が存在しないと決定するように構成される。
特開2015-108955号公報 特表2009-511357号公報
上記の技術では、自車両の前方を走行する先行車両が検出されないか、あるいは先行車両までの距離が測定されない場合に渋滞が存在しない、あるいは渋滞が解消したと判定される。したがって、渋滞の非存在または解消を正確に判定するためには、先行車両が精度良く検出されることが求められる。先行車両の検出に失敗した場合、渋滞が存在しない、あるいは渋滞が解消したと誤って判定され、その結果として、渋滞中であるにもかかわらず、渋滞が解消したときに適用されるべき制御が車両に対して実施されてしまうことがある。
そこで、本発明は、渋滞が解消したと誤判定することを防止できる車両制御装置を提供することを目的とする。
一つの実施形態によれば、渋滞中に車両を自動運転制御する車両制御装置が提供される。この車両制御装置は、車両の周囲の状況が、車両の進行方向における、車両から所定距離以内の道路を走行する他の車両を、車両に搭載された車両の周囲の状況を検知するセンサで検知することが可能な検知可能状況か否か判定する検知状況判定部と、車両の周囲の状況が検知可能状況である場合、センサにより得られたセンサ信号に基づいて検知された他の車両の挙動に基づいて、車両の周囲において渋滞が解消したか否かを判定する渋滞解消判定部とを有する。
この車両制御装置において、検知状況判定部は、記憶部に記憶される地図情報またはセンサにより車両の進行方向を撮影して得られる画像に基づいて、所定距離以内において他の車両を検知できないブラインド領域が存在するか否か判定し、ブラインド領域が存在する場合に、検知可能状況でないと判定することが好ましい。
この場合において、検知状況判定部は、地図情報及び車両の現在位置に基づいて、または、画像に基づいて、車両の進行方向における道路が所定距離以内においてカーブしており、かつ、道路のカーブの内側に遮蔽物が存在することを検知し、かつ、道路のカーブの曲率が所定の閾値以上である場合に、ブラインド領域が存在すると判定することが好ましい。
あるいは、検知状況判定部は、地図情報及び車両の現在位置に基づいて、車両の現在位置が登り坂の途中であり、かつ、所定距離以内に登り坂の頂点が位置することを検知した場合に、ブラインド領域が存在すると判定することが好ましい。
他の実施形態によれば、渋滞中に車両を自動運転制御する車両制御方法が提供される。この車両制御方法は、車両の周囲の状況が、車両の進行方向における、車両から所定距離以内の道路を走行する他の車両を、車両に搭載された車両の周囲の状況を検知するセンサで検知することが可能な検知可能状況か否か判定し、車両の周囲の状況が検知可能状況である場合、センサにより得られたセンサ信号に基づいて検知された他の車両の挙動に基づいて、車両の周囲において渋滞が解消したか否かを判定する、ことを含む。
本発明に係る車両制御装置は、渋滞が解消したと誤判定することを防止できるという効果を奏する。
車両制御装置が実装される車両制御システムの概略構成図である。 車両制御装置の一つの実施形態である電子制御装置のハードウェア構成図である。 車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。 (a)は、検知不能状況の一例を示す説明図であり、(b)は、検知可能状況の一例を示す説明図である。 検知不能状況の他の一例を示す説明図である。 手動運転モードから自動運転モードへの切り替えに関する車両制御処理の動作フローチャートである。 自動運転モードから手動運転モードへの切り替えに関する車両制御処理の動作フローチャートである。
以下、図を参照しつつ、車両制御装置及び車両制御装置において実施される車両制御方法について説明する。この車両制御装置は、渋滞中に車両を自動運転制御する。そのために、この車両制御装置は、車両に搭載されたセンサにより得られたセンサ信号に基づいて検知された他の車両の挙動などに基づいて、車両の周囲が渋滞中か否かを判定する。そしてこの車両制御装置は、車両の周囲において渋滞が解消されると、適用される運転モードを、車両制御装置が車両の走行を制御する自動運転モードからドライバが車両の走行を制御する手動運転モードへ移行させる。その際、この車両制御装置は、渋滞が解消したと誤判定することを防止するために、車両の周囲の状況が、車両の進行方向における、車両から所定距離以内の道路を走行する他の車両を、車両に搭載された車両の周囲の状況を検知するセンサで検知することが可能な検知可能状況か否か判定する。そしてこの車両制御装置は、検知可能状況である場合に限り、渋滞が解消したか否かを判定する。
図1は、車両制御装置が実装される車両制御システムの概略構成図である。また図2は、車両制御装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、GPS受信機2と、カメラ3と、無線通信器4と、ストレージ装置5と、ユーザインターフェース6と、車両制御装置の一例である電子制御装置(ECU)7とを有する。GPS受信機2、カメラ3、無線通信器4、ストレージ装置5及びユーザインターフェース6とECU7とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両制御システム1は、LiDARあるいはレーダといった、車両10から車両10の周囲に存在する物体までの距離を測定する距離センサ(図示せず)をさらに有していてもよい。このような距離センサは、車両10の周囲の状況を検知するセンサの一例である。さらに、車両制御システム1は、目的地までの走行予定ルートを探索するためのナビゲーション装置(図示せず)を有していてもよい。
GPS受信機2は、所定の周期ごとにGPS衛星からのGPS信号を受信し、受信したGPS信号に基づいて車両10の自己位置を測位する。そしてGPS受信機2は、所定の周期ごとに、GPS信号に基づく車両10の自己位置の測位結果を表す測位情報を、車内ネットワークを介してECU7へ出力する。なお、車両10はGPS受信機2以外の衛星測位システムに準拠した受信機を有していてもよい。この場合、その受信機が車両10の自己位置を測位すればよい。
カメラ3は、車両10の周囲の状況を検知するセンサの一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ3は、例えば、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ3は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ3により得られた画像は、センサ信号の一例であり、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。
カメラ3は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU7へ出力する。
無線通信器4は、所定の移動通信規格に準拠して、無線基地局との間で無線通信する。そして無線通信器4は、無線基地局を介して、他の装置から、車両10が走行中の道路またはその周囲における交通状況を表す交通情報(例えば、Vehicle Information and Communication System, VICS(登録商標)による情報)を受信し、その交通情報を、車内ネットワークを介してECU7へ出力する。なお、交通情報には、例えば、道路工事、事故、または交通規制の有無、及び、道路工事、事故または交通規制が実施されている場所及び時間帯に関する情報が含まれる。また、無線通信器4は、車両10の現在位置の周囲の所定の領域についての、自動運転制御に利用される高精度地図を、無線基地局を介して地図サーバから受信し、受信した高精度地図をストレージ装置5へ出力してもよい。
ストレージ装置5は、記憶部の一例であり、例えば、ハードディスク装置、不揮発性の半導体メモリ、または光記録媒体及びそのアクセス装置を有する。そしてストレージ装置5は、地図情報の一例である高精度地図を記憶する。高精度地図には、例えば、その高精度地図に表される所定の領域に含まれる各道路についての車線区画線または停止線といった道路標示を表す情報、道路標識を表す情報、及び、道路周囲の建築物(例えば、防音壁等)を表す情報が含まれる。
さらに、ストレージ装置5は、高精度地図の更新処理、及び、ECU7からの高精度地図の読出し要求に関する処理などを実行するためのプロセッサを有していてもよい。そしてストレージ装置5は、例えば、車両10が所定距離だけ移動する度に、無線通信器4を介して地図サーバへ、高精度地図の取得要求を車両10の現在位置とともに送信し、地図サーバから無線通信器4を介して車両10の現在位置の周囲の所定の領域についての高精度地図を受信してもよい。また、ストレージ装置5は、ECU7からの高精度地図の読出し要求を受信すると、記憶している高精度地図から、車両10の現在位置を含み、上記の所定の領域よりも相対的に狭い範囲を表す高精度地図を切り出して、車内ネットワークを介してECU7へ出力する。
ユーザインターフェース6は、通知部の一例であり、例えば、液晶ディスプレイといった表示装置またはタッチパネルディスプレイを有する。ユーザインターフェース6は、車両10の車室内、例えば、インスツルメンツパネルの近傍に、ドライバへ向けて設置される。そしてユーザインターフェース6は、ECU7から車内ネットワークを介して受信した各種の情報を表示することで、その情報をドライバへ通知する。ユーザインターフェース6は、さらに、車室内に設置されるスピーカを有していてもよい。この場合、ユーザインターフェース6は、ECU7から車内ネットワークを介して受信した各種の情報を音声信号として出力することで、その情報をドライバへ通知する。
ユーザインターフェース6がドライバへ通知する情報には、例えば、車両10に適用される運転モードを変更することを通知する情報(例えば、自動運転モードから手動運転モードへの切り替えまたはその逆を通知する情報)、または、ドライバにステアリングの保持あるいは前方監視を要求することを通知する情報が含まれる。
ECU7は、車両10の周囲が渋滞しているか否か判定する。そして車両10の周囲が渋滞している場合、ECU7は、車両10の制御に適用される運転モードを自動運転モードとして、車両10の走行を制御する。
図2に示されるように、ECU7は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。通信インターフェース21、メモリ22及びプロセッサ23は、それぞれ、別個の回路として構成されてもよく、あるいは、一つの集積回路として一体的に構成されてもよい。
通信インターフェース21は、ECU7を車内ネットワークに接続するためのインターフェース回路を有する。そして通信インターフェース21は、GPS受信機2から測位情報を受信する度に、その測位情報をプロセッサ23へわたす。また、通信インターフェース21は、カメラ3から画像を受信する度に、受信した画像をプロセッサ23へわたす。さらにまた、通信インターフェース21は、ストレージ装置5から読み込んだ高精度地図をプロセッサ23へわたす。一方、通信インターフェース21は、プロセッサ23から通知情報を受け取ると、その通知情報をユーザインターフェース6へ出力する。
メモリ22は、記憶部の他の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU7のプロセッサ23により実行される車両制御処理において使用される各種のデータを記憶する。例えば、メモリ22は、車両10の周囲の画像、自己位置の測位結果、高精度地図、カメラ3の焦点距離、画角、撮影方向及び取り付け位置などを表す内部パラメータ、及び、車両10の周囲を走行する他車両などの検出に利用される、物体検出用の識別器を特定するためのパラメータセットなどを記憶する。さらに、メモリ22は、車両制御処理の途中で生成される各種のデータを一時的に記憶する。
プロセッサ23は、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10に対する車両制御処理を実行する。
図3は、車両制御処理に関する、プロセッサ23の機能ブロック図である。プロセッサ23は、渋滞判定部31と、検知状況判定部32と、渋滞解消判定部33と、車両制御部34とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。
渋滞判定部31は、それまで車両10の周囲に渋滞が生じていない場合において、所定の周期(例えば、0.1秒~数秒)ごとに、車両10の周囲に渋滞が生じたか否かを判定する。
例えば、渋滞判定部31は、車両10に搭載された車速センサ(図示せず)により測定された車両10の速度に基づいて車両10の周囲に渋滞が生じたか否か判定する。この場合、渋滞判定部31は、例えば、通信インターフェース21を介して車速センサから取得した車両10の速度の測定値が第1の速度閾値(例えば、20km/h)以下となる状態が第1の期間(例えば、5秒)以上継続した場合、車両10の周囲に渋滞が生じたと判定する。あるいは、渋滞判定部31は、車両10の速度の測定値が第1の速度閾値よりも低い第2の速度閾値(例えば、10km/h)以下となる状態が第1の期間よりも短い第2の期間(例えば、3秒間)以上継続した場合、車両10の周囲に渋滞が生じたと判定してもよい。あるいはまた、渋滞判定部31は、直近の第1の所定期間(例えば、3秒間)における車両10の速度の測定値の変化が所定の速度変化幅(例えば、1m/s)以内となっている場合に、車両10の周囲に渋滞が生じたと判定してもよい。なお、この場合、第1の所定期間における車両10の速度の平均値が所定速度以下である場合に限り、車両10の周囲に渋滞が生じたと判定してもよい。所定速度は、例えば、車両10が走行中の道路の法定速度または制限速度から所定のオフセット(例えば、20km/h~40km/h)だけ減じた速度とすることができる。この場合、渋滞判定部31は、例えば、GPS受信機2から受信した測位情報で表される車両10の現在位置と高精度地図とを参照して、車両10が走行中の道路の法定速度または制限速度を特定すればよい。なお、渋滞判定部31は、カメラ3により得られた画像に表された地物と高精度地図とを照合することで、車両10の現在位置及び姿勢を推定してもよい。例えば、渋滞判定部31は、車両10の位置及び姿勢を仮定して、カメラ3から得た画像から検出された道路上の地物(例えば、車線区画線あるいは停止線といった道路標示)をカメラ3の内部パラメータを参照して高精度地図上に投影するか、あるいは、高精度地図上の車両10の周囲の道路上の地物を画像上に投影する。そして渋滞判定部31は、画像から検出された道路上の地物と高精度地図上に表された道路上の地物とが最も一致するときの車両10の位置及び姿勢を、車両10の現在位置として推定すればよい。なお、渋滞判定部31は、例えば、識別器に画像を入力することで、画像から地物を検出すればよい。そのような識別器として、渋滞判定部31は、例えば、Single Shot MultiBox Detector(SSD)、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク型(CNN)のアーキテクチャを持つディープニューラルネットワーク(DNN)を用いることができる。このような識別器は、画像から車両10の周囲に存在する他の物体(例えば、他の車両、車線区画線といった道路標示、道路標識など)を検出するように予め学習される。
さらに、渋滞判定部31は、車両10が停車して第2の所定期間(例えば、1秒間)以上経過している場合に、車両10の周囲に渋滞が生じたと判定してもよい。
あるいは、渋滞判定部31は、車両10の周囲を走行する他の車両の挙動に基づいて、車両10の周囲に渋滞が生じたか否かを判定してもよい。例えば、渋滞判定部31は、ECU7がカメラ3から画像を取得する度に、識別器にその画像を入力することで、車両10の周囲を走行する他の車両を検出する。その際、渋滞判定部31は、識別器として、上記のように、CNN型のアーキテクチャを持つDNNを用いることができる。
渋滞判定部31は、カメラ3から取得した時系列の一連の画像のそれぞれから検出された他の車両に対して、オプティカルフローを用いた追跡処理といった所定の追跡処理を実行することで、他の車両を追跡する。そして渋滞判定部31は、各画像に対して、カメラ3の内部パラメータを用いて視点変換処理を実行して各画像を鳥瞰画像に変更することで、各画像取得時における、車両10に対する追跡中の他の車両の相対的な位置を算出する。その際、他の車両が表された物体領域の下端は、路面と他の車両とが接している位置を表していると推定される。そこで、渋滞判定部31は、各画像において、他の車両が表された物体領域の下端に相当するカメラ3からの方位と、カメラ3の内部パラメータの一つであるカメラ3の路面からの高さとに基づいて、各画像取得時の車両10から他の車両までの距離を推定してもよい。そして渋滞判定部31は、各画像取得時における、車両10から他の車両までの距離の推定値を、車両10に対する追跡中の他の車両の相対的な位置の算出に利用してもよい。
渋滞判定部31は、追跡中の他の車両のうち、車両10の前方を走行する先行車両を選択する。先行車両が複数存在する場合、渋滞判定部31は、複数の先行車両のうち、車両10に最も近い先行車両を選択してもよい。そして渋滞判定部31は、直近の所定期間(例えば、3~5秒間)における、選択した先行車両までの相対的な位置の変化に基づいて、直近の所定期間における、車両10とその先行車両との相対速度の変化及び車間距離の変化を算出する。
あるいは、車両10がLiDARあるいはレーダといった距離センサを有している場合、渋滞判定部31は、その距離センサにより得られる、車両10の前方の所定の角度範囲(例えば、車両10の進行方向を中心として、路面に平行な±30°の角度範囲)内の距離の測定値が所定値以下である場合に、先行車両が存在すると判定してもよい。そして渋滞判定部31は、直近の所定期間における、距離センサにより得られた距離の測定値の変化に基づいて、直近の所定期間における、車両10とその先行車両との相対速度の変化及び車間距離の変化を算出してもよい。
渋滞判定部31は、直近の所定期間にわたって車両10と先行車両との相対速度の絶対値が所定の相対速度閾値(例えば、1m/s)以下であり、かつ、車両10と先行車両との車間距離が所定の距離範囲(例えば、3m以上25m以下)である場合、車両10の周囲に渋滞が生じたと判定する。
あるいは、渋滞判定部31は、追跡中の他の車両の全てについて、直近の所定期間における、車両10と他の車両との相対速度の変化及び車間距離の変化を算出してもよい。そして渋滞判定部31は、追跡中の他の車両の全てについて、直近の所定期間にわたって車両10に対する相対速度が所定の相対速度閾値(例えば、3m/s)以下である場合に、車両10の周囲に渋滞が生じたと判定してもよい。なお、渋滞判定部31は、追跡中の他の車両のうち、車両10が走行する車線と隣接する車線(以下、単に隣接車線と呼ぶことがある)を走行する車両のみを、渋滞判定に利用してもよい。この場合には、渋滞判定部31は、例えば、追跡中の他の車両のうち、識別器により検出された車線区画線が車両10との間に位置する他の車両を、隣接車線を走行する車両と判定すればよい。あるいは、渋滞判定部31は、追跡中の他の車両のうち、車両10の進行方向に沿った線に対する距離が車線の幅以上離れている他の車両を、隣接車線を走行する車両と判定してもよい。
あるいはまた、渋滞判定部31は、無線通信器4を介して受信した交通情報において、車両10が走行中の道路について渋滞が生じていることが示された場合に、車両10の周囲に渋滞が生じたと判定してもよい。なお、この場合、渋滞判定部31は、車両10の現在位置と高精度地図とを参照して、車両10が走行中の道路を特定すればよい。
あるいはまた、渋滞判定部31は、上記の渋滞判定手法の何れか二つ以上に関して車両10の周囲に渋滞が生じたと判定された場合に限り、車両10の周囲に渋滞が生じたと判定してもよい。
渋滞判定部31は、車両10の周囲に渋滞が生じたと判定した場合、その判定結果を検知状況判定部32及び車両制御部34へ通知する。
検知状況判定部32は、車両10の周囲が渋滞している間、所定の周期ごとに、車両10の周囲の状況が、車両10の進行方向における、車両10から所定距離以内の道路を走行する他の車両をカメラ3または車両10に搭載された距離センサで検知することが可能な検知可能状況か否か判定する。なお、以下では、車両10の進行方向における、車両10から所定距離以内の道路を走行する他の車両をカメラ3または車両10に搭載された距離センサで検知することが不可能な状況を検知不能状況と呼ぶ。
ECU7は、車両10の周囲の状況が検知不能状況である場合に渋滞が解消したか否かを判定すると、自車の前方を走行する他の車両を検知することができないため、渋滞が解消していないにも関わらずに渋滞が解消したと誤判定してしまうおそれがある。この場合、一旦渋滞が解消したと誤判定されても、その後に再度渋滞が生じたと判定される可能性が高い。そのため、ECU7が車両10を自動運転制御可能な状況にもかかわらず、ドライバへ車両10の操作の受け渡しが要求されることになるか、あるいは、ドライバとECU7との間で、車両10の操作の受け渡しが頻繁に生じることになる。その結果として、自動運転制御によるドライバの負担軽減効果が薄れてしまう。
そこで、本実施形態によれば、検知状況判定部32が、車両10の周囲の状況が検知可能状況であると判定した場合に限り、渋滞解消判定部33が、渋滞が解消したか否かを判定するので、渋滞が解消していないにもかかわらず、渋滞が解消したと誤判定されることが防止される。そのため、ECU7が車両10を自動運転制御可能な状況においてドライバへの車両10の操作の受け渡しが要求されること、及び、ドライバとECU7との間で、車両の操作の受け渡しが頻繁に生じることが防止される。
図4(a)は、検知不能状況の一例を示す説明図であり、図4(b)は、検知可能状況の一例を示す説明図である。図4(a)に示される状況では、矢印400で示される車両10の進行方向において、車両10が走行中の道路401がカーブしており、そのカーブの内側に、遮蔽物402が存在している。そのため、遮蔽物402により、車両10の前方に、車両10に搭載されたカメラ3または距離センサにより検知できないブラインド領域403が生じている。そしてこの例では、カーブの曲率が大きいため、ブラインド領域403は、車両10の前方において、道路401の幅方向全体にわたって覆うようになっている。そのため、車両10の前方を走行する他の車両404全体がブラインド領域403内に位置する可能性がある。このように、他の車両404全体がブラインド領域403内に位置していると、車両10は、他の車両404を検知できない。この状況下で、ECU7が、渋滞が解消したか否かを判定すると、渋滞が解消したと誤判定するおそれがある。したがって、車両10の周囲がこのような検知不能状況である場合には、ECU7は、渋滞が解消したか否かを判定しない。
一方、図4(b)に示される状況においても、矢印410で示される車両10の進行方向において車両10が走行中の道路411がカーブしており、そのカーブの内側に遮蔽物412が存在している。しかしこの状況では、カーブの曲率が小さいため、遮蔽物412により生じるブラインド領域413は、道路411の一部しか隠さない。そのため、車両10の前方を走行する他の車両414全体がブラインド領域413に含まれることは無い。したがって、車両10は、他の車両414を検知できるので、ECU7が、渋滞が解消したと誤判定する可能性は低い。そのため、車両10の周囲の状況がこのような検知可能状況である場合には、ECU7は、渋滞が解消したか否かを判定してもよい。
図5は、検知不能状況の他の一例を示す説明図である。図5に示される状況では、矢印500で示される車両10の進行方向において、車両10が走行中の道路が登り坂となっており、地点501を超えた先の区間では下り坂となっている。そのため、道路を含む地面自体が遮蔽物となり、地点501よりも先の区間において車両10に搭載されたカメラ3または距離センサにより検知できないブラインド領域502が生じている。そして車両10の前方を走行する他の車両503が地点501よりも先の区間を走行していると、他の車両503全体がブラインド領域502に含まれ、車両10は、他の車両503を検知できない。したがって、車両10の周囲がこのような検知不能状況である場合には、ECU7は、渋滞が解消したか否かを判定しない。
上記のように、車両10の前方にブラインド領域が存在し、かつ、ブラインド領域内に他の車両全体が含まれる可能性が有る場合に、車両10は他の車両を検知できない可能性がある。したがって、検知状況判定部32は、車両10の前方にブラインド領域が存在し、かつ、ブラインド領域内に他の車両が含まれる可能性が有る場合、車両10の周囲の状況は検知不能状況であると判定する。
具体的に、検知状況判定部32は、車両10の現在位置と高精度地図とを参照して、車両10の進行方向に沿って車両10から所定距離以内において、車両10が走行中の道路がカーブしており、かつ、カーブの内側に遮蔽物が存在するか否か判定する。なお、車両10の現在位置は、例えば、GPS受信機2からの最新の測位情報で表される位置、あるいは、渋滞判定部31に関して説明したように、カメラ3により得られた画像と高精度地図とを照合することで推定された位置とすることができる。また、所定距離は、例えば、車両10から、渋滞が解消したか否かの判定に利用される他の車両までの距離の最大値とすることができる。車両10が走行中の道路がカーブしており、かつ、カーブの内側に遮蔽物が存在する場合、検知状況判定部32は、そのカーブの曲率が所定の曲率閾値以上か否か判定し、所定の閾値以上である場合、車両10の周囲の状況は検知不能状況であると判定する。なお、所定の閾値は、遮蔽物により生じるブラインド領域が車両10の前方を走行中の他の車両全体を含むようなカーブの最小の曲率に設定され、メモリ22に予め記憶される。なお、車両10の前方のカーブの区間が長いほど、ブラインド領域と道路とが重なる範囲が広くなるので、曲率閾値は、カーブの区間の長さごとに予め設定され、メモリ22に記憶されてもよい。この場合、車両10の前方における、カーブの区間が長くなるほど、曲率閾値は小さくなるように設定されてもよい。そして検知状況判定部32は、車両10の位置及び高精度地図を参照して、車両10の前方における、車両10が走行中の道路のカーブの区間の長さを求め、そのカーブの区間の長さに対応する曲率閾値をメモリ22から読み込んで、そのカーブの曲率との比較に利用すればよい。
あるいは、検知状況判定部32は、カメラ3により得られた画像に基づいて、車両10の前方において、車両10が走行中の道路がカーブしているか否か、及び、カーブの内側に遮蔽物が存在するか否かを判定してもよい。この場合、渋滞判定部31に関して説明したように、カメラ3により得られた画像を識別器に入力することで、車線区画線あるいは道路境界線を検出し、検出した車線区画線あるいは道路境界線に基づいて、車両10が走行中の道路の曲率を算出してもよい。例えば、渋滞判定部31は、カメラ3の内部パラメータを用いて画像に対して視点変換処理を実行することで、画像を鳥瞰画像に変換し、鳥瞰画像上での車線区画線あるいは道路境界線上の複数の点を通る円弧の曲率を、例えば最小二乗法に従って算出することで、道路の曲率を算出できる。さらに、検知状況判定部32は、カメラ3により得られた画像を識別器に入力することで、カーブの内側に位置する遮蔽物を検出してもよい。
また、検知状況判定部32は、車両10の現在位置と高精度地図とを参照して、車両10の現在位置が登り坂の途中か否か判定する。なお、車両10の現在位置は、上記のように、GPS受信機2からの最新の測位情報で表される位置、あるいは、渋滞判定部31に関して説明したように、カメラ3により得られた画像と高精度地図とを照合することで推定された位置とすることができる。車両10の現在位置が登り坂の途中である場合、検知状況判定部32は、車両10の現在位置と高精度地図とを参照して、車両10の進行方向に沿って車両10の現在位置から所定距離以内において、登り坂の頂点が存在するか否か判定する。そして車両10の現在位置から所定距離以内に登り坂の頂点が存在する場合、検知状況判定部32は、車両10の周囲の状況は検知不能状況であると判定する。なお、車両10の現在位置における登り坂の勾配が小さいほど、登り坂の頂点から先において路面からのブラインド領域の高さも低くなる。そのため、車両10の前方を走行する他の車両が登り坂の頂点よりも先に位置していても、ブラインド領域に他の車両全体が含まれ難くなる。そこで、車両10の現在位置における登り坂の勾配が所定の勾配閾値以上である場合に限り、検知状況判定部32は、車両10の周囲の状況は検知不能状況であると判定してもよい。
さらに、検知状況判定部32は、車両10の周囲の状況が上述した何れの検知不能状況にも該当しない場合、車両10の周囲の状況は検知可能状況であると判定する。すなわち、車両10の前方にブラインド領域が存在しないか、ブラインド領域が存在しても、ブラインド領域内に他の車両全体が含まれることが無い場合、検知状況判定部32は、車両10の周囲の状況は検知可能状況であると判定する。
検知状況判定部32は、車両10の周囲の状況の判定結果を渋滞解消判定部33へ通知する。
渋滞解消判定部33は、車両10の周囲の状況が検知可能状況であることが通知されると、その通知以降、所定の周期ごとに、カメラ3により得られた画像により検知された、車両10の周囲を走行する他の車両の挙動に基づいて、車両10の周囲において渋滞が解消したか否かを判定する。
例えば、渋滞解消判定部33は、道路の構造に起因して生じた渋滞が解消したか否かを判定するために、車両10の現在位置の前後に、渋滞を生じさせ易い地点(例えば、合流または分岐が有る地点)が有るか否か判定する。例えば、渋滞解消判定部33は、車両10の現在位置と高精度地図とを参照して、車両10が走行中の道路において車両10の現在位置の前後の第1の区間(例えば前後1km)以内に道路が分岐する地点(以下、分岐点と呼ぶ)が有るか、または、車両10の現在位置の手前の第2の区間(例えば、1km)以内に道路が合流する地点(以下、合流点と呼ぶ)が有るか否かを判定する。
第1の区間内に分岐点が有るか、または第2の区間内に合流点が有る場合、渋滞解消判定部33は、車両10の周囲の1以上の他の車両の平均車速または平均加速度を算出する。なお、渋滞解消判定部33は、渋滞判定部31と同様の処理を実行することで、すなわち、カメラ3から得られた時系列の一連の画像を識別器に入力して1以上の他の車両を検出するとともに検出された他の車両のそれぞれを追跡して、各画像取得時における、車両10に対する他の車両のそれぞれの相対速度を算出できる。そして渋滞解消判定部33は、各画像取得時における車両10の速度と他の車両のそれぞれの相対速度とに基づいて、他の車両のそれぞれの速度の平均値(すなわち、平均車速)または他の車両のそれぞれの加速度の平均値(すなわち平均加速度)を算出できる。渋滞解消判定部33は、他の車両の平均車速が所定の速度閾値以上であるか、あるいは、車両10の周囲の他の車両の平均加速度が所定の加速度閾値以上である場合、渋滞が解消したと判定する。なお、所定の速度閾値は、例えば、車両10が走行中の道路の法定速度または制限速度から所定のオフセット(例えば、5km/h~10km/h)を減じた速度とすることができる。また、渋滞解消判定部33は、車両10の現在位置及び高精度地図を参照することで、車両10が走行中の道路の法定速度または制限速度を特定することができる。このように、渋滞を生じさせ易い地点の有無と、他の車両の挙動とに基づいて渋滞が解消したか否かを判定することにより、渋滞解消判定部33は、車両10が走行中の道路の構造に起因する渋滞に関して、渋滞が解消したか否かを正確に判定することができる。
また、渋滞解消判定部33は、車両10が走行中の道路の少なくとも一部が塞がれる所定のイベントに起因して生じた渋滞が解消したか否かを判定するために、車両10の現在位置の前後に、その所定のイベントが生じているか否か判定する。所定のイベントには、例えば、道路工事の実施、事故の発生、路上駐車車両または落下物の存在が含まれる。このような場合、渋滞解消判定部33は、例えば、カメラ3から得られた最新の画像を識別器に入力することで、道路工事を報知する看板、あるいは、事故の発生を報知する看板といった、道路工事または事故の発生を報知する物体が存在するか否か判定する。そのような識別器として、例えば、渋滞判定部31に関して説明した識別器と同様に、CNN型のアーキテクチャを有するDNNが用いられる。識別器が、入力された画像において道路工事または事故の発生を報知する物体を検出すると、渋滞解消判定部33は、道路工事または事故が有ったと判定する。同様に、渋滞解消判定部33は、カメラ3から得られた最新の画像を識別器に入力することで、識別器が、入力された画像において道路上の落下物を検出すると、渋滞解消判定部33は、道路上の落下物が存在すると判定してもよい。あるいはまた、渋滞解消判定部33は、渋滞判定部31に関して説明したように、カメラ3から得られた時系列の一連の画像を識別器に入力することで車両10の周囲の他の車両を検出するとともに検出した他の車両を追跡することで、その追跡中において道路上に停止している車両、すなわち、路上駐車車両を検出してもよい。
渋滞解消判定部33は、所定のイベントの発生を検出すると、車両10の周囲の他の車両の平均加速度を算出する。なお、渋滞解消判定部33は、上述したように他の車両の検出及び追跡を実行することで、他の車両の平均加速度を算出できる。そして渋滞解消判定部33は、車両10の周囲の他の車両の平均加速度が所定の加速度閾値以上である場合、渋滞が解消したと判定する。このように、渋滞を生じさせ得る、道路の少なくとも一部が塞がれる所定のイベントの有無と、他の車両の挙動とに基づいて渋滞が解消したか否かを判定することにより、渋滞解消判定部33は、車両10が走行中の道路において生じた所定のイベントに起因する渋滞に関して、渋滞が解消したか否かを正確に判定することができる。
さらに、渋滞解消判定部33は、車両10の周囲の渋滞がいわゆる自然渋滞である場合に、自然渋滞が解消したか否かを判定するために、直近の所定期間における、車両10の周囲の1以上の他の車両の平均車速を算出する。なお、渋滞解消判定部33は、上述したように他の車両の検出及び追跡を実行することで、直近の所定期間における1以上の他の車両の平均車速を算出できる。
渋滞解消判定部33は、例えば、下記の(i)~(iii)の何れかの条件が成立すると、渋滞が解消したと判定する。
(i)車両10の周囲の他の車両の平均車速が、車両10が走行中の道路の法定速度または制限速度から第1のオフセット(例えば、15km/h)だけ減じた速度よりも高いことが第1の期間(例えば、10秒間)にわたって継続
(ii)車両10の周囲の他の車両の平均車速が、車両10が走行中の道路の法定速度または制限速度から第1のオフセットよりも小さい第2のオフセット(例えば、10km/h)だけ減じた速度よりも高いことが第1の期間よりも短い第2の期間(例えば、5秒間)にわたって継続
(iii)車両10の周囲の他の車両の平均車速が、車両10が走行中の道路の法定速度または制限速度から第2のオフセットよりも小さい第3のオフセット(例えば、5km/h)だけ減じた速度よりも高いことが第2の期間よりも短い第3の期間(例えば、1秒間)にわたって継続
このように、車両10の周囲の他の車両の平均車速及びその平均車速が継続した期間に基づいて渋滞が解消したか否かを判定することで、渋滞解消判定部33は、自然渋滞が解消したか否かを正確に判定することができる。
渋滞解消判定部33は、渋滞が解消したと判定するとその判定結果を車両制御部34へ通知する。
車両制御部34は、渋滞判定部31から車両10の周囲において渋滞が生じたことが通知されると、車両10に適用する運転モードを手動運転モードから自動運転モードに切り替える。その際、車両制御部34は、ユーザインターフェース6に、車両10に適用する運転モードを手動運転モードから自動運転モードに切り替えることを表すメッセージを表示させ、あるいはそのメッセージを表す音声を出力させて、ドライバに運転モードの切り替えを通知してもよい。そして車両制御部34は、その通知後に、車両10を自動運転するよう制御する。
逆に、車両制御部34は、渋滞解消判定部33から車両10の周囲の渋滞が解消したことが通知されると、車両10に適用する運転モードを自動運転モードから手動運転モードに切り替える。その際、車両制御部34は、ユーザインターフェース6に、車両10に適用する運転モードを自動運転モードから手動運転モードに切り替えることを表すメッセージを表示させ、あるいはそのメッセージを表す音声を出力させて、ドライバに運転モードの切り替えを通知する。そしてその通知から所定期間を経過すると、車両制御部34は、車両10の自動運転を停止し、それ以降、ドライバの運転操作に従って車両10の走行を制御する。なお、車両制御部34は、ステアリングに設けられたタッチセンサ(図示せず)から、ステアリングが保持されたことを表す信号を受信するまでは、車両10の自動運転を継続してもよい。
車両10に対して自動運転モードが適用されている間、目的地までの走行ルートに沿って車両10が進むよう、直近の所定の区間(例えば、500m~1km)における車両10の走行予定経路(トラジェクトリ)を1以上生成する。走行予定経路は、例えば、所定の区間を車両10が走行する際の各時刻における、車両10の目標位置の集合として表される。そして車両制御部34は、その走行予定経路に沿って車両10が走行するように車両10の各部を制御する。
車両制御部34は、カメラ3により得られた時系列の一連の画像から検出された、車両10の周囲に存在する物体(例えば、他の車両)と車両10とが衝突しないように走行予定経路を生成する。例えば、車両制御部34は、渋滞判定部31に関して説明したように、カメラ3により得られる時系列の一連の画像を識別器に入力することで物体を検出し、かつ、検出された物体を追跡する。なお、渋滞解消判定部33が物体を検出し、かつ、追跡している場合には、車両制御部34は、渋滞解消判定部33による追跡結果を利用してもよい。そして車両制御部34は、その追跡結果により得られた軌跡から、物体のそれぞれの所定時間先までの予測軌跡を推定する。その際、車両制御部34は、各画像の取得時における、車両10の位置及び姿勢と、検出された物体までの推定距離と、車両10からその物体へ向かう方向とにより、各画像の取得時における、検出された物体の位置を推定できる。なお、各画像取得時における車両10の位置及び姿勢は、渋滞判定部31に関して説明したように、カメラ3により得られた画像と高精度地図とを照合することで推定されればよい。そして車両制御部34は、各画像の取得時における、検出された物体の推定位置に対してKalman FilterまたはParticle Filterなどを用いたトラッキング処理を実行することで、その検出された物体の予測軌跡を推定することができる。
車両制御部34は、追跡中の各物体の予測軌跡に基づいて、何れの物体についても所定時間先までの追跡中の物体のそれぞれと車両10間の距離の予測値が所定距離以上となるように、車両10の走行予定経路を生成する。
なお、車両制御部34は、複数の走行予定経路を生成してもよい。この場合、車両制御部34は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。
車両制御部34は、走行予定経路を設定すると、車両10がその走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部34は、走行予定経路、及び、車速センサ(図示せず)により測定された車両10の現在の車速に従って、車両10の目標加速度を求め、その目標加速度となるようにアクセル開度またはブレーキ量を設定する。そして車両制御部34は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置へ出力する。あるいは、車両制御部34は、設定されたブレーキ量に応じた制御信号を車両10のブレーキへ出力する。
さらに、車両制御部34は、車両10が走行予定経路に沿って走行するために車両10の進路を変更する場合には、その走行予定経路に従って車両10の操舵角を求め、その操舵角に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。
図6は、プロセッサ23により実行される、手動運転モードから自動運転モードへの切り替えに関する車両制御処理の動作フローチャートである。プロセッサ23は、車両10に対して手動運転モードが適用されている間、所定の周期ごとに、以下の動作フローチャートに従って手動運転モードから自動運転モードへの切り替えに関する車両制御処理を実行すればよい。
プロセッサ23の渋滞判定部31は、車両10自身の挙動、車両10の周囲の他の車両の挙動あるいは受信した交通情報に基づいて、車両10の周囲に渋滞が生じたか否か判定する(ステップS101)。車両10の周囲に渋滞が生じていない場合(ステップS101-No)、プロセッサ23の車両制御部34は、手動運転モードの適用を継続する(ステップS102)。一方、車両10の周囲に渋滞が生じている場合(ステップS101-Yes)、車両制御部34は、適用される運転モードを手動運転モードから自動運転モードへ切り替える(ステップS103)。そしてその切り替え以降、車両制御部34は、車両10を自動運転するよう制御する。ステップS102またはS103の後、プロセッサ23は、手動運転モードから自動運転モードへの切り替えに関する車両制御処理を終了する。
図7は、プロセッサ23により実行される、自動運転モードから手動運転モードへの切り替えに関する車両制御処理の動作フローチャートである。プロセッサ23は、車両10に対して自動運転モードが適用されている間、所定の周期ごとに、以下の動作フローチャートに従って自動運転モードから手動運転モードへの切り替えに関する車両制御処理を実行すればよい。
プロセッサ23の検知状況判定部32は、車両10の現在位置、高精度地図またはカメラ3により得られた画像に基づいて、車両10の周囲の状況が検知可能状況か否か判定する(ステップS201)。車両10の周囲の状況が検知不能状況である場合(ステップS201-No)、プロセッサ23の渋滞解消判定部33は、渋滞が解消したか否を判定せず、プロセッサ23の車両制御部34は、自動運転モードの適用を継続する(ステップS202)。
一方、車両10の周囲の状況が検知可能状況である場合(ステップS201-Yes)、渋滞解消判定部33は、車両10の現在位置、高精度地図またはカメラ3により得られた画像に基づいて、車両10の周囲の渋滞が解消したか否か判定する(ステップS203)。車両10の周囲の渋滞が解消していない場合(ステップS203-No)、車両制御部34は、自動運転モードの適用を継続する(ステップS202)。
一方、車両10の周囲の渋滞が解消した場合(ステップS203-Yes)、車両制御部34は、適用される運転モードを自動運転モードから手動運転モードへ切り替える(ステップS204)。そしてその切り替え以降、車両制御部34は、車両10の自動運転を停止する。ステップS202またはS204の後、プロセッサ23は、自動運転モードから手動運転モードへの切り替えに関する車両制御処理を終了する。
以上に説明してきたように、この車両制御装置は、車両の周囲が渋滞している間、車両を自動運転するよう制御する。そしてこの車両制御装置は、車両の周囲において渋滞が解消されると、車両に適用される運転モードを自動運転モードから手動運転モードへ切り替える。その際、この車両制御装置は、渋滞が解消したと誤判定することを防止するために、車両の周囲の状況が検知可能状況か否か判定する。そしてこの車両制御装置は、検知可能状況である場合に限り、渋滞が解消したか否かを判定する。このように、この車両制御装置は、車両周囲の他の車両の挙動を正確に検知できない状況下で渋滞が解消したか否かを判定しないので、渋滞が解消したと誤判定することを防止できる。そのため、この車両制御装置は、渋滞中であると判定された状態と、渋滞が解消したと判定された状態とが頻繁に切り替わり、自動運転制御と手動運転制御間の制御の移行が頻発することを抑制できる。その結果として、この車両制御装置は、ドライバへの車両の操作の受け渡しが頻繁に要求されることを防止して、ドライバの負担を軽減することができる。
変形例によれば、検知状況判定部32は、車両10の周囲の環境に応じて、検知可能状況か否かの判定基準を変更してもよい。例えば、上記の実施形態に記載した遮蔽物以外で、車両10に搭載されたカメラ3または距離センサの検知範囲の少なくとも一部を遮蔽する物体が車両10の前方に存在する場合、検知状況判定部32は、検知不能状況であると判定してもよい。そのような物体には、例えば、トンネルなどの柱、工事区間を表す看板、停止車両及び料金所が含まれる。検知状況判定部32は、車両10の現在位置と高精度地図とを参照して、車両10の前方の所定距離以内にそのような物体が存在するか否かを判定し、そのような右物体が存在する場合に、検知不能状況であると判定してもよい。なお、車両10の現在位置は、上記のように、GPS受信機2からの最新の測位情報で表される位置、あるいは、渋滞判定部31に関して説明したように、カメラ3により得られた画像と高精度地図とを照合することで推定された位置とすることができる。あるいは、検知状況判定部32は、カメラ3から得られた画像を識別器に入力することでそのような物体が検出されると、検知不能状況であると判定してもよい。検知状況判定部32は、識別器として、上記の実施形態の渋滞判定部31に関して説明したように、そのような物体を検出するように予め学習された、CNN型のアーキテクチャを有するDNNを使用することができる。
また、検知状況判定部32は、逆光あるいは発煙筒の煙などによる一時的な視界不良が生じている場合に、検知不能状況であると判定してもよい。例えば、カメラ3の撮影条件が逆光条件となっている場合、カメラ3により得られた画像の一部領域(例えば、太陽が表された領域)の輝度が非常に高くなる。また、発煙筒の煙が画像に写っている場合には、その煙が写っている領域の輝度は略一様となる。そこで、検知状況判定部32は、例えば、カメラ3により得られた画像を複数の部分領域(例えば、縦2×横2あるいは縦3×横3の部分領域)に分割し、部分領域ごとに平均輝度値または輝度の分散を算出する。そして検知状況判定部32は、平均輝度値が所定の輝度閾値(例えば、取り得る輝度の最大値に0.95を乗じて得られる値)以上となるか、輝度の分散が所定の分散閾値以下となる部分領域が一つ以上存在する場合、検知不能状況であると判定してもよい。
さらに、車両10の進路前方の道路(例えば、カーブしている地点、あるいは、走行予定ルートに沿って走行する場合において左折または右折する交差点)の曲率によっては、車両10の前方を走行する他の車両がカメラ3または距離センサの検知範囲から外れることがある。そこで検知状況判定部32は、車両10の進路前方の道路の曲率が所定の曲率閾値以上である場合に、検知不能状況であると判定してもよい。なお、検知状況判定部32は、上記の実施形態において説明したように、車両10の現在位置及び高精度地図を参照することにより、あるいは、カメラ3により得られた画像から車線区画線などを検出することにより、車両10の進路前方の道路の曲率をもとめることができる。
他の変形例によれば、車両制御部34は、車両10の周囲の渋滞が解消した場合に車両10に適用される自動運転の制御レベルを、車両10の周囲が渋滞している場合の制御レベルよりも低下させてもよい。例えば、車両制御部34は、車両10の周囲の渋滞が解消した場合において、ドライバが車両10の前方を監視していることを条件として、車両10の自動運転制御を継続してもよい。この場合、車両制御部34は、例えば、車両10の車室内においてドライバの頭部を撮影するように設けられたドライバモニタカメラ(図示せず)から得られた車内画像から、ドライバの視線方向を検出することで、ドライバが車両10の前方を監視しているか否かを判定すればよい。そのために、車両制御部34は、例えば、車内画像からドライバの瞳孔及びドライバを照明する光源の角膜反射像(プルキンエ像)を検出し、その瞳孔の重心とプルキンエ像との位置関係に基づいて、ドライバの視線方向を検出すればよい。
あるいは、車両制御部34は、車両10の周囲の渋滞が解消した場合において、車両10と車両10の前方を走行する他の車両との車間距離が一定に保たれるように、車両10の速度を自動制御してもよい。ただしこの場合、車両制御部34は、ドライバによるステアリング操作に従って車両10の進行方向を制御する。
また、上記の実施形態または変形例による、ECU7のプロセッサ23の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 車両制御システム
10 車両
2 GPS受信機
3 カメラ
4 無線通信器
5 ストレージ装置
6 ユーザインターフェース
7 電子制御装置(ECU)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 渋滞判定部
32 検知状況判定部
33 渋滞解消判定部
34 車両制御部

Claims (5)

  1. 渋滞中に車両を自動運転制御する車両制御装置であって、
    前記車両の周囲の状況が、前記車両の進行方向における、前記車両から所定距離以内の道路を走行する他の車両を、前記車両に搭載された前記車両の周囲の状況を検知するセンサで検知することが可能な検知可能状況か否か判定する検知状況判定部と、
    前記車両の周囲の状況が前記検知可能状況である場合、前記センサにより得られたセンサ信号に基づいて検知された前記他の車両の挙動に基づいて、前記車両の周囲において渋滞が解消したか否かを判定する渋滞解消判定部と、
    を有する車両制御装置。
  2. 前記検知状況判定部は、記憶部に記憶される地図情報または前記センサにより前記車両の進行方向を撮影して得られる画像に基づいて、前記所定距離以内において前記他の車両を検知できないブラインド領域が存在するか否か判定し、前記ブラインド領域が存在する場合に、検知可能状況でないと判定する、請求項1に車両制御装置。
  3. 前記検知状況判定部は、前記地図情報及び前記車両の現在位置に基づいて、または、前記画像に基づいて、前記車両の進行方向における道路が前記所定距離以内においてカーブしており、かつ、前記道路のカーブの内側に遮蔽物が存在することを検知し、かつ、前記道路のカーブの曲率が所定の閾値以上である場合に、前記ブラインド領域が存在すると判定する、請求項2に記載の車両制御装置。
  4. 前記検知状況判定部は、前記地図情報及び前記車両の現在位置に基づいて、前記車両の現在位置が登り坂の途中であり、かつ、前記所定距離以内に前記登り坂の頂点が位置することを検知した場合に、前記ブラインド領域が存在すると判定する、請求項2に記載の車両制御装置。
  5. 渋滞中に車両を自動運転制御する車両制御方法であって、
    前記車両の周囲の状況が、前記車両の進行方向における、前記車両から所定距離以内の道路を走行する他の車両を、前記車両に搭載された前記車両の周囲の状況を検知するセンサで検知することが可能な検知可能状況か否か判定し、
    前記車両の周囲の状況が前記検知可能状況である場合、前記センサにより得られたセンサ信号に基づいて検知された前記他の車両の挙動に基づいて、前記車両の周囲において渋滞が解消したか否かを判定する、
    ことを含む車両制御方法。
JP2020173579A 2020-10-14 2020-10-14 車両制御装置及び車両制御方法 Pending JP2022064762A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020173579A JP2022064762A (ja) 2020-10-14 2020-10-14 車両制御装置及び車両制御方法
US17/498,831 US20220111841A1 (en) 2020-10-14 2021-10-12 Vehicle controller and method for controlling vehicle
CN202111190387.8A CN114348015A (zh) 2020-10-14 2021-10-13 车辆控制装置和车辆控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020173579A JP2022064762A (ja) 2020-10-14 2020-10-14 車両制御装置及び車両制御方法

Publications (1)

Publication Number Publication Date
JP2022064762A true JP2022064762A (ja) 2022-04-26

Family

ID=81078777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173579A Pending JP2022064762A (ja) 2020-10-14 2020-10-14 車両制御装置及び車両制御方法

Country Status (3)

Country Link
US (1) US20220111841A1 (ja)
JP (1) JP2022064762A (ja)
CN (1) CN114348015A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230211777A1 (en) * 2022-01-05 2023-07-06 GM Global Technology Operations LLC Assistance system with leader determination module for automated vehicle in a merging trajectory
CN114999150A (zh) * 2022-05-23 2022-09-02 雄狮汽车科技(南京)有限公司 路段拥堵判别方法、装置、车辆及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1044826A (ja) * 1996-08-05 1998-02-17 Toyota Motor Corp 追従走行制御装置
US7804980B2 (en) * 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
US8630806B1 (en) * 2011-10-20 2014-01-14 Google Inc. Image processing for vehicle control
DE102012023108A1 (de) * 2012-11-27 2014-06-12 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
EP2757013B1 (en) * 2013-01-21 2019-08-14 Volvo Car Corporation Vehicle driver assist arrangement
EP3624081A1 (en) * 2014-10-30 2020-03-18 Mitsubishi Electric Corporation In-vehicle device and autonomous vehicle including such an in-vehicle device
EP3372466B1 (en) * 2015-11-04 2020-06-10 Nissan Motor Co., Ltd. Autonomous vehicle operating apparatus and autonomous vehicle operating method
CN108638966A (zh) * 2018-06-11 2018-10-12 南宁学院 一种基于盲区监测的汽车辅助驾驶系统及辅助驾驶方法
JP6898658B2 (ja) * 2018-06-13 2021-07-07 株式会社Subaru 車両の運転支援装置
EP4071023A4 (en) * 2019-12-24 2023-01-11 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR CONTROLLING AN AUTONOMOUS VEHICLE

Also Published As

Publication number Publication date
CN114348015A (zh) 2022-04-15
US20220111841A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
US10145692B2 (en) Vehicle position determination apparatus and vehicle position determination method
JP7047824B2 (ja) 車両制御装置
US20180037223A1 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
EP2269883A1 (en) Lane judgement equipment and navigation system
US20110128136A1 (en) On-vehicle device and recognition support system
JP2021115983A (ja) 自動運転装置
JP2022064762A (ja) 車両制御装置及び車両制御方法
US11938972B2 (en) Vehicle controller and method for controlling vehicle
CN114103954B (zh) 行驶车道计划装置、存储介质以及行驶车道计划方法
CN115195755A (zh) 车辆控制装置、存储介质以及车辆控制方法
CN111204342B (zh) 地图信息系统
KR20170082374A (ko) 차선 인식장치
CN115214667A (zh) 车辆控制装置、存储介质以及车辆控制方法
JP2008145247A (ja) 車両用現在位置特定装置
CN113799782B (zh) 车辆控制装置及车辆控制方法
JP2022016027A (ja) 車両制御装置
JP7067888B2 (ja) 合流支援装置、合流支援システム、車載器、合流支援方法、及びプログラム
JP2022027305A (ja) 危険運転検出装置、危険運転検出システム、及び危険運転検出プログラム
US20230080630A1 (en) Traveling lane planning device, storage medium storing computer program for traveling lane planning, and traveling lane planning method
US20240067232A1 (en) Vehicle controller, vehicle control method, and vehicle control computer program for vehicle control
US20240067222A1 (en) Vehicle controller, vehicle control method, and vehicle control computer program for vehicle control
US20220316912A1 (en) Map information assessment device, medium storing computer program for map information assessment, and map information assessment method
JP2024031063A (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP2024030531A (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP2023118462A (ja) 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240328