JP7184951B2 - 車両制御装置、車両制御方法、およびプログラム - Google Patents

車両制御装置、車両制御方法、およびプログラム Download PDF

Info

Publication number
JP7184951B2
JP7184951B2 JP2021053833A JP2021053833A JP7184951B2 JP 7184951 B2 JP7184951 B2 JP 7184951B2 JP 2021053833 A JP2021053833 A JP 2021053833A JP 2021053833 A JP2021053833 A JP 2021053833A JP 7184951 B2 JP7184951 B2 JP 7184951B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
road
recognition
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021053833A
Other languages
English (en)
Other versions
JP2022150979A (ja
Inventor
大地 井上
祥 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021053833A priority Critical patent/JP7184951B2/ja
Priority to CN202210154480.1A priority patent/CN115195775A/zh
Priority to US17/676,871 priority patent/US20220309804A1/en
Publication of JP2022150979A publication Critical patent/JP2022150979A/ja
Application granted granted Critical
Publication of JP7184951B2 publication Critical patent/JP7184951B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement

Description

本発明は、車両制御装置、車両制御方法、およびプログラムに関する。
近年、車両の走行を自動的に制御することについて研究が進められている。これに関連して、道路上の左側レーンマーカと右側レーンマーカの形状の左右差が検出された場合に、過去のレーンマーカ情報に基づいて自車の進行方向のレーンマーカを推定し、形状の差異に基づいて道路のレーン状況を判断し、レーン状況に基づいて自車の走行を制御する車両走行支援装置の発明が開示されている(例えば、特許文献1参照)。
特許第6790187号公報
ここで、自動運転では、車載カメラの撮像画像から認識された第1の道路区画線と地図情報から認識された第2の道路区画線とで比較を行い、合致した場合には自動運転を継続させ、合致しなかった場合には自動運転を終了させる制御が行われる場合がある。この場合には、道路区画線の認識状況によっては適切な運転制御が実行できない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、道路区画線の認識状況に応じて、より適切な運転制御を実行することができる車両制御装置、車両制御方法、およびプログラムを提供することを目的とする。
この発明に係る車両制御装置、車両制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る車両制御装置は、車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する道路区画線を認識する第1認識部と、前記第1認識部と異なる手段で前記走行車線を区画する道路区画線を認識する第2認識部と、前記第1認識部により認識された第1の道路区画線と、前記第2認識部により認識された第2の道路区画線とを比較する比較部と、前記比較部による比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1認識部が誤認識であると判定する場合と、前記第1認識部または前記第2認識部のうち一方または双方が誤認識であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行う判定部と、を備える、車両制御装置である。
(2):上記(1)の態様において、前記車両の加減速および操舵のうち少なくとも一方を制御する運転制御部を更に備え、前記運転制御部は、前記判定部による判定結果に基づいて、前記車両の乗員に課されるタスクが異なる複数の運転モードのうち何れかを実行するものである。
(3):上記(1)または(2)の態様において、前記判定部による判定結果に基づいて、前記車両の状態に関する情報もしくは警告を出力装置に出力させて、前記車両の乗員に報知する出力制御部を更に備えるものである。
(4):上記(2)の態様において、前記複数の運転モードは、第1の運転モードと、前記第1の運転モードよりも前記乗員に課されるタスクが重度な第2の運転モードとを含み、前記運転制御部は、前記第1の運転モードが実行中であり、且つ前記判定部により前記第1認識部が誤認識であると判定された場合に、前記第2の道路区画線に基づいて前記第1の運転モードを継続させるものである。
(5):上記(4)の態様において、前記運転制御部は、前記第1の運転モードが実行中であり、且つ前記判定部により前記第1認識部または前記第2認識部のうち一方または双方が誤認識であると判定された場合に、前記車両の運転モードを前記第1の運転モードから前記第2の運転モードに変更するものである。
(6):上記(1)~(5)のうち何れか一つの態様において、前記判定部は、前記第1の道路区画線の曲率変化量および前記第1の道路区画線と前記第2の道路区画線とがなす角度に基づく判定条件に基づいて、前記複数の誤認識判定のうち何れか一つの判定を行うものである。
(7):上記(6)の態様において、前記判定部は、前記車両の周辺状況に基づいて、前記判定条件を変更するものである。
(8):上記(7)の態様において、前記判定部は、前記車両の進行方向に分岐、合流、トンネルの入口或いは出口が存在する場合、または、前走車両が車線変更または蛇行運転している場合に、前記第1認識部が誤認識であると判定され易くなるように、前記第1の判定条件および前記第2の判定条件を変更するものである。
(9):上記(7)または(8)の態様において、前記判定部は、前記車両の進行方向にカーブ路の入口または出口が存在する場合に、前記第1認識部が誤認識であると判定されることを抑制するように、前記判定条件を変更するものである。
(10):この発明の一態様に係る車両制御方法は、車両制御装置のコンピュータが、車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する第1の道路区画線を認識し、前記第1の道路区画線を認識した手段と異なる手段で前記走行車線を区画する第2の道路区画線を認識し、認識した前記第1の道路区画線と前記第2の道路区画線とを比較し、比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1の道路区画線が誤認識された区画線であると判定する場合と、前記第1の道路区画線または前記第2の道路区画線のうち一方または双方が誤認識された区画線であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行う、車両制御方法である。
(11):この発明の一態様に係るプログラムは、車両制御装置のコンピュータに、車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する第1の道路区画線を認識させ、前記第1の道路区画線を認識した手段と異なる手段で前記走行車線を区画する第2の道路区画線を認識させ、認識された前記第1の道路区画線と前記第2の道路区画線とを比較させ、比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1の道路区画線が誤認識された区画線であると判定する場合と、前記第1の道路区画線または前記第2の道路区画線のうち一方または双方が誤認識された区画線であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行わせる、プログラムである。
上記(1)~(11)の態様によれば、道路区画線の認識状況に応じて、より適切な運転制御を実行することができる。
実施形態に係る車両制御装置を含む車両システム1の構成図である。 第1制御部120および第2制御部160の機能構成図である。 運転モードと車両Mの制御状態、およびタスクの対応関係の一例を示す図である。 第1認識部132、第2認識部134、比較部152、および誤認識判定部154の処理の内容について説明するための図である。 曲率変化量の乖離度合について説明するための図である。 剥離角度について説明するための図である。 曲率変化量と剥離角度とを用いた誤認識判定について説明するための図である。 車両Mの周辺状況に応じて、領域AR1~AR3を変更することについて説明するための図である。 第1認識部132が誤認識であると判定されることを抑制するために領域AR1~AR3を変更することについて説明するための図である。 自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。 ステップS106の処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。以下では、一例として、車両制御装置が自動運転車両に適用された実施形態について説明する。自動運転とは、例えば、自動的に車両の操舵または速度のうち、一方または双方を制御して運転制御を実行することである。運転制御には、例えば、LKAS(Lane Keeping Assistance System)や、ALC(Auto Lane Changing)、ACC(Adaptive Cruise Control System)、CMBS(Collision Mitigation Brake System)等といった種々の運転制御が含まれてよい。また、運転制御には、ADAS(Advanced Driver Assistance System)等の運転支援制御が含まれてよい。自動運転車両は、乗員(運転者)の手動運転によって運転が制御されることがあってもよい。
[全体構成]
図1は、実施形態に係る車両制御装置を含む車両システム1の構成図である。車両システム1が搭載される車両(以下、車両Mと称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池等のバッテリ(蓄電池)の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、ドライバモニタカメラ70と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。自動運転制御装置100は、「車両制御装置」の一例である。カメラ10と、レーダ装置12と、LIDAR14と、物体認識装置16とを組み合わせたものが「検知デバイスDD」の一例である。HMI30は、「出力装置」の一例である。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両Mの任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面、車体の前頭部等に取り付けられる。後方を撮像する場合、カメラ10は、リアウインドシールド上部やバックドア等に取り付けられる。側方を撮像する場合、カメラ10は、ドアミラー等に取り付けられる。カメラ10は、例えば、周期的に繰り返し車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、車両Mの周辺にミリ波等の電波を放射すると共に、周辺の物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
LIDAR14は、車両Mの周辺に光を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、車両Mの周辺の物体の位置、種類、速度等を認識する。物体には、例えば、他車両(例えば、車両Mから所定距離以内に存在する周辺車両)、歩行者、自転車、道路構造物等が含まれる。道路構造物には、例えば、道路標識や交通信号機、踏切、縁石、中央分離帯、ガードレール、フェンス等が含まれる。また、道路構造物には、例えば、路面に描画または貼付された道路区画線(以下、単に「区画線」と称する)や横断歩道、自転車横断帯、一時停止線等の路面標識が含まれてもよい。物体認識装置16は、認識結果を自動運転制御装置100に出力する。なお、物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。その場合、車両システム1(具体的には検知デバイスDD)の構成から物体認識装置16が省略されてもよい。また、物体認識装置16は、自動運転制御装置100に含まれていてもよい。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)、LAN(Local Area Network)、WAN(WiDe Area Network)、インターネット等のネットワークを利用して、例えば、車両Mの周辺に存在する他車両、車両Mを利用する利用者の端末装置、或いは各種サーバ装置と通信する。
HMI30は、車両Mの乗員に対して各種情報を出力すると共に、乗員による入力操作を受け付ける。HMI30には、例えば、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キー、マイク等が含まれる。
車両センサ40は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、ヨーレート(例えば、車両Mの重心点を通る鉛直軸回りの回転角速度)を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。また、車両センサ40は、車両Mの位置を検出する位置センサが設けられていてもよい。位置センサは、例えば、GPS(Global Positioning System)装置から位置情報(経度・緯度情報)を取得するセンサである。また、位置センサは、ナビゲーション装置50のGNSS(Global Navigation Satellite System)受信機51を用いて位置情報を取得するセンサであってもよい。車両センサ40により検出した結果は、自動運転制御装置100に出力される。
ナビゲーション装置50は、例えば、GNSS受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。GNSS受信機51は、車両センサ40に設けられてもよい。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、所定区間の道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、POI(Point Of Interest)情報等を含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。ナビゲーション装置50は、決定した地図上経路を、MPU60に出力する。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、例えば、左から何番目の車線を走行するといった決定を行う。車線は、区画線により区画されている。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、道路形状や道路構造物に関する情報等を含んでいる。道路形状には、第1地図情報54よりも更に詳細な道路形状として、例えば、分岐や合流、トンネル(入口、出口)、カーブ路(入口、出口)、道路または区画線の曲率半径(或いは曲率)や曲率変化量、車線数、幅員、勾配等が含まれる。上記情報は、第1地図情報54に格納されていてもよい。道路構造物に関する情報には、道路構造物の種別、位置、道路の延伸方向に対する向き、大きさ、形状、色等の情報が含まれてよい。道路構造物の種別において、例えば、区画線を1つの種別としてもよく、区画線に属するレーンマークや縁石、中央分離帯等のそれぞれを異なる種別としてもよい。また、区画線の種別には、例えば、車線変更が可能であることを示す区画線と、車線変更が不可能であることを示す区画線とが含まれてもよい。区画線の種別は、例えば、リンクを基準とした道路または車線の区間ごとに設定されてもよく、1つのリンク内に複数の種別が設定されてもよい。
また、第2地図情報62には、道路や建物の位置情報(緯度経度)、住所情報(住所・郵便番号)、施設情報等が含まれてよい。第2地図情報62は、通信装置20が外部装置と通信することにより、随時、アップデートされてよい。第1地図情報54および第2地図情報62は、地図情報として一体に設けられていてもよい。また、地図情報(第1地図情報54および第2地図情報62)は、記憶部190に記憶されていてもよい。
ドライバモニタカメラ70は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。ドライバモニタカメラ70は、車両Mの運転席に着座した運転者や助手席や後部座席に着座した他の乗員の頭部を正面から(顔面を撮像する向きで)撮像可能な位置および向きで、車両Mにおける任意の箇所に取り付けられる。例えば、ドライバモニタカメラ70は、車両Mのインストルメントパネルの中央部に設けられたディスプレイ装置の上部や、フロンドウインドシールドの上部、ルームミラー等に取り付けられる。ドライバモニタカメラ70は、例えば、周期的に繰り返し車室内を含む画像を撮像する。
運転操作子80は、例えば、ステアリングホイール82の他、アクセルペダル、ブレーキペダル、シフトレバー、その他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。ステアリングホイール82は、「運転者による操舵操作を受け付ける操作子」の一例である。操作子は、必ずしも環状である必要は無く、異形ステアリングホイールやジョイスティック、ボタンなどの形態であってもよい。ステアリングホイール82には、ステアリング把持センサ84が取り付けられている。ステアリング把持センサ84は、静電容量センサなどにより実現され、運転者がステアリングホイール82を把持している(力を加えられる状態で接していることをいう)か否かを検知可能な信号を自動運転制御装置100に出力する。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、HMI制御部180と、記憶部190とを備える。第1制御部120と、第2制御部160と、HMI制御部180とは、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。上述のプログラムは、予め自動運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM、メモリカード等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置やカードスロット等に装着されることで自動運転制御装置100の記憶装置にインストールされてもよい。行動計画生成部140と第2制御部160とを合わせたものが「運転制御部」の一例である。HMI制御部180は、「出力制御部」の一例である。
記憶部190は、上記の各種記憶装置、或いはEEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現されてもよい。記憶部190には、例えば、実施形態における各種制御を実行するために必要な情報、プログラム、その他の各種情報等が格納される。また、記憶部190には、地図情報(第1地図情報54、第2地図情報62)が格納されていてもよい。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140と、モード決定部150とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。また、第1制御部120は、例えば、MPU60やHMI制御部180等からの指示に基づいて車両Mの自動運転に関する制御を実行する。
認識部130は、検知デバイスDDの認識の結果(カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報)に基づいて、車両Mの周辺状況を認識する。例えば、認識部130は、車両M、および車両Mの周辺に存在する物体の種別や位置、速度、加速度等の状態を認識する。物体の種別は、例えば、物体が車両であるか、歩行者であるか等の種別であってもよく、車両ごとに識別するための種別であってもよい。物体の位置は、例えば、車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標系(以下、車両座標系)の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー、進行方向の先端部等の代表点で表されてもよいし、表現された領域で表されてもよい。速度には、例えば、走行する車線の進行方向(縦方向)に対する車両Mおよび他車両の速度(以下、縦速度と称する)と、車線の横方向に対する車両Mおよび他車両の速度(以下、横速度)とが含まれる。物体の「状態」とは、例えば、物体が他車両等の移動体である場合には、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、認識部130は、例えば、第1認識部132と、第2認識部134とを備える。これらの機能の詳細については後述する。
行動計画生成部140は、認識部130の認識の結果に基づいて、自動運転等の運転制御により車両Mを走行させる行動計画を生成する。例えば、行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、認識部130による認識結果または地図情報から取得された車両Mの現在位置に基づく周辺の道路形状、区画線の認識結果等に基づいて、車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度(および目標加速度)が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両Mの到達すべき位置であってもよい。この場合、目標速度(および目標加速度)の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。イベントには、例えば、車両Mを一定の速度で同じ車線を走行させる定速走行イベント、車両Mの前方の所定距離以内(例えば100[m]以内)に存在し、車両Mに最も近い他車両(以下、前方車両と称する)に車両Mを追従させる追従走行イベント、車両Mを自車線から隣接車線へと車線変更させる車線変更イベント、道路の分岐地点で車両Mを目的地側の車線に分岐させる分岐イベント、合流地点で車両Mを本線に合流させる合流イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバーイベント等が含まれる。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
モード決定部150は、車両Mの運転モードを、運転者(乗員の一例)に課されるタスクが異なる複数の運転モードのいずれかに決定する。モード決定部150は、例えば、比較部152と、誤認識判定部154と、運転者状態判定部156と、モード変更処理部158とを備える。誤認識判定部154は、「判定部」の一例である。これらの機能の詳細については後述する。
図3は、運転モードと車両Mの制御状態、およびタスクの対応関係の一例を示す図である。車両Mの運転モードには、例えば、モードAからモードEの5つのモードがある。上記5つのモードにおいて、制御状態すなわち車両Mの運転制御の自動化度合いは、モードAが最も高く、次いでモードB、モードC、モードDの順に低くなり、モードEが最も低い。この逆に、運転者に課されるタスクは、モードAが最も軽度であり、次いでモードB、モードC、モードDの順に重度となり、モードEが最も重度である。なお、モードDおよびEでは自動運転でない制御状態となるため、自動運転制御装置100としては自動運転に係る制御を終了し、運転支援または手動運転に移行させるまでが責務である。以下、それぞれの運転モードの内容について例示する。
モードAでは、自動運転の状態となり、運転者には車両Mの周辺監視、ステアリングホイール82の把持(図ではステアリング把持)のいずれも課されない。周辺監視は、少なくとも車両Mの前方の監視が含まれる。但し、モードAであっても運転者は、自動運転制御装置100を中心としたシステムからの要求に応じて速やかに手動運転に移行できる体勢であることが要求される。なお、ここで言う自動運転とは、操舵、加減速のいずれも運転者の操作に依らずに制御されることをいう。前方とは、フロントウインドシールドを介して視認される車両Mの進行方向の空間を意味する。モードAは、例えば、高速道路などの自動車専用道路において、所定速度(例えば50[km/h]程度)以下で車両Mが走行しており、追従対象の前走車両が存在するなどの条件が満たされる場合に実行可能な運転モードであり、TJP(Traffic Jam Pilot)と称される場合もある。この条件が満たされなくなった場合、モード決定部150は、モードBに車両Mの運転モードを変更する。
モードBでは、運転支援の状態となり、運転者には車両Mの前方を監視するタスク(以下、前方監視)が課されるが、ステアリングホイール82を把持するタスクは課されない。モードCでは、運転支援の状態となり、運転者には前方監視のタスクと、ステアリングホイール82を把持するタスクが課される。モードDは、車両Mの操舵と加減速のうち少なくとも一方に関して、ある程度の運転者による運転操作が必要な運転モードである。例えば、モードCやモードDでは、ACCやLKASといった運転支援が行われる。ACCとは、車両Mの先行車との車間距離を一定に保ちつつ、車両Mを先行車に追従走行させる機能である。LKASとは、車両Mが走行車線の中央付近を走行するように車両Mの車線維持を支援する機能である。モードEでは、操舵、加減速ともに運転者による運転操作が必要な手動運転の状態となり、ACCやLKASといった運転支援も行われない。モードD、モードEともに、当然ながら運転者には車両Mの前方を監視するタスクが課される。実施形態において、例えば、モードAが「第1の運転モード」である場合には、モードB~モードEが「第2の運転モード」の一例となる。また、モードBが「第1の運転モード」である場合には、モードC~モードEが「第2の運転モード」の一例となる。つまり、第2の運転モードは、第1の運転モードよりも運転者に課されるタスクが重度のタスクである。
モード決定部150は、決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに車両Mの運転モードを変更する。例えば、モードAにおいて運転者が、システムからの要求に応じて手動運転に移行できない体勢である場合(例えば許容エリア外の脇見を継続している場合や、運転困難となる予兆が検出された場合)、モード決定部150は、HMI30を用いて運転者に手動運転への移行を促し、運転者が応じなければ車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。自動運転を停止した後は、自車両はモードDまたはEの状態になり、運転者の手動操作によって車両Mを発進させることが可能となる。以下、「自動運転を停止」に関して同様である。モードBにおいて運転者が前方を監視していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を促し、運転者が応じなければ車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。モードCにおいて運転者が前方を監視していない場合、或いはステアリングホイール82を把持していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を、および/またはステアリングホイール82を把持するように促し、運転者が応じなければ車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。第2制御部160は、例えば、目標軌道取得部162と、速度制御部164と、操舵制御部166とを備える。目標軌道取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、車両Mの前方の道路の曲率半径(或いは曲率)に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
HMI制御部180は、HMI30により乗員に所定の情報を通知する。所定の情報には、例えば、車両Mの状態に関する情報や運転制御に関する情報等の車両Mの走行に関連のある情報が含まれる。車両Mの状態に関する情報には、例えば、車両Mの速度、エンジン回転数、シフト位置等が含まれる。また、運転制御に関する情報には、例えば、自動運転による運転制御の実行の有無、自動運転を開始するか否かを問い合わせる情報、自動運転による運転制御の状況(例えば、実行中の運転モードやイベントの内容)、運転モードの切り替えに関する情報等が含まれる。また、所定の情報には、テレビ番組、DVD等の記憶媒体に記憶されたコンテンツ(例えば、映画)等の車両Mの走行制御に関連しない情報が含まれてもよい。また、所定の情報には、例えば、車両Mの現在位置や目的地、燃料の残量に関する情報が含まれてよい。
例えば、HMI制御部180は、上述した所定の情報を含む画像を生成し、生成した画像をHMI30の表示装置に表示させもよく、所定の情報を示す音声を生成し、生成した音声をHMI30のスピーカから出力させてもよい。また、HMI制御部180は、HMI30により受け付けられた情報を通信装置20、ナビゲーション装置50、第1制御部120等に出力してもよい。また、HMI制御部180は、HMI30に出力させる各種情報を、通信装置20を介して車両Mの乗員が利用する端末装置に送信してもよい。端末装置は、例えば、スマートフォンやタブレット端末である。
走行駆動力出力装置200は、車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80のアクセルペダルから入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80のブレーキペダルから入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、ブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80のステアリングホイールから入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[認識部、モード決定部]
以下、認識部130およびモード決定部150に含まれる各機能の詳細について説明する。図4は、第1認識部132、第2認識部134、比較部152、および誤認識判定部154の処理の内容について説明するための図である。図4の例では、同一方向(図中X軸方向)に進行可能な車線L1が示されている。車線L1は、区画線LLおよびRLで区画されている。車線L1は、例えば、高速道路や自動車専用道路、その他の車両優先の幹線道路であるものとする。以降の車線L2~L3についても同様とする。図4の例において、車両Mは、車線L1の延伸方向に沿って速度VMで走行しているものとする。
第1認識部132は、例えば、検知デバイスDDの出力に基づいて、車両Mの走行車線(車線L1)を区画する左右の区画線LL1、RL1を認識する。区画線L11、RL1は、「第1の道路区画線」の一例である。例えば、第1認識部132は、カメラ10により撮像された画像を解析し、画像において隣接画素との輝度差が大きいエッジ点を抽出し、エッジ点を連ねて画像平面における区画線LL1、RL1を認識する。また、第1認識部132は、自車両Mの代表点(例えば、重心または中心)の位置情報(図中(X1,Y1))を基準とした、区画線LL1、RL1の位置を車両座標系(例えば、図中のXY平面座標)に変換する。また、第1認識部132は、例えば、区画線LL1、RL1の曲率半径または曲率を認識する。また、第1認識部132は、区画線LL1、RL1の曲率変化量を認識してもよい。曲率変化量とは、例えば、カメラ10によって認識される区画線LL1、RL1の車両Mから見て前方X[m]における曲率Rの時間変化率である。また、第1認識部132は、区画線LL1およびRL1のそれぞれの曲率半径、曲率、または曲率変化量を平均して、道路(車線L1)の曲率半径、曲率、または曲率変化量を認識してもよい。
第2認識部134は、例えば、第1認識部132と異なる手段で車両Mの走行車線L1を区画する区画線LL2、RL2を認識する。区画線LL2、RL2は、「第2の道路区画線」の一例である。「異なる手段」には、例えば、区画線を認識する装置が異なる場合、方法が異なる場合、および、入力される情報が異なる場合のうち、少なくとも一つが含まれる。例えば、第2認識部134は、車両Mの位置に基づいて地図情報から車両Mの走行車線L1を区画する区画線LL2、RL2を認識する。上記の地図情報は、第2地図情報62でもよく、新たに外部装置からダウンロードした地図情報でもよく、これらの地図情報を統合したものでもよい。例えば、第2認識部134は、車両センサ40やナビゲーション装置50から車両Mの位置情報(図中(X1,Y1)を取得し、取得した位置情報に基づいて第2地図情報62を参照し、第2地図情報62から車両Mの位置に存在する車線L1を区画する区画線LL2、RL2を認識する。また、第2認識部134は、第2地図情報62から道路区画線LL2およびRL2のそれぞれの曲率半径、曲率、または曲率変化量を認識する。また、第2認識部134は、道路区画線LL2およびRL2のそれぞれの曲率半径、曲率、または曲率変化量を平均して、道路(車線L1)の曲率半径、曲率、または曲率変化量を認識してもよい。以下、区画線LL1、RL1は、第1認識部132により認識された区画線を示し、区画線LL2、RL2は、第2認識部134により認識された区画線を示すものとする。
比較部152は、第1認識部132による認識結果(第1の道路区画線)と、第2認識部134による認識結果(第2の道路区画線)とを比較する。例えば、比較部152は、車両Mの位置(X1,Y1)を基準として、区画線LL1の位置と、区画線LL2の位置とを比較する。また、比較部152は、同様に区画線RL1の位置と、区画線RL2の位置とを比較する。また、比較部152は、区画線LL1とLL2、および区画線RL1とRL2とにおける曲率変化量、区間線の延伸方向を比較してもよい。
誤認識判定部154は、比較部152による比較結果等において、第1認識部132による認識結果(第1の道路区画線)と、第2認識部134による認識結果(第2の道路区画線)とに差異が生じた場合に、第1認識部132が誤認識であると判定する場合と、第1認識部132または第2認識部134のうち一方または双方が誤認識であると判定する場合と、を含む複数の誤認識判定のうち、何れか一つの判定を行う。差異が生じた場合とは、例えば、差異の大きさが所定値(閾値)以上となった場合である。また、差異の大きさとは、例えば、後述する乖離度合である。複数の誤認識判定には、例えば、第2認識部134が誤認識であると判定する場合が含まれてもよい。上述の「誤認識であると判定する」は、「誤認識であるか否かを判定する」と言い換えてもよい。また、「第1認識部132が誤認識であると判定する」は、例えば「第1の道路区画線が第1認識部132により誤認識された区画線であると判定する」と言い換えてもよい。また、「第1認識部132または第2認識部134のうち一方または双方が誤認識であると判定する」は、例えば「第1の道路区画線または第2の道路区画線のうち一方または双方が誤認識された区画線であると判定する」と言い換えてもよい。
例えば、比較部152は、車両座標系の平面(XY平面)において、区画線LL1と区画線LL2とを、車両Mの代表点の位置(X1,Y1)を基準に重畳させる。また、同様に、比較部152は、区画線RL1と区画線RL2についても車両Mの代表点の位置(X1,Y1)を基準に重畳させる。誤認識判定部154は、重畳された区画線LL1の位置と区画線LL2との位置とが合致するか否かを判定する。また、誤認識判定部154は、区画線RL1とRL2とについても同様の手法でそれぞれの位置が合致するか否かを判定する。
例えば、誤認識判定部154は、区画線LL1とLL2とを用いて判定する場合に、それぞれの区画線の乖離度合が閾値未満の場合に合致すると判定し、閾値以上の場合に合致しない(差異が生じた)と判定する。乖離とは、例えば、横位置(図中Y軸方向)の乖離(例えば、図中の区画線LL1とLL2とのずれ量W1)でもよく、縦位置(X軸方向の距離の長短)の差分でもよく、その組み合わせでもよい。また、乖離とは、区画線LL1とLL2との曲率変化量の差分や、区画線LL1とLL2とがなす角度(以下、剥離角度と称する)でもよい。
誤認識判定部154は、例えば、比較した区画線同士が合致すると判定した場合には第1認識部132および第2認識部134が誤認識ではない(言い換えると、第1の道路区画線および第2の道路区画線が正しく認識できている)と判定する。また、誤認識判定部154は、比較した比較区画線同士が合致していない(差異が生じた)と判定した場合に、第1認識部132または第2認識部134のうち、一方または双方が誤認識であると判定する。また、誤認識判定部154は、比較した区画線同士が合致しないと判定した場合に、曲率変化量の乖離度合や剥離角度を導出し、導出した値を用いて、更に詳細な誤認識判定を行う。
図5は、曲率変化量の乖離度合について説明するための図である。図5の例では、車両Mがカーブ路である車線L2を速度VMで走行しているものとする。例えば、第1認識部132は、カメラ10により撮像された画像の解析結果に基づいて、区画線LL1の曲率変化量を導出する。例えば、カメラ10により撮像された画像から得られる区画線LL1上の車両Mから見た前方X[m]における位置を、以下に示す(1)式の多項式(Z(X))で表したとする。
Figure 0007184951000001
~Cは、所定の係数を表す。第1認識部132は、区画線LL1の曲率変化量を取得する場合に、まず(1)式の多項式をXで二回微分して、(2)式に示す曲率R[rad/m]を導出する。
Figure 0007184951000002
次に、第1認識部132は、(2)式を時刻tで微分することで(3)式に示すように、前方X[m]での曲率Rの時間変化[rad/m/sec]を曲率変化量として導出する。
Figure 0007184951000003
そして、第1認識部132は、図5に示すように車両Mの代表点(例えば、重心)の位置が予め(X1,Y1)と定められている場合に、X1を上述した(1)~(3)のXに代入して区画線LL1の曲率変化率を導出する。また、第1認識部132は、同様の手法で、区画線RL1の曲率変化率を導出する。
また、第2認識部134は、車両Mの位置情報に基づいて地図情報(第2地図情報62)を参照し、区画線LL2、RL2のそれぞれの曲率変化率を認識する。
誤認識判定部154は、区画線LL1およびLL2のそれぞれの曲率変化率の乖離度合を比較する。この場合、誤認識判定部154は、区画線LL2を基準として、区画線LL1がどの程度乖離しているかを取得する。例えば、誤認識判定部154は、車両Mの位置(X1、Y1)を基準として、区画線LL2の曲率変化率から区画線LL1の曲率変化率を引いた値の絶対値を、曲率変化率の乖離度合として導出する。また、誤認識判定部154は、区画線RL1およびRL2のそれぞれの曲率変化率を用いて上述した曲率変化率の乖離度合を導出する。上述した乖離度合の導出は、比較部152が行ってもよい。
そして、誤認識判定部154は、区画線LL1とLL2との曲率変化率の乖離度合、または区画線RL1とRL2との曲率変化率の乖離度合のうち、一方または双方の乖離度合が所定値以上である場合に、第1認識部132が誤認識であると判定する。また、誤認識判定部154は、区画線LL1とLL2との乖離度合と、区画線RL1とRL2との乖離度合との平均値を算出し、算出した平均値が所定値以上である場合に第1認識部132が誤認識であると判定してもよい。
また、誤認識判定部154は、区画線LL1とLL2との剥離角度に基づいて、少なくとも第1認識部132が誤認識であるか否かを判定してもよい。図6は、剥離角度について説明するための図である。図6の例では、車両Mが車線L3を速度VMで走行しているものとする。誤認識判定部154は、車両Mが所定位置(X1,Y1)に存在する場合において区画線LL1と区画線LL2とがなす角度を剥離角度θLとして導出する。また、誤認識判定部154は、区画線LR1と区画線LR2とがなす角度を剥離角度θRとして導出する。剥離角度θLは、区画線LL2を基準した区画線LL1のずれ量であり、剥離角度θRは、区画線LR2を基準とした区画線LR1のずれ量である。上述した剥離角度の導出は、比較部152が行ってもよい。
そして、誤認識判定部154は、剥離角度θLまたはθRのうち一方または双方が所定角度以上である場合に、第1認識部132が誤認識であると判定する。また、誤認識判定部154は、剥離角度θLまたはθRの何れかのみを用いて第1認識部132が誤認識であることを判定してもよく、剥離角度θRおよびθLの平均角度を用いて区画線の誤認識を判定してもよい。
例えば、カメラ10により撮像された画像から誤認識される区画線は、道路形状や周辺車両等の周辺状況によって実際の区画線よりも大きく変化する場合が多い。したがって、曲率変化率の乖離度合や剥離角度が大きい場合に、第1認識部132が誤認識であると判定することで、より適切な誤認識判定を行うことができる。
また、誤認識判定部154は、曲率変化量と剥離角度の両方を用いて誤認識判定を行ってもよい。図7は、曲率変化量と剥離角度とを用いた誤認識判定について説明するための図である。図7の縦軸は第1認識部132により認識された第1の道路区画線の曲率変化量を示し、横軸は第1の道路区画線と剥離角度を示している。また、図7の例では、曲率変化量と剥離角度との関係において、3つの領域AR1~AR3が設定されている。領域AR1は「第1領域」の一例であり、領域AR2は「第2領域」の一例であり、領域AR3は「第3領域」の一例である。
例えば、領域AR1は、剥離角度が所定角度θa未満である領域であり、第1認識部132および第2認識部134が共に区画線を誤認識していないと判定される領域である。領域AR2は、第1の判定条件(第1の誤認識判定条件)に基づき第1認識部132のみが誤認識したと判定されるカメラ誤認識領域である。第1の判定条件は、例えば図7に示すように、剥離角度がθa以上であり曲率変化量がAa以上であることである。更に第1の判定条件は、剥離角度がθb以上からθcまでの間は角度の増加に伴って曲率変化量が減少するように設定された境界よりも上側(曲率変化率が境界線以上の値)であることや、曲率変化量に関係なく剥離角度がθc以上であること等が含まれてもよい。領域AR3は、第2の判定条件(第2の誤認識判定条件)に基づき、第1認識部132および第2認識部134のどちらが誤認識であるかを確定することができないが第1認識部132または第2認識部134のうち一方または双方が誤認識であると判定される領域である。第2の判定条件は、例えば図7に示すように、剥離角度がθa~θbの範囲あり、且つ曲率変化量がAa未満であることである。更に第2の判定条件は、剥離角度がθb以上からθcまでの間は角度の増加に伴って曲率変化量が減少するように設定された境界よりも下側(曲率変化率が境界線未満の値)あること等が含まれてもよい。第1判定条件および第2判定条件は、「判定条件」の一例である。
例えば、誤認識判定部154は、曲率変化量および剥離角度のそれぞれの値が領域AR1内に存在する場合、第1認識部132および第2認識部134が誤認識ではない(正しく認識している)と判定する。また、誤認識判定部154は、曲率変化量および剥離角度の値が領域AR2内に存在する場合、第1認識部132が誤認識であると判定する。また、誤認識判定部154は、曲率変化量および剥離角度の値が領域AR3内に存在する場合、第1認識部132または第2認識部134のうち一方または双方が誤認識していると判定する。このように、曲率変化率および剥離角度の値に基づいて、より詳細に誤認識を判定することができる。
運転者状態判定部156は、上述した各モードの変更のために運転者の状態を監視し、運転者の状態がタスクに応じた状態であるか否かを判定する。例えば、運転者状態判定部156は、ドライバモニタカメラ70が撮像した画像を解析して姿勢推定処理を行い、運転者が、システムからの要求に応じて手動運転に移行できない体勢であるか否かを判定する。また、運転者状態判定部156は、ドライバモニタカメラ70が撮像した画像を解析して視線推定処理を行い、運転者が周辺(前方等)を監視しているか否かを判定する。
モード変更処理部158は、例えば、誤認識判定部154による判定結果と、運転者状態判定部156による判定結果とに基づいて、モードの変更のための各種処理を行う。例えば、モード変更処理部158は、運転者状態判定部156により判定された運転者の状態(周辺監視の状態)に基づいて、現在のモードに適した状態でない場合に、行動計画生成部140に路肩停止のための目標軌道を生成するように指示したり、運転支援装置(不図示)に作動指示をしたり、運転者に行動を促すためにHMI30の制御をしたりする。
また、モード変更処理部158は、誤認識判定部154による判定結果に基づいて、モードの変更を行う。例えば、モード変更処理部158は、誤認識判定部154により第1認識部132および第2認識部134が共に誤認識ではないと判定された場合、現在の運転者状態判定部156による判定結果や周辺状況等に基づいて、対応する運転モードによる自動運転または運転支援を実行させる。
また、モード変更処理部158は、第1の運転モード(例えば、モードA)の実行中であって、且つ誤認識判定部154により第1認識部132が誤認識であると判定された場合(曲率変化量および剥離角度の値が図7に示す領域AR2内に存在する場合)、地図情報から認識された区画線を用いてモードAを継続させる。このように、カメラ10の撮像画像により認識された区画線と、地図情報から認識された区画線とが合致しない場合であっても、第1認識部132のみが誤認識であると判定された場合に、地図情報から認識された区画線に基づいて運転制御を継続させることで、過剰に第1の運転モードから第2の運転モードに切り替わることを抑制することができる。
なお、モード変更処理部158は、誤認識判定部154により第1認識部132が誤認識であると判定されている状態が、所定時間継続している場合には、第1の運転モードの継続を終了してもよい。これにより、より安全な運転制御を行うことができる。
また、モード変更処理部158は、第1の運転モードの実行中であって、且つ誤認識判定部154により第1認識部132または第2認識部134のうち一方または双方が道路区画線を誤認識していると判定された場合(曲率変化量および剥離角度が図7に示す領域AR3の位置に存在する場合)、第1の運転モードから第2の運転モード(例えば、モードB)にモード変更を行う。なお、モード変更処理部158は、モードAからモードBに変更することに代えて、車両Mの周辺状況や運転者状態判定部156の判定結果に基づいて、モードC~Eのうち何れか一つに変更してもよい。また、モード変更処理部158は、モードAからモードEに変更する場合に、モードB,C,Eと段階的に切り替えてもよく、モードAから直接モードEに切り替えてもよい。
HMI制御部180は、第1制御部120および第2制御部160による制御内容に基づいて、車両Mの状態に関する情報もしくは所定の警告をHMI30に出力させて、車両Mの乗員に報知する。例えば、HMI制御部180は、誤認識判定部154による判定結果に基づいて、車両Mの運転モード等の走行状態や、誤認識が生じていることを示す警告等をHMI30に出力させる。また、HMI制御部180は、誤認識判定部154により第1認識部132が誤認識であると判定されている状態のまま、第1の運転モードが継続されている場合には、現状の状態が所定時間継続した後に第1の運転モードが終了すること(または所定時間経過後に第2の運転モードに切り替わること)を示す情報をHMI30の表示装置等に表示させたり、音声等でHMI30から出力させてもよい(プレ通知)。これにより、第1の運転モードから第2の運転モードに切り替わる可能性があることを、乗員に事前に通知して早めにタスクの準備をさせておくことができる。また、車両システム1内に警告等の報知を行う報知装置が設けられている場合、HMI制御部180は、HMI30に出力させることに代えて(または加えて)、報知装置を作動させる制御を行ってもよい。この場合、報知装置が「出力装置」の一例となる。
<変形例>
例えば、誤認識判定部154は、車両Mの周辺状況に基づいて、上述した図7に示す領域(基準領域)AR1~AR3のうち、少なくとも一つの領域(第1の判定条件または第2の判定条件の一方または双方)を変更してもよい。図8は、車両Mの周辺状況に応じて、領域AR1~AR3を変更することについて説明するための図である。例えば、車両Mが走行する道路の形状において、車両Mの進行方向(前方)に分岐や合流等がある場合には、第1認識部132が第1の道路区画線を誤認識する可能性が高い。そのため、誤認識判定部154は、例えば、車両Mの進行方向に分岐や合流等が存在する場合に、第1認識部132が誤認識であると判定され易くなるように、第1の判定条件および第2の判定条件を変更する。具体的には、誤認識判定部154は、車両Mの位置情報に基づいて地図情報を参照し、車両Mが走行する道路において、車両Mの進行方向であり、且つ車両Mの現在位置から所定距離以内に分岐や合流等の所定の道路形状が存在する場合に、図8に示すように基準領域AR1~AR3に比して領域AR2を大きくし、領域AR3を小さくした領域(AR2#、AR3#)に変更する。誤認識判定部154は、例えば、第1の判定条件および第2の判定条件に含まれる曲率変化量のパラメータAaを、Aaよりも小さいAbに変更することで、領域AR2#および領域AR3#を設定する。
これにより、分岐や合流付近では、図8に示す領域AR1、AR2#、AR3#を用いて誤認識判定が行われるため、第1認識部132が誤認識であると判定され易くなる。第1認識部132が誤認識であると判定される場合には、地図情報から認識された区画線に基づいて現在の運転制御が継続されるため、より適切な運転制御を実行することができる。
なお、ナビゲーション装置50に予め目的地までの経路が設定されており、目的地方面の経路が本線ではなく分岐側の車線である場合には、手動運転等のように運転者に課されるタスクを重度にする必要が生じる。したがって、誤認識判定部154は、車両Mの進行方向(前方)に分岐等がある場合であっても、目的地方面が分岐側の車線である場合には、上述した領域AR2、AR3を変更しないようにしてもよい。
また、誤認識判定部154は、例えば、車両Mの進行方向にトンネル入口或いは出口が存在する場合にも、輝度の変化により第1認識部132が区画線を誤認識する可能性が高いため、上述したように基準となる領域AR2を大きくし、領域AR3を小さくする変更を行ってもよい。また、誤認識判定部154は、認識部130により車両Mの前走車両が車線変更したり、蛇行運転していると認識された場合にも、区画線が前走車両で隠れて第1認識部132が誤認識する可能性が高いため、上述した領域AR2、AR3の変更を行ってもよい。
また、誤認識判定部154は、領域AR2の増加量や領域AR1の減少量を、車両Mの周辺状況に応じて異ならせてもよい。例えば、誤認識判定部154は、合流よりも分岐の方が領域AR2の増加量(または領域AR3の減少量)を大きくし、トンネル出口よりもトンネル入口の方が領域AR2の増加量(または領域AR3の減少量)を大きくする。このように周辺状況に応じて各領域を調整することで、より適切な誤認識判定を行うことができる。
また、車両Mの周辺状況(走行車線)がカーブ路の入口付近や出口付近の場合には、カメラ10の撮像画像により認識された区画線の曲率変化量が大きくなる。しかしながら、車両Mの位置情報に基づき地図情報から認識された前方の区画線とのずれ等の影響で、第1の道路区画線と第2の道路区画線とがなす角度(剥離角度)が、ずれに応じた時間(短時間)だけ大きくなる可能性がある。そのため、誤認識判定部154は、車両Mの進行方向にカーブ路の入口または出口が存在する場合に、第1認識部132が誤認識であると判定されることを抑制するように、第1の判定条件および第2の判定条件を変更してもよい。具体的には、誤認識判定部154は、車両Mの位置情報に基づいて地図情報を参照し、車両Mが走行する道路において、車両Mの進行方向であり、且つ車両Mの現在位置から所定距離以内にカーブ路の入口または出口が存在する場合に、第1認識部132が誤認識であると判定されることを抑制するように領域AR1~AR3の大きさを変更する。
図9は、第1認識部132が誤認識であると判定されることを抑制するために領域AR1~AR3を変更することについて説明するための図である。図9の例において、誤認識判定部154は、誤認識があると判定されない領域AR1を大きくした領域AR1##を設定し、誤認識があると判定される領域AR2およびAR3を小さくした領域AR2##、AR3##を設定する。誤認識判定部154は、例えば、第1の判定条件および第2の判定条件に含まれる剥離角度のパラメータθaを、θaよりも大きいθa##(ただし、θa##<θb)に変更することで、領域AR1##~AR3##を設定する。このように、車両Mが走行する道路において、車両Mの進行方向にカーブ路の入口または出口が存在する場合に、図9に示すような領域に変更して誤認識を判定することで、第1認識部132または第2認識部134の一方または双方が誤認識であると判定されることを抑制することができる。
更に、誤認識判定部154は、図9に示すように、曲率変化量のパラメータAaを、Aaよりも大きいAcに変更して、領域AR3を大きくする変更を行ってもよい。これにより、第1認識部132による誤認識であると判定されることをより抑制することができる。
また、誤認識判定部154は、車両Mの周辺の天候(例えば、豪雨、吹雪)や、走行する時間帯(例えば、路面にできる影や太陽光の照射等の影響によってカメラ画像に含まれる区画線を誤認識し易くなる時間帯)等に応じて、基準領域AR1~AR3の大きさを変更してもよい。
[処理フロー]
次に、実施形態に係る自動運転制御装置100により実行される処理の流れについて説明する。図10は、自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。なお、以下では、自動運転制御装置100により実行される処理のうち、第1認識部132および第2認識部134による区画線の認識結果に基づいて、車両Mの運転制御を切り替える処理を中心として説明する。また、図10のフローチャートの開始時において、車両Mは、第1の運転モード(例えば、モードA)による運転制御が実行されているものとする。また、以下の処理では、運転者状態判定部156による判定結果において、運転者の状態は、実行中のモードまたは切り替え後のモードに適した状態である(つまり、運転者状態判定部156の判定結果に基づいて、モードの切り替えが発生しない状況である)ものとする。図10に示す処理は、所定のタイミングで繰り返し実行されてよい。
図10の例において、第1認識部132は、検知デバイスDDの出力に基づいて車両Mが走行する車線を区画する区画線を認識する(ステップS100)。次に、第2認識部134は、車両センサ40やGNSS受信機51から得られる車両Mの位置情報に基づいて地図情報を参照し、車両Mが走行する車線を区画する区画線を認識する(ステップS102)。なお、ステップS100およびS102の処理は、逆の順序で行われてもよく、並行して行われてもよい。次に、比較部152は、第1認識部132により認識された区画線と、第2認識部134により認識された区画線とを比較する(ステップS104)。次に、誤認識判定部154は、比較部152により比較された結果に基づいて、第1認識部132および第2認識部134による区画線の誤認識判定を行う(ステップS106)。ステップS106の処理の詳細については後述する。
誤認識判定部154は、第1認識部132または第2認識部134のうち一方または双方が道路区画線を誤認識しているか否かを判定する(ステップS108)。誤認識していると判定した場合、誤認識判定部154は、第1認識部132のみが誤認識であるか否かを判定する(ステップS110)。第1認識部132のみが誤認識であると判定した場合、モード変更処理部158は、現在の運転モードを継続させる(ステップS112)。また、ステップS108の処理において、第1認識部132および第2認識部134の両方とも道路区画線を誤認識していないと判定された場合も、ステップS112の処理を行う。
また、ステップS108の処理において、第1認識部132のみが誤認識であると判定されなかった場合、モード変更処理部158は、車両Mの運転モードを第1の運転モードから第2の運転モードに変更する制御を実行する(ステップS114)。「第1認識部132のみが誤認識であると判定されなかった場合」とは、例えば、第1認識部132および第2認識部134のどちらが誤認識であるかを確定することができないが第1認識部132または第2認識部134のうち一方または双方が誤認識であると判定された場合である。これにより、本フローチャートの処理は、終了する。
図11は、ステップS106の処理の流れの一例を示すフローチャートである。図11の例において、誤認識判定部154は、第1認識部132により認識された区画線の曲率変化率を取得する(ステップS106A)。次に、誤認識判定部154は、第1認識部132により認識された第1の道路区画線と、第2認識部134により認識された第2の道路区画線とがなす角度(剥離角度)を取得する(ステップS106B)。
次に、誤認識判定部154は、認識部130により認識された車両Mの周辺状況を取得し(ステップS106C)、取得した周辺状況に基づいて、第1~第3領域(領域AR1~AR3)を設定する(ステップS106D)。次に、誤認識判定部154は、曲率変化率および剥離角度に基づいて、設定された第1~第3領域のうち、どの領域に属するかを決定する(ステップS106E)。次に、誤認識判定部154は、決定された領域に基づいて、第1認識部132が誤認識であること、または、第1認識部132および第2認識部134のどちらが誤認識であるかを確定することができないが第1認識部132または第2認識部134のうち一方または双方が誤認識であることを判定する(ステップS106F)。これにより本フローチャートの処理は、終了する。
以上説明した実施形態によれば、車両制御装置において、車両Mの周辺状況を検知した検知デバイスDDの出力に基づいて、車両Mの走行車線を区画する道路区画線を認識する第1認識部132と、前記第1認識部と異なる手段で走行車線を区画する道路区画線を認識する第2認識部134と、第1認識部132により認識された第1の道路区画線と、第2認識部134により認識された第2の道路区画線とを比較する比較部と、前記比較部による比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1認識部が誤認識であると判定する場合と、前記第1認識部または前記第2認識部のうち一方または双方が誤認識であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行う誤認識判定部154(判定部の一例)と、を備えることにより、道路区画線の認識状況に応じて、より適切な運転制御を実行することができる。
具体的には、実施形態によれば、第1の道路区画線と第2の道路区画線が合致しない場合に、第1の道路区画線が誤っていると判定する第1の判定条件と、第1の道路区画線または第2の道路区画線のうち一方または双方が誤っているがどちらが誤っているかを確定することができないと判定する第2の判定条件とに基づいて誤認識判定を行うことで、誤認識であると判定された場合であっても、第1の道路区画線が誤っていることが明確である場合には、地図情報を用いて運転制御の自動化度合いの高い運転モードを継続させることができる。また、実施形態によれば、誤認識と判定された場合であっても、地図情報に基づいて運転制御の自動化度合いの高い(乗員に課されるタスクがより軽度な)運転モードを継続できるため、無用な運転モードのレベルの低下を抑制することができる。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する第1の道路区画線を認識し、
前記第1の道路区画線を認識した手段と異なる手段で前記走行車線を区画する第2の道路区画線を認識し、
認識した前記第1の道路区画線と前記第2の道路区画線とを比較し、
比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1の道路区画線が誤認識された区画線であると判定する場合と、前記第1の道路区画線または前記第2の道路区画線のうち一方または双方が誤認識された区画線であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行う、
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…カメラ、12…レーダ装置、14…LIDAR、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、70…ドライバモニタカメラ、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、132…第1認識部、134…第2認識部、140…行動計画生成部、150…モード決定部、152…比較部、154…誤認識判定部154…運転者状態判定部、158…モード変更処理部、160…第2制御部、162…目標軌道取得部、164…速度制御部、166…操舵制御部、180…HMI制御部、190…記憶部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置

Claims (11)

  1. 車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する道路区画線を認識する第1認識部と、
    前記第1認識部と異なる手段で前記走行車線を区画する道路区画線を認識する第2認識部と、
    前記第1認識部により認識された第1の道路区画線と、前記第2認識部により認識された第2の道路区画線とを比較する比較部と、
    前記比較部による比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1認識部が誤認識であると判定する場合と、前記第1認識部または前記第2認識部のうち一方または双方が誤認識であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行う判定部と、を備える、
    車両制御装置。
  2. 前記車両の加減速および操舵のうち少なくとも一方を制御する運転制御部を更に備え、
    前記運転制御部は、前記判定部による判定結果に基づいて、前記車両の乗員に課されるタスクが異なる複数の運転モードのうち何れかを実行する、
    請求項1に記載の車両制御装置。
  3. 前記判定部による判定結果に基づいて、前記車両の状態に関する情報もしくは警告を出力装置に出力させて、前記車両の乗員に報知する出力制御部を更に備える、
    請求項1または2に記載の車両制御装置。
  4. 前記複数の運転モードは、第1の運転モードと、前記第1の運転モードよりも前記乗員に課されるタスクが重度な第2の運転モードとを含み、
    前記運転制御部は、前記第1の運転モードが実行中であり、且つ前記判定部により前記第1認識部が誤認識であると判定された場合に、前記第2の道路区画線に基づいて前記第1の運転モードを継続させる、
    請求項2に記載の車両制御装置。
  5. 前記運転制御部は、前記第1の運転モードが実行中であり、且つ前記判定部により前記第1認識部または前記第2認識部のうち一方または双方が誤認識であると判定された場合に、前記車両の運転モードを前記第1の運転モードから前記第2の運転モードに変更する、
    請求項4に記載の車両制御装置。
  6. 前記判定部は、前記第1の道路区画線の曲率変化量、および前記第1の道路区画線と前記第2の道路区画線とがなす角度に基づく判定条件に基づいて、前記複数の誤認識判定のうち何れか一つの判定を行う、
    請求項1から5のうち何れか1項に記載の車両制御装置。
  7. 前記判定部は、前記車両の周辺状況に基づいて、前記判定条件を変更する、
    請求項6に記載の車両制御装置。
  8. 前記判定部は、前記車両の進行方向に分岐、合流、トンネルの入口或いは出口が存在する場合、または、前走車両が車線変更または蛇行運転している場合に、前記第1認識部が誤認識であると判定され易くなるように、前記判定条件を変更する、
    請求項7に記載の車両制御装置。
  9. 前記判定部は、前記車両の進行方向にカーブ路の入口または出口が存在する場合に、前記第1認識部が誤認識であると判定されることを抑制するように、前記判定条件を変更する、
    請求項7または8に記載の車両制御装置。
  10. 車両制御装置のコンピュータが、
    車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する第1の道路区画線を認識し、
    前記第1の道路区画線を認識した手段と異なる手段で前記走行車線を区画する第2の道路区画線を認識し、
    認識した前記第1の道路区画線と前記第2の道路区画線とを比較し、
    比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1の道路区画線が誤認識された区画線であると判定する場合と、前記第1の道路区画線または前記第2の道路区画線のうち一方または双方が誤認識された区画線であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行う、
    車両制御方法。
  11. 車両制御装置のコンピュータに、
    車両の周辺状況を検知した検知デバイスの出力に基づいて、前記車両の走行車線を区画する第1の道路区画線を認識させ、
    前記第1の道路区画線を認識した手段と異なる手段で前記走行車線を区画する第2の道路区画線を認識させ、
    認識された前記第1の道路区画線と前記第2の道路区画線とを比較させ、
    比較結果において前記第1の道路区画線と前記第2の道路区画線とに差異が生じた場合に、前記第1の道路区画線が誤認識された区画線であると判定する場合と、前記第1の道路区画線または前記第2の道路区画線のうち一方または双方が誤認識された区画線であると判定する場合と、を含む複数の誤認識判定のうち何れか一つの判定を行わせる、
    プログラム。
JP2021053833A 2021-03-26 2021-03-26 車両制御装置、車両制御方法、およびプログラム Active JP7184951B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021053833A JP7184951B2 (ja) 2021-03-26 2021-03-26 車両制御装置、車両制御方法、およびプログラム
CN202210154480.1A CN115195775A (zh) 2021-03-26 2022-02-18 车辆控制装置、车辆控制方法及存储介质
US17/676,871 US20220309804A1 (en) 2021-03-26 2022-02-22 Vehicle control device, vehicle control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021053833A JP7184951B2 (ja) 2021-03-26 2021-03-26 車両制御装置、車両制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022150979A JP2022150979A (ja) 2022-10-07
JP7184951B2 true JP7184951B2 (ja) 2022-12-06

Family

ID=83364830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021053833A Active JP7184951B2 (ja) 2021-03-26 2021-03-26 車両制御装置、車両制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20220309804A1 (ja)
JP (1) JP7184951B2 (ja)
CN (1) CN115195775A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022210775A1 (de) * 2022-10-13 2024-04-18 Volkswagen Aktiengesellschaft Verfahren und Steuervorrichtung zum Ansteuern eines Fahrerassistenzsystems beim Bereitstellen von assistierten Fahrfunktionen, Fahrerassistenzsystem, Fahrzeug

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249639A (ja) 2007-03-30 2008-10-16 Mitsubishi Electric Corp 自己位置標定装置、自己位置標定方法および自己位置標定プログラム
JP2018189900A (ja) 2017-05-11 2018-11-29 日立オートモティブシステムズ株式会社 車両制御装置、車両制御方法および車両制御システム
JP2019046363A (ja) 2017-09-06 2019-03-22 株式会社デンソー 運転支援装置
JP2019152896A (ja) 2018-02-28 2019-09-12 本田技研工業株式会社 走行制御装置、走行制御方法およびプログラム
JP2020003463A (ja) 2018-07-02 2020-01-09 トヨタ自動車株式会社 自車位置推定装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6741436B2 (ja) * 2016-02-10 2020-08-19 株式会社ゼンリン 運転支援システム
DE102019202588A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249639A (ja) 2007-03-30 2008-10-16 Mitsubishi Electric Corp 自己位置標定装置、自己位置標定方法および自己位置標定プログラム
JP2018189900A (ja) 2017-05-11 2018-11-29 日立オートモティブシステムズ株式会社 車両制御装置、車両制御方法および車両制御システム
JP2019046363A (ja) 2017-09-06 2019-03-22 株式会社デンソー 運転支援装置
JP2019152896A (ja) 2018-02-28 2019-09-12 本田技研工業株式会社 走行制御装置、走行制御方法およびプログラム
JP2020003463A (ja) 2018-07-02 2020-01-09 トヨタ自動車株式会社 自車位置推定装置

Also Published As

Publication number Publication date
CN115195775A (zh) 2022-10-18
US20220309804A1 (en) 2022-09-29
JP2022150979A (ja) 2022-10-07

Similar Documents

Publication Publication Date Title
JP7159137B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN112319474A (zh) 车辆控制装置、车辆控制方法及存储介质
JP7194224B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7286691B2 (ja) 判定装置、車両制御装置、判定方法、およびプログラム
JP7184951B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022096236A (ja) 車両制御装置、車両制御方法、及びプログラム
US20230303099A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2023030146A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2023030147A (ja) 車両制御装置、車両制御方法、およびプログラム
US20220203985A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7196220B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7046289B1 (ja) 車両制御装置、車両システム、車両制御方法、およびプログラム
JP7308880B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN115140086A (zh) 车辆控制装置、车辆控制方法及存储介质
JP7250837B2 (ja) 制御装置、制御方法、およびプログラム
JP7256168B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7186210B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US20220315050A1 (en) Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium
JP7132447B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7112479B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7223730B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2023032123A1 (ja) 車両制御装置、車両制御方法、およびプログラム
US20230303126A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2022155702A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022154605A (ja) 検知装置、検知方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7184951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150