JP2017132285A - 車両走行制御システム、及び車両走行制御方法 - Google Patents

車両走行制御システム、及び車両走行制御方法 Download PDF

Info

Publication number
JP2017132285A
JP2017132285A JP2016011637A JP2016011637A JP2017132285A JP 2017132285 A JP2017132285 A JP 2017132285A JP 2016011637 A JP2016011637 A JP 2016011637A JP 2016011637 A JP2016011637 A JP 2016011637A JP 2017132285 A JP2017132285 A JP 2017132285A
Authority
JP
Japan
Prior art keywords
vehicle
driver
fusion
control system
external environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016011637A
Other languages
English (en)
Other versions
JP6690952B2 (ja
Inventor
亮仁 赤井
Akihito Akai
亮仁 赤井
勝 康夫
Yasuo Katsu
康夫 勝
近藤 伸和
Nobukazu Kondo
伸和 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2016011637A priority Critical patent/JP6690952B2/ja
Publication of JP2017132285A publication Critical patent/JP2017132285A/ja
Application granted granted Critical
Publication of JP6690952B2 publication Critical patent/JP6690952B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】外部環境に対応する一つのフュージョンの仕様が選択された場合、選択したフュージョンの仕様において、外部環境に起因して認識精度が低下するセンサの検出領域を、ドライバに提示して、ドライバの注意を促すことを目的とする。
【解決手段】車両走行制御システムであって、車両は、車両の外部の状況を検出するセンサを複数有し、車両走行制御システムは、プロセッサ及びメモリを有し、メモリは、複数のセンサの検出結果をフュージョンする仕様であって、外部環境に対応する複数のフュージョン仕様を記憶し、プロセッサは、車両の外部環境に対応する一つのフュージョン仕様を選択し、選択したフュージョン仕様において外部環境が原因でセンサの認識精度が低下する領域を選択したフュージョン仕様の弱点領域としてドライバに提示し、選択したフュージョン仕様に基づいて、複数のセンサの検出結果をフュージョンすることを特徴とする。
【選択図】図8

Description

本発明は、車両が有するセンサの検出結果をフュージョンして外部の状況を認識して、車両の自動走行を実現する車両走行制御システムに関する。
自動車等の車両は、複数のセンサを有し、道路や天気等の外部環境に関する情報を取得する。そして、複数のセンサの検出結果及び外部環境に関する情報に基づいて車両の走行の制御を自動化する技術が開発されている。このような車両は、各センサの検出結果を統合(フュージョン)して外部の状況を認識し、周辺の情報を生成する。センサには条件毎に得手不得手がある。フュージョンによって、あるセンサの不得手な範囲を他のセンサの検出結果で補完できる。フュージョンを用いることで、単一のセンサでは認識できない外部の状況が認識可能となる。
フュージョンに関する技術として、特開2007−310741号公報(特許文献1)及び特開2003−162795号公報(特許文献2)がある。
特許文献1には、「ステレオカメラの撮像画像に基づく画像立体物の存在確率を画像立体物存在確率算出部で算出し、ミリ波レーダの出力に基づくミリ波立体物の存在確率をミリ波立体物存在確率算出部で算出し、レーザレーダの出力に基づくレーザ立体物の存在確率をレーザ立体物存在確率算出部で算出する。そして、存在確率補正部で、画像立体物、ミリ波立体物、レーザ立体物のそれぞれの存在確率を、各認識センサの認識率に基づいて補正し、総合存在確率設定部で、補正後の存在確率をフュージョンして総合存在確率を設定することで、障害物への接触回避や警報等の制御を確実且つ最適なタイミングで実行可能とする。」と記載されている(要約参照)。
特許文献2には、「センサが年間を通してある一定の信頼性を保つために、検出特性の異なる複数のセンサを組み合わせ、環境条件によって切り替えて使用することが有効である。センサを切り替える条件として、気象計測装置が計測する温度データ、雨量データ、視程データ、照度データ等を用いた環境指標を利用する。」と記載されている(要約参照)。
また、フュージョンに関するものではないが、周辺環境に応じて機器の動作仕様を変更する技術として特開2001−145174号公報(特許文献3)がある。
特許文献3には、「センサまたは通信処理から周辺機器情報を取得し、環境認識処理において自機器の周辺環境を認識し、環境管理テーブルに格納する。連携制御処理では、通信処理を介して各機器のプロファイル及びポリシーに格納された状況を共有し、周辺環境情報とポリシーを用いて、自ら連携する相手機器や、他機器より要求された連携動作を行うか否かを、局所的かつ継続的に判断する。動作した結果は連携制御処理より公開して機器間で共有し、連携する相手機器を絞り込む場合に用いる。」と記載されている(要約参照)。
また、処理を実行する情報処理装置を変更する場合、変更前後での処理時間を評価し、評価値に基づいて情報処理装置を変更するか否かを決定する技術として特開2014−130474号公報(特許文献4)がある。
特許文献4には、「情報処理システム制御装置は、情報処理システムへ送信された要求情報に対して、第1の情報処理装置において稼働する仮想マシンにより処理が行われた結果を含む応答情報を取得し、前記要求情報を送信してから応答情報を受信するまでの応答時間を評価する第1の評価値を算出し、該第1の情報処理装置と、第2の情報処理装置との処理能力の比率を算出し、第1の評価値と比率とを用いて、仮想マシンが第2の情報処理装置で稼動した場合の要求に対する応答までの処理時間を評価する第2の評価値を算出し、第2の評価値が第1の閾値より小さい場合、第2の情報処理装置を仮想マシンの移行先候補として決定し、第1の情報処理装置で稼動する仮想マシンを移行先候補に移行し、第1の情報処理装置の電源をオフにすることにより、上記課題の解決を図る。」と記載されている(要約参照)。
特開2007−310741号公報 特開2003−162795号公報 特開2001−145174号公報 特開2014−130474号公報
特許文献1及び特許文献2は、複数のセンサの検出結果のフュージョンに関するものであり、外部環境に対応したフュージョンの仕様を予め複数用意しておき、外部環境に対応するフュージョンの仕様を一つ選択するものではない。
ここで、無線ネットワークを介した通信が確立されて、車両と車両との間、車両と道路施設との間、車両とデータセンタとの間でのデータ伝送が実現できた場合を考える。この場合、車両が処理するデータが多様化し、自動運転の高度化が予想できる。しかし、世の中の全ての車両が自動運転化されるとは考えにくく、ドライバが一切関与しない完全な自動運転化で100%の安全が実現するのは当分先であることと考えられる。
ドライバ視点で言い換えると、車両の自動走行が進化したとしてもドライバの関与は何らかの形で必要になる。したがって、車両の自動走行技術の進化は、ドライバの関与を如何に低減していくかが重要となる。
外部環境に対応する一つのフュージョンの仕様が選択された場合、選択したフュージョンの仕様において、外部環境に起因して認識精度が低下するセンサの検出領域を、ドライバに報知して、ドライバの注意を促す必要がある。
特許文献3及び特許文献4は、分散システム又は情報処理機器の設定の最適化及び設定切り替え時の評価に関するものであり、いずれもユーザが一切関与しない。このため、特許文献3及び特許文献4には、選択したフュージョンの仕様において、外部環境に起因して検出制御が低下するセンサの検出領域を、ドライバに報知することは開示されていない。
したがって、本発明は、外部環境に対応する一つのフュージョンの仕様が選択された場合、選択したフュージョンの仕様において、外部環境に起因して認識精度が低下するセンサの検出領域を、ドライバに提示して、ドライバの注意を促すことを目的とする。
上記課題を解決するために、車両の自動走行を実現する車両走行制御システムであって、前記車両は、前記車両の外部の状況を検出するセンサを複数有し、前記車両走行制御システムは、プロセッサ及びメモリを有し、前記メモリは、前記複数のセンサの検出結果をフュージョンする仕様であって、前記車両の外部環境に対応する複数のフュージョン仕様を記憶し、前記プロセッサは、前記メモリに記憶された複数のフュージョン仕様から前記車両の外部環境に対応する一つのフュージョン仕様を選択し、前記選択したフュージョン仕様において前記外部環境が原因で前記センサの認識精度が低下する領域を前記選択したフュージョン仕様の弱点領域としてドライバに提示し、前記選択したフュージョン仕様に基づいて、前記複数のセンサの検出結果をフュージョンして、前記車両の外部の状況を認識して、前記車両の自動走行を実現することを特徴とする。
本発明によれば、外部環境に対応する一つのフュージョンの仕様が選択された場合、選択したフュージョンの仕様において、外部環境に起因して認識精度が低下するセンサの検出領域を、ドライバに報知して、ドライバの注意を促すことができる。
上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。
実施例1の各天気に対応するセンサ認識範囲の車両のカバー率を示すグラフである。 実施例1のセンサの認識範囲のカバー率とドライバに補完が要求されるカバー率との関係の説明図である。 実施例1の車両走行制御システムのブロック図である。 実施例1のセンサの車両への配置とセンサの認識範囲の説明図である。 実施例1のECUがセンサの検出結果をフュージョンして認識する外部の状況の例の説明図である。 実施例1のECUの機能ブロック図である。 実施例1の天気が晴れである場合のセンサの認識精度の説明図である。 実施例1の天気が雨である場合のセンサの認識精度の説明図である。 実施例1の車線変更アプリが実行中であって、天気が晴れである場合に用いられるフュージョン仕様の認識範囲の説明図である。 実施例1の車線変更アプリが実行中であって、天気が雨である場合に用いられるフュージョン仕様の認識範囲の説明図である。 実施例1の先行車追従ACCの実行中の認識対象の説明図である。 実施例1の車線変更アプリの実行中の認識対象の説明図である。 実施例1の先行車追従ACCのフローチャートである。 実施例1の車両のメーターパネルにフュージョン仕様におけるセンサの弱点を提示する例の説明図である。 実施例1の車両のカーナビゲーションシステムのディスプレイ上にフュージョン仕様におけるセンサの弱点を提示する例の説明図である。 実施例1の車両のウィンドウに内蔵されたディスプレイにフュージョン仕様におけるセンサの弱点を提示する例の説明図である。 実施例1の刺激に対する補完動作前のドライバの姿勢の説明図である。 実施例1の刺激に対する補完動作時のドライバの姿勢の説明図である。 実施例1の中央車線を走行する車両が右側の車線に車線変更する場合のドライバによる目視確認の例について説明する。 実施例1の右車線を走行する車両が左側の中央車線に車線変更する場合のドライバによる目視確認の例について説明する。 実施例1の車線変更が可能である旨を車両に入力するためのボタンの配置の説明図である。 実施例2の先進運転者支援システムのフローチャートである。 実施例3のフュージョン仕様毎のセンサ認識範囲の車両のカバー率を示すグラフである。 実施例3のフュージョン仕様毎のセンサ認識範囲の車両のカバー率を示すグラフである。 実施例3の先進運転者支援システムの機能ブロック図である。 実施例3の先進運転者支援システムのフローチャートである。
実施例1について図1A〜図12を用いて説明する。
図1Aは、実施例1の各天気に対応するセンサ認識範囲の車両のカバー率を示すグラフである。
図1Aに示す棒グラフは、各天気に対応する車両20(図2参照)が有する複数のセンサの認識範囲の車両20に対するカバー率を示す。図1Aに示す破線は、安全運転を確保できるカバー率を示す。図1Aでは、安全運転を確保できるカバー率は例えば95%であるものとする。天気が晴れである場合、センサの感度が高くなり、センサの認識範囲の車両20に対するカバー率は、他の天気(曇り又は雨)のカバー率より大きくなる。図1Aでは、天気が晴れである場合のカバー率は95%より大きいものとし、この場合、ドライバは何もしなくても、安全運転を確保できる。
天気が曇りである場合、天気が晴れである場合より外部環境の照度が低下するので、センサの感度が天気が晴れである場合より低下する。図1Aでは、天気が曇りである場合のカバー率は90%程度であるものとし、この場合、ドライバは残り5%以上の範囲を注視することで、センサのカバー率を補完することによって、安全運転を確保できる。
天気が雨である場合、光学系センサに付着した水滴、及び路面にできた水たまりが光学系センサのノイズになり、光学系センサの感度が低下する。図1Aでは、天気が雨である場合のカバー率は30%程度であるものとする。このため、ドライバは、安全運転を確保するために、残り65%以上の範囲を注視しなければならない。
なお、天気が曇りである場合、及び天気が雨である場合にドライバが補完する必要があるカバー率は、図1Aでは実線の矢印で示す。ドライバの補完方法としては、例えば、車線変更のアプリケーションにおいて、センサが車線変更先の隣接車線を走行する車両の有無を認識できなければ、ドライバはサイドミラーと後方の目視で車両の有無を確認する。
動作するアプリケーションの変更、又は外部環境の変更等に起因して、車両20の複数のセンサの検出結果をフュージョンする仕様であるフュージョン仕様が変更され、変更後のフュージョン仕様において変更前のフュージョン仕様より認識精度が低下する領域が存在する場合、当該領域をドライバは注視する必要がある。そこで、本実施例では、当該領域を変更後のフュージョン仕様の弱点領域として提示する。これによって、ドライバは、変更されたフュージョン仕様におけるセンサの弱点領域を注視できる。
また、安全運転の確保の観点では、センサの認識範囲のカバー率とドライバが補完する領域のカバー率との合計が95%より大きくなることが重要となる。また、ドライバが本来有する能力は、ドライバ体調又は精神状態等に起因して変化する。また、ドライバの関与が少ない運転モード(例えば、先行車追従ACC(Adaptive Cruise Control))からドライバの補完が必要となる運転モードに変更された場合、ドライバは油断状態にある可能性があり、ドライバの補完が必要となる運転モードに変更するまでにドライバの油断を除去するための準備時間が必要となる。そこで、本実施例では、車両20のセンサの認識範囲のカバー率とドライバが補完するカバー率との合計が安全運転が確保できるレベルであるかを評価する。一例としては、ドライバにフュージョン仕様の弱点領域の視認を促す刺激を与え、当該刺激に対するドライバが適切に応答したかを判定することによって、安全運転が確保できるかを評価する。なお、刺激によって、ドライバにフュージョン仕様の弱点領域の視認を促すので、補完動作を練習する準備期間となる。
図1Bは、実施例1のセンサの認識範囲のカバー率とドライバに補完が要求されるカバー率との関係の説明図である。
天気が晴れである場合のセンサの認識範囲の車両20のカバー率は80%〜100%であり、この場合のドライバに補完が要求されるカバー率は0%〜20%である。
天気が曇りである場合のセンサの認識範囲の車両20のカバー率は70%〜90%であり、この場合のドライバに補完が要求されるカバー率は10%〜30%である。
天気が雨である場合のセンサの認識範囲の車両20のカバー率は20%〜40%であり、この場合のドライバに補完が要求されるカバー率は60%〜80%である。
図2は、実施例1の車両走行制御システムのブロック図である。
車両20は、電子制御ユニット(ECU(Electronic Control Unit))200、MPU(Map Position Unit)210、ミリ波レーダー221、ステレオカメラ222、サラウンドビューカメラ223、及び無線通信部224を有する。ECU200は、ミリ波レーダー221、ステレオカメラ222、サラウンドビューカメラ223及び無線通信部224に、車両20内の専用回線であるVehicle CAN(Controller Area Network)を介して接続される。また、ECU200は、MPU210にEthernet(登録商標)を介して接続される。
ECU200は、車両20の走行を制御することにより、車両20の走行を制御する車両走行制御システムであり、CPU(Central Processing Unit)(プロセッサ)201、メモリ202、通信部203、及び記憶部204を有する。これらは、データバス206を介して互いに接続される。車両走行制御システムは、車両20の走行を直接に制御するシステムと、ドライバによる運転を前提とし障害物接近時に警報等を出力することによって車両20の走行を制御するシステムとを含む概念である。
CPU201は、各種演算処理を実行する。記憶部204は非揮発性の非一時的な記憶媒体であり、各種プログラム及び各種データが記憶される。メモリ202は揮発性の一時的な記憶媒体であり、メモリ202には、記憶部204に記憶された各種プログラム及び各種データがロードされ、CPU201がメモリ202にロードされた各種プログラムを実行し、メモリ202にロードされた各種データを読み書きする。
通信部203は外部の装置とデータを通信する。通信部203にEthernetが接続されることによって、ECU200がMPU210に接続される。また、通信部203にVehicle CANが接続されることによって、ECU200が、センサ群(ミリ波レーダー221、ステレオカメラ222、及びサラウンドビューカメラ223)と無線通信部224とに接続される。
MPU210は、道路及び標識等のオブジェクト情報が付与された高精度地図212を管理する。MPU210は、ロケータ211及び高精度地図212を有する。ロケータ211は、例えばGPSを用いて車両20の現在位置を把握する。高精度地図212は、道路及び標識等のオブジェクト情報が付与された地図情報である。MPU210は、高精度地図212から、ロケータ211が把握した車両20の現在位置から所定範囲の地図情報を取得し、取得した地図情報をECU200の通信部203に入力する。ECU200のCPU201は、MPU210から入力された地図情報を記憶部204に記憶する。
ミリ波レーダー221は、波長がミリ単位の電波を用いて周囲の状況を探知する。なお、ミリ波以外の電磁波等を用いて周囲の状況を探知するセンサであれば、ミリ波レーダー221以外でもよく、例えば赤外線レーダーであってもよい。ミリ波レーダー221及び赤外線レーダー等を総称して電磁波レーダーという。
ステレオカメラ222は、2台のカメラを有し、2台のカメラによる撮像結果に基づいて、3次元情報を算出する。サラウンドビューカメラ223は、広角レンズで周囲を撮影カメラである。ステレオカメラ222及びサラウンドビューカメラ223に限定されず、光学センサであればよい。
無線通信部224は、クラウド231、データセンタ232、他の車両233、及び路側機234に接続する無線ネットワークに接続され、クラウド231、データセンタ232、他の車両233、及び路側機234との間でデータを通信する。
図3Aは、実施例1のセンサの車両20への配置とセンサの認識範囲の説明図である。
本実施例では、車両20は、前方及び後方の障害物を検出するために、四つのミリ波レーダー221A〜221Dを有する。ミリ波レーダー221Aは車両20の前方左側に配置され、ミリ波レーダー221Bは車両20の前方右側に配置され、ミリ波レーダー221Cは車両20の後方左側に配置され、ミリ波レーダー221Dは車両20の後方右側に配置される。
ミリ波レーダー221Aの認識範囲301Aは車両20の前方左側であり、ミリ波レーダー221Bの認識範囲301Bは車両20の前方右側である。また、ミリ波レーダー221Cの認識範囲301Cは車両20の後方左側であり、ミリ波レーダー221Dの認識範囲301Dは車両20の後方右側である。
ステレオカメラ222は、車両20のフロントガラスの上方に配置され、車両20の前方を撮影し、前方の3次元情報を取得するため、ステレオカメラ222の認識範囲302は車両20の前方となる。
また、本実施例では、車両20は、車両20の周辺360°を撮影するために、四つのサラウンドビューカメラ223A〜223Dを有する。サラウンドビューカメラ223Aは、車両20の前方側に配置され、車両20の前方を撮影するため、サラウンドビューカメラ223Aの認識範囲303Aは車両20の前方となる。サラウンドビューカメラ223Bは、車両20の左側に配置され、車両20の左側を撮影するため、サラウンドビューカメラ223Bの認識範囲303Bは車両20の左側となる。サラウンドビューカメラ223Cは、車両20の右側に配置され、車両20の右側を撮影するため、サラウンドビューカメラ223Cの認識範囲303Cは車両20の右側となる。サラウンドビューカメラ223Dは、車両20の後方側に配置され、車両20の後方を撮影するため、サラウンドビューカメラ223Dの認識範囲303Dは車両20の後方となる。
図3Bは、実施例1のECU200がセンサの検出結果をフュージョンして認識する外部の状況の例の説明図である。
ECU200は、図3Aに示す各センサの検出結果をフュージョンして外部の状況を認識する。外部の状況としては、例えば、信号及び標識の存在の有無、道路上のレーンマーカの存在及び種別、後方車両の存在及び後方車両の相対速度、並びに隣接車線の情報等がある。なお、各センサの検出結果をフュージョンすることにより、外部の状況の認識精度を向上させることができ、認識にかかる時間を短縮できる。
図4は、実施例1のECU200の機能ブロック図である。
図4に示す破線部は、ECU200の入出力の対象を示す。具体的には、外部環境413、並びにセンサの検出結果及びMPU210からの高精度地図212(センサ群/地図414)等がECU200に入力される。また、ECU200は、車両20自体を制御する制御部411にデータを出力する。ドライバ412は、ECU200にデータを入力するとともに、ECU200からデータを出力される。
ECU200は、フュージョン部401、アプリケーション部402、センサ弱点提示部403、評価部404、セレクタ405、及びフュージョン仕様A(406A)〜フュージョン仕様C(406C)を有する。なお、フュージョン仕様A(406A)〜フュージョン仕様C(406C)を総称してフュージョン仕様406と記載する。
フュージョン部401は、センサの検出結果をフュージョンして、車両20の外部の状況を示すセンサフュージョンデータを生成する。また、フュージョン部401は、図示しないLDM(Local Dynamic Map)部を有する。LDM部は、センサフュージョンデータと地図205とをフュージョンして、静的な道路情報と、動的な車両20の外部の状況を示す情報とを重畳してLDMデータを生成する。
センサには、天気、温度、又は湿度等の外部環境によって得手不得手がある。本実施例では、ECU200は、アプリケーションと外部環境とに対応する複数のフュージョン仕様406をメモリ202に記憶している。そして、セレクタ405は、動作中のアプリケーションと入力された外部環境とに対応する一つのフュージョン仕様406を選択する。選択中のフュージョン仕様406から他のフュージョン仕様406に変更する場合、変更後のフュージョン仕様406において、外部環境によってセンサが認識できず、ドライバの補完が必要な領域(弱点領域)が変更前のフュージョン仕様から変更されることが考えられる。
この場合、ドライバが補完する領域が突然変更されると、ドライバの体調又は精神状態によって補完することができない可能性がある。そこで、センサ弱点提示部403は、フュージョン部401が変更後のフュージョン仕様406を用いてセンサの検出結果をフュージョンする前に、ドライバの補完動作を評価する工程を設定し、変更後のフュージョン仕様の弱点領域をドライバに提示する。また、センサ弱点提示部403は、変更後のフュージョン仕様の弱点領域の補完動作を促す刺激をドライバに与える。
評価部404は、ドライバの刺激に対する応答を評価し、ドライバの応答が適切であると評価した場合、セレクタ405が選択したフュージョン仕様406をフュージョン部401に設定する。
アプリケーション部402は、車両20の走行を自動で制御するためのアプリケーションを実行する。アプリケーション部402が実行するアプリケーションには、一例として、前方の車両を追従する先行車追従ACC、又は車両20が走行する車線を変更する車線変更アプリ等がある。アプリケーション部402は、フュージョン部401が生成したLDMデータから車両20の走行の制御に必要な情報を選択し、選択した情報を制御部411に入力する。なお、ドライバの補完動作が必要なフュージョン仕様406が選択されている場合、アプリケーション部402は、LDMデータとドライバの応答とを制御部411に入力する。また、アプリケーション部402は、センサ弱点領域の情報が必要になったタイミングはセンサ弱点提示部403に伝達し、センサ弱点提示部403は、センサ弱点領域をドライバに提示する。これによって、センサ弱点領域を必要なタイミングで注視し、常にセンサ弱点領域を注視することによる緊張状態を回避できる。
フュージョン仕様A(406A)は、アプリケーション部402が先行車追従ACCを実行している場合に用いられる。フュージョン仕様B(406B)は、アプリケーション部402が車線変更アプリを実行し、かつ天気が晴れである場合に用いられる。フュージョン仕様C(406C)は、アプリケーション部402が車線変更アプリを実行し、かつ天気が雨である場合に用いられる。
図5A及び図5Bを用いてフュージョン仕様406によるセンサの認識範囲の違いについて説明する。
図5Aは、実施例1の天気が晴れである場合のセンサの認識精度の説明図である。
天気が晴れである場合、ミリ波レーダー221、ステレオカメラ222、及びサラウンドビューカメラ223の認識精度は良好である。フュージョン部401は、認識精度が良好なセンサの検出結果に基づいて、フュージョンデータを生成する。このため、フュージョンデータを生成するためのロジックに制約は不要で、設計思想に合わせたフュージョンデータをフュージョン部401に生成させることができる。したがって、フュージョン仕様B(406B)においては、車両20の360°を認識することができる。
図5Bは、実施例1の天気が雨である場合のセンサの認識精度の説明図である。
天気が雨である場合、光学系センサの認識精度が低下する。図5Bでは、認識精度が低下する認識範囲を破線で図示する。具体的には、ステレオカメラ222の認識範囲302における認識精度が低下する。また、サラウンドビューカメラ223Aの認識範囲303A、サラウンドビューカメラ223Bの認識範囲303B、サラウンドビューカメラ223Cの認識範囲303C、及びサラウンドビューカメラ223Dの認識範囲303Dにおける認識精度が低下する。
なお、天気が雨である場合であっても、車両20の前後方向の障害物を検出するミリ波レーダー221の認識精度は低下しない。
図6Aは、実施例1の車線変更アプリが実行中であって、天気が晴れである場合に用いられるフュージョン仕様B(406B)の認識範囲の説明図である。
天気が晴れである場合、図5Aで説明したように、ミリ波レーダー221、ステレオカメラ222、及びサラウンドビューカメラ223の認識精度は良好であるので、車両20が走行中の車線における車両20の前後方向のみならず、当該車線に隣接する車線の前後方向も認識できる。
図6Bは、実施例1の車線変更アプリが実行中であって、天気が雨である場合に用いられるフュージョン仕様C(406C)の認識範囲の説明図である。
天気が雨である場合、図5Bで説明したように、光学系センサであるステレオカメラ222及びサラウンドビューカメラ223の認識精度が低下し、ミリ波レーダー221の認識精度は低下しない。このため、車両20が走行中の前後方向のみを認識できる。
また、天気が雨である場合に、図5Aに示す晴れ用のフュージョン仕様B(406B)が用いられると、認識精度が低下しているセンサの検出結果がフュージョンされるので、全体の認識精度が低下する可能性がある。また、認識精度の低下を考慮したフュージョンのロジックを設計仕様とすると、ロジックそのものが複雑になる。
図7Aは、実施例1の先行車追従ACCの実行中の認識対象の説明図である。
先行車追従ACCを実行中の車両20は、先行車21を認識し、当該先行車21と同じ速度で先行車21を追従する。このため、本実施例では、先行車追従ACCでは、隣接する車線を認識する必要はなく、車両20の前後方向のみ認識できればよいものとする。したがって、天気が晴れであっても、雨であっても、図6Bに示す範囲が認識できればよいので、先行車追従ACCが実行中に用いられるフュージョン仕様406は、天気に対応するものではなく、フュージョン仕様Aのみである。なお、ステレオカメラだけでACCを実施してもよい。
図7Bは、実施例1の車線変更アプリの実行中の認識対象の説明図である。
図7Bの破線矢印が示すように、車両20が右側の車線に変更する場合について説明する。この場合、車両20が車線を変更する場合に車線変更先の右車線における車両20の後方からの後続車22の有無が、車線変更の実施可否を判定するための重要な要素となる。センサの認識精度が良好であれば、走行中の車線の前後方向のみならず、隣接する車線の前後方向も認識する必要があるため、ECU200は、車線変更アプリが用いるフュージョン仕様406として、晴れ用のフュージョン仕様B(406B)及び雨用のフュージョン仕様C(406C)が用意されている。
図8は、実施例1の先行車追従ACCのフローチャートである。
ECU200が自動運転をONにする入力を受け付けると(801)、セレクタ405がフュージョン仕様A(先行車追従)406Aを選択し、フュージョン部401にフュージョン仕様Aを設定して、アプリケーション部402が先行車追従ACCを実行する(802)。先行車追従ACCは、車両20の前方に搭載されたミリ波レーダー221A及び221Bの検出結果を用いて先行車に追従するアプリケーションである。先行車追従ACCでは、ミリ波レーダー221A及び221Bの検出結果に基づいて、車両20の前方を走行する車両(先行車)との距離、相対速度、及び角度等を算出し、算出したこれらの情報に基づいて先行車を追従する。
アプリケーション部402が先行車追従ACCを実行すると、車両20は先行車を追従するように走行し、アプリケーション部402は、故障又は不具合等がない通常走行であるか否かを判定する(803)。
ステップ803の処理で通常走行でないと判定された場合(803:No)、アプリケーション部402は先行車追従ACCの実行を中止し、車両20の自動運転をOFFにし(804)、処理を終了する。
一方、ステップ803の処理で通常走行であると判定された場合(803:Yes)、アプリケーション部402は、車線変更が必要な状況であるか否かを判定する(805)。車線変更が必要な状況であるか否かは、車線変更が必要な状況である旨のドライバからの入力をECU200が受け付けたか否かに基づいて判定してもよいし、カーナビゲーションシステム等によって設定された目的地までのルートに基づいて判定してもよい。
ステップ805の処理で、車線変更が必要な状況でないと判定された場合(805:No)、先行車追従ACCによる自動運転を継続し、ステップ803の処理に戻る。
一方、ステップ805の処理で、車線変更が必要な状況であると判定された場合(805:Yes)、アプリケーション部402は車線変更アプリを起動する(806)。なお、車線変更においては、ミリ波レーダー221A及び221Bの検出結果の他に、車両20が走行中の車線と変更先の車線との間のレーンマーカー及び変更先の車線を走行する他の車両の有無を検出するための光学系センサ(ステレオカメラ222及びサラウンドビューカメラ223)の検出結果が必要となる。
本実施例では、ECU200は、車線変更アプリが用いる晴れ用のフュージョン仕様(フュージョン仕様B(406B))及び雨用のフュージョン仕様(フュージョン仕様(C406C))を有する。晴れ用のフュージョン仕様B(406B)においては、ステレオカメラ222及びサラウンドビューカメラ223の認識精度が高く、ステレオカメラ222及びサラウンドビューカメラ223の検出結果とミリ波レーダー221A〜221Dによる車両20の前後方向の検出結果とを組み合わせることによって、車両20の例えば、隣接車線を含む周辺のほとんど全ての範囲を認識できる。
ここで、雨であっても晴れ用のフュージョン仕様B(406B)を用いる場合について説明する。フュージョン部401は、晴れ用のフュージョン仕様B(406B)を用いて、車両20の前方の状況を認識するステレオカメラ222の検出結果、車両20を中心とする360°の状況を認識するサラウンドビューカメラ223の検出結果、及び車両20の前後方向の状況を認識するミリ波レーダー221の検出結果をフュージョンし、フュージョンした結果をアプリケーション部402に出力する。天気が雨である場合、ステレオカメラ222の認識精度が低下するが、アプリケーション部402は、ステレオカメラ222の検出結果にも基づいて車両20の前方を認識する。この場合、アプリケーション部402は、認識結果の妥当性を判断する必要がある。そして、アプリケーション部402は、妥当性が所定値以上であれば、他のセンサからの検出結果及び他の情報を重畳して、認識精度を向上させる処理を実行する。
ただし、妥当性の判定及び認識精度を向上させる処理は、様々の条件を想定する必要があるため、ロジックが複雑になることが予想される。認識精度が低下したサラウンドビューカメラ223の検出結果に基づいて、車両20を中心とした360°の状況を認識する場合も同様である。
そこで、認識精度が低下するセンサが存在する外部環境に対応したフュージョン仕様をECU200に設定しておけば、妥当性の判定及び認識精度を向上させる処理の実行を不要とすることができる。外部環境が雨である場合には、光学系センサの認識精度が低下するので、雨用のフュージョン仕様C(406C)がECU200に設定される。なお、ある外部環境において、電磁波レーダーの認識精度が低下する場合、当該外部環境に対応するフュージョン仕様がECU200に設定されていてもよい。
次に、セレクタ405は、フュージョン仕様B(406B)及びフュージョン仕様C(406C)から外部環境(本実施例では天気であるがこれに限定されない)に対応する一つのフュージョン仕様406を選択する(807)。ステップ807の処理で選択されたフュージョン仕様406は、すぐにフュージョン部401に設定されず、評価部404の図示しない保持部に一時的に保持され(808)、車両20は先行車を追従しながら、評価部404がステップ807の処理で選択されたフュージョン仕様406に対するドライバの反応を評価する。
なお、外部環境は、車両20が有する外部環境を検出するためのセンサ(例えば、温度センサ及び湿度センサ等)の検出結果、及び外部の装置からの外部環境を示すデータの少なくとも一方に基づいて特定される。図2に示す無線通信部224が無線ネットワーク241を介して外部の装置と通信して、ECU200は外部環境を示すデータを取得する。外部環境を示すデータは、例えば車両20の現在位置の天気を示すデータである。
また、センサ弱点提示部403は、ステップ807の処理で選択されたフュージョン仕様406におけるセンサの弱点をドライバに提示する(809)。フュージョン仕様におけるセンサの弱点は、外部環境によって認識精度が低下するセンサの認識範囲であり、ドライバが補完すべき箇所である。これによって、ドライバは、変更後のフュージョン仕様406で補完すべき箇所を把握できる。なお、センサ弱点提示部403の提示の態様については、図9A〜図9Cで詳細を説明する。
次に、センサ弱点提示部403は、車線変更の際に補完動作が必要な箇所に対する補完動作をドライバに促す刺激をドライバに与える(810)。
例えば、ステップ807の処理で晴れ用のフュージョン仕様406であるフュージョン仕様B(406B)が選択された場合、センサ弱点提示部403は、隣接車線にさらに隣接する車線である隣々接車線に対する補完動作をドライバに促す刺激をドライバに与える。一方、ステップ807の処理で雨用のフュージョン仕様406であるフュージョン仕様C(406C)が選択された場合、センサ弱点提示部403は、隣接車両に対する補完動作をドライバに促す刺激をドライバに与える。
次に、評価部404は、ステップ810の処理で与えた刺激に対してドライバが確認動作を実施したか否かを判定する(811)。ステップ811の処理では、ドライバが補完動作を実施できるか否かの意識レベルを判定するのではなく、実際に補完動作を実施したか否かを判定する。ドライバが補完動作を実施したか否かの判定は、車両20が有する車内の状況を検出するセンサ、及びドライバからの補完動作した旨の入力の少なくとも一方に基づいて実施される。これらの詳細は、図10Bで説明する。
ステップ811の処理で、刺激に対してドライバが補完動作をしていないと判定された場合(811:No)、評価部404は、刺激に対する補完動作の失敗回数を示す変数Contに1を加算し(812)、変数Contが10より大きいか否かを判定する(813)。
ステップ813の処理で変数Contが10以下であると判定された場合(813:No)、ステップ810の処理に戻り、センサ弱点提示部403はドライバに刺激を与える。刺激は、補完動作が必要な箇所の視認を促す旨の画像、音声、及び接触動作の少なくとも一つであればよい。これらの詳細は、図11A及び図11Bで説明する。
一方、ステップ813の処理で変数Contが10より大きいと判定された場合(813:Yes)、アプリケーション部402は、車線変更アプリケーションを無効化し(821)、先行車を追従する。ドライバによる補完動作が不完全であり、このような状況下で無理な車線変更を実施させないためである。
ステップ811の処理で、刺激に対してドライバが補完動作をしたと判定された場合(811:Yes)、評価部404は、保持部が保持しているステップ807の処理で選択したフュージョン仕様406をフュージョン部401に当該フュージョン仕様406を設定するイネーブル信号を保持部に出力する。保持部は、イネーブル信号が入力されると、ステップ807の処理で選択したフュージョン仕様406をフュージョン部401に設定する(814)。また、センサ弱点提示部403は、ステップ807の処理で選択したフュージョン仕様406におけるセンサの弱点をドライバに提示する(815)。
そして、ステップ807の処理で選択したフュージョン仕様406を用いたフュージョンデータに基づいてアプリケーション部402が車線変更が可能と判断された場合、センサ弱点提示部403は、車線変更が可能か否かをドライバに問い合わせる(816)。ステップ816の処理の問い合わせは、センサ弱点提示部403が、ステップ809の処理と同じ態様でステップ807の処理で選択されたフュージョン仕様406の弱点を提示することによって実現されてもよいし、ステップ810の処理と同じ態様で車線変更の際に補完動作が必要な箇所に対する補完動作をドライバに促す刺激をドライバに与えることによって実現されてもよい。
ドライバは、ステップ816の処理の問い合わせの箇所を目視で確認する(817)。ドライバは、目視による確認の結果、変更先の車線に障害となる車両又は障害物等が存在するか否かを判断して、車線変更が可能か否かを判断する(818)。
ステップ818の処理で車線変更が可能であると判断した場合、ドライバは、その旨を車両20に入力する。ドライバの車両20への入力は、専用のスイッチ(図12参照)を押下してもよいし、方向指示スイッチを操作してもよい。
車両20に車線変更が可能である旨が入力された場合、アプリケーション部402は、車線変更アプリによる車線変更制御を開始する(819)。そして、アプリケーション部402は、車線変更が終了したか否かを判定する(820)。ステップ820の処理で車線変更が終了したと判定された場合、アプリケーション部402は、車線変更アプリを終了し(821)、先行車追従ACCを起動し、ステップ802の処理に戻る。
一方、ステップ820の処理で車線変更が終了していないと判定された場合、アプリケーション部402は、再度ステップ820の処理を実行する。
ステップ818の処理で車線変更が不可能であると判断した場合、ステップ817の処理に戻り、ドライバは目視による確認を継続する。
図9A〜図9Cを用いてステップ809の処理におけるフュージョン仕様406のセンサの弱点の提示態様について説明する。
図9Aは、実施例1の車両20のメーターパネル900にフュージョン仕様406におけるセンサの弱点を提示する例の説明図である。
車両20のインストゥルメントパネルにはメーターパネル900が配置される。メーターパネル900はスピードメーター及びタコメーター等を有し、当該メーターパネル900に、車両20を中心とする車両20の周辺領域の簡易マップが表示され、当該簡易マップ上に、フュージョン仕様406において認識精度が低下するセンサの認識範囲が表示される。図9Aでは、フュージョン仕様406において認識精度が低下するセンサの認識範囲は点線で示され、認識精度が低下しないセンサの認識範囲は実線で示される。
図9Bは、実施例1の車両20のカーナビゲーションシステム910のディスプレイ上にフュージョン仕様406におけるセンサの弱点を提示する例の説明図である。
カーナビゲーションシステム910のディスプレイには、車両20の現在地から目的までの経路等を表示するカーナビゲーション情報が表示されるとともに、図9Aで説明した車両20を中心とする車両20の周辺領域の簡易マップが表示される。当該簡易マップ上に、フュージョン仕様406において認識精度が低下するセンサの認識範囲が表示される。
図9Cは、実施例1の車両20のウィンドウに内蔵されたディスプレイにフュージョン仕様406におけるセンサの弱点を提示する例の説明図である。
車両20の各ウィンドウには透過型のディスプレイが内蔵されており、フュージョン仕様406において、認識精度が低下するセンサの認識範囲に対応するウィンドウのディスプレイの領域の表示態様を、他の領域と区別可能に変更する。具体的には、認識精度が低下するセンサの認識範囲に対応するウィンドウのディスプレイの領域にターゲット信号を出力して、図9Cに示すように、当該領域を点線で表示する。
なお、ステップ809の処理におけるフュージョン仕様406のセンサの弱点の提示態様は、図9A〜図9Cに限定されず、HUD(Head Up Display)上に表示されてもよいし、音声ガイダンスによって認識精度が低下するセンサの認識範囲がドライバに提示されてもよい。
図10A及び図10Bを用いて、ステップ810の処理でドライバに与えられた刺激に対するドライバの補完動作について説明する。
図10Aは、実施例1の刺激に対する補完動作前のドライバの姿勢の説明図である。図10Bは、実施例1の刺激に対する補完動作時のドライバの姿勢の説明図である。
本実施例では、車両20のセンサによる認識とドライバによる認識とのトータルで安全運転を保障するためには、ドライバが補完動作を実際に実施したか否かを重要視する。したがって、本実施例では、変更後のフュージョン仕様406を設定する前に、当該フュージョン仕様406において認識精度が低下するセンサの検出範囲の補完動作をドライバに実験的に実施させる。
例えば、ステップ810の処理で、ドライバに対して右側後方の領域が補完動作を実施すべき範囲として刺激が与えられた場合、ドライバは、図10Aに示すように前方を向いた姿勢から、図10Bに示すようにドライバの右側後方を目視で確認する補完動作を実施する。
本実施例における刺激は、例えば、図9Cに示すように補完動作を実施すべき車両20のウィンドウに内蔵されたディスプレイを介した視覚的な刺激を前提に説明するが、図9Aに示すようにメーターパネル900に表示された簡易マップを介した視覚的な刺激であってもよいし、図9Bに示すように車両20のカーナビゲーションシステム910のディスプレイ上に表示された簡易マップを介した視覚的な刺激であってもよい。また、刺激は、視覚的な刺激に限定されず、ドライバに補完動作を実施させることができれば、他の刺激であってもよい。例えば、他の刺激としては、音声による聴覚的な刺激、又は振動による触覚的な刺激等がある。音声による聴覚刺激としては、補完動作が必要な箇所をドライバに知らせる音声ガイダンスが車両20のスピーカーから出力されてもよい。また、振動による触覚的な刺激としては、補完動作が必要な箇所の方向のドライバのシートを振動させる。具体的には、ドライバのシートの右肩部分が刺激された場合、右後方に補完動作が必要である旨を示し、ドライバのシートの左肩部分が刺激された場合、左後方に補完動作が必要である旨を示す。
なお、図10Bに示すドライバの補完動作をしたか否かは、ドライバが、補完動作を実施した後に、図12に示すボタン120A又は120Bを操作することによって、補完動作を実施した旨を車両20に入力してもよい。また、車両20が車内の状況を検出するセンサ(ドライバを撮影するカメラ等)を有する場合、当該センサの検出結果に基づいて、ドライバが刺激された箇所に補完動作を実施したか否かを判定してもよい。
図11A及び図11Bを用いて、車線変更する場合のドライバによる目視確認について説明する。
図11Aは、実施例1の中央車線を走行する車両20が右側の車線に車線変更する場合のドライバによる目視確認の例について説明する。
図11Aの左図に示すように、車両20が三車線の道路の中央車線を走行しており、中央車線の右側の車線には車両20より高速で車両Aが走行しており、車両20が右側の車線に車線変更する場合を想定条件1とする。
図11Aの右図においては、車両20の右車線側のウィンドウの点線で区画した領域が、ステップ815の処理でドライバに提示されたフュージョン仕様406におけるセンサの弱点である。また、車両Aは車両20より高速で走行してるので、図11Aの右図における矢印は、車両20から見た車両Aの進行方向である。ドライバは、右側の車線側のウィンドウの点線で区画した領域を注視し、車両Aが前方に十分に移動したこと、及び後方から当該領域に侵入する車両がないことを確認すると、車線変更が可能であると判断し、その旨を車両20に入力する。
図11Bは、実施例1の右車線を走行する車両20が左側の中央車線に車線変更する場合のドライバによる目視確認の例について説明する。
図11Bの左図に示すように、車両20が三車線の道路の右車線を走行しており、中央車線には車両20より低速で車両Bが走行しており、車両20が右車線の左側の中央車線に車線変更する場合を想定条件2とする。
図11Bの右図においては、車両20の中央車線側のウィンドウの点線で区画した領域が、ステップ815の処理でドライバに提示されたフュージョン仕様406におけるセンサの弱点である。また、車両Bは車両20より低速で走行してるので、図11Bの右図における矢印は、車両20から見た車両Bの進行方向である。ドライバは、中央車線側のウィンドウの点線で区画した領域を注視し、車両Bが後方に十分に移動したこと、及び前方から当該領域に侵入する車両がないことを確認すると、車線変更が可能であると判断し、その旨を車両20に入力する。
車線を変更する場合のステップ810の処理でドライバに与えられる刺激において、フュージョン仕様406におけるセンサの弱点となるウィンドウに点線で区画した領域を表示し、当該領域に車両20に対して相対的に移動する車両を的に表示して、当該車両の移動をドライバに追わせてもよい。この場合、ドライバは、例えば、的に表示された車両が点線で区画した領域に表示されなくなったタイミングで、応答を入力するものとする。
なお、的に表示される車両の移動方向は、車両20の移動速度に基づいて決定されてもよい。例えば、車両20が予め設定された所定の速度より高速で走行している場合、的に表示される車両の移動方向は、図11Bのように、車両20の後方となり、車両20が予め設定された所定の速度より低速で走行している場合、的に表示される車両の移動方向は、図11Aのように、車両20の前方となる。
なお、このような表示は、サイドのウィンドウにのみ表示されるものではなく、フロントのウィンドウ又はリアのウィンドウに表示されてもよい。
図12は、実施例1の車線変更が可能である旨を車両20に入力するためのボタン120の配置の説明図である。
図11A及び図11Bで説明したように、ドライバは、車線変更可能と判断した場合、ボタン120A又はボタン120Bを操作することによって、その旨が車両20に入力される。なお、ボタン120A又は120Bはステアリングに設けられる。ボタン120Aはドライバから見て右側に設けられ、ボタン120Bはドライバから見て左側に設けられる。例えば、走行中の車線の右側の車線に車線変更する場合、右側のボタン120Aが操作されると、車両20に車線変更可能である旨が入力され、走行中の車線の左側の車線に車線変更する場合、左側のボタン120Bが操作されると、車両20に車線変更可能である旨が入力されるようにしてもよい。
なお、必ずしも二つのボタン120A及び120Bを設ける必要はなく、一つのボタン120A又は120Bが設けられればよい。
また、ドライバは、車線変更可能と判断した場合、ウィンカーレバー121を操作することによって、その旨が車両20に入力されてもよい。この場合、ボタン120A及び120Bは不要である。
また、車線変更可能と判断した場合に操作されるボタンはウィンカーレバー121に設けられてもよい。また、車線変更可能と判断した場合、ドライバは予め決められた単語を発声し、車両20が有するセンサ(マイク等)に当該単語が入力されると、車両20に車線変更可能である旨が入力されるとしてもよい。
ここで、ドライバが車線変更する場合を例にドライバの一連の動作を図10A〜図12を用いて説明する。
まず、ドライバは、図12に示すウィンカーレバー121を操作する。ウィンカーレバー121の操作を受け付けると、ECU200は、車線変更アプリのフュージョン仕様406でセンサの弱点となるセンサ弱点範囲をドライバに提示し、車線変更に必要なセンサ弱点範囲の補完動作を促す刺激をドライバに与える。ドライバが図10A及び図10Bに示すように、刺激された箇所に補完動作を実施した場合、センサの認識範囲のカバー率とドライバが補完する領域のカバー率とで安全に制御できるので、ECU200は、車線変更アプリのフュージョン仕様406をフュージョン部401に適用する。
なお、ECU200は、ドライバのボタン120A若しくは120B又はウィンカーレバー121の操作があった場合、ドライバが補完動作を実施したと判断するが、他の方法でドライバが補完動作を実施したことを判断してもよい。例えば、車内を撮影するカメラ等によりドライバの顔の向きを測定してもよいし、眼球の移動を測定してもよい。
そして、ドライバは、図11A又は図11Bに示した車線変更アプリのフュージョン仕様406のセンサの弱点範囲を目視で確認して補完動作をしながら、車線変更可能であると判断した場合、図12に示すボタン120A又は120Bを操作して、車線変更可能である旨を車両20に入力する。
なお、車線変更アプリの起動のタイミングは、ドライバがウィンカーレバー121を操作したタイミングに限定されず、カーナビゲーションシステムのルート検索結果に基づいたタイミングであってもよい。
本実施例によれば、外部環境に応じて選択したフュージョン仕様において外部環境が原因でセンサの認識精度が低下する領域を選択したフュージョン仕様の弱点領域としてドライバに提示する。これによって、フュージョン仕様の弱点領域をドライバに補完させることができる。
また、本実施例によれば、選択したフュージョン仕様の弱点領域の視認をドライバに促す刺激をドライバに与える。これによって、弱点領域のドライバによる補完動作を正確に実施させることができる。
また、本実施例によれば、ドライバが刺激に対して適切に応答したか否かを判定し、判定結果に基づいて、選択したフュージョン仕様を複数のセンサの検出結果のフュージョンに適用するか否かを判定することを特徴とする。これによって、ドライバが適切に弱点領域の補完動作を実施していることを確認してからフュージョン仕様を適用することができる。
また、本実施例によれば、車両の走行の制御のための複数の種類のアプリケーションを実行可能であって、実行するアプリケーションが変更されたことを契機として、変更後のアプリケーションに対応し、外部環境に対応するフュージョン仕様を選択し、選択したフュージョン仕様の弱点領域をドライバに提示する。これによって、実行するアプリケーションが変更され、フュージョン仕様が変更された場合であっても、変更後のフュージョン仕様の弱点領域をドライバに補完させることができる。
また、本実施例によれば、変更後のアプリケーションは、車両が車線を変更するための車線変更アプリケーションであり、プロセッサは、ドライバが提示されたフュージョン仕様の弱点領域を確認し、車線が変更可能である旨の入力を受け付けた場合、車線を変更する。これによって、ドライバが車線が変更可能であると判断した場合に、車線を変更できる。
以下、実施例2について、図14について説明する。
実施例1では、先行車追従アプリの実行中に車線変更アプリを実行したことによって、先行車追従アプリ用のフュージョン仕様406(フュージョン仕様A(406A))から車線変更アプリ用のフュージョン仕様406(フュージョン仕様B(406B)又はフュージョン仕様C(406C))に切り替える場合について説明した。すなわち、あるアプリの実行中に他のアプリを実行したことによって、フュージョン仕様406を切り替える場合について説明した。本実施例では、外界情報の変更によって、フュージョン仕様406を切り替える場合について説明する。
図13は、実施例2の車両走行制御システムのフローチャートである。なお、図13では、実施例1の図8に示す処理と同じ処理は、同じ符号を付与し、説明を省略する。
まず、ECU200が運転の開始を受け付けると(1401)、外部環境を取得する(1402)。ECU200は、例えばエンジンが始動した場合、運転の開始を受け付ける。次に、セレクタ405は、ステップ807の処理で、車両走行制御システム用の複数のフュージョン仕様406から、外部環境に対応する一つのフュージョン仕様406を選択する。
ステップ808の処理では、ステップ807の処理で選択されたフュージョン仕様406は、評価部404の図示しない保持部に一時的に保持される。
また、ステップ809の処理では、センサ弱点提示部403は、ステップ807の処理で選択されたフュージョン仕様406におけるセンサの弱点をドライバに提示する。次に、ステップ810の処理では、センサ弱点提示部403は、車線変更の際に補完動作が必要な箇所に対する補完動作をドライバに促す刺激をドライバに与える。
次に、ステップ811の処理では、評価部404は、ステップ810の処理で与えた刺激に対してドライバが確認動作を実施したか否かを判定する。
ステップ811の処理で、刺激に対してドライバが補完動作をしていないと判定された場合(811:No)、評価部404は、ステップ812の処理で、刺激に対する補完動作の失敗回数を示す変数Contに1を加算し、ステップ813の処理で、変数Contが10より大きいか否かを判定する。
ステップ813の処理で変数Contが10以下であると判定された場合(813:No)、ステップ810の処理に戻り、センサ弱点提示部403はドライバに刺激を与える。
一方、ステップ813の処理で変数Contが10より大きいと判定された場合(813:Yes)、ドライバによる補完動作が不完全であるので、アプリケーション部402は、自動運転のみで安全が確保できるモードに移行し(1403)、処理を終了する。自動運転のみで安全が確保できるモードとは、センサの検出結果のみに基づいて自動で走行するモードであってもよいし、最寄りの路側帯等の退避エリアで停止するモードであってもよい。
ステップ811の処理で、刺激に対してドライバが補完動作をしたと判定された場合(811:Yes)、ステップ814の処理で、評価部404は、ステップ807の処理で選択したフュージョン仕様406をフュージョン部401に設定する。また、ステップ815の処理で、センサ弱点提示部403は、ステップ807の処理で選択したフュージョン仕様406におけるセンサの弱点をドライバに提示する。
次に、ECU200は、外部環境を新たに取得し、外部環境が変化したか否かを判定する(1404)。ステップ1404の処理で、外部環境が変化したと判定された場合(1404:Yes)、ステップ807の処理に戻り、セレクタ405は、変化後の外部環境に対応するフュージョン仕様406を選択する。
一方、ステップ1404の処理で、外部環境が変化していないと判定された場合(1404:No)、ECU200は、故障又は不具合等がない通常走行であるか否かを判定する(1405)。
ステップ1405の処理で通常走行でないと判定された場合(1405:No)、車両20の自動運転をOFFにし(804)、処理を終了する。
なお、ステップ1405の処理で通常走行であると判定された場合、ECU200は、他のアプリケーション(例えば車線変更アプリ)の起動の要求を受け付けたか否かを判定してもよい。他のアプリケーションの起動の要求を受け付けた場合、ECU200は、図8に示すステップ806の処理以降の処理を実行する。
本実施例によれば、外部環境の変化の検出を契機として、変化後の外部環境に対応する一つのフュージョン仕様を選択し、選択したフュージョン仕様のフュージョン仕様の弱点領域をドライバに提示し、選択したフュージョン仕様に基づいて、複数のセンサの検出結果をフュージョンして、車両の外部の状況を認識して、車両の走行を制御する。これによって、外部環境が変化しても、変化後の外部環境に対応するフュージョン仕様の弱点領域をドライバに提示できる。
以下、実施例3について、図14〜図16について説明する。
実施例2では、外界情報の変更によって、フュージョン仕様406を切り替える場合について説明した。本実施例では、ドライバの意向によってフュージョン仕様を切り替える場合について説明する。
本実施例では、車両走行制御システムとしての先進運転者支援システム(ADAS:Advanced Driver Assistance System)用のセンサの対応カバー率に応じた複数のフュージョン仕様1502がECU200に設定されており、ドライバの意向によって、フュージョン仕様1502を切り替える場合について説明する。なお、先進運転支援システムとは、ドライバの運転を支援するシステムであり、例えば、他の車両等に衝突する前にブレーキを作動させたり、車線からはみ出さないようにステアリングを制御することによって、車両20の走行を支援するシステムである。
図14A及び図14Bは、実施例3のフュージョン仕様毎のセンサ認識範囲の車両のカバー率を示すグラフである。
実施例1及び実施例2では、先行車追従アプリ及び車線変更アプリ等のような自動運転制御を前提とするので、センサの弱点範囲をドライバが補完する。本実施例では、先進運転者支援システムのように、ドライバの運転を前提とするので、ドライバの認識が前提となり、センサの検出結果がドライバの認識を補完する。図14では、ドライバの認識範囲の車両20のカバー率を実線矢印で示し、センサの認識範囲の車両20のカバー率は実線矩形で示す。
本実施例は、ドライバが設定したフュージョン仕様に対応したセンサのカバー率に対し、安全運転を確保できるカバー率(例えば95%)以上となるように、センサにその分を補完させる。図14Aにおいて、仕様Aにおける車両20のドライバが認識する必要がある認識範囲のカバー率は実線矢印で示す。また、仕様Bにおける車両20のドライバが認識する必要がある認識範囲のカバー率は、実線矢印に点線矢印を加えた範囲になる。
図15は、実施例3の先進運転車支援システムの機能ブロック図である。なお、図15では、実施例1の図4に示す処理と同じ処理は、同じ符号を付与し、説明を省略する。図16は、実施例3の先進運転者支援システムのフローチャートである。なお、図16では、実施例1の図8に示す処理と同じ処理は、同じ符号を付与し、説明を省略する。
まず、ECU200が運転の開始を受け付けると(1401)、外部環境を取得する(1402)。次に、外部環境が初めて取得される、あるいは外部環境が変化したと判断すると(1404)、セレクタ405は、ステップ807の処理で、先進運転者支援システム用の複数のフュージョン仕様1602から、一つのフュージョン仕様1602を選択する。なお、セレクタ405への選択信号の入力はドライバが実施するものとする。
また、センサ範囲提示部1601は、ステップ807の処理で選択されたフュージョン仕様1602におけるセンサで対応できる範囲をドライバに提示する(1701)。提示方法は、実施例1の図9A、図9B、図9Cで説明した内容と同等でよい。これにより、ドライバはセンサに担当させる範囲を認識し、それを踏まえた運転を実施する。
なお、ECU200は、一定間隔で外部環境を取得し(1402)、外部環境が変化したか否かを判定する(1404)。ステップ1404の処理で、外部環境が変化したと判定された場合(1404:Yes)、選択済みのフュージョン仕様でのカバー範囲を更新し、センサ範囲提示部の表示も更新する。図14Bを使用して、天気が晴れから雨に変化した場合を例にして説明すると、フュージョン仕様Aにおけるセンサのカバー範囲が天気が晴れから雨に変化したことによりハッチングされた領域だけ減少する場合を考える。ここでドライバが実線矢印の範囲の注意で継続運転していると、ハッチングされた非カバー範囲1501分の環境情報が取得できず、危険な状態になる。そこで、天気の変化を検出したら、センサ範囲提示部1601の表示も精度が低下したセンサに対応するカバー範囲を消滅させる。さらに、非カバー範囲としてドライバに対して警告を出力する。なお、ここでの警告は、センサ範囲提示部1601の表示を明滅するのでもよいし、音声による警告でもよい。
本実施例によれば、ドライバが選択したフュージョン仕様に対し、外部環境の変化の検出を契機として、フュージョン仕様の範囲領域をドライバに提示すると共に、範囲領域が減少した場合は警告を出力する。これによって、ドライバは警告された範囲への注意をすることができ、先進運転車支援システムを前提としたドライバとセンサによる安全運転を実現することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることも可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加、削除、及び置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。
また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
20 車両
200 ECU
201 CPU
202 メモリ
203 通信部
204 記憶部
205 地図
206 データバス
210 MPU
211 ロケータ
212 高精度地図
221 ミリ波レーダー
222 ステレオカメラ
223 サラウンドビューカメラ
224 無線通信部
231 クラウド
232 データセンタ
233 車両
234 路側機
241 無線ネットワーク
401 フュージョン部
402 アプリケーション部
403 センサ弱点提示部
404 評価部
405 セレクタ
406 フュージョン仕様
411 制御部
412 ドライバ
413 外部環境

Claims (12)

  1. 車両の自動走行を実現する車両走行制御システムであって、
    前記車両は、前記車両の外部の状況を検出するセンサを複数有し、
    前記車両走行制御システムは、
    プロセッサ及びメモリを有し、
    前記メモリは、前記複数のセンサの検出結果をフュージョンする仕様であって、前記車両の外部環境に対応する複数のフュージョン仕様を記憶し、
    前記プロセッサは、
    前記メモリに記憶された複数のフュージョン仕様から前記車両の外部環境に対応する一つのフュージョン仕様を選択し、
    前記選択したフュージョン仕様において前記外部環境が原因で前記センサの認識精度が低下する領域を前記選択したフュージョン仕様の弱点領域としてドライバに提示し、
    前記選択したフュージョン仕様に基づいて、前記複数のセンサの検出結果をフュージョンして、前記車両の外部の状況を認識して、前記車両の自動走行を制御することを特徴とする車両走行制御システム。
  2. 請求項1に記載の車両走行制御システムであって、
    前記プロセッサは、前記選択したフュージョン仕様の弱点領域の視認を前記ドライバに促す刺激を前記ドライバに与えることを特徴とする車両走行制御システム。
  3. 請求項2に記載の車両走行制御システムであって、
    前記プロセッサは、
    前記ドライバが前記刺激に対して適切に応答したか否かを判定し、
    前記判定の結果に基づいて、前記選択したフュージョン仕様を前記複数のセンサの検出結果のフュージョンに適用するか否かを判定することを特徴とする車両走行制御システム。
  4. 請求項3に記載の車両走行制御システムであって、
    前記プロセッサは、前記ドライバの応答を、車内の状況を検出するセンサ、及び前記ドライバからの入力の少なくとも一方に基づいて検出することを特徴とする車両走行制御システム。
  5. 請求項2に記載の車両走行制御システムであって、
    前記刺激は、前記選択したフュージョン仕様の弱点領域の視認を前記ドライバに促す旨の画像、音声、及び接触動作の少なくとも一つであることを特徴とする車両走行制御システム。
  6. 請求項1に記載の車両走行制御システムであって、
    前記プロセッサは、前記車両の走行の制御のための複数の種類のアプリケーションを実行可能であって、
    前記メモリは、前記複数の種類のアプリケーションに対応し、かつ少なくとも一つの外部環境に対応する複数のフュージョン仕様を記憶し、
    前記プロセッサは、
    実行するアプリケーションに対応し、前記外部環境に対応するフュージョン仕様を選択し、
    前記選択したフュージョン仕様の弱点領域を前記ドライバに提示し、
    前記選択したフュージョン仕様に基づいて、前記複数のセンサの検出結果をフュージョンして、前記車両の外部の状況を認識して、前記車両の自動走行を実現し、
    前記実行するアプリケーションが変更されたことを契機として、前記変更後のアプリケーションに対応し、かつ前記外部環境に対応するフュージョン仕様を選択し、
    前記選択したフュージョン仕様の弱点領域を前記ドライバに提示し、
    前記選択したフュージョン仕様に基づいて、前記複数のセンサの検出結果をフュージョンして、前記車両の外部の状況を認識して、前記車両の自動走行を実現することを特徴とする車両走行制御システム。
  7. 請求項6に記載の車両走行制御システムであって、
    前記変更後のアプリケーションは、前記車両が車線を変更するための車線変更アプリケーションであり、
    前記プロセッサは、ドライバが前記提示されたフュージョン仕様の弱点領域を確認し、車線が変更可能である旨の入力を受け付けた場合、前記車線の変更制御を実施することを特徴とする車両走行制御システム。
  8. 請求項1に記載の車両走行制御システムであって、
    前記外部環境の変化の検出を契機として、前記変化後の外部環境に対応する一つのフュージョン仕様を選択し、
    前記選択したフュージョン仕様のフュージョン仕様の弱点領域を前記ドライバに提示し、
    前記選択したフュージョン仕様に基づいて、前記複数のセンサの検出結果をフュージョンして、前記車両の外部の状況を認識して、前記車両の自動走行を実現することを特徴とする車両走行制御システム。
  9. 請求項1に記載の車両走行制御システムであって、
    前記プロセッサは、前記外部環境を検出するためのセンサの検出結果、及び前記車両が外部の装置から取得した外部環境を示すデータの少なくとも一つに基づいて、前記外部環境を特定することを特徴とする車両走行制御システム。
  10. 請求項1に記載の車両走行制御システムであって、
    前記プロセッサは、前記選択したフュージョン仕様の弱点領域を、前記車両が有するメータパネル、前記車両が有するカーナビゲーションシステムのディスプレイ、及び前記車両のウィンドウに内蔵された透過型ディスプレイの少なくとも一つに提示することを特徴とする車両走行制御システム。
  11. 請求項1から請求項10のいずれか一つに記載の車両走行制御システムを有することを特徴とする車両。
  12. 車両の自動走行を実現する車両走行制御システムにおける前記車両の走行を制御する車両走行制御方法であって、
    前記車両は、前記車両の外部の状況を検出するセンサを複数有し、
    前記車両走行制御システムは、プロセッサ及びメモリを有し、
    前記メモリは、前記複数のセンサの検出結果をフュージョンする仕様であって、前記車両の外部環境に対応する複数のフュージョン仕様を記憶し、
    前記車両走行制御方法は、
    前記プロセッサが、前記メモリに記憶された複数のフュージョン仕様から前記車両の外部環境に対応する一つのフュージョン仕様を選択し、
    前記プロセッサが、前記選択したフュージョン仕様において前記外部環境が原因で前記センサの認識精度が低下する領域を前記選択したフュージョン仕様の弱点領域としてドライバに提示し、
    前記プロセッサが、前記選択したフュージョン仕様に基づいて、前記複数のセンサの検出結果をフュージョンして、前記車両の外部の状況を認識して、前記車両の自動走行を実現することを特徴とする車両走行制御方法。
JP2016011637A 2016-01-25 2016-01-25 車両走行制御システム、及び車両走行制御方法 Active JP6690952B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011637A JP6690952B2 (ja) 2016-01-25 2016-01-25 車両走行制御システム、及び車両走行制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011637A JP6690952B2 (ja) 2016-01-25 2016-01-25 車両走行制御システム、及び車両走行制御方法

Publications (2)

Publication Number Publication Date
JP2017132285A true JP2017132285A (ja) 2017-08-03
JP6690952B2 JP6690952B2 (ja) 2020-04-28

Family

ID=59502036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011637A Active JP6690952B2 (ja) 2016-01-25 2016-01-25 車両走行制御システム、及び車両走行制御方法

Country Status (1)

Country Link
JP (1) JP6690952B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170358102A1 (en) * 2016-06-10 2017-12-14 Mitsubishi Electric Corporation Object recognition processing apparatus, object recognition processing method, and autonomous driving system
WO2019065411A1 (ja) * 2017-09-29 2019-04-04 日立オートモティブシステムズ株式会社 車両検知システム
KR20190093797A (ko) * 2018-01-17 2019-08-12 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
JP2019182095A (ja) * 2018-04-05 2019-10-24 日立オートモティブシステムズ株式会社 電子制御装置、制御方法
JP2019200461A (ja) * 2018-05-14 2019-11-21 株式会社デンソー 運転支援装置
CN110610326A (zh) * 2019-09-30 2019-12-24 广州大道信息科技有限公司 一种基于驾驶数据的驾驶管理系统
WO2020009060A1 (ja) 2018-07-02 2020-01-09 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
WO2020087958A1 (zh) * 2018-10-31 2020-05-07 广州小鹏汽车科技有限公司 基于超声波雷达的异物覆盖处理方法及装置
KR20200072137A (ko) * 2018-12-12 2020-06-22 현대자동차주식회사 Odm 정보 신뢰성 판단 장치 및 그의 판단 방법과 그를 이용하는 차량
EP3674161A1 (en) 2018-12-26 2020-07-01 Hitachi, Ltd. A failure detection device for an external sensor and a failure detection method for an external sensor
JP2020157871A (ja) * 2019-03-26 2020-10-01 日産自動車株式会社 運転支援方法及び運転支援装置
EP3882100A1 (en) * 2020-04-09 2021-09-22 Baidu USA LLC Method for operating an autonomous driving vehicle
WO2021256032A1 (ja) * 2020-06-15 2021-12-23 株式会社日立製作所 センサ認識統合装置
US11295620B2 (en) 2019-01-31 2022-04-05 Samsung Electronics Co., Ltd. Server and controlling method of server
CN114282597A (zh) * 2020-05-11 2022-04-05 华为技术有限公司 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162795A (ja) * 2001-11-22 2003-06-06 Nec Corp 気象データを用いたセンサ選択方法とこれを用いた道路交通監視システム
JP2009031299A (ja) * 2008-09-01 2009-02-12 Fujitsu Ten Ltd 周辺監視センサ
JP2011114467A (ja) * 2009-11-25 2011-06-09 Alpine Electronics Inc 車両表示装置および表示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162795A (ja) * 2001-11-22 2003-06-06 Nec Corp 気象データを用いたセンサ選択方法とこれを用いた道路交通監視システム
JP2009031299A (ja) * 2008-09-01 2009-02-12 Fujitsu Ten Ltd 周辺監視センサ
JP2011114467A (ja) * 2009-11-25 2011-06-09 Alpine Electronics Inc 車両表示装置および表示方法

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170358102A1 (en) * 2016-06-10 2017-12-14 Mitsubishi Electric Corporation Object recognition processing apparatus, object recognition processing method, and autonomous driving system
US10460467B2 (en) * 2016-06-10 2019-10-29 Mitsubishi Electric Corporation Object recognition processing apparatus, object recognition processing method, and autonomous driving system
WO2019065411A1 (ja) * 2017-09-29 2019-04-04 日立オートモティブシステムズ株式会社 車両検知システム
JPWO2019065411A1 (ja) * 2017-09-29 2020-10-22 日立オートモティブシステムズ株式会社 車両検知システム
KR102073861B1 (ko) * 2018-01-17 2020-02-05 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR20190093797A (ko) * 2018-01-17 2019-08-12 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US11052917B2 (en) 2018-01-17 2021-07-06 Lg Electronics Inc. Vehicle control device provided in vehicle and method for controlling vehicle
JP7007226B2 (ja) 2018-04-05 2022-01-24 日立Astemo株式会社 電子制御装置、制御方法
CN111936366A (zh) * 2018-04-05 2020-11-13 日立汽车系统株式会社 电子控制装置、控制方法
JP2019182095A (ja) * 2018-04-05 2019-10-24 日立オートモティブシステムズ株式会社 電子制御装置、制御方法
CN111936366B (zh) * 2018-04-05 2023-10-13 日立安斯泰莫株式会社 电子控制装置、控制方法
US11878704B2 (en) 2018-04-05 2024-01-23 Hitachi Astemo, Ltd. Electronic control device and control method
JP2019200461A (ja) * 2018-05-14 2019-11-21 株式会社デンソー 運転支援装置
WO2020009060A1 (ja) 2018-07-02 2020-01-09 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
KR20210025523A (ko) 2018-07-02 2021-03-09 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 그리고 이동체 장치
US11959999B2 (en) 2018-07-02 2024-04-16 Sony Semiconductor Solutions Corporation Information processing device, information processing method, computer program, and mobile device
WO2020087958A1 (zh) * 2018-10-31 2020-05-07 广州小鹏汽车科技有限公司 基于超声波雷达的异物覆盖处理方法及装置
KR20200072137A (ko) * 2018-12-12 2020-06-22 현대자동차주식회사 Odm 정보 신뢰성 판단 장치 및 그의 판단 방법과 그를 이용하는 차량
KR102555916B1 (ko) * 2018-12-12 2023-07-17 현대자동차주식회사 Odm 정보 신뢰성 판단 장치 및 그의 판단 방법과 그를 이용하는 차량
US11130499B2 (en) 2018-12-26 2021-09-28 Hitachi, Ltd. Failure detection device for an external sensor and a failure detection method for an external sensor
EP3674161A1 (en) 2018-12-26 2020-07-01 Hitachi, Ltd. A failure detection device for an external sensor and a failure detection method for an external sensor
US11295620B2 (en) 2019-01-31 2022-04-05 Samsung Electronics Co., Ltd. Server and controlling method of server
JP2020157871A (ja) * 2019-03-26 2020-10-01 日産自動車株式会社 運転支援方法及び運転支援装置
JP7236897B2 (ja) 2019-03-26 2023-03-10 日産自動車株式会社 運転支援方法及び運転支援装置
CN110610326A (zh) * 2019-09-30 2019-12-24 广州大道信息科技有限公司 一种基于驾驶数据的驾驶管理系统
EP3882100A1 (en) * 2020-04-09 2021-09-22 Baidu USA LLC Method for operating an autonomous driving vehicle
CN114282597A (zh) * 2020-05-11 2022-04-05 华为技术有限公司 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆
JP2021195018A (ja) * 2020-06-15 2021-12-27 株式会社日立製作所 センサ認識統合装置
WO2021256032A1 (ja) * 2020-06-15 2021-12-23 株式会社日立製作所 センサ認識統合装置
JP7432447B2 (ja) 2020-06-15 2024-02-16 日立Astemo株式会社 センサ認識統合装置

Also Published As

Publication number Publication date
JP6690952B2 (ja) 2020-04-28

Similar Documents

Publication Publication Date Title
JP6690952B2 (ja) 車両走行制御システム、及び車両走行制御方法
US10668925B2 (en) Driver intention-based lane assistant system for autonomous driving vehicles
US10005391B2 (en) Information presentation system
EP3324556B1 (en) Visual communication system for autonomous driving vehicles (adv)
JP6325670B2 (ja) 車線選択装置、車両制御システム及び車線選択方法
US9707959B2 (en) Driving assistance apparatus
US20180233049A1 (en) Information processing apparatus and non-transitory recording medium
JP6693447B2 (ja) 走行制御装置
CN110198875B (zh) 对驾驶员辅助系统的改进或与之相关的改进
US20180326998A1 (en) Stop intention determination apparatus and stop intention determination method
JP7047824B2 (ja) 車両制御装置
JP2018133072A (ja) 情報処理装置およびプログラム
WO2019230270A1 (ja) 表示制御装置、表示制御プログラム、およびその持続的有形コンピュータ読み取り媒体
JP2019020127A (ja) 運転支援車両のルート探索方法及びルート探索装置
JP2022013937A (ja) 運転計画装置及び運転計画用コンピュータプログラム
JP2011175367A (ja) 車両制御装置
JP2021149319A (ja) 表示制御装置、表示制御方法およびプログラム
EP4212400A1 (en) Driving assistance method and driving assistance device
JP2023018498A (ja) 車両用表示制御装置、表示方法及びプログラム
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2022011837A (ja) 車両
JP2019148900A (ja) 車両用制御装置、車両及び経路案内装置
KR20210063893A (ko) 차로 변경 보조 장치, 그를 포함한 시스템 및 그 방법
JP2017004339A (ja) 車両用運転者支援装置
US11524681B2 (en) Control apparatus for vehicle, control method for vehicle, and computer-read able recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200409

R150 Certificate of patent or registration of utility model

Ref document number: 6690952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250