JP6906175B2 - 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム - Google Patents

運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム Download PDF

Info

Publication number
JP6906175B2
JP6906175B2 JP2017071471A JP2017071471A JP6906175B2 JP 6906175 B2 JP6906175 B2 JP 6906175B2 JP 2017071471 A JP2017071471 A JP 2017071471A JP 2017071471 A JP2017071471 A JP 2017071471A JP 6906175 B2 JP6906175 B2 JP 6906175B2
Authority
JP
Japan
Prior art keywords
sensor
information
detection
vehicle
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017071471A
Other languages
English (en)
Other versions
JP2018173816A (ja
Inventor
江村 恒一
恒一 江村
本村 秀人
秀人 本村
サヒム コルコス
サヒム コルコス
勝長 辻
勝長 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017071471A priority Critical patent/JP6906175B2/ja
Priority to US15/922,713 priority patent/US10583841B2/en
Publication of JP2018173816A publication Critical patent/JP2018173816A/ja
Application granted granted Critical
Publication of JP6906175B2 publication Critical patent/JP6906175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0225Failure correction strategy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0029Mathematical model of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Description

本発明は、車両、車両に設けられる運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、プログラム、運転支援システムに関する。
運転行動等をセンシングしたデータを使用して、運転者の運転が支援される。例えば、測定データをパラメータとしてドライバモデルに入力し、ドライバモデルからは次の運転操作が出力される(例えば、特許文献1参照)。
特開2009−237937号公報
車両に搭載したセンサでの検出結果を使用して、運転行動モデルを学習させたり、運転行動を推定したりすることがなされる。このようなセンサは、性能限界に近づくほど、誤検出および未検出が多くなる。誤検出および未検出が多くなった検出結果を使用して学習させた運転行動モデルは好適でなくなる。また、そのような運転行動モデルを使用して推定した運転行動も好適でなくなる。
本発明はこうした状況に鑑みなされたものであり、その目的は、センサにおける検出精度の悪化の影響を低減する技術を提供することにある。
上記課題を解決するために、本発明のある態様の運転支援装置は、車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援装置であって、第1タイミングよりも後の第2タイミングにセンサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、検出情報入力部に入力された検出情報に含まれた第2検出結果が示す1以上の物体の情報のうち、センサが検出可能な範囲よりも狭い範囲であって、かつセンサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、選択部において選択した1以上の物体の情報と運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、を備える。
本発明の別の態様は、自動運転制御装置である。この装置は、車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する自動運転装置であって、第1タイミングよりも後の第2タイミングにセンサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、検出情報入力部に入力された検出情報に含まれた第2検出結果が示す1以上の物体の情報のうち、センサが検出可能な範囲よりも狭い範囲であって、かつセンサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、選択部において選択した1以上の物体の情報と運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、処理部における処理結果をもとに車両の自動運転を制御する自動運転制御部と、を備える。
本発明のさらに別の態様は、車両である。この車両は、車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援装置を備える車両であって、運転支援装置は、第1タイミングよりも後の第2タイミングにセンサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、検出情報入力部に入力された検出情報に含まれた第2検出結果が示す1以上の物体の情報のうち、センサが検出可能な範囲よりも狭い範囲であって、かつセンサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、選択部において選択した1以上の物体の情報と運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、を備える。
本発明のさらに別の態様は、運転支援方法である。この方法は、車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援方法であって、第1タイミングよりも後の第2タイミングにセンサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力るステップと、入力された検出情報に含まれた第2検出結果が示す1以上の物体の情報のうち、センサが検出可能な範囲よりも狭い範囲であって、かつセンサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択するステップと、選択した1以上の物体の情報と運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定するステップと、を含む
本発明のさらに別の態様は、運転支援システムである。この運転支援システムは、物体を検出可能なセンサに対応するセンサプロファイルを保持する保持装置と、保持装置からセンサプロファイルを取得するとともに、車両に備えられたセンサによって第1タイミングに検出された車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援装置とを備える。運転支援装置は、第1タイミングよりも後の第2タイミングにセンサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、検出情報入力部に入力された検出情報に含まれた第2検出結果が示す1以上の物体の情報のうち、センサが検出可能な範囲よりも狭い範囲であって、かつセンサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、選択部において選択した1以上の物体の情報と運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、を備える。選択部は、センサプロファイルから選択範囲を取得する。
なお、以上の構成要素の任意の組合せ、構成要素の一部、例えば強化学習部を通信網を介したコンピュータで逐次あるいは一日など所定時間分をまとめて処理する構成、本発明の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、センサにおける検出精度の悪化の影響を低減できる。
実施の形態1乃至4に係る車両の構成を示す図である。 実施の形態1乃至4に係る車両の室内を模式的に示す図である。 (a)−(b)は、実施の形態1乃至4に係る運転支援装置の構成を示す図である。 実施の形態1乃至4に係るセンサによる検出の概要を示す図である。 実施の形態1乃至4に係る運転支援装置に取得されるセンサプロファイルのデータ構造を示す図である。 (a)−(b)は、実施の形態1乃至4に係る処理部の処理概要を示す図である。 (a)−(b)は、実施の形態1乃至4に係るセンサによる検出の別の概要を示す図である。 実施の形態1乃至4に係る運転支援装置による学習手順を示すフローチャートである。 実施の形態1乃至4に係る運転支援装置による推定手順を示すフローチャートである。 (a)−(b)は、実施の形態2に係る運転支援装置の構成を示す図である。 (a)−(b)は、実施の形態2に係るセンサによる検出の概要を示す図である。 (a)−(b)は、実施の形態3に係る運転支援装置の構成を示す図である。 (a)−(b)は、実施の形態3に係るセンサによる検出の概要を示す図である。 (a)−(b)は、実施の形態4に係る運転支援装置の構成を示す図である。 実施の形態4に係るセンサによる検出の概要を示す図である。
(実施の形態1)
本発明を具体的に説明する前に、概要を述べる。本実施の形態は、自動車の自動運転に関する。特に、本実施の形態は、車両の運転行動に関する情報を車両の乗員(例えば運転者)との間でやり取りするためのHMI(Human Machine Interface)を制御する装置(以下「運転支援装置」とも呼ぶ。)に関する。また、運転支援装置は、自動運転のために運転行動モデルを学習させること(以下、「学習処理」という)、運転行動モデルをもとに運転行動を推定すること(以下、「推定処理」という)の少なくとも一方を実行する。
本実施の形態における各種の用語は次のように定義される。「運転行動」は、車両の走行中または停止時の操舵や制動などの作動状態、もしくは自動運転制御に係る制御内容を含んでおり、例えば、定速走行、加速、減速、一時停止、停止、車線変更、進路変更、右左折、駐車などである。また、運転行動は、巡航(車線維持で車速維持)、車線維持、先行車追従、追従時のストップアンドゴー、追越、合流車両への対応、高速道への進入と退出を含めた乗換(インターチェンジ)、合流、工事ゾーンへの対応、緊急車両への対応、割込み車両への対応、右左折専用レーンへの対応、歩行者・自転車とのインタラクション、車両以外の障害物回避、標識への対応、右左折・Uターン制約への対応、車線制約への対応、一方通行への対応、交通標識への対応、交差点・ラウンドアバウトへの対応などであってもよい。
「運転行動推定エンジン」として、DL(Deep Learning:深層学習)、ML(Machine Learning:機械学習)、フィルタ等のいずれか、あるいはそれらの組合せが使用される。Deep Learningは、例えば、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、RNN(Recurrent Neural Network:リカレント・ニューラル・ネットワーク)である。また、Machine Learningは、例えば、SVM(Support Vector Machine)である。さらに、フィルタは、例えば、協調フィルタリングである。
「運転行動モデル」は、運転行動推定エンジンに応じて一意に定められる。DLの場合の運転行動モデルは学習されたニューラルネットワーク(Neural Network)であり、SVMの場合の運転行動モデルは学習された予測モデルであり、協調フィルタリングの場合の運転行動モデルは走行環境データと運転行動データとを紐付けたデータである。ルールの場合の運転行動モデルは入力と出力とを紐付けたデータである。
このような定義のもと、運転支援装置は、センサにおける検出結果と教師付けデータを使用して学習処理を実行するとともに、センサにおける検出結果と運転行動モデルを使用して推定処理を実行する。センサの検出精度は、検出可能範囲に近づくほど悪化し、誤検出および未検出が増加する。そのような状態でセンサを使用した場合、前述のごとく、誤検出および未検出の影響によって、学習させた運転行動モデルは好適でなくなるとともに、推定した運転行動も好適でなくなる。そのため、このようなセンサの使用を抑制するために、一般的に、センサの製造元あるいは販売元は、センサの検出精度が規定値を満たす範囲として性能仕様範囲を定め、性能仕様範囲内でのセンサの仕様を推奨する。ここで、規定値は、例えば、検出結果が正確である確率が90%のように定められる。また、性能仕様範囲は検出可能範囲よりも狭くなるように定められる。
本実施の形態では、センサにおける検出精度の悪化の影響を低減するために、性能仕様範囲よりもさらに狭くなるような選択範囲を規定する。運転支援装置は、選択範囲に含まれた検出結果のみを使用して、学習処理あるいは推定処理を実行する。以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する各実施の形態は一例であり、本発明はこれらの実施の形態により限定されるものではない。
図1は、車両100の構成を示し、特に自動運転車両に関する構成を示す。車両100は、自動運転モードで走行可能であり、報知装置2、入力装置4、無線装置8、運転操作部10、検出部20、自動運転制御装置30、運転支援装置40を含む。図1に示す各装置の間は、専用線あるいはCAN(Controller Area Network)等の有線通信で接続されてもよい。また、USB(Universal Serial Bus)、Ethernet(登録商標)、Wi−Fi(登録商標)、Bluetooth(登録商標)等の有線通信または無線通信で接続されてもよい。
報知装置2は、車両100の走行に関する情報を乗員に報知する。報知装置2は、例えば、車内に設置されているカーナビゲーションシステム、ヘッドアップディスプレイ、センタディスプレイである。報知装置2は、ステアリングホイール、ピラー、ダッシュボード、メータパネル周りなどに設置されているLED(Light Emitting Diode)などの発光体などのような情報を表示する表示部でもよい。また、報知装置2は、情報を音声に変換して乗員に報知するスピーカであってもよいし、あるいは、乗員が感知できる位置(例えば、乗員の座席、ステアリングホイールなど)に設けられる振動体であってもよい。さらに、報知装置2は、これらの組合せであってもよい。
入力装置4は、乗員による操作入力を受けつけるユーザインタフェース装置である。例えば入力装置4は、タッチパネル、レバー、ボタン、スイッチ、ジョイスティックやボリューム等のコントローラ、非接触でジェスチャーを認識するカメラ等のセンサ、音声を認識するマイク等のセンサや、それらの組合せであり、乗員が入力した自車の自動運転に関する情報を受けつける。また、自動運転と手動運転を切りかえるための操作信号を受けつけてもよい。入力装置4は、受けつけた情報を操作信号として運転支援装置40に出力する。
図2は、車両100の室内を模式的に示す。報知装置2は、ヘッドアップディスプレイ(HUD、Head−Up Display)2aであってもよく、センタディスプレイ2bであってもよい。入力装置4は、ステアリング11に設けられた第1操作部4aであってもよく、運転席と助手席との間に設けられた第2操作部4bであってもよく、ジェスチャーを認識するカメラ等のセンサである第3操作部4cであってもよい。なお、報知装置2と入力装置4は一体化されてもよく、例えばタッチパネルディスプレイとして実装されてもよい。車両100には、自動運転に関する情報を音声にて乗員へ提示するスピーカ6がさらに設けられてもよい。この場合、運転支援装置40は、自動運転に関する情報を示す画像を報知装置2に表示させ、それとともに、またはそれに代えて、自動運転に関する情報を示す音声をスピーカ6から出力させてもよい。図1に戻る。
無線装置8は、携帯電話通信システム、WMAN(Wireless Metropolitan Area Network)等に対応しており、無線通信を実行する。運転操作部10は、ステアリング11、ブレーキペダル12、アクセルペダル13、ウィンカスイッチ14を備える。ステアリング11、ブレーキペダル12、アクセルペダル13、ウィンカスイッチ14は、ステアリングECU、ブレーキECU、エンジンECUとモータECUおよびウィンカコントローラにより電子制御が可能である。自動運転モードにおいて、ステアリングECU、ブレーキECU、エンジンECU、モータECUは、自動運転制御装置30から供給される制御信号に応じて、アクチュエータを駆動する。またウィンカコントローラは、自動運転制御装置30から供給される制御信号に応じてウィンカランプを点灯あるいは消灯する。
検出部20は、車両100の周囲状況および走行状態を検出する。検出部20は、例えば、車両100の速度、車両100に対する先行車両の相対速度、車両100と先行車両との距離、車両100に対する側方車線の車両の相対速度、車両100と側方車線の車両との距離、車両100の位置情報を検出する。検出部20は、検出した各種情報(以下、「検出情報」という)を自動運転制御装置30に出力する。また、検出部20は、自動運転制御装置30を介して運転支援装置40に検出情報を出力してもよいし、運転支援装置40に直接出力してもよい。検出部20は、位置情報取得部21、センサ22、速度情報取得部23、地図情報取得部24を含む。
位置情報取得部21は、GNSS(Global Navigation Satellite System(s))受信機から車両100の現在位置を取得する。センサ22は、車外の状況および車両100の状態を検出するための各種センサの総称である。車外の状況を検出するためのセンサとして例えばカメラ、ミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー、気温センサ、気圧センサ、湿度センサ、照度センサ等が搭載される。車外の状況は、車線情報を含む自車の走行する道路状況、天候を含む環境、自車周辺状況、近傍位置にある他車両(隣接車線を走行する他車両等)を含む。なお、センサ22が検出できる車外の情報であれば何でもよい。また車両100の状態を検出するためのセンサ22として例えば、加速度センサ、ジャイロセンサ、地磁気センサ、傾斜センサ等が搭載される。
速度情報取得部23は、車速センサから車両100の現在速度を取得する。地図情報取得部24は、地図データベースから車両100の現在位置周辺の地図情報を取得する。地図データベースは、車両100内の記録媒体に記録されていてもよいし、使用時にネットワークを介して地図サーバからダウンロードしてもよい。なお、地図情報には、道路、交差点に関する情報が含まれている。
自動運転制御装置30は、自動運転制御機能を実装した自動運転コントローラであり、自動運転における車両100の行動を決定する。自動運転制御装置30は、制御部31、記憶部32、I/O(Input/Output部、入出力部)部33を備える。制御部31の構成はハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、その他のLSIを利用でき、ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。記憶部32は、フラッシュメモリ等の不揮発性記録媒体を備える。I/O部33は、各種の通信フォーマットに応じた通信制御を実行する。例えば、I/O部33は、自動運転に関する情報を運転支援装置40に出力するとともに、制御コマンドを運転支援装置40から入力する。また、I/O部33は、検出情報を検出部20から入力する。
制御部31は、運転支援装置40から入力した制御コマンド、検出部20あるいは各種ECUから収集した各種情報を自動運転アルゴリズムに適用して、車両100のアクセルスロットル開度、ステアリング舵角等の自動制御対象を制御するための制御値を算出する。制御部31は算出した制御値を、各制御対象のECUまたはコントローラに伝達する。本実施の形態ではステアリングECU、ブレーキECU、エンジンECU、ウィンカコントローラに伝達する。なお電気自動車あるいはハイブリッドカーの場合、エンジンECUに代えてまたは加えてモータECUに制御値を伝達する。
運転支援装置40は、車両100と乗員との間のインタフェース機能を実行するHMIコントローラであり、制御部41、記憶部42、I/O部43を備える。制御部41は、HMI制御等の各種データ処理を実行する。制御部41は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用でき、ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。
記憶部42は、制御部41により参照され、または更新されるデータを記憶する記憶領域である。例えばフラッシュメモリ等の不揮発の記録媒体により実現される。I/O部43は、各種の通信フォーマットに応じた各種の通信制御を実行する。I/O部43は、操作信号入力部50、画像・音声出力部51、検出情報入力部52、コマンドIF(Interface、インタフェース)53、通信IF56を備える。
操作信号入力部50は、入力装置4に対してなされた乗員もしくは車外にいるユーザの操作による操作信号を入力装置4から受信し、制御部41へ出力する。画像・音声出力部51は、制御部41が生成した画像データあるいは音声メッセージを報知装置2へ出力して表示させる。検出情報入力部52は、検出部20による検出処理の結果であり、車両100の現在の周囲状況および走行状態を示す検出情報を検出部20から受信し、制御部41へ出力する。
コマンドIF53は、自動運転制御装置30とのインタフェース処理を実行し、行動情報入力部54とコマンド出力部55を含む。行動情報入力部54は、自動運転制御装置30から送信された車両100の自動運転に関する情報を受信し、制御部41へ出力する。コマンド出力部55は、自動運転制御装置30に対して自動運転の態様を指示する制御コマンドを、制御部41から受けつけて自動運転制御装置30へ送信する。
通信IF56は、無線装置8とのインタフェース処理を実行する。通信IF56は、制御部41から出力されたデータを無線装置8へ送信し、無線装置8から車外の装置へ送信させる。また、通信IF56は、無線装置8により転送された、車外の装置からのデータを受信し、制御部41へ出力する。
なお、ここでは、自動運転制御装置30と運転支援装置40は別個の装置として構成される。変形例として、図1の破線で示すように、自動運転制御装置30と運転支援装置40を1つのコントローラに統合してもよい。言い換えれば、1つの自動運転制御装置が、図1の自動運転制御装置30と運転支援装置40の両方の機能を備える構成であってもよい。
図3(a)−(b)は、運転支援装置40の構成を示す。図3(a)は、学習処理に関する構成を示し、図3(b)は、推定処理に関する構成を示す。ここでは、学習処理を説明してから推定処理を説明する。図3(a)において、制御部41は、選択部70、処理部72を含み、処理部72は、学習部80、教師付けデータ82、運転行動モデル84を含む。また、センサ22は、検出情報入力部52に接続され、検出情報入力部52は、選択部70に接続される。
センサ22は、前述のごとく、カメラ、ミリ波レーダ、LIDAR、ソナー、気温センサ、気圧センサ、湿度センサ、照度センサ等である。一般的に、車両100には、複数種類のセンサ22が搭載されるが、ここでは、説明を明瞭にするために1つのセンサ22だけが搭載されるとする。図4は、センサ22による検出の概要を示す。センサ22は、検出可能範囲200内に存在する物体、例えば障害物を検出可能である。ここで、正検出結果250は、センサ22によって正しく検出された物体を示し、誤検出結果252は、本来は物体が存在していないにもかかわらず、センサ22によって誤って検出された物体を示す。また、未検出254は、本来は物体が存在しているにもかかわらず、センサ22によって検出されなかった物体を示す。正検出結果250の割合が多いほど検出精度が高いといえ、誤検出結果252および未検出254の割合が多いほど検出精度が低いといえる。
図示のごとく、センサ22から離れて検出可能範囲200の境界に近づくほど、誤検出結果252および未検出254の割合が多くなる。前述のごとく、センサ22の製造元あるいは販売元は、誤検出結果252および未検出254の割合が多くなるような状況下でのセンサ22の使用を抑制するために、性能仕様範囲202を規定する。性能仕様範囲202は、センサ22の検出精度が規定値を満たす範囲であり、検出可能範囲200よりも狭くなるように定められる。つまり、性能仕様範囲202において物体を検出する場合に、センサ22は、規定値を満たす検出精度を有する。なお、センサ22の種類が変われば、検出可能範囲200の広さ、性能仕様範囲202の広さが変わる。また、同一種類のセンサ22においても、検出可能範囲200の広さ、性能仕様範囲202の広さが変わることもある。図3に戻る。
検出情報入力部52には、センサ22からの検出情報が入力される。検出情報にはセンサ22での検出結果が含まれ、検出結果では、センサ22が検出した物体の距離と方向とが、センサ22を起点として示される。検出情報入力部52は、検出情報を選択部70に出力する。選択部70は、検出情報入力部52から検出情報を受けつける。また、選択部70は、検出結果と比較すべき選択範囲をセンサプロファイル60から取得する。図4に示されるように、選択範囲204は、性能仕様範囲202よりも狭くなるように規定される。このような選択範囲204は、性能仕様範囲202よりもセンサ22の検出精度が高くなる範囲であるといえる。図3に戻る。選択部70は、検出結果での距離と方向によって示される位置が選択範囲204に含まれるかを判定する。選択部70は、含まれた検出結果を選択する。選択部70は、選択した検出結果を学習部80に出力する。
ここで、選択範囲204はセンサプロファイル60に含まれており、選択部70はセンサプロファイル60から選択範囲204を取得する。特に、選択部70は、センサプロファイル60を運転支援装置40の外部から取得してもよいし、運転支援装置40の内部で保持してもよい。前者の場合、センサプロファイル60は、例えば、運転支援装置40の外部に設けられる保持装置(図示せず)に保持される。なお、保持装置と運転支援装置40との組合せが運転支援システムと定義されてもよい。このセンサプロファイル60は、最長の検知距離を最小の構成とする情報とする。なお、センサプロファイル60には、検知角度、車体の陰となって検知できないため発生する最短の検知距離、レーダなどの場合の距離方向の検知分解能、角度方向の分解能、複数の選択範囲から1つの選択範囲を特定するための情報が追加されてもよい。
図5は、運転支援装置40に取得されるセンサプロファイル60のデータ構造を示す。図5において、1つ以上のセンサプロファイル60は、それぞれを識別するためのプロファイルIDを属性情報として持つ。1つのセンサプロファイル60は、1つ以上のセンサ情報を持つ。1つのセンサ情報は、センサを識別するセンサIDと、ステレオカメラ、単眼カメラ、ミリ波レーダ、LIDAR、ソナーなどのセンサの種別情報を持ってもよい。さらに、センサ情報は、1つ以上の検知範囲情報、0個以上の検知分解能情報、1つの優先度情報を構成要素として持つ。1つの検知範囲情報は、構成要素として、少なくとも1つの最長検知距離情報を持ち、最短検知距離情報や検知角度情報を持ってもよい。1つの検知角度は、構成要素として最左検知角度情報と最右検知角度情報を持つ。1つの検知分解能情報は、構成要素として、距離分解能情報と角度分解能情報を持ってもよい。優先度は、複数のセンサや範囲、分解能情報のうち優先されるものを指定することができる。
なお、センサプロファイル60の構成はこれに限定されない。また、センサプロファイル60は異なるセンサ構成毎に保持してもよいし、同じセンサ構成であっても、選択範囲204をさらに限定することによって適用車種が増えるなどの目的で、複数のセンサプロファイル60を保持してもよい。なお、異なったセンサ構成は、例えば、実施の形態3、4に示される。また、歩行者、車両、二輪車など検知する対象毎に、センサプロファイル60を保持してもよい。その際に、センサプロファイル60の属性に検知対象情報を持つ構成でもよいし、センサプロファイルIDを参照することで、検知対象情報が特定できるように構成してもよい。図3(a)に戻る。
学習部80は、選択部70において選択した検出結果である走行状況を入力パラメータ90として受けつける。また、学習部80は、走行状況に関係付けられている運転行動を教師付けデータ82として取得する。学習部80は、入力パラメータ90をもとに処理、具体的には運転行動モデル84を学習させる学習処理を実行する。具体的に説明すると、学習部80は、入力パラメータ90である走行状況と教師付けデータ82とによって、運転行動モデル84を調整する。つまり、学習部80は、入力パラメータ90をニューラルネットワークに入力することによって、教師付けデータ82が出力として得られるように、ニューラルネットワークの重みパラメータなどを調整する。このような調整によって、学習部80は、入力パラメータ90と教師付けデータ82との関係を、ニューラルネットワークに学習させる。その結果、運転行動モデル84が構築される。
図6(a)−(b)は、処理部72の処理概要を示す。図6(a)は、学習部80における学習処理の概要を示す。学習部80は、走行状況として示されるパラメータpaおよびpbなどを含む複数の入力パラメータ90を、ニューラルネットワークに入力する。学習部80は、そのニューラルネットワークからの出力が教師付けデータ82であって、かつ入力パラメータ90に関係付けられた教師付けデータに一致するように、ニューラルネットワークの重みパラメータを最適化する。このように構築されたニューラルネットワークが運転行動モデル84である。図6(b)は後述する。
次に、図3(b)を使用して推定処理を説明する。図3(b)において、制御部41は、選択部70、処理部72を含み、処理部72は、運転行動モデル84、推定部86、推定値88を含む。また、センサ22は、検出情報入力部52に接続され、検出情報入力部52は、選択部70に接続される。なお、図3(b)のセンサ22、運転支援装置40が搭載された車両100は、図3(a)のセンサ22、運転支援装置40が搭載された車両100と同一であってもよく、異なってもよい。後者の場合、図3(b)のセンサ22の検出可能範囲200、性能仕様範囲202は、図3(a)の検出可能範囲200、性能仕様範囲202と異なってもよい。その場合のセンサ22による検出を図7(a)−(b)を使用しながら説明する。
図7(a)−(b)は、センサ22による検出の別の概要を示す。図7(a)は、図3(a)におけるセンサ22、運転支援装置40を搭載した第1車両100aを示す。ここでは、センサ22を第1センサ22aと示す。また、図7(b)は、図3(b)におけるセンサ22、運転支援装置40を搭載した第2車両100bを示す。ここでは、センサ22を第2センサ22bと示す。また、説明を明瞭にするために、第1センサ22aと第2センサ22bは同一種類、例えばカメラである。一方、第1センサ22aにおける第1検出可能範囲200a、第2検出可能範囲200bは、第2センサ22bにおける第2検出可能範囲200b、第2性能仕様範囲202bと異なる。しかしながら、図7(a)−(b)において選択範囲204は共通に設定される。このような規定によって、学習処理を実行する車両100と推定処理を実行する車両100とが、同一であるか異なるかに関係なく推定処理を共通化できる。図3(b)に戻る。
また、選択範囲204は、運転行動あるいは運転行動のサブセット毎に複数設定してもよい。例えば、TTC(Time To Collision)1.5秒以内の急ブレーキという運転行動のサブセットに対しては、その時点の車速にTTCをかけた値あるいは、その値に所定の割合のマージン距離を追加した値を検知距離とした選択範囲が好適である。このような選択範囲204もセンサプロファイル60に含まれる。
センサ22、検出情報入力部52、選択部70は、図3(a)と同様の処理を実行するので、ここでは説明を省略する。選択部70は、選択した検出結果を推定部86に出力する。推定部86は、選択部70において選択した検出結果である走行状況を入力データ92として受けつける。推定部86は、入力データ92をもとに処理、具体的には運転行動を推定する推定処理を実行する。具体的に説明すると、推定部86は、入力データ92を運転行動モデル84に入力するとともに、運転行動モデル84からの推定値88を取得する。推定値88が運転行動である。
図6(b)は、推定部86における推定処理の概要を示す。推定部86は、走行状況として示される入力データ92をニューラルネットワークに入力する。これにより、推定部86は、ニューラルネットワークから出力される運転行動、例えば、車線変更を推定値88として取得する。推定部86において取得した運転行動をもとに、図1の自動運転制御装置30は車両100の自動運転を制御する。
以上の構成による運転支援装置40の動作を説明する。図8は、運転支援装置40による学習手順を示すフローチャートである。検出情報入力部52には検出情報が入力される(S10)。検出結果が選択範囲204の内に含まれるのであれば(S12のY)、選択部70は検出結果を選択する(S14)。一方、検出結果が選択範囲204の内に含まれないのであれば(S12のN)、スキップ14はスキップされる。学習部80は、選択された検出結果を入力パラメータ90として学習処理を実行する(S16)。
図9は、運転支援装置40による推定手順を示すフローチャートである。検出情報入力部52には検出情報が入力される(S50)。検出結果が選択範囲204の内に含まれるのであれば(S52のY)、選択部70は検出結果を選択する(S54)。一方、検出結果が選択範囲204の内に含まれないのであれば(S52のN)、スキップ54はスキップされる。推定部86は、選択された検出結果を入力データ92として推定処理を実行する(S56)。
本実施の形態によれば、センサの性能仕様範囲よりも狭い、かつ予め定められた選択範囲に含まれる検出結果を選択して処理に使用するので、センサにおける検出精度の悪化の影響を低減できる。また、選択した検出結果を学習処理に使用するので、構築される運転行動モデルの精度を向上できる。また、選択した検出結果を推定処理に使用するので、運転行動の推定精度を向上できる。また、センサにおける検出精度の悪化の影響が低減された検出結果を使用するので、自動運転の制御の精度を向上できる。
(実施の形態2)
次に、実施の形態2を説明する。実施の形態2は、実施の形態1と同様に、学習処理と推定処理の少なくとも一方を実行する運転支援装置に関する。実施の形態1における運転支援装置は、選択範囲に含まれた検出結果を選択することによって、センサにおける検出精度の悪化の影響を低減する。しかしながら、道路の形状によっては、道路外の部分を選択範囲が含むことがある。一般的に道路外の部分に障害物が存在しても、このような障害物は運転行動に影響を与えないので、道路外の部分での障害物を検出しなくてもよい。仮に検出した場合、学習精度あるいは推定精度が悪化するおそれがある。これを防止するために、実施の形態2では、地図情報を利用して選択範囲を限定する。実施の形態2に係る車両100の構成は、図1、図2と同様のタイプである。ここでは、実施の形態1との差異を中心に説明する。
図10(a)−(b)は、運転支援装置40の構成を示す。図10(a)は、学習処理に関する構成を示し、図10(b)は、推定処理に関する構成を示す。ここでは、学習処理を説明してから推定処理を説明する。図10(a)では、図3(a)に示した構成に位置情報取得部21、地図情報取得部24が加えられる。検出情報入力部52には、センサ22からの検出情報、位置情報取得部21からの位置情報、地図情報取得部24からの地図情報が入力される。検出情報入力部52は、検出情報、位置情報、地図情報を選択部70に出力する。
選択部70は、検出情報入力部52から検出情報、位置情報、地図情報を受けつける。選択部70は、位置情報をもとに地図情報を参照することによって、現在走行している道路の形状を特定する。なお、直接地図情報の中の地形情報を使ってもよい。例えば、道路の形状として、直進道路、左への曲線道路が特定される。また、選択部70は、前述のごとく選択範囲をセンサプロファイル60から取得する。さらに、選択部70は、地図情報から特定した道路の形状によって選択範囲を制限する。
図11(a)−(b)は、センサ22による検出の概要を示す。図11(a)−(b)において、車両100、センサ22、検出可能範囲200、性能仕様範囲202、選択範囲204は、図4と同様に示される。図11(a)では、道路の形状として直線道路300が特定される。選択部70は、直線道路300によって選択範囲204を制限することによって、第1制限選択範囲206aを導出する。一方、図11(b)では、道路の形状として曲線道路302が特定される。選択部70は、曲線道路302によって選択範囲204を制限することによって、第2制限選択範囲206bを導出する。図10(a)に戻る。
選択部70は、検出結果での距離と方向によって示される位置が制限選択範囲206に含まれるかを判定する。選択部70は、制限選択範囲206に含まれた検出結果を選択する。選択部70は、選択した検出結果を学習部80に出力する。学習部80の処理はこれまでと同様であるので、ここでは説明を省略する。
次に、図10(b)を使用して推定処理を説明する。図10(b)では、図3(b)に示した構成に位置情報取得部21、地図情報取得部24が加えられる。位置情報取得部21、地図情報取得部24が加えられたことによる選択部70の処理は、図10(a)と同様であるので、ここでは説明を省略する。また、推定部86の処理はこれまでと同様であるので、ここでは説明を省略する。
本実施の形態によれば、地図情報を使用するので、選択範囲のうち検出不要な領域を除外できる。また、選択範囲のうち検出不要な領域が除外されるので、センサにおける検出精度の悪化の影響を低減できる。また、センサにおける検出精度の悪化の影響が低減されるので、学習精度を向上できる。また、センサにおける検出精度の悪化の影響が低減されるので、推定精度を向上できる。
(実施の形態3)
次に、実施の形態3を説明する。実施の形態3は、これまでと同様に、学習処理と推定処理の少なくとも一方を実行する運転支援装置に関する。実施の形態1における運転支援装置は、選択範囲に含まれた検出結果を選択することによって、センサにおける検出精度の悪化の影響を低減する。一般的に、車両には、カメラ、ミリ波レーダ、LIDARのような複数種類のセンサが搭載されるので、それらでの検出結果を使用して学習処理と推定処理の少なくとも一方が実行されるべきである。しかしながら、複数種類のセンサのそれぞれにおいて、検出可能範囲、検出可能範囲、選択範囲が大きく異なる。実施の形態3では、複数種類のセンサが車両に搭載される場合であっても、センサにおける検出精度の悪化の影響を低減することを目的とする。実施の形態3に係る車両100の構成は、図1、図2と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
図12(a)−(b)は、運転支援装置40の構成を示す。図12(a)は、学習処理に関する構成を示し、図12(b)は、推定処理に関する構成を示す。ここでは、学習処理を説明してから推定処理を説明する。図12(a)では、図3(a)に示した構成におけるセンサ22の代わりに、第1センサ22a、第2センサ22b、第3センサ22cが加えられる。第1センサ22a、第2センサ22b、第3センサ22cは、互いの異なった種類のセンサである。例えば、第1センサ22aはカメラに相当し、第2センサ22bはミリ波レーダに相当し、第3センサ22cはLIDARに相当する。なお、車両100に搭載されるセンサ22の種類は3種類に限定されない。
検出情報入力部52には、複数のセンサ22のそれぞれからの検出情報が入力される。検出情報には、前述のごとく、センサ22での検出結果が含まれる。検出情報入力部52は、複数のセンサ22のそれぞれからの検出情報を選択部70に出力する。選択部70は、複数のセンサ22のそれぞれからの検出情報を検出情報入力部52から受けつける。選択部70は、複数のセンサ22のそれぞれに対する選択範囲204をセンサプロファイル60から取得する。
図13(a)−(b)は、第1センサ22a、第2センサ22bによる検出の概要を示す。図13(a)には、第1センサ22aに対する第1検出可能範囲200a、第1性能仕様範囲202a、第1選択範囲204aが示される。また、図13(b)には、第2センサ22bに対する第2検出可能範囲200b、第2性能仕様範囲202b、第2選択範囲204bが示される。第1選択範囲204a、第2選択範囲204bは、選択範囲204と総称されるが、これらの範囲は異なる。図12(a)に戻る。
選択部70は、選択範囲204による検出結果の選択をセンサ22毎に並行して実行する。つまり、選択部70は、第1選択範囲204aに含まれた、第1センサ22aからの検出結果を選択するとともに、第2選択範囲204bに含まれた、第2センサ22bからの検出結果を選択する。選択部70は、選択した検出結果を学習部80に出力する。学習部80の処理はこれまでと同様であるので、ここでは説明を省略する。なお、学習部80は、複数のセンサ22を混ぜるように学習処理を実行することによって、1つの運転行動モデル84を出力してもよい。また、学習部80は、センサ22毎に学習処理を実行することによって、センサ22毎の運転行動モデル84を出力してもよい。
次に、図12(b)を使用して推定処理を説明する。図12(b)では、図3(b)に示した構成におけるセンサ22の代わりに、第1センサ22a、第2センサ22b、第3センサ22cが加えられる。第1センサ22a、第2センサ22b、第3センサ22cが加えられたことによる選択部70の処理は、図12(a)と同様であるので、ここでは説明を省略する。また、推定部86の処理はこれまでと同様であるので、ここでは説明を省略する。なお、推定部86は、1つの運転行動モデル84が構築されている場合、複数のセンサ22を混ぜるように推定処理を実行し、センサ22毎の運転行動モデル84が構築されている場合、センサ22毎に推定処理を実行する。
本実施の形態によれば、センサ毎に選択範囲を予め定めて検出結果を選択するので、複数のセンサに対する選択処理を並列に実行できる。また、複数のセンサに対する選択処理が並列に実行されるので、複数のセンサを使用する場合であっても、センサにおける検出精度の悪化の影響を低減できる。また、センサにおける検出精度の悪化の影響が低減されるので、学習精度を向上できる。また、センサにおける検出精度の悪化の影響が低減されるので、推定精度を向上できる。
(実施の形態4)
次に、実施の形態4を説明する。実施の形態4は、これまでと同様に、学習処理と推定処理の少なくとも一方を実行する運転支援装置に関する。実施の形態1における運転支援装置は、選択範囲に含まれた検出結果を選択することによって、センサにおける検出精度の悪化の影響を低減する。実施の形態4では、センサフュージョンを処理の対象とする。センサフュージョンとは、複数のセンサ、例えばカメラやミリ波レーダなどから得た多くの検出結果を統合的に処理することによって、単一のセンサからは得られない高度な認識機能を実現する技術である。ここでは、センサフュージョンが使用される場合であっても、センサフュージョンにおける検出精度の悪化の影響を低減することを目的とする。実施の形態4に係る車両100の構成は、図1、図2と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
図14(a)−(b)は、運転支援装置40の構成を示す。図14(a)は、学習処理に関する構成を示し、図14(b)は、推定処理に関する構成を示す。ここでは、学習処理を説明してから推定処理を説明する。図14(a)では、図12(a)に示した構成に、合成部74が加えられる。合成部74は、複数のセンサ22のそれぞれからの検出結果を検出情報入力部52から受けつける。合成部74は、複数のセンサ22のそれぞれからの検出結果を合成する。合成部74における合成処理がセンサフュージョンに相当するが、合成処理には行為の技術が使用されればよいので、ここでは説明を省略する。合成部74は、合成した検出結果(以下、これもまた「検出結果」という)を選択部70に出力する。
選択部70は、合成部74からの検出結果を受けつける。また、選択部70は、検出結果に対する選択範囲をセンサプロファイル60から取得する。図15は、センサ22による検出の概要を示す図である。ここでは、2種類のセンサ22が車両100に搭載される場合を想定するが、図15には、2種類のセンサ22をまとめた形で1つのセンサ22だけが示される。ここでは、1つ目のセンサ22における性能仕様範囲202が第1性能仕様範囲202aと示され、2つ目のセンサ22における性能仕様範囲202が第2性能仕様範囲202bと示される。選択範囲204は、第1性能仕様範囲202aと第2性能仕様範囲202bとを合成した範囲をもとに定められる。つまり、選択範囲204は、合成部74による合成がなされた場合の検出可能な範囲をもとに選択範囲を予め定められる。このような選択範囲204もセンサプロファイル60に含まれる。図14(a)に戻る。
選択部70は、検出結果での距離と方向によって示される位置が選択範囲204に含まれるかを判定する。選択部70は、選択範囲204に含まれた検出結果を選択する。選択部70は、選択した検出結果を学習部80に出力する。学習部80の処理はこれまでと同様であるので、ここでは説明を省略する。
次に、図14(b)を使用して推定処理を説明する。図14(b)では、図12(b)に示した構成に、合成部74が加えられる。合成部74が加えられたことによる選択部70の処理は、図14(a)と同様であるので、ここでは説明を省略する。また、推定部86の処理はこれまでと同様であるので、ここでは説明を省略する。
本実施の形態によれば、複数のセンサのそれぞれの性能仕様範囲を合成した範囲をもとに選択範囲を予め定めるので、センサフュージョンを使用する場合であっても、選択範囲によって検出結果を選択できる。また、センサフュージョンを使用する場合であっても、選択範囲によって検出結果が選択されるので、センサにおける検出精度の悪化の影響を低減できる。また、センサにおける検出精度の悪化の影響が低減されるので、学習精度を向上できる。また、センサにおける検出精度の悪化の影響が低減されるので、推定精度を向上できる。
以上、本発明に係る実施の形態について図面を参照して詳述してきたが、上述した装置や各処理部の機能は、コンピュータプログラムにより実現されうる。上述した機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM、RAM、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSBメモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。
また、読取装置は、上記プログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。また、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。
本発明の一態様の概要は、次の通りである。本発明のある態様の運転支援装置は、センサでの検出結果をもとに学習させた運転行動モデルで車両の運転行動を推定する処理を行う運転支援装置であって、検出結果を含む検出情報が入力される検出情報入力部と、検出情報入力部に入力された検出情報に含まれた検出結果のうち、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲内に含まれる検出結果を選択する選択部と、選択部において選択した検出結果をもとに処理を実行する処理部と、を備える。
この態様によると、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲に含まれる検出結果を選択して処理に使用するので、センサにおける検出精度の悪化の影響を低減できる。
選択部は、センサプロファイルから選択範囲を取得してもよい。この場合、センサプロファイルを選択部に使用させることによって、選択範囲を選択部に設定できる。
選択部は、センサプロファイルを本運転支援装置の外部から取得してもよい。この場合、センサプロファイルを本運転支援装置の外部から取得するので、センサプロファイルを複数の運転支援装置で共通化できる。
選択部は、センサプロファイルを本運転支援装置の内部で保持してもよい。この場合、センサプロファイルを本運転支援装置の内部で保持するので、構成を簡易にできる。
選択部が取得したセンサプロファイルには少なくとも距離情報が含まれる。また、距離情報が含まれるので、距離情報を使用して検出結果を選択できる。
選択部は、地図情報をもとに選択範囲を制限してもよい。この場合、検出不要な領域が地図情報によって制限されるので、センサにおける検出精度の悪化の影響を低減できる。
検出情報入力部には、複数のセンサのそれぞれからの検出情報であって、かつ各センサでの検出結果を含む検出情報が入力され、選択部は、複数のセンサのそれぞれに対する選択範囲による検出結果の選択をセンサ毎に実行してもよい。この場合、センサ毎に選択範囲を予め定めて検出結果を選択するので、複数のセンサを使用する場合であっても、センサにおける検出精度の悪化の影響を低減できる。
検出情報入力部には、複数のセンサのそれぞれからの検出情報であって、かつ各センサでの検出結果を含む検出情報が入力されており、複数のセンサのそれぞれでの検出結果を合成する合成部をさらに備えてもよい。選択部は、合成部による合成がなされた場合の検出可能な範囲をもとに定められた選択範囲を使用してもよい。この場合、合成がなされた場合の検出可能な範囲をもとに選択範囲を使用するので、センサフュージョンを使用する場合であっても、センサにおける検出精度の悪化の影響を低減できる。
処理部における処理は、運転行動モデルを学習させる学習処理であり、処理部は、選択部において選択した検出結果を入力パラメータとして、入力パラメータと教師付けデータとによって運転行動モデルを構築してもよい。この場合、選択した検出結果を学習処理に使用するので、学習精度を向上できる。
処理部における処理は、運転行動を推定する推定処理であり、処理部は、選択部において選択した検出結果を入力データとして運転行動モデルに入力するとともに、運転行動モデルからの出力を運転行動として取得してもよい。この場合、選択した検出結果を推定処理に使用するので、推定精度を向上できる。
処理部における処理は、運転行動モデルを学習させる学習処理と、運転行動を推定する推定処理であり、処理部は、学習処理を実行する場合、選択部において選択した検出結果を入力パラメータとして、入力パラメータと教師付けデータとによって運転行動モデルを構築し、推定処理を実行する場合、選択部において選択した検出結果を入力データとして運転行動モデルに入力するとともに、運転行動モデルからの出力を運転行動として取得してもよい。この場合、選択した検出結果を学習処理および推定精度に使用するので、学習精度および推定精度を向上できる。
本発明の別の態様は、自動運転制御装置である。この装置は、センサでの検出結果をもとに学習させた運転行動モデルで車両の運転行動を推定する処理を行う自動運転装置であって、検出結果を含む検出情報が入力される検出情報入力部と、検出情報入力部に入力された検出情報に含まれた検出結果のうち、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲内に含まれる検出結果を選択する選択部と、選択部において選択した検出結果をもとに処理を実行する処理部と、処理部における処理結果をもとに車両の自動運転を制御する自動運転制御部と、を備える。
この態様によると、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲に含まれる検出結果を選択して処理に使用するので、センサにおける検出精度の悪化の影響を低減しながら、自動運転の制御の精度を向上できる。
本発明のさらに別の態様は、車両である。この車両は、センサでの検出結果をもとに学習させた運転行動モデルで車両の運転行動を推定する処理を行う運転支援装置を備える車両であって、運転支援装置は、検出結果を含む検出情報が入力される検出情報入力部と、検出情報入力部に入力された検出情報に含まれた検出結果のうち、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲内に含まれる検出結果を選択する選択部と、選択部において選択した検出結果をもとに処理を実行する処理部と、を備える。
この態様によると、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲に含まれる検出結果を選択して処理に使用するので、センサにおける検出精度の悪化の影響を低減できる。
本発明のさらに別の態様は、運転支援方法である。この方法は、センサでの検出結果をもとに学習させた運転行動モデルで車両の運転行動を推定する処理を行う運転支援方法であって、検出結果を含む検出情報が入力されるステップと、入力された検出情報に含まれた検出結果のうち、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲内に含まれる検出結果を選択するステップと、選択した検出結果をもとに処理を実行するステップと、を備える。
本発明のさらに別の態様は、運転支援システムである。この運転支援システムは、センサプロファイルを保持する保持装置と、保持装置からセンサプロファイルを取得するとともに、センサでの検出結果をもとに学習させた運転行動モデルで車両の運転行動を推定する処理を行う運転支援装置とを備える。運転支援装置は、検出結果を含む検出情報が入力される検出情報入力部と、検出情報入力部に入力された検出情報に含まれた検出結果のうち、センサが検出可能な範囲よりも狭い、かつ予め定められた選択範囲内に含まれる検出結果を選択する選択部と、選択部において選択した検出結果をもとに処理を実行する処理部と、を備える。選択部は、センサプロファイルから選択範囲を取得する。
以上、本発明を実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施の形態1乃至4において、処理部72は、学習部80あるいは推定部86を含む。しかしながらこれに限らず例えば、処理部72は、学習部80および推定部86を含んでもよい。この場合、処理部72は、学習処理および推定処理を実行する。本変形例によれば、選択した検出結果を学習処理および推定精度に使用するので、学習精度および推定精度を向上できる。
2 報知装置、 2a ヘッドアップディスプレイ、 2b センタディスプレイ、 4 入力装置、 4a 第1操作部、 4b 第2操作部、 4c 第3操作部、 6 スピーカ、 8 無線装置、 10 運転操作部、 11 ステアリング、 12 ブレーキペダル、 13 アクセルペダル、 14 ウィンカスイッチ、 20 検出部、 21 位置情報取得部、 22 センサ、 23 速度情報取得部、 24 地図情報取得部、 30 自動運転制御装置、 31 制御部、 32 記憶部、 33 I/O部、 40 運転支援装置、 41 制御部、 42 記憶部、 43 I/O部、 50 操作信号入力部、 51 画像・音声出力部、 52 検出情報入力部、 53 コマンドIF、 54 行動情報入力部、 55 コマンド出力部、 56 通信IF、 70 選択部、 72 処理部、 74 合成部、 80 学習部、 82 教師付けデータ、 84 運転行動モデル、 86 推定部、 88 推定値、 90 入力パラメータ、 92 入力データ、 100 車両。

Claims (15)

  1. 車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された前記車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ前記第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援装置であって、
    前記第1タイミングよりも後の第2タイミングに前記センサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、
    前記検出情報入力部に入力された検出情報に含まれた前記第2検出結果が示す1以上の物体の情報のうち、前記センサが検出可能な範囲よりも狭い範囲であって、かつ前記センサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、
    前記選択部において選択した1以上の物体の情報と前記運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、
    を備える運転支援装置。
  2. 前記選択部は、前記センサに対応するセンサプロファイルから前記選択範囲を取得する請求項1に記載の運転支援装置。
  3. 前記選択部は、前記センサプロファイルを本運転支援装置の外部から取得する請求項2に記載の運転支援装置。
  4. 前記センサプロファイル本運転支援装置の内部保持される、請求項2に記載の運転支援装置。
  5. 前記センサプロファイルには少なくとも距離情報が含まれる請求項から4のいずれかに記載の運転支援装置。
  6. 前記選択部は、地図情報をもとに前記選択範囲を狭くする、請求項1から5のいずれかに記載の運転支援装置。
  7. 前記検出情報入力部には、複数のセンサのそれぞれからの検出情報であって、かつ各センサでの検出結果を含む検出情報が入力され、
    前記選択部は、前記複数のセンサのそれぞれに対する選択範囲による検出結果の選択をセンサ毎に実行する請求項1から6のいずれかに記載の運転支援装置。
  8. 前記検出情報入力部には、複数のセンサのそれぞれからの検出情報であって、かつ各センサでの検出結果を含む検出情報が入力され
    前記複数のセンサのそれぞれでの検出結果を合成する合成部をさらに備え、
    前記選択部は、前記合成部による合成がなされた場合の検出可能な範囲をもとに定められた選択範囲を使用する請求項1から6のいずれかに記載の運転支援装置。
  9. 前記1以上の物体の情報は、前記1以上の物体のそれぞれに関して前記センサを起点とした当該物体の方向および距離を示す、請求項1から8のいずれかに記載の運転支援装置。
  10. 前記第1検出結果が示す1以上の物体の情報の中から、前記選択範囲内に含まれる1以上の物体の情報が選択され、かつ、
    選択された1以上の物体の情報に基づいて前記運転行動モデルは構築される、請求項1から9のいずれかに記載の運転支援装置。
  11. 車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された前記車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ前記第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する自動運転装置であって、
    前記第1タイミングよりも後の第2タイミングに前記センサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、
    前記検出情報入力部に入力された検出情報に含まれた前記第2検出結果が示す1以上の物体の情報のうち、前記センサが検出可能な範囲よりも狭い範囲であって、かつ前記センサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、
    前記選択部において選択した1以上の物体の情報と前記運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、
    前記処理部における処理結果をもとに車両の自動運転を制御する自動運転制御部と、
    を備える自動運転制御装置。
  12. 車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された前記車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ前記第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援装置を備える車両であって、
    前記運転支援装置は、
    前記第1タイミングよりも後の第2タイミングに前記センサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、
    前記検出情報入力部に入力された検出情報に含まれた前記第2検出結果が示す1以上の物体の情報のうち、前記センサが検出可能な範囲よりも狭い範囲であって、かつ前記センサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、
    前記選択部において選択した1以上の物体の情報と前記運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、
    を備える車両。
  13. 車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された前記車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ前記第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援方法であって、
    前記第1タイミングよりも後の第2タイミングに前記センサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力るステップと、
    入力された検出情報に含まれた前記第2検出結果が示す1以上の物体の情報のうち、前記センサが検出可能な範囲よりも狭い範囲であって、かつ前記センサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択するステップと、
    選択した1以上の物体の情報と前記運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定するステップと、
    含む、運転支援方法。
  14. 車両に備えられた、物体を検出可能なセンサによって第1タイミングに検出された前記車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ前記第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定するプログラムであって、
    前記第1タイミングよりも後の第2タイミングに前記センサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力るステップと、
    入力された検出情報に含まれた前記第2検出結果が示す1以上の物体の情報のうち、前記センサが検出可能な範囲よりも狭い範囲であって、かつ前記センサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択するステップと、
    選択した1以上の物体の情報と前記運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定するステップとをコンピュータに実行させるためのプログラム。
  15. 物体を検出可能なセンサに対応するセンサプロファイルを保持する保持装置と、
    前記保持装置から前記センサプロファイルを取得するとともに、車両に備えられた前記センサによって第1タイミングに検出された前記車両の外の1以上の物体の情報を示す第1検出結果に基づいたモデルであって、かつ前記第1検出結果と車両に実行させるべき運転行動の内容との関係を示すモデルである運転行動モデルを用いて車両に実行させるべき運転行動を推定する運転支援装置とを備え、
    前記運転支援装置は、
    前記第1タイミングよりも後の第2タイミングに前記センサにより検出された車両の外の1以上の物体の情報を示す第2検出結果を含む検出情報入力る検出情報入力部と、
    前記検出情報入力部に入力された検出情報に含まれた前記第2検出結果が示す1以上の物体の情報のうち、前記センサが検出可能な範囲よりも狭い範囲であって、かつ前記センサの検出精度が規定値を満たす予め定められた範囲である選択範囲内に含まれる1以上の物体の情報を選択する選択部と、
    前記選択部において選択した1以上の物体の情報と前記運転行動モデルとをもとに、車両に実行させるべき運転行動の内容を推定する処理部と、
    を備え、
    前記選択部は、前記センサプロファイルから前記選択範囲を取得する運転支援システム。
JP2017071471A 2017-03-31 2017-03-31 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム Active JP6906175B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017071471A JP6906175B2 (ja) 2017-03-31 2017-03-31 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
US15/922,713 US10583841B2 (en) 2017-03-31 2018-03-15 Driving support method, data processor using the same, and driving support system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071471A JP6906175B2 (ja) 2017-03-31 2017-03-31 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム

Publications (2)

Publication Number Publication Date
JP2018173816A JP2018173816A (ja) 2018-11-08
JP6906175B2 true JP6906175B2 (ja) 2021-07-21

Family

ID=63671628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071471A Active JP6906175B2 (ja) 2017-03-31 2017-03-31 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム

Country Status (2)

Country Link
US (1) US10583841B2 (ja)
JP (1) JP6906175B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592830B1 (ko) * 2018-12-05 2023-10-23 현대자동차주식회사 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량
CN109808706A (zh) * 2019-02-14 2019-05-28 上海思致汽车工程技术有限公司 学习式辅助驾驶控制方法、装置、系统及车辆
US11868136B2 (en) * 2019-12-19 2024-01-09 Woven By Toyota, U.S., Inc. Geolocalized models for perception, prediction, or planning
JP2022083331A (ja) * 2020-11-24 2022-06-03 日立Astemo株式会社 物標検出装置及び物標検出方法
CN116757981A (zh) * 2023-06-19 2023-09-15 北京拙河科技有限公司 一种多终端图像融合方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070999A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 車両の障害物検出装置及びそれを搭載した自動車
EP2133851B1 (en) * 2007-04-02 2012-11-28 Panasonic Corporation Safe driving assisting device
CN101801729B (zh) * 2008-01-16 2012-01-25 三菱电机株式会社 车辆用传感器系统
JP5051542B2 (ja) 2008-03-27 2012-10-17 株式会社エクォス・リサーチ ドライバモデル処理装置
JP5639874B2 (ja) * 2010-12-24 2014-12-10 株式会社日立製作所 運転支援装置
JP5510471B2 (ja) * 2012-01-20 2014-06-04 トヨタ自動車株式会社 運転モデルの作成装置及び運転モデルの作成方法、並びに運転評価装置及び運転評価方法、並びに運転支援システム
DE102012214047B4 (de) * 2012-08-08 2023-05-11 Robert Bosch Gmbh Verfahren zum Auswählen eines Arbeitsfrequenzbereiches einer Umfeldsensoreinrichtung und entsprechende Umfeldsensoreinrichtung
WO2016170785A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20180281813A1 (en) 2018-10-04
JP2018173816A (ja) 2018-11-08
US10583841B2 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
CN108885836B (zh) 驾驶辅助装置、系统、方法、控制装置、车辆及介质
CN110641472B (zh) 基于神经网络的用于自主车辆的安全监控系统
JP6964271B2 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
CN109562760B (zh) 对于自主车辆测试预测
CN108068825B (zh) 用于无人驾驶车辆(adv)的视觉通信系统
JP6773040B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム
JP6906175B2 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
WO2017057059A1 (ja) 運転制御装置、および運転制御方法、並びにプログラム
US10239527B2 (en) Driving ratings for leading or following vehicle selection
KR20180092314A (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
US20200247415A1 (en) Vehicle, and control apparatus and control method thereof
JP6604577B2 (ja) 運転支援方法およびそれを利用した運転支援装置、運転支援システム、自動運転制御装置、車両、プログラム
US20200310448A1 (en) Behavioral path-planning for a vehicle
GB2557438A (en) Pedestrian face detection
JP2018165692A (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、提示システム
US20220161819A1 (en) Automatic motor-vehicle driving speed control based on driver's driving behaviour
CN115440069B (zh) 信息处理服务器、信息处理服务器的处理方法、非易失性存储介质
JP7029689B2 (ja) 表示制御方法およびそれを利用した表示制御装置、車両、プログラム、表示制御システム
JP7435787B2 (ja) 経路確認装置および経路確認方法
JP6635001B2 (ja) 車両制御装置
US20210171060A1 (en) Autonomous driving vehicle information presentation apparatus
WO2021229671A1 (ja) 走行支援装置および走行支援方法
JP2019045940A (ja) 自動運転システム
JP2018165693A (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、提示システム
JP6096750B2 (ja) 走行支援装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210611

R151 Written notification of patent or utility model registration

Ref document number: 6906175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03