JP7565232B2 - 車両評価方法及び車両評価装置 - Google Patents

車両評価方法及び車両評価装置 Download PDF

Info

Publication number
JP7565232B2
JP7565232B2 JP2021027776A JP2021027776A JP7565232B2 JP 7565232 B2 JP7565232 B2 JP 7565232B2 JP 2021027776 A JP2021027776 A JP 2021027776A JP 2021027776 A JP2021027776 A JP 2021027776A JP 7565232 B2 JP7565232 B2 JP 7565232B2
Authority
JP
Japan
Prior art keywords
vehicle
information
environment
virtual
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021027776A
Other languages
English (en)
Other versions
JP2022129175A (ja
Inventor
玲雄 坂倉
晋 藤田
旭伸 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2021027776A priority Critical patent/JP7565232B2/ja
Publication of JP2022129175A publication Critical patent/JP2022129175A/ja
Application granted granted Critical
Publication of JP7565232B2 publication Critical patent/JP7565232B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、車両評価方法及び車両評価装置に関する。
車両周囲における死角や遮蔽に関して、様々な運転支援技術や自動運転技術が提案されている。例えば特許文献1には、センサ情報から自車両の進行先が見通しの悪い交差点であるか否かを判断し、見通しの悪い交差点であった場合は自車両の進行方向が認識できなくなる位置の手前の位置で停止し、その後は、前進と停止を繰り返して交差点を通過する車両制御装置が記載されている。
特開2019-067295号公報
センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する場合、評価項目に応じた試験環境を実現するために多大な労力と費用が発生していた。
本発明は、センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する際に、評価を実施する試験環境を現実環境において実現する作業を省力化することを目的とする。
本発明の一態様によれば、自車両の周囲の周囲環境に基づいて自車両を自動的に運転する自動運転車両の車両評価方法が与えられる。この車両評価方法では、所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、現実環境における自車両の位置に対応する道路地図上の仮想的な位置が定まる仮想環境を構築し、仮想環境内に仮想オブジェクトを配置し、自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、自車両の自己位置を算出し、自己位置に基づいて、センサで取得した検出情報と仮想環境の情報とを統合情報へ統合し、統合情報に基づいて自車両の走行を制御する。
本発明によれば、センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する際に、評価を実施する試験環境を現実環境において実現する作業を省力化できる。
実施形態の走行制御装置の一例の概略構成図である。 実施形態の走行制御装置の機能構成の一例のブロック図である。 実施形態の車両評価方法の一例の説明図(その1)である。 実施形態の車両評価方法の一例の説明図(その2)である。 実施形態の車両評価方法の一例の説明図(その3)である。 実施形態の車両評価方法の一例の説明図(その4)である。 現実環境の路面形状に応じた仮想オブジェクトの形状の補正の一例の説明図(その1)である。 現実環境の路面形状に応じた仮想オブジェクトの形状の補正の一例の説明図(その2)である。 現実環境の路面形状に応じた仮想オブジェクトの形状の補正の一例の説明図(その3)である。 実施形態の車両評価方法の一例のフローチャートである。
以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
(構成)
図1は、実施形態の走行制御装置の一例の概略構成図である。自車両1は、自車両1の周囲の周囲環境に基づいて自車両1の運転支援制御を行う走行制御装置10を備えた自動運転車両である。走行制御装置10による運転支援制御には、運転者が関与せずに自車両1を自動で運転する自動運転制御や、自動操舵、自動ブレーキ、定速走行制御、車線維持制御、合流支援制御など、駆動制御、制動制御又は操舵制御の少なくとも1つを自動で行う走行制御を含んでよい。
実施形態の車両評価方法では、走行制御装置10による運転支援制御によって自車両1を走行させて、運転支援制御の機能/性能の評価検証(以下、単に「評価検証」と表記することがある)を実施する。
その際に、走行制御装置10による運転支援制御を評価するための仮想環境を構築し、現実世界における自車両1の実際の走行に伴って仮想環境内で自車両1を走行させる。
そして、現実の周囲環境を自車両1に搭載したセンサで検出して得た情報と、仮想環境における自車両1の周囲環境の情報と、に基づいて運転支援制御を実施し、実際に車両挙動を発生させることによって、運転支援制御の機能/性能を評価検証する。
以下、実際に車両を走行させて評価検証が実施される現実世界の場所を「現実環境」と表記することがある。また、評価検証が実施される仮想環境を「評価環境」と表記することがある。評価環境は、特許請求の範囲に記載の「仮想環境」の一例である。
走行制御装置10は、センサ11と、測位装置12と、地図データベース(地図DB)13と、オブジェクトデータベース(オブジェクトDB)14と、コントローラ15と、アクチュエータ16と、ユーザインタフェース(ユーザI/F)17とを備える。
センサ11は、自車両1の周辺の物体を検出する複数の異なる種類の物体検出センサと、自車両1から得られる様々な情報(車両信号)を検出する車両センサとを含む。
物体検出センサは、例えば、自車両1に搭載されたレーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距装置や、カメラなどであってよい。
車両センサには、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレイトを検出するヨーレイトセンサ、自車両のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。
測位装置12は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置12は、例えば慣性航法装置であってもよい。
地図データベース13には、所定の道路地図の情報である道路地図情報13aが記憶される。
道路地図情報13aは、仮想的な評価環境に設定する道路の地図情報である。ここで、評価検証は、走行制御装置10の運転支援制御について評価すべき項目を有する(以下「評価項目」を表記する)。例えば、道路地図情報13aは、所与の評価項目の評価対象となる車両の機能又は性能が発揮される道路構造や属性を有する道路の情報であってよい。
道路地図情報13aは、例えば、道路、車線境界線、車線区分線の座標情報、路面形状の情報を含んでよい。また、道路地図情報13aは、例えば道路上又はその近傍の地物(例えば、ガードレール、建物、電柱、縁石、横断歩道、停止線、信号機、踏切等)の座標情報を含んでもよい。
道路地図情報13aは、上記の物体検出センサのようなセンサを搭載した車両を実際の道路上で走行させて、道路、車線境界線、路面形状、地物をセンサで検出したセンサ情報であってよい。センサ情報は、例えば、測距装置から出力される点群データや、カメラの撮像画像から認識した物体の座標情報であってよい。また、道路地図情報13aは、このようなセンサ情報を模擬して仮想的に作成した地図情報であってもよい。
例えば、道路地図情報13aは、自動運転用の地図として好適な高精度(HD:High-Definition)地図データであってもよい。
また地図データベース13には、路面情報13bを含む。路面情報13bは、実際に自車両1を走行させて評価検証を実施する現実環境の路面の形状や勾配の情報である。路面情報13bは、例えば各地点における路面の高さ情報(例えば標高情報)を含んでいてよい。
オブジェクトデータベース14には、評価検証の評価項目に応じて評価環境に配置すべき仮想オブジェクトの情報とその座標情報とが記憶される。
仮想オブジェクトの情報は、上記の物体検出センサのようなセンサで現実的な物体を検出して得られるセンサ情報であってもよく、このようなセンサ情報を模擬して仮想的に作成した情報であってもよく、その他の形式の3次元物体情報(例えばポリゴンによる多面体情報)であってもよい。
コントローラ15は、自車両1の走行支援制御を行うとともに、評価環境における自車両1の走行を仮想的に模擬する処理を行う電子制御ユニット(ECU:Electronic Control Unit)である。
コントローラ15は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置21は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明するコントローラ15の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ15を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ15は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ15はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
アクチュエータ16は、コントローラ15からの制御信号に応じて、自車両のステアリングホイール、アクセル開度及びブレーキ装置を操作して、自車両の車両挙動を発生させる。アクチュエータ16は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両のステアリングの操舵方向及び操舵量を制御する。
アクセル開度アクチュエータは、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。
ユーザインタフェース17は、走行制御装置10と乗員との間で情報を授受するヒューマン・マシン・インターフェイス(HMI:Human Machine Interface)である。ユーザインタフェース17は、走行支援装置10とは別体の情報端末(例えば、スマートフォンやタブレット装置)であってもよい。なお、乗員には、運転者が含まれるほか、自車両1の自律走行制御に関する操作指示権限を有する乗員や同乗者が含まれる。
ユーザインタフェース17は、例えば音声情報を授受するスピーカとマイクロフォンを備えてもよい。また、ユーザインタフェース17は、表示情報を提供する表示装置(例えばヘッドアップディスプレイ等)を備えてもよい。ユーザインタフェース17は、乗員が物理的に操作するキーボード、ボタン、ダイヤル、スライダ、マウス、タッチパネル、レバー、ジョイスティック、タッチパッド等を備えてもよい。
次に、図2を参照してコントローラ15によって実現される走行制御装置10の機能構成の一例を説明する。
コントローラ15は、センサ情報取得部30と、自己位置算出部31と、評価環境構築部32と、環境情報統合部33と、周囲環境認識部34と、行動決定部35と、軌道生成部36と、車両制御部37と、情報提示部38を備える。
センサ情報取得部30は、センサ11の物体検出センサにより自車両1の周囲に存在する現実の物体の自車両1に対する相対位置を検出した情報であるセンサ情報を取得する。
例えば、センサ情報取得部30は、測距装置から出力される点群データをセンサ情報として取得してよい。例えばこれら点群データをクラスタリングして物体として認識し、自車両1に対する物体の相対的位置、形状、大きさの情報をセンサ情報として取得してもよい。また例えば、カメラの撮像画像から自車両1の周囲に存在する物体を認識し、自車両1に対する物体の相対的位置、形状、大きさの情報をセンサ情報として取得してもよい。
自己位置算出部31は、自車両1の地図上の位置である自己位置を算出する。例えば、自己位置算出部31は、センサ11の車両センサが検出した車両情報に基づいて自己位置を算出してよい。例えば、自己位置算出部31は車両情報に基づくオドメトリによって自己位置を算出してよい。また、自己位置算出部31は測位装置12から自己位置を取得してよい。
評価環境構築部32は、評価検証が実施される仮想環境である評価環境を構築する。その際、評価環境構築部32は、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付ける。
現実環境における座標と道路地図情報13aの座標情報を対応付けることにより、自己位置算出部31が算出した自己位置に対応する、道路地図情報13a内の自車両1の仮想的な位置を設定できる。すなわち、道路地図情報13aに含まれる道路、車線境界線、車線区分線、地物等と、自車両1との間の相対的な位置関係を設定できる。これにより、道路地図情報13aに含まれる道路、車線境界線、車線区分線、地物等が配置された評価環境内の道路上を、自車両1が走行する状況を模擬的に作り出すことができる。
例えば、道路地図情報13aの座標を現実環境の座標へ平行移動する(すなわち、道路地図情報13aの座標を、実際に自車両1が走行する現実世界の場所の座標に変換する)ことによって、現実環境における座標と道路地図情報13aの座標情報とを対応付けてよい。
このとき、評価検証の評価項目を検証できる道路地図情報13a上の道路の座標が、現実の評価検証の実施場所(現実環境)に含まれるように、現実環境と道路地図情報13aの座標を対応付けてよい。
なお、現実環境における地図上の座標を道路地図情報13aの座標へ平行移動してもよい。すなわち、評価環境の座標値として、現実環境の座標値と道路地図情報13aの座標値のいずれを使用してもよい。又は、評価環境の座標値として、現実環境の座標値でも道路地図情報13aの座標値でもない専用の座標値を設定し、現実環境の座標値と道路地図情報13aの座標値を専用の座標値に平行移動してもよい。
図3Aは、現実環境における自車両1の周囲の環境の一例を示す。実施形態の車両評価方法による評価検証が実施される現実環境は、仮想的な評価環境に設けられる仮想的な道路や仮想オブジェクトと矛盾しないように、車線を形成する地物(例えば、車線境界線、車線区分線、縁石など)やその近傍の地物のない広場であることが好ましい。
また、現実環境には、センサ11による周囲環境の認識機能を評価するために、評価項目に応じて現実の物体を配置してもよい。図3Aの例では、自車両1の周囲に現実の他車両2が配置されている。現実環境に配置された現実の物体を「実体物」と表記することがある。
図3Bは、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付けることにより構築された評価環境の一例を示す。構築された評価環境では、自車両1の周囲に、道路地図情報13aに含まれる道路3(白線3a~3cは、道路3の車線境界線である)が存在している。
なお、現実環境における路面形状と道路地図情報13aの道路3の路面形状とが異なる場合(すなわち両者の路面の高さの変動が異なる場合)には、道路地図情報13aの道路3の高さ情報(例えば標高情報)を、現実環境における路面形状に合わせて補正してもよい。
さらに、評価環境構築部32は、オブジェクトデータベース14に記憶された仮想オブジェクトの情報とその座標情報とに基づいて、評価項目に応じた仮想オブジェクトを評価環境に配置する。
図3Cは、仮想オブジェクトが配置された評価環境の一例を示す。図3Cの評価環境には、仮想オブジェクトの例として、壁4と仮想の他車両5とが配置されている。壁4は、静止した仮想オブジェクトの一例である。他車両5は、駐車車両のような静止した仮想オブジェクトであってもよく、走行車両のような移動する仮想オブジェクトであってもよく、一時的に停止した車両のような移動可能な静止した仮想オブジェクトであってもよい。
評価環境構築部32は、仮想オブジェクトを評価環境に配置する際に、仮想オブジェクトの高さ方向の配置位置を、現実環境における路面形状に合わせてもよい。
この場合に、オブジェクトデータベース14に記憶した仮想オブジェクトの配置場所として想定されている路面の形状と、仮想オブジェクトが配置された現実環境の路面形状とが異なることがある。図4Aにその例を示す。
図4Aに示す壁4は、路面6eのように傾斜面に配置される仮想オブジェクトであり、路面6eを基準とする壁4の高さが道路の進行方向に沿って変化するのに対し、路面6eが仮想的に配置される現実環境の路面6rの傾斜が路面6eと異なっている(例えば、路面6rは水平であってよい)。
この場合に、壁4が配置される路面6eのいずれかの位置の高さを現実環境の路面6rのいずれかの位置の高さに合わせると、図4Aに示すように壁4が浮いてしまうか、図4Bに示すように壁4の一部が路面6eの下に沈むことになる。
このため、評価環境構築部32は、図4Cに示すように壁(仮想オブジェクト)4の底面4bの高さ方向位置が底面4bに亘って現実環境の路面6rの高さ方向位置と一致するとともに、壁(仮想オブジェクト)4の底面4bに対する上面4tの高さが維持されるように、上面4tの位置を補正してもよい。
また、移動する仮想オブジェクトを配置する場合、評価環境構築部32は、現実環境の路面形状に沿って仮想オブジェクトを移動させてもよい。
その際、予め定めたとおりに仮想オブジェクトが移動するように、所定のシナリオに従って仮想オブジェクトを移動させてもよい。また、状況に応じて仮想オブジェクトが移動するように、所定条件に基づいて仮想オブジェクトの移動方向、移動速度、移動量の少なくとも1つを決定する所定のプログラムやアルゴリズムに基づいて仮想オブジェクトを移動させてもよい。
このようにして、評価環境は、現実環境に配置された現実の実体物に加えて、道路地図情報13aから評価環境に配置された道路、車線境界線、車線区分線及び地物と、オブジェクトデータベース14に基づいて評価環境に配置された仮想オブジェクトとを用いて構築される。
以下、道路地図情報13aから評価環境に配置された道路、車線境界線、車線区分線及び地物と、オブジェクトデータベース14に基づいて評価環境に配置された仮想オブジェクトと、現実環境に配置された実体物と区別するために「仮想構築物」と表記することがある。
図2を参照する。評価環境構築部32は、評価環境に配置された仮想構築物の情報(以下、「評価環境情報」と表記することがある)を、環境情報統合部33へ出力する。
例えば、評価環境情報は、評価環境に配置された仮想構築物の位置及び形状を表す座標情報を含んでよい。
環境情報統合部33は、センサ情報取得部30が取得したセンサ情報(すなわち現実の物体の検出結果)と、評価環境構築部32が生成した仮想的な評価環境情報とを、自己位置算出部31が算出した自己位置に基づいて統合する。言い換えれば、仮想的な評価環境情報を、自車両1の周囲環境をセンサで検出したセンサ情報と同等の情報として扱って、センサ情報取得部30が取得したセンサ情報に追加する。
以下、センサ情報と評価環境情報とを統合して得られる情報を「統合情報」と表記することがある。
例えば、環境情報統合部33は、自己位置算出部31が算出した自己位置に基づいて、評価環境情報に含まれている仮想構築物の自車両1に対する相対的位置を算出する。環境情報統合部33は、算出した相対的位置に基づいて、センサ11による検出可能領域に存在する仮想構築物を抽出し、抽出された仮想構築物の評価環境情報を、センサ情報取得部30が取得したセンサ情報に加えることにより評価環境情報を統合情報へ統合してよい。
このとき、環境情報統合部33は、センサ情報取得部30が取得したセンサ情報の物体(すなわち、センサ11に検出された実体物)が、自車両1から見て仮想構築物によって遮蔽されるか否かを判定し、仮想構築物によって遮蔽された場合にセンサ11で取得できない実体物のセンサ情報を、統合情報から削除してよい。
例えば、環境情報統合部33は、実体物と仮想構築物との位置関係に基づいて、センサ11に検出された実体物が自車両1から見て仮想構築物によって遮蔽されるか否かを判定してよい。例えば、環境情報統合部33は、自車両1と実体物との間の現実の相対距離と、評価環境における自車両1と仮想構築物との間の仮想的な相対距離とに基づいて、センサ11に検出された実体物が自車両1から見て仮想構築物によって遮蔽されるか否かを判定してよい。
例えば、環境情報統合部33は、自車両1から見て仮想構築物によって遮蔽される領域(すなわち死角領域)を算出し、仮想構築物によって遮蔽される領域に存在する実体物が仮想構築物によって遮蔽されると判定してよい。
また例えば環境情報統合部33は、仮想構築物と同一方向に存在する実体物が、仮想構築物よりも自車両1から遠いか否かを判定して、仮想構築物よりも自車両1から遠い実体物が自車両1から見て仮想構築物によって遮蔽されると判定してよい。
同様に、仮想構築物が、センサ11に検出された実体物や他の仮想構築物によって自車両1から見て遮蔽されるか否かを判定し、遮蔽される評価環境情報の情報を統合情報から削除してもよい。
図3Dを参照する。仮想オブジェクトである壁4の一部4aによって、実体物である他車両2と、壁4の他の部分4bが遮蔽されるため、環境情報統合部33は、他車両2のセンサ情報と、壁4の部分4bの評価環境情報とが削除された統合情報を生成する。
なお、評価検証が実施される現実環境に存在する実体物に特定の識別子を取り付け、識別子が取り付けられた実体物のセンサ情報を、統合情報から削除してよい。これにより、現実環境に実際に存在する実体物のセンサ情報のうち、評価検証に不要なセンサ情報を除去することができる。例えば、評価検証に用いるために現実環境に設置した各種の測定機器に識別子を取り付けてよい。
識別子は例えばマークや標識などの視覚的識別子であってよく、センサ11の物体検出センサ(例えばカメラ)で識別子を検出し、実体物に識別子が取り付けられているか否かを判定してよい。また、識別子は特定の信号(例えばビーコン)を発生する発信器であってもよい。
また、評価環境構築部32が評価環境を構築する処理(以下「評価環境構築処理」と表記することがある)と、環境情報統合部33がセンサ情報と評価環境情報とを統合情報へ統合する処理(以下「環境情報統合処理」)には一定の演算時間を要する。その結果、評価環境構築処理と環境情報統合処理とが、運転支援制御に間に合わないことがある。
このため、環境情報統合部33は、評価環境構築処理と環境情報統合処理に要する演算時間分だけ進めた時刻における統合情報を推定して出力してもよい。
例えば、環境情報統合部33は、上記演算時間分だけ進めた時刻における将来の自己位置と移動物体の将来の位置を推定してよい。例えば、現在の自車両1の移動方向と移動速度に基づいて将来の自己位置を推定してよい。また、移動する実体物の将来の位置は、実体物の移動方向と移動速度に基づいて将来の位置を推定してよい。移動する仮想オブジェクトの将来の位置は、仮想オブジェクトの位置を定めるシナリオ又はプログラムに基づいて算出してよい。
環境情報統合部33は、推定したこれらの将来の位置に基づいて、演算時間分だけ進めた時刻における統合情報を推定してよい。
図2を参照する。周囲環境認識部34は、環境情報統合部33から出力される統合情報に基づいて、自車両1の周囲環境を認識する。例えば、周囲環境認識部34は、異なる時刻に与えられた統合情報の各々に含まれる物体の同一性の検証(対応付け)を行い、その対応付けを基に、物体の速度や姿勢などの挙動を予測する。周囲環境認識部34は、物体の速度、挙動、大きさ、形状に基づいて、統合情報に含まれる物体の属性を判定する。例えば、物体の属性として、静止物体であるのか移動物体であるのかを判定する。また物体の属性として、車両、歩行者、自転車、構造物(例えば道路上又はその近傍の地物)等の物体の種類を判定する。
行動決定部35は、周囲環境認識部34の認識結果に基づいて、走行制御装置10により実行する自車両1の概略的な運転行動を決定する。行動決定部35が決定する運転行動は、例えば、自車両1の停止、一時停止、走行速度、減速、加速、進路変更、右折、左折、直進、合流区間や複数車線における車線変更、車線維持、追越、障害物への対応などの行動が含まれる。
例えば、行動決定部35は、自車両1の自己位置と、周囲環境認識部34が認識した自車両1の周囲の物体の位置及び姿勢と、高精度地図とに基づいて、自車両1の周辺の経路や物体の有無を表現する経路空間マップと、走行場の危険度を数値化したリスクマップを生成する。行動決定部35は、経路空間マップ及びリスクマップに基づいて、自車両1の運転行動計画を生成する。
軌道生成部36は、行動決定部35が決定した運転行動計画、自車両1の運動特性、経路空間マップに基づいて、自車両1を走行させる走行軌道及び速度プロファイルの候補を生成する。
軌道生成部36は、リスクマップに基づいて各候補の将来リスクを評価して、最適な走行軌道及び速度プロファイルを選択し、自車両1に走行させる目標走行軌道及び目標速度プロファイルとして設定する。
車両制御部37は、軌道生成部36が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ16を駆動する。
情報提示部38は、周囲環境認識部34が認識した自車両1の周囲環境の情報を可視化してユーザインタフェース17から出力し、自車両1の乗員に提示する。また、走行支援装置10とは別体の装置として設けられたユーザインタフェース17を介して、自車両1の車外の観察者に提供してもよい。
例えば、情報提示部38は、周囲環境認識部34が認識した情報のうち、仮想構築物のみを可視化して、乗員の前方のヘッドアップディスプレイに表示、あるいはフロントウィンドシールドに投影して表示する等、ディスプレイ装置に表示してもよい。また、周囲環境認識部34が認識した実体物と仮想構築物とを重畳した画像を、ディスプレイ装置に表示してもよい。
上記のとおり、仮想構築物により遮蔽されてセンサ11で取得できない実体物のセンサ情報を統合情報から削除することにより、遮蔽された部分が表示されない画像を提供できる。
(動作)
次に、図5を参照して、実施形態における実施形態の車両評価方法の一例を参照する。
ステップS1において評価環境構築部32は、地図データベース13から道路地図情報13aと、現実環境の路面の勾配などの形状情報を含んだ路面情報13bを取得する。また、オブジェクトデータベース14から、評価検証の検証項目に対応した評価環境に関する情報として、評価環境に配置する仮想オブジェクトの情報とその座標情報を取得する。
ステップS2において評価環境構築部32は、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付けることにより、評価環境を構築する。
ステップS3において評価環境構築部32は、構築した評価環境内に仮想オブジェクトを配置する。
ステップS4においてセンサ情報取得部30は、センサ11の物体検出センサにより自車両1の周囲に存在する現実の物体を検出したセンサ情報を取得する。
ステップS5において自己位置算出部31は、自車両1の地図上の位置である自己位置を算出する。
ステップS6において環境情報統合部33は、センサ情報取得部30が取得したセンサ情報と、評価環境構築部32が構築した評価環境の情報とを、統合情報へ統合する。
ステップS7において周囲環境認識部34は、統合情報に基づいて自車両1の周囲環境を認識する。
ステップS8において行動決定部35は、周囲環境認識部34の認識結果に基づいて、走行制御装置10により実行する自車両1の運転行動計画を決定する。
ステップS9において軌道生成部36は、行動決定部35が決定した運転行動計画に基づいて、自車両1に走行させる目標走行軌道及び目標速度プロファイルを生成する。
ステップS10において車両制御部37は、軌道生成部36が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ16を駆動する。その後に処理は終了する。
(実施形態の効果)
(1)走行制御装置10によって、自車両1の周囲の周囲環境に基づいて自車両1を自動的に運転する自動運転車両の車両評価方法を実施できる。走行制御装置10の評価環境構築部32は、所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、現実環境における自車両1の位置に対応する道路地図上の仮想的な位置が定まる仮想環境である評価環境を構築して、評価環境内に仮想オブジェクトを配置する。センサ情報取得部30は、自車両1の周囲に存在する物体の自車両1に対する相対位置をセンサ11で検出した検出情報を取得する。自己位置算出部31は、自車両1の自己位置を算出する。環境情報統合部33は、自己位置に基づいて、センサ11で取得した検出情報と評価環境の情報とを統合情報へ統合する。周囲環境認識部34、行動決定部35、軌道生成部36、車両制御部37は、統合情報に基づいて自車両1の走行を制御する。
これにより、自動運転車両の評価を実施する試験環境を仮想的に実現できる。この結果、試験環境を実現する作業を省力化できる。
(2)環境情報統合部33は、センサで検出した物体である被検出物体と仮想オブジェクトの位置関係に基づいて、自車両1から見て仮想オブジェクトに遮蔽される被検出物体の検出情報を統合情報から除外してよい。
これにより、センサ11で検出された実体物が、自車両1から見て仮想オブジェクトによって遮蔽される環境を実現できる。
(3)環境情報統合部33は、自車両1と被検出物体との間の相対距離と、評価環境における自車両1と仮想オブジェクトとの間の相対距離と、に基づいて、自車両1から見て被検出物体が仮想オブジェクトに遮蔽されるか否かを判定してよい。
これにより、センサ11で検出される実体物が、自車両1から見て仮想オブジェクトによって遮蔽されるか否かを判定できる。
(4)評価環境構築部32は、評価環境の構築の際に、道路地図に含まれる道路の路面形状を補正して現実環境の路面形状に合わせてもよい。
これにより、現実環境の路面形状に合わせて評価環境を構築できる。
(5)評価環境構築部32は、仮想オブジェクトの配置の際に、仮想オブジェクトの上面4tを、仮想オブジェクトが配置される座標の現実環境の路面形状に合わせて補正してもよい。これにより、現実環境の路面形状に合わせて仮想オブジェクトの高さを維持するように、上面4tの高さ方向の位置情報を補正できる。
(6)評価環境構築部32は、仮想オブジェクトとして、仮想オブジェクトが位置する座標の現実環境の路面形状に合わせて移動する移動オブジェクトを配置してもよい。
これにより、現実環境の路面形状に沿って移動する仮想オブジェクトを模擬することができる。
(7)評価環境構築部32は、所定シナリオ又は所定のプログラムに従って仮想オブジェクトを移動させてもよい。
これにより、任意の評価項目に応じて仮想オブジェクトを移動させることができる。
(8)環境情報統合部33は、評価環境の構築と統合情報への統合の演算時間分だけ進めた時刻における将来の統合情報を推定してよい。周囲環境認識部34、行動決定部35、軌道生成部36、車両制御部37は、将来の統合情報に基づいて自車両1の走行を制御してよい。これにより、評価環境の構築処理と統合情報への統合処理とが自車両1の走行制御に間に合わなくなることを回避できる。
1…自車両、10…走行制御装置、11…センサ、12…測位装置、13…地図データベース(地図DB)、13a…道路地図情報、13b…路面情報、14…オブジェクトデータベース(オブジェクトDB)、15…コントローラ、16…アクチュエータ、17…ユーザインタフェース(ユーザI/F)、20…プロセッサ、21…記憶装置、30…センサ情報取得部、31…自己位置算出部、32…評価環境構築部、33…環境情報統合部、34…周囲環境認識部、35…行動決定部、36…軌道生成部、37…車両制御部、38…情報提示部

Claims (8)

  1. 自車両の周囲の周囲環境に基づいて前記自車両を自動的に運転する自動運転車両の車両評価方法であって、
    所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、前記現実環境における前記自車両の位置に対応する前記道路地図上の仮想的な位置が定まる仮想環境を構築し、
    前記仮想環境内に仮想オブジェクトを配置し、
    前記自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、
    前記自車両の自己位置を算出し、
    前記自己位置に基づいて、前記センサで取得した前記検出情報と前記仮想環境の情報とを統合情報へ統合し、
    前記統合情報に基づいて前記自車両の走行を制御
    前記センサで検出した物体である被検出物体と前記仮想オブジェクトの位置関係に基づいて、前記自車両から見て前記仮想オブジェクトに遮蔽される前記被検出物体の前記検出情報を前記統合情報から除外する、
    ことを特徴とする車両評価方法。
  2. 前記自車両と前記被検出物体との間の相対距離と、前記仮想環境における前記自車両と前記仮想オブジェクトとの間の相対距離と、に基づいて、前記自車両から見て前記被検出物体が前記仮想オブジェクトに遮蔽されるか否かを判定することを特徴とする請求項に記載の車両評価方法。
  3. 前記仮想環境の構築の際に、前記道路地図に含まれる道路の路面形状を補正して現実環境の路面形状に合わせることを特徴とする請求項1又は2に記載の車両評価方法。
  4. 前記仮想オブジェクトとして静止オブジェクトを配置し、
    前記静止オブジェクトの上面を、前記静止オブジェクトが配置される座標の現実環境の路面形状に合わせて補正することを特徴とする請求項1~のいずれか一項に記載の車両評価方法。
  5. 前記仮想オブジェクトとして、前記仮想オブジェクトが位置する座標の現実環境の路面形状に合わせて移動する移動オブジェクトを配置することを特徴とする請求項1~のいずれか一項に記載の車両評価方法。
  6. 前記仮想オブジェクトとして、所定シナリオ又は所定のプログラムに従って移動する移動オブジェクトを配置することを特徴とする請求項1~のいずれか一項に記載の車両評価方法。
  7. 前記仮想環境の構築と統合情報への統合の演算時間分だけ進めた時刻における将来の前記統合情報を推定し、
    前記将来の統合情報に基づいて前記自車両の走行を制御する、
    ことを特徴とする請求項1~のいずれか一項に記載の車両評価方法。
  8. 自車両の周囲の周囲環境に基づいて前記自車両を自動的に運転する自動運転車両の車両評価装置であって、
    所定の道路地図の情報を記憶する地図データベースと、
    前記自車両の周囲に存在する物体を検出するセンサと、
    前記自車両に車両挙動を発生させるアクチュエータと、
    前記道路地図上の座標情報と現実環境の座標とを対応付けることにより、前記現実環境における前記自車両の位置に対応する前記道路地図上の仮想的な位置が定まる仮想環境を構築し、前記仮想環境内に仮想オブジェクトを配置し、前記自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、前記自車両の自己位置を算出し、前記自己位置に基づいて、前記センサで取得した前記検出情報と前記仮想環境の情報とを統合情報へ統合し、前記統合情報に基づいて前記アクチュエータを制御するコントローラと、
    を備え、
    前記コントローラは、前記センサで検出した物体である被検出物体と前記仮想オブジェクトの位置関係に基づいて、前記自車両から見て前記仮想オブジェクトに遮蔽される前記被検出物体の前記検出情報を前記統合情報から除外することを特徴とする車両評価装置。
JP2021027776A 2021-02-24 2021-02-24 車両評価方法及び車両評価装置 Active JP7565232B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027776A JP7565232B2 (ja) 2021-02-24 2021-02-24 車両評価方法及び車両評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027776A JP7565232B2 (ja) 2021-02-24 2021-02-24 車両評価方法及び車両評価装置

Publications (2)

Publication Number Publication Date
JP2022129175A JP2022129175A (ja) 2022-09-05
JP7565232B2 true JP7565232B2 (ja) 2024-10-10

Family

ID=83150296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027776A Active JP7565232B2 (ja) 2021-02-24 2021-02-24 車両評価方法及び車両評価装置

Country Status (1)

Country Link
JP (1) JP7565232B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4603357A1 (en) * 2022-10-12 2025-08-20 SoftBank Group Corp. Automated driving test method and program
CN115503740B (zh) * 2022-11-16 2023-03-10 雄安雄创数字技术有限公司 一种辅助驾驶方法、装置、电子设备及存储介质
KR102576733B1 (ko) * 2022-11-30 2023-09-08 주식회사 모라이 관제 플랫폼 연동 vils 기반 교통 환경 재현 방법 및 시스템
KR102866712B1 (ko) * 2023-03-31 2025-10-01 국방과학연구소 가상 및 현실 공간의 동기화를 위한 전자 장치 및 그 동작 방법
KR102805400B1 (ko) * 2023-04-12 2025-05-12 국민대학교산학협력단 PG(Proving Ground) 기반 VILS(Vehicle-In-the-Loop Simulation) 테스트를 위한 시뮬레이션 장치 및 이의 시뮬레이션 방법
KR102855603B1 (ko) * 2023-09-04 2025-09-04 주식회사 모라이 Rsu를 이용한 vils 기반의 자율 주행 평가 방법 및 시스템
CN119147260B (zh) * 2024-11-15 2025-02-21 甘肃海林中科科技股份有限公司 一种轮毂轴承运行状态监测方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216240A (ja) 2008-03-25 2012-11-08 Mitsubishi Electric Corp 運転支援システム
JP2015520854A (ja) 2012-05-25 2015-07-23 アー・ファウ・エル・リスト・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 車両又は車両の構成部品を試験する方法
JP2017013516A (ja) 2015-06-26 2017-01-19 株式会社デンソー 車両用の前照灯制御装置
JP2018514042A (ja) 2015-04-24 2018-05-31 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation 自律車両シミュレーションシステム
US20200209874A1 (en) 2018-12-31 2020-07-02 Chongqing Jinkang New Energy Vehicle, Ltd. Combined virtual and real environment for autonomous vehicle planning and control testing
KR102139172B1 (ko) 2020-01-06 2020-07-29 주식회사 모라이 가상환경에서의 자율주행차량 시뮬레이션 방법
WO2020229841A1 (en) 2019-05-15 2020-11-19 Roborace Limited A metaverse data fusion system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216240A (ja) 2008-03-25 2012-11-08 Mitsubishi Electric Corp 運転支援システム
JP2015520854A (ja) 2012-05-25 2015-07-23 アー・ファウ・エル・リスト・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 車両又は車両の構成部品を試験する方法
JP2018514042A (ja) 2015-04-24 2018-05-31 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation 自律車両シミュレーションシステム
JP2017013516A (ja) 2015-06-26 2017-01-19 株式会社デンソー 車両用の前照灯制御装置
US20200209874A1 (en) 2018-12-31 2020-07-02 Chongqing Jinkang New Energy Vehicle, Ltd. Combined virtual and real environment for autonomous vehicle planning and control testing
WO2020229841A1 (en) 2019-05-15 2020-11-19 Roborace Limited A metaverse data fusion system
KR102139172B1 (ko) 2020-01-06 2020-07-29 주식회사 모라이 가상환경에서의 자율주행차량 시뮬레이션 방법

Also Published As

Publication number Publication date
JP2022129175A (ja) 2022-09-05

Similar Documents

Publication Publication Date Title
JP7565232B2 (ja) 車両評価方法及び車両評価装置
JP7052786B2 (ja) 表示制御装置および表示制御プログラム
US11738779B2 (en) Autonomous driving vehicle system
CN108688660B (zh) 运行范围确定装置
CN115427759B (zh) 地图信息校正方法、驾驶辅助方法及地图信息校正装置
US10310511B2 (en) Automatic driving control system of mobile object
JP6984624B2 (ja) 表示制御装置および表示制御プログラム
CN110471406A (zh) 自动驾驶系统
CN109426261A (zh) 自动驾驶装置
JP2008242544A (ja) 衝突回避装置および方法
JP7416114B2 (ja) 表示制御装置および表示制御プログラム
US11429107B2 (en) Play-forward planning and control system for an autonomous vehicle
JP6705270B2 (ja) 移動体の自動運転制御システム
JP7583649B2 (ja) 地図生成装置および車両位置認識装置
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP7758625B2 (ja) 地図生成装置
US20240418531A1 (en) Map generation apparatus
JP7172730B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
WO2021117464A1 (ja) 運転支援装置、および、運転支援システム
US12032066B2 (en) Recognition device and method
JP2020138609A (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2021028587A (ja) 車載表示制御装置
JP2021030980A (ja) 走行支援方法及び走行支援装置
JP6705271B2 (ja) 移動体の自動運転制御システム
JP2019196941A (ja) 自車位置推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240930

R150 Certificate of patent or registration of utility model

Ref document number: 7565232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150