JP7320756B2 - 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム - Google Patents
車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP7320756B2 JP7320756B2 JP2020058790A JP2020058790A JP7320756B2 JP 7320756 B2 JP7320756 B2 JP 7320756B2 JP 2020058790 A JP2020058790 A JP 2020058790A JP 2020058790 A JP2020058790 A JP 2020058790A JP 7320756 B2 JP7320756 B2 JP 7320756B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- detection
- error
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims description 331
- 238000000034 method Methods 0.000 title claims description 25
- 238000004590 computer program Methods 0.000 title claims description 22
- 238000001514 detection method Methods 0.000 claims description 368
- 238000009795 derivation Methods 0.000 claims description 55
- 230000007704 transition Effects 0.000 claims description 44
- 230000015556 catabolic process Effects 0.000 description 34
- 238000010191 image analysis Methods 0.000 description 32
- 238000013139 quantization Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 27
- 238000013500 data storage Methods 0.000 description 25
- 238000012986 modification Methods 0.000 description 21
- 230000004048 modification Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 20
- 230000006399 behavior Effects 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 12
- 230000006872 improvement Effects 0.000 description 10
- 239000000470 constituent Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000000611 regression analysis Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011895 specific detection Methods 0.000 description 2
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
図1は、従来の車両シミュレーションシステム100の機能ブロックを示すブロック図である。本開示のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU・メモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
まず、図3を参照しつつ、センサモデル生成装置20に関する動作を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載カメラで車外の歩行者を撮像し、複数サンプルの撮像画像をセンサデータ記憶部22に記憶させる。それとともに開発者は、LIDAR装置で上記歩行者までの距離を計測させ、複数サンプルの距離の真値を示す計測結果を参照データ記憶部24に記憶させる。さらにまた、開発者は、天気等の定性的な内容を示す複数サンプルのタグデータをタグデータ記憶部26に記憶させる。
[項目1]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する第1検知部と、
前記推定部より高い精度で、前記車両周辺の状態を検知する第2検知部と、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知結果に関して推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態と、前記第1検知部により検知された状態との差を目的変数とするモデルを生成する生成部と、
を備えるモデル生成装置。
このモデル生成装置によると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、モデルの生成において車両周辺の実際の状態を用いることで、現実に即した結果を出力するモデルを生成できる。
[項目2]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する検知部について、前記検知部による検知結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記検知部により検知された状態との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知結果を推定する推定部と、
前記推定部による推定結果をもとに前記車両の自動走行をシミュレーションするシミュレーション部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、車両周辺の実際の状態を用いて生成したモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
[項目3]
前記モデルは、前記車両周辺の状態の真値である説明変数の複数段階の値に対応する複数個のダミー変数を含み、
前記推定部は、前記複数個のダミー変数に係る各々の係数から、曲線フィッティングにより前記車両周辺の状態の真値である説明変数の連続値に対する係数の連続量を求め、前記係数の連続量の中から前記説明変数の連続値に対応する係数を前記モデルに適用する、
項目2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、曲線フィッティングにより、説明変数に対する適切な重み付けを実現できる。
[項目4]
乱数に関するデータの指定をユーザから受け付ける受付部をさらに備え、
前記推定部は、前記乱数に関するデータをもとに、前記モデルを用いた推定値にホワイトノイズを足す、
項目2または3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができるとともに、乱数に関するデータの指定を可能にすることで、シミュレーションの再現性も持たせることができる。
[項目5]
第1検知部が、車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知結果に関して推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態と、前記第1検知部により検知された状態との差を目的変数とするモデルを生成する、
モデル生成方法。
このモデル生成方法によると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、モデルの生成において車両周辺の実際の状態を用いることで、現実に即した結果を出力するモデルを生成できる。
[項目6]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する検知部について、前記検知部による検知結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記検知部により検知された状態との差を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知結果を推定し、
前記推定部による推定結果をもとに前記車両の自動走行をシミュレーションする、
車両シミュレーション方法。
この車両シミュレーション方法によると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。車両周辺の実際の状態を用いて生成したモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
[項目7]
第1検知部が、車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知結果に関して推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態と、前記第1検知部により検知された状態との差を目的変数とするモデルを生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、モデルの生成において車両周辺の実際の状態を用いることで、現実に即した結果を出力するモデルを生成できる。
[項目8]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する検知部について、前記検知部による検知結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記検知部により検知された状態との差を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知結果を推定し、
前記推定部による推定結果をもとに前記車両の自動走行をシミュレーションする、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。車両周辺の実際の状態を用いて生成したモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
第2実施例の概要を説明する。従来の車両シミュレーションシステムでは、シミュレーション結果において、CGの認識結果のみ、または、シミュレーションにおける車両周辺の状態の真値(理想値とも言え、例えば、自車両近傍の他車両の真の位置)のみを描いていた。そのため、シミュレーション結果が、センシングアルゴリズムや制御アルゴリズムの評価、課題抽出、改善等に対して十分に貢献しないことがあった。
[項目2-1]
車両の周辺の状態を検知する検知部について、シミュレーションのパラメータとして前記車両の周辺の状態の真値が与えられた場合に前記検知部による前記車両の周辺の状態の検知結果を推定する推定部と、
前記シミュレーションの結果を示す画像として、前記車両の周辺の状態の真値と、前記検知部による検知結果の推定値の両方を含み、前記真値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目2-2]
前記シミュレーションの結果を示す画像は、前記真値と前記推定値との差を示す画像をさらに含む、
項目2-1に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との差を直観的に把握可能なシミュレーション結果を提供できる。
[項目2-3]
前記シミュレーションの結果を示す画像は、所定の操作に応じて、前記真値と前記推定値との差の内訳をさらに表示するよう構成される、
項目2-1または2-2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との差の詳細を把握可能なシミュレーション結果を提供できる。
[項目2-4]
前記推定部は、前記車両の周辺の状態に関する複数項目の真値を説明変数とし、前記検知部による前記車両の周辺の状態の検知結果と真値との差を目的変数とするセンサモデルに、シミュレーションのパラメータとして前記車両の周辺の状態に関する複数項目の真値を入力することにより前記検知部による検知結果を推定し、
前記真値と前記推定値との差の内訳は、複数項目の説明変数の重みを示すものである、
項目2-3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との差を生じさせた主な要因を把握可能なシミュレーション結果を提供できる。
[項目2-5]
前記生成部は、前記シミュレーションの結果を示す画像として、前記検知部による検知範囲を示す画像をさらに生成し、前記検知範囲の各位置の色を、前記検知部による検知率に応じた色に設定する、
項目1から4のいずれかに記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、検知部による検知範囲と検知率を直観的に把握可能なシミュレーション結果を提供できる。
[項目2-6]
車両の周辺の状態を検知する検知部について、シミュレーションのパラメータとして前記車両の周辺の状態の真値が与えられた場合に前記検知部による前記車両の周辺の状態の検知結果を推定し、
前記シミュレーションの結果を示す画像として、前記車両の周辺の状態の真値と、前記検知部による検知結果の推定値の両方を含み、前記真値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
この車両シミュレーション方法によると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目2-7]
車両の周辺の状態を検知する検知部について、シミュレーションのパラメータとして前記車両の周辺の状態の真値が与えられた場合に前記検知部による前記車両の周辺の状態の検知結果を推定し、
前記シミュレーションの結果を示す画像として、前記車両の周辺の状態の真値と、前記検知部による検知結果の推定値の両方を含み、前記真値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
本実施例に関して、第1実施例、第2実施例と相違する点を中心に以下説明し、共通する点の説明を省略する。本実施例の構成要素のうち第1実施例、第2実施例の構成要素と同一または対応する構成要素には同一の符号を付して説明する。なお、第3実施例では、シミュレーションの単位を「フレーム」とも呼ぶ。複数フレームは、一連のシミュレーションのシナリオに沿った同じ時間軸上での複数回のシミュレーションを意味する。
ユーザは、複数フレーム分の車両シミュレーションのシナリオをユーザ端末に入力する。環境データ生成部14は、ユーザ端末に入力されたシミュレーションのシナリオを、ユーザインタフェース12を介して取得する。環境データ生成部14は、シミュレーションのシナリオにしたがって、複数の検知対象物の、複数フレーム分の真値データとタグデータ(以下「シミュレーションパラメータ」とも呼ぶ。)を生成する。環境データ生成部14は、複数の検知対象物の、複数フレーム分のシミュレーションパラメータをシミュレーション制御部10へ出力する。
[項目3-1]
車両周辺の状態を検知する検知部について、前記車両周辺の状態の真値を説明変数とし、前記検知部による前記車両周辺の状態の検知結果と前記真値との誤差を目的変数とするモデルであって、異なる種類の誤差を目的変数とする複数のモデルを記憶する記憶部と、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記複数のモデルに入力することにより、前記複数のモデルの目的変数である複数種類の誤差を導出する導出部と、
前記複数種類の誤差を統合した全体誤差の時系列での推移を示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、検知部の性能や特性を把握容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目3-2]
前記生成部は、前記画像として、前記全体誤差に占める前記複数種類の誤差それぞれの成分を異なる態様で示す画像を生成する、
項目3-1に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、全体誤差に占める複数種類の誤差それぞれの成分を判りやすく提示でき、検知部の性能や特性を一層判りやすく提示することができる。
[項目3-3]
前記生成部は、或る時間位置において前記複数種類の誤差のうち少なくとも一部の誤差が所定値以上である場合、前記画像として、前記時間位置において前記車両周辺の状態が検知漏れであることを示す画像を生成する、
項目3-1または3-2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、シミュレーション期間における検知漏れの区間を提示でき、検知部の性能や特性を一層判りやすく提示することができる。
[項目3-4]
前記生成部は、前記画像において或る時間位置が指定された場合、その時間位置における前記車両周辺の状態の真値と、前記検知部による前記車両周辺の状態の検知結果の推定値とを異なる態様で示す新たな画像を生成する、
項目3-1から3-3のいずれかに記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果をさらに提供でき、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目3-5]
前記シミュレーションのパラメータは、検知すべき複数の物体に関する真値を含み、
前記生成部は、前記複数の物体の中からユーザが特定の物体を選択した場合、選択された物体に対する全体誤差の時系列での推移を示す画像を生成する、
項目3-1から3-4のいずれかに記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、検知すべき物体ごとの全体誤差の推移を提示でき、検知部の性能や特性を判りやすく提示することができる。
[項目3-6]
前記生成部は、前記画像として、前記全体誤差の時系列での推移と、前記車両周辺の状態の真値の時系列での推移とを同じ時間軸に並べた画像を生成する、
項目3-1から3-5のいずれかに記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、全体誤差の推移と真値の推移とを比較容易なシミュレーション結果を提供でき、検知部の性能や特性を一層判りやすく提示することができる。
[項目3-7]
車両周辺の状態を検知する検知部について、前記車両周辺の状態の真値を説明変数とし、前記検知部による前記車両周辺の状態の検知結果と前記真値との誤差を目的変数とするモデルであって、異なる種類の誤差を目的変数とする複数のモデルを記憶する記憶部にアクセス可能なコンピュータが、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記複数のモデルに入力することにより、前記複数のモデルの目的変数である複数種類の誤差を導出し、 前記複数種類の誤差を統合した全体誤差の時系列での推移を示す画像を生成する、
ことを実行する車両シミュレーション方法。
この車両シミュレーション方法によると、検知部の性能や特性を把握容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目3-8]
車両周辺の状態を検知する検知部について、前記車両周辺の状態の真値を説明変数とし、前記検知部による前記車両周辺の状態の検知結果と前記真値との誤差を目的変数とするモデルであって、異なる種類の誤差を目的変数とする複数のモデルを記憶する記憶部にアクセス可能なコンピュータに、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記複数のモデルに入力することにより、前記複数のモデルの目的変数である複数種類の誤差を導出し、
前記複数種類の誤差を統合した全体誤差の時系列での推移を示す画像を生成する、
ことを実行させるコンピュータプログラム。
このコンピュータプログラムによると、検知部の性能や特性を把握容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
Claims (8)
- 車両周辺の状態を検知する検知部について、前記車両周辺の状態の真値を説明変数とし、前記検知部による前記車両周辺の状態の検知結果と前記真値との誤差を目的変数とするモデルであって、異なる種類の誤差を目的変数とする複数のモデルを記憶する記憶部と、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記複数のモデルに入力することにより、前記複数のモデルの目的変数である複数種類の誤差を導出する導出部と、
前記複数種類の誤差を統合した全体誤差の時系列での推移を示す画像を生成する生成部と、
を備える車両シミュレーションシステム。 - 前記生成部は、前記画像として、前記全体誤差に占める前記複数種類の誤差それぞれの成分を異なる態様で示す画像を生成する、
請求項1に記載の車両シミュレーションシステム。 - 前記生成部は、或る時間位置において前記複数種類の誤差のうち少なくとも一部の誤差が所定値以上である場合、前記画像として、前記時間位置において前記車両周辺の状態が検知漏れであることを示す画像を生成する、
請求項1または2に記載の車両シミュレーションシステム。 - 前記生成部は、前記画像において或る時間位置が指定された場合、その時間位置における前記車両周辺の状態の真値と、前記検知部による前記車両周辺の状態の検知結果の推定値とを異なる態様で示す新たな画像を生成する、
請求項1から3のいずれかに記載の車両シミュレーションシステム。 - 前記シミュレーションのパラメータは、検知すべき複数の物体に関する真値を含み、
前記生成部は、前記複数の物体の中からユーザが特定の物体を選択した場合、選択された物体に対する全体誤差の時系列での推移を示す画像を生成する、
請求項1から4のいずれかに記載の車両シミュレーションシステム。 - 前記生成部は、前記画像として、前記全体誤差の時系列での推移と、前記車両周辺の状態の真値の時系列での推移とを同じ時間軸に並べた画像を生成する、
請求項1から5のいずれかに記載の車両シミュレーションシステム。 - 車両周辺の状態を検知する検知部について、前記車両周辺の状態の真値を説明変数とし、前記検知部による前記車両周辺の状態の検知結果と前記真値との誤差を目的変数とするモデルであって、異なる種類の誤差を目的変数とする複数のモデルを記憶する記憶部にアクセス可能なコンピュータが、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記複数のモデルに入力することにより、前記複数のモデルの目的変数である複数種類の誤差を導出し、
前記複数種類の誤差を統合した全体誤差の時系列での推移を示す画像を生成する、
ことを実行する車両シミュレーション方法。 - 車両周辺の状態を検知する検知部について、前記車両周辺の状態の真値を説明変数とし、前記検知部による前記車両周辺の状態の検知結果と前記真値との誤差を目的変数とするモデルであって、異なる種類の誤差を目的変数とする複数のモデルを記憶する記憶部にアクセス可能なコンピュータに、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記複数のモデルに入力することにより、前記複数のモデルの目的変数である複数種類の誤差を導出し、
前記複数種類の誤差を統合した全体誤差の時系列での推移を示す画像を生成する、
ことを実行させるコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058790A JP7320756B2 (ja) | 2020-03-27 | 2020-03-27 | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058790A JP7320756B2 (ja) | 2020-03-27 | 2020-03-27 | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021154935A JP2021154935A (ja) | 2021-10-07 |
JP7320756B2 true JP7320756B2 (ja) | 2023-08-04 |
Family
ID=77916878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020058790A Active JP7320756B2 (ja) | 2020-03-27 | 2020-03-27 | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7320756B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024069690A1 (ja) * | 2022-09-26 | 2024-04-04 | 日産自動車株式会社 | 運転支援方法及び運転支援装置 |
WO2024069689A1 (ja) * | 2022-09-26 | 2024-04-04 | 日産自動車株式会社 | 運転支援方法及び運転支援装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006021641A (ja) | 2004-07-08 | 2006-01-26 | Nissan Motor Co Ltd | 車両周辺表示装置とその表示方法 |
JP2007001333A (ja) | 2005-06-21 | 2007-01-11 | Alpine Electronics Inc | 車両周辺情報提供装置 |
JP2011203088A (ja) | 2010-03-25 | 2011-10-13 | Yamato Scale Co Ltd | 計量装置 |
JP2014182112A (ja) | 2013-03-21 | 2014-09-29 | Toyota Motor Corp | NOx濃度測定装置 |
JP2016157206A (ja) | 2015-02-23 | 2016-09-01 | 株式会社日立製作所 | 予兆診断システム、予兆診断方法および予兆診断装置 |
JP2017215196A (ja) | 2016-05-31 | 2017-12-07 | パナソニックIpマネジメント株式会社 | レーダ装置 |
JP6609391B1 (ja) | 2019-03-20 | 2019-11-20 | 株式会社 日立産業制御ソリューションズ | 予測モデル作成装置、予測モデル作成方法及び予測モデル作成プログラム |
JP2020109602A (ja) | 2018-12-28 | 2020-07-16 | パナソニックIpマネジメント株式会社 | モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム |
JP2021056707A (ja) | 2019-09-30 | 2021-04-08 | パナソニックIpマネジメント株式会社 | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム |
JP2021108031A (ja) | 2019-12-27 | 2021-07-29 | パナソニックIpマネジメント株式会社 | モデル生成装置、車両シミュレーションシステム、モデル生成方法、車両シミュレーション方法およびコンピュータプログラム |
-
2020
- 2020-03-27 JP JP2020058790A patent/JP7320756B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006021641A (ja) | 2004-07-08 | 2006-01-26 | Nissan Motor Co Ltd | 車両周辺表示装置とその表示方法 |
JP2007001333A (ja) | 2005-06-21 | 2007-01-11 | Alpine Electronics Inc | 車両周辺情報提供装置 |
JP2011203088A (ja) | 2010-03-25 | 2011-10-13 | Yamato Scale Co Ltd | 計量装置 |
JP2014182112A (ja) | 2013-03-21 | 2014-09-29 | Toyota Motor Corp | NOx濃度測定装置 |
JP2016157206A (ja) | 2015-02-23 | 2016-09-01 | 株式会社日立製作所 | 予兆診断システム、予兆診断方法および予兆診断装置 |
JP2017215196A (ja) | 2016-05-31 | 2017-12-07 | パナソニックIpマネジメント株式会社 | レーダ装置 |
JP2020109602A (ja) | 2018-12-28 | 2020-07-16 | パナソニックIpマネジメント株式会社 | モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム |
JP6609391B1 (ja) | 2019-03-20 | 2019-11-20 | 株式会社 日立産業制御ソリューションズ | 予測モデル作成装置、予測モデル作成方法及び予測モデル作成プログラム |
JP2021056707A (ja) | 2019-09-30 | 2021-04-08 | パナソニックIpマネジメント株式会社 | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム |
JP2021108031A (ja) | 2019-12-27 | 2021-07-29 | パナソニックIpマネジメント株式会社 | モデル生成装置、車両シミュレーションシステム、モデル生成方法、車両シミュレーション方法およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021154935A (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Stellet et al. | Testing of advanced driver assistance towards automated driving: A survey and taxonomy on existing approaches and open questions | |
CN106767852B (zh) | 一种生成探测目标信息的方法、装置和设备 | |
Rashid et al. | Window-warping: a time series data augmentation of imu data for construction equipment activity identification | |
US10832478B2 (en) | Method and system for virtual sensor data generation with depth ground truth annotation | |
WO2018161037A1 (en) | Systems and methods for quantitatively assessing collision risk and severity | |
GB2544634A (en) | Testbed for lane boundary detection in virtual driving environment | |
US20170372466A1 (en) | Information processing apparatus and method of selecting viewpoint for measuring object, and measuring system | |
JP7320756B2 (ja) | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム | |
CN108216249A (zh) | 用于车辆的周围环境检测的系统和方法 | |
CN112149503A (zh) | 目标事件检测方法、装置和电子设备和可读介质 | |
JP2020109602A (ja) | モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム | |
CN111274862A (zh) | 用于产生车辆的周围环境的标签对象的设备和方法 | |
CN110909656B (zh) | 一种雷达与摄像机融合的行人检测方法和系统 | |
CN110111018B (zh) | 评估车辆感测能力的方法、装置、电子设备及存储介质 | |
CN112651535A (zh) | 局部路径规划方法、装置、存储介质、电子设备及车辆 | |
JP7365633B2 (ja) | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム | |
CN114595738A (zh) | 为识别模型生成训练数据的方法和生成识别模型的方法 | |
JP7349626B2 (ja) | モデル生成装置、車両シミュレーションシステム、モデル生成方法、車両シミュレーション方法およびコンピュータプログラム | |
CN117076928A (zh) | 一种桥梁健康状态监测方法、装置、系统及电子设备 | |
CN113822892B (zh) | 仿真雷达的评测方法、装置、设备及计算机存储介质 | |
Daudt et al. | Learning to understand earth observation images with weak and unreliable ground truth | |
JP7320755B2 (ja) | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム | |
CN114972530A (zh) | 一种基于虚拟场景对摄像机的标定方法、装置、设备及存储介质 | |
Jiang et al. | Research on Performance Limitations of Visual-based Perception System for Autonomous Vehicle under Severe Weather Conditions | |
Skruch et al. | An approach for evaluating the completeness of the test scenarios for the vehicle environmental perception-based systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220915 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230713 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7320756 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |