JP7320755B2 - Vehicle simulation system, vehicle simulation method and computer program - Google Patents

Vehicle simulation system, vehicle simulation method and computer program Download PDF

Info

Publication number
JP7320755B2
JP7320755B2 JP2020007220A JP2020007220A JP7320755B2 JP 7320755 B2 JP7320755 B2 JP 7320755B2 JP 2020007220 A JP2020007220 A JP 2020007220A JP 2020007220 A JP2020007220 A JP 2020007220A JP 7320755 B2 JP7320755 B2 JP 7320755B2
Authority
JP
Japan
Prior art keywords
vehicle
behavior
unit
value
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020007220A
Other languages
Japanese (ja)
Other versions
JP2021113768A (en
Inventor
博 荒川
芸芸 曹
洋文 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020007220A priority Critical patent/JP7320755B2/en
Publication of JP2021113768A publication Critical patent/JP2021113768A/en
Application granted granted Critical
Publication of JP7320755B2 publication Critical patent/JP7320755B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本開示はデータ処理技術に関し、特に車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラムに関する。 TECHNICAL FIELD The present disclosure relates to data processing technology, and more particularly to a vehicle simulation system, vehicle simulation method and computer program.

車載機器の開発フェーズや評価フェーズでは、開発や評価に要するコストを削減するため、現実の車両を用いる代わりに、現実の車両の挙動を模擬する車両シミュレーションシステムが用いられることがある。 In the development and evaluation phases of in-vehicle equipment, a vehicle simulation system that simulates the behavior of an actual vehicle is sometimes used instead of using an actual vehicle in order to reduce the costs required for development and evaluation.

特表2018-514042号公報Japanese translation of PCT publication No. 2018-514042

これまでの車両シミュレーションシステムでは、シミュレーション結果において、車両モデルが生成した車両位置(理想位置とも言える)のみを描いていた。そのため、シミュレーション結果が、現実のシステムの評価に十分に貢献しないことがあった。 In previous vehicle simulation systems, only the vehicle position (which can be said to be the ideal position) generated by the vehicle model was depicted in the simulation results. Therefore, the simulation results may not contribute sufficiently to the evaluation of the actual system.

本開示はこうした状況に鑑みてなされたものであり、1つの目的は、車両シミュレーションシステムにおけるシミュレーション結果の有用性を高めることにある。 The present disclosure has been made in view of such circumstances, and one object thereof is to enhance the usefulness of simulation results in a vehicle simulation system.

上記課題を解決するために、本開示のある態様の車両シミュレーションシステムは、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値をモデルに入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出する導出部と、シミュレーションにおける車両の挙動を示す画像として、理想値と推定値とを異なる態様で示す画像を生成する生成部と、を備える。 In order to solve the above-described problems, a vehicle simulation system according to one aspect of the present disclosure uses, as an explanatory variable, information indicating vehicle behavior that is input to a vehicle when the vehicle is actually traveling, and the behavior of the vehicle indicated by the information; A storage unit that stores a model whose objective variable is the difference between the vehicle's actual behavior and ideal values for the vehicle's behavior derived from the simulation scenario. A deriving unit for deriving an estimated value regarding the actual behavior of the vehicle in a situation, and a generating unit for generating an image showing the ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation.

本開示の別の態様もまた、車両シミュレーションシステムである。この車両シミュレーションシステムは、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、理想値が示す挙動を車両に実行させるために車両内のネットワークを介して伝送される値である準理想値を導出する第1導出部と、車両の挙動に関する理想値をモデルに入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出する第2導出部と、シミュレーションにおける車両の挙動を示す画像として、準理想値と推定値とを異なる態様で示す画像を生成する生成部と、を備える。 Another aspect of this disclosure is also a vehicle simulation system. This vehicle simulation system uses information that indicates the behavior of the vehicle input to the vehicle when the vehicle is actually running as an explanatory variable, and uses the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle as the objective variable. A storage unit that stores a model and values corresponding to ideal values regarding vehicle behavior derived based on a simulation scenario. A first derivation unit that derives a quasi-ideal value, which is a value to be transmitted through the model, and an estimated value regarding the actual behavior of the vehicle in the situation indicated by the simulation scenario is derived by inputting the ideal values regarding the behavior of the vehicle into the model. and a generator that generates an image showing the quasi-ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation.

本開示のさらに別の態様は、車両シミュレーション方法である。この方法は、記憶部に記憶されたモデルであって、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値を入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出し、シミュレーションにおける車両の挙動を示す画像として、理想値と推定値とを異なる態様で示す画像を生成する、ことをコンピュータが実行する。 Yet another aspect of the present disclosure is a vehicle simulation method. This method uses a model stored in a storage unit, which is input to the vehicle when the vehicle is actually running, as an explanatory variable to indicate the behavior of the vehicle. By inputting the ideal values of vehicle behavior derived based on the simulation scenario into a model whose objective variable is the difference from the behavior of the vehicle, the estimated values of the actual behavior of the vehicle under the conditions indicated by the simulation scenario can be obtained. A computer performs the derivation and generates images showing the ideal and estimated values in different ways as images showing the behavior of the vehicle in the simulation.

本開示のさらに別の態様もまた、車両シミュレーション方法である。この方法は、シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、理想値が示す挙動を車両に実行させるために車両内のネットワークを介して伝送される値である準理想値を導出し、記憶部に記憶されたモデルであって、実際の車両走行時に車両に入力された車両の挙動を指示する情報を説明変数とし、情報が指示する車両の挙動と、車両の実際の挙動との差を目的変数とするモデルに、車両の挙動に関する理想値を入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出し、シミュレーションにおける車両の挙動を示す画像として、準理想値と推定値とを異なる態様で示す画像を生成する、ことをコンピュータが実行する。 Yet another aspect of the present disclosure is also a vehicle simulation method. In this method, values corresponding to ideal values regarding vehicle behavior derived based on a simulation scenario are transmitted via an in-vehicle network to cause the vehicle to execute the behavior indicated by the ideal values. A quasi-ideal value that is a value is derived, and is a model stored in a storage unit, and is an explanatory variable that indicates the behavior of the vehicle that is input to the vehicle when the vehicle is actually traveling. By inputting the ideal values of vehicle behavior into a model whose objective variable is the difference between the actual behavior of the vehicle and the actual behavior of the vehicle, an estimated value of the actual behavior of the vehicle in the situation indicated by the simulation scenario is derived, and the simulation The computer generates an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in .

なお、以上の構成要素の任意の組合せ、本開示の表現を、装置、コンピュータプログラム、コンピュータプログラムを記録した記録媒体、車両支援システムを搭載した車両などの間で変換したものもまた、本開示の態様として有効である。 Any combination of the above components and expressions of the present disclosure converted between devices, computer programs, recording media recording computer programs, vehicles equipped with vehicle support systems, etc. are also included in the present disclosure. It is effective as an aspect.

本開示によれば、車両シミュレーションシステムにおけるシミュレーション結果の有用性を高めることができる。 According to the present disclosure, it is possible to enhance the usefulness of simulation results in a vehicle simulation system.

従来の車両シミュレーションシステムの機能ブロックを示すブロック図である。1 is a block diagram showing functional blocks of a conventional vehicle simulation system; FIG. 第1実施例におけるセンサモデル構築のためのサンプルデータの例を示す図である。FIG. 4 is a diagram showing an example of sample data for constructing a sensor model in the first embodiment; FIG. 第1実施例のセンサモデル生成装置の機能ブロックを示すブロック図である。2 is a block diagram showing functional blocks of the sensor model generation device of the first embodiment; FIG. 第1実施例の車両シミュレーションシステムの機能ブロックを示すブロック図である。1 is a block diagram showing functional blocks of a vehicle simulation system of a first embodiment; FIG. 第1実施例のセンサモデル部の詳細を示すブロック図である。4 is a block diagram showing details of a sensor model unit of the first embodiment; FIG. 曲線フィッティングの例を示す図である。FIG. 5 is a diagram showing an example of curve fitting; 変形例における車両周辺の状態を示す図である。It is a figure which shows the state of the vehicle periphery in a modification. 第2実施例におけるセンサモデル構築のためのサンプルデータの例を示す図である。FIG. 10 is a diagram showing an example of sample data for constructing a sensor model in the second embodiment; 第2実施例のセンサモデル生成装置の機能ブロックを示すブロック図である。FIG. 11 is a block diagram showing functional blocks of a sensor model generation device of a second embodiment; 第2実施例のセンサモデル部の詳細を示すブロック図である。FIG. 11 is a block diagram showing details of a sensor model unit of the second embodiment; 第3実施例のセンサモデル生成装置の機能ブロックを示すブロック図である。FIG. 11 is a block diagram showing functional blocks of a sensor model generation device of a third embodiment; 第3実施例のセンサモデル部の詳細を示すブロック図である。FIG. 11 is a block diagram showing details of a sensor model unit of the third embodiment; 第4実施例のセンサモデル生成装置の機能ブロックを示すブロック図である。FIG. 11 is a block diagram showing functional blocks of a sensor model generation device of a fourth embodiment; 第4実施例の車両シミュレーションシステムの機能ブロックを示すブロック図である。FIG. 11 is a block diagram showing functional blocks of a vehicle simulation system of a fourth embodiment; FIG. 第4実施例のシミュレーション制御部の機能ブロックを示すブロック図である。FIG. 11 is a block diagram showing functional blocks of a simulation control unit of a fourth embodiment; 第4実施例のセンサモデル部の詳細を示すブロック図である。FIG. 13 is a block diagram showing details of a sensor model unit of the fourth embodiment; シミュレーション結果画像の例を示す図である。FIG. 10 is a diagram showing an example of a simulation result image; シミュレーション結果画像の例を示す図である。FIG. 10 is a diagram showing an example of a simulation result image; シミュレーション結果画像の例を示す図である。FIG. 10 is a diagram showing an example of a simulation result image; シミュレーション結果画像の例を示す図である。FIG. 10 is a diagram showing an example of a simulation result image;

概要を説明する。第1実施例~第3実施例では、車両シミュレーションを支援する技術として、センサモデル生成装置と、センサモデル生成装置により生成されたモデルを利用する車両シミュレーションシステムを提案する。 Give an overview. In the first to third embodiments, a sensor model generating device and a vehicle simulation system using a model generated by the sensor model generating device are proposed as techniques for supporting vehicle simulation.

第1実施例~第3実施例のセンサモデル生成装置は、第1導出部と、第2導出部と、生成部とを備える。第1導出部は、車両に搭載されたセンサの出力結果をもとに、車両の自動走行に関する属性の状態を導出する。第2導出部は、第1導出部より高い精度で、車両に関する属性の状態を導出する。生成部は、車両のシミュレーションのためのモデルであって、第1導出部または第2導出部により導出された状態を説明変数とし、第2導出部により導出された状態と、第1導出部により導出された状態との差を目的変数とするモデルを生成する。 The sensor model generation devices of the first to third embodiments include a first derivation section, a second derivation section, and a generation section. The first derivation unit derives an attribute state related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle. The second derivation unit derives the state of attributes related to the vehicle with higher accuracy than the first derivation unit. The generation unit is a model for simulating a vehicle, and the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the state derived by the first derivation unit Generate a model with the difference from the derived state as the objective variable.

また、第1実施例~第3実施例の車両シミュレーションシステムは、記憶部と、推定部と、シミュレーション部とを備える。記憶部は、車両に搭載されたセンサの出力結果をもとに、車両の自動走行に関する属性の状態を導出する導出部について、導出部により導出される上記属性の状態、または、上記属性の状態の真値に関して推定するためのモデルであって、導出部により導出された上記属性の状態、または、上記属性の状態の真値を説明変数とし、上記属性の状態の真値と、導出部により導出された上記属性の状態との差を目的変数とするモデルを記憶する。推定部は、シミュレーションのパラメータとして、導出部により導出される上記属性の状態と上記属性の状態の真値の一方をモデルに入力することにより、導出部により導出される上記属性の状態と上記属性の状態の真値の他方を推定する。シミュレーション部は、推定部による推定結果をもとに車両に関するシミュレーションを実行する。 Further, the vehicle simulation system of the first to third embodiments includes a storage section, an estimation section, and a simulation section. The storage unit stores the state of the attribute derived by the derivation unit, or the state of the attribute, with respect to the derivation unit that derives the state of the attribute related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle. A model for estimating the true value of the attribute state derived by the derivation unit or the true value of the attribute state as an explanatory variable, and the true value of the attribute state and the true value of the attribute state by the derivation unit A model is stored in which the objective variable is the difference from the derived state of the attribute. The estimating unit inputs one of the state of the attribute derived by the deriving unit and the true value of the state of the attribute into the model as a parameter of the simulation, thereby obtaining the state of the attribute derived by the deriving unit and the attribute Estimate the other of the true values of the states of The simulation section executes a vehicle-related simulation based on the estimation result of the estimation section.

<第1実施例>
図1は、従来の車両シミュレーションシステム100の機能ブロックを示すブロック図である。本開示のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU・メモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
<First embodiment>
FIG. 1 is a block diagram showing functional blocks of a conventional vehicle simulation system 100. As shown in FIG. Each block shown in the block diagram of the present disclosure can be realized by hardware such as a CPU and memory of a computer or a mechanical device, and is realized by a computer program or the like in terms of software. , and the functional blocks realized by their cooperation are drawn. It should be understood by those skilled in the art that these functional blocks can be implemented in various ways by combining hardware and software.

車両シミュレーションシステム100は、シミュレーション制御部10、ユーザインタフェース12、環境データ生成部14、画像解析部16、車両モデル部18を備える。シミュレーション制御部10は、車両の挙動のシミュレーションを制御する。また、シミュレーション制御部10は、ユーザインタフェース12、環境データ生成部14、画像解析部16、車両モデル部18とデータを送受信する。 The vehicle simulation system 100 includes a simulation control section 10 , a user interface 12 , an environment data generation section 14 , an image analysis section 16 and a vehicle model section 18 . The simulation control unit 10 controls simulation of vehicle behavior. The simulation control unit 10 also transmits and receives data to and from the user interface 12 , environment data generation unit 14 , image analysis unit 16 and vehicle model unit 18 .

ユーザインタフェース12は、ユーザ(またはユーザの端末)とのインタフェースを提供する。環境データ生成部14は、ユーザにより指定されたパラメータ(例えば歩行者までの距離や方位等)に応じて、後述の画像解析部16に解析させるための画像データ(CG)を生成する。例えば、環境データ生成部14は、自車の6メートル先に歩行者がいることを示すCGを生成する。 The user interface 12 provides an interface with the user (or the user's terminal). The environmental data generation unit 14 generates image data (CG) for analysis by the image analysis unit 16, which will be described later, according to parameters specified by the user (for example, the distance and direction to the pedestrian). For example, the environment data generator 14 generates CG indicating that there is a pedestrian 6 meters ahead of the vehicle.

画像解析部16は、画像データを解析することにより、車両の自動走行を制御するための車両周辺の状態(障害物の位置等)を検知する。例えば、画像解析部16は、自車の進行方向6メートル先に歩行者がいることを示すCGを解析して、自車と歩行者との距離が6.2メートルであることを検知する。この場合、0.2メートルの誤差が生じている。なお、画像解析部16による解析対象は、実際の車両では車載カメラによる撮像画像となるが、車両シミュレーションシステム100では環境データ生成部14により生成されたCGとなる。 The image analysis unit 16 analyzes the image data to detect the state of the vehicle surroundings (positions of obstacles, etc.) for controlling automatic driving of the vehicle. For example, the image analysis unit 16 analyzes a CG indicating that there is a pedestrian 6 meters ahead of the vehicle and detects that the distance between the vehicle and the pedestrian is 6.2 meters. In this case, there is an error of 0.2 meters. In the actual vehicle, the object of analysis by the image analysis unit 16 is the image captured by the vehicle-mounted camera, but in the vehicle simulation system 100, it is the CG generated by the environment data generation unit 14 .

車両モデル部18は、画像解析部16による解析結果をもとに、車両の挙動を決定し、すなわち、車両の自動走行をシミュレーションする。例えば、画像解析部16により自車の進行方向の6.2メートル先に歩行者がいることが検知された場合、車両モデル部18は、ブレーキを作動させること、その結果、歩行者の1メートル手前で停車することを出力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を、所定の表示装置に表示させ、または、所定の記憶装置に格納する。 The vehicle model unit 18 determines the behavior of the vehicle based on the analysis result of the image analysis unit 16, that is, simulates automatic driving of the vehicle. For example, if the image analysis unit 16 detects that there is a pedestrian 6.2 meters ahead of the vehicle in the direction in which the vehicle is traveling, the vehicle model unit 18 activates the brakes. You may output that the vehicle will stop in front of you. The simulation control unit 10 causes the simulation result by the vehicle model unit 18 to be displayed on a predetermined display device or stored in a predetermined storage device.

このように従来の車両シミュレーションシステム100では、車両周辺の状態を示す画像を作成し、その画像から車両周辺の状態を検知し、自動運転の内容をシミュレーションしていた。シミュレーションの網羅性を高めるためには、車両周辺の明るさ(天気等)や路面状況、障害物までの距離、車両速度等、様々なケースに対応する多くの画像を作成する必要があるが、多くの画像を作成するためには多くの時間や費用を要する。 As described above, the conventional vehicle simulation system 100 creates an image showing the state of the surroundings of the vehicle, detects the state of the surroundings of the vehicle from the image, and simulates the details of automatic driving. In order to increase the comprehensiveness of the simulation, it is necessary to create many images corresponding to various cases such as brightness (weather, etc.) around the vehicle, road surface conditions, distance to obstacles, vehicle speed, etc. It takes a lot of time and money to create many images.

また、車両周辺の状態を示す画像は、理論モデル(例えば車両速度や明るさ等の複数のパラメータに基づく机上の計算式)をもとに作成することも考えられるが、理論モデルにより作成された画像は、現実の環境と乖離することもある。その結果、車両シミュレーションの結果が、現実の車両の挙動と乖離する可能性がある。 In addition, it is conceivable to create an image showing the state of the vehicle surroundings based on a theoretical model (for example, a theoretical calculation formula based on multiple parameters such as vehicle speed and brightness). The image may deviate from the real environment. As a result, the vehicle simulation results may deviate from the actual behavior of the vehicle.

そこで第1実施例では、車両周辺の現実の状態を示す環境データ(言い換えれば現実環境のデータ)と、画像解析結果とに基づいて、数量化分析を用いた統計処理により数理モデル(以下「センサモデル」とも呼ぶ。)を生成する。そして、センサモデルを使用して、車両の挙動をシミュレーションする。これにより、車両周辺の状態を検知するシミュレーションに、各ケースの画像を作成することが不要になり、シミュレーションのコストを低減でき、また、現実に即した車両挙動をシミュレーションすることができる。 Therefore, in the first embodiment, a mathematical model (hereinafter referred to as "sensor (also called "model"). The sensor model is then used to simulate vehicle behavior. This eliminates the need to create an image for each case in the simulation for detecting the state around the vehicle, reducing the cost of the simulation, and simulating realistic vehicle behavior.

まず、第1実施例のセンサモデルを説明する。第1実施例のセンサモデルは、車両のシミュレーションシステムにおいて、画像に基づく検知結果(すなわち画像解析部16および後述の画像解析部28による検知結果)に関して推定するためのモデルである。図2は、第1実施例におけるセンサモデル構築のためのサンプルデータの例を示す。同図は、歩行者の識別に関するセンサモデルを構築するためのサンプルデータを示している。各サンプルは、歩行者の識別精度に影響を与える2つの要因として、車両から歩行者までの距離と天気とを含む。 First, the sensor model of the first embodiment will be explained. The sensor model of the first embodiment is a model for estimating a detection result based on an image (that is, a detection result by the image analysis unit 16 and an image analysis unit 28 to be described later) in a vehicle simulation system. FIG. 2 shows an example of sample data for constructing a sensor model in the first embodiment. The figure shows sample data for constructing a sensor model for pedestrian identification. Each sample contains the distance from the vehicle to the pedestrian and the weather as two factors that affect pedestrian identification accuracy.

要因「距離」は、車両から歩行者までの複数段階の距離(真値)に対応する10個のカテゴリを含む。例えば、あるカテゴリは、0.1メートルから2メートルの範囲となり、また、別のカテゴリは、2メートルから4メートルの範囲となる。要因「天気」は、晴れ、曇り、雨の3個のカテゴリを含む。各サンプルは、該当するカテゴリの値を「1」とし、非該当のカテゴリの値を「0」とする。これにより、定量的なデータだけでなく、定性的なデータ(言い換えれば質に関するデータ)も数量として扱うことができる。なお、要因は説明変数とも呼ばれる。また、要因の各カテゴリはダミー変数とも呼ばれる。 The factor "distance" includes 10 categories corresponding to multiple steps of distance (true value) from the vehicle to the pedestrian. For example, one category may range from 0.1 meters to 2 meters, and another category may range from 2 meters to 4 meters. The factor "weather" includes three categories: sunny, cloudy, and rainy. For each sample, the value of the applicable category is "1" and the value of the non-applicable category is "0". This makes it possible to treat not only quantitative data but also qualitative data (in other words, quality-related data) as quantities. Factors are also called explanatory variables. Each category of factor is also called a dummy variable.

また、各サンプルは、画像解析の精度を示すデータとして、車両から歩行者までの距離の真値と、画像解析により検知された車両から歩行者までの距離との差(「検知距離誤差」とも呼ぶ。)を含む。実施例のセンサモデルは、車両から検知対象物(歩行者等)までの複数段階の距離に対応する複数個のダミー変数を含む。具体的には、距離の10カテゴリと天気の3カテゴリの合計13項目をダミー変数とし、検出距離誤差を目的変数として重回帰分析を行うことにより、各要因の各カテゴリが検出距離誤差に与える影響の大きさを示すセンサモデルを生成する。 In addition, as data indicating the accuracy of image analysis, each sample is the difference between the true value of the distance from the vehicle to the pedestrian and the distance from the vehicle to the pedestrian detected by image analysis (also known as "detection distance error"). call). The sensor model of the example includes a plurality of dummy variables corresponding to a plurality of steps of distances from the vehicle to the detection target (pedestrian, etc.). Specifically, a total of 13 items, 10 categories of distance and 3 categories of weather, are used as dummy variables, and multiple regression analysis is performed with the detection distance error as the objective variable, to determine the effect of each category of each factor on the detection distance error. Generate a sensor model that indicates the magnitude of

要因の数をm、各要因のカテゴリ数をn、・・・n、サンプル数をNとして一般化すると、センサモデルは式1で表すことができる。

Figure 0007320755000001
式1のεは残差であり、aijはi番目の要因のj番目のカテゴリを表すダミー変数にかかる係数である(以下「カテゴリ係数」とも呼ぶ。)。実施例のセンサモデル生成装置は、重回帰分析によって、残差の平方和が最小になるように各ダミー変数にかかるカテゴリ係数を導出する。 When the number of factors is m, the number of categories of each factor is n 1 , .
Figure 0007320755000001
ε k in Equation 1 is the residual, and a ij is the coefficient on the dummy variable representing the jth category of the ith factor (hereinafter also referred to as “category coefficient”). The sensor model generation device of the embodiment derives category coefficients for each dummy variable by multiple regression analysis so that the sum of squares of residuals is minimized.

図3は、第1実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第1実施例のセンサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、画像解析部28、真値導出部30、誤差導出部32、真値量子化部34、タグ量子化部36、モデル生成部38を備える。 FIG. 3 is a block diagram showing functional blocks of the sensor model generation device 20 of the first embodiment. The sensor model generation device 20 of the first embodiment includes a sensor data storage unit 22, a reference data storage unit 24, a tag data storage unit 26, an image analysis unit 28, a true value derivation unit 30, an error derivation unit 32, a true value quantization It has a unit 34 , a tag quantization unit 36 and a model generation unit 38 .

図3に示す複数の機能ブロックの機能を実装した複数のモジュールを含むコンピュータプログラムが、センサモデル生成装置20のストレージに記憶されてもよい。センサモデル生成装置20のCPUは、このコンピュータプログラムをメインメモリに読み出して実行することにより、図3に示す各機能ブロックの機能を発揮してもよい。また、図3に示す複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。他の実施例においても同様である。 A computer program including a plurality of modules implementing the functions of the plurality of functional blocks shown in FIG. 3 may be stored in the storage of the sensor model generation device 20 . The CPU of the sensor model generation device 20 may read the computer program into the main memory and execute it, thereby exerting the functions of the functional blocks shown in FIG. Also, the plurality of functions shown in FIG. 3 may be distributed to a plurality of devices, and may be realized by the plurality of devices cooperating as a system. The same applies to other embodiments.

センサデータ記憶部22、参照データ記憶部24には、現実の車両を用いた試験等において収集されたデータを記憶する。センサデータ記憶部22は、検知の対象物について各種車載センサによる検知結果を記憶する。実施例では、センサデータ記憶部22は、車載カメラにより撮像された複数の画像データを記憶し、例えば、3メートル先に歩行者がいる状態を映した画像データ、6メートル先に歩行者がいる状態を映した画像データ、・・・等を記憶する。 The sensor data storage unit 22 and the reference data storage unit 24 store data collected in tests using actual vehicles. The sensor data storage unit 22 stores the results of detection by various in-vehicle sensors for objects to be detected. In the embodiment, the sensor data storage unit 22 stores a plurality of image data captured by an in-vehicle camera. Image data showing the state, etc. are stored.

参照データ記憶部24は、検知の対象物に関する真値を記憶する。実施例では、参照データ記憶部24は、LIDAR(Light Detection and Ranging)による検知結果であり、車両と対象物との距離の真値を示すデータを記憶する。タグデータ記憶部26は、タグデータとして、ユーザ(開発者や試験者等)により設定されたデータを記憶する。例えば、タグデータ記憶部26は、車両を用いた試験等がなされた日の天気を示すタグデータを記憶する。タグデータは、路面の種類(例えばアスファルトまたは土)や温度、季節等、様々なデータを含んでもよい。 The reference data storage unit 24 stores a true value regarding the object of detection. In the embodiment, the reference data storage unit 24 stores data indicating the true value of the distance between the vehicle and the object, which is the result of detection by LIDAR (Light Detection and Ranging). The tag data storage unit 26 stores data set by users (developers, testers, etc.) as tag data. For example, the tag data storage unit 26 stores tag data indicating the weather on the day when the test using the vehicle was performed. The tag data may include various data such as road surface type (eg, asphalt or dirt), temperature, season, and the like.

なお、センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24に格納されるデータであって、同じ試験で収集または入力されたデータは、互いに対応付けられ1組のサンプルデータとなる。センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24には、複数の組のサンプルデータ(例えば図2で示したように1万組のサンプルデータ)が格納される。 The data stored in the sensor model generation device 20, the sensor data storage unit 22, and the reference data storage unit 24, which are collected or input in the same test, are associated with each other to form a set of sample data. . A plurality of sets of sample data (for example, 10,000 sets of sample data as shown in FIG. 2) are stored in the sensor model generation device 20, the sensor data storage unit 22, and the reference data storage unit 24. FIG.

画像解析部28は、図1の画像解析部16に対応し、また、上記概要に記載の第1導出部に対応する。すなわち、画像解析部28は、センサデータ記憶部22に記憶された画像データをもとに、車両の自動走行を制御するための車両周辺の状態を検知する。具体的には、画像解析部28は、センサデータ記憶部22に記憶された複数のサンプルの画像データをもとに、複数のサンプルにおける車両と歩行者との距離を検知する。画像をもとに車両と歩行者との距離を導出する方法は公知技術を採用してよい。 The image analysis unit 28 corresponds to the image analysis unit 16 in FIG. 1 and also to the first derivation unit described in the outline above. That is, the image analysis unit 28 detects the state of the surroundings of the vehicle based on the image data stored in the sensor data storage unit 22 in order to control the automatic running of the vehicle. Specifically, the image analysis unit 28 detects the distance between the vehicle and the pedestrian in a plurality of samples based on the plurality of samples of image data stored in the sensor data storage unit 22 . A known technique may be adopted as a method of deriving the distance between the vehicle and the pedestrian based on the image.

真値導出部30は、上記概要に記載の第2導出部に対応する。真値導出部30は、参照データ記憶部24に記憶されたLIDAR検知結果をもとに、車両周辺の状態を検知する。具体的には、真値導出部30は、参照データ記憶部24に記憶された複数のサンプルのLIDAR検知結果をもとに、複数のサンプルにおける車両と歩行者との距離を検知する。ここで、画像を用いた距離検知よりLIDARを用いた距離検知の方が精度が高く、実質的に、LIDARによる距離検知の結果は、車両と歩行者との距離の真値を示す。すなわち、真値導出部30は、車両と歩行者との距離の真値を検知するとも言える。 The true value derivation unit 30 corresponds to the second derivation unit described in the outline above. The true value derivation unit 30 detects the state around the vehicle based on the LIDAR detection results stored in the reference data storage unit 24 . Specifically, the true value derivation unit 30 detects the distance between the vehicle and the pedestrian in a plurality of samples based on the LIDAR detection results of the plurality of samples stored in the reference data storage unit 24 . Here, distance detection using LIDAR is more accurate than distance detection using images, and substantially, the result of distance detection using LIDAR indicates the true value of the distance between the vehicle and the pedestrian. That is, it can be said that the true value derivation unit 30 detects the true value of the distance between the vehicle and the pedestrian.

誤差導出部32は、サンプルごとに、真値導出部30による検知結果(実施例では車両と歩行者との距離の真値)と、画像解析部28による検知結果(実施例では車両と歩行者との検知距離)との差である検知距離誤差を算出する。 For each sample, the error derivation unit 32 combines the detection result of the true value derivation unit 30 (the true value of the distance between the vehicle and the pedestrian in the embodiment) and the detection result of the image analysis unit 28 (the vehicle and the pedestrian in the embodiment). The detection distance error, which is the difference between the detection distance from the

真値量子化部34は、サンプルごとに、真値導出部30による検知結果(実施例では車両と歩行者との距離の真値)を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部34は、図2で示したように、真値導出部30により検知された車両と歩行者との距離の真値を、10個のカテゴリのうち該当するカテゴリに分類してもよい。 For each sample, the true value quantization unit 34 converts the detection result of the true value derivation unit 30 (in the embodiment, the true value of the distance between the vehicle and the pedestrian) into one of a plurality of categories of predetermined explanatory variables. classified into For example, as shown in FIG. 2, the true value quantization unit 34 classifies the true value of the distance between the vehicle and the pedestrian detected by the true value derivation unit 30 into the corresponding category out of ten categories. You may

タグ量子化部36は、サンプルごとに、タグデータ記憶部26に記憶されたタグデータを、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部36は、図2で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類してもよい。 The tag quantization unit 36 classifies the tag data stored in the tag data storage unit 26 into one of a plurality of categories of predetermined explanatory variables for each sample. For example, the tag quantization unit 36 may classify the tag data indicating the weather into the corresponding category among the three categories, as shown in FIG.

モデル生成部38は、上記概要に記載の生成部に対応する。モデル生成部38は、誤差導出部32により算出された誤差と、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組み合わせをサンプルごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。モデル生成部38は、カテゴリ係数を設定した回帰式(上記の式1)をセンサモデルとして生成し、センサモデルのデータをモデル記憶部40に格納する。 The model generator 38 corresponds to the generator described in the outline above. The model generation unit 38 creates a combination of the error calculated by the error derivation unit 32, the category selected by the true value quantization unit 34, and the category selected by the tag quantization unit 36 for each sample. The model generation unit 38 uses the error calculated by the error derivation unit 32 as an objective variable, and statistically processes the category selected by the true value quantization unit 34 and the category selected by the tag quantization unit 36 as dummy variables. Multiple category coefficients for multiple categories are derived by performing (multiple regression analysis in the example). The model generating unit 38 generates the regression equation (equation 1 above) in which the category coefficients are set as a sensor model, and stores data of the sensor model in the model storage unit 40 .

次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。図4は、第1実施例の車両シミュレーションシステム110の機能ブロックを示すブロック図である。実施例の車両シミュレーションシステム110は、シミュレーション制御部10、ユーザインタフェース12、環境データ生成部14、車両モデル部18、センサモデル部50を備える。 Next, a vehicle simulation system using the sensor model generated by the sensor model generation device 20 will be described. FIG. 4 is a block diagram showing functional blocks of the vehicle simulation system 110 of the first embodiment. A vehicle simulation system 110 of the embodiment includes a simulation control section 10 , a user interface 12 , an environment data generation section 14 , a vehicle model section 18 and a sensor model section 50 .

図4に示す複数の機能ブロックの機能を実装した複数のモジュールを含むコンピュータプログラムが、車両シミュレーションシステム110のストレージに記憶されてもよい。車両シミュレーションシステム110のCPU(またはシステム内の装置のCPU)は、このコンピュータプログラムをメインメモリに読み出して実行することにより、図4に示す各機能ブロックの機能を発揮してもよい。また、図4に示す複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。さらにまた、図4に示す複数の機能は、単一の装置に集約されてもよい。他の実施例においても同様である。 A computer program including modules implementing the functions of the functional blocks shown in FIG. 4 may be stored in the storage of vehicle simulation system 110 . The CPU of vehicle simulation system 110 (or the CPU of a device within the system) may read out this computer program into the main memory and execute it, thereby exerting the function of each functional block shown in FIG. Also, the plurality of functions shown in FIG. 4 may be distributed to a plurality of devices, and may be realized by the plurality of devices cooperating as a system. Furthermore, multiple functions shown in FIG. 4 may be aggregated into a single device. The same applies to other embodiments.

第1実施例の車両シミュレーションシステム110の機能ブロックのうち、図1に示した従来の車両シミュレーションシステム100の機能ブロックと同一または対応する機能ブロックには同一の符号を付している。以下、図1に関連して説明済みの内容は再度の説明を適宜省略する。 Among the functional blocks of the vehicle simulation system 110 of the first embodiment, the functional blocks that are the same as or correspond to the functional blocks of the conventional vehicle simulation system 100 shown in FIG. 1 are denoted by the same reference numerals. In the following, re-description of the contents already described with reference to FIG. 1 will be omitted as appropriate.

環境データ生成部14は、ユーザインタフェース12で受け付けられたパラメータ、または、ファイル等の外部ソースから入力されたパラメータに応じて、シミュレーションの前提となる環境データを生成する。環境データは、センサモデルの説明変数の値を含む。第1実施例の環境データは、真値データとして車両から歩行者までの距離を含み、タグデータとして天気を示す値を含む。 The environment data generation unit 14 generates environment data, which is a premise of simulation, according to parameters received by the user interface 12 or parameters input from an external source such as a file. The environmental data includes the values of the explanatory variables of the sensor model. The environment data of the first embodiment includes the distance from the vehicle to the pedestrian as true value data, and the value indicating the weather as tag data.

センサモデル部50は、上記概要に記載の推定部に対応し、従来の車両シミュレーションシステム100における画像解析部16の代替となる機能を提供する。センサモデル部50は、車両シミュレーションのパラメータとしての車両周辺の状態の真値(実施例では車両から歩行者までの距離)をセンサモデルに入力することにより、画像解析部16が上記状態を示す画像を解析した場合の検知結果を推定する推定部として機能する。 The sensor model unit 50 corresponds to the estimation unit described in the outline above, and provides a function that replaces the image analysis unit 16 in the conventional vehicle simulation system 100 . The sensor model unit 50 inputs the true value of the state around the vehicle (the distance from the vehicle to the pedestrian in the embodiment) as a parameter for vehicle simulation into the sensor model, so that the image analysis unit 16 generates an image showing the above state. It functions as an estimation unit that estimates the detection result when analyzing

車両モデル部18は、上記概要に記載のシミュレーション部に対応する。車両モデル部18は、センサモデル部50による推定結果をもとに車両の挙動を決定し、すなわち、車両の自動走行をシミュレーションする。例えば、センサモデル部50により自車の進行方向の6.2メートル先に歩行者がいるという結果が得られた場合、車両モデル部18は、ブレーキを作動させること、その結果、歩行者の1メートル手前で停車することを出力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を表示装置に表示させてもよく、または、記憶装置に格納してもよい。 The vehicle model section 18 corresponds to the simulation section described in the outline above. The vehicle model unit 18 determines the behavior of the vehicle based on the estimation results from the sensor model unit 50, that is, simulates automatic driving of the vehicle. For example, when the sensor model unit 50 finds that there is a pedestrian 6.2 meters ahead of the vehicle in the direction in which the vehicle is traveling, the vehicle model unit 18 activates the brake. It is also possible to output that the vehicle will stop in front of meters. The simulation control unit 10 may display the simulation result by the vehicle model unit 18 on a display device, or may store it in a storage device.

図5は、第1実施例のセンサモデル部50の詳細を示すブロック図である。第1実施例のセンサモデル部50は、タグ量子化部52、真値量子化部54、誤差導出部56、模擬値導出部58、モデル記憶部40を含む。モデル記憶部40は、上記概要に記載の記憶部に対応する。モデル記憶部40は、センサモデル生成装置20により生成されたセンサモデルを記憶する。 FIG. 5 is a block diagram showing details of the sensor model unit 50 of the first embodiment. The sensor model unit 50 of the first embodiment includes a tag quantization unit 52, a true value quantization unit 54, an error derivation unit 56, a simulated value derivation unit 58, and a model storage unit 40. The model storage unit 40 corresponds to the storage unit described in the outline above. The model storage unit 40 stores sensor models generated by the sensor model generation device 20 .

タグ量子化部52は、環境データ生成部14により生成されたタグデータを、シミュレーション制御部10を介して受け付け、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部52は、図2で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類してもよい。 The tag quantization unit 52 receives the tag data generated by the environment data generation unit 14 via the simulation control unit 10 and classifies it into one of a plurality of categories of predetermined explanatory variables. For example, the tag quantization unit 52 may classify the tag data indicating the weather into the corresponding category among the three categories, as shown in FIG.

真値量子化部54は、環境データ生成部14により生成された真値データを、シミュレーション制御部10を介して受け付け、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部54は、図2で示したように、車両から歩行者への距離の真値を、10個のカテゴリのうち該当するカテゴリに分類してもよい。 The true value quantization unit 54 receives the true value data generated by the environment data generation unit 14 via the simulation control unit 10 and classifies it into one of a plurality of categories of predetermined explanatory variables. For example, the true value quantization unit 54 may classify the true value of the distance from the vehicle to the pedestrian into the corresponding category among ten categories, as shown in FIG.

誤差導出部56は、環境データ生成部14により生成された真値データおよびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、検知距離誤差を導出する。実施例では、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および真値量子化部54により選択されたカテゴリに対応するダミー変数の値を1(非選択のカテゴリに対応するダミー変数値は0)に設定することにより、センサモデルの目的変数である検知距離誤差を算出する。 The error derivation unit 56 derives the detection distance error according to the true value data and the tag data generated by the environment data generation unit 14 and the sensor model (for example, Equation 1 above) stored in the model storage unit 40. . In the embodiment, the error derivation unit 56 sets the value of the dummy variable corresponding to the category selected by the tag quantization unit 52 and the true value quantization unit 54 among the dummy variables of the sensor model to 1 (for non-selected categories By setting the corresponding dummy variable value to 0), the detected distance error, which is the objective variable of the sensor model, is calculated.

模擬値導出部58は、誤差導出部56により導出された検知距離誤差を、環境データ生成部14により生成された真値データに足すことにより、画像解析部16(画像解析部28)による検知結果をシミュレーションする。例えば、模擬値導出部58は、現実の車両の6メートル先に歩行者がいる場合に画像解析部16が検知するであろう歩行者までの距離(誤差を含む値であり、例えば6.2メートル)を導出する。模擬値導出部58により導出された値(例えば歩行者までの距離)は、シミュレーション制御部10を介して車両モデル部18へ入力され、車両の挙動がシミュレーションされる。 The simulated value derivation unit 58 adds the detection distance error derived by the error derivation unit 56 to the true value data generated by the environment data generation unit 14, thereby obtaining the detection result by the image analysis unit 16 (image analysis unit 28). to simulate. For example, the simulated value derivation unit 58 calculates the distance to the pedestrian that the image analysis unit 16 would detect if there was a pedestrian 6 meters ahead of the actual vehicle (a value including an error, such as 6.2 meters). A value derived by the simulated value derivation unit 58 (for example, the distance to a pedestrian) is input to the vehicle model unit 18 via the simulation control unit 10, and the behavior of the vehicle is simulated.

以上の構成による動作を説明する。
まず、図3を参照しつつ、第1実施例のセンサモデル生成装置20に関する動作を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載カメラで車外の歩行者を撮像し、複数サンプルの撮像画像をセンサデータ記憶部22に記憶させる。それとともに開発者は、LIDAR装置で上記歩行者までの距離を計測させ、複数サンプルの距離の真値を示す計測結果を参照データ記憶部24に記憶させる。さらにまた、開発者は、天気等の定性的な内容を示す複数サンプルのタグデータをタグデータ記憶部26に記憶させる。
The operation of the above configuration will be described.
First, the operation of the sensor model generation device 20 of the first embodiment will be described with reference to FIG. Developers of in-vehicle equipment who should provide a vehicle simulation system to customers and partner companies actually run the vehicle, capture pedestrians outside the vehicle with an in-vehicle camera, and store multiple sample captured images in the sensor data storage unit 22. Memorize. At the same time, the developer causes the LIDAR device to measure the distance to the pedestrian, and causes the reference data storage unit 24 to store the measurement results indicating the true value of the distance of a plurality of samples. Furthermore, the developer causes the tag data storage unit 26 to store a plurality of samples of tag data indicating qualitative content such as weather.

画像解析部28は、サンプルごとに、センサデータ記憶部22に格納された画像から歩行者までの距離を検知する。真値導出部30は、サンプルごとに、参照データ記憶部24に格納された計測結果から歩行者までの距離の真値を検知する。誤差導出部32は、サンプルごとに、画像に基づく検知距離と真値との差である検知距離誤差を導出する。真値量子化部34は、歩行者までの距離の真値のカテゴリを特定し、タグ量子化部36は、タグデータのカテゴリを特定する。 The image analysis unit 28 detects the distance to the pedestrian from the image stored in the sensor data storage unit 22 for each sample. The true value derivation unit 30 detects the true value of the distance to the pedestrian from the measurement results stored in the reference data storage unit 24 for each sample. The error derivation unit 32 derives a detection distance error, which is the difference between the detection distance based on the image and the true value, for each sample. The true value quantization unit 34 identifies the true value category of the distance to the pedestrian, and the tag quantization unit 36 identifies the tag data category.

モデル生成部38は、歩行者までの距離の真値のカテゴリと、タグデータのカテゴリとをダミー変数とし、検知距離誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。モデル生成部38は、生成したセンサモデルをモデル記憶部40に格納する。 The model generation unit 38 uses the category of the true value of the distance to the pedestrian and the category of the tag data as dummy variables, and the detection distance error as the objective variable. Generate a model. The model generation unit 38 stores the generated sensor model in the model storage unit 40 .

第1実施例のセンサモデル生成装置20によると、車両の挙動をシミュレーションする際に画像解析による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションに要する時間および費用を低減できる。また、車両周辺の実際の状態を示すデータを用いてセンサモデルを生成することで、現実に即した結果を出力するセンサモデルを生成できる。 According to the sensor model generation device 20 of the first embodiment, when the detection result by image analysis is required when simulating the behavior of the vehicle, the image of each case to be simulated is prepared, and the image of each case is prepared. Analysis becomes unnecessary, and the time and cost required for simulation can be reduced. In addition, by generating a sensor model using data representing the actual state of the surroundings of the vehicle, it is possible to generate a sensor model that outputs realistic results.

次に、図4および図5を参照しつつ、第1実施例の車両シミュレーションシステム110に関する動作を説明する。ここでは、車両の近傍に歩行者が存在する場合の車両の挙動をシミュレーションすることとする。ユーザは、車両から歩行者までの距離と、天気とをシミュレーションのパラメータとして車両シミュレーションシステム110のユーザインタフェース12へ入力する。環境データ生成部14は、ユーザインタフェース12で受け付けられた車両から歩行者までの距離を示す真値データを生成し、また、ユーザインタフェース12で受け付けられた天気を示すタグデータを生成する。 Next, the operation of the vehicle simulation system 110 of the first embodiment will be described with reference to FIGS. 4 and 5. FIG. Here, the behavior of the vehicle is simulated when there is a pedestrian in the vicinity of the vehicle. The user inputs the distance from the vehicle to the pedestrian and the weather as simulation parameters into the user interface 12 of the vehicle simulation system 110 . The environment data generation unit 14 generates true value data received by the user interface 12 indicating the distance from the vehicle to the pedestrian, and generates tag data received by the user interface 12 indicating the weather.

タグ量子化部52は、タグデータ(例えば図2の天気)のカテゴリを特定し、真値量子化部54は、真値データ(例えば図2の距離)のカテゴリを特定する。誤差導出部56は、モデル記憶部40に記憶されたセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および真値量子化部54により特定されたカテゴリ(ダミー変数)の値を「1」とすることにより、目的変数である検知距離誤差を得る。模擬値導出部58は、車両から歩行者までの距離(真値)に検知距離誤差を足すことにより、画像解析部28により検知される車両から歩行者までの距離(誤差を含む)を推定する。 The tag quantization unit 52 identifies the category of tag data (eg weather in FIG. 2), and the true value quantization unit 54 identifies the category of true value data (eg distance in FIG. 2). The error deriving unit 56 extracts the categories (dummy variables) specified by the tag quantization unit 52 and the true value quantization unit 54 among the dummy variables indicating the categories of the explanatory variables of the sensor model stored in the model storage unit 40. By setting the value to "1", the detection distance error, which is the objective variable, is obtained. The simulated value derivation unit 58 adds the detection distance error to the distance (true value) from the vehicle to the pedestrian, thereby estimating the distance (including error) from the vehicle to the pedestrian detected by the image analysis unit 28. .

車両モデル部18は、模擬値導出部58により導出された車両から歩行者までの距離(誤差を含む)に基づいて、車両の挙動を決定する。シミュレーション制御部10は、車両モデル部18による決定内容をシミュレーション結果として、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。 The vehicle model unit 18 determines the behavior of the vehicle based on the distance (including error) from the vehicle to the pedestrian derived by the simulated value deriving unit 58 . The simulation control unit 10 outputs the content determined by the vehicle model unit 18 as a simulation result to a predetermined output device or stores it in a predetermined storage device.

第1実施例の車両シミュレーションシステム110によると、車両の挙動をシミュレーションする際に画像解析による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意し、各ケースの画像を解析することが不要になり、シミュレーションに要する時間および費用を低減できる。また、シミュレーションの網羅性を高めやすくなる。さらにまた、車両周辺の実際の状態を用いて生成したセンサモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。 According to the vehicle simulation system 110 of the first embodiment, when a detection result by image analysis is required when simulating the behavior of a vehicle, it is possible to prepare an image of each case to be simulated and analyze the image of each case. It becomes unnecessary, and the time and cost required for simulation can be reduced. In addition, it becomes easier to increase the comprehensiveness of the simulation. Furthermore, by using a sensor model generated using the actual conditions around the vehicle, it is possible to simulate realistic vehicle behavior and the like.

以上、本開示を第1実施例をもとに説明した。第1実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。以下変形例を示す。 The present disclosure has been described above based on the first embodiment. It should be understood by those skilled in the art that the first embodiment is an example, and that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure. Modifications are shown below.

第1変形例を説明する。車両シミュレーションシステム110のセンサモデル部50は、複数個のダミー変数に係る複数個の係数から、曲線フィッティングにより対象物(例えば歩行者)までの距離の真値に応じた係数をセンサモデルに適用する。 A first modified example will be described. The sensor model unit 50 of the vehicle simulation system 110 applies a coefficient corresponding to the true value of the distance to an object (for example, a pedestrian) to the sensor model by curve fitting from a plurality of coefficients related to a plurality of dummy variables. .

図6は、曲線フィッティングの例を示す。ここでは、センサモデルが、少なくとも58個のカテゴリ(説明変数)を含むこととする。例えば、車両と歩行者との距離を10センチ刻みでカテゴリとしてもよい。カテゴリ係数グラフ60は、センサモデルにおける58個のカテゴリ(説明変数)それぞれの係数(カテゴリ係数)を示す折れ線グラフである。センサモデル部50の誤差導出部56は、複数個のカテゴリ係数に対して曲線フィッティングを行うことにより近似曲線62(二次多項式近似曲線とも言える)を導出する。 FIG. 6 shows an example of curve fitting. Here, it is assumed that the sensor model includes at least 58 categories (explanatory variables). For example, the distance between the vehicle and the pedestrian may be set as a category in increments of 10 centimeters. The category coefficient graph 60 is a line graph showing coefficients (category coefficients) of 58 categories (explanatory variables) in the sensor model. The error derivation unit 56 of the sensor model unit 50 derives an approximated curve 62 (also referred to as a second-order polynomial approximated curve) by performing curve fitting on a plurality of category coefficients.

誤差導出部56は、車両から歩行者までの距離の真値に対応するカテゴリ係数を近似曲線62から取得する。例えば、距離が10センチ刻みの場合、距離の真値が3.2メートルであれば、誤差導出部56は、カテゴリ番号「32」における近似曲線62の値(例えば「0」)をカテゴリ係数として取得してもよい。誤差導出部56は、近似曲線62から取得したカテゴリ係数をダミー変数(図2の例ではダミー変数の値は「1」)の重みとして適用し、目的変数の値(例えば検知距離誤差)を導出してもよい。また、距離真値を連続量として横軸の座標に変換し、近似曲線式に代入し算出した値を上記距離真値に対応する係数として適用してもよい。これらの変形例によると、曲線フィッティングにより、入力された説明変数に対する適切な重み付けを実現できる。 The error derivation unit 56 acquires from the approximated curve 62 category coefficients corresponding to the true value of the distance from the vehicle to the pedestrian. For example, when the distance is in increments of 10 centimeters, if the true value of the distance is 3.2 meters, the error derivation unit 56 uses the value (for example, "0") of the approximated curve 62 in the category number "32" as the category coefficient. may be obtained. The error derivation unit 56 applies the category coefficient obtained from the approximate curve 62 as a weight of the dummy variable (the value of the dummy variable is “1” in the example of FIG. 2), and derives the value of the objective variable (for example, the detection distance error). You may Alternatively, the true distance value may be converted to the coordinates of the horizontal axis as a continuous quantity, and the value calculated by substituting it into the approximate curve formula may be applied as the coefficient corresponding to the true distance value. According to these modifications, curve fitting can achieve appropriate weighting of the input explanatory variables.

第2変形例を説明する。車両シミュレーションシステム110のユーザインタフェース12は、乱数に関するデータの指定をユーザから受け付ける受付部として機能してもよい。センサモデル部50の模擬値導出部58は、ユーザから指定された乱数に関するデータをもとに、センサモデルを用いた推定値にホワイトノイズを足してもよい。 A second modification will be described. The user interface 12 of the vehicle simulation system 110 may function as a reception unit that receives designation of data related to random numbers from the user. The simulated value derivation unit 58 of the sensor model unit 50 may add white noise to the estimated value using the sensor model based on the data on the random number specified by the user.

例えば、ユーザは、乱数に関するデータとして、擬似乱数列を生成するためのシードをユーザインタフェース12へ入力してもよい。模擬値導出部58は、ユーザから入力されたシードをもとに擬似乱数列を生成して、その擬似乱数列をもとにホワイトノイズのデータを生成し、車両と歩行者との距離の推定値にホワイトノイズを足してもよい。実環境のデータにはホワイトノイズの成分が含まれるため、本変形例によると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができる。 For example, the user may input a seed for generating a pseudo-random number sequence into the user interface 12 as data related to random numbers. The simulated value deriving unit 58 generates a pseudorandom number sequence based on the seed input by the user, generates white noise data based on the pseudorandom number sequence, and estimates the distance between the vehicle and the pedestrian. White noise may be added to the values. Since the data of the real environment contains a white noise component, according to this modified example, it is possible to add the white noise and obtain a more realistic estimation result.

第3変形例を説明する。上記実施例では、車両と歩行者との距離をセンサモデルにより推定したが、実施例に記載の技術は、車両周辺の状態に関する様々なものをモデルにより推定する場合に適用可能である。第3変形例では、駐車枠(駐車区画とも言える)の位置をセンサモデルにより推定する例を示す。 A third modification will be described. Although the distance between the vehicle and the pedestrian is estimated by the sensor model in the above embodiment, the technique described in the embodiment can be applied to the case of estimating various conditions around the vehicle by the model. The third modified example shows an example of estimating the position of a parking frame (which can also be called a parking space) using a sensor model.

図7は、変形例における車両周辺の状態を示す。本変形例では、駐車枠76をその4隅(FL、FR、BL、BR)のXY座標と、駐車枠76の方向(車両の進行方向に対する駐車枠76の角度であり、図7のθ)で表す。本変形例では、画像解析部により検知された駐車枠76の4隅それぞれの座標は、上記4隅(FL、FR、BL、BR)のカメラ72からの距離(例えば、前方右側のポイントFRの場合、RangeR)、カメラ72の光軸74との角度(例えば、前方右側のポイントFRの場合、βR)、および駐車枠76の方向(θ)の影響を受ける。本変形例のセンサモデル生成装置20は、カメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向のそれぞれをカテゴライズする。 FIG. 7 shows the state around the vehicle in the modified example. In this modification, the XY coordinates of the four corners (FL, FR, BL, BR) of the parking frame 76 and the direction of the parking frame 76 (the angle of the parking frame 76 with respect to the traveling direction of the vehicle, θ in FIG. 7) Represented by In this modification, the coordinates of each of the four corners of the parking frame 76 detected by the image analysis unit are the distance from the camera 72 of the four corners (FL, FR, BL, BR) (for example, the distance of the front right point FR range R in the case), the angle of the camera 72 with the optical axis 74 (eg, β R in the case of the front right point FR), and the direction of the parking frame 76 (θ). The sensor model generating device 20 of this modified example categorizes the distance from the camera 72 , the angle with the optical axis 74 of the camera 72 , and the direction of the parking frame 76 .

具体的には、センサモデル生成装置20の画像解析部28は、車両の周辺が映る画像データから、車両周辺の状態として、駐車枠の位置(座標等)を検知する。真値導出部30は、LIDAR装置の検知結果に基づき、駐車枠の位置(座標等)の真値を検知する。モデル生成部38は、真値導出部30により検知された駐車枠76の座標(FRの座標とする)と、画像解析部28により検知された駐車枠76の座標(FRの座標とする)との差を目的変数として識別する。 Specifically, the image analysis unit 28 of the sensor model generation device 20 detects the position (coordinates, etc.) of the parking frame as the state of the surroundings of the vehicle from the image data showing the surroundings of the vehicle. The true value derivation unit 30 detects the true value of the position (coordinates, etc.) of the parking frame based on the detection result of the LIDAR device. The model generation unit 38 calculates the coordinates of the parking frame 76 detected by the true value deriving unit 30 (the coordinates of FR), the coordinates of the parking frame 76 detected by the image analysis unit 28 (the coordinates of FR), and is identified as the objective variable.

また、モデル生成部38は、カメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向θの、カメラの光軸74との角度を説明変数として扱う。これらのデータは、実施例と同様に、実際の車両を用いた試験により収集され、複数のサンプルが作成される。モデル生成部38は、複数のサンプルに基づく重回帰分析を実行して、各カテゴリ(ダミー変数)の係数を求める。なお、実際には、駐車枠76の4隅の座標のそれぞれに対応するセンサモデルが生成されてもよい。 The model generator 38 also treats the distance from the camera 72, the angle of the camera 72 with respect to the optical axis 74, and the angle of the direction θ of the parking frame 76 with respect to the camera's optical axis 74 as explanatory variables. These data are collected by tests using actual vehicles, and a plurality of samples are created, as in the example. The model generator 38 performs multiple regression analysis based on multiple samples to obtain coefficients for each category (dummy variable). Incidentally, in practice, a sensor model corresponding to each of the coordinates of the four corners of the parking frame 76 may be generated.

車両シミュレーションシステム110のシミュレーション制御部10は、シミュレーションのパラメータとして、4隅(FL、FR、BL、BR)の座標と駐車枠方向をユーザ等から受け付け(座標系は車両座標系でもよく、センサ座標系でもよい)、それらのパラメータをセンサモデル部50へ入力する。センサモデル部50は、シミュレーションのパラメータをセンサモデルへ入力することにより、画像解析部28による検知結果を推定し、すなわち、駐車枠76の座標を推定する。具体的には、センサモデル部50は、まず、入力された上記4隅(FL、FR、BL、BR)の座標と駐車枠方向を、説明変数であるカメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向に変換する。次に、センサモデル部50は、得られた説明変数の値に基づきカテゴリを求め、それに対応する係数を適用する。車両モデル部18は、センサモデル部50により推定された駐車枠76の座標に基づいて、車両の自動走行(例えば駐車枠76への自動入庫)をシミュレーションする。 The simulation control unit 10 of the vehicle simulation system 110 receives the coordinates of the four corners (FL, FR, BL, BR) and the direction of the parking frame from the user or the like as simulation parameters (the coordinate system may be the vehicle coordinate system, the sensor coordinates system), and inputs those parameters to the sensor model unit 50 . The sensor model unit 50 estimates the detection result by the image analysis unit 28, that is, estimates the coordinates of the parking frame 76 by inputting simulation parameters into the sensor model. Specifically, the sensor model unit 50 first converts the input coordinates of the four corners (FL, FR, BL, BR) and the direction of the parking frame into the distance from the camera 72 and the light of the camera 72, which are explanatory variables. Transform the angle with the axis 74 and the direction of the parking frame 76 . Next, the sensor model unit 50 obtains categories based on the values of the explanatory variables obtained, and applies coefficients corresponding to them. The vehicle model unit 18 simulates automatic driving of the vehicle (for example, automatic parking into the parking frame 76 ) based on the coordinates of the parking frame 76 estimated by the sensor model unit 50 .

<第2実施例>
車両に関するシミュレーションでは、車両の移動量(以下「オドメトリ」とも呼ぶ。)に基づくシミュレーションが行われることがある。オドメトリの理論モデルに基づく計算量は多くはない。しかし、環境要因のために、オドメトリのモデル化は容易でなく、また、モデルの出力値と真値との差(すなわち誤差)が大きくなりやすい。環境要因は、例えば、天候や路面材質、車両重量等に依存するタイヤと路面との滑り具合等が含まれる。
<Second embodiment>
Vehicle-related simulations may be performed based on the amount of movement of the vehicle (hereinafter also referred to as "odometry"). The amount of computation based on the theoretical model of odometry is not large. However, due to environmental factors, odometry modeling is not easy, and the difference (that is, error) between the model output value and the true value tends to increase. The environmental factors include, for example, the degree of slippage between the tires and the road surface, which depends on the weather, road surface material, vehicle weight, and the like.

そこで、第2実施例のセンサモデル生成装置は、車両または車両周辺の現実の状態を示す環境データと、車両の移動量に関するデータとに基づいて、数量化分析を用いた統計処理によりセンサモデルを生成する。そして、第2実施例の車両シミュレーションシステムは、そのセンサモデルを活用することにより精度の高いシミュレーションを実現する。第2実施例のセンサモデル生成装置および車両シミュレーションシステムの構成要素のうち、第1実施例で説明した部材と同一または対応するものには同じ符号を付す。また、第1実施例と重複する内容は再度の説明を適宜省略する。 Therefore, the sensor model generation device of the second embodiment generates a sensor model by statistical processing using quantification analysis based on environmental data indicating the actual state of the vehicle or its surroundings and data on the amount of movement of the vehicle. Generate. The vehicle simulation system of the second embodiment realizes highly accurate simulation by utilizing the sensor model. Among the constituent elements of the sensor model generation device and vehicle simulation system of the second embodiment, the same reference numerals are given to those that are the same as or correspond to the members described in the first embodiment. In addition, repetitive descriptions of the contents that overlap with the first embodiment will be omitted as appropriate.

まず、第2実施例のセンサモデルを説明する。第2実施例のセンサモデルは、車両のシミュレーションシステムにおいて、車両の移動量に関する推定を行うためのモデルである。具体的には、第2実施例のセンサモデルは、後述の移動量導出部120により検知された移動量の成分を説明変数とし、かつ、後述の真値導出部30により検知された移動量の成分の真値と、移動量導出部120により検知された移動量の成分値との差を目的変数とするモデルである。移動量の成分は、横移動量、縦移動量、旋回角の3つを含む。 First, the sensor model of the second embodiment will be explained. The sensor model of the second embodiment is a model for estimating the movement amount of a vehicle in a vehicle simulation system. Specifically, the sensor model of the second embodiment uses the component of the movement amount detected by the movement amount derivation unit 120 described later as an explanatory variable, and the movement amount component detected by the true value derivation unit 30 described later. This model uses the difference between the true value of the component and the component value of the movement amount detected by the movement amount derivation unit 120 as the objective variable. The components of the amount of movement include the amount of lateral movement, the amount of vertical movement, and the turning angle.

図8は、第2実施例におけるセンサモデル構築のためのサンプルデータの例を示し、すなわち、車両の移動量に関するセンサモデルを構築するためのサンプルデータを示している。図8では、サンプルデータの要因(すなわちセンサモデルの説明変数)のうち一部を示している。第2実施例におけるセンサモデルの説明変数は、(1)横移動量、(2)縦移動量、(3)旋回角、(4)天気、(5)気温、(6)車両重量、(7)タイヤ種別、(8)路面種別を含む。 FIG. 8 shows an example of sample data for constructing a sensor model in the second embodiment, that is, sample data for constructing a sensor model relating to the amount of movement of the vehicle. FIG. 8 shows some of the factors of the sample data (that is, explanatory variables of the sensor model). The explanatory variables of the sensor model in the second embodiment are (1) lateral movement amount, (2) vertical movement amount, (3) turning angle, (4) weather, (5) temperature, (6) vehicle weight, (7) ) tire type, and (8) road surface type.

横移動量は、予め定められた単位時間当りに車両が横方向(すなわち進行方向に対して垂直方向)へ移動した量であり、言い換えれば、横方向への移動速度である。縦移動量は、予め定められた単位時間当りに車両が縦方向(すなわち進行方向)へ移動した量であり、言い換えれば、縦方向への移動速度である。横移動量と縦移動量は、例えば、時速10キロメートル単位でカテゴリ分けされてよいが、低速度ではより小さい単位でカテゴリ分けされることが望ましい。例えば、時速15キロメートル未満は、時速5キロメートル単位でカテゴリ分けされてもよい。旋回角は、予め定められた単位時間当りに車両が旋回した角度であり、言い換えれば、角速度である。旋回角は、例えば、0.5度単位でカテゴリ分けされてもよい。 The amount of lateral movement is the amount by which the vehicle moves in the lateral direction (that is, in the direction perpendicular to the direction of travel) per predetermined unit time, in other words, it is the speed of movement in the lateral direction. The vertical movement amount is the amount of movement of the vehicle in the vertical direction (that is, the direction of travel) per predetermined unit time, in other words, the speed of movement in the vertical direction. The amount of lateral movement and the amount of longitudinal movement may be categorized in units of, for example, 10 kilometers per hour, but preferably in smaller units at lower speeds. For example, speeds less than 15 kilometers per hour may be categorized by 5 kilometers per hour. The turning angle is the angle by which the vehicle turns per predetermined unit time, in other words, the angular velocity. Turn angles may be categorized in 0.5 degree increments, for example.

天気は、車両走行時の天気であり、第1実施例と同様に、晴れ、曇り、雨を含む。気温は、車両走行時の気温であり、例えば、2℃単位でカテゴリ分けされてもよい。車両重量は、例えば、数10キログラム(例えば大人または子供1人の平均体重)単位でカテゴリ分けされてもよい。タイヤ種別は、車両に装着されたタイヤの種別であり、例えば、夏用タイヤまたは冬用タイヤでカテゴリ分けされてもよい。路面種別は、車両が走行する路面の種別であり、例えば、アスファルト、土、坂道等でカテゴリ分けされてもよい。既述したように、要因の各カテゴリはダミー変数とも呼ばれる。 The weather is the weather when the vehicle is running, and includes sunny, cloudy, and rainy, as in the first embodiment. The temperature is the temperature when the vehicle is running, and may be categorized in units of 2° C., for example. Vehicle weight may, for example, be categorized in tens of kilograms (eg, the average weight of an adult or child). The tire type is the type of tire mounted on the vehicle, and may be categorized by summer tire or winter tire, for example. The road surface type is the type of road surface on which the vehicle travels, and may be categorized by, for example, asphalt, dirt, slope, and the like. As already mentioned, each category of factor is also called a dummy variable.

また、各サンプルは、移動量検知の精度を示すデータとして、車両の移動量の真値と、センサデータをもとに検知された車両の移動量との差(以下「移動量誤差」とも呼ぶ。)を含む。第2実施例では、車両の移動量の真値は、GPS(Global Positioning System)等のGNSS(Global Navigation Satellite System、全球測位衛星システム)を用いた測位処理により求められる。 In addition, as data indicating the accuracy of movement amount detection, each sample is the difference between the true value of the movement amount of the vehicle and the movement amount of the vehicle detected based on the sensor data (hereinafter also referred to as "movement amount error"). .)including. In the second embodiment, the true value of the movement amount of the vehicle is obtained by positioning processing using a GNSS (Global Navigation Satellite System) such as a GPS (Global Positioning System).

各要因の各カテゴリをダミー変数(説明変数)とし、移動量誤差を目的変数として重回帰分析を行うことにより、各要因の各カテゴリが移動量誤差に与える影響の大きさ(以下「カテゴリ係数」と呼ぶ。)を示すセンサモデルを生成できる。要因の数をm、各要因のカテゴリ数をn、・・・n、サンプル数をNとして一般化すると、第2実施例のセンサモデルも、第1実施例と同様に、上記の式1で表すことができる。既述したように、aijはi番目の要因のj番目のカテゴリを表すダミー変数(Xijk)にかかるカテゴリ係数である。 By performing multiple regression analysis with each category of each factor as a dummy variable (explanatory variable) and the movement distance error as the objective variable, the magnitude of the influence of each category of each factor on the movement distance error (hereinafter referred to as "category coefficient") ) can be generated. If the number of factors is m, the number of categories of each factor is n 1 , . It can be represented by 1. As already mentioned, a ij is the category coefficient on the dummy variable (X ijk ) representing the jth category of the ith factor.

図9は、第2実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第2実施例のセンサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、移動量導出部120、真値導出部30、誤差導出部32、移動量量子化部121、タグ量子化部36、モデル生成部38を備える。 FIG. 9 is a block diagram showing functional blocks of the sensor model generation device 20 of the second embodiment. The sensor model generation device 20 of the second embodiment includes a sensor data storage unit 22, a reference data storage unit 24, a tag data storage unit 26, a movement amount derivation unit 120, a true value derivation unit 30, an error derivation unit 32, a movement amount quantum It has a quantization unit 121 , a tag quantization unit 36 and a model generation unit 38 .

センサデータ記憶部22は、速度センサや操舵角センサ等の各種車載センサからの出力結果を示すサンプルデータであり、言い換えれば、現実の車両の状態を検知した結果を示すサンプルデータを記憶する。実施例では、センサデータ記憶部22は、サンプルごとに、少なくとも車両の速度と操舵角(転舵角でもよい)を記憶する。 The sensor data storage unit 22 stores sample data indicating output results from various onboard sensors such as a speed sensor and a steering angle sensor, in other words, sample data indicating results of detection of the actual vehicle state. In the embodiment, the sensor data storage unit 22 stores at least the vehicle speed and steering angle (or turning angle) for each sample.

参照データ記憶部24は、現実の車両の状態の真値を記憶する。実施例では、参照データ記憶部24は、サンプルごとに、GPS装置により特定された車両の現在位置を時系列に並べたデータ、言い換えれば、時系列での車両位置の推移を示すデータを記憶する。 The reference data storage unit 24 stores the true value of the actual vehicle state. In the embodiment, the reference data storage unit 24 stores, for each sample, data in which the current position of the vehicle specified by the GPS device is arranged in time series, in other words, data indicating the transition of the vehicle position in time series. .

タグデータ記憶部26は、センサ以外の手段で取得された現実の車両の状態に関するデータであるタグデータを記憶する。タグデータ記憶部26は、ユーザ(開発者や試験者等)により設定されたタグデータを記憶する。タグデータは、例えば、車両を用いた試験等(すなわちサンプルデータの収集)がなされた際の天気、気温、車両重量、タイヤ種別、路面種別を含んでもよい。 The tag data storage unit 26 stores tag data, which is data relating to the actual state of the vehicle obtained by means other than sensors. The tag data storage unit 26 stores tag data set by users (developers, testers, etc.). The tag data may include, for example, the weather, temperature, vehicle weight, tire type, and road surface type when a vehicle test or the like (that is, collection of sample data) is performed.

なお、センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24に格納されるデータであって、同じ試験で収集または入力されたデータは、互いに対応付けられ1組のサンプルデータとなる。センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24には、複数の組のサンプルデータ(例えば図8で示したように1万組のサンプルデータ)が格納される。 The data stored in the sensor model generation device 20, the sensor data storage unit 22, and the reference data storage unit 24, which are collected or input in the same test, are associated with each other to form a set of sample data. . A plurality of sets of sample data (for example, 10,000 sets of sample data as shown in FIG. 8) are stored in the sensor model generation device 20, the sensor data storage unit 22, and the reference data storage unit 24. FIG.

移動量導出部120は、上記概要に記載の第1導出部に対応する。移動量導出部120は、センサデータ記憶部22に記憶されたセンサの出力結果を示すサンプルデータをもとに、サンプルごとに、車両の自動走行に関する属性の状態として、車両の移動量の成分を検知する。具体的には、移動量導出部120は、各サンプルが示す速度と操舵角とに基づいて、各サンプルの横移動量、縦移動量、旋回角(いずれも所定の単位時間当りの値)を導出する。この導出方法には、公知技術を採用してよい。 The movement amount derivation unit 120 corresponds to the first derivation unit described in the outline above. Based on the sample data indicating the output results of the sensors stored in the sensor data storage unit 22, the movement amount deriving unit 120 calculates the components of the movement amount of the vehicle as the state of attributes related to automatic driving of the vehicle for each sample. detect. Specifically, the movement amount derivation unit 120 calculates the lateral movement amount, the vertical movement amount, and the turning angle (all of which are values per predetermined unit time) of each sample based on the speed and steering angle indicated by each sample. derive A known technique may be adopted for this derivation method.

真値導出部30は、上記概要に記載の第2導出部に対応する。真値導出部30は、参照データ記憶部24に記憶された各サンプルが示す車両の時系列での位置の推移に基づいて、サンプルごとに、車両の移動量の成分を検知する。具体的には、真値導出部30は、各サンプルの横移動量、縦移動量、旋回角(いずれも所定の単位時間当りの値)を導出する。この導出方法にも、公知技術を採用してよい。 The true value derivation unit 30 corresponds to the second derivation unit described in the outline above. The true value derivation unit 30 detects the component of the movement amount of the vehicle for each sample based on the time-series position transition of the vehicle indicated by each sample stored in the reference data storage unit 24 . Specifically, the true value derivation unit 30 derives the lateral movement amount, the vertical movement amount, and the turning angle (all values per predetermined unit time) of each sample. A well-known technique may also be adopted for this derivation method.

なお、真値導出部30は、実際の車両位置の変化に基づいて車両の移動量の成分を導出する。そのため、真値導出部30により導出される車両の移動量の成分値は、移動量導出部120により導出される車両の移動量の成分値より精度が高い。第2実施例では、真値導出部30により導出された車両の移動量の成分値を真値として取り扱う。なお、真値導出部30により導出される車両の移動量の成分値は、厳密には真値と異なってもよいが、真値と同一と見なせる範囲内(予め定められた閾値内)の値であることが望ましい。 Note that the true value derivation unit 30 derives the components of the amount of movement of the vehicle based on changes in the actual vehicle position. Therefore, the component value of the vehicle movement amount derived by the true value derivation unit 30 has higher precision than the component value of the vehicle movement amount derived by the movement amount derivation unit 120 . In the second embodiment, the component value of the amount of movement of the vehicle derived by the true value derivation unit 30 is treated as the true value. Strictly speaking, the component value of the amount of movement of the vehicle derived by the true value derivation unit 30 may be different from the true value, but it is within a range (within a predetermined threshold value) that can be considered to be the same as the true value. is desirable.

誤差導出部32は、サンプルごと、かつ、移動量の成分の種類ごとに、真値導出部30による検知結果と、移動量導出部120による検知結果との差を導出する。すなわち、誤差導出部32は、サンプルごとに、横移動量の誤差、縦移動量の誤差、および旋回角の誤差(以下総称する場合「移動量誤差」とも呼ぶ。)を導出する。例えば、図8は、目的変数を横移動量誤差とする例を示すが、誤差導出部32は、図8に示すようなサンプルデータを、目的変数を横移動量誤差とするもの、目的変数を縦移動量誤差とするもの、目的変数を旋回角誤差とするものの3パターン生成する。 The error derivation unit 32 derives the difference between the detection result by the true value derivation unit 30 and the detection result by the movement amount derivation unit 120 for each sample and for each type of movement amount component. That is, the error derivation unit 32 derives a lateral movement amount error, a vertical movement amount error, and a turning angle error (hereinafter collectively referred to as "movement amount error") for each sample. For example, FIG. 8 shows an example in which the objective variable is the lateral movement amount error. Three patterns are generated, one for vertical displacement error and the other for turning angle error as the objective variable.

移動量量子化部121は、サンプルごとに、移動量導出部120による検知結果を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、移動量量子化部121は、移動量導出部120により検知された横移動量、縦移動量、旋回角のそれぞれについて、予め定められた複数のカテゴリのいずれかに分類する。第2実施例では、図8で示したように、該当するカテゴリの値を「1」に設定する。 The movement amount quantization unit 121 classifies the detection result by the movement amount derivation unit 120 into one of a plurality of categories of predetermined explanatory variables for each sample. For example, the movement amount quantization unit 121 classifies each of the lateral movement amount, the vertical movement amount, and the turning angle detected by the movement amount derivation unit 120 into one of a plurality of predetermined categories. In the second embodiment, as shown in FIG. 8, the value of the applicable category is set to "1".

タグ量子化部36は、サンプルごとに、タグデータ記憶部26に記憶されたタグデータを、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部36は、図8で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類し、該当するカテゴリの値を「1」に設定する。 The tag quantization unit 36 classifies the tag data stored in the tag data storage unit 26 into one of a plurality of categories of predetermined explanatory variables for each sample. For example, as shown in FIG. 8, the tag quantization unit 36 classifies the tag data indicating the weather into the corresponding category among the three categories, and sets the value of the corresponding category to "1".

モデル生成部38は、上記概要に記載の生成部に対応する。モデル生成部38は、真値導出部30による検知結果を推定するためのセンサモデルであり、すなわち、車両の移動量の真値に関して推定するためのセンサモデルを生成する。モデル生成部38は、移動量導出部120により導出された車両の移動量の成分を説明変数とし、かつ、真値導出部30により導出された車両の移動量の成分値(すなわち真値)と、移動量導出部120により導出された車両の移動量の成分値との差を目的変数とするセンサモデルを生成する。 The model generator 38 corresponds to the generator described in the outline above. The model generation unit 38 is a sensor model for estimating the detection result by the true value derivation unit 30, that is, it generates a sensor model for estimating the true value of the amount of movement of the vehicle. The model generation unit 38 uses the components of the vehicle movement amount derived by the movement amount derivation unit 120 as explanatory variables, and the component values (that is, the true values) of the vehicle movement amounts derived by the true value derivation unit 30. , a sensor model whose objective variable is the difference between the component values of the amount of movement of the vehicle derived by the movement amount derivation unit 120 .

具体的には、図8に例示したように、モデル生成部38は、誤差導出部32により導出された誤差と、移動量量子化部121により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組合せを、サンプルごと、かつ、移動量の成分ごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、移動量量子化部121により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数(値は「1」)として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。 Specifically, as illustrated in FIG. 8, the model generation unit 38 generates the error derived by the error derivation unit 32, the category selected by the movement amount quantization unit 121, and the category selected by the tag quantization unit 36. A combination with the selected category is created for each sample and for each movement amount component. The model generation unit 38 uses the error calculated by the error derivation unit 32 as the objective variable, and the category selected by the movement amount quantization unit 121 and the category selected by the tag quantization unit 36 as dummy variables (values are "1"), a plurality of category coefficients for a plurality of categories are derived by executing statistical processing (multiple regression analysis in the embodiment).

モデル生成部38は、移動量の成分のそれぞれについて、カテゴリ係数を設定した回帰式(上記の式1)をセンサモデルとして生成し、センサモデルのデータをモデル記憶部40に格納する。すなわち、モデル生成部38は、横移動量の誤差を目的変数とするセンサモデル、縦移動量の誤差を目的変数とするセンサモデル、および旋回角の誤差を目的変数とするセンサモデルを生成してモデル記憶部40に格納する。 The model generating unit 38 generates, as a sensor model, a regression equation (equation 1 above) in which category coefficients are set for each component of the movement amount, and stores data of the sensor model in the model storage unit 40 . That is, the model generator 38 generates a sensor model whose objective variable is the error in the lateral displacement, a sensor model whose objective variable is the error in the longitudinal displacement, and a sensor model whose objective variable is the error in the turning angle. Stored in the model storage unit 40 .

次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。第2実施例の車両シミュレーションシステム110の基本的な機能ブロックは、図4に示す第1実施例の車両シミュレーションシステム110の機能ブロックと同様である。 Next, a vehicle simulation system using the sensor model generated by the sensor model generation device 20 will be described. The basic functional blocks of the vehicle simulation system 110 of the second embodiment are the same as those of the vehicle simulation system 110 of the first embodiment shown in FIG.

環境データ生成部14は、センサモデルの説明変数の値を含む環境データを生成する。第2実施例の環境データは、車両シミュレーションのパラメータとしての、車載センサからの出力結果に基づく車両の移動量の想定値(単位時間当りの横移動量、縦移動量、旋回角)を含む。この想定値は、移動量導出部120により検知される移動量の成分の想定値とも言える。また、第2実施例の環境データは、車両シミュレーションのパラメータとしてのタグデータ、例えば、天気、気温、車両重量等をさらに含む。 The environmental data generator 14 generates environmental data including explanatory variables of the sensor model. The environmental data of the second embodiment includes, as vehicle simulation parameters, assumed values of the amount of movement of the vehicle (horizontal movement amount, vertical movement amount, and turning angle per unit time) based on the output results from the vehicle-mounted sensors. This assumed value can also be said to be an assumed value of the movement amount component detected by the movement amount derivation unit 120 . The environmental data of the second embodiment further includes tag data as vehicle simulation parameters, such as weather, temperature, vehicle weight, and the like.

センサモデル部50は、上記概要に記載の推定部に対応する。センサモデル部50は、
移動量導出部120により検知される車両の移動量成分をセンサモデルに入力することにより、車両の移動量成分の真値を推定する。
The sensor model unit 50 corresponds to the estimation unit described in the outline above. The sensor model unit 50
By inputting the movement amount component of the vehicle detected by the movement amount derivation unit 120 into the sensor model, the true value of the movement amount component of the vehicle is estimated.

車両モデル部18は、上記概要に記載のシミュレーション部に対応する。車両モデル部18は、センサモデル部50により推定された車両の移動量成分の真値をもとに車両シミュレーションを実行する。例えば、車両モデル部18は、車両の移動量成分の真値に基づいて、車両の次の挙動を決定してもよい。 The vehicle model section 18 corresponds to the simulation section described in the outline above. The vehicle model unit 18 executes vehicle simulation based on the true value of the vehicle movement amount component estimated by the sensor model unit 50 . For example, the vehicle model unit 18 may determine the next behavior of the vehicle based on the true value of the movement amount component of the vehicle.

シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を不図示の表示装置に表示させてもよく、または、不図示の記憶装置に格納してもよい。シミュレーションの担当者は、車両モデル部18により決定された上記次の挙動の内容を表示装置にて確認し、次の挙動が問題ないか否かを確認してもよい。 The simulation control unit 10 may display the simulation result by the vehicle model unit 18 on a display device (not shown) or store it in a storage device (not shown). The person in charge of the simulation may confirm the content of the next behavior determined by the vehicle model section 18 on the display device, and confirm whether or not there is any problem with the next behavior.

図10は、第2実施例のセンサモデル部50の詳細を示すブロック図である。第2実施例のセンサモデル部50は、タグ量子化部52、移動量量子化部122、誤差導出部56、補正部124、モデル記憶部40を含む。モデル記憶部40は、上記概要に記載の記憶部に対応する。モデル記憶部40は、センサモデル生成装置20により生成された車両の移動量成分ごとのセンサモデルを記憶する。 FIG. 10 is a block diagram showing details of the sensor model unit 50 of the second embodiment. The sensor model unit 50 of the second embodiment includes a tag quantization unit 52, a movement amount quantization unit 122, an error derivation unit 56, a correction unit 124, and a model storage unit 40. The model storage unit 40 corresponds to the storage unit described in the outline above. The model storage unit 40 stores the sensor model generated by the sensor model generation device 20 for each movement amount component of the vehicle.

移動量量子化部122は、環境データ生成部14により生成された移動量成分値を、シミュレーション制御部10を介して受け付け、成分ごとに、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、移動量量子化部122は、図8で示したように、移動量成分値のうち横移動量を、複数のカテゴリ(0~5、5~10等)のうち該当するカテゴリに分類する。 The movement amount quantization unit 122 receives the movement amount component values generated by the environment data generation unit 14 via the simulation control unit 10, and classifies each component into one of a plurality of categories of predetermined explanatory variables. Classify. For example, as shown in FIG. 8, the movement amount quantization unit 122 classifies the lateral movement amount among the movement amount component values into the corresponding category among a plurality of categories (0 to 5, 5 to 10, etc.). .

誤差導出部56は、環境データ生成部14により生成された移動量成分値およびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、移動量誤差を導出する。具体的には、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および移動量量子化部122により選択された(すなわち該当すると判断された)カテゴリに対応するダミー変数の値を1に設定することにより、センサモデルの目的変数である移動量誤差の値を算出する。なお、誤差導出部56は、横移動量の誤差に関するセンサモデル、縦移動量の誤差に関するセンサモデル、旋回角の誤差に関するセンサモデルを使用して、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを導出する。 The error derivation unit 56 derives the movement amount error according to the movement amount component value and the tag data generated by the environment data generation unit 14 and the sensor model (for example, Equation 1 above) stored in the model storage unit 40. do. Specifically, the error derivation unit 56 calculates the dummy variables corresponding to the category selected (that is, determined to be applicable) by the tag quantization unit 52 and the movement amount quantization unit 122 among the dummy variables of the sensor model. By setting the value to 1, the value of the displacement error, which is the objective variable of the sensor model, is calculated. Note that the error deriving unit 56 uses a sensor model for the error in the lateral movement amount, a sensor model for the error in the vertical movement amount, and a sensor model for the error in the turning angle to calculate the error in the lateral movement amount, the error in the vertical movement amount, Derive each of the turning angle errors.

補正部124は、誤差導出部56により導出された車両の移動量成分ごとの誤差を、環境データ生成部14により生成された移動量成分値に足すことにより、車両の移動量成分ごとの真値を導出する。補正部124により導出される車両の移動量成分ごとの真値は、移動量導出部120より精度が高い真値導出部30による車両の移動量の検知結果に対応するものである。補正部124により導出された値(すなわち真値としての横移動量、縦移動量、旋回角)は、シミュレーション制御部10を介して車両モデル部18へ入力され、例えば車両の挙動がシミュレーションされる。 The correction unit 124 adds the error for each vehicle movement amount component derived by the error deriving unit 56 to the movement amount component value generated by the environment data generation unit 14, thereby obtaining the true value for each vehicle movement amount component. to derive The true value for each vehicle movement amount component derived by the correction unit 124 corresponds to the detection result of the vehicle movement amount by the true value derivation unit 30 having higher accuracy than the movement amount derivation unit 120 . The values derived by the correction unit 124 (that is, the lateral movement amount, the vertical movement amount, and the turning angle as true values) are input to the vehicle model unit 18 via the simulation control unit 10, and the behavior of the vehicle, for example, is simulated. .

以上の構成による動作を説明する。
まず、図9を参照しつつ、第2実施例のセンサモデル生成装置20に関する動作を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載センサ(速度センサ、操舵角センサ等)から出力された複数サンプル分のセンサデータをセンサデータ記憶部22に記憶させる。各車載センサは、検知結果を示すセンサデータを車載ネットワークであるCAN(Controller Area Network)へ出力してもよく、センサデータ記憶部22は、CANを流れるセンサデータを収集し、記憶してもよい。
The operation of the above configuration will be described.
First, the operation of the sensor model generation device 20 of the second embodiment will be described with reference to FIG. Developers of in-vehicle equipment who should provide a vehicle simulation system to their customers and partner companies should actually run the vehicle and collect multiple samples of sensor data output from the in-vehicle sensors (speed sensor, steering angle sensor, etc.). It is stored in the data storage unit 22 . Each in-vehicle sensor may output sensor data indicating detection results to a CAN (Controller Area Network), which is an in-vehicle network, and the sensor data storage unit 22 may collect and store sensor data flowing through the CAN. .

それとともに開発者は、車両走行時にGPS装置により計測された複数サンプル分の位置データ(車両の位置の推移を示すデータ)を参照データ記憶部24に記憶させる。さらにまた、開発者は、天気や路面種別等の定性的な内容を含む複数サンプル分のタグデータをタグデータ記憶部26に記憶させる。 At the same time, the developer causes the reference data storage unit 24 to store a plurality of samples of position data (data indicating changes in the position of the vehicle) measured by the GPS device while the vehicle is running. Furthermore, the developer causes the tag data storage unit 26 to store a plurality of samples of tag data including qualitative information such as weather and road surface type.

移動量導出部120は、サンプルごとに、センサデータ記憶部22に格納されたセンサデータをもとに車両の移動量成分(横移動量、縦移動量、旋回角)の値を導出する。真値導出部30は、サンプルごとに、参照データ記憶部24に格納された位置データから車両の移動量成分の真値を導出する。具体的には、真値導出部30は、参照データ記憶部24に格納された現フレームの位置データと、前フレームの位置データとを読み出し、その差分に応じて、車両の移動量成分の真値を算出する。誤差導出部32は、サンプルごとに、横移動量の誤差、縦移動量の誤差、旋回角の誤差を導出する。移動量量子化部121は、サンプルごとに、移動量導出部120により検知された移動量成分の値のカテゴリを特定する。タグ量子化部36は、サンプルごとに、タグデータのカテゴリを特定する。 The movement amount derivation unit 120 derives the value of the movement amount component (horizontal movement amount, vertical movement amount, turning angle) of the vehicle based on the sensor data stored in the sensor data storage unit 22 for each sample. The true value derivation unit 30 derives the true value of the movement amount component of the vehicle from the position data stored in the reference data storage unit 24 for each sample. Specifically, the true value derivation unit 30 reads out the position data of the current frame and the position data of the previous frame stored in the reference data storage unit 24, and calculates the true value of the movement amount component of the vehicle according to the difference. Calculate the value. The error deriving unit 32 derives a lateral movement amount error, a vertical movement amount error, and a turning angle error for each sample. The movement amount quantization unit 121 identifies the category of the value of the movement amount component detected by the movement amount derivation unit 120 for each sample. The tag quantization unit 36 identifies the category of tag data for each sample.

モデル生成部38は、移動量導出部120により検知された移動量成分の値のカテゴリと、タグデータのカテゴリとをダミー変数とし、車両の移動量成分の誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。第2実施例では、モデル生成部38は、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを目的変数とする3種類のセンサモデルを生成する。モデル生成部38は、3種類のセンサモデルをモデル記憶部40に格納する。 The model generation unit 38 uses the category of the value of the movement amount component detected by the movement amount derivation unit 120 and the category of the tag data as dummy variables, and the error of the movement amount component of the vehicle as the objective variable. A sensor model is generated by performing multiple regression analysis. In the second embodiment, the model generation unit 38 generates three types of sensor models, each of which has a lateral movement amount error, a vertical movement amount error, and a turning angle error as objective variables. The model generator 38 stores three types of sensor models in the model storage 40 .

第2実施例のセンサモデル生成装置20によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを実現できる。例えば、天気や路面種別等の定性的な内容を反映した結果を出力するセンサモデルを実現できる。また、第2実施例のセンサモデルでは、センサ検知に基づく、誤差を含み得る移動量の値から、移動量の真値に関するデータを得ることができる。 According to the sensor model generation device 20 of the second embodiment, it is possible to realize a sensor model relating to the amount of movement of the vehicle in consideration of environmental factors, and outputting a realistic result. For example, it is possible to realize a sensor model that outputs results reflecting qualitative information such as weather and road surface type. Further, in the sensor model of the second embodiment, it is possible to obtain data on the true value of the movement amount from the movement amount value that may contain an error based on sensor detection.

次に図4および図10を参照しつつ、第2実施例の車両シミュレーションシステム110に関する動作を説明する。環境データ生成部14は、ユーザインタフェース12を介して入力されたユーザ操作に応じて、車両シミュレーションのパラメータとして、移動量成分値とタグデータを生成する。これらのパラメータの値は、ユーザ(ユーザ端末)により指定されてもよい。また、車両シミュレーションのパラメータとしての移動量成分値は、車載センサからの出力結果に基づく横移動量、縦移動量、旋回角の想定値であり、真値とは異なり得る。 Next, the operation of the vehicle simulation system 110 of the second embodiment will be described with reference to FIGS. 4 and 10. FIG. The environment data generation unit 14 generates movement amount component values and tag data as parameters for vehicle simulation in accordance with user operations input via the user interface 12 . The values of these parameters may be specified by the user (user terminal). Further, the movement amount component values as parameters of the vehicle simulation are assumed values of the lateral movement amount, the vertical movement amount, and the turning angle based on the output results from the vehicle-mounted sensors, and may differ from the true values.

タグ量子化部52は、環境データ生成部14により生成されたタグデータ(例えば天気や路面種別等)のカテゴリを特定する。移動量量子化部122は、環境データ生成部14により生成された移動量成分値のカテゴリを特定する。 The tag quantization unit 52 identifies categories of tag data (for example, weather, road surface type, etc.) generated by the environment data generation unit 14 . The movement amount quantization unit 122 identifies categories of movement amount component values generated by the environment data generation unit 14 .

誤差導出部56は、モデル記憶部40に記憶された3種類のセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および移動量量子化部121により特定されたカテゴリ(ダミー変数)の値を「1」に設定する。これにより、誤差導出部56は、3種類のセンサモデルの目的変数の値として、横移動量の誤差、縦移動量の誤差、旋回角の誤差を得る。補正部124は、環境データ生成部14により生成された移動量成分値に誤差を足すことにより、横移動量の真値、縦移動量の真値、旋回角の真値を推定する。 The error deriving unit 56 extracts the category (dummy variable) to "1". As a result, the error derivation unit 56 obtains the lateral movement amount error, the vertical movement amount error, and the turning angle error as the objective variable values of the three types of sensor models. The correction unit 124 adds an error to the movement amount component value generated by the environment data generation unit 14 to estimate the true value of the lateral movement amount, the true value of the vertical movement amount, and the true value of the turning angle.

車両モデル部18は、補正部124により推定された横移動量の真値、縦移動量の真値、旋回角の真値に基づいて、車両シミュレーションを実行し、例えば、車両の次の挙動を決定する。シミュレーション制御部10は、車両モデル部18によるシミュレーションの結果を、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。 The vehicle model unit 18 executes a vehicle simulation based on the true value of the lateral movement amount, the true value of the vertical movement amount, and the true value of the turning angle estimated by the correction unit 124, and, for example, determines the following behavior of the vehicle. decide. The simulation control unit 10 outputs the result of the simulation by the vehicle model unit 18 to a predetermined output device or stores it in a predetermined storage device.

第2実施例の車両シミュレーションシステム110によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを使用することにより、精度の高いシミュレーションを実現できる。例えば、車載センサからの出力結果に基づく移動量の想定値をもとに、環境要因を加味した移動量の真値を精度よく推定することができる。 According to the vehicle simulation system 110 of the second embodiment, a highly accurate simulation can be realized by using a sensor model relating to the amount of movement of the vehicle that takes environmental factors into account, and that uses a sensor model that outputs realistic results. . For example, it is possible to accurately estimate the true value of the amount of movement that takes environmental factors into consideration based on the assumed value of the amount of movement based on the output result from the vehicle-mounted sensor.

以上、本開示を第2実施例をもとに説明した。第2実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the second embodiment. The second embodiment is an example, and those skilled in the art will understand that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure.

第1実施例の第1変形例に記載した曲線フィッティングは、第2実施例の変形例としても適用できる。センサモデルを使用して目的変数の値を求める推定部(第2実施例では誤差導出部56が対応する)は、複数個のダミー変数に係る各々のカテゴリ係数から、曲線フィッティングにより説明変数の連続値に対するカテゴリ係数の連続値を求めてもよい。誤差導出部56は、上記カテゴリ係数の連続値の中から車両シミュレーションにおける説明変数の値に対応するカテゴリ係数の値をセンサモデルに適用してもよい。 The curve fitting described in the first modification of the first embodiment can also be applied as a modification of the second embodiment. An estimating unit (corresponding to the error deriving unit 56 in the second embodiment) that obtains the value of the objective variable using the sensor model obtains continuous explanatory variables by curve fitting from each category coefficient related to a plurality of dummy variables. A continuous value of the categorical coefficients for the values may be determined. The error derivation unit 56 may apply, to the sensor model, a category coefficient value corresponding to the explanatory variable value in the vehicle simulation from among the continuous values of the category coefficient.

図6の例と同様に、誤差導出部56は、横移動量の複数個のカテゴリに対応する複数個のカテゴリ係数に対して曲線フィッティングを行うことにより近似曲線を導出してもよい。誤差導出部56は、縦移動量、旋回角、タグデータのうち定量的なもの(気温等)についても同様に、複数個のカテゴリ係数に応じた近似曲線を導出してもよい。誤差導出部56は、環境データ生成部14により生成された横移動量、縦移動量、旋回角、タグデータのうち定量的なものについて、それぞれの値に対応するカテゴリ係数を近似曲線から取得し、センサモデル(例えば上記の式1)に当てはめてもよい。なお、ダミー変数の値を「1」にすることは実施例と同様である。この変形例によると、曲線フィッティングにより、入力された説明変数の値に対する適切な重み付けを実現できる。 As in the example of FIG. 6, the error deriving unit 56 may derive an approximate curve by performing curve fitting on a plurality of category coefficients corresponding to a plurality of categories of lateral displacement. The error derivation unit 56 may similarly derive approximate curves corresponding to a plurality of category coefficients for quantitative data (air temperature, etc.) among the vertical movement amount, turning angle, and tag data. The error derivation unit 56 acquires category coefficients corresponding to the quantitative values of the lateral movement amount, the vertical movement amount, the turning angle, and the tag data generated by the environment data generation unit 14 from the approximate curve. , may be fitted to the sensor model (eg, Equation 1 above). Setting the value of the dummy variable to "1" is the same as in the embodiment. According to this modification, it is possible to appropriately weight the input explanatory variable values by curve fitting.

第1実施例の第2変形例に記載したホワイトノイズの足し込みは、第2実施例の変形例としても適用できる。すなわち、車両シミュレーションシステム110のユーザインタフェース12は、乱数に関するデータの指定をユーザから受け付ける受付部として機能してもよい。センサモデル部50の補正部124は、ユーザから指定された乱数に関するデータをもとに、センサモデルを用いた推定値(誤差の値または移動量の成分値)にホワイトノイズを足してもよい。この変形例によると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができる。 The addition of white noise described in the second modification of the first embodiment can also be applied as a modification of the second embodiment. In other words, the user interface 12 of the vehicle simulation system 110 may function as a reception unit that receives designation of data regarding random numbers from the user. The correction unit 124 of the sensor model unit 50 may add white noise to the estimated value (error value or movement amount component value) using the sensor model based on data related to random numbers specified by the user. According to this modified example, it is possible to obtain a more realistic estimation result by adding white noise.

<第3実施例>
車両シミュレーションでは、シナリオに基づき車両の移動量の正確な値(真値)が既知の場合がある。この場合、車両の移動量の真値に基づく公知の計算によりセンサデータ(車速、操舵角等)を算出可能であるが、車両の横滑り等があると、センサデータの算出値は、実際の値とは異なるものになってしまう。
<Third embodiment>
In vehicle simulation, there are cases where the exact value (true value) of the amount of movement of the vehicle is known based on the scenario. In this case, the sensor data (vehicle speed, steering angle, etc.) can be calculated by known calculations based on the true value of the amount of movement of the vehicle. becomes something different.

第3実施例のセンサモデル生成装置も、第2実施例と同様に、車両または車両周辺の現実の状態を示す環境データと、車両の移動量に関するデータとに基づいて、数量化分析を用いた統計処理によりセンサモデルを生成する。そして、第3実施例の車両シミュレーションシステムは、そのセンサモデルを活用することにより精度の高いシミュレーションを実現する。第3実施例のセンサモデル生成装置および車両シミュレーションシステムを構成する部材のうち、第1実施例または第2実施例で説明した部材と同一または対応するものには同じ符号を付す。また、第1実施例または第2実施例と重複する内容は再度の説明を適宜省略する。 Similarly to the second embodiment, the sensor model generation device of the third embodiment also uses quantification analysis based on environmental data indicating the actual state of the vehicle or its surroundings and data on the amount of movement of the vehicle. A sensor model is generated by statistical processing. The vehicle simulation system of the third embodiment realizes highly accurate simulation by utilizing the sensor model. Among the members constituting the sensor model generation device and the vehicle simulation system of the third embodiment, those that are the same as or correspond to the members described in the first or second embodiment are denoted by the same reference numerals. In addition, re-explanation of the same content as in the first embodiment or the second embodiment will be omitted as appropriate.

まず、第3実施例のセンサモデルを説明する。第3実施例のセンサモデルは、車両のシミュレーションシステムにおいて、車両の移動量に関する推定を行うためのモデルである。具体的には、第3実施例のセンサモデルは、真値導出部30により検知された移動量の成分を説明変数とし、かつ、真値導出部30により検知された移動量の成分の真値と、移動量導出部120により検知された移動量の成分値との差を目的変数とするモデルである。第3実施例のセンサモデルも、第1実施例および第2実施例と同様に、上記の式1で表すことができる。 First, the sensor model of the third embodiment will be explained. The sensor model of the third embodiment is a model for estimating the movement amount of a vehicle in a vehicle simulation system. Specifically, in the sensor model of the third embodiment, the moving amount component detected by the true value deriving section 30 is used as an explanatory variable, and the true value of the moving amount component detected by the true value deriving section 30 is , and the component value of the movement amount detected by the movement amount derivation unit 120 as the objective variable. The sensor model of the third embodiment can also be expressed by Equation 1 above, as in the first and second embodiments.

第3実施例におけるセンサモデル構築のためのサンプルデータは、図8と同様である。ただし、第2実施例では、少なくとも(1)横移動量、(2)縦移動量、(3)旋回角は、移動量導出部120により導出されたものであり、真値と異なり得る値であった。一方、第3実施例では、少なくとも(1)横移動量、(2)縦移動量、(3)旋回角は、真値導出部30により導出されたものであり、真値(または真値と見なせる値)である。 Sample data for constructing the sensor model in the third embodiment is the same as in FIG. However, in the second embodiment, at least (1) the amount of lateral movement, (2) the amount of vertical movement, and (3) the turning angle are derived by the movement amount derivation unit 120, and are values that may differ from the true values. there were. On the other hand, in the third embodiment, at least (1) the amount of lateral movement, (2) the amount of vertical movement, and (3) the turning angle are derived by the true value deriving section 30, and value).

図11は、第3実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第3実施例のセンサモデル生成装置20は、第2実施例のセンサモデル生成装置20における移動量量子化部121に代えて真値量子化部34を備える。第3実施例のセンサモデル生成装置20における機能ブロックのうち、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、移動量導出部120、真値導出部30、誤差導出部32、タグ量子化部36は、第2実施例と同様であるため説明を省略する。 FIG. 11 is a block diagram showing functional blocks of the sensor model generation device 20 of the third embodiment. The sensor model generation device 20 of the third embodiment includes a true value quantization section 34 instead of the displacement quantization section 121 in the sensor model generation device 20 of the second embodiment. Of the functional blocks in the sensor model generation device 20 of the third embodiment, a sensor data storage unit 22, a reference data storage unit 24, a tag data storage unit 26, a movement amount derivation unit 120, a true value derivation unit 30, and an error derivation unit 32 , and the tag quantization unit 36 are the same as those in the second embodiment, so description thereof will be omitted.

真値量子化部34は、サンプルごとに、真値導出部30による検知結果を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部34は、真値導出部30により検知された横移動量、縦移動量、旋回角(いずれも所定の単位時間当りの真値)のそれぞれについて、予め定められた複数のカテゴリのいずれかに分類する。第3実施例では、図8で示したように、該当するカテゴリの値を「1」に設定する。 The true value quantization unit 34 classifies the detection result by the true value derivation unit 30 into one of a plurality of categories of predetermined explanatory variables for each sample. For example, the true value quantization unit 34 calculates a predetermined plurality of values for each of the lateral movement amount, the vertical movement amount, and the turning angle (all of which are true values per predetermined unit time) detected by the true value deriving unit 30. classified into one of the following categories. In the third embodiment, as shown in FIG. 8, the value of the applicable category is set to "1".

モデル生成部38は、移動量導出部120による検知結果を推定するためのセンサモデルであり、言い換えれば、車載センサから出力されるセンサデータを推定するためのセンサモデルを生成する。モデル生成部38は、真値導出部30により導出された車両の移動量の成分を説明変数とし、かつ、真値導出部30により導出された車両の移動量の成分値(すなわち真値)と、移動量導出部120により導出された車両の移動量の成分値との差を目的変数とするセンサモデルを生成する。 The model generation unit 38 is a sensor model for estimating the detection result by the movement amount derivation unit 120, in other words, it generates a sensor model for estimating sensor data output from the vehicle-mounted sensor. The model generation unit 38 uses the components of the vehicle movement amount derived by the true value derivation unit 30 as explanatory variables, and the component values (i.e., true values) of the vehicle movement amounts derived by the true value derivation unit 30 as , a sensor model whose objective variable is the difference between the component values of the amount of movement of the vehicle derived by the movement amount derivation unit 120 .

具体的には、図8に例示したように、モデル生成部38は、誤差導出部32により導出された誤差と、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組合せを、サンプルごと、かつ、移動量の成分ごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数(値は「1」)として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。 Specifically, as illustrated in FIG. 8, the model generation unit 38 generates the error derived by the error derivation unit 32, the category selected by the true value quantization unit 34, and the category selected by the tag quantization unit 36. A combination with the selected category is created for each sample and for each movement amount component. The model generation unit 38 uses the error calculated by the error derivation unit 32 as the objective variable, and the category selected by the true value quantization unit 34 and the category selected by the tag quantization unit 36 as dummy variables (values are "1"), a plurality of category coefficients for a plurality of categories are derived by executing statistical processing (multiple regression analysis in the embodiment).

モデル生成部38は、移動量の成分のそれぞれについて、カテゴリ係数を設定した回帰式(上記の式1)をセンサモデルとして生成し、センサモデルのデータをモデル記憶部40に格納する。すなわち、モデル生成部38は、横移動量の誤差を目的変数とするセンサモデル、縦移動量の誤差を目的変数とするセンサモデル、および旋回角の誤差を目的変数とするセンサモデルを生成してモデル記憶部40に格納する。 The model generating unit 38 generates, as a sensor model, a regression equation (equation 1 above) in which category coefficients are set for each component of the movement amount, and stores data of the sensor model in the model storage unit 40 . That is, the model generator 38 generates a sensor model whose objective variable is the error in the lateral displacement, a sensor model whose objective variable is the error in the longitudinal displacement, and a sensor model whose objective variable is the error in the turning angle. Stored in the model storage unit 40 .

次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。第3実施例の車両シミュレーションシステム110の基本的な機能ブロックは、図4に示す第1実施例の車両シミュレーションシステム110の機能ブロックと同様である。 Next, a vehicle simulation system using the sensor model generated by the sensor model generation device 20 will be described. Basic functional blocks of the vehicle simulation system 110 of the third embodiment are similar to those of the vehicle simulation system 110 of the first embodiment shown in FIG.

環境データ生成部14は、センサモデルの説明変数の値を含む環境データを生成する。第3実施例の環境データは、車両シミュレーションのシナリオに基づいて予め定められた、車両シミュレーションのパラメータとしての、車両の移動量成分の真値(単位時間当りの横移動量、縦移動量、旋回角)を含む。この真値は、真値導出部30により検知される移動量の成分値に対応する。また、第3実施例の環境データは、第2実施例と同様に、車両シミュレーションのパラメータとしてのタグデータ、例えば、天気、気温、車両重量等をさらに含む。 The environmental data generator 14 generates environmental data including explanatory variables of the sensor model. The environment data of the third embodiment is the true value of the movement amount component of the vehicle (horizontal movement amount per unit time, vertical movement amount, turning angle). This true value corresponds to the movement amount component value detected by the true value derivation unit 30 . Further, the environment data of the third embodiment further includes tag data as parameters for vehicle simulation, such as weather, temperature, vehicle weight, etc., as in the second embodiment.

センサモデル部50は、真値導出部30による検知結果に対応する値であり、すなわち、車両の移動量成分の真値をセンサモデルに入力することにより、移動量導出部120により検知される車両の移動量成分値を推定する。言い換えれば、センサモデル部50は、真値が示す移動(典型的にはシミュレーションのシナリオ通りの移動)を車両が行った場合に、車載センサ(速度センサ、操舵角センサ等)の出力結果に基づいて検知される車両の移動量(以下「センサ検知移動量」とも呼ぶ。)を推定する。センサ検知移動量は、単位時間当りの横移動量、縦移動量、旋回角を含み、また、真値とは異なり得る。 The sensor model unit 50 is a value corresponding to the detection result by the true value derivation unit 30. That is, by inputting the true value of the movement amount component of the vehicle into the sensor model, the vehicle detected by the movement amount derivation unit 120 is calculated. Estimate the displacement component value of . In other words, the sensor model unit 50 calculates based on the output results of the vehicle-mounted sensors (speed sensor, steering angle sensor, etc.) when the vehicle moves as indicated by the true value (typically moves according to the simulation scenario). The movement amount of the vehicle detected by the sensor (hereinafter also referred to as "sensor-detected movement amount") is estimated. The sensor-detected movement amount includes the lateral movement amount, the vertical movement amount, and the turning angle per unit time, and may differ from the true value.

車両モデル部18は、センサモデル部50により推定されたセンサ検知移動量をもとに車両シミュレーションを実行する。例えば、車両モデル部18は、センサ検知移動量(推定値)を、自動走行制御プログラム(もしくはそのプログラムが実装されたECU(Electronic Control Unit))に入力し、自動走行制御プログラムの実行結果をシミュレーション結果として出力してもよい。 The vehicle model unit 18 executes vehicle simulation based on the sensor-detected movement amount estimated by the sensor model unit 50 . For example, the vehicle model unit 18 inputs the sensor-detected movement amount (estimated value) to an automatic driving control program (or an ECU (Electronic Control Unit) in which the program is implemented), and simulates the execution result of the automatic driving control program. You can output it as a result.

シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を不図示の表示装置に表示させてもよく、または、不図示の記憶装置に格納してもよい。シミュレーションの担当者は、車両モデル部18により出力された自動走行制御プログラムの実行結果を確認し、問題がないか否かを確認してもよい。 The simulation control unit 10 may display the simulation result by the vehicle model unit 18 on a display device (not shown) or store it in a storage device (not shown). The person in charge of the simulation may check the execution result of the automatic cruise control program output by the vehicle model unit 18 and check whether or not there is any problem.

図12は、第3実施例のセンサモデル部50の詳細を示すブロック図である。第3実施例のセンサモデル部50は、タグ量子化部52、真値量子化部54、誤差導出部56、補正部124、モデル記憶部40を含む。モデル記憶部40は、センサモデル生成装置20により生成された車両の移動量成分ごとのセンサモデルを記憶する。 FIG. 12 is a block diagram showing details of the sensor model unit 50 of the third embodiment. The sensor model unit 50 of the third embodiment includes a tag quantization unit 52, a true value quantization unit 54, an error derivation unit 56, a correction unit 124, and a model storage unit 40. The model storage unit 40 stores the sensor model generated by the sensor model generation device 20 for each movement amount component of the vehicle.

真値量子化部54は、環境データ生成部14により生成された移動量成分の真値を、シミュレーション制御部10を介して受け付け、成分ごとに、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部54は、図8で示したように、移動量成分の真値のうち横移動量の真値を、複数のカテゴリ(0~5、5~10等)のうち該当するカテゴリに分類する。 The true value quantization unit 54 receives the true value of the movement amount component generated by the environment data generation unit 14 via the simulation control unit 10, and selects one of a plurality of categories of predetermined explanatory variables for each component. classified as For example, as shown in FIG. 8, the true value quantization unit 54 categorizes the true value of the lateral movement amount among the true values of the movement amount components as corresponding to a plurality of categories (0 to 5, 5 to 10, etc.). Categorize into categories that

誤差導出部56は、環境データ生成部14により生成された移動量成分の真値およびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、移動量誤差を導出する。具体的には、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および真値量子化部54により選択されたカテゴリに対応するダミー変数の値を1に設定することにより、センサモデルの目的変数である移動量誤差の値を算出する。なお、誤差導出部56は、横移動量の誤差に関するセンサモデル、縦移動量の誤差に関するセンサモデル、旋回角の誤差に関するセンサモデルを使用して、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを導出する。 The error derivation unit 56 calculates the movement amount error according to the true value of the movement amount component and the tag data generated by the environment data generation unit 14 and the sensor model (for example, the above equation 1) stored in the model storage unit 40. to derive Specifically, the error derivation unit 56 sets the value of the dummy variable corresponding to the category selected by the tag quantization unit 52 and the true value quantization unit 54 among the dummy variables of the sensor model to 1. , the value of the displacement error, which is the objective variable of the sensor model, is calculated. Note that the error deriving unit 56 uses a sensor model for the error in the lateral movement amount, a sensor model for the error in the vertical movement amount, and a sensor model for the error in the turning angle to calculate the error in the lateral movement amount, the error in the vertical movement amount, Derive each of the turning angle errors.

補正部124は、誤差導出部56により導出された車両の移動量成分ごとの誤差を、環境データ生成部14により生成された移動量成分の真値に足すことにより、センサ検知移動量の各成分の値を導出する。補正部124により導出されるセンサ検知移動量は、真値導出部30より精度が低い移動量導出部120による検知結果に対応するものである。補正部124により導出されたセンサ検知移動量の各成分の値(すなわち横移動量、縦移動量、旋回角)は、シミュレーション制御部10を介して車両モデル部18へ入力され、例えば、自動運転制御用のECUの挙動がシミュレーションされる。 The correction unit 124 adds the error for each movement amount component of the vehicle derived by the error derivation unit 56 to the true value of the movement amount component generated by the environment data generation unit 14, thereby obtaining each component of the sensor detected movement amount. to derive the value of The sensor-detected movement amount derived by the correction unit 124 corresponds to the detection result by the movement amount derivation unit 120 whose accuracy is lower than that of the true value derivation unit 30 . The value of each component of the sensor-detected movement amount derived by the correction unit 124 (that is, the amount of lateral movement, the amount of vertical movement, and the turning angle) is input to the vehicle model unit 18 via the simulation control unit 10, and is used for automatic driving, for example. The behavior of the controlling ECU is simulated.

以上の構成による動作を説明する。
まず、図11を参照しつつ、第3実施例のセンサモデル生成装置20に関する動作を説明する。移動量導出部120、真値導出部30、誤差導出部32、タグ量子化部36の動作は、第2実施例の動作と同じであるため説明を省略する。真値量子化部34は、サンプルごとに、真値導出部30により検知された移動量成分の真値のカテゴリを特定する。
The operation of the above configuration will be described.
First, the operation of the sensor model generation device 20 of the third embodiment will be described with reference to FIG. The operations of the movement amount derivation unit 120, the true value derivation unit 30, the error derivation unit 32, and the tag quantization unit 36 are the same as those in the second embodiment, and thus descriptions thereof will be omitted. The true value quantization unit 34 identifies the true value category of the movement amount component detected by the true value derivation unit 30 for each sample.

モデル生成部38は、真値量子化部34により検知された移動量成分の真値のカテゴリと、タグデータのカテゴリとをダミー変数とし、移動量成分の誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。第3実施例でも、モデル生成部38は、横移動量の誤差、縦移動量の誤差、旋回角の誤差のそれぞれを目的変数とする3種類のセンサモデルを生成する。モデル生成部38は、3種類のセンサモデルをモデル記憶部40に格納する。 The model generation unit 38 uses the category of the true value of the movement amount component detected by the true value quantization unit 34 and the category of the tag data as dummy variables, and the error of the movement amount component as the objective variable. A sensor model is generated by performing multiple regression analysis. In the third embodiment, the model generation unit 38 also generates three types of sensor models, each of which has a lateral movement amount error, a vertical movement amount error, and a turning angle error as objective variables. The model generator 38 stores three types of sensor models in the model storage 40 .

第3実施例のセンサモデル生成装置20によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを実現できる。例えば、天気や路面種別等の定性的な内容を反映した結果を出力するセンサモデルを実現できる。また、第3実施例のセンサモデルでは、車両の移動量の真値から、誤差を含み得るセンサ検知移動量に関するデータを得ることができる。 According to the sensor model generating device 20 of the third embodiment, it is possible to realize a sensor model that is related to the amount of movement of the vehicle in consideration of environmental factors and that outputs results that are in line with reality. For example, it is possible to realize a sensor model that outputs results reflecting qualitative information such as weather and road surface type. Further, in the sensor model of the third embodiment, it is possible to obtain data on the sensor-detected movement amount that may contain an error from the true value of the movement amount of the vehicle.

次に図4および図12を参照しつつ、第3実施例の車両シミュレーションシステム110に関する動作を説明する。環境データ生成部14は、ユーザインタフェース12を介して入力されたユーザ操作に応じて、車両シミュレーションのパラメータとして、シミュレーションのシナリオに基づいてユーザが決定した移動量の真値と、タグデータを生成する。センサモデル部50のタグ量子化部52は、環境データ生成部14により生成されたタグデータ(例えば天気や路面種別等)のカテゴリを特定する。真値量子化部54は、環境データ生成部14により生成された移動量成分の真値のカテゴリを特定する。 Next, the operation of the vehicle simulation system 110 of the third embodiment will be described with reference to FIGS. 4 and 12. FIG. The environmental data generation unit 14 generates, as vehicle simulation parameters, the true value of the amount of movement determined by the user based on the simulation scenario and tag data in response to a user operation input via the user interface 12. . The tag quantization unit 52 of the sensor model unit 50 identifies categories of tag data (for example, weather, road surface type, etc.) generated by the environment data generation unit 14 . The true value quantization unit 54 identifies the true value category of the movement amount component generated by the environment data generation unit 14 .

誤差導出部56は、モデル記憶部40に記憶された3種類のセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および真値量子化部54により特定されたカテゴリ(ダミー変数)の値を「1」に設定する。これにより、誤差導出部56は、3種類のセンサモデルの目的変数の値として、横移動量の誤差、縦移動量の誤差、旋回角の誤差を得る。補正部124は、環境データ生成部14により生成された移動量成分の真値に誤差を足すことにより、センサ検知移動量としての横移動量、縦移動量、旋回角を推定する。 The error deriving unit 56 extracts the category (dummy variable) to "1". As a result, the error derivation unit 56 obtains the lateral movement amount error, the vertical movement amount error, and the turning angle error as the objective variable values of the three types of sensor models. The correction unit 124 adds an error to the true value of the movement amount component generated by the environment data generation unit 14 to estimate the lateral movement amount, the vertical movement amount, and the turning angle as the movement amount detected by the sensor.

車両モデル部18は、補正部124により推定された横移動量、縦移動量、旋回角に基づいて、車両シミュレーションを実行する。例えば、車両モデル部18は、自動運転制御用のプログラム(またはECU)にセンサ検知移動量としての横移動量、縦移動量、旋回角を入力し、そのプログラム(またはECU)の出力結果を得る。なお、車両モデル部18は、センサ検知移動量をもとに対応するセンサデータ(車速、操舵角等)を導出し、そのセンサデータを、自動運転制御用のプログラム(またはECU)に入力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーションの結果を、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。 The vehicle model unit 18 executes vehicle simulation based on the lateral movement amount, the vertical movement amount, and the turning angle estimated by the correction unit 124 . For example, the vehicle model unit 18 inputs the lateral movement amount, the vertical movement amount, and the turning angle as sensor-detected movement amounts to a program (or ECU) for automatic driving control, and obtains the output result of the program (or ECU). . The vehicle model unit 18 derives corresponding sensor data (vehicle speed, steering angle, etc.) based on the amount of movement detected by the sensor, and inputs the sensor data to the automatic driving control program (or ECU). good too. The simulation control unit 10 outputs the result of the simulation by the vehicle model unit 18 to a predetermined output device or stores it in a predetermined storage device.

第3実施例の車両シミュレーションシステム110によると、環境要因を加味した車両の移動量に関するセンサモデルであり、現実に即した結果を出力するセンサモデルを使用することにより、精度の高いシミュレーションを実現できる。例えば、シミュレーションのシナリオに基づく車両の移動量の真値をもとに、現実の車両がそのシナリオの挙動を行う場合のセンサ検知移動量を特定し、そのセンサ検知移動量において車両に不具合が生じないことを確認することができる。 According to the vehicle simulation system 110 of the third embodiment, a highly accurate simulation can be realized by using a sensor model relating to the amount of movement of the vehicle that takes environmental factors into account, and that outputs realistic results. . For example, based on the true value of the amount of movement of the vehicle based on the simulation scenario, the amount of movement detected by the sensor when the actual vehicle behaves according to the scenario is specified, and the vehicle malfunctions at that amount of movement detected by the sensor. can confirm that it is not.

以上、本開示を第3実施例をもとに説明した。第3実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the third embodiment. The third embodiment is an example, and it should be understood by those skilled in the art that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure.

第1実施例の第1変形例に記載した曲線フィッティング、および、第1実施例の第2変形例に記載したホワイトノイズの足し込みは、第2実施例の変形例のみならず、第3実施例の変形例としても適用できることはもちろんである。 The curve fitting described in the first modification of the first embodiment and the addition of white noise described in the second modification of the first embodiment can be performed not only in the modification of the second embodiment but also in the third embodiment. Of course, it can also be applied as a modification of the example.

第2実施例、第3実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目1]
車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出する第1導出部と、
前記第1導出部より高い精度で、前記車両に関する属性の状態を導出する第2導出部と、
前記車両のシミュレーションのためのモデルであって、前記第1導出部または前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルを生成する生成部と、
を備えるモデル生成装置。
[項目2]
前記車両の自動走行に関する属性の状態は、前記車両の自動走行を制御するための前記車両周辺の状態であり、
前記第1導出部は、前記車両の周辺が映る画像データから、前記車両周辺の状態を導出し、
前記モデルは、前記車両のシミュレーションにおいて前記第1導出部による導出結果に関して推定するためのモデルであって、前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルである、
項目1に記載のモデル生成装置。
[項目3]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記車両のシミュレーションにおいて前記第2導出部による導出結果に関して推定するためのモデルであって、前記第1導出部により導出された移動量の成分を説明変数とし、前記第2導出部により導出された移動量の成分と、前記第1導出部により導出された移動量の成分との差を目的変数とするモデルである、
項目1に記載のモデル生成装置。
[項目4]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記車両のシミュレーションにおいて前記第1導出部による導出結果に関して推定するためのモデルであって、前記第2導出部により導出された移動量の成分を説明変数とし、前記第2導出部により導出された移動量の成分と、前記第1導出部により導出された移動量の成分との差を目的変数とするモデルである、
項目1に記載のモデル生成装置。
[項目5]
車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出する導出部について、前記導出部により導出される前記属性の状態、または、前記属性の状態の真値に関して推定するためのモデルであって、前記導出部により導出された前記属性の状態、または、前記属性の状態の真値を説明変数とし、前記属性の状態の真値と、前記導出部により導出された前記属性の状態との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのパラメータとして、前記導出部により導出される前記属性の状態と前記属性の状態の真値の一方を前記モデルに入力することにより、前記導出部により導出される前記属性の状態と前記属性の状態の真値の他方を推定する推定部と、
前記推定部による推定結果をもとに前記車両に関するシミュレーションを実行するシミュレーション部と、
を備える車両シミュレーションシステム。
[項目6]
前記導出部は、車両の周辺が映る画像データから、前記車両の自動走行に関する属性の状態として、前記車両の自動走行を制御するための前記車両周辺の状態を導出するものであり、
前記モデルは、前記導出部による導出結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記導出部により導出された状態との差を目的変数とするモデルであり、
前記推定部は、シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記導出部による導出結果を推定する、
項目5に記載の車両シミュレーションシステム。
[項目7]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記移動量の成分の真値に関して推定するためのモデルであって、前記導出部により導出された移動量の成分を説明変数とし、前記移動量の成分の真値と、前記導出部により導出された移動量の成分との差を目的変数とするモデルであり、
前記推定部は、前記導出部により導出される移動量の成分を前記モデルに入力することにより、前記移動量の成分の真値を推定する、
項目5に記載の車両シミュレーションシステム。
[項目8]
前記車両の自動走行に関する属性の状態は、前記車両の移動量の成分であり、
前記モデルは、前記移動量の成分の真値に関して推定するためのモデルであって、前記移動量の成分の真値を説明変数とし、前記移動量の成分の真値と、前記導出部により導出された移動量の成分との差を目的変数とするモデルであり、
前記推定部は、前記移動量の成分の真値を前記モデルに入力することにより、前記導出部により導出される移動量の成分を推定する、
項目5に記載の車両シミュレーションシステム。
[項目9]
前記モデルは、前記説明変数の複数段階の値に対応する複数個のダミー変数を含み、
前記推定部は、前記複数個のダミー変数に係る各々の係数から、曲線フィッティングにより前記説明変数の連続値に対する係数の連続値を求め、前記係数の連続値の中からシミュレーションにおける前記説明変数の値に対応する係数値を前記モデルに適用する、
項目5から8のいずれかに記載の車両シミュレーションシステム。
[項目10]
乱数に関するデータの指定をユーザから受け付ける受付部をさらに備え、
前記推定部は、前記乱数に関するデータをもとに、前記モデルを用いた推定値にホワイトノイズを足す、
項目5から9のいずれかに記載の車両シミュレーションシステム。
[項目11]
第1導出部が、車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出し、
第2導出部が、前記第1導出部より高い精度で、前記車両に関する属性の状態を導出し、
前記車両のシミュレーションのためのモデルであって、前記第1導出部または前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルを生成する、
モデル生成方法。
[項目12]
第1導出部が、車両に搭載されたセンサの出力結果をもとに、前記車両の自動走行に関する属性の状態を導出し、
第2導出部が、前記第1導出部より高い精度で、前記車両に関する属性の状態を導出し、
前記車両のシミュレーションのためのモデルであって、前記第1導出部または前記第2導出部により導出された状態を説明変数とし、前記第2導出部により導出された状態と、前記第1導出部により導出された状態との差を目的変数とするモデルを生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
The techniques described in the second embodiment, the third embodiment, and the modification may be specified by the following items.
[Item 1]
a first derivation unit for deriving a state of an attribute related to automatic driving of the vehicle based on the output result of a sensor mounted on the vehicle;
a second derivation unit that derives the attribute state of the vehicle with higher accuracy than the first derivation unit;
A model for simulating the vehicle, wherein the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the first derivation unit a generator that generates a model whose objective variable is the difference from the state derived by
A model generation device comprising:
[Item 2]
The state of the attributes related to automatic driving of the vehicle is a state of the vehicle surroundings for controlling the automatic driving of the vehicle,
The first derivation unit derives a state of the surroundings of the vehicle from image data showing the surroundings of the vehicle,
The model is a model for estimating the result of derivation by the first derivation unit in the simulation of the vehicle, wherein the state derived by the second derivation unit is used as an explanatory variable, and A model whose objective variable is the difference between the state derived by the first derivation unit and the state derived by the first derivation unit,
The model generation device according to item 1.
[Item 3]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the result of derivation by the second derivation unit in the simulation of the vehicle, wherein the movement amount component derived by the first derivation unit is used as an explanatory variable, and the second derivation unit A model whose objective variable is the difference between the movement amount component derived by and the movement amount component derived by the first derivation unit,
The model generation device according to item 1.
[Item 4]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the result derived by the first derivation unit in the simulation of the vehicle, and the component of the movement amount derived by the second derivation unit is used as an explanatory variable, and the second derivation unit A model whose objective variable is the difference between the movement amount component derived by and the movement amount component derived by the first derivation unit,
The model generation device according to item 1.
[Item 5]
With respect to a derivation unit that derives the state of an attribute related to automatic driving of the vehicle based on the output result of a sensor mounted on the vehicle, the state of the attribute derived by the derivation unit or the truth of the state of the attribute A model for estimating a value, wherein the state of the attribute derived by the derivation unit or the true value of the state of the attribute is used as an explanatory variable, and the true value of the state of the attribute and the true value of the attribute state by the derivation unit a storage unit that stores a model whose objective variable is the difference from the derived state of the attribute;
By inputting one of the state of the attribute derived by the derivation unit and the true value of the state of the attribute into the model as a parameter of the simulation, the state of the attribute derived by the derivation unit and the value of the attribute an estimating unit that estimates the other of the true values of the state;
a simulation unit that executes a simulation of the vehicle based on the estimation result of the estimation unit;
vehicle simulation system.
[Item 6]
The derivation unit derives the state of the vehicle periphery for controlling the automatic running of the vehicle as the attribute state related to the automatic running of the vehicle from the image data showing the periphery of the vehicle,
The model is a model for estimating the result of derivation by the derivation unit, wherein the true value of the state of the vehicle periphery is used as an explanatory variable, and the true value of the state of the vehicle periphery and the model derived by the derivation unit are It is a model with the difference from the state as the objective variable,
The estimation unit estimates the derivation result by the derivation unit by inputting the true value of the state around the vehicle as a simulation parameter into the model.
A vehicle simulation system according to item 5.
[Item 7]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the true value of the movement amount component, wherein the movement amount component derived by the derivation unit is used as an explanatory variable, and the movement amount component true value and the derived It is a model whose objective variable is the difference between the component of the amount of movement derived by the part,
The estimation unit estimates the true value of the movement amount component by inputting the movement amount component derived by the derivation unit into the model.
A vehicle simulation system according to item 5.
[Item 8]
The attribute state related to automatic driving of the vehicle is a component of the amount of movement of the vehicle,
The model is a model for estimating the true value of the component of the movement amount, the true value of the component of the movement amount is used as an explanatory variable, and the true value of the component of the movement amount is derived by the derivation unit. is a model whose objective variable is the difference between the calculated movement amount component,
The estimation unit estimates the movement amount component derived by the derivation unit by inputting the true value of the movement amount component into the model.
A vehicle simulation system according to item 5.
[Item 9]
The model includes a plurality of dummy variables corresponding to multiple stages of values of the explanatory variable,
The estimating unit obtains a continuous value of the coefficient for the continuous value of the explanatory variable by curve fitting from each coefficient related to the plurality of dummy variables, and the value of the explanatory variable in the simulation from among the continuous values of the coefficient. applying to the model a coefficient value corresponding to
9. A vehicle simulation system according to any one of items 5-8.
[Item 10]
further comprising a reception unit that receives a specification of data related to the random number from the user,
The estimation unit adds white noise to the estimated value using the model based on the data on the random number.
A vehicle simulation system according to any one of items 5 to 9.
[Item 11]
A first derivation unit derives the attribute state related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle,
A second derivation unit derives an attribute state related to the vehicle with higher accuracy than the first derivation unit,
A model for simulating the vehicle, wherein the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the first derivation unit Generate a model whose objective variable is the difference from the state derived by
Model generation method.
[Item 12]
A first derivation unit derives the attribute state related to automatic driving of the vehicle based on the output result of the sensor mounted on the vehicle,
A second derivation unit derives an attribute state related to the vehicle with higher accuracy than the first derivation unit,
A model for simulating the vehicle, wherein the state derived by the first derivation unit or the second derivation unit is used as an explanatory variable, and the state derived by the second derivation unit and the first derivation unit Generate a model whose objective variable is the difference from the state derived by
A computer program that makes a computer do something.

<第4実施例>
本実施例に関して、これまでの実施例と相違する点を中心に以下説明し、共通する点の説明を省略する。本変形例の構成要素のうちこれまでの実施例の構成要素と同一または対応する構成要素には同一の符号を付して説明する。
<Fourth embodiment>
Regarding this embodiment, the following description will focus on the points that are different from the previous embodiments, and the description of the common points will be omitted. Among the constituent elements of this modified example, constituent elements that are the same as or correspond to the constituent elements of the previous embodiments are denoted by the same reference numerals.

従来の車両シミュレーションシステムでは、シミュレーション結果の車両位置として、車両モデルが出力した理想位置としての車両位置のみを描いていた。しかし、理想位置としての車両位置は、タイヤの横滑り等が考慮されておらず、現実の車両位置とは乖離することがある。そのため、車両シミュレーションの結果が、オドメトリセンシングアルゴリズムや車両制御アルゴリズムの評価と課題抽出、およびアルゴリズムの改善に十分に寄与しないことがあった。 In the conventional vehicle simulation system, only the vehicle position as the ideal position output by the vehicle model was drawn as the vehicle position of the simulation result. However, the vehicle position as the ideal position does not take into account side slipping of tires and the like, and may deviate from the actual vehicle position. Therefore, the results of vehicle simulation may not contribute sufficiently to the evaluation and problem extraction of odometry sensing algorithms and vehicle control algorithms, and to the improvement of algorithms.

第4実施例の車両シミュレーションシステムでも、第2実施例および第3実施例と同様に、車両の移動態様に関するセンサモデル(「オドメトリセンシング統計モデル」と言える)を使用して、車両の移動に関するシミュレーションを実行する。第4実施例の車両シミュレーションシステムでは、(1)センサモデル(オドメトリセンシング統計モデル)を用いて算出された、車両の移動態様に関する推定値(実際の車両の移動態様に近い準真値とも言える)と、(2)車両モデルが生成した車両の移動態様に関する理想値、(3)車両内ネットワークを流れる情報に基づくモデルが生成した準理想値とを同時に表示し、それぞれの値の差を明示する。 Similarly to the second and third embodiments, the vehicle simulation system of the fourth embodiment also uses a sensor model (which can be called an "odometry sensing statistical model") regarding the movement of the vehicle to simulate the movement of the vehicle. to run. In the vehicle simulation system of the fourth embodiment, (1) an estimated value (can be said to be a quasi-true value close to the actual movement mode of the vehicle) regarding the movement mode of the vehicle calculated using a sensor model (odometry sensing statistical model); , (2) the ideal value related to the mode of movement of the vehicle generated by the vehicle model, and (3) the quasi-ideal value generated by the model based on the information flowing through the in-vehicle network. .

まず、第4実施例のセンサモデル(オドメトリセンシング統計モデル)を説明する。第4実施例のセンサモデルは、第3実施例のセンサモデルに対応する。第4実施例のセンサモデルは、実際の車両走行時に車両に入力された、車両の挙動を指示する情報を説明変数とし、その情報が指示する車両の挙動と、実際の車両の挙動との差を目的変数とする数理モデルである。 First, the sensor model (odometry sensing statistical model) of the fourth embodiment will be described. The sensor model of the fourth embodiment corresponds to the sensor model of the third embodiment. The sensor model of the fourth embodiment uses, as explanatory variables, information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle. is a mathematical model with as the objective variable.

図13は、第4実施例のセンサモデル(オドメトリセンシング統計モデル)を生成する第4実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。第4実施例のセンサモデル生成装置20は、第3実施例のセンサモデル生成装置20に対応する。第4実施例のセンサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、移動量導出部120、指示値導出部130、誤差導出部32、指示値量子化部132、タグ量子化部36、モデル生成部38を備える。 FIG. 13 is a block diagram showing functional blocks of the sensor model generation device 20 of the fourth embodiment that generates the sensor model (odometry sensing statistical model) of the fourth embodiment. The sensor model generation device 20 of the fourth embodiment corresponds to the sensor model generation device 20 of the third embodiment. The sensor model generation device 20 of the fourth embodiment includes a sensor data storage unit 22, a reference data storage unit 24, a tag data storage unit 26, a movement amount derivation unit 120, an indication value derivation unit 130, an error derivation unit 32, an indication value quantum A quantization unit 132 , a tag quantization unit 36 and a model generation unit 38 are provided.

センサデータ記憶部22は、実際のテスト走行時においてGPS装置(位置センサとも言える)により検知された車両の挙動に関するデータをセンサデータとして記憶する。第4実施例のセンサデータは、テスト走行時の車両の実際の挙動を示すデータであり、具体的には、車速とハンドル舵角(転舵角、旋回角とも言える)の組を含む。なお、車両には自動運転コントローラが搭載され、テスト走行は、その自動運転コントローラにより制御された自動走行であってもよい。 The sensor data storage unit 22 stores, as sensor data, data relating to vehicle behavior detected by a GPS device (also referred to as a position sensor) during an actual test run. The sensor data of the fourth embodiment is data indicating the actual behavior of the vehicle during the test run, and specifically includes a set of vehicle speed and steering angle (which can also be called a steering angle or turning angle). The vehicle may be equipped with an automatic driving controller, and the test driving may be automatic driving controlled by the automatic driving controller.

参照データ記憶部24は、実際のテスト走行時においてCANを流れたデータであり、すなわち、実際のテスト走行時に車両に入力された車両の挙動を指示するデータを、センサデータと比較する参照データとして記憶する。第4実施例の参照データは、実際のテスト走行時に自動運転コントローラからCANを介して駆動系ECU等に入力された指示データを含み、具体的には、車速とハンドル舵角の組を含む。 The reference data storage unit 24 stores the data that flowed through the CAN during the actual test run, that is, the data indicating the behavior of the vehicle that was input to the vehicle during the actual test run as reference data to be compared with the sensor data. Remember. The reference data of the fourth embodiment includes instruction data input from the automatic driving controller to the drive system ECU or the like via CAN during actual test driving, and specifically includes a set of vehicle speed and steering wheel angle.

タグデータ記憶部26は、タグデータとして、車速の誤差とハンドル舵角の誤差の少なくとも一方の要因となる各種定量データまたは定性データを記憶する。第4実施例のタグデータは、テスト走行時の天候(晴れ、曇り、雨等)、テスト走行に用いた車両の重量、タイヤ種別、路面種別を含む。これらのタグデータは、テスト走行時の環境や状態に応じて、開発・試験担当者によりタグデータ記憶部26に格納されてもよい。 The tag data storage unit 26 stores, as tag data, various quantitative data or qualitative data that cause at least one of vehicle speed error and steering angle error. The tag data of the fourth embodiment includes the weather (sunny, cloudy, rain, etc.) during the test run, the weight of the vehicle used for the test run, the tire type, and the road surface type. These tag data may be stored in the tag data storage unit 26 by the person in charge of development and testing according to the environment and conditions during test driving.

以下、「サンプル」とは、テスト走行中の同一タイミングで収集されたデータ群、または、そのデータ群をもとに導出されるデータを意味する。移動量導出部120は、センサデータ記憶部22に記憶されたセンサデータをもとに、サンプルごとの車両の移動量を導出する。具体的には、移動量導出部120は、サンプルごとの車速とハンドル舵角の真値を導出する。なお、センサデータ記憶部22は、GPS装置により検知された車両の単位時間当りの横移動量と縦移動量、旋回角を含むセンサデータを記憶してもよい。この場合、移動量導出部120は、センサデータが示す横移動量と縦移動量をもとに車速の真値を導出し、センサデータが示す旋回角をハンドル舵角の真値として導出してもよい。 Hereinafter, "sample" means a data group collected at the same timing during test driving, or data derived from the data group. The movement amount derivation unit 120 derives the movement amount of the vehicle for each sample based on the sensor data stored in the sensor data storage unit 22 . Specifically, the movement amount derivation unit 120 derives the true values of the vehicle speed and the steering angle for each sample. The sensor data storage unit 22 may store sensor data including the amount of lateral movement, the amount of vertical movement of the vehicle per unit time, and the turning angle detected by the GPS device. In this case, the movement amount derivation unit 120 derives the true value of the vehicle speed based on the lateral movement amount and the vertical movement amount indicated by the sensor data, and derives the turning angle indicated by the sensor data as the true value of the steering angle. good too.

指示値導出部130は、参照データ記憶部24に記憶された参照データをもとに、サンプルごとの車両の移動に関する指示値(車速とハンドル舵角の指示値)を導出する。この指示値は、後述の車両モデル部18が出力する理想値に対応するものである。なお、参照データ記憶部24は、速度指示データとハンドル舵角指示データを含む参照データを記憶してもよい。この場合、指示値導出部130は、参照データが示す速度指示データとハンドル舵角指示データをもとに、車速とハンドル舵角の指示値を導出してもよい。 Based on the reference data stored in the reference data storage unit 24, the instruction value derivation unit 130 derives an instruction value (an instruction value of the vehicle speed and the steering angle) regarding the movement of the vehicle for each sample. This instruction value corresponds to an ideal value output by the vehicle model unit 18, which will be described later. The reference data storage unit 24 may store reference data including speed instruction data and steering angle instruction data. In this case, the instruction value derivation unit 130 may derive the instruction values of the vehicle speed and the steering angle based on the speed instruction data and the steering angle instruction data indicated by the reference data.

誤差導出部32は、移動量導出部120により導出された車速の真値と、指示値導出部130により導出された車速の指示値との誤差を導出する。また、誤差導出部32は、移動量導出部120により導出されたハンドル舵角の真値と、指示値導出部130により導出されたハンドル舵角の指示値との誤差を導出する。誤差導出部32は、サンプルごとに車速の誤差とハンドル舵角の誤差の組を導出する。なお、車速の誤差およびハンドル舵角の誤差は、例えば、タイヤの横滑り等により生じたものである。 The error derivation unit 32 derives an error between the true value of the vehicle speed derived by the movement amount derivation unit 120 and the command value of the vehicle speed derived by the command value derivation unit 130 . The error deriving section 32 also derives an error between the true value of the steering wheel angle derived by the movement amount deriving section 120 and the indicated value of the steering wheel angle derived by the indicated value deriving section 130 . The error derivation unit 32 derives a set of vehicle speed error and steering wheel angle error for each sample. The error in vehicle speed and the error in the steering angle of the steering wheel are caused by, for example, skidding of tires.

指示値量子化部132は、指示値導出部130により導出された、サンプルごとの車両の移動に関する指示値(車速とハンドル舵角の指示値)を量子化する。第1~第3実施例と同様に(例えば図8)、第4実施例のセンサモデル(オドメトリセンシング統計モデル)も複数個の説明変数(「要因」とも呼ぶ)を含み、各要因は、複数個のカテゴリを含む。第4実施例において説明変数には、車速とハンドル舵角が含まれる。指示値量子化部132は、サンプルごとに、車速とハンドル舵角が該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。 The instruction value quantization unit 132 quantizes the instruction values (the vehicle speed and the steering angle of the steering wheel) regarding the movement of the vehicle for each sample derived by the instruction value derivation unit 130 . Similar to the first to third examples (for example, FIG. 8), the sensor model (odometry sensing statistical model) of the fourth example also includes a plurality of explanatory variables (also called “factors”), and each factor includes a plurality of contains categories. In the fourth embodiment, explanatory variables include vehicle speed and steering angle. The instruction value quantization unit 132 identifies the category to which the vehicle speed and the steering angle correspond to each sample, sets the value of the corresponding category to 1, and sets the value of the non-corresponding category to 0.

タグ量子化部36は、タグデータ記憶部26に格納された、サンプルごとのタグデータを量子化する。第4実施例のセンサモデルにおける説明変数には、天候、車両重量、タイヤ種別、路面種別が含まれる。タグ量子化部36は、サンプルごとに、天候、車両重量、タイヤ種別、路面種別それぞれの該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。 The tag quantization section 36 quantizes the tag data for each sample stored in the tag data storage section 26 . Explanatory variables in the sensor model of the fourth embodiment include weather, vehicle weight, tire type, and road surface type. For each sample, the tag quantization unit 36 identifies applicable categories of weather, vehicle weight, tire type, and road surface type, sets the value of the applicable category to 1, and sets the value of the non-applicable category to 0. set.

モデル生成部38は、複数のサンプルのそれぞれについて、指示値量子化部132により導出された車速の指示値およびハンドル舵角の指示値の量子化データと、タグ量子化部36により導出されたタグデータの量子化データとを説明変数とし、誤差導出部32により導出された車速の誤差を目的変数とする組を生成する。モデル生成部38は、上記複数のサンプルデータの組をもとに重回帰分析を実行することにより、車速の指示値、ハンドル舵角の指示値、天候、車両重量、タイヤ種別、路面種別を説明変数とし、車速の誤差を目的変数とするオドメトリセンシング統計モデルを車速誤差モデルとして生成する。 For each of the plurality of samples, the model generating unit 38 generates quantized data of the command value of the vehicle speed and the command value of the steering angle derived by the command value quantizing unit 132, and the tag derived by the tag quantizing unit 36. A set is generated in which the quantized data of the data is used as an explanatory variable and the vehicle speed error derived by the error derivation unit 32 is used as an objective variable. The model generation unit 38 performs multiple regression analysis based on the plurality of sample data sets to explain the indicated value of vehicle speed, indicated value of steering angle, weather, vehicle weight, tire type, and road surface type. An odometry sensing statistical model is generated as a vehicle speed error model with the vehicle speed error as an objective variable.

また、モデル生成部38は、複数のサンプルのそれぞれについて、指示値量子化部132により導出された車速の指示値およびハンドル舵角の指示値の量子化データと、タグ量子化部36により導出されたタグデータの量子化データとを説明変数とし、誤差導出部32により導出されたハンドル舵角の誤差を目的変数とする組を生成する。モデル生成部38は、上記複数のサンプルデータの組をもとに重回帰分析を実行することにより、車速の指示値、ハンドル舵角の指示値、天候、車両重量、タイヤ種別、路面種別を説明変数とし、ハンドル舵角の誤差を目的変数とするオドメトリセンシング統計モデルである舵角誤差モデルを生成する。 In addition, for each of the plurality of samples, the model generation unit 38 generates quantized data of the command value of the vehicle speed and the command value of the steering angle derived by the command value quantization unit 132 and the quantized data of the command value of the steering angle derived by the tag quantization unit 36 A set is generated in which the quantized data of the obtained tag data are used as explanatory variables, and the steering angle error derived by the error deriving section 32 is used as an objective variable. The model generation unit 38 performs multiple regression analysis based on the plurality of sample data sets to explain the indicated value of vehicle speed, indicated value of steering angle, weather, vehicle weight, tire type, and road surface type. A steering angle error model, which is an odometry sensing statistical model with the steering angle error as an objective variable, is generated.

車速誤差モデルと舵角誤差モデルのいずれも上記の式1で表すことができる。モデル生成部38は、生成した車速誤差モデルと舵角誤差モデルとをモデル記憶部40に格納する。 Both the vehicle speed error model and the steering angle error model can be expressed by Equation 1 above. The model generation unit 38 stores the generated vehicle speed error model and steering angle error model in the model storage unit 40 .

次に、センサモデル生成装置20により生成されたオドメトリセンシング統計モデルを使用する車両シミュレーションシステムを説明する。図14は、第4実施例の車両シミュレーションシステム110の機能ブロックを示すブロック図である。車両シミュレーションシステム110は、シミュレーション制御部10、ユーザインタフェース12、CANモデル部112、センサモデル部50、車両モデル部18を備える。 Next, a vehicle simulation system using the odometry sensing statistical model generated by the sensor model generation device 20 will be described. FIG. 14 is a block diagram showing functional blocks of the vehicle simulation system 110 of the fourth embodiment. A vehicle simulation system 110 includes a simulation control section 10 , a user interface 12 , a CAN model section 112 , a sensor model section 50 and a vehicle model section 18 .

ユーザインタフェース12は、シミュレーションの結果を表示する表示装置を含む。車両モデル部18は、シミュレーションのシナリオをもとに、車両の挙動に関する理想値を導出する。車両モデル部18は、車両の挙動に関する理想値として、車速とハンドル舵角の理想値を導出する。この理想値は、車両の自動運転において自動運転コントローラから出力される制御コマンドの設定値に対応するものであり、自動運転コントローラの制御アルゴリズムに基づいて導出される。 User interface 12 includes a display device for displaying the results of the simulation. The vehicle model unit 18 derives ideal values regarding the behavior of the vehicle based on the simulation scenario. The vehicle model unit 18 derives the ideal values of the vehicle speed and the steering angle as ideal values regarding the behavior of the vehicle. This ideal value corresponds to the set value of the control command output from the automatic driving controller during automatic driving of the vehicle, and is derived based on the control algorithm of the automatic driving controller.

CANモデル部112は、シミュレーションのシナリオをもとに車両モデル部18により導出された車両の挙動に関する理想値に対応する値であって、その理想値が示す挙動を車両に実行させるために車両内のネットワーク(実施例ではCAN)を介して伝送される値である準理想値を導出する導出部として機能する。例えば、CANモデル部112は、挙動に関する理想値(車速およびハンドル舵角)と、準理想値(車速およびハンドル舵角)とを対応付けたモデルまたはテーブルを記憶し、そのモデルを使用し、またはそのテーブルを参照して、理想値に対応する準理想値を導出してもよい。 The CAN model unit 112 is a value corresponding to the ideal value regarding the behavior of the vehicle derived by the vehicle model unit 18 based on the simulation scenario. function as a derivation unit for deriving a quasi-ideal value, which is a value transmitted via the network (CAN in the embodiment). For example, the CAN model unit 112 stores a model or table that associates ideal values (vehicle speed and steering wheel angle) with quasi-ideal values (vehicle speed and steering angle), and uses the model or The table may be referenced to derive quasi-ideal values corresponding to the ideal values.

準理想値は、車両モデル部18により導出された理想値に近似するが、CANで伝送されるデータのビット精度の制限により、理想値とは異なる値になることがある。また、複数の単位時間(「フレーム」とも呼ばれる。)に亘る複数回のシミュレーションの間に理想値と準理想値との誤差が蓄積していき、理想値に基づくシミュレーション結果と準理想値に基づくシミュレーション結果との差異が大きくなることもある。なお、車両モデル部18とCANモデル部112は、公知技術(すなわち公知の車両モデルとCANモデル)により実現されてもよい。 The quasi-ideal value approximates the ideal value derived by the vehicle model unit 18, but may differ from the ideal value due to limitations on the bit precision of data transmitted by CAN. In addition, the error between the ideal value and the quasi-ideal value accumulates during multiple simulations over multiple unit times (also called “frames”), and the simulation result based on the ideal value and the quasi-ideal value The difference from the simulation results may be large. Note that the vehicle model unit 18 and the CAN model unit 112 may be realized by a known technique (that is, a known vehicle model and CAN model).

センサモデル部50は、車両モデル部18により導出された車両の挙動に関する理想値を、センサモデル生成装置20により生成されたオドメトリセンシング統計モデルに入力することにより、シミュレーションのシナリオが示す状況における車両の実際の挙動に関する推定値を導出する第2導出部として機能する。センサモデル部50の詳細な構成は後述する。 The sensor model unit 50 inputs the ideal values relating to the behavior of the vehicle derived by the vehicle model unit 18 to the odometry sensing statistical model generated by the sensor model generation device 20, thereby estimating the behavior of the vehicle in the situation indicated by the simulation scenario. It functions as a second derivation unit that derives estimated values for actual behavior. A detailed configuration of the sensor model unit 50 will be described later.

シミュレーション制御部10は、車両シミュレーションを制御する。図15は、第4実施例のシミュレーション制御部10の機能ブロックを示すブロック図である。シミュレーション制御部10は、シナリオ記憶部140、シナリオ読出部142、理想値取得部144、準理想値取得部146、推定値取得部148、結果画像生成部150、出力部152を備える。 The simulation control unit 10 controls vehicle simulation. FIG. 15 is a block diagram showing functional blocks of the simulation control unit 10 of the fourth embodiment. The simulation control unit 10 includes a scenario storage unit 140 , a scenario reading unit 142 , an ideal value acquisition unit 144 , a quasi-ideal value acquisition unit 146 , an estimated value acquisition unit 148 , a result image generation unit 150 and an output unit 152 .

これら複数の機能ブロックの機能が実装されたコンピュータプログラムが、シミュレーション制御部10を実現する1つまたは複数の情報処理装置のストレージにインストールされてもよい。または、上記コンピュータプログラムが、ネットワークを介して、上記情報処理装置のストレージにインストールされてもよい。上記情報処理装置のCPUは、上記コンピュータプログラムをメインメモリに読み出して実行することにより図15に示す各機能ブロックの機能を発揮してもよい。 A computer program in which the functions of these functional blocks are implemented may be installed in the storage of one or more information processing devices that implement the simulation control unit 10 . Alternatively, the computer program may be installed in the storage of the information processing device via a network. The CPU of the information processing apparatus may display the functions of the functional blocks shown in FIG. 15 by reading the computer program into the main memory and executing it.

シナリオ記憶部140は、車両シミュレーションのシナリオを記憶する。車両シミュレーションのシナリオは、例えば、複数の単位時間「フレーム」のそれぞれにおける車両の挙動を示すデータであり、また、天候、車両重量、タイヤ種別、路面種別を示すデータである。シナリオ読出部142は、シナリオ記憶部140に記憶された車両シミュレーションのシナリオをフレームごとに読み出す。 The scenario storage unit 140 stores vehicle simulation scenarios. A vehicle simulation scenario is, for example, data indicating vehicle behavior in each of a plurality of unit time "frames", and data indicating weather, vehicle weight, tire type, and road surface type. Scenario reading unit 142 reads the vehicle simulation scenario stored in scenario storage unit 140 for each frame.

理想値取得部144は、シナリオ読出部142により読み出された車両シミュレーションのシナリオが示す車両の挙動データ(フレーム単位)を車両モデル部18に入力する。理想値取得部144は、車両モデル部18から出力された、車両シミュレーションのシナリオに基づく車速とハンドル舵角の理想値(フレーム単位)を受け付ける。 The ideal value acquisition unit 144 inputs the vehicle behavior data (in units of frames) indicated by the vehicle simulation scenario read by the scenario reading unit 142 to the vehicle model unit 18 . The ideal value acquisition unit 144 receives the ideal values (in units of frames) of the vehicle speed and the steering angle based on the vehicle simulation scenario output from the vehicle model unit 18 .

準理想値取得部146は、車両モデル部18から出力された、車速とハンドル舵角の理想値(フレーム単位)をCANモデル部112に入力する。準理想値取得部146は、CANモデル部112から出力された、車速とハンドル舵角の理想値(フレーム単位)に対応する車速とハンドル舵角の準理想値(フレーム単位)を受け付ける。 The quasi-ideal value acquisition unit 146 inputs to the CAN model unit 112 the ideal values of the vehicle speed and the steering angle (in units of frames) output from the vehicle model unit 18 . The quasi-ideal value acquisition unit 146 receives the quasi-ideal values (in units of frames) of the vehicle speed and steering angle corresponding to the ideal values (in units of frames) of the vehicle speed and the steering angle output from the CAN model unit 112 .

推定値取得部148は、車両モデル部18から出力された、車速とハンドル舵角の理想値(フレーム単位)と、車両シミュレーションのシナリオが示すタグデータ(フレーム単位)をセンサモデル部50に入力する。推定値取得部148は、センサモデル部50から出力された、車速とハンドル舵角の理想値(フレーム単位)に対応する車速とハンドル舵角の推定値(フレーム単位)を受け付ける。車速とハンドル舵角の推定値は、シミュレーションのシナリオが示す状況における車両の実際の挙動を示すものであり、GPS装置により検知される車両の実際の挙動の真値に準ずる準真値とも言える。 The estimated value acquisition unit 148 inputs the ideal values (in units of frames) of the vehicle speed and steering angle output from the vehicle model unit 18 and the tag data (in units of frames) indicated by the scenario of the vehicle simulation to the sensor model unit 50 . . The estimated value acquisition unit 148 receives the estimated values (frame units) of the vehicle speed and the steering wheel angle corresponding to the ideal values (frame units) of the vehicle speed and the steering wheel angle output from the sensor model unit 50 . The estimated values of the vehicle speed and the steering angle indicate the actual behavior of the vehicle in the situation indicated by the simulation scenario, and can be said to be quasi-true values corresponding to the true values of the actual behavior of the vehicle detected by the GPS device.

結果画像生成部150は、車両モデル部18から出力された理想値と、CANモデル部112から出力された準理想値と、センサモデル部50から出力された推定値とをもとに、車両シミュレーションにおける車両の挙動を示す画像であるシミュレーション結果画像を生成する。シミュレーション結果画像の例は後述する。 The result image generation unit 150 performs a vehicle simulation based on the ideal values output from the vehicle model unit 18, the quasi-ideal values output from the CAN model unit 112, and the estimated values output from the sensor model unit 50. generates a simulation result image, which is an image showing the behavior of the vehicle in An example of the simulation result image will be described later.

出力部152は、結果画像生成部150により生成されたシミュレーション結果画像を外部に出力する。第4実施例では、出力部152は、シミュレーション結果画像をユーザインタフェース12の表示装置に表示させる。変形例として、出力部152は、シミュレーション結果画像を所定の記憶装置に記憶させてもよい。 The output unit 152 outputs the simulation result image generated by the result image generation unit 150 to the outside. In the fourth embodiment, the output unit 152 causes the display device of the user interface 12 to display the simulation result image. As a modification, the output unit 152 may store the simulation result image in a predetermined storage device.

図16は、第4実施例のセンサモデル部の詳細を示すブロック図である。センサモデル部50は、モデル記憶部40、理想値量子化部160、タグ量子化部52、誤差導出部56、推定値導出部162を備える。これら複数の機能ブロックの機能が実装されたコンピュータプログラムが、センサモデル部50を実現する1つまたは複数の情報処理装置のストレージにインストールされてもよい。または、上記コンピュータプログラムが、ネットワークを介して、上記情報処理装置のストレージにインストールされてもよい。上記情報処理装置のCPUは、上記コンピュータプログラムをメインメモリに読み出して実行することにより図16に示す各機能ブロックの機能を発揮してもよい。 FIG. 16 is a block diagram showing the details of the sensor model section of the fourth embodiment. The sensor model unit 50 includes a model storage unit 40 , an ideal value quantization unit 160 , a tag quantization unit 52 , an error derivation unit 56 and an estimated value derivation unit 162 . A computer program in which the functions of these functional blocks are implemented may be installed in the storage of one or more information processing devices that implement the sensor model section 50 . Alternatively, the computer program may be installed in the storage of the information processing device via a network. The CPU of the information processing apparatus may display the functions of the functional blocks shown in FIG. 16 by reading the computer program into the main memory and executing it.

モデル記憶部40は、センサモデル生成装置20により生成されたオドメトリセンシング統計モデルである車速誤差モデルと舵角誤差モデルとを記憶する。 The model storage unit 40 stores a vehicle speed error model and a steering angle error model, which are odometry sensing statistical models generated by the sensor model generating device 20 .

理想値量子化部160は、センサモデル生成装置20の指示値量子化部132に対応する。理想値量子化部160は、シミュレーション制御部10から入力された、シミュレーションのフレームごとの車両の移動に関する理想値(車速とハンドル舵角の理想値)を量子化する。理想値量子化部160は、フレームごとに、オドメトリセンシング統計モデルが定める複数のカテゴリのうち車速とハンドル舵角の理想値が該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。 The ideal value quantization section 160 corresponds to the indication value quantization section 132 of the sensor model generation device 20 . The ideal value quantization unit 160 quantizes the ideal values (ideal values of vehicle speed and steering angle) regarding the movement of the vehicle for each simulation frame, which are input from the simulation control unit 10 . The ideal value quantization unit 160 identifies, for each frame, a category to which the ideal values of the vehicle speed and steering angle correspond among the plurality of categories defined by the odometry sensing statistical model, and sets the value of the corresponding category to 1. , set the value of non-applicable categories to 0.

タグ量子化部52は、センサモデル生成装置20のタグ量子化部36に対応する。タグ量子化部52は、シミュレーション制御部10から入力された、シミュレーションのフレームごとのタグデータを量子化する。タグ量子化部52は、フレームごとに、オドメトリセンシング統計モデルが定める複数のカテゴリのうち天候、車両重量、タイヤ種別、路面種別それぞれの該当するカテゴリを識別し、該当するカテゴリの値を1に設定するとともに、該当しないカテゴリの値を0に設定する。 A tag quantization unit 52 corresponds to the tag quantization unit 36 of the sensor model generation device 20 . The tag quantization unit 52 quantizes the tag data for each simulation frame input from the simulation control unit 10 . The tag quantization unit 52 identifies, for each frame, the corresponding category of weather, vehicle weight, tire type, and road surface type among a plurality of categories defined by the odometry sensing statistical model, and sets the value of the corresponding category to 1. In addition, the value of the non-applicable category is set to 0.

誤差導出部56は、理想値量子化部160により導出された車速とハンドル舵角の理想値の量子化データと、タグ量子化部52により導出されたタグデータの量子化データとを車速誤差モデルに入力することにより、車速誤差モデルが出力した車速誤差を取得する。具体的には、誤差導出部56は、車速誤差モデルで規定された複数の説明変数の複数のカテゴリのうち、量子化データで1が設定されたカテゴリのウエイトをモデル記憶部40から読み出し、この読み出したウエイトを用いて、目的変数である車速誤差の値を求める。車速誤差は、車速の理想値が示す車両に入力される速度の指示値と、車両の実際の速度との差である。 The error derivation unit 56 converts the quantized data of the ideal values of the vehicle speed and steering angle derived by the ideal value quantization unit 160 and the quantized data of the tag data derived by the tag quantization unit 52 into a vehicle speed error model. to acquire the vehicle speed error output by the vehicle speed error model. Specifically, the error derivation unit 56 reads out the weight of the category for which 1 is set in the quantization data among the plurality of categories of the plurality of explanatory variables defined by the vehicle speed error model, from the model storage unit 40. Using the read weight, the value of the vehicle speed error, which is the objective variable, is obtained. The vehicle speed error is the difference between the speed command value input to the vehicle indicated by the ideal value of the vehicle speed and the actual speed of the vehicle.

また、誤差導出部56は、理想値量子化部160により導出された車速とハンドル舵角の理想値の量子化データと、タグ量子化部52により導出されたタグデータの量子化データとを舵角誤差モデルに入力することにより、舵角誤差モデルが出力した舵角誤差を取得する。具体的には、誤差導出部56は、舵角誤差モデルで規定された複数の説明変数の複数のカテゴリのうち、量子化データで1が設定されたカテゴリのウエイトをモデル記憶部40から読み出し、この読み出したウエイトを用いて、目的変数である舵角誤差の値を求める。舵角誤差は、ハンドル舵角の理想値が示す車両に入力されるハンドル舵角の指示値と、車両の実際のハンドル舵角との差である。 Also, the error derivation unit 56 quantizes the quantized data of the ideal values of the vehicle speed and steering angle derived by the ideal value quantization unit 160 and the quantized data of the tag data derived by the tag quantization unit 52 . By inputting to the angle error model, the steering angle error output by the steering angle error model is acquired. Specifically, the error deriving unit 56 reads the weight of the category set to 1 in the quantized data from the multiple categories of the multiple explanatory variables defined by the steering angle error model from the model storage unit 40, Using this read weight, the value of the steering angle error, which is the objective variable, is obtained. The steering angle error is the difference between the command value of the steering wheel angle input to the vehicle indicated by the ideal value of the steering wheel angle and the actual steering angle of the vehicle.

推定値導出部162は、シミュレーション制御部10から入力されたシミュレーションのフレームごとの車速の理想値に、誤差導出部56により導出された車速誤差を足すことにより、シミュレーションのフレームごとの車速の推定値を導出する。また、推定値導出部162は、シミュレーション制御部10から入力されたシミュレーションのフレームごとのハンドル舵角の理想値に、誤差導出部56により導出された舵角誤差を足すことにより、シミュレーションのフレームごとのハンドル舵角の推定値を導出する。推定値導出部162は、シミュレーションのフレームごとの車両の移動に関する推定値(すなわち車速とハンドル舵角の推定値)をシミュレーション制御部10に出力する。 The estimated value derivation unit 162 adds the vehicle speed error derived by the error derivation unit 56 to the ideal value of the vehicle speed for each frame of the simulation input from the simulation control unit 10, thereby obtaining an estimated value of the vehicle speed for each frame of the simulation. to derive In addition, the estimated value derivation unit 162 adds the steering angle error derived by the error derivation unit 56 to the ideal value of the steering wheel steering angle for each frame of the simulation input from the simulation control unit 10 to obtain to derive the estimated value of the steering angle of the steering wheel. The estimated value derivation unit 162 outputs estimated values (that is, estimated values of the vehicle speed and the steering angle of the steering wheel) regarding the movement of the vehicle for each frame of the simulation to the simulation control unit 10 .

また、推定値導出部162は、シミュレーションのフレームごとの車速の推定値とともに、その推定値導出時の車速誤差を出力した車速誤差モデルにおける複数項目の説明変数それぞれの重みを示す内訳情報をシミュレーション制御部10へ出力する。車速誤差の内訳情報は、車速誤差モデルにおける複数のカテゴリに対する複数のカテゴリ係数のうち、車速誤差の導出において使用されたカテゴリのカテゴリ係数(言い換えれば量子化データで1が設定されたカテゴリに対するウエイトであり、以下「有効カテゴリ係数」と呼ぶ。)を含む。具体的には、車速誤差の内訳情報は、距離誤差モデルにおける説明変数の項目名称(例えば「天候」「車両重量」等)と有効カテゴリ係数の組を複数組含む。 In addition, the estimated value derivation unit 162 outputs the estimated value of the vehicle speed for each frame of the simulation and the breakdown information indicating the weight of each of the explanatory variables of the plurality of items in the vehicle speed error model that outputs the vehicle speed error at the time of deriving the estimated value. Output to unit 10 . The breakdown information of the vehicle speed error is the category coefficient of the category used in deriving the vehicle speed error (in other words, the weight for the category set to 1 in the quantized data) among the multiple category coefficients for multiple categories in the vehicle speed error model. (hereinafter referred to as “effective category coefficients”). Specifically, the vehicle speed error breakdown information includes a plurality of sets of explanatory variable item names (for example, “weather”, “vehicle weight”, etc.) and effective category coefficients in the distance error model.

同様に、推定値導出部162は、シミュレーションのフレームごとのハンドル舵角の推定値とともに、その推定値導出時の舵角誤差を出力した舵角誤差モデルにおける複数項目の説明変数それぞれの重みを示す内訳情報をシミュレーション制御部10へ出力する。舵角誤差の内訳情報は、舵角誤差モデルにおける複数のカテゴリに対する複数のカテゴリ係数のうち、舵角誤差の導出において使用された有効カテゴリ係数を含む。具体的には、舵角誤差の内訳情報は、舵角誤差モデルにおける説明変数の項目名称(例えば「天候」「車両重量」等)と有効カテゴリ係数の組を複数組含む。 Similarly, the estimated value derivation unit 162 indicates the estimated value of the steering wheel angle for each frame of the simulation and the weight of each explanatory variable of a plurality of items in the steering angle error model that outputs the steering angle error at the time of deriving the estimated value. The breakdown information is output to the simulation control unit 10 . The breakdown information of the steering angle error includes effective category coefficients used in deriving the steering angle error among the plurality of category coefficients for the plurality of categories in the steering angle error model. Specifically, the steering angle error breakdown information includes a plurality of sets of explanatory variable item names (for example, "weather", "vehicle weight", etc.) and effective category coefficients in the steering angle error model.

シミュレーション結果画像について詳細に説明する。図17は、シミュレーション結果画像の例を示す。シミュレーション結果画像170は、複数の要素として、車両画像172、理想値ベクトル174(図17では破線で示す)、準理想値ベクトル176(図17では一点鎖線で示す)、推定値ベクトル178(図17では実線で示す)を含む。 A simulation result image will be described in detail. FIG. 17 shows an example of a simulation result image. The simulation result image 170 includes a plurality of elements including a vehicle image 172, an ideal value vector 174 (indicated by a dashed line in FIG. 17), a quasi-ideal value vector 176 (indicated by a dashed line in FIG. 17), and an estimated value vector 178 (indicated by a dashed line in FIG. 17). shown by a solid line).

シミュレーション制御部10の結果画像生成部150は、車両シミュレーションのフレームごとの車速とハンドル舵角の理想値をもとに、車両の挙動の理想値を示す理想値ベクトル174をシミュレーション結果画像170に設定する。また、結果画像生成部150は、車両シミュレーションのフレームごとの車速とハンドル舵角の準理想値をもとに、車両の挙動の準理想値を示す準理想値ベクトル176をシミュレーション結果画像170に設定する。また、結果画像生成部150は、車両シミュレーションのフレームごとの車速とハンドル舵角の推定値をもとに、車両の挙動の推定値(言い換えれば準真値)を示す推定値ベクトル178をシミュレーション結果画像170に設定する。 The result image generation unit 150 of the simulation control unit 10 sets an ideal value vector 174 indicating the ideal values of the behavior of the vehicle in the simulation result image 170 based on the ideal values of the vehicle speed and steering angle for each frame of the vehicle simulation. do. In addition, the result image generation unit 150 sets a quasi-ideal value vector 176 indicating quasi-ideal values of the behavior of the vehicle in the simulation result image 170 based on the quasi-ideal values of the vehicle speed and the steering angle for each frame of the vehicle simulation. do. In addition, the result image generation unit 150 generates an estimated value vector 178 representing an estimated value (in other words, a quasi-true value) of the behavior of the vehicle based on the estimated values of the vehicle speed and the steering angle for each frame of the vehicle simulation. Set to image 170 .

結果画像生成部150は、理想値ベクトル174、準理想値ベクトル176、推定値ベクトル178を互いに異なる態様(スタイル)に設定する。例えば、理想値ベクトル174、準理想値ベクトル176、推定値ベクトル178は、線種、形状、模様、色彩、太さ、陰影有無等のうち少なくとも1つが互いに異なるように設定される。これにより、車両の挙動の理想値、準理想値、推定値を直観的に区別可能で、かつ、それらの違いを容易に把握できるシミュレーション結果画像を提供できる。 The result image generation unit 150 sets the ideal value vector 174, the quasi-ideal value vector 176, and the estimated value vector 178 in different modes (styles). For example, the ideal value vector 174, the quasi-ideal value vector 176, and the estimated value vector 178 are set so that at least one of line type, shape, pattern, color, thickness, presence/absence of shading, and the like is different from each other. As a result, it is possible to provide a simulation result image in which the ideal value, the quasi-ideal value, and the estimated value of the behavior of the vehicle can be intuitively distinguished, and the difference between them can be easily grasped.

また、結果画像生成部150は、車両の挙動の理想値と推定値との差を示す要素をシミュレーション結果画像170に設定する。具体的には、結果画像生成部150は、ハンドル舵角の差(舵角誤差)を示す舵角誤差インジケータと、車速の差(車速誤差)を示す車速誤差インジケータとをシミュレーション結果画像170に設定する。図17のシミュレーション結果画像170では、舵角誤差インジケータ180を示している。 In addition, the result image generator 150 sets an element indicating the difference between the ideal value and the estimated value of the behavior of the vehicle in the simulation result image 170 . Specifically, the result image generator 150 sets a steering angle error indicator indicating the difference in steering angle (steering angle error) and a vehicle speed error indicator indicating the difference in vehicle speed (vehicle speed error) in the simulation result image 170. do. The simulation result image 170 of FIG. 17 shows the steering angle error indicator 180 .

また、図17には不図示だが、結果画像生成部150は、車両の挙動の準理想値と推定値との差を示す要素をシミュレーション結果画像170に設定してもよい。具体的には、結果画像生成部150は、準理想値と推定値との差に関する舵角誤差インジケータと車速誤差インジケータとをシミュレーション結果画像170に設定してもよい。このように、舵角誤差インジケータと車速誤差インジケータとを配置することにより、シミュレーション結果において、ハンドル舵角の誤差および車速の誤差の把握を容易なものにできる。 Although not shown in FIG. 17, the result image generation unit 150 may set in the simulation result image 170 an element that indicates the difference between the quasi-ideal value and the estimated value of the behavior of the vehicle. Specifically, result image generator 150 may set a steering angle error indicator and a vehicle speed error indicator regarding the difference between the quasi-ideal value and the estimated value in simulation result image 170 . By arranging the steering angle error indicator and the vehicle speed error indicator in this way, it is possible to easily grasp the steering angle error and the vehicle speed error in the simulation results.

図18も、シミュレーション結果画像の例を示す。図18に示すように、シミュレーション結果画像170は、所定の操作に応じて、車両の挙動の理想値と推定値との差の内訳を表示するよう構成される。 FIG. 18 also shows an example of a simulation result image. As shown in FIG. 18, the simulation result image 170 is configured to display the details of the difference between the ideal value and the estimated value of the behavior of the vehicle according to a predetermined operation.

例えば、結果画像生成部150は、シミュレーション結果画像170上で舵角誤差インジケータ180が選択された場合(例えばマウスオーバされた場合)に、舵角誤差の内訳を示す画像である誤差内訳182をシミュレーション結果画像170上に追加表示させるJavaScript(登録商標)コードをシミュレーション結果画像170のデータに設定する。また、図18には不図示だが、結果画像生成部150は、シミュレーション結果画像170において車速誤差インジケータが選択された場合に、車速誤差の内訳を示す画像である誤差内訳をシミュレーション結果画像170上に追加表示させるJavaScriptコードをシミュレーション結果画像170のデータに設定する。 For example, the result image generator 150 simulates the error breakdown 182, which is an image showing the breakdown of the steering angle error, when the steering angle error indicator 180 is selected (eg, moused over) on the simulation result image 170. A JavaScript (registered trademark) code to be additionally displayed on the result image 170 is set in the data of the simulation result image 170 . Further, although not shown in FIG. 18, when the vehicle speed error indicator is selected in the simulation result image 170, the result image generation unit 150 displays the error breakdown, which is an image showing the breakdown of the vehicle speed error, on the simulation result image 170. A JavaScript code to be additionally displayed is set in the data of the simulation result image 170 .

既述したように、センサモデル部50の推定値導出部162は、フレームごとの車速とハンドル舵角の推定値に加えて、フレームごとの車速誤差と舵角誤差の内訳情報をシミュレーション制御部10へ出力する。内訳情報は、車速誤差モデルまたは舵角誤差モデルにおける説明変数の項目名称と有効カテゴリ係数の組を複数組含む。 As described above, the estimated value derivation unit 162 of the sensor model unit 50 not only estimates the vehicle speed and the steering angle for each frame, but also provides the breakdown information of the vehicle speed error and the steering angle error for each frame to the simulation control unit 10. Output to The breakdown information includes a plurality of pairs of explanatory variable item names and effective category coefficients in the vehicle speed error model or the steering angle error model.

図18に示すように、結果画像生成部150は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率を示す円グラフを含む誤差内訳182を、舵角誤差インジケータ180に対応付けてシミュレーション結果画像170のデータに設定する。図18の誤差内訳182では、説明変数の項目として天候、車両重量、タイヤ種別、路面種別を示しているが、他の項目を含んでもよく、誤差内訳182に表示する説明変数の項目は、車両シミュレーションシステム110を用いた実験等により、適切な項目が選択されてよい。 As shown in FIG. 18, the result image generation unit 150 simulates an error breakdown 182 including a pie chart indicating the ratio of effective category coefficients of a plurality of explanatory variables in the steering angle error model in association with the steering angle error indicator 180. Set to the data of the result image 170 . The error breakdown 182 in FIG. 18 shows weather, vehicle weight, tire type, and road surface type as explanatory variable items, but other items may be included. Appropriate items may be selected through experiments or the like using the simulation system 110 .

また、図18には不図示だが、結果画像生成部150は、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率を示す円グラフを含む誤差内訳を、車速誤差インジケータに対応付けてシミュレーション結果画像170のデータに設定する。シミュレーション結果画像170で表示される誤差内訳(例えば誤差内訳182)は、舵角誤差モデルまたは車速誤差モデルにおける複数の説明変数それぞれの重み(言い換えれば相対的な影響度合い)を示す統計図表と言える。 Further, although not shown in FIG. 18, the result image generation unit 150 associates the error breakdown including the pie chart showing the ratio of the effective category coefficients of the multiple explanatory variables in the vehicle speed error model with the vehicle speed error indicator, and the simulation result Set to the data of image 170 . The error breakdown (for example, the error breakdown 182) displayed in the simulation result image 170 can be said to be a statistical chart showing the weights (in other words, the degree of relative influence) of each of the multiple explanatory variables in the steering angle error model or vehicle speed error model.

図19も、シミュレーション結果画像の例を示す。図18の誤差内訳182では、各説明変数の有効カテゴリ係数の比率を円グラフで示したが、誤差内訳は、円グラフとは異なる種類の統計図表を含んでもよい。図19の誤差内訳184は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率と、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数の比率とを積み上げ棒グラフにより示すものである。図19のシミュレーション結果画像170では、舵角誤差インジケータ180と車速誤差インジケータ181のどちらが選択された場合にも、同じ内容の誤差内訳184を表示させてもよい。 FIG. 19 also shows an example of a simulation result image. Although the error breakdown 182 of FIG. 18 shows the ratio of effective category coefficients for each explanatory variable as a pie chart, the error breakdown may include a different type of statistical chart than a pie chart. The error breakdown 184 in FIG. 19 shows the ratio of the effective category coefficients of the multiple explanatory variables in the steering angle error model and the ratio of the effective category coefficients of the multiple explanatory variables in the vehicle speed error model by stacked bar graphs. In the simulation result image 170 of FIG. 19, the same error breakdown 184 may be displayed regardless of whether the steering angle error indicator 180 or the vehicle speed error indicator 181 is selected.

なお、誤差内訳は、舵角誤差モデルまたは車速誤差モデルの各説明変数の有効カテゴリ係数の比率以外の情報を示すものでもよい。例えば、誤差内訳は、舵角誤差モデルまたは車速誤差モデルの各説明変数の名称のみを示すものであってもよく、また、舵角誤差または車速誤差の値を示すものであってもよい。 The error breakdown may indicate information other than the ratio of the effective category coefficients of each explanatory variable of the steering angle error model or vehicle speed error model. For example, the error breakdown may indicate only the name of each explanatory variable of the steering angle error model or the vehicle speed error model, or may indicate the value of the steering angle error or the vehicle speed error.

図20も、シミュレーション結果画像の例を示す。図20のシミュレーション結果画像170は、車両シミュレーションの複数のフレーム(シミュレーションの単位であり、時間軸方向の粒度とも言える)に亘って蓄積された、車両の挙動の理想値と推定値との差(すなわち蓄積誤差)を示すものである。 FIG. 20 also shows an example of a simulation result image. The simulation result image 170 in FIG. 20 is the difference between the ideal value and the estimated value of the behavior of the vehicle ( ie accumulated error).

結果画像生成部150は、複数の理想値ベクトル174を合成した理想値合成ベクトル175をシミュレーション結果画像170に設定する。図20の理想値合成ベクトル175は、3フレーム分の理想値ベクトル174を合成したものである。また、結果画像生成部150は、複数の推定値ベクトル178を合成した推定値合成ベクトル179をシミュレーション結果画像170に設定する。図20の推定値合成ベクトル179は、3フレーム分の推定値ベクトル178を合成したものである。さらにまた、結果画像生成部150は、理想値合成ベクトル175と推定値合成ベクトル179との差(すなわち蓄積誤差)を示す舵角誤差インジケータ180と車速誤差インジケータ181をシミュレーション結果画像170に設定する。 The result image generation unit 150 sets an ideal value synthetic vector 175 obtained by synthesizing a plurality of ideal value vectors 174 in the simulation result image 170 . The ideal value synthetic vector 175 in FIG. 20 is obtained by synthesizing the ideal value vectors 174 for three frames. In addition, the result image generator 150 sets an estimated value combined vector 179 obtained by synthesizing a plurality of estimated value vectors 178 in the simulation result image 170 . The estimated value composite vector 179 in FIG. 20 is obtained by synthesizing the estimated value vectors 178 for three frames. Furthermore, the result image generator 150 sets a steering angle error indicator 180 and a vehicle speed error indicator 181 indicating the difference (that is, accumulated error) between the ideal value combined vector 175 and the estimated value combined vector 179 in the simulation result image 170 .

図19と同様に、結果画像生成部150は、舵角誤差インジケータ180が選択された場合、または、車速誤差インジケータ181が選択された場合に、誤差内訳184がポップアップ表示されるようにシミュレーション結果画像170を設定する。具体的には、結果画像生成部150は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数に基づいて、合成されるフレーム分の有効カテゴリ係数の平均値を求めるようにしてもよい。結果画像生成部150は、舵角誤差モデルにおける複数の説明変数の有効カテゴリ係数(平均値)の比率を示す舵角誤差の誤差内訳184を生成し、舵角誤差インジケータ180に対応付けてシミュレーション結果画像170のデータに設定する。 As in FIG. 19 , the result image generator 150 generates a simulation result image such that the error breakdown 184 is popped up when the steering angle error indicator 180 is selected or the vehicle speed error indicator 181 is selected. 170 is set. Specifically, the result image generation unit 150 may obtain the average value of the effective category coefficients for the synthesized frames based on the effective category coefficients of the multiple explanatory variables in the steering angle error model. The result image generation unit 150 generates an error breakdown 184 of the steering angle error that indicates the ratio of the effective category coefficients (average values) of the multiple explanatory variables in the steering angle error model, and associates the steering angle error indicator 180 with the simulation result. Set to the data of image 170 .

また、結果画像生成部150は、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数に基づいて、合成されるフレーム分の有効カテゴリ係数の平均値を求めるようにしてもよい。結果画像生成部150は、車速誤差モデルにおける複数の説明変数の有効カテゴリ係数(平均値)の比率を示す車速誤差の誤差内訳184を生成し、車速誤差インジケータ181に対応付けてシミュレーション結果画像170のデータに設定する。 Further, the result image generator 150 may obtain the average value of the effective category coefficients for frames to be synthesized based on the effective category coefficients of the multiple explanatory variables in the vehicle speed error model. The result image generation unit 150 generates an error breakdown 184 of the vehicle speed error that indicates the ratio of the effective category coefficients (average values) of the multiple explanatory variables in the vehicle speed error model, and associates it with the vehicle speed error indicator 181 to generate the simulation result image 170. Set to data.

なお、シミュレーション結果画像170は、準理想値ベクトル176と推定値ベクトル178との差を示す要素を含んでもよい。また、シミュレーション結果画像170は、その要素が選択された場合に、準理想値と推定値との誤差内訳を表示するよう構成されてもよい。あるフレームにおける準理想値と推定値との誤差内訳は、同フレームにおける理想値と推定値との誤差内訳と同じ内容が表示されてもよい。さらにまた、シミュレーション結果画像170は、車両シミュレーションの複数のフレームに亘って蓄積された、準理想値と推定値との差を示すよう構成されてもよい。 Note that the simulation result image 170 may include an element indicating the difference between the quasi-ideal vector 176 and the estimated value vector 178 . Also, the simulation result image 170 may be configured to display the error breakdown between the quasi-ideal value and the estimated value when the element is selected. The details of the error between the quasi-ideal value and the estimated value in a certain frame may be the same as the details of the error between the ideal value and the estimated value in the same frame. Furthermore, the simulation results image 170 may be configured to show the difference between the quasi-ideal and estimated values accumulated over multiple frames of the vehicle simulation.

以上、本開示を第4実施例をもとに説明した。第4実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the fourth embodiment. The fourth embodiment is an example, and it should be understood by those skilled in the art that various modifications can be made to the combination of each component or each treatment process, and such modifications are within the scope of the present disclosure.

上記第4実施例のシミュレーション結果画像170では理想値、準理想値、推定値を同時に表示したが、変形例として、シミュレーション結果画像170に表示する値の種類は、ユーザにより選択可能であってもよい。例えば、シミュレーション制御部10の結果画像生成部150は、ユーザの操作に応じて、理想値と推定値を含むが準理想値を含まないシミュレーション結果画像170を生成してもよい。また、結果画像生成部150は、ユーザの操作に応じて、準理想値と推定値を含むが理想値を含まないシミュレーション結果画像170を生成してもよい。 Although ideal values, quasi-ideal values, and estimated values are displayed simultaneously in the simulation result image 170 of the fourth embodiment, as a modification, the types of values displayed in the simulation result image 170 can be selected by the user. good. For example, the result image generation unit 150 of the simulation control unit 10 may generate the simulation result image 170 including the ideal values and the estimated values but not including the quasi-ideal values according to the user's operation. Further, the result image generation unit 150 may generate the simulation result image 170 that includes the quasi-ideal values and the estimated values but does not include the ideal values according to the user's operation.

また、上記第4実施例では言及していないが、シミュレーション結果画像170における車両画像172の向き、言い換えれば、シミュレーション結果画像170における車両画像172の進行方向は、ユーザにより変更可能であってもよい。例えば、シミュレーション結果画像170における車両画像172のデフォルトの向きが右向きである場合、結果画像生成部150は、ユーザの操作に応じて、シミュレーション結果画像170における車両画像172の向きを上向き等に変更してもよい。これにより、シミュレーション結果の分析を支援することができる。 Further, although not mentioned in the fourth embodiment, the orientation of the vehicle image 172 in the simulation result image 170, in other words, the traveling direction of the vehicle image 172 in the simulation result image 170 may be changeable by the user. . For example, when the default direction of the vehicle image 172 in the simulation result image 170 is rightward, the result image generation unit 150 changes the direction of the vehicle image 172 in the simulation result image 170 to upward or the like according to the user's operation. may This can assist analysis of simulation results.

第1実施例の第1変形例に記載した曲線フィッティング、および、第1実施例の第2変形例に記載したホワイトノイズの足し込みは、第4実施例の変形例としても適用できることはもちろんである。 Of course, the curve fitting described in the first modification of the first embodiment and the addition of white noise described in the second modification of the first embodiment can also be applied as modifications of the fourth embodiment. be.

第4実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目2-1]
実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、シミュレーション結果の画像にて、車両の挙動の理想値(例えば車両の自動運転における指示値)と、車両の挙動の推定値(例えば車両の実際の挙動を示す値)とが区別容易に示されるため、オドメトリセンシングアルゴリズムや車両制御アルゴリズムの評価と課題抽出、およびアルゴリズムの改善に有用なシミュレーション結果を提供することができる。
[項目2-2]
前記画像は、前記理想値と前記推定値との差を示す要素を含む、
項目2-1に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の挙動の理想値と推定値との差をユーザに直観的に把握させ易くなる。
[項目2-3]
前記画像は、所定の操作に応じて、前記理想値と前記推定値との差の内訳を表示するよう構成される、
項目2-1または2-2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の挙動の理想値と推定値との差に関する分析を支援することができる。
[項目2-4]
前記モデルは、複数の説明変数それぞれの重みを定めたものであり、
前記理想値と前記推定値との差の内訳は、前記複数の説明変数それぞれの重みを示すものである、
項目2-3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の挙動の理想値と推定値との差が生じた複数の要因、および、各要因の影響度合いを示すことにより、理想値と推定値との差に関する分析を効果的に支援することができる。
[項目2-5]
前記画像は、前記シミュレーションの複数のフレームに亘って蓄積された、前記理想値と前記推定値との差を示すものである、
項目2-1から2-4のいずれかに記載のシミュレーションシステム。
この車両シミュレーションシステムによると、複数のフレームに亘っての車両の挙動の理想値と推定値との蓄積誤差を示すことにより、理想値と推定値との差が一層明確になり、また、理想値と推定値との差に関する分析を効果的に支援することができる。
[項目2-6]
実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出する第1導出部と、
前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する第2導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、シミュレーション結果の画像にて、車両の挙動の準理想値(例えば車両の自動運転においてCANを介して各ECUに入力される値)と、車両の挙動の推定値(例えば車両の実際の挙動を示す値)とが区別容易に示されるため、オドメトリセンシングアルゴリズムや車両制御アルゴリズムの評価と課題抽出、およびアルゴリズムの改善に有用なシミュレーション結果を提供することができる。
[項目2-7]
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
この車両シミュレーション方法によると、項目2-1の車両シミュレーションシステムと同様の効果を奏する。
[項目2-8]
シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出し、
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
この車両シミュレーション方法によると、項目2-6の車両シミュレーションシステムと同様の効果を奏する。
[項目2-9]
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、項目2-1の車両シミュレーションシステムと同様の効果を奏する。
[項目2-10]
シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出し、
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、項目2-6の車両シミュレーションシステムと同様の効果を奏する。
The techniques described in the fourth embodiment and modifications may be specified by the following items.
[Item 2-1]
A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
a derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the simulation scenario by inputting into the model ideal values regarding the behavior of the vehicle derived based on the simulation scenario;
a generator that generates an image showing the ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
According to this vehicle simulation system, in the image of the simulation result, the ideal value of the behavior of the vehicle (for example, the indicated value in automatic driving of the vehicle) and the estimated value of the behavior of the vehicle (for example, the value indicating the actual behavior of the vehicle). can be easily distinguished, it is possible to provide useful simulation results for evaluating odometry sensing algorithms and vehicle control algorithms, extracting issues, and improving the algorithms.
[Item 2-2]
the image includes elements that indicate the difference between the ideal value and the estimated value;
A vehicle simulation system according to item 2-1.
According to this vehicle simulation system, it becomes easier for the user to intuitively grasp the difference between the ideal value and the estimated value of the behavior of the vehicle.
[Item 2-3]
wherein the image is configured to display a breakdown of the difference between the ideal value and the estimated value in response to a predetermined operation;
A vehicle simulation system according to item 2-1 or 2-2.
According to this vehicle simulation system, it is possible to support the analysis of the difference between the ideal value and the estimated value of the behavior of the vehicle.
[Item 2-4]
The model defines weights for each of a plurality of explanatory variables,
The breakdown of the difference between the ideal value and the estimated value indicates the weight of each of the plurality of explanatory variables,
A vehicle simulation system according to item 2-3.
According to this vehicle simulation system, it is possible to effectively analyze the difference between the ideal and estimated values by showing multiple factors that caused the difference between the ideal and estimated values of vehicle behavior and the degree of influence of each factor. can support
[Item 2-5]
The image shows the difference between the ideal value and the estimated value accumulated over multiple frames of the simulation.
A simulation system according to any one of items 2-1 to 2-4.
According to this vehicle simulation system, by showing the cumulative error between the ideal and estimated values of the behavior of the vehicle over a plurality of frames, the difference between the ideal and estimated values becomes clearer. It can effectively support the analysis on the difference between the estimated value and the
[Item 2-6]
A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
A value corresponding to an ideal value regarding the behavior of the vehicle derived based on a simulation scenario, which is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. a first derivation unit that derives a quasi-ideal value that is a value;
a second derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the scenario of the simulation by inputting ideal values regarding the behavior of the vehicle into the model;
a generation unit that generates an image showing the quasi-ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
According to this vehicle simulation system, in the image of the simulation result, the semi-ideal value of the behavior of the vehicle (for example, the value input to each ECU via CAN in automatic operation of the vehicle) and the estimated value of the behavior of the vehicle (for example, values that indicate the actual behavior of the vehicle), it is possible to provide useful simulation results for evaluating odometry sensing algorithms and vehicle control algorithms, extracting problems, and improving the algorithms.
[Item 2-7]
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in a different manner as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
This vehicle simulation method has the same effect as the vehicle simulation system of item 2-1.
[Item 2-8]
A value corresponding to an ideal value regarding vehicle behavior derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting an ideal value for the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
This vehicle simulation method has the same effect as the vehicle simulation system of item 2-6.
[Item 2-9]
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
This computer program has the same effects as the vehicle simulation system of item 2-1.
[Item 2-10]
A value corresponding to an ideal value regarding the behavior of a vehicle derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle that is input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting ideal values regarding the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
This computer program has the same effect as the vehicle simulation system of item 2-6.

上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。 Any combination of the above-described examples and modifications is also useful as an embodiment of the present disclosure. A new embodiment resulting from the combination has the effects of each combined embodiment and modified example. It should also be understood by those skilled in the art that the functions to be fulfilled by each constituent element described in the claims are realized by each constituent element shown in the embodiments and modified examples singly or in conjunction with each other.

12 ユーザインタフェース、 18 車両モデル部、 20 センサモデル生成装置、 40 モデル記憶部、 50 センサモデル部、 110 車両シミュレーションシステム、 112 CANモデル部、 150 結果画像生成部。 12 user interface 18 vehicle model section 20 sensor model generation device 40 model storage section 50 sensor model section 110 vehicle simulation system 112 CAN model section 150 result image generation section.

Claims (10)

実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
a derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the simulation scenario by inputting into the model ideal values regarding the behavior of the vehicle derived based on the simulation scenario;
a generator that generates an image showing the ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
前記画像は、前記理想値と前記推定値との差を示す要素を含む、
請求項1に記載の車両シミュレーションシステム。
the image includes elements that indicate the difference between the ideal value and the estimated value;
The vehicle simulation system according to claim 1.
前記画像は、所定の操作に応じて、前記理想値と前記推定値との差の内訳を表示するよう構成される、
請求項1または2に記載の車両シミュレーションシステム。
wherein the image is configured to display a breakdown of the difference between the ideal value and the estimated value in response to a predetermined operation;
A vehicle simulation system according to claim 1 or 2.
前記モデルは、複数の説明変数それぞれの重みを定めたものであり、
前記理想値と前記推定値との差の内訳は、前記複数の説明変数それぞれの重みを示すものである、
請求項3に記載の車両シミュレーションシステム。
The model defines weights for each of a plurality of explanatory variables,
The breakdown of the difference between the ideal value and the estimated value indicates the weight of each of the plurality of explanatory variables,
A vehicle simulation system according to claim 3.
前記画像は、前記シミュレーションの複数のフレームに亘って蓄積された、前記理想値と前記推定値との差を示すものである、
請求項1から4のいずれかに記載の車両シミュレーションシステム。
The image shows the difference between the ideal value and the estimated value accumulated over multiple frames of the simulation.
A vehicle simulation system according to any one of claims 1 to 4.
実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出する第1導出部と、
前記車両の挙動に関する理想値を前記モデルに入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出する第2導出部と、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
A model in which information indicating the behavior of the vehicle input to the vehicle during actual driving is used as an explanatory variable, and the difference between the behavior of the vehicle indicated by the information and the actual behavior of the vehicle is used as the objective variable. a storage unit that stores
A value corresponding to an ideal value regarding the behavior of the vehicle derived based on a simulation scenario, which is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. a first derivation unit that derives a quasi-ideal value that is a value;
a second derivation unit that derives an estimated value regarding the actual behavior of the vehicle in a situation indicated by the scenario of the simulation by inputting ideal values regarding the behavior of the vehicle into the model;
a generation unit that generates an image showing the quasi-ideal value and the estimated value in different modes as an image showing the behavior of the vehicle in the simulation;
vehicle simulation system.
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in a different manner as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出し、
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
A value corresponding to an ideal value regarding vehicle behavior derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting an ideal value for the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer-implemented vehicle simulation method.
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、シミュレーションのシナリオをもとに導出された前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting the ideal values regarding the behavior of the vehicle derived based on the simulation scenario into a model whose objective variable is the difference between the behavior of the vehicle and the actual behavior of the vehicle in the situation indicated by the simulation scenario derive an estimate for
generating an image showing the ideal value and the estimated value in a different manner as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
シミュレーションのシナリオをもとに導出された車両の挙動に関する理想値に対応する値であって、前記理想値が示す挙動を前記車両に実行させるために前記車両内のネットワークを介して伝送される値である準理想値を導出し、
記憶部に記憶されたモデルであって、実際の車両走行時に前記車両に入力された前記車両の挙動を指示する情報を説明変数とし、前記情報が指示する前記車両の挙動と、前記車両の実際の挙動との差を目的変数とするモデルに、前記車両の挙動に関する理想値を入力することにより、前記シミュレーションのシナリオが示す状況における前記車両の実際の挙動に関する推定値を導出し、
前記シミュレーションにおける前記車両の挙動を示す画像として、前記準理想値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
A value corresponding to an ideal value regarding vehicle behavior derived based on a simulation scenario, which value is transmitted via a network within the vehicle in order to cause the vehicle to execute the behavior indicated by the ideal value. Derive a quasi-ideal value that is
A model stored in a storage unit, in which information indicating the behavior of the vehicle input to the vehicle when the vehicle is actually traveling is used as an explanatory variable, and the behavior of the vehicle indicated by the information and the actual behavior of the vehicle are used. By inputting an ideal value for the behavior of the vehicle into a model whose objective variable is the difference between the behavior of
generating an image showing the quasi-ideal value and the estimated value in different manners as an image showing the behavior of the vehicle in the simulation;
A computer program that makes a computer do something.
JP2020007220A 2020-01-21 2020-01-21 Vehicle simulation system, vehicle simulation method and computer program Active JP7320755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020007220A JP7320755B2 (en) 2020-01-21 2020-01-21 Vehicle simulation system, vehicle simulation method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020007220A JP7320755B2 (en) 2020-01-21 2020-01-21 Vehicle simulation system, vehicle simulation method and computer program

Publications (2)

Publication Number Publication Date
JP2021113768A JP2021113768A (en) 2021-08-05
JP7320755B2 true JP7320755B2 (en) 2023-08-04

Family

ID=77077550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020007220A Active JP7320755B2 (en) 2020-01-21 2020-01-21 Vehicle simulation system, vehicle simulation method and computer program

Country Status (1)

Country Link
JP (1) JP7320755B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146086A (en) 2007-12-13 2009-07-02 Toyota Central R&D Labs Inc Vehicle failure diagnosis/prediction device
JP2011070311A (en) 2009-09-24 2011-04-07 Denso Corp Driving support display device
US20110295455A1 (en) 2008-10-08 2011-12-01 Rene Schenk Method for adapting a separating clutch in a drive train system of a vehicle and drive train system
JP2012220378A (en) 2011-04-11 2012-11-12 Mitsubishi Motors Corp Vehicle behavior simulation device and method
JP2016099144A (en) 2014-11-19 2016-05-30 日立オートモティブシステムズ株式会社 Fault simulation system
WO2017038749A1 (en) 2015-08-31 2017-03-09 日立化成株式会社 Degradation diagnosis device, degradation diagnosis method, and degradation diagnosis system for batteries
JP2017194302A (en) 2016-04-19 2017-10-26 クラリオン株式会社 Position estimation device and estimation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146086A (en) 2007-12-13 2009-07-02 Toyota Central R&D Labs Inc Vehicle failure diagnosis/prediction device
US20110295455A1 (en) 2008-10-08 2011-12-01 Rene Schenk Method for adapting a separating clutch in a drive train system of a vehicle and drive train system
JP2011070311A (en) 2009-09-24 2011-04-07 Denso Corp Driving support display device
JP2012220378A (en) 2011-04-11 2012-11-12 Mitsubishi Motors Corp Vehicle behavior simulation device and method
JP2016099144A (en) 2014-11-19 2016-05-30 日立オートモティブシステムズ株式会社 Fault simulation system
WO2017038749A1 (en) 2015-08-31 2017-03-09 日立化成株式会社 Degradation diagnosis device, degradation diagnosis method, and degradation diagnosis system for batteries
JP2017194302A (en) 2016-04-19 2017-10-26 クラリオン株式会社 Position estimation device and estimation method

Also Published As

Publication number Publication date
JP2021113768A (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US10453256B2 (en) Lane boundary detection data generation in virtual environment
CN113642633B (en) Method, device, equipment and medium for classifying driving scene data
EP3926582B1 (en) Model generating apparatus, method, and program, and prediction apparatus
US20170109458A1 (en) Testbed for lane boundary detection in virtual driving environment
CN111179300A (en) Method, apparatus, system, device and storage medium for obstacle detection
CN107622527A (en) Support the virtual sensor data generation system and method for the rainwater detection algorithm of exploitation view-based access control model
US20170083794A1 (en) Virtual, road-surface-perception test bed
CN111275969B (en) Vehicle track filling method based on intelligent identification of road environment
CN108216249A (en) The system and method detected for the ambient enviroment of vehicle
CN110986938A (en) Bumpy road identification method and device and electronic equipment
JP2020109386A (en) Model generation device, vehicle simulation system, model generation method and computer program
US11270164B1 (en) Vehicle neural network
CN116702096B (en) Method and device for measuring and calculating road sliding resistance of vehicle plateau environment
KR20200101441A (en) Environmental sensor behavior model
JP7320756B2 (en) Vehicle simulation system, vehicle simulation method and computer program
CN114595738A (en) Method for generating training data for recognition model and method for generating recognition model
JP7320755B2 (en) Vehicle simulation system, vehicle simulation method and computer program
EP3859459A1 (en) A computer implemented machine learning system and a method for operating the machine learning system for determining a time series
JP7365633B2 (en) Vehicle simulation system, vehicle simulation method and computer program
JP7349626B2 (en) Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program
Li et al. Efficient method based on recurrent neural networks for pavement evenness detection
CN112651535A (en) Local path planning method and device, storage medium, electronic equipment and vehicle
CN114677662A (en) Method, device, equipment and storage medium for predicting vehicle front obstacle state
KR20230017258A (en) Method and apparatus for providing high resolution digital map
Ginting Vehicle Detection Simulation using YOLOv4 on Autonomous Vehicle System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230713

R151 Written notification of patent or utility model registration

Ref document number: 7320755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03