JP7349626B2 - Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program - Google Patents

Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program Download PDF

Info

Publication number
JP7349626B2
JP7349626B2 JP2019239319A JP2019239319A JP7349626B2 JP 7349626 B2 JP7349626 B2 JP 7349626B2 JP 2019239319 A JP2019239319 A JP 2019239319A JP 2019239319 A JP2019239319 A JP 2019239319A JP 7349626 B2 JP7349626 B2 JP 7349626B2
Authority
JP
Japan
Prior art keywords
vehicle
model
unit
detection
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019239319A
Other languages
Japanese (ja)
Other versions
JP2021108031A (en
Inventor
芸芸 曹
洋文 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019239319A priority Critical patent/JP7349626B2/en
Publication of JP2021108031A publication Critical patent/JP2021108031A/en
Application granted granted Critical
Publication of JP7349626B2 publication Critical patent/JP7349626B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

本開示はデータ処理技術に関し、特にモデル生成装置、車両シミュレーションシステム、モデル生成方法、車両シミュレーション方法およびコンピュータプログラムに関する。 The present disclosure relates to data processing technology, and particularly to a model generation device, a vehicle simulation system, a model generation method, a vehicle simulation method, and a computer program.

車載機器の開発フェーズや評価フェーズでは、開発や評価に要するコストを削減するため、現実の車両を用いる代わりに、現実の車両の挙動を模擬する車両シミュレーションシステムが用いられることがある。 In the development and evaluation phases of in-vehicle equipment, in order to reduce the cost required for development and evaluation, a vehicle simulation system that simulates the behavior of a real vehicle is sometimes used instead of using a real vehicle.

特表2018-514042号公報Special table 2018-514042 publication

歩行者等の対象物を検知したときの車両の挙動をシミュレーションする場合、対象物を検知できるか否かが現実に即したものでなければ、シミュレーション結果が十分に有用なものとはならない可能性がある。 When simulating the behavior of a vehicle when it detects an object such as a pedestrian, the simulation results may not be sufficiently useful unless the ability to detect the object is based on reality. There is.

本開示はこうした状況に鑑みてなされたものであり、1つの目的は、車両シミュレーションシステムにおけるシミュレーション結果の有用性を高めることにある。 The present disclosure has been made in view of these circumstances, and one purpose is to increase the usefulness of simulation results in a vehicle simulation system.

上記課題を解決するために、本開示のある態様のモデル生成装置は、車両の周辺が映る画像データから車両周辺の状態を検知する第1検知部と、第1検知部より高い精度で、車両周辺の状態を検知する第2検知部と、車両のシミュレーションシステムにおいて第1検知部による検知率を推定するためのモデルであって、第2検知部により検知された状態を説明変数とし、第2検知部により検知された状態が、第1検知部により検知される確率を目的変数とするモデルを生成する生成部と、を備える。 In order to solve the above problems, a model generation device according to an aspect of the present disclosure includes a first detection section that detects the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle; This is a model for estimating the detection rate by the first detection unit in a vehicle simulation system, including a second detection unit that detects a surrounding state, the state detected by the second detection unit being an explanatory variable, and the second detection unit detecting a surrounding state. The generating unit includes a generating unit that generates a model whose objective variable is a probability that the state detected by the detecting unit is detected by the first detecting unit.

本開示の別の態様は、車両シミュレーションシステムである。この車両シミュレーションシステムは、車両の周辺が映る画像データから車両周辺の状態を検知する検知部について、検知部による検知率を推定するためのモデルであって、車両周辺の状態の真値を説明変数とし、車両周辺の状態が検知部により検知される確率を目的変数とするモデルを記憶する記憶部と、シミュレーションのパラメータとしての車両周辺の状態の真値をモデルに入力することにより、検知部による検知率を推定する推定部と、推定部により推定された検知率にしたがって車両の挙動をシミュレーションするシミュレーション部と、を備える。 Another aspect of the present disclosure is a vehicle simulation system. This vehicle simulation system is a model for estimating the detection rate of the detection unit that detects the conditions around the vehicle from image data showing the surroundings of the vehicle, and uses the true value of the condition around the vehicle as an explanatory variable. By inputting the true value of the state around the vehicle as a simulation parameter into the model, a storage unit stores a model whose objective variable is the probability that the state around the vehicle is detected by the detection unit. The vehicle includes an estimator that estimates a detection rate, and a simulation unit that simulates the behavior of the vehicle in accordance with the detection rate estimated by the estimator.

本開示のさらに別の態様は、モデル生成方法である。この方法は、第1検知部が、車両の周辺が映る画像データから車両周辺の状態を検知し、第2検知部が、第1検知部より高い精度で、車両周辺の状態を検知し、車両のシミュレーションシステムにおいて第1検知部による検知率を推定するためのモデルであって、第2検知部により検知された状態を説明変数とし、第2検知部により検知された状態が、第1検知部により検知される確率を目的変数とするモデルを生成する。 Yet another aspect of the present disclosure is a model generation method. In this method, the first detection section detects the state around the vehicle from image data showing the surroundings of the vehicle, and the second detection section detects the state around the vehicle with higher accuracy than the first detection section. This is a model for estimating the detection rate by the first detection unit in a simulation system, in which the state detected by the second detection unit is an explanatory variable, and the state detected by the second detection unit is Generate a model whose objective variable is the probability of being detected by .

本開示のさらに別の態様は、車両シミュレーション方法である。この方法は、車両の周辺が映る画像データから車両周辺の状態を検知する検知部について、検知部による検知率を推定するためのモデルであって、車両周辺の状態の真値を説明変数とし、車両周辺の状態が検知部により検知される確率を目的変数とするモデルを記憶し、シミュレーションのパラメータとしての車両周辺の状態の真値をモデルに入力することにより、検知部による検知率を推定し、推定された検知率をもとに車両の挙動をシミュレーションする。 Yet another aspect of the present disclosure is a vehicle simulation method. This method is a model for estimating the detection rate of a detection unit that detects the state of the surroundings of a vehicle from image data showing the surroundings of the vehicle, and uses the true value of the state of the surroundings of the vehicle as an explanatory variable. By storing a model whose objective variable is the probability that the state around the vehicle will be detected by the detection unit, and inputting the true value of the state around the vehicle as a simulation parameter into the model, the detection rate by the detection unit is estimated. , the behavior of the vehicle is simulated based on the estimated detection rate.

なお、以上の構成要素の任意の組合せ、本開示の表現を、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本開示の態様として有効である。 Note that any combination of the above components and expressions of the present disclosure converted between devices, systems, computer programs, recording media on which computer programs are recorded, etc. are also effective as aspects of the present disclosure.

本開示によれば、車両シミュレーションシステムにおけるシミュレーション結果の有用性を高めることができる。 According to the present disclosure, the usefulness of simulation results in a vehicle simulation system can be increased.

従来の車両シミュレーションシステムの機能ブロックを示すブロック図である。FIG. 2 is a block diagram showing functional blocks of a conventional vehicle simulation system. センサモデル構築のためのサンプルデータの例を示す図である。FIG. 3 is a diagram showing an example of sample data for constructing a sensor model. 第1実施例のセンサモデル生成装置の機能ブロックを示すブロック図である。FIG. 2 is a block diagram showing functional blocks of the sensor model generation device of the first embodiment. 第1実施例の車両シミュレーションシステムの機能ブロックを示すブロック図である。FIG. 1 is a block diagram showing functional blocks of a vehicle simulation system according to a first embodiment. 図4のセンサモデル部の詳細を示すブロック図である。5 is a block diagram showing details of the sensor model section of FIG. 4. FIG. 曲線フィッティングの例を示す図である。It is a figure which shows the example of curve fitting. 変形例における車両周辺の状態を示す図である。FIG. 7 is a diagram showing the state around the vehicle in a modified example. 距離誤差モデル構築のためのサンプルデータの例を示す図である。FIG. 3 is a diagram showing an example of sample data for constructing a distance error model. 検知率モデル構築のためのサンプルデータの例を示す図である。FIG. 3 is a diagram showing an example of sample data for constructing a detection rate model. ある姿勢についての検知率表の例を示す図である。FIG. 7 is a diagram showing an example of a detection rate table for a certain posture. 第2実施例のシミュレーション制御部の機能ブロックを示すブロック図である。FIG. 7 is a block diagram showing functional blocks of a simulation control unit in a second embodiment. シミュレーション結果画像の例を示す図である。It is a figure which shows the example of a simulation result image. シミュレーション結果画像の例を示す図である。It is a figure which shows the example of a simulation result image. シミュレーション結果画像の例を示す図である。It is a figure which shows the example of a simulation result image. 検知率モデル構築のためのサンプルデータの例を示す図である。FIG. 3 is a diagram showing an example of sample data for constructing a detection rate model. 第3実施例のセンサモデル生成装置の機能ブロックを示すブロック図である。FIG. 3 is a block diagram showing functional blocks of a sensor model generation device according to a third embodiment. 第3実施例のセンサモデル部の機能ブロックを示すブロック図である。FIG. 7 is a block diagram showing functional blocks of a sensor model section of a third embodiment. 変形例のセンサモデル部の機能ブロックを示すブロック図である。FIG. 7 is a block diagram showing functional blocks of a sensor model section of a modified example.

<第1実施例>
図1は、従来の車両シミュレーションシステム100の機能ブロックを示すブロック図である。本開示のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU・メモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
<First example>
FIG. 1 is a block diagram showing functional blocks of a conventional vehicle simulation system 100. Each block shown in the block diagram of the present disclosure can be realized in terms of hardware by elements and mechanical devices such as the CPU and memory of a computer, and in terms of software by a computer program, etc.; , depicts the functional blocks realized by their cooperation. Those skilled in the art will understand that these functional blocks can be implemented in various ways by combining hardware and software.

車両シミュレーションシステム100は、シミュレーション制御部10、ユーザインタフェース12、環境データ生成部14、画像解析部16、車両モデル部18を備える。シミュレーション制御部10は、車両の挙動のシミュレーションを制御する。また、シミュレーション制御部10は、ユーザインタフェース12、環境データ生成部14、画像解析部16、車両モデル部18とデータを送受信する。 The vehicle simulation system 100 includes a simulation control section 10, a user interface 12, an environmental data generation section 14, an image analysis section 16, and a vehicle model section 18. The simulation control unit 10 controls simulation of vehicle behavior. The simulation control unit 10 also transmits and receives data to and from the user interface 12, the environmental data generation unit 14, the image analysis unit 16, and the vehicle model unit 18.

ユーザインタフェース12は、ユーザ(またはユーザの端末)とのインタフェースを提供する。環境データ生成部14は、ユーザにより指定されたパラメータ(例えば歩行者までの距離や方位等)に応じて、後述の画像解析部16に解析させるための画像データ(CG)を生成する。例えば、環境データ生成部14は、自車の6メートル先に歩行者がいることを示すCGを生成する。 The user interface 12 provides an interface with the user (or the user's terminal). The environmental data generation section 14 generates image data (CG) to be analyzed by an image analysis section 16, which will be described later, according to parameters specified by the user (for example, distance to a pedestrian, direction, etc.). For example, the environmental data generation unit 14 generates a CG indicating that there is a pedestrian 6 meters ahead of the own vehicle.

画像解析部16は、画像データを解析することにより、車両の自動走行を制御するための車両周辺の状態(障害物の位置等)を検知する。例えば、画像解析部16は、自車の進行方向6メートル先に歩行者がいることを示すCGを解析して、自車と歩行者との距離が6.2メートルであることを検知する。この場合、0.2メートルの誤差が生じている。なお、画像解析部16による解析対象は、実際の車両では車載カメラによる撮像画像となるが、車両シミュレーションシステム100では環境データ生成部14により生成されたCGとなる。 The image analysis unit 16 analyzes image data to detect conditions around the vehicle (positions of obstacles, etc.) for controlling automatic travel of the vehicle. For example, the image analysis unit 16 analyzes a CG indicating that there is a pedestrian 6 meters ahead of the vehicle in the direction of travel, and detects that the distance between the vehicle and the pedestrian is 6.2 meters. In this case, there is an error of 0.2 meters. Note that the object to be analyzed by the image analysis unit 16 is an image captured by an on-vehicle camera in an actual vehicle, but in the vehicle simulation system 100, it is a CG generated by the environmental data generation unit 14.

車両モデル部18は、画像解析部16による解析結果をもとに、車両の挙動を決定し、すなわち、車両の自動走行をシミュレーションする。例えば、画像解析部16により自車の進行方向の6.2メートル先に歩行者がいることが検知された場合、車両モデル部18は、ブレーキを作動させること、その結果、歩行者の1メートル手前で停車することを出力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を、所定の表示装置に表示させ、または、所定の記憶装置に格納する。 The vehicle model unit 18 determines the behavior of the vehicle based on the analysis result by the image analysis unit 16, that is, simulates automatic driving of the vehicle. For example, if the image analysis unit 16 detects that there is a pedestrian 6.2 meters ahead in the direction of travel of the own vehicle, the vehicle model unit 18 may operate the brakes and, as a result, It may also output that the vehicle will stop in front of you. The simulation control unit 10 displays the simulation results by the vehicle model unit 18 on a predetermined display device or stores them in a predetermined storage device.

このように従来の車両シミュレーションシステム100では、車両周辺の状態を示す画像を作成し、その画像から車両周辺の状態を検知し、自動運転の内容をシミュレーションしていた。シミュレーションの網羅性を高めるためには、車両周辺の明るさ(天気等)や路面状況、障害物までの距離、車両速度等、様々なケースに対応する多くの画像を作成する必要があるが、多くの画像を作成するためには多くの時間や費用を要する。 As described above, in the conventional vehicle simulation system 100, an image showing the state around the vehicle is created, the state around the vehicle is detected from the image, and the content of automatic driving is simulated. In order to increase the comprehensiveness of the simulation, it is necessary to create many images that correspond to various cases such as the brightness around the vehicle (weather, etc.), road surface conditions, distance to obstacles, vehicle speed, etc. Creating many images requires a lot of time and money.

また、車両周辺の状態を示す画像は、理論モデル(例えば車両速度や明るさ等の複数のパラメータに基づく机上の計算式)をもとに作成することも考えられるが、理論モデルにより作成された画像は、現実の環境と乖離することもある。その結果、車両シミュレーションの結果が、現実の車両の挙動と乖離する可能性がある。 It is also possible to create an image showing the state around the vehicle based on a theoretical model (for example, a theoretical calculation formula based on multiple parameters such as vehicle speed and brightness); Images may deviate from the real environment. As a result, the results of the vehicle simulation may deviate from the actual behavior of the vehicle.

そこで第1実施例では、車両周辺の現実の状態を示す環境データ(言い換えれば現実環境のデータ)と、画像解析結果とに基づいて、数量化分析を用いた統計処理により数理モデル(以下の「センサモデル」とも呼ぶ。)を生成する。そして、センサモデルを使用して、車両の挙動をシミュレーションする。これにより、車両周辺の状態を検知するシミュレーションに、各ケースの画像を作成することが不要になり、シミュレーションのコストを低減でき、また、現実に即した車両挙動をシミュレーションすることができる。 Therefore, in the first embodiment, based on the environmental data indicating the actual state around the vehicle (in other words, the data of the real environment) and the image analysis results, a mathematical model (hereinafter referred to as (also called "sensor model"). The sensor model is then used to simulate the behavior of the vehicle. This eliminates the need to create images for each case in a simulation that detects the state around the vehicle, which reduces simulation costs and allows simulation of vehicle behavior that is consistent with reality.

まず、第1実施例のセンサモデルを説明する。第1実施例のセンサモデルは、車両のシミュレーションシステムにおいて、画像に基づく検知結果(すなわち画像解析部16および後述の画像解析部28による検知結果)に関して推定するためのモデルである。図2は、センサモデル構築のためのサンプルデータの例を示す。同図は、歩行者の識別に関するセンサモデルを構築するためのサンプルデータを示している。各サンプルは、歩行者の識別精度に影響を与える2つの要因として、車両から歩行者までの距離と天気とを含む。 First, the sensor model of the first embodiment will be explained. The sensor model of the first embodiment is a model for estimating detection results based on images (that is, detection results by the image analysis unit 16 and the image analysis unit 28 described below) in a vehicle simulation system. FIG. 2 shows an example of sample data for building a sensor model. The figure shows sample data for constructing a sensor model related to pedestrian identification. Each sample includes distance from the vehicle to the pedestrian and weather as two factors that affect pedestrian identification accuracy.

要因「距離」は、車両から歩行者までの複数段階の距離(真値)に対応する10個のカテゴリを含む。例えば、あるカテゴリは、0.1メートルから2メートルの範囲となり、また、別のカテゴリは、2メートルから4メートルの範囲となる。要因「天気」は、晴れ、曇り、雨の3個のカテゴリを含む。各サンプルは、該当するカテゴリの値を「1」とし、非該当のカテゴリの値を「0」とする。これにより、定量的なデータだけでなく、定性的なデータ(言い換えれば質に関するデータ)も数量として扱うことができる。なお、要因は説明変数とも呼ばれる。また、要因の各カテゴリはダミー変数とも呼ばれる。 The factor "distance" includes 10 categories corresponding to multiple levels of distance (true value) from the vehicle to the pedestrian. For example, one category may range from 0.1 meters to 2 meters, and another category may range from 2 meters to 4 meters. The factor "weather" includes three categories: sunny, cloudy, and rainy. For each sample, the value of the applicable category is "1", and the value of the non-applicable category is "0". This allows not only quantitative data but also qualitative data (in other words, data regarding quality) to be treated as quantity. Note that factors are also called explanatory variables. Each category of factors is also called a dummy variable.

また、各サンプルは、画像解析の精度を示すデータとして、車両から歩行者までの距離の真値と、画像解析により検知された車両から歩行者までの距離との差(「検知距離誤差」とも呼ぶ。)を含む。実施例のセンサモデルは、車両から検知対象物(歩行者等)までの複数段階の距離に対応する複数個のダミー変数を含む。具体的には、距離の10カテゴリと天気の3カテゴリの合計13項目をダミー変数とし、検出距離誤差を目的変数として重回帰分析を行うことにより、各要因の各カテゴリが検出距離誤差に与える影響の大きさを示すセンサモデルを生成する。 In addition, each sample is used as data indicating the accuracy of image analysis, which is the difference between the true value of the distance from the vehicle to the pedestrian and the distance from the vehicle to the pedestrian detected by image analysis (also known as "detection distance error"). ). The sensor model of the embodiment includes a plurality of dummy variables corresponding to multiple stages of distance from the vehicle to a detection target (such as a pedestrian). Specifically, by using a total of 13 items (10 categories of distance and 3 categories of weather) as dummy variables and performing multiple regression analysis with detection distance error as the objective variable, we calculated the influence of each category of each factor on detection distance error. Generate a sensor model that shows the size of.

要因の数をm、各要因のカテゴリ数をn、・・・n、サンプル数をNとして一般化すると、センサモデルは式1で表すことができる。

Figure 0007349626000001
式1のεは残差であり、aijはi番目の要因のj番目のカテゴリを表すダミー変数にかかる係数である(以下「カテゴリ係数」とも呼ぶ。)。実施例のセンサモデル生成装置は、重回帰分析によって、残差の平方和が最小になるように各ダミー変数にかかるカテゴリ係数を導出する。 Generalizing the number of factors as m, the number of categories of each factor as n 1 , .
Figure 0007349626000001
In Equation 1, ε k is a residual, and a ij is a coefficient applied to a dummy variable representing the j-th category of the i-th factor (hereinafter also referred to as "category coefficient"). The sensor model generation device of the embodiment derives category coefficients for each dummy variable by multiple regression analysis so that the sum of squares of residual errors is minimized.

図3は、第1実施例のセンサモデル生成装置20の機能ブロックを示すブロック図である。センサモデル生成装置20は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、画像解析部28、真値検知部30、誤差導出部32、真値量子化部34、タグ量子化部36、モデル生成部38を備える。 FIG. 3 is a block diagram showing functional blocks of the sensor model generation device 20 of the first embodiment. The sensor model generation device 20 includes a sensor data storage section 22, a reference data storage section 24, a tag data storage section 26, an image analysis section 28, a true value detection section 30, an error derivation section 32, a true value quantization section 34, a tag quantum It includes a converting section 36 and a model generating section 38.

図3に示す複数の機能ブロックの機能を実装した複数のモジュールを含むコンピュータプログラムが、センサモデル生成装置20のストレージに記憶されてもよい。センサモデル生成装置20のCPUは、このコンピュータプログラムをメインメモリに読み出して実行することにより、図3に示す各機能ブロックの機能を発揮してもよい。また、図3に示す複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。 A computer program including a plurality of modules implementing the functions of the plurality of functional blocks shown in FIG. 3 may be stored in the storage of the sensor model generation device 20. The CPU of the sensor model generation device 20 may perform the functions of each functional block shown in FIG. 3 by reading this computer program into the main memory and executing it. Further, the plurality of functions shown in FIG. 3 may be distributed to a plurality of devices, or may be realized by the plurality of devices working together as a system.

センサデータ記憶部22、参照データ記憶部24には、現実の車両を用いた試験等において収集されたデータを記憶する。センサデータ記憶部22は、検知の対象物について各種車載センサによるセンシング結果を記憶する。実施例では、センサデータ記憶部22は、車載カメラにより撮像された複数の画像データを記憶し、例えば、3メートル先に歩行者がいる状態を映した画像データ、6メートル先に歩行者がいる状態を映した画像データ、・・・等を記憶する。 The sensor data storage unit 22 and the reference data storage unit 24 store data collected in tests using actual vehicles. The sensor data storage unit 22 stores sensing results of various on-vehicle sensors regarding objects to be detected. In the embodiment, the sensor data storage unit 22 stores a plurality of image data captured by an on-vehicle camera, such as image data showing a pedestrian 3 meters away, and image data showing a pedestrian 6 meters away. It stores image data showing the state, etc.

参照データ記憶部24は、検知の対象物に関する真値検出用のデータを記憶する。実施例では、参照データ記憶部24は、LIDAR(Light Detection and Ranging)による収集したデータであり、車両と対象物との距離の真値を含むデータを記憶する。タグデータ記憶部26は、タグデータとして、ユーザ(開発者や試験者等)により設定されたデータを記憶する。例えば、タグデータ記憶部26は、車両を用いた試験等がなされた日の天気を示すタグデータを記憶する。タグデータは、路面の種類(例えばアスファルトまたは土)や温度、季節等、様々なデータを含んでもよい。 The reference data storage unit 24 stores data for true value detection regarding the object to be detected. In the embodiment, the reference data storage unit 24 stores data collected by LIDAR (Light Detection and Ranging), including the true value of the distance between the vehicle and the object. The tag data storage unit 26 stores data set by a user (developer, tester, etc.) as tag data. For example, the tag data storage unit 26 stores tag data indicating the weather on the day when a test using a vehicle was conducted. The tag data may include various data such as the type of road surface (for example, asphalt or dirt), temperature, season, etc.

なお、センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24に格納されるデータであって、同じ試験で収集または入力されたデータは、互いに対応付けられ1組のサンプルデータとなる。センサモデル生成装置20、センサデータ記憶部22、参照データ記憶部24には、複数の組のサンプルデータ(例えば図2で示したように1万組のサンプルデータ)が格納される。 Note that the data stored in the sensor model generation device 20, the sensor data storage unit 22, and the reference data storage unit 24, which are collected or input in the same test, are associated with each other and become one set of sample data. . A plurality of sets of sample data (for example, 10,000 sets of sample data as shown in FIG. 2) are stored in the sensor model generation device 20, the sensor data storage section 22, and the reference data storage section 24.

画像解析部28は、図1の画像解析部16に対応する。すなわち、画像解析部28は、センサデータ記憶部22に記憶された画像データをもとに、車両の自動走行を制御するための車両周辺の状態を検知する。具体的には、画像解析部28は、センサデータ記憶部22に記憶された複数のサンプルの画像データをもとに、複数のサンプルにおける車両と歩行者との距離を検知する。画像をもとに車両と歩行者との距離を導出する方法は公知技術を採用してよい。 The image analysis section 28 corresponds to the image analysis section 16 in FIG. That is, the image analysis unit 28 detects the state around the vehicle for controlling automatic driving of the vehicle based on the image data stored in the sensor data storage unit 22. Specifically, the image analysis unit 28 detects the distance between the vehicle and the pedestrian in a plurality of samples based on the image data of the plurality of samples stored in the sensor data storage unit 22. A known technique may be used to derive the distance between the vehicle and the pedestrian based on the image.

真値検知部30は、参照データ記憶部24に記憶されたLIDARデータをもとに、車両周辺の状態を検知する。具体的には、真値検知部30は、参照データ記憶部24に記憶された複数のサンプルのLIDARデータをもとに、複数のサンプルにおける車両と歩行者との距離を検知する。ここで、画像を用いた距離検知よりLIDARを用いた距離検知の方が精度が高く、実質的に、LIDARによる距離検知の結果は、車両と歩行者との距離の真値を示す。すなわち、真値検知部30は、車両と歩行者との距離の真値を検知するとも言える。 The true value detection unit 30 detects the state around the vehicle based on the LIDAR data stored in the reference data storage unit 24. Specifically, the true value detection unit 30 detects the distance between the vehicle and the pedestrian in a plurality of samples based on the LIDAR data of the plurality of samples stored in the reference data storage unit 24. Here, distance detection using LIDAR is more accurate than distance detection using images, and the result of distance detection using LIDAR essentially indicates the true value of the distance between the vehicle and the pedestrian. That is, it can be said that the true value detection unit 30 detects the true value of the distance between the vehicle and the pedestrian.

誤差導出部32は、サンプルごとに、真値検知部30による検知結果(実施例では車両と歩行者との距離の真値)と、画像解析部28による検知結果(実施例では画像を用いる車両と歩行者との検知距離)との差である検知距離誤差を算出する。 The error derivation unit 32 calculates, for each sample, the detection result by the true value detection unit 30 (in the example, the true value of the distance between the vehicle and the pedestrian) and the detection result by the image analysis unit 28 (in the example, the distance between the vehicle and the pedestrian using the image). The detected distance error is calculated as the difference between the detected distance between the vehicle and the pedestrian.

真値量子化部34は、サンプルごとに、真値検知部30による検知結果(実施例では車両と歩行者との距離の真値)を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部34は、図2で示したように、真値検知部30により検知された車両と歩行者との距離の真値を、10個のカテゴリのうち該当するカテゴリに分類してもよい。 The true value quantization unit 34 converts the detection result by the true value detection unit 30 (in the embodiment, the true value of the distance between the vehicle and the pedestrian) into one of a plurality of categories of predetermined explanatory variables for each sample. Classify into. For example, as shown in FIG. 2, the true value quantization unit 34 classifies the true value of the distance between the vehicle and the pedestrian detected by the true value detection unit 30 into a corresponding category out of ten categories. You may.

タグ量子化部36は、サンプルごとに、タグデータ記憶部26に記憶されたタグデータを、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部36は、図2で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類してもよい。 The tag quantization unit 36 classifies the tag data stored in the tag data storage unit 26 into one of a plurality of predetermined explanatory variable categories for each sample. For example, as shown in FIG. 2, the tag quantization unit 36 may classify tag data indicating the weather into the appropriate category among three categories.

モデル生成部38は、誤差導出部32により算出された誤差と、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとの組み合わせをサンプルごとに作成する。モデル生成部38は、誤差導出部32により算出された誤差を目的変数とし、真値量子化部34により選択されたカテゴリと、タグ量子化部36により選択されたカテゴリとをダミー変数として統計処理(実施例では重回帰分析)を実行することにより、複数のカテゴリにかかる複数のカテゴリ係数を導出する。モデル生成部38は、カテゴリ係数を設定した回帰式(上記の式1)でセンサモデルとして生成し、センサモデルのデータとして求めた複数のカテゴリの係数をモデル記憶部40に格納する。 The model generation unit 38 creates a combination of the error calculated by the error derivation unit 32, the category selected by the true value quantization unit 34, and the category selected by the tag quantization unit 36 for each sample. The model generation unit 38 uses the error calculated by the error derivation unit 32 as an objective variable, and performs statistical processing using the category selected by the true value quantization unit 34 and the category selected by the tag quantization unit 36 as dummy variables. (Multiple regression analysis in the embodiment) is performed to derive a plurality of category coefficients related to a plurality of categories. The model generation unit 38 generates a sensor model using a regression equation (formula 1 above) in which category coefficients are set, and stores the coefficients of a plurality of categories obtained as data of the sensor model in the model storage unit 40.

次に、センサモデル生成装置20により生成されたセンサモデルを使用する車両シミュレーションシステムを説明する。図4は、第1実施例の車両シミュレーションシステム110の機能ブロックを示すブロック図である。第1実施例の車両シミュレーションシステム110は、シミュレーション制御部10、ユーザインタフェース12、環境データ生成部14、車両モデル部18、センサモデル部50を備える。 Next, a vehicle simulation system that uses the sensor model generated by the sensor model generation device 20 will be described. FIG. 4 is a block diagram showing functional blocks of the vehicle simulation system 110 of the first embodiment. The vehicle simulation system 110 of the first embodiment includes a simulation control section 10, a user interface 12, an environmental data generation section 14, a vehicle model section 18, and a sensor model section 50.

図4に示す複数の機能ブロックの機能を実装した複数のモジュールを含むコンピュータプログラムが、車両シミュレーションシステム110のストレージに記憶されてもよい。車両シミュレーションシステム110のCPU(またはシステム内の装置のCPU)は、このコンピュータプログラムをメインメモリに読み出して実行することにより、図4に示す各機能ブロックの機能を発揮してもよい。また、図4に示す複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。さらにまた、図4に示す複数の機能は、単一の装置に集約されてもよい。 A computer program including a plurality of modules implementing the functions of the plurality of functional blocks shown in FIG. 4 may be stored in the storage of the vehicle simulation system 110. The CPU of the vehicle simulation system 110 (or the CPU of a device within the system) may perform the functions of each functional block shown in FIG. 4 by reading this computer program into the main memory and executing it. Moreover, the plurality of functions shown in FIG. 4 may be distributed to a plurality of devices, or may be realized by the plurality of devices working together as a system. Furthermore, multiple functions shown in FIG. 4 may be aggregated into a single device.

第1実施例の車両シミュレーションシステム110の機能ブロックのうち、図1に示した従来の車両シミュレーションシステム100の機能ブロックと同一または対応する機能ブロックには同一の符号を付している。以下、図1に関連して説明済みの内容は再度の説明を適宜省略する。 Among the functional blocks of the vehicle simulation system 110 of the first embodiment, functional blocks that are the same as or correspond to the functional blocks of the conventional vehicle simulation system 100 shown in FIG. 1 are given the same reference numerals. Hereinafter, the content that has already been explained in connection with FIG. 1 will be omitted from further explanation as appropriate.

環境データ生成部14は、ユーザインタフェース12で受け付けられたパラメータ、または、ファイル等の外部ソースから入力されたパラメータに応じて、シミュレーションの前提となる環境データを生成する。環境データは、センサモデルの説明変数の値を含む。実施例の環境データは、真値データとして車両から歩行者までの距離を含み、または、車両から歩行者までの距離の算出に必要なデータを含み、タグデータとして天気を示す値を含む。 The environmental data generation unit 14 generates environmental data that is a prerequisite for simulation according to parameters accepted through the user interface 12 or parameters input from an external source such as a file. The environmental data includes values of explanatory variables of the sensor model. The environmental data of the embodiment includes the distance from the vehicle to the pedestrian as true value data, or includes data necessary for calculating the distance from the vehicle to the pedestrian, and includes a value indicating the weather as tag data.

センサモデル部50は、従来の車両シミュレーションシステム100における画像解析部16の代替となる機能を提供する。センサモデル部50は、車両シミュレーションのパラメータとしての車両周辺の状態の真値(実施例では車両から歩行者までの距離)とタグデータをセンサモデルに入力することにより、画像解析部16が上記状態を示す画像を解析した場合の検知結果を推定する推定部として機能する。 The sensor model unit 50 provides a function that replaces the image analysis unit 16 in the conventional vehicle simulation system 100. The sensor model section 50 inputs the true value of the state around the vehicle (in the embodiment, the distance from the vehicle to the pedestrian) and tag data as vehicle simulation parameters, so that the image analysis section 16 can calculate the above state. It functions as an estimator that estimates the detection result when an image showing the image is analyzed.

車両モデル部18は、センサモデル部50による推定結果をもとに車両の挙動を決定し、すなわち、車両の自動走行をシミュレーションする。例えば、センサモデル部50により自車の進行方向の6.2メートル先に歩行者がいるという結果が得られた場合、車両モデル部18は、ブレーキを作動させること、その結果、歩行者の1メートル手前で停車することを出力してもよい。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果を表示装置に表示させてもよく、または、記憶装置に格納してもよい。 The vehicle model unit 18 determines the behavior of the vehicle based on the estimation result by the sensor model unit 50, that is, simulates automatic driving of the vehicle. For example, if the sensor model unit 50 determines that there is a pedestrian 6.2 meters ahead of the vehicle in the direction of travel, the vehicle model unit 18 may operate the brakes, It may also output that the vehicle will stop a meter before the vehicle stops. The simulation control unit 10 may display the simulation results by the vehicle model unit 18 on a display device, or may store them in a storage device.

図5は、図4のセンサモデル部50の詳細を示すブロック図である。センサモデル部50は、タグ量子化部52、真値量子化部54、誤差導出部56、模擬値導出部58、モデル記憶部40を含む。モデル記憶部40は、センサモデル生成装置20により生成されたセンサモデルを記憶する。 FIG. 5 is a block diagram showing details of the sensor model section 50 of FIG. 4. As shown in FIG. The sensor model section 50 includes a tag quantization section 52, a true value quantization section 54, an error derivation section 56, a simulated value derivation section 58, and a model storage section 40. The model storage unit 40 stores the sensor model generated by the sensor model generation device 20.

タグ量子化部52は、環境データ生成部14により生成されたタグデータを、シミュレーション制御部10を介して受け付け、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、タグ量子化部52は、図2で示したように、天気を示すタグデータを、3個のカテゴリのうち該当するカテゴリに分類してもよい。 The tag quantization unit 52 receives the tag data generated by the environmental data generation unit 14 via the simulation control unit 10, and classifies it into one of a plurality of predetermined explanatory variable categories. For example, as shown in FIG. 2, the tag quantization unit 52 may classify tag data indicating weather into the appropriate category among three categories.

真値量子化部54は、環境データ生成部14により生成された真値データ、もしくは真値を算出用のデータ(以下合わせて「真値データ」と称する)を、シミュレーション制御部10を介して受け付け、予め定められた説明変数の複数のカテゴリのいずれかに分類する。例えば、真値量子化部54は、図2で示したように、車両から歩行者への距離の真値を、10個のカテゴリのうち該当するカテゴリに分類してもよい。 The true value quantization unit 54 receives the true value data generated by the environmental data generation unit 14 or the data for calculating the true value (hereinafter collectively referred to as “true value data”) via the simulation control unit 10. It is accepted and classified into one of a plurality of categories of predetermined explanatory variables. For example, as shown in FIG. 2, the true value quantization unit 54 may classify the true value of the distance from the vehicle to the pedestrian into a corresponding category among ten categories.

誤差導出部56は、環境データ生成部14により生成された真値データおよびタグデータと、モデル記憶部40に記憶されたセンサモデル(例えば上記の式1)とにしたがって、検知距離誤差を導出する。実施例では、誤差導出部56は、センサモデルのダミー変数のうち、タグ量子化部52および真値量子化部54により選択されたカテゴリに対応するダミー変数の値を1(非選択のカテゴリに対応するダミー変数値は0)に設定することにより、1となるダミー変数の対応するカテゴリの係数を用いてセンサモデルの目的変数である検知距離誤差を算出する。 The error derivation unit 56 derives a detection distance error according to the true value data and tag data generated by the environmental data generation unit 14 and the sensor model (for example, Equation 1 above) stored in the model storage unit 40. . In the embodiment, the error derivation unit 56 sets the value of the dummy variable corresponding to the category selected by the tag quantization unit 52 and the true value quantization unit 54 to 1 (into an unselected category) among the dummy variables of the sensor model. By setting the corresponding dummy variable value to 0), the detection distance error, which is the target variable of the sensor model, is calculated using the coefficient of the category corresponding to the dummy variable that becomes 1.

模擬値導出部58は、誤差導出部56により導出された検知距離誤差を、環境データ生成部14により生成された真値データに足すことにより、画像解析部16(画像解析部28)による検知結果をシミュレーションする。例えば、模擬値導出部58は、現実の車両の6メートル先に歩行者がいる場合に画像解析部16が検知するであろう歩行者までの距離(誤差を含む値であり、例えば6.2メートル)を導出する。模擬値導出部58により導出された値(例えば歩行者までの距離)は、シミュレーション制御部10を介して車両モデル部18へ入力され、車両の挙動がシミュレーションされる。 The simulated value derivation unit 58 adds the detection distance error derived by the error derivation unit 56 to the true value data generated by the environmental data generation unit 14, thereby determining the detection result by the image analysis unit 16 (image analysis unit 28). to simulate. For example, the simulated value derivation unit 58 calculates the distance to the pedestrian that the image analysis unit 16 would detect if there was a pedestrian 6 meters ahead of the actual vehicle (a value that includes an error, for example, 6.2 m). The value derived by the simulated value deriving unit 58 (for example, the distance to a pedestrian) is input to the vehicle model unit 18 via the simulation control unit 10, and the behavior of the vehicle is simulated.

以上の構成による動作を説明する。
まず、図3を参照しつつ、センサモデル生成装置20に関する動作を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載カメラで車外の歩行者を撮像し、複数サンプルの撮像画像をセンサデータ記憶部22に記憶させる。それとともに開発者は、LIDAR装置で上記歩行者までの距離を計測させ、複数サンプルの距離の真値を示す計測結果を参照データ記憶部24に記憶させる。さらにまた、開発者は、天気等の定性的な内容を示す複数サンプルのタグデータをタグデータ記憶部26に記憶させる。
The operation of the above configuration will be explained.
First, the operation of the sensor model generation device 20 will be described with reference to FIG. 3. Developers of in-vehicle equipment who are supposed to provide vehicle simulation systems to customers and partner companies actually drive the vehicle, capture images of pedestrians outside the vehicle with the in-vehicle camera, and store multiple samples of captured images in the sensor data storage unit 22. Make me remember. At the same time, the developer causes the LIDAR device to measure the distance to the pedestrian, and causes the reference data storage unit 24 to store the measurement results indicating the true values of the distances of the plurality of samples. Furthermore, the developer causes the tag data storage unit 26 to store a plurality of samples of tag data indicating qualitative content such as the weather.

画像解析部28は、サンプルごとに、センサデータ記憶部22に格納された画像から歩行者までの距離を検知する。真値検知部30は、サンプルごとに、参照データ記憶部24に格納された計測結果から歩行者までの距離の真値を検知する。誤差導出部32は、サンプルごとに、画像に基づく検知距離と真値との差である検知距離誤差を導出する。真値量子化部34は、歩行者までの距離の真値のカテゴリを特定し、タグ量子化部36は、タグデータのカテゴリを特定する。 The image analysis unit 28 detects the distance to the pedestrian from the image stored in the sensor data storage unit 22 for each sample. The true value detection unit 30 detects the true value of the distance to the pedestrian from the measurement results stored in the reference data storage unit 24 for each sample. The error derivation unit 32 derives a detected distance error, which is the difference between the detected distance based on the image and the true value, for each sample. The true value quantization unit 34 specifies the category of the true value of the distance to the pedestrian, and the tag quantization unit 36 specifies the category of tag data.

モデル生成部38は、歩行者までの距離の真値のカテゴリと、タグデータのカテゴリとをダミー変数とし、検知距離誤差を目的変数として、複数のサンプルによる重回帰分析を実行することで、センサモデルを生成する。モデル生成部38は、生成したセンサモデルをモデル記憶部40に格納する。 The model generation unit 38 uses the category of the true value of the distance to the pedestrian and the category of the tag data as dummy variables, and uses the detection distance error as the objective variable, and executes multiple regression analysis using a plurality of samples. Generate the model. The model generation unit 38 stores the generated sensor model in the model storage unit 40.

第1実施例のセンサモデル生成装置20によると、車両の挙動をシミュレーションする際に画像解析による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションに要する時間および費用を低減できる。また、車両周辺の実際の状態を示すデータを用いてセンサモデルを生成することで、現実に即した結果を出力するセンサモデルを生成できる。 According to the sensor model generation device 20 of the first embodiment, if detection results by image analysis are required when simulating vehicle behavior, images of each case to be simulated are prepared, and images of each case are Analysis becomes unnecessary, reducing the time and cost required for simulation. Furthermore, by generating a sensor model using data indicating the actual conditions around the vehicle, it is possible to generate a sensor model that outputs results consistent with reality.

次に、図4および図5を参照しつつ、車両シミュレーションシステム110に関する動作を説明する。ここでは、車両の近傍に歩行者が存在する場合の車両の挙動をシミュレーションすることとする。ユーザは、車両から歩行者までの距離と、天気とをシミュレーションのパラメータとして車両シミュレーションシステム110のユーザインタフェース12へ入力する。環境データ生成部14は、ユーザインタフェース12で受け付けられた車両から歩行者までの距離を示す真値データを生成し、また、ユーザインタフェース12で受け付けられた天気を示すタグデータを生成する。 Next, the operation of the vehicle simulation system 110 will be described with reference to FIGS. 4 and 5. Here, we will simulate the behavior of a vehicle when a pedestrian exists near the vehicle. The user inputs the distance from the vehicle to the pedestrian and the weather as simulation parameters to the user interface 12 of the vehicle simulation system 110. The environmental data generating unit 14 generates true value data indicating the distance from the vehicle to the pedestrian, which is accepted by the user interface 12, and also generates tag data indicating the weather, which is accepted by the user interface 12.

タグ量子化部52は、タグデータ(例えば図2の天気)のカテゴリを特定し、真値量子化部54は、真値データ(例えば図2の距離)のカテゴリを特定する。誤差導出部56は、モデル記憶部40に記憶されたセンサモデルの説明変数のカテゴリを示すダミー変数のうち、タグ量子化部52および真値量子化部54により特定されたカテゴリ(ダミー変数)の値を「1」とし、そのカテゴリに対応する係数(即ち、モデルデータ)をもちいることにより、目的変数である検知距離誤差を得る。模擬値導出部58は、車両から歩行者までの距離(真値)に検知距離誤差を足すことにより、画像解析部28により検知される車両から歩行者までの距離(誤差を含む)を推定する。 The tag quantization section 52 specifies the category of tag data (for example, the weather in FIG. 2), and the true value quantization section 54 specifies the category of the true value data (for example, the distance in FIG. 2). The error derivation unit 56 calculates the categories (dummy variables) specified by the tag quantization unit 52 and the true value quantization unit 54 among the dummy variables indicating the categories of the explanatory variables of the sensor model stored in the model storage unit 40. By setting the value to "1" and using the coefficient (ie, model data) corresponding to that category, the detection distance error, which is the target variable, is obtained. The simulated value derivation unit 58 estimates the distance (including error) from the vehicle to the pedestrian detected by the image analysis unit 28 by adding the detected distance error to the distance (true value) from the vehicle to the pedestrian. .

車両モデル部18は、模擬値導出部58により導出された車両から歩行者までの距離(誤差を含む)に基づいて、車両の挙動を決定する。シミュレーション制御部10は、車両モデル部18による決定内容をシミュレーション結果として、所定の出力装置に出力し、または、所定の記憶装置に記憶させる。 The vehicle model unit 18 determines the behavior of the vehicle based on the distance (including error) from the vehicle to the pedestrian derived by the simulated value derivation unit 58. The simulation control unit 10 outputs the content determined by the vehicle model unit 18 as a simulation result to a predetermined output device or stores it in a predetermined storage device.

第1実施例の車両シミュレーションシステム110によると、車両の挙動をシミュレーションする際に画像解析による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意し、各ケースの画像を解析することが不要になり、シミュレーションに要する時間および費用を低減できる。また、シミュレーションの網羅性を高めやすくなる。さらにまた、車両周辺の実際の状態を用いて生成したセンサモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。 According to the vehicle simulation system 110 of the first embodiment, if detection results by image analysis are required when simulating vehicle behavior, it is possible to prepare images for each case to be simulated and analyze the images for each case. This eliminates the need for simulation, reducing the time and cost required for simulation. Furthermore, it becomes easier to improve the comprehensiveness of the simulation. Furthermore, by using a sensor model generated using the actual conditions around the vehicle, it is possible to simulate the vehicle behavior in accordance with reality.

以上、本開示を第1実施例をもとに説明した。第1実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。以下変形例を示す。 The present disclosure has been described above based on the first embodiment. The first embodiment is an example, and those skilled in the art will understand that various modifications can be made to the combination of each component or each treatment process, and that such modifications are also within the scope of the present disclosure. A modified example will be shown below.

第1変形例を説明する。車両シミュレーションシステム110のセンサモデル部50は、複数個のダミー変数に係る複数個の係数から、曲線フィッティングにより対象物(例えば歩行者)までの距離の真値に応じた係数をセンサモデルに適用する。 A first modification will be explained. The sensor model unit 50 of the vehicle simulation system 110 applies coefficients according to the true value of the distance to an object (for example, a pedestrian) to the sensor model by curve fitting from a plurality of coefficients related to a plurality of dummy variables. .

図6は、曲線フィッティングの例を示す。ここでは、センサモデルが、少なくとも58個のカテゴリ(説明変数)を含むこととする。例えば、車両と歩行者との距離を10センチ刻みでカテゴリとしてもよい。カテゴリ係数グラフ60は、センサモデルにおける一つの説明変数(即ち、誤差要因)の58個のカテゴリのそれぞれの係数(カテゴリ係数)を示す折れ線グラフである。センサモデル部50の誤差導出部56は、複数個のカテゴリ係数に対して曲線フィッティングを行うことにより近似曲線62(二次多項式近似曲線とも言える)を導出する。 FIG. 6 shows an example of curve fitting. Here, it is assumed that the sensor model includes at least 58 categories (explanatory variables). For example, the distance between a vehicle and a pedestrian may be categorized in 10 cm increments. The category coefficient graph 60 is a line graph showing the coefficients (category coefficients) of each of 58 categories of one explanatory variable (ie, error factor) in the sensor model. The error derivation unit 56 of the sensor model unit 50 derives an approximate curve 62 (also referred to as a quadratic polynomial approximate curve) by performing curve fitting on a plurality of category coefficients.

誤差導出部56は、車両から歩行者までの距離の真値に対応するカテゴリ係数を近似曲線62から取得する。例えば、距離が10センチ刻みの場合、距離の真値が3.2メートルであれば、誤差導出部56は、カテゴリ番号「32」における近似曲線62の値(例えば「0」)をカテゴリ係数として取得してもよい。誤差導出部56は、近似曲線62から取得したカテゴリ係数をダミー変数(図2の例ではダミー変数の値は「1」)の重みとして適用し、目的変数の値(例えば検知距離誤差)を導出してもよい。また、距離真値を連続量として横軸の座標に変換し、近似曲線式に代入し算出した値を上記距離真値に対応する係数として適用してもよい。これらの変形例によると、曲線フィッティングにより、入力された説明変数に対する適切な重み付けを実現できる。 The error derivation unit 56 acquires a category coefficient corresponding to the true value of the distance from the vehicle to the pedestrian from the approximate curve 62. For example, if the distance is in 10 cm increments and the true value of the distance is 3.2 meters, the error derivation unit 56 uses the value of the approximate curve 62 (for example, "0") for the category number "32" as the category coefficient. You may obtain it. The error derivation unit 56 applies the category coefficient obtained from the approximate curve 62 as a weight of a dummy variable (in the example of FIG. 2, the value of the dummy variable is "1"), and derives the value of the objective variable (for example, detection distance error). You may. Alternatively, the true distance value may be converted into a coordinate on the horizontal axis as a continuous quantity, and the value calculated by substituting it into the approximate curve equation may be applied as the coefficient corresponding to the true distance value. According to these modifications, appropriate weighting of input explanatory variables can be achieved by curve fitting.

第2変形例を説明する。車両シミュレーションシステム110のユーザインタフェース12は、乱数に関するデータの指定をユーザから受け付ける受付部として機能してもよい。センサモデル部50の模擬値導出部58は、ユーザから指定された乱数に関するデータをもとに、センサモデルを用いた推定値にホワイトノイズを足してもよい。 A second modification will be explained. The user interface 12 of the vehicle simulation system 110 may function as a reception unit that receives designation of data related to random numbers from the user. The simulated value deriving unit 58 of the sensor model unit 50 may add white noise to the estimated value using the sensor model based on data related to random numbers specified by the user.

例えば、ユーザは、乱数に関するデータとして、擬似乱数列を生成するためのシードをユーザインタフェース12へ入力してもよい。模擬値導出部58は、ユーザから入力されたシードをもとに擬似乱数列を生成して、その擬似乱数列をもとにホワイトノイズのデータを生成し、車両と歩行者との距離の推定値にホワイトノイズを足してもよい。実環境のデータにはホワイトノイズの成分が含まれるため、本変形例によると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができる。 For example, the user may input a seed for generating a pseudorandom number sequence to the user interface 12 as data related to random numbers. The simulated value deriving unit 58 generates a pseudorandom number sequence based on a seed input by the user, generates white noise data based on the pseudorandom number sequence, and estimates the distance between the vehicle and the pedestrian. You can also add white noise to the value. Since the data of the real environment includes a white noise component, according to this modification, it is possible to take the white noise into account and obtain an estimation result that is more in line with reality.

第3変形例を説明する。上記実施例では、車両と歩行者との距離をセンサモデルにより推定したが、実施例に記載の技術は、車両周辺の状態に関する様々なものをモデルにより推定する場合に適用可能である。第3変形例では、駐車枠(駐車区画とも言える)の位置をセンサモデルにより推定する例を示す。 A third modification will be explained. In the embodiments described above, the distance between the vehicle and the pedestrian was estimated using a sensor model, but the technology described in the embodiments can be applied to the case where various conditions related to the surroundings of a vehicle are estimated using a model. In the third modification, an example will be shown in which the position of a parking frame (also referred to as a parking section) is estimated by a sensor model.

図7は、変形例における車両周辺の状態を示す。本変形例では、駐車枠76をその4隅(FL、FR、BL、BR)のXY座標と、駐車枠76の方向(車両の進行方向に対する駐車枠76の角度であり、図7のθ)で表す。本変形例では、画像解析部により検知された駐車枠76の4隅それぞれの座標は、上記4隅(FL、FR、BL、BR)のカメラ72からの距離(例えば、前方右側のポイントFRの場合、RangeR)、カメラ72の光軸74との角度(例えば、前方右側のポイントFRの場合、βR)、および駐車枠76の方向(θ)の影響を受ける。本変形例のセンサモデル生成装置20は、カメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向のそれぞれをカテゴライズする。 FIG. 7 shows the state around the vehicle in a modified example. In this modification, the parking frame 76 is defined by the XY coordinates of its four corners (FL, FR, BL, BR) and the direction of the parking frame 76 (the angle of the parking frame 76 with respect to the direction of movement of the vehicle, θ in FIG. 7). Expressed as In this modification, the coordinates of each of the four corners of the parking frame 76 detected by the image analysis unit are the distances of the four corners (FL, FR, BL, BR) from the camera 72 (for example, the distance of the front right point FR). Range R ), the angle of the camera 72 with respect to the optical axis 74 (for example, β R in the case of the front right point FR), and the direction of the parking frame 76 (θ). The sensor model generation device 20 of this modification categorizes each of the distance from the camera 72, the angle of the camera 72 with respect to the optical axis 74, and the direction of the parking frame 76.

具体的には、センサモデル生成装置20の画像解析部28は、車両の周辺が映る画像データから、車両周辺の状態として、駐車枠の位置(座標等)を検知する。真値検知部30は、LIDAR装置の検知結果に基づき、駐車枠の位置(座標等)の真値を検知する。モデル生成部38は、真値検知部30により検知された駐車枠76の座標(FRの座標とする)と、画像解析部28により検知された駐車枠76の座標(FRの座標とする)との差を目的変数として識別する。 Specifically, the image analysis unit 28 of the sensor model generation device 20 detects the position (coordinates, etc.) of the parking frame as the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle. The true value detection unit 30 detects the true value of the position (coordinates, etc.) of the parking frame based on the detection result of the LIDAR device. The model generation unit 38 uses the coordinates of the parking frame 76 detected by the true value detection unit 30 (referred to as FR coordinates) and the coordinates of the parking frame 76 detected by the image analysis unit 28 (referred to as FR coordinates). The difference between is identified as the objective variable.

また、モデル生成部38は、カメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向θの、カメラの光軸74との角度を説明変数として扱う。これらのデータは、実施例と同様に、実際の車両を用いた試験により収集され、複数のサンプルが作成される。モデル生成部38は、複数のサンプルに基づく重回帰分析を実行して、各カテゴリ(ダミー変数)の係数を求める。なお、実際には、駐車枠76の4隅の座標のそれぞれに対応するセンサモデルが生成されてもよい。 Further, the model generation unit 38 treats the distance from the camera 72, the angle of the camera 72 with the optical axis 74, and the angle of the direction θ of the parking frame 76 with the camera optical axis 74 as explanatory variables. Similar to the examples, these data are collected through tests using actual vehicles, and a plurality of samples are created. The model generation unit 38 executes multiple regression analysis based on a plurality of samples to obtain coefficients for each category (dummy variable). Note that, in reality, sensor models corresponding to the coordinates of each of the four corners of the parking frame 76 may be generated.

車両シミュレーションシステム110のシミュレーション制御部10は、シミュレーションのパラメータとして、4隅(FL、FR、BL、BR)の座標と駐車枠方向をユーザ等から受け付け(座標系は車両座標系でもよく、センサ座標系でもよい)、それらのパラメータをセンサモデル部50へ入力する。センサモデル部50は、シミュレーションのパラメータをセンサモデルへ入力することにより、画像解析部28による検知結果を推定し、すなわち、駐車枠76の座標を推定する。具体的には、センサモデル部50は、まず、入力された上記4隅(FL、FR、BL、BR)の座標と駐車枠方向を、説明変数であるカメラ72からの距離、カメラ72の光軸74との角度、および駐車枠76の方向に変換する。次に、センサモデル部50は、得られた説明変数の値に基づきカテゴリを求め、それに対応する係数を適用する。車両モデル部18は、センサモデル部50により推定された駐車枠76の座標に基づいて、車両の自動走行(例えば駐車枠76への自動入庫)をシミュレーションする。 The simulation control unit 10 of the vehicle simulation system 110 receives the coordinates of the four corners (FL, FR, BL, BR) and the direction of the parking frame from the user as simulation parameters (the coordinate system may be the vehicle coordinate system, or the sensor coordinate system). system), and input those parameters to the sensor model section 50. The sensor model unit 50 estimates the detection result by the image analysis unit 28 by inputting simulation parameters into the sensor model, that is, estimates the coordinates of the parking frame 76. Specifically, the sensor model unit 50 first converts the input coordinates of the four corners (FL, FR, BL, BR) and the direction of the parking frame into explanatory variables such as the distance from the camera 72 and the light of the camera 72. The angle with respect to the axis 74 and the direction of the parking frame 76 are converted. Next, the sensor model unit 50 determines a category based on the obtained value of the explanatory variable, and applies a coefficient corresponding to the category. The vehicle model unit 18 simulates automatic travel of the vehicle (for example, automatic parking into the parking frame 76) based on the coordinates of the parking frame 76 estimated by the sensor model unit 50.

第1実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目1]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する第1検知部と、
前記推定部より高い精度で、前記車両周辺の状態を検知する第2検知部と、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知結果に関して推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態と、前記第1検知部により検知された状態との差を目的変数とするモデルを生成する生成部と、
を備えるモデル生成装置。
このモデル生成装置によると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、モデルの生成において車両周辺の実際の状態を用いることで、現実に即した結果を出力するモデルを生成できる。
[項目2]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する検知部について、前記検知部による検知結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記検知部により検知された状態との差を目的変数とするモデルを記憶する記憶部と、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知結果を推定する推定部と、
前記推定部による推定結果をもとに前記車両の自動走行をシミュレーションするシミュレーション部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、車両周辺の実際の状態を用いて生成したモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
[項目3]
前記モデルは、前記車両周辺の状態の真値である説明変数の複数段階の値に対応する複数個のダミー変数を含み、
前記推定部は、前記複数個のダミー変数に係る各々の係数から、曲線フィッティングにより前記車両周辺の状態の真値である説明変数の連続値に対する係数の連続量を求め、前記係数の連続量の中から前記説明変数の連続値に対応する係数を前記モデルに適用する、
項目2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、曲線フィッティングにより、説明変数に対する適切な重み付けを実現できる。
[項目4]
乱数に関するデータの指定をユーザから受け付ける受付部をさらに備え、
前記推定部は、前記乱数に関するデータをもとに、前記モデルを用いた推定値にホワイトノイズを足す、
項目2または3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、ホワイトノイズを加味して、より現実に即した推定結果を求めることができるとともに、乱数に関するデータの指定を可能にすることで、シミュレーションの再現性も持たせることができる。
[項目5]
第1検知部が、車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知結果に関して推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態と、前記第1検知部により検知された状態との差を目的変数とするモデルを生成する、
モデル生成方法。
このモデル生成方法によると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、モデルの生成において車両周辺の実際の状態を用いることで、現実に即した結果を出力するモデルを生成できる。
[項目6]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する検知部について、前記検知部による検知結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記検知部により検知された状態との差を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知結果を推定し、
前記推定部による推定結果をもとに前記車両の自動走行をシミュレーションする、
車両シミュレーション方法。
この車両シミュレーション方法によると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。車両周辺の実際の状態を用いて生成したモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
[項目7]
第1検知部が、車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知結果に関して推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態と、前記第1検知部により検知された状態との差を目的変数とするモデルを生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。また、モデルの生成において車両周辺の実際の状態を用いることで、現実に即した結果を出力するモデルを生成できる。
[項目8]
車両の周辺が映る画像データから、前記車両の自動走行を制御するための前記車両周辺の状態を検知する検知部について、前記検知部による検知結果に関して推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態の真値と、前記検知部により検知された状態との差を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知結果を推定し、
前記推定部による推定結果をもとに前記車両の自動走行をシミュレーションする、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両をシミュレーションする際に第1検知部による検知結果が必要な場合、シミュレーションすべき各ケースの画像を用意すること、また、各ケースの画像を解析することが不要になり、シミュレーションのコストを低減できる。車両周辺の実際の状態を用いて生成したモデルを用いることで、現実に即した車両挙動等をシミュレーションすることができる。
The techniques described in the first embodiment and the modified example may be specified by the following items.
[Item 1]
a first detection unit that detects a state of the surroundings of the vehicle for controlling automatic driving of the vehicle from image data showing the surroundings of the vehicle;
a second detection unit that detects a state around the vehicle with higher accuracy than the estimation unit;
A model for estimating the detection result by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit and , a generation unit that generates a model whose objective variable is a difference from the state detected by the first detection unit;
A model generation device comprising:
According to this model generation device, when the detection results from the first detection unit are required when simulating a vehicle, it is no longer necessary to prepare images for each case to be simulated and to analyze the images for each case. As a result, simulation costs can be reduced. Furthermore, by using the actual conditions around the vehicle in generating the model, it is possible to generate a model that outputs results consistent with reality.
[Item 2]
A model for estimating a detection result by the detection unit for detecting a state of the surroundings of the vehicle for controlling automatic driving of the vehicle from image data showing the surroundings of the vehicle, the model comprising: a storage unit that stores a model in which the true value of the state of the vehicle is used as an explanatory variable, and the difference between the true value of the state of the surroundings of the vehicle and the state detected by the detection unit is used as the objective variable;
an estimation unit that estimates a detection result by the detection unit by inputting a true value of the state around the vehicle as a simulation parameter to the model;
a simulation unit that simulates automatic driving of the vehicle based on the estimation result by the estimation unit;
A vehicle simulation system equipped with
According to this vehicle simulation system, if the detection results from the first detection unit are required when simulating a vehicle, it is no longer necessary to prepare images for each case to be simulated and to analyze the images for each case. As a result, simulation costs can be reduced. Further, by using a model generated using the actual conditions around the vehicle, it is possible to simulate the vehicle behavior in accordance with reality.
[Item 3]
The model includes a plurality of dummy variables corresponding to multiple levels of values of an explanatory variable that is a true value of a state around the vehicle,
The estimating unit calculates the continuous amount of the coefficient for the continuous value of the explanatory variable, which is the true value of the state around the vehicle, from each coefficient related to the plurality of dummy variables by curve fitting, and applying coefficients corresponding to continuous values of the explanatory variable from among them to the model;
Vehicle simulation system according to item 2.
According to this vehicle simulation system, appropriate weighting of explanatory variables can be achieved by curve fitting.
[Item 4]
further comprising a reception unit that accepts data specifications regarding random numbers from a user;
The estimation unit adds white noise to the estimated value using the model based on the data regarding the random number.
Vehicle simulation system according to item 2 or 3.
According to this vehicle simulation system, it is possible to obtain estimation results that are more realistic by adding white noise, and it is also possible to provide reproducibility of the simulation by making it possible to specify data related to random numbers. .
[Item 5]
a first detection unit detects a state around the vehicle for controlling automatic driving of the vehicle from image data showing the surroundings of the vehicle;
a second detection unit detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating the detection result by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit and , generating a model whose objective variable is the difference from the state detected by the first detection unit;
Model generation method.
According to this model generation method, when the detection results from the first detection unit are required when simulating a vehicle, it is no longer necessary to prepare images for each case to be simulated and to analyze the images for each case. As a result, simulation costs can be reduced. Furthermore, by using the actual conditions around the vehicle in generating the model, it is possible to generate a model that outputs results consistent with reality.
[Item 6]
A model for estimating a detection result by the detection unit for detecting a state of the surroundings of the vehicle for controlling automatic driving of the vehicle from image data showing the surroundings of the vehicle, the model comprising: storing a model in which the true value of the state of the vehicle is used as an explanatory variable, and the difference between the true value of the state of the surroundings of the vehicle and the state detected by the detection unit is used as the objective variable;
Estimating the detection result by the detection unit by inputting the true value of the state around the vehicle as a simulation parameter to the model,
simulating automatic driving of the vehicle based on the estimation result by the estimation unit;
Vehicle simulation method.
According to this vehicle simulation method, when the detection results from the first detection unit are required when simulating a vehicle, it is no longer necessary to prepare images for each case to be simulated and to analyze the images for each case. As a result, simulation costs can be reduced. By using a model generated using the actual conditions around the vehicle, it is possible to simulate the vehicle behavior in accordance with reality.
[Item 7]
a first detection unit detects a state around the vehicle for controlling automatic driving of the vehicle from image data showing the surroundings of the vehicle;
a second detection unit detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating the detection result by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit and , generating a model whose objective variable is the difference from the state detected by the first detection unit;
A computer program that causes a computer to do something.
According to this computer program, if the detection results from the first detection unit are required when simulating a vehicle, it becomes unnecessary to prepare images for each case to be simulated and to analyze the images for each case. , the cost of simulation can be reduced. Furthermore, by using the actual conditions around the vehicle in generating the model, it is possible to generate a model that outputs results consistent with reality.
[Item 8]
A model for estimating a detection result by the detection unit for detecting a state of the surroundings of the vehicle for controlling automatic driving of the vehicle from image data showing the surroundings of the vehicle, the model comprising: storing a model in which the true value of the state of the vehicle is used as an explanatory variable, and the difference between the true value of the state of the surroundings of the vehicle and the state detected by the detection unit is used as the objective variable;
Estimating the detection result by the detection unit by inputting the true value of the state around the vehicle as a simulation parameter to the model,
simulating automatic driving of the vehicle based on the estimation result by the estimation unit;
A computer program that causes a computer to do something.
According to this computer program, if the detection results from the first detection unit are required when simulating a vehicle, it becomes unnecessary to prepare images for each case to be simulated and to analyze the images for each case. , the cost of simulation can be reduced. By using a model generated using the actual conditions around the vehicle, it is possible to simulate the vehicle behavior in accordance with reality.

<第2実施例>
第2実施例の概要を説明する。従来の車両シミュレーションシステムでは、シミュレーション結果において、CGの認識結果のみ、または、シミュレーションにおける車両周辺の状態の真値(理想値とも言え、例えば、自車両近傍の他車両の真の位置)のみを描いていた。そのため、シミュレーション結果が、センシングアルゴリズムや制御アルゴリズムの評価、課題抽出、改善等に対して十分に貢献しないことがあった。
<Second example>
An outline of the second embodiment will be explained. In conventional vehicle simulation systems, only the CG recognition results or the true values of the conditions around the vehicle in the simulation (which can also be called ideal values; for example, the true positions of other vehicles near the own vehicle) are depicted in the simulation results. was. As a result, simulation results may not contribute sufficiently to the evaluation, problem extraction, and improvement of sensing algorithms and control algorithms.

第2実施例の車両シミュレーションシステムは、第1実施例の車両シミュレーションシステムと同様に、センサモデルを用いてセンシング結果(誤差を含む)を推定する。また、第2実施例の車両シミュレーションシステムは、センシング結果の推定値をセンシング対象の真値とともに表示させる。さらにまた、第2実施例の車両シミュレーションシステムは、センシング結果の推定値とセンシング対象の真値との誤差に関する情報をさらに出力する。第2実施例の車両シミュレーションシステムによると、センシングアルゴリズムや制御アルゴリズムの評価、課題抽出、改善等に対して一層有用なシミュレーション結果を提供することができる。 Similarly to the vehicle simulation system of the first embodiment, the vehicle simulation system of the second embodiment estimates sensing results (including errors) using a sensor model. Further, the vehicle simulation system of the second embodiment displays the estimated value of the sensing result together with the true value of the sensing target. Furthermore, the vehicle simulation system of the second embodiment further outputs information regarding the error between the estimated value of the sensing result and the true value of the sensing target. According to the vehicle simulation system of the second embodiment, it is possible to provide more useful simulation results for evaluation, problem extraction, improvement, etc. of sensing algorithms and control algorithms.

以下、第1実施例の構成要素と同一または対応する第2実施例の構成要素には、第1実施例と同じ符号を付して説明する。第2実施例では、第1実施例で説明済の内容は再度の説明を適宜省略し、主に、第1実施例と異なる点を説明する。 Hereinafter, components of the second embodiment that are the same as or correspond to components of the first embodiment will be described with the same reference numerals as those of the first embodiment. In the second embodiment, the contents already explained in the first embodiment will not be explained again, and mainly the points different from the first embodiment will be explained.

第2実施例のセンサモデルも、第1実施例のセンサモデルと同様に、車両周辺の状態に関する複数項目の真値を説明変数とし、車両に搭載された検知部による車両周辺の状態の検知結果と上記真値との差を目的変数とする数理モデル(例えば回帰式)である。検知部は、車両に搭載されるセンサ装置であり、車両周辺の状態(例えば歩行者や障害物の位置等)を検知する。検知部は、例えば、カメラ、レーダー装置、ライダー装置、ソナーの少なくとも1つを含んでもよい。 Similarly to the sensor model of the first embodiment, the sensor model of the second embodiment uses the true values of multiple items related to the state of the surroundings of the vehicle as explanatory variables, and uses the detection results of the states of the surroundings of the vehicle by the detection unit mounted on the vehicle. This is a mathematical model (for example, a regression equation) in which the objective variable is the difference between the true value and the above true value. The detection unit is a sensor device mounted on the vehicle, and detects the conditions around the vehicle (for example, the positions of pedestrians and obstacles). The detection unit may include, for example, at least one of a camera, a radar device, a lidar device, and a sonar.

第2実施例のセンサモデルは、距離誤差を推定するためのセンサモデル(以下「距離誤差モデル」とも呼ぶ。)と、方位誤差を推定するためのセンサモデル(以下「方位誤差モデル」とも呼ぶ。)を含む。距離誤差モデルにおける目的変数は、車両から検知対象物(例えば歩行者や障害物)までの距離に関する検知結果と真値との差(以下「距離誤差」とも呼ぶ。)である。方位誤差モデルにおける目的変数は、車両に対する検知対象物の方位に関する検知結果と真値との差(以下「方位誤差」とも呼ぶ。)である。距離誤差の単位は「メートル」であってもよい。また、方位誤差の単位は「度」であってもよい。 The sensor model of the second embodiment includes a sensor model for estimating a distance error (hereinafter also referred to as a "distance error model") and a sensor model for estimating a direction error (hereinafter also referred to as a "direction error model"). )including. The objective variable in the distance error model is the difference between the detection result and the true value regarding the distance from the vehicle to the object to be detected (for example, a pedestrian or an obstacle) (hereinafter also referred to as "distance error"). The objective variable in the azimuth error model is the difference between the detection result and the true value regarding the azimuth of the object to be detected with respect to the vehicle (hereinafter also referred to as "azimuth error"). The unit of distance error may be "meter". Further, the unit of the orientation error may be "degrees".

図8は、距離誤差モデル構築のためのサンプルデータの例を示す。サンプルデータは、実車を用いた現実のテスト環境における真値が収集されたものである。サンプルデータにおける目的変数の項目「距離誤差」には、上記のテスト環境で計測された値が設定される。距離誤差モデルの説明変数の項目は、距離、方位、照度、姿勢を含む。距離は、車両から検知対象物までの距離であり、具体的には、車両に搭載された検知部から検知対象物までの距離である。方位は、車両に対する検知対象物の方位(方角とも言える)であり、具体的には、車両に搭載された検知部の光軸と検知対象物とがなす角度(例えば-90°から90°の範囲内の値)である。照度は、車両周辺の照度である。姿勢は、検知対象物の姿勢である。図8では、検知対象物が歩行者である場合の姿勢の例を示している。 FIG. 8 shows an example of sample data for constructing a distance error model. The sample data is true values collected in an actual test environment using an actual vehicle. The value measured in the above test environment is set in the objective variable item "distance error" in the sample data. Items of explanatory variables of the distance error model include distance, direction, illuminance, and attitude. The distance is the distance from the vehicle to the detection target, specifically, the distance from the detection unit mounted on the vehicle to the detection target. The azimuth is the direction (also referred to as the direction) of the object to be detected with respect to the vehicle, and specifically, the angle between the optical axis of the detection unit mounted on the vehicle and the object to be detected (for example, the angle between -90° and 90°). value within the range). The illuminance is the illuminance around the vehicle. The posture is the posture of the object to be detected. FIG. 8 shows an example of a posture when the object to be detected is a pedestrian.

第1実施例で示したサンプルデータ(図3)と同様に、複数の説明変数のそれぞれは、複数のカテゴリを含む。各サンプルは、実車を用いた現実のテスト環境における真値をもとに、該当するカテゴリの値が「1」に設定され、非該当のカテゴリの値が「0」に設定される。なお、数値型の説明変数(図8では距離、方位、照度)をカテゴライズする場合、刻みは均等でなくてもよい。例えば、照度の場合、0~1000ルクスの照度は刻み「10」とし、1000ルクスより大きい照度は刻み「100」としてもよい。 Similar to the sample data (FIG. 3) shown in the first example, each of the multiple explanatory variables includes multiple categories. For each sample, the value of the applicable category is set to "1" and the value of the non-applicable category is set to "0" based on the true value in an actual test environment using an actual vehicle. Note that when categorizing numerical explanatory variables (distance, direction, illuminance in FIG. 8), the increments do not have to be uniform. For example, in the case of illuminance, illuminance from 0 to 1000 lux may be set in increments of "10", and illuminance greater than 1000 lux may be set in increments of "100".

方位誤差モデル構築のためのサンプルデータについて、目的変数は方位誤差(実測値)となるが、説明変数の項目は距離誤差モデルと同じである。すなわち、方位誤差モデル構築のための説明変数も、距離、方位、照度、姿勢を含み、各説明変数は複数のカテゴリに分けられる。ここで、説明変数の項目数をm、説明変数の各項目のカテゴリ数をn、・・・n、サンプル数をNとして一般化すると、距離誤差モデルおよび方位誤差モデルは、第1実施例に記載の式1で表すことができる。 Regarding the sample data for constructing the orientation error model, the objective variable is the orientation error (actually measured value), but the explanatory variable items are the same as those for the distance error model. That is, the explanatory variables for constructing the orientation error model also include distance, direction, illuminance, and attitude, and each explanatory variable is divided into a plurality of categories. Here, if we generalize the number of items of explanatory variables as m, the number of categories of each item of explanatory variables as n1 ,... nm , and the number of samples as N, then the distance error model and the orientation error model are It can be expressed by Equation 1 described in the example.

第2実施例のセンサモデル生成装置20の構成は、第1実施例のセンサモデル生成装置20の構成(図3)と同様である。センサモデル生成装置20のモデル生成部38は、距離誤差モデルのサンプルデータに対する重回帰分析を行って、残差の平方和が最小になるように各説明変数の各カテゴリにかかるカテゴリ係数(重み)を導出する。モデル生成部38は、導出したカテゴリ係数を設定した回帰式(上記の式1)を距離誤差モデルとして生成し、距離誤差モデルのデータをモデル記憶部40に格納する。方位誤差モデルの生成方法も同様である。 The configuration of the sensor model generation device 20 of the second embodiment is similar to the configuration of the sensor model generation device 20 of the first embodiment (FIG. 3). The model generation unit 38 of the sensor model generation device 20 performs multiple regression analysis on the sample data of the distance error model, and calculates category coefficients (weights) for each category of each explanatory variable so that the sum of squares of residuals is minimized. Derive. The model generation unit 38 generates a regression equation (formula 1 above) in which the derived category coefficients are set as a distance error model, and stores data of the distance error model in the model storage unit 40. The method of generating the orientation error model is also similar.

また、第2実施例のセンサモデルは、車両に搭載された検知部による検知率(すなわち本来検知すべき対象物を検知できる割合)を推定するためのセンサモデル(以下「検知率モデル」とも呼ぶ。)をさらに含む。検知率モデルは、車両周辺の状態に関する複数項目の真値を説明変数とし、検知部による車両周辺の状態の検知有無を目的変数とする数理モデルである。 In addition, the sensor model of the second embodiment is a sensor model (hereinafter also referred to as a "detection rate model") for estimating the detection rate (i.e., the rate at which objects that should be detected can be detected) by the detection unit installed in the vehicle. ). The detection rate model is a mathematical model in which the explanatory variables are the true values of multiple items related to the state around the vehicle, and the objective variable is whether or not the detection unit detects the state around the vehicle.

図9は、検知率モデル構築のためのサンプルデータの例を示す。検知率モデル構築のための説明変数は、距離誤差モデルと同じである。すなわち、検知率モデル構築のための説明変数も、距離、方位、照度、姿勢を含み、各説明変数は複数のカテゴリに分けられている。検知率モデル構築のための目的変数は、検知OKの場合に「1」、検知NGの場合に「0」が設定される。 FIG. 9 shows an example of sample data for constructing a detection rate model. The explanatory variables for constructing the detection rate model are the same as those for the distance error model. That is, the explanatory variables for constructing the detection rate model also include distance, direction, illuminance, and posture, and each explanatory variable is divided into a plurality of categories. The objective variable for constructing the detection rate model is set to "1" when the detection is OK, and "0" when the detection is NG.

第2実施例のセンサモデル生成装置20は、検知率モデルを生成するために、検知有無判定部をさらに備える。検知有無判定部は、誤差導出部32による誤差の導出に代えて、検知すべき対象物を画像解析部28(すなわちセンシングアルゴリズム)により検知したか否かを判定する。検知有無判定部は、検知したと判定した場合、サンプルデータに検知OKを示す「1」を設定し、検知しなかったと判定した場合、サンプルデータに検知NGを示す「0」を設定する。 The sensor model generation device 20 of the second embodiment further includes a detection presence/absence determination section in order to generate a detection rate model. Instead of deriving the error by the error deriving part 32, the detection presence/absence determination part determines whether or not the object to be detected has been detected by the image analysis part 28 (that is, the sensing algorithm). When the detection presence/absence determination unit determines that detection has occurred, it sets "1" indicating detection OK in the sample data, and when determining that detection has not occurred, it sets "0" indicating detection NG in the sample data.

センサモデル生成装置20のモデル生成部38は、距離誤差モデルおよび方位誤差モデルと同様の方法にて検知率モデルを生成する。具体的には、モデル生成部38は、検知率モデルのサンプルデータに対する重回帰分析を行って、残差の平方和が最小になるように各説明変数の各カテゴリにかかるカテゴリ係数(重み)を導出する。モデル生成部38は、導出したカテゴリ係数を設定した回帰式(上記の式1)を検知率モデルとして生成し、検知率モデルのデータをモデル記憶部40に格納する。実施例の検知率モデルは、検知可能性が低いほど0に近い値を出力し、検知可能性が高いほど1に近い値を出力する。 The model generation unit 38 of the sensor model generation device 20 generates a detection rate model using the same method as the distance error model and the direction error model. Specifically, the model generation unit 38 performs multiple regression analysis on the sample data of the detection rate model, and calculates the category coefficients (weights) for each category of each explanatory variable so that the sum of squares of residuals is minimized. Derive. The model generation unit 38 generates a regression equation (formula 1 above) in which the derived category coefficients are set as a detection rate model, and stores data of the detection rate model in the model storage unit 40. The detection rate model of the embodiment outputs a value closer to 0 as the detection possibility is lower, and outputs a value closer to 1 as the detection possibility increases.

変形例として、検知対象物の姿勢ごとに大量のサンプルデータが収集されてもよい。モデル生成部38は、姿勢ごとにサンプルデータを分類し、分類後のサンプルデータをもとに、距離d、方位θ、照度lの組合せごとの検知率(例えば平均値)を導出してもよい。モデル生成部38は、姿勢ごと、かつ、距離d、方位θ、照度lの組合せごとに検知率を並べた表(ここでは「検知率表」と呼ぶ。)を生成してもよい。図10は、ある姿勢についての検知率表の例を示す。 As a modification, a large amount of sample data may be collected for each posture of the detection target. The model generation unit 38 may classify the sample data for each posture, and derive a detection rate (for example, an average value) for each combination of distance d, direction θ, and illuminance l based on the classified sample data. . The model generation unit 38 may generate a table (herein referred to as a "detection rate table") in which detection rates are arranged for each posture and for each combination of distance d, orientation θ, and illuminance l. FIG. 10 shows an example of a detection rate table for a certain posture.

モデル生成部38は、姿勢ごとの検知率表を用いて、距離、方位、照度を係数とする多項式近似曲線を検知対象物の姿勢ごとに生成してもよい。この多項式近似曲線は式2で表すことができる。

Figure 0007349626000002
The model generation unit 38 may use the detection rate table for each posture to generate a polynomial approximation curve with distance, direction, and illuminance as coefficients for each posture of the detection target. This polynomial approximate curve can be expressed by Equation 2.
Figure 0007349626000002

モデル生成部38は、多項式近似により式2のa、a、b、b、c、c、dを導出してもよい。モデル生成部38は、検知対象物の複数の姿勢に対応する複数の多項式近似曲線(式2)を複数の検知率モデルとしてモデル記憶部40に格納してもよい。この変形例の車両シミュレーションでは、複数の検知率モデルのうち検知対象物の姿勢に対応する検知率モデルを用いて検知率を推定する。 The model generation unit 38 may derive a 1 , a 2 , b 1 , b 2 , c 1 , c 2 , and d 0 of Equation 2 by polynomial approximation. The model generation unit 38 may store a plurality of polynomial approximate curves (Equation 2) corresponding to a plurality of postures of the detection target in the model storage unit 40 as a plurality of detection rate models. In this modification of the vehicle simulation, the detection rate is estimated using the detection rate model corresponding to the posture of the detection target among the plurality of detection rate models.

第2実施例の車両シミュレーションシステム110の構成は、第1実施例の車両シミュレーションシステム110の構成(図4)と同様である。また、第2実施例のセンサモデル部50の構成も、第1実施例のセンサモデル部50の構成(図5)と同様である。第2実施例のセンサモデル部50は、車両周辺の状態を検知する検知部について、シミュレーション制御部10からシミュレーションのパラメータとして車両周辺の状態の真値が与えられた場合に上記検知部による車両周辺の状態の検知結果を推定する推定部として機能する。 The configuration of the vehicle simulation system 110 of the second embodiment is similar to the configuration of the vehicle simulation system 110 of the first embodiment (FIG. 4). Further, the configuration of the sensor model section 50 of the second embodiment is also similar to the configuration of the sensor model section 50 of the first embodiment (FIG. 5). The sensor model unit 50 of the second embodiment has a sensor model unit 50 for detecting a state around the vehicle when the true value of the state around the vehicle is given as a simulation parameter from the simulation control unit 10. It functions as an estimator that estimates the detection result of the state of .

具体的には、センサモデル部50の誤差導出部56は、シミュレーションのパラメータとしての車両周辺の状態の真値を距離誤差モデルへ入力し、距離誤差モデルからの出力として距離誤差を取得する。また、誤差導出部56は、シミュレーションのパラメータとしての車両周辺の状態の真値を方位誤差モデルへ入力し、方位誤差モデルからの出力として方位誤差を取得する。シミュレーションのパラメータは、検知部から検知対象物までの距離と方位、車両周辺の照度、検知対象物の姿勢についてそれぞれの真値を含む。 Specifically, the error deriving unit 56 of the sensor model unit 50 inputs the true value of the state around the vehicle as a simulation parameter to the distance error model, and obtains the distance error as an output from the distance error model. Further, the error deriving unit 56 inputs the true value of the state around the vehicle as a simulation parameter to the azimuth error model, and obtains the azimuth error as an output from the azimuth error model. The simulation parameters include the true values of the distance and direction from the detection unit to the object to be detected, the illuminance around the vehicle, and the attitude of the object to be detected.

センサモデル部50の模擬値導出部58は、第1実施例と同様に、誤差導出部56により取得された誤差を、シミュレーションにおける車両周辺の状態の真値に加算することで、検知部による検知結果の推定値を導出する。例えば、模擬値導出部58は、誤差導出部56により取得された距離誤差を、シミュレーションにおける検知部から検知対象物までの距離真値に加算することで、検知部により検知される距離の推定値を導出する。また、模擬値導出部58は、誤差導出部56により取得された方位誤差を、シミュレーションにおける検知部に対する検知対象物の方位真値に加算することで、検知部により検知される方位の推定値を導出する。 Similar to the first embodiment, the simulated value derivation unit 58 of the sensor model unit 50 adds the error acquired by the error derivation unit 56 to the true value of the state around the vehicle in the simulation, thereby improving the detection by the detection unit. Derive estimates of the results. For example, the simulated value derivation unit 58 adds the distance error acquired by the error derivation unit 56 to the true distance value from the detection unit to the detection target in the simulation, thereby generating an estimated value of the distance detected by the detection unit. Derive. In addition, the simulated value deriving unit 58 adds the azimuth error acquired by the error deriving unit 56 to the true azimuth value of the detection target relative to the detection unit in the simulation, thereby calculating the estimated value of the azimuth detected by the detection unit. Derive.

また、センサモデル部50の模擬値導出部58は、シミュレーションのパラメータとしての車両周辺の状態の真値を検知率モデルへ入力し、検知部による検知率の推定値を導出する。例えば、模擬値導出部58は、シミュレーションのパラメータとして車両周辺の照度、検知対象物の姿勢を検知率モデルへ入力し、さらに、検知部から検知対象物までの距離と方位の複数パターンの組み合わせを検知率モデルへ入力することにより、検知率モデルからの出力として、距離と方位の組み合わせパターンごとの検知率推定値を取得する。すなわち、模擬値導出部58は、距離と方位の複数パターンの組み合わせに対応する複数個の検知率推定値を取得する。 Furthermore, the simulated value derivation unit 58 of the sensor model unit 50 inputs the true value of the state around the vehicle as a simulation parameter to the detection rate model, and derives an estimated value of the detection rate by the detection unit. For example, the simulated value deriving unit 58 inputs the illuminance around the vehicle and the posture of the detection target as simulation parameters to the detection rate model, and further calculates a combination of multiple patterns of distance and direction from the detection unit to the detection target. By inputting it to the detection rate model, an estimated detection rate value for each combination pattern of distance and direction is obtained as an output from the detection rate model. That is, the simulated value deriving unit 58 obtains a plurality of detection rate estimation values corresponding to a plurality of combinations of distance and direction patterns.

模擬値導出部58は、シミュレーションの結果として、(1)距離推定に関する情報、(2)方位推定に関する情報、(3)検知率推定に関する情報をシミュレーション制御部10へ出力する。(1)距離推定に関する情報は、検知部により検知される距離の推定値、シミュレーションにおける距離の真値、距離誤差の値、距離誤差の内訳を含む。(2)方位推定に関する情報は、検知部により検知される方位の推定値、シミュレーションにおける方位の真値、方位誤差の値、方位誤差の内訳を含む。(3)検知率推定に関する情報は、距離と方位の複数パターンの組み合わせに対応する複数個の検知率推定値を含む。 The simulated value deriving unit 58 outputs (1) information regarding distance estimation, (2) information regarding orientation estimation, and (3) information regarding detection rate estimation to the simulation control unit 10 as simulation results. (1) Information regarding distance estimation includes the estimated value of the distance detected by the detection unit, the true value of the distance in the simulation, the value of the distance error, and the breakdown of the distance error. (2) Information regarding orientation estimation includes an estimated value of the orientation detected by the detection unit, a true value of the orientation in the simulation, a value of the orientation error, and a breakdown of the orientation error. (3) Information regarding detection rate estimation includes a plurality of detection rate estimates corresponding to combinations of multiple patterns of distance and direction.

距離誤差の内訳は、距離誤差モデルにおける複数のカテゴリに対する複数のカテゴリ係数のうち、距離誤差の導出において使用されたカテゴリのカテゴリ係数(言い換えれば車両周辺状態の真値が該当するカテゴリのカテゴリ係数であり、以下「有効カテゴリ係数」と呼ぶ。)を含む。実施例での距離誤差の内訳は、距離誤差モデルにおける説明変数の項目名称(例えば「距離」、「方位」等)と有効カテゴリ係数の組を複数組含む。同様に、方位誤差の内訳は、方位誤差モデルにおける複数のカテゴリに対する複数のカテゴリ係数のうち、方位誤差の導出において使用されたカテゴリのカテゴリ係数(言い換えれば車両周辺状態の真値が該当するカテゴリのカテゴリ係数(有効カテゴリ係数)を含む。実施例での方位誤差の内訳は、方位誤差モデルにおける説明変数の項目名称と有効カテゴリ係数の組を複数組含む。 The breakdown of the distance error is the category coefficient of the category used in deriving the distance error among the multiple category coefficients for multiple categories in the distance error model (in other words, the category coefficient of the category to which the true value of the vehicle surrounding state corresponds). (hereinafter referred to as "effective category coefficients"). The breakdown of the distance error in the embodiment includes a plurality of sets of item names of explanatory variables in the distance error model (for example, "distance", "azimuth", etc.) and effective category coefficients. Similarly, the breakdown of the heading error is the category coefficient of the category used in deriving the heading error (in other words, the true value of the vehicle surrounding state is Contains category coefficients (effective category coefficients).The breakdown of the orientation error in the embodiment includes a plurality of pairs of item names of explanatory variables in the orientation error model and effective category coefficients.

第2実施例のシミュレーション制御部10は、車両シミュレーションの結果を示す画像を生成する機能を含む。図11は、第2実施例のシミュレーション制御部10の機能ブロックを示すブロック図である。シミュレーション制御部10は、パラメータ取得部120、パラメータ入力部122、模擬値取得部124、結果画像生成部126、表示制御部128を備える。 The simulation control unit 10 of the second embodiment includes a function of generating an image showing the result of vehicle simulation. FIG. 11 is a block diagram showing functional blocks of the simulation control section 10 of the second embodiment. The simulation control section 10 includes a parameter acquisition section 120, a parameter input section 122, a simulated value acquisition section 124, a result image generation section 126, and a display control section 128.

図11に示す複数の機能ブロックの機能が実装された複数のモジュールを含むコンピュータプログラムが、車両シミュレーションシステム110のストレージに記憶されてもよい。車両シミュレーションシステム110のCPU(またはシステム内の装置のCPU)は、このコンピュータプログラムをメインメモリに読み出して実行することにより、図11に示す各機能ブロックの機能を発揮してもよい。また、図11に示す複数の機能ブロックの複数の機能は、複数個の装置に分散されてもよく、それら複数個の装置がシステムとして連携することで実現されてもよい。さらにまた、図11に示す複数の機能ブロックの複数の機能は、単一の装置に集約されてもよい。 A computer program including a plurality of modules in which the functions of the plurality of functional blocks shown in FIG. 11 are implemented may be stored in the storage of the vehicle simulation system 110. The CPU of vehicle simulation system 110 (or the CPU of a device within the system) may perform the functions of each functional block shown in FIG. 11 by reading this computer program into the main memory and executing it. Moreover, the plurality of functions of the plurality of functional blocks shown in FIG. 11 may be distributed to a plurality of devices, or may be realized by the plurality of devices working together as a system. Furthermore, multiple functions of multiple functional blocks shown in FIG. 11 may be integrated into a single device.

パラメータ取得部120は、ユーザインタフェース12(ユーザ端末等)に対してユーザ(開発者や試験者等)が入力したシミュレーションのパラメータを取得する。シミュレーションのパラメータは、所定の記憶部に予め格納されてもよく、パラメータ取得部120は、その記憶部からシミュレーションのパラメータを読み出してもよい。既述したように、シミュレーションのパラメータは、検知部から検知対象物までの距離と方向、車両周辺の照度、検知対象物の姿勢を含む。 The parameter acquisition unit 120 acquires simulation parameters input by a user (developer, tester, etc.) to the user interface 12 (user terminal, etc.). The simulation parameters may be stored in advance in a predetermined storage section, and the parameter acquisition section 120 may read the simulation parameters from the storage section. As described above, the simulation parameters include the distance and direction from the detection unit to the object to be detected, the illuminance around the vehicle, and the posture of the object to be detected.

パラメータ入力部122は、パラメータ取得部120により取得されたシミュレーションのパラメータをセンサモデル部50へ出力することにより、センサモデル部50にシミュレーション処理を実行させる。既述したように、センサモデル部50は、シミュレーション制御部10から入力されたシミュレーションのパラメータを距離誤差モデル、方位誤差モデル、検知率モデルに入力し、各モデルの出力値を含むシミュレーション結果をシミュレーション制御部10へ出力する。 The parameter input unit 122 outputs the simulation parameters acquired by the parameter acquisition unit 120 to the sensor model unit 50, thereby causing the sensor model unit 50 to execute a simulation process. As described above, the sensor model unit 50 inputs the simulation parameters input from the simulation control unit 10 into the distance error model, the direction error model, and the detection rate model, and simulates the simulation results including the output values of each model. Output to the control unit 10.

模擬値取得部124は、センサモデル部50による車両シミュレーションの結果を取得する。具体的には、模擬値取得部124は、センサモデル部50から出力された上述の(1)距離推定に関する情報、(2)方位推定に関する情報、(3)検知率推定に関する情報を取得する。 The simulated value acquisition unit 124 acquires the results of the vehicle simulation performed by the sensor model unit 50. Specifically, the simulated value acquisition unit 124 acquires the above-mentioned (1) information related to distance estimation, (2) information related to azimuth estimation, and (3) information related to detection rate estimation, which are output from the sensor model unit 50.

結果画像生成部126は、模擬値取得部124により取得されたシミュレーション結果をもとに、そのシミュレーション結果を示す画像(以下「シミュレーション結果画像」とも呼ぶ。)を生成する。結果画像生成部126は、シミュレーション結果画像に含まれる後述の複数の要素を生成する。例えば、結果画像生成部126は、シミュレーション結果画像として、シミュレーションにおける車両周辺の状態の真値と、車両の検知部による検知結果の推定値とを異なる態様で示す画像を生成する。 Based on the simulation results acquired by the simulated value acquisition unit 124, the result image generation unit 126 generates an image (hereinafter also referred to as a “simulation result image”) representing the simulation results. The result image generation unit 126 generates a plurality of elements, which will be described later, included in the simulation result image. For example, the result image generation unit 126 generates, as the simulation result image, an image that shows the true value of the state around the vehicle in the simulation and the estimated value of the detection result by the vehicle detection unit in different ways.

表示制御部128は、結果画像生成部126により生成されたシミュレーション結果画像のデータを表示装置(実施例ではユーザインタフェース12)へ出力し、シミュレーション結果画像を表示装置に表示させる。 The display control unit 128 outputs data of the simulation result image generated by the result image generation unit 126 to a display device (user interface 12 in the embodiment), and causes the display device to display the simulation result image.

シミュレーション結果画像について詳細に説明する。図12は、シミュレーション結果画像の例を示す。シミュレーション結果画像140は、複数の要素として、車両画像141、検知位置画像142、真位置画像144、距離誤差インジケータ146、方位誤差インジケータ148、検知範囲画像150を含む。車両画像141は、シミュレーション対象の検知部を搭載した車両を示す画像である。 The simulation result image will be explained in detail. FIG. 12 shows an example of a simulation result image. The simulation result image 140 includes a vehicle image 141, a detected position image 142, a true position image 144, a distance error indicator 146, a direction error indicator 148, and a detected range image 150 as a plurality of elements. The vehicle image 141 is an image showing a vehicle equipped with a detection unit to be simulated.

検知位置画像142は、検知部が検知対象物を検知する位置(シミュレーションにより推定された位置であり、「検知位置」と呼ぶ。)を示す画像である。結果画像生成部126は、シミュレーション結果に含まれる距離推定値および方位推定値に基づいて検知位置を求め、その検知位置に検知位置画像142を配置する。真位置画像144は、シミュレーションにおける検知対象物の真の位置(「真位置」と呼ぶ。)を示す画像である。結果画像生成部126は、シミュレーションパラメータとしての距離真値および方位真値に基づいて真位置を求め、その真位置に真位置画像144を配置する。 The detection position image 142 is an image showing a position at which the detection unit detects the detection target (a position estimated by simulation, and referred to as a "detection position"). The result image generation unit 126 determines a detected position based on the estimated distance value and the estimated direction value included in the simulation result, and arranges the detected position image 142 at the detected position. The true position image 144 is an image showing the true position (referred to as "true position") of the detection target in the simulation. The result image generation unit 126 determines the true position based on the true distance value and the true azimuth value as simulation parameters, and arranges the true position image 144 at the true position.

また、検知位置画像142は、検知位置と、車両画像141の検知部の位置とを結ぶ線を含む。また、真位置画像144は、真位置と、車両画像141の検知部の位置とを結ぶ線を含む。結果画像生成部126は、検知位置画像142と真位置画像144とを異なる態様に設定し、言い換えれば、検知位置画像142と真位置画像144の外観を異ならせる。例えば、検知位置画像142と真位置画像144には、異なる態様の図形、線、または塗りつぶしが設定されてもよい。また、検知位置画像142と真位置画像144には、異なる色彩や、異なるサイズ、点線・実線の違い、陰影の有無の違いが設定されてもよい。これにより、シミュレーション結果において、検知位置と真位置とを直観的に区別でき、その違いを容易に把握することができる。 Furthermore, the detected position image 142 includes a line connecting the detected position and the position of the detection unit of the vehicle image 141. Further, the true position image 144 includes a line connecting the true position and the position of the detection unit of the vehicle image 141. The result image generation unit 126 sets the detected position image 142 and the true position image 144 in different forms, in other words, makes the detected position image 142 and the true position image 144 have different appearances. For example, the detected position image 142 and the true position image 144 may have different shapes, lines, or fills. Further, the detected position image 142 and the true position image 144 may have different colors, different sizes, dotted lines and solid lines, and presence/absence of shading. Thereby, in the simulation results, the detected position and the true position can be intuitively distinguished, and the difference can be easily understood.

距離誤差インジケータ146は、検知位置と真位置との距離誤差の大きさを示す画像である。距離誤差インジケータ146は、検知位置と、車両画像141の検知部の位置とを結ぶ線の長さと、真位置と、車両画像141の検知部の位置とを結ぶ線の長さとの差分を強調態様(注意喚起色や太線等)で示すものである。結果画像生成部126は、シミュレーション結果の距離誤差に応じて距離誤差インジケータ146を設定する。これにより、シミュレーション結果において、距離誤差の把握を容易なものにできる。 The distance error indicator 146 is an image that indicates the magnitude of the distance error between the detected position and the true position. The distance error indicator 146 emphasizes the difference between the length of the line connecting the detection position and the position of the detection unit in the vehicle image 141 and the length of the line connecting the true position and the position of the detection unit in the vehicle image 141. (indicated by warning colors, bold lines, etc.). The result image generation unit 126 sets the distance error indicator 146 according to the distance error of the simulation result. This makes it easy to understand distance errors in simulation results.

方位誤差インジケータ148は、検知位置と真位置との方位誤差の大きさを示す画像である。方位誤差インジケータ148は、車両画像141の検知部の位置から検知位置への方位と、車両画像141の検知部の位置から真位置への方位との差分を強調態様(注意喚起色や太線等)で示すものである。結果画像生成部126は、シミュレーション結果の方位誤差に応じて方位誤差インジケータ148を設定する。これにより、シミュレーション結果において、方位誤差の把握を容易なものにできる。 The orientation error indicator 148 is an image that indicates the magnitude of the orientation error between the detected position and the true position. The orientation error indicator 148 emphasizes the difference between the orientation from the position of the detection unit in the vehicle image 141 to the detection position and the orientation from the position of the detection unit in the vehicle image 141 to the true position (alert color, thick line, etc.) This is shown in . The result image generation unit 126 sets the orientation error indicator 148 according to the orientation error of the simulation result. This makes it easy to understand orientation errors in simulation results.

検知範囲画像150は、車両の検知部による検知範囲を示す画像である。実施例のシミュレーション制御部10は、検知部の種類や製品特性に応じて予め定まる検知部の検知範囲のデータを予め記憶する検知範囲記憶部(不図示)をさらに備える。結果画像生成部126は、車両の検知部の検知範囲のデータを記憶部から取得し、その検知範囲(図12では扇形の範囲)を示す検知範囲画像150を生成する。結果画像生成部126は、検知範囲の各位置の色を検知部による検知率に応じた色に設定する。これにより、車両シミュレーション結果において、対象物の位置により異なりうる検知率の把握を容易なものにできる。 The detection range image 150 is an image showing the detection range by the detection unit of the vehicle. The simulation control unit 10 of the embodiment further includes a detection range storage unit (not shown) that stores in advance data on the detection range of the detection unit, which is determined in advance according to the type of the detection unit and product characteristics. The result image generation unit 126 acquires data on the detection range of the vehicle's detection unit from the storage unit, and generates a detection range image 150 indicating the detection range (a fan-shaped range in FIG. 12). The result image generation unit 126 sets the color of each position in the detection range to a color according to the detection rate by the detection unit. This makes it easy to understand the detection rate, which may vary depending on the position of the object, in the vehicle simulation results.

具体的には、結果画像生成部126は、車両シミュレーション結果としての距離と方位の複数パターンの組み合わせに対応する複数個の検知率推定値にしたがって、検知範囲の各位置の検知率推定値を特定する。結果画像生成部126は、検知率推定値が相対的に低い位置には相対的に明度が低い色(暗い色)を設定する一方、検知率推定値が相対的に高い位置には相対的に明度が高い色(明るい色)を設定する。言い換えれば、結果画像生成部126は、検知率推定値が低い位置ほど、その位置に設定する色の明度を低くし、検知率推定値が高い位置ほど、その位置に設定する色の明度を高くする。図13の検知範囲画像150は、検知部の光軸152近傍では検知率が高く、検知範囲の端付近では検知率が低いことを示している。 Specifically, the result image generation unit 126 specifies the detection rate estimate for each position in the detection range according to a plurality of detection rate estimates corresponding to a plurality of combinations of distance and direction patterns as vehicle simulation results. do. The result image generation unit 126 sets a relatively low brightness color (dark color) at a position where the detection rate estimate is relatively low, while setting a relatively low brightness color (dark color) at a position where the detection rate estimate is relatively high. Set a color with high brightness (bright color). In other words, the result image generation unit 126 lowers the brightness of the color set at a position where the estimated detection rate is lower, and increases the brightness of the color set at the position where the estimated detection rate is higher. do. The detection range image 150 in FIG. 13 shows that the detection rate is high near the optical axis 152 of the detection unit, and the detection rate is low near the ends of the detection range.

また、シミュレーション結果画像140は、ユーザの所定操作に応じて、真位置と検知位置との差の内訳をさらに表示するよう構成される。図13は、シミュレーション結果画像の例を示す。同図は、シミュレーション結果画像140において方位誤差インジケータ148を選択する操作が入力された場合に、方位誤差の内訳を示す画像である誤差内訳154が表示されることを示している。例えば、結果画像生成部126は、シミュレーション結果画像のデータとともにユーザインタフェース12へ提供する表示制御スクリプトコード(JavaScript(登録商標)等)に、方位誤差インジケータ148がマウスオーバーされた場合に誤差内訳154をポップアップ表示させるコードを設定してもよい。 Further, the simulation result image 140 is configured to further display a breakdown of the difference between the true position and the detected position in accordance with a predetermined operation by the user. FIG. 13 shows an example of a simulation result image. This figure shows that when an operation to select the orientation error indicator 148 is input in the simulation result image 140, an error breakdown 154, which is an image showing a breakdown of the orientation error, is displayed. For example, when the orientation error indicator 148 is moused over, the result image generation unit 126 generates the error details 154 in a display control script code (such as JavaScript (registered trademark)) that is provided to the user interface 12 together with the data of the simulation result image. You can also set a code to display a popup.

なお、シミュレーション結果画像140は、距離誤差インジケータ146が選択された場合、距離誤差の内訳を示す誤差内訳154を表示させるよう構成される。 Note that the simulation result image 140 is configured to display an error breakdown 154 indicating a breakdown of the distance error when the distance error indicator 146 is selected.

第2実施例における誤差内訳154は、距離誤差モデルまたは方位誤差モデルにおける複数項目の説明変数それぞれの重みを示すものである。既述したように、センサモデル部50から出力されるシミュレーション結果は、距離誤差の内訳として、距離誤差モデルにおける説明変数の項目名称と有効カテゴリ係数の組を複数組含む。また、シミュレーション結果は、方位誤差の内訳として、方位誤差モデルにおける説明変数の項目名称と有効カテゴリ係数の組を複数組含む。結果画像生成部126は、距離誤差モデルにおける各説明変数の有効カテゴリ係数の比率を示すように距離誤差の内訳を示す誤差内訳154を生成する。結果画像生成部126は、方位誤差モデルにおける各説明変数の有効カテゴリ係数の比率を示すように方位誤差の内訳を示す誤差内訳154を生成する。誤差内訳154の表示により、検知位置と真位置との差を生じさせた要因をユーザに分かり易く提示することができる。 The error breakdown 154 in the second embodiment indicates the weight of each explanatory variable of a plurality of items in the distance error model or the direction error model. As described above, the simulation result output from the sensor model unit 50 includes a plurality of pairs of item names of explanatory variables in the distance error model and effective category coefficients as details of the distance error. Furthermore, the simulation result includes a plurality of pairs of item names of explanatory variables in the orientation error model and effective category coefficients as the details of the orientation error. The result image generation unit 126 generates an error breakdown 154 indicating the breakdown of the distance error so as to indicate the ratio of effective category coefficients of each explanatory variable in the distance error model. The result image generation unit 126 generates an error breakdown 154 that shows the breakdown of the orientation error so as to indicate the ratio of effective category coefficients of each explanatory variable in the orientation error model. By displaying the error details 154, the factors that caused the difference between the detected position and the true position can be presented to the user in an easy-to-understand manner.

図13の誤差内訳154では、各説明変数の有効カテゴリ係数の比率を円グラフで示したが、誤差内訳154は、異なる種類の統計図表を含んでもよい。図14は、各説明変数の有効カテゴリ係数の比率を積み上げ棒グラフにより示す誤差内訳156の表示例を示している。図14の誤差内訳156は、方位誤差と距離誤差の両方の内訳を示す。この場合、方位誤差インジケータ148と距離誤差インジケータ146のどちらが選択された場合にも同じ内容の誤差内訳156を表示させてもよい。なお、誤差内訳は、モデルの各説明変数の有効カテゴリ係数の比率以外の情報を示すものでもよい。例えば、誤差内訳は、モデルの各説明変数の名称のみを示すものであってもよく、また、方位誤差の値または距離誤差の値を示すものであってもよい。 Although the error breakdown 154 in FIG. 13 shows the ratio of effective category coefficients for each explanatory variable in a pie chart, the error breakdown 154 may include different types of statistical charts. FIG. 14 shows a display example of the error breakdown 156 that shows the ratio of effective category coefficients of each explanatory variable using a stacked bar graph. The error breakdown 156 in FIG. 14 shows the breakdown of both the orientation error and the distance error. In this case, the same error breakdown 156 may be displayed regardless of whether the orientation error indicator 148 or the distance error indicator 146 is selected. Note that the error breakdown may indicate information other than the ratio of effective category coefficients of each explanatory variable of the model. For example, the error breakdown may indicate only the name of each explanatory variable of the model, or may indicate the value of the orientation error or the value of the distance error.

以上、本開示を第2実施例をもとに説明した。第2実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the second embodiment. The second embodiment is an example, and those skilled in the art will understand that various modifications can be made to the combination of each component or each treatment process, and that such modifications are also within the scope of the present disclosure.

上記第2実施例では、シミュレーション結果画像をユーザインタフェース12へ提供して表示させたが、変形例として、シミュレーション結果画像を所定の記憶装置に記憶させてもよい。例えば、シミュレーション制御部10は、表示制御部128に代えて、または表示制御部128とともに、複数シチュエーションの車両シミュレーションの結果を示す複数のシミュレーション結果画像140を所定の記憶部に記憶させる結果画像保存部(不図示)をさらに備えてもよい。表示制御部128は、記憶部に記憶された複数のシミュレーション結果画像のうちユーザから指定された1つ以上のシミュレーション結果画像をユーザインタフェース12に表示させてもよい。 In the second embodiment, the simulation result image is provided to the user interface 12 for display, but as a modification, the simulation result image may be stored in a predetermined storage device. For example, instead of or together with the display control unit 128, the simulation control unit 10 includes a result image storage unit that stores in a predetermined storage unit a plurality of simulation result images 140 showing the results of vehicle simulations in a plurality of situations. (not shown) may be further provided. The display control unit 128 may cause the user interface 12 to display one or more simulation result images designated by the user among the plurality of simulation result images stored in the storage unit.

第2実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目2-1]
車両の周辺の状態を検知する検知部について、シミュレーションのパラメータとして前記車両の周辺の状態の真値が与えられた場合に前記検知部による前記車両の周辺の状態の検知結果を推定する推定部と、
前記シミュレーションの結果を示す画像として、前記車両の周辺の状態の真値と、前記検知部による検知結果の推定値の両方を含み、前記真値と前記推定値とを異なる態様で示す画像を生成する生成部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目2-2]
前記シミュレーションの結果を示す画像は、前記真値と前記推定値との差を示す画像をさらに含む、
項目2-1に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との差を直観的に把握可能なシミュレーション結果を提供できる。
[項目2-3]
前記シミュレーションの結果を示す画像は、所定の操作に応じて、前記真値と前記推定値との差の内訳をさらに表示するよう構成される、
項目2-1または2-2に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との差の詳細を把握可能なシミュレーション結果を提供できる。
[項目2-4]
前記推定部は、前記車両の周辺の状態に関する複数項目の真値を説明変数とし、前記検知部による前記車両の周辺の状態の検知結果と真値との差を目的変数とするセンサモデルに、シミュレーションのパラメータとして前記車両の周辺の状態に関する複数項目の真値を入力することにより前記検知部による検知結果を推定し、
前記真値と前記推定値との差の内訳は、複数項目の説明変数の重みを示すものである、
項目2-3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との差を生じさせた主な要因を把握可能なシミュレーション結果を提供できる。
[項目2-5]
前記生成部は、前記シミュレーションの結果を示す画像として、前記検知部による検知範囲を示す画像をさらに生成し、前記検知範囲の各位置の色を、前記検知部による検知率に応じた色に設定する、
項目1から4のいずれかに記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、検知部による検知範囲と検知率を直観的に把握可能なシミュレーション結果を提供できる。
[項目2-6]
車両の周辺の状態を検知する検知部について、シミュレーションのパラメータとして前記車両の周辺の状態の真値が与えられた場合に前記検知部による前記車両の周辺の状態の検知結果を推定し、
前記シミュレーションの結果を示す画像として、前記車両の周辺の状態の真値と、前記検知部による検知結果の推定値の両方を含み、前記真値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータが実行する車両シミュレーション方法。
この車両シミュレーション方法によると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
[項目2-7]
車両の周辺の状態を検知する検知部について、シミュレーションのパラメータとして前記車両の周辺の状態の真値が与えられた場合に前記検知部による前記車両の周辺の状態の検知結果を推定し、
前記シミュレーションの結果を示す画像として、前記車両の周辺の状態の真値と、前記検知部による検知結果の推定値の両方を含み、前記真値と前記推定値とを異なる態様で示す画像を生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両の周辺の状態の真値と、検知部による検知結果(推定値)との比較が容易なシミュレーション結果を提供できる。これにより、例えば、検知部が用いる検知アルゴリズムの評価や改善を一層効果的に支援することができる。
The techniques described in the second embodiment and the modified examples may be specified by the following items.
[Item 2-1]
The detection unit detects the state of the surroundings of the vehicle, and an estimation unit that estimates the detection result of the state of the surroundings of the vehicle by the detection unit when a true value of the state of the surroundings of the vehicle is given as a simulation parameter. ,
As an image showing the result of the simulation, an image is generated that includes both the true value of the surrounding state of the vehicle and the estimated value of the detection result by the detection unit, and shows the true value and the estimated value in different ways. a generation unit to
A vehicle simulation system equipped with
According to this vehicle simulation system, it is possible to provide simulation results that allow easy comparison of the true value of the state of the surroundings of the vehicle and the detection result (estimated value) by the detection unit. Thereby, for example, it is possible to more effectively support evaluation and improvement of the detection algorithm used by the detection unit.
[Item 2-2]
The image showing the simulation result further includes an image showing a difference between the true value and the estimated value.
Vehicle simulation system described in item 2-1.
According to this vehicle simulation system, it is possible to provide simulation results that allow the user to intuitively understand the difference between the true value of the surrounding state of the vehicle and the detection result (estimated value) by the detection unit.
[Item 2-3]
The image showing the simulation result is configured to further display a breakdown of the difference between the true value and the estimated value in accordance with a predetermined operation.
Vehicle simulation system according to item 2-1 or 2-2.
According to this vehicle simulation system, it is possible to provide simulation results that allow detailed understanding of the difference between the true value of the state of the surroundings of the vehicle and the detection result (estimated value) by the detection unit.
[Item 2-4]
The estimation unit includes a sensor model in which true values of a plurality of items related to the state of the surroundings of the vehicle are used as explanatory variables, and a difference between the detection result of the state of the surroundings of the vehicle by the detection unit and the true value is used as an objective variable; Estimating the detection result by the detection unit by inputting true values of a plurality of items related to the surrounding state of the vehicle as simulation parameters,
The breakdown of the difference between the true value and the estimated value indicates the weight of explanatory variables of multiple items;
Vehicle simulation system described in item 2-3.
According to this vehicle simulation system, it is possible to provide simulation results that allow understanding of the main factors that caused the difference between the true value of the surrounding state of the vehicle and the detection result (estimated value) by the detection unit.
[Item 2-5]
The generation unit further generates an image indicating a detection range by the detection unit as an image indicating the result of the simulation, and sets a color at each position in the detection range to a color according to a detection rate by the detection unit. do,
The vehicle simulation system according to any one of items 1 to 4.
According to this vehicle simulation system, it is possible to provide simulation results that allow the user to intuitively understand the detection range and detection rate of the detection unit.
[Item 2-6]
With respect to a detection unit that detects a state of the surroundings of the vehicle, when a true value of the state of the surroundings of the vehicle is given as a simulation parameter, a detection result of the state of the surroundings of the vehicle by the detection unit is estimated;
As an image showing the result of the simulation, an image is generated that includes both the true value of the surrounding state of the vehicle and the estimated value of the detection result by the detection unit, and shows the true value and the estimated value in different ways. do,
A vehicle simulation method that is performed by a computer.
According to this vehicle simulation method, it is possible to provide a simulation result that allows easy comparison of the true value of the state of the surroundings of the vehicle and the detection result (estimated value) by the detection unit. Thereby, for example, it is possible to more effectively support evaluation and improvement of the detection algorithm used by the detection unit.
[Item 2-7]
With respect to a detection unit that detects a state of the surroundings of the vehicle, when a true value of the state of the surroundings of the vehicle is given as a simulation parameter, a detection result of the state of the surroundings of the vehicle by the detection unit is estimated;
As an image showing the result of the simulation, an image is generated that includes both the true value of the surrounding state of the vehicle and the estimated value of the detection result by the detection unit, and shows the true value and the estimated value in different ways. do,
A computer program that causes a computer to do something.
According to this computer program, it is possible to provide a simulation result that allows easy comparison of the true value of the state around the vehicle and the detection result (estimated value) by the detection unit. Thereby, for example, it is possible to more effectively support evaluation and improvement of the detection algorithm used by the detection unit.

<第3実施例>
本実施例に関して、第1実施例、第2実施例と相違する点を中心に以下説明し、共通する点の説明を省略する。本実施例の構成要素のうち第1実施例、第2実施例の構成要素と同一または対応する構成要素には同一の符号を付して説明する。
<Third Example>
Regarding this embodiment, the following explanation will focus on the points that are different from the first embodiment and the second embodiment, and the explanation of the common points will be omitted. Among the components of this embodiment, components that are the same as or correspond to those of the first embodiment and the second embodiment will be described with the same reference numerals.

第3実施例では、センサモデルとして、大規模な実環境データに基づく検知結果を用いて、数量化分析の統計処理方法によりセンシング検知率モデル(以下「検知率モデル」とも呼ぶ。)を生成する。この検知率モデルを用いる車両シミュレーションシステムは、CGを用いるものと比べると画像処理の必要がないため、計算コストが低い。また、現実に即したシミュレーション結果を得やすいというメリットがある。 In the third embodiment, a sensing detection rate model (hereinafter also referred to as "detection rate model") is generated by a statistical processing method of quantitative analysis using detection results based on large-scale real environment data as a sensor model. . A vehicle simulation system using this detection rate model does not require image processing compared to a system using CG, and thus has a lower calculation cost. Another advantage is that it is easy to obtain simulation results that match reality.

第3実施例の検知率モデルは、車両の周辺が映る画像データから当該車両周辺の状態を検知する検知部について、その検知部による検知率を推定する数理モデルである。また、検知率モデルは、車両周辺の状態に関する複数項目の真値を説明変数とし、車両に搭載された検知部により上記車両周辺の状態が検知される確率(すなわち「検知率」)を目的変数とする。上記の検知部は、車両に搭載されるセンサ装置であり、例えば、カメラ、レーダー装置、ライダー装置、ソナーの少なくとも1つを含んでもよい。 The detection rate model of the third embodiment is a mathematical model that estimates the detection rate of a detection unit that detects the state of the surroundings of a vehicle from image data showing the surroundings of the vehicle. In addition, in the detection rate model, the true values of multiple items related to the conditions around the vehicle are used as explanatory variables, and the probability that the above-mentioned conditions around the vehicle are detected by the detection unit installed in the vehicle (i.e., "detection rate") is used as the objective variable. shall be. The above detection unit is a sensor device mounted on a vehicle, and may include, for example, at least one of a camera, a radar device, a lidar device, and a sonar.

図15は、図9に対応するものであり、検知率モデル構築のためのサンプルデータの例を示す。検知率モデル構築のための説明変数は、検知率に影響を与える複数個の要因として、(1)車両(実質的に検知部と同じ)から検知対象物までの距離、(2)車両から検知対象物への方位、(3)車両周辺の照度、(4)検知対象物の姿勢を含む。各要因は、複数のカテゴリに分けられている。各要因において該当するカテゴリの値には「1」が設定され、非該当のカテゴリの値には「0」が設定される。また、検知率モデル構築のための目的変数には、検知部により検知された場合(検知OKの場合)に「1」が設定され、検知部により検知されなかった場合(検知NGの場合)に「0」が設定される。 FIG. 15 corresponds to FIG. 9 and shows an example of sample data for constructing a detection rate model. The explanatory variables for constructing the detection rate model include multiple factors that influence the detection rate: (1) distance from the vehicle (substantially the same as the detection unit) to the detection target; (2) detection from the vehicle. It includes the direction to the object, (3) illuminance around the vehicle, and (4) the attitude of the object to be detected. Each factor is divided into multiple categories. For each factor, the value of the applicable category is set to "1", and the value of the non-applicable category is set to "0". In addition, the objective variable for constructing the detection rate model is set to "1" when it is detected by the detection unit (in the case of detection OK), and "1" is set when it is not detected by the detection unit (in the case of detection NG). "0" is set.

第3実施例において検知率を求める方法を説明する。要因数をK(図15ではK=4)とし、各要因のカテゴリ数をl,l,・・・,lとする。複数個のサンプルのうち検知部により検知されたサンプル群をグループ1とし、その個数をnとする。また、複数個のサンプルのうち検知部により検知されなかったサンプル群をグループ2とし、その個数をnとする。全サンプル数N=n+nである。 A method for determining the detection rate in the third embodiment will be explained. Let the number of factors be K (K=4 in FIG. 15), and the number of categories for each factor be l 1 , l 2 , . . . , l k . A group of samples detected by the detection unit among the plurality of samples is defined as group 1, and the number thereof is defined as n1 . Further, among the plurality of samples, a group of samples that are not detected by the detection unit is defined as group 2, and the number thereof is defined as n2 . The total number of samples is N=n 1 +n 2 .

グループ#rのサンプル#jが、要因#iのカテゴリ#αに対してとる値を、ダミー変数xi(α) r(j)で表す。既述したように、グループ#rのサンプル#jが、要因#iのカテゴリ#αに対して反応した(yes)場合、xi(α) r(j)=1となり、反応しない(no)場合、xi(α) r(j)=0とする。
i=1,2,・・・,K;α=l,l,・・・,l
r=1,2,・・・,M(サンプルのグループ);j=1,2,・・・,n
第3実施例では、サンプルは検知OKと検知NGの2つのグループに分け、M=2。
The value that sample #j of group #r takes for category #α of factor #i is represented by a dummy variable x i (α) r (j) . As mentioned above, if sample #j of group #r reacts to category #α of factor #i (yes), x i (α) r(j) = 1, and does not react (no). In this case, x i(α) r(j) =0.
i=1, 2,..., K; α=l 1 , l 2 ,..., l k
r=1,2,...,M (group of samples); j=1,2,...,n r
In the third embodiment, the samples are divided into two groups: detection OK and detection NG, and M=2.

ここで、グループ#rのサンプル#jの値yr(j)は、式3のように一般化できる。

Figure 0007349626000003
i(α)は要因(説明変数)#iのカテゴリ#αの係数(ウエイト)とも呼ぶ。 Here, the value y r (j) of sample #j of group #r can be generalized as shown in Equation 3.
Figure 0007349626000003
a i (α) is also called the coefficient (weight) of category #α of factor (explanatory variable) #i.

検知率モデル構築時、外的な基準によって分類された各グループが良く分離されるサンプルの値yr(j)が算出されるように、各カテゴリの適切なウエイトai(α)を求める。具体的には、各サンプルの値yr(j)の全分散σと、グループ間分散(言い換えれば級間分散)σ との比ηを基準として、ηを最大にするyr(j)の値を求め、すなわち各カテゴリのウエイトai(α)を算出する。 When constructing the detection rate model, an appropriate weight a i (α) for each category is determined so that the sample value y r (j) that well separates each group classified by external criteria is calculated. Specifically, based on the ratio η 2 between the total variance σ 2 of the value y r (j) of each sample and the between-group variance (in other words, the inter-class variance) σ B 2 , y that maximizes η 2 is used as a reference. The value of r(j) is determined, that is, the weight a i(α) of each category is calculated.

すなわち、第3実施例では、複数個のサンプルのデータ(後述の真値生成部200により検知された車両周辺の状態(真値)に関するデータを含む)を検知率モデルに入力した場合に検知率モデルが出力する複数個の値について、複数個の値の全分散と、グループ1とグループ2間の分散との比が最大になるように各説明変数の重みを求めることにより検知率モデルを生成する。
グループ間の分離の良さを測る尺度である上記η(以下「相関比」とも呼ぶ。)は、式4で表される。

Figure 0007349626000004
That is, in the third embodiment, when data of a plurality of samples (including data regarding the state (true value) around the vehicle detected by the true value generation unit 200 described later) is input to the detection rate model, the detection rate is For multiple values output by the model, a detection rate model is generated by determining the weight of each explanatory variable so that the ratio of the total variance of the multiple values to the variance between group 1 and group 2 is maximized. do.
The above η 2 (hereinafter also referred to as “correlation ratio”), which is a measure of the quality of separation between groups, is expressed by Equation 4.
Figure 0007349626000004

ここで、各グループ内の平均は、式5で表される。

Figure 0007349626000005
式5中のi(α) は、式6を意味する。
Figure 0007349626000006
rは、1(検知OK)、または2(検知NG)である。
全体の平均は、式7で表される。
Figure 0007349626000007
また、式7中のi(α)は、式8を意味する。
Figure 0007349626000008
Here, the average within each group is expressed by Equation 5.
Figure 0007349626000005
−x i (α) r in Formula 5 means Formula 6.
Figure 0007349626000006
r is 1 (detection OK) or 2 (detection NG).
The overall average is expressed by Equation 7.
Figure 0007349626000007
Moreover, −x i (α) in Equation 7 means Equation 8.
Figure 0007349626000008

全分散σは、式9で表される。

Figure 0007349626000009
グループ間分散σ は、式10で表される。
Figure 0007349626000010
The total variance σ 2 is expressed by Equation 9.
Figure 0007349626000009
The intergroup variance σ B 2 is expressed by Equation 10.
Figure 0007349626000010

以上より、相関比ηは、L個の変数ag(β)(g=1,2,・・・,K, β=1,2,・・・,l)の関数となる。Lは全カテゴリの数であり、式11で表される。

Figure 0007349626000011
From the above, the correlation ratio η 2 becomes a function of L variables a g (β) (g=1, 2, . . . , K, β=1, 2, . . . , l g ). L is the number of all categories and is expressed by Equation 11.
Figure 0007349626000011

ここで、式12に示すように相関比ηを最大にするag(β)を求めるため、ηをag(β)で微分して0とおくと、式13が導出される。

Figure 0007349626000012
Figure 0007349626000013
Here, in order to obtain a g(β) that maximizes the correlation ratio η 2 as shown in Equation 12, if η 2 is differentiated by a g(β) and set to 0, Equation 13 is derived.
Figure 0007349626000012
Figure 0007349626000013

式13を解くことで、相関比ηを最大にする各カテゴリのウエイトai(α)(i=1,2,・・・,K, α=1,2,・・・,l)を求めることができる。 By solving Equation 13, the weight a i (α) of each category that maximizes the correlation ratio η 2 (i=1, 2,..., K, α=1, 2,..., l i ) can be found.

i(α)(i=1,2,・・・,K, α=1,2,・・・,l)の求め方を見やすくするため、以下ではベクトルと行列を用いて演算を説明する。
まず、カテゴリウエイトからなるベクトルをベクトルAとする(式14)。

Figure 0007349626000014
To make it easier to understand how to obtain a i (α) (i=1,2,...,K, α=1,2,...,l i ), we will explain the calculation below using vectors and matrices. do.
First, let vector A be a vector consisting of category weights (Equation 14).
Figure 0007349626000014

次に、グループ内平均値からなるN行L列の行列をとする(式15)。

Figure 0007349626000015
全サンプル平均値からなるN行L列の行列をXとする(式16)。
Figure 0007349626000016
全サンプルからなるN行L列の行列をXとする(式17)。
Figure 0007349626000017
Next, a matrix of N rows and L columns consisting of intra-group average values is defined as -XB (Equation 15).
Figure 0007349626000015
Let -X be a matrix of N rows and L columns consisting of all sample average values (Equation 16).
Figure 0007349626000016
Let X be a matrix of N rows and L columns consisting of all samples (Equation 17).
Figure 0007349626000017

また、二つのL行L列の行列S(式18)とS(式19)を作ると、式13は以下の式20で表される:

Figure 0007349626000018
Figure 0007349626000019
Figure 0007349626000020
即ち、式21となる。
Figure 0007349626000021
Furthermore, when two L-row L-column matrices S B (Equation 18) and S (Equation 19) are created, Equation 13 is expressed by the following Equation 20:
Figure 0007349626000018
Figure 0007349626000019
Figure 0007349626000020
That is, Equation 21 is obtained.
Figure 0007349626000021

式21を解いて最大のηに対応するAを求めればよい。ここでは詳細な証明は割愛する。各要因内でダミー変数の和は1となる(式21-2)。

Figure 0007349626000022
What is necessary is to solve Equation 21 and find A corresponding to the maximum η 2 . We omit the detailed proof here. The sum of the dummy variables within each factor is 1 (Equation 21-2).
Figure 0007349626000022

そのため、Sの階数は(L-K)より大きくならないため、各要因の第1カテゴリのウェイトを0として解くことにする。ベクトルA、行列X、Xから各要因の第1カテゴリに対応する列を除いたものをそれぞれA、X とし、さらにS とSを式22と式23で表すと、式21に対応する式は式24になる。

Figure 0007349626000023
Figure 0007349626000024
Figure 0007349626000025
Therefore, since the rank of S does not become larger than (LK), the weight of the first category of each factor is set to 0 in the solution. Vector A, matrix X, −X B , −X excluding the column corresponding to the first category of each factor are respectively denoted as A * , X * , −X B * , −X * , and S B *. When S * is expressed by Equation 22 and Equation 23, the equation corresponding to Equation 21 becomes Equation 24.
Figure 0007349626000023
Figure 0007349626000024
Figure 0007349626000025

次に、式24によりηとAを求める。
Fは式25を満たす下三角行列とし、式24より、ηは式26となる固有方程式の根(最も大きい根)として求められる。

Figure 0007349626000026
Figure 0007349626000027
Next, η 2 and A * are determined using Equation 24.
F is a lower triangular matrix that satisfies Equation 25, and from Equation 24, η 2 is determined as the root (largest root) of the characteristic equation expressed as Equation 26.
Figure 0007349626000026
Figure 0007349626000027

一方、Aは方程式26の固有値に対応するベクトルから求められる(式27)。ここでCは固有ベクトルである。
ここで、式27の両辺にFをかけ、I=F′F′-1を代入すると、式28が得られる。式28を式24と比較すれば、式29が分かる。即ちカテゴリのウエイトのベクトルAは式29で求められる。

Figure 0007349626000028
Figure 0007349626000029
Figure 0007349626000030
On the other hand, A * is determined from the vector corresponding to the eigenvalue of Equation 26 (Equation 27). Here C is an eigenvector.
Here, by multiplying both sides of Equation 27 by F and substituting I=F'F' -1 , Equation 28 is obtained. By comparing Equation 28 with Equation 24, Equation 29 can be found. In other words, the category weight vector A * is obtained by equation 29.
Figure 0007349626000028
Figure 0007349626000029
Figure 0007349626000030

各カテゴリのウエイトを求めたら、検知率モデルは、式30で表される。

Figure 0007349626000031
式30により求まる検知率yは、最小0、最大1の値にする、即ち、0より小さい値になった場合0とし、1より大きい値になった場合1とする。 Once the weight of each category is determined, the detection rate model is expressed by Equation 30.
Figure 0007349626000031
The detection rate y determined by Equation 30 is set to a value of 0 at the minimum and 1 at the maximum, that is, set to 0 when the value is smaller than 0, and set to 1 when the value is larger than 1.

図16は、第3実施例のセンサモデル生成装置220の機能ブロックを示すブロック図である。センサモデル生成装置220は、センサデータ記憶部22、参照データ記憶部24、タグデータ記憶部26、画像解析部28、真値生成部200、検知結果分類部202、真値量子化部34、タグ量子化部36、モデル生成部38を備える。これら複数の機能ブロックのうち少なくとも一部の機能ブロックの機能が実装されたコンピュータプログラムが、所定の記録媒体を介してセンサモデル生成装置220のストレージにインストールされてもよく、ネットワークを介してセンサモデル生成装置220のストレージにインストールされてもよい。センサモデル生成装置220のCPUは、このコンピュータプログラムをメインメモリに読み出して実行することにより、各機能ブロックの機能を発揮してもよい。 FIG. 16 is a block diagram showing functional blocks of the sensor model generation device 220 of the third embodiment. The sensor model generation device 220 includes a sensor data storage section 22, a reference data storage section 24, a tag data storage section 26, an image analysis section 28, a true value generation section 200, a detection result classification section 202, a true value quantization section 34, and a tag. It includes a quantization section 36 and a model generation section 38. A computer program in which the functions of at least some of these functional blocks are implemented may be installed in the storage of the sensor model generation device 220 via a predetermined recording medium, and may be installed in the storage of the sensor model generation device 220 via a network. It may be installed in the storage of the generation device 220. The CPU of the sensor model generation device 220 may perform the functions of each functional block by reading this computer program into the main memory and executing it.

センサデータ記憶部22、参照データ記憶部24には、現実の車両を用いた試験走行等において収集されたデータを記憶する。センサデータ記憶部22は、検知の対象物について各種車載センサによるセンシング結果を記憶する。実施例では、センサデータ記憶部22は、車載カメラにより撮像された複数の画像データを記憶し、例えば、車両の左前方3メートル先に歩行者がいる状態を映した画像データ、車両の正面方向6メートル先に歩行者がいる状態を映した画像データ、・・・等を記憶する。 The sensor data storage unit 22 and the reference data storage unit 24 store data collected during test runs using an actual vehicle. The sensor data storage unit 22 stores sensing results of various on-vehicle sensors regarding objects to be detected. In the embodiment, the sensor data storage unit 22 stores a plurality of image data captured by an on-vehicle camera, such as image data showing a pedestrian 3 meters in front of the left front of the vehicle, image data in the front direction of the vehicle, etc. Image data showing a pedestrian 6 meters ahead, etc. are stored.

参照データ記憶部24は、検知の対象物に関する真値検出用のデータ(「参照データ」とも呼ぶ。)を記憶する。実施例では、参照データ記憶部24は、参照データとして、LIDAR(Light Detection and Ranging)により収集されたデータであって、実質的に対象物の位置(車両から対象物までの距離と方向)の真値に関するデータを記憶する。 The reference data storage unit 24 stores true value detection data (also referred to as "reference data") regarding the object to be detected. In the embodiment, the reference data storage unit 24 stores, as reference data, data collected by LIDAR (Light Detection and Ranging), which substantially indicates the position of the object (distance and direction from the vehicle to the object). Store data regarding true values.

タグデータ記憶部26は、タグデータとして、ユーザ(例えば開発者や試験者等)により設定されたデータを記憶する。第3実施例のタグデータは、検知対象物の姿勢を示すデータと、試験走行時の車両周辺の照度を示すデータを含む。なお、タグデータは、天気、路面の種類(例えばアスファルトまたは土)、温度、季節等、様々なデータを含んでもよい。 The tag data storage unit 26 stores data set by a user (for example, a developer, a tester, etc.) as tag data. The tag data of the third example includes data indicating the posture of the object to be detected and data indicating the illuminance around the vehicle during the test run. Note that the tag data may include various data such as weather, type of road surface (for example, asphalt or soil), temperature, season, etc.

画像解析部28は、車両に搭載されるセンサ装置に対応するものであり、車両の挙動を制御するための車両周辺の状態を検知する。画像解析部28は、第1検知部として、センサデータ記憶部22に記憶された車両の周辺が映る画像データをもとに、車両周辺の状態を検知する。例えば、画像解析部28は、車両周辺の状態として、検知対象物の位置を検知し、具体的には、車両周辺に存在する人や物の車両からの距離と方向を検知する。 The image analysis unit 28 corresponds to a sensor device mounted on a vehicle, and detects the state around the vehicle to control the behavior of the vehicle. The image analysis section 28 serves as a first detection section and detects the state of the surroundings of the vehicle based on the image data of the surroundings of the vehicle stored in the sensor data storage section 22 . For example, the image analysis unit 28 detects the position of the object to be detected as the state around the vehicle, and specifically detects the distance and direction from the vehicle of people or objects existing around the vehicle.

真値生成部200は、第1実施例の真値検知部30に対応する。真値生成部200は、第2検知部として、参照データ記憶部24に記憶された参照データをもとに、画像解析部28より高い精度で車両周辺の状態を検知する。真値生成部200も、画像解析部28と同様に、車両周辺の状態として、検知対象物の位置を検知し、具体的には、車両周辺に存在する人や物の車両からの距離と方向を検知する。 The true value generating section 200 corresponds to the true value detecting section 30 of the first embodiment. The true value generation section 200, as a second detection section, detects the state around the vehicle with higher accuracy than the image analysis section 28 based on the reference data stored in the reference data storage section 24. Like the image analysis unit 28, the true value generation unit 200 also detects the position of the object to be detected as the state around the vehicle, and specifically, detects the distance and direction of people and objects around the vehicle from the vehicle. Detect.

真値量子化部34は、真値生成部200により検知された車両周辺の状態に関するデータを量子化する。例えば、真値量子化部34は、真値生成部200による検知結果(例えば車両から対象物までの距離と方向)を、予め定められた説明変数の複数のカテゴリのいずれかに分類する。真値量子化部34は、図15に示したように、車両から対象物までの距離と方向の真値に該当するカテゴリの値(ダミー変数)を「1」に設定し、非該当のカテゴリの値(ダミー変数)を「0」に設定する。 The true value quantization unit 34 quantizes data regarding the state around the vehicle detected by the true value generation unit 200. For example, the true value quantization unit 34 classifies the detection results (for example, the distance and direction from the vehicle to the object) by the true value generation unit 200 into one of a plurality of predetermined explanatory variable categories. As shown in FIG. 15, the true value quantization unit 34 sets the value (dummy variable) of the category corresponding to the true value of the distance and direction from the vehicle to the target object to "1", and sets the value of the category that does not correspond to the true value of the distance and direction from the vehicle to "1", and Set the value (dummy variable) to "0".

タグ量子化部36は、タグデータ記憶部26に記憶されたタグデータを量子化する。例えば、タグ量子化部36は、検知対象物の姿勢と照度とを予め定められた説明変数の複数のカテゴリのいずれかに分類する。すなわち、該当するカテゴリの値を(ダミー変数)を「1」に設定し、非該当のカテゴリの値(ダミー変数)を「0」に設定する。 The tag quantization unit 36 quantizes the tag data stored in the tag data storage unit 26. For example, the tag quantization unit 36 classifies the posture and illuminance of the detection target into one of a plurality of categories of predetermined explanatory variables. That is, the value of the applicable category (dummy variable) is set to "1", and the value of the non-applicable category (dummy variable) is set to "0".

検知結果分類部202は、サンプルごとに、真値生成部200により検知された車両周辺の状態が、画像解析部28により検知されたか否かを判定する。例えば、真値生成部200により検知された対象物の距離および方向と、画像解析部28により検知された対象物の距離および方向との差が所定の閾値以内の場合、検知結果分類部202は、真値生成部200により検知された車両周辺の状態が、画像解析部28により検知されたと判定してもよい。一方、上記の差が上記の閾値を超過する場合、検知結果分類部202は、真値生成部200により検知された車両周辺の状態が、画像解析部28により検知されないと判定してもよい。上記の閾値は、第3実施例の車両シミュレーションシステム110(センサモデル部50)を用いた実験等により適切な値が決定されてもよい。 The detection result classification unit 202 determines, for each sample, whether the state around the vehicle detected by the true value generation unit 200 is also detected by the image analysis unit 28. For example, if the difference between the distance and direction of the object detected by the true value generation section 200 and the distance and direction of the object detected by the image analysis section 28 is within a predetermined threshold, the detection result classification section 202 , it may be determined that the state around the vehicle detected by the true value generation unit 200 is detected by the image analysis unit 28. On the other hand, if the difference exceeds the threshold, the detection result classification section 202 may determine that the state around the vehicle detected by the true value generation section 200 is not detected by the image analysis section 28. An appropriate value for the above threshold value may be determined through an experiment using the vehicle simulation system 110 (sensor model unit 50) of the third embodiment.

検知結果分類部202は、真値生成部200により検知された車両周辺の状態が、画像解析部28により検知されたか否かに応じて、各サンプルをグループ1(画像解析部28により検知されたもの)とグループ2(画像解析部28により検知されないもの)のいずれかに分類する。あるサンプルをグループ1に分類した場合、そのサンプルデータの検知OK/NGの値を「1」に設定し、グループ2に分類した場合、そのサンプルデータの検知OK/NGの値を「0」に設定する。 The detection result classification unit 202 classifies each sample into group 1 (i.e., the condition detected by the image analysis unit 28 The images are classified into either Group 2 (things not detected by the image analysis unit 28). When a certain sample is classified into group 1, the detection OK/NG value of that sample data is set to "1", and when it is classified into group 2, the detection OK/NG value of that sample data is set to "0". Set.

以上の画像解析部28、真値生成部200、真値量子化部34、タグ量子化部36、検知結果分類部202の処理は、同タイミングで収集された画像データと参照データ、および、そのタイミングにおけるタグデータの組み合わせであるサンプルごとに実行される。モデル生成部38は、図15に示した形式の複数個のサンプルデータをもとに、検知率モデルを生成する。 The above processing of the image analysis unit 28, true value generation unit 200, true value quantization unit 34, tag quantization unit 36, and detection result classification unit 202 is performed on image data and reference data collected at the same timing, and their It is executed for each sample, which is a combination of tag data at a timing. The model generation unit 38 generates a detection rate model based on a plurality of sample data in the format shown in FIG.

モデル生成部38は、真値生成部200により検知された車両周辺の状態を説明変数とし、真値生成部200により検知された車両周辺の状態が、画像解析部28により検知される確率を目的変数とする検知率モデルを生成する。具体的には、モデル生成部38は、図15に示した形式の複数個のサンプルデータをもとに、式3から式30に示した計算を実行することにより、各カテゴリのウエイトai(α)を算出して、相関比ηが最大となる検知率モデル(式30)を生成する。モデル生成部38は、生成した検知率モデルをモデル記憶部40に格納する。 The model generation unit 38 uses the state around the vehicle detected by the true value generation unit 200 as an explanatory variable, and calculates the probability that the state around the vehicle detected by the true value generation unit 200 is detected by the image analysis unit 28. Generate a detection rate model with variables. Specifically, the model generation unit 38 calculates the weights a i( α) is calculated to generate a detection rate model (Equation 30) that maximizes the correlation ratio η 2 . The model generation unit 38 stores the generated detection rate model in the model storage unit 40.

次に、センサモデル生成装置220により生成されたセンサモデル(距離誤差モデル、方位誤差モデルおよび検知率モデル)を使用する第3実施例の車両シミュレーションシステムを説明する。第3実施例の車両シミュレーションシステム110の構成は、図4に示した第1実施例の車両シミュレーションシステム110の構成と同様である。 Next, a vehicle simulation system according to a third embodiment that uses the sensor models (distance error model, direction error model, and detection rate model) generated by the sensor model generation device 220 will be described. The configuration of the vehicle simulation system 110 of the third embodiment is similar to the configuration of the vehicle simulation system 110 of the first embodiment shown in FIG.

第3実施例の車両シミュレーションシステム110のセンサモデル部50は、シミュレーション制御部10からシミュレーションのパラメータとして車両周辺の状態の真値が与えられた場合に、センサモデル生成装置220により予め生成されたセンサモデルを用いて、車両周辺の状態を検知する検知部による検知結果を推定する。 The sensor model unit 50 of the vehicle simulation system 110 of the third embodiment generates a sensor generated in advance by the sensor model generation device 220 when the true value of the state around the vehicle is given as a simulation parameter from the simulation control unit 10. The model is used to estimate the detection results of the detection unit that detects the conditions around the vehicle.

図17は、第3実施例のセンサモデル部50の機能ブロックを示すブロック図である。センサモデル部50は、モデル記憶部40、真値量子化部54、タグ量子化部52、誤差導出部56、検知結果生成部210、検知率算出部212、出力部214を備える。これら複数の機能ブロックのうち少なくとも一部の機能ブロックの機能が実装されたコンピュータプログラムが、所定の記録媒体を介してセンサモデル部50(またはセンサモデル部50を実現する情報処理装置)のストレージにインストールされてもよく、ネットワークを介してセンサモデル部50のストレージにインストールされてもよい。センサモデル部50のCPUは、このコンピュータプログラムをメインメモリに読み出して実行することにより、各機能ブロックの機能を発揮してもよい。 FIG. 17 is a block diagram showing functional blocks of the sensor model section 50 of the third embodiment. The sensor model section 50 includes a model storage section 40, a true value quantization section 54, a tag quantization section 52, an error derivation section 56, a detection result generation section 210, a detection rate calculation section 212, and an output section 214. A computer program in which the functions of at least some of these functional blocks are implemented is stored in the storage of the sensor model unit 50 (or an information processing device that implements the sensor model unit 50) via a predetermined recording medium. It may be installed or may be installed in the storage of the sensor model unit 50 via a network. The CPU of the sensor model unit 50 may perform the functions of each functional block by reading this computer program into the main memory and executing it.

モデル記憶部40は、第2実施例に記載した距離誤差モデルと方位誤差モデル(総称して「誤差モデル」とも呼ぶ。)、および、第3実施例に記載した検知率モデルを記憶する。 The model storage unit 40 stores the distance error model and direction error model (also collectively referred to as "error model") described in the second embodiment, and the detection rate model described in the third embodiment.

真値量子化部54は、シミュレーション制御部10から入力された、シミュレーションのパラメータとしての車両周辺の状態に関する真値データ(具体的には対象物の距離および方向)を受け付ける。真値量子化部54は、真値量子化部34の処理と同様に、受け付けた真値データを量子化し、各センサモデルにおいて予め定められた説明変数の複数カテゴリの中から該当するカテゴリを識別する。具体的には、真値量子化部54は、誤差モデルと検知率モデルへの入力データとして、各モデルの説明変数である距離と方位について、該当するカテゴリの値を「1」とし、非該当のカテゴリの値を「0」とした入力データを生成する。 The true value quantization unit 54 receives true value data regarding the state around the vehicle (specifically, the distance and direction of the object) as simulation parameters input from the simulation control unit 10. Similar to the process of the true value quantization unit 34, the true value quantization unit 54 quantizes the received true value data and identifies a corresponding category from among multiple categories of explanatory variables predetermined for each sensor model. do. Specifically, as input data to the error model and detection rate model, the true value quantization unit 54 sets the value of the corresponding category to "1" for the explanatory variables of each model, such as distance and direction, and sets the value of the applicable category to "1", and indicates that it is not applicable. Generate input data with the category value as "0".

タグ量子化部52は、シミュレーション制御部10から入力された、シミュレーションのパラメータとしての車両周辺の状態に関するタグデータ(具体的には対象物の姿勢および照度)を受け付ける。タグ量子化部52は、受け付けたタグデータを量子化し、各センサモデルにおいて予め定められた説明変数の複数カテゴリの中から該当するカテゴリを識別する。具体的には、タグ量子化部52は、誤差モデルと検知率モデルへの入力データとして、各モデルの説明変数である照度と姿勢について、該当するカテゴリの値を「1」とし、非該当のカテゴリの値を「0」とした入力データを生成する。 The tag quantization unit 52 receives tag data related to the state around the vehicle (specifically, the posture and illuminance of the object) as simulation parameters input from the simulation control unit 10 . The tag quantization unit 52 quantizes the received tag data and identifies a corresponding category from among a plurality of categories of explanatory variables predetermined for each sensor model. Specifically, as input data to the error model and detection rate model, the tag quantization unit 52 sets the value of the applicable category to "1" for illuminance and posture, which are explanatory variables of each model, and sets the value of the non-applicable category to "1". Generate input data with the category value as "0".

誤差導出部56は、真値量子化部54により生成された、真値データを量子化した入力データと、タグ量子化部52により生成された、タグデータを量子化した入力データを誤差モデルに入力し、誤差モデルから出力された距離および方位の誤差を取得する。具体的には、誤差導出部56は、距離誤差モデルの複数のカテゴリについて、真値データおよびタグデータの値に該当するカテゴリのダミー変数の値を1に設定し、非該当のカテゴリのダミー変数の値を0に設定することにより、ダミー変数の値が1となるカテゴリのウエイトを用いて距離誤差モデルの目的変数である距離誤差を算出する。方位誤差モデルを用いた方位誤差の算出方法も同様である。 The error derivation unit 56 converts the input data generated by the true value quantization unit 54 by quantizing the true value data and the input data generated by the tag quantization unit 52 by quantizing the tag data into an error model. input and obtain the distance and orientation errors output from the error model. Specifically, for the plurality of categories of the distance error model, the error derivation unit 56 sets the value of the dummy variable of the category that corresponds to the value of the true value data and tag data to 1, and sets the value of the dummy variable of the category that does not correspond to the value of the true value data and the tag data. By setting the value to 0, the distance error, which is the objective variable of the distance error model, is calculated using the weight of the category whose dummy variable value is 1. The method for calculating the orientation error using the orientation error model is also similar.

検知結果生成部210は、第1実施例および第2実施例の模擬値導出部58に対応するものであり、検知部(画像解析部28)による画像に基づく検知結果を推定する第1推定部として機能する。具体的には、検知結果生成部210は、誤差導出部56により取得された距離誤差および方位誤差を、シミュレーションのパラメータとしての車両周辺の状態に関する真値データ(対象物の距離および方向)に加算することで、検知部(画像解析部28)による検知結果の推定値を生成する。 The detection result generation unit 210 corresponds to the simulated value derivation unit 58 of the first embodiment and the second embodiment, and is a first estimation unit that estimates the detection result based on the image by the detection unit (image analysis unit 28). functions as Specifically, the detection result generation unit 210 adds the distance error and direction error acquired by the error derivation unit 56 to true value data regarding the state around the vehicle (distance and direction of the object) as simulation parameters. By doing so, an estimated value of the detection result by the detection unit (image analysis unit 28) is generated.

検知率算出部212は、シミュレーションのパラメータとしての車両周辺の状態の真値データの量子化データと、タグデータの量子化データを、検知率モデルに入力することにより、検知部(画像解析部28)による画像に基づく検知率を推定する第2推定部として機能する。具体的には、検知率算出部212は、検知率モデルの複数の説明変数の複数のカテゴリについて、真値データおよびタグデータの値に該当するカテゴリのダミー変数の値を1に設定し、非該当のカテゴリのダミー変数の値を0に設定することにより、ダミー変数の値が1となるカテゴリのウエイトを用いて検知率モデルの目的変数である検知率を算出する。 The detection rate calculation unit 212 inputs the quantized data of the true value data of the state around the vehicle and the quantized data of the tag data as simulation parameters to the detection rate model. ) functions as a second estimator that estimates the detection rate based on the image. Specifically, the detection rate calculation unit 212 sets the value of the dummy variable of the category corresponding to the true value data and the tag data value to 1 for the plurality of categories of the plurality of explanatory variables of the detection rate model, and By setting the value of the dummy variable of the corresponding category to 0, the detection rate, which is the objective variable of the detection rate model, is calculated using the weight of the category whose dummy variable value is 1.

出力部214は、検知率算出部212により算出された検知率の推定値に応じて、検知結果生成部210により生成された、検知部(画像解析部28)による検知結果の推定値をシミュレーション制御部10へ出力するか否かを決定する。例えば、車両周辺に歩行者が存在するシミュレーションにおいて、検知率算出部212により上記歩行者の検知率が30%と推定された場合、出力部214は、検知部(画像解析部28)による検知結果の推定値(歩行者の距離および方向)を30%の確率でシミュレーション制御部10へ送信してもよい。 The output unit 214 performs simulation control on the estimated value of the detection result by the detection unit (image analysis unit 28), which is generated by the detection result generation unit 210, according to the estimated detection rate calculated by the detection rate calculation unit 212. It is determined whether or not to output to section 10. For example, in a simulation in which a pedestrian exists around a vehicle, if the detection rate calculation unit 212 estimates that the detection rate of the pedestrian is 30%, the output unit 214 outputs the detection result by the detection unit (image analysis unit 28). The estimated value (distance and direction of the pedestrian) may be transmitted to the simulation control unit 10 with a probability of 30%.

既述したように、センサモデル部50から出力された検知部(画像解析部28)による検知結果の推定値は、シミュレーション制御部10を介して、車両モデル部18に入力される。言い換えれば、センサモデル部50は、検知部(画像解析部28)による検知結果の推定値を、シミュレーション制御部10を介して、車両モデル部18へ出力する。したがって、車両モデル部18は、検知率算出部212により算出された検知率の推定値にしたがって、シミュレーションにおける車両の挙動を決定する。言い換えれば、検知率算出部212により算出された検知率は、車両モデル部18によるシミュレーション結果に反映される。 As described above, the estimated value of the detection result by the detection unit (image analysis unit 28) output from the sensor model unit 50 is input to the vehicle model unit 18 via the simulation control unit 10. In other words, the sensor model section 50 outputs the estimated value of the detection result by the detection section (image analysis section 28) to the vehicle model section 18 via the simulation control section 10. Therefore, the vehicle model unit 18 determines the behavior of the vehicle in the simulation according to the estimated value of the detection rate calculated by the detection rate calculation unit 212. In other words, the detection rate calculated by the detection rate calculation unit 212 is reflected in the simulation result by the vehicle model unit 18.

以上の構成による動作を説明する。
まず、図16を参照しつつ、センサモデル生成装置220の動作の例を説明する。車両シミュレーションシステムを顧客やパートナー企業に提供すべき車載機器の開発者は、実際に車両を走行させて、車載カメラで車外の歩行者を撮像し、複数サンプルの撮像画像をセンサデータ記憶部22に記憶させる。それとともに開発者は、LIDAR装置で上記歩行者の位置を計測させ、複数サンプルの位置情報(真値)を参照データ記憶部24に記憶させる。さらに開発者は、照度および歩行者の姿勢を含む複数サンプルのタグデータをタグデータ記憶部26に記憶させる。
The operation of the above configuration will be explained.
First, an example of the operation of the sensor model generation device 220 will be described with reference to FIG. 16. Developers of in-vehicle equipment who are supposed to provide vehicle simulation systems to customers and partner companies actually drive the vehicle, capture images of pedestrians outside the vehicle with the in-vehicle camera, and store multiple samples of captured images in the sensor data storage unit 22. Make me remember. At the same time, the developer causes the LIDAR device to measure the position of the pedestrian, and stores position information (true values) of a plurality of samples in the reference data storage unit 24. Further, the developer causes the tag data storage unit 26 to store multiple samples of tag data including the illuminance and the posture of the pedestrian.

画像解析部28は、サンプルごとに、センサデータ記憶部22に格納された画像をもとに、歩行者までの距離と方位を検知する。真値生成部200は、サンプルごとに、参照データ記憶部24に格納された位置情報(真値)をもとに、歩行者までの距離と方位の真値を検知する。真値量子化部34は、サンプルごとに、歩行者までの距離と方位の真値のカテゴリを特定する。タグ量子化部36は、サンプルごとに、タグデータのカテゴリを特定する。 The image analysis unit 28 detects the distance and direction to the pedestrian for each sample based on the image stored in the sensor data storage unit 22. The true value generation unit 200 detects the true values of the distance and direction to the pedestrian based on the position information (true value) stored in the reference data storage unit 24 for each sample. The true value quantization unit 34 identifies the true value category of the distance and direction to the pedestrian for each sample. The tag quantization unit 36 identifies the category of tag data for each sample.

検知結果分類部202は、各サンプルをグループ1(真値生成部200による検知結果が画像解析部28でも検知されたもの)とグループ2(真値生成部200による検知結果が画像解析部28では未検知)のいずれかに分類する。検知結果分類部202は、各サンプルの「検知OK/NG」の値として、グループ1には「1」を設定し、グループ2には「0」を設定する。 The detection result classification unit 202 classifies each sample into group 1 (those whose detection results by the true value generation unit 200 were also detected by the image analysis unit 28) and group 2 (those whose detection results by the true value generation unit 200 were also detected by the image analysis unit 28). classified as either (undetected). The detection result classification unit 202 sets "1" to group 1 and "0" to group 2 as the "detection OK/NG" value of each sample.

モデル生成部38は、真値生成部200による検知結果の量子化データ、および、タグデータの量子化データを説明変数とし、「検知OK/NG」の値を目的変数として、グループ間分散対全分散の比が最大になるように検知率モデルを生成する。モデル生成部38は、検知率モデルをモデル記憶部40に格納する。第3実施例のセンサモデル生成装置220によると、現実の環境に則した検知率を推定可能な検知率モデルであり、かつ、グループ1とグループ2とが良く分離される適切な検知率モデルを生成することができる。 The model generation unit 38 uses the quantized data of the detection result by the true value generation unit 200 and the quantized data of the tag data as explanatory variables, and uses the value of “detection OK/NG” as an objective variable, and calculates the between-group variance versus total Generate a detection rate model so that the ratio of variance is maximized. The model generation unit 38 stores the detection rate model in the model storage unit 40. According to the sensor model generation device 220 of the third embodiment, an appropriate detection rate model that can estimate the detection rate in accordance with the actual environment and in which group 1 and group 2 are well separated is created. can be generated.

なお、第3実施例のセンサモデル生成装置220は、第2実施例と同様の方法で、距離誤差モデルと方位誤差モデルをさらに生成して、モデル記憶部40に格納する。 Note that the sensor model generation device 220 of the third embodiment further generates a distance error model and a direction error model and stores them in the model storage unit 40 using a method similar to that of the second embodiment.

次に、図4および図17を参照しつつ、車両シミュレーションシステム110の動作の例を説明する。ここでは、第1実施例と同様に、車両の近傍に歩行者が存在する場合の車両の挙動をシミュレーションすることとする。ユーザは、歩行者の位置と姿勢、車両周辺の照度をシミュレーションのパラメータとしてユーザインタフェース12へ入力する。環境データ生成部14は、ユーザインタフェース12で受け付けられたデータをもとに、車両から歩行者までの距離と方向を示す真値データを生成し、また、歩行者の姿勢と照度を示すタグデータを生成する。 Next, an example of the operation of the vehicle simulation system 110 will be described with reference to FIGS. 4 and 17. Here, similarly to the first embodiment, the behavior of the vehicle when a pedestrian exists near the vehicle will be simulated. The user inputs the position and posture of the pedestrian and the illuminance around the vehicle to the user interface 12 as simulation parameters. The environmental data generation unit 14 generates true value data indicating the distance and direction from the vehicle to the pedestrian based on the data received by the user interface 12, and also generates tag data indicating the posture and illuminance of the pedestrian. generate.

シミュレーション制御部10は、環境データ生成部14により生成された真値データおよびタグデータをセンサモデル部50に入力する。センサモデル部50の真値量子化部54は、真値データ(例えば図15の距離および方位)のカテゴリを特定し、真値データの量子化データを生成する。センサモデル部50のタグ量子化部52は、タグデータ(例えば図15の照度および姿勢)のカテゴリを特定し、タグデータの量子化データを生成する。 The simulation control unit 10 inputs the true value data and tag data generated by the environmental data generation unit 14 to the sensor model unit 50. The true value quantization unit 54 of the sensor model unit 50 specifies the category of true value data (for example, the distance and direction in FIG. 15) and generates quantized data of the true value data. The tag quantization unit 52 of the sensor model unit 50 specifies the category of tag data (for example, illuminance and posture in FIG. 15) and generates quantized data of the tag data.

センサモデル部50の誤差導出部56は、真値データの量子化データと、タグデータの量子化データとを距離誤差モデルに入力することにより距離誤差を取得する。また、誤差導出部56は、真値データの量子化データと、タグデータの量子化データとを方位誤差モデルに入力することにより方位誤差を取得する。センサモデル部50の検知結果生成部210は、シミュレーション制御部10から入力された、車両から歩行者までの距離と方向を示す真値データに距離誤差と方位誤差を足すことにより、車両の検知部による検知結果の推定値を生成する。 The error deriving unit 56 of the sensor model unit 50 obtains a distance error by inputting the quantized data of the true value data and the quantized data of the tag data to a distance error model. Further, the error deriving unit 56 obtains the orientation error by inputting the quantized data of the true value data and the quantized data of the tag data to the orientation error model. The detection result generation unit 210 of the sensor model unit 50 adds a distance error and a direction error to the true value data indicating the distance and direction from the vehicle to the pedestrian, which is input from the simulation control unit 10. Generate an estimate of the detection result by.

センサモデル部50の検知率算出部212は、真値データの量子化データと、タグデータの量子化データとを検知率モデルに入力することにより、車両の検知部による検知率を算出する。センサモデル部50の出力部214は、検知率算出部212により算出された検知率(0以上1以下の値)に基づく確率で、検知結果生成部210により生成された、車両の検知部による検知結果の推定値をシミュレーション制御部10へ出力する。 The detection rate calculation unit 212 of the sensor model unit 50 calculates the detection rate by the vehicle detection unit by inputting the quantized data of the true value data and the quantized data of the tag data to the detection rate model. The output unit 214 of the sensor model unit 50 outputs the detection result by the vehicle detection unit generated by the detection result generation unit 210 with a probability based on the detection rate (a value of 0 or more and 1 or less) calculated by the detection rate calculation unit 212. The estimated value of the result is output to the simulation control section 10.

シミュレーション制御部10は、センサモデル部50から出力された車両の検知部による検知結果の推定値を車両モデル部18へ入力する。車両モデル部18は、車両の検知部による検知結果の推定値をもとに、車両の挙動をシミュレーションする。シミュレーション制御部10は、車両モデル部18によるシミュレーション結果をユーザインタフェース12に表示させ、または、所定の記憶装置に格納する。 The simulation control unit 10 inputs the estimated value of the detection result by the vehicle detection unit output from the sensor model unit 50 to the vehicle model unit 18. The vehicle model section 18 simulates the behavior of the vehicle based on the estimated value of the detection result by the vehicle's detection section. The simulation control unit 10 displays the simulation results by the vehicle model unit 18 on the user interface 12 or stores them in a predetermined storage device.

第3実施例の車両シミュレーションシステム110によると、車両周辺の状態を画像処理により認識する必要がないため、計算コストを低減することができる。また、車両周辺の実際の状態をもとに生成した検知率モデルを使用することで、現実に即したシミュレーション結果を得ることができる。さらにまた、車載装置等のモデルベース開発を一層効率化することができる。 According to the vehicle simulation system 110 of the third embodiment, there is no need to recognize the state around the vehicle through image processing, so calculation costs can be reduced. Furthermore, by using a detection rate model generated based on the actual conditions around the vehicle, it is possible to obtain realistic simulation results. Furthermore, model-based development of in-vehicle devices and the like can be made even more efficient.

以上、本開示を第3実施例をもとに説明した。この実施例は例示であり、実施例の各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the third embodiment. It will be understood by those skilled in the art that this example is merely an illustration, and that various modifications can be made to the combination of each component or each treatment process in the example, and that such modifications are also within the scope of the present disclosure. be.

変形例を説明する。上記第3実施例では言及していないが、図4のセンサモデル部50は図18の機能ブロック図の構造を採用してもよい。図18において、検知率算出部212は、段落0152で述べたように、検知率を算出し、誤差導出部56へ出力する。誤差導出部56は、検知率算出部212により算出された検知率の推定値を確率にし、段落0150で述べた誤差算出の処理を行うかどうかを決める。誤差導出部56は、確率をもとに検出できなかった結果となった場合、「検知できなかった」という結果を検知結果生成部210へ出力する。一方、検知できた結果となった場合、誤差導出部56は、段落0150で述べた処理を行い、距離誤差と方位誤差を算出し、「検知できた」という結果と一緒に、検知結果生成部210へ出力する。検知結果生成部210は、「検知できた」という結果を入力された場合、段落0151で述べた処理で検知部(画像解析部28)による検知結果の推定値を生成し、出力する。一方、「検知できなかった」を入力された場合、検知結果生成部210は、「空」の検知結果を出力する。 A modification will be explained. Although not mentioned in the third embodiment, the sensor model section 50 in FIG. 4 may adopt the structure of the functional block diagram in FIG. 18. In FIG. 18, the detection rate calculation unit 212 calculates the detection rate as described in paragraph 0152, and outputs it to the error derivation unit 56. The error derivation unit 56 uses the estimated value of the detection rate calculated by the detection rate calculation unit 212 as a probability, and determines whether to perform the error calculation process described in paragraph 0150. When the error derivation unit 56 determines that the detection was not possible based on the probability, the error derivation unit 56 outputs a result of “undetectable” to the detection result generation unit 210. On the other hand, if the result is that the detection was possible, the error derivation unit 56 performs the processing described in paragraph 0150, calculates the distance error and the direction error, and sends the results to the detection result generation unit along with the result that the detection was possible. Output to 210. When the detection result generation unit 210 receives the result that “detection was successful”, it generates and outputs an estimated value of the detection result by the detection unit (image analysis unit 28) using the process described in paragraph 0151. On the other hand, if "unable to detect" is input, the detection result generation unit 210 outputs a detection result of "empty".

第3実施例で説明した検知率モデルの生成方法は、第2実施例にも適用可能である。例えば、第3実施例で説明した方法で生成した検知率モデルを第2実施例の車両シミュレーションシステム110に適用し、第2実施例で説明したシミュレーション結果画像(図12等)を生成してもよい。 The detection rate model generation method described in the third embodiment is also applicable to the second embodiment. For example, if the detection rate model generated by the method described in the third embodiment is applied to the vehicle simulation system 110 of the second embodiment, and the simulation result image (FIG. 12 etc.) described in the second embodiment is generated. good.

第3実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目3-1]
車両の周辺が映る画像データから前記車両周辺の状態を検知する第1検知部と、
前記第1検知部より高い精度で、前記車両周辺の状態を検知する第2検知部と、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知率を推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態が、前記第1検知部により検知される確率を目的変数とするモデルを生成する生成部と、
を備えるモデル生成装置。
このモデル生成装置によると、第1検知部による検知率を反映した車両シミュレーションを実現するためのモデルを生成することができる。また、モデルの生成において車両の周辺が映る画像データを用いることで、現実に即した検知率を出力するモデルを実現することができる。また、車両シミュレーションにおいて、各ケースの画像を用意することが不要になり、かつ、各ケースの画像を解析することが不要になり、シミュレーションコストを低減することができる。
[項目3-2]
前記生成部は、前記第2検知部により検知された状態に関するデータを含む複数個のサンプルをもとに前記モデルを生成し、
前記複数個のサンプルを、前記第2検知部により検知された状態が前記第1検知部により検知された第1グループと、前記第2検知部により検知された状態が前記第1検知部により検知されない第2グループとに分類するとき、
前記複数個のサンプルの前記第2検知部により検知された状態に関するデータを、前記モデルに入力した場合に前記モデルが出力する複数個の値について、前記第1グループと前記第2グループ間の分散と、前記複数個の値の全分散との比が最大になるよう前記モデルを生成する、
項目3-1に記載のモデル生成装置。
このモデル生成装置によると、第1グループと第2グループとが良く分離される適切なモデルを生成することができる。
[項目3-3]
車両の周辺が映る画像データから前記車両周辺の状態を検知する検知部について、前記検知部による検知率を推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態が前記検知部により検知される確率を目的変数とするモデルを記憶する記憶部と、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知率を推定する推定部と、
前記推定部により推定された検知率にしたがって前記車両の挙動をシミュレーションするシミュレーション部と、
を備える車両シミュレーションシステム。
この車両シミュレーションシステムによると、車両周辺の状態を画像処理により認識する必要がないため、計算コストを低減することができる。また、車両周辺の実際の状態をもとに生成したモデルを使用することで、現実に即した有用なシミュレーション結果を得ることができる。さらにまた、車載装置等のモデルベース開発を一層効率化することができる。
[項目3-4]
前記推定部は、前記検知部による検知結果をさらに推定し、前記検知部による検知率の推定値に応じて、前記検知部による検知結果の推定値を前記シミュレーション部に出力するか否かを決定する、
項目3-3に記載の車両シミュレーションシステム。
この車両シミュレーションシステムによると、検知部の検知率を反映した、現実に即した有用なシミュレーション結果を得ることができる。
[項目3-5]
第1検知部が、車両の周辺が映る画像データから前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知率を推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態が、前記第1検知部により検知される確率を目的変数とするモデルを生成する、
モデル生成方法。
このモデル生成方法によると、第1検知部による検知率を反映した車両シミュレーションを実現するためのモデルを生成することができる。また、モデルの生成において車両の周辺が映る画像データを用いることで、現実に即した検知率を出力するモデルを実現することができる。また、車両シミュレーションにおいて、各ケースの画像を用意することが不要になり、かつ、各ケースの画像を解析することが不要になり、シミュレーションコストを低減することができる。
[項目3-6]
車両の周辺が映る画像データから前記車両周辺の状態を検知する検知部について、前記検知部による検知率を推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態が前記検知部により検知される確率を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知率を推定し、
推定された検知率をもとに前記車両の挙動をシミュレーションする、
車両シミュレーション方法。
この車両シミュレーション方法によると、車両周辺の状態を画像処理により認識する必要がないため、計算コストを低減することができる。また、車両周辺の実際の状態をもとに生成したモデルを使用することで、現実に即した有用なシミュレーション結果を得ることができる。さらにまた、車載装置等のモデルベース開発を一層効率化することができる。
[項目3-7]
第1検知部が、車両の周辺が映る画像データから前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知率を推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態が、前記第1検知部により検知される確率を目的変数とするモデルを生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、第1検知部による検知率を反映した車両シミュレーションを実現するためのモデルを生成することができる。また、モデルの生成において車両の周辺が映る画像データを用いることで、現実に即した検知率を出力するモデルを実現することができる。また、車両シミュレーションにおいて、各ケースの画像を用意することが不要になり、かつ、各ケースの画像を解析することが不要になり、シミュレーションコストを低減することができる。
[項目3-8]
車両の周辺が映る画像データから前記車両周辺の状態を検知する検知部について、前記検知部による検知率を推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態が前記検知部により検知される確率を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知率を推定し、
推定された検知率をもとに前記車両の挙動をシミュレーションする、
ことをコンピュータに実行させるためのコンピュータプログラム。
このコンピュータプログラムによると、車両周辺の状態を画像処理により認識する必要がないため、計算コストを低減することができる。また、車両周辺の実際の状態をもとに生成したモデルを使用することで、現実に即した有用なシミュレーション結果を得ることができる。さらにまた、車載装置等のモデルベース開発を一層効率化することができる。
The techniques described in the third embodiment and the modified example may be specified by the following items.
[Item 3-1]
a first detection unit that detects the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle;
a second detection unit that detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating a detection rate by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit is , a generation unit that generates a model whose objective variable is the probability of being detected by the first detection unit;
A model generation device comprising:
According to this model generation device, it is possible to generate a model for realizing a vehicle simulation that reflects the detection rate by the first detection unit. Furthermore, by using image data showing the surroundings of the vehicle in generating the model, it is possible to realize a model that outputs a detection rate that is consistent with reality. Furthermore, in vehicle simulation, it is no longer necessary to prepare images for each case, and it is no longer necessary to analyze images for each case, making it possible to reduce simulation costs.
[Item 3-2]
The generation unit generates the model based on a plurality of samples including data regarding the state detected by the second detection unit,
For the plurality of samples, a state detected by the second detection unit is detected by the first detection unit, and a state detected by the second detection unit is detected by the first detection unit. When classifying into the second group that is not
variance between the first group and the second group with respect to the plurality of values output by the model when data regarding the states detected by the second detection unit of the plurality of samples are input to the model; and generating the model so that the ratio of the total variance of the plurality of values is maximized;
The model generation device described in item 3-1.
According to this model generation device, it is possible to generate an appropriate model in which the first group and the second group are well separated.
[Item 3-3]
A model for estimating the detection rate of the detection unit for detecting the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle, wherein the true value of the state of the surroundings of the vehicle is used as an explanatory variable; a storage unit that stores a model whose objective variable is a probability that a state around the vehicle is detected by the detection unit;
an estimation unit that estimates a detection rate by the detection unit by inputting a true value of the state around the vehicle as a simulation parameter into the model;
a simulation unit that simulates the behavior of the vehicle according to the detection rate estimated by the estimation unit;
A vehicle simulation system equipped with
According to this vehicle simulation system, there is no need to recognize the state around the vehicle through image processing, so calculation costs can be reduced. Furthermore, by using a model generated based on the actual conditions around the vehicle, it is possible to obtain realistic and useful simulation results. Furthermore, model-based development of in-vehicle devices and the like can be made even more efficient.
[Item 3-4]
The estimation unit further estimates the detection result by the detection unit, and determines whether to output the estimated value of the detection result by the detection unit to the simulation unit according to the estimated detection rate by the detection unit. do,
Vehicle simulation system described in item 3-3.
According to this vehicle simulation system, it is possible to obtain realistic and useful simulation results that reflect the detection rate of the detection unit.
[Item 3-5]
a first detection unit detects a state around the vehicle from image data showing the surroundings of the vehicle;
a second detection unit detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating a detection rate by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit is , generating a model whose objective variable is the probability of being detected by the first detection unit;
Model generation method.
According to this model generation method, it is possible to generate a model for realizing a vehicle simulation that reflects the detection rate by the first detection unit. Furthermore, by using image data showing the surroundings of the vehicle in generating the model, it is possible to realize a model that outputs a detection rate that is consistent with reality. Furthermore, in vehicle simulation, it is no longer necessary to prepare images for each case, and it is no longer necessary to analyze images for each case, making it possible to reduce simulation costs.
[Item 3-6]
A model for estimating the detection rate of the detection unit for detecting the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle, wherein the true value of the state of the surroundings of the vehicle is used as an explanatory variable; storing a model whose objective variable is a probability that a state around the vehicle is detected by the detection unit;
Estimating the detection rate by the detection unit by inputting the true value of the state around the vehicle as a simulation parameter to the model,
simulating the behavior of the vehicle based on the estimated detection rate;
Vehicle simulation method.
According to this vehicle simulation method, there is no need to recognize the state around the vehicle through image processing, so calculation costs can be reduced. Furthermore, by using a model generated based on the actual conditions around the vehicle, it is possible to obtain realistic and useful simulation results. Furthermore, model-based development of in-vehicle devices and the like can be made even more efficient.
[Item 3-7]
a first detection unit detects a state around the vehicle from image data showing the surroundings of the vehicle;
a second detection unit detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating a detection rate by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit is , generating a model whose objective variable is the probability of being detected by the first detection unit;
A computer program that causes a computer to do something.
According to this computer program, it is possible to generate a model for realizing a vehicle simulation that reflects the detection rate by the first detection unit. Furthermore, by using image data showing the surroundings of the vehicle in generating the model, it is possible to realize a model that outputs a detection rate that is consistent with reality. Furthermore, in vehicle simulation, it is no longer necessary to prepare images for each case, and it is no longer necessary to analyze images for each case, making it possible to reduce simulation costs.
[Item 3-8]
A model for estimating the detection rate of the detection unit for detecting the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle, wherein the true value of the state of the surroundings of the vehicle is used as an explanatory variable; storing a model whose objective variable is a probability that a state around the vehicle is detected by the detection unit;
Estimating the detection rate by the detection unit by inputting the true value of the state around the vehicle as a simulation parameter to the model,
simulating the behavior of the vehicle based on the estimated detection rate;
A computer program that causes a computer to do something.
According to this computer program, there is no need to recognize the state around the vehicle through image processing, so calculation costs can be reduced. Furthermore, by using a model generated based on the actual conditions around the vehicle, it is possible to obtain realistic and useful simulation results. Furthermore, model-based development of in-vehicle devices and the like can be made even more efficient.

上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。 Any combination of the embodiments and variations described above are also useful as embodiments of the present disclosure. A new embodiment resulting from a combination has the effects of each of the combined embodiments and modifications. Further, those skilled in the art will also understand that the functions to be fulfilled by the respective constituent elements described in the claims are realized by each constituent element shown in the embodiments and modified examples alone or by their cooperation.

18 車両モデル部、 28 画像解析部、 38 モデル生成部、 40 モデル記憶部、 50 センサモデル部、 110 車両シミュレーションシステム、 200 真値生成部、 212 検知率算出部、 220 センサモデル生成装置。 18 vehicle model section, 28 image analysis section, 38 model generation section, 40 model storage section, 50 sensor model section, 110 vehicle simulation system, 200 true value generation section, 212 detection rate calculation section, 220 sensor model generation device.

Claims (8)

車両の周辺が映る画像データから前記車両周辺の状態を検知する第1検知部と、
前記第1検知部より高い精度で、前記車両周辺の状態を検知する第2検知部と、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知率を推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態が、前記第1検知部により検知される確率を目的変数とするモデルを生成する生成部と、
を備えるモデル生成装置。
a first detection unit that detects the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle;
a second detection unit that detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating a detection rate by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit is , a generation unit that generates a model whose objective variable is the probability of being detected by the first detection unit;
A model generation device comprising:
前記生成部は、前記第2検知部により検知された状態に関するデータを含む複数個のサンプルをもとに前記モデルを生成し、
前記複数個のサンプルを、前記第2検知部により検知された状態が前記第1検知部により検知された第1グループと、前記第2検知部により検知された状態が前記第1検知部により検知されない第2グループとに分類するとき、
前記複数個のサンプルの前記第2検知部により検知された状態に関するデータを、前記モデルに入力した場合に前記モデルが出力する複数個の値について、前記第1グループと前記第2グループ間の分散と、前記複数個の値の全分散との比が最大になるよう前記モデルを生成する、
請求項1に記載のモデル生成装置。
The generation unit generates the model based on a plurality of samples including data regarding the state detected by the second detection unit,
For the plurality of samples, a state detected by the second detection unit is detected by the first detection unit, and a state detected by the second detection unit is detected by the first detection unit. When classifying into the second group that is not
variance between the first group and the second group with respect to the plurality of values output by the model when data regarding the states detected by the second detection unit of the plurality of samples are input to the model; and generating the model so that the ratio of the total variance of the plurality of values is maximized;
The model generation device according to claim 1.
車両の周辺が映る画像データから前記車両周辺の状態を検知する検知部について、前記検知部による検知率を推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態が前記検知部により検知される確率を目的変数とするモデルを記憶する記憶部と、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知率を推定する推定部と、
前記推定部により推定された検知率にしたがって前記車両の挙動をシミュレーションするシミュレーション部と、
を備える車両シミュレーションシステム。
A model for estimating the detection rate of the detection unit for detecting the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle, wherein the true value of the state of the surroundings of the vehicle is used as an explanatory variable; a storage unit that stores a model whose objective variable is a probability that a state around the vehicle is detected by the detection unit;
an estimation unit that estimates a detection rate by the detection unit by inputting a true value of the state around the vehicle as a simulation parameter into the model;
a simulation unit that simulates the behavior of the vehicle according to the detection rate estimated by the estimation unit;
A vehicle simulation system equipped with
前記推定部は、前記検知部による検知結果をさらに推定し、前記検知部による検知率の推定値に応じて、前記検知部による検知結果の推定値を前記シミュレーション部に出力するか否かを決定する、
請求項3に記載の車両シミュレーションシステム。
The estimation unit further estimates the detection result by the detection unit, and determines whether to output the estimated value of the detection result by the detection unit to the simulation unit according to the estimated detection rate by the detection unit. do,
The vehicle simulation system according to claim 3.
第1検知部が、車両の周辺が映る画像データから前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知率を推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態が、前記第1検知部により検知される確率を目的変数とするモデルを生成する、
モデル生成方法。
a first detection unit detects a state around the vehicle from image data showing the surroundings of the vehicle;
a second detection unit detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating a detection rate by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit is , generating a model whose objective variable is the probability of being detected by the first detection unit;
Model generation method.
車両の周辺が映る画像データから前記車両周辺の状態を検知する検知部について、前記検知部による検知率を推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態が前記検知部により検知される確率を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知率を推定し、
推定された検知率をもとに前記車両の挙動をシミュレーションする、
車両シミュレーション方法。
A model for estimating the detection rate of the detection unit for detecting the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle, wherein the true value of the state of the surroundings of the vehicle is used as an explanatory variable; storing a model whose objective variable is a probability that a state around the vehicle is detected by the detection unit;
Estimating the detection rate by the detection unit by inputting the true value of the state around the vehicle as a simulation parameter to the model,
simulating the behavior of the vehicle based on the estimated detection rate;
Vehicle simulation method.
第1検知部が、車両の周辺が映る画像データから前記車両周辺の状態を検知し、
第2検知部が、前記第1検知部より高い精度で、前記車両周辺の状態を検知し、
前記車両のシミュレーションシステムにおいて前記第1検知部による検知率を推定するためのモデルであって、前記第2検知部により検知された状態を説明変数とし、前記第2検知部により検知された状態が、前記第1検知部により検知される確率を目的変数とするモデルを生成する、
ことをコンピュータに実行させるためのコンピュータプログラム。
a first detection unit detects a state around the vehicle from image data showing the surroundings of the vehicle;
a second detection unit detects a state around the vehicle with higher accuracy than the first detection unit;
A model for estimating a detection rate by the first detection unit in the vehicle simulation system, wherein the state detected by the second detection unit is used as an explanatory variable, and the state detected by the second detection unit is , generating a model whose objective variable is the probability of being detected by the first detection unit;
A computer program that causes a computer to do something.
車両の周辺が映る画像データから前記車両周辺の状態を検知する検知部について、前記検知部による検知率を推定するためのモデルであって、前記車両周辺の状態の真値を説明変数とし、前記車両周辺の状態が前記検知部により検知される確率を目的変数とするモデルを記憶し、
シミュレーションのパラメータとしての前記車両周辺の状態の真値を前記モデルに入力することにより、前記検知部による検知率を推定し、
推定された検知率をもとに前記車両の挙動をシミュレーションする、
ことをコンピュータに実行させるためのコンピュータプログラム。
A model for estimating the detection rate of the detection unit for detecting the state of the surroundings of the vehicle from image data showing the surroundings of the vehicle, wherein the true value of the state of the surroundings of the vehicle is used as an explanatory variable; storing a model whose objective variable is a probability that a state around the vehicle is detected by the detection unit;
Estimating the detection rate by the detection unit by inputting the true value of the state around the vehicle as a simulation parameter to the model,
simulating the behavior of the vehicle based on the estimated detection rate;
A computer program that causes a computer to do something.
JP2019239319A 2019-12-27 2019-12-27 Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program Active JP7349626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239319A JP7349626B2 (en) 2019-12-27 2019-12-27 Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239319A JP7349626B2 (en) 2019-12-27 2019-12-27 Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program

Publications (2)

Publication Number Publication Date
JP2021108031A JP2021108031A (en) 2021-07-29
JP7349626B2 true JP7349626B2 (en) 2023-09-25

Family

ID=76967940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239319A Active JP7349626B2 (en) 2019-12-27 2019-12-27 Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program

Country Status (1)

Country Link
JP (1) JP7349626B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320756B2 (en) * 2020-03-27 2023-08-04 パナソニックIpマネジメント株式会社 Vehicle simulation system, vehicle simulation method and computer program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514042A (en) 2015-04-24 2018-05-31 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Autonomous vehicle simulation system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6226701B2 (en) * 2013-11-05 2017-11-08 キヤノン株式会社 Data processing method and apparatus, data identification method and apparatus, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514042A (en) 2015-04-24 2018-05-31 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Autonomous vehicle simulation system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
笹木 美樹男,MPEG映像に適した景観認識手法の提案,[online],2009年,https://www.jstage.jst.go.jp/article/iieej/38/6/38_6_890/_article/-char/ja

Also Published As

Publication number Publication date
JP2021108031A (en) 2021-07-29

Similar Documents

Publication Publication Date Title
CN106228125B (en) Method for detecting lane lines based on integrated study cascade classifier
CN111179300A (en) Method, apparatus, system, device and storage medium for obstacle detection
CN105938559A (en) Digital image processing using convolutional neural networks
KR20200091331A (en) Learning method and learning device for object detector based on cnn, adaptable to customers&#39; requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring
US20190138848A1 (en) Realistic sensor simulation and probabilistic measurement correction
Reway et al. Test method for measuring the simulation-to-reality gap of camera-based object detection algorithms for autonomous driving
CN104376303A (en) Vehicle low-resolution imaging method
JP2024513596A (en) Image processing method and apparatus and computer readable storage medium
Mitra et al. Towards modeling of perception errors in autonomous vehicles
JP2020109602A (en) Model generation device, vehicle simulation system, model generation method and computer program
CN111274862A (en) Device and method for generating a label object of a surroundings of a vehicle
JP7320756B2 (en) Vehicle simulation system, vehicle simulation method and computer program
CN110321867B (en) Shielded target detection method based on component constraint network
JP7349626B2 (en) Model generation device, vehicle simulation system, model generation method, vehicle simulation method, and computer program
Krajewski et al. Using drones as reference sensors for neural-networks-based modeling of automotive perception errors
JP7365633B2 (en) Vehicle simulation system, vehicle simulation method and computer program
CN114595738A (en) Method for generating training data for recognition model and method for generating recognition model
CN112418149A (en) Abnormal behavior detection method based on deep convolutional neural network
CN113160117A (en) Three-dimensional point cloud target detection method under automatic driving scene
Daudt et al. Learning to understand earth observation images with weak and unreliable ground truth
CN112133100B (en) Vehicle detection method based on R-CNN
JP7320755B2 (en) Vehicle simulation system, vehicle simulation method and computer program
Jiang et al. Research on Performance Limitations of Visual-based Perception System for Autonomous Vehicle under Severe Weather Conditions
Ngo A methodology for validation of a radar simulation for virtual testing of autonomous driving
Skruch et al. An approach for evaluating the completeness of the test scenarios for the vehicle environmental perception-based systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230829

R151 Written notification of patent or utility model registration

Ref document number: 7349626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03