JP6548708B2 - Low Latency Testing Machine for Image Processing Systems - Google Patents

Low Latency Testing Machine for Image Processing Systems Download PDF

Info

Publication number
JP6548708B2
JP6548708B2 JP2017223886A JP2017223886A JP6548708B2 JP 6548708 B2 JP6548708 B2 JP 6548708B2 JP 2017223886 A JP2017223886 A JP 2017223886A JP 2017223886 A JP2017223886 A JP 2017223886A JP 6548708 B2 JP6548708 B2 JP 6548708B2
Authority
JP
Japan
Prior art keywords
image data
time
tester
arithmetic unit
adapter module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017223886A
Other languages
Japanese (ja)
Other versions
JP2019096000A (en
Inventor
シュッテ フランク
シュッテ フランク
ハウプト ハーゲン
ハウプト ハーゲン
グラッシャー カーステン
グラッシャー カーステン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dspace Digital Signal Processing and Control Engineering GmbH
Original Assignee
Dspace Digital Signal Processing and Control Engineering GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dspace Digital Signal Processing and Control Engineering GmbH filed Critical Dspace Digital Signal Processing and Control Engineering GmbH
Priority to JP2017223886A priority Critical patent/JP6548708B2/en
Publication of JP2019096000A publication Critical patent/JP2019096000A/en
Application granted granted Critical
Publication of JP6548708B2 publication Critical patent/JP6548708B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、画像処理システムのための試験機、とりわけ輸送手段の、画像処理を実施する支援システムまたは自動制御のための試験機に関する。輸送手段とは、自力で移動するように構成された任意の装置、例えば陸上車両、航空機、ボート、または潜水艦として理解されるべきである。   The present invention relates to a tester for an image processing system, in particular a support system for performing image processing or a tester for automatic control of a vehicle. Transport should be understood as any device configured to move on its own, such as a land vehicle, an aircraft, a boat or a submarine.

長年にわたり、セーフティクリティカルな電子制御装置の一連の開発および評価の一部として、ハードウェア・イン・ザ・ループ・シミュレーションが確立されている。この場合、制御装置のプロトタイプがシミュレータに接続され、シミュレータは、制御装置の環境をソフトウェアに基づいてシミュレートし、この際には、例えばセンサのシミュレーションによって制御装置のデータエントリのためのデータを作成して、データ入力部に供給する。逆に、シミュレータは、制御装置のデータ出力部からデータを読み出し、例えばアクチュエータのシミュレーションによるシミュレーションの次の時間ステップの計算時に、これらのデータを考慮する。このようなシミュレータは、試験機として構成することもでき、その場合には、制御装置に加えてさらに、この制御装置と協働する、シミュレーションに同様に組み込まれる他の物理的なコンポーネント、自動車の制御装置の場合には例えばステアリングシステム、モータ、またはイメージングセンサを含むことができる。したがって制御装置は、十分に仮想的な環境において動作し、この仮想的な環境で、複数の異なる状況において危険なく再現可能に試験することができる。   For many years, hardware-in-the-loop simulation has been established as part of a series of development and evaluation of safety critical electronic controls. In this case, a prototype of the control device is connected to the simulator, which simulates the environment of the control device based on the software, wherein for example the simulation of the sensor creates data for data entry of the control device. To the data input unit. Conversely, the simulator reads the data from the data output of the controller and takes these data into account, for example, in the calculation of the next time step of the simulation by the simulation of the actuator. Such a simulator can also be configured as a test machine, in which case, in addition to the control device, other physical components which are likewise integrated in the simulation, which cooperate with this control device, the motor vehicle In the case of a control device, for example, a steering system, a motor or an imaging sensor can be included. The control device thus operates in a fully virtual environment, in which it can be reproducibly tested without risk in several different situations.

制御装置は、物理的なシステムを制御、調整、または監視するために設けられているので、ハードリアルタイムで動作する。したがって、シミュレータもまたハードリアルタイムで動作する必要があり、すなわち、規定された時間間隔、例えば1ms以内に、制御装置によって要求される全てのデータの計算が完了することが保証されなければならない。   The controller operates in hard real time because it is provided to control, coordinate or monitor the physical system. Therefore, the simulator also has to operate in hard real time, ie within a defined time interval, for example 1 ms, it must be ensured that the calculation of all data requested by the controller is complete.

近年、自動車業界は、多数の運転支援システムを開発しており、これらの運転支援システムは、種々異なる技術を用いたイメージングセンサを使用して車両の周囲の画像、例えばレーダ画像、ライダ画像、またはレンズベースの光学画像を作成し、これらの画像を制御装置によって読み込んで評価および解釈し、読み込まれた画像に基づいて運転挙動に介入するか、または実験的な自律的な車両の場合には、それどころか人間の運転者とは独立して車両を自立して制御する。例としては、レーダベースのアダプティブクルーズコントロール、歩行者認識、または交通標識認識がある。   In recent years, the automotive industry has developed a number of driver assistance systems, which use imaging sensors with different technologies to image around the vehicle, such as radar images, lidar images, or Lens-based optical images are created, these images are read by the control device for evaluation and interpretation, and in the case of experimental autonomous vehicles either to intervene in driving behavior based on the read-in images, On the contrary, it independently controls the vehicle independently of the human driver. Examples are radar based adaptive cruise control, pedestrian recognition or traffic sign recognition.

したがって、このような支援システムのための試験機は、制御装置によって期待される画像を計算して、制御装置に供給するように構成されなければならない。この場合には、画像を計算するための計算量が非常に多く、これに応じて時間がかかるという問題が生じる。シミュレーションソフトウェアに記憶されているような3次元の周囲モデルから、イメージングセンサによって検出されるような2次元の投影図を計算するためには、現在の技術水準によれば優に50〜100msはかかる可能性がある。このような高レイテンシは、試験機のリアルタイム性に対する上記の要件とは両立せず、シミュレーション結果の説得力を損ねることとなる。   Therefore, the tester for such a support system must be configured to calculate the expected image by the controller and supply it to the controller. In this case, there is a problem that the amount of calculation for calculating the image is very large, and it takes time accordingly. According to the state of the art, it takes well 50 to 100 ms to calculate a two-dimensional projection as detected by an imaging sensor from a three-dimensional ambient model as stored in simulation software there is a possibility. Such high latency is not compatible with the above-mentioned requirements for the real-time property of the test machine, and makes the simulation results unconvincing.

独国実用新案第202015104345号明細書(DE 20 2015 104 345 U1)は、画像処理を実施する制御装置のための試験機を記載しており、同試験機は、アダプタモジュールによって制御装置のための画像データのレイテンシを短縮し、アダプタモジュールは、イメージングセンサを迂回して直接的に制御装置に画像データを供給して、画像データのための短縮されたデータ経路を提供している。しかしながら、画像データの計算によって発生するレイテンシをこのようにするだけで補償することはできない。   German Utility Model 202015104345 (DE 20 2015 104 345 U1) describes a test machine for a control device which carries out image processing, which test machine is for the control device by means of an adapter module. To reduce the latency of the image data, the adapter module bypasses the imaging sensor and supplies the image data directly to the control device to provide a shortened data path for the image data. However, the latency generated by the calculation of the image data can not be compensated for in this way.

上記の背景を前にして、本発明の課題は、試験機における画像処理システムのための画像データの計算に起因して発生するレイテンシによる不正確さを低減することである。上記の課題は、請求項1に記載の特徴を有する試験機、または請求項15に記載の特徴を有する方法によって解決される。有利な実施形態は、従属請求項の対象である。   With the above background in mind, it is an object of the present invention to reduce the latency inaccuracies that arise due to the calculation of image data for an image processing system in a tester. The above problem is solved by a tester having the features of claim 1 or a method having the features of claim 15. Advantageous embodiments are the subject of the dependent claims.

本発明は、核心部分において、レイテンシの測定に基づいてシミュレータに記憶されている周囲モデルの時間外挿によって、レイテンシを少なくとも部分的に補償するための方法を記載するものである。本発明は、詳細には、周囲モデルに関するシミュレーションソフトウェアによってプログラミングされている第1の演算ユニット、とりわけプロセッサ(CPU)を有する試験機である。シミュレーションソフトウェアは、周囲モデルにおける第1の仮想的なオブジェクトのため、例えば仮想的な車両のために、第1の位置および第1の速度ベクトルを好ましくはハードリアルタイムで周期的に計算し、第1の仮想的なオブジェクトに対応付けるように少なくとも構成されている。好ましくはグラフィックスプロセッサ(GPU)を少なくとも含む、試験機の第2の演算ユニットは、周囲モデルの2次元の第1の投影図を表す第1の画像データ、とりわけ第1の仮想的なオブジェクトのイメージングセンサの画像を再現する第1の画像データを計算するように構成されている。このために第2の演算ユニットは、第1の仮想的なオブジェクトの第1の位置を周期的に読み込み、この位置に基づいて第1の画像データを計算するように構成されている。   The present invention describes, at its core, a method for at least partially compensating latency by time extrapolation of an ambient model stored in the simulator based on the measurement of latency. The invention is in particular a tester having a first arithmetic unit, in particular a processor (CPU), which is programmed by simulation software with respect to a surrounding model. The simulation software periodically calculates the first position and the first velocity vector, preferably in hard real time, for the first virtual object in the surrounding model, for example for the virtual vehicle, It is at least configured to correspond to a virtual object of The second computing unit of the testing machine, which preferably comprises at least a graphics processor (GPU), comprises first image data, in particular of a first virtual object, representing a two-dimensional first projection of the surrounding model. It is configured to calculate first image data that reproduces an image of the imaging sensor. To this end, the second arithmetic unit is configured to periodically read the first position of the first virtual object and to calculate first image data based on this position.

試験機はさらに、画像処理システムを試験機またはシミュレーションに組み込むためのアダプタモジュールを含む。アダプタモジュールは、第1の画像データを読み込み、画像処理システムの第1のイメージングセンサをエミュレートして第1の画像データを処理し、処理された第1の画像データを画像処理システムに供給するように構成されている。   The tester further includes an adapter module for incorporating the image processing system into the tester or simulation. The adapter module reads the first image data, emulates a first imaging sensor of the image processing system to process the first image data, and supplies the processed first image data to the image processing system Is configured as.

したがってつまり、画像処理システムが一例として光学的なレンズベースのカメラの画像を処理する場合には、アダプタモジュールは、第1の画像データを記録および処理し、この場合、処理された第1の画像データは、シミュレーションソフトウェアによって再現された状況においてカメラの光学センサが画像処理システムに供給するであろうデータに相当する。すなわちアダプタモジュールは、シミュレーションの間、画像処理システムのイメージングセンサのいわゆる代替として機能し、イメージングセンサをエミュレートし、イメージングセンサの代わりに、期待される画像データをイメージングシステムに供給する。   Thus, that is, if the image processing system processes an image of an optical lens-based camera as an example, the adapter module records and processes the first image data, in this case the processed first image. The data correspond to the data that the camera's optical sensor will supply to the imaging system in the situation reproduced by the simulation software. That is, the adapter module acts as a so-called substitute for the imaging sensor of the imaging system during simulation, and emulates the imaging sensor and supplies expected imaging data to the imaging system instead of the imaging sensor.

さらに、第1の演算ユニットは、処理された第1の画像データに基づいて、画像処理システムによってアクチュエータのために計算された制御データを読み込み、制御データを考慮して、第1の仮想的なオブジェクトに新しい速度ベクトルを対応付けるように構成されている。すなわち、例えば画像処理システムが運転支援システムであって、識別された危険状況に基づいて自動的な制動操縦を開始するための制御データを出力する場合には、第1の演算ユニットは、周囲モデルにおける第1の仮想的なオブジェクト、この場合には仮想的な車両を、模倣するように構成されている。   Further, the first arithmetic unit reads control data calculated for the actuator by the image processing system based on the processed first image data, and takes into account the control data, the first virtual unit It is configured to associate the object with a new velocity vector. That is, for example, when the image processing system is a driving support system and outputs control data for starting an automatic braking maneuver based on the identified dangerous situation, the first arithmetic unit is a surrounding model The first virtual object in, in this case a virtual vehicle, is configured to imitate.

第1の画像データの計算によって発生するレイテンシを補償するために、試験機は、第2の演算ユニットによる第1の画像データの計算の開始から、アダプタモジュールによる第1の画像データの処理の完了までに経過する時間間隔の長さΔtを求めるように構成されている。測定された長さΔtは、メモリアドレスに記憶され、第1の演算ユニットによって読み出され、第1の画像データのレイテンシLを推定するために利用される。推定されたレイテンシLは、第1の仮想的なオブジェクトの第1の位置x(t)と第1の仮想的なオブジェクトの第1の速度ベクトルv(t)と推定されたレイテンシLとを考慮して第1の外挿位置x(t+L)を求めるために、第1の演算ユニットまたは第1の演算ユニット上で実行中のシミュレーションソフトウェアによって利用される。   In order to compensate for the latency generated by the calculation of the first image data, the tester completes the processing of the first image data by the adapter module from the start of the calculation of the first image data by the second arithmetic unit. It is configured to determine the length Δt of the time interval that elapses up to. The measured length Δt is stored at the memory address, read by the first arithmetic unit, and used to estimate the latency L of the first image data. The estimated latency L takes into account the first position x (t) of the first virtual object, the first velocity vector v (t) of the first virtual object, and the estimated latency L Then, it is used by the first operation unit or simulation software running on the first operation unit to obtain the first extrapolated position x (t + L).

したがって、第1の外挿位置x(t+L)は、時点t+Lにおける第1の仮想的なオブジェクトの未来の位置の推定値であり、ただし、tは、システム時間またはシミュレーションにおける目下の時点である。(シミュレーションはハードリアルタイムで実行されるので、これは同義である。)ここで、第2の演算ユニットは、第1の画像データを計算するために現在の第1の位置x(t)を読み込むのではなく、第1の外挿位置x(t+L)を読み込むように構成されている。すなわち第2の演算ユニットが、第1の画像データの計算時に最初から、シミュレートされた周囲モデルの未来の状態を前提とすることによって、第1の画像データのレイテンシが少なくとも部分的に補償される。このようにして計算された第1の画像データが最終的に画像処理システムに供給されると、理想的な場合には、第1の演算ユニット上の周囲モデルもこの未来の状態に到達し、これによって画像処理システムにおける第1の画像データが周囲モデルの現在の状態に一致し、試験機が現実のデータを供給することとなる。   Thus, the first extrapolated position x (t + L) is an estimate of the future position of the first virtual object at time t + L, where t is the current time in system time or simulation. (This is equivalent because the simulation is performed in hard real time.) Here, the second arithmetic unit reads the current first position x (t) to calculate the first image data Rather, it is configured to read the first extrapolated position x (t + L). That is, the latency of the first image data is at least partially compensated by assuming that the second arithmetic unit assumes the future state of the simulated surrounding model from the beginning when calculating the first image data. Ru. When the first image data thus calculated is finally supplied to the image processing system, in an ideal case, the surrounding model on the first arithmetic unit also reaches this future state, This will cause the first image data in the image processing system to match the current state of the surrounding model, and the tester will supply real data.

基本的には、第1の外挿位置を求めるために任意の数値積分法、例えば一次またはより高次のルンゲ・クッタ法を使用することができる。本発明は、第1の画像データのレイテンシによって発生する不正確さが完全に補償されることを保証するものではない。第1の外挿位置を推定するために、好ましくは推定されたレイテンシL全体にわたって積分され、Lの長さは、通常の場合には周囲モデルのシミュレーションにおける時間ステップよりも格段に長いので、第1の外挿位置x(t+L)が、時点t+Lにおける仮想的なオブジェクトに対応付けられることとなる実際の位置に一致することを期待することはできない。さらには、例えば第1の画像データを計算するための計算量は、周囲モデルの状態に応じて変化し得るので、推定されたレイテンシLは、第1の画像データの実際のレイテンシからわずかに相違する可能性がある。しかしながら、上述した作用によって発生する不正確さは、補償されていない第1の画像データのレイテンシが引き起こすであろう不正確さよりも小さいので、本発明によれば、少なくともシミュレーション結果の改善を達成することが可能である。   In principle, any numerical integration method can be used to determine the first extrapolated position, for example the first or higher order Runge-Kutta method. The present invention does not guarantee that the inaccuracies caused by the latency of the first image data are completely compensated. In order to estimate the first extrapolation position, it is preferably integrated over the estimated latency L, the length of L being usually much longer than the time step in the simulation of the surrounding model, so It can not be expected that the extrapolated position x (t + L) of 1 will coincide with the actual position that will be associated with the virtual object at time t + L. Furthermore, the estimated latency L may differ slightly from the actual latency of the first image data, since, for example, the amount of computation to calculate the first image data may vary depending on the state of the surrounding model there's a possibility that. However, according to the invention, at least an improvement of the simulation results is achieved, since the inaccuracies caused by the above-mentioned effects are smaller than the inaccuracies that the uncompensated first image data latency will cause. It is possible.

とりわけ、第1の仮想的なオブジェクトを、仮想的な輸送手段として構成することができ、画像処理システムを、輸送手段のための自動制御または支援システムとして構成することができる。   Among other things, the first virtual object can be configured as a virtual vehicle, and the image processing system can be configured as an automatic control or assistance system for the vehicle.

好ましくは、第2の演算ユニットは、第1の投影図が第1のイメージングセンサの視野を模倣したものとなるように、第1の画像データを計算するように構成されている。このために、第2の演算ユニットによる第1の画像データの計算は、画像処理システムが第1の仮想的なオブジェクトの画像処理システムであり、かつ第1のイメージングセンサが第1の仮想的なオブジェクトの明確に規定された位置に取り付けられているとの仮定に基づいて実施される。計算量を節約し、これによって第1の画像データのレイテンシを最初からできるだけ低く維持するために、第2の演算ユニットは、第1の画像データを計算するために、上記の仮定に基づいた場合に第1のイメージングセンサの視野の内部に位置しているような周囲モデルの仮想的なオブジェクトだけを考慮するように構成されている。考えられる1つの実施形態では、画像処理システムは、例えば自動車用のレーダベースのアダプティブクルーズコントロールであり、したがって、第1のイメージングセンサは、周囲モデルにおいて第1の仮想的なオブジェクトの、この場合には仮想的な自動車のフロント側に配置されているレーダシステムの一部であると仮定される。レーダシステムが、技術的に例えば200mの射程内のオブジェクトを識別するようにしか構成されていない場合には、第1の画像データを計算するために、周囲モデルにおける200mの射程内かつレーダシステムの視野円錐内に位置する仮想的なオブジェクトだけを考慮すべきである。   Preferably, the second arithmetic unit is configured to calculate the first image data such that the first projection mimics the field of view of the first imaging sensor. For this purpose, in the calculation of the first image data by the second arithmetic unit, the image processing system is the first virtual object image processing system, and the first imaging sensor is the first virtual It is implemented on the assumption that it is attached at a well-defined position of the object. In order to save computational complexity and thereby keep the latency of the first image data as low as possible from the beginning, the second arithmetic unit is based on the above assumption in order to calculate the first image data It is configured to consider only virtual objects of the surrounding model that are located inside the field of view of the first imaging sensor. In one possible embodiment, the image processing system is a radar based adaptive cruise control, for example for a motor vehicle, and thus the first imaging sensor is in this case the first virtual object in the surrounding model. Is assumed to be part of a radar system located on the front side of a virtual car. If the radar system is technically only configured to identify objects within the range of, for example, 200 m, then the 200 m range of the surrounding model and of the radar system may be calculated to calculate the first image data. Only virtual objects located within the field cone should be considered.

一般的に言えば、イメージングセンサの視野とは、イメージングセンサによって認識される形式での、イメージングセンサによって所与の時点に視認可能な全てのオブジェクトの全体として理解すべきであり、第2の演算ユニットは、好ましくは、第1の画像データを計算するために最初から、上記の定義に即した第1のイメージングセンサの視野から得られる情報のみを考慮するように構成されている。   Generally speaking, the field of view of the imaging sensor should be understood as the whole of all objects visible at a given time by the imaging sensor, in the form recognized by the imaging sensor, the second operation The unit is preferably arranged to initially consider only the information obtainable from the field of view of the first imaging sensor according to the above definition in order to calculate the first image data.

上述した例の場合、このことは例えばさらに、レーダシステムのための第1の画像データが、第1の投影図において視認可能な仮想的なオブジェクトの色に関する情報を含むべきではないこと、また、たとえ上記の色に関する情報が周囲モデルに存在していたとしても、この情報が、第1の画像データの計算時に最初から考慮されないことを意味している。   In the case of the example described above, this also means, for example, that the first image data for the radar system should not contain information on the colors of virtual objects visible in the first projection, and Even if the above color information is present in the surrounding model, this means that this information is not taken into account from the outset when calculating the first image data.

1つの実施形態では、時間間隔の長さΔtの測定は、試験機、とりわけ第2の演算ユニットが、第1の画像データの計算の開始時に試験機のシステム時間を読み出し、読み出されたシステム時間が記憶されているタイムスタンプを第1の画像データに付与するようにして実施される。アダプタモジュールが第1の画像データを処理した後、アダプタモジュールが第1の画像データを画像処理システムに供給する前に、アダプタモジュールは、タイムスタンプを読み出し、タイムスタンプに記憶されているシステム時間を現在のシステム時間と比較し、これら2つのシステム時間の差分形成によって時間間隔の長さΔtを求め、求められた時間間隔の長さΔを、第1の演算モジュールによってアクセス可能なメモリアドレスに記憶する。第1の演算ユニットは、メモリアドレスにおける求められた時間間隔の長さΔtを読み出すように構成されている。   In one embodiment, the measurement of the time interval length Δt is a system in which the tester, in particular the second computing unit, reads out the system time of the tester at the start of the calculation of the first image data. It is carried out in such a manner that a time stamp in which time is stored is given to the first image data. After the adapter module processes the first image data, and before the adapter module supplies the first image data to the image processing system, the adapter module reads the time stamp and the system time stored in the time stamp The difference Δt between time intervals is determined by forming a difference between these two system times in comparison with the current system time, and the determined time interval length Δ is stored in a memory address accessible by the first operation module Do. The first arithmetic unit is configured to read the determined time interval length Δt at the memory address.

別の実施形態では、時間測定は、試験機、とりわけ第1の演算ユニットまたは第2の演算ユニットが第1の画像データのために作成するデジタルIDに基づいて実施される。デジタルIDは、第1の画像データの計算の前に作成され、試験機の第1のシステム時間と一緒にアダプタモジュールに送信される。この場合、第1のシステム時間は、デジタルIDの送信時点におけるシステム時間である。第2の演算ユニットは、第1の画像データを計算した後、第2の画像データにデジタルIDを付与して、第2の画像データをデジタルIDと一緒にアダプタモジュールに送信する。アダプタモジュールは、第1の画像データからデジタルIDを読み出し、第1のシステム時間のデジタルIDに基づいて第1の画像データを対応付けるように構成されている。アダプタモジュールは、第1の画像データの処理を完了した後、試験機の現在のシステム時間を第1のシステム時間と比較して時間間隔の長さΔtを求め、この長さΔtをメモリアドレスに記憶する。   In another embodiment, the time measurement is performed based on a digital ID that the tester, in particular the first computing unit or the second computing unit creates for the first image data. The digital ID is created prior to the calculation of the first image data and transmitted to the adapter module along with the first system time of the tester. In this case, the first system time is the system time at the time of transmission of the digital ID. After calculating the first image data, the second arithmetic unit assigns a digital ID to the second image data, and transmits the second image data together with the digital ID to the adapter module. The adapter module is configured to read the digital ID from the first image data and to associate the first image data based on the digital ID of the first system time. After completing the processing of the first image data, the adapter module compares the current system time of the tester with the first system time to determine the time interval length Δt, and sets this length Δt as the memory address. Remember.

両方の形式の測定のための前提条件は、試験機が、当該試験機のコンポーネント間におけるシステム時間の十分に高速な同期を有することである。   A prerequisite for both types of measurement is that the tester has a sufficiently fast synchronization of system time between the components of the tester.

有利には、試験機の、本発明にとって本質的なコンポーネント同士は、それぞれリアルタイム能力のあるデータコネクションを介して接続されており、このデータコネクションは、データのストリーミングのために構成されており、すなわち大量のデータの連続的なストリームをリアルタイムで送信するために構成されている。したがって具体的には、第1の演算ユニットと第2の演算ユニットとの間にリアルタイム能力のある第1のデータコネクションが形成されており、第2の演算ユニットとアダプタモジュールとの間にリアルタイム能力のある第2のデータコネクション、好ましくはHDMIコネクションが形成されており、アダプタモジュールと第1の演算ユニットの間にリアルタイム能力のある第3のデータコネクション、好ましくはイーサネットコネクションが形成されている。   Advantageously, the components of the tester essential to the invention are each connected via a real-time capable data connection, which is configured for streaming data, ie It is configured to transmit a continuous stream of large amounts of data in real time. Therefore, specifically, a first data connection having real-time ability is formed between the first arithmetic unit and the second arithmetic unit, and real-time ability between the second arithmetic unit and the adapter module. A second data connection, preferably an HDMI connection, is formed, and a third data connection, preferably an Ethernet connection, having real-time capability is formed between the adapter module and the first computing unit.

特に好ましくは、第1のデータコネクションは、試験機のリアルタイム能力のあるバスによって提供されている。この実施形態は、第2の演算ユニットを試験機の一体的な構成部分として構成することが可能となり、これによってレイテンシに対して好ましい効果がもたらされるという点で有利である。なぜなら、典型的なハードウェア・イン・ザ・ループ・シミュレータの内部バスは、リアルタイム性能、すなわち低レイテンシと低ジッタのために最適化されているからである。   Particularly preferably, the first data connection is provided by a real time capable bus of the tester. This embodiment is advantageous in that it allows the second computing unit to be configured as an integral part of the tester, which has a favorable effect on latency. This is because the internal bus of a typical hardware in-the-loop simulator is optimized for real-time performance, ie low latency and low jitter.

さらに有利には、第2の演算ユニットは、第1のイメージングセンサに加えてオプションとして、少なくとも第2のイメージングセンサも操作するように構成されている。例えば画像処理システムは、ステレオカメラを含むことができるが、これによって第2の演算ユニットは、2つの光学画像を計算しなければならなくなり、これに応じてアダプタモジュールは、2つの光学画像を画像処理システムに供給しなければならなくなる。別の例では、画像処理システムは、複数のイメージングセンサを有する複数の制御装置を含むことができる。したがって、有利な実施形態では、第2の演算ユニットは、第1の画像データの計算と並行して、または第1の画像データの計算後に、少なくとも、画像処理システムの第2のイメージングセンサのための周囲モデルの2次元の第2の投影図を表す第2の画像データを計算するように構成されている。その後、画像データの全体が、好ましくはバンドリングされて送信される。このために第2の演算ユニットは、第1の画像データおよび第2の画像データおよび存在する場合にはさらなる画像データを含むデータパケットを作成するように構成されている。時間間隔Δtの測定がタイムスタンプを用いて実施される場合には、データパケットにタイムスタンプが付与される。アダプタモジュールは、データパケットを読み込み、既に説明した第1の画像データの処理に加えて、第2のイメージングセンサのエミュレーションによって第2の画像データも処理し、処理された第2の画像データを画像処理システムに供給するように構成されている。   Further advantageously, the second computing unit is configured to operate at least a second imaging sensor as an option in addition to the first imaging sensor. For example, the image processing system can include a stereo camera, which causes the second computing unit to calculate two optical images, and the adapter module accordingly images the two optical images. It will have to be supplied to the processing system. In another example, the imaging system can include multiple controllers with multiple imaging sensors. Thus, in an advantageous embodiment, the second arithmetic unit is at least for the second imaging sensor of the image processing system in parallel with the calculation of the first image data or after the calculation of the first image data. The second image data representing a two-dimensional second projection of the surrounding model is calculated. Thereafter, the entire image data is preferably bundled and transmitted. For this purpose, the second arithmetic unit is configured to create data packets comprising the first image data and the second image data and, if present, further image data. If the measurement of the time interval Δt is performed using time stamps, the data packets are time stamped. The adapter module reads the data packet and, in addition to the processing of the first image data already described, also processes the second image data by emulation of the second imaging sensor and images the processed second image data It is configured to supply a processing system.

好ましくは、推定されたレイテンシLは、1回だけ測定された静的なパラメータではなく、第1の演算ユニットは、実行中のシミュレーションの間に、推定されたレイテンシLの値を動的に適合させるように構成されている。すなわち試験機は、時間間隔の長さΔtを周期的に求め、第1の演算ユニットによって周期的に読み込んで、シミュレーションの間にLの値を第1の画像データの現在のレイテンシに動的に適合させるように構成されている。   Preferably, the estimated latency L is not a static parameter measured only once, and the first arithmetic unit dynamically adapts the estimated latency L value during the running simulation. It is configured to let you That is, the tester periodically obtains the length Δt of the time interval, and periodically reads it by the first arithmetic unit, and dynamically resets the value of L to the current latency of the first image data during the simulation. It is configured to fit.

簡単な実施形態では、このことは、第1の演算ユニットが、推定されたレイテンシLを、時間間隔の長さΔtの現在の値と等しくなるように、すなわちL=Δtに周期的に設定するようにして実施される。別の実施形態では、第1の演算ユニットは、過去に測定された複数のΔtの値を記憶し、レイテンシLを、これらの複数のΔtの値から、とりわけこれらの複数のΔtの値の平均値、加重平均値、または中央値として計算するように構成されている。   In a simple embodiment, this causes the first arithmetic unit to set the estimated latency L equal to the current value of the time interval length Δt, ie to L = Δt periodically. To be implemented. In another embodiment, the first computing unit stores a plurality of values of Δt measured in the past, and the latency L from the values of these plurality of Δt, in particular the average of the values of these plurality of Δt. It is configured to calculate as a value, a weighted average, or a median.

以下では本発明を、図面に基づいてより詳細に説明する。   The invention will be explained in more detail below on the basis of the drawings.

画像処理システムのための従来技術から公知の試験機の極めて簡略的な概略図である。FIG. 1 is a very simplified schematic view of a tester known from the prior art for an image processing system. 好ましい実施形態における本発明による試験機の概略図である。FIG. 1 is a schematic view of a tester according to the invention in a preferred embodiment.

図1は、本発明の基礎となる着想と、本発明によって解決される問題とを視覚化するために使用される。本図は、シミュレーションコンピュータSIMによって代表的に表される試験機を用い、かつ被験体として画像処理システムUUTを用いる1つの試験シナリオを概説している。画像処理システムUUTは、一例として、車両における危険状況を識別して自動的な制動操縦を開始するように構成されたカメラベースの事故支援システムであるとする。   FIG. 1 is used to visualize the ideas underlying the present invention and the problems solved by the present invention. This figure outlines one test scenario using the tester represented by the simulation computer SIM and using the imaging system UUT as a subject. The image processing system UUT is, by way of example, a camera based accident support system configured to identify a dangerous situation in a vehicle and to initiate an automatic braking maneuver.

シミュレータSIMには、周囲モデルMODが記憶されている。周囲モデルMODは、シミュレータSIMの第1のプロセッサC1によって実行可能なソフトウェアであって、画像処理システムUUTの周囲と、画像処理システムUUTのための試験シナリオとをシミュレートするように構成されたソフトウェアである。周囲モデルMODは、複数の仮想的なオブジェクトを含み、仮想的なオブジェクトの部分集合は、移動可能である。移動可能な仮想的なオブジェクトは、これらの仮想的なオブジェクトに、周囲モデルにおいて位置(ベクトル値)に加えてそれぞれ1つの速度ベクトルも対応付けられているという点と、周囲モデルMODにおける仮想的なオブジェクトの位置を、シミュレーションの各時間ステップで変更可能であるという点とを特徴としている。図示された周囲モデルMODは、一例として、第1の仮想的なオブジェクトとして第1の仮想的な車両VEH1を含み、第2の仮想的なオブジェクトとして第2の仮想的な車両VEH2を含む。図示された試験シナリオは、交差点における事故状況である。2つの車両は、移動可能な仮想的なオブジェクトである。したがって、第1の仮想的な車両VEH1には、時間依存性の第1の位置x(t)および時間依存性の第1の速度ベクトルv(t)が対応付けられており、第2の仮想的な車両VEH2には、時間依存性の第2の位置x’(t)および時間依存性の第2の速度ベクトルv’(t)が対応付けられている。   A surrounding model MOD is stored in the simulator SIM. The ambient model MOD is software executable by the first processor C1 of the simulator SIM and configured to simulate the environment of the image processing system UUT and the test scenario for the image processing system UUT It is. The surrounding model MOD includes a plurality of virtual objects, and a subset of the virtual objects is movable. The movable virtual objects are associated with these virtual objects in addition to the position (vector value) in the surrounding model and one velocity vector respectively, and the virtual objects in the surrounding model MOD It is characterized in that the position of the object can be changed at each time step of the simulation. The illustrated surrounding model MOD includes, as an example, a first virtual vehicle VEH1 as a first virtual object, and a second virtual vehicle VEH2 as a second virtual object. The illustrated test scenario is an accident situation at an intersection. Two vehicles are virtual objects that can move. Therefore, the first virtual vehicle VEH1 is associated with the time-dependent first position x (t) and the time-dependent first velocity vector v (t), and the second virtual The time-dependent second position x ′ (t) and the time-dependent second velocity vector v ′ (t) are associated with the typical vehicle VEH2.

このように、時点tにおける周囲モデルMODの状態は、全ての仮想的なオブジェクトの位置の座標と、全ての移動可能な仮想的なオブジェクトの速度ベクトルのエントリとをエントリとして含んでいる状態ベクトルM(t)によって記述することができる。   Thus, the state of the surrounding model MOD at time t includes, as entries, the coordinates of the positions of all virtual objects and the entries of the velocity vectors of all movable virtual objects. It can be described by (t).

シミュレータSIMおよび画像処理システムUUTは、シミュレートされる制御ループを一緒に構築する。シミュレータSIMは、エミュレートされた画像データSEを画像処理システムUUTに連続的に供給し、画像処理システムUUTは、このエミュレートされた画像データSEを本物の画像データとして、すなわち物理的なイメージングセンサによって供給された画像データとして解釈する。これらの画像データに基づいて画像処理システムUUTは、制御データACをシミュレータにフィードバックし、ひいては、シミュレータが第1の仮想的な車両VEH1における制御データACに対する物理的な車両の反応を模倣することによって、周囲モデルMODの状態Mに影響を与える。   The simulator SIM and the image processing system UUT construct a simulated control loop together. The simulator SIM continuously supplies emulated image data SE to the image processing system UUT, and the image processing system UUT uses the emulated image data SE as real image data, that is, a physical imaging sensor Interpret as image data supplied by Based on these image data, the image processing system UUT feeds back the control data AC to the simulator, and thus the simulator mimics the physical response of the vehicle to the control data AC in the first virtual vehicle VEH1. , Affect the state M of the surrounding model MOD.

画像データSEの計算が開始されてから画像データSEが画像処理システムUUTに供給されるまでに、実質的に画像データSEの計算および処理によって発生する、長さΔtの時間間隔が経過する。したがって、この長さΔtは、画像データのレイテンシに相当する。レイテンシがΔt=50msであると仮定すると、このことは、シミュレーションにおいて一例としての事故支援システムが、50msの遅延を伴ってようやく危険状況を認識し、これに応じて反応するということを意味する。このような値は、図示された試験シナリオにとっては許容できないものであろうし、シミュレーションの結果は、限定的にしか使用することができなくなるであろう。   From when the calculation of the image data SE is started to when the image data SE is supplied to the image processing system UUT, a time interval of a length Δt which substantially occurs due to the calculation and processing of the image data SE elapses. Therefore, this length Δt corresponds to the latency of the image data. Assuming that the latency is Δt = 50 ms, this means that the exemplary accident support system in the simulation only recognizes the danger situation with a delay of 50 ms and responds accordingly. Such values would be unacceptable for the illustrated test scenario, and simulation results would only be able to be used in a limited way.

画像データSEは、第1の仮想的な車両VEH1の所定の位置に取り付けられた第1のイメージングセンサの視野、すなわち周囲モデルMODの2次元の投影図を表す。この限りにおいて画像データSEは、状態ベクトルM(t)の関数D[M(t)]として理解されるべきである。したがって、最終的に画像処理システムUUTに供給された処理された画像データは、関数D[M(t−Δt)]によって定義されている。t→t+Δtの代入により、関数D[M(t+Δt)]によって記述される未来の画像データSEをシミュレータSIMから画像処理システムUUTに供給することによって、基本的にレイテンシを補償することが可能であることが直接的に認識できる。その場合、画像処理システムに供給された画像データは、関数D[M(t+Δt−Δt)]=D[M(t)]によって記述されており、すなわち、周囲モデルMODの現在の状態M(t)と一致する。   The image data SE represents a two-dimensional projection of the field of view of the first imaging sensor, ie the surrounding model MOD, mounted at a predetermined position of the first virtual vehicle VEH1. In this regard, the image data SE should be understood as a function D [M (t)] of the state vector M (t). Therefore, the processed image data finally supplied to the image processing system UUT is defined by the function D [M (t-Δt)]. It is possible to basically compensate for latency by supplying future image data SE described by the function D [M (t + Δt)] from the simulator SIM to the image processing system UUT by substitution of t → t + Δt. Can be recognized directly. In that case, the image data supplied to the image processing system is described by the function D [M (t + Δt−Δt)] = D [M (t)], ie, the current state M (t of the surrounding model MOD (t). Match with).

基本的に、周囲モデルMODの未来の状態M(t+Δt)は未知である。しかしながら、例えば測定によってレイテンシΔtが学習されると、この未来の状態M(t+Δt)を、長さΔtにわたる現在の状態M(t)の外挿によって少なくとも推定することが可能となり、シミュレーションの精度を改善することが可能となる。   Basically, the future state M (t + Δt) of the surrounding model MOD is unknown. However, if the latency Δt is learned, eg by measurement, it is possible to at least estimate this future state M (t + Δt) by extrapolation of the current state M (t) over the length Δt, and the simulation accuracy It is possible to improve.

図2は、このために構成された試験機の概略図を示している。試験機は、ホストコンピュータHSTと、シミュレータSIMと、アダプタモジュールADとを含み、画像処理システムUUTは、レーダシステムのための第1の制御装置ECU1と、ステレオカメラのための第2の制御装置ECU2とを含む。   FIG. 2 shows a schematic view of a tester configured for this. The testing machine comprises a host computer HST, a simulator SIM and an adapter module AD, the image processing system UUT a first control unit ECU1 for the radar system and a second control unit ECU2 for the stereo camera. And.

シミュレータSIMは、第1のプロセッサC1を有する第1の演算ユニットCPUを含み、シミュレータSIMは、第2のプロセッサC2とグラフィックスプロセッサ(グラフィックス処理ユニット)C3とを有する第2の演算ユニットGPUを含む。ホストコンピュータHSTは、第5のデータコネクションDLを介して周囲モデルMODを第1の演算ユニットCPUに記憶するように構成されており、第1のプロセッサC1は、周囲モデルを実行するように構成されている。(図1および図2に図示された周囲モデルMODは、以下では同一であると仮定する。)第1の演算ユニットCPUおよび第2の演算ユニットGPUは、試験機のリアルタイム能力のある第1のバスBSに一緒に接続されており、したがって、この第1のバスBSは、第1の演算ユニットCPUと第2の演算ユニットGPUとの間における第1のデータコネクションを提供する。第1のバスBSは、リアルタイム性能のために技術的に最適化されており、したがって低レイテンシの第1のデータコネクションを保証する。   The simulator SIM includes a first arithmetic unit CPU having a first processor C1, and the simulator SIM has a second arithmetic unit GPU having a second processor C2 and a graphics processor (graphics processing unit) C3. Including. The host computer HST is configured to store the surrounding model MOD in the first arithmetic unit CPU via the fifth data connection DL, and the first processor C1 is configured to execute the surrounding model ing. (The ambient model MOD illustrated in FIGS. 1 and 2 is assumed to be identical below.) The first computing unit CPU and the second computing unit GPU are the first with real-time capability of the tester. Connected together to the bus BS, this first bus BS thus provides a first data connection between the first arithmetic unit CPU and the second arithmetic unit GPU. The first bus BS is technically optimized for real-time performance and thus guarantees a low latency first data connection.

第1の演算ユニットCPUは、周囲モデルにおける仮想的なオブジェクトの位置を、第1のデータコネクションBSを介して第2の演算ユニットGPUに周期的に送信するように構成されている。第2の演算ユニットGPUは、送信された位置を読み出し、第2の演算ユニットGPUに記憶されているレンダリングソフトウェアRENを用いて第1の画像データと第2の画像データと第3の画像データとを、少なくとも送信された位置の関数として、とりわけ第1の位置x(t)および第2の位置x’(t)の関数として計算するように構成されている。   The first computing unit CPU is configured to periodically transmit the position of the virtual object in the surrounding model to the second computing unit GPU via the first data connection BS. The second operation unit GPU reads the transmitted position, and uses the rendering software REN stored in the second operation unit GPU to generate the first image data, the second image data, and the third image data. Are configured to be calculated at least as a function of the transmitted position, in particular as a function of the first position x (t) and the second position x ′ (t).

このためにレンダリングソフトウェアには多数のシェーダが実装されている。第1のシェーダは、第1の画像データを計算する。第1の画像データは、第1の仮想的な車両VEH1に取り付けられたレーダセンサの視野を模倣したものである周囲モデルMODの第1の投影図を表す。第2のシェーダは、第2の画像データおよび第3の画像データを計算する。第2の画像データは、周囲モデルの第2の投影図を表し、第3の画像データは、周囲モデルの第3の投影図を表す。第2および第3の投影図はそれぞれ、仮想的な車両VEH1に取り付けられたカメラ光学系の第1および第2のフォトセンサの視野を模倣したものである。このために第2のシェーダは、とりわけステレオカメラのレンズシステムの光学系をシミュレートするようにも構成されている。   For this purpose, many shaders are implemented in the rendering software. The first shader calculates first image data. The first image data represents a first projection of the surrounding model MOD, which mimics the field of view of the radar sensor attached to the first virtual vehicle VEH1. The second shader calculates second image data and third image data. The second image data represents a second projection of the surrounding model, and the third image data represents a third projection of the surrounding model. The second and third projections mimic the field of view of the first and second photosensors of the camera optics mounted on the virtual vehicle VEH 1 respectively. For this purpose, the second shader is also configured to simulate, inter alia, the optics of the lens system of a stereo camera.

第1の演算ユニットCPUは、第1の位置x(t)および第2の位置x’(t)の送信と同時に、イーサネットコネクションとして構成されたリアルタイム能力のある第3のデータコネクションETHを介して試験機のデジタルIDおよび第1のシステム時間を送信し、さらにデジタルIDを、第1のデータコネクションBSを介して第2の演算ユニットGPUに送信する。第2の演算ユニットGPUは、第1の画像データと第2の画像データと第3の画像データとデジタルIDとを含むデータパケットを作成する。グラフィックスプロセッサC3は、HDMIコネクションとして構成された第2のリアルタイム能力のあるデータコネクションHDMIを介してアダプタモジュールADにデータパケットを送信する。   At the same time as the transmission of the first location x (t) and the second location x '(t), the first arithmetic unit CPU transmits via the third data connection ETH with real-time capability configured as an Ethernet connection. The digital ID of the tester and the first system time are transmitted, and further the digital ID is transmitted to the second arithmetic unit GPU via the first data connection BS. The second arithmetic unit GPU creates a data packet including the first image data, the second image data, the third image data, and the digital ID. The graphics processor C3 transmits data packets to the adapter module AD via a second real-time capable data connection HDMI configured as an HDMI connection.

アダプタモジュールADは、FPGA Fを含む。FPGA F上には3つの並列のエミュレーションロジックが実装されている。第1のエミュレーションロジックEM1は、レーダシステムの第1のイメージングセンサをエミュレートするように構成されており、すなわち第1の画像データを記録し、この第1の画像データを処理して、処理後の第1の画像データが、第1の制御装置ECU1によって期待される画像データに対応するようにするように構成されている。相応にして、第2のエミュレーションロジックEM2および第3のエミュレーションロジックEM3は、第2の画像データまたは第3の画像データを記録し、レンズベースの光学的なステレオカメラの第2のイメージングセンサまたは第3のイメージングセンサをエミュレートするように構成されている。   The adapter module AD includes an FPGA F. Three parallel emulation logics are implemented on the FPGA F. The first emulation logic EM1 is configured to emulate the first imaging sensor of the radar system, ie to record the first image data, process this first image data and process it The first image data of (1) is configured to correspond to the image data expected by the first control unit ECU1. Correspondingly, the second emulation logic EM2 and the third emulation logic EM3 record the second image data or the third image data, and the second imaging sensor or the second of the lens-based optical stereo camera It is configured to emulate the three imaging sensors.

処理された第1の画像データは、この第1の画像データが第1の制御装置ECU1によって物理的なイメージングセンサの本物の画像データとして解釈されるように、アダプタモジュールADから第1の制御装置ECU1に供給される。このために必要な技術的手段は、当該技術分野において既知であり、当業者には容易に理解することができる。特別な開発用制御装置は、しばしばこのために専用のインターフェースを提供する。   The first controller from the adapter module AD is such that the processed first image data is interpreted by the first controller ECU1 as physical image data of a physical imaging sensor. It is supplied to the ECU 1. The technical means necessary for this are known in the art and can be easily understood by the person skilled in the art. Special development controllers often provide a dedicated interface for this.

第1の制御装置ECU1および第2の制御装置ECU2は、処理された第1の画像データまたは処理された第2の画像データに基づいて、輸送手段、具体的には車両のアクチュエータのための制御信号を計算する。制御信号は、ゲートウェイGを介して第1のバスBSに接続された、シミュレータSIMの外部に敷設されている第2のバスXB、例えばCANバスを介して第1の演算ユニットCPUに供給され、第1のプロセッサC1によって読み出され、シミュレーションの次の時間ステップの計算時に、第1の仮想的な車両VEH1における制御信号に対する物理的な車両の反応が再現されるように考慮される。   The first control unit ECU1 and the second control unit ECU2 control the transport means, in particular for the actuators of the vehicle, on the basis of the processed first image data or the processed second image data. Calculate the signal. The control signal is supplied to the first arithmetic unit CPU via the second bus XB, for example, the CAN bus, connected to the first bus BS via the gateway G and disposed outside the simulator SIM, It is read by the first processor C1 and in the calculation of the next time step of the simulation, it is taken into account that the physical vehicle response to the control signal in the first virtual vehicle VEH1 is reproduced.

アダプタモジュールADはさらに、デジタルIDに基づいて、第1の演算ユニットから取得した第1のシステム時間にデータパケットを対応付けるように構成されている。具体的にはこのことは、アダプタモジュールADが、第1の演算ユニットCPUから第3のデータコネクションETHを介して送信されたデジタルIDを、第1のシステム時間と一緒に読み出し、アダプタモジュールがさらに、データパケットに格納されているデジタルIDを読み出し、読み出された2つのデジタルIDを比較して同一であると識別し、この比較に基づいて第1のシステム時間をデータパケットに対応付けるということを意味する。アダプタモジュールADは、少なくとも第1の画像データを処理した直後に、第1のシステム時間を試験機の現在のシステム時間と比較し、差分形成によって時間間隔の長さΔtを求め、このΔtの値を、第3のデータコネクションETHを介して第1の演算ユニットCPUに送信する。好ましくは、このことが1回だけ実施されるわけではなく、アダプタモジュールADは、Δtの現在の値を周期的かつ連続的に計算して、Δtのその時々の現在の値を第1の演算ユニットCPUに連続的に送信する。   The adapter module AD is further configured to associate the data packet with the first system time acquired from the first arithmetic unit based on the digital ID. Specifically, this means that the adapter module AD reads the digital ID transmitted from the first arithmetic unit CPU via the third data connection ETH together with the first system time, and the adapter module further Reading out the digital ID stored in the data packet, comparing the read out two digital IDs to identify the same, and associating the first system time with the data packet based on the comparison means. Immediately after processing at least the first image data, the adapter module AD compares the first system time with the current system time of the tester and determines the length of the time interval Δt by difference formation, the value of this Δt Are transmitted to the first arithmetic unit CPU via the third data connection ETH. Preferably, this is not performed only once, and the adapter module AD periodically and continuously calculates the current value of Δt to calculate the current current value of Δt as the first operation. Transmit continuously to the unit CPU.

測定を実施できるようにするために、アダプタモジュールは、試験機のシステム時間にアクセスする必要がある。図示された実施例では、アダプタモジュールは、試験機の第1のバスBSに接続されていないので、例えばシステム時間を、第3のデータコネクションETHを介してアダプタモジュールADに連続的に送信することができ、アダプタモジュールADは、ローカルクロックをシステム時間と同期させるか、または必要に応じて、第3のデータコネクションETHを介して送信されたシステム時間を直接的に読み出す。   In order to be able to perform the measurement, the adapter module needs to have access to the system time of the tester. In the illustrated embodiment, the adapter module is not connected to the first bus BS of the tester, so that, for example, the system time is continuously transmitted to the adapter module AD via the third data connection ETH. The adapter module AD synchronizes the local clock with the system time or, if necessary, directly reads the system time sent via the third data connection ETH.

基本的には、デジタルIDを省略することができる。これに代わる実施形態では、長さΔtの測定が、タイムスタンプに基づいて実施される。第2の演算ユニットGPUは、このタイムスタンプをデータパケットに付与し、第2の演算ユニットGPUは、第1の画像データが計算される前の時点における試験機の第1のシステム時間をこのタイムスタンプに記憶し、アダプタモジュールは、このタイムスタンプから第1のシステム時間を読み出す。   Basically, the digital ID can be omitted. In an alternative embodiment, the measurement of the length Δt is performed on the basis of a time stamp. The second computing unit GPU applies this timestamp to the data packet, and the second computing unit GPU uses this time for the first system time of the tester at a time before the first image data is calculated. Stored in the stamp, the adapter module reads the first system time from this timestamp.

第1の演算ユニットCPUは、Δtの値を読み出し、このΔtの値に基づいて第1の画像データのレイテンシLを推定するように構成されている。簡単な実施形態ではこのことは、第1の演算ユニットCPUが、推定されたレイテンシLのために、単純にその時々のΔtの現在の値を使用するようにして実施される。しかしながら、画像データのレイテンシに短期的な変動が発生する場合には、この実施形態は問題となり得る。有利には、第1の演算ユニットCPUは、過去に測定された複数のΔtの値に基づいて、推定されたレイテンシLの値を計算する。例えば、第1の演算ユニットCPUは、例えばその時々の直近の100個のΔtの値を記憶し、Lの値を、記憶されたこれらのΔtの値の平均値、加重平均値、または中央値として計算するように構成することができる。   The first arithmetic unit CPU is configured to read the value of Δt and estimate the latency L of the first image data based on the value of Δt. In a simple embodiment this is implemented such that the first arithmetic unit CPU simply uses the current value of Δt from time to time for the estimated latency L. However, this embodiment can be problematic if short-term fluctuations occur in the latency of the image data. Advantageously, the first arithmetic unit CPU calculates the value of the estimated latency L based on a plurality of values of Δt measured in the past. For example, the first arithmetic unit CPU stores, for example, the latest 100 values of .DELTA.t from time to time, and the value of L is an average value, a weighted average value or a median value of the stored values of .DELTA.t. Can be configured to calculate.

ここで、第1の演算ユニットが、周囲モデルにおける全ての移動可能な仮想的なオブジェクトのために、または少なくとも関連する移動可能な仮想的なオブジェクトを選択するために、すなわち図示された実施例では、具体的に第1の仮想的な車両VEH1および第2の仮想的な車両VEH2のために、推定されたレイテンシLを使用して外挿位置を計算するようにして、レイテンシの補償が実施される。したがって、第1の演算ユニットCPUは、第1の仮想的な車両VEH1のために、第1の位置x(t)および第1の速度ベクトルv(t)に基づいて第1の外挿位置x(t+L)を計算し、第1の演算ユニットCPUはさらに、第2の仮想的な車両VEH2のために、第2の位置x’(t)および第2の速度ベクトルv’(t)を使用して第2の外挿位置x’(t+L)を計算する。外挿位置の算出は、例えばルンゲ・クッタ法、好ましくはオイラー法に基づいて、好ましくは推定されたレイテンシL全体にわたるただ1つの積分ステップに基づいて実施される。外挿位置が時点t+Lでの実際の位置から相違し過ぎている場合には、比較的高い計算量を対価として、基本的に任意のより精度の高い積分法、例えばより高次の積分法、またはレイテンシLの部分間隔にわたる複数回の積分を使用することもできる。   Here, in the illustrated embodiment, the first computing unit is to select for all movable virtual objects in the surrounding model, or at least to the associated movable virtual objects. Latency compensation is performed, in particular for calculating the extrapolated position using the estimated latency L, for the first virtual vehicle VEH1 and the second virtual vehicle VEH2 Ru. Therefore, the first arithmetic unit CPU generates a first extrapolation position x based on the first position x (t) and the first velocity vector v (t) for the first virtual vehicle VHE1. Calculate (t + L), and the first arithmetic unit CPU further uses the second position x ′ (t) and the second velocity vector v ′ (t) for the second virtual vehicle VEH 2 And calculate a second extrapolated position x '(t + L). The calculation of the extrapolation position is carried out, for example, based on the Runge-Kutta method, preferably the Euler method, preferably based on only one integration step over the estimated latency L. If the extrapolation position is too different from the actual position at time t + L, basically any higher precision integration method, eg higher order integration method, taking into account the relatively high computational complexity. Alternatively, multiple integrations may be used over partial intervals of latency L.

第1の演算ユニットCPUは、実際の現在の第1の位置x(t)および第2の位置x’(t)の代わりに、第1の外挿位置x(t+L)および第2の外挿位置x’(t+L)を第2の演算ユニットGPUに送信する。同様にして、場合によって存在する別の移動可能な仮想的なオブジェクトの代わりに、すなわち少なくとも、周囲モデル中でモデル化されたシナリオに関して関連性を有すると識別された仮想的なオブジェクトの位置の代わりに、常にその時々の仮想的なオブジェクトの外挿位置が送信される。したがって、第2の演算ユニットGPUは、画像データの計算時に、時間期間Δtが経過した後の周囲モデルMODの推定された未来の状態を前提とする。このようにして計算された画像データが最終的に画像処理システムUUTに供給されると、第1の演算ユニットCPU上でのシミュレーションは、画像データのこのタイムアドバンテージをほぼ挽回している。これによって、画像処理システムUUTからの制御データは、周囲モデルMODの現在の状態M(t)により良好に一致し、これによってシミュレーション結果の精度は、従来技術から公知の同様の試験機に比べて改善される。   The first arithmetic unit CPU substitutes the first extrapolation position x (t + L) and the second extrapolation position instead of the actual current first position x (t) and the second position x ′ (t). The position x ′ (t + L) is sent to the second operation unit GPU. Similarly, instead of another movable virtual object that may be present, ie, at least, instead of the position of the virtual object identified as having relevance with respect to the scenario modeled in the surrounding model In addition, the extrapolated position of the virtual object at all times is always sent. Thus, the second arithmetic unit GPU assumes, at the time of calculation of the image data, the estimated future state of the surrounding model MOD after the time period Δt has elapsed. When the image data calculated in this manner is finally supplied to the image processing system UUT, the simulation on the first arithmetic unit CPU substantially overcomes this time advantage of the image data. Thereby, the control data from the image processing system UUT better matches the current state M (t) of the surrounding model MOD, whereby the accuracy of the simulation results is better compared to similar testers known from the prior art Be improved.

Claims (15)

画像処理システム(UUT)のための試験機であって、
前記試験機内に第1の演算ユニット(CPU)が配置されており、
前記第1の演算ユニット(CPU)は、周囲モデル(MOD)に関するシミュレーションソフトウェアによってプログラミングされており、
前記シミュレーションソフトウェアは、第1の位置x(t)および第1の速度ベクトルv(t)を計算し、前記第1の位置x(t)および前記第1の速度ベクトルv(t)を、前記周囲モデル(MOD)における第1の仮想的なオブジェクト(VEH1)に対応付けるように構成されており、
前記試験機内に第2の演算ユニット(GPU)が配置されており、
前記第2の演算ユニット(GPU)は、前記周囲モデルにおける前記第1の仮想的なオブジェクト(VEH1)の位置を周期的に読み込み、少なくとも読み込まれた前記位置に基づいて、前記周囲モデル(MOD)の2次元の第1の投影図を表す第1の画像データを計算するように構成されており、
前記試験機内にアダプタモジュール(AD)が配置されており、
前記アダプタモジュール(AD)は、前記第1の画像データを読み込み、前記画像処理システム(UUT)の第1のイメージングセンサのエミュレーションによって前記第1の画像データを処理し、処理された前記第1の画像データを前記画像処理システム(UUT)に供給するように構成されており、
前記第1の演算ユニット(CPU)は、前記処理された第1の画像データに基づいて、前記画像処理システム(UUT)によってアクチュエータのために計算された制御データを読み込み、前記制御データを考慮して、前記第1の仮想的なオブジェクト(VEH1)に新しい第1の速度ベクトルを対応付けるように構成されている、
試験機において、
前記試験機は、前記第2の演算ユニット(GPU)による前記第1の画像データの前記計算の開始から、前記アダプタモジュール(AD)による前記第1の画像データの前記処理の完了までに経過する時間間隔の長さΔtを測定するように構成されており、
前記第1の演算ユニット(CPU)は、前記時間間隔の長さΔtを読み込み、前記時間間隔の長さΔtに基づいて前記第1の画像データのレイテンシLを推定するように構成されており、
前記第1の演算ユニット(CPU)は、前記第1の位置x(t)と前記第1の速度ベクトルv(t)と推定された前記レイテンシLとを考慮して前記第1の仮想的なオブジェクトの第1の外挿位置x(t+L)を求めるように構成されており、したがって前記第1の外挿位置x(t+L)が、時点t+Lにおける前記第1の仮想的なオブジェクト(VEH1)の前記第1の位置の推定値となり、
前記第2の演算ユニット(GPU)は、前記第1の外挿位置x(t+L)を読み込み、少なくとも前記第1の外挿位置x(t+L)に基づいて前記第1の画像データを計算するように構成されている、
ことを特徴とする試験機。
A testing machine for an image processing system (UUT),
A first computing unit (CPU) is disposed in the testing machine,
The first arithmetic unit (CPU) is programmed by simulation software for an ambient model (MOD),
The simulation software calculates a first position x (t) and a first velocity vector v (t), and the first position x (t) and the first velocity vector v (t) are It is configured to correspond to the first virtual object (VEH1) in the surrounding model (MOD),
A second computing unit (GPU) is disposed in the testing machine,
The second arithmetic unit (GPU) periodically reads the position of the first virtual object (VEH1) in the surrounding model, and based on at least the read position, the surrounding model (MOD) Configured to calculate first image data representing a two-dimensional first projection of
An adapter module (AD) is disposed in the testing machine,
The adapter module (AD) reads the first image data, processes the first image data by emulation of a first imaging sensor of the image processing system (UUT), and processes the first image data. Configured to provide image data to the image processing system (UUT);
The first arithmetic unit (CPU) reads control data calculated for the actuator by the image processing system (UUT) based on the processed first image data, and takes into account the control data. Are configured to associate a new first velocity vector with the first virtual object (VEH1),
In the test machine
The tester passes from the start of the calculation of the first image data by the second arithmetic unit (GPU) to the completion of the processing of the first image data by the adapter module (AD). Configured to measure the length Δt of the time interval,
The first arithmetic unit (CPU) is configured to read the length Δt of the time interval, and estimate the latency L of the first image data based on the length Δt of the time interval,
The first operation unit (CPU) takes into consideration the first position x (t) and the latency L estimated as the first velocity vector v (t). It is arranged to determine a first extrapolated position x (t + L) of the object, so that the first extrapolated position x (t + L) is of the first virtual object (VEH1) at time t + L. It is an estimate of the first position,
The second arithmetic unit (GPU) reads the first extrapolated position x (t + L) and calculates the first image data based on at least the first extrapolated position x (t + L). Is configured to
Testing machine characterized by
前記試験機は、前記第1の位置x(t)および前記第1の速度ベクトルv(t)をハードリアルタイムで周期的に計算するように構成されている、
請求項1記載の試験機。
The tester is configured to periodically calculate the first position x (t) and the first velocity vector v (t) in hard real time.
The testing machine according to claim 1.
前記第1の仮想的なオブジェクト(VEH1)は、仮想的な輸送手段であり、
前記画像処理システム(UUT)は、輸送手段のための自動制御または支援システムである、
請求項1または2記載の試験機。
The first virtual object (VEH1) is a virtual vehicle.
The image processing system (UUT) is an automatic control or support system for vehicles.
The testing machine according to claim 1 or 2.
前記第1の投影図は、前記第1のイメージングセンサの視野を模倣したものである、
請求項1から3までのいずれか1項記載の試験機。
Said first projection mimics the field of view of said first imaging sensor,
The tester according to any one of claims 1 to 3.
前記試験機は、前記第1の画像データの前記計算の開始時における前記試験機の第1のシステム時間が記憶されているタイムスタンプを前記第1の画像データに付与するように構成されており、
前記アダプタモジュール(AD)は、前記タイムスタンプに記憶されている前記第1のシステム時間を読み出し、前記第1の画像データの前記処理を完了した後、現在のシステム時間と比較して前記時間間隔の長さΔtを求め、当該長さΔtをメモリアドレスに記憶するように構成されている、
請求項1から4までのいずれか1項記載の試験機。
The tester is configured to provide the first image data with a time stamp in which a first system time of the tester at the start of the calculation of the first image data is stored. ,
The adapter module (AD) reads the first system time stored in the timestamp and after completing the processing of the first image data, the time interval compared to the current system time To determine the length .DELTA.t and store the length .DELTA.t in a memory address,
The tester according to any one of claims 1 to 4.
前記試験機は、前記第1の画像データの前記計算の前に、前記第1の画像データのためのデジタルIDを作成し、前記デジタルIDを前記アダプタモジュールに送信し、前記デジタルIDの送信時点における前記試験機の第1のシステム時間を前記アダプタモジュール(AD)に送信するように構成されており、
前記試験機は、前記第1の画像データに前記デジタルIDを付与するように構成されており、
前記アダプタモジュール(AD)は、前記デジタルIDに基づいて前記第1の画像データを前記第1のシステム時間に対応付け、前記第1の画像データの前記処理を完了した後、前記試験機の現在のシステム時間を前記第1のシステム時間と比較して前記時間間隔の長さΔtを求め、当該長さΔtをメモリアドレスに記憶するように構成されている、
請求項1から4までのいずれか1項記載の試験機。
The tester creates a digital ID for the first image data, transmits the digital ID to the adapter module, and transmits the digital ID before the calculation of the first image data. Configured to send a first system time of the tester at the adapter module (AD),
The tester is configured to assign the digital ID to the first image data,
The adapter module (AD) is associating the first image data to said first system time based on said digital ID, after completing the processing of the first image data, the current of the tester The present system time is compared with the first system time to determine a length Δt of the time interval, and the length Δt is stored in a memory address.
The tester according to any one of claims 1 to 4.
前記第1の演算ユニット(CPU)と前記第2の演算ユニット(GPU)との間にリアルタイム能力のある第1のデータコネクション(BS)が形成されており、
前記第2の演算ユニット(GPU)と前記アダプタモジュール(AD)との間にリアルタイム能力のある第2のデータコネクション(HDMI)が形成されており、
前記アダプタモジュール(AD)と前記第1の演算ユニットとの間にリアルタイム能力のある第3のデータコネクション(ETH)が形成されている、
請求項1から6までのいずれか1項記載の試験機。
A first data connection (BS) having real time capability is formed between the first operation unit (CPU) and the second operation unit (GPU),
A second data connection (HDMI) having real time capability is formed between the second operation unit (GPU) and the adapter module (AD),
A real-time third data connection (ETH) is formed between the adapter module ( AD) and the first arithmetic unit.
The tester according to any one of claims 1 to 6.
前記第1のデータコネクションは、前記試験機のバス(BS)によって提供されている、
請求項7記載の試験機。
The first data connection is provided by a bus (BS) of the tester,
The testing machine according to claim 7.
前記第2の演算ユニット(GPU)は、
前記第1の画像データの前記計算と並行して、または前記第1の画像データの前記計算後に、少なくとも、前記画像処理システム(UUT)の第2のイメージングセンサのための前記周囲モデルの2次元の第2の投影図を表す第2の画像データを計算し、少なくとも前記第1の画像データおよび前記第2の画像データを含むデータパケットを作成するように構成されており、
前記アダプタモジュール(AD)は、前記データパケットを読み込み、前記画像処理システム(UUT)の前記第2のイメージングセンサのエミュレーションによって前記第2の画像データを処理し、処理された前記第2の画像データを前記画像処理システム(UUT)に供給するように構成されている、
請求項1から8までのいずれか1項記載の試験機。
The second operation unit (GPU)
In parallel with the calculation of the first image data, or after the calculation of the first image data, at least two-dimensional of the surrounding model for a second imaging sensor of the image processing system (UUT) Calculating a second image data representing a second projection of the image, and creating a data packet including at least the first image data and the second image data,
The adapter module (AD) reads the data packet and processes the second image data by emulation of the second imaging sensor of the image processing system (UUT), the processed second image data Are configured to supply the image processing system (UUT),
A test machine according to any one of the preceding claims.
前記試験機は、前記時間間隔の長さΔtを周期的に求めるように構成されており、
前記第1の演算ユニット(CPU)は、前記時間間隔の長さΔtを周期的に読み込むように構成されている、
請求項1から9までのいずれか1項記載の試験機。
The tester is configured to periodically determine the length Δt of the time interval,
The first arithmetic unit (CPU) is configured to periodically read the length Δt of the time interval,
The tester according to any one of claims 1 to 9.
前記第1の演算ユニット(CPU)は、L=Δtに周期的に設定することによって、前記推定されたレイテンシLを前記時間間隔の長さΔtに動的に適合させるように構成されている、
請求項10記載の試験機。
The first arithmetic unit (CPU) is configured to dynamically adapt the estimated latency L to the length of the time interval Δt by periodically setting L = Δt.
The testing machine according to claim 10.
前記第1の演算ユニット(CPU)は、過去に測定された複数のΔtの値から前記レイテンシLの値を計算することによって、前記推定されたレイテンシLを動的に適合させるように構成されている、
請求項10記載の試験機。
Said first arithmetic unit (CPU), by from a value of a plurality of Δt which is previously measured to calculate the value of the latency L, it is configured to dynamically adapt the pre Symbol estimated latency L ing,
The testing machine according to claim 10.
前記第2の演算ユニット(GPU)は、少なくとも2つのそれぞれ異なるイメージングセンサのための第1の画像データを選択的に計算するように構成されている
請求項1から12までのいずれか1項記載の試験機。
The second arithmetic unit (GPU) is configured to selectively calculate the first image data for the different imaging sensors at least two respective,
The tester according to any one of claims 1 to 12.
前記シミュレーションソフトウェアは、第2の位置x’(t)および第2の速度ベクトルv’(t)を計算し、前記第2の位置x’(t)および前記第2の速度ベクトルv’(t)を、前記周囲モデルにおける第2の仮想的なオブジェクト(VEH2)に対応付けるように構成されており、
前記第1の演算ユニットは、前記第2の位置x’(t)と前記第2の速度ベクトルv’(t)と推定された前記レイテンシLとを考慮して、前記第2の仮想的なオブジェクト(VEH2)の第2の外挿位置x’(t+L)を求めるように構成されており、
前記第2の演算ユニット(GPU)は、前記第2の外挿位置x’(t+L)を読み込み、少なくとも前記第1の外挿位置x(t+L)および前記第2の外挿位置x’(t+L)に基づいて前記第1の画像データを計算するように構成されている、
請求項1から13までのいずれか1項記載の試験機。
The simulation software calculates a second position x ′ (t) and a second velocity vector v ′ (t), and the second position x ′ (t) and the second velocity vector v ′ (t) ) Is configured to correspond to the second virtual object (VEH2) in the surrounding model,
The first calculation unit considers the second position x ′ (t), the second velocity vector v ′ (t), and the latency L estimated to be the second virtual unit. Configured to determine a second extrapolated position x ′ (t + L) of the object (VEH2),
The second arithmetic unit (GPU) reads the second extrapolation position x ′ (t + L), and at least the first extrapolation position x (t + L) and the second extrapolation position x ′ (t + L) Configured to calculate the first image data based on
The tester according to any one of claims 1 to 13.
求項1から14までのいずれか1項記載の試験機を用いて、画像処理システム(UUT)を試験するための方法であって、
試験機の第1の演算ユニット(CPU)を、周囲モデルに関するシミュレーションソフトウェアによってプログラミングし、前記シミュレーションソフトウェアによって第1の位置x(t)および第1の速度ベクトルv(t)をハードリアルタイムで周期的に計算し、前記周囲モデルにおける第1の仮想的なオブジェクト(VEH1)に対応付け、
前記試験機の第2の演算ユニット(GPU)によって、前記周囲モデルにおける前記第1の仮想的なオブジェクト(VEH1)の位置を周期的に読み込み、前記第2の演算ユニット(GPU)によって、読み込まれた前記第1の位置x(t)に基づいて、前記周囲モデルの2次元の第1の投影図を表す第1の画像データを計算し、
アダプタモジュール(AD)によって、前記第1の画像データを読み込み、前記画像処理システム(UUT)の第1のイメージングセンサのエミュレーションによって処理し、
前記アダプタモジュール(AD)によって、処理された前記画像データを前記画像処理システム(UUT)に供給し、
前記第1の演算ユニット(CPU)によって、前記処理された第1の画像データに基づいて、前記画像処理システム(UUT)によってアクチュエータのために計算された制御データを読み込み、前記制御データを考慮して、前記第1の仮想的なオブジェクト(VEH1)に新しい第1の速度ベクトルを対応付ける、
方法において、
前記第2の演算ユニット(GPU)による前記第1の画像データの前記計算の開始から、前記アダプタモジュール(AD)による前記第1の画像データの前記処理の完了までに経過する時間間隔の長さΔtを測定し、
前記時間間隔の長さΔtに基づいて前記第1の画像データのレイテンシLを推定し、
前記第1の位置x(t)と前記第1の速度ベクトルv(t)と推定された前記レイテンシLとを考慮して、第1の外挿位置x(t+L)を求め、したがって前記第1の外挿位置x(t+L)が、時点t+Lにおける前記第1の仮想的なオブジェクト(VEH)の前記第1の位置の推定値となり、
前記第2の演算ユニット(GPU)によって、前記第1の外挿位置x(t+L)に基づいて前記第1の画像データを計算する、
ことを特徴とする方法。
Using a test machine according to any one of the Motomeko 1 to 14, a method for testing an image processing system (UUT),
The first arithmetic unit (CPU) of the test machine is programmed by simulation software for the ambient model and the simulation software cyclically generates the first position x (t) and the first velocity vector v (t) in hard real time. Calculated and associated with the first virtual object (VEH1) in the surrounding model,
The position of the first virtual object (VEH1) in the surrounding model is periodically read by the second operation unit (GPU) of the test machine, and is read by the second operation unit (GPU). Calculating first image data representing a two-dimensional first projection of the surrounding model based on the first position x (t);
Reading said first image data by an adapter module (AD) and processing by emulation of a first imaging sensor of said image processing system (UUT),
Supplying the image data processed by the adapter module (AD) to the image processing system (UUT);
The control data calculated for the actuator by the image processing system (UUT) is read by the first arithmetic unit (CPU) based on the processed first image data, and the control data is taken into account. To associate a new first velocity vector with the first virtual object (VEH1),
In the method
A length of time interval elapsed from the start of the calculation of the first image data by the second arithmetic unit (GPU) to the completion of the processing of the first image data by the adapter module (AD) Measure Δt,
The latency L of the first image data is estimated based on the length Δt of the time interval,
Taking into account the first position x (t) and the first velocity vector v (t) and the estimated latency L, a first extrapolated position x (t + L) is determined. Of the first virtual object (VEH 1 ) at time t + L, the extrapolated position x (t + L) of the first virtual object at time t + L,
Calculating the first image data by the second operation unit (GPU) based on the first extrapolated position x (t + L);
A method characterized by
JP2017223886A 2017-11-21 2017-11-21 Low Latency Testing Machine for Image Processing Systems Active JP6548708B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223886A JP6548708B2 (en) 2017-11-21 2017-11-21 Low Latency Testing Machine for Image Processing Systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223886A JP6548708B2 (en) 2017-11-21 2017-11-21 Low Latency Testing Machine for Image Processing Systems

Publications (2)

Publication Number Publication Date
JP2019096000A JP2019096000A (en) 2019-06-20
JP6548708B2 true JP6548708B2 (en) 2019-07-24

Family

ID=66971735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223886A Active JP6548708B2 (en) 2017-11-21 2017-11-21 Low Latency Testing Machine for Image Processing Systems

Country Status (1)

Country Link
JP (1) JP6548708B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696024B (en) * 2020-06-02 2023-04-25 武汉华景康光电科技有限公司 Infrared image mirroring method and device based on FPGA

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080096667A1 (en) * 2004-11-26 2008-04-24 Takuji Konuma Information Processing Device, Data Processing Method, Program and Recording Medium
JP5064363B2 (en) * 2008-12-08 2012-10-31 日立交通テクノロジー株式会社 CG display control system and method for driving simulator

Also Published As

Publication number Publication date
JP2019096000A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
CN108345290B (en) Method for testing at least one control device function of at least one control device
CN115016323A (en) Automatic driving simulation test system and method
JP2022511333A (en) Methods and systems for modifying control units of autonomous vehicles
US20210081585A1 (en) Method for event-based simulation of a system
KR102139172B1 (en) Autonomous vehicle simulation method in virtual environment
CN113219955A (en) Multi-driver in-the-loop driving test platform
CN113009900A (en) Hardware-in-loop simulation system of ADAS controller
JP2008090489A (en) Simulation system
WO2020220248A1 (en) Autonomous driving vehicle simulation test method and system, storage medium, and vehicle
US11636684B2 (en) Behavior model of an environment sensor
EP3800518A1 (en) System, device and method for testing autonomous vehicles
CN114442507A (en) Vehicle in-loop automatic driving simulation test method and system based on frequency control
JP6548708B2 (en) Low Latency Testing Machine for Image Processing Systems
US20190152486A1 (en) Low-latency test bed for an image- processing system
Schwab et al. Consistent test method for assistance systems
Pfeffer et al. Video injection methods in a real-world vehicle for increasing test efficiency
Bach et al. Control based driving assistant functions’ test using recorded in field data
CN117009159A (en) Automatic driving test device, method and storage medium
DE102016119538A1 (en) Low-latency test stand for an image processing system
JP2010026845A (en) Evaluation system of electronic unit for in-vehicle camera
CN111175055B (en) Automatic driving distributed collaborative simulation method and device and terminal
Nentwig et al. Hardware-in-the-loop testing of advanced driver assistance systems
CN109932926A (en) The testing stand for image processing system of low delay
CN201716594U (en) Real-time simulation equipment used for vehicles
US20230278589A1 (en) Autonomous driving sensor simulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R150 Certificate of patent or registration of utility model

Ref document number: 6548708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250