JP7117376B2 - Electronic control unit evaluation device - Google Patents
Electronic control unit evaluation device Download PDFInfo
- Publication number
- JP7117376B2 JP7117376B2 JP2020525355A JP2020525355A JP7117376B2 JP 7117376 B2 JP7117376 B2 JP 7117376B2 JP 2020525355 A JP2020525355 A JP 2020525355A JP 2020525355 A JP2020525355 A JP 2020525355A JP 7117376 B2 JP7117376 B2 JP 7117376B2
- Authority
- JP
- Japan
- Prior art keywords
- control unit
- electronic control
- virtual
- viewpoint
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、電子制御ユニットの評価装置に関する。 The present invention relates to an evaluation device for electronic control units.
近年、安全かつ快適な車社会の実現のために、運転支援システムや自動運転システムの研究が盛んである。今後、自動運転レベルが向上する程、高速道路での合流や交差点での右左折など、周辺環境を含めた複雑な制御ロジックの開発が必要になってくる。車両要素の検証評価に関しても、自動運転レベルが向上する程、制御ロジックが複雑になるため、膨大なテストケースが必要になると予想されている。 In recent years, in order to realize a safe and comfortable automobile society, research on driving support systems and automatic driving systems has been active. In the future, as the level of automated driving improves, it will be necessary to develop complex control logic that includes the surrounding environment, such as merging on expressways and turning left or right at intersections. Regarding the verification evaluation of vehicle elements, it is expected that a huge number of test cases will be required because the control logic will become more complicated as the level of automated driving improves.
現状の検証評価は、実際の車両(実車という)を対象の中心としている。しかし、今後、テスト工数がさらに膨大になり、実車を使ったテストだけでは検証評価が困難であるため、HILS(Hardware In the Loop Simulator)のようなシミュレーションを活用する評価方法が、一般的になってきている。 The current verification evaluation is centered on actual vehicles (referred to as actual vehicles). However, in the future, the number of man-hours required for testing will become even more enormous, and it will be difficult to perform verification evaluations only with tests using actual vehicles. Therefore, evaluation methods that utilize simulations such as HILS (Hardware In the Loop Simulator) will become commonplace. is coming.
HILSとは、評価対象となる制御対象は実物を用い、それ以外の車両要素はモデル化し、これらを組み合わせて、評価装置を構築することによって、実際の制御システムを計算機上に構築された仮想環境において評価するツールである。HILSについては、例えば、特許文献1に開示された技術が知られている。
HILS is a virtual environment in which an actual control system is constructed on a computer by constructing an evaluation device by combining real objects for control objects to be evaluated, modeling other vehicle elements, and constructing evaluation equipment. It is a tool to evaluate in As for HILS, for example, the technique disclosed in
ここで、各種センサ情報に基づいて各種値を算出する車両要素を制御対象とするHILSを構築する際には、制御対象が要求するタイミングでセンサ情報をHILSに提供する必要がある。例えば、制御対象が車載カメラである場合、車載カメラがシャッターを切るタイミングで、車載カメラに画像を入力する必要がある。HILSでは、車載カメラに対して、実際の画像を入力することができないため、CG(Computer Graphics)で作成した仮想画像を入力する。 Here, when constructing a HILS whose controlled object is a vehicle element that calculates various values based on various sensor information, it is necessary to provide the HILS with sensor information at the timing requested by the controlled object. For example, if the object to be controlled is an in-vehicle camera, it is necessary to input an image to the in-vehicle camera at the timing when the on-vehicle camera releases the shutter. Since the HILS cannot input an actual image to the in-vehicle camera, a virtual image created by CG (Computer Graphics) is input.
特許文献1の技術では、カメラ制御ECUが出力するシャッター信号をフィードバックする機能が無い。したがって、CGを描画したタイミングで、その描画したCGをカメラ制御ECUに入力すると、カメラ制御ECUにはタイミングの遅れたCGが入力され、車載カメラが正しい認識や制御をすることができない問題がある。
The technique of
本発明は、上記事情に鑑みてなされたものであり、その目的は、電子制御ユニットの動作を適切にテストすることができる技術を提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technology capable of appropriately testing the operation of an electronic control unit.
上記課題を解決すべく、本発明に従う電子制御ユニットの評価装置は、計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする評価装置であって、前記仮想車両の挙動情報を算出する車両挙動シミュレータと、前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想車両の挙動情報とに基づいて、前記仮想カメラの視点情報を算出するカメラ視点特定機能と、前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想カメラの視点情報とに基づいて、前記仮想カメラを視点とした前記CGを生成するCG生成機能と、前記生成されたCGを前記電子制御ユニットに入力可能な形式に変換するCG変更機能と、を備える。 In order to solve the above-described problems, an evaluation apparatus for an electronic control unit according to the present invention provides computer graphics (CG) from a viewpoint of a virtual camera mounted on a virtual vehicle running on a virtual road built on a computer. an evaluation device for testing the operation of the electronic control unit by inputting into the vehicle behavior simulator for calculating the behavior information of the virtual vehicle, the CG request signal output from the electronic control unit, and the a camera viewpoint specifying function for calculating viewpoint information of the virtual camera based on the behavior information of the virtual vehicle; a request signal of the CG output from the electronic control unit; and the viewpoint information of the virtual camera. , a CG generation function for generating the CG with the virtual camera as a viewpoint; and a CG change function for converting the generated CG into a format that can be input to the electronic control unit.
本発明によれば、電子制御ユニットの動作を適切にテストすることができる。 According to the present invention, the operation of the electronic control unit can be properly tested.
幾つかの実施例について、図面を用いて詳細に説明する。尚、以下に説明する実施例は特許請求の範囲に係る発明を限定するものではなく、また実施例の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Several embodiments will be described in detail with reference to the drawings. It should be noted that the examples described below do not limit the invention according to the claims, and that all of the elements and combinations thereof described in the examples are essential to the solution of the invention. is not limited.
図1は、ECUを制御対象とするHILSの構成図である。 FIG. 1 is a configuration diagram of a HILS that controls an ECU.
「評価装置」の一例としてのHILS(Hardware In the Loop Simulator)は、「電子制御ユニット」の一例としてのECU(Electronic Control Unit)6の動作をテストする装置である。ECU6には、計算機上に構築された仮想道路を走行する仮想車両に搭載された「仮想カメラ」の一例としてのステレオカメラを視点としたCG(Computer Graphics)が入力される。ステレオカメラは、仮想車両の前方を撮像する。 A HILS (Hardware In the Loop Simulator) as an example of an "evaluation device" is a device for testing the operation of an ECU (Electronic Control Unit) 6 as an example of an "electronic control unit". CG (Computer Graphics) is input to the ECU 6 with a stereo camera as an example of a "virtual camera" mounted on a virtual vehicle running on a virtual road constructed on a computer. A stereo camera images the front of the virtual vehicle.
HILSは、車両挙動シミュレータ1と、カメラ視点特定機能2と、左CG生成機能3と、右CG生成機能4と、CG変換機能5と、を備える。
HILS includes a
ECU6には、CG変換機能5から後述するカメラ出力データフォーマットS6が入力され、車両挙動シミュレータ1から車速などの車両情報S11が入力される。ECU6は、アクセル信号S8と、ブレーキ信号S9と、ハンドル操作信号S10との要求を、車両挙動シミュレータ1に出力する。さらに、ECU6は、計算機上に構築された仮想道路を走行する仮想車両に搭載されたステレオカメラを視点としたCGを要求する「要求信号」の一例であるシャッター信号S7を、カメラ視点特定機能2と、左CG生成機能3と、右CG生成機能4と、にそれぞれ出力する。
A camera output data format S6, which will be described later, is input to the
車両挙動シミュレータ1は、計算機上に構築された仮想道路を走行する仮想車両の挙動情報を1ms周期間隔で算出する。仮想車両の挙動情報は、仮想空間(シミュレーション空間)内の仮想車両の座標および姿勢S1を含んでよい。これにより、走行状態に応じた仮想車両の位置および向きを適切に把握することができる。
The
車両挙動シミュレータ1は、仮想車両の挙動計算時に、ドライバーが操作する情報の他に、ECU6から入力されるアクセル信号S8と、ブレーキ信号S9と、ハンドル操作信号S10とに応じた計算もする。車両挙動シミュレータ1は、計算した仮想車両の座標および姿勢S1を、カメラ視点特定機能2に送信する。さらに、車両挙動シミュレータ1は、車速などの車両情報S11を、ECU6に送信する。
When calculating the behavior of the virtual vehicle, the
カメラ視点特定機能2には、車両挙動シミュレータ1から仮想車両の座標および姿勢S1が入力され、ECU6から「要求信号」の一例としてのシャッター信号S7が入力される。カメラ視点特定機能2は、仮想車両の座標および姿勢S1と、シャッター信号S7とに基づいて、ECU6がCGを要求するタイミングの左右の仮想カメラの視点情報を算出する。左右の仮想カメラの視点情報は、仮想車両に対する仮想カメラの取付角度と、姿勢とを含んでよい。これより、仮想車両の走行状態だけでなく、仮想カメラの向きを適切に把握することができる。
The camera viewpoint specifying function 2 receives the coordinates and attitude S1 of the virtual vehicle from the
具体的には、カメラ視点特定機能2は、仮想車両の座標および姿勢S1に基づいて、シャッター信号S7の受信時の仮想車両の座標および姿勢S1を特定する。そして、カメラ視点特定機能2は、特定した仮想車両の座標および姿勢S1に基づいて、左の視点座標および姿勢S2と、右の視点座標および姿勢S3とをそれぞれ算出する。 Specifically, the camera viewpoint specifying function 2 specifies the coordinates and the attitude S1 of the virtual vehicle when the shutter signal S7 is received, based on the coordinates and the attitude S1 of the virtual vehicle. Then, the camera viewpoint specifying function 2 calculates left viewpoint coordinates and posture S2 and right viewpoint coordinates and posture S3 based on the specified coordinates and posture S1 of the virtual vehicle.
左CG生成機能3には、カメラ視点特定機能2から左の視点座標および姿勢S2が入力され、ECU6からシャッター信号S7が入力される。左CG生成機能3は、左の視点座標および姿勢S2と、シャッター信号S7とに基づいて、ECU6が要求するタイミングで、シャッター信号S7の受信時の左CGS4を生成する。左CG生成機能3は、生成した左CGS4を、CG変換機能5に出力する。
The left
右CG生成機能4には、カメラ視点特定機能2から右の視点座標および姿勢S3が入力され、ECU6からシャッター信号S7が入力される。右CG生成機能4は、右の視点座標および姿勢S3と、シャッター信号S7とに基づいて、ECU6が要求するタイミングで、シャッター信号S7の受信時の右CGS5を生成する。右CG生成機能4は、生成した右CGS5を、CG変換機能5に出力する。
The right CG generation function 4 receives the coordinates of the right viewpoint and the orientation S3 from the camera viewpoint specifying function 2 and receives the shutter signal S7 from the
CG変換機能5には、左CG生成機能3から左CGS4が入力され、右CG生成機能4から右CGS5が入力される。CG変換機能5は、左CGS4と、右CGS5とを、ECU6が受信可能な形式であるカメラ出力データフォーマットS6にそれぞれ変換する。
The
図2は、カメラ視点特定機能の構成図である。 FIG. 2 is a configuration diagram of the camera viewpoint specifying function.
カメラ視点特定機能2は、挙動特定部201と、左視点算出部202と、右視点算出部203とを備える。
The camera viewpoint identification function 2 includes a
挙動特定部201は、1ms間隔で更新される仮想車両の座標および姿勢S1の内、シャッター信号S7に基づいて、ステレオカメラの視点計算に使用する仮想車両の座標および姿勢S1を特定する。特定された仮想車両の座標および姿勢S1に基づいて、左視点算出部202は、左の視点座標および視点S2を算出する。同様に、特定された仮想車両の座標および姿勢S1に基づいて、右視点算出部203は、右の視点座標および視点S3を算出する。
The
図3は、カメラ視点特定機能の概念図である。図4は、カメラ視点特定機能のフローチャートである。 FIG. 3 is a conceptual diagram of the camera viewpoint specifying function. FIG. 4 is a flowchart of the camera viewpoint specifying function.
仮想車両の車内には、図3に示すように、ステレオカメラが搭載されている。ステレオカメラは、例えば、左右の仮想カメラが左右横並びで、仮想車両の車内のルームミラーの前方に取り付けられてよい。 A stereo camera is mounted inside the virtual vehicle, as shown in FIG. The stereo camera may be installed in front of the room mirror inside the virtual vehicle, with the left and right virtual cameras lined up side by side, for example.
車両シミュレータ1は、1ms間隔で仮想車両の挙動計算Tn-1、Tn、Tn+1をし(S402,S403,S404)、その計算結果を挙動特定部201に出力する。ここで、車両シミュレータ1が、仮想車両の座標および姿勢S1を左右のステレオカメラ毎に独立して計算して、その計算結果を挙動特定部201に入力すると、左視点で使用する座標と、右視点で使用する座標とが異なる可能性がある。特に、ステレオカメラを使用する場合、対象物までの距離算出に2つのカメラの視差が用いられるため、左右の仮想カメラを視点としたCGの描画(シャッター)タイミングが異なる視点情報ではシミュレータとして成立しない。
The
そこで、左右の仮想カメラの座標および姿勢S2,S3を特定する信号として、ECU6から出力されるシャッター信号S7を用いる。シャッター信号S7が入力されるまで、挙動特定部201は、仮想車両の座標および姿勢S1を、データTn-1として保持し(S405)、新たな仮想車両の座標および姿勢S1が計算された場合、データTn、Tn+1・・・として更新する(S406,S408)。ECU6からCGの同期タイミングであるシャッター信号S7が出力された場合(S401)、挙動特定部201は、保持しているデータTnを取得し(S407)、取得したデータTnを左視点計算部202と、右視点計算部203とに送信する。これにより、仮想車両の座標および姿勢S1を特定することによって、左視点算出部202と、右視点算出部203とは、左の視点座標および視点S2と、右の視点座標および視点S3とを同期させることができ(S409,S410)、左右の仮想カメラを視点としたCGを同期させることができる。したがって、左右の仮想カメラが相互に異なる仮想車両の座標および姿勢S1で計算されることを防止する。
Therefore, the shutter signal S7 output from the
左視点計算部202は、挙動特定部201から仮想車両の座標および姿勢S1が入力されると、左の仮想カメラの取り付け位置と、取り付け姿勢であるヨー角、ロール角、およびピッチ角とを計算し、左の視点座標および姿勢S2を算出する。同様に、右視点計算部203は、挙動特定部201から仮想車両の座標・姿勢S1が入力されると、右の仮想カメラの取り付け位置と、取り付け姿勢であるヨー角、ロール角、およびピッチ角とを計算し、右の視点座標および姿勢S3を算出する。
When the left
図5は、左CG生成機能および右CG生成機能の構成図である。 FIG. 5 is a configuration diagram of the left CG generation function and the right CG generation function.
左CG生成機能3は、左CG生成部301と、左CG送信部302と、CG環境情報7とを有している。同様に、右CG生成機能4は、右CG生成部401と、右CG送信部402と、CG環境情報7とを有している。
The left
左CG生成部301は、CG環境情報7から入力される道路情報S12などに基づいてCGによるCG空間を作成する。このCG空間内で、左CG生成部301は、左の視点座標および姿勢S2で特定された視点でのCGによる左CGS4を作成し、左CG送信部302に送信する。左CG送信部302は、左CGS4と、ECU6から出力されるシャッター信号S7とに基づいて、左CGS4の送信タイミングを調整する。
The left
右CG生成部401は、CG環境情報7から入力される道路情報S12などに基づいて計算機上のCG空間を作成する。このCG空間で、右CG生成部401は、右の視点座標および姿勢S3で特定された視点でのCGによる右CGS5を作成し、右CG送信部402に送信する。右CG送信部402は、右CGS5と、ECU6から出力されるシャッター信号S7とに基づいて、右CGS5の送信タイミングを調整する。
The right
図6は、左CG生成機能および右CG生成機能のフローチャートである。 FIG. 6 is a flow chart of the left CG generation function and the right CG generation function.
まず、左の仮想カメラについて説明する。左視点算出部202は、ECU6がシャッタータイミング(S601)毎に送信するシャッター信号S7をトリガーとして、左の視点座標および姿勢S2(S602)を計算する。左CG生成部301は、計算された左の視点座標および姿勢S2に基づいて、要求された左の視点座標および姿勢の左CGS4を作成する(S603)。左CG生成部301は、作成した左CGS4を左CG送信部302に送信する。左CG送信部302は、左CGS4を受信する(S604)。左CG送信部302は、左CGS4を受信した段階では左CGS4をCG変換機能5に出力せずに保持する。左CG送信部302は、次のシャッタータイミング(S608)のシャッター信号S7を受信したタイミングで、左CGS4をCG変換機能5に出力する(S609)。
First, the left virtual camera will be explained. The left
次に、右の仮想カメラについて説明する。右CG生成部401は、ECU6によるシャッタータイミング(S601)毎のシャッター信号S7毎に、右視点算出部203が計算した右の視点座標および姿勢S3(S605)に基づいて、右CGS5を作成する(S606)。右CG生成部401は、作成した右CGS5を右CG送信部402に送信する。
右CG送信部402は、右CGS5を受信する(S607)。右CG送信部402は、右CGS5を受信した段階ではCGによる右CGS5をCG変換機能5に出力せずに保持する。右CG送信部402は、次のシャッタータイミング(S608)のシャッター信号S7を受信したタイミングで、右CGS5をCG変換機能5に出力する(S610)。Next, the virtual camera on the right will be described. The right
The right
このように、シャッター信号S7に基づいて、左CGS4および右CGS5の出力タイミングを制御することができ、左右のCGS4,S5のCG変換機能5への送信タイミングを制御することができる。
Thus, based on the shutter signal S7, the output timing of the left CGS4 and right CGS5 can be controlled, and the transmission timing of the left and right CGS4 and S5 to the
図7は、CG変換機能の構成図である。 FIG. 7 is a configuration diagram of the CG conversion function.
CG変換機能5は、カメラフォーマット変換部501を有している。
The
カメラフォーマット変換部501は、左CG送信部302から入力される左CGS4と、右CG送信部402から入力される右CGS5とをカメラ出力データフォーマットS6に変更する。
The camera
図8は、ECUの構成図である。 FIG. 8 is a configuration diagram of an ECU.
ECU6は、画像認識部601と、車両制御部602とを有している。
The
画像認識部601は、カメラ出力データフォーマットS6に基づいて、左CGS4および右CGS5を処理し、対象物の距離および速度などの認識結果S13を出力する。車両制御部602は、認識結果S13と、制御情報S11とに基づいて、車両制御のための制御フィードバック情報であるアクセル信号S9、ブレーキ信号S9、およびハンドル操作信号S10などの情報を車両挙動シミュレータ1に出力する。
The
この構成によれば、車両挙動シミュレータ1と、カメラ視点特定機能2と、左CG生成機能3および右CG生成機能4と、CG変換機能5とを備えている。車両挙動シミュレータ1は、仮想車両の挙動情報を算出する。カメラ視点特定機能2は、ECU6から出力されるCGの要求信号と、仮想車両の挙動情報とに基づいて、仮想カメラの視点情報を算出する。左CG生成機能3および右CG生成機能4は、ECU6から出力されるCGの要求信号と、仮想カメラの視点情報とに基づいて、左CGおよび右CGを生成する。CG変換機能5は、生成された左CGおよび右CGをECU6に入力可能な形式に変換する。これにより、ECU6が要求したタイミングで、且つ左右の時刻ずれが無い左CGおよび右CGをECU6に入力することによって、左右の仮想カメラ同士で視差を生じることができ、ECU6の動作を適切にテストすることができる。
This configuration includes a
本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。 The present invention is not limited to the above-described embodiments, and includes various modifications.
例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
例えば、上記した実施例のHILSは、ステレオカメラを仮想カメラの視点とした。これに限らず、HILSは、1つの車載カメラを仮想カメラの視点としてもよい。この場合、左CG生成機能3および左CG、または右CG生成機能4および右CGは、左CG生成機能3および左CGと、右CG生成機能4および右CGとの内の何れかでよい。これにより、単眼の車載カメラを視点としたCGが入力されても、ECUの動作を適切にテストすることができる。
For example, in the HILS of the above-described embodiment, the stereo camera is used as the viewpoint of the virtual camera. The HILS is not limited to this, and may use one vehicle-mounted camera as the viewpoint of the virtual camera. In this case, the left
さらに、例えば、HILSは、車両の前方を撮像するステレオカメラと、他のカメラそれぞれのECU6を制御対象としてもよい。これにより、各車載カメラを視点としたCGが入力されても、ECUの動作を適切にテストすることができる。この場合、ステレオカメラと、他のカメラとがそれぞれ撮像するCGは、ECU6に同期して入力されてよい。
他のカメラは、車両の周囲を撮像可能な周囲カメラであってよい。Furthermore, for example, the HILS may control a stereo camera that captures an image of the front of the vehicle and the
Another camera may be a surrounding camera capable of imaging the surroundings of the vehicle.
1:車両挙動シミュレータ、2:カメラ視点特定機能、3:左CG生成機能、4:右CG生成機能、5:CG変換機能、6:ECU、S1:車両の座標および姿勢、S2:左視点座標および姿勢、S3:右視点座標および姿勢、S4:左CG、S5:右CG、S7:シャッター信号 1: vehicle behavior simulator, 2: camera viewpoint specifying function, 3: left CG generation function, 4: right CG generation function, 5: CG conversion function, 6: ECU, S1: vehicle coordinates and attitude, S2: left viewpoint coordinates and attitude, S3: right viewpoint coordinates and attitude, S4: left CG, S5: right CG, S7: shutter signal
Claims (9)
前記仮想車両の挙動情報を算出する車両挙動シミュレータと、
前記算出された挙動情報の内、前記電子制御ユニットから出力される前記CGの要求信号に基づいて、前記CGの生成に用いる前記挙動情報を特定する挙動特定部と、
前記特定された仮想車両の挙動情報に基づいて、前記仮想カメラの視点情報を算出する視点算出部と、
前記仮想カメラの視点情報に基づいて、前記仮想カメラを視点とした前記CGを生成するCG生成部と、
前記電子制御ユニットから出力される前記CGの要求信号に応じて、前記生成されたCGを送信するCG送信部と、
前記CG送信部から送信された前記CGを前記電子制御ユニットに入力可能な形式に変換するCG変換部と、を備える、電子制御ユニットの評価装置。 An electronic control unit that tests the operation of the electronic control unit by inputting CG (computer graphics) from a viewpoint of a virtual camera mounted on a virtual vehicle running on a virtual road built on a computer into the electronic control unit. An evaluation device,
a vehicle behavior simulator that calculates behavior information of the virtual vehicle;
a behavior identifying unit that identifies the behavior information used for generating the CG based on the CG request signal output from the electronic control unit , among the calculated behavior information ;
a viewpoint calculation unit that calculates viewpoint information of the virtual camera based on the identified behavior information of the virtual vehicle ;
a CG generation unit that generates the CG with the virtual camera as a viewpoint based on the viewpoint information of the virtual camera;
a CG transmission unit that transmits the generated CG in response to the CG request signal output from the electronic control unit;
and a CG conversion section for converting the CG transmitted from the CG transmission section into a format that can be input to the electronic control unit.
前記仮想車両には、複数の前記仮想カメラが搭載され、
前記視点算出部は、各仮想カメラの視点情報を算出し、
各CG生成部は、前記各仮想カメラの視点情報に基づいて、前記各仮想カメラを視点としたCGをそれぞれ生成し、
各CG送信部は、前記電子制御ユニットから出力される前記CGの要求信号に応じて、それぞれ生成されたCGを送信する、請求項1に記載の電子制御ユニットの評価装置。 comprising a plurality of the CG generation units and the CG transmission units ;
The virtual vehicle is equipped with a plurality of the virtual cameras,
The viewpoint calculation unit calculates viewpoint information of each virtual camera,
Each CG generation unit generates CG with each virtual camera as a viewpoint based on the viewpoint information of each virtual camera ,
2. The electronic control unit evaluation apparatus according to claim 1 , wherein each CG transmission section transmits the generated CG in response to the CG request signal output from the electronic control unit.
前記仮想車両の挙動情報を算出し、
前記算出された挙動情報の内、前記電子制御ユニットから出力される前記CGの要求信号に基づいて、前記CGの生成に用いる前記挙動情報を特定し、
前記特定された仮想車両の挙動情報に基づいて、前記仮想カメラの視点情報を算出し、
前記仮想カメラの視点情報に基づいて、前記仮想カメラを視点とした前記CGを生成し、
前記電子制御ユニットから出力される前記CGの要求信号に応じて、前記生成されたCGを送信し、
前記送信されたCGを前記電子制御ユニットに入力可能な形式に変換する、電子制御ユニットの評価方法。 An electronic control unit that tests the operation of the electronic control unit by inputting CG (computer graphics) from a viewpoint of a virtual camera mounted on a virtual vehicle running on a virtual road built on a computer into the electronic control unit. An evaluation method,
calculating behavior information of the virtual vehicle;
identifying the behavior information to be used for generating the CG based on the CG request signal output from the electronic control unit , among the calculated behavior information;
calculating viewpoint information of the virtual camera based on the identified behavior information of the virtual vehicle;
generating the CG with the virtual camera as a viewpoint based on the viewpoint information of the virtual camera;
transmitting the generated CG in response to the CG request signal output from the electronic control unit;
An evaluation method for an electronic control unit, wherein the transmitted CG is converted into a format that can be input to the electronic control unit.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118438 | 2018-06-22 | ||
JP2018118438 | 2018-06-22 | ||
PCT/JP2019/019218 WO2019244516A1 (en) | 2018-06-22 | 2019-05-15 | Evaluation device for electronic control unit |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019244516A1 JPWO2019244516A1 (en) | 2021-05-20 |
JP7117376B2 true JP7117376B2 (en) | 2022-08-12 |
Family
ID=68982807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020525355A Active JP7117376B2 (en) | 2018-06-22 | 2019-05-15 | Electronic control unit evaluation device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7117376B2 (en) |
DE (1) | DE112019001958T5 (en) |
WO (1) | WO2019244516A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7355717B2 (en) | 2020-07-30 | 2023-10-03 | トヨタテクニカルディベロップメント株式会社 | Video conversion system, video conversion method, and video conversion program |
DE112022001994T5 (en) * | 2021-06-07 | 2024-01-18 | Hitachi Astemo, Ltd. | DEVICE AND METHOD FOR EVALUATION OF AN ELECTRONIC CONTROL UNIT |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018060511A (en) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | Simulation system, simulation program, and simulation method |
-
2019
- 2019-05-15 JP JP2020525355A patent/JP7117376B2/en active Active
- 2019-05-15 DE DE112019001958.9T patent/DE112019001958T5/en active Pending
- 2019-05-15 WO PCT/JP2019/019218 patent/WO2019244516A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018060511A (en) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | Simulation system, simulation program, and simulation method |
Also Published As
Publication number | Publication date |
---|---|
WO2019244516A1 (en) | 2019-12-26 |
DE112019001958T5 (en) | 2021-04-15 |
JPWO2019244516A1 (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109690623B (en) | System and method for recognizing pose of camera in scene | |
US20190164310A1 (en) | Camera registration in a multi-camera system | |
JP7117376B2 (en) | Electronic control unit evaluation device | |
CN113848855B (en) | Vehicle control system test method, device, equipment, medium and program product | |
CN112543876B (en) | System for sensor synchronicity data analysis in an autonomous vehicle | |
WO2019073920A1 (en) | Information processing device, moving device and method, and program | |
US20200158856A1 (en) | Apparatus, method and computer program for computer vision | |
Gruyer et al. | Development of full speed range ACC with SiVIC, a virtual platform for ADAS prototyping, test and evaluation | |
CN110936959B (en) | On-line diagnosis and prediction of vehicle perception system | |
KR20200062193A (en) | Information processing device, mobile device, information processing method, mobile device control method, and program | |
Ilic et al. | Development of sensor fusion based ADAS modules in virtual environments | |
CN111459121A (en) | Vehicle driving assistance test system and method | |
CN111201420A (en) | Information processing device, self-position estimation method, program, and moving object | |
WO2019012004A1 (en) | Method for determining a spatial uncertainty in images of an environmental area of a motor vehicle, driver assistance system as well as motor vehicle | |
CN113085868A (en) | Method, device and storage medium for operating an automated vehicle | |
Walling | The Design of an Autonomous Vehicle Research Platform | |
JP2010026845A (en) | Evaluation system of electronic unit for in-vehicle camera | |
US11851052B2 (en) | Vehicle path verification | |
US11710254B2 (en) | Neural network object detection | |
CN113646769A (en) | System and method for image normalization | |
CN116601612A (en) | Method and system for testing a controller of a vehicle | |
US11587258B1 (en) | Focal length validation using three-dimensional pose estimates | |
US20220119013A1 (en) | Surrounding space data providing system for control apparatus for vehicle | |
US20230360331A1 (en) | Multi-plane augmented reality image generation | |
WO2022034815A1 (en) | Vehicle surroundings recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7117376 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |