JP7117376B2 - Electronic control unit evaluation device - Google Patents

Electronic control unit evaluation device Download PDF

Info

Publication number
JP7117376B2
JP7117376B2 JP2020525355A JP2020525355A JP7117376B2 JP 7117376 B2 JP7117376 B2 JP 7117376B2 JP 2020525355 A JP2020525355 A JP 2020525355A JP 2020525355 A JP2020525355 A JP 2020525355A JP 7117376 B2 JP7117376 B2 JP 7117376B2
Authority
JP
Japan
Prior art keywords
control unit
electronic control
virtual
viewpoint
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525355A
Other languages
Japanese (ja)
Other versions
JPWO2019244516A1 (en
Inventor
隆良 千代田
道雄 森岡
啓明 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2019244516A1 publication Critical patent/JPWO2019244516A1/en
Application granted granted Critical
Publication of JP7117376B2 publication Critical patent/JP7117376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、電子制御ユニットの評価装置に関する。 The present invention relates to an evaluation device for electronic control units.

近年、安全かつ快適な車社会の実現のために、運転支援システムや自動運転システムの研究が盛んである。今後、自動運転レベルが向上する程、高速道路での合流や交差点での右左折など、周辺環境を含めた複雑な制御ロジックの開発が必要になってくる。車両要素の検証評価に関しても、自動運転レベルが向上する程、制御ロジックが複雑になるため、膨大なテストケースが必要になると予想されている。 In recent years, in order to realize a safe and comfortable automobile society, research on driving support systems and automatic driving systems has been active. In the future, as the level of automated driving improves, it will be necessary to develop complex control logic that includes the surrounding environment, such as merging on expressways and turning left or right at intersections. Regarding the verification evaluation of vehicle elements, it is expected that a huge number of test cases will be required because the control logic will become more complicated as the level of automated driving improves.

現状の検証評価は、実際の車両(実車という)を対象の中心としている。しかし、今後、テスト工数がさらに膨大になり、実車を使ったテストだけでは検証評価が困難であるため、HILS(Hardware In the Loop Simulator)のようなシミュレーションを活用する評価方法が、一般的になってきている。 The current verification evaluation is centered on actual vehicles (referred to as actual vehicles). However, in the future, the number of man-hours required for testing will become even more enormous, and it will be difficult to perform verification evaluations only with tests using actual vehicles. Therefore, evaluation methods that utilize simulations such as HILS (Hardware In the Loop Simulator) will become commonplace. is coming.

HILSとは、評価対象となる制御対象は実物を用い、それ以外の車両要素はモデル化し、これらを組み合わせて、評価装置を構築することによって、実際の制御システムを計算機上に構築された仮想環境において評価するツールである。HILSについては、例えば、特許文献1に開示された技術が知られている。 HILS is a virtual environment in which an actual control system is constructed on a computer by constructing an evaluation device by combining real objects for control objects to be evaluated, modeling other vehicle elements, and constructing evaluation equipment. It is a tool to evaluate in As for HILS, for example, the technique disclosed in Patent Document 1 is known.

特開2010-26845号公報JP 2010-26845 A

ここで、各種センサ情報に基づいて各種値を算出する車両要素を制御対象とするHILSを構築する際には、制御対象が要求するタイミングでセンサ情報をHILSに提供する必要がある。例えば、制御対象が車載カメラである場合、車載カメラがシャッターを切るタイミングで、車載カメラに画像を入力する必要がある。HILSでは、車載カメラに対して、実際の画像を入力することができないため、CG(Computer Graphics)で作成した仮想画像を入力する。 Here, when constructing a HILS whose controlled object is a vehicle element that calculates various values based on various sensor information, it is necessary to provide the HILS with sensor information at the timing requested by the controlled object. For example, if the object to be controlled is an in-vehicle camera, it is necessary to input an image to the in-vehicle camera at the timing when the on-vehicle camera releases the shutter. Since the HILS cannot input an actual image to the in-vehicle camera, a virtual image created by CG (Computer Graphics) is input.

特許文献1の技術では、カメラ制御ECUが出力するシャッター信号をフィードバックする機能が無い。したがって、CGを描画したタイミングで、その描画したCGをカメラ制御ECUに入力すると、カメラ制御ECUにはタイミングの遅れたCGが入力され、車載カメラが正しい認識や制御をすることができない問題がある。 The technique of Patent Document 1 does not have a function of feeding back the shutter signal output by the camera control ECU. Therefore, if the drawn CG is input to the camera control ECU at the timing when the CG is drawn, the CG is input to the camera control ECU with a delayed timing, and the in-vehicle camera cannot perform correct recognition and control. .

本発明は、上記事情に鑑みてなされたものであり、その目的は、電子制御ユニットの動作を適切にテストすることができる技術を提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technology capable of appropriately testing the operation of an electronic control unit.

上記課題を解決すべく、本発明に従う電子制御ユニットの評価装置は、計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする評価装置であって、前記仮想車両の挙動情報を算出する車両挙動シミュレータと、前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想車両の挙動情報とに基づいて、前記仮想カメラの視点情報を算出するカメラ視点特定機能と、前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想カメラの視点情報とに基づいて、前記仮想カメラを視点とした前記CGを生成するCG生成機能と、前記生成されたCGを前記電子制御ユニットに入力可能な形式に変換するCG変更機能と、を備える。 In order to solve the above-described problems, an evaluation apparatus for an electronic control unit according to the present invention provides computer graphics (CG) from a viewpoint of a virtual camera mounted on a virtual vehicle running on a virtual road built on a computer. an evaluation device for testing the operation of the electronic control unit by inputting into the vehicle behavior simulator for calculating the behavior information of the virtual vehicle, the CG request signal output from the electronic control unit, and the a camera viewpoint specifying function for calculating viewpoint information of the virtual camera based on the behavior information of the virtual vehicle; a request signal of the CG output from the electronic control unit; and the viewpoint information of the virtual camera. , a CG generation function for generating the CG with the virtual camera as a viewpoint; and a CG change function for converting the generated CG into a format that can be input to the electronic control unit.

本発明によれば、電子制御ユニットの動作を適切にテストすることができる。 According to the present invention, the operation of the electronic control unit can be properly tested.

ECUを制御対象とするHILSの構成図。The block diagram of HILS which controls ECU. カメラ視点特定機能の構成図。FIG. 4 is a configuration diagram of a camera viewpoint specifying function; カメラ視点特定機能の概念図。4 is a conceptual diagram of a camera viewpoint specifying function; FIG. カメラ視点特定機能のフローチャート。A flowchart of a camera viewpoint specifying function. 左CG生成機能および右CG生成機能の構成図。FIG. 4 is a configuration diagram of a left CG generation function and a right CG generation function; 左CG生成機能および右CG生成機能のフローチャート。Flowchart of left CG generation function and right CG generation function. CG変換機能の構成図。The block diagram of a CG conversion function. ECUの構成図。The block diagram of ECU.

幾つかの実施例について、図面を用いて詳細に説明する。尚、以下に説明する実施例は特許請求の範囲に係る発明を限定するものではなく、また実施例の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Several embodiments will be described in detail with reference to the drawings. It should be noted that the examples described below do not limit the invention according to the claims, and that all of the elements and combinations thereof described in the examples are essential to the solution of the invention. is not limited.

図1は、ECUを制御対象とするHILSの構成図である。 FIG. 1 is a configuration diagram of a HILS that controls an ECU.

「評価装置」の一例としてのHILS(Hardware In the Loop Simulator)は、「電子制御ユニット」の一例としてのECU(Electronic Control Unit)6の動作をテストする装置である。ECU6には、計算機上に構築された仮想道路を走行する仮想車両に搭載された「仮想カメラ」の一例としてのステレオカメラを視点としたCG(Computer Graphics)が入力される。ステレオカメラは、仮想車両の前方を撮像する。 A HILS (Hardware In the Loop Simulator) as an example of an "evaluation device" is a device for testing the operation of an ECU (Electronic Control Unit) 6 as an example of an "electronic control unit". CG (Computer Graphics) is input to the ECU 6 with a stereo camera as an example of a "virtual camera" mounted on a virtual vehicle running on a virtual road constructed on a computer. A stereo camera images the front of the virtual vehicle.

HILSは、車両挙動シミュレータ1と、カメラ視点特定機能2と、左CG生成機能3と、右CG生成機能4と、CG変換機能5と、を備える。 HILS includes a vehicle behavior simulator 1 , a camera viewpoint specifying function 2 , a left CG generation function 3 , a right CG generation function 4 and a CG conversion function 5 .

ECU6には、CG変換機能5から後述するカメラ出力データフォーマットS6が入力され、車両挙動シミュレータ1から車速などの車両情報S11が入力される。ECU6は、アクセル信号S8と、ブレーキ信号S9と、ハンドル操作信号S10との要求を、車両挙動シミュレータ1に出力する。さらに、ECU6は、計算機上に構築された仮想道路を走行する仮想車両に搭載されたステレオカメラを視点としたCGを要求する「要求信号」の一例であるシャッター信号S7を、カメラ視点特定機能2と、左CG生成機能3と、右CG生成機能4と、にそれぞれ出力する。 A camera output data format S6, which will be described later, is input to the ECU 6 from the CG conversion function 5, and vehicle information S11 such as vehicle speed is input from the vehicle behavior simulator 1. FIG. The ECU 6 outputs to the vehicle behavior simulator 1 requests for an accelerator signal S8, a brake signal S9, and a steering wheel operation signal S10. Further, the ECU 6 sends a shutter signal S7, which is an example of a "request signal" requesting CG from a stereo camera mounted on a virtual vehicle traveling on a virtual road built on a computer, to the camera viewpoint specifying function 2. , the left CG generation function 3, and the right CG generation function 4, respectively.

車両挙動シミュレータ1は、計算機上に構築された仮想道路を走行する仮想車両の挙動情報を1ms周期間隔で算出する。仮想車両の挙動情報は、仮想空間(シミュレーション空間)内の仮想車両の座標および姿勢S1を含んでよい。これにより、走行状態に応じた仮想車両の位置および向きを適切に把握することができる。 The vehicle behavior simulator 1 calculates behavior information of a virtual vehicle running on a virtual road built on a computer at 1 ms intervals. The behavior information of the virtual vehicle may include the coordinates and posture S1 of the virtual vehicle in the virtual space (simulation space). As a result, the position and orientation of the virtual vehicle can be properly grasped according to the running state.

車両挙動シミュレータ1は、仮想車両の挙動計算時に、ドライバーが操作する情報の他に、ECU6から入力されるアクセル信号S8と、ブレーキ信号S9と、ハンドル操作信号S10とに応じた計算もする。車両挙動シミュレータ1は、計算した仮想車両の座標および姿勢S1を、カメラ視点特定機能2に送信する。さらに、車両挙動シミュレータ1は、車速などの車両情報S11を、ECU6に送信する。 When calculating the behavior of the virtual vehicle, the vehicle behavior simulator 1 performs calculation according to the accelerator signal S8, the brake signal S9, and the steering wheel operation signal S10 input from the ECU 6 in addition to the information operated by the driver. The vehicle behavior simulator 1 transmits the calculated coordinates and posture S1 of the virtual vehicle to the camera viewpoint specifying function 2 . Furthermore, the vehicle behavior simulator 1 transmits vehicle information S11 such as vehicle speed to the ECU 6 .

カメラ視点特定機能2には、車両挙動シミュレータ1から仮想車両の座標および姿勢S1が入力され、ECU6から「要求信号」の一例としてのシャッター信号S7が入力される。カメラ視点特定機能2は、仮想車両の座標および姿勢S1と、シャッター信号S7とに基づいて、ECU6がCGを要求するタイミングの左右の仮想カメラの視点情報を算出する。左右の仮想カメラの視点情報は、仮想車両に対する仮想カメラの取付角度と、姿勢とを含んでよい。これより、仮想車両の走行状態だけでなく、仮想カメラの向きを適切に把握することができる。 The camera viewpoint specifying function 2 receives the coordinates and attitude S1 of the virtual vehicle from the vehicle behavior simulator 1, and receives a shutter signal S7 as an example of a "request signal" from the ECU 6. FIG. The camera viewpoint specifying function 2 calculates the viewpoint information of the left and right virtual cameras at the timing when the ECU 6 requests CG based on the coordinates and posture S1 of the virtual vehicle and the shutter signal S7. The viewpoint information of the left and right virtual cameras may include the mounting angle and attitude of the virtual camera with respect to the virtual vehicle. As a result, not only the running state of the virtual vehicle but also the direction of the virtual camera can be properly grasped.

具体的には、カメラ視点特定機能2は、仮想車両の座標および姿勢S1に基づいて、シャッター信号S7の受信時の仮想車両の座標および姿勢S1を特定する。そして、カメラ視点特定機能2は、特定した仮想車両の座標および姿勢S1に基づいて、左の視点座標および姿勢S2と、右の視点座標および姿勢S3とをそれぞれ算出する。 Specifically, the camera viewpoint specifying function 2 specifies the coordinates and the attitude S1 of the virtual vehicle when the shutter signal S7 is received, based on the coordinates and the attitude S1 of the virtual vehicle. Then, the camera viewpoint specifying function 2 calculates left viewpoint coordinates and posture S2 and right viewpoint coordinates and posture S3 based on the specified coordinates and posture S1 of the virtual vehicle.

左CG生成機能3には、カメラ視点特定機能2から左の視点座標および姿勢S2が入力され、ECU6からシャッター信号S7が入力される。左CG生成機能3は、左の視点座標および姿勢S2と、シャッター信号S7とに基づいて、ECU6が要求するタイミングで、シャッター信号S7の受信時の左CGS4を生成する。左CG生成機能3は、生成した左CGS4を、CG変換機能5に出力する。 The left CG generation function 3 receives the left viewpoint coordinates and the attitude S2 from the camera viewpoint specifying function 2 and receives the shutter signal S7 from the ECU 6 . The left CG generation function 3 generates the left CGS 4 when the shutter signal S7 is received at the timing requested by the ECU 6 based on the left viewpoint coordinates and attitude S2 and the shutter signal S7. The left CG generation function 3 outputs the generated left CGS 4 to the CG conversion function 5 .

右CG生成機能4には、カメラ視点特定機能2から右の視点座標および姿勢S3が入力され、ECU6からシャッター信号S7が入力される。右CG生成機能4は、右の視点座標および姿勢S3と、シャッター信号S7とに基づいて、ECU6が要求するタイミングで、シャッター信号S7の受信時の右CGS5を生成する。右CG生成機能4は、生成した右CGS5を、CG変換機能5に出力する。 The right CG generation function 4 receives the coordinates of the right viewpoint and the orientation S3 from the camera viewpoint specifying function 2 and receives the shutter signal S7 from the ECU 6 . The right CG generation function 4 generates the right CGS 5 upon receipt of the shutter signal S7 at the timing requested by the ECU 6, based on the right viewpoint coordinates and orientation S3 and the shutter signal S7. The right CG generation function 4 outputs the generated right CGS 5 to the CG conversion function 5 .

CG変換機能5には、左CG生成機能3から左CGS4が入力され、右CG生成機能4から右CGS5が入力される。CG変換機能5は、左CGS4と、右CGS5とを、ECU6が受信可能な形式であるカメラ出力データフォーマットS6にそれぞれ変換する。 The CG conversion function 5 receives the left CGS4 from the left CG generation function 3 and the right CGS5 from the right CG generation function 4 . The CG conversion function 5 converts the left CGS4 and the right CGS5 into a camera output data format S6, which is a format that the ECU 6 can receive.

図2は、カメラ視点特定機能の構成図である。 FIG. 2 is a configuration diagram of the camera viewpoint specifying function.

カメラ視点特定機能2は、挙動特定部201と、左視点算出部202と、右視点算出部203とを備える。 The camera viewpoint identification function 2 includes a behavior identification unit 201 , a left viewpoint calculation unit 202 and a right viewpoint calculation unit 203 .

挙動特定部201は、1ms間隔で更新される仮想車両の座標および姿勢S1の内、シャッター信号S7に基づいて、ステレオカメラの視点計算に使用する仮想車両の座標および姿勢S1を特定する。特定された仮想車両の座標および姿勢S1に基づいて、左視点算出部202は、左の視点座標および視点S2を算出する。同様に、特定された仮想車両の座標および姿勢S1に基づいて、右視点算出部203は、右の視点座標および視点S3を算出する。 The behavior specifying unit 201 specifies the coordinates and the posture S1 of the virtual vehicle used for viewpoint calculation of the stereo camera based on the shutter signal S7 among the coordinates and the posture S1 of the virtual vehicle updated at intervals of 1 ms. Based on the specified coordinates and orientation S1 of the virtual vehicle, the left viewpoint calculation unit 202 calculates the left viewpoint coordinates and the viewpoint S2. Similarly, the right viewpoint calculation unit 203 calculates right viewpoint coordinates and a viewpoint S3 based on the specified coordinates and orientation S1 of the virtual vehicle.

図3は、カメラ視点特定機能の概念図である。図4は、カメラ視点特定機能のフローチャートである。 FIG. 3 is a conceptual diagram of the camera viewpoint specifying function. FIG. 4 is a flowchart of the camera viewpoint specifying function.

仮想車両の車内には、図3に示すように、ステレオカメラが搭載されている。ステレオカメラは、例えば、左右の仮想カメラが左右横並びで、仮想車両の車内のルームミラーの前方に取り付けられてよい。 A stereo camera is mounted inside the virtual vehicle, as shown in FIG. The stereo camera may be installed in front of the room mirror inside the virtual vehicle, with the left and right virtual cameras lined up side by side, for example.

車両シミュレータ1は、1ms間隔で仮想車両の挙動計算Tn-1、Tn、Tn+1をし(S402,S403,S404)、その計算結果を挙動特定部201に出力する。ここで、車両シミュレータ1が、仮想車両の座標および姿勢S1を左右のステレオカメラ毎に独立して計算して、その計算結果を挙動特定部201に入力すると、左視点で使用する座標と、右視点で使用する座標とが異なる可能性がある。特に、ステレオカメラを使用する場合、対象物までの距離算出に2つのカメラの視差が用いられるため、左右の仮想カメラを視点としたCGの描画(シャッター)タイミングが異なる視点情報ではシミュレータとして成立しない。 The vehicle simulator 1 performs behavior calculations Tn−1, Tn, and Tn+1 of the virtual vehicle at intervals of 1 ms (S402, S403, and S404), and outputs the calculation results to the behavior identification unit 201. FIG. Here, when the vehicle simulator 1 independently calculates the coordinates and posture S1 of the virtual vehicle for each of the left and right stereo cameras and inputs the calculation results to the behavior identification unit 201, the coordinates used for the left viewpoint and the It may be different from the coordinates used in the viewpoint. In particular, when stereo cameras are used, the parallax of the two cameras is used to calculate the distance to the target object, so viewpoint information with different CG drawing (shutter) timings with the left and right virtual cameras as viewpoints does not work as a simulator. .

そこで、左右の仮想カメラの座標および姿勢S2,S3を特定する信号として、ECU6から出力されるシャッター信号S7を用いる。シャッター信号S7が入力されるまで、挙動特定部201は、仮想車両の座標および姿勢S1を、データTn-1として保持し(S405)、新たな仮想車両の座標および姿勢S1が計算された場合、データTn、Tn+1・・・として更新する(S406,S408)。ECU6からCGの同期タイミングであるシャッター信号S7が出力された場合(S401)、挙動特定部201は、保持しているデータTnを取得し(S407)、取得したデータTnを左視点計算部202と、右視点計算部203とに送信する。これにより、仮想車両の座標および姿勢S1を特定することによって、左視点算出部202と、右視点算出部203とは、左の視点座標および視点S2と、右の視点座標および視点S3とを同期させることができ(S409,S410)、左右の仮想カメラを視点としたCGを同期させることができる。したがって、左右の仮想カメラが相互に異なる仮想車両の座標および姿勢S1で計算されることを防止する。 Therefore, the shutter signal S7 output from the ECU 6 is used as a signal specifying the coordinates and orientations S2 and S3 of the left and right virtual cameras. Until the shutter signal S7 is input, the behavior identifying unit 201 holds the coordinates and attitude S1 of the virtual vehicle as data Tn-1 (S405). Update as data Tn, Tn+1, . . . (S406, S408). When the ECU 6 outputs a shutter signal S7 that is timing for CG synchronization (S401), the behavior identifying unit 201 obtains the held data Tn (S407), and transfers the obtained data Tn to the left viewpoint calculation unit 202. , to the right viewpoint calculation unit 203 . Thus, by specifying the coordinates and posture S1 of the virtual vehicle, the left viewpoint calculation unit 202 and the right viewpoint calculation unit 203 synchronize the left viewpoint coordinates and viewpoint S2 with the right viewpoint coordinates and viewpoint S3. (S409, S410), and the CG with the left and right virtual cameras as viewpoints can be synchronized. Therefore, the left and right virtual cameras are prevented from being calculated with different virtual vehicle coordinates and attitude S1.

左視点計算部202は、挙動特定部201から仮想車両の座標および姿勢S1が入力されると、左の仮想カメラの取り付け位置と、取り付け姿勢であるヨー角、ロール角、およびピッチ角とを計算し、左の視点座標および姿勢S2を算出する。同様に、右視点計算部203は、挙動特定部201から仮想車両の座標・姿勢S1が入力されると、右の仮想カメラの取り付け位置と、取り付け姿勢であるヨー角、ロール角、およびピッチ角とを計算し、右の視点座標および姿勢S3を算出する。 When the left viewpoint calculation unit 202 receives the coordinates and orientation S1 of the virtual vehicle from the behavior identification unit 201, the left viewpoint calculation unit 202 calculates the mounting position of the left virtual camera and the mounting orientation of the yaw angle, roll angle, and pitch angle. Then, the left viewpoint coordinates and posture S2 are calculated. Similarly, when the right viewpoint calculation unit 203 receives the coordinates and orientation S1 of the virtual vehicle from the behavior identification unit 201, the right viewpoint calculation unit 203 calculates the installation position of the right virtual camera and the installation orientation of the yaw angle, roll angle, and pitch angle. , and the right viewpoint coordinates and posture S3 are calculated.

図5は、左CG生成機能および右CG生成機能の構成図である。 FIG. 5 is a configuration diagram of the left CG generation function and the right CG generation function.

左CG生成機能3は、左CG生成部301と、左CG送信部302と、CG環境情報7とを有している。同様に、右CG生成機能4は、右CG生成部401と、右CG送信部402と、CG環境情報7とを有している。 The left CG generation function 3 has a left CG generation section 301 , a left CG transmission section 302 and CG environment information 7 . Similarly, the right CG generation function 4 has a right CG generation section 401 , a right CG transmission section 402 and CG environment information 7 .

左CG生成部301は、CG環境情報7から入力される道路情報S12などに基づいてCGによるCG空間を作成する。このCG空間内で、左CG生成部301は、左の視点座標および姿勢S2で特定された視点でのCGによる左CGS4を作成し、左CG送信部302に送信する。左CG送信部302は、左CGS4と、ECU6から出力されるシャッター信号S7とに基づいて、左CGS4の送信タイミングを調整する。 The left CG generation unit 301 creates a CG space by CG based on the road information S12 input from the CG environment information 7 and the like. In this CG space, the left CG generator 301 creates a left CG 4 from the CG at the viewpoint specified by the left viewpoint coordinates and posture S 2 , and transmits the left CG 4 to the left CG transmitter 302 . The left CG transmission unit 302 adjusts the transmission timing of the left CGS4 based on the left CGS4 and the shutter signal S7 output from the ECU6.

右CG生成部401は、CG環境情報7から入力される道路情報S12などに基づいて計算機上のCG空間を作成する。このCG空間で、右CG生成部401は、右の視点座標および姿勢S3で特定された視点でのCGによる右CGS5を作成し、右CG送信部402に送信する。右CG送信部402は、右CGS5と、ECU6から出力されるシャッター信号S7とに基づいて、右CGS5の送信タイミングを調整する。 The right CG generation unit 401 creates a computer CG space based on the road information S12 and the like input from the CG environment information 7 . In this CG space, the right CG generation unit 401 creates a right CGS5 from the CG at the viewpoint specified by the right viewpoint coordinates and posture S3, and transmits it to the right CG transmission unit 402 . The right CG transmission unit 402 adjusts the transmission timing of the right CGS5 based on the right CGS5 and the shutter signal S7 output from the ECU6.

図6は、左CG生成機能および右CG生成機能のフローチャートである。 FIG. 6 is a flow chart of the left CG generation function and the right CG generation function.

まず、左の仮想カメラについて説明する。左視点算出部202は、ECU6がシャッタータイミング(S601)毎に送信するシャッター信号S7をトリガーとして、左の視点座標および姿勢S2(S602)を計算する。左CG生成部301は、計算された左の視点座標および姿勢S2に基づいて、要求された左の視点座標および姿勢の左CGS4を作成する(S603)。左CG生成部301は、作成した左CGS4を左CG送信部302に送信する。左CG送信部302は、左CGS4を受信する(S604)。左CG送信部302は、左CGS4を受信した段階では左CGS4をCG変換機能5に出力せずに保持する。左CG送信部302は、次のシャッタータイミング(S608)のシャッター信号S7を受信したタイミングで、左CGS4をCG変換機能5に出力する(S609)。 First, the left virtual camera will be explained. The left viewpoint calculation unit 202 calculates left viewpoint coordinates and attitude S2 (S602) using a shutter signal S7 transmitted by the ECU 6 at each shutter timing (S601) as a trigger. The left CG generator 301 creates the left CGS4 of the requested left viewpoint coordinates and orientation based on the calculated left viewpoint coordinates and orientation S2 (S603). The left CG generation section 301 transmits the created left CGS4 to the left CG transmission section 302 . The left CG transmission unit 302 receives left CGS4 (S604). The left CG transmission unit 302 does not output the left CGS4 to the CG conversion function 5 at the stage of receiving the left CGS4 but retains it. The left CG transmission unit 302 outputs the left CGS4 to the CG conversion function 5 at the timing of receiving the shutter signal S7 at the next shutter timing (S608) (S609).

次に、右の仮想カメラについて説明する。右CG生成部401は、ECU6によるシャッタータイミング(S601)毎のシャッター信号S7毎に、右視点算出部203が計算した右の視点座標および姿勢S3(S605)に基づいて、右CGS5を作成する(S606)。右CG生成部401は、作成した右CGS5を右CG送信部402に送信する。
右CG送信部402は、右CGS5を受信する(S607)。右CG送信部402は、右CGS5を受信した段階ではCGによる右CGS5をCG変換機能5に出力せずに保持する。右CG送信部402は、次のシャッタータイミング(S608)のシャッター信号S7を受信したタイミングで、右CGS5をCG変換機能5に出力する(S610)。
Next, the virtual camera on the right will be described. The right CG generation unit 401 creates a right CGS5 based on the right viewpoint coordinates and the orientation S3 (S605) calculated by the right viewpoint calculation unit 203 for each shutter signal S7 at each shutter timing (S601) by the ECU 6 ( S606). The right CG generation unit 401 transmits the created right CGS5 to the right CG transmission unit 402 .
The right CG transmission unit 402 receives the right CGS5 (S607). The right CG transmission unit 402 does not output the right CGS5 by CG to the CG conversion function 5 at the stage of receiving the right CGS5, but holds it. The right CG transmission unit 402 outputs the right CGS5 to the CG conversion function 5 at the timing of receiving the shutter signal S7 at the next shutter timing (S608) (S610).

このように、シャッター信号S7に基づいて、左CGS4および右CGS5の出力タイミングを制御することができ、左右のCGS4,S5のCG変換機能5への送信タイミングを制御することができる。 Thus, based on the shutter signal S7, the output timing of the left CGS4 and right CGS5 can be controlled, and the transmission timing of the left and right CGS4 and S5 to the CG conversion function 5 can be controlled.

図7は、CG変換機能の構成図である。 FIG. 7 is a configuration diagram of the CG conversion function.

CG変換機能5は、カメラフォーマット変換部501を有している。 The CG conversion function 5 has a camera format conversion section 501 .

カメラフォーマット変換部501は、左CG送信部302から入力される左CGS4と、右CG送信部402から入力される右CGS5とをカメラ出力データフォーマットS6に変更する。 The camera format conversion unit 501 converts the left CGS4 input from the left CG transmission unit 302 and the right CGS5 input from the right CG transmission unit 402 into the camera output data format S6.

図8は、ECUの構成図である。 FIG. 8 is a configuration diagram of an ECU.

ECU6は、画像認識部601と、車両制御部602とを有している。 The ECU 6 has an image recognition section 601 and a vehicle control section 602 .

画像認識部601は、カメラ出力データフォーマットS6に基づいて、左CGS4および右CGS5を処理し、対象物の距離および速度などの認識結果S13を出力する。車両制御部602は、認識結果S13と、制御情報S11とに基づいて、車両制御のための制御フィードバック情報であるアクセル信号S9、ブレーキ信号S9、およびハンドル操作信号S10などの情報を車両挙動シミュレータ1に出力する。 The image recognition unit 601 processes the left CGS4 and right CGS5 based on the camera output data format S6, and outputs the recognition result S13 such as the distance and speed of the object. Based on the recognition result S13 and the control information S11, the vehicle control unit 602 transmits information such as the accelerator signal S9, the brake signal S9, and the steering wheel operation signal S10, which are control feedback information for vehicle control, to the vehicle behavior simulator 1. output to

この構成によれば、車両挙動シミュレータ1と、カメラ視点特定機能2と、左CG生成機能3および右CG生成機能4と、CG変換機能5とを備えている。車両挙動シミュレータ1は、仮想車両の挙動情報を算出する。カメラ視点特定機能2は、ECU6から出力されるCGの要求信号と、仮想車両の挙動情報とに基づいて、仮想カメラの視点情報を算出する。左CG生成機能3および右CG生成機能4は、ECU6から出力されるCGの要求信号と、仮想カメラの視点情報とに基づいて、左CGおよび右CGを生成する。CG変換機能5は、生成された左CGおよび右CGをECU6に入力可能な形式に変換する。これにより、ECU6が要求したタイミングで、且つ左右の時刻ずれが無い左CGおよび右CGをECU6に入力することによって、左右の仮想カメラ同士で視差を生じることができ、ECU6の動作を適切にテストすることができる。 This configuration includes a vehicle behavior simulator 1 , a camera viewpoint specifying function 2 , a left CG generation function 3 and a right CG generation function 4 , and a CG conversion function 5 . The vehicle behavior simulator 1 calculates behavior information of a virtual vehicle. The camera viewpoint specifying function 2 calculates the viewpoint information of the virtual camera based on the CG request signal output from the ECU 6 and the behavior information of the virtual vehicle. A left CG generation function 3 and a right CG generation function 4 generate left CG and right CG based on a CG request signal output from the ECU 6 and viewpoint information of the virtual camera. A CG conversion function 5 converts the generated left CG and right CG into a format that can be input to the ECU 6 . As a result, by inputting the left CG and the right CG to the ECU 6 at the timing requested by the ECU 6 and without any time lag between the left and right sides, a parallax can be generated between the left and right virtual cameras, and the operation of the ECU 6 can be appropriately tested. can do.

本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。 The present invention is not limited to the above-described embodiments, and includes various modifications.

例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.

例えば、上記した実施例のHILSは、ステレオカメラを仮想カメラの視点とした。これに限らず、HILSは、1つの車載カメラを仮想カメラの視点としてもよい。この場合、左CG生成機能3および左CG、または右CG生成機能4および右CGは、左CG生成機能3および左CGと、右CG生成機能4および右CGとの内の何れかでよい。これにより、単眼の車載カメラを視点としたCGが入力されても、ECUの動作を適切にテストすることができる。 For example, in the HILS of the above-described embodiment, the stereo camera is used as the viewpoint of the virtual camera. The HILS is not limited to this, and may use one vehicle-mounted camera as the viewpoint of the virtual camera. In this case, the left CG generation function 3 and the left CG or the right CG generation function 4 and the right CG may be either the left CG generation function 3 and the left CG or the right CG generation function 4 and the right CG. As a result, the operation of the ECU can be appropriately tested even when a CG is input with a monocular vehicle-mounted camera as a viewpoint.

さらに、例えば、HILSは、車両の前方を撮像するステレオカメラと、他のカメラそれぞれのECU6を制御対象としてもよい。これにより、各車載カメラを視点としたCGが入力されても、ECUの動作を適切にテストすることができる。この場合、ステレオカメラと、他のカメラとがそれぞれ撮像するCGは、ECU6に同期して入力されてよい。
他のカメラは、車両の周囲を撮像可能な周囲カメラであってよい。
Furthermore, for example, the HILS may control a stereo camera that captures an image of the front of the vehicle and the ECU 6 of each of the other cameras. As a result, even if CG is input with each vehicle-mounted camera as a viewpoint, the operation of the ECU can be appropriately tested. In this case, the CG imaged by the stereo camera and the other camera may be input to the ECU 6 in synchronization.
Another camera may be a surrounding camera capable of imaging the surroundings of the vehicle.

1:車両挙動シミュレータ、2:カメラ視点特定機能、3:左CG生成機能、4:右CG生成機能、5:CG変換機能、6:ECU、S1:車両の座標および姿勢、S2:左視点座標および姿勢、S3:右視点座標および姿勢、S4:左CG、S5:右CG、S7:シャッター信号 1: vehicle behavior simulator, 2: camera viewpoint specifying function, 3: left CG generation function, 4: right CG generation function, 5: CG conversion function, 6: ECU, S1: vehicle coordinates and attitude, S2: left viewpoint coordinates and attitude, S3: right viewpoint coordinates and attitude, S4: left CG, S5: right CG, S7: shutter signal

Claims (9)

計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする電子制御ユニットの評価装置であって、
前記仮想車両の挙動情報を算出する車両挙動シミュレータと、
前記算出された挙動情報の内、前記電子制御ユニットから出力される前記CGの要求信号に基づいて、前記CGの生成に用いる前記挙動情報を特定する挙動特定部と、
前記特定された仮想車両の挙動情報に基づいて、前記仮想カメラの視点情報を算出する視点算出部
記仮想カメラの視点情報に基づいて、前記仮想カメラを視点とした前記CGを生成するCG生成と、
前記電子制御ユニットから出力される前記CGの要求信号に応じて、前記生成されたCGを送信するCG送信部と、
前記CG送信部から送信された前記CGを前記電子制御ユニットに入力可能な形式に変換するCG変換と、を備える、電子制御ユニットの評価装置。
An electronic control unit that tests the operation of the electronic control unit by inputting CG (computer graphics) from a viewpoint of a virtual camera mounted on a virtual vehicle running on a virtual road built on a computer into the electronic control unit. An evaluation device,
a vehicle behavior simulator that calculates behavior information of the virtual vehicle;
a behavior identifying unit that identifies the behavior information used for generating the CG based on the CG request signal output from the electronic control unit , among the calculated behavior information ;
a viewpoint calculation unit that calculates viewpoint information of the virtual camera based on the identified behavior information of the virtual vehicle ;
a CG generation unit that generates the CG with the virtual camera as a viewpoint based on the viewpoint information of the virtual camera;
a CG transmission unit that transmits the generated CG in response to the CG request signal output from the electronic control unit;
and a CG conversion section for converting the CG transmitted from the CG transmission section into a format that can be input to the electronic control unit.
複数の前記CG生成部および前記CG送信部を備え、
前記仮想車両には、複数の前記仮想カメラが搭載され、
前記視点算出部は、各仮想カメラの視点情報を算出し、
各CG生成、前記各仮想カメラの視点情報に基づいて、前記各仮想カメラを視点としたCGをそれぞれ生成し、
各CG送信部は、前記電子制御ユニットから出力される前記CGの要求信号に応じて、それぞれ生成されたCGを送信する、請求項1に記載の電子制御ユニットの評価装置。
comprising a plurality of the CG generation units and the CG transmission units ;
The virtual vehicle is equipped with a plurality of the virtual cameras,
The viewpoint calculation unit calculates viewpoint information of each virtual camera,
Each CG generation unit generates CG with each virtual camera as a viewpoint based on the viewpoint information of each virtual camera ,
2. The electronic control unit evaluation apparatus according to claim 1 , wherein each CG transmission section transmits the generated CG in response to the CG request signal output from the electronic control unit.
前記複数の仮想カメラは、前記仮想車両の前方を撮像するステレオカメラである、請求項2に記載の電子制御ユニットの評価装置。 3. The evaluation apparatus for an electronic control unit according to claim 2, wherein said plurality of virtual cameras are stereo cameras that capture images in front of said virtual vehicle. 前記複数の仮想カメラは、前記仮想車両の前方を撮像するステレオカメラと、他のカメラとである、請求項2に記載の電子制御ユニットの評価装置。 3. The evaluation apparatus for an electronic control unit according to claim 2, wherein said plurality of virtual cameras are a stereo camera that captures an image in front of said virtual vehicle and another camera. 前記ステレオカメラと、前記他のカメラとをそれぞれ視点としたCGは、前記電子制御ユニットに同期して入力される、請求項4に記載の電子制御ユニットの評価装置。 5. The apparatus for evaluating an electronic control unit according to claim 4, wherein the CG from the viewpoints of the stereo camera and the another camera are inputted in synchronization with the electronic control unit. 前記仮想カメラの視点情報は、前記仮想車両に対する前記仮想カメラの取付角度と、姿勢とを含む、請求項1に記載の電子制御ユニットの評価装置。 2. The evaluation apparatus for an electronic control unit according to claim 1, wherein the viewpoint information of said virtual camera includes a mounting angle and attitude of said virtual camera with respect to said virtual vehicle. 前記仮想車両の挙動情報は、仮想空間内の前記仮想車両の座標と、姿勢とを含む、請求項1に記載の電子制御ユニットの評価装置。 2. The electronic control unit evaluation apparatus according to claim 1, wherein the behavior information of said virtual vehicle includes coordinates and attitude of said virtual vehicle in a virtual space. 前記電子制御ユニットから出力される前記CGの要求信号は、前記電子制御ユニットが制御対象とするカメラのシャッター信号である、請求項1に記載の電子制御ユニットの評価装置。2. The electronic control unit evaluation apparatus according to claim 1, wherein said CG request signal output from said electronic control unit is a shutter signal of a camera to be controlled by said electronic control unit. 計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする電子制御ユニットの評価方法であって、
前記仮想車両の挙動情報を算出し、
前記算出された挙動情報の内、前記電子制御ユニットから出力される前記CGの要求信号に基づいて、前記CGの生成に用いる前記挙動情報を特定し、
前記特定された仮想車両の挙動情報に基づいて、前記仮想カメラの視点情報を算出し、
前記仮想カメラの視点情報に基づいて、前記仮想カメラを視点とした前記CGを生成し、
前記電子制御ユニットから出力される前記CGの要求信号に応じて、前記生成されたCGを送信し、
前記送信されたCGを前記電子制御ユニットに入力可能な形式に変換する、電子制御ユニットの評価方法。
An electronic control unit that tests the operation of the electronic control unit by inputting CG (computer graphics) from a viewpoint of a virtual camera mounted on a virtual vehicle running on a virtual road built on a computer into the electronic control unit. An evaluation method,
calculating behavior information of the virtual vehicle;
identifying the behavior information to be used for generating the CG based on the CG request signal output from the electronic control unit , among the calculated behavior information;
calculating viewpoint information of the virtual camera based on the identified behavior information of the virtual vehicle;
generating the CG with the virtual camera as a viewpoint based on the viewpoint information of the virtual camera;
transmitting the generated CG in response to the CG request signal output from the electronic control unit;
An evaluation method for an electronic control unit, wherein the transmitted CG is converted into a format that can be input to the electronic control unit.
JP2020525355A 2018-06-22 2019-05-15 Electronic control unit evaluation device Active JP7117376B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018118438 2018-06-22
JP2018118438 2018-06-22
PCT/JP2019/019218 WO2019244516A1 (en) 2018-06-22 2019-05-15 Evaluation device for electronic control unit

Publications (2)

Publication Number Publication Date
JPWO2019244516A1 JPWO2019244516A1 (en) 2021-05-20
JP7117376B2 true JP7117376B2 (en) 2022-08-12

Family

ID=68982807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525355A Active JP7117376B2 (en) 2018-06-22 2019-05-15 Electronic control unit evaluation device

Country Status (3)

Country Link
JP (1) JP7117376B2 (en)
DE (1) DE112019001958T5 (en)
WO (1) WO2019244516A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7355717B2 (en) 2020-07-30 2023-10-03 トヨタテクニカルディベロップメント株式会社 Video conversion system, video conversion method, and video conversion program
DE112022001994T5 (en) * 2021-06-07 2024-01-18 Hitachi Astemo, Ltd. DEVICE AND METHOD FOR EVALUATION OF AN ELECTRONIC CONTROL UNIT

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060511A (en) 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ Simulation system, simulation program, and simulation method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060511A (en) 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ Simulation system, simulation program, and simulation method

Also Published As

Publication number Publication date
WO2019244516A1 (en) 2019-12-26
DE112019001958T5 (en) 2021-04-15
JPWO2019244516A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
CN109690623B (en) System and method for recognizing pose of camera in scene
US20190164310A1 (en) Camera registration in a multi-camera system
JP7117376B2 (en) Electronic control unit evaluation device
CN113848855B (en) Vehicle control system test method, device, equipment, medium and program product
CN112543876B (en) System for sensor synchronicity data analysis in an autonomous vehicle
WO2019073920A1 (en) Information processing device, moving device and method, and program
US20200158856A1 (en) Apparatus, method and computer program for computer vision
Gruyer et al. Development of full speed range ACC with SiVIC, a virtual platform for ADAS prototyping, test and evaluation
CN110936959B (en) On-line diagnosis and prediction of vehicle perception system
KR20200062193A (en) Information processing device, mobile device, information processing method, mobile device control method, and program
Ilic et al. Development of sensor fusion based ADAS modules in virtual environments
CN111459121A (en) Vehicle driving assistance test system and method
CN111201420A (en) Information processing device, self-position estimation method, program, and moving object
WO2019012004A1 (en) Method for determining a spatial uncertainty in images of an environmental area of a motor vehicle, driver assistance system as well as motor vehicle
CN113085868A (en) Method, device and storage medium for operating an automated vehicle
Walling The Design of an Autonomous Vehicle Research Platform
JP2010026845A (en) Evaluation system of electronic unit for in-vehicle camera
US11851052B2 (en) Vehicle path verification
US11710254B2 (en) Neural network object detection
CN113646769A (en) System and method for image normalization
CN116601612A (en) Method and system for testing a controller of a vehicle
US11587258B1 (en) Focal length validation using three-dimensional pose estimates
US20220119013A1 (en) Surrounding space data providing system for control apparatus for vehicle
US20230360331A1 (en) Multi-plane augmented reality image generation
WO2022034815A1 (en) Vehicle surroundings recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7117376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150