JPWO2019244516A1 - Evaluation device for electronic control unit - Google Patents

Evaluation device for electronic control unit Download PDF

Info

Publication number
JPWO2019244516A1
JPWO2019244516A1 JP2020525355A JP2020525355A JPWO2019244516A1 JP WO2019244516 A1 JPWO2019244516 A1 JP WO2019244516A1 JP 2020525355 A JP2020525355 A JP 2020525355A JP 2020525355 A JP2020525355 A JP 2020525355A JP WO2019244516 A1 JPWO2019244516 A1 JP WO2019244516A1
Authority
JP
Japan
Prior art keywords
virtual
control unit
electronic control
viewpoint
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020525355A
Other languages
Japanese (ja)
Other versions
JP7117376B2 (en
Inventor
隆良 千代田
隆良 千代田
道雄 森岡
道雄 森岡
中田 啓明
啓明 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2019244516A1 publication Critical patent/JPWO2019244516A1/en
Application granted granted Critical
Publication of JP7117376B2 publication Critical patent/JP7117376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は、電子制御ユニットの動作を適切にテストできるようにする。本発明は、仮想車両の挙動情報を算出する車両挙動シミュレータ1と、ECU6から出力されるCGの要求信号と仮想車両の挙動情報とに基づいて、仮想カメラの視点情報を算出するカメラ視点特定機能2と、ECU6から出力されるCGの要求信号と仮想カメラの視点情報とに基づいて、仮想カメラを視点としたCGを生成する左CG生成機能3および右CG生成機能4と、生成されたCGをECUに入力可能な形式に変換するCG変換機能5と、を備える。 The present invention allows for proper testing of the operation of electronic control units. The present invention is a vehicle behavior simulator 1 that calculates behavior information of a virtual vehicle, and a camera viewpoint identification function that calculates viewpoint information of a virtual camera based on a CG request signal output from ECU 6 and behavior information of a virtual vehicle. 2 and the left CG generation function 3 and the right CG generation function 4 that generate CG with the virtual camera as the viewpoint based on the CG request signal output from the ECU 6 and the viewpoint information of the virtual camera, and the generated CG. It is provided with a CG conversion function 5 that converts the above into a format that can be input to the ECU.

Description

本発明は、電子制御ユニットの評価装置に関する。 The present invention relates to an evaluation device for an electronic control unit.

近年、安全かつ快適な車社会の実現のために、運転支援システムや自動運転システムの研究が盛んである。今後、自動運転レベルが向上する程、高速道路での合流や交差点での右左折など、周辺環境を含めた複雑な制御ロジックの開発が必要になってくる。車両要素の検証評価に関しても、自動運転レベルが向上する程、制御ロジックが複雑になるため、膨大なテストケースが必要になると予想されている。 In recent years, research on driving support systems and autonomous driving systems has been active in order to realize a safe and comfortable car society. In the future, as the level of autonomous driving improves, it will be necessary to develop complex control logic that includes the surrounding environment, such as merging on highways and turning left and right at intersections. Regarding the verification and evaluation of vehicle elements, it is expected that a huge number of test cases will be required because the control logic becomes more complicated as the level of autonomous driving increases.

現状の検証評価は、実際の車両(実車という)を対象の中心としている。しかし、今後、テスト工数がさらに膨大になり、実車を使ったテストだけでは検証評価が困難であるため、HILS(Hardware In the Loop Simulator)のようなシミュレーションを活用する評価方法が、一般的になってきている。 The current verification and evaluation focuses on actual vehicles (called actual vehicles). However, in the future, the test man-hours will become even larger, and verification evaluation will be difficult only by testing using an actual vehicle. Therefore, evaluation methods that utilize simulations such as HILS (Hardware In the Loop Simulator) have become common. It's coming.

HILSとは、評価対象となる制御対象は実物を用い、それ以外の車両要素はモデル化し、これらを組み合わせて、評価装置を構築することによって、実際の制御システムを計算機上に構築された仮想環境において評価するツールである。HILSについては、例えば、特許文献1に開示された技術が知られている。 HILS is a virtual environment in which an actual control system is built on a computer by using the actual control target as the evaluation target, modeling other vehicle elements, and building an evaluation device by combining these. It is a tool to evaluate in. As for HILS, for example, the technique disclosed in Patent Document 1 is known.

特開2010−26845号公報Japanese Unexamined Patent Publication No. 2010-26845

ここで、各種センサ情報に基づいて各種値を算出する車両要素を制御対象とするHILSを構築する際には、制御対象が要求するタイミングでセンサ情報をHILSに提供する必要がある。例えば、制御対象が車載カメラである場合、車載カメラがシャッターを切るタイミングで、車載カメラに画像を入力する必要がある。HILSでは、車載カメラに対して、実際の画像を入力することができないため、CG(Computer Graphics)で作成した仮想画像を入力する。 Here, when constructing a HILS for controlling a vehicle element that calculates various values based on various sensor information, it is necessary to provide the sensor information to the HILS at a timing requested by the control target. For example, when the control target is an in-vehicle camera, it is necessary to input an image to the in-vehicle camera at the timing when the in-vehicle camera releases the shutter. In HILS, since it is not possible to input an actual image to the in-vehicle camera, a virtual image created by CG (Computer Graphics) is input.

特許文献1の技術では、カメラ制御ECUが出力するシャッター信号をフィードバックする機能が無い。したがって、CGを描画したタイミングで、その描画したCGをカメラ制御ECUに入力すると、カメラ制御ECUにはタイミングの遅れたCGが入力され、車載カメラが正しい認識や制御をすることができない問題がある。 The technique of Patent Document 1 does not have a function of feeding back a shutter signal output by the camera control ECU. Therefore, if the drawn CG is input to the camera control ECU at the timing when the CG is drawn, the CG whose timing is delayed is input to the camera control ECU, and there is a problem that the in-vehicle camera cannot correctly recognize and control. ..

本発明は、上記事情に鑑みてなされたものであり、その目的は、電子制御ユニットの動作を適切にテストすることができる技術を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique capable of appropriately testing the operation of an electronic control unit.

上記課題を解決すべく、本発明に従う電子制御ユニットの評価装置は、計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする評価装置であって、前記仮想車両の挙動情報を算出する車両挙動シミュレータと、前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想車両の挙動情報とに基づいて、前記仮想カメラの視点情報を算出するカメラ視点特定機能と、前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想カメラの視点情報とに基づいて、前記仮想カメラを視点とした前記CGを生成するCG生成機能と、前記生成されたCGを前記電子制御ユニットに入力可能な形式に変換するCG変更機能と、を備える。 In order to solve the above problems, the evaluation device of the electronic control unit according to the present invention uses CG (Computer Graphics) as a viewpoint from a virtual camera mounted on a virtual vehicle traveling on a virtual road constructed on a computer. An evaluation device that tests the operation of the electronic control unit by inputting to, a vehicle behavior simulator that calculates behavior information of the virtual vehicle, a request signal of the CG output from the electronic control unit, and the above. Based on the camera viewpoint identification function that calculates the viewpoint information of the virtual camera based on the behavior information of the virtual vehicle, the CG request signal output from the electronic control unit, and the viewpoint information of the virtual camera. It also has a CG generation function for generating the CG with the virtual camera as a viewpoint, and a CG change function for converting the generated CG into a format that can be input to the electronic control unit.

本発明によれば、電子制御ユニットの動作を適切にテストすることができる。 According to the present invention, the operation of the electronic control unit can be appropriately tested.

ECUを制御対象とするHILSの構成図。The block diagram of HILS which controls an ECU. カメラ視点特定機能の構成図。Configuration diagram of the camera viewpoint identification function. カメラ視点特定機能の概念図。Conceptual diagram of camera viewpoint identification function. カメラ視点特定機能のフローチャート。Flowchart of camera viewpoint identification function. 左CG生成機能および右CG生成機能の構成図。The block diagram of the left CG generation function and the right CG generation function. 左CG生成機能および右CG生成機能のフローチャート。Flow chart of left CG generation function and right CG generation function. CG変換機能の構成図。The block diagram of the CG conversion function. ECUの構成図。Configuration diagram of the ECU.

幾つかの実施例について、図面を用いて詳細に説明する。尚、以下に説明する実施例は特許請求の範囲に係る発明を限定するものではなく、また実施例の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Some embodiments will be described in detail with reference to the drawings. It should be noted that the examples described below do not limit the invention according to the claims, and all of the elements and combinations thereof described in the examples are essential for the means for solving the invention. Is not always.

図1は、ECUを制御対象とするHILSの構成図である。 FIG. 1 is a configuration diagram of a HILS that controls an ECU.

「評価装置」の一例としてのHILS(Hardware In the Loop Simulator)は、「電子制御ユニット」の一例としてのECU(Electronic Control Unit)6の動作をテストする装置である。ECU6には、計算機上に構築された仮想道路を走行する仮想車両に搭載された「仮想カメラ」の一例としてのステレオカメラを視点としたCG(Computer Graphics)が入力される。ステレオカメラは、仮想車両の前方を撮像する。 The HILS (Hardware In the Loop Simulator) as an example of the "evaluation device" is a device for testing the operation of the ECU (Electronic Control Unit) 6 as an example of the "electronic control unit". CG (Computer Graphics) with a stereo camera as an example of a "virtual camera" mounted on a virtual vehicle traveling on a virtual road built on a computer is input to the ECU 6. The stereo camera captures the front of the virtual vehicle.

HILSは、車両挙動シミュレータ1と、カメラ視点特定機能2と、左CG生成機能3と、右CG生成機能4と、CG変換機能5と、を備える。 The HILS includes a vehicle behavior simulator 1, a camera viewpoint identification function 2, a left CG generation function 3, a right CG generation function 4, and a CG conversion function 5.

ECU6には、CG変換機能5から後述するカメラ出力データフォーマットS6が入力され、車両挙動シミュレータ1から車速などの車両情報S11が入力される。ECU6は、アクセル信号S8と、ブレーキ信号S9と、ハンドル操作信号S10との要求を、車両挙動シミュレータ1に出力する。さらに、ECU6は、計算機上に構築された仮想道路を走行する仮想車両に搭載されたステレオカメラを視点としたCGを要求する「要求信号」の一例であるシャッター信号S7を、カメラ視点特定機能2と、左CG生成機能3と、右CG生成機能4と、にそれぞれ出力する。 The camera output data format S6, which will be described later, is input to the ECU 6 from the CG conversion function 5, and vehicle information S11 such as vehicle speed is input from the vehicle behavior simulator 1. The ECU 6 outputs a request for the accelerator signal S8, the brake signal S9, and the steering wheel operation signal S10 to the vehicle behavior simulator 1. Further, the ECU 6 uses the shutter signal S7, which is an example of a "request signal" for requesting CG with a stereo camera mounted on a virtual vehicle traveling on a virtual road built on a computer, as a camera viewpoint identification function 2. And the left CG generation function 3 and the right CG generation function 4, respectively.

車両挙動シミュレータ1は、計算機上に構築された仮想道路を走行する仮想車両の挙動情報を1ms周期間隔で算出する。仮想車両の挙動情報は、仮想空間(シミュレーション空間)内の仮想車両の座標および姿勢S1を含んでよい。これにより、走行状態に応じた仮想車両の位置および向きを適切に把握することができる。 The vehicle behavior simulator 1 calculates behavior information of a virtual vehicle traveling on a virtual road built on a computer at 1 ms cycle intervals. The behavior information of the virtual vehicle may include the coordinates and the posture S1 of the virtual vehicle in the virtual space (simulation space). As a result, the position and orientation of the virtual vehicle according to the traveling state can be appropriately grasped.

車両挙動シミュレータ1は、仮想車両の挙動計算時に、ドライバーが操作する情報の他に、ECU6から入力されるアクセル信号S8と、ブレーキ信号S9と、ハンドル操作信号S10とに応じた計算もする。車両挙動シミュレータ1は、計算した仮想車両の座標および姿勢S1を、カメラ視点特定機能2に送信する。さらに、車両挙動シミュレータ1は、車速などの車両情報S11を、ECU6に送信する。 The vehicle behavior simulator 1 also calculates according to the accelerator signal S8, the brake signal S9, and the handle operation signal S10 input from the ECU 6 in addition to the information operated by the driver when calculating the behavior of the virtual vehicle. The vehicle behavior simulator 1 transmits the calculated coordinates and posture S1 of the virtual vehicle to the camera viewpoint specifying function 2. Further, the vehicle behavior simulator 1 transmits vehicle information S11 such as vehicle speed to the ECU 6.

カメラ視点特定機能2には、車両挙動シミュレータ1から仮想車両の座標および姿勢S1が入力され、ECU6から「要求信号」の一例としてのシャッター信号S7が入力される。カメラ視点特定機能2は、仮想車両の座標および姿勢S1と、シャッター信号S7とに基づいて、ECU6がCGを要求するタイミングの左右の仮想カメラの視点情報を算出する。左右の仮想カメラの視点情報は、仮想車両に対する仮想カメラの取付角度と、姿勢とを含んでよい。これより、仮想車両の走行状態だけでなく、仮想カメラの向きを適切に把握することができる。 The coordinates and posture S1 of the virtual vehicle are input from the vehicle behavior simulator 1 to the camera viewpoint specifying function 2, and the shutter signal S7 as an example of the “request signal” is input from the ECU 6. The camera viewpoint specifying function 2 calculates the viewpoint information of the left and right virtual cameras at the timing when the ECU 6 requests CG based on the coordinates and posture S1 of the virtual vehicle and the shutter signal S7. The viewpoint information of the left and right virtual cameras may include the mounting angle of the virtual cameras with respect to the virtual vehicle and the posture. From this, it is possible to appropriately grasp not only the running state of the virtual vehicle but also the orientation of the virtual camera.

具体的には、カメラ視点特定機能2は、仮想車両の座標および姿勢S1に基づいて、シャッター信号S7の受信時の仮想車両の座標および姿勢S1を特定する。そして、カメラ視点特定機能2は、特定した仮想車両の座標および姿勢S1に基づいて、左の視点座標および姿勢S2と、右の視点座標および姿勢S3とをそれぞれ算出する。 Specifically, the camera viewpoint specifying function 2 specifies the coordinates and posture S1 of the virtual vehicle at the time of receiving the shutter signal S7 based on the coordinates and posture S1 of the virtual vehicle. Then, the camera viewpoint specifying function 2 calculates the left viewpoint coordinates and the posture S2 and the right viewpoint coordinates and the posture S3, respectively, based on the coordinates and the posture S1 of the specified virtual vehicle.

左CG生成機能3には、カメラ視点特定機能2から左の視点座標および姿勢S2が入力され、ECU6からシャッター信号S7が入力される。左CG生成機能3は、左の視点座標および姿勢S2と、シャッター信号S7とに基づいて、ECU6が要求するタイミングで、シャッター信号S7の受信時の左CGS4を生成する。左CG生成機能3は、生成した左CGS4を、CG変換機能5に出力する。 The left viewpoint coordinates and the posture S2 are input from the camera viewpoint specifying function 2 to the left CG generation function 3, and the shutter signal S7 is input from the ECU 6. The left CG generation function 3 generates the left CGS4 at the time of receiving the shutter signal S7 at the timing required by the ECU 6 based on the left viewpoint coordinates and the posture S2 and the shutter signal S7. The left CG generation function 3 outputs the generated left CGS 4 to the CG conversion function 5.

右CG生成機能4には、カメラ視点特定機能2から右の視点座標および姿勢S3が入力され、ECU6からシャッター信号S7が入力される。右CG生成機能4は、右の視点座標および姿勢S3と、シャッター信号S7とに基づいて、ECU6が要求するタイミングで、シャッター信号S7の受信時の右CGS5を生成する。右CG生成機能4は、生成した右CGS5を、CG変換機能5に出力する。 The right viewpoint coordinates and the posture S3 are input from the camera viewpoint specifying function 2 to the right CG generation function 4, and the shutter signal S7 is input from the ECU 6. The right CG generation function 4 generates the right CGS 5 at the time of receiving the shutter signal S7 at the timing required by the ECU 6 based on the right viewpoint coordinates and the posture S3 and the shutter signal S7. The right CG generation function 4 outputs the generated right CGS 5 to the CG conversion function 5.

CG変換機能5には、左CG生成機能3から左CGS4が入力され、右CG生成機能4から右CGS5が入力される。CG変換機能5は、左CGS4と、右CGS5とを、ECU6が受信可能な形式であるカメラ出力データフォーマットS6にそれぞれ変換する。 The left CGS4 is input from the left CG generation function 3 and the right CGS5 is input from the right CG generation function 4 to the CG conversion function 5. The CG conversion function 5 converts the left CGS4 and the right CGS5 into the camera output data format S6, which is a format that can be received by the ECU 6.

図2は、カメラ視点特定機能の構成図である。 FIG. 2 is a configuration diagram of a camera viewpoint specifying function.

カメラ視点特定機能2は、挙動特定部201と、左視点算出部202と、右視点算出部203とを備える。 The camera viewpoint specifying function 2 includes a behavior specifying unit 201, a left viewpoint calculating unit 202, and a right viewpoint calculating unit 203.

挙動特定部201は、1ms間隔で更新される仮想車両の座標および姿勢S1の内、シャッター信号S7に基づいて、ステレオカメラの視点計算に使用する仮想車両の座標および姿勢S1を特定する。特定された仮想車両の座標および姿勢S1に基づいて、左視点算出部202は、左の視点座標および視点S2を算出する。同様に、特定された仮想車両の座標および姿勢S1に基づいて、右視点算出部203は、右の視点座標および視点S3を算出する。 The behavior specifying unit 201 specifies the coordinates and posture S1 of the virtual vehicle used for the viewpoint calculation of the stereo camera based on the shutter signal S7 among the coordinates and posture S1 of the virtual vehicle updated at 1 ms intervals. Based on the specified coordinates and posture S1 of the virtual vehicle, the left viewpoint calculation unit 202 calculates the left viewpoint coordinates and the viewpoint S2. Similarly, the right viewpoint calculation unit 203 calculates the right viewpoint coordinates and the viewpoint S3 based on the coordinates and the posture S1 of the specified virtual vehicle.

図3は、カメラ視点特定機能の概念図である。図4は、カメラ視点特定機能のフローチャートである。 FIG. 3 is a conceptual diagram of the camera viewpoint specifying function. FIG. 4 is a flowchart of the camera viewpoint specifying function.

仮想車両の車内には、図3に示すように、ステレオカメラが搭載されている。ステレオカメラは、例えば、左右の仮想カメラが左右横並びで、仮想車両の車内のルームミラーの前方に取り付けられてよい。 As shown in FIG. 3, a stereo camera is mounted inside the virtual vehicle. As for the stereo camera, for example, the left and right virtual cameras may be arranged side by side and mounted in front of the rearview mirror in the virtual vehicle.

車両シミュレータ1は、1ms間隔で仮想車両の挙動計算Tn−1、Tn、Tn+1をし(S402,S403,S404)、その計算結果を挙動特定部201に出力する。ここで、車両シミュレータ1が、仮想車両の座標および姿勢S1を左右のステレオカメラ毎に独立して計算して、その計算結果を挙動特定部201に入力すると、左視点で使用する座標と、右視点で使用する座標とが異なる可能性がある。特に、ステレオカメラを使用する場合、対象物までの距離算出に2つのカメラの視差が用いられるため、左右の仮想カメラを視点としたCGの描画(シャッター)タイミングが異なる視点情報ではシミュレータとして成立しない。 The vehicle simulator 1 calculates the behavior of the virtual vehicle Tn-1, Tn, and Tn + 1 at 1 ms intervals (S402, S403, S404), and outputs the calculation result to the behavior specifying unit 201. Here, when the vehicle simulator 1 calculates the coordinates and attitude S1 of the virtual vehicle independently for each of the left and right stereo cameras and inputs the calculation result to the behavior specifying unit 201, the coordinates used from the left viewpoint and the right The coordinates used from the viewpoint may be different. In particular, when a stereo camera is used, the parallax of the two cameras is used to calculate the distance to the object, so the simulator cannot be established with viewpoint information in which the drawing (shutter) timing of CG with the left and right virtual cameras as the viewpoint is different. ..

そこで、左右の仮想カメラの座標および姿勢S2,S3を特定する信号として、ECU6から出力されるシャッター信号S7を用いる。シャッター信号S7が入力されるまで、挙動特定部201は、仮想車両の座標および姿勢S1を、データTn−1として保持し(S405)、新たな仮想車両の座標および姿勢S1が計算された場合、データTn、Tn+1・・・として更新する(S406,S408)。ECU6からCGの同期タイミングであるシャッター信号S7が出力された場合(S401)、挙動特定部201は、保持しているデータTnを取得し(S407)、取得したデータTnを左視点計算部202と、右視点計算部203とに送信する。これにより、仮想車両の座標および姿勢S1を特定することによって、左視点算出部202と、右視点算出部203とは、左の視点座標および視点S2と、右の視点座標および視点S3とを同期させることができ(S409,S410)、左右の仮想カメラを視点としたCGを同期させることができる。したがって、左右の仮想カメラが相互に異なる仮想車両の座標および姿勢S1で計算されることを防止する。 Therefore, the shutter signal S7 output from the ECU 6 is used as a signal for specifying the coordinates and postures S2 and S3 of the left and right virtual cameras. Until the shutter signal S7 is input, the behavior specifying unit 201 holds the coordinates and posture S1 of the virtual vehicle as data Tn-1 (S405), and when the coordinates and posture S1 of the new virtual vehicle are calculated, It is updated as data Tn, Tn + 1, ... (S406, S408). When the shutter signal S7, which is the synchronization timing of CG, is output from the ECU 6 (S401), the behavior specifying unit 201 acquires the held data Tn (S407), and the acquired data Tn is referred to the left viewpoint calculation unit 202. , Is transmitted to the right viewpoint calculation unit 203. As a result, by specifying the coordinates and the posture S1 of the virtual vehicle, the left viewpoint calculation unit 202 and the right viewpoint calculation unit 203 synchronize the left viewpoint coordinates and the viewpoint S2 with the right viewpoint coordinates and the viewpoint S3. (S409, S410), and the CG with the left and right virtual cameras as the viewpoint can be synchronized. Therefore, it is prevented that the left and right virtual cameras are calculated with the coordinates and the posture S1 of the virtual vehicles that are different from each other.

左視点計算部202は、挙動特定部201から仮想車両の座標および姿勢S1が入力されると、左の仮想カメラの取り付け位置と、取り付け姿勢であるヨー角、ロール角、およびピッチ角とを計算し、左の視点座標および姿勢S2を算出する。同様に、右視点計算部203は、挙動特定部201から仮想車両の座標・姿勢S1が入力されると、右の仮想カメラの取り付け位置と、取り付け姿勢であるヨー角、ロール角、およびピッチ角とを計算し、右の視点座標および姿勢S3を算出する。 When the coordinates and posture S1 of the virtual vehicle are input from the behavior specifying unit 201, the left viewpoint calculation unit 202 calculates the mounting position of the left virtual camera and the yaw angle, roll angle, and pitch angle which are the mounting postures. Then, the left viewpoint coordinates and the posture S2 are calculated. Similarly, when the coordinates / posture S1 of the virtual vehicle is input from the behavior specifying unit 201, the right viewpoint calculation unit 203 determines the mounting position of the right virtual camera and the yaw angle, roll angle, and pitch angle which are the mounting postures. And the right viewpoint coordinates and the posture S3 are calculated.

図5は、左CG生成機能および右CG生成機能の構成図である。 FIG. 5 is a configuration diagram of a left CG generation function and a right CG generation function.

左CG生成機能3は、左CG生成部301と、左CG送信部302と、CG環境情報7とを有している。同様に、右CG生成機能4は、右CG生成部401と、右CG送信部402と、CG環境情報7とを有している。 The left CG generation function 3 has a left CG generation unit 301, a left CG transmission unit 302, and CG environment information 7. Similarly, the right CG generation function 4 has a right CG generation unit 401, a right CG transmission unit 402, and CG environment information 7.

左CG生成部301は、CG環境情報7から入力される道路情報S12などに基づいてCGによるCG空間を作成する。このCG空間内で、左CG生成部301は、左の視点座標および姿勢S2で特定された視点でのCGによる左CGS4を作成し、左CG送信部302に送信する。左CG送信部302は、左CGS4と、ECU6から出力されるシャッター信号S7とに基づいて、左CGS4の送信タイミングを調整する。 The left CG generation unit 301 creates a CG space by CG based on the road information S12 or the like input from the CG environment information 7. In this CG space, the left CG generation unit 301 creates a left CGS4 by CG at the viewpoint specified by the left viewpoint coordinates and the attitude S2, and transmits the left CGS4 to the left CG transmission unit 302. The left CG transmission unit 302 adjusts the transmission timing of the left CGS 4 based on the left CGS 4 and the shutter signal S7 output from the ECU 6.

右CG生成部401は、CG環境情報7から入力される道路情報S12などに基づいて計算機上のCG空間を作成する。このCG空間で、右CG生成部401は、右の視点座標および姿勢S3で特定された視点でのCGによる右CGS5を作成し、右CG送信部402に送信する。右CG送信部402は、右CGS5と、ECU6から出力されるシャッター信号S7とに基づいて、右CGS5の送信タイミングを調整する。 The right CG generation unit 401 creates a CG space on the computer based on the road information S12 or the like input from the CG environment information 7. In this CG space, the right CG generation unit 401 creates a right CGS5 by CG at the viewpoint specified by the right viewpoint coordinates and the posture S3, and transmits the right CGS5 to the right CG transmission unit 402. The right CG transmission unit 402 adjusts the transmission timing of the right CGS 5 based on the right CGS 5 and the shutter signal S7 output from the ECU 6.

図6は、左CG生成機能および右CG生成機能のフローチャートである。 FIG. 6 is a flowchart of the left CG generation function and the right CG generation function.

まず、左の仮想カメラについて説明する。左視点算出部202は、ECU6がシャッタータイミング(S601)毎に送信するシャッター信号S7をトリガーとして、左の視点座標および姿勢S2(S602)を計算する。左CG生成部301は、計算された左の視点座標および姿勢S2に基づいて、要求された左の視点座標および姿勢の左CGS4を作成する(S603)。左CG生成部301は、作成した左CGS4を左CG送信部302に送信する。左CG送信部302は、左CGS4を受信する(S604)。左CG送信部302は、左CGS4を受信した段階では左CGS4をCG変換機能5に出力せずに保持する。左CG送信部302は、次のシャッタータイミング(S608)のシャッター信号S7を受信したタイミングで、左CGS4をCG変換機能5に出力する(S609)。 First, the virtual camera on the left will be described. The left viewpoint calculation unit 202 calculates the left viewpoint coordinates and the posture S2 (S602) by using the shutter signal S7 transmitted by the ECU 6 for each shutter timing (S601) as a trigger. The left CG generation unit 301 creates the left CGS4 of the requested left viewpoint coordinates and posture based on the calculated left viewpoint coordinates and posture S2 (S603). The left CG generation unit 301 transmits the created left CGS 4 to the left CG transmission unit 302. The left CG transmission unit 302 receives the left CGS4 (S604). The left CG transmission unit 302 holds the left CGS 4 without outputting it to the CG conversion function 5 at the stage when the left CGS 4 is received. The left CG transmission unit 302 outputs the left CGS 4 to the CG conversion function 5 at the timing when the shutter signal S7 at the next shutter timing (S608) is received (S609).

次に、右の仮想カメラについて説明する。右CG生成部401は、ECU6によるシャッタータイミング(S601)毎のシャッター信号S7毎に、右視点算出部203が計算した右の視点座標および姿勢S3(S605)に基づいて、右CGS5を作成する(S606)。右CG生成部401は、作成した右CGS5を右CG送信部402に送信する。
右CG送信部402は、右CGS5を受信する(S607)。右CG送信部402は、右CGS5を受信した段階ではCGによる右CGS5をCG変換機能5に出力せずに保持する。右CG送信部402は、次のシャッタータイミング(S608)のシャッター信号S7を受信したタイミングで、右CGS5をCG変換機能5に出力する(S610)。
Next, the virtual camera on the right will be described. The right CG generation unit 401 creates the right CGS5 based on the right viewpoint coordinates and the posture S3 (S605) calculated by the right viewpoint calculation unit 203 for each shutter signal S7 for each shutter timing (S601) by the ECU 6. S606). The right CG generation unit 401 transmits the created right CGS5 to the right CG transmission unit 402.
The right CG transmission unit 402 receives the right CGS5 (S607). When the right CGS 5 is received, the right CG transmission unit 402 holds the right CGS 5 by CG without outputting it to the CG conversion function 5. The right CG transmission unit 402 outputs the right CGS 5 to the CG conversion function 5 at the timing when the shutter signal S7 at the next shutter timing (S608) is received (S610).

このように、シャッター信号S7に基づいて、左CGS4および右CGS5の出力タイミングを制御することができ、左右のCGS4,S5のCG変換機能5への送信タイミングを制御することができる。 In this way, the output timings of the left CGS4 and the right CGS5 can be controlled based on the shutter signal S7, and the transmission timings of the left and right CGS4 and S5 to the CG conversion function 5 can be controlled.

図7は、CG変換機能の構成図である。 FIG. 7 is a block diagram of the CG conversion function.

CG変換機能5は、カメラフォーマット変換部501を有している。 The CG conversion function 5 has a camera format conversion unit 501.

カメラフォーマット変換部501は、左CG送信部302から入力される左CGS4と、右CG送信部402から入力される右CGS5とをカメラ出力データフォーマットS6に変更する。 The camera format conversion unit 501 changes the left CGS4 input from the left CG transmission unit 302 and the right CGS5 input from the right CG transmission unit 402 to the camera output data format S6.

図8は、ECUの構成図である。 FIG. 8 is a configuration diagram of the ECU.

ECU6は、画像認識部601と、車両制御部602とを有している。 The ECU 6 has an image recognition unit 601 and a vehicle control unit 602.

画像認識部601は、カメラ出力データフォーマットS6に基づいて、左CGS4および右CGS5を処理し、対象物の距離および速度などの認識結果S13を出力する。車両制御部602は、認識結果S13と、制御情報S11とに基づいて、車両制御のための制御フィードバック情報であるアクセル信号S9、ブレーキ信号S9、およびハンドル操作信号S10などの情報を車両挙動シミュレータ1に出力する。 The image recognition unit 601 processes the left CGS4 and the right CGS5 based on the camera output data format S6, and outputs the recognition result S13 such as the distance and speed of the object. Based on the recognition result S13 and the control information S11, the vehicle control unit 602 uses the vehicle behavior simulator 1 to provide information such as the accelerator signal S9, the brake signal S9, and the handle operation signal S10, which are control feedback information for vehicle control. Output to.

この構成によれば、車両挙動シミュレータ1と、カメラ視点特定機能2と、左CG生成機能3および右CG生成機能4と、CG変換機能5とを備えている。車両挙動シミュレータ1は、仮想車両の挙動情報を算出する。カメラ視点特定機能2は、ECU6から出力されるCGの要求信号と、仮想車両の挙動情報とに基づいて、仮想カメラの視点情報を算出する。左CG生成機能3および右CG生成機能4は、ECU6から出力されるCGの要求信号と、仮想カメラの視点情報とに基づいて、左CGおよび右CGを生成する。CG変換機能5は、生成された左CGおよび右CGをECU6に入力可能な形式に変換する。これにより、ECU6が要求したタイミングで、且つ左右の時刻ずれが無い左CGおよび右CGをECU6に入力することによって、左右の仮想カメラ同士で視差を生じることができ、ECU6の動作を適切にテストすることができる。 According to this configuration, a vehicle behavior simulator 1, a camera viewpoint specifying function 2, a left CG generation function 3, a right CG generation function 4, and a CG conversion function 5 are provided. The vehicle behavior simulator 1 calculates the behavior information of the virtual vehicle. The camera viewpoint specifying function 2 calculates the viewpoint information of the virtual camera based on the CG request signal output from the ECU 6 and the behavior information of the virtual vehicle. The left CG generation function 3 and the right CG generation function 4 generate the left CG and the right CG based on the CG request signal output from the ECU 6 and the viewpoint information of the virtual camera. The CG conversion function 5 converts the generated left CG and right CG into a format that can be input to the ECU 6. As a result, parallax can be generated between the left and right virtual cameras by inputting the left CG and the right CG to the ECU 6 at the timing requested by the ECU 6 and there is no time difference between the left and right, and the operation of the ECU 6 is appropriately tested. can do.

本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。 The present invention is not limited to the above-described examples, and includes various modifications.

例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations.

例えば、上記した実施例のHILSは、ステレオカメラを仮想カメラの視点とした。これに限らず、HILSは、1つの車載カメラを仮想カメラの視点としてもよい。この場合、左CG生成機能3および左CG、または右CG生成機能4および右CGは、左CG生成機能3および左CGと、右CG生成機能4および右CGとの内の何れかでよい。これにより、単眼の車載カメラを視点としたCGが入力されても、ECUの動作を適切にテストすることができる。 For example, in the HILS of the above-described embodiment, the stereo camera is used as the viewpoint of the virtual camera. Not limited to this, HILS may use one in-vehicle camera as the viewpoint of the virtual camera. In this case, the left CG generation function 3 and the left CG, or the right CG generation function 4 and the right CG may be any of the left CG generation function 3 and the left CG and the right CG generation function 4 and the right CG. This makes it possible to appropriately test the operation of the ECU even if the CG with the viewpoint of the monocular in-vehicle camera is input.

さらに、例えば、HILSは、車両の前方を撮像するステレオカメラと、他のカメラそれぞれのECU6を制御対象としてもよい。これにより、各車載カメラを視点としたCGが入力されても、ECUの動作を適切にテストすることができる。この場合、ステレオカメラと、他のカメラとがそれぞれ撮像するCGは、ECU6に同期して入力されてよい。
他のカメラは、車両の周囲を撮像可能な周囲カメラであってよい。
Further, for example, the HILS may control the stereo camera that captures the front of the vehicle and the ECU 6 of each of the other cameras. As a result, even if the CG with the viewpoint of each in-vehicle camera is input, the operation of the ECU can be appropriately tested. In this case, the CG images taken by the stereo camera and the other cameras may be input in synchronization with the ECU 6.
The other camera may be a peripheral camera capable of capturing the surroundings of the vehicle.

1:車両挙動シミュレータ、2:カメラ視点特定機能、3:左CG生成機能、4:右CG生成機能、5:CG変換機能、6:ECU、S1:車両の座標および姿勢、S2:左視点座標および姿勢、S3:右視点座標および姿勢、S4:左CG、S5:右CG、S7:シャッター信号 1: Vehicle behavior simulator 2: Camera viewpoint identification function 3: Left CG generation function 4: Right CG generation function 5: CG conversion function, 6: ECU, S1: Vehicle coordinates and posture, S2: Left viewpoint coordinates And attitude, S3: right viewpoint coordinates and attitude, S4: left CG, S5: right CG, S7: shutter signal

Claims (8)

計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする電子制御ユニットの評価装置であって、
前記仮想車両の挙動情報を算出する車両挙動シミュレータと、
前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想車両の挙動情報とに基づいて、前記仮想カメラの視点情報を算出するカメラ視点特定機能と、
前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想カメラの視点情報とに基づいて、前記仮想カメラを視点とした前記CGを生成するCG生成機能と、
前記生成されたCGを前記電子制御ユニットに入力可能な形式に変換するCG変換機能と、を備える、電子制御ユニットの評価装置。
An electronic control unit that tests the operation of an electronic control unit by inputting CG (Computer Graphics) from the viewpoint of a virtual camera mounted on a virtual vehicle traveling on a virtual road built on a computer into the electronic control unit. It is an evaluation device
A vehicle behavior simulator that calculates the behavior information of the virtual vehicle, and
A camera viewpoint specifying function that calculates the viewpoint information of the virtual camera based on the CG request signal output from the electronic control unit and the behavior information of the virtual vehicle.
A CG generation function that generates the CG with the virtual camera as a viewpoint based on the CG request signal output from the electronic control unit and the viewpoint information of the virtual camera.
An evaluation device for an electronic control unit, comprising a CG conversion function for converting the generated CG into a format that can be input to the electronic control unit.
複数の前記CG生成機能を備え、
前記仮想車両には、複数の前記仮想カメラが搭載され、
前記カメラ視点特定機能は、各仮想カメラの視点情報を算出し、
各CG生成機能は、前記電子制御ユニットから出力される前記CGの要求信号と、前記各仮想カメラの視点情報とに基づいて、前記各仮想カメラを視点としたCGをそれぞれ生成する、請求項1に記載の電子制御ユニットの評価装置。
Equipped with multiple CG generation functions
The virtual vehicle is equipped with a plurality of the virtual cameras.
The camera viewpoint identification function calculates the viewpoint information of each virtual camera and calculates the viewpoint information.
Claim 1 that each CG generation function generates CG with each virtual camera as a viewpoint based on the request signal of the CG output from the electronic control unit and the viewpoint information of each virtual camera. An evaluation device for an electronic control unit described in 1.
前記複数の仮想カメラは、前記仮想車両の前方を撮像するステレオカメラである、請求項2に記載の電子制御ユニットの評価装置。 The evaluation device for an electronic control unit according to claim 2, wherein the plurality of virtual cameras are stereo cameras that image the front of the virtual vehicle. 前記複数の仮想カメラは、前記仮想車両の前方を撮像するステレオカメラと、他のカメラとである、請求項2に記載の電子制御ユニットの評価装置。 The evaluation device for an electronic control unit according to claim 2, wherein the plurality of virtual cameras are a stereo camera that images the front of the virtual vehicle and another camera. 前記ステレオカメラと、前記他のカメラとをそれぞれ視点としたCGは、前記電子制御ユニットに同期して入力される、請求項4に記載の電子制御ユニットの評価装置。 The evaluation device for an electronic control unit according to claim 4, wherein the CG with the stereo camera and the other cameras as viewpoints is input in synchronization with the electronic control unit. 前記仮想カメラの視点情報は、前記仮想車両に対する前記仮想カメラの取付角度と、姿勢とを含む、請求項1に記載の電子制御ユニットの評価装置。 The evaluation device for an electronic control unit according to claim 1, wherein the viewpoint information of the virtual camera includes a mounting angle and a posture of the virtual camera with respect to the virtual vehicle. 前記仮想車両の挙動情報は、前記仮想空間内の前記仮想車両の座標と、姿勢とを含む、請求項1に記載の電子制御ユニットの評価装置。 The evaluation device for an electronic control unit according to claim 1, wherein the behavior information of the virtual vehicle includes the coordinates and the posture of the virtual vehicle in the virtual space. 計算機上に構築された仮想道路を走行する仮想車両に搭載された仮想カメラを視点としたCG(Computer Graphics)を電子制御ユニットに入力して、当該電子制御ユニットの動作をテストする電子制御ユニットの評価方法であって、
前記仮想車両の挙動情報を算出し、
前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想車両の挙動情報とに基づいて、前記仮想カメラの視点情報を算出し、
前記電子制御ユニットから出力される前記CGの要求信号と、前記仮想カメラの視点情報とに基づいて、前記仮想カメラを視点とした前記CGを生成し、
前記生成されたCGを前記電子制御ユニットに入力可能な形式に変換する、電子制御ユニットの評価方法。
An electronic control unit that tests the operation of an electronic control unit by inputting CG (Computer Graphics) from the viewpoint of a virtual camera mounted on a virtual vehicle traveling on a virtual road built on a computer into the electronic control unit. It ’s an evaluation method,
Calculate the behavior information of the virtual vehicle
Based on the CG request signal output from the electronic control unit and the behavior information of the virtual vehicle, the viewpoint information of the virtual camera is calculated.
Based on the request signal of the CG output from the electronic control unit and the viewpoint information of the virtual camera, the CG with the virtual camera as the viewpoint is generated.
An evaluation method for an electronic control unit, which converts the generated CG into a format that can be input to the electronic control unit.
JP2020525355A 2018-06-22 2019-05-15 Electronic control unit evaluation device Active JP7117376B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018118438 2018-06-22
JP2018118438 2018-06-22
PCT/JP2019/019218 WO2019244516A1 (en) 2018-06-22 2019-05-15 Evaluation device for electronic control unit

Publications (2)

Publication Number Publication Date
JPWO2019244516A1 true JPWO2019244516A1 (en) 2021-05-20
JP7117376B2 JP7117376B2 (en) 2022-08-12

Family

ID=68982807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525355A Active JP7117376B2 (en) 2018-06-22 2019-05-15 Electronic control unit evaluation device

Country Status (3)

Country Link
JP (1) JP7117376B2 (en)
DE (1) DE112019001958T5 (en)
WO (1) WO2019244516A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7355717B2 (en) * 2020-07-30 2023-10-03 トヨタテクニカルディベロップメント株式会社 Video conversion system, video conversion method, and video conversion program
JPWO2022259608A1 (en) * 2021-06-07 2022-12-15

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060511A (en) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ Simulation system, simulation program, and simulation method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060511A (en) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ Simulation system, simulation program, and simulation method

Also Published As

Publication number Publication date
JP7117376B2 (en) 2022-08-12
WO2019244516A1 (en) 2019-12-26
DE112019001958T5 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
JP7160040B2 (en) Signal processing device, signal processing method, program, moving object, and signal processing system
CN106803271B (en) Camera calibration method and device for visual navigation unmanned aerial vehicle
EP3620959B1 (en) Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras
US11257309B2 (en) Systems and methods to test an autonomous vehicle
CN112703147A (en) System and method for controlling movement of a vehicle
JP2019024196A (en) Camera parameter set calculating apparatus, camera parameter set calculating method, and program
KR102610001B1 (en) System for sensor synchronization data analysis in autonomous vehicles
CN110399775A (en) Constraint diagram is positioned and built while in production confrontation network
CA3174273C (en) Autonomous vehicle computing system with processing assurance
JP2007263669A (en) Three-dimensional coordinates acquisition system
US20200010017A1 (en) Wide area surround view monitoring apparatus for vehicle and control method thereof
CN110901656B (en) Experimental design method and system for autonomous vehicle control
JP7117376B2 (en) Electronic control unit evaluation device
Gruyer et al. Development of full speed range ACC with SiVIC, a virtual platform for ADAS prototyping, test and evaluation
KR20200062193A (en) Information processing device, mobile device, information processing method, mobile device control method, and program
CN110691986A (en) Apparatus, method and computer program for computer vision
KR20130130943A (en) System for automatic control of around view monitoring camera and methed thereof
US11710254B2 (en) Neural network object detection
Walling The Design of an Autonomous Vehicle Research Platform
JP2019188958A (en) Parking support device
JP2010026845A (en) Evaluation system of electronic unit for in-vehicle camera
KR20210057649A (en) Method of controlling autonomous driving of moving object and apparatuses performing the same
US12008722B2 (en) Multi-plane augmented reality image generation
US12106455B2 (en) Autonomous vehicle system testing simulator
JP2022536166A (en) How to optimize the surrounding environment model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7117376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150