JP6481596B2 - Evaluation support device for vehicle head-up display - Google Patents

Evaluation support device for vehicle head-up display Download PDF

Info

Publication number
JP6481596B2
JP6481596B2 JP2015236673A JP2015236673A JP6481596B2 JP 6481596 B2 JP6481596 B2 JP 6481596B2 JP 2015236673 A JP2015236673 A JP 2015236673A JP 2015236673 A JP2015236673 A JP 2015236673A JP 6481596 B2 JP6481596 B2 JP 6481596B2
Authority
JP
Japan
Prior art keywords
display
vehicle
hud
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015236673A
Other languages
Japanese (ja)
Other versions
JP2017102331A (en
Inventor
樹博 加藤
樹博 加藤
陽子 石黒
陽子 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015236673A priority Critical patent/JP6481596B2/en
Publication of JP2017102331A publication Critical patent/JP2017102331A/en
Application granted granted Critical
Publication of JP6481596B2 publication Critical patent/JP6481596B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は車両用ヘッドアップディスプレイの評価支援装置に関する。   The present invention relates to a vehicle head-up display evaluation support apparatus.

特許文献1には、ヘッドアップディスプレイ(HUD:Head-Up Display)のコンバイナを透過する光による視認対象を表す第1画像と、コンバイナにより光路変更される画像表示光による視認対象を表す第2画像を重畳して表示することで、HUDの表示機能を模擬可能なシミュレータに関する技術が記載されている。この技術は、使用者の頭部位置の変化と第2画像の変化との関係を記憶しておき、検出した使用者の頭部位置が変化した際に、前記関係に従って第2画像を変化させることで、使用者の頭部位置によってHUDの表示を模擬する精度が低下することを抑制している。   Patent Document 1 discloses a first image representing a visual recognition target by light transmitted through a head-up display (HUD) combiner and a second image representing a visual recognition target by image display light whose optical path is changed by the combiner. The technique regarding the simulator which can simulate the display function of HUD by superimposing and displaying is described. This technique stores the relationship between the change in the user's head position and the change in the second image, and changes the second image according to the relationship when the detected user's head position changes. Thus, it is possible to suppress a decrease in the accuracy of simulating the display of the HUD depending on the user's head position.

特開2003−58039号公報JP 2003-58039 A

車両への搭載が予定されている車両用HUDは、通常、車両走行時の乗員の視界を模擬したシミュレーション用動画像を大型シミュレータに表示させ、表示結果を目視で確認することで、車両走行時の車両用HUDの表示品質等が事前に評価される。なお、シミュレーション用動画像は、車両を走行させながら乗員の視点位置から周辺の状況を実写することで得られたHUDの背景用動画像に、車両用HUDの表示を模擬した動画像を合成することで作成される。また、シミュレーション用動画像に基づく車両用HUDの表示品質等の評価結果に基づき、車両用HUDへの表示パラメータ(例えば車両用HUDへの表示像のサイズ、当該表示像に含まれる図形等の形状、表示位置、表示色、輝度、光透過率等の少なくとも1つ)等が変更される。そして、上記の車両用HUDの表示品質等の評価及び車両用HUDの表示パラメータの変更が繰り返されることで、車両用HUDの表示パラメータが最適化される。   A vehicle HUD that is scheduled to be mounted on a vehicle usually displays a moving image for simulation that simulates the field of view of an occupant during vehicle travel on a large simulator, and visually confirms the display result. The display quality of the vehicle HUD is evaluated in advance. The simulation moving image synthesizes a moving image simulating the display of the vehicle HUD with the background moving image of the HUD obtained by actually capturing the surrounding situation from the viewpoint position of the occupant while driving the vehicle. It is created by that. Further, based on the evaluation result of the display quality or the like of the vehicle HUD based on the simulation moving image, the display parameters to the vehicle HUD (for example, the size of the display image on the vehicle HUD, the shape of the figure or the like included in the display image) , At least one of the display position, display color, brightness, light transmittance, etc.) is changed. Then, the evaluation of the display quality of the vehicle HUD and the change of the display parameter of the vehicle HUD are repeated, so that the display parameter of the vehicle HUD is optimized.

しかしながら、大型シミュレータに表示させるシミュレーション用動画像の作成には工数とコストが掛かり、車両用HUDへの表示パラメータを変更する度にシミュレーション用動画像の再作成が必要になることで多大な工数とコストが掛かるという課題がある。この課題に対し、大型シミュレータを用いた車両用HUDの表示品質等の評価に先立ち、特許文献1に記載の技術を適用して車両走行時の車両用HUDの表示品質等を簡易的に評価し、車両用HUDの表示パラメータを最適状態に近づけておくことで、大型シミュレータを用いた車両用HUDの評価及び表示パラメータの変更の実施回数を削減することが考えられる。   However, it takes a lot of man-hours and costs to create a moving image for simulation to be displayed on a large simulator, and it is necessary to re-create a moving image for simulation every time the display parameter to the vehicle HUD is changed. There is a problem that costs are incurred. For this problem, prior to the evaluation of the display quality of the vehicle HUD using a large simulator, the display quality of the vehicle HUD when the vehicle is running is simply evaluated by applying the technique described in Patent Document 1. It is conceivable to reduce the number of times the vehicle HUD is evaluated and the display parameter is changed by using a large simulator by keeping the display parameters of the vehicle HUD close to the optimum state.

但し、特許文献1に記載の技術はフライトシミュレータへの適用が前提の技術であり、車両走行時の車両用HUDの表示品質等の簡易評価に適用した場合、車両走行時の乗員の視界を模擬する精度が低下するという問題が生ずる。すなわち、車両は、飛行機と比較して、乗員の視点位置からHUDの背景として視認される物体までの距離が著しく小さいので、乗員の体格の相違に起因して乗員の視点位置が変化した場合、HUDの背景として視認される物体の像の位置や形状等の変化が無視できない程大きくなる。しかし、特許文献1に記載の技術はこの点が考慮されておらず、車両用HUDの表示品質等の簡易評価に適用するにあたって精度改善の余地がある。   However, the technique described in Patent Document 1 is a technique premised on application to a flight simulator, and when applied to simple evaluation such as display quality of a vehicle HUD during vehicle traveling, the sight of a passenger during vehicle traveling is simulated. There arises a problem that the accuracy to be reduced. That is, since the distance from the occupant's viewpoint position to the object visually recognized as the background of the HUD is remarkably small as compared with the airplane, the vehicle has a change in the occupant's viewpoint position due to the difference in the occupant's physique. Changes in the position, shape, etc. of the image of the object visually recognized as the background of the HUD are so large that they cannot be ignored. However, the technique described in Patent Document 1 does not consider this point, and there is room for improvement in accuracy when applied to simple evaluation such as display quality of a vehicle HUD.

本発明は上記事実を考慮して成されたもので、車両用ヘッドアップディスプレイの表示品質等を精度良く簡易評価できる車両用ヘッドアップディスプレイの評価支援装置を得ることが目的である。   The present invention has been made in consideration of the above-described facts, and an object thereof is to obtain an evaluation support device for a vehicle head-up display that can accurately and easily evaluate the display quality and the like of the vehicle head-up display.

請求項1記載の発明に係る車両用ヘッドアップディスプレイの評価支援装置は、評価対象のヘッドアップディスプレイを搭載する車両の3次元情報、前記車両を走行させる仮想空間内に存在する道路を含む物体の3次元情報、前記ヘッドアップディスプレイの表示領域の3次元情報、及び、前記表示領域に表示する表示内容の情報を各々記憶する記憶部から各情報を各々取得する取得部と、前記取得部が取得した情報に基づいて、前記仮想空間内を走行する前記車両の乗員の予め設定された視点位置から視認される物体及び前記表示領域に表示する表示内容を、中心が前記視点位置で半径が前記視点位置と前記ヘッドアップディスプレイとの距離に相当する長さの仮想球面に、前記視点位置を基点として一点透視図法により投影した球面投影像を演算する演算部と、前記演算部が演算した前記球面投影像を表示部に投影表示させる表示制御部と、を含んでいる。   A vehicle head-up display evaluation support apparatus according to a first aspect of the present invention is a vehicle head-up display evaluation support apparatus for three-dimensional information of a vehicle on which an evaluation target head-up display is mounted, and an object including a road that exists in a virtual space in which the vehicle travels An acquisition unit that acquires each information from a storage unit that stores three-dimensional information, three-dimensional information of a display area of the head-up display, and display content information displayed in the display area, and the acquisition unit acquires Based on the obtained information, the object viewed from a preset viewpoint position of the vehicle occupant traveling in the virtual space and the display content displayed in the display area are centered at the viewpoint position and the radius is the viewpoint. A spherical projection projected by a one-point perspective projection on the virtual spherical surface having a length corresponding to the distance between the position and the head-up display from the viewpoint position A calculator for calculating the said arithmetic unit contains a display controller to project the display unit and the spherical projection image computed.

請求項1記載の発明では、評価対象のヘッドアップディスプレイを搭載する車両の3次元情報、前記車両を走行させる仮想空間内に存在する道路を含む物体の3次元情報、前記ヘッドアップディスプレイの表示領域の3次元情報、及び、前記表示領域に表示する表示内容の情報が記憶部に各々記憶されており、取得部は各情報を記憶部から各々取得する。また演算部は、取得部が取得した情報に基づいて、仮想空間内を走行する車両の乗員の予め設定された視点位置から視認される物体及びヘッドアップディスプレイの表示領域に表示する表示内容を、中心が乗員の視点位置で半径が乗員の視点位置とヘッドアップディスプレイとの距離に相当する長さの仮想球面に、乗員の視点位置を基点として一点透視図法により投影した球面投影像を演算する。   According to the first aspect of the present invention, the three-dimensional information of the vehicle on which the head-up display to be evaluated is mounted, the three-dimensional information of the object including the road existing in the virtual space where the vehicle is driven, the display area of the head-up display Are stored in the storage unit, and the acquisition unit acquires each piece of information from the storage unit. In addition, based on the information acquired by the acquisition unit, the calculation unit displays the display content to be displayed on the display area of the object and the head-up display viewed from the preset viewpoint position of the occupant of the vehicle traveling in the virtual space, A spherical projection image that is projected by a one-point perspective projection using the occupant's viewpoint position as a base point on a virtual sphere having a center corresponding to the distance between the occupant's viewpoint position and the head-up display is calculated.

仮想球面は中心が乗員の視点位置のため、演算手段によって演算される球面投影像に含まれる、ヘッドアップディスプレイの背景として視認される物体の像は、乗員の視点位置の変化に応じて位置や形状等が変化する。そして、表示制御部は、演算部が演算した球面投影像を表示部に投影表示させる。これにより、ヘッドアップディスプレイの背景として視認される物体の像を、乗員の視点位置の変化に拘わらず変化させない場合と比較して、表示部に投影表示される像が、乗員によって視認されるヘッドアップディスプレイの表示等を模擬する精度が向上する。従って、請求項1記載の発明によれば、車両用ヘッドアップディスプレイの表示品質等を精度良く簡易評価できる。   Since the center of the virtual sphere is the viewpoint position of the occupant, the image of the object visually recognized as the background of the head-up display included in the spherical projection image calculated by the calculation means is The shape changes. Then, the display control unit projects and displays the spherical projection image calculated by the calculation unit on the display unit. As a result, the image projected and displayed on the display unit is visually recognized by the occupant as compared with the case where the image of the object visually recognized as the background of the head-up display is not changed regardless of the change in the occupant's viewpoint position. The accuracy of simulating the display of the up display is improved. Therefore, according to the first aspect of the invention, the display quality and the like of the vehicle head-up display can be easily and accurately evaluated.

また、請求項1記載の発明に係る車両用ヘッドアップディスプレイの評価支援装置を用いてヘッドアップディスプレイの表示品質の評価及び表示パラメータの変更を事前に行っておくことで、大型シミュレータを用いたヘッドアップディスプレイの表示品質等の評価及び表示パラメータの変更の実施回数を削減できるので、ヘッドアップディスプレイへの表示パラメータの最適化に要するトータルの工数及びコストを削減することができる。   In addition, a head using a large simulator can be obtained by evaluating the display quality of the head-up display and changing the display parameters in advance using the vehicle head-up display evaluation support apparatus according to the first aspect of the invention. Since it is possible to reduce the number of times that the display quality and the like of the up display are evaluated and the display parameters are changed, the total man-hour and cost required for optimizing the display parameters for the head up display can be reduced.

請求項1記載の発明は、車両用ヘッドアップディスプレイの表示品質等を精度良く簡易評価できる、という効果を有する。   The invention according to claim 1 has an effect that the display quality and the like of the vehicle head-up display can be simply and accurately evaluated.

車両用ヘッドアップディスプレイの評価支援装置の概略ブロック図である。It is a schematic block diagram of the evaluation assistance apparatus of the head-up display for vehicles. HUD評価支援処理の一例を示すフローチャートである。It is a flowchart which shows an example of a HUD evaluation assistance process. 一点透視図法による仮想球面への投影の一例を示すイメージ図である。It is an image figure which shows an example of the projection to the virtual spherical surface by a one point perspective projection method. 表示部に表示される画像の一例を示すイメージ図である。It is an image figure which shows an example of the image displayed on a display part. 表示部に表示される画像の一例を示すイメージ図である。It is an image figure which shows an example of the image displayed on a display part.

以下、図面を参照して本発明の実施形態の一例を詳細に説明する。図1に示すように、本実施形態に係る車両用HUD評価支援装置10は、コンピュータ12と、各種の情報を入力するための入力部40及びHUD評価用動画像を表示するための表示部42を含んでいる。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. As shown in FIG. 1, the vehicle HUD evaluation support apparatus 10 according to the present embodiment includes a computer 12, an input unit 40 for inputting various types of information, and a display unit 42 for displaying a moving image for HUD evaluation. Is included.

コンピュータ12は、CPU(Central Processing Unit)14、RAM(Random Access Memory)等の揮発性のメモリ16、HDD(Hard Disk Drive)、或いはフラッシュメモリ等の不揮発性の記憶部18、I/F(InterFace)部20を備えており、これらはバス22を介して互いに接続されている。入力部40及び表示部42はコンピュータ12のI/F部20に接続されている。   The computer 12 includes a CPU (Central Processing Unit) 14, a volatile memory 16 such as a RAM (Random Access Memory), a nonvolatile storage unit 18 such as an HDD (Hard Disk Drive) or a flash memory, an I / F (InterFace). ) Section 20, which are connected to each other via a bus 22. The input unit 40 and the display unit 42 are connected to the I / F unit 20 of the computer 12.

記憶部18は、HUD評価支援プログラム24、車両3次元モデル情報26、HUD情報28、仮想空間3次元情報30、移動物体3次元モデル情報32、人間の視野特性情報34及びシミュレーション条件情報36を各々記憶している。HUD評価支援プログラム24は、コンピュータ12のCPU14によって後述するHUD評価支援処理を実行させるためのプログラムであり、コンピュータ12は、CPU14がHUD評価支援プログラム24を実行することで、入力部40及び表示部42と共にHUD評価支援装置10として機能する。   The storage unit 18 stores the HUD evaluation support program 24, the vehicle three-dimensional model information 26, the HUD information 28, the virtual space three-dimensional information 30, the moving object three-dimensional model information 32, the human visual field characteristic information 34, and the simulation condition information 36, respectively. I remember it. The HUD evaluation support program 24 is a program for causing the CPU 14 of the computer 12 to execute a HUD evaluation support process to be described later. The computer 12 executes the HUD evaluation support program 24 so that the input unit 40 and the display unit are displayed. 42 functions as a HUD evaluation support apparatus 10.

車両3次元モデル情報26は、評価対象の車両用HUD50(図4,5参照)を搭載する車両(自車両)52(図3参照)の3次元モデルを表す情報であり、車両52の外表面上の各部位の3次元位置を表す情報と、車両52の車室内の内装構造物、例えば図4,5に示すフロントウインドシールドガラス54やフロントピラー56等の表面上の各部位の3次元位置を表す情報と、を含んでいる。車両3次元モデル情報26としては車両52の設計データ等を利用することができる。   The vehicle three-dimensional model information 26 is information representing a three-dimensional model of a vehicle (own vehicle) 52 (see FIG. 3) on which the vehicle HUD 50 (see FIGS. 4 and 5) to be evaluated is mounted. Information indicating the three-dimensional position of each part above, and the three-dimensional position of each part on the surface of the interior structure of the vehicle 52 such as the front windshield glass 54 and the front pillar 56 shown in FIGS. And information representing. As the vehicle three-dimensional model information 26, design data or the like of the vehicle 52 can be used.

また、HUD情報28は、車両用HUD50の表示領域の3次元位置を表すHUD表示領域情報と、HUD評価支援処理の実行時に車両用HUD50の表示領域に表示させる表示内容を表すHUD表示内容情報と、を含んでいる。HUD表示内容情報は、動画像情報であってもよいが、車両用HUD50の表示領域に表示させる像のサイズ、表示位置、形状、輝度、光透過率等の表示パラメータの少なくとも1つが変更された場合に、変更後の表示パラメータに応じて表示内容を容易に変更可能な形式の情報であることが好ましい。上記形式の情報としては、例えば上記の各表示パラメータを変数として持ち、外部から各表示パラメータが与えられると、与えられた各表示パラメータに応じて表示内容が定まる形式の情報等が挙げられる。   The HUD information 28 includes HUD display area information representing the three-dimensional position of the display area of the vehicle HUD 50, and HUD display contents information representing the display contents to be displayed in the display area of the vehicle HUD 50 when the HUD evaluation support process is executed. , Including. The HUD display content information may be moving image information, but at least one of display parameters such as the size, display position, shape, brightness, and light transmittance of the image displayed in the display area of the vehicle HUD 50 has been changed. In this case, it is preferable that the information is in a format in which the display content can be easily changed according to the changed display parameter. Examples of the information in the format include information in a format in which the display contents are determined according to each given display parameter when each display parameter is given from the outside and each display parameter is given from the outside.

仮想空間3次元情報30は、HUD評価支援処理の実行時に車両52を仮想的に走行させる3次元の仮想空間内に存在する道路や標識、建物等の物体について、表面上の各部位の3次元位置(仮想空間の座標上の位置)を表す情報である。図3〜5には、仮想空間3次元情報30が表す仮想空間内に存在する物体の一例として、道路の側端部に相当する線58を各々示す。   The virtual space three-dimensional information 30 is the three-dimensional information of each part on the surface of an object such as a road, a sign, or a building existing in a three-dimensional virtual space in which the vehicle 52 is virtually run when the HUD evaluation support process is executed. This is information representing a position (a position on the coordinates of the virtual space). In FIGS. 3 to 5, lines 58 corresponding to the side end portions of the road are shown as examples of objects existing in the virtual space represented by the virtual space three-dimensional information 30.

移動物体3次元モデル情報32は、3次元の仮想空間内に存在し、車両52と独立して移動する移動物体、例えば自動二輪車や自転車等を含む車両、歩行者等について、外表面上の各部位の3次元位置を表す情報を含んでいる。図3〜5には、移動物体3次元モデル情報32が表す移動物体の一例として、車両(他車両)60A〜60Cを各々示す。移動物体3次元モデル情報32に含まれる個々の移動物体の3次元モデル情報は、互いに異なる移動物体IDが各々付与されている。   The moving object three-dimensional model information 32 exists in a three-dimensional virtual space, and moves on the outer surface of a moving object that moves independently of the vehicle 52, such as a vehicle including a motorcycle or a bicycle, a pedestrian, and the like. It includes information representing the three-dimensional position of the part. 3 to 5 show vehicles (other vehicles) 60A to 60C as examples of the moving object represented by the moving object three-dimensional model information 32, respectively. Different 3D model information of individual moving objects included in the moving object 3D model information 32 is assigned with different moving object IDs.

人間の視野特性情報34は、車両52の運転者の視点位置と3次元の仮想空間の無限遠点(消失点)を結ぶ視認軸(図4,5には無限遠点(消失点ともいう)及び視認軸に相当する点として点62を示す)を基準として、車両52の運転者の視野範囲を注視度合い毎に複数規定する情報である。図4,5には、注視度合いが最も高い視野範囲64A、注視度合いが次に高い視野範囲64Bを各々示すが、図示しない最も広い視野範囲内には、例えば図4,5に示すフロントウインドシールドガラス54の車両上側の部分やフロントピラー56等も含まれる。   The human visual field characteristic information 34 is a visual axis connecting the viewpoint position of the driver of the vehicle 52 and the infinity point (disappearance point) of the three-dimensional virtual space (in FIG. 4 and FIG. 5, the infinity point (also referred to as the disappearance point)). And a point 62 as a point corresponding to the visual axis) is information that defines a plurality of visual field ranges of the driver of the vehicle 52 for each degree of gaze. 4 and 5 show the visual field range 64A with the highest gaze degree and the visual field range 64B with the next highest gaze degree, respectively, but within the widest visual field range not shown, for example, the front windshield shown in FIGS. The upper part of the glass 54 and the front pillar 56 are also included.

シミュレーション条件情報36は、HUD評価支援処理の実行時の各シミュレーション時刻において、3次元の仮想空間内の車両(自車両)52の位置、方向、車両(自車両)52の周辺における移動物体の存在の有無、周辺に移動物体が存在している場合は、周辺に存在している個々の移動物体の移動物体ID、位置及び方向の各情報を含んでいる。なお、シミュレーション条件情報36におけるシミュレーション時刻の時間間隔Δtは、動画像としての表示品質を損なわない程度の時間間隔、一例としては1/30秒又はそれ以下の時間である。   The simulation condition information 36 includes the position and direction of the vehicle (own vehicle) 52 in the three-dimensional virtual space and the presence of a moving object around the vehicle (own vehicle) 52 at each simulation time when the HUD evaluation support process is executed. In the case where there is a moving object in the vicinity, information on the moving object ID, position, and direction of each moving object existing in the vicinity is included. The time interval Δt of the simulation time in the simulation condition information 36 is a time interval that does not impair the display quality as a moving image, for example, a time of 1/30 second or less.

また、シミュレーション条件情報36は、互いにシミュレーション条件の異なる複数のシミュレーション条件情報を含んでいる。シミュレーション条件情報36に含まれる個々のシミュレーション条件情報は、3次元の仮想空間内における車両(自車両)52の移動範囲、移動方向、移動速度、移動物体の存在の有無、移動物体が存在している場合の移動物体の種類、移動範囲、移動方向及び移動速度の少なくとも1つが互いに相違している。シミュレーション条件情報36に含まれる個々のシミュレーション条件情報は互いに異なるシミュレーション条件IDが各々付与されている。   The simulation condition information 36 includes a plurality of simulation condition information having different simulation conditions. The individual simulation condition information included in the simulation condition information 36 includes the moving range, moving direction, moving speed, presence / absence of moving objects, and moving objects of the vehicle (own vehicle) 52 in the three-dimensional virtual space. When moving, at least one of the type of moving object, the moving range, the moving direction, and the moving speed is different from each other. Different simulation condition IDs are assigned to the individual simulation condition information included in the simulation condition information 36.

次に本実施形態の作用を説明する。車両52に搭載する車両用HUD50の開発にあたっては、車両用HUD50の表示領域のサイズや車両52への搭載位置等を設計し、車両用HUD50への表示内容をおおよそ設計した後に、車両走行時の車両用HUD50の表示品質等が評価される。本実施形態では、車両用HUD50の表示品質等の評価に際し、大型シミュレータを用いた車両用HUD50の表示品質等の評価に先だって、車両用HUD評価支援装置10を用いた車両用HUD50の表示品質等の簡易評価が行われる。   Next, the operation of this embodiment will be described. In developing the vehicle HUD 50 to be mounted on the vehicle 52, the size of the display area of the vehicle HUD 50, the mounting position on the vehicle 52, etc. are designed, and the display contents on the vehicle HUD 50 are roughly designed. The display quality of the vehicle HUD 50 is evaluated. In the present embodiment, when evaluating the display quality or the like of the vehicle HUD 50, prior to evaluating the display quality or the like of the vehicle HUD 50 using a large simulator, the display quality or the like of the vehicle HUD 50 using the vehicle HUD evaluation support device 10 or the like. A simple evaluation is performed.

車両用HUD評価支援装置10を用いて車両用HUD50の表示品質等の簡易評価を行う場合、車両用HUD50の表示品質等の評価者(以下、単に評価者という)から車両用HUD評価支援装置10のコンピュータ12に対し、HUD評価支援処理の実行が指示される。これにより、HUD評価支援プログラム24が記憶部18からメモリ16に読み出され、コンピュータ12のCPU14によって実行されることで、図2に示すHUD評価支援処理がCPU14によって行われる。   When the vehicle HUD evaluation support device 10 is used to perform a simple evaluation of the display quality of the vehicle HUD 50, the vehicle HUD evaluation support device 10 from an evaluator (hereinafter simply referred to as an evaluator) of the display quality of the vehicle HUD 50 or the like. Are instructed to execute the HUD evaluation support process. As a result, the HUD evaluation support program 24 is read from the storage unit 18 to the memory 16 and executed by the CPU 14 of the computer 12, whereby the HUD evaluation support process shown in FIG. 2 is performed by the CPU 14.

HUD評価支援処理のステップ100において、コンピュータ12のCPU14は、HUD評価支援処理の処理条件の1つである乗員(本実施形態では運転者)の視点の3次元位置を特定するための情報(以下、視点特定情報という)の入力を要請するメッセージを表示部42に表示する等により、評価者に対して視点位置情報の入力を要請する。   In step 100 of the HUD evaluation support process, the CPU 14 of the computer 12 specifies information for identifying the three-dimensional position of the viewpoint of the occupant (driver in the present embodiment), which is one of the processing conditions of the HUD evaluation support process (hereinafter, referred to as the HUD evaluation support process) The evaluator requests the evaluator to input viewpoint position information, for example, by displaying a message requesting input of the viewpoint specifying information) on the display unit 42.

ここでいう運転者の視点の3次元位置は車両52の3次元モデルの座標系における位置であり、運転者が着座する車両52のシートの車両左右方向位置及び座面の車両上下方向位置(高さ)は既知である。このため、上記の要請が為されると、評価者は、入力部40を介し、視点特定情報として運転者の体格を規定する情報(例えば身長等)を入力する。コンピュータ12のCPU14は、入力された視点特定情報が規定する運転者の体格から、所定の演算式に従って運転者の視点の車両前後方向位置及び車両上下方向位置を演算することで、運転者の視点の3次元位置を表す情報(視点位置情報)を取得する。   The three-dimensional position of the driver's viewpoint here is the position in the coordinate system of the three-dimensional model of the vehicle 52, the vehicle left-right position of the seat of the vehicle 52 on which the driver is seated, and the vehicle vertical position of the seat surface (high Is) known. For this reason, when the above request is made, the evaluator inputs information (for example, height) that defines the physique of the driver as the viewpoint specifying information via the input unit 40. The CPU 14 of the computer 12 calculates the position of the driver's viewpoint in the vehicle longitudinal direction and the vehicle vertical direction according to a predetermined calculation formula from the driver's physique defined by the input viewpoint identification information, so that the driver's viewpoint Information (viewpoint position information) representing the three-dimensional position of is acquired.

またステップ100において、CPU14は、記憶部18から車両3次元モデル情報26及びHUD情報28を読み出すことで、車両3次元モデル情報26及びHUD情報28も取得する。   In step 100, the CPU 14 reads the vehicle three-dimensional model information 26 and the HUD information 28 from the storage unit 18, thereby acquiring the vehicle three-dimensional model information 26 and the HUD information 28.

次のステップ102において、CPU14は、ステップ100で取得した車両3次元モデル情報26が表す車両52の3次元モデルの座標系に対し、ステップ100で取得した視点位置情報が表す運転者の視点位置66(図3参照)を中心とし、運転者の視点位置66から車両用HUD50の表示位置までの距離を半径とする仮想球面68(図3参照)を設定する。なお、仮想球面68は表示部42にHUD評価用動画像として表示させる物体を投影する投影面として用いるので、運転者の視認軸を基準として運転者の視野範囲よりも広い範囲であればよく、球面の全表面のうちの一部の範囲(例えば図3に示す範囲)でよい。   In the next step 102, the CPU 14 compares the viewpoint position 66 of the driver represented by the viewpoint position information acquired in step 100 with respect to the coordinate system of the three-dimensional model of the vehicle 52 represented by the vehicle three-dimensional model information 26 acquired in step 100. A virtual sphere 68 (see FIG. 3) is set with a radius from the driver's viewpoint position 66 to the display position of the vehicle HUD 50 centered on (see FIG. 3). Since the virtual spherical surface 68 is used as a projection surface for projecting an object to be displayed on the display unit 42 as a moving image for HUD evaluation, the virtual spherical surface 68 may be a range wider than the visual field range of the driver based on the visual axis of the driver. It may be a partial range (for example, a range shown in FIG. 3) of the entire surface of the spherical surface.

ステップ104において、CPU14は、車両3次元モデル情報26に含まれる車両52の車室内の内装構造物の3次元位置を表す情報と、HUD情報28に含まれるHUD表示領域情報と、に基づいて、車両52の内装構造物及び車両用HUD50を、運転者の視点位置66を基点として一点透視図法により仮想球面68に投影した球面投影像を演算する。なお、一点透視図法は公知の技術であるので、詳細な説明は省略する。   In step 104, the CPU 14 is based on the information representing the three-dimensional position of the interior structure of the vehicle 52 in the vehicle 52 included in the vehicle three-dimensional model information 26 and the HUD display area information included in the HUD information 28. A spherical projection image obtained by projecting the interior structure of the vehicle 52 and the vehicle HUD 50 onto the virtual spherical surface 68 by the one-point perspective method with the viewpoint position 66 of the driver as a base point is calculated. Since the one-point perspective method is a known technique, detailed description thereof is omitted.

上記処理により、視点特定情報で規定された体格の運転者が車両52のシートに着座した際に、当該運転者によって視認される車両用HUD50の表示領域及び車両52の内装構造物(例えば図4,5に示すフロントウインドシールドガラス54やフロントピラー56等)を精度良く模擬した球面投影像が得られる。   When the driver of the physique defined by the viewpoint specifying information is seated on the seat of the vehicle 52, the display area of the vehicle HUD 50 and the interior structure of the vehicle 52 (for example, FIG. 4) , 5), a spherical projection image that accurately simulates the windshield glass 54 and the front pillar 56).

次のステップ106において、CPU14は、HUD評価支援処理の処理条件の1つであるシミュレーション条件IDの入力を要請するメッセージを表示部42に表示する等により、評価者に対してシミュレーション条件IDの入力を要請する。この要請が為されると、評価者は、入力部40を介し、HUD評価支援処理で実施したいシミュレーション条件に対応するシミュレーション条件IDを入力する。CPU14は、シミュレーション条件IDが入力されると、記憶部18に記憶されたシミュレーション条件情報36の中から、入力されたシミュレーション条件IDが付与されたシミュレーション条件情報を読み出すことで取得する。   In the next step 106, the CPU 14 inputs a simulation condition ID to the evaluator by displaying a message for requesting the input of the simulation condition ID, which is one of the processing conditions of the HUD evaluation support process, on the display unit 42. Request. When this request is made, the evaluator inputs the simulation condition ID corresponding to the simulation condition desired to be executed in the HUD evaluation support process via the input unit 40. When the simulation condition ID is input, the CPU 14 acquires the simulation condition information to which the input simulation condition ID is assigned from the simulation condition information 36 stored in the storage unit 18.

ステップ108において、CPU14は、シミュレーション時刻tに0を設定する。次のステップ110において、CPU14は、ステップ106で取得したシミュレーション条件情報から、現在のシミュレーション時刻tでの仮想空間内における車両52の位置及び方向を表す情報を抽出する。またステップ112において、CPU14は、車両52の3次元モデルを、ステップ110で抽出した情報が表す位置及び方向で仮想空間内に配置する。この車両52の3次元モデルの仮想空間内への配置により、現在のシミュレーション時刻tでの車両52の3次元モデルの仮想空間内における位置(仮想空間の座標系における車両52の3次元モデルの絶対位置)が定まり、現在のシミュレーション時刻tでの運転者の視点位置及び仮想球面68の仮想空間内における位置と、視認軸の仮想空間内における方向と、が定まる。   In step 108, the CPU 14 sets 0 to the simulation time t. In the next step 110, the CPU 14 extracts information representing the position and direction of the vehicle 52 in the virtual space at the current simulation time t from the simulation condition information acquired in step 106. In step 112, the CPU 14 places the three-dimensional model of the vehicle 52 in the virtual space at the position and direction represented by the information extracted in step 110. By arranging the three-dimensional model of the vehicle 52 in the virtual space, the position of the three-dimensional model of the vehicle 52 in the virtual space at the current simulation time t (the absolute position of the three-dimensional model of the vehicle 52 in the virtual space coordinate system). The position of the driver at the current simulation time t, the position of the virtual spherical surface 68 in the virtual space, and the direction of the visual axis in the virtual space are determined.

次のステップ114において、CPU14は、ステップ106で取得したシミュレーション条件情報が表すシミュレーション条件が、現在のシミュレーション時刻tで車両(自車両)52の周辺に移動物体が存在する条件か否か判定する。ステップ114の判定が肯定された場合はステップ116へ移行する。ステップ116において、CPU14は、シミュレーション条件情報から、現在のシミュレーション時刻tで車両(自車両)52の周辺に存在する全ての移動物体の移動物体ID、位置及び方向の各情報を抽出する。そして、記憶部18に記憶された移動物体3次元モデル情報32から、抽出した移動物体IDの移動物体の3次元モデル情報を読み出し、読み出した3次元モデル情報が表す移動物体の3次元モデルを、抽出した移動物体の位置及び方向に応じて仮想空間内に配置する。   In the next step 114, the CPU 14 determines whether or not the simulation condition represented by the simulation condition information acquired in step 106 is a condition in which a moving object exists around the vehicle (own vehicle) 52 at the current simulation time t. If the determination in step 114 is affirmed, the process proceeds to step 116. In step 116, the CPU 14 extracts each piece of moving object ID, position, and direction information of all moving objects existing around the vehicle (own vehicle) 52 at the current simulation time t from the simulation condition information. Then, the 3D model information of the moving object with the extracted moving object ID is read from the moving object 3D model information 32 stored in the storage unit 18, and the 3D model of the moving object represented by the read 3D model information is It arrange | positions in a virtual space according to the position and direction of the extracted moving object.

なお、現在のシミュレーション時刻tで車両(自車両)52の周辺に移動物体が存在しない場合はステップ114の判定が否定され、ステップ116をスキップしてステップ118へ移行する。   If there is no moving object around the vehicle (host vehicle) 52 at the current simulation time t, the determination in step 114 is negative, and step 116 is skipped and the process proceeds to step 118.

次のステップ118において、CPU14は、まず記憶部18から人間の視野特性情報34を読み出し、現在のシミュレーション時刻tでの視認軸を基準として車両(自車両)52の運転者の仮想空間の座標上での視野範囲を算出する。そして、仮想空間のうち算出した運転者の視野範囲内に存在する物体を、運転者の視点位置66を基点として一点透視図法により仮想球面68に投影した球面投影像を演算する。この投影演算は、先のステップ104で得られた球面投影像の背景として、車両(自車両)52の窓ガラスを通じて運転者に視認される部分のみが投影される。   In the next step 118, the CPU 14 first reads the human visual field characteristic information 34 from the storage unit 18, and on the coordinates of the virtual space of the driver of the vehicle (own vehicle) 52 with reference to the visual axis at the current simulation time t. Calculate the field of view at. Then, a spherical projection image obtained by projecting an object existing within the calculated visual field range of the driver in the virtual space onto the virtual spherical surface 68 using the one-point perspective method with the viewpoint position 66 of the driver as a base point is calculated. In this projection calculation, only the portion that is visually recognized by the driver through the window glass of the vehicle (host vehicle) 52 is projected as the background of the spherical projection image obtained in the previous step 104.

上記処理により、先のステップ104で得られた球面投影像に、視点特定情報で規定された体格の運転者が車両52のシートに着座した際に、当該運転者によって視認される車両52の周辺の物体(例えば道路や標識、車両52の周辺に移動物体が存在する場合は当該移動物体)を精度良く模擬した球面投影像を加えた球面投影像が得られる。   By the above processing, when the driver of the physique specified by the viewpoint specifying information is seated on the seat of the vehicle 52 on the spherical projection image obtained in the previous step 104, the periphery of the vehicle 52 visually recognized by the driver A spherical projection image obtained by adding a spherical projection image that accurately simulates the object (for example, a moving object when there is a moving object around a road, a sign, or the vehicle 52) is obtained.

ステップ120において、CPU14は、記憶部18に記憶されているHUD情報28に含まれるHUD表示内容情報と、予め設定された車両用HUD50への表示パラメータと、に基づいて、シミュレーション時刻tに車両用HUD50に表示される画像を算出する。そして、算出したシミュレーション時刻tでの車両用HUD50への表示画像を、先のステップ104,118で得られた球面投影像の前景として、仮想球面68内の車両用HUD50の表示領域内に、運転者の視点位置66を基点として一点透視図法により投影した球面投影像を演算する。この投影演算では、運転者から見て車両用HUD50の背後に存在する物体の球面投影像も、車両用HUD50への表示パラメータに含まれる輝度及び光透過率に応じて運転者に視認されるように、ステップ104,118で得られた球面投影像に重畳投影される。   In step 120, the CPU 14 determines the vehicle-use vehicle at the simulation time t based on the HUD display content information included in the HUD information 28 stored in the storage unit 18 and the preset display parameter for the vehicle HUD 50. An image displayed on the HUD 50 is calculated. Then, the display image on the vehicle HUD 50 at the calculated simulation time t is used as the foreground of the spherical projection image obtained in the previous steps 104 and 118 within the display area of the vehicle HUD 50 in the virtual spherical surface 68. The spherical projection image projected by the one-point perspective method using the viewpoint position 66 of the person as the base point is calculated. In this projection calculation, the spherical projection image of the object existing behind the vehicle HUD 50 as viewed from the driver is also visually recognized by the driver according to the luminance and light transmittance included in the display parameters to the vehicle HUD 50. Then, they are superimposed and projected on the spherical projection image obtained in steps 104 and 118.

上記処理により、先のステップ104で得られた球面投影像及びステップ118で得られた球面投影像に、視点特定情報で規定された体格の運転者が車両52のシートに着座した際に、当該運転者によって視認されるHUD50の表示内容を精度良く模擬した球面投影像を加えた球面投影像、すなわち現在のシミュレーション時刻tでの運転者の視界を高精度に模擬した球面投影像が得られる。ここで得られる球面投影像の一例を図3に符号「70」を付して示す。   By the above processing, when the driver of the physique defined by the viewpoint specifying information is seated on the seat of the vehicle 52, the spherical projection image obtained in the previous step 104 and the spherical projection image obtained in step 118, A spherical projection image obtained by adding a spherical projection image that accurately simulates the display contents of the HUD 50 visually recognized by the driver, that is, a spherical projection image that simulates the driver's field of view at the current simulation time t with high accuracy is obtained. An example of the spherical projection image obtained here is shown in FIG.

ステップ122において、CPU14は、以上の処理によって得られた現在のシミュレーション時刻tでの球面投影像を記憶部18に記憶させる。次のステップ124において、CPU14は、現在のシミュレーション時刻tが予め設定されたシミュレーションの最終時刻(=HUD評価用動画像の時間長さ)に達したか否か判定する。ステップ124の判定が否定された場合はステップ126へ移行し、ステップ126において、CPU14は、現在のシミュレーション時刻tにシミュレーションの時間間隔Δtを加算した時刻を現在のシミュレーション時刻tに代入する。ステップ126の処理を行った後はステップ110に戻り、ステップ124の判定が肯定される迄、ステップ110〜ステップ126を繰り返す。これにより、シミュレーション時刻t=0からシミュレーションの最終時刻迄の期間を時間間隔Δt毎に刻んだ各シミュレーション時刻tについて、球面投影像が各々演算・記憶される。   In step 122, the CPU 14 stores the spherical projection image at the current simulation time t obtained by the above processing in the storage unit 18. In the next step 124, the CPU 14 determines whether or not the current simulation time t has reached a preset final simulation time (= time length of the HUD evaluation moving image). If the determination in step 124 is negative, the process proceeds to step 126. In step 126, the CPU 14 substitutes a time obtained by adding the simulation time interval Δt to the current simulation time t to the current simulation time t. After performing the process of step 126, the process returns to step 110, and steps 110 to 126 are repeated until the determination of step 124 is affirmed. As a result, spherical projection images are respectively calculated and stored for each simulation time t in which the period from the simulation time t = 0 to the final simulation time is cut every time interval Δt.

現在のシミュレーション時刻tが最終時刻に達すると、ステップ124の判定が肯定されてステップ128へ移行し、ステップ128において、CPU14は、シミュレーション時刻tに再び0に設定する。ステップ130において、CPU14は、現在のシミュレーション時刻tに対応する球面投影像を記憶部18から読み出す。   When the current simulation time t reaches the final time, the determination in step 124 is affirmed and the process proceeds to step 128. In step 128, the CPU 14 sets the simulation time t to 0 again. In step 130, the CPU 14 reads a spherical projection image corresponding to the current simulation time t from the storage unit 18.

次のステップ132において、CPU14は、ステップ130で記憶部18から読み出した球面投影像を表示部42に表示させる。なお、表示部42の表示面は通常は平面であるので、表示部42への球面投影像の表示は、読み出した球面投影像を視認軸から見た画像として平面へ投影し、この投影演算によって得られた画像を表示部42に表示することによって為される。これにより、現在のシミュレーション時刻tでの運転者の視界を高精度に模擬した画像が表示部42に表示される。   In the next step 132, the CPU 14 causes the display unit 42 to display the spherical projection image read from the storage unit 18 in step 130. Since the display surface of the display unit 42 is usually a flat surface, the spherical projection image is displayed on the display unit 42 by projecting the read spherical projection image onto the plane as an image viewed from the visual axis. This is done by displaying the obtained image on the display unit 42. As a result, an image simulating the driver's field of view at the current simulation time t with high accuracy is displayed on the display unit 42.

ステップ134において、CPU14は、現在のシミュレーション時刻tがシミュレーションの最終時刻に達したか否か判定する。ステップ134の判定が否定された場合はステップ136へ移行し、ステップ136において、CPU14は、現在のシミュレーション時刻tに時間間隔Δtを加算した時刻を現在のシミュレーション時刻tに代入する。ステップ136の処理を行った後はステップ130に戻り、ステップ134の判定が肯定される迄、ステップ130〜ステップ136を繰り返す。   In step 134, the CPU 14 determines whether or not the current simulation time t has reached the final simulation time. If the determination in step 134 is negative, the process proceeds to step 136. In step 136, the CPU 14 substitutes a time obtained by adding the time interval Δt to the current simulation time t to the current simulation time t. After performing the process of step 136, the process returns to step 130, and steps 130 to 136 are repeated until the determination of step 134 is affirmed.

これにより、シミュレーション時刻t=0からシミュレーションの最終時刻迄の期間を時間間隔Δt毎に刻んだ各シミュレーション時刻tにおける運転者の視界を高精度に模擬した画像が表示部42に順次表示される。すなわち、HUD評価用動画像が表示部42に表示されることになる。なお、車両(自車両)52が直線路を走行しているシミュレーション時刻tのときに表示部42に表示される画像の一例を図4に示し、車両(自車両)52が屈曲路を走行しているシミュレーション時刻tのときに表示部42に表示される画像の一例を図5に示す。そして、表示部42へのHUD評価用動画像の表示が完了すると、ステップ134の判定が肯定されてHUD評価支援処理を終了する。   As a result, images simulating the driver's field of view at each simulation time t obtained by ticking the period from the simulation time t = 0 to the final simulation time for each time interval Δt are sequentially displayed on the display unit 42. That is, the HUD evaluation moving image is displayed on the display unit 42. An example of an image displayed on the display unit 42 at the simulation time t when the vehicle (own vehicle) 52 is traveling on a straight road is shown in FIG. 4, and the vehicle (own vehicle) 52 travels on a curved road. An example of an image displayed on the display unit 42 at the simulation time t is shown in FIG. When the display of the HUD evaluation moving image on the display unit 42 is completed, the determination in step 134 is affirmed and the HUD evaluation support process is terminated.

評価者は、視点特定情報として入力する運転者の体格を変更したり、入力するシミュレーション条件IDを変更することでシミュレーション条件を変更したりしながら、HUD評価支援処理を実行させることを繰り返すと共に、各回の処理で表示部42に表示されたHUD評価用動画像を視認して表示品質等を評価し、車両用HUD50の現在の表示パラメータが適切か否かを判断する、というHUD評価作業を行う。   The evaluator repeatedly executes the HUD evaluation support process while changing the physique of the driver input as the viewpoint specifying information or changing the simulation condition by changing the input simulation condition ID, The HUD evaluation work of visually recognizing the HUD evaluation moving image displayed on the display unit 42 in each processing and evaluating the display quality and the like and determining whether or not the current display parameter of the vehicle HUD 50 is appropriate is performed. .

また、評価者は、車両用HUD50の現在の表示パラメータが適切でないと判断した場合には、車両用HUD50の各種の表示パラメータの少なくとも1つを変更した後に、変更後の表示パラメータに基づいて、上記のHUD評価作業を再度行う。上述した工程が車両用HUD50の現在の表示パラメータが適切と判断される迄繰り返されることで、車両用HUD50の表示パラメータを最適状態に近づけることができる。従って、大型シミュレータを用いた車両用HUD50の表示品質等の評価及び表示パラメータの変更の実施回数を削減することができ、車両用HUD50の表示パラメータの最適化に要するトータルの工数及びコストを削減することができる。   Further, when the evaluator determines that the current display parameter of the vehicle HUD 50 is not appropriate, after changing at least one of the various display parameters of the vehicle HUD 50, based on the changed display parameter, The above HUD evaluation work is performed again. By repeating the above-described process until the current display parameter of the vehicle HUD 50 is determined to be appropriate, the display parameter of the vehicle HUD 50 can be brought close to the optimum state. Accordingly, it is possible to reduce the number of times that the display quality and the like of the vehicle HUD 50 are evaluated and the display parameters are changed using the large simulator, and the total man-hour and cost required for optimizing the display parameters of the vehicle HUD 50 are reduced. be able to.

以上説明したように、本実施形態では、評価対象の車両用HUD50を搭載する車両52の3次元モデル情報26、車両52を走行させる仮想空間内に存在する物体の3次元モデル情報26,32、車両用HUD50の表示領域の3次元情報及び車両用HUD50の表示領域に表示する表示内容の情報を含むHUD情報28を各々記憶する記憶部18から各情報を各々取得し、取得した情報に基づいて、仮想空間内を走行する車両52の乗員の予め設定された視点位置から視認される物体及び車両用HUD50の表示領域に表示する表示内容を、中心が乗員の視点位置で半径が乗員の視点位置と車両用HUD50の表示領域との距離に相当する長さの仮想球面68に、乗員の視点位置を基点として一点透視図法により投影した球面投影像70を演算し、演算した球面投影像70を表示部42に投影表示させるので、車両用HUD50の表示品質等を精度良く簡易評価することができる。   As described above, in this embodiment, the three-dimensional model information 26 of the vehicle 52 on which the vehicle HUD 50 to be evaluated is mounted, the three-dimensional model information 26, 32 of the object existing in the virtual space in which the vehicle 52 travels, Each information is acquired from the storage unit 18 for storing the three-dimensional information of the display area of the vehicle HUD 50 and the HUD information 28 including the information of the display contents displayed in the display area of the vehicle HUD 50, and based on the acquired information , An object viewed from a preset viewpoint position of the occupant of the vehicle 52 traveling in the virtual space and a display content to be displayed in the display area of the vehicle HUD 50 are centered on the occupant viewpoint position and the radius is the occupant viewpoint position. And a spherical projection image 70 projected onto the virtual spherical surface 68 having a length corresponding to the distance between the vehicle HUD 50 and the display area of the vehicle HUD 50 by the one-point perspective method with the viewpoint position of the occupant as a base point. Since the calculated spherical projection image 70 is projected and displayed on the display unit 42, the display quality and the like of the vehicle HUD 50 can be easily and accurately evaluated.

また、本実施形態では、入力されたシミュレーション条件IDのシミュレーション条件で車両52が仮想空間内を走行したときの各時刻における球面投影像70を各々演算し、演算した各時刻における球面投影像70を表示部42に動画像として表示させるので、車両用HUD50の表示品質等に対する簡易評価の精度を更に向上させることができる。   In this embodiment, the spherical projection image 70 at each time when the vehicle 52 travels in the virtual space under the simulation condition of the input simulation condition ID is calculated, and the spherical projection image 70 at each calculated time is calculated. Since it is displayed on the display unit 42 as a moving image, the accuracy of the simple evaluation for the display quality and the like of the vehicle HUD 50 can be further improved.

また、本実施形態では、シミュレーション条件に、仮想空間内を移動する移動物体の仮想空間内における移動を規定する情報が含まれており、シミュレーション条件に応じて移動物体が仮想空間内を移動したときの各時刻における球面投影像を、記憶部18に記憶された移動物体の3次元モデル情報32に基づいて演算するので、車両用HUD50の表示品質等に対する簡易評価の精度を更に向上させることができる。   In the present embodiment, the simulation condition includes information defining movement of the moving object moving in the virtual space in the virtual space, and the moving object moves in the virtual space according to the simulation condition. Are calculated based on the three-dimensional model information 32 of the moving object stored in the storage unit 18, so that the accuracy of simple evaluation for the display quality and the like of the vehicle HUD 50 can be further improved. .

更に、本実施形態では、記憶部18に記憶された人間の視野特性情報34に基づき、乗員の視点位置から視認される物体として、乗員の視点位置を基点として乗員の視野範囲内に存在する物体を仮想球面に投影した球面投影像を演算するので、演算負荷を軽減できることで処理を高速化することができる。   Furthermore, in the present embodiment, an object that exists in the occupant's visual field range based on the occupant's viewpoint position as an object visually recognized from the occupant's viewpoint position based on the human visual field characteristic information 34 stored in the storage unit 18. Since the spherical projection image obtained by projecting the image onto the virtual spherical surface is calculated, the processing load can be reduced by reducing the calculation load.

また、本実施形態では、仮想空間上で乗員の視点位置と無限遠点を結ぶ視認軸に沿って球面投影像70を視認したときの画像を表示部42に投影表示させるので、車両用HUD50の表示品質等に対する簡易評価の精度を更に向上させることができる。   Further, in the present embodiment, an image obtained when the spherical projection image 70 is viewed along the visual axis connecting the occupant's viewpoint position and the infinity point in the virtual space is projected and displayed on the display unit 42. The accuracy of simple evaluation for display quality and the like can be further improved.

なお、上記で説明したHUD評価支援処理では、運転者の視界を模擬したHUD評価用動画像を表示部42に表示させることで、運転者から見た車両用HUD50の表示品質等を評価対象としていたが、これに限定されるものではなく、車両の助手席等の他の座席に着座している乗員の視界を模擬したHUD評価用動画像を表示部42に表示させる処理も行うことで、運転者以外の乗員から見た車両用HUD50の表示品質等も評価対象に含めてもよい。   In the HUD evaluation support process described above, the display quality of the HUD 50 for the vehicle as viewed from the driver is evaluated by displaying a moving image for HUD evaluation that simulates the driver's field of view on the display unit 42. However, the present invention is not limited to this, and by performing processing for displaying on the display unit 42 a moving image for HUD evaluation that simulates the field of view of an occupant seated in another seat such as a passenger seat of a vehicle, The display quality and the like of the vehicle HUD 50 as seen from a passenger other than the driver may be included in the evaluation target.

また、上記では、図1に示すように入力部40及び表示部42がコンピュータ12に直接接続された態様を説明したが、HUD評価支援処理を実行するコンピュータ12は、入力部40及び表示部42が接続された第2コンピュータと通信回線を介して接続された第1コンピュータ(例えばサーバ・コンピュータ)であってもよい。また、この場合、第1コンピュータは球面投影像70の演算までの処理を行い、第2コンピュータは球面投影像70を平面に投影した画像(HUD評価用動画像)の演算及び表示部42にHUD評価用動画像を表示させる処理を行うようにしてもよいし、第1コンピュータは球面投影像70の演算及び球面投影像70を平面に投影した画像(HUD評価用動画像)の演算までの処理を行い、第2コンピュータは表示部42にHUD評価用動画像を表示させる処理を行うようにしてもよい。   In the above description, the input unit 40 and the display unit 42 are directly connected to the computer 12 as illustrated in FIG. 1. However, the computer 12 that executes the HUD evaluation support process includes the input unit 40 and the display unit 42. May be a first computer (for example, a server computer) connected via a communication line to a second computer to which is connected. Further, in this case, the first computer performs processing up to the calculation of the spherical projection image 70, and the second computer calculates and displays the image (HUD evaluation moving image) obtained by projecting the spherical projection image 70 on the plane and HUD on the display unit 42. The processing for displaying the evaluation moving image may be performed, or the first computer performs processing up to the calculation of the spherical projection image 70 and the calculation of the image obtained by projecting the spherical projection image 70 onto the plane (HUD evaluation moving image). The second computer may perform processing for displaying the moving image for HUD evaluation on the display unit 42.

また、上記ではHUD評価支援プログラム24が記憶部18に予め記憶(インストール)されている態様を説明したが、HUD評価支援プログラム24は、CD−ROMやDVD−ROM、メモリカード等の記録媒体に記録されている形態で提供することも可能である。   In the above description, the HUD evaluation support program 24 is stored (installed) in the storage unit 18 in advance. However, the HUD evaluation support program 24 is stored in a recording medium such as a CD-ROM, a DVD-ROM, or a memory card. It is also possible to provide it in a recorded form.

以上の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1)
前記演算部は、前記車両が予め設定された条件で前記仮想空間内を走行したときの各時刻における前記球面投影像を各々演算し、前記表示制御部は、前記演算部が演算した各時刻における前記球面投影像を前記表示部に動画像として表示させる請求項1記載の車両用ヘッドアップディスプレイの評価支援装置。
(Appendix 1)
The calculation unit calculates the spherical projection image at each time when the vehicle travels in the virtual space under a preset condition, and the display control unit calculates the time at each time calculated by the calculation unit. The vehicle head-up display evaluation support apparatus according to claim 1, wherein the spherical projection image is displayed as a moving image on the display unit.

本発明において、表示制御部が表示部に表示させる像は静止画像であってもよいが、付記1記載の発明では、演算部が、車両が予め設定された条件で仮想空間内を走行したときの各時刻における球面投影像を各々演算し、表示制御部は、演算部が演算した各時刻における球面投影像を表示部に動画像として表示させる。これにより、表示部に静止画像を表示させる場合と比較して、表示部に投影表示される像が、乗員によって視認されるヘッドアップディスプレイの表示等を模擬する精度が向上し、車両用ヘッドアップディスプレイの表示品質等に対する簡易評価の精度が向上する。   In the present invention, the image displayed on the display unit by the display control unit may be a still image. However, in the invention described in appendix 1, when the calculation unit travels in the virtual space under a preset condition. The spherical projection image at each time is calculated, and the display control unit displays the spherical projection image at each time calculated by the calculation unit on the display unit as a moving image. As a result, compared with the case where a still image is displayed on the display unit, the image projected and displayed on the display unit improves the accuracy of simulating the display of a head-up display that is visually recognized by an occupant, and the vehicle head-up is improved. The accuracy of simple evaluation for the display quality of the display is improved.

(付記2)
前記仮想空間内に存在する物体の3次元情報は、前記仮想空間内を移動する移動物体の3次元情報を含み、前記予め設定された条件は、前記仮想空間内における前記移動物体の移動を規定する情報を含み、前記演算部は、前記移動物体の移動を規定する情報に応じて前記移動物体が前記仮想空間内を移動したときの各時刻における前記球面投影像を各々演算する付記1記載の車両用ヘッドアップディスプレイの評価支援装置。
(Appendix 2)
The three-dimensional information of the object existing in the virtual space includes the three-dimensional information of the moving object moving in the virtual space, and the preset condition defines the movement of the moving object in the virtual space. The additional calculation unit according to claim 1, wherein the calculation unit calculates the spherical projection image at each time when the moving object moves in the virtual space according to the information defining the movement of the moving object. Evaluation support device for vehicle head-up display.

付記2記載の発明では、仮想空間内に存在する物体の3次元情報に、仮想空間内を移動する移動物体の3次元情報が含まれており、予め設定された条件に、仮想空間内における移動物体の移動を規定する情報が含まれている。そして演算部は、移動物体の移動を規定する情報に応じて移動物体が仮想空間内を移動したときの各時刻における球面投影像を各々演算する。これにより、表示部に表示される動画像が、移動物体の移動を規定する情報に応じて移動物体が仮想空間内を移動する動画像となり、動画像内に移動物体が存在しない場合と比較して、表示部に投影表示される像が、乗員によって視認されるヘッドアップディスプレイの表示等を模擬する精度が向上するので、車両用ヘッドアップディスプレイの表示品質等に対する簡易評価の精度が向上する。   In the invention according to attachment 2, the three-dimensional information of the object existing in the virtual space includes the three-dimensional information of the moving object moving in the virtual space, and the movement in the virtual space is performed according to a preset condition. Information that defines the movement of the object is included. Then, the calculation unit calculates a spherical projection image at each time when the moving object moves in the virtual space according to the information defining the movement of the moving object. As a result, the moving image displayed on the display unit becomes a moving image in which the moving object moves in the virtual space in accordance with the information defining the movement of the moving object, compared with the case where there is no moving object in the moving image. Thus, since the image projected and displayed on the display unit simulates the display of the head-up display or the like visually recognized by the occupant, the accuracy of the simple evaluation with respect to the display quality or the like of the vehicle head-up display is improved.

(付記3)
前記記憶部には人間の視野特性を表す視野特性情報が記憶されており、前記演算部は、前記視野特性情報に基づき、前記視点位置から視認される物体として、前記視点位置を基点として乗員の視野範囲内に存在する物体を前記仮想球面に投影した球面投影像を演算する請求項1、付記1及び付記2の何れか1項記載の車両用ヘッドアップディスプレイの評価支援装置。
(Appendix 3)
Visual field characteristic information representing human visual field characteristics is stored in the storage unit, and the calculation unit is an object that is visually recognized from the viewpoint position based on the visual field characteristic information, and is based on the viewpoint position as an occupant's viewpoint. 3. The vehicle head-up display evaluation support apparatus according to claim 1, wherein a spherical projection image obtained by projecting an object existing in a visual field range onto the virtual spherical surface is calculated.

付記3記載の発明では、人間の視野特性を表す視野特性情報に基づき、乗員の視点位置から視認される物体として、乗員の視点位置を基点として乗員の視野範囲内に存在する物体を仮想球面に投影した球面投影像を演算する。これにより、仮想空間のうち車両の周辺に存在する全ての物体を仮想球面に投影した球面投影像を演算する場合と比較して、仮想球面に投影する物体の位置の範囲が狭くなることで、演算部の演算負荷を軽減することができ、処理を高速化することができる。   In the invention according to attachment 3, based on visual field characteristic information representing human visual field characteristics, an object that is visually recognized from an occupant's viewpoint position is defined as an imaginary sphere that is present in the occupant's visual field range based on the occupant's viewpoint position. The projected spherical projection image is calculated. As a result, the range of the position of the object projected on the virtual sphere is reduced compared to the case of calculating a spherical projection image obtained by projecting all objects existing around the vehicle in the virtual space onto the virtual sphere. The calculation load on the calculation unit can be reduced, and the processing speed can be increased.

(付記4)
前記表示制御部は、前記仮想空間上で前記視点位置と無限遠点を結ぶ視認軸に沿って前記球面投影像を視認したときの画像を表示部に投影表示させる請求項1、付記1〜付記3の何れか1項記載の車両用ヘッドアップディスプレイの評価支援装置。
(Appendix 4)
The display control unit projects and displays an image on the display unit when the spherical projection image is viewed along a visual axis that connects the viewpoint position and an infinity point in the virtual space. The evaluation support apparatus for a head-up display for a vehicle according to any one of claims 3 to 4.

付記4記載の発明では、仮想空間上で乗員の視点位置と無限遠点を結ぶ視認軸に沿って球面投影像を視認したときの画像を表示部に投影表示させるので、上記の視認軸以外の軸に沿って球面投影像を視認したときの画像を表示部に投影表示させる場合と比較して、表示部に投影表示される像が、乗員によって視認されるヘッドアップディスプレイの表示等を模擬する精度が向上するので、車両用ヘッドアップディスプレイの表示品質等に対する簡易評価の精度が向上する。   In the invention according to the supplementary note 4, an image obtained by visually recognizing the spherical projection image along the visual axis connecting the occupant's viewpoint position and the infinity point in the virtual space is projected and displayed on the display unit. The image projected and displayed on the display unit simulates the display of a head-up display that is visually recognized by the occupant, as compared with the case where the image when the spherical projection image is viewed along the axis is projected and displayed on the display unit. Since the accuracy is improved, the accuracy of the simple evaluation for the display quality of the vehicle head-up display is improved.

10 HUD評価支援装置
12 コンピュータ
14 CPU
18 記憶部
24 評価支援プログラム
26 車両3次元モデル情報
28 HUD情報
30 仮想空間3次元情報
32 移動物体3次元モデル情報
34 人間の視野特性情報
36 シミュレーション条件情報
42 表示部
50 車両用HUD
52,60A〜60C 車両
62 無限遠点及び視認軸に相当する点
64A,64B 視野範囲
66 視点位置
68 仮想球面
70 球面投影像
10 HUD evaluation support device 12 Computer 14 CPU
18 Storage unit 24 Evaluation support program 26 Vehicle three-dimensional model information 28 HUD information 30 Virtual space three-dimensional information 32 Moving object three-dimensional model information 34 Human visual field characteristic information 36 Simulation condition information 42 Display unit 50 Vehicle HUD
52, 60A to 60C Vehicle 62 Points corresponding to infinity point and viewing axis 64A, 64B Field of view range 66 Viewpoint position 68 Virtual spherical surface 70 Spherical projection image

Claims (1)

評価対象のヘッドアップディスプレイを搭載する車両の3次元情報、前記車両を走行させる仮想空間内に存在する道路を含む物体の3次元情報、前記ヘッドアップディスプレイの表示領域の3次元情報、及び、前記表示領域に表示する表示内容の情報を各々記憶する記憶部から各情報を各々取得する取得部と、
前記取得部が取得した情報に基づいて、前記仮想空間内を走行する前記車両の乗員の予め設定された視点位置から視認される物体及び前記表示領域に表示する表示内容を、中心が前記視点位置で半径が前記視点位置と前記ヘッドアップディスプレイとの距離に相当する長さの仮想球面に、前記視点位置を基点として一点透視図法により投影した球面投影像を演算する演算部と、
前記演算部が演算した前記球面投影像を表示部に投影表示させる表示制御部と、
を含む車両用ヘッドアップディスプレイの評価支援装置。
Three-dimensional information of a vehicle equipped with a head-up display to be evaluated, three-dimensional information of an object including a road existing in a virtual space in which the vehicle is driven, three-dimensional information of a display area of the head-up display, and An acquisition unit that acquires each piece of information from a storage unit that stores information on display contents to be displayed in the display area;
Based on the information acquired by the acquisition unit, an object viewed from a preset viewpoint position of an occupant of the vehicle traveling in the virtual space and the display content displayed in the display area are centered on the viewpoint position. A calculation unit that calculates a spherical projection image projected by a one-point perspective projection with the viewpoint position as a base point on a virtual spherical surface having a radius corresponding to a distance between the viewpoint position and the head-up display;
A display control unit that projects and displays the spherical projection image calculated by the calculation unit on a display unit;
Evaluation support apparatus for vehicle head-up display including
JP2015236673A 2015-12-03 2015-12-03 Evaluation support device for vehicle head-up display Active JP6481596B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015236673A JP6481596B2 (en) 2015-12-03 2015-12-03 Evaluation support device for vehicle head-up display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236673A JP6481596B2 (en) 2015-12-03 2015-12-03 Evaluation support device for vehicle head-up display

Publications (2)

Publication Number Publication Date
JP2017102331A JP2017102331A (en) 2017-06-08
JP6481596B2 true JP6481596B2 (en) 2019-03-13

Family

ID=59015371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236673A Active JP6481596B2 (en) 2015-12-03 2015-12-03 Evaluation support device for vehicle head-up display

Country Status (1)

Country Link
JP (1) JP6481596B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108528341B (en) * 2018-05-14 2020-12-25 京东方科技集团股份有限公司 Method for demonstrating functions of vehicle-mounted head-up display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0922245A (en) * 1995-07-05 1997-01-21 Mitsubishi Heavy Ind Ltd Simulator with simulated field-of-view device
US6612840B1 (en) * 2000-04-28 2003-09-02 L-3 Communications Corporation Head-up display simulator system
JP4506927B2 (en) * 2001-08-09 2010-07-21 株式会社島津製作所 Simulator
JP2013130928A (en) * 2011-12-20 2013-07-04 Denso It Laboratory Inc Design support device, and method and program for design support
JP6213359B2 (en) * 2014-04-16 2017-10-18 株式会社デンソー Drive recorder and acceleration correction program for drive recorder

Also Published As

Publication number Publication date
JP2017102331A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
WO2021197189A1 (en) Augmented reality-based information display method, system and apparatus, and projection device
KR20190132404A (en) Direct vehicle detection as 3D bounding boxes using neural network image processing
EP4339938A1 (en) Projection method and apparatus, and vehicle and ar-hud
US11257390B2 (en) Evaluation of a simulated vehicle-related feature
CN111091038A (en) Training method, computer readable medium, and method and apparatus for detecting vanishing points
US20210375059A1 (en) Method for operating a display device in a motor vehicle
JP2021516390A (en) Surround view system with adjusted projection plane
CN108039084A (en) Automotive visibility evaluation method and system based on virtual reality
JP7353389B2 (en) Scene attribute annotation of complex road typefaces
US11938819B2 (en) Evaluation of a simulated vehicle-related feature
JP4841903B2 (en) Driving simulator
CN112484743B (en) Vehicle-mounted HUD fusion live-action navigation display method and system thereof
KR20170127871A (en) Driving simulator for vehicle and method for controlling the same
JP6481596B2 (en) Evaluation support device for vehicle head-up display
JP4517336B2 (en) Simulation apparatus and method
WO2019218789A1 (en) Method and system for demonstrating functions of vehicle-mounted heads up display, and computer readable storage medium
JP4366709B2 (en) Image processing method, simulation apparatus, program, and recording medium
CN111291447B (en) Evaluating simulated vehicle functional characteristics
JP7261370B2 (en) Information processing device, information processing system, information processing method, and computer program
JP2013130928A (en) Design support device, and method and program for design support
JP4438767B2 (en) Design support apparatus, design support method, and program
JP6570224B2 (en) Automobile external recognition system
JP4517335B2 (en) Simulation apparatus and method
JP2019043312A (en) Head-up display device
JP7372488B2 (en) Apparatus and method for modifying ground truth to examine the accuracy of machine learning models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190128

R151 Written notification of patent or utility model registration

Ref document number: 6481596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151