JP7063856B2 - Display control device - Google Patents
Display control device Download PDFInfo
- Publication number
- JP7063856B2 JP7063856B2 JP2019139712A JP2019139712A JP7063856B2 JP 7063856 B2 JP7063856 B2 JP 7063856B2 JP 2019139712 A JP2019139712 A JP 2019139712A JP 2019139712 A JP2019139712 A JP 2019139712A JP 7063856 B2 JP7063856 B2 JP 7063856B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- vehicle
- display control
- control device
- load
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 46
- 238000012937 correction Methods 0.000 claims description 18
- 238000006073 displacement reaction Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 5
- 239000011295 pitch Substances 0.000 description 46
- 238000000034 method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 239000000725 suspension Substances 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
Description
本開示は、車載ディスプレイによる表示を制御する技術に関する。 The present disclosure relates to a technique for controlling display by an in-vehicle display.
ウィンドシールド越しに見える車外の風景中の対象物に虚像を重畳表示するAR機能を有したヘッドアップディスプレイ(以下、AR-HUD)が知られている。ARは、Augmented Realityの略であり、拡張現実と訳される。HUDは、Head Up Displayの略である。AR-HUDでは、車両のピッチ角やロール角の変化によって、風景中における虚像の重畳位置がずれるという問題がある。 A head-up display (hereinafter referred to as AR-HUD) having an AR function for superimposing a virtual image on an object in a landscape outside a vehicle that can be seen through a windshield is known. AR is an abbreviation for Augmented Reality and is translated as augmented reality. HUD is an abbreviation for Head Up Display. The AR-HUD has a problem that the superimposed position of the virtual image in the landscape shifts due to the change in the pitch angle and the roll angle of the vehicle.
下記特許文献1には、角度センサおよびロールセンサを用いて車両姿勢を推定し、推定された車両姿勢に基づいて、ウィンドシールドに映像を投影するミラーの角度や映像内での表示位置を調整することで、虚像の位置ずれを抑制する技術が開示されている。
In
しかしながら、発明者の詳細な検討の結果、特許文献1に記載の従来技術では、車両姿勢を推定するために、高価なセンサを二つ用いる必要があり、また、車両挙動によりドライバの眼の位置がずれた場合に、虚像の位置ずれが大きくなるという問題もあった。
However, as a result of detailed examination by the inventor, in the prior art described in
本開示の1つの局面は、簡易な手法で対象物に重畳表示される虚像の位置ずれを精度よく抑制する技術を提供することにある。 One aspect of the present disclosure is to provide a technique for accurately suppressing a misalignment of a virtual image superimposed and displayed on an object by a simple method.
本開示の一態様は、表示制御装置であって、情報生成部(101)と、荷重取得部(102:S110)と、車高取得部(102:S130)と、特性選択部(102:S120)と、ピッチ角算出部(102:S150)と、眼情報取得部(102:S160)と、補正処理部(102:S170)と、を備える。情報生成部は、投影領域を介してドライバに視認される風景中に存在する対象物の情報を取得し、対象物の3次元位置情報に応じて、対象物に重畳する重畳画像の投影領域内での投影位置を設定する。投影領域は、ドライバに虚像として認識させる画像が投影される車両のフロントウインド中の領域である。荷重取得部は、複数の計測位置にて車両に加わる荷重状態の検出結果である荷重検出値を取得する。車高取得部は、車両の車高について基準高さからの変位量の検出結果である車高変位量を取得する。特性選択部は、荷重状態に対応付けて用意された、車高変位量と車両のピッチ角との関係を表す複数種類の特性情報から、荷重取得部で取得された荷重検出値に応じた特性情報を選択する。ピッチ角算出部は、特性選択部にて選択された特性情報を用いて、車高取得部にて取得された車高変位量から、ピッチ角を算出する。眼情報取得部は、ドライバの眼の位置について基準位置からのずれ量の検出結果である眼情報を取得する。補正処理部は、ドライバによって視認される重畳画像が対象物に重畳表示されるように、ピッチ角および眼情報の両方に従って、情報生成部が設定する重畳画像の投影位置を補正する。 One aspect of the present disclosure is a display control device, which includes an information generation unit (101), a load acquisition unit (102: S110), a vehicle height acquisition unit (102: S130), and a characteristic selection unit (102: S120). ), A pitch angle calculation unit (102: S150), an eye information acquisition unit (102: S160), and a correction processing unit (102: S170). The information generation unit acquires information on the object existing in the landscape visually recognized by the driver via the projection area, and in the projection area of the superimposed image superimposed on the object according to the three-dimensional position information of the object. Set the projection position at. The projection area is an area in the front window of the vehicle on which an image to be recognized as a virtual image by the driver is projected. The load acquisition unit acquires the load detection value, which is the detection result of the load state applied to the vehicle at a plurality of measurement positions. The vehicle height acquisition unit acquires the vehicle height displacement amount, which is the detection result of the displacement amount from the reference height for the vehicle height of the vehicle. The characteristic selection unit is prepared in association with the load state, and is characterized according to the load detection value acquired by the load acquisition unit from a plurality of types of characteristic information representing the relationship between the vehicle height displacement amount and the vehicle pitch angle. Select information. The pitch angle calculation unit calculates the pitch angle from the vehicle height displacement amount acquired by the vehicle height acquisition unit using the characteristic information selected by the characteristic selection unit. The eye information acquisition unit acquires eye information, which is a detection result of the amount of deviation of the driver's eye position from the reference position. The correction processing unit corrects the projection position of the superimposed image set by the information generation unit according to both the pitch angle and the eye information so that the superimposed image visually recognized by the driver is superimposed and displayed on the object.
このような構成によれば、車高変位量から車両のピッチ角を算出し、その算出に用いる特性情報を、車両に加わる荷重状態に応じて選択するため、車高変位量を検出する一つのセンサの検出結果から、ピッチ角を精度よく算出できる。更に、この算出されたピッチ角だけでなく、ドライバの眼の位置に応じて、重畳画像の投影位置を補正するため、ドライバに視認される虚像の対象物からの位置ずれを精度よく抑制できる。 According to such a configuration, the pitch angle of the vehicle is calculated from the vehicle height displacement amount, and the characteristic information used for the calculation is selected according to the load state applied to the vehicle, so that the vehicle height displacement amount is detected. The pitch angle can be calculated accurately from the detection result of the sensor. Further, since the projection position of the superimposed image is corrected according to not only the calculated pitch angle but also the position of the driver's eyes, it is possible to accurately suppress the positional deviation of the virtual image visually recognized by the driver from the object.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1~図3に示す情報表示システム1は、車両に搭載して使用される。以下、情報表示システム1を搭載する車両を自車という。情報表示システム1は、表示制御装置10を備える。情報表示システム1は、周辺監視部2と、挙動検知部3と、ドライバ検知部4と、地図記憶部5と、測位部6と、ナビゲーション装置7と、特性記憶部8と、ヘッドアップディスプレイ(以下、HUD)装置9とを備えてもよい。HUDは、Head Up Displayの略であ る。これら情報表示システム1を構成する各部は、車載LANを介して情報を送受信してもよい。LANは、Local Area Networkの略である。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. Constitution]
The
情報表示システム1は、HUD装置9によって、ドライバ席前方に位置するウィンドシールド120に画像を投影することで、ウィンドシールドを通してドライバに視認される実風景に重ねて、様々な情報を表示する。以下では、このような実風景に重畳して表示される画像をAR画像という。ARは、Augmented Realityの略である。
The
周辺監視部2は、レーダセンサおよびカメラのうち少なくとも一方を備える。レーダセンサは、赤外線、ミリ波、超音波などをレーダ波として使用し、レーダ波を反射した物標との距離や、その物標が存在する方向等を検出する。カメラは、可視光カメラや赤外線カメラ等が用いられる。カメラは、ウィンドシールドを通してドライバによって視認される領域(以下、視認領域)を撮像範囲として含むように配置される。レーダセンサは、カメラと同様に、視認領域を検知範囲として含むように配置される。
The
周辺監視部2は、自車の走行路上に存在する物標をレーダセンサおよびカメラで検知し、検知した物標の位置を含む物標情報等を生成する。周辺監視部2の検出対象には、例えば、先進運転支援システム(すなわち、ADAS:Advanced Driver Assistance System)での処理の対象となる種々の物標が含まれる。なお、周辺監視部2は、後述する地図記憶部5に記憶された地図情報に基づいて、物標の位置を含む物標情報を生成してもよい。
The
挙動検知部3は、ドライバによる運転操作を表す信号、その運転操作の結果である自車の挙動を表す信号、および自車の挙動に影響を与える車両の状態を表す信号を出力する種々のセンサを含む。
The
挙動検知部3は、少なくともハイトセンサ31、シートセンサ32、およびトランクセンサ33を含む。ハイトセンサ31は、自車の車輪のいずれかに設けられ、車輪の車軸と車体との相対変位量(以下、車高変位量という)Hに応じた検出信号を出力する。本実施形態では、右後輪に設けられる。シートセンサ32は、自車の乗員シートのそれぞれに設けられ、各乗員シートの乗員の有無を表す検出信号を出力する。ここでは、運転席(以下、D席)、助手席(以下、P席)、後部右席(以下、RR席)、後部左席(以下、RL席)が存在する。トランクセンサ33は、自車の後端付近に位置するトランクに設けられ、トランク内の荷物の有無を表す検出信号を出力する。なお、シートセンサ32およびトランクセンサ33は、乗員や荷物等の積載物の重さを表す検出信号を出力するように構成されてもよい。
The
挙動検知部3には、ハイトセンサ31、シートセンサ32、およびトランクセンサ33以外に、例えば、アクセルペダルセンサ、ブレーキペダルセンサ、舵角センサ、方向指示スイッチ、車速センサ、加速度センサ、およびヨーレートセンサ等が含まれてもよい。
In addition to the
ドライバ検知部4は、車内カメラにより撮像されたドライバの顔画像から、顔位置、顔向き、眼位置および視線方向といったドライバの状態を検知する装置である。ドライバ検知部4は、いわゆるドライバ状況モニタリングシステム(すなわち、DSM:Driver Status Monitoring system)として知られている。
The
地図記憶部5には、地図情報およびAR情報等が記憶される。地図情報は、ナビゲーション装置7による経路案内や実風景にAR画像を重畳表示させるために用いられる。
地図情報には、道路に関する情報、白線等の区画線および道路標示に関する情報、構造物に関する情報が含まれる。道路に関する情報には、例えば地点別の位置情報、カーブ曲率や勾配、他の道路との接続関係といった形状情報が含まれる。区画線および道路標示に関する情報には、例えば、区画線および道路標示の種別情報、位置情報、および3次元形状情報が含まれる。構造物に関する情報には、例えば各構造物の種別情報、位置情報、および形状情報が含まれる。ここで構造物には、道路標識、信号機、街灯、トンネル、陸橋、および道路に面する建物等が含まれる。
Map information, AR information, and the like are stored in the map storage unit 5. The map information is used for route guidance by the navigation device 7 and for superimposing an AR image on the actual landscape.
Map information includes information on roads, lane markings such as white lines, information on road markings, and information on structures. The information about the road includes, for example, position information for each point, curve curvature and slope, and shape information such as connection relationship with other roads. Information on lane markings and road markings includes, for example, lane marking and road marking type information, location information, and three-dimensional shape information. The information about the structure includes, for example, type information, position information, and shape information of each structure. Here, the structure includes road signs, traffic lights, street lights, tunnels, overpasses, buildings facing the road, and the like.
地図情報は、上述の位置情報および形状情報を、3次元座標で表される特徴点の点群データやベクトルデータ等の形式で有する。すなわち地図情報は、位置情報に関して経緯度に加えて高度を含んだ3次元地図を表現する。従って、地図情報からは、道路上の各地点における道路の勾配に関する情報、具体的には、道路の進行方向に沿った縦断勾配および道路の幅方向に沿った横断勾配が抽出可能である。地図情報に含まれる位置情報は、センチメートルオーダの比較的小さい誤差を有する。地図情報は、高さ情報まで含んだ3次元座標による位置情報を有しているという点で精度の高い地図データであり、また、その位置情報の誤差が比較的小さいという点でも精度の高い地図データである。 The map information has the above-mentioned position information and shape information in the form of point cloud data, vector data, or the like of feature points represented by three-dimensional coordinates. That is, the map information represents a three-dimensional map including altitude in addition to latitude and longitude with respect to position information. Therefore, from the map information, it is possible to extract information on the slope of the road at each point on the road, specifically, a longitudinal slope along the traveling direction of the road and a cross slope along the width direction of the road. The location information contained in the map information has a relatively small error on the order of centimeters. The map information is highly accurate map data in that it has position information based on three-dimensional coordinates including height information, and it is also highly accurate in that the error in the position information is relatively small. It is data.
AR情報は、AR画像の表示に用いられるデータであり、背景に重畳して表示する記号、文字、およびアイコン等が含まれる。AR情報として、ナビゲーション装置7と連動した経路案内のための情報(例えば、路面に重畳表示される矢印など)が含まれてもよい。 The AR information is data used for displaying an AR image, and includes symbols, characters, icons, and the like that are superimposed and displayed on the background. The AR information may include information for route guidance linked with the navigation device 7 (for example, an arrow superimposed on the road surface).
測位部6は、自車の現在位置を特定するための位置情報を生成する装置である。測位部6は、例えばGNSS受信機と、ジャイロスコープおよび距離センサ等の自律航法用のセンサとを備える。GNSSは、Global Navigation Satellite Systemの略称である。GNSS受信機は、人工衛星からの送信信号を受信し、車両の位置座標や高度を検出する。ジャイロスコープは、車両に加えられる回転運動の角速度に応じた検出信号を出力する。距離センサは、車両の走行距離を出力する。測位部6は、これらの機器からの出力信号に基づき、自車の現在位置を算出する。測位部6は、GNSS受信機からの情報と、自律航法用のセンサからの情報とを組み合わせる複合測位により、車両の高精度な位置情報等を生成する。測位部6は、例えば複数車線のうち、車両が走行する車線を特定する精度を有する。
The
ナビゲーション装置7は、自車の現在位置と地図データとに基づいて経路案内を実施する。ナビゲーション装置7は、測位部6での測位結果と、地図データを利用したマップマッチングにより、道路上における自車の現在位置や進行方位を特定する。ナビゲーション装置7は、自車の現在位置および進行方位、目的地までの経路、ドライバの視覚領域内に存在する道路や施設に関する地図情報およびAR情報等を表示制御装置10に提供する。
The navigation device 7 provides route guidance based on the current position of the own vehicle and map data. The navigation device 7 identifies the current position and the traveling direction of the own vehicle on the road by the positioning result of the
特性記憶部8は、不揮発性メモリを備える。特性記憶部8には、ハイトセンサ31の検出値から車両ピッチ角への変換時に用いられる特性情報Gが記憶される。特性情報Gは、数式であってもよいし、テーブル形式のデータであってもよい。また、特性情報Gは、シートセンサ32およびトランクセンサ33の検出結果、すなわち車両内での乗員および積載物の配置から特定される荷重状態に応じて複数種類が用意される。
The
例えば、シートセンサ32は、4つの乗員シート(すなわち、D席、P席、RR席、RL席)のそれぞれで乗員の有無を検出し、トランクセンサ33は、1つのトランクで荷物の有無を検出する。この場合、上記5箇所の積載物(すなわち、乗員または荷物)の有無によって荷重状態は32パターン存在する。但し、D席は常に乗員ありとすると、荷重状態は16パターンとなる。この16パターンのそれぞれについて特性情報を用意してもよいが、類似した変換特性を有する荷重状態のパターンを統合して、特性情報の数を削減してもよい。具体的には、例えば、P席の乗員の有無およびトランクの荷物の有無で分類した4パターンとしてもよいし、P席の乗員の有無だけで分類した2パターンとしてもよい。
For example, the
図2および図3に示すように、HUD装置9は、インストルメントパネル110に配置される。HUD装置9は、プロジェクタ91と、光学系92とを備える。プロジェクタ91は、液晶ディスプレイ(以下、LCD)パネルとバックライトとを備える。プロジェクタ91はLCDパネルの表示画面を光学系92に向けた姿勢で固定される。プロジェクタ91は、表示制御装置10からの指示に従ってLCDパネルに画像を表示し、バックライトによって透過照明することで、虚像として結像される光を光学系92に向けて射出する。光学系92は、少なくとも凹面鏡を有しており、プロジェクタ91から射出された光を反射しかつ拡大して、ドライバの視認領域中に設定されたウィンドシールド120上の領域である投影領域121に投影する。これにより、ドライバの視認領域中の実風景にAR画像が重畳表示される。
As shown in FIGS. 2 and 3, the
表示制御装置10は、CPU11と、例えば、ROMまたはRAM等の半導体メモリ(以下、単にメモリ12)とを有するマイクロコンピュータを備える。表示制御装置10の各機能は、CPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。表示制御装置10は、HCUとも呼ばれる。HCUは、HMI Control Unitの略であり、HMIは、Human Machine Interfaceの略である。
The
表示制御装置10は、メモリ12に記憶されたプログラムを実行することで実現される機能構成として、情報生成部101と、位置補正部102とを備える。
情報生成部101は、周辺監視部2での検出結果、ナビゲーション装置7からの経路情報、および地図情報等に基づいて、投影領域121を介して視認され、かつ、ドライバへの情報提供の対象となる対象物を抽出する。情報生成部101は、対象物の3次元位置を表す位置情報と、対象物に重畳表示されるAR画像を生成する。このとき、対象物の3次元位置と、標準的なドライバの眼位置とに基づき、車両がドライバのみが搭乗した標準的な荷重状態にある場合に、AR画像が対象物に重畳されて認識されるように、投影領域121におけるAR画像の投影位置が設定される。
The
The
位置補正部102は、センサ31~33での検出結果と、特性記憶部8に記憶された特性情報とから算出される車両ピッチ角に基づいて、情報生成部101にて生成された投影領域121におけるAR画像の投影位置を補正する。
The
表示制御装置10は、情報生成部101にて生成され、位置補正部102により投影位置が補正されたAR画像を、HUD装置9に表示させる。
[2.処理]
次に、表示制御装置10が、位置補正部102としての機能を実現するために実行する処理を、図4のフローチャートを用いて説明する。なお、本処理は、HUD装置9への給電が開始され表示可能な状態になると実行される。
The
[2. process]
Next, the process executed by the
S110では、表示制御装置10は、シートセンサ32およびトランクセンサ33での検出結果を、車両に加わる荷重状態を表す荷重検出値として取得する。ここでは、荷重検出値として、乗員の有無および荷物等の積載物の有無が用いられる。続くS120では、表示制御装置10は、荷重検出値が示す荷重状態に応じた特性情報Gを、特性記憶部8から取得する。
In S110, the
続くS130では、表示制御装置10は、ハイトセンサ31の検出値である車高検出値Hを取得する。
続くS140では、表示制御装置10は、地図記憶部5に記憶された地図情報に基づき、測位部6から取得される現在位置、すなわち自車が走行中の道路の道路勾配を表す勾配情報ψを取得する。ここでの勾配情報ψは、縦断勾配を表す。
In the following S130, the
In the following S140, the
続くS150では、表示制御装置10は、S120で取得された特性情報Gと、S130で取得された車高検出値Hと、S140で取得された勾配情報ψとに基づき、(1)式を用いて、水平面に対する車体の前後方向への傾斜角度である車両ピッチ角θを算出する。G(H)は、車高検出値Hを用いて特性情報Gから推定される車両ピッチ角である。Cは、実験的に決定される定数である。
In the following S150, the
続くS170では、表示制御装置10は、S150で算出された車両傾き角度θと、S160で取得された眼情報と、AR画像が重畳される対象物の3次元位置とに基づいて、投影領域121でのAR画像の投影位置の補正量を算出する。情報生成部101で生成されたAR画像は、この補正量によって投影位置が補正されて、HUD装置9に供給される。
In the following S170, the
続くS180では、表示制御装置10は、終了条件が成立したか否かを判定し、終了条件が不成立であれば、処理をS130に戻し、終了条件が成立していれば、処理を終了する。なお、表示制御装置10は、例えば、イグニションスイッチがオフされた場合、または、HUD装置9の作動を停止する指令が入力された場合に、終了条件が成立したと判定する。
In the following S180, the
S110が荷重取得部、S120が特性選択部、S130が車高取得部、S140が勾配取得部、S150がピッチ角算出部、S160が眼情報取得部、S170が補正処理部に相当する。 S110 corresponds to a load acquisition unit, S120 corresponds to a characteristic selection unit, S130 corresponds to a vehicle height acquisition unit, S140 corresponds to a gradient acquisition unit, S150 corresponds to a pitch angle calculation unit, S160 corresponds to an eye information acquisition unit, and S170 corresponds to a correction processing unit.
[3.補正量の算出方法]
次に、S170にて実施されるAR画像の投影位置の補正量を算出する処理の概要を、図5を用いて説明する。
[3. How to calculate the amount of correction]
Next, the outline of the process for calculating the correction amount of the projection position of the AR image performed in S170 will be described with reference to FIG.
ここでは、簡単のため、勾配情報がψ=0°の場合について説明する。
車両がピッチングを起こして車体が前傾した場合について説明する。ドライバの眼位置をEi、投影領域121をDi、虚像として結像される光が出射される位置、すなわちプロジェクタ91の位置をSiで表す。なお、i=0は、車両ピッチ角が0°の場合の位置、i=1は車両ピッチ角がθの場合の位置を示す。
Here, for the sake of simplicity, the case where the gradient information is ψ = 0 ° will be described.
A case where the vehicle pitches and the vehicle body leans forward will be described. The eye position of the driver is represented by Ei, the
ドライバの眼位置E0、投影領域D0、光出射位置S0は、車両が前傾すると、いずれも車両重心Jを回転の中心として角度θだけ回転した位置E0→E1,D0→D1,S0→S1に移動する。 The driver's eye position E0, projection area D0, and light emission position S0 all change to positions E0 → E1, D0 → D1, S0 → S1 rotated by an angle θ with the vehicle center of gravity J as the center of rotation when the vehicle tilts forward. Moving.
車両ピッチ角が0°の場合、すなわち眼位置がE0にある場合、対象物Oに重畳されるAR画像は、眼位置E0と対象物Oとを接続する直線が、投影領域D0と交差する位置Paに投影される必要がある。 When the vehicle pitch angle is 0 °, that is, when the eye position is at E0, the AR image superimposed on the object O is the position where the straight line connecting the eye position E0 and the object O intersects the projection area D0. It needs to be projected on Pa.
車両ピッチ角がθの場合、すなわち眼位置がE1にある場合、対象物Oに重畳されるAR画像は、眼位置E1と対象物Oとを接続する直線が、投影領域D1と交差する位置Pbに投影される必要がある。 When the vehicle pitch angle is θ, that is, when the eye position is at E1, the AR image superimposed on the object O is the position Pb where the straight line connecting the eye position E1 and the object O intersects the projection area D1. Must be projected on.
つまり、投影領域D0における投影位置Paと比較して、投影領域D1における投影位置Pbは、上方にずれた位置となる。
更に、車両が前傾したときに、ドライバの体勢がくずれる等して眼位置にずれが生じ、眼位置E1より低い位置に眼位置E2がある場合、対象物Oに重畳されるAR画像は、投影領域D1上の位置Pcに投影される必要がある。
That is, the projection position Pb in the projection area D1 is a position shifted upward as compared with the projection position Pa in the projection area D0.
Further, when the vehicle tilts forward, the position of the eyes shifts due to the driver's posture being distorted, and when the eye position E2 is located at a position lower than the eye position E1, the AR image superimposed on the object O is It needs to be projected on the position Pc on the projection area D1.
つまり、眼位置のずれが生じていない場合の投影位置Pbと比較して、眼位置のずれが生じている場合の投影位置Pcは、下方にずれる。
このように、車両ピッチ角θに応じた補正量、すなわちPaからPbへのずれ量と、眼位置のずれによって生じる補正量、すなわちPbからPcへのずれ量とを合計することで、AR画像の投影位置の補正量が算出される。
That is, the projection position Pc when the eye position is displaced is shifted downward as compared with the projected position Pb when the eye position is not displaced.
In this way, the AR image is obtained by summing the correction amount according to the vehicle pitch angle θ, that is, the deviation amount from Pa to Pb, and the correction amount caused by the deviation of the eye position, that is, the deviation amount from Pb to Pc. The correction amount of the projection position of is calculated.
[4.特性情報]
特性記憶部8に記憶される特性情報について説明する。
図6に示す簡易な2輪モデルを用いて、ハイトセンサ31の検出値と車両ピッチ角との関係を理論的に導出する。ここで、フロント輪から、車両に加わる荷重の重心位置までの距離をa、フロント輪からリア輪までの距離をbとする。フロントサスペンションのバネ定数をKf、リアサスペンションのバネ定数をKr、フロントサスペンションの変位量をxf、リアサスペンションの変位量をxrとする。乗員や積載物によって車両に加わる荷重をF、この荷重による車体の傾き角である車両ピッチ角をθとする。
[4. Characteristic information]
The characteristic information stored in the
Using the simple two-wheel model shown in FIG. 6, the relationship between the detected value of the
力の釣り合いから(2)式が得られ、フロントまわりのモーメントの釣り合いから(3)式が得られる。 Equation (2) can be obtained from the balance of forces, and equation (3) can be obtained from the balance of moments around the front.
このようにして得られたxf、xrの値と(7)式を用いて、車両ピッチ角θを得ることができる。この関係から、ハイトセンサ31の検出値と車両ピッチ角θとに対応関係があることがわかる。
The vehicle pitch angle θ can be obtained by using the values of xf and xr thus obtained and the equation (7). From this relationship, it can be seen that there is a corresponding relationship between the detected value of the
[5.測定]
ハイトセンサ31の検出値と、車両ピッチ角θとの関係を測定した結果を示す。いずれもドライバ席には、ドライバが存在することを前提とする。
[5. measurement]
The result of measuring the relationship between the detected value of the
図7および図8は、助手席に乗員が存在するか否かによって荷重状態を2パターンに分類して測定した結果であり、図7が助手席に乗員なしの場合、図8が助手席に乗員ありの場合である。後右席および後左席の乗員の有無、並びにトランクの積載物の有無については、全てのパターンについて測定した。 7 and 8 show the results of measuring the load state by classifying it into two patterns according to whether or not there is an occupant in the passenger seat. FIG. 7 shows the passenger seat in FIG. 8 when there is no occupant in the passenger seat. This is the case with a occupant. The presence or absence of occupants in the rear right and rear left seats, and the presence or absence of cargo in the trunk were measured for all patterns.
最小2乗法によって近似線を求め、その近似線を表す一次関数、または近似線をもとにして生成されたテーブルを特性情報として用いる。
図9は、助手席の乗員の有無、およびトランクの荷物の有無によって、荷重状態を4パターンに分類して測定した結果である。特性情報として一次関数を使用し、図7~図9に示す結果から車両ピッチ角θの最大誤差を算出すると、荷重状態を2パターンに分類した場合より4パターンに分類した方が抑制されることがわかる。
An approximate line is obtained by the least squares method, and a linear function representing the approximate line or a table generated based on the approximate line is used as characteristic information.
FIG. 9 shows the results of measuring the load state by classifying it into four patterns according to the presence or absence of a passenger in the passenger seat and the presence or absence of luggage in the trunk. When the maximum error of the vehicle pitch angle θ is calculated from the results shown in FIGS. 7 to 9 by using a linear function as the characteristic information, it is suppressed that the load state is classified into 4 patterns rather than 2 patterns. I understand.
図10は、縦断勾配の有無によって、2パターンに分類して測定した結果である。縦断勾配が加わることで、車両ピッチ角θが大きくなることがわかる。
図11は、縦断勾配および横段勾配の組み合わせパターン毎に測定結果を示したグラフである。なお、近似線は、パターン分けせず、全てのパターンについての測定結果を用いて算出した。但し、縦段勾配については、勾配なし、前傾あり、後傾斜ありの3パターンを用い、横段勾配については、勾配なし、右傾あり、左傾ありの3パターンを用いた。
FIG. 10 shows the results of measurement by classifying into two patterns according to the presence or absence of a longitudinal gradient. It can be seen that the vehicle pitch angle θ increases due to the addition of the longitudinal gradient.
FIG. 11 is a graph showing the measurement results for each combination pattern of the vertical gradient and the horizontal gradient. The approximate line was calculated using the measurement results for all patterns without dividing into patterns. However, for the vertical gradient, three patterns of no gradient, forward inclination, and backward inclination were used, and for the horizontal gradient, three patterns of no gradient, right inclination, and left inclination were used.
図7~図9に示したように、荷重状態に応じたパターン分けをした特性情報を用いることで、ハイトセンサ31の検出値から車両ピッチ角θを推定する際の推定精度が向上することがわかる。
As shown in FIGS. 7 to 9, by using the characteristic information divided into patterns according to the load state, the estimation accuracy when estimating the vehicle pitch angle θ from the detected value of the
図10~図11に示したように、勾配の有無に応じたパターン分けをした特性情報を用いることで、ハイトセンサ31の検出値から車両ピッチ角θを推定する際の推定精度が向上することがわかる。
As shown in FIGS. 10 to 11, by using the characteristic information divided into patterns according to the presence or absence of the gradient, the estimation accuracy when estimating the vehicle pitch angle θ from the detected value of the
[6.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(6a)情報表示システム1では、ハイトセンサ31によって検出される車高変位量Hから車両ピッチ角θを算出し、その算出に用いる特性情報Gを、車両に加わる荷重状態に応じて選択する。このため、車高変位量Hを検出する一つのセンサの検出結果から、車両ピッチ角θを精度よく算出できる。
[6. effect]
According to the embodiment described in detail above, the following effects are obtained.
(6a) In the
(6b)情報表示システム1では、車両ピッチ角だけでなく、ドライバの眼の位置に応じて、AR画像の投影位置を補正するため、ドライバに視認される虚像の対象物に対する位置ずれを精度よく抑制できる。
(6b) In the
(6c)情報表示システム1では、車両ピッチ角θを算出する際に、道路の勾配情報ψが反映されるため、車両ピッチ角θの算出精度をより向上させることができる。
[7.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(6c) In the
[7. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be variously modified and implemented.
(7a)上記実施形態では、ハイトセンサ31の検出値から車両ピッチ角θへの変換特性を表す特性情報を、荷重状態に応じて選択するように構成し、道路の勾配情報ψを、計算によって車両ピッチ角θに反映させているが、本開示はこれに限定されるものではない。例えば、荷重状態と勾配情報ψとによって特性情報Gが選択されるように構成されてもよい。また、車両ピッチ角θへの勾配情報ψの反映は省略されてもよい。
(7a) In the above embodiment, the characteristic information representing the conversion characteristic from the detected value of the
(7b)上記実施形態では、シートセンサ32およびトランクセンサ33は、乗員の有無および積載物の有無を検出する場合について説明したが、乗員の重さおよび積載物の重さを検出するように構成されてもよい。この場合、荷重状態をより正確に算出でき、ひいては車両ピッチ角θの算出精度をより向上させることができる。つまり、荷重検出値は、乗員や積載物の有無であってもよいし、乗員や積載物の重さであってもよい。また、シートセンサ32およびトランクセンサ33の代わりに、車室内やトランク内を撮影するカメラからの画像に基づいて、乗員や積載物の有無を検出するように構成されてもよい。
(7b) In the above embodiment, the
(7c)本開示に記載の表示制御装置10およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の表示制御装置10およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の表示制御装置10およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。表示制御装置10に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(7c) The
(7d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。 (7d) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
(7e)上述した表示制御装置10の他、当該表示制御装置10を構成要素とするシステム、当該表示制御装置10としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、表示制御方法など、種々の形態で本開示を実現することもできる。
(7e) In addition to the above-mentioned
1…情報表示システム、2…周辺監視部、3…挙動検知部、4…ドライバ検知部、5…地図記憶部、6…測位部、7…ナビゲーション装置、8…特性記憶部、9…HUD装置、10…表示制御装置、11…CPU、12…メモリ、31…ハイトセンサ、32…シートセンサ、33…トランクセンサ、91…プロジェクタ、92…光学系、101…情報生成部、102…補正処理部、110…インストルメントパネル、120…ウィンドシールド、121…投影領域。
1 ... Information display system, 2 ... Peripheral monitoring unit, 3 ... Behavior detection unit, 4 ... Driver detection unit, 5 ... Map storage unit, 6 ... Positioning unit, 7 ... Navigation device, 8 ... Characteristic storage unit, 9 ...
Claims (5)
複数の計測位置にて前記車両に加わる荷重状態の検出結果である荷重検出値を取得するように構成された荷重取得部(102:S110)と、
前記車両の車高について基準高さからの変位量の検出結果である車高変位量を取得するように構成された車高取得部(102:S130)と、
前記荷重状態に対応付けて用意された、前記車高変位量と前記車両のピッチ角との関係を表す複数種類の特性情報から、前記荷重取得部で取得された前記荷重検出値に応じた前記特性情報を選択するように構成された特性選択部(102:S120)と、
前記特性選択部にて選択された前記特性情報を用いて、前記車高取得部にて取得された前記車高変位量から、前記ピッチ角を算出するように構成されたピッチ角算出部(102:S150)と、
前記ドライバの眼の位置について基準眼位置からのずれ量の検出結果である眼情報を取得するように構成された眼情報取得部(102:S160)と、
前記ドライバによって視認される前記重畳画像が前記対象物に重畳表示されるように、前記ピッチ角および前記眼情報の両方に従って、前記情報生成部が設定する前記重畳画像の投影位置を補正するように構成された補正処理部(102:S170)と、
を備え、
前記情報生成部は、前記基準眼位置(E0)と前記対象物(O)を結ぶ線と、前記投影領域(D0)とが交差する位置を投影位置(Pa)として設定し、
前記補正処理部は、前記基準眼位置(E0),虚像として結像される光が出射される位置である出射位置(S0),前記投影領域(D0)を、それぞれ、前記車両の重心である車両重心(J)を中心に前記ピッチ角に応じて回転移動させ、かつ、前記車両重心(J)と回転移動後の基準眼位置(E1)とを結ぶ方向に、前記回転移動後の基準眼位置(E1)を前記眼情報に応じてシフトさせ、シフト後の基準眼位置(E2)と前記対象物(O)を結ぶ線と、回転移動後の投影領域(D1)とが交差する位置が補正後の投影位置(Pb)となるように前記情報生成部で生成される投影位置(Pa)を補正する
表示制御装置。 The area in the front window of the vehicle on which the image to be recognized as a virtual image by the driver is projected is set as the projection area, and the information of the object existing in the landscape visible to the driver is acquired through the projection area, and the object is said. An information generation unit (101) configured to set the projection position of the superimposed image superimposed on the object in the projection region according to the three-dimensional position information of the object.
A load acquisition unit (102: S110) configured to acquire a load detection value which is a detection result of a load state applied to the vehicle at a plurality of measurement positions, and a load acquisition unit (102: S110).
The vehicle height acquisition unit (102: S130) configured to acquire the vehicle height displacement amount, which is the detection result of the displacement amount from the reference height for the vehicle height of the vehicle, and the vehicle height acquisition unit (102: S130).
The said according to the load detection value acquired by the load acquisition unit from a plurality of types of characteristic information representing the relationship between the vehicle height displacement amount and the pitch angle of the vehicle prepared in association with the load state. A characteristic selection unit (102: S120) configured to select characteristic information, and
The pitch angle calculation unit (102) configured to calculate the pitch angle from the vehicle height displacement amount acquired by the vehicle height acquisition unit using the characteristic information selected by the characteristic selection unit. : S150) and
An eye information acquisition unit (102: S160) configured to acquire eye information which is a detection result of the amount of deviation of the driver's eye position from the reference eye position, and the eye information acquisition unit (102: S160).
The projection position of the superimposed image set by the information generator is corrected according to both the pitch angle and the eye information so that the superimposed image visually recognized by the driver is superimposed and displayed on the object. The configured correction processing unit (102: S170) and
Equipped with
The information generation unit sets a position where the line connecting the reference eye position (E0) and the object (O) intersects the projection area (D0) as the projection position (Pa).
The correction processing unit has the center of gravity of the vehicle, the reference eye position (E0), the emission position (S0) at which the light imaged as a virtual image is emitted, and the projection region (D0), respectively. The reference eye after the rotational movement is rotated around the vehicle center of gravity (J) according to the pitch angle, and in the direction connecting the vehicle center of gravity (J) and the reference eye position (E1) after the rotational movement. The position (E1) is shifted according to the eye information, and the position where the line connecting the reference eye position (E2) after the shift and the object (O) intersects with the projection area (D1) after the rotational movement is The projection position (Pa) generated by the information generation unit is corrected so as to be the corrected projection position (Pb).
Display control device.
前記荷重取得部にて取得される前記荷重検出値には、前記計測位置のそれぞれで検出される積載物の有無が含まれる
表示制御装置。 The display control device according to claim 1.
The display control device including the presence / absence of a load detected at each of the measurement positions in the load detection value acquired by the load acquisition unit.
前記荷重取得部にて取得される前記荷重検出値には、前記計測位置のそれぞれで検出される積載物の重さが含まれる
表示制御装置。 The display control device according to claim 2.
The display control device including the weight of the load detected at each of the measurement positions in the load detection value acquired by the load acquisition unit.
前記複数の計測位置には、乗員シートおよびトランクのうち少なくとも一方が含まれる
表示制御装置。 The display control device according to any one of claims 1 to 3.
A display control device including at least one of a passenger seat and a trunk in the plurality of measurement positions.
前記車両が走行中の道路の勾配を表す勾配情報を取得するように構成された勾配取得部(102:S140)を更に備え、
前記ピッチ角算出部は、前記勾配取得部にて取得された前記勾配情報を加えて前記ピッチ角を算出するように構成された
表示制御装置。 The display control device according to any one of claims 1 to 4.
Further comprising a gradient acquisition unit (102: S140) configured to acquire gradient information representing the gradient of the road on which the vehicle is traveling.
The pitch angle calculation unit is a display control device configured to calculate the pitch angle by adding the gradient information acquired by the gradient acquisition unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139712A JP7063856B2 (en) | 2019-07-30 | 2019-07-30 | Display control device |
PCT/JP2020/027666 WO2021020145A1 (en) | 2019-07-30 | 2020-07-16 | Display control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139712A JP7063856B2 (en) | 2019-07-30 | 2019-07-30 | Display control device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021020626A JP2021020626A (en) | 2021-02-18 |
JP2021020626A5 JP2021020626A5 (en) | 2021-07-26 |
JP7063856B2 true JP7063856B2 (en) | 2022-05-09 |
Family
ID=74229633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019139712A Active JP7063856B2 (en) | 2019-07-30 | 2019-07-30 | Display control device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7063856B2 (en) |
WO (1) | WO2021020145A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022201376A1 (en) * | 2021-03-24 | 2022-09-29 | 三菱電機株式会社 | Vehicle attitude angle estimation device and optical axis control device for vehicle lamp |
WO2023184140A1 (en) * | 2022-03-29 | 2023-10-05 | 华为技术有限公司 | Display method, apparatus and system |
CN115113400B (en) * | 2022-05-23 | 2024-03-12 | 惠州市德赛西威智能交通技术研究院有限公司 | Control method, system and automobile for adjusting AR-HUD display based on vehicle pitch angle |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198149A (en) | 2011-03-22 | 2012-10-18 | Toshiba Corp | Single-eye head-mounted display |
JP2012236490A (en) | 2011-05-11 | 2012-12-06 | Isuzu Motors Ltd | Travel support information provision apparatus |
JP2013014231A (en) | 2011-07-04 | 2013-01-24 | Mitsubishi Motors Corp | Optical axis control device of on-vehicle head lamp |
JP2018058544A (en) | 2016-10-07 | 2018-04-12 | 株式会社デンソー | On-vehicle display control device |
WO2018070252A1 (en) | 2016-10-14 | 2018-04-19 | 日立マクセル株式会社 | Vehicle image display apparatus |
JP2019089354A (en) | 2017-11-10 | 2019-06-13 | 株式会社Soken | Display controller and display control program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3384236B2 (en) * | 1996-04-22 | 2003-03-10 | 株式会社デンソー | Automatic adjustment of headlight optical axis direction for vehicles |
-
2019
- 2019-07-30 JP JP2019139712A patent/JP7063856B2/en active Active
-
2020
- 2020-07-16 WO PCT/JP2020/027666 patent/WO2021020145A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198149A (en) | 2011-03-22 | 2012-10-18 | Toshiba Corp | Single-eye head-mounted display |
JP2012236490A (en) | 2011-05-11 | 2012-12-06 | Isuzu Motors Ltd | Travel support information provision apparatus |
JP2013014231A (en) | 2011-07-04 | 2013-01-24 | Mitsubishi Motors Corp | Optical axis control device of on-vehicle head lamp |
JP2018058544A (en) | 2016-10-07 | 2018-04-12 | 株式会社デンソー | On-vehicle display control device |
WO2018070252A1 (en) | 2016-10-14 | 2018-04-19 | 日立マクセル株式会社 | Vehicle image display apparatus |
JP2019089354A (en) | 2017-11-10 | 2019-06-13 | 株式会社Soken | Display controller and display control program |
Also Published As
Publication number | Publication date |
---|---|
WO2021020145A1 (en) | 2021-02-04 |
JP2021020626A (en) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11181737B2 (en) | Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program | |
JP6756327B2 (en) | Posture detection device and posture detection program | |
KR101558353B1 (en) | Head-up display apparatus for vehicle using aumented reality | |
WO2021020145A1 (en) | Display control device | |
US8558758B2 (en) | Information display apparatus | |
JP5161760B2 (en) | In-vehicle display system and display method | |
JP7052786B2 (en) | Display control device and display control program | |
US10732412B2 (en) | Display device for vehicle | |
EP2348279B1 (en) | Road measurement device and method for measuring road | |
JP6787297B2 (en) | Display control device and display control program | |
CN109927552B (en) | Display device for vehicle | |
JP6669199B2 (en) | Sensor calibration device and sensor calibration program | |
JP6952899B2 (en) | Head-up display | |
JP6724886B2 (en) | Virtual image display | |
JP6724885B2 (en) | Virtual image display | |
WO2021020385A1 (en) | Display control device | |
CN111094898A (en) | Method, device, and computer-readable storage medium having instructions for controlling display of an augmented reality heads-up display device for a motor vehicle | |
JP7450230B2 (en) | display system | |
WO2021044741A1 (en) | Display control device, display control program, and heads-up display | |
US20220270527A1 (en) | Display control device | |
KR101826627B1 (en) | Apparatus for displaying safety driving information using head-up display and control method thereof | |
JP2021030917A (en) | Display device | |
KR20180026418A (en) | Apparatus for matching coordinate of head-up display | |
JP7416114B2 (en) | Display control device and display control program | |
JP2023137772A (en) | Display control device and display control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220421 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7063856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |