JP2023110188A - Display unit, control method, and program - Google Patents

Display unit, control method, and program Download PDF

Info

Publication number
JP2023110188A
JP2023110188A JP2022011471A JP2022011471A JP2023110188A JP 2023110188 A JP2023110188 A JP 2023110188A JP 2022011471 A JP2022011471 A JP 2022011471A JP 2022011471 A JP2022011471 A JP 2022011471A JP 2023110188 A JP2023110188 A JP 2023110188A
Authority
JP
Japan
Prior art keywords
distance
control
image
display device
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022011471A
Other languages
Japanese (ja)
Inventor
翼 仲谷
Tsubasa Nakatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022011471A priority Critical patent/JP2023110188A/en
Publication of JP2023110188A publication Critical patent/JP2023110188A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a display unit hardly impairs the visibility of an object.SOLUTION: A display unit comprises: acquisition means that acquires distance information on an object to be measured; image forming means that has display means displaying an image; projection means that projects the image to be visually recognizable as a virtual image; and control means that acquires the distance information and controls the image forming means. When a second distance from an eye-box corresponding to the positions of the eyes of an observer to the object to be measured is shorter than a first distance from the eye-box to the virtual image, the control means performs control of reducing the quantity of light output by the image forming means.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザに虚像を視認させることが可能な表示装置に関する。 The present invention relates to a display device that allows a user to visually recognize a virtual image.

ヘッドアップディスプレイ(以下、HUDとも表記する)という人間の目の錯覚を利用して実際に映像が表示された位置と異なる空間上に画像をユーザに視認させることができる表示装置がある。このような実際に映像が表示された位置と異なる空間上に視認させられる画像を虚像という。 2. Description of the Related Art There is a display device called a head-up display (hereinafter also referred to as HUD) that allows a user to visually recognize an image in a space different from the position where the image is actually displayed by using the illusion of the human eye. Such an image that is visually recognized in a space different from the position where the image is actually displayed is called a virtual image.

特許文献1には、虚像が移動体の乗員であるユーザに視認される視距離を変更可能なHUDが開示されている。 Patent Literature 1 discloses a HUD capable of changing the viewing distance at which a user who is a passenger of a mobile object visually recognizes a virtual image.

特開2016-118423号公報JP 2016-118423 A

しかし、特許文献1に開示されているHUDでは、虚像の視距離を変更するために、光学素子等を移動させる。光学素子等を移動させるため、視距離の変更にはある程度のタイムラグが存在する。例えば、前方に車両が急に割り込んできたことによって虚像の視認される位置に車両が重なってしまった場合では、虚像が邪魔となり、視距離の調整が終わるまで、割り込んできた車両の確認をユーザが行いづらくなるおそれがある。このように、虚像の視認される位置に車両などの物体が重なった場合において、ユーザが当該物体の確認をしづらくなるおそれがあった。
本発明の目的は、物体の視認性を損ないにくい表示装置を提供することである。
However, in the HUD disclosed in Patent Literature 1, an optical element or the like is moved in order to change the viewing distance of the virtual image. Since the optical elements and the like are moved, there is some time lag in changing the viewing distance. For example, if a vehicle suddenly cuts in front of the vehicle and the vehicle overlaps the position where the virtual image is visually recognized, the virtual image becomes an obstacle and the user cannot confirm the vehicle that has cut in until the adjustment of the visual distance is completed. may become difficult to carry out. In this way, when an object such as a vehicle overlaps the position where the virtual image is visually recognized, it may be difficult for the user to check the object.
SUMMARY OF THE INVENTION An object of the present invention is to provide a display device that does not easily impair the visibility of objects.

本発明の実施形態の表示装置は、測定対象の距離情報を取得する取得手段と、画像を表示する表示手段を有する画像形成手段と、前記画像を投影することにより虚像として視認し得る状態にする投影手段と、前記距離情報を取得して前記画像形成手段を制御する制御手段と、を備える。前記制御手段は、観測者の目の位置に対応するアイボックスから前記虚像までの第1の距離に対して、前記アイボックスから前記測定対象までの第2の距離が短い場合、前記画像形成手段の出力する光量を低下させる制御を行う。 A display device according to an embodiment of the present invention comprises: acquisition means for acquiring distance information of an object to be measured; image forming means having display means for displaying an image; and projecting the image to make it visible as a virtual image. A projection device, and a control device that acquires the distance information and controls the image forming device. When a second distance from the eyebox to the object to be measured is shorter than a first distance from the eyebox corresponding to the eye position of the observer to the virtual image, the image forming means control to reduce the amount of light output from

本発明によれば、物体の視認性を損ないにくい表示装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the display apparatus which does not impair the visibility of an object easily can be provided.

HUDシステムの構成を示す概略図である。1 is a schematic diagram showing the configuration of a HUD system; FIG. 前方車両と虚像の視距離との関係を示す模式図である。FIG. 4 is a schematic diagram showing the relationship between the forward vehicle and the visual distance of the virtual image; HUDシステムの動作を説明するフローチャートである。4 is a flow chart explaining the operation of the HUD system;

[第1の実施形態]
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。本実施形態では画像表示装置の適用例として、移動体である車両に搭載されるヘッドアップディスプレイ(HUD)システムを用いる。
[First embodiment]
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, as an application example of the image display device, a head-up display (HUD) system mounted on a vehicle, which is a moving body, is used.

図1と図2を参照して、HUDシステム1の概要と構成を説明する。図1はHUDシステム1と、HUDシステム1を搭載する自動車100の一部を示す概略図である。図2は自動車100を基準とする、前方車両200までの距離と、虚像までの距離との関係を示す模式図である。なお、自動車100の進行方向を前方向と定義して各部の位置関係を説明する。 The outline and configuration of the HUD system 1 will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a schematic diagram showing a HUD system 1 and a portion of an automobile 100 on which the HUD system 1 is mounted. FIG. 2 is a schematic diagram showing the relationship between the distance to the forward vehicle 200 and the distance to the virtual image, with the automobile 100 as a reference. Note that the positional relationship of each part will be described with the forward direction being defined as the traveling direction of the automobile 100 .

図1を参照して、HUDシステム1の概要を説明する。HUDシステム1は自動車100に搭載される。図1において簡略化を図るため、前面の窓ガラスであるウインドシールド101、車内構造物であるダッシュボード102、外装部103といった自動車100の一部のみを示す。 An overview of the HUD system 1 will be described with reference to FIG. A HUD system 1 is mounted on a vehicle 100 . For the sake of simplification, FIG. 1 shows only a part of the automobile 100, such as the windshield 101, which is the front window glass, the dashboard 102, which is the interior structure of the vehicle, and the exterior part 103. As shown in FIG.

HUDシステム1は、HUD装置140とウインドシールド101、さらに自動車100の前方の空間に向けて配置された前方測距部110で構成される。例えば前方測距部110は、LiDAR(Light Detection and Ranging)を有し、LiDARにより測距を行うことが可能である。LiDARは、レーザー光を照射して対象物での反射光を検出することにより、対象物の測距を行い、対象物までの距離情報を取得することができる。 The HUD system 1 is composed of a HUD device 140 , a windshield 101 , and a front distance measuring section 110 arranged toward the space ahead of the automobile 100 . For example, the forward ranging unit 110 has LiDAR (Light Detection and Ranging), and can perform ranging using LiDAR. LiDAR can perform distance measurement of an object by irradiating laser light and detecting reflected light from the object, and can acquire distance information to the object.

HUD装置140は、ダッシュボード102の内部に配置される。HUD装置140は、画像形成部120、投影部130、駆動部160、制御部150、および記憶部151を有する。本実施形態では、HUD装置140は、画像形成部120が形成する表示画像を、投影部130によって下方からウインドシールド101に向けて投影するように設置されている。以下、HUD装置140の各構成要素について説明する。 HUD device 140 is located inside dashboard 102 . The HUD device 140 has an image forming section 120 , a projecting section 130 , a driving section 160 , a control section 150 and a storage section 151 . In this embodiment, the HUD device 140 is installed so that the display image formed by the image forming section 120 is projected onto the windshield 101 from below by the projecting section 130 . Each component of the HUD device 140 will be described below.

画像形成部120は、投影部130によって投影される投影元の画像を形成して表示する。画像形成部120は、液晶パネル121およびバックライト部122を備える。液晶パネル121は光の透過と不透過を制御可能な画素群を有する。バックライト部122は発光ダイオード等を用いた光源装置である。液晶パネル121はバックライト部122の照明方向(前方向)に配置され、制御部150から送られてくる表示信号に基づき、バックライト部122の照明光を画素ごとに選択的に透過させる。これにより画像形成部120は所望の投影元画像を表示することが可能である。なお、画像形成部120は、画像を形成せず、記憶部151に記録されている画像を制御部150の制御により表示するように動作してもよい。 The image forming unit 120 forms and displays a projection source image projected by the projecting unit 130 . The image forming section 120 includes a liquid crystal panel 121 and a backlight section 122 . The liquid crystal panel 121 has a group of pixels capable of controlling light transmission and non-transmission. The backlight unit 122 is a light source device using light emitting diodes or the like. The liquid crystal panel 121 is arranged in the illumination direction (forward direction) of the backlight section 122 and selectively transmits the illumination light of the backlight section 122 for each pixel based on the display signal sent from the control section 150 . Accordingly, the image forming unit 120 can display a desired projection source image. Note that the image forming unit 120 may operate so as to display an image recorded in the storage unit 151 under the control of the control unit 150 without forming an image.

投影部130は、画像形成部120が形成した画像を、ウインドシールド101に向けて投影像として投影する光学系を有する。投影像の光はウインドシールド101の内面で反射し、ユーザの目の位置として想定されるアイボックス180の方向に導かれる。なお、アイボックス180は、特定の点ではなく、ある程度の広さを有する空間領域である。本実施形態では、ユーザは、自動車100に乗車している運転者である。投影像はアイボックス180、特に望ましくはユーザの瞳に虚像として結像する。投影像は、透明な反射部材であるウインドシールド101の前方の空間にて虚像(141n,141f参照)としてユーザに視認される。アイボックス180の位置を基準として虚像141n、虚像141fまでの距離をそれぞれLn、Lfと表記する。虚像141nはアイボックス180からの距離Lnが距離Lfに対して相対的に小さい場合の像であり、半画角に対応する角度をYnと表記する。また虚像141fはアイボックス180からの距離Lfが距離Lnに対して相対的に大きい場合の像であり、半画角に対応する角度をYfと表記する。 The projection unit 130 has an optical system that projects the image formed by the image forming unit 120 toward the windshield 101 as a projected image. The light of the projected image is reflected on the inner surface of the windshield 101 and directed toward an eyebox 180 assumed to be the position of the user's eyes. Note that the eyebox 180 is not a specific point, but a spatial area having a certain extent. In this embodiment, the user is the driver of the automobile 100 . The projected image is formed as a virtual image on the eyebox 180, preferably on the user's pupil. The projected image is visually recognized by the user as a virtual image (see 141n and 141f) in the space in front of the windshield 101, which is a transparent reflecting member. Using the position of the eyebox 180 as a reference, the distances to the virtual images 141n and 141f are denoted by Ln and Lf, respectively. The virtual image 141n is an image when the distance Ln from the eyebox 180 is relatively small with respect to the distance Lf, and the angle corresponding to the half angle of view is denoted by Yn. The virtual image 141f is an image when the distance Lf from the eyebox 180 is relatively large with respect to the distance Ln, and the angle corresponding to the half angle of view is denoted by Yf.

投影部130はズームレンズ132とミラー131によって構成される。ズームレンズ132は、矢印171の方向に移動可能な可動レンズ1321と、固定レンズ1322によって構成される。投影部130は、可動レンズ1321の移動に応じて、アイボックス180からユーザが虚像を認識している距離をLnからLfまでの範囲(矢印172参照)内で変更可能である。なお、本実施形態では、アイボックス180からユーザが虚像を認識(視認)している距離、即ちアイボックス180から虚像141nや虚像141fまでの距離を、「視距離」とも記載する。 The projection unit 130 is composed of a zoom lens 132 and a mirror 131 . The zoom lens 132 is composed of a movable lens 1321 movable in the direction of arrow 171 and a fixed lens 1322 . The projection unit 130 can change the distance at which the user recognizes the virtual image from the eyebox 180 within the range from Ln to Lf (see arrow 172) according to the movement of the movable lens 1321. FIG. In this embodiment, the distance from the eyebox 180 at which the user recognizes (visually recognizes) the virtual image, that is, the distance from the eyebox 180 to the virtual image 141n or the virtual image 141f is also referred to as "visual distance".

画像形成部120における光軸190の方向は、ズームレンズ132の投影方向を示している。その投影先には凹面鏡であるミラー131が配置されている。ミラー131は、ウインドシールド101の方向、即ち光軸191で示す方向に光を反射する。ズームレンズ132の投影像は所定の倍率で拡大されるとともに歪みが補正される。 The direction of the optical axis 190 in the image forming section 120 indicates the projection direction of the zoom lens 132 . A mirror 131, which is a concave mirror, is arranged at the projection destination. Mirror 131 reflects light in the direction of windshield 101 , ie, in the direction indicated by optical axis 191 . The projected image of the zoom lens 132 is magnified by a predetermined magnification and the distortion is corrected.

ミラー131からウインドシールド101に向かう投影像の光は、さらに反射部192で反射される。反射部192は、光軸191とウインドシールド101とが交差する部分である。反射部192での反射光は、光軸193で示す方向、即ちアイボックス180に向けて導かれる。投影像はユーザの瞳に虚像として結像し、ユーザは虚像141nや虚像141fとして視認することが可能となる。 The light of the projected image directed from the mirror 131 toward the windshield 101 is further reflected by the reflecting section 192 . The reflecting portion 192 is a portion where the optical axis 191 and the windshield 101 intersect. Light reflected by the reflecting portion 192 is guided in the direction indicated by the optical axis 193 , that is, toward the eyebox 180 . The projected image is formed as a virtual image on the user's pupil, and the user can visually recognize the virtual image 141n and the virtual image 141f.

駆動部160はモータ等のアクチュエータを備え、制御部150により制御される。駆動部160は、制御部150からの駆動指示信号にしたがって可動レンズ1321を矢印171の方向に所定量移動させる。本実施形態では、可動レンズ1321と固定レンズ1322との間隔を短くする方向に可動レンズ1321を移動させた場合に視距離が大きくなるものとする。本実施形態では、視距離と可動レンズ1321の位置情報とを組み合わせたデータを、「可動レンズ位置データ」とも記載する。可動レンズ位置データは、あらかじめ記憶部151に記憶されている。 The drive unit 160 includes an actuator such as a motor and is controlled by the control unit 150 . Drive unit 160 moves movable lens 1321 by a predetermined amount in the direction of arrow 171 according to a drive instruction signal from control unit 150 . In this embodiment, it is assumed that the visual distance increases when the movable lens 1321 is moved in a direction that shortens the distance between the movable lens 1321 and the fixed lens 1322 . In this embodiment, data obtained by combining the viewing distance and the position information of the movable lens 1321 is also referred to as "movable lens position data". The movable lens position data is stored in the storage unit 151 in advance.

制御部150は、例えばCPU(中央演算処理装置)を有し、HUDシステム1の制御を行う。制御部150は前方測距部110の出力する距離情報を取得し、駆動部160、画像形成部120、記憶部151を制御する。本実施形態では、制御部150が画像形成部120を制御する際に送信する信号を、「表示指示信号」とも記載する。画像形成部120が表示指示信号を受信することで、バックライト部122の点灯および輝度変更、液晶パネル121に表示させる画像の内容の変更といった様々な制御が行われる。また、制御部150は可動レンズ位置データに基づいて駆動指示信号を駆動部160に対して送信する。 The control unit 150 has, for example, a CPU (Central Processing Unit) and controls the HUD system 1 . The control unit 150 acquires the distance information output from the forward distance measuring unit 110 and controls the driving unit 160 , the image forming unit 120 and the storage unit 151 . In the present embodiment, the signal that the control unit 150 transmits when controlling the image forming unit 120 is also referred to as a “display instruction signal”. When the image forming unit 120 receives the display instruction signal, various controls such as turning on and changing the luminance of the backlight unit 122 and changing the content of the image displayed on the liquid crystal panel 121 are performed. Also, the control unit 150 transmits a driving instruction signal to the driving unit 160 based on the movable lens position data.

記憶部151は、例えばデータの書き換えが可能な不揮発性メモリを備える。記憶部151は、画像形成部120に表示する画像データや、可動レンズ位置データ等を予め記憶している。 The storage unit 151 includes, for example, a rewritable nonvolatile memory. The storage unit 151 stores in advance image data to be displayed on the image forming unit 120, movable lens position data, and the like.

次に図2を参照して、前方車両200と視距離との関係について説明する。図2(A)は、投影部130の可動レンズ1321を駆動することにより視距離をLfに調整した状態を示す模式図である。このときのアイボックス180から前方車両200の後部までの距離をD1と表記する。図2(A)では「Lf>D1」の関係である。前方車両200と同じ距離範囲内に虚像が認識されるので、ユーザは虚像が前方車両200に埋め込まれたような違和感を抱くことが起こりうる。この状態にてユーザにとって前方車両200に埋め込まれたように見える虚像が邪魔となり、前方車両200までの距離を認識しにくくなるおそれがある。 Next, with reference to FIG. 2, the relationship between the forward vehicle 200 and the visual distance will be described. FIG. 2A is a schematic diagram showing a state in which the viewing distance is adjusted to Lf by driving the movable lens 1321 of the projection unit 130. FIG. The distance from the eyebox 180 to the rear portion of the forward vehicle 200 at this time is denoted as D1. In FIG. 2A, the relationship is "Lf>D1". Since the virtual image is recognized within the same distance range as the forward vehicle 200 , the user may feel uncomfortable as if the virtual image were embedded in the forward vehicle 200 . In this state, the virtual image that appears to be embedded in the forward vehicle 200 is an obstacle for the user, which may make it difficult for the user to recognize the distance to the forward vehicle 200 .

図2(B)は図2(A)の状態から、投影部130の可動レンズ1321を駆動することにより視距離をLnに調整した状態を示す模式図である。図2(B)では「Ln<D1」の関係である。この状態にてユーザは、実景である前方車両200に虚像が埋め込まれたように見えることがなく、前方車両200までの距離を認識しやすい。 FIG. 2B is a schematic diagram showing a state in which the viewing distance is adjusted to Ln by driving the movable lens 1321 of the projection unit 130 from the state of FIG. 2A. In FIG. 2B, the relationship is "Ln<D1". In this state, the user can easily recognize the distance to the forward vehicle 200 without appearing as if a virtual image is embedded in the forward vehicle 200 , which is the actual scene.

図2(A)および(B)では説明を簡単にするために、アイボックス180と前方車両200の後部との距離D1が変化しないことを前提に説明した。実際には距離D1は時間と共に変化する可能性があるので、距離D1に応じて投影部130の可動レンズ1321を駆動することにより視距離が変更される。その際、制御部150は虚像の視距離が距離D1未満となるように制御を行う。 2A and 2B have been described on the assumption that the distance D1 between the eyebox 180 and the rear portion of the forward vehicle 200 does not change, for the sake of simplicity. Since the distance D1 may actually change with time, the viewing distance is changed by driving the movable lens 1321 of the projection unit 130 according to the distance D1. At that time, the control unit 150 performs control so that the viewing distance of the virtual image is less than the distance D1.

次に図3のフローチャートを参照して、HUDシステム1の動作について説明する。なお、HUDシステム1の動作制御の制御主体は制御部150であり、CPUが制御プログラムを実行することによって下記の処理が実現される。 Next, the operation of the HUD system 1 will be described with reference to the flowchart of FIG. It should be noted that the controlling entity of the operation control of the HUD system 1 is the control unit 150, and the following processing is realized by the CPU executing the control program.

まず、HUDシステム1の電源が投入される。その後、S301で制御部150は、自動車100の周辺環境や走行速度等から決定した虚像の視距離に基づいて、記憶部151から可動レンズ1321を駆動すべき位置情報を読み出す。制御部150は、読み出した位置情報と可動レンズ1321の現在の位置情報との差分に基づく駆動指示信号を駆動部160に送信する。駆動指示信号を受信した駆動部160は可動レンズ1321の駆動を行う。現時点でHUDシステム1により表示されている虚像の視距離を、「視距離Lx」として説明する。 First, the HUD system 1 is powered on. After that, in S301, the control unit 150 reads position information for driving the movable lens 1321 from the storage unit 151 based on the viewing distance of the virtual image determined from the surrounding environment of the automobile 100, the running speed, and the like. The control unit 150 transmits a drive instruction signal based on the difference between the read position information and the current position information of the movable lens 1321 to the drive unit 160 . The drive unit 160 that has received the drive instruction signal drives the movable lens 1321 . The visual distance of the virtual image currently displayed by the HUD system 1 will be described as "visual distance Lx".

S302で制御部150は、画像形成部120に表示する画像のデータを記憶部151から読み出し、バックライト部122の発光輝度値と共に、画像形成部120に表示指示信号として送信する。記憶部151から読み出される画像データは、自動車100の周辺環境や走行速度等から決定された画像データである。表示指示信号を受信した画像形成部120は、バックライト部122を所望の発光輝度で発光させる制御と、液晶パネル121の制御を行う。バックライト部122の照明光は画素ごとに選択的に透過され、所望の画像が、視距離Lxにて虚像としてユーザに視認される。なお、S302で画像形成部120に送信された表示指示信号に係る発光輝度値を初期値として扱う。 In S<b>302 , the control unit 150 reads data of an image to be displayed on the image forming unit 120 from the storage unit 151 , and transmits the data together with the light emission luminance value of the backlight unit 122 to the image forming unit 120 as a display instruction signal. The image data read out from the storage unit 151 is image data determined from the surrounding environment of the automobile 100, the traveling speed, and the like. Upon receiving the display instruction signal, the image forming unit 120 controls the backlight unit 122 to emit light with desired luminance and controls the liquid crystal panel 121 . The illumination light of the backlight unit 122 is selectively transmitted for each pixel, and a desired image is visually recognized by the user as a virtual image at the viewing distance Lx. Note that the light emission luminance value associated with the display instruction signal transmitted to the image forming unit 120 in S302 is treated as the initial value.

S303で制御部150は、前方測距部110から距離情報を取得する。前方測距部110は自動車100の前方の空間に向けて配置されている。制御部150は、前方測距部110から、前方車両200(図2)までの距離情報を取得することができる。前方測距部110と前方車両200との間の距離、すなわち、アイボックス180から、実景である前方車両200の後部までの距離をDxと表記する。 In S<b>303 , the control unit 150 acquires distance information from the forward rangefinder 110 . The front ranging unit 110 is arranged facing the space ahead of the automobile 100 . Control unit 150 can acquire distance information to forward vehicle 200 ( FIG. 2 ) from front ranging unit 110 . The distance between forward rangefinder 110 and forward vehicle 200, that is, the distance from eyebox 180 to the rear of forward vehicle 200, which is the actual scene, is denoted by Dx.

S304で制御部150は、現時点で表示されている虚像の視距離Lxと、S303で取得されたDxとを比較する。S304で制御部150が「Lx<Dx」と判定した場合、図2(B)で示したように前方車両200と虚像とが離間している状態である。この場合、S305の処理が実行される。また、S304で制御部150が「Lx≧Dx」と判定した場合、図2(A)で示したように前方車両200に虚像が埋め込まれたように視認される状態である。この場合、S306の処理が実行される。 In S304, the control unit 150 compares the visual distance Lx of the currently displayed virtual image with Dx obtained in S303. When the control unit 150 determines that “Lx<Dx” in S304, the forward vehicle 200 and the virtual image are separated from each other as shown in FIG. 2(B). In this case, the process of S305 is executed. When the control unit 150 determines in S304 that "Lx≧Dx", it is visually recognized as if a virtual image is embedded in the preceding vehicle 200 as shown in FIG. 2(A). In this case, the process of S306 is executed.

S306で制御部150は画像形成部120に対し、バックライト部122の発光輝度を初期値から低下させるための表示指示信号を送信する。その結果、虚像の輝度が低下し、虚像に焦点が合いづらくなるので、ユーザは虚像に気を取られにくくなる。これにより、前方車両200に埋め込まれて見える虚像が前方車両200の視認の邪魔になりにくくなる。 In S<b>306 , the control unit 150 transmits to the image forming unit 120 a display instruction signal for reducing the luminance of the backlight unit 122 from the initial value. As a result, the brightness of the virtual image is lowered, making it difficult to focus on the virtual image, so that the user is less likely to be distracted by the virtual image. As a result, the virtual image that appears to be embedded in the forward vehicle 200 is less likely to interfere with the visual recognition of the forward vehicle 200 .

S307で制御部150は待機処理を実行する。制御部150は所定時間(Tと表記する)の経過を待ってからS308に処理を進める。S308で制御部150は、再び前方測距部110からDxを取得する。 In S307, the control unit 150 executes standby processing. The control unit 150 advances the process to S308 after waiting for a predetermined time (denoted as T) to elapse. In S<b>308 , the control unit 150 acquires Dx from the front distance measuring unit 110 again.

S309で制御部150は、現時点で表示されている虚像の視距離Lxと、S308で取得されたDxとを比較する。S309で制御部150が「Lx<Dx」と判定した場合、S310の処理の処理が実行される。「Lx<Dx」と判定される一例として、所定時間Tの期間中に前方車両200が自動車100の前方から車線変更等によって移動した場合がある。あるいは、図2(B)で示したように前方車両200が自車両から視距離Lxのよりも遠くに離れた場合がある。一方、S309で制御部150が「Lx≧Dx」と判定した場合、S311の処理の処理が実行される。「Lx≧Dx」と判定する一例として、所定時間Tが経過しても図2(A)で示したように、視距離Lxよりも近い範囲に前方車両200が存在する場合がある。 In S309, the control unit 150 compares the viewing distance Lx of the currently displayed virtual image with Dx acquired in S308. When the control unit 150 determines that “Lx<Dx” in S309, the processing of S310 is executed. As an example of determining that "Lx<Dx", the forward vehicle 200 may move from the front of the automobile 100 due to a lane change or the like during the period of the predetermined time T. FIG. Alternatively, as shown in FIG. 2B, the forward vehicle 200 may be farther away than the visual distance Lx from the own vehicle. On the other hand, when the control unit 150 determines that “Lx≧Dx” in S309, the processing of S311 is executed. As an example of determining that "Lx≧Dx", the forward vehicle 200 may exist in a range closer than the visual distance Lx even after the predetermined time T has passed, as shown in FIG. 2(A).

S310で制御部150は画像形成部120に対し、バックライト部122の発光輝度を初期値に戻すための表示指示信号を送信する。その結果、虚像の輝度が上昇し、虚像の視認性が向上する。S310の処理の次にS305の処理が実行される。 In S<b>310 , the control unit 150 transmits a display instruction signal to the image forming unit 120 to return the luminance of the backlight unit 122 to the initial value. As a result, the brightness of the virtual image increases and the visibility of the virtual image improves. After the process of S310, the process of S305 is executed.

他方、S311で制御部150は、視距離LxをDxよりも短い距離に決定する。制御部150は決定した新たな視距離Lx(<Dx)に基づいて、記憶部151から可動レンズ1321を駆動すべき位置情報を読み出す。制御部150は読み出した位置情報と可動レンズ1321の現在の位置情報との差分に基づく駆動指示信号を駆動部160に送信する。駆動指示信号を受信した駆動部160は可動レンズ1321を駆動させる。その結果、虚像の視距離Lxはより短い距離に変更される。S311の処理の次にS308の処理が実行される。 On the other hand, in S311, the control unit 150 determines the viewing distance Lx to be shorter than Dx. The control unit 150 reads position information for driving the movable lens 1321 from the storage unit 151 based on the determined new viewing distance Lx (<Dx). The control unit 150 transmits a drive instruction signal based on the difference between the read position information and the current position information of the movable lens 1321 to the drive unit 160 . The drive unit 160 that has received the drive instruction signal drives the movable lens 1321 . As a result, the viewing distance Lx of the virtual image is changed to a shorter distance. After the process of S311, the process of S308 is executed.

S308で制御部150は前方測距部110からDxを再取得する。続いてS309で制御部150は現在の視距離LxとDxとを比較する。S309で制御部150が「視距離Lx≧Dx」と判定した場合、自車両と前方車両200との距離が変化し、DxがS311で変更された視距離以下となっている。この場合、S311の処理が実行され、制御部150は視距離を再変更する。 In S<b>308 , the control unit 150 reacquires Dx from the front distance measuring unit 110 . Subsequently, in S309, the control unit 150 compares the current viewing distances Lx and Dx. When the control unit 150 determines in S309 that "visual distance Lx≧Dx", the distance between the own vehicle and the forward vehicle 200 has changed, and Dx is equal to or less than the visual distance changed in S311. In this case, the process of S311 is executed, and the control unit 150 changes the viewing distance again.

一方、S309で制御部150が「Lx<Dx」と判定した場合、図2(B)に示したように、ユーザから前方車両200に虚像が埋め込まれたように見えることはない。この場合、S310の処理が実行され、制御部150は画像形成部120に対し、バックライト部122の発光輝度を初期値に戻すための表示指示信号を送信する。 On the other hand, when the control unit 150 determines that "Lx<Dx" in S309, the user does not see a virtual image embedded in the forward vehicle 200 as shown in FIG. 2B. In this case, the process of S310 is executed, and the control unit 150 transmits to the image forming unit 120 a display instruction signal for returning the light emission luminance of the backlight unit 122 to the initial value.

S305で制御部150は電源オフの判定処理を実行する。HUDシステム1の電源をオフするべきと制御部150が判定した場合、一連の処理を終了する。また、HUDシステム1の電源をオンのままにするべきと制御部150が判定した場合にはS301の処理が再度実行される。 In S305, the control unit 150 executes power-off determination processing. When the control unit 150 determines that the power of the HUD system 1 should be turned off, the series of processing ends. Further, when the control unit 150 determines that the power of the HUD system 1 should be kept on, the process of S301 is executed again.

図3のS311で変更された視距離についてはその後、S301で表示される内容や自動車100の走行速度等に基づいて制御部150が新たな視距離を再決定する。あるいは、制御部150は自車両(自動車100)と前方車両200との距離が所定距離(閾値)以上に離れたことを確認した場合に元の視距離に戻す処理を行う。 With respect to the viewing distance changed in S311 of FIG. 3, the control unit 150 then re-determines a new viewing distance based on the content displayed in S301, the traveling speed of the automobile 100, and the like. Alternatively, when the control unit 150 confirms that the distance between the own vehicle (automobile 100) and the preceding vehicle 200 is greater than or equal to a predetermined distance (threshold value), the control unit 150 performs processing to restore the original visual distance.

本実施形態では、可動レンズ1321が移動している期間に、バックライト部122の発光輝度を低下させる制御により、虚像の輝度を十分に小さくすることができる。実景に埋め込まれたように見える虚像に邪魔される結果、ユーザが実景までの距離感を把握しづらくなることを回避または抑制可能である。また、閾値時間(所定時間T)以下の時間での一時的な障害物への接近に対して、HUDシステム1が応答して頻繁に虚像の視距離が変更されることを起因として、ユーザが運転への集中を妨げられることはない。 In this embodiment, the luminance of the virtual image can be sufficiently reduced by controlling the emission luminance of the backlight unit 122 to be reduced while the movable lens 1321 is moving. It is possible to avoid or suppress the user's difficulty in grasping the sense of distance to the actual scene as a result of being disturbed by a virtual image that appears to be embedded in the actual scene. In addition, the HUD system 1 responds to a temporary approach to an obstacle during a time equal to or less than a threshold time (predetermined time T), and the visual distance of the virtual image is frequently changed. It does not interfere with your concentration on driving.

[その他の実施形態]
次に、第1の実施形態に対するその他の実施形態について説明する。その他の実施形態では、図3のS304で制御部150は、視距離Lxが実景までの距離以上(Dx以上)であるかどうかを判定する。制御部150は、「Lx≧Dx」と判定した場合、さらに視距離LxとDxとの差分を所定値(閾値)と比較する。視距離LxとDxとの差分が所定値以上(閾値以上)であると制御部150が判定した場合や、自車両と対象車両との車間距離が所定の閾値以下であり、車両同士が接近している場合、制御部150はユーザに対する警告処理を実行する。警告処理方法には、警告用の画像データを制御部150が記憶部151から読み出し、警告用の画像を虚像として表示させる制御を行うことによって、ユーザに通知する方法がある。または、自動車100の車内に配置されたスピーカー(不図示)を用いて制御部150が警告音を発生せる制御を行うことによって、ユーザに通知する方法がある。
[Other embodiments]
Next, other embodiments for the first embodiment will be described. In another embodiment, in S304 of FIG. 3, the control unit 150 determines whether or not the viewing distance Lx is equal to or greater than the distance to the actual scene (Dx or greater). When determining that “Lx≧Dx”, the control unit 150 further compares the difference between the viewing distances Lx and Dx with a predetermined value (threshold value). When the control unit 150 determines that the difference between the visual distances Lx and Dx is equal to or greater than a predetermined value (threshold value or more), or the inter-vehicle distance between the host vehicle and the target vehicle is equal to or less than a predetermined threshold value, the vehicles approach each other. If so, the control unit 150 executes warning processing for the user. As a warning processing method, there is a method in which the control unit 150 reads the warning image data from the storage unit 151 and performs control to display the warning image as a virtual image, thereby notifying the user. Alternatively, there is a method of notifying the user by controlling the control unit 150 to generate a warning sound using a speaker (not shown) arranged in the car 100 .

第1の実施形態では、図3のS306でバックライト部122の発光輝度を低下させる制御が行われる。その他の実施形態では、図3のS309で制御部150が「Lx≧Dx」と判定した場合、制御部150はバックライト部122の発光輝度を低下させる制御を行う。例えば、所定時間Tが経過しても自車両に対して視距離Lxよりも近い範囲に前方車両200が存在する場合には、バックライト部122の発光輝度を低下させる制御が行われる。その後にS311に移行して制御部150は視距離を再設定する。制御部150はS309にて、自車両と前方車両200との距離が再設定後の視距離以上となったことを確認した後、S310でバックライト部122の発光輝度を上昇させる制御を行う。 In the first embodiment, control is performed to reduce the emission luminance of the backlight unit 122 in S306 of FIG. In another embodiment, when the control unit 150 determines that “Lx≧Dx” in S309 of FIG. For example, if the forward vehicle 200 is in a range closer than the visual distance Lx to the own vehicle even after the predetermined time T has passed, control is performed to reduce the emission brightness of the backlight unit 122 . After that, the control unit 150 shifts to S311 and resets the viewing distance. After confirming in S309 that the distance between the host vehicle and the forward vehicle 200 has become equal to or greater than the reset viewing distance, the control unit 150 performs control to increase the emission brightness of the backlight unit 122 in S310.

また、図3においてS306や、S309の判定結果によりバックライト部122の発光輝度を低下させる制御に代えて、バックライト部122の消光制御を必要に応じて実行してもよい。例えば制御部150は、画像形成部120の出力する光量を低下させる制御により、前方視認性を十分に確保することが可能であるかどうかを判断する。前方車両が急ブレーキをかけたために自車両との車間距離が瞬間的に短くなった場合を想定する。この場合、制御部150は、光量の低下制御では前方視認性を十分に確保できないと判断したとき、画像形成部120の出力する光量をゼロに設定して虚像を非表示とする制御を行う。他にも、制御部150は、前述のような判断を行わず、発光輝度を低下させる制御として消光制御を行ってもよい。 Further, in FIG. 3, instead of the control for reducing the light emission luminance of the backlight unit 122 based on the determination result of S306 or S309, extinction control of the backlight unit 122 may be executed as necessary. For example, the control unit 150 determines whether or not it is possible to ensure sufficient forward visibility by controlling the amount of light output from the image forming unit 120 to be reduced. Assume that the distance between the vehicle and the host vehicle is momentarily shortened due to the sudden braking of the preceding vehicle. In this case, when the control unit 150 determines that the forward visibility cannot be sufficiently ensured by controlling the amount of light to decrease, the control unit 150 sets the amount of light output from the image forming unit 120 to zero and performs control to hide the virtual image. Alternatively, the control unit 150 may perform extinction control as control for reducing the light emission luminance without performing the above-described determination.

図1に示したミラー131と、ズームレンズ132(レンズ群)とで構成される投影部130は一例である。その他の実施形態では、視距離を変更可能な投影部としてミラー部材を移動させる構成等を採用することができる。またその他の実施形態では、視距離を変更する制御の他、液晶パネル121での表示位置の制御によって、実景の対象領域に対して虚像の位置を変更する制御への適用が可能である。制御部150は、虚像の視距離もしくは位置を変更する制御、または虚像の視距離および位置を変更する制御と、画像形成部120の出力する光量を低下させる制御または消光制御を行う。 The projection unit 130 configured by the mirror 131 and the zoom lens 132 (lens group) shown in FIG. 1 is an example. In other embodiments, it is possible to employ a configuration in which a mirror member is moved as a projection unit capable of changing the viewing distance. Further, in other embodiments, in addition to the control of changing the viewing distance, the control of the display position on the liquid crystal panel 121 can be applied to the control of changing the position of the virtual image with respect to the target area of the real scene. Control unit 150 performs control to change the visual distance or position of the virtual image, control to change the visual distance and position of the virtual image, control to reduce the amount of light output from image forming unit 120, or extinction control.

前記実施形態では画像形成部120が液晶パネル121およびバックライト部122を有する例を示した。その他の実施形態では、有機EL(Electro-Luminescence)ディスプレイ等の自発光型デバイスを使用することができる。 In the above embodiment, an example in which the image forming section 120 has the liquid crystal panel 121 and the backlight section 122 is shown. In other embodiments, self-emissive devices such as organic EL (Electro-Luminescence) displays can be used.

前記実施形態およびその他の実施形態によれば、観測者が測定対象までの距離感を把握することを阻害することのないHUDシステムを実現できる。 According to the above embodiment and other embodiments, it is possible to realize a HUD system that does not hinder the observer's perception of the distance to the measurement object.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の様々な形態も本発明の技術的範囲に含まれる。例えば、HUDシステムの適用に関して、自動車用に限定されず、二輪車、電車、航空機、建設機械、および船舶等の移動体に適用可能である。さらにHUDシステムは、現実世界の映像情報に対して所望の情報を重畳するAR(Augmented Reality:拡張現実)表示装置等に適用可能である。 Although the present invention has been described in detail above based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are possible. Included in the technical scope. For example, application of the HUD system is not limited to automobiles, and can be applied to mobile bodies such as motorcycles, trains, aircraft, construction machinery, and ships. Furthermore, the HUD system can be applied to an AR (Augmented Reality) display device or the like that superimposes desired information on real world video information.

なお本発明は上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1 HUDシステム
110 前方測距部
120 画像形成部
130 投影部
140 HUD装置
150 制御部
160 駆動部

1 HUD system 110 forward ranging unit 120 image forming unit 130 projection unit 140 HUD device 150 control unit 160 driving unit

Claims (12)

測定対象の距離情報を取得する取得手段と、
画像を表示する表示手段を有する画像形成手段と、
前記画像を投影することにより虚像として視認し得る状態にする投影手段と、
前記距離情報を取得して前記画像形成手段を制御する制御手段と、を備え、
前記制御手段は、観測者の目の位置に対応するアイボックスから前記虚像までの第1の距離に対して、前記アイボックスから前記測定対象までの第2の距離が短い場合、前記画像形成手段の出力する光量を低下させる制御を行う
ことを特徴とする表示装置。
Acquisition means for acquiring distance information of an object to be measured;
an image forming means having display means for displaying an image;
Projecting means for projecting the image to make it visible as a virtual image;
a control means for acquiring the distance information and controlling the image forming means;
When a second distance from the eyebox to the object to be measured is shorter than a first distance from the eyebox corresponding to the eye position of the observer to the virtual image, the image forming means A display device characterized by performing control to reduce the amount of light output by the.
前記制御手段は、前記第2の距離が前記第1の距離より短い場合、前記投影手段を制御することによって前記第1の距離を前記第2の距離よりも短い距離に変更する制御を行う
ことを特徴とする請求項1に記載の表示装置。
When the second distance is shorter than the first distance, the control means controls the projection means to change the first distance to a distance shorter than the second distance. The display device according to claim 1, characterized by:
前記制御手段は、表示装置を搭載した移動体と前記測定対象との接近を通知する警告処理を行う
ことを特徴とする請求項1または請求項2に記載の表示装置。
3. The display device according to claim 1, wherein the control means performs warning processing for notifying the approach of a moving object equipped with the display device to the object to be measured.
前記制御手段は、前記第1の距離が前記第2の距離以上であって、かつ、前記第1の距離と前記第2の距離との差分が閾値以上であると判定した場合に警告処理を行う
ことを特徴とする請求項1または請求項2に記載の表示装置。
The control means performs warning processing when determining that the first distance is greater than or equal to the second distance and that a difference between the first distance and the second distance is greater than or equal to a threshold. 3. The display device according to claim 1 or 2, characterized in that:
前記画像形成手段は、前記表示手段を照明する発光手段を有し、
前記制御手段は、前記発光手段を制御することによって発光輝度を低下させる制御または消光制御を行う
ことを特徴とする請求項1から4のいずれか1項に記載の表示装置。
The image forming means has light emitting means for illuminating the display means,
5. The display device according to any one of claims 1 to 4, wherein the control means controls the light emission means to reduce the light emission luminance or extinguish the light.
前記制御手段は、予め定められた時間が経過しても前記第1の距離より前記第2の距離が短いと判定した場合、前記発光輝度を低下させる制御または消光制御を行う
ことを特徴とする請求項5に記載の表示装置。
When the control means determines that the second distance is shorter than the first distance even after a predetermined time has elapsed, the control means performs control to reduce the light emission luminance or extinguishment control. The display device according to claim 5.
前記制御手段は、前記発光輝度を低下させる制御または消光制御を行ってから、前記第1の距離を設定し、前記第2の距離が設定後の第1の距離以上となった場合に前記発光輝度を上昇させる制御を行う
ことを特徴とする請求項6に記載の表示装置。
The control means sets the first distance after performing control for reducing the light emission luminance or performing extinction control, and the light emission is performed when the second distance is equal to or greater than the first distance after setting. 7. The display device according to claim 6, wherein control is performed to increase luminance.
前記投影手段は、前記移動体が備える反射部材に前記画像を投影する
ことを特徴とする請求項3に記載の表示装置。
4. The display device according to claim 3, wherein the projection means projects the image onto a reflecting member provided on the moving body.
測定対象の距離情報を取得する取得手段と、
画像を表示する表示手段を有する画像形成手段と、
前記画像を投影することにより虚像として視認し得る状態にする投影手段と、
前記距離情報を取得して前記画像形成手段を制御する制御手段と、を備え、
前記制御手段は、観測者の目の位置に対応するアイボックスから前記測定対象までの距離に対して、前記アイボックスから前記虚像までの距離を変更し、または前記虚像の位置を変更する制御と、前記画像形成手段の出力する光量を低下させる制御または消光制御を行う
ことを特徴とする表示装置。
Acquisition means for acquiring distance information of an object to be measured;
an image forming means having display means for displaying an image;
Projecting means for projecting the image to make it visible as a virtual image;
a control means for acquiring the distance information and controlling the image forming means;
The control means controls to change the distance from the eyebox to the virtual image or to change the position of the virtual image with respect to the distance from the eyebox corresponding to the eye position of the observer to the measurement target. 1. A display device that performs control for reducing the amount of light output from said image forming means or extinction control.
表示装置にて実行される制御方法であって、
測定対象の距離情報を取得する工程と、
表示手段を有する画像形成手段によって画像を形成する工程と、
前記画像を投影することにより虚像として視認し得る状態にする工程と、
前記距離情報を取得して前記画像形成手段を制御する制御工程と、を有し、
前記制御工程では、観測者の目の位置に対応するアイボックスから前記虚像までの第1の距離に対して、前記アイボックスから前記測定対象までの第2の距離が短い場合、前記画像形成手段の出力する光量を低下させる制御が行われる
ことを特徴とする表示装置の制御方法。
A control method executed by a display device,
a step of acquiring distance information of a measurement target;
forming an image with an image forming means having a display means;
Projecting the image to make it visible as a virtual image;
a control step of acquiring the distance information and controlling the image forming means;
In the control step, if a second distance from the eyebox to the measurement target is shorter than a first distance from the eyebox corresponding to the eye position of the observer to the virtual image, the image forming means A control method for a display device, characterized in that control is performed to reduce the amount of light output from the display device.
表示装置にて実行される制御方法であって、
測定対象の距離情報を取得する工程と、
表示手段を有する画像形成手段によって画像を形成する工程と、
前記画像を投影することにより虚像として視認し得る状態にする工程と、
前記距離情報を取得して前記画像形成手段を制御する制御工程と、を有し、
前記制御工程では、観測者の目の位置に対応するアイボックスから前記測定対象までの距離に対して、前記アイボックスから前記虚像までの距離を変更し、または前記虚像の位置を変更する制御と、前記画像形成手段の出力する光量を低下させる制御または消光制御が行われる
ことを特徴とする表示装置の制御方法。
A control method executed by a display device,
a step of acquiring distance information of a measurement target;
forming an image with an image forming means having a display means;
Projecting the image to make it visible as a virtual image;
a control step of acquiring the distance information and controlling the image forming means;
In the control step, the distance from the eyebox to the virtual image or the position of the virtual image is changed with respect to the distance from the eyebox corresponding to the eye position of the observer to the measurement target. 2. A control method for a display device, wherein control for reducing the amount of light output from said image forming means or extinction control is performed.
請求項10または請求項11に記載の各工程を表示装置のコンピュータに実行させるプログラム。


A program for causing a computer of a display device to execute each step according to claim 10 or 11.


JP2022011471A 2022-01-28 2022-01-28 Display unit, control method, and program Pending JP2023110188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022011471A JP2023110188A (en) 2022-01-28 2022-01-28 Display unit, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022011471A JP2023110188A (en) 2022-01-28 2022-01-28 Display unit, control method, and program

Publications (1)

Publication Number Publication Date
JP2023110188A true JP2023110188A (en) 2023-08-09

Family

ID=87546298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022011471A Pending JP2023110188A (en) 2022-01-28 2022-01-28 Display unit, control method, and program

Country Status (1)

Country Link
JP (1) JP2023110188A (en)

Similar Documents

Publication Publication Date Title
US10551619B2 (en) Information processing system and information display apparatus
JP6485732B2 (en) Information providing apparatus, information providing method, and information providing control program
US9819920B2 (en) Head-up display device
JP7254832B2 (en) HEAD-UP DISPLAY, VEHICLE DISPLAY SYSTEM, AND VEHICLE DISPLAY METHOD
US20200051529A1 (en) Display device, display control method, and storage medium
JP7282789B2 (en) VEHICLE DISPLAY SYSTEM, VEHICLE SYSTEM AND VEHICLE
JP6504431B2 (en) IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM
JP7300112B2 (en) Control device, image display method and program
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
WO2018167844A1 (en) Head-up display device and image display method thereof
CN114302828A (en) Display system for vehicle and vehicle
JP7082745B2 (en) Display device for vehicles
CN114466761A (en) Head-up display and image display system
JP2019202589A (en) Display device
JP2021135933A (en) Display method, display device and display system
JP7182368B2 (en) VEHICLE DISPLAY DEVICE, METHOD AND COMPUTER PROGRAM FOR CONTROLLING VEHICLE DISPLAY DEVICE
CN110816407A (en) Display device, display control method, and storage medium
JP6102628B2 (en) Head-up display device
JP2023110188A (en) Display unit, control method, and program
JP6814416B2 (en) Information providing device, information providing method, and information providing control program
CN110816268B (en) Display device, display control method, and storage medium
JP6726412B2 (en) Image display device, moving body, image display method and program
WO2017110014A1 (en) Image display device, image display method, and control program
JP7385834B2 (en) Image display method and image display device
JP2019184304A (en) Display system