JP2021162704A - Head-up display device and head-up display system - Google Patents

Head-up display device and head-up display system Download PDF

Info

Publication number
JP2021162704A
JP2021162704A JP2020063856A JP2020063856A JP2021162704A JP 2021162704 A JP2021162704 A JP 2021162704A JP 2020063856 A JP2020063856 A JP 2020063856A JP 2020063856 A JP2020063856 A JP 2020063856A JP 2021162704 A JP2021162704 A JP 2021162704A
Authority
JP
Japan
Prior art keywords
display
polarization
polarization axis
light
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020063856A
Other languages
Japanese (ja)
Inventor
惇平 板垣
Jumpei Itagaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020063856A priority Critical patent/JP2021162704A/en
Publication of JP2021162704A publication Critical patent/JP2021162704A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Polarising Elements (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Instrument Panels (AREA)

Abstract

To reduce reflection on a surface of a projection target member to prevent the occurrence of double images.SOLUTION: A head-up display device projects display light on a projection target member 60 to allow an observer who arranges the eyes in an eye box to visually recognize a virtual image. A polarized light control element 50 is arranged on a light path of the display light from a display 21, and adjusts the direction of the polarization axis E of the display light for each of the areas on which the display light is incident. A processor executes polarized light pattern control of making the direction of the polarization axis E for each of the areas of the polarized light control element 50 different so as to reduce reflection on a surface of the projection target member 60 based on the positions of the eyes of the observer.SELECTED DRAWING: Figure 10

Description

本開示は、車両などの移動体に用いられるヘッドアップディスプレイ装置及びヘッドアップディスプレイシステムに関する。 The present disclosure relates to a head-up display device and a head-up display system used for a moving body such as a vehicle.

車両のウインドシールドに、特定波長領域の光に対する回折効率(反射率)が高いホログラム素子を設け、これに内部で生成した表示画像の表示光を投影することで、虚像を視認させるヘッドアップディスプレイ装置が記載されている。 A head-up display device that visualizes a virtual image by providing a hologram element with high diffraction efficiency (reflectance) for light in a specific wavelength region on the windshield of the vehicle and projecting the display light of the display image generated inside onto it. Is described.

特許文献1には、ホログラム素子への光の入射角をブリュースター角に設定し、ホログラム素子を包含するウインドシールドにP偏光で入射させることで、ウインドシールドでの表面反射を低減しつつ、ウインドシールドを透過した光をホログラム素子で回折させて観察者に向ける方法が提案されている。 In Patent Document 1, the angle of light incident on the hologram element is set to Brewster's angle, and the light is incident on the windshield including the hologram element with P-polarized light, thereby reducing the surface reflection of the windshield and the window. A method has been proposed in which the light transmitted through the shield is diffracted by a hologram element and directed toward the observer.

特開2011−227281号公報Japanese Unexamined Patent Publication No. 2011-227281

しかしながら、被投影部材で反射されて観察者の所定の目位置に入射する光束に着目すると、ヘッドアップディスプレイ装置から出射される表示光が、所定の幅を有する出射角を有していること、ウインドシールド(被投影部材)が曲面であること、又はこれらの組み合わせに起因して、被投影部材の各領域で所定の1つの方向に反射される光束は、被投影部の一部に対してはP偏光で入射しても、他部ではP偏光で入射しない(換言すると、被投影部材の全域に対して、P偏光で入射しない)ため、例え、被投影部の各領域への入射角がブリュースター角であってもウインドシールドで表面反射されてしまうことも想定され、この観点で改善の余地があった。 However, focusing on the light beam reflected by the projected member and incident on the observer's predetermined eye position, the display light emitted from the head-up display device has an emission angle having a predetermined width. Due to the curved surface of the windshield (projected member) or a combination of these, the light beam reflected in each predetermined direction in each region of the projected member is directed to a part of the projected portion. Is incident with P-polarized light, but is not incident with P-polarized light in other parts (in other words, it is not incident with P-polarized light over the entire area of the projected member). Even if the angle is Brewster's angle, it is assumed that the surface is reflected by the windshield, and there is room for improvement from this point of view.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the particular embodiments disclosed herein is presented below. It should be understood that these aspects are presented solely to provide the reader with an overview of these particular embodiments and do not limit the scope of this disclosure. In fact, the present disclosure may include various aspects not described below.

本開示の概要は、虚像の表示品位を向上させる。より具体的には、被投影部材での表面反射を低減し、2重像の発生を抑制することに関する。 The outline of the present disclosure improves the display quality of a virtual image. More specifically, it relates to reducing surface reflection on the projected member and suppressing the generation of double images.

したがって、本明細書に開示されるヘッドアップディスプレイシステムは、アイボックスに目を配置する観察者に虚像を視認させるヘッドアップディスプレイシステムであって、反射型回折素子を有する被投影部材と、表示光を出射する表示器と、表示器からの表示光を被投影部材に向けるリレー光学と、表示器からの表示光の光路上に配置され、表示光を入射する領域毎に、表示光の偏光軸の方位を調整する偏光制御素子と、情報を取得可能な1つ又は複数のI/Oインタフェースと、1つ又は複数のプロセッサと、メモリと、メモリに格納され、1つ又は複数のプロセッサによって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、I/Oインタフェースは、観察者の目位置を示す情報、又は目位置を推定可能な情報を取得し、1つ又は複数のプロセッサは、目位置に基づき、被投影部材による表面反射が低減するように、偏光制御素子の領域毎に、偏光軸の方位を異ならせる偏光パターン制御を実行する。 Therefore, the head-up display system disclosed in the present specification is a head-up display system that allows an observer who places an eye in an eye box to visually recognize a virtual image, and is a projected member having a reflective diffractive element and display light. A display that emits light, relay optics that directs the display light from the display to the projected member, and a polarization axis of the display light for each region in which the display light is incident, which is arranged on the optical path of the display light from the display. A polarization control element that adjusts the orientation of the light, one or more I / O interfaces that can acquire information, one or more processors, a memory, and stored in the memory and executed by one or more processors. With one or more computer programs configured to be configured, the I / O interface obtains information indicating the observer's eye position, or information in which the eye position can be estimated, and one or more. The plurality of processors perform polarization pattern control in which the orientation of the polarization axis is different for each region of the polarization control element so that the surface reflection by the projected member is reduced based on the eye position.

図1は、本実施形態に係るヘッドアップディスプレイシステムの構成を示す図であって、自動車に採用された態様を示す。FIG. 1 is a diagram showing a configuration of a head-up display system according to the present embodiment, and shows an aspect adopted in an automobile. 図2は、上記実施形態のHUD装置の構成を示す。FIG. 2 shows the configuration of the HUD device of the above embodiment. 図3は、いくつかの実施形態に係る、ヘッドアップディスプレイシステムのブロック図である。FIG. 3 is a block diagram of a head-up display system according to some embodiments. 図4は、いくつかの実施形態に従って、観察者の目位置に基づき、偏光パターンを設定する動作を実行する方法を示すフロー図である。FIG. 4 is a flow chart showing a method of performing an operation of setting a polarization pattern based on an observer's eye position according to some embodiments. 図5Aは、いくつかの実施形態における、偏光パターンに対応する空間的な領域の配置の説明を提供するための図である。FIG. 5A is a diagram for providing a description of the arrangement of spatial regions corresponding to polarization patterns in some embodiments. 図5Bは、いくつかの実施形態における、偏光パターンに対応する空間的な領域の配置の説明を提供するための図である。FIG. 5B is a diagram for providing a description of the arrangement of spatial regions corresponding to polarization patterns in some embodiments. 図5Cは、いくつかの実施形態における、偏光パターンに対応する空間的な領域の配置の説明を提供するための図である。FIG. 5C is a diagram for providing a description of the arrangement of spatial regions corresponding to polarization patterns in some embodiments. 図6は、第1実施形態のHUD装置における表示器の構成の説明を提供する。FIG. 6 provides a description of the configuration of the display in the HUD device of the first embodiment. 図7は、第2実施形態のHUD装置における表示器の構成の説明を提供する。FIG. 7 provides a description of the configuration of the display in the HUD device of the second embodiment. 図8は、第3実施形態のHUD装置における表示器の構成の説明を提供する。FIG. 8 provides a description of the configuration of the display in the HUD device of the third embodiment. 図9は、車両の前方を向いた観察者から見た、被投影部材に入射する表示光の偏光軸を示す概念図である。FIG. 9 is a conceptual diagram showing the polarization axes of the display light incident on the projected member as seen from an observer facing the front of the vehicle. 図10は、図9の要部を拡大した図であり、被投影部材の部分領域毎に入射する表示光の偏光軸を示す図である。FIG. 10 is an enlarged view of a main part of FIG. 9, and is a diagram showing the polarization axes of the display light incident on each partial region of the projected member. 図11は、被投影部材に入射する表示光の偏光軸の態様を示す図である。FIG. 11 is a diagram showing an aspect of the polarization axis of the display light incident on the projected member. 図12は、被投影部材に入射する表示光の偏光軸の態様を示す図である。FIG. 12 is a diagram showing an aspect of the polarization axis of the display light incident on the projected member. 図13は、被投影部材の位置に対する偏光軸の方位を段階的に変化させる偏光パターンの第1の態様、及び連続的に変化させる第2の態様の説明を提供する図であり、被投影部材の左右方向の位置(横軸)に対する偏光軸の方位(縦軸)を示す図である。FIG. 13 is a diagram providing an explanation of a first aspect of the polarization pattern in which the orientation of the polarization axis with respect to the position of the projected member is changed stepwise, and a second aspect in which the orientation of the polarization axis is continuously changed. It is a figure which shows the direction (vertical axis) of the polarization axis with respect to the position (horizontal axis) in the left-right direction of.

以下に、本発明に係る実施形態について図面を参照して説明する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。以下の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.

以下、図1乃至図13では、本実施形態におけるヘッドアップディスプレイシステム、ヘッドアップディスプレイ装置の説明を提供する。 Hereinafter, FIGS. 1 to 13 provide a description of the head-up display system and the head-up display device according to the present embodiment.

図1は、本発明の実施形態に係るヘッドアップディスプレイシステムの構成を示す図であって、自動車に採用された態様が示されている。なお、本発明のヘッドアップディスプレイシステムは、自動車に限らず、移動体における表示装置に採用することが可能である。なお、本実施形態に用いる図面において、車両の左右方向をX軸方向(車両の前方を向いた際の左側がX軸正方向)とし、上下方向をY軸方向(路面を走行する車両の上側がY軸正方向)とし、車両の前後方向をZ軸方向(車両の前方がZ軸正方向)とする。 FIG. 1 is a diagram showing a configuration of a head-up display system according to an embodiment of the present invention, showing an embodiment adopted in an automobile. The head-up display system of the present invention can be used not only in automobiles but also in display devices in mobile objects. In the drawings used in this embodiment, the left-right direction of the vehicle is the X-axis direction (the left side when facing the front of the vehicle is the X-axis positive direction), and the vertical direction is the Y-axis direction (above the vehicle traveling on the road surface). The side is the Y-axis positive direction), and the front-rear direction of the vehicle is the Z-axis direction (the front of the vehicle is the Z-axis positive direction).

図1のヘッドアップディスプレイシステム10は、車両1に搭載され、ヘッドアップディスプレイ装置(以下、HUD装置とも記載する。)20と、HUD装置20を制御する表示制御装置40と、後述する反射型回折素子80を含み、HUD装置20からの表示光20aを受ける被投影部材60と、から構成される。HUD装置20は、観察者(典型的には、車両の運転席に着座する運転者)の正面(前方、車両の進行方向とも言える。)に配置される車両のフロントウインドシールド(被投影部材60の一例。)に向けて表示光20aを投影する。 The head-up display system 10 of FIG. 1 is mounted on the vehicle 1, has a head-up display device (hereinafter, also referred to as a HUD device) 20, a display control device 40 that controls the HUD device 20, and a reflection type diffraction described later. The element 80 is included, and is composed of a projected member 60 that receives the display light 20a from the HUD device 20. The HUD device 20 is a vehicle front windshield (projected member 60) arranged in front of an observer (typically, a driver seated in the driver's seat of the vehicle) (forward, which can be said to be the traveling direction of the vehicle). The display light 20a is projected toward (1 example).

HUD装置20(リレー光学(25))は、後述する反射型回折素子80を包含する被投影部材60に対する入射角がブリュースター角の近傍の角度で表示光20aを投射する。ブリュースター角(偏光角)は、屈折率の異なる物質の界面においてP偏光の反射率が0となる入射角を表し、被投影部材60の屈折率をNとしたとき、arctanNで求められる角度である。フロントウインドシールドは、例えば、PMMA(ポリメタクリル酸メチル樹脂:Polymethyl Methacrylate)であり、PMMAの屈折率Nは1.49とされているため、ブリュースター角が56.3度とされている。なお、P偏光の光は、被投影部材60に対する入射角が、ブリュースター角から離れている場合(ブリュースター角より大きい、又は小さい)には、その反射率が再び大きくなる。P偏光は、入射面内で電界が振動する偏光である。前記入射面は、アイボックス200内の所定の点(例えば、中心205)に向かう被投影部材60からの反射光及び入射光を含む面である。 The HUD device 20 (relay optics (25)) projects the display light 20a at an angle incident on the projected member 60 including the reflective diffraction element 80 described later at an angle close to the Brewster angle. The Brewster angle (polarization angle) represents the incident angle at which the reflectance of P-polarized light becomes 0 at the interface between substances having different refractive indexes, and is the angle obtained by arctan N when the refractive index of the projected member 60 is N. be. The front windshield is, for example, PMMA (Polymethyl Polypolylate), and since the refractive index N of PMMA is 1.49, the Brewster angle is 56.3 degrees. The reflectance of P-polarized light increases again when the angle of incidence on the projected member 60 is far from the Brewster's angle (larger or smaller than the Brewster's angle). P-polarized light is polarized light in which an electric field oscillates in the incident plane. The incident surface is a surface containing the reflected light and the incident light from the projected member 60 toward a predetermined point (for example, the center 205) in the eye box 200.

反射型回折素子80は、例えばホログラフィック素子、及び回折光学素子(DOE)の少なくとも1つを含み得る。ホログラフィック素子は、例えば,フォトポリマーや重クロム酸ゼラチンなどのホログラム材料などからなり、入射した光を所望の方向へ向けて回折する光学部材であり、物体光と参照光の干渉パターンを記録することで作成される。反射型回折素子80は、例えば、シート状であり、被投影部材60に内包され、HUD装置20が投影する表示光20aを車両1の内側の所定の領域であるアイボックス200へ回折する。例えば、後述する反射型回折素子80は、HUD装置20から受けた表示光20aを回折することで、観察者に視認される画像(虚像)のサイズを大きくすることができる。観察者は、アイボックス200内に目を配置することで、被投影部材60より遠方側に、HUD装置20が表示する表示画像の虚像Vを視認することができる。なお、反射型回折素子80は、被投影部材60の表面(観察者側の表面)に形成されてもよい。 The reflective diffraction element 80 may include, for example, at least one of a holographic element and a diffraction optical element (DOE). The holographic element is an optical member made of, for example, a hologram material such as a photopolymer or gelatin dichromate, which diffracts incident light in a desired direction, and records an interference pattern between object light and reference light. Is created by. The reflective diffraction element 80 is, for example, in the form of a sheet, is included in the projected member 60, and diffracts the display light 20a projected by the HUD device 20 into the eye box 200, which is a predetermined region inside the vehicle 1. For example, the reflection type diffraction element 80 described later can increase the size of the image (virtual image) visually recognized by the observer by diffracting the display light 20a received from the HUD device 20. By arranging the eyes in the eye box 200, the observer can visually recognize the virtual image V of the display image displayed by the HUD device 20 on the side farther from the projected member 60. The reflective diffraction element 80 may be formed on the surface of the projected member 60 (the surface on the observer side).

本実施形態の説明で用いる「アイボックス」とは、(1)領域内では表示面30に表示される表示画像の全体が虚像Vとして視認でき、領域外では表示面30に表示される表示画像の少なくとも一部分が虚像Vとして視認されない領域、(2)領域内では後述する表示面30に表示される表示画像の少なくとも一部が虚像Vとして視認でき、領域外では表示面30に表示される表示画像の一部分も虚像Vとして視認されない領域、(3)領域内では表示画像の虚像Vが立体的に視認でき、領域外では虚像Vを立体的に視認されない領域、又は(4)領域内では表示面30に表示される少なくとも一部の表示画像の虚像Vが所定の輝度以上で視認でき、領域外では表示面30に表示される表示画像の虚像Vの全体が前記所定の輝度未満である領域である。すなわち、観察者が目(両目)3をアイボックス200外に配置すると、観察者は、表示画像の虚像Vの全体が正常に視認できない、又は表示画像の虚像Vの全体の視認性が非常に低く知覚しづらい。前記所定の輝度とは、例えば、アイボックスの中心での表示画像の輝度に対して1/50程度である。「アイボックス」は、HUD装置20が搭載される車両で観察者の視点位置の配置が想定されるエリア(アイリプスとも呼ぶ。)と同じ、又は前記アイリプスの大部分(例えば、80%以上。)を含むように設定される。 The "eye box" used in the description of the present embodiment means that the entire display image displayed on the display surface 30 can be visually recognized as a virtual image V in the area (1), and the display image displayed on the display surface 30 outside the area. At least a part of the display image is not visible as a virtual image V, and (2) at least a part of the display image displayed on the display surface 30 described later is visible as a virtual image V in the area, and is displayed on the display surface 30 outside the area. A part of the image is not visually recognized as a virtual image V, a region (3) in which the virtual image V of the displayed image can be visually recognized three-dimensionally, and a virtual image V is not three-dimensionally visible outside the region, or a region (4) is displayed. A region in which at least a part of the virtual image V of the display image displayed on the surface 30 can be visually recognized at a predetermined brightness or higher, and the entire virtual image V of the display image displayed on the display surface 30 is less than the predetermined brightness outside the region. Is. That is, when the observer arranges the eyes (both eyes) 3 outside the eye box 200, the observer cannot normally see the entire virtual image V of the displayed image, or the entire visibility of the virtual image V of the displayed image is very high. Low and hard to perceive. The predetermined brightness is, for example, about 1/50 of the brightness of the display image at the center of the eye box. The "eye box" is the same as the area (also referred to as eye lip) where the observer's viewpoint position is expected to be arranged in the vehicle on which the HUD device 20 is mounted, or most of the eye lip (for example, 80% or more). Is set to include.

虚像表示領域100は、平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。虚像表示領域100は、HUD装置20の後述する表示装置(表示器)21の表示面30の虚像が結像される位置であり、すなわち、虚像表示領域100は、HUD装置20の後述する表示面30に対応し(言い換えると、虚像表示領域100は、後述する表示器21の表示面30と、共役関係となる。)、虚像表示領域100で視認される虚像は、HUD装置20の後述する表示面30に表示される表示画像に対応している、と言える。虚像表示領域100自体は、実際に観察者に視認されない、又は視認されにくい程度に視認性が低いことが好ましい。 The virtual image display area 100 is a plane, a curved surface, or a partially curved surface region, and is also called an image plane. The virtual image display area 100 is a position where a virtual image of the display surface 30 of the display device (display) 21 described later of the HUD device 20 is formed. That is, the virtual image display area 100 is a display surface of the HUD device 20 described later. Corresponding to 30 (in other words, the virtual image display area 100 has a conjugate relationship with the display surface 30 of the display 21 described later), and the virtual image visually recognized in the virtual image display area 100 is the display described later in the HUD device 20. It can be said that it corresponds to the display image displayed on the surface 30. It is preferable that the virtual image display area 100 itself has low visibility to the extent that it is not actually visible to the observer or is difficult to see.

図2は、本実施形態のHUD装置20の構成を示す図である。HUD装置20は、表示画像の表示光20aを出射する表示器21と、表示器21が出射する表示光20aを、被投影部材60に向けるリレー光学25と、で構成される。なお、後述する本実施形態の表示器21は、2D表示器であるが、3D表示器であってもよい。すなわち、HUD装置20は、アイボックス200に配置された前記アイポイント(左右の目)に対応した視差画像(又はライトフィールド画像)を表示することで、虚像表示領域100を基準に立体画像の虚像を観察者に知覚させてもよい(なお、3D表示器は、両眼視差方式又はライトフィールド方式の3D表示器でなくてもよい。)。 FIG. 2 is a diagram showing a configuration of the HUD device 20 of the present embodiment. The HUD device 20 includes a display 21 that emits the display light 20a of the display image, and a relay optical 25 that directs the display light 20a emitted by the display 21 toward the projected member 60. Although the display 21 of the present embodiment described later is a 2D display, it may be a 3D display. That is, the HUD device 20 displays a parallax image (or a light field image) corresponding to the eye points (left and right eyes) arranged in the eye box 200, thereby displaying a virtual image of a stereoscopic image with reference to the virtual image display area 100. (Note that the 3D display may not be a binocular parallax type or light field type 3D display).

リレー光学25は、光学的パワーを有さない平面ミラーである第1のミラー26と、正の光学的パワーを有する凹面ミラーである第2のミラー28と、で構成される。第1のミラー26は、表示器21からの表示光20aの光路上に配置され、表示光20aを反射する。第2のミラー28は、第1のミラー26が反射した表示光20aの光路上に配置され、表示光20aを反射する。リレー光学25は、被投影部材60とともに、表示画像の虚像Vを結像するための虚像光学系として機能する。虚像光学系は、複数の光学部材で構成され、複数の光学部材の配置を調整すること、及び/又は1つ(又はそれ以上)の光学部材の全体の(又は一部分の)光学的パワーを調整すること、で観察者に視認させる虚像Vの一部又は全体のサイズ(倍率)、配置、及び/又は形状などを調整し得る。 The relay optics 25 is composed of a first mirror 26 which is a planar mirror having no optical power and a second mirror 28 which is a concave mirror having positive optical power. The first mirror 26 is arranged on the optical path of the display light 20a from the display 21 and reflects the display light 20a. The second mirror 28 is arranged on the optical path of the display light 20a reflected by the first mirror 26, and reflects the display light 20a. The relay optical 25, together with the projected member 60, functions as a virtual image optical system for forming a virtual image V of the displayed image. The virtual image optical system is composed of a plurality of optical members, and adjusts the arrangement of the plurality of optical members and / or adjusts the total (or a part) optical power of one (or more) optical members. By doing so, the size (magnification), arrangement, and / or shape of a part or the whole of the virtual image V to be visually recognized by the observer can be adjusted.

また、本実施形態のリレー光学25は、表示器21が生成した表示画像を拡大した虚像Vとして結像させるための画像拡大機能(光学機能の一例)と、歪みのない(歪の少ない)虚像として結像させるための画像歪み補正機能(光学機能の一例)と、を有していてもよい。リレー光学25に凹面鏡の機能(画像拡大機能、及び/又は画像歪み補正機能)を持たせることで、観察者に、大きな虚像、歪の少ない虚像を提供することができるとともに、HUD装置20内の表示器21や他の光学系(リレー光学25も含んでもよい)の小型化を図り、延いてはHUD装置20全体の小型化を図ることも可能となる。なお、本実施形態のリレー光学25は、反射光学系のみで構成されるが、これらの代わりに(又はこれらに加えて)、レンズなどの屈折光学系、ホログラムなどの回折光学系、など公知の様々な光学系を含んでいてもよい。なお、リレー光学25は、省略され得る。 Further, the relay optical 25 of the present embodiment has an image enlargement function (an example of an optical function) for forming an image of the display image generated by the display 21 as an enlarged virtual image V, and a distortion-free (less distortion) virtual image. It may have an image distortion correction function (an example of an optical function) for forming an image as an image. By providing the relay optics 25 with a concave mirror function (image enlargement function and / or image distortion correction function), it is possible to provide the observer with a large virtual image and a virtual image with less distortion, and in the HUD device 20. It is also possible to reduce the size of the display 21 and other optical systems (which may also include the relay optical 25), and thus to reduce the size of the entire HUD device 20. The relay optics 25 of the present embodiment is composed of only the catadioptric system, but instead of (or in addition to) these, a refraction optical system such as a lens, a diffractive optical system such as a hologram, and the like are known. It may include various optics. The relay optics 25 may be omitted.

偏光制御素子50は、例えば液晶素子などで構成されており、後述するプロセッサ43による電圧制御によって、偏光制御素子50を透過させる光の偏光軸Eを任意の方向に回転することができる。このため、偏光制御素子50の面内での電圧制御を異ならせることで、偏光制御素子50の領域毎に、通過する表示光20aの偏光軸Eの方位を異ならせることができる。 The polarization control element 50 is composed of, for example, a liquid crystal element, and the polarization axis E of light transmitted through the polarization control element 50 can be rotated in an arbitrary direction by voltage control by a processor 43 described later. Therefore, by making the voltage control in the plane of the polarization control element 50 different, the direction of the polarization axis E of the indicating light 20a passing through can be made different for each region of the polarization control element 50.

偏光制御素子50は、表示器21の表示面30の表面、即ち観察者側表面に配置されている。表示器21から入射される直線偏光画像は、偏光制御素子50に入射すると、領域毎に設定された所定の角度だけ偏光軸Eの方位を回転させる(偏光変換する)ので、領域毎に異なる偏光軸Eを有するパターニング偏光画像として出射される。偏光制御素子50の画素は、偏光状態を、明状態と暗状態との間の中間値に制御可能とし、中間値を含む電圧制御で、液晶セル410の面内の領域毎に、偏光状態を制御する。偏光制御素子50を透過する表示光21aの面内で設定される偏光軸Eは、表示面30から入射する直線偏光の偏光軸に対して、80〜100[degree]、又は260〜280[degree](好ましくは、85〜95[degree]、又は265〜275[degree])異なるように配置される。 The polarization control element 50 is arranged on the surface of the display surface 30 of the display 21, that is, the surface on the observer side. When the linearly polarized image incident from the display 21 is incident on the polarization control element 50, the direction of the polarization axis E is rotated (polarized conversion is performed) by a predetermined angle set for each region, so that different polarizations are obtained for each region. It is emitted as a patterned polarized image having an axis E. The pixels of the polarization control element 50 make it possible to control the polarization state to an intermediate value between the bright state and the dark state, and by voltage control including the intermediate value, the polarization state is set for each region in the plane of the liquid crystal cell 410. Control. The polarization axis E set in the plane of the display light 21a transmitted through the polarization control element 50 is 80 to 100 [degree] or 260 to 280 [degree] with respect to the linearly polarized polarization axis incident from the display surface 30. ] (Preferably 85-95 [degree], or 265-275 [degree]) are arranged differently.

図3は、いくつかの実施形態に係る、ヘッドアップディスプレイシステム10のブロック図である。表示制御装置40は、1つ又は複数のI/Oインタフェース41、1つ又は複数のプロセッサ43、1つ又は複数の画像処理回路45、及び1つ又は複数のメモリ37を備える。図3に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図3は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路45(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ43に含まれてもよい。 FIG. 3 is a block diagram of the head-up display system 10 according to some embodiments. The display control device 40 includes one or more I / O interfaces 41, one or more processors 43, one or more image processing circuits 45, and one or more memories 37. The various functional blocks described in FIG. 3 may consist of hardware, software, or a combination of both. FIG. 3 is only one embodiment, and the illustrated components may be combined with a smaller number of components, or there may be additional components. For example, the image processing circuit 45 (for example, a graphic processing unit) may be included in one or more processors 43.

図示するように、プロセッサ43及び画像処理回路45は、メモリ37と動作可能に連結される。より具体的には、プロセッサ43及び画像処理回路45は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、ヘッドアップディスプレイシステム10(画像表示部20)の操作を行うことができる。プロセッサ43及び/又は画像処理回路45は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, the processor 43 and the image processing circuit 45 are operably connected to the memory 37. More specifically, the processor 43 and the image processing circuit 45 execute a program stored in the memory 37 to generate and / or transmit image data, for example, in the head-up display system 10 (image display). The operation of unit 20) can be performed. The processor 43 and / or the image processing circuit 45 includes at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 37 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. The volatile memory may include DRAM and SRAM, and the non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ43は、I/Oインタフェース41と動作可能に連結されている。I/Oインタフェース41は、例えば、車両に設けられた後述の車両ECU901、又は他の電子機器(後述する符号903〜919)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース41が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース41は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16−2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G−LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, the processor 43 is operably linked to the I / O interface 41. The I / O interface 41 communicates with, for example, a vehicle ECU 901 or another electronic device (reference numerals 903 to 919 described later) provided in the vehicle according to a CAN (Controller Area Network) standard (also referred to as CAN communication). ). The communication standard adopted by the I / O interface 41 is not limited to CAN, and is, for example, CANFD (CAN with Flexible Data Rate), LIN (Local Interconnect Network), Ethernet (registered trademark), MOST (Media Oriented Systems Transport). : MOST is a registered trademark), a wired communication interface such as UART, or USB, or a local such as a personal area network (PAN) such as a Bluetooth (registered trademark) network, or an 802.1x Wi-Fi (registered trademark) network. In-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN), is included. In addition, the I / O interface 41 is a wireless wide area network (WWAN0, IEEE 802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), IEEE 802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, An external communication (external communication) interface such as a wide area communication network (for example, an Internet communication network) may be included according to a cellular communication standard such as 5G.

図示するように、プロセッサ43は、I/Oインタフェース41と相互動作可能に連結されることで、ヘッドアップディスプレイシステム10(I/Oインタフェース41)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース41には、例えば、車両ECU901、道路情報データベース903、自車位置検出部905、車外センサ907、操作検出部909、目位置検出部911、IMU913、視線方向検出部915、携帯情報端末917、及び外部通信機器919などが動作可能に連結される。なお、I/Oインタフェース41は、ヘッドアップディスプレイシステム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown in the figure, the processor 43 is interoperably connected to the I / O interface 41 to provide information with various other electronic devices and the like connected to the head-up display system 10 (I / O interface 41). Can be exchanged. The I / O interface 41 includes, for example, a vehicle ECU 901, a road information database 903, a vehicle position detection unit 905, an external sensor 907, an operation detection unit 909, an eye position detection unit 911, an IMU 913, a line-of-sight direction detection unit 915, and mobile information. The terminal 917, the external communication device 919, and the like are operably connected. The I / O interface 41 may include a function of processing (converting, calculating, analyzing) information received from another electronic device or the like connected to the head-up display system 10.

表示器21は、プロセッサ43及び画像処理回路45に動作可能に連結される。したがって、画像表示部20によって表示される画像は、プロセッサ43及び/又は画像処理回路45から受信された画像データに基づいてもよい。プロセッサ43及び画像処理回路45は、I/Oインタフェース41から取得される情報に基づき、画像表示部20が表示する画像を制御する。 The display 21 is operably connected to the processor 43 and the image processing circuit 45. Therefore, the image displayed by the image display unit 20 may be based on the image data received from the processor 43 and / or the image processing circuit 45. The processor 43 and the image processing circuit 45 control the image displayed by the image display unit 20 based on the information acquired from the I / O interface 41.

車両ECU901は、車両1に設けられたセンサやスイッチから、車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、車両1の前記状態の数値(例えば、車両1の車速。)を示す信号を、表示制御装置40のプロセッサ43へ出力することができる。なお、車両ECU901は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ43へ送信することに加え、又はこれに代わり、センサで検出した数値を含む車両1の1つ又は複数の状態に基づく判定結果(例えば、車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ43へ送信してもよい。例えば、車両ECU901は、車両1が車両ECU901のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置40へ出力してもよい。なお、I/Oインタフェース41は、車両ECU901を介さずに、車両1に設けられた車両1に設けられたセンサやスイッチから、上述したような情報を取得してもよい。 The vehicle ECU 901 uses sensors and switches provided on the vehicle 1 to indicate the state of the vehicle 1 (for example, mileage, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine rotation speed). , Motor speed, steering angle, shift position, drive mode, various warning states, attitude (including roll angle and / or pitching angle), vehicle vibration (including magnitude, frequency, and / or frequency of vibration) )) And the like, and collect and manage (may include control) the state of the vehicle 1. As a part of the function, the numerical value of the state of the vehicle 1 (for example, the vehicle speed of the vehicle 1). ) Can be output to the processor 43 of the display control device 40. The vehicle ECU 901 simply transmits the numerical value detected by the sensor or the like (for example, the pitching angle is 3 [brake] in the forward tilt direction) to the processor 43, or instead, the numerical value detected by the sensor is used. Judgment results based on one or more states of the including vehicle 1 (for example, the vehicle 1 satisfies a predetermined condition of the forward leaning state) and / and analysis results (for example, of the brake pedal opening degree). Combined with the information, the brake has caused the vehicle to lean forward.) May be transmitted to the processor 43. For example, the vehicle ECU 901 may output a signal indicating a determination result indicating a determination result in which the vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 901 to the display control device 40. The I / O interface 41 may acquire the above-mentioned information from the sensors and switches provided in the vehicle 1 provided in the vehicle 1 without going through the vehicle ECU 901.

また、車両ECU901は、ヘッドアップディスプレイシステム10が表示する画像を指示する指示信号を表示制御装置40へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 Further, the vehicle ECU 901 may output an instruction signal indicating an image to be displayed by the head-up display system 10 to the display control device 40, and at this time, it is necessary to notify the coordinates, size, type, display mode, and image of the image. The degree and / or the necessity-related information that is the basis for determining the notification necessity may be added to the instruction signal and transmitted.

道路情報データベース903は、車両1に設けられた図示しないナビゲーション装置、又は車両1と車外通信インタフェース(I/Oインタフェース41)を介して接続される外部サーバー、に含まれ、後述する自車位置検出部905から取得される車両1の位置に基づき、車両1の周辺の情報(車両1の周辺の実オブジェクト関連情報)である車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ43に送信してもよい。また、道路情報データベース903は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号、又は経路を示す画像データをプロセッサ43へ出力してもよい。 The road information database 903 is included in a navigation device (not shown) provided in the vehicle 1 or an external server connected to the vehicle 1 via an external communication interface (I / O interface 41), and the vehicle position detection described later. Based on the position of the vehicle 1 acquired from the part 905, the road information (lane, white line, stop line, crosswalk, etc.) on which the vehicle 1 travels, which is the information around the vehicle 1 (information related to the actual object around the vehicle 1) Road width, number of lanes, intersections, curves, branch roads, traffic regulations, etc.), feature information (buildings, bridges, rivers, etc.), presence / absence, position (including distance to vehicle 1), direction, shape, type , Detailed information and the like may be read out and transmitted to the processor 43. Further, the road information database 903 may calculate an appropriate route (navigation information) from the departure point to the destination, and output a signal indicating the navigation information or image data indicating the route to the processor 43.

自車位置検出部905は、車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ43を介して、又は直接、道路情報データベース903、後述する携帯情報端末917、及び/もしくは外部通信機器919へ出力する。道路情報データベース903、後述する携帯情報端末917、及び/又は外部通信機器919は、自車位置検出部905から車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、車両1の周辺の情報を選択・生成して、プロセッサ43へ出力してもよい。 The own vehicle position detection unit 905 is a GNSS (Global Navigation Satellite System) or the like provided in the vehicle 1, detects the current position and orientation of the vehicle 1, and transmits a signal indicating the detection result via the processor 43. , Or directly output to the road information database 903, the portable information terminal 917 described later, and / or the external communication device 919. The road information database 903, the mobile information terminal 917 described later, and / or the external communication device 919 obtains the position information of the vehicle 1 from the own vehicle position detection unit 905 continuously, intermittently, or at a predetermined event. , Information around the vehicle 1 may be selected and generated and output to the processor 43.

車外センサ907は、車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する。車外センサ907が検知する実オブジェクトは、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラ、又はこれらの組み合わせからなる検出ユニットと、当該1つ又は複数の検出ユニットからの検出データを処理する(データフュージョンする)処理装置と、から構成される。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(車両1からの相対的な距離、車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。1つ又は複数の車外センサ907は、各センサの検知周期毎に、車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ43に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU901)を経由してプロセッサ43に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The vehicle exterior sensor 907 detects real objects existing around the vehicle 1 (front, side, and rear). The actual objects detected by the external sensor 907 are, for example, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), road surfaces, lane markings, roadside objects, and / or features (buildings, etc.) of the traveling lane described later. Etc. may be included. As the vehicle exterior sensor, for example, a detection unit composed of a radar sensor such as a millimeter wave radar, an ultrasonic radar, a laser radar, a camera, or a combination thereof, and detection data from the one or a plurality of detection units are processed ( It consists of a processing device (data fusion) and a processing device. Conventional well-known methods are applied to object detection by these radar sensors and camera sensors. By object detection by these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the vehicle 1 and the traveling direction of the vehicle 1 in the front-rear direction). (Horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction), depth) Direction (front-back direction)), movement speed (horizontal direction (left-right direction), depth direction (front-back direction)), and / or type may be detected. One or more external sensors 907 detect a real object in front of the vehicle 1 for each detection cycle of each sensor, and the real object information (presence or absence of a real object, existence of a real object exists) which is an example of the real object information. In this case, information such as the position, size, and / or type of each real object can be output to the processor 43. Note that these real object information may be transmitted to the processor 43 via another device (for example, vehicle ECU 901). Further, when using a camera as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark such as at night. Further, when a camera is used as a sensor, a stereo camera capable of acquiring a distance or the like by parallax is desirable.

操作検出部909は、例えば、車両1のCID(Center Information Display)、インストルメントパネルなどに設けられたハードウェアスイッチ、又は画像とタッチセンサなどとを兼ね合わされたソフトウェアスイッチなどであり、車両1の乗員(運転席の着座するユーザ、及び/又は助手席に着座するユーザ)による操作に基づく操作情報を、プロセッサ43へ出力する。例えば、操作検出部909は、ユーザの操作により、虚像表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、観察者の目位置700(図1参照)を設定する操作に基づく情報などを、プロセッサ43へ出力する。 The operation detection unit 909 is, for example, a CID (Center Information Processor) of the vehicle 1, a hardware switch provided on the instrument panel, or a software switch that combines an image and a touch sensor, and the like. The operation information based on the operation by the occupant (the user seated in the driver's seat and / or the user seated in the passenger seat) is output to the processor 43. For example, the operation detection unit 909 has display area setting information based on the operation of moving the virtual image display area 100 by the user's operation, eye box setting information based on the operation of moving the eye box 200, and the observer's eye position 700 (FIG. Information based on the operation for setting (see 1) is output to the processor 43.

目位置検出部911は、車両1の運転席に着座する観察者の目位置700を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ43に出力してもよい。プロセッサ43は、目位置検出部911から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出し、検出した目位置700の座標を示す信号を、プロセッサ43へ出力してもよい。 The eye position detection unit 911 may include a camera such as an infrared camera that detects the eye position 700 of the observer sitting in the driver's seat of the vehicle 1, and may output the captured image to the processor 43. The processor 43 acquires an captured image (an example of information capable of estimating the eye position 700) from the eye position detection unit 911, and analyzes the captured image by a method such as pattern matching to obtain an observer's eye position. The coordinates of 700 may be detected, and a signal indicating the detected coordinates of the eye position 700 may be output to the processor 43.

また、目位置検出部911は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、予め設定された複数の偏光パターン600(後述する。)が対応する空間的な領域のどこに属しているかを示す信号。)を、プロセッサ43に出力してもよい。なお、車両1の観察者の目位置700、又は観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。 Further, the eye position detection unit 911 is a spatial region corresponding to an analysis result obtained by analyzing an image captured by the camera (for example, the observer's eye position 700 corresponds to a plurality of preset polarization patterns 600 (described later)). A signal indicating where it belongs to) may be output to the processor 43. The method of acquiring information capable of estimating the eye position 700 of the observer of the vehicle 1 or the eye position 700 of the observer is not limited to these, and a known eye position detection (estimation) technique is used. May be obtained.

また、目位置検出部911は、観察者の目位置700の移動速度、及び/又は移動方向を検出し、観察者の目位置700の移動速度、及び/又は移動方向を示す信号を、プロセッサ43に出力してもよい。 Further, the eye position detection unit 911 detects the moving speed and / or moving direction of the observer's eye position 700, and outputs a signal indicating the moving speed and / or moving direction of the observer's eye position 700 to the processor 43. It may be output to.

IMU913は、慣性加速に基づいて、車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を検知するように構成された1つ又は複数のセンサ(例えば、加速度計及びジャイロスコープ)の組み合わせを含むことができる。IMU913は、検出した値(前記検出した値は、車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を示す信号などを含む。)、検出した値を解析した結果を、プロセッサ43に出力してもよい。前記解析した結果は、前記検出した値が、所定の条件を満たしたか否かの判定結果を示す信号などであり、例えば、車両1の位置又は向きの変化(変化速度、変化加速度)に関する値から、車両1の挙動(振動)が少ないことを示す信号であってもよい。 The IMU 913 is a sensor (eg, accelerometer and gyroscope) configured to detect the position, orientation, and changes (speed of change, acceleration of change) of vehicle 1 based on inertial acceleration. Can include combinations of. The IMU 913 analyzes the detected values (the detected values include the position and orientation of the vehicle 1, signals indicating these changes (change speed, change acceleration), and the like), and the detected values are analyzed by the processor. It may be output to 43. The result of the analysis is a signal or the like indicating a determination result of whether or not the detected value satisfies a predetermined condition, and is, for example, from a value relating to a change (change speed, change acceleration) of the position or orientation of the vehicle 1. , It may be a signal indicating that the behavior (vibration) of the vehicle 1 is small.

視線方向検出部915は、車両1の運転席に着座する観察者の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ43に出力してもよい。プロセッサ43は、視線方向検出部915から撮像画像(視線方向を推定可能な情報の一例。)を取得し、この撮像画像を解析することで観察者の視線方向(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部915は、カメラからの撮像画像を解析し、解析結果である観察者の視線方向(及び/又は前記注視位置)を示す信号をプロセッサ43に出力してもよい。なお、車両1の観察者の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 The line-of-sight direction detection unit 915 may include an infrared camera or a visible light camera that captures the face of an observer sitting in the driver's seat of the vehicle 1, and may output the captured image to the processor 43. The processor 43 acquires an captured image (an example of information capable of estimating the line-of-sight direction) from the line-of-sight direction detection unit 915, and analyzes the captured image to determine the line-of-sight direction (and / or the gaze position) of the observer. Can be identified. The line-of-sight direction detection unit 915 may analyze the captured image from the camera and output a signal indicating the line-of-sight direction (and / or the gaze position) of the observer, which is the analysis result, to the processor 43. The method for acquiring information that can estimate the line-of-sight direction of the observer of the vehicle 1 is not limited to these, and is not limited to these, but is an EOG (Electro-ocular camera) method, a corneal reflex method, a scleral reflex method, and a Purkinje image detection. It may be obtained using other known line-of-sight detection (estimation) techniques such as the method, search coil method, infrared fundus camera method.

携帯情報端末917は、スマートフォン、ノートパソコン、スマートウォッチ、又は観察者(又は車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース41は、携帯情報端末917とペアリングすることで、携帯情報端末917と通信を行うことが可能であり、携帯情報端末917(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末917は、例えば、上述の道路情報データベース903及び自車位置検出部905と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ43に送信してもよい。また、携帯情報端末917は、車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ43に送信してもよい。なお、携帯情報端末917は、携帯情報端末917の所持者(例えば、観察者)のスケジュール情報、携帯情報端末917での着信情報、メールの受信情報などをプロセッサ43に送信し、プロセッサ43及び画像処理回路45は、これらに関する画像データを生成及び/又は送信してもよい。 The personal digital assistant 917 is a smartphone, a laptop computer, a smart watch, or other information device that can be carried by an observer (or another occupant of vehicle 1). The I / O interface 41 can communicate with the mobile information terminal 917 by pairing with the mobile information terminal 917, and the data recorded in the mobile information terminal 917 (or the server through the mobile information terminal). To get. The mobile information terminal 917 has, for example, the same functions as the above-mentioned road information database 903 and own vehicle position detection unit 905, acquires the road information (an example of real object-related information), and transmits it to the processor 43. You may. Further, the personal digital assistant 917 may acquire commercial information (an example of information related to a real object) related to a commercial facility in the vicinity of the vehicle 1 and transmit it to the processor 43. The mobile information terminal 917 transmits schedule information of the owner (for example, an observer) of the mobile information terminal 917, incoming information on the mobile information terminal 917, mail reception information, and the like to the processor 43, and the processor 43 and an image. The processing circuit 45 may generate and / or transmit image data relating to these.

外部通信機器919は、車両1と情報のやりとりをする通信機器であり、例えば、車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器919は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ43へ出力してもよい。また、外部通信機器919は、上述の自車位置検出部905と同様の機能を有し、車両1の位置情報を取得し、プロセッサ43に送信してもよく、さらに上述の道路情報データベース903の機能も有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ43に送信してもよい。なお、外部通信機器919から取得される情報は、上述のものに限定されない。 The external communication device 919 is a communication device that exchanges information with the vehicle 1, for example, another vehicle connected to the vehicle 1 by vehicle-to-vehicle communication (V2V: Vehicle To Vehicle), and pedestrian-to-vehicle communication (V2P: Vehicle To Pedestrian). ), A network communication device connected by a pedestrian (a mobile information terminal carried by a pedestrian) and a vehicle-to-vehicle communication (V2I), and in a broad sense, communication with a vehicle 1 (V2X). : Includes everything connected by (Vehicle To Everything). The external communication device 919 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and / or features (buildings, etc.) and sends them to the processor 43. It may be output. Further, the external communication device 919 has the same function as the own vehicle position detection unit 905 described above, and may acquire the position information of the vehicle 1 and transmit it to the processor 43, and further, the road information database 903 described above may be used. It also has a function, and the road information (an example of information related to a real object) may be acquired and transmitted to the processor 43. The information acquired from the external communication device 919 is not limited to the above.

メモリ37に記憶されたソフトウェア構成要素は、目位置検出モジュール802、目位置推定モジュール804、目位置予測モジュール806、及び偏光パターン制御モジュール808、を含む。 The software components stored in the memory 37 include an eye position detection module 802, an eye position estimation module 804, an eye position prediction module 806, and a polarization pattern control module 808.

図4は、いくつかの実施形態に従って、観察者の目位置に基づき、偏光パターンを設定する動作を実行する方法S100を示すフロー図である。方法S100は、ディスプレイを含む画像表示部20と、この画像表示部20を制御する表示制御装置40と、において実行される。 FIG. 4 is a flow chart showing a method S100 for performing an operation of setting a polarization pattern based on an observer's eye position according to some embodiments. Method S100 is executed by an image display unit 20 including a display and a display control device 40 that controls the image display unit 20.

図3の目位置検出モジュール802は、観察者の目位置700を検出する(S110)。目位置検出モジュール802は、観察者の目の高さを示す座標(Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること(S112の一例。)、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること(S112の一例。)、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること(S112の一例。)、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。 The eye position detection module 802 of FIG. 3 detects the eye position 700 of the observer (S110). The eye position detection module 802 detects coordinates indicating the height of the observer's eyes (a position in the Y-axis direction, which is an example of a signal indicating the eye position 700) (an example of S112), and observes. Detecting coordinates indicating the height and depth of a person's eyes (positions in the Y and Z axes, which is an example of a signal indicating eye position 700) (an example of S112), and / Alternatively, various aspects related to detecting coordinates indicating the observer's eye position 700 (positions in the X, Y, Z-axis directions, which is an example of a signal indicating the eye position 700) (an example of S112). Includes various software components to perform various operations.

なお、目位置検出モジュール802が検出する目位置700は、右目と左目のそれぞれの位置700R,700L、右目位置700R及び左目位置700Lのうち予め定められた一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される位置(例えば、右目位置と左目位置との中点)、などを含む。例えば、目位置検出モジュール802は、目位置700を、表示設定を更新するタイミングの直前に目位置検出部911から取得した観測位置に基づき決定する。 The eye position 700 detected by the eye position detection module 802 is one of the right eye position 700R and 700L, the right eye position 700R and the left eye position 700L, respectively, the right eye position 700R and the left eye position 700L. It includes one of the detectable (easy-to-detect) positions, or a position calculated from the right eye position 700R and the left eye position 700L (for example, the midpoint between the right eye position and the left eye position). For example, the eye position detection module 802 determines the eye position 700 based on the observation position acquired from the eye position detection unit 911 immediately before the timing of updating the display setting.

また、目位置検出部911は、目位置検出部911から取得する複数の観察者の目の観測位置に基づき、観察者の目位置700の移動方向、及び/又は移動速度を検出し、観察者の目位置700の移動方向、及び/又は移動速度を示す信号を、プロセッサ43に出力してもよい。 Further, the eye position detection unit 911 detects the movement direction and / or the movement speed of the observer's eye position 700 based on the observation positions of the eyes of a plurality of observers acquired from the eye position detection unit 911, and observer. A signal indicating the moving direction and / or moving speed of the eye position 700 may be output to the processor 43.

目位置推定モジュール804は、目位置を推定可能な情報を取得する(S114)。目位置を推定可能な情報は、例えば、目位置検出部911から取得した撮像画像、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などである。目位置推定モジュール804は、目位置を推定可能な情報から、車両1の観察者の目位置700を推定する。目位置推定モジュール804は、目位置検出部911から取得した撮像画像、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などから、観察者の目位置700を推定すること、など観察者の目位置700を推定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール804は、目の位置を推定可能な情報から観察者の目位置700を推定するためのテーブルデータ、演算式、などを含み得る。 The eye position estimation module 804 acquires information capable of estimating the eye position (S114). Information that can estimate the eye position is, for example, an image captured from the eye position detection unit 911, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, or the eyes of a plurality of observers. Observation position, etc. The eye position estimation module 804 estimates the eye position 700 of the observer of the vehicle 1 from the information capable of estimating the eye position. The eye position estimation module 804 is based on an image captured from the eye position detection unit 911, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, the observation positions of the eyes of a plurality of observers, and the like. Includes various software components for performing various actions related to estimating the observer's eye position 700, such as estimating the observer's eye position 700. That is, the eye position estimation module 804 may include table data, an arithmetic expression, and the like for estimating the eye position 700 of the observer from the information capable of estimating the eye position.

目位置検出モジュール802は、目位置700を、偏光パターンを更新するタイミングの直前に目位置検出部911から取得した目の観測位置と、1つ又は複数の過去に取得した目の観測位置とに基づき、例えば、加重平均などの手法により、算出してもよい。 The eye position detection module 802 sets the eye position 700 into an eye observation position acquired from the eye position detection unit 911 immediately before the timing of updating the polarization pattern and one or more eye observation positions acquired in the past. Based on this, it may be calculated by, for example, a method such as a weighted average.

目位置予測モジュール806は、観察者の目位置700を予測可能な情報を取得する(S116)。観察者の目位置700を予測可能な情報は、例えば、目位置検出部911から取得した最新の観測位置、又は1つ又はそれ以上の過去に取得した観測位置などである。目位置予測モジュール806は、観察者の目位置700を予測可能な情報に基づいて、目位置700を予測することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的に、例えば、目位置予測モジュール806は、新たな表示設定が適用された画像が観察者に視認されるタイミングの、観察者の目位置700を予測する。目位置予測モジュール806は、例えば、最小二乗法や、カルマンフィルタ、α−βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。
00を特定するためのテーブルデータ、演算式、などを含み得る。
The eye position prediction module 806 acquires information that can predict the eye position 700 of the observer (S116). The information that can predict the eye position 700 of the observer is, for example, the latest observation position acquired from the eye position detection unit 911, or one or more observation positions acquired in the past. The eye position prediction module 806 includes various software components for performing various actions related to predicting the eye position 700 based on predictable information about the observer's eye position 700. Specifically, for example, the eye position prediction module 806 predicts the observer's eye position 700 at the timing when the image to which the new display setting is applied is visually recognized by the observer. The eye position prediction module 806 uses a prediction algorithm such as the least squares method, a Kalman filter, an α-β filter, or a particle filter to obtain the next value using one or more observation positions in the past. You may try to predict.
It may include table data for specifying 00, an arithmetic expression, and the like.

偏光パターン制御モジュール808は、目位置700に対応する1つ又は複数の偏光パターン600を選定する(S130)。目位置700が、例えば、右目位置700R、及び左目位置700Lのそれぞれを含む場合、偏光パターン制御モジュール808は、右目位置700Rに対応する偏光パターン600と、左目位置700Lに対応する偏光パターン600と、の2つを選定し得る。一方、目位置700が、例えば、右目位置700R及び左目位置700Lのうち予め定められた一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される1つの位置(例えば、右目位置700Rと左目位置700Lとの中点)である場合、偏光パターン制御モジュール808は、目位置700に対応する1つの偏光パターン600を選定し得る。 The polarization pattern control module 808 selects one or more polarization patterns 600 corresponding to the eye positions 700 (S130). When the eye position 700 includes, for example, the right eye position 700R and the left eye position 700L, the polarization pattern control module 808 includes a polarization pattern 600 corresponding to the right eye position 700R, a polarization pattern 600 corresponding to the left eye position 700L, and a polarization pattern 600. Two can be selected. On the other hand, the eye position 700 is, for example, one of the predetermined positions of the right eye position 700R and the left eye position 700L, and one of the right eye position 700R and the left eye position 700L that can be detected (easily detected), or When there is one position calculated from the right eye position 700R and the left eye position 700L (for example, the midpoint between the right eye position 700R and the left eye position 700L), the polarization pattern control module 808 has one polarization corresponding to the eye position 700. Pattern 600 can be selected.

すなわち、いくつかの実施形態では、表示器21は、右目用の画像と、左目用の画像と、を時分割で表示可能であり、プロセッサ43は、表示器21が右目用の画像を表示する際、偏光制御素子50の偏光パターン600を右目用に変更し、一方、表示器21が左目用の画像を表示する際、偏光制御素子50の偏光パターン600を左目用に変更してもよい。 That is, in some embodiments, the display 21 can display an image for the right eye and an image for the left eye in a time-divided manner, and the processor 43 displays the image for the right eye on the display 21. At this time, the polarization pattern 600 of the polarization control element 50 may be changed for the right eye, while the polarization pattern 600 of the polarization control element 50 may be changed for the left eye when the display 21 displays an image for the left eye.

また、いくつかの実施形態では、表示器21は、右目用の画像と、左目用の画像と、を空間分割で表示可能であり、すなわち、右目用の画素と、右目用の画素、で個別に表示可能であり、プロセッサ43は、表示器21のうち右目用の画像を表示する画素に対応する偏光制御素子50の領域では、偏光パターン600を右目用にし、一方、表示器21のうちが左目用の画像を表示する画素に対応する偏光制御素子50の領域では、偏光パターン600を左目用にしてもよい。 Further, in some embodiments, the display 21 can display the image for the right eye and the image for the left eye by spatial division, that is, the pixels for the right eye and the pixels for the right eye are individually displayed. In the region of the polarization control element 50 corresponding to the pixel displaying the image for the right eye in the display 21, the processor 43 makes the polarization pattern 600 for the right eye, while the display 21 In the region of the polarization control element 50 corresponding to the pixel displaying the image for the left eye, the polarization pattern 600 may be used for the left eye.

図5A、図5B、及び図5Cは、アイボックス200、及びその周辺の空間に対応づけられた複数の偏光パターン600の配置を仮想的に示す図である。1つの偏光パターン600は、車両1の前進方向を向いた際の左右方向であるX軸座標と、上下方向であるY軸座標と、からなる2次元座標で区画される領域に対応づけられている。つまり、同じ区画内であれば、目位置700の座標によらず、同じ1つの偏光パターン600が適用される。なお、いくつかの実施形態では、1つの偏光パターン600は、Z軸座標も含む3次元座標で対応づけられていてもよい。複数の偏光パターン600は、画像の視認が想定されるアイボックス200内の空間に対応付けられる第1偏光パターン610と、アイボックス200外の空間に対応付けられる第2偏光パターン650と、を含む(第2偏光パターン650は、省略され得る。)。 5A, 5B, and 5C are diagrams that virtually show the arrangement of a plurality of polarization patterns 600 associated with the eyebox 200 and the space around the eyebox 200. One polarization pattern 600 is associated with a region defined by two-dimensional coordinates consisting of X-axis coordinates in the left-right direction and Y-axis coordinates in the up-down direction when the vehicle 1 faces the forward direction. There is. That is, within the same section, the same one polarization pattern 600 is applied regardless of the coordinates of the eye position 700. In some embodiments, one polarization pattern 600 may be associated with three-dimensional coordinates including Z-axis coordinates. The plurality of polarization patterns 600 include a first polarization pattern 610 associated with the space inside the eyebox 200 where the image can be visually recognized, and a second polarization pattern 650 associated with the space outside the eyebox 200. (The second polarization pattern 650 may be omitted.)

なお、図5A、図5B及び図5Cは、主に偏光パターン600が対応する空間的な配置の説明を提供するために示されており、第2偏光パターン650が対応する空間的な領域(区画)の大きさは、概念的に示される。すなわち、第2偏光パターン650が対応する空間的な領域は、さらに外側に拡大してもよく、内側(アイボックス200側)に縮小してもよい。 It should be noted that FIGS. 5A, 5B and 5C are shown mainly to provide an explanation of the spatial arrangement corresponding to the polarization pattern 600, and the spatial region (section) corresponding to the second polarization pattern 650. ) Is conceptually shown. That is, the spatial region corresponding to the second polarization pattern 650 may be further expanded to the outside or reduced to the inside (eye box 200 side).

図5Aの上図を参照する。第1偏光パターン610は、左右方向(X軸方向)に5列、上下方向(Y軸方向)に5行、で区画される、25個の第1偏光パターン611〜635で構成される。図5Aでは、列は、X軸の正方向(左)から1列目、2列目、…5列目の順となっており、行は、Y軸の正方向(上)から1行目、2行目、…5行目の順となっており、1列目の1行目から5行目の順に第1偏光パターン611〜615が配置され、2列目の1行目から5行目の順に616〜620が配置される。 Refer to the upper figure of FIG. 5A. The first polarization pattern 610 is composed of 25 first polarization patterns 611 to 635, which are partitioned by 5 columns in the left-right direction (X-axis direction) and 5 rows in the up-down direction (Y-axis direction). In FIG. 5A, the columns are in the order of the first column, the second column, ... The fifth column from the positive direction (left) of the X axis, and the rows are the first row from the positive direction (top) of the Y axis. The second row, ... The fifth row, and the first polarization patterns 611 to 615 are arranged in the order of the first to fifth rows of the first column, and the first to fifth rows of the second column. 616 to 620 are arranged in the order of the eyes.

次に、図5Bを参照する。図5Bは、偏光パターン600の配置の変形例の説明を提供する。第1偏光パターン610は、左右方向(X軸方向)に5列で区画され、上下方向(Y軸方向)では区画されない、5個の第1偏光パターン641〜645で構成される。図5Bでは、列は、X軸の正方向(左)から1列目、2列目、…5列目の順となっており、1列目から5列目の順に第1偏光パターン641〜645が配置される。すなわち、アイボックス200における偏光パターン600の配置は、図5Aに示すように、X軸方向に複数の判定エリアを配置し、Y軸方向にも複数の判定エリアを配置した二次元配置ではなく、図5Bに示すように、X軸方向に複数の判定エリアを配置し、Y軸方向に複数の判定エリアを配置しない一次元配置であってもよい。 Next, refer to FIG. 5B. FIG. 5B provides a description of a modified example of the arrangement of the polarization pattern 600. The first polarization pattern 610 is composed of five first polarization patterns 641 to 645, which are partitioned in five rows in the left-right direction (X-axis direction) and not in the up-down direction (Y-axis direction). In FIG. 5B, the columns are in the order of the first column, the second column, ... The fifth column from the positive direction (left) of the X axis, and the first polarization pattern 641 to the fifth column is in order. 645 is placed. That is, the arrangement of the polarization pattern 600 in the eye box 200 is not a two-dimensional arrangement in which a plurality of determination areas are arranged in the X-axis direction and a plurality of determination areas are also arranged in the Y-axis direction, as shown in FIG. 5A. As shown in FIG. 5B, a one-dimensional arrangement may be adopted in which a plurality of determination areas are arranged in the X-axis direction and a plurality of determination areas are not arranged in the Y-axis direction.

次に、図5Cを参照する。図5Cは、偏光パターン600の配置の変形例の説明を提供する。図5A、及び図5Bでは、アイボックス200内に配置される1つの偏光パターン600が対応付けられる区画の大きさは、同じであったが、図5Cに示すように、異なっていてもよい。また、複数の1つの偏光パターン600が対応付けられる区画の形状も、それぞれ異なっていてもよい。 Next, refer to FIG. 5C. FIG. 5C provides a description of a modified example of the arrangement of the polarization pattern 600. In FIGS. 5A and 5B, the size of the compartment to which one polarization pattern 600 arranged in the eye box 200 is associated is the same, but may be different as shown in FIG. 5C. Further, the shapes of the sections to which the plurality of one polarization patterns 600 are associated may also be different.

以下に、偏光制御素子50の配置例を説明する。 An arrangement example of the polarization control element 50 will be described below.

(第1実施形態)
図6は、第1実施形態のHUD装置における表示器の構成の説明を提供する。図6に示す表示器は、液晶表示パネルを有する態様である。
(First Embodiment)
FIG. 6 provides a description of the configuration of the display in the HUD device of the first embodiment. The display shown in FIG. 6 has a liquid crystal display panel.

液晶表示パネル400(表示器21の一例。)は、互いの吸収軸を直交にして配置された一対の直線偏光膜411及び412と、その間に配置される液晶セル410と、光源420と、を有する。直線偏光膜411及び412と液晶セル410との間には、光学補償フィルム(不図示)がそれぞれ配置されていて、液晶セル410の視野角補償に寄与している。液晶セル410の液晶駆動モードによっては、前記光学補償フィルムは不要であり、例えば偏光膜411及び412を保護するための保護フィルムに置き換えられていてもよい。また前記光学補償フィルムは、液晶セル410の液晶駆動モードによっては、それぞれ2枚以上配置されていてもよい。 The liquid crystal display panel 400 (an example of the display 21) comprises a pair of linear polarizing films 411 and 412 arranged so that their absorption axes are orthogonal to each other, a liquid crystal cell 410 arranged between them, and a light source 420. Have. Optical compensation films (not shown) are arranged between the linear polarizing films 411 and 412 and the liquid crystal cell 410, respectively, and contribute to the viewing angle compensation of the liquid crystal cell 410. Depending on the liquid crystal drive mode of the liquid crystal cell 410, the optical compensation film is unnecessary and may be replaced with a protective film for protecting the polarizing films 411 and 412, for example. Further, two or more optical compensation films may be arranged depending on the liquid crystal drive mode of the liquid crystal cell 410.

液晶セル410の液晶駆動モードについては特に制限はなく、TN(Twisted Nematic)、IPS(In−Plane Switching)、FLC(Ferroelectric Liquid Crystal)、AFLC(Anti−ferroelectric Liquid Crystal)、OCB(Optically Compensatory Bend)、STN(Supper Twisted Nematic)、VA(Vertically Aligned)、及びHAN(Hybrid Aligned Nematic)等、いずれの表示モードの態様であってもよい。 The liquid crystal drive mode of the liquid crystal cell 410 is not particularly limited, and is TN (Twisted Nematic), IPS (In-Plane Switching), FLC (Ferroelectric Liquid Crystal), AFLC (Anti-ferroelectric Liquid Crystal), and OLC (Anti-ferroelectric Liquid Crystal). , STN (Super Twisted Nematic), VA (Virtually Aligned), HAN (Hybrid Aligned Nematic), and the like.

直線偏光膜411の表面、即ち観察者側の表面には、偏光制御素子50が配置されている。液晶表示パネル400から入射される直線偏光画像は、偏光制御素子50を通過することで、領域毎に異なる偏光軸Eを有するパターニング偏光画像として出射される。パターニング偏光画像は、被投影部材60に投影され、被投影部材60の複数の部分領域W(図10参照。)でアイボックス200に向けて反射される。被投影部材60の部分領域Wで反射され、観察者の目位置に向かう各光が、被投影部材60の部分領域WにP偏光で入射するように、パターニング偏光画像の領域毎の偏光軸Eの方位が調整される。つまり、反射面(ウインドシールドの各領域W)に対して、パターニング偏光画像の光の電界成分が垂直になるように、偏光制御素子50は、パターニング偏光画像の領域毎の偏光軸Eの方位を調整する。偏光制御素子50が回転させる偏光軸Eの回転角は、例えば、−5〜+5[degree]に設定される(言い換えると、偏光制御素子50の面内での偏光軸Eの方向のばらつきは、10度未満である)。 The polarization control element 50 is arranged on the surface of the linear polarizing film 411, that is, the surface on the observer side. The linearly polarized image incident from the liquid crystal display panel 400 passes through the polarization control element 50 and is emitted as a patterned polarized image having a different polarization axis E for each region. The patterned polarized image is projected onto the projected member 60 and reflected toward the eyebox 200 in a plurality of partial regions W (see FIG. 10) of the projected member 60. The polarization axis E for each region of the patterned polarized image so that each light reflected by the partial region W of the projected member 60 and directed toward the eye position of the observer is incident on the partial region W of the projected member 60 with P polarization. The orientation of is adjusted. That is, the polarization control element 50 sets the direction of the polarization axis E for each region of the patterned polarized image so that the electric field component of the light of the patterned polarized image is perpendicular to the reflecting surface (each region W of the windshield). adjust. The rotation angle of the polarization axis E rotated by the polarization control element 50 is set to, for example, −5 to +5 [degree] (in other words, the variation in the direction of the polarization axis E in the plane of the polarization control element 50 is Less than 10 degrees).

(第2実施形態)
図7は、第2実施形態のHUD装置における表示器の構成の説明を提供する。図7に示す表示器は、レーザー走査型表示パネルを有する態様である。
(Second Embodiment)
FIG. 7 provides a description of the configuration of the display in the HUD device of the second embodiment. The display shown in FIG. 7 is an embodiment having a laser scanning display panel.

レーザー走査型表示パネル500(表示器21の一例。)は、レーザーモジュール510と、MEMS(Micro Electro Mechanical System)ミラーからなるスキャナ520と、スクリーン530(表示面30の一例)と、を備える。スキャナ520は、レーザーモジュール510から時分割的に変調されたレーザービーム570をスクリーン530に向けて二次元的に走査することで、スクリーン530上に2次元の表示画像を表示する。 The laser scanning display panel 500 (an example of the display 21) includes a laser module 510, a scanner 520 including a MEMS (Micro Electro Mechanical System) mirror, and a screen 530 (an example of a display surface 30). The scanner 520 displays a two-dimensional display image on the screen 530 by scanning the laser beam 570 time-dividedly modulated from the laser module 510 toward the screen 530 in two dimensions.

折返しミラー560は、レーザーモジュール510から出射されたレーザービーム570の光路上に配置され、レーザービーム570をスキャナ520へ反射する。なお、折返しミラー560は、省略されてもよい。 The folded mirror 560 is arranged on the optical path of the laser beam 570 emitted from the laser module 510, and reflects the laser beam 570 to the scanner 520. The folded mirror 560 may be omitted.

スクリーン530の表面、即ち観察者側表面には、偏光制御素子50が配置されている。偏光制御素子50は、第1実施形態と同様であり、説明は省略する。 The polarization control element 50 is arranged on the surface of the screen 530, that is, the surface on the observer side. The polarization control element 50 is the same as that of the first embodiment, and the description thereof will be omitted.

(第3実施形態)
図8は、第3実施形態のHUD装置における表示器の構成の説明を提供する。図8に示す表示器は、液晶表示パネルを有する態様である。
(Third Embodiment)
FIG. 8 provides a description of the configuration of the display in the HUD device of the third embodiment. The display shown in FIG. 8 has a liquid crystal display panel.

液晶表示パネル400(表示器21の一例。)は、直線偏光膜412と、その表面側に配置される液晶セル410と、光源420と、を有する。 The liquid crystal display panel 400 (an example of the display 21) includes a linear polarizing film 412, a liquid crystal cell 410 arranged on the surface side thereof, and a light source 420.

液晶セル410の表面、即ち観察者側表面には、偏光制御素子50が配置されている。液晶表示パネル400から入射される直線偏光画像は、偏光制御素子50に入射すると、領域毎に異なる偏光軸Eを有するパターニング偏光画像として出射される。偏光制御素子50から出射されるパターニング偏光画像の偏光軸Eは、液晶表示パネル400の直線偏光膜412の透過軸に対して、80〜100[degree]、又は260〜280[degree](好ましくは、85〜95[degree]、又は265〜275[degree])異なるように制御される。 The polarization control element 50 is arranged on the surface of the liquid crystal cell 410, that is, the surface on the observer side. When the linearly polarized image incident from the liquid crystal display panel 400 is incident on the polarization control element 50, it is emitted as a patterned polarized image having a different polarization axis E for each region. The polarization axis E of the patterning polarized image emitted from the polarization control element 50 is 80 to 100 [degree] or 260 to 280 [degree] (preferably) with respect to the transmission axis of the linear polarizing film 412 of the liquid crystal display panel 400. , 85-95 [degree], or 265-275 [degree]).

上述した偏光制御素子50で領域毎に偏光軸Eの方位が異なるように調整されたパターニング偏光画像は、被投影部材60に投影され、被投影部材60の複数の部分領域W(図10参照。)でアイボックス200に向けて反射される。被投影部材60の部分領域Wで反射され、アイボックス200における所定の位置(観察者の目位置700)に向かう各光が、被投影部材60の部分領域WにP偏光で入射するように、パターニング偏光画像の領域毎の偏光軸Eの方位が調整される。つまり、反射面(ウインドシールドの各領域W)に対して、パターニング偏光画像の光の電界成分が垂直になるように、偏光制御素子50は、パターニング偏光画像の領域毎の偏光軸Eの方位を調整する(偏光パターン600を調整する。)。 The patterned polarized image adjusted by the polarization control element 50 described above so that the orientation of the polarization axis E is different for each region is projected onto the projected member 60, and the plurality of partial regions W of the projected member 60 (see FIG. 10). ) Is reflected toward the eye box 200. Each light reflected by the partial region W of the projected member 60 and directed to a predetermined position (observer's eye position 700) in the eye box 200 is incident on the partial region W of the projected member 60 with P-polarized light. The orientation of the polarization axis E for each region of the patterned polarized image is adjusted. That is, the polarization control element 50 sets the orientation of the polarization axis E for each region of the patterned polarized image so that the electric field component of the light of the patterned polarized image is perpendicular to the reflecting surface (each region W of the windshield). Adjust (adjust the polarization pattern 600).

図9は、被投影部材60に入射する表示光20aの偏光軸Eを、車両1の前方を向いた観察者(なお、前記観察者は、アイボックス200の中心205に目を配置している。)から見た概念図である。図10は、図9の要部(前記要部は、アイボックス200の中心205に目を配置した観察者から見て、虚像表示領域100と重なる被投影部材2の一部である。)を拡大した図であり、被投影部材60の部分領域W毎に入射する表示光20aの偏光軸Eを示す図である。図10では、被投影部材60は、縦(上下方向)の境界線で区画されたW11〜W17の7個の部分領域が設けられ、縦長の長方形の外形を有する各部分領域W11〜W17は、左から右に向かって、隣接して配置(配列)されている。HUD装置20は、これら部分領域W11〜W17毎に、異なる偏光軸Eを有するパターニング偏光画像の表示光20aを投射する。すなわち、部分領域W11、W12、・・・W17には、それぞれ異なる偏光軸E11、E12、・・・E17を含む偏光パターン600を有する表示光20aが投影される。 FIG. 9 shows an observer facing the front of the vehicle 1 with the polarization axis E of the display light 20a incident on the projected member 60 (the observer has his / her eyes arranged at the center 205 of the eye box 200. It is a conceptual diagram seen from.). FIG. 10 shows the main part of FIG. 9 (the main part is a part of the projected member 2 that overlaps with the virtual image display area 100 when viewed from the observer who placed the eyes at the center 205 of the eye box 200). It is an enlarged view and is the figure which shows the polarization axis E of the display light 20a which is incident in every part area W of the projected member 60. In FIG. 10, the projected member 60 is provided with seven partial regions W11 to W17 partitioned by a vertical (vertical direction) boundary line, and each partial region W11 to W17 having a vertically long rectangular outer shape is formed. They are arranged (arranged) adjacent to each other from left to right. The HUD device 20 projects display light 20a of a patterned polarized image having a different polarization axis E for each of these partial regions W11 to W17. That is, display light 20a having a polarization pattern 600 including different polarization axes E11, E12, ... E17 is projected on the partial regions W11, W12, ... W17.

部分領域Wの左右方向の端部(部分領域Wの左右方向の前記端部は、図10では、W11とW17である。)の間の特定の部分領域WA(前記特定の部分領域は、図10では、W14である。)で反射される表示光20aの基準偏光軸EA(基準偏光軸EAは、図10では、E14である。)が、最も上下方向(Y軸方向)とのなす角が小さくなる(好ましくは、平行となる。)。 A specific partial region WA (the specific partial region is shown in FIG. 10) between the left-right ends of the partial region W (the left-right ends of the partial region W are W11 and W17 in FIG. 10). In 10, the reference polarization axis EA of the display light 20a reflected by W14 (the reference polarization axis EA is E14 in FIG. 10) is the angle formed by the most vertical direction (Y-axis direction). Becomes smaller (preferably parallel).

偏光軸E(第2の偏光軸E2)は、特定の部分領域WAより右側に行くにつれて、上下方向に概ね平行な方向から徐々に時計方向に傾く。すなわち、図10の例では、部分領域W15での偏光軸E15、部分領域W16での偏光軸E16、部分領域W17での偏光軸E17は、この順で上下方向に概ね平行な方向(基準偏光軸EAの方向)から徐々に時計方向に傾く。 The polarization axis E (second polarization axis E2) gradually tilts clockwise from a direction substantially parallel to the vertical direction toward the right side of the specific partial region WA. That is, in the example of FIG. 10, the polarization axis E15 in the partial region W15, the polarization axis E16 in the partial region W16, and the polarization axis E17 in the partial region W17 are in this order substantially parallel to the vertical direction (reference polarization axis). Gradually tilt clockwise from (EA direction).

また、偏光軸E(第1の偏光軸E1)は、特定の部分領域WAより左側に行くにつれて、上下方向に概ね平行な方向から徐々に反時計方向に傾く。すなわち、図10の例では、部分領域W13での偏光軸E13、部分領域W12での偏光軸E12、部分領域W11での偏光軸E11は、この順で上下方向に概ね平行な方向(基準偏光軸EAの方向)から徐々に反時計方向に傾く。 Further, the polarization axis E (first polarization axis E1) gradually tilts counterclockwise from a direction substantially parallel to the vertical direction toward the left side of the specific partial region WA. That is, in the example of FIG. 10, the polarization axis E13 in the partial region W13, the polarization axis E12 in the partial region W12, and the polarization axis E11 in the partial region W11 are in this order substantially parallel to the vertical direction (reference polarization axis). Gradually tilt counterclockwise from (EA direction).

すなわち、偏光制御素子50の第1の態様では、段階的に偏光軸Eの方位を変化させる3つ又はそれ以上の偏光領域を有する。(前記3つの偏光領域は、(1)特定の部分領域WAに投射される基準偏光軸EAを設定する領域と、観察者から見て、(2)特定の部分領域WAの右側の部分領域Wに投射され、基準偏光軸EAを時計方向に傾かせた偏光軸Eを設定する領域と、(3)特定の部分領域WAの左側の部分領域Wに投射され、基準偏光軸EAを反時計方向に傾かせた偏光軸Eを設定する領域と、を含む。 That is, in the first aspect of the polarization control element 50, it has three or more polarization regions that change the direction of the polarization axis E stepwise. (The three polarization regions are (1) a region for setting the reference polarization axis EA projected on the specific partial region WA, and (2) a partial region W on the right side of the specific partial region WA when viewed from the observer. Projected onto the region where the polarization axis E is set with the reference polarization axis EA tilted clockwise, and (3) the reference polarization axis EA is projected counterclockwise to the partial region W on the left side of the specific partial region WA. Includes a region for setting the polarization axis E tilted toward.

いくつかの実施形態における偏光制御素子50は、偏光軸Eの方位が段階的に異なる偏光領域の個数が、偏光領域の区切り方によって異なるために特に限定されないが、3〜2000個であることが好ましい(図10の例では、7個)。つまり、HUD装置20は、被投影部材2の部分領域W毎に入射する表示光20aの偏光軸Eをそれぞれ調整することができる。 The polarization control element 50 in some embodiments is not particularly limited because the number of polarization regions in which the orientation of the polarization axis E is stepwise different differs depending on how the polarization regions are divided, but may be 3 to 2000. Preferred (7 in the example of FIG. 10). That is, the HUD device 20 can adjust the polarization axis E of the display light 20a incident on each partial region W of the projected member 2.

また、いくつかの実施形態における偏光制御素子50は、観察者から見た左右方向に沿って配列される部分領域W毎に入射する表示光20aの偏光軸Eを調整するように配置される複数の偏光領域を有する。これによれば、HUD装置20は、被投影部材2に対する表示光20aの偏光軸Eの方位が変化しやすい左右方向で偏光軸Eを適切に調整することができる。 Further, the polarization control elements 50 in some embodiments are arranged so as to adjust the polarization axes E of the display light 20a incident on each partial region W arranged along the left-right direction as seen from the observer. It has a polarization region of. According to this, the HUD device 20 can appropriately adjust the polarization axis E in the left-right direction in which the direction of the polarization axis E of the display light 20a with respect to the projected member 2 is likely to change.

また、いくつかの実施形態における偏光制御素子50は、観察者から見た左右方向に沿って配列される部分領域Wが、上下方向に平行な境界線で区画されるように配置される複数の偏光領域を有する。これによれば、1つの部分領域W内での被投影部材2に対する表示光20aの偏光軸Eの方位のばらつきを抑えることができる。 Further, in the polarization control element 50 in some embodiments, a plurality of partial regions W arranged along the left-right direction as seen by the observer are arranged so as to be partitioned by a boundary line parallel to the vertical direction. It has a polarized region. According to this, it is possible to suppress the variation in the orientation of the polarization axis E of the display light 20a with respect to the projected member 2 in one partial region W.

なお、観察者から見た左右方向に沿って配列される部分領域Wは、上下方向に平行の境界線で区画されていなくてもよく、すなわち、図11のように複数の部分領域Wの境界線が上下方向に対して斜めに配置されてもよい。なお、複数の部分領域Wの境界線は、直線ではなく、曲線となり得る。 The partial regions W arranged along the left-right direction as seen from the observer do not have to be divided by the boundary lines parallel to the vertical direction, that is, the boundaries of the plurality of partial regions W as shown in FIG. The lines may be arranged diagonally with respect to the vertical direction. The boundary line of the plurality of partial regions W may be a curved line instead of a straight line.

また、いくつかの実施形態における偏光制御素子50は、複数の部分領域Wの観察者から見た左右方向に沿った幅Dが、不均一となるように区画されるように配置される複数の偏光領域を有していてもよい。 Further, the polarization control element 50 in some embodiments is arranged so that the width D along the left-right direction seen from the observer of the plurality of partial regions W is partitioned so as to be non-uniform. It may have a polarized region.

具体的に、例えば、偏光制御素子50は、図12に示すように、虚像表示領域100の左右方向の中央側の部分領域W14の幅D4を最大として、虚像表示領域100の左右方向の端部側に向かうにつれて、徐々に幅が狭くなる(D4>D3>D2>D1、D4>D5>D6>D7)ように配置される複数の偏光領域を有する。すなわち、偏光制御素子50は、最も上下方向に沿った方位を有する基準偏光軸EAが入射する特定の部分領域WAの近傍で、被投影部材60の左右方向の位置に応じた偏光軸Eの方位の変化率が緩やかになるように偏光パターン600を段階的に変化させてもよい。これによれば、1つの部分領域W内での被投影部材2に対する表示光20aの偏光軸Eの方位のばらつきを抑えることができる。 Specifically, for example, as shown in FIG. 12, the polarization control element 50 maximizes the width D4 of the partial region W14 on the left-right side of the virtual image display region 100 in the left-right direction, and maximizes the width D4 of the virtual image display region 100 in the left-right direction. It has a plurality of polarization regions arranged so that the width gradually narrows toward the side (D4> D3> D2> D1, D4> D5> D6> D7). That is, the polarization control element 50 has an orientation of the polarization axis E according to the position of the projected member 60 in the left-right direction in the vicinity of a specific partial region WA in which the reference polarization axis EA having the most vertical orientation is incident. The polarization pattern 600 may be changed stepwise so that the rate of change of is gentle. According to this, it is possible to suppress the variation in the orientation of the polarization axis E of the display light 20a with respect to the projected member 2 in one partial region W.

なお、いくつかの実施形態では、左右方向の幅Dを最大とする部分領域Wは、上記の特定の部分領域WAであってもよい。これによれば、部分領域Wの数の増加を抑制しつつ、1つの部分領域W内での被投影部材2に対する表示光20aの偏光軸Eの方位のばらつきを抑えることができる。 In some embodiments, the partial region W having the maximum width D in the left-right direction may be the specific partial region WA described above. According to this, it is possible to suppress the variation in the orientation of the polarization axis E of the display light 20a with respect to the projected member 2 in one partial region W while suppressing the increase in the number of the partial regions W.

また、上記第1の態様の偏光制御素子50は、段階的に偏光軸Eの方位を変化させる3つ又はそれ以上の偏光領域を有していたが、これに限定されない。第2の態様の偏光制御素子50は、偏光軸Eの方位を連続的に変化させてもよい。 Further, the polarization control element 50 of the first aspect has, but is not limited to, three or more polarization regions that change the direction of the polarization axis E stepwise. The polarization control element 50 of the second aspect may continuously change the orientation of the polarization axis E.

図13は、被投影部材の位置に対する偏光軸の方位を段階的に変化させる第1の態様P10、及び連続的に変化させる第2の態様P20(P21,P22)の説明を提供する図であり、被投影部材の左右方向の位置(横軸)に対する偏光軸の方位(縦軸)を示す図である。第1の態様の偏光制御素子50は、被投影部材2の部分領域W11〜W17毎に段階的に偏光軸Eを変化させる。一方、第2の態様の偏光制御素子50は、被投影部材2の左右方向の位置に応じて、偏光軸Eを連続的に変化させる。第2の態様の偏光制御素子50は、被投影部材2の左右方向の位置に応じた偏光軸Eの変化率を保持して変化させてもよく(態様P21)、偏光軸Eの変化率を動的に変化させてもよい(態様P22)。 FIG. 13 is a diagram providing an explanation of a first aspect P10 in which the orientation of the polarization axis with respect to the position of the projected member is changed stepwise, and a second aspect P20 (P21, P22) in which the orientation is continuously changed. , It is a figure which shows the direction (vertical axis) of the polarization axis with respect to the position (horizontal axis) in the left-right direction of the projected member. The polarization control element 50 of the first aspect changes the polarization axis E stepwise for each of the partial regions W11 to W17 of the projected member 2. On the other hand, the polarization control element 50 of the second aspect continuously changes the polarization axis E according to the position of the projected member 2 in the left-right direction. The polarization control element 50 of the second aspect may maintain and change the rate of change of the polarization axis E according to the position of the projected member 2 in the left-right direction (aspect P21), and may change the rate of change of the polarization axis E. It may be changed dynamically (Aspect P22).

なお、偏光軸Eの変化率を動的に変化させる態様のいくつかの実施形態において、図13に示す態様P22のように、偏光制御素子50は、最も上下方向に沿った方位を有する基準偏光軸EAが入射する特定の部分領域WAの近傍で、被投影部材60の左右方向の位置に応じた偏光軸Eの方位の変化率が緩やかになるように偏光パターンを連続的に変化させてもよい。 In some embodiments of the embodiment in which the rate of change of the polarization axis E is dynamically changed, as in the embodiment P22 shown in FIG. 13, the polarization control element 50 has a reference polarization having an orientation along the most vertical direction. Even if the polarization pattern is continuously changed so that the rate of change in the orientation of the polarization axis E according to the position of the projected member 60 in the left-right direction becomes gentle in the vicinity of the specific partial region WA where the axis EA is incident. good.

また、いくつかの実施形態において、偏光制御素子50は、表示器21の表示面30に配置されるのではなく、リレー光学25の表面、表示器21とリレー光学25までの表示光20aの光路上、又は複数のリレー光学25の間での表示光20aの光路上に配置されてもよい。 Further, in some embodiments, the polarization control element 50 is not arranged on the display surface 30 of the display 21, but is the surface of the relay optics 25, the light of the display light 20a up to the display 21 and the relay optics 25. It may be arranged on the road or on the optical path of the display light 20a among the plurality of relay optics 25.

なお、本発明はこれらの実施形態のみに限られるものではなく、それぞれの実施形態の構成を適宜組み合わせて構成した実施形態も本発明の範疇となるものである。 The present invention is not limited to these embodiments, and embodiments configured by appropriately combining the configurations of the respective embodiments are also within the scope of the present invention.

1 :車両
2 :被投影部材
10 :ヘッドアップディスプレイシステム
20 :画像表示部(ヘッドアップディスプレイ装置)
20a :表示光
21 :表示器
21a :表示光
25 :リレー光学
26 :第1のミラー
28 :第2のミラー
30 :表示面
37 :メモリ
40 :表示制御装置
41 :I/Oインタフェース
43 :プロセッサ
45 :画像処理回路
50 :偏光制御素子
60 :被投影部材
80 :反射型回折素子
100 :虚像表示領域
200 :アイボックス
205 :中心
400 :液晶表示パネル
410 :液晶セル
411 :直線偏光膜
412 :直線偏光膜
420 :光源
500 :レーザー走査型表示パネル
510 :レーザーモジュール
520 :スキャナ
530 :スクリーン
560 :折返しミラー
570 :レーザービーム
600 :偏光パターン
610 :第1偏光パターン
650 :第2偏光パターン
700 :目位置
700L :左目位置
700R :右目位置
802 :目位置検出モジュール
804 :目位置推定モジュール
806 :目位置予測モジュール
808 :偏光パターン制御モジュール
901 :車両ECU
903 :道路情報データベース
905 :自車位置検出部
907 :車外センサ
909 :操作検出部
911 :目位置検出部
915 :視線方向検出部
917 :携帯情報端末
919 :外部通信機器
E2 :第2の偏光軸
EA :基準偏光軸
V :虚像
W :部分領域
1: Vehicle 2: Projected member 10: Head-up display system 20: Image display unit (head-up display device)
20a: Display light 21: Display 21a: Display light 25: Relay optics 26: First mirror 28: Second mirror 30: Display surface 37: Memory 40: Display control device 41: I / O interface 43: Processor 45 : Image processing circuit 50: Polarization control element 60: Projected member 80: Reflective diffraction element 100: Virtual image display area 200: Eye box 205: Center 400: Liquid crystal display panel 410: Liquid crystal cell 411: Linear polarizing film 412: Linear polarized light Film 420: Light source 500: Laser scanning display panel 510: Laser module 520: Scanner 530: Screen 560: Folded mirror 570: Laser beam 600: Polarization pattern 610: First polarization pattern 650: Second polarization pattern 700: Eye position 700L : Left eye position 700R: Right eye position 802: Eye position detection module 804: Eye position estimation module 806: Eye position prediction module 808: Polarization pattern control module 901: Vehicle ECU
903: Road information database 905: Own vehicle position detection unit 907: External sensor 909: Operation detection unit 911: Eye position detection unit 915: Line-of-sight direction detection unit 917: Mobile information terminal 919: External communication device E2: Second polarization axis EA: Reference polarization axis V: Virtual image W: Partial region

Claims (11)

被投影部材(60)に表示光を投影することで、アイボックス(200)に目を配置する観察者に虚像を視認させるヘッドアップディスプレイ装置(20)であって、
前記表示光を出射する表示器(21)と、
前記表示器(21)からの前記表示光を前記被投影部材(60)に向けるリレー光学(25)と、
前記表示器(21)からの前記表示光の光路上に配置され、前記表示光を入射する領域毎に、前記表示光の偏光軸(E)の方位を調整する偏光制御素子(50)と、
情報を取得可能な1つ又は複数のI/Oインタフェース(41)と、
1つ又は複数のプロセッサ(43)と、
メモリ(47)と、
前記メモリ(47)に格納され、前記1つ又は複数のプロセッサ(43)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記I/Oインタフェース(41)は、観察者の目位置を示す情報、又は前記目位置を推定可能な情報を取得し、
前記1つ又は複数のプロセッサ(43)は、
前記目位置に基づき、前記被投影部材(60)による表面反射が低減するように、前記偏光制御素子(50)の領域毎に、前記偏光軸(E)の方位を異ならせる偏光パターン制御を実行する、
ヘッドアップディスプレイ装置(20)。
A head-up display device (20) that allows an observer who places his / her eyes on the eye box (200) to visually recognize a virtual image by projecting display light onto the projected member (60).
The display (21) that emits the display light and
Relay optics (25) that directs the display light from the display (21) toward the projected member (60).
A polarization control element (50) arranged on the optical path of the display light from the display (21) and adjusting the direction of the polarization axis (E) of the display light for each region in which the display light is incident.
One or more I / O interfaces (41) from which information can be obtained,
With one or more processors (43),
Memory (47) and
It comprises one or more computer programs stored in the memory (47) and configured to be executed by the one or more processors (43).
The I / O interface (41) acquires information indicating the eye position of the observer or information capable of estimating the eye position.
The one or more processors (43)
Based on the eye position, polarization pattern control for differentiating the orientation of the polarization axis (E) is executed for each region of the polarization control element (50) so that surface reflection by the projected member (60) is reduced. do,
Head-up display device (20).
前記1つ又は複数のプロセッサ(43)は、
前記被投影部材(60)の各領域それぞれで前記目位置に向けて反射される前記表示光の偏光軸(E)の方位が、前記被投影部材(60)の各領域におけるP偏光の入射光に近づくように、前記偏光パターン制御を実行する、
請求項1に記載のヘッドアップディスプレイ装置(20)。
The one or more processors (43)
The direction of the polarization axis (E) of the display light reflected toward the eye position in each region of the projected member (60) is the incident light of P-polarized light in each region of the projected member (60). The polarization pattern control is executed so as to approach.
The head-up display device (20) according to claim 1.
前記1つ又は複数のプロセッサ(43)は、
前記偏光制御素子(50)の面内での前記偏光軸(E)の方向のばらつきが、10度未満となるように、前記偏光制御素子(50)を制御する、
請求項1に記載のヘッドアップディスプレイ装置(20)。
The one or more processors (43)
The polarization control element (50) is controlled so that the variation in the direction of the polarization axis (E) in the plane of the polarization control element (50) is less than 10 degrees.
The head-up display device (20) according to claim 1.
前記1つ又は複数のプロセッサ(43)は、前記アイボックス(200)に目を配置する観察者から見た少なくとも左右方向に沿って、前記表示光の偏光軸(E)の方位を連続的に異ならせるように、前記偏光パターン制御を実行する、
請求項1に記載のヘッドアップディスプレイ装置(20)。
The one or more processors (43) continuously orientate the polarization axis (E) of the indicator light along at least the left-right direction as seen by the observer who places his eyes on the eyebox (200). Performing the polarization pattern control so as to be different,
The head-up display device (20) according to claim 1.
前記1つ又は複数のプロセッサ(43)は、前記アイボックス(200)に目を配置する観察者から見た少なくとも左右方向に沿って、前記表示光の偏光軸(E)の方位を段階的に異ならせるように、前記偏光パターン制御を実行する、
請求項1に記載のヘッドアップディスプレイ装置(20)。
The one or more processors (43) stepwise orient the polarization axis (E) of the indicator light along at least the left-right direction as seen by the observer arranging the eyes in the eyebox (200). Performing the polarization pattern control so as to be different,
The head-up display device (20) according to claim 1.
前記1つ又は複数のプロセッサ(43)は、前記被投影部材(60)に入射する前記表示光の偏光軸(E)の方位が、前記アイボックス(200)に目を配置する観察者から見て、
反時計回りに90度未満となる方位である第1の偏光軸(E1)と、
時計回りに90度未満となる方位である第2の偏光軸(E2)と、
を含むように、前記表示光の偏光軸(E)の方位を連続的又は段階的に異ならせるように、前記偏光パターン制御を実行する、
請求項1に記載のヘッドアップディスプレイ装置(20)。
In the one or more processors (43), the orientation of the polarization axis (E) of the display light incident on the projected member (60) is viewed from an observer who places an eye on the eyebox (200). hand,
The first polarization axis (E1), which is an orientation that is less than 90 degrees counterclockwise,
The second polarization axis (E2), which is an orientation that is less than 90 degrees clockwise,
The polarization pattern control is executed so that the orientation of the polarization axis (E) of the display light is continuously or stepwise different so as to include.
The head-up display device (20) according to claim 1.
前記第1の偏光軸(E1)を有する前記表示光は、前記アイボックス(200)に目を配置する観察者から見て、前記第2の偏光軸(E2)を有する前記表示光よりも前記被投影部材(60)における左側に投射される、
請求項6に記載のヘッドアップディスプレイ装置(20)。
The display light having the first polarization axis (E1) is more said than the display light having the second polarization axis (E2) when viewed from an observer who places an eye on the eyebox (200). Projected to the left side of the projected member (60),
The head-up display device (20) according to claim 6.
前記偏光パターニング光学部材(50)は、最も上下方向に沿った方位を有する偏光軸(EA)が入射する特定の部分領域(WA)の近傍で、前記被投影部材(60)の左右方向の位置に応じた偏光軸(E)の方位の変化率が緩やかになるように、前記表示光の偏光軸(E)の方位を連続的又は段階的に異ならせる、
請求項3又は請求項4に記載のヘッドアップディスプレイ装置(20)。
The polarization patterning optical member (50) is positioned in the left-right direction of the projected member (60) in the vicinity of a specific partial region (WA) where the polarization axis (EA) having the most vertical orientation is incident. The orientation of the polarization axis (E) of the display light is continuously or stepwise different so that the rate of change of the orientation of the polarization axis (E) according to the above is gentle.
The head-up display device (20) according to claim 3 or 4.
アイボックス(200)に目を配置する観察者に虚像を視認させるヘッドアップディスプレイシステム(10)であって、
反射型回折素子(80)を有する被投影部材(60)と、
前記表示光を出射する表示器(21)と、
前記表示器(21)からの前記表示光を前記被投影部材(60)に向けるリレー光学(25)と、
前記表示器(21)からの前記表示光の光路上に配置され、前記表示光を入射する領域毎に、前記表示光の偏光軸(E)の方位を調整する偏光制御素子(50)と、
情報を取得可能な1つ又は複数のI/Oインタフェース(41)と、
1つ又は複数のプロセッサ(43)と、
メモリ(47)と、
前記メモリ(47)に格納され、前記1つ又は複数のプロセッサ(43)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記I/Oインタフェース(41)は、観察者の目位置を示す情報、又は前記目位置を推定可能な情報を取得し、
前記1つ又は複数のプロセッサ(43)は、
前記目位置に基づき、前記被投影部材(60)による表面反射が低減するように、前記偏光制御素子(50)の領域毎に、前記偏光軸(E)の方位を異ならせる偏光パターン制御を実行する、
ヘッドアップディスプレイシステム(10)。
A head-up display system (10) that allows an observer who places his eyes in the eye box (200) to visually recognize a virtual image.
A projected member (60) having a reflective diffraction element (80) and
The display (21) that emits the display light and
Relay optics (25) that directs the display light from the display (21) toward the projected member (60).
A polarization control element (50) arranged on the optical path of the display light from the display (21) and adjusting the direction of the polarization axis (E) of the display light for each region in which the display light is incident.
One or more I / O interfaces (41) from which information can be obtained,
With one or more processors (43),
Memory (47) and
It comprises one or more computer programs stored in the memory (47) and configured to be executed by the one or more processors (43).
The I / O interface (41) acquires information indicating the eye position of the observer or information capable of estimating the eye position.
The one or more processors (43)
Based on the eye position, polarization pattern control for differentiating the orientation of the polarization axis (E) is executed for each region of the polarization control element (50) so that surface reflection by the projected member (60) is reduced. do,
Head-up display system (10).
前記反射型回折素子(80)は、ホログラフィック素子、及び回折光学素子(DOE)の少なくとも1つを含む、
請求項9に記載のヘッドアップディスプレイシステム(10)。
The reflective diffraction element (80) includes at least one of a holographic element and a diffraction optical element (DOE).
The head-up display system (10) according to claim 9.
前記リレー光学(25)は、前記被投影部材(60)に対する入射角がブリュースター角の近傍の角度で前記表示光を投射する、
請求項9に記載のヘッドアップディスプレイシステム(10)。
The relay optics (25) projects the display light at an angle of incidence on the projected member (60) near the Brewster's angle.
The head-up display system (10) according to claim 9.
JP2020063856A 2020-03-31 2020-03-31 Head-up display device and head-up display system Pending JP2021162704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020063856A JP2021162704A (en) 2020-03-31 2020-03-31 Head-up display device and head-up display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020063856A JP2021162704A (en) 2020-03-31 2020-03-31 Head-up display device and head-up display system

Publications (1)

Publication Number Publication Date
JP2021162704A true JP2021162704A (en) 2021-10-11

Family

ID=78003247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020063856A Pending JP2021162704A (en) 2020-03-31 2020-03-31 Head-up display device and head-up display system

Country Status (1)

Country Link
JP (1) JP2021162704A (en)

Similar Documents

Publication Publication Date Title
JP6201690B2 (en) Vehicle information projection system
JP6304628B2 (en) Display device and display method
EP3444139B1 (en) Image processing method and image processing device
US11370304B2 (en) Head-up display device
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP7459883B2 (en) Display control device, head-up display device, and method
JP7390558B2 (en) Virtual image display system, image display method, head-up display, and moving object
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2023048213A1 (en) Display control device, head-up display device, and display control method
JP2021162704A (en) Head-up display device and head-up display system
JP2021056358A (en) Head-up display device
JP2022072954A (en) Display control device, head-up display device, and display control method
JP2020121704A (en) Display control device, head-up display device, method and computer program
JP2020121607A (en) Display control device, method and computer program
JP2020199883A (en) Display control device, head-up display device, method and computer program
JP2022057051A (en) Display controller and virtual display device
WO2021200913A1 (en) Display control device, image display device, and method
JP7434894B2 (en) Vehicle display device
JP2022040442A (en) Display control device, and head-up display device
JP2022057049A (en) Display control device and head-up display device
JP2022077138A (en) Display controller, head-up display device, and display control method
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2022113292A (en) Display control device, head-up display device, and display control method
WO2021065700A1 (en) Display control device, head-up display device, and method