JP2022072954A - Display control device, head-up display device, and display control method - Google Patents

Display control device, head-up display device, and display control method Download PDF

Info

Publication number
JP2022072954A
JP2022072954A JP2020182672A JP2020182672A JP2022072954A JP 2022072954 A JP2022072954 A JP 2022072954A JP 2020182672 A JP2020182672 A JP 2020182672A JP 2020182672 A JP2020182672 A JP 2020182672A JP 2022072954 A JP2022072954 A JP 2022072954A
Authority
JP
Japan
Prior art keywords
image
display
glow
eye
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020182672A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020182672A priority Critical patent/JP2022072954A/en
Publication of JP2022072954A publication Critical patent/JP2022072954A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce the visibility of an irregular image due to crosstalk.SOLUTION: Provided is a display control device for executing display control in a head-up display device 20 that projects an image to a projection member and thereby causes a virtual image of the projected image to be recognized by an observer, wherein a processor executes a 3D display process of causing left and right viewpoint images having parallax to be recognized by each of the left and right eyes of the observer and thereby displaying as content images FU1, FU2 with depth expressions added, and a glow display process of displaying one or a plurality of glow images G1, G2 which are displayed in the lateral direction of the content images and do not have distinct contours.SELECTED DRAWING: Figure 3

Description

本開示は、車両等の移動体で使用され、移動体の前景(車両の乗員から見た移動体の前進方向の実景)に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等に関する。 The present disclosure is used in a moving body such as a vehicle, and is a display control device, a head-up display device, and a head-up display device that superimposes an image on the foreground of the moving body (the actual view in the forward direction of the moving body as seen from the occupant of the vehicle). Regarding display control method, etc.

特許文献1には、車両のフロントウインドシールド等の被投影部に投射される表示光が、車両の内側にいる車両の乗員(観察者)に向けて反射されることで、観察者に虚像を視認させるヘッドアップディスプレイ装置(虚像表示装置の一例)が記載されている。特に、特許文献1に記載のヘッドアップディスプレイ装置は、虚像の知覚距離(観察者が知覚する虚像までの距離)を変化させることで、車両の速度の状況を認識させるヘッドアップディスプレイ装置が記載されている。画像(虚像)は、観察者から見て近傍側に移動したり、遠方側に移動したりすることで、観察者の視覚的注意をひくことができたり、表示する画像に距離的な情報を付加することができたりする。このように知覚距離を変化させるヘッドアップディスプレイ装置は、内部に、立体表示装置を設けている。 In Patent Document 1, the display light projected on the projected portion such as the front windshield of the vehicle is reflected toward the occupant (observer) of the vehicle inside the vehicle, thereby giving the observer a virtual image. A head-up display device (an example of a virtual image display device) to be visually recognized is described. In particular, the head-up display device described in Patent Document 1 describes a head-up display device that recognizes a vehicle speed situation by changing the perceived distance of a virtual image (distance to a virtual image perceived by an observer). ing. The image (virtual image) can attract the visual attention of the observer by moving to the near side or the distant side when viewed from the observer, and can provide distance information to the displayed image. It can be added. The head-up display device that changes the perceived distance in this way is provided with a stereoscopic display device inside.

立体表示装置は、例えば、レンズアレイなどを用いる方法(レンチキュラ方式、例えば特許文献2参照。)、パララックスバリアを用いる方法(パララックスバリア方式、例えば特許文献3を参照。)、又は、視差画像時分割表示方式(例えば、特許文献4,5、及び6を参照。)などがある。 The stereoscopic display device may be, for example, a method using a lens array or the like (lenticular method, see, for example, Patent Document 2), a method using a parallax barrier (paralux barrier method, see, for example, Patent Document 3), or a parallax image. There is a time-divided display method (see, for example, Patent Documents 4, 5 and 6) and the like.

これらは、左目が存在する位置に左視点画像の表示光を向け、右目が存在する位置に右視点画像の表示光を向けることで、視差のある左視点画像及び右視点画像を視認させ、融像させることにより虚像の知覚距離を変更する。 By directing the display light of the left viewpoint image to the position where the left eye exists and the display light of the right viewpoint image to the position where the right eye exists, the left viewpoint image and the right viewpoint image with a difference are visually recognized and fused. The perceived distance of a virtual image is changed by making an image.

特開2019-127065号公報Japanese Unexamined Patent Publication No. 2019-127065 特開2006-115198号公報Japanese Unexamined Patent Publication No. 2006-115198 特開2014-150304号公報Japanese Unexamined Patent Publication No. 2014-150304 特開2011-107382号公報Japanese Unexamined Patent Publication No. 2011-107382 特開2000-236561号公報Japanese Unexamined Patent Publication No. 2000-236561 特開2000-4452号公報Japanese Unexamined Patent Publication No. 2000-4452

ところで、上記のような立体表示装置では、クロストークが発生することが知られている。クロストークは、1つの視点から観察したときに本来観察されるべき視点画像と、これに隣接した視点画像とが同時に観察される現象であり、複数の視点画像が重なった多重像が観察される。これについて、以下に説明する。 By the way, it is known that crosstalk occurs in a stereoscopic display device as described above. Crosstalk is a phenomenon in which a viewpoint image that should be originally observed when observed from one viewpoint and a viewpoint image adjacent to the viewpoint image are observed at the same time, and a multiple image in which a plurality of viewpoint images are overlapped is observed. .. This will be described below.

図11は、車両の運転席のアイリプスの左右方向(X軸)に配光される表示光の光強度を示す図である。上記のような立体表示装置は、視差がある(異なる視差を有する)表示光が、それぞれ左右方向(又はこれに加えて上下方向)の異なる領域(前記領域は、「部分視域」、「部分視点」、又は単に「視点」等と称される場合がある)に向けられる。図示するように、第1の視差を有する表示光801は、部分視域E101に向けられ、第1の視差と異なる第2の視差を有する表示光802は、第1の部分視域E101の左側に隣接する部分視域E102に向けられ、第1、第2の視差と異なる第3の視差を有する表示光803は、第2の部分視域E102の左側に隣接する部分視域E103に向けられ、そして、第1乃至第3の視差と異なる第4の視差を有する表示光804は、第3の部分視域E103の左側に隣接する部分視域E104に向けられる。 FIG. 11 is a diagram showing the light intensity of the display light distributed in the left-right direction (X-axis) of the irips of the driver's seat of the vehicle. In a stereoscopic display device as described above, display lights having parallax (having different parallax) have different regions in the left-right direction (or in addition to the vertical direction) (the regions are "partial parallax" and "partial". It is directed to "viewpoint" or simply "viewpoint"). As shown, the display light 801 having the first parallax is directed to the partial parallax E101, and the display light 802 having the second parallax different from the first parallax is on the left side of the first partial parallax E101. The indicator light 803, which is directed to the partial parallax E102 adjacent to and has a third parallax different from the first and second parallax, is directed to the partial parallax E103 adjacent to the left side of the second partial parallax E102. Then, the display light 804 having a fourth parallax different from the first to third parallax is directed to the partial parallax E104 adjacent to the left side of the third partial parallax E103.

図12A及び図12Bは、左視点画像と右視点画像の配置、及び左視点画像と右視点画像により融像される知覚画像の配置、を説明する図である。図12A及び図12Bの上図は、移動体の上側(Y軸正方向)から見た図であり、下図は、移動体の左側(X軸正方向)から見た図である。 12A and 12B are diagrams for explaining the arrangement of the left viewpoint image and the right viewpoint image, and the arrangement of the perceptual image fused by the left viewpoint image and the right viewpoint image. The upper view of FIGS. 12A and 12B is a view seen from the upper side (Y-axis positive direction) of the moving body, and the lower figure is a view seen from the left side (X-axis positive direction) of the moving body.

図12Aに示す知覚画像FU1010は、図13のコンテンツ画像FU1010と対応しており、図12Bに示す知覚画像FU1020よりも観察者から見て近傍側、かつ下方に融像される態様を示す図である。図示するように、表示光803は、虚像表示領域1000内の所定の位置に左視点画像VL31を左目700Lに視認させる。表示光802は、虚像表示領域1000内の左視点画像VL31から右方向に特定の距離DV1010だけ離れた位置に右視点画像VR21を右目700Rに視認させる。これにより、左視点画像VL31と右視点画像VR21とが融像され、左目700Lと左視点画像VL31とを結ぶ直線と、右目700Rと右視点画像VR21とを結ぶ直線との交点の位置に、第1知覚画像FU1010が知覚される。この際、左目700Lと左視点画像VL31とを結ぶ直線と、右目700Rと右視点画像VR21とを結ぶ直線との間の角度を第1の輻輳角θc1とする。また、図12Aの下図に示すように、左目700Lと左視点画像VL31とを結ぶ直線(又は右目700Rと右視点画像VR21とを結ぶ直線)と水平線との間の角度を第1の縦配置角θf1とする。 The perceptual image FU1010 shown in FIG. 12A corresponds to the content image FU1010 of FIG. 13, and is a diagram showing an aspect in which the perceptual image FU1020 is fused closer to and below the observer than the perceptual image FU1020 shown in FIG. 12B. be. As shown in the figure, the display light 803 causes the left eye 700L to visually recognize the left viewpoint image VL31 at a predetermined position in the virtual image display area 1000. The display light 802 causes the right-eye view image VR21 to be visually recognized by the right-eye 700R at a position separated from the left-viewpoint image VL31 in the virtual image display area 1000 by a specific distance DV1010 in the right direction. As a result, the left viewpoint image VL31 and the right viewpoint image VR21 are fused, and at the position of the intersection of the straight line connecting the left eye 700L and the left viewpoint image VL31 and the straight line connecting the right eye 700R and the right viewpoint image VR21. 1 Perceptual image FU1010 is perceived. At this time, the angle between the straight line connecting the left eye 700L and the left viewpoint image VL31 and the straight line connecting the right eye 700R and the right viewpoint image VR21 is defined as the first convergence angle θc1. Further, as shown in the lower figure of FIG. 12A, the angle between the straight line connecting the left eye 700L and the left viewpoint image VL31 (or the straight line connecting the right eye 700R and the right viewpoint image VR21) and the horizontal line is the first vertical arrangement angle. Let it be θf1.

また、図12Bに示す知覚画像FU1020は、図13のコンテンツ画像FU1020と対応しており、図12Aに示す知覚画像FU1010よりも観察者から見て遠方側、かつ上方に融像される態様を示す図である。図示するように、表示光803は、虚像表示領域1000内の所定の位置に左視点画像VL32を左目700Lに視認させる。表示光802は、虚像表示領域1000内の左視点画像VL32から右方向に特定の距離DV1020(ここでは、DV1020>DV1010である。)だけ離れた位置に右視点画像VR22を右目700Rに視認させる。これにより、左視点画像VL32と右視点画像VR22が融像され、左目700Lと左視点画像VL32とを結ぶ直線と、右目700Rと右視点画像VR22とを結ぶ直線との交点の位置に、第1知覚画像FU1010よりも観察者から遠い位置に第2知覚画像FU1020を知覚される。この際、左目700Lと左視点画像VL32とを結ぶ直線と、右目700Rと右視点画像VR22とを結ぶ直線との間の角度を第2の輻輳角θc2は、第1の輻輳角θc1より小さくなる。また、図12Bの下図に示すように、左目700Lと左視点画像VL32とを結ぶ直線(又は右目700Rと右視点画像VR22とを結ぶ直線)と水平線との間の角度を第2の縦配置角θf2は、第1の縦配置角θf1より小さく設定される。これにより、第2知覚画像FU1020は、観察者から見て、図13に示すように第1知覚画像FU1010よりも上側であり、遠方に知覚される。 Further, the perceptual image FU1020 shown in FIG. 12B corresponds to the content image FU1020 of FIG. 13, and shows an aspect in which the perceptual image FU1020 shown in FIG. 12A is fused to a distant side and upward from the observer. It is a figure. As shown in the figure, the display light 803 causes the left eye 700L to visually recognize the left viewpoint image VL32 at a predetermined position in the virtual image display area 1000. The display light 802 causes the right-eye view image VR22 to be visually recognized by the right-eye 700R at a position separated from the left-viewpoint image VL32 in the virtual image display area 1000 by a specific distance DV1020 (here, DV1020> DV1010). As a result, the left viewpoint image VL32 and the right viewpoint image VR22 are fused, and the first position is at the intersection of the straight line connecting the left eye 700L and the left viewpoint image VL32 and the straight line connecting the right eye 700R and the right viewpoint image VR22. The second perceived image FU1020 is perceived at a position farther from the observer than the perceived image FU1010. At this time, the angle between the straight line connecting the left eye 700L and the left viewpoint image VL32 and the straight line connecting the right eye 700R and the right viewpoint image VR22 is smaller than the first convergence angle θc1. .. Further, as shown in the lower figure of FIG. 12B, the angle between the straight line connecting the left eye 700L and the left viewpoint image VL32 (or the straight line connecting the right eye 700R and the right viewpoint image VR22) and the horizontal line is the second vertical arrangement angle. θf2 is set smaller than the first vertical arrangement angle θf1. As a result, the second perceptual image FU1020 is above the first perceptual image FU1010 as shown in FIG. 13 from the observer's point of view, and is perceived in the distance.

図11に示すように、左目700Lには、部分視域E103における正規の表示光803以外の非正規の表示光804が入射することがある。非正規の表示光804の光強度920は、正規の表示光803の光強度910に比べると、かなり小さくなる。しかしながら、観察者は、正規の左視点画像VL31,VL32と正規の右視点画像VR21、VR22とが融像した正規の第1知覚画像FU1010、第2知覚画像FU1020以外に、第1知覚画像FU1010の左右方向にずれた位置(図13の例では、第1知覚画像FU1010の右側にずれた位置)に、非正規の表示光804による虚像VR41を視認し、正規の左視点画像VL32と正規の右視点画像VL22とが融像した正規の第2知覚画像FU1020以外に、第2知覚画像FU1020の左右方向にずれた位置(図13の例では、第2知覚画像FU1020の右側にずれた位置)に、非正規の表示光804による虚像VR42を視認し得る。 As shown in FIG. 11, non-regular display light 804 other than the normal display light 803 in the partial viewing area E103 may be incident on the left eye 700L. The light intensity 920 of the non-regular display light 804 is considerably smaller than the light intensity 910 of the regular display light 803. However, the observer can see the first perceived image FU1010 in addition to the regular first perceived image FU1010 and the second perceived image FU1020, which are fused images of the regular left viewpoint images VL31 and VL32 and the normal right viewpoint images VR21 and VR22. The virtual image VR41 by the non-regular display light 804 is visually recognized at the position shifted in the left-right direction (the position shifted to the right side of the first perceived image FU1010 in the example of FIG. 13), and the regular left viewpoint image VL32 and the regular right. In addition to the normal second perceived image FU1020 fused with the viewpoint image VL22, the position is displaced in the left-right direction of the second perceived image FU1020 (in the example of FIG. 13, the position is displaced to the right of the second perceived image FU1020). , The virtual image VR42 by the non-regular display light 804 can be visually recognized.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the particular embodiments disclosed herein is presented below. It should be understood that these embodiments are presented solely to provide the reader with an overview of these particular embodiments and do not limit the scope of this disclosure. In fact, the present disclosure may include various aspects not described below.

本開示の概要は、視認性の高い画像を表示する表示制御装置、ヘッドアップディスプレイ装置、及び表示制御応報等を提供することに関する。より具体的には、クロストークによる非正規の画像の視認性を低下させる、又はクロストークによる非正規の画像の視認性を低下させつつ、正規の画像の視認性の低下を抑制する、ことにも関する。 The outline of the present disclosure relates to a display control device for displaying a highly visible image, a head-up display device, a display control response, and the like. More specifically, it is intended to reduce the visibility of the non-regular image due to crosstalk, or to suppress the deterioration of the visibility of the regular image while reducing the visibility of the non-regular image due to crosstalk. Also related.

したがって、本明細書に記載される表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等は、前記課題を解決するため、以下の手段を採用した。本実施形態は、視差を有する左視点画像及び右視点画像を視認させることで、奥行き表現を付加したコンテンツ画像として表示させ、コンテンツ画像の左右方向に表示され、はっきりとした輪郭を有さない1つ又は複数のグロー画像を表示する、ことをその要旨とする。 Therefore, the display control device, the head-up display device, the display control method, and the like described in the present specification employ the following means in order to solve the above-mentioned problems. In the present embodiment, by visually recognizing a left-viewpoint image and a right-viewpoint image having a parallax, they are displayed as a content image with a depth expression added, and are displayed in the left-right direction of the content image, and do not have a clear outline. The gist is to display one or more glow images.

したがって、本明細書に記載される表示制御装置は、画像を被投影部材に投影することで、観察者に画像の虚像を視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置であって、1つ又は複数のプロセッサと、メモリと、メモリに格納され、1つ又は複数のプロセッサによって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、プロセッサは、観察者の左右の各目に、視差を有する左視点画像及び右視点画像を視認させることで、奥行き表現を付加したコンテンツ画像として表示する3D表示処理と、コンテンツ画像の左右方向に表示され、はっきりとした輪郭を有さない1つ又は複数のグロー画像を表示するグロー表示処理と、を実行する。 Therefore, the display control device described in the present specification is a display control device that executes display control in a head-up display device that makes an observer visually recognize an imaginary image of an image by projecting an image onto a projected member. It comprises one or more processors, a memory, and one or more computer programs stored in the memory and configured to be executed by the one or more processors, the processor being an observer. 3D display processing that displays a content image with depth expression by visually recognizing a left-viewpoint image and a right-viewpoint image that have a difference between the left and right eyes of the CPU, and a clear display in the left-right direction of the content image. A glow display process for displaying one or more glow images having no contour is executed.

本発明によれば、正規のコンテンツ画像の左右方向に、はっきりとした輪郭を有さないグロー画像を表示することで、クロストークで生じた非正規のコンテンツ画像が表示された場合でもグロー画像と非正規のコンテンツ画像とが重なり、非正規のコンテンツ画像の視認性を低下させることができる。 According to the present invention, by displaying a glow image having no clear outline in the left-right direction of the regular content image, even if a non-regular content image generated by crosstalk is displayed, the glow image and the glow image are displayed. The non-genuine content image overlaps with the non-genuine content image, and the visibility of the non-genuine content image can be reduced.

図1は、車両用表示システムの車両への適用例を示す図である。FIG. 1 is a diagram showing an example of application of a vehicle display system to a vehicle. 図2は、ヘッドアップディスプレイ装置の構成を示す図である。FIG. 2 is a diagram showing a configuration of a head-up display device. 図3は、自車両の走行中において、観察者が視認する前景と、前記前景に重畳して表示される知覚画像の例を示す図である。FIG. 3 is a diagram showing an example of a foreground that the observer visually recognizes while the own vehicle is traveling and a perceptual image that is superimposed and displayed on the foreground. 図4は、虚像結像面に表示される左視点虚像と右視点虚像と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像と、の位置関係を概念的に示した図である。FIG. 4 is a diagram conceptually showing the positional relationship between the left viewpoint virtual image and the right viewpoint virtual image displayed on the virtual image forming surface and the perceived image perceived by the observer by these left viewpoint virtual images and the right viewpoint virtual images. be. 図5Aは、グロー画像Gの一態様を示す図である。FIG. 5A is a diagram showing one aspect of the glow image G. 図5Bは、グロー画像Gの一態様を示す図である。FIG. 5B is a diagram showing one aspect of the glow image G. 図6は、近傍側に知覚される第1のコンテンツ画像に付加される第1のグロー画像と、遠方側に知覚される第2のコンテンツ画像に付加される第2のグロー画像と、の表示態様を示す図である。FIG. 6 shows a display of a first glow image added to a first content image perceived on the near side and a second glow image added to a second content image perceived on the distant side. It is a figure which shows the aspect. 図7Aは、グロー画像Gの第1の変化態様を示す図であり、上図が第1の表示態様の一例であり、下図が第2の表示態様の一例である。FIG. 7A is a diagram showing a first change mode of the glow image G, the upper figure is an example of the first display mode, and the lower figure is an example of the second display mode. 図7Bは、グロー画像Gの第2の変化態様を示す図であり、上図が第1の表示態様の一例であり、下図が第2の表示態様の一例である。FIG. 7B is a diagram showing a second change mode of the glow image G, the upper figure is an example of the first display mode, and the lower figure is an example of the second display mode. 図8は、いくつかの実施形態の車両用表示システムのブロック図である。FIG. 8 is a block diagram of a vehicle display system of some embodiments. いくつかの実施形態に従って、観察者の目位置に基づき、グロー画像の表示態様を設定する動作を実行する方法を示すフロー図である。It is a flow diagram which shows the method of performing the operation of setting the display mode of a glow image based on the eye position of an observer according to some embodiments. 図10は、観察者の目位置700が所定の位置にある際の、自車両の運転席のアイボックスの左右方向(X軸)に配光される表示光の光強度を示す図である。FIG. 10 is a diagram showing the light intensity of the display light distributed in the left-right direction (X-axis) of the eye box of the driver's seat of the own vehicle when the observer's eye position 700 is at a predetermined position. 図11は、従来例の説明で用いられ、車両の運転席のアイリプスの左右方向(X軸)に配光される表示光の光強度を示す図である。FIG. 11 is a diagram showing the light intensity of the display light distributed in the left-right direction (X-axis) of the irips of the driver's seat of the vehicle, which is used in the description of the conventional example. 図12Aは、従来例の説明で用いられ、左視点画像と右視点画像の配置、及び左視点画像と右視点画像により融像される第1知覚画像の配置、を説明する図である。FIG. 12A is a diagram for explaining the arrangement of the left viewpoint image and the right viewpoint image and the arrangement of the first perceptual image fused by the left viewpoint image and the right viewpoint image, which is used in the explanation of the conventional example. 図12Bは、従来例の説明で用いられ、左視点画像と右視点画像の配置、及び左視点画像と右視点画像により融像される第2知覚画像の配置、を説明する図である。FIG. 12B is a diagram for explaining the arrangement of the left viewpoint image and the right viewpoint image and the arrangement of the second perceptual image fused by the left viewpoint image and the right viewpoint image, which is used in the explanation of the conventional example. 図q3は、従来例の説明で用いられ、自車両の走行中において、観察者が視認する前景と、前記前景に重畳して表示される知覚画像の例を示す図である。FIG. q3 is a diagram which is used in the description of the conventional example and shows an example of a foreground that the observer visually recognizes while the own vehicle is traveling and a perceptual image that is superimposed and displayed on the foreground.

以下、図1ないし図10では、例示的な車両用表示システムの構成、及び動作の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, FIGS. 1 to 10 provide a description of the configuration and operation of an exemplary vehicle display system. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.

図1を参照する。図1は、視差式3D-HUD装置を含む車両用虚像表示システムの構成の一例を示す図である。なお、図1において、車両(移動体の一例。)1の左右方向(換言すると、車両1の幅方向)をX軸(X軸の正方向は、車両1の前方を向いた際の左方向。)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6)に直交する線分に沿う上下方向(換言すると、車両1の高さ方向)をY軸(Y軸の正方向は、上方向。)とし、左右方向及び上下方向の各々に直交する線分に沿う前後方向をZ軸(Z軸の正方向は、車両1の直進方向。)とする。この点は、他の図面においても同様である。 See FIG. FIG. 1 is a diagram showing an example of a configuration of a virtual image display system for a vehicle including a parallax type 3D-HUD device. In FIG. 1, the left-right direction (in other words, the width direction of the vehicle 1) of the vehicle (an example of a moving body) 1 is the X-axis (the positive direction of the X-axis is the left direction when facing the front of the vehicle 1). ), And the vertical direction (in other words, the height direction of the vehicle 1) along the line segment orthogonal to the ground or the surface corresponding to the ground (here, the road surface 6) is the Y axis (Y axis). The forward direction is the upward direction.), And the front-rear direction along the lines orthogonal to each of the left-right direction and the up-down direction is the Z-axis (the positive direction of the Z-axis is the straight-ahead direction of the vehicle 1). This point is the same in other drawings.

図示するように、車両(自車両)1に備わる車両用表示システム10は、観察者(典型的には車両1の運転席に着座する運転者)の左目700Lと右目700Rの位置や視線方向を検出する瞳(あるいは顔)検出用の目位置検出部(視線検出部)409、車両1の前方(広義には周囲)を撮像するカメラ(例えばステレオカメラ)などで構成される車外センサ411、ヘッドアップディスプレイ装置(以下では、HUD装置とも呼ぶ)20及び、HUD装置20を制御する表示制御装置30、を有する。 As shown in the figure, the vehicle display system 10 provided in the vehicle (own vehicle) 1 determines the positions and line-of-sight directions of the left eye 700L and the right eye 700R of the observer (typically, the driver sitting in the driver's seat of the vehicle 1). An external sensor 411 consisting of an eye position detection unit (line-of-sight detection unit) 409 for detecting the pupil (or face) to be detected, a camera (for example, a stereo camera) that captures the front (in a broad sense, the surroundings) of the vehicle 1, and a head. It has an up-display device (hereinafter, also referred to as a HUD device) 20 and a display control device 30 for controlling the HUD device 20.

図2は、ヘッドアップディスプレイ装置の構成の一態様を示す図である。HUD装置20は、例えばダッシュボード(図1の符号5)内に設置される。このHUD装置20は、立体表示装置40、リレー光学系80及び、これら立体表示装置40とリレー光学系80を収納し、立体表示装置40からの表示光Kを内部から外部に向けて出射可能な光出射窓21を有する筐体22、を有する。 FIG. 2 is a diagram showing one aspect of the configuration of the head-up display device. The HUD device 20 is installed, for example, in a dashboard (reference numeral 5 in FIG. 1). The HUD device 20 houses the stereoscopic display device 40, the relay optical system 80, and the stereoscopic display device 40 and the relay optical system 80, and can emit the display light K from the stereoscopic display device 40 from the inside to the outside. It has a housing 22 having a light emitting window 21.

立体表示装置40は、ここでは視差式3D表示装置とする。この立体表示装置(視差式3D表示装置)40は、左視点画像と右視点画像と視認させることで奥行き表現を制御可能な多視点画像表示方式を用いた裸眼立体表示装置である表示器50及び、バックライトとして機能する光源ユニット60、により構成される。 The stereoscopic display device 40 is a parallax type 3D display device here. The stereoscopic display device (differential 3D display device) 40 is a display device 50 and a naked-eye stereoscopic display device using a multi-viewpoint image display method capable of controlling depth expression by visually recognizing a left-viewpoint image and a right-viewpoint image. , A light source unit 60 that functions as a backlight.

表示器50は、光源ユニット60からの照明光を光変調して画像を生成する光変調素子51及び、例えば、レンチキュラレンズやパララックスバリア(視差バリア)等を有し、光変調素子51から出射される光を、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)とに分離する光学レイヤ(光線分離部の一例。)52、を有する。光学レイヤ52は、レンチキュラレンズ、パララックスバリア、レンズアレイ及び、マイクロレンズアレイなどの光学フィルタを含む。実施形態で光学レイヤ52は、前述した光学フィルタに限定されることなく、光変調素子51の前面又は後面に配置される全ての形態の光学レイヤを含む。但し、これは一例であり、限定されるものではない。 The display 50 has an optical modulation element 51 that optical-modulates the illumination light from the light source unit 60 to generate an image, and for example, a lenticular lens, a paralux barrier (parallax barrier), and the like, and emits light from the optical modulation element 51. The light to be generated is the left-eye display light (reference numeral K10 in FIG. 1) such as the left-eye rays K11, K12 and K13, and the right-eye display light such as the right-eye rays K21, K22 and K23 (FIG. 1). It has an optical layer (an example of a light ray separating unit) 52, which is separated from the reference numeral K20). The optical layer 52 includes an optical filter such as a lenticular lens, a parallax barrier, a lens array, and a microlens array. In the embodiment, the optical layer 52 includes all forms of the optical layer arranged on the front surface or the rear surface of the light modulation element 51 without being limited to the above-mentioned optical filter. However, this is an example and is not limited.

また、立体表示装置40は、光学レイヤ(光線分離部の一例。)52の代わりに又は、それに加えて、光源ユニット60を指向性バックライトユニット(光線分離部の一例。)で構成することで、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)と、を出射させてもよい。具体的に、例えば、後述する表示制御装置30は、指向性バックライトユニットが左目700Lに向かう照明光を照射した際に、光変調素子51に左視点画像を表示させることで、左目用の光線K11、K12及び、K13等の左目用表示光K10を、観察者の左目700Lに向け、指向性バックライトユニットが右目700Rに向かう照明光を照射した際に、光変調素子51に右視点画像を表示させることで、右目用の光線K21、K22及び、K23等の右目用表示光K20を、観察者の左目700Rに向ける。但し、これは一例であり、限定されるものではない。 Further, the stereoscopic display device 40 is formed by forming the light source unit 60 with a directional backlight unit (an example of a light ray separating unit) in place of or in addition to the optical layer (an example of a light ray separating unit) 52. , Left-eye display light (reference numeral K10 in FIG. 1) such as light rays K11, K12 and K13 for the left eye, and right-eye display light (reference numeral K20 in FIG. 1) such as light rays K21, K22 and K23 for the right eye. , May be emitted. Specifically, for example, the display control device 30 described later causes the optical modulation element 51 to display a left viewpoint image when the directional backlight unit irradiates the illumination light toward the left eye 700L, thereby causing light rays for the left eye. When the display light K10 for the left eye such as K11, K12, and K13 is directed toward the observer's left eye 700L and the directional backlight unit irradiates the illumination light toward the right eye 700R, the right viewpoint image is displayed on the optical modulation element 51. By displaying the light, the light rays K21 and K22 for the right eye and the display light K20 for the right eye such as K23 are directed toward the observer's left eye 700R. However, this is an example and is not limited.

後述する表示制御装置30は、例えば、画像レンダリング処理(グラフィック処理)、表示器駆動処理などを実行することで、観察者の左目700Lへ左視点画像V10の左目用表示光K10及び、右目700Rへ右視点画像V20の右目用表示光K20、を向け、左視点画像V10及び右視点画像V20を調整することで、HUD装置20が表示する(観察者が知覚する)知覚虚像FUの態様を制御することができる。なお、後述する表示制御装置30は、一定空間に存在する点などから様々な方向に出力される光線をそのまま(概ね)再現するライトフィールドを再現するように、ディスプレイ(表示器50)を制御してもよい。 The display control device 30, which will be described later, executes, for example, image rendering processing (graphic processing), display drive processing, etc., to the observer's left eye 700L, to the left eye display light K10 of the left viewpoint image V10, and to the right eye 700R. By directing the right-eye display light K20 of the right-viewpoint image V20 and adjusting the left-viewpoint image V10 and the right-viewpoint image V20, the mode of the perceptual virtual image FU displayed (perceived by the observer) by the HUD device 20 is controlled. be able to. The display control device 30, which will be described later, controls the display (display 50) so as to reproduce a light field that (generally) reproduces light rays output in various directions from a point existing in a certain space. You may.

リレー光学系80は、立体表示装置40からの光を反射し、画像の表示光K10、K20を、ウインドシールド(被投影部材)2に投影する曲面ミラー(凹面鏡等)81、82を有する。但し、その他の光学部材(レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材又は、これらの組み合わせを含んでいてもよい。)を、さらに有してもよい。 The relay optical system 80 has curved mirrors (concave mirrors and the like) 81 and 82 that reflect the light from the stereoscopic display device 40 and project the image display lights K10 and K20 onto the windshield (projected member) 2. However, other optical members (a refraction optical member such as a lens, a diffractive optical member such as a hologram, a reflection optical member, or a combination thereof may be included) may be further included.

図1では、HUD装置20の立体表示装置40によって、左右の各目用の、視差をもつ画像(視差画像)が表示される。各視差画像は、図1に示されるように、虚像表示面(虚像結像面)VSに結像したV10、V20として表示される。観察者(人)の各目のピントは、虚像表示領域VSの位置に合うように調節される。なお、虚像表示領域VSの位置を、「調節位置(又は結像位置)」と称し、また、所定の基準位置(例えば、HUD装置20のアイボックス200の中心205、観察者の視点位置、又は、自車両1の特定位置など)から虚像表示領域VSまでの距離(図4の符号D10を参照)を調節距離(結像距離)と称する。 In FIG. 1, the stereoscopic display device 40 of the HUD device 20 displays an image having a parallax (parallax image) for each of the left and right eyes. As shown in FIG. 1, each parallax image is displayed as V10 and V20 imaged on the virtual image display surface (virtual image image plane) VS. The focus of each eye of the observer (person) is adjusted to match the position of the virtual image display area VS. The position of the virtual image display area VS is referred to as an "adjustment position (or image formation position)", and a predetermined reference position (for example, the center 205 of the eye box 200 of the HUD device 20, the viewpoint position of the observer, or the viewpoint position of the observer. The distance from the virtual image display area VS (see reference numeral D10 in FIG. 4) from the specific position of the own vehicle 1) is referred to as an adjustment distance (imaging distance).

但し、実際は、人の脳が、各画像(虚像)を融像するため、人は、調節位置よりもさらに奥側である位置(例えば、左視点画像V10と右視点画像V20との輻輳角によって定まる位置であり、輻輳角が小さくなるほど、観察者から離れた位置にあるように知覚される位置)に、知覚画像(ここでは、ナビゲーション用の矢先の図形)FUが表示されているように認識する。なお、知覚虚像FUは、「立体虚像」と称される場合があり、また、「画像」を広義に捉えて虚像も含まれるとする場合には、「立体画像」と称することもできる。また、「立体像」、「3D表示」等と称される場合がある。 However, in reality, since the human brain fuses each image (virtual image), the person is placed at a position further back than the adjustment position (for example, depending on the convergence angle between the left viewpoint image V10 and the right viewpoint image V20). It is recognized as if the perceived image (here, the figure at the tip of the arrow for navigation) FU is displayed in the perceived image (here, the position that is perceived as being farther from the observer as the convergence angle becomes smaller). do. The perceptual virtual image FU may be referred to as a "stereoscopic virtual image", and may also be referred to as a "stereoscopic image" when the "image" is broadly grasped and the virtual image is also included. In addition, it may be referred to as a "stereoscopic image", a "3D display", or the like.

次に、図3及び、図4を参照する。図3は、自車両1の走行中において、観察者が視認する前景と、前記前景に重畳して表示される知覚画像の例を示す図である。図4は、虚像結像面に表示される左視点虚像と右視点虚像と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像と、の位置関係を概念的に示した図である。 Next, reference is made to FIGS. 3 and 4. FIG. 3 is a diagram showing an example of a foreground that the observer visually recognizes while the own vehicle 1 is traveling and a perceptual image that is superimposed and displayed on the foreground. FIG. 4 is a diagram conceptually showing the positional relationship between the left viewpoint virtual image and the right viewpoint virtual image displayed on the virtual image forming surface and the perceived image perceived by the observer by these left viewpoint virtual images and the right viewpoint virtual images. be.

図3において、車両1は、直線状の道路(路面)6を走行している。HUD装置20は、ダッシュボード5内に設置されている。HUD装置20の光出射窓21から表示光K(K10,K20)を被投影部(車両1のフロントウインドシールド)2に投影する。図3の例では、路面6に重畳し、車両1の経路(ここでは直進を示す。)を指示する第1のコンテンツ画像FU1、同じく車両1の経路(ここでは直進を示す。)を指示し、第1のコンテンツ画像FU1より遠方に知覚される第2のコンテンツ画像FU2、第1のコンテンツ画像FU1の左右方向に表示され、はっきりとした輪郭を有さない第1のグロー画像G1、第2のコンテンツ画像FU2の左右方向に表示され、はっきりとした輪郭を有さない第2のグロー画像G2、を表示する。 In FIG. 3, the vehicle 1 is traveling on a straight road (road surface) 6. The HUD device 20 is installed in the dashboard 5. The display light K (K10, K20) is projected onto the projected portion (front windshield of the vehicle 1) 2 from the light emitting window 21 of the HUD device 20. In the example of FIG. 3, the first content image FU1 superimposing on the road surface 6 and instructing the route of the vehicle 1 (here, the straight direction is shown), and also the route of the vehicle 1 (here, the straight line is shown) are instructed. , The second content image FU2 perceived farther than the first content image FU1, the first glow image G1 displayed in the left-right direction of the first content image FU1 and having no clear outline, the second. The second glow image G2, which is displayed in the left-right direction of the content image FU2 and does not have a clear outline, is displayed.

図4の左図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第1の左視点コンテンツV11と、第1の左視点グロー画像V16と、を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第1の右視点コンテンツV21と、第1の右視点グロー画像V26と、を結像する。視差を有する第1の左視点コンテンツV11及び、第1の右視点コンテンツV21により知覚される第1のコンテンツ画像FU1(同じく、視差を有する第1の左視点グロー画像V16及び、第1の右視点グロー画像V26により知覚される第1のグロー画像G1)は、虚像表示領域VSよりも距離D21だけ奥側である位置(上記の基準位置から距離D31だけ離れた位置)において視認される。 As shown in the left figure of FIG. 4, the HUD device 20 has (1) the projected unit 2 at a position and angle such that it is reflected by the projected unit 2 to the left eye 700L detected by the eye position detecting unit 409. The display light K10 for the left eye is emitted to the left eye, and the first left viewpoint content V11 and the first left viewpoint glow image V16 are imaged at a predetermined position in the virtual image display area VS seen from the left eye 700L. 2) The display light K20 for the right eye is emitted to the projected portion 2 at a position and angle so as to be reflected by the projected portion 2 to the right eye 700R, and at a predetermined position of the virtual image display area VS seen from the right eye 700R. The first right viewpoint content V21 and the first right viewpoint glow image V26 are imaged. The first content image FU1 perceived by the first left viewpoint content V11 having parallax and the first right viewpoint content V21 (also the first left viewpoint glow image V16 having parallax and the first right viewpoint). The first glow image G1) perceived by the glow image V26 is visually recognized at a position (a position separated by a distance D31 from the above reference position) behind the virtual image display area VS by a distance D21.

同様に、図4の右図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第2の左視点コンテンツV12と、第2の左視点グロー画像V17と、を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第2の右視点コンテンツV22と、第2の右視点グロー画像V27と、を結像する。視差を有する第2の左視点コンテンツV12及び、第2の右視点コンテンツV22により知覚される第2のコンテンツ画像FU2(同じく、視差を有する第2の左視点グロー画像V17及び、第2の右視点グロー画像V27により知覚される第2のグロー画像G2)は、虚像表示領域VSよりも距離D22だけ奥側である位置(上記の基準位置から距離D31だけ離れた位置)において視認される。 Similarly, as shown in the right figure of FIG. 4, the HUD device 20 is (1) covered at a position and an angle such that it is reflected by the projected unit 2 to the left eye 700L detected by the eye position detecting unit 409. The display light K10 for the left eye is emitted to the projection unit 2, and the second left viewpoint content V12 and the second left viewpoint glow image V17 are imaged at a predetermined position in the virtual image display area VS seen from the left eye 700L. (2) The display light K20 for the right eye is emitted to the projected portion 2 at a position and angle such that it is reflected by the projected portion 2 to the right eye 700R, and a predetermined virtual image display area VS seen from the right eye 700R is emitted. A second right-viewpoint content V22 and a second right-viewpoint glow image V27 are imaged at the position. A second content image FU2 perceived by a second left viewpoint content V12 having parallax and a second right viewpoint content V22 (also a second left viewpoint glow image V17 having parallax and a second right viewpoint). The second glow image G2) perceived by the glow image V27 is visually recognized at a position behind the virtual image display area VS by a distance D22 (a position separated by a distance D31 from the above reference position).

上記実施形態のHUD装置20(表示制御装置30)は、グロー画像Gを表示する際、左視点グロー画像V16(V17)と、右視点グロー画像V26(V27)と、を表示していたが、これは一例であり、限定されるものではない。他の実施態様HUD装置20(表示制御装置30)は、グロー画像Gを表示する際、左視点グロー画像V16(V17)又は、右視点グロー画像V26(V27)のいずれか一方のみを表示してもよい。 The HUD device 20 (display control device 30) of the above embodiment displayed the left viewpoint glow image V16 (V17) and the right viewpoint glow image V26 (V27) when displaying the glow image G. This is an example and is not limited. In another embodiment, the HUD device 20 (display control device 30) displays only one of the left viewpoint glow image V16 (V17) and the right viewpoint glow image V26 (V27) when displaying the glow image G. May be good.

具体的には、上記の基準位置から虚像表示領域VSまでの距離(結像距離D10)は、例えば「4m」の距離に設定され、上記の基準位置から図4の左図に示される第1のコンテンツ画像FU1及び、第1のグロー画像G1までの距離(第1の知覚距離D31)は、例えば「7m」の距離に設定され、上記の基準位置から図4の右図に示される第2のコンテンツ画像FU2及び、第2のグロー画像G2までの距離(第2の知覚距離D32)は、例えば「10m」の距離に設定される。但し、これは一例であり、限定されるものではない。 Specifically, the distance (imaging distance D10) from the above-mentioned reference position to the imaginary image display area VS is set to, for example, a distance of "4 m", and the first one shown in the left figure of FIG. 4 from the above-mentioned reference position. The distance to the content image FU1 and the first glow image G1 (first perceived distance D31) is set to, for example, a distance of "7 m", and the second is shown in the right figure of FIG. 4 from the above reference position. The distance to the content image FU2 and the second glow image G2 (second perceived distance D32) is set to, for example, a distance of "10 m". However, this is an example and is not limited.

第1、第2の知覚距離D31,D32は、左目700Lと左視点画像V10(V11,V16,V12,V17)とを結ぶ線分(換言すると、左目700Lから左視点画像V10へ向けた視線方向)と、右目700Rと右視点画像V20(V21,V26,V22,V27)とを結ぶ線分(換言すると、右目700Rから右視点画像V20へ向けた視線方向)と、の間の角度(輻輳角θc)の大きさに応じて定まる。 The first and second perceptual distances D31 and D32 are line segments connecting the left eye 700L and the left viewpoint image V10 (V11, V16, V12, V17) (in other words, the line-of-sight direction from the left eye 700L toward the left viewpoint image V10). ) And the line segment connecting the right eye 700R and the right viewpoint image V20 (V21, V26, V22, V27) (in other words, the line-of-sight direction from the right eye 700R to the right viewpoint image V20) and the angle (convergence angle). It is determined according to the size of θc).

図4の左図に示す第1の輻輳角θc1は、図4の右図に示す第2の輻輳角θc2より大きい。したがって、上記の基準位置から第1のコンテンツ画像FU1及び、第1のグロー画像G1までの距離(第1の知覚距離D31)は、上記の基準位置から第2のコンテンツ画像FU2及び、第2のグロー画像G2までの距離(第2の知覚距離D32)より短くなる。 The first congestion angle θc1 shown on the left side of FIG. 4 is larger than the second congestion angle θc2 shown on the right side of FIG. Therefore, the distance from the reference position to the first content image FU1 and the first glow image G1 (first perceived distance D31) is the second content image FU2 and the second content image FU2 from the reference position. It is shorter than the distance to the glow image G2 (second perceived distance D32).

本実施形態の表示制御装置30(HUD装置20)は、コンテンツ画像FUと、このコンテンツ画像FUの左右方向に表示されるグロー画像Gを表示する。これにより、クロストークが生じて、正規のコンテンツ画像FUの左方向及び/又は、右方向に非正規のコンテンツ画像が表示されてしまった場合でも、正規のコンテンツ画像FUの左右方向に表示されるグロー画像Gと混在し、非正規のコンテンツ画像がはっきり視認されてしまうことを抑制することができる。換言すると、非正規のコンテンツ画像の視認性を低下させることができる。 The display control device 30 (HUD device 20) of the present embodiment displays the content image FU and the glow image G displayed in the left-right direction of the content image FU. As a result, even if a cross talk occurs and the non-genuine content image is displayed in the left direction and / or the right direction of the regular content image FU, it is displayed in the left-right direction of the regular content image FU. It is possible to prevent the non-genuine content image from being clearly seen by being mixed with the glow image G. In other words, the visibility of non-genuine content images can be reduced.

図5Aは、グロー画像Gの一態様を示す図である。図示するように、観察者から見たグロー画像Gの横方向の長さαgは、コンテンツ画像FUの横方向の長さαfより長い。また、観察者から見たグロー画像Gの縦方向の長さβgは、コンテンツ画像FUの縦方向の長さβfより長い。また、グロー画像Gの横方向の長さαgとコンテンツ画像FUの横方向の長さαfとの差(αg-αf)は、グロー画像Gの縦方向の長さβgとコンテンツ画像FUの縦方向の長さβfとの差(βg-βf)より長い。典型的には、クロストークにより生じる非正規のコンテンツ画像は、横方向では正規のコンテンツ画像から大きくずれて視認され、縦方向では横方向に比べて正規のコンテンツ画像からずれる量が少ない(及び/又はずれる頻度が少ない)。よって、ずれる量が少ない(及び/又はずれる頻度が少ない)縦方向において、付加的なグロー画像Gの長さ(面積)を抑えることで、コンテンツ画像FUのコントラスト(視認性の一例)の低下を抑制しつつ、ずれる量が大きい(及び/又はずれる頻度が多い)横方向において、クロストークによる非正規のコンテンツ画像の視認性低下をより確実に抑制することができる。但し、上記の態様は、一例であり、これに限定されない。他の実施形態の一例として、観察者から見たグロー画像Gの縦方向の長さβgは、コンテンツ画像FUの縦方向の長さβfと同じ又はそれより短くてもよい。 FIG. 5A is a diagram showing one aspect of the glow image G. As shown, the lateral length αg of the glow image G as seen by the observer is longer than the lateral length αf of the content image FU. Further, the vertical length βg of the glow image G seen from the observer is longer than the vertical length βf of the content image FU. Further, the difference (αg-αf) between the horizontal length αg of the glow image G and the horizontal length αf of the content image FU is the vertical length βg of the glow image G and the vertical direction of the content image FU. The length is longer than the difference from βf (βg-βf). Typically, the non-regular content image produced by crosstalk is viewed with a large deviation from the regular content image in the horizontal direction, and the amount of deviation from the regular content image in the vertical direction is smaller than that in the horizontal direction (and / / Or the frequency of deviation is low). Therefore, by suppressing the length (area) of the additional glow image G in the vertical direction in which the amount of deviation is small (and / or the frequency of deviation is small), the contrast (an example of visibility) of the content image FU is reduced. While suppressing it, it is possible to more reliably suppress the deterioration of the visibility of the non-regular content image due to the cross talk in the lateral direction where the amount of deviation is large (and / or the frequency of deviation is high). However, the above aspect is an example, and the present invention is not limited to this. As an example of another embodiment, the vertical length βg of the glow image G as seen by the observer may be the same as or shorter than the vertical length βf of the content image FU.

また、グロー画像Gは、コンテンツ画像FUに対して、同系色で且つ彩度を低くすることが好ましい。ここで、同系色とは、色相環における中心からのなす角度が60度以下であることをいう。より好ましくは、グロー画像Gの色とコンテンツ画像FUの色とが、色相環における中心からのなす角度が30度以下となるようにする。クロストークで視認され得る非正規のコンテンツ画像は、コンテンツ画像と同系色で且つ彩度が低くなる。よって、グロー画像Gの色(色相、彩度及び、明度)を、クロストークで視認され得る非正規のコンテンツ画像の色(色相、彩度及び、明度)と概ね同じにすることで、非正規のコンテンツ画像は、グロー画像Gに融和し、非正規のコンテンツ画像の視認性をより低下させることができる。なお、コンテンツ画像FUが複数色で構成されている場合、グロー画像Gの色度が、コンテンツ画像FUの画素の平均色度に対して、同系色で且つ彩度を低くするようにしてもよい。 Further, it is preferable that the glow image G has a similar color and a low saturation with respect to the content image FU. Here, the similar color means that the angle formed from the center in the color wheel is 60 degrees or less. More preferably, the angle between the color of the glow image G and the color of the content image FU from the center in the color wheel is 30 degrees or less. A non-genuine content image that can be visually recognized by crosstalk has a similar color to the content image and has low saturation. Therefore, by making the color (hue, saturation, and lightness) of the glow image G substantially the same as the color (hue, saturation, and lightness) of the non-regular content image that can be visually recognized by crosstalk, it is non-normal. The content image of the above can be integrated with the glow image G to further reduce the visibility of the non-regular content image. When the content image FU is composed of a plurality of colors, the chromaticity of the glow image G may be similar in color to the average chromaticity of the pixels of the content image FU and the saturation may be low. ..

図5Bは、グロー画像Gの一態様を示す図である。グロー画像Gは、クロストークで視認され得る非正規のコンテンツ画像の位置(領域)を、切り欠く(非表示とする)又は、彩度を低くした低視認性部GAを有していてもよい。これにより、クロストークで非正規のコンテンツ画像が表示される際、非正規のコンテンツ画像は、グロー画像Gの低視認性部GAに表示され、これにより、非正規のコンテンツ画像と、非正規のコンテンツ画像の周囲のグロー画像Gとが融和しやすくなり、非正規のコンテンツ画像の視認性をさらに低下させることができる。 FIG. 5B is a diagram showing one aspect of the glow image G. The glow image G may have a low visibility portion GA in which the position (region) of the non-regular content image that can be visually recognized by crosstalk is cut out (hidden) or the saturation is reduced. .. As a result, when the non-genuine content image is displayed by crosstalk, the non-genuine content image is displayed in the low visibility portion GA of the glow image G, whereby the non-genuine content image and the non-genuine content image are displayed. The glow image G around the content image can be easily integrated, and the visibility of the non-regular content image can be further reduced.

但し、上記の態様では、低視認性部GAは、コンテンツ画像FUの左側にのみ設けられているが、これは一例であり、これに限定されない。他の実施形態の一例として、低視認性部GAは、コンテンツ画像FUの左側にのみ設けられていてもよく、コンテンツ画像FUの左右両方に設けられていてもよい。また、後述する表示制御装置30は、目位置700に応じて、低視認性部GAを、コンテンツ画像FUの左側にのみに表示する態様又は、コンテンツ画像FUの右側にのみに表示する態様で切り替えてもよい。また、後述する表示制御装置30は、目位置700に応じて、低視認性部GAを、コンテンツ画像FUの左側にのみに表示する態様、コンテンツ画像FUの右側にのみに表示する態様又は、コンテンツ画像FUを設けない態様で切り替えてもよい。なお、虚像表示領域VSよりも奥側にコンテンツ画像FUを知覚させる場合、左目700Lに対してクロストークが生じる場合、左目700Lは、正規の左視点画像V10の右側に非正規の右視点画像V20を視認する。したがって、図4の左視点画像V11(V12)に付加されるグロー画像V16(V17)は、左視点画像V11の少なくとも右側に低視認性部GAを設けることが好ましい。なお、この際、図4の右視点画像V21(V22)に付加されるグロー画像V26(V27)は、右視点画像V21(V22)の左側の視認性を低下させてもよい。これにより、グロー画像G1,G2における左右のバランスを調整することができる。また、同様に、右目700Rに対してクロストークが生じる場合、右目700Rは、正規の右視点画像V20の左側に非正規の左視点画像V10を視認する。したがって、図4の右視点画像V21(V22)に付加されるグロー画像V26(V27)は、右視点画像V21(V22)の少なくとも左側に低視認性部GAを設けることが好ましい。なお、この際、図4の左視点画像V11(V12)に付加されるグロー画像V16(V17)は、左視点画像V11(V12)の右側の視認性を低下させてもよい。これにより、グロー画像G1,G2における左右のバランスを調整することができる。 However, in the above aspect, the low visibility portion GA is provided only on the left side of the content image FU, but this is an example and is not limited thereto. As an example of another embodiment, the low visibility unit GA may be provided only on the left side of the content image FU, or may be provided on both the left and right sides of the content image FU. Further, the display control device 30 described later switches between displaying the low visibility unit GA only on the left side of the content image FU or displaying it only on the right side of the content image FU, depending on the eye position 700. You may. Further, the display control device 30 described later displays the low visibility unit GA only on the left side of the content image FU, displays it only on the right side of the content image FU, or the content, depending on the eye position 700. Switching may be performed in a mode in which the image FU is not provided. When the content image FU is perceived behind the virtual image display area VS, when crosstalk occurs with respect to the left eye 700L, the left eye 700L is a non-regular right viewpoint image V20 on the right side of the regular left viewpoint image V10. To see. Therefore, it is preferable that the glow image V16 (V17) added to the left viewpoint image V11 (V12) in FIG. 4 is provided with a low visibility portion GA on at least the right side of the left viewpoint image V11. At this time, the glow image V26 (V27) added to the right viewpoint image V21 (V22) in FIG. 4 may reduce the visibility on the left side of the right viewpoint image V21 (V22). This makes it possible to adjust the left-right balance in the glow images G1 and G2. Similarly, when crosstalk occurs with respect to the right eye 700R, the right eye 700R visually recognizes the non-regular left viewpoint image V10 on the left side of the regular right viewpoint image V20. Therefore, it is preferable that the glow image V26 (V27) added to the right viewpoint image V21 (V22) in FIG. 4 is provided with a low visibility portion GA on at least the left side of the right viewpoint image V21 (V22). At this time, the glow image V16 (V17) added to the left viewpoint image V11 (V12) in FIG. 4 may reduce the visibility of the right side of the left viewpoint image V11 (V12). This makes it possible to adjust the left-right balance in the glow images G1 and G2.

図6は、近傍側に知覚される第1のコンテンツ画像FU1に付加される第1のグロー画像G1と、第1のコンテンツ画像FU1より遠方側に知覚される第2のコンテンツ画像FU2に付加される第2のグロー画像G2と、の表示態様を示す図である。遠方側に知覚される第2のコンテンツ画像FU2の横方向の長さαf2に対する第2のグロー画像G2の横方向の長さαg2の比率は、近傍側に知覚される第1のコンテンツ画像FU1の横方向の長さαf1に対する第1のグロー画像G1の横方向の長さαg1の比率より大きい(αg2/αf2>αg1/αf1)。すなわち、いくつかの実施形態によれば、知覚距離D30が大きくなるに従い、コンテンツ画像の横方向の長さαfに対するグロー画像の横方向の長さαgの比率を大きくしてもよい。クロストークで視認され得る非正規のコンテンツ画像は、知覚距離D30が大きくなるに従い、正規の知覚画像からのずれ量が大きくなることが発明者によって認識されたが、上記実施形態によれば、知覚距離D30が大きくなり、非正規のコンテンツ画像のずれ量が大きくなっても、非正規のコンテンツ画像がグロー画像Gに重なりやすくなり(非正規のコンテンツ画像とグロー画像Gとが重なる面積が増加し)、非正規のコンテンツ画像の視認性を低下させることができる。すなわち、表示制御装置30は、知覚距離D30の増加に従い、コンテンツ画像の横方向の長さαfに対するグロー画像の横方向の長さαgの比率を段階的又は、連続的に大きくするためのテーブルデータや演算式等をメモリ37に予め記憶しておいてもよい。なお、第1のグロー画像G1の横方向の長さαg1と第2のグロー画像G2の横方向の長さαg2とは、同じであってもよい。グロー画像Gの大きさを変化させないことで、観察者の視覚的注意が、グロー画像Gやコンテンツ画像FUに向きすぎることを抑制することがきでる。 FIG. 6 is added to the first glow image G1 attached to the first content image FU1 perceived on the near side and the second content image FU2 perceived on the far side from the first content image FU1. It is a figure which shows the display mode of the 2nd glow image G2. The ratio of the lateral length αg2 of the second glow image G2 to the lateral length αf2 of the second content image FU2 perceived on the distant side is that of the first content image FU1 perceived on the near side. It is larger than the ratio of the lateral length αg1 of the first glow image G1 to the lateral length αf1 (αg2 / αf2> αg1 / αf1). That is, according to some embodiments, as the perceived distance D30 increases, the ratio of the lateral length αg of the glow image to the lateral length αf of the content image may be increased. The inventor has recognized that the non-regular content image that can be visually recognized by crosstalk has a larger amount of deviation from the regular perceived image as the perceived distance D30 increases. Even if the distance D30 becomes large and the amount of deviation of the non-regular content image becomes large, the non-regular content image tends to overlap with the glow image G (the area where the non-regular content image and the glow image G overlap increases. ), The visibility of non-genuine content images can be reduced. That is, the display control device 30 increases the ratio of the lateral length αg of the glow image to the lateral length αf of the content image stepwise or continuously as the perceived distance D30 increases. Or an arithmetic expression or the like may be stored in the memory 37 in advance. The lateral length αg1 of the first glow image G1 and the lateral length αg2 of the second glow image G2 may be the same. By not changing the size of the glow image G, it is possible to prevent the observer's visual attention from being too directed toward the glow image G or the content image FU.

いくつかの実施形態のHUD装置20(表示制御装置30)は、検出される(又は推定される)目位置が特定状態であるか否かに応じて、グロー画像Gの表示態様を変化させる。 The HUD device 20 (display control device 30) of some embodiments changes the display mode of the glow image G depending on whether or not the detected (or estimated) eye position is in a specific state.

図7Aは、グロー画像Gの第1の変化態様を示す図であり、上図が第1の表示態様の一例であり、下図が第2の表示態様の一例である。いくつかの実施形態のHUD装置20(表示制御装置30)は、グロー画像Gの大きさを維持しつつ、彩度を変化させてもよい。図7Aの上図で示されるグロー画像Gの横の長さαg11は、下図で示されるグロー画像Gの横の長さαg12と同じである。また、図7Aの上図で示されるグロー画像Gの彩度は、図7Aの下図で示されるグロー画像Gの彩度より低くしている。 FIG. 7A is a diagram showing a first change mode of the glow image G, the upper figure is an example of the first display mode, and the lower figure is an example of the second display mode. The HUD device 20 (display control device 30) of some embodiments may change the saturation while maintaining the size of the glow image G. The horizontal length αg11 of the glow image G shown in the upper part of FIG. 7A is the same as the horizontal length αg12 of the glow image G shown in the lower figure. Further, the saturation of the glow image G shown in the upper part of FIG. 7A is lower than the saturation of the glow image G shown in the lower part of FIG. 7A.

図7Bは、グロー画像Gの第2の変化態様を示す図であり、上図が第1の表示態様の一例であり、下図が第2の表示態様の一例である。いくつかの実施形態のHUD装置20(表示制御装置30)は、グロー画像Gの彩度を維持しつつ、大きさを変化させてもよい。図7Bの上図で示されるグロー画像Gの横の長さαg21は、下図で示されるグロー画像Gの横の長さαg22より短くしている。また、図7Bの上図で示されるグロー画像Gの彩度は、図7Aの下図で示されるグロー画像Gの彩度と同じである。 FIG. 7B is a diagram showing a second change mode of the glow image G, the upper figure is an example of the first display mode, and the lower figure is an example of the second display mode. The HUD device 20 (display control device 30) of some embodiments may be varied in size while maintaining the saturation of the glow image G. The horizontal length αg21 of the glow image G shown in the upper part of FIG. 7B is shorter than the horizontal length αg22 of the glow image G shown in the lower figure. Further, the saturation of the glow image G shown in the upper part of FIG. 7B is the same as the saturation of the glow image G shown in the lower part of FIG. 7A.

また、図7Aに示す第1の変化態様と、図7Bに示す第2の変化態様を組み合わせてもよい。いくつかの実施形態のHUD装置20(表示制御装置30)は、グロー画像Gの彩度と大きさを変化させてもよい。第1の表示態様のグロー画像Gの横の長さは、第2の表示態様のグロー画像Gの横の長さより短くし、且つ、第1の表示態様のグロー画像Gの彩度は、第2の表示態様のグロー画像Gの彩度より低くしてもよい。 Further, the first change mode shown in FIG. 7A and the second change mode shown in FIG. 7B may be combined. The HUD device 20 (display control device 30) of some embodiments may change the saturation and size of the glow image G. The horizontal length of the glow image G in the first display mode is shorter than the horizontal length of the glow image G in the second display mode, and the saturation of the glow image G in the first display mode is the first. It may be lower than the saturation of the glow image G in the display mode of 2.

図8は、いくつかの実施形態に係る、車両用虚像表示システムのブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図3に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図8は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 8 is a block diagram of a virtual image display system for a vehicle according to some embodiments. The display control device 30 includes one or more I / O interfaces 31, one or more processors 33, one or more image processing circuits 35, and one or more memories 37. The various functional blocks described in FIG. 3 may be composed of hardware, software, or a combination thereof. FIG. 8 is only one embodiment, and the illustrated components may be combined with a smaller number of components or may have additional components. For example, the image processing circuit 35 (eg, graphic processing unit) may be included in one or more processors 33.

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(表示器40)の制御を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, the processor 33 and the image processing circuit 35 are operably connected to the memory 37. More specifically, the processor 33 and the image processing circuit 35 execute a program stored in the memory 37 to generate and / or transmit image data, for example, for a vehicle display system 10 (display). 40) can be controlled. The processor 33 and / or the image processing circuit 35 includes at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 37 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401及び/又は、他の電子機器(後述する符号403~419)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, the processor 33 is operably linked to the I / O interface 31. The I / O interface 31 communicates (CAN) with, for example, the vehicle ECU 401 and / or other electronic devices (reference numerals 403 to 419 described later) provided in the vehicle according to the standard of CAN (Controller Area Network). Also called communication). The communication standard adopted by the I / O interface 31 is not limited to CAN, and is, for example, CANFD (CAN with Flexible Data Rate), LIN (Local Interconnect Network), Bluetooth (registered trademark), MOST (Media Oriented Systems Transport). : MOST is a registered trademark), a wired communication interface such as UART, or USB, or a local such as a personal area network (PAN) such as a Bluetooth® network, or an 802.1x Wi-Fi® network. In-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN), is included. The I / O interface 31 is a wireless wide area network (WWAN0, IEEE 802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), an IEEE 802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, It may include an external communication (external communication) interface such as a wide area communication network (for example, an Internet communication network) according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、操作検出部407、目位置検出部409、車外センサ411、明るさ検出部413、IMU415、携帯情報端末417、及び外部通信機器419などが動作可能に連結される。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown in the figure, the processor 33 is interoperably connected to the I / O interface 31 to provide information with various other electronic devices and the like connected to the vehicle display system 10 (I / O interface 31). Can be exchanged. The I / O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detection unit 405, an operation detection unit 407, an eye position detection unit 409, an external sensor 411, a brightness detection unit 413, an IMU415, and mobile information. The terminal 417, the external communication device 419, and the like are operably connected. The I / O interface 31 may include a function of processing (converting, calculating, and analyzing) information received from other electronic devices connected to the vehicle display system 10.

表示器40は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、光変調素子51によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、光変調素子51が表示する画像を制御する。 The display 40 is operably connected to the processor 33 and the image processing circuit 35. Therefore, the image displayed by the light modulation element 51 may be based on the image data received from the processor 33 and / or the image processing circuit 35. The processor 33 and the image processing circuit 35 control the image displayed by the light modulation element 51 based on the information acquired from the I / O interface 31.

車両ECU401は、車両1に設けられたセンサやスイッチから、車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、車両1の前記状態の数値(例えば、車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ33へ送信することに加え、又はこれに代わり、センサで検出した数値を含む車両1の1つ又は複数の状態に基づく判定結果(例えば、車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。なお、I/Oインタフェース31は、車両ECU401を介さずに、車両1に設けられた車両1に設けられたセンサやスイッチから、上述したような情報を取得してもよい。 The vehicle ECU 401 uses sensors and switches provided on the vehicle 1 to indicate the state of the vehicle 1 (for example, mileage, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine speed). , Motor speed, steering angle, shift position, drive mode, various warning states, posture (including roll angle and / or pitching angle), vehicle vibration (including magnitude, frequency, and / or frequency of vibration) )) And the like, and the state of the vehicle 1 is collected and managed (may include control), and as a part of the function, the numerical value of the state of the vehicle 1 (for example, the vehicle speed of the vehicle 1) is acquired. ) Can be output to the processor 33 of the display control device 30. In addition, the vehicle ECU 401 simply transmits the numerical value detected by the sensor or the like (for example, the pitching angle is 3 [brake] in the forward tilting direction) to the processor 33, or instead, the numerical value detected by the sensor is used. A determination result based on one or more states of the vehicle 1 including (for example, the vehicle 1 satisfies a predetermined condition of a forward leaning state) and / and an analysis result (for example, a brake pedal opening degree). Combined with the information, the brake has caused the vehicle to lean forward.) May be transmitted to the processor 33. For example, the vehicle ECU 401 may output a signal indicating a determination result indicating that the vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 401 to the display control device 30. The I / O interface 31 may acquire the above-mentioned information from the sensors and switches provided in the vehicle 1 provided in the vehicle 1 without going through the vehicle ECU 401.

また、車両ECU401は、車両用表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 Further, the vehicle ECU 401 may output an instruction signal indicating an image displayed by the vehicle display system 10 to the display control device 30, and at this time, it is necessary to notify the coordinates, size, type, display mode, and image of the image. The degree and / or the necessity-related information that is the source for determining the notification necessity may be added to the instruction signal and transmitted.

目位置検出部409は、車両1の運転席に着座する観察者の目位置700を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部409から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出してもよい。 The eye position detection unit 409 may include a camera such as an infrared camera that detects the eye position 700 of the observer sitting in the driver's seat of the vehicle 1, and may output the captured image to the processor 33. The processor 33 acquires an image taken from the eye position detection unit 409 (an example of information that can estimate the eye position 700), and analyzes the captured image by a method such as pattern matching to obtain the eye position of the observer. The coordinates of 700 may be detected.

また、目位置検出部409は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、アイボックス200内(又はアイボックス200とその周辺を含む領域内)に設定された空間的な複数の領域のどこに属しているかを示す信号。)を、プロセッサ33に出力してもよい。なお、車両1の観察者の目位置700又は、観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。 Further, the eye position detection unit 409 is set in the analysis result of analyzing the image captured by the camera (for example, the eye position 700 of the observer is set in the eye box 200 (or in the area including the eye box 200 and its surroundings)). A signal indicating where it belongs to a plurality of spatial regions may be output to the processor 33. The method for acquiring the eye position 700 of the observer of the vehicle 1 or the information capable of estimating the eye position 700 of the observer is not limited to these, and a known eye position detection (estimation) technique is used. May be obtained.

また、目位置検出部409は、観察者の目位置700(観察者の頭部でもよい。)の移動速度、及び/又は移動方向を検出し、観察者の目位置700(観察者の頭部でもよい。)の移動速度、及び/又は移動方向を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 detects the moving speed and / or the moving direction of the observer's eye position 700 (which may be the observer's head), and the observer's eye position 700 (the observer's head). A signal indicating the moving speed and / or the moving direction may be output to the processor 33.

また、目位置検出部409は、(10)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)にあることを示す信号又は、(20)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内に入ると予測される信号、を検出した場合、上記特定の条件を満たしたと判定し、当該状態を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 is a signal indicating that (10) the eye position 700 of the observer is in a region where crosstalk can occur (or a region where the influence of crosstalk can increase), or (20) the observer. When the signal at which the eye position 700 is predicted to enter the region where crosstalk can occur (or the region where the influence of crosstalk can increase) is detected, it is determined that the above specific condition is satisfied, and the state is determined. The indicated signal may be output to the processor 33.

(20)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内に入ると予測される信号は、(21)新たに検出した目位置700が、過去に検出した目位置700に対して、メモリ37に予め記憶された目位置移動距離閾値以上であること(所定の単位時間内における目位置の移動が規定範囲より大きいこと。)を示す信号、(22)目位置の移動速度が、メモリ37に予め記憶された目位置移動速度閾値以上であることを示す信号、(23)目位置の移動方向が、メモリ37に予め記憶されたクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)に近づく方向であることを示す信号、などを含む。 (20) The signal predicted that the observer's eye position 700 enters the region where crosstalk can occur (or the region where the influence of crosstalk can increase) is (21) the newly detected eye position 700 is the signal. A signal indicating that the eye position movement distance threshold value stored in advance in the memory 37 or more (the eye position movement within a predetermined unit time is larger than the specified range) with respect to the eye position 700 detected in the past. (22) A signal indicating that the movement speed of the eye position is equal to or higher than the eye position movement speed threshold value stored in advance in the memory 37, and (23) the cross talk in which the movement direction of the eye position is stored in advance in the memory 37. Includes a signal indicating that the direction is approaching a region that can occur (or a region where the influence of crosstalk can increase).

メモリ37に記憶されたソフトウェア構成要素は、目位置検出モジュール502、目位置推定モジュール504、目位置予測モジュール506、目位置状態判定モジュール508、表示パラメータ設定モジュール510、グラフィックモジュール512、光源駆動モジュール514、及びアクチュエータ駆動モジュール516、を含む。 The software components stored in the memory 37 are the eye position detection module 502, the eye position estimation module 504, the eye position prediction module 506, the eye position state determination module 508, the display parameter setting module 510, the graphic module 512, and the light source drive module 514. , And the actuator drive module 516.

図9は、いくつかの実施形態に従って、観察者の目位置に基づき、グロー画像の表示態様を設定する動作を実行する方法S100を示すフロー図である。方法S100は、表示器40(光変調素子51)と、この表示器40(光変調素子51)を制御する表示制御装置30と、において実行される。方法S100内のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 9 is a flow chart showing a method S100 for performing an operation of setting a display mode of a glow image based on an observer's eye position according to some embodiments. The method S100 is executed by the display 40 (light modulation element 51) and the display control device 30 that controls the display 40 (light modulation element 51). Some actions in the method S100 are optionally combined, some steps are optionally modified, and some actions are optionally omitted.

以下で説明するように、方法S100は、特に、観察者の目位置が特定状態であるか否かの判定に基づき、グロー画像の表示態様を変化させる方法を提供する。 As will be described below, the method S100 provides a method of changing the display mode of the glow image, particularly based on the determination of whether or not the eye position of the observer is in a specific state.

図8の目位置検出モジュール502は、観察者の目位置700を検出する(S110)。目位置検出モジュール502は、観察者の目の横位置を示す座標(X軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の横方向の位置及び奥行方向の位置を示す座標(X及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さを示す座標(Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。 The eye position detection module 502 of FIG. 8 detects the eye position 700 of the observer (S110). The eye position detection module 502 detects coordinates indicating the lateral position of the observer's eyes (position in the X-axis direction, which is an example of a signal indicating the eye position 700), and the lateral direction of the observer's eyes. Detecting coordinates indicating the position and the position in the depth direction (positions in the X and Z axes, which is an example of a signal indicating the eye position 700), and coordinates indicating the height of the observer's eyes (Z). It is a position in the axial direction, which is an example of a signal indicating the eye position 700), and coordinates (positions in the Y and Z axes directions) indicating the height and depth of the observer's eyes. An example of a signal indicating the eye position 700, which is an example of a signal indicating the eye position 700, and / or coordinates indicating the observer's eye position 700 (positions in the X, Y, Z axis directions). Includes various software components for performing various actions related to detecting).

なお、目位置検出モジュール502が検出する目位置700は、右目と左目それぞれの位置700R,700L、右目位置700R及び左目位置700Lのうち予め定められたいずれか一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される位置(例えば、右目位置と左目位置との中点)、などを含む。例えば、目位置検出モジュール502は、目位置700を、表示設定を更新するタイミングの直前に目位置検出部409から取得した観測位置に基づき決定する。 The eye position 700 detected by the eye position detection module 502 is one of the predetermined positions 700R, 700L, right eye position 700R, and left eye position 700L, right eye position 700R, and left eye position, respectively. It includes one of the 700L positions that can be detected (easily detected), or a position calculated from the right eye position 700R and the left eye position 700L (for example, the midpoint between the right eye position and the left eye position). For example, the eye position detection module 502 determines the eye position 700 based on the observation position acquired from the eye position detection unit 409 immediately before the timing of updating the display setting.

また、目位置検出モジュール502は、目位置検出部409から取得する複数の観察者の目の観測位置に基づき、観察者の目位置700の移動方向、及び/又は移動速度を検出し、観察者の目位置700の移動方向、及び/又は移動速度を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection module 502 detects the movement direction and / or the movement speed of the observer's eye position 700 based on the observation positions of the eyes of a plurality of observers acquired from the eye position detection unit 409, and the observer. A signal indicating the moving direction and / or moving speed of the eye position 700 may be output to the processor 33.

目位置推定モジュール504は、目位置を推定可能な情報を取得する(S114)。目位置を推定可能な情報は、例えば、目位置検出部409から取得した撮像画像、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などである。目位置推定モジュール504は、目位置を推定可能な情報から、車両1の観察者の目位置700を推定する。目位置推定モジュール504は、目位置検出部409から取得した撮像画像、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などから、観察者の目位置700を推定すること、など観察者の目位置700を推定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール504は、目の位置を推定可能な情報から観察者の目位置700を推定するためのテーブルデータ、演算式、などを含み得る。 The eye position estimation module 504 acquires information capable of estimating the eye position (S114). Information that can estimate the eye position is, for example, an image captured from the eye position detection unit 409, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, or the eyes of a plurality of observers. Observation position, etc. The eye position estimation module 504 estimates the eye position 700 of the observer of the vehicle 1 from the information capable of estimating the eye position. The eye position estimation module 504 is based on an image captured from the eye position detection unit 409, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, the observation positions of the eyes of a plurality of observers, and the like. Includes various software components for performing various actions related to estimating the observer's eye position 700, such as estimating the observer's eye position 700. That is, the eye position estimation module 504 may include table data, an arithmetic expression, and the like for estimating the eye position 700 of the observer from the information that can estimate the eye position.

目位置推定モジュール504は、目位置700を、表示パラメータを更新するタイミングの直前に目位置検出部409から取得した目の観測位置と、1つ又は複数の過去に取得した目の観測位置とに基づき、例えば、加重平均などの手法により、算出してもよい。 The eye position estimation module 504 sets the eye position 700 into an eye observation position acquired from the eye position detection unit 409 immediately before the timing of updating the display parameter and one or more eye observation positions acquired in the past. Based on this, it may be calculated by, for example, a method such as a weighted average.

目位置予測モジュール506は、観察者の目位置700を予測可能な情報を取得する(S116)。観察者の目位置700を予測可能な情報は、例えば、目位置検出部409から取得した最新の観測位置、又は1つ又はそれ以上の過去に取得した観測位置などである。目位置予測モジュール506は、観察者の目位置700を予測可能な情報に基づいて、目位置700を予測することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的に、例えば、目位置予測モジュール506は、新たな表示設定が適用された画像が観察者に視認されるタイミングの、観察者の目位置700を予測する。目位置予測モジュール506は、例えば、最小二乗法や、カルマンフィルタ、α-βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。 The eye position prediction module 506 acquires information that can predict the eye position 700 of the observer (S116). The information that can predict the eye position 700 of the observer is, for example, the latest observation position acquired from the eye position detection unit 409, or one or more observation positions acquired in the past. The eye position prediction module 506 includes various software components for performing various actions related to predicting the eye position 700 based on predictable information on the observer's eye position 700. Specifically, for example, the eye position prediction module 506 predicts the eye position 700 of the observer at the timing when the image to which the new display setting is applied is visually recognized by the observer. The eye position prediction module 506 uses a prediction algorithm such as a least squares method, a Kalman filter, an α-β filter, or a particle filter to obtain the next value using one or more observation positions in the past. You may try to predict.

目位置状態判定モジュール508は、観察者の目位置700が特定状態であるか判定する(S130)。目位置状態判定モジュール508は、(S132)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内であるか否かを判定し、目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内である場合、特定状態であると判定すること、(S134)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内に入ると予測されるか否かを判定し、予測される場合、特定状態であると判定すること、(S136)観察者の目位置700が検出できるか否かを判定し、目位置700が検出できない場合、特定状態であると判定すること、など観察者の目位置700が特定状態であることに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置状態判定モジュール508は、目位置700の検出情報、推定情報、又は予測情報から特定状態であるか否かを判定するためのテーブルデータ、演算式、などを含み得る。 The eye position state determination module 508 determines whether the observer's eye position 700 is in a specific state (S130). The eye position state determination module 508 determines whether or not the observer's eye position 700 is within the region where crosstalk can occur (or the region where the influence of crosstalk can increase), and the eye position 700 determines. When it is within the region where crosstalk can occur (or the region where the influence of crosstalk can increase), it is determined that the state is specific, and (S134) the observer's eye position 700 can cause crosstalk (or the region). It is determined whether or not it is predicted to enter the region where the influence of crosstalk can increase), and if it is predicted, it is determined that it is in a specific state, and (S136) the observer's eye position 700 can be detected. Various actions for performing various actions related to the observer's eye position 700 being in a specific state, such as determining whether or not the eye position 700 is undetectable and determining that the eye position 700 is in a specific state. Includes software components. That is, the eye position state determination module 508 may include table data, an arithmetic expression, and the like for determining whether or not a specific state is obtained from the detection information, estimation information, or prediction information of the eye position 700.

(S132)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内にあるか否かの判定する方法は、(1)目位置検出部409から所定期間内において取得される観察者の目の観測位置の一部(例えば、所定の回数以上。)又は全部をクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内で取得すること、(2)目位置検出モジュール502が観察者の目位置700をクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内で検出すること、又はこれらの組み合わせにより、観察者の目位置700がアイボックス200外にある(観察者の目位置700が特定状態である)と判定すること、を含む(なお前記判定方法は、これらに限定されない。)。 (S132) The method of determining whether or not the observer's eye position 700 is within the region where crosstalk can occur (or the region where the influence of crosstalk can increase) is determined by (1) the eye position detection unit 409. Acquire some or all of the observer's eye observation positions acquired within the period (eg, more than a predetermined number of times) within the area where crosstalk can occur (or the area where the effect of crosstalk can increase). That, (2) the eye position detection module 502 detects the observer's eye position 700 within the region where crosstalk can occur (or the region where the influence of crosstalk can increase), or by a combination thereof, the observer. It includes determining that the eye position 700 of the eye box 200 is outside the eye box 200 (the eye position 700 of the observer is in a specific state) (note that the determination method is not limited thereto).

(S134)観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内に入ると予測されるか否かを判定する方法は、(1)目位置予測モジュール506が所定時間後の観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内に入るか予測すること、(2)目位置検出モジュール502が新たに検出した目位置700が、過去に検出した目位置700に対して、メモリ37に予め記憶された目位置移動距離閾値以上であること(目位置700の移動速度が、メモリ37に予め記憶された目位置移動速度閾値以上であること。)、又はこれらの組み合わせにより、観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)内に入ると予測できる(観察者の目位置700が特定状態である)と判定すること、を含む(なお前記判定方法は、これらに限定されない。)。 (S134) The method for determining whether or not the observer's eye position 700 is predicted to be within the region where crosstalk can occur (or the region where the influence of crosstalk can increase) is as follows: (1) Eye position prediction. The module 506 predicts whether the observer's eye position 700 after a predetermined time will be within the region where crosstalk can occur (or the region where the influence of crosstalk can increase), and (2) the eye position detection module 502 is newly added. The eye position 700 detected in the eye position 700 is equal to or larger than the eye position movement distance threshold previously stored in the memory 37 with respect to the previously detected eye position 700 (the movement speed of the eye position 700 is stored in the memory 37 in advance. It can be predicted that the eye position 700 of the observer will be within the region where crosstalk can occur (or the region where the influence of crosstalk can increase) due to the eye position movement speed threshold or higher) or a combination thereof. (The determination method is not limited to these.), Including, and determining that (the eye position 700 of the observer is in a specific state).

(S136)観察者の目位置700が検出できるか否かの判定する方法は、(1)目位置検出部409から所定期間内において取得される観察者の目の観測位置の一部(例えば、所定の回数以上。)又は全部が検出できないこと、(2)目位置検出モジュール502が、通常の動作において、観察者の目位置700を検出できないこと、(3)目位置推定モジュール504が、通常の動作において、観察者の目位置700を推定できないこと、(4)目位置予測モジュール506が、通常の動作において、観察者の目位置700を予測できないこと、又はこれらの組み合わせにより、観察者の目位置700が検出できない(観察者の目位置700が特定状態である)と判定すること、を含む(なお前記判定方法は、これらに限定されない。)。 (S136) The method of determining whether or not the observer's eye position 700 can be detected is as follows: (1) A part of the observer's eye observation position acquired from the eye position detection unit 409 within a predetermined period (for example,). (2) The eye position detection module 502 cannot detect the observer's eye position 700 in normal operation, and (3) the eye position estimation module 504 usually cannot detect the eye position 700 more than a predetermined number of times. The observer's eye position 700 cannot be estimated in the operation of (4) the eye position prediction module 506 cannot predict the observer's eye position 700 in the normal operation, or a combination of these causes the observer's eye position 700. It includes determining that the eye position 700 cannot be detected (the observer's eye position 700 is in a specific state) (note that the determination method is not limited thereto).

図10は、観察者の目位置700が所定の位置にある際の、自車両1の運転席のアイボックス200の左右方向(X軸)に配光される表示光の光強度を示す図である。観察者の目位置700が所定の位置にある際、図示するように、アイボックス200は、左右方向に隣接した4つの部分視域E10,E20,E30,及びE40に分類される。HUD装置20は、(E10)部分視域E10へ第1の視差を有する画像(例えば、第1の左視点画像)を表示する表示光K1を向け、(E20)部分視域E20には第1の視差と異なる第2の視差を有する画像(例えば、第1の右視点画像)を表示する表示光K2を向け、(E30)部分視域E30には、第1、第2の視差と異なる第3の視差を有する画像(例えば、第2の左視点画像)を表示する表示光K3を向け、そして、(E40)部分視域E40には、第1乃至第3の視差と異なる第4の視差を有する画像(例えば、第2の右視点画像)を表示する表示光K4は、第3の部分視域E103の左側に隣接する部分視域E104に向ける。隣接する部分視域E10、E20の境界付近の第1の領域EC1、隣接する部分視域E20、E30の境界付近の第2の領域EC2、そして、隣接する部分視域E30、E40の境界付近の第3の領域EC3は、隣接する部分視域Eに向けられた表示光Kの一部が向けられるため、クロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)といえる。なお、この部分視域の数や配置は、観察者の目位置700によって変化し得る。すなわち、目位置700が、クロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)である領域EC1、領域EC2、又は領域EC3に移動した場合でも、目位置700に応じた部分視域Eの配置とすることでクロストークが視認されにくくすることもできる。 FIG. 10 is a diagram showing the light intensity of the display light distributed in the left-right direction (X-axis) of the eye box 200 of the driver's seat of the own vehicle 1 when the observer's eye position 700 is in a predetermined position. be. When the observer's eye position 700 is in a predetermined position, as shown in the figure, the eyebox 200 is classified into four partial viewing areas E10, E20, E30, and E40 adjacent to each other in the left-right direction. The HUD device 20 directs the display light K1 for displaying an image having a first parallax (for example, a first left viewpoint image) to the (E10) partial parallax E10, and directs the display light K1 to the (E20) partial parallax E20. The display light K2 for displaying an image having a second parallax different from the parallax of (for example, the first right viewpoint image) is directed, and the (E30) partial parallax E30 has a second parallax different from the first and second parallax. A display light K3 for displaying an image having a parallax of 3 (for example, a second left viewpoint image) is directed, and a fourth parallax different from the first to third parallax is directed to the (E40) partial parallax E40. The display light K4 displaying the image (for example, the second right viewpoint image) is directed to the partial parallax E104 adjacent to the left side of the third partial parallax E103. A first region EC1 near the boundaries of adjacent partial visions E10 and E20, a second region EC2 near the boundaries of adjacent partial visions E20 and E30, and near the boundaries of adjacent partial visions E30 and E40. The third region EC3 can be said to be a region where crosstalk can occur (or a region where the influence of crosstalk can increase) because a part of the display light K directed to the adjacent partial viewing region E is directed. The number and arrangement of these partial viewing areas may change depending on the eye position 700 of the observer. That is, even when the eye position 700 moves to the area EC1, the area EC2, or the area EC3 which is the area where crosstalk can occur (or the area where the influence of crosstalk can increase), the partial view according to the eye position 700 By arranging the area E, it is possible to make it difficult for crosstalk to be visually recognized.

目位置状態判定モジュール508は、目位置検出部409から取得した撮像画像、目位置検出部409から取得した顔の座標、目位置検出部409から取得した目位置700の座標、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などから、観察者の目位置700がクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)に入っているか、近づいているか、入ると予測されるか、など目位置が特定状態あるか否か判定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置状態判定モジュール508は、目位置700からクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)であるか否かを判定するための、クロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)の座標データ、目位置700からクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)であるか否かを判定可能なテーブルデータ、演算式などを含み得る。なお、クロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)の座標データ、目位置700からクロストークを生じ得る領域(又はクロストークによる影響が増加し得る領域)であるか否かを判定可能なテーブルデータ、演算式などは、HUD装置20が自車両1に取り付けられた状態で、テスト表示を行い、これを測定することなどにより得られたテスト結果に基づき、キャリブレーションされて、メモリ37に書き込まれるものであってもよい。 The eye position state determination module 508 includes an image captured from the eye position detection unit 409, face coordinates acquired from the eye position detection unit 409, eye position 700 coordinates acquired from the eye position detection unit 409, and the driver's seat of the vehicle 1. The area where the observer's eye position 700 can cause crosstalk (or the effect of crosstalk increases) from the position of the observer, the position of the observer's face, the height of the sitting height, or the observation position of the eyes of multiple observers. Includes various software components to perform various actions related to determining whether the eye position is in a specific state, such as entering, approaching, or expected to enter. .. That is, the eye position state determination module 508 is a region where crosstalk can occur (or a region where the influence of crosstalk can increase) for determining whether or not the region is a region where crosstalk can occur from the eye position 700 (or a region where the influence of crosstalk can increase). Or coordinate data of the area where the influence of crosstalk can increase), table data which can determine whether or not the area can cause crosstalk from the eye position 700 (or the area where the influence of crosstalk can increase), calculation. It can include expressions and the like. It should be noted that the coordinate data of the region where crosstalk can occur (or the region where the influence of crosstalk can increase) and whether or not the region is a region where crosstalk can occur (or the region where the influence of crosstalk can increase) from the eye position 700. The table data, calculation formula, etc. that can determine whether or not the data is calibrated based on the test results obtained by displaying the test while the HUD device 20 is attached to the own vehicle 1 and measuring the test display. It may be written in the memory 37.

表示パラメータ設定モジュール510は、目位置検出モジュール502で検出した目位置700、目位置推定モジュール504で推測した目位置700、又は目位置予測モジュール506で予測した目位置700が、予め定められた複数の座標範囲のどこに属しているか判定し、目位置700に対応する表示パラメータを設定する。表示パラメータ設定モジュール510は、目位置700が示すX軸座標、Y軸座標、Z軸座標、又はこれらの組み合わせが、複数の空間的な領域のどこに属するのかを判定し、目位置700が属する空間的な領域に対応する表示パラメータを設定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール504は、目位置700が示すX軸座標、Y軸座標、Z軸座標、又はこれらの組み合わせから、表示パラメータを特定するためのテーブルデータ、演算式、などを含み得る。 The display parameter setting module 510 has a plurality of predetermined eye positions 700 detected by the eye position detection module 502, eye positions 700 estimated by the eye position estimation module 504, or eye positions 700 predicted by the eye position prediction module 506. It is determined where in the coordinate range of the eye position 700, and the display parameter corresponding to the eye position 700 is set. The display parameter setting module 510 determines where in a plurality of spatial regions the X-axis coordinate, the Y-axis coordinate, the Z-axis coordinate, or a combination thereof indicated by the eye position 700 belongs, and the space to which the eye position 700 belongs. Includes various software components for performing various operations related to setting display parameters corresponding to a specific area. That is, the eye position estimation module 504 may include table data, an arithmetic expression, and the like for specifying display parameters from the X-axis coordinates, Y-axis coordinates, Z-axis coordinates, or a combination thereof indicated by the eye position 700.

表示パラメータの種類は、(1)目位置700から見て、車両1の外側に位置する実オブジェクトと所定の位置関係になるような画像の配置(画像の配置を制御するために表示器40を制御するパラメータ、及び/又はアクチュエータを制御すパラメータ。)、(2)目位置700から見た虚像光学系90などにより生じ得る画像の歪みを軽減するために画像を事前に歪ませるためのパラメータ(表示器40上で表示される画像を事前に歪ませるために表示器40を制御するパラメータであり、ワーピングパラメータとも呼ばれる。)、(3)目位置700に、画像の光を向け、目位置700以外の表示パラメータには画像の光を向けない(又は光を弱くする)指向性表示をするためのパラメータ(表示器40を制御するパラメータ、表示器40の前記光源を制御するパラメータ、アクチュエータを制御するパラメータ、又はこれらの組み合わせを含むパラメータ。)、(4)目位置から見て、所望の立体画像を視認させるためのパラメータ(表示器40を制御するパラメータ、表示器40の前記光源を制御するパラメータ、アクチュエータを制御するパラメータ、又はこれらの組み合わせを含むパラメータ。)、などを含む。ただし、表示パラメータ設定モジュール510が設定(選択)する表示パラメータは、観察者の目位置700に応じて変更されることが好ましいパラメータであればよく、表示パラメータの種類は、これらに限定されない。 The types of display parameters are as follows: (1) Arrangement of images (display 40 for controlling the arrangement of images) so as to have a predetermined positional relationship with a real object located outside the vehicle 1 when viewed from the eye position 700. Parameters to control and / or parameters to control the actuator.), (2) Parameters for pre-distorting the image in order to reduce the distortion of the image that may occur due to the imaginary optical system 90 seen from the eye position 700, etc. (2) It is a parameter that controls the display 40 to distort the image displayed on the display 40 in advance, and is also called a warping parameter.), (3) The light of the image is directed to the eye position 700, and the eye position 700 is directed. Parameters for directional display (parameters for controlling the display 40, parameters for controlling the light source of the display 40, parameters for controlling the light source of the display 40, and controls for actuators) for directional display in which the light of the image is not directed (or weakened) to display parameters other than Parameters to be used, or parameters including a combination thereof), (4) Parameters for visually recognizing a desired stereoscopic image when viewed from the eye position (parameters for controlling the display 40, controlling the light source of the display 40). Includes parameters, parameters that control actuators, or parameters that include combinations thereof.). However, the display parameters set (selected) by the display parameter setting module 510 may be any parameters that are preferably changed according to the eye position 700 of the observer, and the types of display parameters are not limited thereto.

表示パラメータ設定モジュール510は、1種類の表示パラメータにつき、目位置700に対応する1つ又は複数の表示パラメータを選定する。目位置700が、例えば、右目位置700R、及び左目位置700Lのそれぞれを含む場合、表示パラメータ設定モジュール510は、右目位置700Rに対応する表示パラメータと、左目位置700Lに対応する表示パラメータと、の2つを選定し得る。一方、目位置700が、例えば、右目位置700R及び左目位置700Lのうち予め定められた一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される1つの位置(例えば、右目位置700Rと左目位置700Lとの中点)である場合、表示パラメータ設定モジュール510は、目位置700に対応する1つの表示パラメータを選定し得る。なお、表示パラメータ設定モジュール510は、目位置700に対応する表示パラメータと、当該目位置700の周囲に設定される表示パラメータも選定し得る。すなわち、表示パラメータ設定モジュール510は、目位置700に対応する3つ以上の表示パラメータを選定し得る。 The display parameter setting module 510 selects one or a plurality of display parameters corresponding to the eye position 700 for one type of display parameter. When the eye position 700 includes, for example, the right eye position 700R and the left eye position 700L, the display parameter setting module 510 has two display parameters, that is, the display parameter corresponding to the right eye position 700R and the display parameter corresponding to the left eye position 700L. You can choose one. On the other hand, the eye position 700 is, for example, one of the predetermined positions of the right eye position 700R and the left eye position 700L, and one of the right eye position 700R and the left eye position 700L that can be detected (easily detected), or. When there is one position calculated from the right eye position 700R and the left eye position 700L (for example, the midpoint between the right eye position 700R and the left eye position 700L), the display parameter setting module 510 has one display corresponding to the eye position 700. Parameters can be selected. The display parameter setting module 510 can also select display parameters corresponding to the eye position 700 and display parameters set around the eye position 700. That is, the display parameter setting module 510 may select three or more display parameters corresponding to the eye position 700.

本実施形態の表示パラメータ設定モジュール510は、目位置状態判定モジュール508により特定状態ではないと判定された場合、グロー画像の表示パラメータを第1の表示態様に設定し、特定状態であると判定された場合、グロー画像の表示パラメータを第2の表示態様に設定する(S150)。 When the display parameter setting module 510 of the present embodiment is determined by the eye position state determination module 508 that it is not in a specific state, the display parameter of the glow image is set in the first display mode, and it is determined that the display parameter setting module 510 is in a specific state. If so, the display parameter of the glow image is set to the second display mode (S150).

いくつかの実施形態の表示パラメータ設定モジュール510は、S130での判定結果に基づき、グロー画像Gの彩度を維持しつつ、大きさを変化させてもよい。表示パラメータ設定モジュール510は、S130で特定状態ではないと判定された場合、第2の表示態様と比較して、グロー画像Gの大きさを維持しつつ、彩度を低下させ(第1の表示態様の一例。図7A上図参照。)、S130で特定状態であると判定された場合、第1の表示態様と比較して、グロー画像Gの大きさを維持しつつ、彩度を上昇させる(第2の表示態様の一例。図7A下図参照。)。 The display parameter setting module 510 of some embodiments may change the size while maintaining the saturation of the glow image G based on the determination result in S130. When it is determined in S130 that the display parameter setting module 510 is not in a specific state, the display parameter setting module 510 reduces the saturation while maintaining the size of the glow image G as compared with the second display mode (first display). An example of the embodiment. When it is determined in S130 that the specific state is determined in FIG. 7A, the saturation is increased while maintaining the size of the glow image G as compared with the first display embodiment. (An example of the second display mode. See the figure below in FIG. 7A).

また、いくつかの実施形態の表示パラメータ設定モジュール510は、S130での判定結果に基づき、グロー画像Gの彩度を維持しつつ、大きさを変化させてもよい。表示パラメータ設定モジュール510は、S130で特定状態ではないと判定された場合、第2の表示態様と比較して、グロー画像Gの彩度を維持しつつ、サイズを小さくし(第1の表示態様の一例。図7B上図参照。)、S130で特定状態であると判定された場合、第1の表示態様と比較して、グロー画像Gの彩度を維持しつつ、サイズを大きくする(第2の表示態様の一例。図7B下図参照。)。 Further, the display parameter setting module 510 of some embodiments may change the size while maintaining the saturation of the glow image G based on the determination result in S130. When it is determined in S130 that the display parameter setting module 510 is not in a specific state, the display parameter setting module 510 is reduced in size while maintaining the saturation of the glow image G as compared with the second display mode (first display mode). An example. When it is determined in S130 that the specific state is determined in FIG. 7B (see the upper figure in FIG. 7B), the size is increased while maintaining the saturation of the glow image G as compared with the first display mode (No. 1). An example of the display mode of 2. FIG. 7B, see the figure below).

また、いくつかの実施形態の表示パラメータ設定モジュール510は、S130での判定結果に基づき、グロー画像Gの彩度とサイズの双方を変化させてもよい。表示パラメータ設定モジュール510は、S130で特定状態ではないと判定された場合、第2の表示態様と比較して、グロー画像Gの彩度を低くしつつ、サイズを小さくし(第1の表示態様の一例。図7A上図と図7B上図を参照。)、S130で特定状態であると判定された場合、第1の表示態様と比較して、グロー画像Gの彩度を高くしつつ、サイズを大きくする(第2の表示態様の一例。図7A上図と図7B下図を参照。)。 Further, the display parameter setting module 510 of some embodiments may change both the saturation and the size of the glow image G based on the determination result in S130. When it is determined in S130 that the display parameter setting module 510 is not in a specific state, the display parameter setting module 510 reduces the size of the glow image G while reducing the saturation as compared with the second display mode (first display mode). An example. Refer to the upper figure of FIG. 7A and the upper figure of FIG. 7B.) When the specific state is determined in S130, the saturation of the glow image G is increased as compared with the first display mode, while increasing the saturation. Increase the size (an example of the second display mode. See the upper figure of FIG. 7A and the lower figure of FIG. 7B).

また、いくつかの実施形態の表示パラメータ設定モジュール510は、S130での判定結果に基づき、グロー画像Gの表示/非表示を切り替えてもよい。表示パラメータ設定モジュール510は、S130で特定状態ではないと判定された場合、グロー画像Gを非表示にし(第1の表示態様の一例。)、S130で特定状態であると判定された場合、グロー画像Gを表示する(第2の表示態様の一例。)。 Further, the display parameter setting module 510 of some embodiments may switch the display / non-display of the glow image G based on the determination result in S130. The display parameter setting module 510 hides the glow image G when it is determined in S130 that it is not in a specific state (an example of the first display mode), and when it is determined in S130 that it is in a specific state, the glow image G is glowed. Image G is displayed (an example of the second display mode).

なお、いくつかの実施形態では、目位置状態判定モジュール508は、特定状態と判定する条件に、車両1の挙動(振動)が少ないことを示す信号が検出されること、を少なくとも含むようにしてもよい。例えば、表示パラメータ設定モジュール510は、車両1の挙動(振動)が大きい場合、特定状態と判定しないようにしてもよい。 In some embodiments, the eye position state determination module 508 may include, at least, that a signal indicating that the behavior (vibration) of the vehicle 1 is small is detected as a condition for determining the specific state. .. For example, the display parameter setting module 510 may not determine the specific state when the behavior (vibration) of the vehicle 1 is large.

再び図8を参照する。グラフィックモジュール512は、レンダリングなどの画像処理をして画像データを生成し、表示器40を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール512は、表示される画像の、種類、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール512は、画像の種類(表示パラメータの例の1つ。)、画像の位置座標(表示パラメータの例の1つ。)、画像の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角などであり、表示パラメータの例の1つ。)、画像のサイズ(表示パラメータの例の1つ。)、画像の色(色相、彩度、明度などで設定される表示パラメータの例の1つ。)で観察者に視認されるように画像データを生成し、光変調素子51を駆動し得る。 See FIG. 8 again. The graphic module 512 includes various known software components for performing image processing such as rendering to generate image data and driving the display 40. The graphic module 512 also provides a type, arrangement (positional coordinates, angle), size, display distance (in the case of 3D), visual effect (eg, brightness, transparency, saturation, contrast, or) of the displayed image. Other visual characteristics), may include various known software components for modification. The graphic module 512 determines the type of image (one of the examples of display parameters), the position coordinates of the image (one of the examples of display parameters), the angle of the image (the pitching angle about the X direction, and the Y direction). The yaw rate angle as an axis, the rolling angle as an axis in the Z direction, etc., which are one of the examples of display parameters), the size of the image (one of the examples of display parameters), and the color of the image (hue, saturation). , One of the examples of display parameters set by brightness and the like.), Image data can be generated so as to be visually recognized by the observer, and the optical modulation element 51 can be driven.

光源駆動モジュール514は、光源ユニット24を駆動することを実行するための様々な既知のソフトウェア構成要素を含む。光源駆動モジュール514は、設定された表示パラメータに基づき、光源ユニット24を駆動し得る。 The light source drive module 514 includes various known software components for performing driving of the light source unit 24. The light source drive module 514 can drive the light source unit 24 based on the set display parameters.

アクチュエータ駆動モジュール516は、第1アクチュエータ28及び/又は第2アクチュエータ29を駆動することを実行するための様々な既知のソフトウェア構成要素を含むアクチュエータ駆動モジュール516は、設定された表示パラメータに基づき、第1アクチュエータ28及び第2アクチュエータ29を駆動し得る。 The actuator drive module 516 includes various known software components for performing driving the first actuator 28 and / or the second actuator 29. The actuator drive module 516 is based on set display parameters. 1 Actuator 28 and 2nd actuator 29 may be driven.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operation of the above-mentioned processing process can be carried out by executing one or more functional modules of an information processing apparatus such as a general-purpose processor or a chip for a specific application. All of these modules, combinations of these modules, and / or combinations with known hardware capable of substituting their functions are within the scope of the protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図3で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicle display system 10 are optionally performed by hardware, software, or a combination of hardware and software to implement the principles of the various embodiments described. The functional blocks described in FIG. 3 may be optionally combined or one functional block separated into two or more subblocks in order to implement the principles of the embodiments described. It will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of functional blocks described herein.


1 :自車両
2 :被投影部
5 :ダッシュボード
6 :路面
10 :車両用表示システム
20 :HUD装置(ヘッドアップディスプレイ装置)
21 :光出射窓
22 :筐体
24 :光源ユニット
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
40 :表示器(立体表示装置)
50 :表示器
51 :光変調素子
52 :光学レイヤ
60 :光源ユニット
80 :リレー光学系
90 :虚像光学系
200 :アイボックス
205 :中心
700 :目位置
700L :左目
700L :左目位置
700R :右目位置
D10 :結像距離
D30 :知覚距離
D31 :第1の知覚距離
D32 :第2の知覚距離
E :部分視域
E10 :部分視域
E20 :部分視域
E30 :部分視域
E40 :部分視域
EC1 :第1の領域(クロストーク領域)
EC2 :第2の領域
EC3 :第3の領域
FU :知覚虚像
FU :コンテンツ画像(知覚虚像)
FU1 :第1のコンテンツ画像
FU2 :第2のコンテンツ画像
G :グロー画像
G1 :第1のグロー画像
G2 :第2のグロー画像
GA :低視認性部
K :表示光
K10 :左目用表示光
K20 :右目用表示光
V10 :左視点画像
V11 :第1の左視点コンテンツ
V12 :第2の左視点コンテンツ
V16 :第1の左視点グロー画像
V17 :第2の左視点グロー画像
V20 :右視点画像
V21 :第1の右視点コンテンツ
V22 :第2の右視点コンテンツ
V26 :第1の右視点グロー画像
V27 :第2の右視点グロー画像
VS :虚像表示領域
θc :輻輳角
θc1 :第1の輻輳角
θc2 :第2の輻輳角

1: Own vehicle 2: Projected part 5: Dashboard 6: Road surface 10: Vehicle display system 20: HUD device (head-up display device)
21: Light emission window 22: Housing 24: Light source unit 30: Display control device 31: I / O interface 33: Processor 35: Image processing circuit 37: Memory 40: Display (stereoscopic display device)
50: Display 51: Light modulation element 52: Optical layer 60: Light source unit 80: Relay optical system 90: Virtual image optical system 200: Eyebox 205: Center 700: Eye position 700L: Left eye 700L: Left eye position 700R: Right eye position D10 : Imaging distance D30: Perceived distance D31: First perceived distance D32: Second perceived distance E: Partial visual range E10: Partial visual range E20: Partial visual range E30: Partial visual range E40: Partial visual range EC1: First Area 1 (cross talk area)
EC2: Second region EC3: Third region FU: Perceptual virtual image FU: Content image (perceptual virtual image)
FU1: First content image FU2: Second content image G: Glow image G1: First glow image G2: Second glow image GA: Low visibility unit K: Display light K10: Left eye display light K20: Display light for right eye V10: Left viewpoint image V11: First left viewpoint content V12: Second left viewpoint content V16: First left viewpoint glow image V17: Second left viewpoint glow image V20: Right viewpoint image V21: First right viewpoint content V22: Second right viewpoint content V26: First right viewpoint glow image V27: Second right viewpoint glow image VS: Virtual image display area θc: Congestion angle θc1: First convergence angle θc2: Second convergence angle

Claims (12)

画像を被投影部材に投影することで、観察者に前記画像の虚像を視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置(30)であって、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記プロセッサ(33)は、
前記観察者の左右の各目に、視差を有する左視点画像(V10)及び右視点画像(V20)を視認させることで、奥行き表現を付加したコンテンツ画像(FU)として表示する3D表示処理と、
前記コンテンツ画像(FU)の左右方向に表示され、はっきりとした輪郭を有さない1つ又は複数のグロー画像(G)を表示するグロー表示処理と、を実行する、
表示制御装置(30)。
A display control device (30) that executes display control in a head-up display device that allows an observer to visually recognize a virtual image of the image by projecting an image onto a projected member.
With one or more processors (33),
Memory (37) and
It comprises one or more computer programs stored in the memory (37) and configured to be executed by the one or more processors (33).
The processor (33)
A 3D display process of displaying a content image (FU) with a depth expression by visually recognizing a left viewpoint image (V10) and a right viewpoint image (V20) having parallax to the left and right eyes of the observer.
A glow display process for displaying one or more glow images (G) that are displayed in the left-right direction of the content image (FU) and do not have a clear outline is executed.
Display control device (30).
前記プロセッサ(33)は、
前記グロー画像(G)の色を、前記コンテンツ画像(FU)の色に対して、同系色であり、且つ、彩度を低く設定する、
請求項1に記載の表示制御装置(30)。
The processor (33)
The color of the glow image (G) is set to be similar in color to the color of the content image (FU) and the saturation is set low.
The display control device (30) according to claim 1.
前記3D表示処理は、
横方向に第1の長さ(αf1)を有し、観察者から第1の距離(D31)だけ離れた位置に視認される第1のコンテンツ画像(FU1)を表示させる処理、及び、
横方向に前記第1の長さ(αf1)より短い第2の長さ(αf2)を有し、前記第1の距離(D31)より長い第2の距離(32)だけ離れた位置に視認される第2のコンテンツ画像(FU2)と、を表示させる処理、を含み、
前記グロー表示処理は、
左端と右端との間に第3の長さ(αg1)を有し、前記第1のコンテンツ画像(FU1)の左右方向に表示される第1のグロー画像(G1)を表示させる処理、
左端と右端との間に第4の長さ(αg2)を有し、前記第2のコンテンツ画像(FU2)の左右方向に表示される第2のグロー画像(G2)を表示させる処理、及び、
前記第2の長さ(αf2)に対する前記第4の長さαg2の比率が、前記第1の長さ(αf1)に対する前記第3の長さ(αg1)の比率より大きくなる(αg2/αf2>αg1/αf1)ように、前記グロー画像(G)の左端と右端との間の長さを設定する処理、を含む、
請求項1に記載の表示制御装置(30)。
The 3D display process is
A process of displaying a first content image (FU1) having a first length (αf1) in the lateral direction and being visually recognized at a position separated by a first distance (D31) from the observer, and
It has a second length (αf2) shorter than the first length (αf1) in the lateral direction, and is visually recognized at a position separated by a second distance (32) longer than the first distance (D31). The second content image (FU2) and the process of displaying the second content image (FU2) are included.
The glow display process is
A process of displaying a first glow image (G1) having a third length (αg1) between the left end and the right end and displayed in the left-right direction of the first content image (FU1).
A process of displaying a second glow image (G2) having a fourth length (αg2) between the left end and the right end and displayed in the left-right direction of the second content image (FU2), and
The ratio of the fourth length αg2 to the second length (αf2) is larger than the ratio of the third length (αg1) to the first length (αf1) (αg2 / αf2>. αg1 / αf1) includes a process of setting the length between the left end and the right end of the glow image (G).
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記グロー画像(G)を、連結された1つの前記コンテンツ画像(FU)を囲む1画像として表示する、
請求項1に記載の表示制御装置(30)。
The processor (33)
The glow image (G) is displayed as one image surrounding one connected content image (FU).
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記グロー画像(G)を、クロストークで視認される非正規のコンテンツ画像の領域を、切り欠く又は、彩度を低くした低視認性部GAを含むように表示する、
請求項1に記載の表示制御装置(30)。
The processor (33)
The glow image (G) is displayed so as to include a low-visibility portion GA in which a region of a non-regular content image visually recognized by crosstalk is cut out or desaturated.
The display control device (30) according to claim 1.
前記観察者の目又は頭部の位置を示す情報、又は前記目又は頭部の位置を推定可能な情報を取得し、前記目又は頭部が特定の状態であるか否かの判定処理、及び、
前記目又は頭部の位置が特定状態ではないと判定された場合、前記グロー画像(G)を第1の表示態様で表示させ、前記目又は頭部の位置が特定状態であると判定された場合、前記グロー画像(G)を第2の表示態様で表示させる、表示切り替え処理、をさらに実行し、
前記第1の表示態様は、前記第2の表示態様と比較してサイズを小さくすること、彩度を低くすること、サイズを小さくしつつ彩度を低くすること、又は非表示にすること、を含む、
請求項1に記載の表示制御装置(30)。
Information indicating the position of the observer's eyes or head, or information capable of estimating the position of the eyes or head is acquired, and a process of determining whether or not the eyes or head is in a specific state, and ,
When it was determined that the position of the eyes or the head was not in the specific state, the glow image (G) was displayed in the first display mode, and it was determined that the position of the eyes or the head was in the specific state. In this case, the display switching process of displaying the glow image (G) in the second display mode is further executed.
The first display mode is to reduce the size, reduce the saturation, reduce the size while reducing the saturation, or hide the color as compared with the second display mode. including,
The display control device (30) according to claim 1.
前記メモリ(37)は、クロストークが生じる領域、又はクロストークの影響が所定値より大きい領域を、クロストーク領域(EC)として記憶し、
前記特定の状態は、前記目又は頭部の位置が前記クロストーク領域(EC)内で検出されること及び/又は、前記目又は頭部の位置が前記クロストーク領域(EC)内に入ると予測されること、を含む、
請求項6に記載の表示制御装置(30)。
The memory (37) stores an area where crosstalk occurs or an area where the influence of crosstalk is larger than a predetermined value as a crosstalk area (EC).
The particular condition is when the position of the eye or head is detected within the crosstalk region (EC) and / or when the position of the eye or head is within the crosstalk region (EC). Including what is expected
The display control device (30) according to claim 6.
前記判定処理は、前記目又は頭部の移動速度が所定の値以上である場合、前記目又は頭部の位置が前記クロストーク領域(EC)内に入ると予測する、
請求項7に記載の表示制御装置(30)。
The determination process predicts that the position of the eye or head falls within the crosstalk region (EC) when the moving speed of the eye or head is equal to or higher than a predetermined value.
The display control device (30) according to claim 7.
前記グロー表示処理は、
前記グロー画像(G)を、前記左視点画像(V10)及び右視点画像(V20)のそれぞれ左右方向に付加すること、を含む、
請求項1に記載の表示制御装置(30)。
The glow display process is
The glow image (G) is added to the left viewpoint image (V10) and the right viewpoint image (V20) in the left-right direction, respectively.
The display control device (30) according to claim 1.
前記判定処理は、前記観察者の左目及び/又は右目が前記特定状態にあるか判定する処理を含み、
前記表示切り替え処理は、
前記左目のみが前記特定状態であると判定される場合、前記左視点画像(V10)の左右方向に付加する前記グロー画像を前記第2の表示態様に設定し、前記右視点画像(V20)の左右方向に付加する前記グロー画像を第1の表示態様に設定すること、
前記右目のみが前記特定状態であると判定される場合、前記左視点画像(V10)の左右方向に付加する前記グロー画像を前記第1の表示態様に設定し、前記右視点画像(V20)の左右方向に付加する前記グロー画像を第2の表示態様に設定すること、を含む、
請求項7に記載の表示制御装置(30)。
The determination process includes a process of determining whether the observer's left eye and / or right eye is in the specific state.
The display switching process is
When it is determined that only the left eye is in the specific state, the glow image added in the left-right direction of the left viewpoint image (V10) is set in the second display mode, and the right viewpoint image (V20) is used. Setting the glow image to be added in the left-right direction in the first display mode,
When it is determined that only the right eye is in the specific state, the glow image added in the left-right direction of the left viewpoint image (V10) is set in the first display mode, and the right viewpoint image (V20) is used. Including setting the glow image to be added in the left-right direction in the second display mode.
The display control device (30) according to claim 7.
請求項1乃至10のいずれかに記載の表示制御装置(30)と、
表示光を出射する光変調素子(50)と、
前記光変調素子(50)からの前記表示光を被投影部にむけるリレー光学系(80)と、を備える、ヘッドアップディスプレイ装置(20)。
The display control device (30) according to any one of claims 1 to 10.
A light modulation element (50) that emits display light and
A head-up display device (20) including a relay optical system (80) that directs the display light from the light modulation element (50) to a projected portion.
画像の表示制御方法であって、
前記観察者の左右の各目に、視差を有する左視点画像(V10)及び右視点画像(V20)を視認させることで、奥行き表現を付加したコンテンツ画像(FU)として表示する3D表示処理と、
前記コンテンツ画像(FU)の左右方向に表示され、はっきりとした輪郭を有さない1つ又は複数のグロー画像(G)を表示するグロー表示処理と、を実行する、
表示制御方法。


It is an image display control method.
A 3D display process of displaying a content image (FU) with a depth expression by visually recognizing a left viewpoint image (V10) and a right viewpoint image (V20) having parallax to the left and right eyes of the observer.
A glow display process for displaying one or more glow images (G) that are displayed in the left-right direction of the content image (FU) and do not have a clear outline is executed.
Display control method.


JP2020182672A 2020-10-30 2020-10-30 Display control device, head-up display device, and display control method Pending JP2022072954A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020182672A JP2022072954A (en) 2020-10-30 2020-10-30 Display control device, head-up display device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182672A JP2022072954A (en) 2020-10-30 2020-10-30 Display control device, head-up display device, and display control method

Publications (1)

Publication Number Publication Date
JP2022072954A true JP2022072954A (en) 2022-05-17

Family

ID=81604039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020182672A Pending JP2022072954A (en) 2020-10-30 2020-10-30 Display control device, head-up display device, and display control method

Country Status (1)

Country Link
JP (1) JP2022072954A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032956A1 (en) * 2021-08-31 2023-03-09 日本精機株式会社 Display control device, head-up display device, and display control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032956A1 (en) * 2021-08-31 2023-03-09 日本精機株式会社 Display control device, head-up display device, and display control method

Similar Documents

Publication Publication Date Title
JP6608146B2 (en) Virtually transparent instrument cluster with live video
EP3444139B1 (en) Image processing method and image processing device
EP3888965B1 (en) Head-up display, vehicle display system, and vehicle display method
KR20190052374A (en) Device and method to visualize content
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP7459883B2 (en) Display control device, head-up display device, and method
US20210347259A1 (en) Vehicle display system and vehicle
WO2023048213A1 (en) Display control device, head-up display device, and display control method
JP2022072954A (en) Display control device, head-up display device, and display control method
WO2022230995A1 (en) Display control device, head-up display device, and display control method
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
JP2022104225A (en) Display control device, head-up display apparatus and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
KR20180046567A (en) Apparatus and method for controlling head up display (hud) device in vehicle
JP7284053B2 (en) HEAD-UP DISPLAY, HEAD-UP DISPLAY SYSTEM, MOVING OBJECT AND HEAD-UP DISPLAY DESIGN METHOD
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2021056358A (en) Head-up display device
JP2020121704A (en) Display control device, head-up display device, method and computer program
JP2020121607A (en) Display control device, method and computer program
JP2023034899A (en) Display control device, head-up display device, and display control method
WO2021065700A1 (en) Display control device, head-up display device, and method
JP2022077138A (en) Display controller, head-up display device, and display control method
JP2023065856A (en) Display control device, head-up display device, and display control method
JP2022190724A (en) Display control device, head-up display device and display control method
JP2023093913A (en) Display control device, head-up display device, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240416