JP2023034899A - Display control device, head-up display device, and display control method - Google Patents

Display control device, head-up display device, and display control method Download PDF

Info

Publication number
JP2023034899A
JP2023034899A JP2021141367A JP2021141367A JP2023034899A JP 2023034899 A JP2023034899 A JP 2023034899A JP 2021141367 A JP2021141367 A JP 2021141367A JP 2021141367 A JP2021141367 A JP 2021141367A JP 2023034899 A JP2023034899 A JP 2023034899A
Authority
JP
Japan
Prior art keywords
depth
image
display
representation
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021141367A
Other languages
Japanese (ja)
Inventor
貴也 新保
Takaya Shimbo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2021141367A priority Critical patent/JP2023034899A/en
Publication of JP2023034899A publication Critical patent/JP2023034899A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To display an image which easily recognizes information while reducing visual fatigue and/or discomfort.SOLUTION: Disclosed is a processor 33 which is provided on a vehicle and performs the display control on a head-up display device which allows an observer to visually recognize a virtual image of an image by projecting the image onto a member to be projected, which generates the image FU expressing a depth feeling by giving parallax to both eyes of the observer, and which performs a first display processing in which the expression depth E of the image FU is brought loser to a virtual image distance D10 when a predetermined first condition is satisfied, including the lapse of a first predetermined time ΔT1 after at least the image FU is displayed.SELECTED DRAWING: Figure 5

Description

本開示は、車両等の移動体で使用され、移動体の前景(車両の乗員から見た移動体の前進方向の実景)に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等に関する。 The present disclosure relates to a display control device, a head-up display device, and a head-up display device that are used in a mobile object such as a vehicle and superimpose an image on the foreground of the mobile object (actual view in the forward direction of the mobile object seen from the vehicle occupant). It relates to a display control method and the like.

特許文献1には、車両のフロントウインドシールド等の被投影部に投射される表示光が、車両の内側にいる車両の乗員(観察者)に向けて反射されることで、観察者に虚像を視認させるヘッドアップディスプレイ装置(虚像表示装置の一例)が記載されている。特に、特許文献1に記載のヘッドアップディスプレイ装置は、虚像の表現深度(観察者が知覚する虚像までの距離)を変化させることで、車両の速度の状況を認識させるヘッドアップディスプレイ装置が記載されている。画像(虚像)は、観察者から見て近傍側に移動したり、遠方側に移動したりすることで、観察者の視覚的注意をひくことができたり、表示する画像に距離的な情報を付加することができたりする。このように表現深度を変化させるヘッドアップディスプレイ装置は、内部に、立体表示装置を設けている。 In Patent Document 1, display light projected onto a projection target such as a front windshield of a vehicle is reflected toward an occupant (observer) of the vehicle inside the vehicle, thereby presenting a virtual image to the observer. A visual head-up display device (an example of a virtual image display device) is described. In particular, the head-up display device described in Patent Document 1 describes a head-up display device that allows the vehicle speed situation to be recognized by changing the expression depth of the virtual image (the distance to the virtual image perceived by the observer). ing. The image (virtual image) can attract the visual attention of the observer by moving to the near side or the far side from the observer's point of view, or can add distance information to the displayed image. It can be added. A head-up display device that changes the depth of expression in this way has a stereoscopic display device inside.

立体表示装置は、例えば、レンズアレイなどを用いる方法(レンチキュラ方式、例えば特許文献2参照。)、パララックスバリアを用いる方法(パララックスバリア方式、例えば特許文献3を参照。)、又は、視差画像時分割表示方式(例えば、特許文献4,5、及び6を参照。)などがある。 For example, a stereoscopic display device uses a method using a lens array (lenticular method, see Patent Document 2, for example), a method using a parallax barrier (parallax barrier method, see Patent Document 3, for example), or a method using parallax images. There is a time-division display method (see Patent Documents 4, 5, and 6, for example).

ヘッドアップディスプレイ装置では、左目の位置に左視点画像の表示光を、右目の位置に右視点画像の表示光を照射することで、視差のある左視点画像及び右視点画像を観察者に視認させる。これらの画像の融合により観察者の脳内で知覚される画像は、あたかも左視点画像(虚像)と右視点画像(虚像)が実際に形成されるディスプレイ距離とは異なる距離で表示されているかのように知覚されるものである。 In the head-up display device, the display light of the left viewpoint image is irradiated to the position of the left eye, and the display light of the right viewpoint image is irradiated to the position of the right eye, so that the left viewpoint image and the right viewpoint image with parallax are visually recognized by the observer. . The images perceived in the observer's brain by fusing these images appear as if they were displayed at a distance different from the display distance at which the left-viewpoint image (virtual image) and the right-viewpoint image (virtual image) are actually formed. It is perceived as

特開2019-127065号公報JP 2019-127065 A 特開2006-115198号公報JP 2006-115198 A 特開2014-150304号公報JP 2014-150304 A 特開2011-107382号公報JP 2011-107382 A 特開2000-236561号公報JP-A-2000-236561 特開2000-4452号公報JP-A-2000-4452

仮想オブジェクトの両眼視差による表現深度が、虚像結像面の手前や奥である場合、観察者の眼は虚像結像面の距離に水晶体のピントを合わせようとする。一方、両眼の輻輳は、虚像結像面の手前又は奥の表現深度にする。すなわち、観察者の眼の調節の距離(虚像結像面に対応する距離)と、輻輳の距離(仮想オブジェクトの表現深度の距離)とが異なる輻輳調節矛盾が生じ、この輻輳調節矛盾により視覚疲労や不快感を生じる。 When the representation depth of the virtual object due to the binocular parallax is in front of or behind the virtual image plane, the observer's eyes try to focus the lens on the distance of the virtual image plane. On the other hand, the convergence of both eyes is set to the expression depth in front of or behind the virtual image plane. That is, the distance of accommodation of the observer's eye (the distance corresponding to the virtual image plane) and the distance of convergence (the distance of the depth of representation of the virtual object) are different. or discomfort.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様との組み合わせを包含し得る。 A summary of certain embodiments disclosed herein follows. It should be understood that these aspects are presented only to provide the reader with an overview of these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure can encompass combinations of various aspects not described below.

本開示の概要は、見やすく、情報を認識しやすい視認性の高い画像を表示する表示制御装置、ヘッドアップディスプレイ装置、及び表示制御応報等を提供することに関する。より具体的には、視覚疲労及び/又は不快感を軽減しつつ、情報を認識しやすい画像を表示する、ことにも関する。 An overview of the present disclosure relates to providing a display control device, a head-up display device, a display control response, and the like that display an image with high visibility that is easy to see and that information is easy to recognize. More specifically, it also relates to displaying an image that facilitates recognition of information while reducing visual fatigue and/or discomfort.

したがって、本明細書に記載される表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等は、前記課題を解決するため、以下の手段を採用した。本実施形態は、観察者の両眼に視差を与えることで、奥行き感が表現される画像(虚像)を表示し、画像が表示されてから第1の所定時間が経過したことを含む所定の第1の条件が満たされた場合、画像の表現深度を虚像距離に近づける第1表示処理、を実行する、ことをその要旨とする。 Therefore, the display control device, the head-up display device, the display control method, and the like described in this specification employ the following means in order to solve the above problems. This embodiment displays an image (virtual image) that expresses a sense of depth by giving parallax to both eyes of the observer, and displays a predetermined time including the elapse of a first predetermined time after the image is displayed. The gist of this is to execute a first display process for bringing the expression depth of the image closer to the virtual image distance when the first condition is satisfied.

したがって、本発明の第1の実施形態の表示制御装置は、車両に設けられ、画像を被投影部材に投影することで、観察者に画像の虚像を視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置であって、1つ又は複数のプロセッサと、メモリと、メモリに格納され、1つ又は複数のプロセッサによって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、プロセッサは、観察者の両眼に視差を与えることで、奥行き感が表現される画像を生成し、少なくとも画像が表示されてから第1の所定時間が経過したことを含む所定の第1の条件が満たされた場合、画像の表現深度を虚像距離に近づける第1表示処理、を実行するようになっている。この場合、まず、画像の表現深度は、画像に与えられる視差により、画像(虚像)が表示される(結像される)位置(虚像距離)の手前及び/又は奥に設定され、その後、第1の所定時間が経過したことを含む所定の第1の条件が満たされた場合、虚像距離に近づける。これにより、本発明の第1の実施形態は、表現深度が長い画像を所定時間より長く視認させにくくするという利点を有している。 Therefore, the display control device according to the first embodiment of the present invention executes display control in a head-up display device that is provided in a vehicle and projects an image onto a projection target member so that an observer can visually recognize a virtual image of the image. a display controller comprising one or more processors, a memory, and one or more computer programs stored in the memory and configured to be executed by the one or more processors The processor generates an image that expresses a sense of depth by giving parallax to both eyes of the observer, and generates an image that expresses a sense of depth. is satisfied, a first display process is executed to bring the expression depth of the image closer to the virtual image distance. In this case, first, the representation depth of the image is set to the front and/or the back of the position (virtual image distance) where the image (virtual image) is displayed (imaged) due to the parallax given to the image. If a predetermined first condition including that one predetermined period of time has passed, the virtual image distance is approached. As a result, the first embodiment of the present invention has the advantage of making it difficult to view an image with a long depth of expression for longer than a predetermined time.

好ましい一実施形態における表示制御装置では、プロセッサは、第1表示処理において、第1の表現深度から第2の表現深度まで時間経過に伴い、段階的又は連続的に変化させ、第2の表現深度に到達した後、画像の表現深度を維持し、第2の表現深度は、虚像距離と等しい深さである。この場合、少なくとも一定の時間、立体視を維持しつつ、輻輳調節矛盾を軽減することができ、最終的に輻輳調整矛盾をなくすことができるという利点を有している。また、好ましい一実施形態における表示制御装置では、第2の表現深度は、第1の表現深度と虚像距離との間の深さである。これは、立体視を維持しつつ、輻輳調節矛盾を軽減するという利点を有している。 In the display control device according to a preferred embodiment, the processor gradually or continuously changes from the first representation depth to the second representation depth over time in the first display process, and changes the representation depth to the second representation depth. After reaching , the representation depth of the image is maintained, and the second representation depth is the depth equal to the virtual image distance. In this case, there is an advantage that the contradiction in vergence adjustment can be reduced while maintaining stereoscopic vision for at least a certain period of time, and finally the contradiction in vergence adjustment can be eliminated. Also, in the display control device according to a preferred embodiment, the second representation depth is the depth between the first representation depth and the virtual image distance. This has the advantage of reducing vergence accommodation conflict while preserving stereoscopic vision.

好ましい一実施形態における表示制御装置では、プロセッサは、第1表示処理において、第1の表現深度から第2の表現深度に切り替え、第2の表現深度に切り替えた後、画像の表現深度を維持し、第2の表現深度は、第1の表現深度と虚像距離との間の深さ又は、虚像距離と等しい深さである。この場合、迅速に輻輳調節矛盾を軽減又はなくすことができるという利点を有している。 In the display control device in a preferred embodiment, the processor switches from the first representation depth to the second representation depth in the first display process, and maintains the representation depth of the image after switching to the second representation depth. , the second representation depth is a depth between the first representation depth and the virtual image distance or a depth equal to the virtual image distance. In this case, there is an advantage that the congestion accommodation contradiction can be quickly reduced or eliminated.

好ましい別の実施形態におけるいずれかの表示制御装置では、第2の表現深度は、画像の第1の表現深度に応じて異なるように設定される。これによれば、第1の表現深度の違いにより第2の表現深度が異ならせることができるので、第2の表現深度の違いで複数の画像を視覚的に区別しやすくなり、情報を認識しやすくすることができる。 In any display control device in another preferred embodiment, the second representation depth is set differently according to the first representation depth of the image. According to this, since the second representation depth can be varied according to the difference in the first representation depth, it becomes easier to visually distinguish the plurality of images by the difference in the second representation depth, and the information can be recognized. can be made easier.

好ましい別の実施形態におけるいずれかの表示制御装置では、プロセッサは、第1表示処理の後に所定の第2の条件が満たされた場合、第2の表現深度から第1の表現深度へ変化させる第2表示処理、をさらに実行する。これによれば、第1表示処理によって画像の表現深度が虚像距離に近づいた後でも、奥行き表現を優先した画像を再度表示することができ、画像が示す情報を認識しやすくすることができる。 In any of the display control devices in another preferred embodiment, the processor changes from the second representation depth to the first representation depth if a predetermined second condition is met after the first display process. 2 display processing is further executed. According to this, even after the expression depth of the image approaches the virtual image distance by the first display processing, the image giving priority to the depth expression can be displayed again, and the information indicated by the image can be easily recognized.

好ましい別の実施形態におけるいずれかの表示制御装置では、第1の表現深度と虚像距離との間の深さが所定距離よりも長い場合に第1表示処理を実行する。表現深度と虚像距離との間の深さが長い画像は、輻輳調節矛盾も大きくなる。このような輻輳調節矛盾が大きくなる画像に対し、第1表示処理を実行することで、効果的に視覚疲労及び/又は不快感を軽減することができる。 In one of the display control devices according to another preferred embodiment, the first display processing is executed when the depth between the first representation depth and the virtual image distance is longer than a predetermined distance. An image with a long depth between representation depth and virtual image distance also has a large vergence accommodation contradiction. Visual fatigue and/or discomfort can be effectively reduced by performing the first display processing on such an image in which the contradiction of vergence adjustment becomes large.

好ましい別の実施形態におけるいずれかの表示制御装置では、プロセッサは、第1のコンテンツと、第1のコンテンツよりも虚像距離との間の深さが長い第1の表現深度を有する第2のコンテンツと、を表示し、第1の条件において、第2のコンテンツの第1の所定時間は、第1のコンテンツの第1の所定時間よりも短い。これによれば、輻輳調節矛盾が大きくなる画像に対しては迅速に輻輳調節矛盾の低減を実施し、かつ輻輳調節矛盾が小さくなる画像に対しては画像の奥行き表現を長くすることで、効果的に視覚疲労及び/又は不快感を軽減しつつ、情報の識別性の低下を抑えることができる。 In any of the display control devices in another preferred embodiment, the processor controls the processing of the second content having a first representation depth with a greater depth between the first content and the virtual image distance than the first content. , and in the first condition, the first predetermined time of the second content is shorter than the first predetermined time of the first content. According to this, the convergence adjustment contradiction is quickly reduced for an image with a large vergence adjustment contradiction, and the depth expression of the image is lengthened for an image with a small vergence adjustment contradiction. While reducing visual fatigue and/or discomfort, it is possible to suppress deterioration of information identifiability.

好ましい別の実施形態におけるいずれかの表示制御装置では、プロセッサは、第1表示処理前では、画像の表現深度を変化させつつ、画像のサイズを変化させることで遠近感の変化を知覚させ、
第1表示処理後では、画像の表現深度を維持しつつ、画像のサイズを変化させることで遠近感の変化を知覚させる。これにより、視覚疲労及び/又は不快感を軽減しつつ、情報の識別性を高めることができる。
In any one of the display control devices according to another preferred embodiment, the processor, before the first display processing, changes the representation depth of the image and changes the size of the image to perceive a change in perspective,
After the first display processing, the change in perspective is perceived by changing the size of the image while maintaining the depth of expression of the image. As a result, it is possible to improve the identifiability of information while reducing visual fatigue and/or discomfort.

好ましい別の実施形態におけるいずれかの表示制御装置では、第2の表現深度は、画像の第1の表現深度よらず一定に設定される。これによれば、第1の表現深度の違いがあっても第2の表現深度が同じになるので、複数の画像が1つの(一定の)第2の表現深度で表現されるので、複数の画像に跨って視線が移動した場合でも同じ輻輳で視認することができ、視覚的負荷を軽減することができる。 In any display control device in another preferred embodiment, the second representation depth is set constant regardless of the first representation depth of the image. According to this, even if there is a difference in the first representation depth, the second representation depth is the same. Even if the line of sight moves over the image, the image can be visually recognized with the same convergence, and the visual load can be reduced.

図1は、車両用表示システムの車両への適用例を示す図である。FIG. 1 is a diagram showing an application example of a vehicle display system to a vehicle. 図2は、ヘッドアップディスプレイ装置の構成を示す図である。FIG. 2 is a diagram showing the configuration of the head-up display device. 図3は、車両の走行中において、観察者が視認する前景と、前記前景に重畳して表示される知覚画像の例を示す図である。FIG. 3 is a diagram showing an example of a foreground visually recognized by an observer and a perceptual image superimposed on the foreground and displayed while the vehicle is running. 図4は、虚像結像面に表示される左視点虚像と右視点虚像と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像と、の位置関係を概念的に示した図である。FIG. 4 is a diagram conceptually showing the positional relationship between the left-viewpoint virtual image and the right-viewpoint virtual image displayed on the virtual image plane, and the perceived image perceived by the observer from the left-viewpoint virtual image and the right-viewpoint virtual image. be. 図5は、第1表示処理が実行された後における、左視点虚像と右視点虚像とが表示される虚像結像面の虚像距離と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像の表現深度と、の位置関係を概念的に示した図である。FIG. 5 shows the virtual image distance of the virtual image plane on which the left-viewpoint virtual image and the right-viewpoint virtual image are displayed, and how the observer perceives the left-viewpoint virtual image and the right-viewpoint virtual image after the first display processing is executed. FIG. 4 is a diagram conceptually showing the positional relationship between the depth of expression of a perceptual image and FIG. 図6は、第1表示処理が実行された後における、左視点虚像と右視点虚像とが表示される虚像結像面の虚像距離と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像の表現深度と、の位置関係を概念的に示した図である。FIG. 6 shows the virtual image distance of the virtual image plane on which the left-viewpoint virtual image and the right-viewpoint virtual image are displayed, and the perception of the observer by the left-viewpoint virtual image and the right-viewpoint virtual image after the first display processing is executed. FIG. 4 is a diagram conceptually showing the positional relationship between the depth of expression of a perceptual image and FIG. 図7Aは、第1表示処理による表現深度の推移を示す図である。FIG. 7A is a diagram showing changes in depth of expression in the first display process. 図7Bは、第1表示処理による表現深度の推移を示す図である。FIG. 7B is a diagram showing changes in depth of expression in the first display process. 図8は、第1表示処理による表現深度の推移を示す図である。FIG. 8 is a diagram showing changes in depth of expression in the first display process. 図9は、第1表示処理による表現深度の推移を示す図である。FIG. 9 is a diagram showing changes in depth of expression in the first display process. 図10は、第2表示処理による表現深度の推移を示す図である。FIG. 10 is a diagram showing changes in depth of expression in the second display process. 図11は、いくつかの実施形態の車両用表示システムのブロック図である。FIG. 11 is a block diagram of a vehicle display system of some embodiments. 図12は、いくつかの実施形態に従って、知覚画像の表現深度を変化させる動作を実行する方法を示すフロー図である。FIG. 12 is a flow diagram illustrating a method of performing operations that vary the depth of representation of a perceived image, according to some embodiments.

以下、図1ないし図12では、例示的な車両用表示システムの構成、及び動作の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 1-12 below provide a description of the configuration and operation of an exemplary vehicular display system. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Of course, modifications (including deletion of constituent elements) can be added to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.

図1を参照する。図1は、視差式3D-HUD装置を含む車両用虚像表示システムの構成の一例を示す図である。なお、図1において、車両(移動体の一例。)1の左右方向(換言すると、車両1の幅方向)をX軸(X軸の正方向は、車両1の前方を向いた際の左方向。)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6)に直交する線分に沿う上下方向(換言すると、車両1の高さ方向)をY軸(Y軸の正方向は、上方向。)とし、左右方向及び上下方向の各々に直交する線分に沿う前後方向をZ軸(Z軸の正方向は、車両1の直進方向。)とする。この点は、他の図面においても同様である。 Please refer to FIG. FIG. 1 is a diagram showing an example of the configuration of a vehicle virtual image display system including a parallax 3D-HUD device. In FIG. 1, the left-right direction of a vehicle (an example of a moving body) 1 (in other words, the width direction of the vehicle 1) is the X axis (the positive direction of the X axis is the left direction when the vehicle 1 faces forward). ), and the vertical direction (in other words, the height direction of the vehicle 1) along a line segment that is perpendicular to the left-right direction and is perpendicular to the ground or a surface corresponding to the ground (here, the road surface 6) is the Y-axis (Y-axis is the upward direction), and the front-rear direction along a line segment perpendicular to each of the left-right direction and the up-down direction is the Z-axis (the positive direction of the Z-axis is the straight-ahead direction of the vehicle 1). This point also applies to other drawings.

図示するように、車両(車両)1に備わる車両用表示システム10は、観察者(典型的には車両1の運転席に着座する運転者)の左目700Lと右目700Rの位置や視線方向を検出する瞳(あるいは顔)検出用の目位置検出部(視線検出部)409、車両1の前方(広義には周囲)を撮像するカメラ(例えばステレオカメラ)などで構成される車外センサ411、ヘッドアップディスプレイ装置(以下では、HUD装置とも呼ぶ)20及び、HUD装置20を制御する表示制御装置30、を有する。 As illustrated, a vehicle display system 10 provided in a vehicle (vehicle) 1 detects the positions of the left eye 700L and the right eye 700R of an observer (typically, a driver sitting in the driver's seat of the vehicle 1) and the line-of-sight direction. An eye position detection unit (line-of-sight detection unit) 409 for detecting a pupil (or face) to be detected, an exterior sensor 411 configured by a camera (for example, a stereo camera) for imaging the front (in a broad sense, the surroundings) of the vehicle 1, a head-up It has a display device (hereinafter also referred to as HUD device) 20 and a display control device 30 that controls the HUD device 20 .

図2は、ヘッドアップディスプレイ装置の構成の一態様を示す図である。HUD装置20は、例えばダッシュボード(図1の符号5)内に設置される。このHUD装置20は、立体表示装置40、リレー光学系80及び、これら立体表示装置40とリレー光学系80を収納し、立体表示装置40からの表示光Kを内部から外部に向けて出射可能な光出射窓21を有する筐体22、を有する。 FIG. 2 is a diagram showing one aspect of the configuration of the head-up display device. The HUD device 20 is installed, for example, in a dashboard (reference numeral 5 in FIG. 1). The HUD device 20 accommodates the stereoscopic display device 40, the relay optical system 80, and the stereoscopic display device 40 and the relay optical system 80, and can emit the display light K from the stereoscopic display device 40 from the inside to the outside. A housing 22 having a light exit window 21 is provided.

立体表示装置40は、ここでは視差式3D表示装置とする。この立体表示装置(視差式3D表示装置)40は、左視点画像と右視点画像とを視認させることで奥行き表現を制御可能な多視点画像表示方式を用いた裸眼立体表示装置である表示器50及び、バックライトとして機能する光源ユニット60、により構成される。 The stereoscopic display device 40 is assumed here to be a parallax 3D display device. This stereoscopic display device (parallax type 3D display device) 40 is a display device 50 which is a naked-eye stereoscopic display device using a multi-viewpoint image display method capable of controlling depth expression by visually recognizing a left-viewpoint image and a right-viewpoint image. and a light source unit 60 functioning as a backlight.

表示器50は、光源ユニット60からの照明光を光変調して画像を生成する光変調素子51及び、例えば、レンチキュラレンズやパララックスバリア(視差バリア)等を有し、光変調素子51から出射される光を、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)とに分離する光学レイヤ(光線分離部の一例。)52、を有する。光学レイヤ52は、レンチキュラレンズ、パララックスバリア、レンズアレイ及び、マイクロレンズアレイなどの光学フィルタを含む。実施形態で光学レイヤ52は、前述した光学フィルタに限定されることなく、光変調素子51の前面又は後面に配置される全ての形態の光学レイヤを含む。但し、これは一例であり、限定されるものではない。 The display 50 has a light modulation element 51 that modulates the illumination light from the light source unit 60 to generate an image, and, for example, a lenticular lens or a parallax barrier (parallax barrier). Left eye display light such as light rays K11, K12 and K13 (reference symbol K10 in FIG. 1) and right eye display light such as light rays K21, K22 and K23 (in FIG. 1). symbol K20) and an optical layer (an example of a light beam splitting section) 52. The optical layer 52 includes optical filters such as lenticular lenses, parallax barriers, lens arrays, and microlens arrays. In the embodiments, the optical layer 52 is not limited to the optical filter described above, and includes all types of optical layers arranged on the front or rear surface of the light modulation element 51 . However, this is an example and is not limited.

また、立体表示装置40は、光学レイヤ(光線分離部の一例。)52の代わりに又は、それに加えて、光源ユニット60を指向性バックライトユニット(光線分離部の一例。)で構成することで、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)と、を出射させてもよい。具体的に、例えば、後述する表示制御装置30は、指向性バックライトユニットが左目700Lに向かう照明光を照射した際に、光変調素子51に左視点画像を表示させることで、左目用の光線K11、K12及び、K13等の左目用表示光K10を、観察者の左目700Lに向け、指向性バックライトユニットが右目700Rに向かう照明光を照射した際に、光変調素子51に右視点画像を表示させることで、右目用の光線K21、K22及び、K23等の右目用表示光K20を、観察者の左目700Rに向ける。但し、これは一例であり、限定されるものではない。 Also, in the stereoscopic display device 40, the light source unit 60 is configured with a directional backlight unit (an example of the light beam separating unit) instead of or in addition to the optical layer (an example of the light beam separating unit) 52. , left-eye display light such as light rays K11, K12, and K13 (reference symbol K10 in FIG. 1), and right-eye display light such as light rays K21, K22, and K23, etc. (reference symbol K20 in FIG. 1). , may be emitted. Specifically, for example, the display control device 30, which will be described later, causes the light modulation element 51 to display a left-viewpoint image when the directional backlight unit emits illumination light directed toward the left eye 700L. When the left-eye display light K10 such as K11, K12, and K13 is directed toward the viewer's left eye 700L, and the directional backlight unit emits illumination light toward the right eye 700R, the right viewpoint image is displayed on the light modulation element 51. By displaying, right-eye display light K20 such as light rays K21, K22, and K23 for the right eye is directed to the left eye 700R of the observer. However, this is an example and is not limited.

後述する表示制御装置30は、例えば、画像レンダリング処理(グラフィック処理)、表示器駆動処理などを実行することで、観察者の左目700Lへ左視点画像V10の左目用表示光K10及び、右目700Rへ右視点画像V20の右目用表示光K20、を向け、左視点画像V10及び右視点画像V20を調整することで、HUD装置20が表示する(観察者が知覚する)知覚画像FUの態様を制御することができる。なお、後述する表示制御装置30は、一定空間に存在する点などから様々な方向に出力される光線をそのまま(概ね)再現するライトフィールドを再現するように、ディスプレイ(表示器50)を制御してもよい。 The display control device 30, which will be described later, performs, for example, image rendering processing (graphic processing), display device driving processing, and the like, so that the display light K10 for the left eye of the left viewpoint image V10 and the display light K10 for the left eye and the display light K10 for the right eye 700R of the observer's left eye 700L are displayed. By directing the display light K20 for the right eye of the right viewpoint image V20 and adjusting the left viewpoint image V10 and the right viewpoint image V20, the aspect of the perception image FU displayed by the HUD device 20 (perceived by the observer) is controlled. be able to. Note that the display control device 30, which will be described later, controls the display (display device 50) so as to reproduce a light field that (approximately) reproduces light rays output in various directions from a point in a fixed space. may

リレー光学系80は、立体表示装置40からの光を反射し、画像の表示光K10、K20を、ウインドシールド(被投影部材)2に投影する曲面ミラー(凹面鏡等)81、82を有する。但し、その他の光学部材(レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材又は、これらの組み合わせを含んでいてもよい。)を、さらに有してもよい。 The relay optical system 80 has curved mirrors (concave mirrors, etc.) 81 and 82 that reflect the light from the stereoscopic display device 40 and project the image display light K10 and K20 onto the windshield (projection target member) 2 . However, it may further include other optical members (refractive optical members such as lenses, diffractive optical members such as holograms, reflective optical members, or combinations thereof).

図1では、HUD装置20の立体表示装置40によって、左右の各目用の、視差をもつ画像(視差画像)が表示される。各視差画像は、図1に示されるように、虚像表示面(虚像結像面)VSに結像したV10、V20として表示される。観察者(人)の各目のピントは、虚像表示領域VSの位置に合うように調節される。なお、虚像表示領域VSの位置を、「虚像距離(又は結像位置)」と称し、また、所定の基準位置(例えば、HUD装置20のアイボックス200の中心205、観察者の視点位置、又は、車両1の特定位置など)から虚像表示領域VSまでの距離(図4の符号D10を参照)を虚像距離(結像距離)と称する。 In FIG. 1, the stereoscopic display device 40 of the HUD device 20 displays images with parallax (parallax images) for the left and right eyes. Each parallax image is displayed as V10 and V20 formed on a virtual image display surface (virtual image formation surface) VS, as shown in FIG. The focus of each eye of the observer (person) is adjusted so as to match the position of the virtual image display area VS. Note that the position of the virtual image display area VS is referred to as a "virtual image distance (or imaging position)", and a predetermined reference position (for example, the center 205 of the eyebox 200 of the HUD device 20, the observer's viewpoint position, or , a specific position of the vehicle 1, etc.) to the virtual image display area VS (see symbol D10 in FIG. 4) is referred to as a virtual image distance (imaging distance).

但し、実際は、人の脳が、各画像(虚像)を融像するため、人は、虚像距離よりもさらに奥側である位置(例えば、左視点画像V10と右視点画像V20との輻輳角によって定まる位置であり、輻輳角が小さくなるほど、観察者から離れた位置にあるように知覚される位置)に、知覚画像(ここでは、ナビゲーション用の矢先の図形)FUが表示されているように認識する。なお、知覚画像FUは、「立体虚像」と称される場合があり、また、「画像」を広義に捉えて虚像も含まれるとする場合には、「立体画像」と称することもできる。また、「立体像」、「3D表示」等と称される場合がある。なお、HUD装置20は、虚像距離よりも手前側である位置に、知覚画像FUが視認されるように、左視点画像V10及び右視点画像V20を表示し得る。 However, in reality, since the human brain fuses each image (virtual image), the human is positioned further back than the virtual image distance (for example, due to the convergence angle between the left viewpoint image V10 and the right viewpoint image V20). It is a fixed position, and the position perceived as being farther away from the observer as the angle of convergence decreases) is recognized as a perceptual image (here, an arrowhead figure for navigation) FU is displayed. do. Note that the perceptual image FU may be referred to as a "stereoscopic virtual image", and may also be referred to as a "stereoscopic image" when the "image" is taken in a broad sense to include virtual images. It may also be referred to as a "stereoscopic image", "3D display", or the like. Note that the HUD device 20 can display the left viewpoint image V10 and the right viewpoint image V20 so that the perceived image FU can be visually recognized at a position closer to the viewer than the virtual image distance.

次に、図3及び、図4を参照する。図3は、車両1の走行中において、観察者が視認する前景と、前記前景に存在する実オブジェクトに対応付けて表示される知覚画像の例を示す図である。図4は、後述する第1表示処理が実行される前における、左視点虚像と右視点虚像とが表示される虚像結像面の虚像距離と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像の表現深度と、の位置関係を概念的に示した図である。 Next, refer to FIGS. 3 and 4. FIG. FIG. 3 is a diagram showing an example of a foreground visually recognized by an observer and a perceptual image displayed in association with a real object existing in the foreground while the vehicle 1 is running. FIG. 4 shows the virtual image distance on the virtual image plane on which the left-viewpoint virtual image and the right-viewpoint virtual image are displayed, and how the left-viewpoint virtual image and the right-viewpoint virtual image affect the distance of the observer before the first display process described later is executed. FIG. 3 is a diagram conceptually showing the positional relationship between the depth of expression of a perceptual image to be perceived;

図3において、車両1は、直線状の道路(路面)6を走行している。HUD装置20は、ダッシュボード5内に設置されている。HUD装置20の光出射窓21から表示光K(K10,K20)を被投影部(車両1のフロントウインドシールド)2に投影する。図3の例では、観察者から見て、車両1の前方を走行する先行車両(実オブジェクト)300の下方に配置される部分楕円弧状の画像FUを表示する。 In FIG. 3 , the vehicle 1 is traveling on a straight road (road surface) 6 . The HUD device 20 is installed inside the dashboard 5 . Display light K (K10, K20) is projected from the light exit window 21 of the HUD device 20 onto the projected portion (front windshield of the vehicle 1) 2. FIG. In the example of FIG. 3, a partially elliptical arc-shaped image FU arranged below a preceding vehicle (real object) 300 traveling in front of the vehicle 1 as seen from the observer is displayed.

図4の左図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第1の左視点画像V11を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第1の右視点画像V21を結像する。視差を有する第1の左視点画像V11及び、第1の右視点画像V21により知覚される第1の画像FU1は、虚像表示領域VSよりも距離D21だけ奥側である位置(上記の基準位置から距離D31だけ離れた位置)において知覚される。 As shown in the left diagram of FIG. 4, the HUD device 20 (1) detects the left eye 700L detected by the eye position detection unit 409, and at such a position and angle that the projection target 2 reflects the left eye 700L. to form a first left viewpoint image V11 at a predetermined position in the virtual image display area VS seen from the left eye 700L; Right-eye display light K20 is emitted to the projection target portion 2 at such a position and angle as shown in FIG. The first image FU1 perceived by the first left-viewpoint image V11 and the first right-viewpoint image V21 having parallax is located at a position behind the virtual image display area VS by a distance D21 (from the reference position described above). position separated by a distance D31).

同様に、図4の右図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第2の左視点画像V12を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第2の右視点画像V22を結像する。視差を有する第2の左視点画像V12及び、第2の右視点画像V22により知覚される第2の画像FU2は、虚像表示領域VSよりも距離D22だけ奥側である位置(上記の基準位置から距離D31だけ離れた位置)において視認される。 Similarly, as shown in the right diagram of FIG. 4 , the HUD device 20 (1) detects the left eye 700L detected by the eye position detection unit 409 at such a position and angle as to be reflected by the projection target unit 2 . Left-eye display light K10 is emitted to the projection unit 2 to form a second left-viewpoint image V12 at a predetermined position in the virtual image display area VS as seen from the left eye 700L, and (2) to the right eye 700R, the projected unit 2 Right-eye display light K20 is emitted to the projection target 2 at a position and angle such that it is reflected by the right eye 700R, and a second right-viewpoint image V22 is formed at a predetermined position of the virtual image display area VS seen from the right eye 700R. image. The second image FU2 perceived by the second left viewpoint image V12 and the second right viewpoint image V22 having parallax is located at a position behind the virtual image display area VS by a distance D22 (from the reference position described above). position separated by a distance D31).

具体的には、上記の基準位置から虚像表示領域VSまでの距離(虚像距離D10)は、例えば「4m」の距離に設定され、上記の基準位置から図4の左図に示される第1の画像FU1までの距離(第1の表現深度E11)は、例えば「7m」の距離に設定され、上記の基準位置から図4の右図に示される第2の画像FU2までの距離(第1の表現深度E12)は、例えば「10m」の距離に設定される。但し、これは一例であり、限定されるものではない。 Specifically, the distance (virtual image distance D10) from the reference position to the virtual image display area VS is set to, for example, "4 m", and the first distance shown in the left diagram of FIG. The distance to the image FU1 (first expression depth E11) is set to, for example, a distance of “7 m”, and the distance from the reference position to the second image FU2 shown in the right diagram of FIG. The representation depth E12) is set to a distance of, for example, "10 m". However, this is an example and is not limited.

第1の表現深度E11,E12は、左目700Lと左視点画像V10(V11,V12)とを結ぶ線分(換言すると、左目700Lから左視点画像V10へ向けた視線方向)と、右目700Rと右視点画像V20(V21,V22)とを結ぶ線分(換言すると、右目700Rから右視点画像V20へ向けた視線方向)と、の間の角度(輻輳角θc)の大きさに応じて定まる。 The first expression depths E11 and E12 are the line segment connecting the left eye 700L and the left viewpoint image V10 (V11, V12) (in other words, the line-of-sight direction from the left eye 700L toward the left viewpoint image V10), the right eye 700R and the right eye 700R. It is determined according to the size of the angle (convergence angle θc) between the line segment connecting the viewpoint image V20 (V21, V22) (in other words, the line-of-sight direction from the right eye 700R to the right viewpoint image V20).

図4の左図に示す第1の輻輳角θc1は、図4の右図に示す第2の輻輳角θc2より大きい。したがって、上記の基準位置から第1の画像FU1までの距離(第1の表現深度E11)は、上記の基準位置から第2の画像FU2までの距離(第1の表現深度E12)より短くなる。図4の例では、知覚画像FUは、前景に存在する先行車両(実オブジェクト)300の距離に応じて、表現深度を変化させつつ、サイズを変化させることで、遠近感の変化を知覚させる。具体的には、実オブジェクト300が近い場合、知覚画像FUは、図4左図に示すように、比較的短い表現深度E11とし、比較的大きいサイズとすることで、近い印象を与える。一方、実オブジェクト300が遠い場合、知覚画像FUは、図4右図に示すように、表現深度E11より深い表現深度E12とし、比較的小さいサイズ(図4左図より小さいサイズ)とすることで、遠い印象を与える。 The first convergence angle θc1 shown in the left diagram of FIG. 4 is larger than the second convergence angle θc2 shown in the right diagram of FIG. Therefore, the distance from the reference position to the first image FU1 (first depth of expression E11) is shorter than the distance from the reference position to the second image FU2 (first depth of expression E12). In the example of FIG. 4, the perceived image FU changes its size while changing the representation depth according to the distance of the preceding vehicle (real object) 300 existing in the foreground, so that the change in perspective is perceived. Specifically, when the real object 300 is close, the perceived image FU has a relatively short expression depth E11 and a relatively large size as shown in the left diagram of FIG. 4, thereby giving an impression of being close. On the other hand, when the real object 300 is far away, as shown in the right diagram of FIG. 4, the perceptual image FU has an expression depth E12 deeper than the expression depth E11 and a relatively small size (smaller than the left diagram of FIG. 4). , gives a distant impression.

本実施形態の表示制御装置30(HUD装置20)は、少なくとも所定の知覚画像FUが表示されてから第1の所定時間ΔT1が経過したことを含む所定の第1の条件が満たされた場合、知覚画像FUの表現深度を虚像距離D10に近づける第1表示処理、を実行する。 When the display control device 30 (HUD device 20) of the present embodiment satisfies a predetermined first condition including at least the elapse of a first predetermined time ΔT1 after the predetermined perceptual image FU is displayed, A first display process for bringing the representation depth of the perceived image FU closer to the virtual image distance D10 is executed.

図5は、前記第1表示処理が実行された後における、左視点虚像と右視点虚像とが表示される虚像結像面の虚像距離と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像の表現深度と、の位置関係を概念的に示した図である。ここで、前記第1表示処理が実行される前の画像の表現深度を第1の表現深度E10、そして、前記第1表示処理が実行された後の画像の表現深度を第2の表現深度E20と称する。知覚画像FUの表現深度は、第1の表現深度E11(図4左図)である際に、前記第1の条件が満たされて前記第1表示処理が実行された場合、図5左図に示すように、第1の表現深度E11よりも虚像距離D10に近い第2の表現深度E21に変更される。また、知覚画像FUの表現深度は、第1の表現深度E11(図4左図)より虚像距離D10から離れている第1の表現深度E12(図4右図)である際に、前記第1の条件が満たされて前記第1表示処理が実行された場合も、図5右図に示すように、第1の表現深度E12よりも虚像距離D10に近い第2の表現深度E21に変更される。すなわち、本実施形態の第1表示処理は、知覚画像FUの表現深度を、前記第1表示処理前の第1の表現深度E10の深さによらず、第1の表現深度E10よりも虚像距離D10に近い1つの第2の表現深度E20に変化させる。なお、本実施形態の第1表示処理は、これに限定されるものではない。 FIG. 5 shows the virtual image distance of the virtual image plane on which the left-viewpoint virtual image and the right-viewpoint virtual image are displayed, and how the observer perceives the left-viewpoint virtual image and the right-viewpoint virtual image after the first display processing is performed. FIG. 2 is a diagram conceptually showing the positional relationship between the expression depth of a perceptual image and the positional relationship. Here, the expression depth of the image before the first display processing is executed is a first expression depth E10, and the expression depth of the image after the first display processing is executed is a second expression depth E20. called. When the representation depth of the perceptual image FU is the first representation depth E11 (the left diagram in FIG. 4), and the first condition is satisfied and the first display process is executed, the representation depth shown in the left diagram in FIG. As shown, it is changed to a second representation depth E21 closer to the virtual image distance D10 than the first representation depth E11. Further, when the representation depth of the perceived image FU is the first representation depth E12 (the right figure in FIG. 4) which is farther from the virtual image distance D10 than the first representation depth E11 (the left figure in FIG. 4), the first representation depth E12 (the right figure in FIG. 4) condition is satisfied and the first display process is executed, as shown in the right diagram of FIG. . That is, the first display processing of the present embodiment sets the representation depth of the perceived image FU to a virtual image distance greater than the first representation depth E10, regardless of the depth of the first representation depth E10 before the first display processing. Change to one second representation depth E20 closer to D10. Note that the first display process of the present embodiment is not limited to this.

いくつかの実施形態において、第1表示処理後の第2の表現深度E20は、知覚画像FUの第1の表現深度E10に応じて異なるように設定されてもよい。すなわち、第2表示処理後の第2の表現深度E20は、第1表示処理前の第1の表現深度E10が深い程、深くなるように設定される。図6は、いくつかの実施形態における第1表示処理が実行された後における、左視点虚像と右視点虚像とが表示される虚像結像面の虚像距離と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像の表現深度と、の位置関係を概念的に示した図である。知覚画像FUの表現深度は、第1の表現深度E11(図4左図)より虚像距離D10から離れている第1の表現深度E12(図4右図)である際に、前記第1の条件が満たされて前記第1表示処理が実行された場合、図6右図に示すように、図6左図に示す第2の表現深度E21よりも虚像距離D10から離れている第2の表現深度E22に変更される。例えば、第2の表現深度E20は、第1の表現深度E10と比例関係であってもよい。また、他の例では、第2の表現深度E20における虚像表示領域VSから知覚画像FUまでの距離D20が、第1の表現深度E10における虚像表示領域VSから知覚画像FUまでの距離D20と比例関係であってもよい。また、他の例では、第2の表現深度E20における輻輳角θcが、第1の表現深度E10における輻輳角θcと比例関係であってもよい。このように、第2表示処理後の第2の表現深度E20は、第1表示処理前の第1の表現深度E10が深い程、深くなるように設定されることで、第2の表現深度E20の違いで複数の画像を視覚的に区別しやすくなり、情報を認識させやすくすることができる。 In some embodiments, the second representation depth E20 after the first display processing may be set differently according to the first representation depth E10 of the perceived image FU. That is, the second depth of expression E20 after the second display processing is set to be deeper as the first depth of expression E10 before the first display processing is deeper. FIG. 6 shows the virtual image distance of the virtual image plane on which the left-viewpoint virtual image and the right-viewpoint virtual image are displayed, and the left-viewpoint virtual image and the right-viewpoint virtual image after the first display processing in some embodiments is executed. FIG. 2 is a diagram conceptually showing the positional relationship between the expression depth of a perceived image perceived by an observer and the positional relationship. When the representation depth of the perceived image FU is the first representation depth E12 (the right figure in FIG. 4), which is farther from the virtual image distance D10 than the first representation depth E11 (the left figure in FIG. 4), the first condition is satisfied and the first display process is executed, as shown in the right diagram of FIG. It is changed to E22. For example, the second representation depth E20 may be proportional to the first representation depth E10. In another example, the distance D20 from the virtual image display area VS to the perceived image FU at the second depth of expression E20 is proportional to the distance D20 from the virtual image display area VS to the perceived image FU at the first depth of expression E10. may be Further, in another example, the convergence angle θc at the second representation depth E20 may be proportional to the convergence angle θc at the first representation depth E10. In this way, the second depth of expression E20 after the second display processing is set to be deeper as the first depth of expression E10 before the first display processing is deeper. It becomes easy to visually distinguish a plurality of images due to the difference in the number of images, and information can be easily recognized.

図7A乃至図10は、第1表示処理による表現深度の推移を示す図である。いくつかの実施形態における表示制御装置30(HUD装置20)では、プロセッサ33は、図7Aに示すように、第1表示処理において、第1の表現深度E10から第2の表現深度E20に切り替え、第2の表現深度E20に切り替えた後、画像FUの表現深度を維持する。ここで、第2の表現深度E20は、第1の表現深度E10と虚像距離D10との間の深さである。但し、これに限定されるものではなく、第2の表現深度E20は、図7Bに示すように、虚像距離D10と等しい深さであってもよい。 FIGS. 7A to 10 are diagrams showing changes in depth of expression in the first display process. In the display control device 30 (HUD device 20) in some embodiments, the processor 33 switches from the first representation depth E10 to the second representation depth E20 in the first display process, as shown in FIG. 7A, After switching to the second representation depth E20, the representation depth of the image FU is maintained. Here, the second representation depth E20 is the depth between the first representation depth E10 and the virtual image distance D10. However, the present invention is not limited to this, and the second representation depth E20 may be equal to the virtual image distance D10 as shown in FIG. 7B.

図8に示すように、好ましい別の実施形態におけるいずれかの表示制御装置30(HUD装置20)では、プロセッサ33は、第2の表現深度E20を、画像の第1の表現深度E10よらず一定に設定する。プロセッサ33は、第1表示処理前では、画像の第1の表現深度E10を連続的に(動的に)又は段階的に変更し得るが、第1表示処理後では、第1表示処理前の第1の表現深度E10によらず一定の第2の表現深度に変更して維持する。プロセッサ33は、第1表示処理前では、画像の第1の表現深度E10を、例えば、画像を対応付ける実オブジェクト300までの距離の違いにより連続的に(動的に)又は段階的に適宜設定し得る。さらに、好ましくは、プロセッサ33は、第1表示処理前では、画像の表現深度(第1の表現深度E10)を変化させつつ、画像のサイズを変化させることで遠近感の変化を知覚させる。一方、プロセッサ33は、第1表示処理後では、画像の第2の表現深度E20を、例えば、画像を対応付ける実オブジェクト300までの距離の違いがあっても一定の第2の表現深度E20に維持するように設定し得る。この場合、好ましくは、プロセッサ33は、第1表示処理後では、画像の表現深度(第2の表現深度E20)を一定に維持しつつ、画像のサイズを変化させることで遠近感の変化を知覚させる。なお、画像の遠近感の変化(表現深度の変化及び/又はサイズの変化)は、画像が対応づけられた実オブジェクト300の距離の変化に応じたものに限定されず、観察者に与えたい視覚的効果に応じて連続的に(動的に)又は段階的に適宜設定され得る。 As shown in FIG. 8, in one of the display control devices 30 (HUD devices 20) in another preferred embodiment, the processor 33 sets the second representation depth E20 to be constant regardless of the first representation depth E10 of the image. set to The processor 33 can change the first representation depth E10 of the image continuously (dynamically) or stepwise before the first display processing, but after the first display processing, the depth E10 before the first display processing can be changed. The constant second representation depth is maintained regardless of the first representation depth E10. Before the first display processing, the processor 33 appropriately sets the first representation depth E10 of the image, for example, continuously (dynamically) or stepwise according to the difference in distance to the real object 300 with which the image is associated. obtain. Furthermore, preferably, the processor 33 changes the size of the image while changing the depth of expression of the image (first depth of expression E10) before the first display processing, thereby making the change in perspective perceived. On the other hand, after the first display processing, the processor 33 maintains the second representation depth E20 of the image at a constant second representation depth E20 even if there is a difference in the distance to the real object 300 with which the image is associated, for example. can be set to In this case, preferably, after the first display processing, the processor 33 maintains the depth of representation of the image (the second depth of representation E20) constant, and changes the size of the image to perceive changes in perspective. Let Note that the change in perspective of the image (change in depth of expression and/or change in size) is not limited to the change in the distance of the real object 300 with which the image is associated. It can be appropriately set continuously (dynamically) or stepwise according to the desired effect.

また、好ましい別の実施形態におけるいずれかの表示制御装置30(HUD装置20)では、プロセッサ33は、第2の表現深度E20を、画像の第1の表現深度E10が異なる複数の画像に対しても一定に設定する。 Also, in any display control device 30 (HUD device 20) in another preferred embodiment, the processor 33 sets the second representation depth E20 for a plurality of images having different first representation depths E10 of the images. is also set constant.

図9に示すように、好ましい別の実施形態におけるいずれかの表示制御装置30(HUD装置20)では、プロセッサ33は、第1表示処理において、第1の表現深度E10から第2の表現深度E20まで時間経過に伴い、連続的(又は段階的)に変化させ、第2の表現深度に到達した後、画像の表現深度を維持する。これにより、立体視を維持しつつ、輻輳調節矛盾を軽減することができる。プロセッサ33は、第1表示処理において、第1の表現深度E10から第2の表現深度E20まで所定時間ΔT2をかけて連続的(又は段階的)に変化させる。いくつかの実施形態では、所定時間ΔT2は、第1の表現深度E10の深さによらず一定とする。すなわち、第1の表現深度E10と虚像距離D10との間の深さが長い場合、所定時間ΔT2内の表現深度の変化率は大きく、一方、第1の表現深度E10と虚像距離D10との間の深さが短い場合、所定時間ΔT2内の表現深度の変化率は小さくなる。また、いくつかの実施形態では、所定時間ΔT2は、第1の表現深度E10の深さによって異なる。すなわち、第1の表現深度E10と虚像距離D10との間の深さが長い場合、所定時間ΔT2が長く、一方、第1の表現深度E10と虚像距離D10との間の深さが短い場合、所定時間ΔT2が短くなる。なお、所定時間ΔT2は、観察者による後述する操作検出部407の操作により適宜変更してもよい。また、表示制御装置30は、車両の状況、車両外の状況、観察者の状況に応じて、自動的に所定時間ΔT2を変更してもよい。 As shown in FIG. 9, in any display control device 30 (HUD device 20) in another preferred embodiment, the processor 33, in the first display process, changes the depth of representation from the first representation depth E10 to the second representation depth E20 , and after reaching the second representation depth, the representation depth of the image is maintained. As a result, it is possible to reduce the contradiction of vergence accommodation while maintaining stereoscopic vision. In the first display process, the processor 33 continuously (or stepwisely) changes from the first representation depth E10 to the second representation depth E20 over a predetermined time ΔT2. In some embodiments, the predetermined time ΔT2 is constant regardless of the depth of the first representation depth E10. That is, when the depth between the first representation depth E10 and the virtual image distance D10 is long, the change rate of the representation depth within the predetermined time ΔT2 is large. is short, the change rate of the representation depth within the predetermined time ΔT2 is small. Also, in some embodiments, the predetermined time ΔT2 varies depending on the depth of the first representation depth E10. That is, when the depth between the first representation depth E10 and the virtual image distance D10 is long, the predetermined time ΔT2 is long, and when the depth between the first representation depth E10 and the virtual image distance D10 is short, The predetermined time ΔT2 is shortened. Note that the predetermined time ΔT2 may be appropriately changed by the observer's operation of the operation detection unit 407, which will be described later. In addition, the display control device 30 may automatically change the predetermined time ΔT2 according to the conditions of the vehicle, the conditions outside the vehicle, and the conditions of the observer.

好ましい別の実施形態におけるいずれかの表示制御装置30(HUD装置20)では、第1の表現深度E10と虚像距離D10との間の深さが所定距離よりも長い場合に第1表示処理を実行し、第1の表現深度E10と虚像距離D10との間の深さが所定距離よりも短い場合に第1表示処理を実行しない。表現深度と虚像距離との間の深さが長い画像は、輻輳調節矛盾も大きくなる。このような輻輳調節矛盾が大きくなる画像に対し、第1表示処理を実行することで、効果的に視覚疲労及び/又は不快感を軽減することができ、輻輳調節矛盾の小さい画像では、立体視を維持することができる。 Any display control device 30 (HUD device 20) according to another preferred embodiment executes the first display process when the depth between the first representation depth E10 and the virtual image distance D10 is longer than a predetermined distance. However, when the depth between the first expression depth E10 and the virtual image distance D10 is shorter than a predetermined distance, the first display processing is not executed. An image with a long depth between representation depth and virtual image distance also has a large vergence accommodation contradiction. By executing the first display process on such an image with a large contradiction of vergence accommodation, it is possible to effectively reduce visual fatigue and/or discomfort. can be maintained.

好ましい別の実施形態におけるいずれかの表示制御装置30(HUD装置20)では、プロセッサ33は、第1のコンテンツと、第1のコンテンツよりも虚像距離D10との間の深さが長い第1の表現深度E12を有する第2のコンテンツと、を表示し、第1の条件において、第2のコンテンツの第1の所定時間ΔT1は、第1のコンテンツの第1の所定時間ΔT1よりも短い。これによれば、輻輳調節矛盾が大きくなる画像に対しては輻輳調節矛盾の低減を迅速に実施し、かつ輻輳調節矛盾が小さくなる画像に対しては画像の奥行き表現を長く持続することで、効果的に視覚疲労及び/又は不快感を軽減しつつ、情報の識別性の低下を抑えることができる。 In any display control device 30 (HUD device 20) in another preferred embodiment, the processor 33 provides a first content having a greater depth between the first content and the virtual image distance D10 than the first content. and a second content having a depth of representation E12, and in a first condition, the first predetermined time ΔT1 of the second content is shorter than the first predetermined time ΔT1 of the first content. According to this, by quickly reducing the contradiction of vergence accommodation for an image with a large contradiction of vergence accommodation, and by sustaining the depth expression of the image for a long time for an image with a small contradiction of vergence accommodation, It is possible to effectively reduce visual fatigue and/or discomfort while suppressing a decrease in the identifiability of information.

好ましい別の実施形態におけるいずれかの表示制御装置(HUD装置20)では、プロセッサ33は、第1表示処理の後に所定の第2の条件が満たされた場合、第2の表現深度E20から第1の表現深度E10へ変化させる第2表示処理、をさらに実行する。これによれば、第1表示処理によって画像の表現深度が虚像距離D10に近づいた後でも、奥行き表現を優 In one of the display control devices (HUD device 20) in another preferred embodiment, the processor 33 reduces the second representation depth E20 to the first depth if a predetermined second condition is met after the first display processing. is further executed to change the expression depth E10. According to this, even after the representation depth of the image approaches the virtual image distance D10 by the first display process, depth representation is prioritized.

図11は、いくつかの実施形態に係る、車両用虚像表示システムのブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図3に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図11は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 11 is a block diagram of a virtual image display system for vehicles, according to some embodiments. The display controller 30 comprises one or more I/O interfaces 31 , one or more processors 33 , one or more image processing circuits 35 and one or more memories 37 . Various functional blocks depicted in FIG. 3 may be implemented in hardware, software, or a combination of both. FIG. 11 is only one embodiment and the illustrated components may be combined into fewer components or there may be additional components. For example, image processing circuitry 35 (eg, a graphics processing unit) may be included in one or more processors 33 .

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(表示装置40)の制御を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, processor 33 and image processing circuitry 35 are operatively coupled with memory 37 . More specifically, the processor 33 and the image processing circuit 35 execute a program stored in the memory 37 to generate and/or transmit image data, for example, the vehicle display system 10 (display device). 40) can be controlled. Processor 33 and/or image processing circuitry 35 may include at least one general purpose microprocessor (e.g., central processing unit (CPU)), at least one application specific integrated circuit (ASIC), at least one field programmable gate array (FPGA). , or any combination thereof. Memory 37 includes any type of magnetic media such as hard disks, any type of optical media such as CDs and DVDs, any type of semiconductor memory such as volatile memory, and non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401及び/又は、他の電子機器(後述する符号403~419)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, processor 33 is operatively coupled with I/O interface 31 . The I/O interface 31 communicates (CAN communication). The communication standard adopted by the I/O interface 31 is not limited to CAN. : MOST is a registered trademark), a wired communication interface such as UART or USB, or a personal area network (PAN) such as a Bluetooth network, a local network such as an 802.11x Wi-Fi network. It includes an in-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN). In addition, the I / O interface 31 is a wireless wide area network (WWAN0, IEEE802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), IEEE802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, An external communication (external communication) interface such as a wide area communication network (for example, Internet communication network) may be included according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、操作検出部407、目位置検出部409、車外センサ411、明るさ検出部413、IMU415、携帯情報端末417、及び外部通信機器419などが動作可能に連結される。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown, the processor 33 is interoperably coupled with the I/O interface 31 to communicate with various other electronic devices and the like connected to the vehicle display system 10 (I/O interface 31). can be given and received. The I/O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detection unit 405, an operation detection unit 407, an eye position detection unit 409, an external sensor 411, a brightness detection unit 413, an IMU 415, portable information A terminal 417, an external communication device 419, etc. are operatively coupled. Note that the I/O interface 31 may include a function of processing (converting, calculating, and analyzing) information received from other electronic devices or the like connected to the vehicle display system 10 .

表示装置40は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、光変調素子51によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、光変調素子51が表示する画像を制御する。 Display device 40 is operatively coupled to processor 33 and image processing circuitry 35 . Accordingly, the image displayed by light modulating element 51 may be based on image data received from processor 33 and/or image processing circuitry 35 . The processor 33 and image processing circuit 35 control the image displayed by the light modulation element 51 based on the information obtained from the I/O interface 31 .

目位置検出部409は、車両1の運転席に着座する観察者の目位置700を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部409から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出してもよい。 The eye position detection unit 409 may include a camera such as an infrared camera that detects the eye position 700 of the observer sitting in the driver's seat of the vehicle 1 , and may output the captured image to the processor 33 . The processor 33 acquires a captured image (an example of information that can estimate the eye position 700) from the eye position detection unit 409, and analyzes the captured image by a method such as pattern matching to determine the eye positions of the observer. 700 coordinates may be detected.

また、目位置検出部409は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、アイボックス200内(又はアイボックス200とその周辺を含む領域内)に設定された空間的な複数の領域(区画)のどこに属しているかを示す信号。)を、プロセッサ33に出力してもよい。なお、車両1の観察者の目位置700又は、観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。 In addition, the eye position detection unit 409 detects an analysis result obtained by analyzing the captured image of the camera (for example, the observer's eye position 700 is set within the eye box 200 (or within an area including the eye box 200 and its surroundings). ) may be output to the processor 33. Note that the method of acquiring the eye position 700 of the observer of the vehicle 1 or the information that can estimate the eye position 700 of the observer is not limited to these, and a known eye position detection (estimation) technique is used. may be obtained by

また、目位置検出部409は、観察者の目位置700(観察者の頭部でもよい。)の移動速度、及び/又は移動方向を検出し、観察者の目位置700(観察者の頭部でもよい。)の移動速度、及び/又は移動方向を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 detects the movement speed and/or movement direction of the observer's eye position 700 (or the observer's head), and detects the observer's eye position 700 (or the observer's head). ) may be output to the processor 33 to indicate the speed and/or direction of movement.

メモリ37に記憶されたソフトウェア構成要素は、目位置検出モジュール502、目位置推定モジュール504、目位置予測モジュール506、条件判定モジュール508、表示パラメータ設定モジュール510、明るさ検出モジュール511、グラフィックモジュール512、光源駆動モジュール514、及びアクチュエータ駆動モジュール516、を含む。 The software components stored in the memory 37 include an eye position detection module 502, an eye position estimation module 504, an eye position prediction module 506, a condition determination module 508, a display parameter setting module 510, a brightness detection module 511, a graphic module 512, A light source drive module 514 and an actuator drive module 516 are included.

図12は、いくつかの実施形態に従って、知覚画像の表現深度を変化させる動作を実行する方法S100を示すフロー図である。方法S100は、表示装置40(光変調素子51)と、この表示装置40(光変調素子51)を制御する表示制御装置30と、において実行される。方法S100内のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 12 is a flow diagram illustrating a method S100 of performing operations that vary the depth of representation of a perceived image, according to some embodiments. The method S100 is performed in the display device 40 (light modulation element 51) and the display control device 30 that controls this display device 40 (light modulation element 51). Some acts in method S100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

以下で説明するように、方法S100は、特に、知覚画像の表現深度を変化させる方法を提供する。 As described below, method S100 provides, among other things, a way to vary the depth of representation of a perceptual image.

図11の目位置検出モジュール502は、観察者の目位置700を検出する。目位置検出モジュール502は、観察者の目の横位置を示す座標(X軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の横方向の位置及び奥行方向の位置を示す座標(X及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さを示す座標(Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。 The eye position detection module 502 of FIG. 11 detects the eye position 700 of the observer. The eye position detection module 502 detects the coordinates indicating the lateral position of the observer's eyes (the position in the X-axis direction, which is an example of a signal indicating the eye position 700). and the coordinates indicating the position in the depth direction (the position in the X and Z axis directions, which is an example of a signal indicating the eye position 700), and the coordinates indicating the eye height of the observer (Z , which is an example of a signal indicating the eye position 700), and coordinates indicating the position in the eye height and depth directions of the observer (positions in the Y and Z axis directions, and/or coordinates indicating the eye position 700 of the observer (positions in the X, Y, and Z axis directions and an example of a signal indicating the eye position 700). ) includes various software components for performing various operations related to detecting.

なお、目位置検出モジュール502が検出する目位置700は、右目と左目それぞれの位置700R,700L、右目位置700R及び左目位置700Lのうち予め定められたいずれか一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される位置(例えば、右目位置と左目位置との中点)、などを含む。例えば、目位置検出モジュール502は、目位置700を、表示設定を更新するタイミングの直前に目位置検出部409から取得した観測位置に基づき決定する。 Note that the eye position 700 detected by the eye position detection module 502 is one of predetermined positions 700R and 700L of the right eye and left eye, the right eye position 700R and the left eye position 700L, the right eye position 700R and the left eye position. 700L, or a position calculated from the right eye position 700R and the left eye position 700L (for example, the midpoint between the right eye position and the left eye position). For example, the eye position detection module 502 determines the eye position 700 based on the observation position acquired from the eye position detection unit 409 immediately before the timing of updating the display settings.

また、目位置検出モジュール502は、目位置検出部409から取得する複数の観察者の目の観測位置に基づき、観察者の目位置700の移動方向、及び/又は移動速度を検出し、観察者の目位置700の移動方向、及び/又は移動速度を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection module 502 detects the movement direction and/or the movement speed of the eye position 700 of the observer based on the observation positions of the eyes of a plurality of observers obtained from the eye position detection unit 409, and A signal indicating the moving direction and/or moving speed of the eye position 700 may be output to the processor 33 .

目位置推定モジュール504は、目位置を推定可能な情報を取得する。目位置を推定可能な情報は、例えば、目位置検出部409から取得した撮像画像、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などである。目位置推定モジュール504は、目位置を推定可能な情報から、車両1の観察者の目位置700を推定する。目位置推定モジュール504は、目位置検出部409から取得した撮像画像、車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などから、観察者の目位置700を推定すること、など観察者の目位置700を推定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール504は、目の位置を推定可能な情報から観察者の目位置700を推定するためのテーブルデータ、演算式、などを含み得る。 The eye position estimation module 504 obtains information from which eye positions can be estimated. The information that can estimate the eye position is, for example, the captured image acquired from the eye position detection unit 409, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, or the eye position of a plurality of observers. observation position and so on. The eye position estimating module 504 estimates the eye position 700 of the observer of the vehicle 1 from the information that can estimate the eye position. The eye position estimation module 504 uses the captured image acquired from the eye position detection unit 409, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, or the observation positions of the eyes of a plurality of observers. , estimating the eye position 700 of the observer, etc., for performing various operations related to estimating the eye position 700 of the observer. That is, the eye position estimation module 504 can include table data, arithmetic expressions, and the like for estimating the eye position 700 of the observer from information that can estimate the eye position.

目位置推定モジュール504は、目位置700を、表示パラメータを更新するタイミングの直前に目位置検出部409から取得した目の観測位置と、1つ又は複数の過去に取得した目の観測位置とに基づき、例えば、加重平均などの手法により、算出してもよい。 The eye position estimation module 504 combines the eye position 700 with the eye observation position acquired from the eye position detection unit 409 immediately before the timing of updating the display parameters and one or more previously acquired eye observation positions. Based on this, for example, it may be calculated by a method such as a weighted average.

目位置予測モジュール506は、観察者の目位置700を予測可能な情報を取得する。観察者の目位置700を予測可能な情報は、例えば、目位置検出部409から取得した最新の観測位置、又は1つ又はそれ以上の過去に取得した観測位置などである。目位置予測モジュール506は、観察者の目位置700を予測可能な情報に基づいて、目位置700を予測することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的に、例えば、目位置予測モジュール506は、新たな表示設定が適用された画像が観察者に視認されるタイミングの、観察者の目位置700を予測する。目位置予測モジュール506は、例えば、最小二乗法や、カルマンフィルタ、α-βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。 The eye position prediction module 506 acquires information that can predict the eye position 700 of the observer. The information that can predict the eye position 700 of the observer is, for example, the latest observation position obtained from the eye position detection unit 409, one or more observation positions obtained in the past, or the like. Eye position prediction module 506 includes various software components for performing various operations related to predicting eye positions 700 based on information capable of predicting eye positions 700 of an observer. Specifically, for example, the eye position prediction module 506 predicts the eye position 700 of the observer at the timing when the observer visually recognizes the image to which the new display settings are applied. The eye position prediction module 506 uses one or more past observed positions, for example, using a least squares method, a prediction algorithm such as a Kalman filter, an α-β filter, or a particle filter to calculate the next value. You can make a prediction.

条件判定モジュール508は、第1表示処理を開始するための第1の条件が充足するか判定する。前記第1の条件は、第1の表現深度E10を有する画像が表示されてから第1の所定時間ΔT1が経過したことを少なくとも含む。前記第1の条件は、この他に、画像が示す情報の重要性が低いこと(低くなったこと)、観察者の視線などから観察者が画像を認識したと判定できること、車両が走行している環境においてリスクが変化したこと、又はこれらの組み合わせを条件として含んでいても良い。前記第1の条件は、これら以外の様々な条件を含み得る。 A condition determination module 508 determines whether a first condition for starting the first display process is satisfied. The first condition includes at least that a first predetermined time ΔT1 has passed since the image having the first representation depth E10 was displayed. In addition to this, the first condition is that the importance of the information indicated by the image is low (lowered), that it can be determined that the observer has recognized the image from the observer's line of sight, etc., and that the vehicle is running. The condition may include a change in risk in the environment in which it is located, or a combination of these. The first condition may include various conditions other than these.

また、条件判定モジュール508は、第2表示処理を開始するための第2の条件が充足するか判定する。前記第2の条件は、例えば、第2の表現深度E20を有する画像が示す情報の重要度が高くなったこと、画像が示す情報に変化が生じたこと、観察者の視線などから観察者が画像を認識していないと判定できること、車両が走行している環境においてリスクが変化したこと、又はこれらの組み合わせを条件として含んでいても良い。前記第2の条件は、これら以外の様々な条件を含み得る。 Also, the condition determination module 508 determines whether a second condition for starting the second display process is satisfied. The second condition is, for example, that the importance of the information indicated by the image having the second depth of expression E20 has increased, that the information indicated by the image has changed, or that the observer's line of sight has changed. The condition may include the fact that it can be determined that the image is not recognized, the fact that the risk has changed in the environment in which the vehicle is running, or a combination of these. The second condition may include various conditions other than these.

表示パラメータ設定モジュール510は、目位置検出モジュール502で検出した目位置700、目位置推定モジュール504で推測した目位置700、又は目位置予測モジュール506で予測した目位置700が、予め定められた複数の座標範囲のどこに属しているか判定し、目位置700に対応する表示パラメータを設定する。表示パラメータ設定モジュール510は、目位置700が示すX軸座標、Y軸座標、Z軸座標、又はこれらの組み合わせが、複数の空間的な領域のどこに属するのかを判定し、目位置700が属する空間的な領域に対応する表示パラメータを設定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール504は、目位置700が示すX軸座標、Y軸座標、Z軸座標、又はこれらの組み合わせから、表示パラメータを特定するためのテーブルデータ、演算式、などを含み得る。 The display parameter setting module 510 sets the eye positions 700 detected by the eye position detection module 502, the eye positions 700 estimated by the eye position estimation module 504, or the eye positions 700 predicted by the eye position prediction module 506 to a predetermined number. , and set display parameters corresponding to the eye position 700 . The display parameter setting module 510 determines where the X-axis coordinate, the Y-axis coordinate, the Z-axis coordinate, or a combination thereof indicated by the eye position 700 belongs to a plurality of spatial regions, and determines the space to which the eye position 700 belongs. It includes various software components for performing various operations related to setting display parameters corresponding to the desired region. That is, the eye position estimation module 504 may include table data, arithmetic expressions, etc. for specifying display parameters from the X-axis coordinates, Y-axis coordinates, Z-axis coordinates indicated by the eye position 700, or a combination thereof.

表示パラメータの種類は、(1)目位置700から見て、車両1の外側に位置する実オブジェクトと所定の位置関係になるような画像の配置(画像の配置を制御するために表示装置40を制御するパラメータ、及び/又はアクチュエータを制御すパラメータ。)、(2)目位置700から見た虚像光学系90などにより生じ得る画像の歪みを軽減するために画像を事前に歪ませるためのパラメータ(表示装置40上で表示される画像を事前に歪ませるために表示装置40を制御するパラメータであり、ワーピングパラメータとも呼ばれる。)、(3)目位置700に、画像の光を向け、目位置700以外の表示パラメータには画像の光を向けない(又は光を弱くする)指向性表示をするためのパラメータ(表示装置40を制御するパラメータ、表示装置40の前記光源を制御するパラメータ、アクチュエータを制御するパラメータ、又はこれらの組み合わせを含むパラメータ。)、(4)目位置から見て、所望の表現深度の画像を知覚させるためのパラメータ(表示装置40を制御するパラメータ、表示装置40の前記光源を制御するパラメータ、アクチュエータを制御するパラメータ、又はこれらの組み合わせを含むパラメータ。)、などを含む。ただし、表示パラメータ設定モジュール510が設定(選択)する表示パラメータは、観察者の目位置700に応じて変更されることが好ましいパラメータであればよく、表示パラメータの種類は、これらに限定されない。 The types of display parameters are as follows: (1) an image layout that has a predetermined positional relationship with a real object positioned outside the vehicle 1 when viewed from the eye position 700 (the display device 40 is used to control the image layout); (2) parameters for pre-distorting the image to reduce image distortion that may be caused by, for example, the virtual image optics 90 as viewed from the eye position 700; parameters that control the display device 40 to pre-distort the image displayed on the display device 40, also called warping parameters); Display parameters other than the parameters for directional display that does not direct the light of the image (or weakens the light) (parameters for controlling the display device 40, parameters for controlling the light sources of the display device 40, actuator control (4) parameters for perceiving an image with a desired depth of expression when viewed from the eye position (parameters for controlling the display device 40, the light source of the display device 40 parameters that control, parameters that control actuators, or parameters that include a combination thereof.), and the like. However, the display parameters set (selected) by the display parameter setting module 510 may be parameters that are preferably changed according to the observer's eye position 700, and the types of display parameters are not limited to these.

表示パラメータ設定モジュール510は、1種類の表示パラメータにつき、目位置700に対応する1つ又は複数の表示パラメータを選定する。目位置700が、例えば、右目位置700R、及び左目位置700Lのそれぞれを含む場合、表示パラメータ設定モジュール510は、右目位置700Rに対応する表示パラメータと、左目位置700Lに対応する表示パラメータと、の2つを選定し得る。一方、目位置700が、例えば、右目位置700R及び左目位置700Lのうち予め定められた一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される1つの位置(例えば、右目位置700Rと左目位置700Lとの中点)である場合、表示パラメータ設定モジュール510は、目位置700に対応する1つの表示パラメータを選定し得る。なお、表示パラメータ設定モジュール510は、目位置700に対応する表示パラメータと、当該目位置700の周囲に設定される表示パラメータも選定し得る。すなわち、表示パラメータ設定モジュール510は、目位置700に対応する3つ以上の表示パラメータを選定し得る。 The display parameter setting module 510 selects one or more display parameters corresponding to the eye position 700 for one type of display parameter. For example, if the eye positions 700 include a right eye position 700R and a left eye position 700L, the display parameter setting module 510 sets the display parameter corresponding to the right eye position 700R and the display parameter corresponding to the left eye position 700L. one can be selected. On the other hand, the eye position 700 is, for example, a predetermined one of the right eye position 700R and the left eye position 700L, one of the right eye position 700R and the left eye position 700L that can be detected (easily detected), or If there is one position calculated from the right eye position 700R and the left eye position 700L (for example, the midpoint between the right eye position 700R and the left eye position 700L), the display parameter setting module 510 creates one display corresponding to the eye position 700. parameters can be selected. Note that the display parameter setting module 510 may also select display parameters corresponding to the eye position 700 and display parameters set around the eye position 700 . That is, display parameter setting module 510 may select three or more display parameters corresponding to eye position 700 .

本実施形態の表示パラメータ設定モジュール510は、条件判定モジュール508により第1の条件を充足すると判定された画像に第1表示処理(S130)を実行することで、第1の表現深度E10から第2の表現深度E20に変更する。また、本実施形態の表示パラメータ設定モジュール510は、条件判定モジュール508により第2の条件を充足すると判定された画像に第2表示処理(S150)を実行することで、第2の表現深度E20から第1の表現深度E10に変更する。 The display parameter setting module 510 of the present embodiment executes the first display processing (S130) on the image determined to satisfy the first condition by the condition determination module 508, thereby increasing the depth of expression from the first depth of expression E10 to the second depth of expression. to E20. In addition, the display parameter setting module 510 of the present embodiment executes the second display processing (S150) on the image determined to satisfy the second condition by the condition determination module 508, thereby reducing the depth of expression from the second depth of expression E20 to Change to the first representation depth E10.

再び図11を参照する。グラフィックモジュール512は、レンダリングなどの画像処理をして画像データを生成し、表示装置40を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール512は、表示される画像の、種類、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール512は、画像の種類(表示パラメータの例の1つ。)、画像の位置座標(表示パラメータの例の1つ。)、画像の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角などであり、表示パラメータの例の1つ。)、画像のサイズ(表示パラメータの例の1つ。)、画像の色(色相、彩度、明度などで設定される表示パラメータの例の1つ。)で観察者に視認されるように画像データを生成し、光変調素子51を駆動し得る。 Please refer to FIG. 11 again. Graphics module 512 includes various known software components for performing image processing, such as rendering, to generate image data, and to drive display device 40 . The graphic module 512 also controls the type, arrangement (positional coordinates, angle), size, display distance (in the case of 3D), visual effects (for example, brightness, transparency, saturation, contrast, or and other visual characteristics), may include various known software components. The graphic module 512 stores the type of image (one example of display parameters), the positional coordinates of the image (one example of display parameters), the angle of the image (pitch angle with the X direction as the axis, Y direction as the axis, yaw rate angle around the axis, rolling angle around the Z direction, etc., which are examples of display parameters), image size (one example of display parameters), image color (hue, saturation , brightness, etc.), image data can be generated and the light modulation element 51 can be driven so as to be visually recognized by the observer.

光源駆動モジュール514は、光源ユニット60を駆動することを実行するための様々な既知のソフトウェア構成要素を含む。光源駆動モジュール514は、設定された表示パラメータに基づき、光源ユニット60を駆動し得る。 Light source driving module 514 includes various known software components for performing driving light source unit 60 . The light source driving module 514 can drive the light source unit 60 based on the set display parameters.

アクチュエータ駆動モジュール516は、第1アクチュエータ28及び/又は第2アクチュエータ29を駆動することを実行するための様々な既知のソフトウェア構成要素を含むアクチュエータ駆動モジュール516は、設定された表示パラメータに基づき、第1アクチュエータ28及び第2アクチュエータ29を駆動し得る。 Actuator drive module 516 includes various known software components for performing the driving of first actuator 28 and/or second actuator 29. One actuator 28 and a second actuator 29 can be driven.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above may be implemented by executing one or more functional modules of an information processing device such as a general purpose processor or an application specific chip. These modules, combinations of these modules, and/or combinations with known hardware that can replace their functions are all within the scope of protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図3で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of vehicle display system 10 are optionally implemented in hardware, software, or a combination of hardware and software to carry out the principles of the various described embodiments. It is noted that the functional blocks illustrated in FIG. 3 may optionally be combined or separated into two or more sub-blocks to implement the principles of the described embodiments. will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of the functional blocks described herein.

1 :車両
2 :被投影部
5 :ダッシュボード
6 :路面
10 :車両用表示システム
20 :HUD装置(ヘッドアップディスプレイ装置)
21 :光出射窓
22 :筐体
28 :第1アクチュエータ
29 :第2アクチュエータ
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
40 :立体表示装置(表示装置)
50 :表示器
51 :光変調素子
52 :光学レイヤ
60 :光源ユニット
80 :リレー光学系
90 :虚像光学系
200 :アイボックス
205 :中心
300 :実オブジェクト
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :操作検出部
409 :目位置検出部
411 :車外センサ
413 :明るさ検出部
417 :携帯情報端末
419 :外部通信機器
502 :目位置検出モジュール
504 :目位置推定モジュール
506 :目位置予測モジュール
508 :条件判定モジュール
510 :表示パラメータ設定モジュール
511 :明るさ検出モジュール
512 :グラフィックモジュール
514 :光源駆動モジュール
516 :アクチュエータ駆動モジュール
700 :目位置
700L :左目位置
700R :右目位置
D10 :虚像距離
E10、E11、E12 :第1の表現深度
E20、E21、E22 :第2の表現深度
FU :知覚画像
FU1 :第1の画像
FU2 :第2の画像
K :表示光
K10 :左目用表示光
K20 :右目用表示光
V10、V11、V12 :左視点画像
V20、V21、V22 :右視点画像
VS :虚像表示領域
ΔT1 :第1の所定時間
ΔT2 :所定時間
θc :輻輳角
θc1 :第1の輻輳角
θc2 :第2の輻輳角

Reference Signs List 1: vehicle 2: projected part 5: dashboard 6: road surface 10: vehicle display system 20: HUD device (head-up display device)
21 : Light exit window 22 : Housing 28 : First actuator 29 : Second actuator 30 : Display control device 31 : I/O interface 33 : Processor 35 : Image processing circuit 37 : Memory 40 : Stereoscopic display device (display device)
50: Display 51: Light modulation element 52: Optical layer 60: Light source unit 80: Relay optical system 90: Virtual image optical system 200: Eye box 205: Center 300: Real object 401: Vehicle ECU
403 : road information database 405 : own vehicle position detection unit 407 : operation detection unit 409 : eye position detection unit 411 : outside sensor 413 : brightness detection unit 417 : portable information terminal 419 : external communication device 502 : eye position detection module 504 : Eye position estimation module 506 : Eye position prediction module 508 : Condition determination module 510 : Display parameter setting module 511 : Brightness detection module 512 : Graphic module 514 : Light source drive module 516 : Actuator drive module 700 : Eye position 700L : Left eye position 700R: Right eye position D10: Virtual image distances E10, E11, E12: First depth of expression E20, E21, E22: Second depth of expression FU: Perceptual image FU1: First image FU2: Second image K: Display light K10: Display light for left eye K20: Display light for right eye V10, V11, V12: Left viewpoint images V20, V21, V22: Right viewpoint image VS: Virtual image display area ΔT1: First predetermined time ΔT2: Predetermined time θc: Convergence angle θc1: first convergence angle θc2: second convergence angle

Claims (10)

車両に設けられ、画像を被投影部材に投影することで、観察者に前記画像の虚像を視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置(30)であって、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記プロセッサ(33)は、
前記観察者の両眼に視差を与えることで、奥行き感が表現される画像を生成し、
少なくとも前記画像が表示されてから第1の所定時間が経過したことを含む所定の第1の条件が満たされた場合、前記画像の表現深度を虚像距離に近づける第1表示処理、を実行する、
ことを特徴とする表示制御装置(30)。
A display control device (30) that executes display control in a head-up display device that is provided in a vehicle and projects an image onto a projection target member so that an observer can visually recognize a virtual image of the image,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
Said processor (33)
generating an image that expresses a sense of depth by providing parallax to both eyes of the observer;
When a predetermined first condition including at least the elapse of a first predetermined time after the image is displayed is satisfied, a first display process is performed to bring the representation depth of the image closer to the virtual image distance.
A display control device (30) characterized by:
前記プロセッサは、前記第1表示処理において、
第1の表現深度から第2の表現深度まで時間経過に伴い、段階的又は連続的に変化させ、
前記第2の表現深度に到達した後、前記画像の表現深度を維持し、
前記第2の表現深度は、前記第1の表現深度と前記虚像距離との間の深さ又は、前記虚像距離と等しい深さである、
ことを特徴とする請求項1に記載の表示制御装置(30)。
The processor, in the first display process,
change stepwise or continuously over time from the first representation depth to the second representation depth,
maintaining the representational depth of the image after reaching the second representational depth;
The second representation depth is a depth between the first representation depth and the virtual image distance or a depth equal to the virtual image distance.
A display control device (30) according to claim 1, characterized in that:
前記プロセッサは、前記第1表示処理において、
第1の表現深度から第2の表現深度に切り替え、
前記第2の表現深度に切り替えた後、前記画像の表現深度を維持し、
前記第2の表現深度は、前記第1の表現深度と前記虚像距離との間の深さ又は、前記虚像距離と等しい深さである、
ことを特徴とする請求項1に記載の表示制御装置(30)。
The processor, in the first display process,
switching from a first representation depth to a second representation depth;
maintaining the representation depth of the image after switching to the second representation depth;
The second representation depth is a depth between the first representation depth and the virtual image distance or a depth equal to the virtual image distance.
A display control device (30) according to claim 1, characterized in that:
前記第2の表現深度は、前記画像の前記第1の表現深度に応じて異なるように設定される、
ことを特徴とする請求項2又は3に記載の表示制御装置(30)。
wherein the second representation depth is set differently depending on the first representation depth of the image;
A display control device (30) according to claim 2 or 3, characterized in that:
前記プロセッサは、
前記第1表示処理の後に所定の第2の条件が満たされた場合、第2の表現深度から第1の表現深度へ変化させる第2表示処理、をさらに実行する、
ことを特徴とする請求項2乃至4のいずれか1項に記載の表示制御装置(30)。
The processor
further executing a second display process for changing from the second representation depth to the first representation depth when a predetermined second condition is satisfied after the first display process;
A display control device (30) according to any one of claims 2 to 4, characterized in that:
前記第1の表現深度と前記虚像距離との間の深さが所定距離よりも長い場合に前記第1表示処理を実行する、
ことを特徴とする請求項2乃至5の何れか1項に記載の表示制御装置(30)。
executing the first display process when the depth between the first expression depth and the virtual image distance is longer than a predetermined distance;
A display control device (30) according to any one of claims 2 to 5, characterized in that:
前記プロセッサは、
第1のコンテンツと、
前記第1のコンテンツよりも前記虚像距離との間の深さが長い前記第1の表現深度を有する第2のコンテンツと、を表示し、
前記第1の条件において、前記第2のコンテンツの前記第1の所定時間は、前記第1のコンテンツの前記第1の所定時間よりも短い、
ことを特徴とする請求項2乃至6の何れか1項に記載の表示制御装置(30)。
The processor
a first content;
displaying a second content having the first representation depth that is longer in depth from the virtual image distance than the first content;
In the first condition, the first predetermined time of the second content is shorter than the first predetermined time of the first content.
A display control device (30) according to any one of claims 2 to 6, characterized in that:
前記プロセッサは、
前記第1表示処理前では、前記画像の前記表現深度を変化させつつ、前記画像のサイズを変化させることで遠近感の変化を知覚させ、
前記第1表示処理後では、前記画像の前記表現深度を維持しつつ、前記画像のサイズを変化させることで遠近感の変化を知覚させる、
ことを特徴とする請求項2乃至7の何れか1項に記載の表示制御装置(30)。
The processor
before the first display processing, changing the size of the image while changing the depth of expression of the image to perceive a change in perspective;
After the first display processing, changing the size of the image while maintaining the depth of expression of the image causes a change in perspective to be perceived.
A display control device (30) according to any one of claims 2 to 7, characterized in that:
請求項1乃至8のいずれか一項に記載の表示制御装置と、
表示光を出射する表示器50(50)と、
前記表示器(50)からの前記表示光を被投影部にむけるリレー光学系(80)と、を備える、ヘッドアップディスプレイ装置(20)。
A display control device according to any one of claims 1 to 8;
a display device 50 (50) for emitting display light;
A head-up display device (20) comprising a relay optical system (80) for directing the display light from the display (50) to a projection target.
車両に設けられ、画像を被投影部材に投影することで、観察者に前記画像の虚像を視認させるヘッドアップディスプレイ装置における表示制御方法であって、
前記観察者の両眼に視差を与えることで、奥行き感が表現される画像を生成することと、
少なくとも前記画像が表示されてから第1の所定時間が経過したことを含む所定の第1の条件を判定することと、
前記第1の条件が満たされた場合、前記画像の表現深度を虚像距離に近づける第1表示処理と、を含む、
ことを特徴とする表示制御方法。
A display control method for a head-up display device provided in a vehicle and configured to allow an observer to visually recognize a virtual image of the image by projecting the image onto a projection target member, the method comprising:
generating an image that expresses a sense of depth by providing parallax to both eyes of the observer;
Determining a predetermined first condition including at least the elapse of a first predetermined time since the image was displayed;
A first display process that brings the representation depth of the image closer to the virtual image distance when the first condition is satisfied,
A display control method characterized by:
JP2021141367A 2021-08-31 2021-08-31 Display control device, head-up display device, and display control method Pending JP2023034899A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021141367A JP2023034899A (en) 2021-08-31 2021-08-31 Display control device, head-up display device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021141367A JP2023034899A (en) 2021-08-31 2021-08-31 Display control device, head-up display device, and display control method

Publications (1)

Publication Number Publication Date
JP2023034899A true JP2023034899A (en) 2023-03-13

Family

ID=85504775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021141367A Pending JP2023034899A (en) 2021-08-31 2021-08-31 Display control device, head-up display device, and display control method

Country Status (1)

Country Link
JP (1) JP2023034899A (en)

Similar Documents

Publication Publication Date Title
CN104883554B (en) The method and system of live video is shown by virtually having an X-rayed instrument cluster
EP3444139B1 (en) Image processing method and image processing device
JP7254832B2 (en) HEAD-UP DISPLAY, VEHICLE DISPLAY SYSTEM, AND VEHICLE DISPLAY METHOD
EP3415972B1 (en) Information display apparatus
US20210260999A1 (en) Head-up display device
JP7126115B2 (en) DISPLAY SYSTEM, MOVING OBJECT AND DESIGN METHOD
JP7459883B2 (en) Display control device, head-up display device, and method
JP2023077857A (en) Head up display device
WO2023048213A1 (en) Display control device, head-up display device, and display control method
WO2022230995A1 (en) Display control device, head-up display device, and display control method
KR20180046567A (en) Apparatus and method for controlling head up display (hud) device in vehicle
JP2023034899A (en) Display control device, head-up display device, and display control method
JP2022072954A (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
JP2022104225A (en) Display control device, head-up display apparatus and display control method
WO2023032956A1 (en) Display control device, head-up display device, and display control method
JP2019083385A (en) Head-up display unit
JP2023046339A (en) Display control device, head-up display apparatus and display control method
WO2023054307A1 (en) Display control device, head-up display device, and display control method
JP2022083609A (en) Display control device, head-up display apparatus and display control method of image
JP2023065856A (en) Display control device, head-up display device, and display control method
JP2023093913A (en) Display control device, head-up display device, and display control method
JP2021056358A (en) Head-up display device
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2020121607A (en) Display control device, method and computer program