JP2023074703A - Display control device, head-up display device and display control method - Google Patents

Display control device, head-up display device and display control method Download PDF

Info

Publication number
JP2023074703A
JP2023074703A JP2021187785A JP2021187785A JP2023074703A JP 2023074703 A JP2023074703 A JP 2023074703A JP 2021187785 A JP2021187785 A JP 2021187785A JP 2021187785 A JP2021187785 A JP 2021187785A JP 2023074703 A JP2023074703 A JP 2023074703A
Authority
JP
Japan
Prior art keywords
virtual object
display
change
vehicle
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021187785A
Other languages
Japanese (ja)
Inventor
勇希 舛屋
Yuki Masuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2021187785A priority Critical patent/JP2023074703A/en
Publication of JP2023074703A publication Critical patent/JP2023074703A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To suppress variations in an impression of the depth feeling of an image that is presented even if a position of a display region of a virtual image and an eye position of an observer are different.SOLUTION: A processor executes object movement processing of, while moving a virtual object VO, gradually changing a size As at a prescribed change rate G following the movement of the virtual object VO, and changing the change rate G on the basis of at least one of the position in the height direction of a display region 100, the eye position in the height direction of an observer in an eye box 200, the pitching attitude of a vehicle and information that can estimate these.SELECTED DRAWING: Figure 4

Description

本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法に関する。 The present disclosure relates to a display control device, a head-up display device, and a display control method that are used in a vehicle and superimpose an image on the foreground of the vehicle for visual recognition.

特許文献1には、自車両の前景(実景)にあたかも実際に存在するかのような仮想オブジェクトを遠近感のある画像で表現し、拡張現実(AR:Augmented Reality)を生成し、仮想オブジェクト(画像)が示す情報と実景に存在する実オブジェクト(道路、他車両、又は歩行者など。)とのつながりを向上させ、観察者(自車両の運転者)の視覚的負荷を軽減しつつ、情報を認識させるヘッドアップディスプレイ装置が記載されている。 Japanese Patent Laid-Open No. 2004-100003 describes a method in which a virtual object that appears to actually exist in the foreground (actual scene) of a vehicle is represented as an image with a sense of perspective, augmented reality (AR) is generated, and a virtual object ( image) and real objects (roads, other vehicles, pedestrians, etc.) present in the actual scene, thereby reducing the visual load on the observer (driver of the own vehicle) and information A head-up display device is described for recognizing the

国際公開第2018/216553号WO2018/216553

ヘッドアップディスプレイ装置は、典型的には、観察者から見た限られた領域(虚像表示領域)にだけ画像の虚像を表示することができる。自車両の運転者の目高さ(目位置)が変化しても虚像表示領域の位置が固定だとする(実質的には、目高さ(目位置)が変化すると虚像表示領域の位置は多少変化する。)と、自車両の運転者の目高さ(目位置)の違いにより、観察者から見た虚像表示領域と重なる自車両の外側の実景の領域とが異なる。具体的には、基準となる目高さで虚像表示領域が重なる実景の領域を基準実景領域とすると、基準となる目高さより高い位置から見た虚像表示領域が重なる実景領域は、観察者から見て基準実景領域よりも下側の領域となる(遠近で言えば、基準実景領域よりも近傍側の実景領域となる)。 A head-up display device can typically display a virtual image of an image only in a limited area (virtual image display area) viewed by an observer. It is assumed that the position of the virtual image display area is fixed even if the eye level (eye position) of the driver of the vehicle changes. ) and the eye height (eye position) of the driver of the vehicle, the virtual image display area viewed from the observer and the real view area outside the vehicle that overlaps differ. Specifically, if the real scene area where the virtual image display area overlaps at the reference eye level is defined as the reference real image area, the real scene area where the virtual image display area overlaps when viewed from a position higher than the reference eye level is the distance from the observer. When viewed, it becomes an area below the reference real-view area (in terms of perspective, it becomes an actual-view area closer to the reference real-view area than the reference real-view area).

逆に、基準となる目高さより低い位置から見た虚像表示領域が重なる実景領域は、観察者から見て基準実景領域よりも上側の領域となる(遠近で言えば、基準実景領域よりも遠方側の実景領域となる)。このとき、基準となる目高さより低い位置から見た虚像表示領域と、路面(又は路面上の実オブジェクト)とが重なる面積が小さくなる。ヘッドアップディスプレイ装置は、仮想オブジェクト(画像)を遠方に認識させたい場合、小さいサイズで表示し、仮想オブジェクト(画像)を近傍に認識させた場合、大きいサイズで表示することで、仮想オブジェクト(画像)の奥行き感を強調することができるが、上記のように虚像表示領域と路面(又は路面上の実オブジェクト)とが重なる面積が小さい場合、仮想オブジェクト(画像)と路面(又は路面上の実オブジェクト)との相対的な大きさが比較しづらく、仮想オブジェクト(画像)の奥行き感が把握しにくくなることも想定される。言い換えると、路面(又は路面上の実オブジェクト)とが重なる面積が小さい虚像表示領域に表示される仮想オブジェクト(画像)は、観察者に与える奥行き感が低下することも想定される。 Conversely, the real scene area where the virtual image display area overlaps when viewed from a position lower than the reference eye level is an area above the reference real scene area as seen from the observer (in terms of perspective, it is farther than the reference real scene area). the actual view area on the side). At this time, the overlapping area between the virtual image display area viewed from a position lower than the reference eye height and the road surface (or the real object on the road surface) is reduced. The head-up display device displays the virtual object (image) in a small size when the virtual object (image) is to be recognized in the distance, and displays the virtual object (image) in a large size when the virtual object (image) is to be recognized in the vicinity. ) can emphasize the sense of depth. It is assumed that it is difficult to compare the relative size with the virtual object (image), and it becomes difficult to grasp the sense of depth of the virtual object (image). In other words, it is assumed that the virtual object (image) displayed in the virtual image display area having a small area overlapping the road surface (or the real object on the road surface) gives the observer a reduced sense of depth.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of certain embodiments disclosed herein follows. It should be understood that these aspects are presented only to provide the reader with an overview of these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may encompass various aspects not described below.

本開示の概要は、観察者に与える奥行き感の低下を抑制する、より具体的には、虚像の表示領域の位置や観察者の目位置が異なっていても提示される画像の奥行き感の印象のばらつきを抑えることにも関する。 The outline of the present disclosure is to suppress the deterioration of the sense of depth given to the observer, more specifically, the impression of the sense of depth of the image presented even if the position of the display area of the virtual image and the eye position of the observer are different. It also relates to suppressing the variation of .

したがって、本明細書に記載される第1実施形態における表示制御装置は、車両内のアイボックスから見て前景に重なる表示領域内に、画像の虚像を表示する画像表示部を制御する表示制御装置において、1つ又は複数のプロセッサと、メモリと、メモリに格納され、1つ又は複数のプロセッサによって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、プロセッサは、仮想オブジェクトを移動させつつ、仮想オブジェクトの移動に伴い所定の変化率でサイズを徐々に変化させるオブジェクト移動処理と、表示領域の高さ方向の位置、アイボックス内の観察者の高さ方向の目位置、車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて、変化率を変更する変化率制御処理と、を実行する。第1実施態様は、仮想オブジェクトが重なる実景領域が変わることを推定し、仮想オブジェクトの移動に伴うサイズの変化率を調整することで、仮想オブジェクトの奥行き感を調整することができる、という利点を有する。 Therefore, the display control device according to the first embodiment described in this specification is a display control device that controls an image display unit that displays a virtual image of an image within a display area that overlaps the foreground when viewed from an eyebox in a vehicle. comprises one or more processors, a memory, and one or more computer programs stored in the memory and configured to be executed by the one or more processors, wherein the processors are virtual Object movement processing that gradually changes the size at a predetermined change rate as the virtual object moves while moving the object, the position in the height direction of the display area, and the eye position in the eye box in the height direction of the observer. , the pitching attitude of the vehicle, and change rate control processing for changing the rate of change based on at least one of information that can estimate these. The first embodiment has the advantage of being able to adjust the sense of depth of the virtual object by estimating that the real scene area where the virtual object overlaps changes and adjusting the rate of change in size accompanying the movement of the virtual object. have.

また、第1の実施形態に従属し得る第2実施形態における表示制御装置において、オブジェクト移動処理は、車両の進行に基づき、仮想オブジェクトを移動させつつ、仮想オブジェクトの移動に伴い第1の変化率でサイズを徐々に変化させる第1のオブジェクト移動処理と、車両の進行に基づき、仮想オブジェクトを移動させつつ、仮想オブジェクトの移動に伴い第1の変化率より大きい第2の変化率でサイズを徐々に変化させる第2のオブジェクト移動処理と、を少なくとも含み、前記表示領域(100)の高さ方向の位置、前記アイボックス(200)内の観察者の高さ方向の目位置、前記車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて切り替え、第2の変化率は、車両の進行に伴う実世界における実オブジェクトのサイズの変化率よりも大きい。第2に実施形態では、車両の進行に基づき、仮想オブジェクトを移動させつつ、サイズを変化させるので、仮想オブジェクトが実景に調和しやすくなる。第2に実施形態では、これに加え、車両の進行に伴う実世界における実オブジェクトのサイズの変化率よりも大きい変化率で仮想オブジェクトのサイズを変化させつつ移動させる。これにより、仮想オブジェクトの奥行き感が低下するようなシチュエーションでも仮想オブジェクトの奥行き感を強調することができるという利点を有する。 Further, in the display control device according to the second embodiment, which can be subordinate to the first embodiment, the object movement processing moves the virtual object based on the progress of the vehicle, and adjusts the first change rate according to the movement of the virtual object. and gradually changing the size at a second change rate larger than the first change rate along with the movement of the virtual object while moving the virtual object based on the progress of the vehicle. a position of the display area (100) in the height direction, eye position in the eye box (200) of the observer in the height direction, pitching of the vehicle The second rate of change is greater than the rate of change of the size of the real object in the real world as the vehicle progresses. Secondly, in the embodiment, the size of the virtual object is changed while moving the virtual object based on the progress of the vehicle, so that the virtual object easily blends in with the real scene. Secondly, in the second embodiment, in addition to this, the virtual object is moved while changing its size at a rate of change greater than the rate of change of the size of the real object in the real world as the vehicle advances. This has the advantage that it is possible to emphasize the sense of depth of the virtual object even in a situation where the sense of depth of the virtual object is lowered.

また、第1又は第2の実施形態に従属し得る第3実施形態における表示制御装置において、プロセッサは、変化率が大きい仮想オブジェクトの輝度を、変化率が小さい仮想オブジェクトの輝度より低く設定する。移動に伴うサイズの変化率が大きい仮想オブジェクトは、奥行き感が強調されるが、観察者の視覚的注意が過度に奪われることも想定される。第3に実施形態では、移動に伴うサイズの変化率を大きくすることで、仮想オブジェクトの奥行き感を強調する。第3の実施形態では、これに加え、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 Further, in the display control device according to the third embodiment, which can be subordinate to the first or second embodiment, the processor sets the brightness of the virtual object having a large rate of change to be lower than the brightness of the virtual object having a small rate of change. A virtual object with a large rate of change in size with movement emphasizes the sense of depth, but it is also assumed that the viewer's visual attention is excessively deprived. Thirdly, in the embodiment, the sense of depth of the virtual object is emphasized by increasing the rate of change in size that accompanies movement. In the third embodiment, in addition to this, the brightness of a virtual object whose size change rate is large due to movement is set lower than the brightness of a virtual object whose size change rate is small due to movement. can be suppressed from being excessively deprived.

また、第1又は第2の実施形態に従属し得る第4実施形態における表示制御装置において、プロセッサは、オブジェクト移動処理において、遠方表示態様と、仮想オブジェクトの移動において遠方表示態様よりも下方であり、遠方表示態様よりもサイズが大きい近傍表示態様と、を設定し、遠方表示態様では、変化率が大きい仮想オブジェクトの輝度と、変化率が小さい仮想オブジェクトの輝度とを同じに設定し、近傍表示態様では、変化率が大きい仮想オブジェクトの輝度を、変化率が小さい仮想オブジェクトの輝度より低く設定する。移動に伴うサイズの変化率が大きい仮想オブジェクトは、奥行き感が強調され、特に近傍表示態様では大きく表示され、観察者の視覚的注意が過度に奪われることも想定される。第4の実施形態では、特にサイズが大きくなり観察者の視覚的注意が奪われやすい近傍表示態様において、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを効果的に抑制することができる。 Further, in the display control device according to the fourth embodiment, which can be subordinate to the first or second embodiment, the processor, in the object movement processing, controls the distant display mode and the movement of the virtual object below the distant display mode. , and a near display mode having a larger size than the distant display mode, and in the far display mode, the brightness of the virtual object with a large change rate and the brightness of the virtual object with a small change rate are set to be the same, and the near display mode is set. In this aspect, the brightness of a virtual object with a large rate of change is set lower than the brightness of a virtual object with a small rate of change. A virtual object with a large rate of change in size as it moves emphasizes the sense of depth, and is displayed large especially in the near display mode, and it is assumed that the visual attention of the observer is excessively deprived. In the fourth embodiment, the brightness of a virtual object having a large rate of change in size with movement is adjusted to the brightness of a virtual object with a large rate of change in size with movement, especially in a neighborhood display mode that tends to deprive the viewer of visual attention due to its large size. Since the brightness is set to be lower than that of a small virtual object, it is possible to effectively prevent the viewer's visual attention from being excessively deprived.

また、第1乃至4の実施形態に従属し得る第5実施形態における表示制御装置において、プロセッサは、オブジェクト移動処理において、仮想オブジェクトに最大サイズを設定し、仮想オブジェクトの移動の一部において、仮想オブジェクトのサイズが最大サイズより大きくならないように仮想オブジェクトのサイズを最大サイズに維持しつつ移動させ、仮想オブジェクトの移動の他部において、仮想オブジェクトのサイズが最大サイズより小さい範囲で、仮想オブジェクトのサイズを徐々に変化させつつ移動させる。第5の実施形態では、移動に伴うサイズに上限(最大サイズ)を設定することで、仮想オブジェクトが過度に大きく表示され、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 Further, in the display control device according to the fifth embodiment that can be subordinate to the first to fourth embodiments, the processor sets the maximum size of the virtual object in the object movement processing, Move the virtual object while maintaining the size of the virtual object at the maximum size so that the size of the object does not exceed the maximum size. is moved while changing gradually. In the fifth embodiment, by setting an upper limit (maximum size) to the size associated with movement, it is possible to prevent the virtual object from being displayed in an excessively large size and thereby excessively depriving the observer's visual attention. can be done.

また、特に、第5実施形態における表示制御装置において、プロセッサは、オブジェクト移動処理において、1)遠方表示態様と、仮想オブジェクトの移動において遠方表示態様よりも下方であり、遠方表示態様よりもサイズが大きい近傍表示態様と、を設定し、遠方表示態様では、変化率が大きい仮想オブジェクトの輝度と、変化率が小さい仮想オブジェクトの輝度とを同じに設定し、近傍表示態様では、変化率が大きい仮想オブジェクトの輝度を、変化率が小さい仮想オブジェクトの輝度より低く設定し、かつ2)仮想オブジェクトに最大サイズを設定し、前記近傍表示態様で表示される仮想オブジェクトの移動の少なくとも一部において、仮想オブジェクトのサイズが最大サイズより大きくならないように仮想オブジェクトのサイズを最大サイズに維持しつつ移動させる。この第5の実施形態では、特にサイズが大きくなり観察者の視覚的注意が奪われやすい近傍表示態様において、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを効果的に抑制することができる。これに加え、移動に伴うサイズに上限(最大サイズ)を設定することで、仮想オブジェクトが過度に大きく表示され、観察者の視覚的注意が過度に奪われてしまうことを抑制することもできる。 In particular, in the display control device according to the fifth embodiment, in the object movement processing, the processor performs 1) a distant display mode, and a virtual object moving lower than the distant display mode and having a size larger than the distant display mode. In the distant display mode, the brightness of a virtual object with a large rate of change is set to be the same as that of a virtual object with a small rate of change. 2) setting the brightness of the object to be lower than the brightness of the virtual object whose rate of change is small; Move the virtual object while maintaining the maximum size so that the size of the virtual object does not exceed the maximum size. In this fifth embodiment, in a neighborhood display mode that is particularly large in size and tends to deprive the visual attention of the observer, the brightness of a virtual object whose size change rate with movement is large is adjusted to the size change rate with movement. is lower than the luminance of the virtual object with a small V, it is possible to effectively prevent the observer's visual attention from being excessively deprived. In addition to this, by setting an upper limit (maximum size) for the size associated with movement, it is possible to prevent the virtual object from being displayed in an excessively large size and thereby excessively depriving the observer's visual attention.

また、第1乃至5の実施形態に従属し得る第6実施形態における表示制御装置において、プロセッサは、表示領域の高さ方向の位置、アイボックス内の観察者の高さ方向の目位置、車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて、目位置又はアイボックスの所定の位置から観察したときの表示領域内における路面の占める割合を算出し、割合が小さいと判定される場合、変化率を大きくする。第6の実施形態では、目位置又はアイボックスの所定の位置から観察したときの表示領域内における路面の占める割合に基づき、観察者に与える仮想オブジェクトの奥行き感が低下することが推定されるシチュエーションを判定し、効果的に仮想オブジェクトの遠近感を強調することができる。 Further, in the display control device according to the sixth embodiment that can be subordinate to the first to fifth embodiments, the processor controls the position of the display area in the height direction, the eye position of the observer in the eye box in the height direction, the vehicle Based on the pitching posture of the pitcher and at least one of the information that can be estimated, calculate the ratio of the road surface in the display area when observed from a predetermined position of the eye position or the eye box, and determine that the ratio is small. If so, increase the rate of change. In the sixth embodiment, a situation in which the observer's sense of depth of the virtual object is estimated to decrease based on the ratio of the road surface in the display area when observed from a predetermined eye position or eyebox position. can be determined, and the perspective of the virtual object can be effectively emphasized.

また、第7実施形態におけるヘッドアップディスプレイ装置は、第1乃至6実施形態のいずれか1項に記載の表示制御装置と、表示面に画像を表示する表示器と、表示器が表示する画像の表示光を、外部の被投影部に投影することで、アイボックスから見て前景に重なる表示領域内に、画像の虚像を表示する1つ又は複数のリレー光学系(25)と、を備える。 Further, a head-up display device according to the seventh embodiment includes the display control device according to any one of the first to sixth embodiments, a display for displaying an image on a display surface, and an image displayed by the display. and one or more relay optical systems (25) for displaying a virtual image of an image in a display area overlapping the foreground when viewed from the eyebox by projecting the display light onto an external projection target.

また、第8実施形態における表示制御方法は、車両内のアイボックスから見て前景に重なる表示領域内に、画像の虚像を表示する画像表示部を制御する表示制御方法において、仮想オブジェクトを移動させつつ、仮想オブジェクトの移動に伴い所定の変化率でサイズを徐々に変化させるオブジェクト移動処理と、表示領域の高さ方向の位置、アイボックス内の観察者の高さ方向の目位置、車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて、変化率を変更する変化率制御処理と、を含む。 Further, the display control method according to the eighth embodiment is a display control method for controlling an image display unit that displays a virtual image of an image within a display area that overlaps the foreground when viewed from an eyebox in the vehicle, and moves a virtual object. Also, object movement processing for gradually changing the size at a predetermined change rate as the virtual object moves, the position in the height direction of the display area, the eye position in the eye box in the height direction of the observer, and the pitching of the vehicle. a rate of change control process for changing the rate of change based on at least one of posture and information from which these can be estimated.

図1は、車両用表示システムの適用例を示す図である。FIG. 1 is a diagram showing an application example of a vehicle display system. 図2は、画像表示部の構成を示す図である。FIG. 2 is a diagram showing the configuration of the image display unit. 図3は、車両用表示システムのブロック図である。FIG. 3 is a block diagram of a vehicle display system. 図4は、ヘッドアップディスプレイ装置が表示する仮想オブジェクトの例を示す図である。図4の上段のAA乃至ACは、表示領域(第1の表示領域)が比較的低い位置に配置される際の仮想オブジェクト(第1の仮想オブジェクト)の表示例を示す図である。図4の下段のBA乃至BCは、表示領域(第2の表示領域)が比較的高い位置(第2の表示領域は第1の表示領域より高い位置である。)に配置される際の仮想オブジェクト(第2の仮想オブジェクト)の表示例を示す図である。FIG. 4 is a diagram showing an example of a virtual object displayed by the head-up display device. AA to AC in the upper part of FIG. 4 are diagrams showing display examples of the virtual object (first virtual object) when the display area (first display area) is arranged at a relatively low position. BA to BC in the lower part of FIG. 4 are hypothetical images when the display area (second display area) is arranged at a relatively high position (the second display area is higher than the first display area). FIG. 10 is a diagram showing a display example of an object (second virtual object); 図5は、いくつかの実施形態に従って、仮想オブジェクトを移動させながらサイズを徐々に変えるオブジェクト移動処理を実行する方法を示すフロー図である。FIG. 5 is a flow diagram illustrating a method of performing an object movement process that incrementally changes the size of a virtual object while moving it, according to some embodiments. 図6は、仮想オブジェクトの移動に伴うサイズの変化特性のいくつかの実施形態を示すグラフであり、横軸が仮想オブジェクトの仮想的に設定される表現深度であり、縦軸が表現深度VLだけ離れた位置から視認される仮想オブジェクトのサイズ(視角)である。FIG. 6 is a graph showing several embodiments of size change characteristics accompanying movement of a virtual object, where the horizontal axis represents the representation depth virtually set for the virtual object, and the vertical axis represents only the representation depth VL. This is the size (viewing angle) of the virtual object viewed from a distant position. 図6Bは、仮想オブジェクトの移動に伴うサイズの変化特性のいくつかの実施形態を示すグラフである。FIG. 6B is a graph illustrating some embodiments of size change characteristics with movement of a virtual object. 図6Cは、仮想オブジェクトの移動に伴うサイズの変化特性のいくつかの実施形態を示すグラフである。FIG. 6C is a graph illustrating some embodiments of size change characteristics with movement of a virtual object. 図6Dは、仮想オブジェクトの移動に伴うサイズの変化特性のいくつかの実施形態を示すグラフである。FIG. 6D is a graph illustrating some embodiments of size change characteristics with movement of a virtual object. 図6Eは、仮想オブジェクトの移動に伴うサイズの変化特性のいくつかの実施形態を示すグラフである。FIG. 6E is a graph illustrating some embodiments of size change characteristics with movement of a virtual object. 図6Fは、仮想オブジェクトの移動に伴うサイズの変化特性のいくつかの実施形態を示すグラフである。FIG. 6F is a graph illustrating some embodiments of size change characteristics with movement of a virtual object. 図7Aは、仮想オブジェクトの移動に伴う輝度特性のいくつかの実施形態を示すグラフであり、横軸が仮想オブジェクトの仮想的に設定される表現深度であり、縦軸が仮想オブジェクトの輝度である。FIG. 7A is a graph showing several embodiments of brightness characteristics accompanying movement of a virtual object, where the horizontal axis is the virtual depth of representation of the virtual object and the vertical axis is the brightness of the virtual object. . 図7Bは、仮想オブジェクトの移動に伴う輝度特性のいくつかの実施形態を示すグラフである。FIG. 7B is a graph illustrating some embodiments of luminance characteristics as virtual objects move. 図7Cは、仮想オブジェクトの移動に伴う輝度特性のいくつかの実施形態を示すグラフである。FIG. 7C is a graph illustrating some embodiments of luminance characteristics as virtual objects move. 図7Dは、仮想オブジェクトの移動に伴う輝度特性のいくつかの実施形態を示すグラフである。FIG. 7D is a graph illustrating some embodiments of luminance characteristics as virtual objects move.

以下、図1乃至図7Dでは、本実施形態の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 1-7D below provide a description of this embodiment. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Of course, modifications (including deletion of constituent elements) can be added to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.

図1を参照する。本実施形態の車両用表示システム10は、画像表示部20と、画像表示部20を制御する表示制御装置30と、表示制御装置30に接続される後述の電子機器と、で構成される。 Please refer to FIG. The vehicle display system 10 of the present embodiment includes an image display unit 20 , a display control device 30 that controls the image display unit 20 , and electronic devices that are connected to the display control device 30 and will be described later.

車両用表示システム10における画像表示部20は、車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head-Up Display)装置である。画像表示部20は、表示光40をフロントウインドシールド2(被投影部の一例である)に向けて出射し、フロントウインドシールド2は、画像表示部20が表示する画像Mの表示光40をアイボックス200へ反射する。観察者は、アイボックス200内に目4を配置することで、フロントウインドシールド2を介して視認される現実空間である前景に重なる位置に、画像表示部20が表示する画像Mの虚像Vを視認することができる。なお、本実施形態に用いる図面において、車両1の左右方向をX軸方向(車両1の前方を向いた際の左側がX軸正方向)とし、上下方向をY軸方向(路面を走行する車両1の上側がY軸正方向)とし、車両1の前後方向をZ軸方向(車両1の前方がZ軸正方向)とする。 The image display unit 20 in the vehicle display system 10 is a head-up display (HUD: Head-Up Display) device provided in the dashboard 5 of the vehicle 1 . The image display unit 20 emits the display light 40 toward the front windshield 2 (which is an example of the projected portion), and the front windshield 2 receives the display light 40 of the image M displayed by the image display unit 20 as an eye. Reflect back to box 200 . By arranging the eye 4 in the eye box 200, the observer can see the virtual image V of the image M displayed by the image display unit 20 at a position overlapping the foreground which is the real space viewed through the front windshield 2. can be visually recognized. In the drawings used in this embodiment, the left-right direction of the vehicle 1 is the X-axis direction (the left side of the vehicle 1 facing forward is the positive X-axis direction), and the vertical direction is the Y-axis direction (a vehicle running on a road surface). 1 is the positive direction of the Y-axis), and the longitudinal direction of the vehicle 1 is the direction of the Z-axis (the front of the vehicle 1 is the positive direction of the Z-axis).

本実施形態の説明で用いる「アイボックス」とは、(1)領域内では画像Mの虚像Vの少なくとも一部が視認でき、領域外では画像Mの虚像Vの一部分も視認されない領域、(2)領域内では画像Mの虚像Vの少なくとも一部が所定の輝度以上で視認でき、領域外では画像Mの虚像Vの全体が前記所定の輝度未満である領域、又は(3)画像表示部20が立体視可能な虚像Vを表示可能である場合、虚像Vの少なくとも一部が立体視でき、領域外では虚像Vの一部分も立体視されない領域である。すなわち、観察者が目(両目)4をアイボックス200外に配置すると、観察者は、画像Mの虚像Vの全体が視認できない、画像Mの虚像Vの全体の視認性が非常に低く知覚しづらい、又は画像Mの虚像Vが立体視できない。前記所定の輝度とは、例えば、アイボックスの中心で視認される画像Mの虚像の輝度に対して1/50程度である。 The “eyebox” used in the description of the present embodiment means (1) an area in which at least a portion of the virtual image V of the image M is visible, and a portion of the virtual image V of the image M is not visible outside the area; ) a region where at least part of the virtual image V of the image M can be visually recognized with a predetermined luminance or more within the region, and the entire virtual image V of the image M is less than the predetermined luminance outside the region, or (3) the image display unit 20 is an area where at least part of the virtual image V can be stereoscopically viewed, and part of the virtual image V is not stereoscopically viewed outside the area. That is, when the observer places the eyes (both eyes) 4 outside the eyebox 200, the observer cannot see the entire virtual image V of the image M, and perceives that the visibility of the entire virtual image V of the image M is very low. or the virtual image V of the image M cannot be viewed stereoscopically. The predetermined brightness is, for example, about 1/50 of the brightness of the virtual image of the image M viewed at the center of the eyebox.

表示領域100は、画像表示部20の内部で生成された画像Mが、虚像Vとして結像する平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。表示領域100は、画像表示部20の後述する表示器21の表示面(例えば、液晶ディスプレイパネルの出射面)21aが虚像として結像される位置であり、すなわち、表示領域100は、画像表示部20の後述する表示面21aに対応し(言い換えると、表示領域100は、後述する表示器21の表示面21aと、共役関係となる。)、そして、表示領域100で視認される虚像は、画像表示部20の後述する表示面21aに表示される画像に対応している、と言える。表示領域100自体は、実際に観察者の目4に視認されない、又は視認されにくい程度に視認性が低いことが好ましい。表示領域100には、車両1の左右方向(X軸方向)を軸とした水平方向(XZ平面)とのなす角度(図1のチルト角θt)と、アイボックス200の中心205と表示領域100の上端101とを結ぶ線分と、アイボックス中心と表示領域100の下端102とを結ぶ線分とのなす角度を表示領域100の縦画角として、この縦画角の二等分線と水平方向(XZ平面)とのなす角度(図1の縦配置角θv)と、が設定される。 The display area 100 is a planar, curved, or partially curved area on which an image M generated inside the image display unit 20 is formed as a virtual image V, and is also called an imaging plane. The display area 100 is a position where a display surface (e.g., an exit surface of a liquid crystal display panel) 21a of a display device 21, which will be described later, of the image display unit 20 is formed as a virtual image. 20 (in other words, the display area 100 has a conjugate relationship with the display surface 21a of the display device 21, which will be described later). It can be said that it corresponds to an image displayed on a display surface 21a of the display unit 20, which will be described later. It is preferable that the visibility of the display area 100 itself is so low that it is not actually visible to the observer's eyes 4 or is difficult to be visually recognized. In the display area 100, an angle (tilt angle θt in FIG. 1) formed between the left-right direction (X-axis direction) of the vehicle 1 and the horizontal direction (XZ plane), the center 205 of the eyebox 200, and the display area 100 The angle formed by the line segment connecting the upper end 101 and the line segment connecting the center of the eyebox and the lower end 102 of the display area 100 is defined as the vertical angle of view of the display area 100, and the bisector of this vertical angle of view and the horizontal and the angle (vertical arrangement angle θv in FIG. 1) formed with the direction (XZ plane) are set.

本実施形態の表示領域100は、前方(Z軸正方向)を向いた際に概ね正対するように、概ね90[degree]のチルト角θtを有する。但し、チルト角θtは、これに限定されるものではなく、0≦θt<90[degree]の範囲で変更し得る。この場合、例えば、チルト角θtは、60[degree]に設定され、表示領域100は、観察者から見て上側の領域が下側の領域より遠方になるように配置されてもよい。 The display area 100 of the present embodiment has a tilt angle θt of approximately 90 [degrees] so that the display area 100 generally faces the front (positive direction of the Z axis). However, the tilt angle θt is not limited to this, and can be changed within the range of 0≦θt<90 [degree]. In this case, for example, the tilt angle θt may be set to 60 [degrees], and the display area 100 may be arranged such that the upper area is farther from the lower area as viewed from the observer.

図2は、本実施形態のHUD装置20の構成を示す図である。HUD装置20は、画像Mを表示する表示面21aを有する表示器21と、リレー光学系25と、を含む。 FIG. 2 is a diagram showing the configuration of the HUD device 20 of this embodiment. The HUD device 20 includes a display 21 having a display surface 21a that displays an image M, and a relay optical system 25 .

図2の表示器21は、液晶ディスプレイパネル22と、光源ユニット24と、から構成される。表示面21aは、液晶ディスプレイパネル22の視認側の表面であり、画像Mの表示光40を出射する。表示面21aの中心からリレー光学系25及び前記被投影部を介してアイボックス200(アイボックス200の中央)へ向かう表示光40の光軸40pに対する、表示面21aの角度の設定により、表示領域100の角度(チルト角θtを含む。)が設定され得る。 The display 21 in FIG. 2 is composed of a liquid crystal display panel 22 and a light source unit 24 . The display surface 21a is the surface of the liquid crystal display panel 22 on the viewing side, and emits the display light 40 of the image M. As shown in FIG. By setting the angle of the display surface 21a with respect to the optical axis 40p of the display light 40 directed from the center of the display surface 21a to the eyebox 200 (the center of the eyebox 200) via the relay optical system 25 and the projection target portion, the display area 100 angles (including the tilt angle θt) can be set.

リレー光学系25は、表示器21から出射された表示光40(表示器21からアイボックス200へ向かう光。)の光路上に配置され、表示器21からの表示光40をHUD装置20の外側のフロントウインドシールド2に投影する1つ又はそれ以上の光学部材で構成される。図2のリレー光学系25は、1つの凹状の第1ミラー26と、1つの平面の第2ミラー27と、を含む。 The relay optical system 25 is arranged on the optical path of the display light 40 emitted from the display device 21 (the light from the display device 21 toward the eyebox 200 ). consists of one or more optical elements that project onto the front windshield 2 of the The relay optical system 25 of FIG. 2 includes one concave first mirror 26 and one planar second mirror 27 .

第1ミラー26は、例えば、正の光学的パワーを有する自由曲面形状である。換言すると、第1ミラー26は、領域毎に光学的パワーが異なる曲面形状であってもよく、すなわち、表示光40が通る領域(光路)に応じて表示光40に付加される光学的パワーが異なってもよい。具体的には、表示面21aの各領域からアイボックス200へ向かう第1画像光41、第2画像光42、第3画像光43(図2参照)とで、リレー光学系25によって付加される光学的パワーが異なってもよい。 The first mirror 26 has, for example, a free-form surface shape with positive optical power. In other words, the first mirror 26 may have a curved shape with different optical power for each region. can be different. Specifically, the first image light 41, the second image light 42, and the third image light 43 (see FIG. 2) traveling from each region of the display surface 21a toward the eyebox 200 are added by the relay optical system 25. The optical power may be different.

なお、第2ミラー27は、例えば、平面ミラーであるが、これに限定されるものではなく、光学的パワーを有する曲面であってもよい。すなわち、リレー光学系25は、複数のミラー(例えば、本実施形態の第1ミラー26、第2ミラー27。)を合成することで、表示光40が通る領域(光路)に応じて付加される光学的パワーを異ならせてもよい。なお、第2ミラー27は、省略されてもよい。すなわち、表示器21から出射される表示光40は、第1ミラー26により被投影部(フロントウインドシールド)2に反射されてもよい。 The second mirror 27 is, for example, a flat mirror, but is not limited to this, and may be a curved surface having optical power. That is, the relay optical system 25 is added according to the area (optical path) through which the display light 40 passes by synthesizing a plurality of mirrors (for example, the first mirror 26 and the second mirror 27 of this embodiment). Different optical powers may be used. Note that the second mirror 27 may be omitted. That is, the display light 40 emitted from the display device 21 may be reflected by the first mirror 26 to the projection target (front windshield) 2 .

また、本実施形態では、リレー光学系25は、2つのミラーを含んでいたが、これに限定されるものではなく、これらに追加又は代替で、1つ又はそれ以上の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材、又はこれらの組み合わせを含んでいてもよい。 Also, in this embodiment, the relay optics 25 includes two mirrors, but is not limited to this, and additionally or alternatively, one or more refractive optics such as lenses. It may comprise a member, a diffractive optical member such as a hologram, a reflective optical member, or a combination thereof.

また、本実施形態のリレー光学系25は、この曲面形状(光学的パワーの一例。)により、表示領域100までの距離を設定する機能、及び表示面21aに表示された画像を拡大した虚像を生成する機能、を有するが、これに加えて、フロントウインドシールド2の湾曲形状により生じ得る虚像の歪みを抑制する(補正する)機能、を有していてもよい。 In addition, the relay optical system 25 of the present embodiment has a function of setting the distance to the display area 100 and a virtual image obtained by enlarging the image displayed on the display surface 21a with this curved surface shape (an example of optical power). In addition to this, it may have a function of suppressing (correcting) the distortion of the virtual image that may occur due to the curved shape of the front windshield 2 .

また、リレー光学系25は、表示制御装置30により制御されるアクチュエータ28、29が取り付けられ、回転可能であってもよい。 Also, the relay optical system 25 may be attached with actuators 28 and 29 controlled by the display control device 30 and may be rotatable.

液晶ディスプレイパネル22は、光源ユニット24から光を入射し、空間光変調した表示光40をリレー光学系25(第2ミラー27)へ向けて出射する。液晶ディスプレイパネル22は、例えば、観察者から見た虚像Vの上下方向(Y軸方向)に対応する画素が配列される方向が短辺である矩形状である。観察者は、液晶ディスプレイパネル22の透過光を、虚像光学系90を介して視認する。虚像光学系90は、図2で示すリレー光学系25とフロントウインドシールド2とを合わせたものである。 The liquid crystal display panel 22 receives light from the light source unit 24 and emits spatially modulated display light 40 toward the relay optical system 25 (second mirror 27). The liquid crystal display panel 22 has, for example, a rectangular shape whose short side is the direction in which the pixels are arranged corresponding to the vertical direction (Y-axis direction) of the virtual image V viewed by the observer. An observer visually recognizes the light transmitted through the liquid crystal display panel 22 through the virtual image optical system 90 . The virtual image optical system 90 is a combination of the relay optical system 25 and the front windshield 2 shown in FIG.

光源ユニット24は、光源(不図示)と、照明光学系(不図示)と、によって構成される。 The light source unit 24 is composed of a light source (not shown) and an illumination optical system (not shown).

光源(不図示)は、例えば、複数のチップ型のLEDであり、液晶ディスプレイパネル(空間光変調素子の一例)22へ照明光を出射する。光源ユニット24は、例えば、4つの光源で構成されており、液晶ディスプレイパネル22の長辺に沿って一列に配置される。光源ユニット24は、表示制御装置30からの制御のもと、照明光を液晶ディスプレイパネル22に向けて出射する。光源ユニット24の構成や光源の配置などはこれに限定されない。 A light source (not shown) is, for example, a plurality of chip-type LEDs, and emits illumination light to a liquid crystal display panel (an example of a spatial light modulation element) 22 . The light source unit 24 is composed of four light sources, for example, and is arranged in a line along the long side of the liquid crystal display panel 22 . The light source unit 24 emits illumination light toward the liquid crystal display panel 22 under the control of the display control device 30 . The configuration of the light source unit 24 and the arrangement of the light sources are not limited to this.

照明光学系(不図示)は、例えば、光源ユニット24の照明光の出射方向に配置された1つ又は複数のレンズ(不図示)と、1つ又は複数のレンズの出射方向に配置された拡散板(不図示)と、によって構成される。 The illumination optical system (not shown) includes, for example, one or more lenses (not shown) arranged in the emission direction of the illumination light from the light source unit 24, and a diffuser lens (not shown) arranged in the emission direction of the one or more lenses. a plate (not shown);

なお、表示器21は、自発光型ディスプレイであってもよく、又は、スクリーンに画像を投影するプロジェクション型ディスプレイであってもよい。この場合、表示面21aは、プロジェクション型ディスプレイのスクリーンである。 The display device 21 may be a self-luminous display or a projection display that projects an image onto a screen. In this case, the display surface 21a is the screen of a projection display.

また、表示器21は、表示制御装置30により制御されるモータなどを含む不図示のアクチュエータが取り付けられ、表示面21aを移動、及び/又は回転可能であってもよい。 Further, the display 21 may be attached with an actuator (not shown) including a motor controlled by the display control device 30 so that the display surface 21a can be moved and/or rotated.

リレー光学系25は、アイボックス200を上下方向(Y軸方向)に移動させる2つの回転軸(第1の回転軸AX1、第2の回転軸AX2)を有する。第1の回転軸AX1、第2の回転軸AX2それぞれは、HUD装置20が車両1に取り付けられた状態で、車両1の左右方向(X軸方向)と垂直とならない(換言すると、YZ平面と平行にならない)ように設定される。具体的には、第1の回転軸AX1、第2の回転軸AX2は、車両1の左右方向(X軸方向)との間の角度が、45[degree]未満に設定され、さらに好ましくは、20[degree]未満に設定される。 The relay optical system 25 has two rotation axes (first rotation axis AX1 and second rotation axis AX2) for moving the eyebox 200 in the vertical direction (Y-axis direction). When the HUD device 20 is attached to the vehicle 1, the first rotation axis AX1 and the second rotation axis AX2 are not perpendicular to the left-right direction (X-axis direction) of the vehicle 1 (in other words, the YZ plane and the second rotation axis AX2). parallel). Specifically, the angle between the first rotation axis AX1 and the second rotation axis AX2 and the left-right direction (X-axis direction) of the vehicle 1 is set to be less than 45 degrees. It is set to less than 20 [degree].

HUD装置20は、第1の回転軸AX1で第1ミラー26を回転させる第1アクチュエータ28と、第2の回転軸AX2で第1ミラー26を回転させる第2アクチュエータ29と、を含む。言い換えると、HUD装置20は、1つのリレー光学系25を2つの軸(第1の回転軸AX1、第2の回転軸AX2)で回転させる。なお、第1アクチュエータ28と第2アクチュエータ29は、統合された1つの2軸アクチュエータで構成されてもよい。 The HUD device 20 includes a first actuator 28 that rotates the first mirror 26 about a first rotation axis AX1, and a second actuator 29 that rotates the first mirror 26 about a second rotation axis AX2. In other words, the HUD device 20 rotates one relay optical system 25 about two axes (first rotation axis AX1 and second rotation axis AX2). Note that the first actuator 28 and the second actuator 29 may be configured as a single integrated biaxial actuator.

また、他の実施形態におけるHUD装置20は、2つのリレー光学系25を2つの軸(第1の回転軸AX1、第2の回転軸AX2)で回転させる。例えば、HUD装置20は、第1の回転軸AX1で第1ミラー26を回転させる第1アクチュエータ28と、第2の回転軸AX2で第2ミラー27を回転させる第2アクチュエータ29と、を含んでいてもよい。 Also, the HUD device 20 in another embodiment rotates the two relay optical systems 25 on two axes (first rotation axis AX1 and second rotation axis AX2). For example, the HUD device 20 includes a first actuator 28 that rotates a first mirror 26 about a first rotation axis AX1 and a second actuator 29 that rotates a second mirror 27 about a second rotation axis AX2. You can

なお、第1の回転軸AX1の回転により、アイボックス200の上下方向の移動量が比較的大きくなり、第2の回転軸AX2の回転により、表示領域100の上下方向の移動量が比較的大きくなるのであれば、第1の回転軸AX1と第2の回転軸AX2との配置は、これらに限定されない。また、アクチュエータによる駆動は、回転に加えて又は代えて、移動を含んでいてもよい。 The amount of vertical movement of the eyebox 200 is relatively large due to the rotation of the first rotation axis AX1, and the amount of vertical movement of the display area 100 is relatively large due to the rotation of the second rotation axis AX2. If so, the arrangement of the first rotation axis AX1 and the second rotation axis AX2 is not limited to these. Actuator actuation may also include movement in addition to or instead of rotation.

また、他の実施形態におけるHUD装置20は、リレー光学系25を駆動しなくてもよい。換言すると、HUD装置20は、リレー光学系25を回転、及び/又は回転させるアクチュエータを有していなくてもよい。この実施形態のHUD装置20は、車両1の使用が想定される運転者の目高さのレンジをカバーする広いアイボックス200を備え得る。 Also, the HUD device 20 in other embodiments may not drive the relay optical system 25 . In other words, the HUD device 20 may not have an actuator that rotates and/or rotates the relay optics 25 . The HUD device 20 of this embodiment may include a wide eyebox 200 to cover the range of eye heights of the drivers expected to use the vehicle 1 .

画像表示部20は、後述する表示制御装置30の制御に基づいて、車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景に重畳する位置に仮想オブジェクトVO存在する、走行レーンの路面310、分岐路330、道路標識、障害物(歩行者320、自転車、自動二輪車、他車両など)、及び地物(建物、橋など)などの実オブジェクト300の近傍、実オブジェクト300に重なる位置、又は実オブジェクト300を基準に設定された位置に画像を表示することで、視覚的な拡張現実(AR:Augmented Reality)を観察者(典型的には、車両1の運転席に着座する観察者)に知覚させることもできる。本実施形態の説明では、実景に存在する実オブジェクト300の位置に応じて、表示される位置を変化させ得る画像をAR画像と定義し、実オブジェクト300の位置によらず、表示される位置が設定される画像を非AR画像と定義することとする。以下に、AR画像の例を説明する。 Under the control of the display control device 30, which will be described later, the image display unit 20 has a virtual object VO at a position superimposed on the foreground, which is a real space (real scene) viewed through the front windshield 2 of the vehicle 1. The road surface 310 of the driving lane, the fork 330, road signs, obstacles (pedestrians 320, bicycles, motorcycles, other vehicles, etc.), and the vicinity of real objects 300 such as features (buildings, bridges, etc.), real objects 300 , or at a position set based on the real object 300, visual augmented reality (AR) can be viewed by an observer (typically, sitting in the driver's seat of the vehicle 1). It can also be made to perceive by the observer). In the description of this embodiment, an image whose displayed position can be changed according to the position of the real object 300 existing in the real scene is defined as an AR image. An image to be set is defined as a non-AR image. Examples of AR images are described below.

図3は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数のオブジェクト移動処理回路35、及び1つ又は複数のメモリ37を備える。図3に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図3は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、オブジェクト移動処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 3 is a block diagram of a vehicle display system 10, according to some embodiments. The display controller 30 comprises one or more I/O interfaces 31 , one or more processors 33 , one or more object movement processing circuits 35 and one or more memories 37 . Various functional blocks depicted in FIG. 3 may be implemented in hardware, software, or a combination of both. FIG. 3 is only one embodiment and the illustrated components may be combined into fewer components or there may be additional components. For example, object movement processing circuitry 35 (eg, a graphics processing unit) may be included in one or more processors 33 .

図示するように、プロセッサ33及びオブジェクト移動処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及びオブジェクト移動処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(画像表示部20)の操作を行うことができる。プロセッサ33及び/又はオブジェクト移動処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, processor 33 and object movement processing circuitry 35 are operatively coupled with memory 37 . More specifically, the processor 33 and the object movement processing circuit 35 execute programs stored in the memory 37 to generate and/or transmit image data, for example, to display the vehicle display system 10 (image data). The display unit 20) can be operated. Processor 33 and/or object movement processing circuitry 35 may include at least one general purpose microprocessor (e.g., central processing unit (CPU)), at least one application specific integrated circuit (ASIC), at least one field programmable gate array (FPGA). ), or any combination thereof. Memory 37 includes any type of magnetic media such as hard disks, any type of optical media such as CDs and DVDs, any type of semiconductor memory such as volatile memory, and non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401、又は他の電子機器(後述する符号403~417)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, processor 33 is operatively coupled with I/O interface 31 . The I/O interface 31 communicates with, for example, a vehicle ECU 401 (described later) provided in the vehicle or other electronic devices (reference numerals 403 to 417 described later) according to CAN (Controller Area Network) standards (also known as CAN communication). ). The communication standard adopted by the I/O interface 31 is not limited to CAN. : MOST is a registered trademark), a wired communication interface such as UART or USB, or a personal area network (PAN) such as a Bluetooth network, a local network such as an 802.11x Wi-Fi network. It includes an in-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN). In addition, the I / O interface 31 is a wireless wide area network (WWAN0, IEEE802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), IEEE802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, An external communication (external communication) interface such as a wide area communication network (for example, Internet communication network) may be included according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、操作検出部409、目位置検出部411、視線方向検出部(不図示)、携帯情報端末415、及び外部通信機器417などが動作可能に連結される。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown, the processor 33 is interoperably coupled with the I/O interface 31 to communicate with various other electronic devices and the like connected to the vehicle display system 10 (I/O interface 31). can be given and received. The I/O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detector 405, a vehicle exterior sensor 407, an operation detector 409, an eye position detector 411, a gaze direction detector (not shown), a mobile An information terminal 415, an external communication device 417, etc. are operably connected. Note that the I/O interface 31 may include a function of processing (converting, calculating, and analyzing) information received from other electronic devices or the like connected to the vehicle display system 10 .

表示器21は、プロセッサ33及びオブジェクト移動処理回路35に動作可能に連結される。したがって、画像表示部20によって表示される画像は、プロセッサ33及び/又はオブジェクト移動処理回路35から受信された画像データに基づいてもよい。プロセッサ33及びオブジェクト移動処理回路35は、I/Oインタフェース31から取得される情報に基づき、画像表示部20が表示する画像を制御する。 Display 21 is operatively linked to processor 33 and object movement processing circuitry 35 . Accordingly, the image displayed by image display 20 may be based on image data received from processor 33 and/or object movement processing circuitry 35 . The processor 33 and object movement processing circuit 35 control the image displayed by the image display section 20 based on the information obtained from the I/O interface 31 .

車両ECU401は、車両1に設けられたセンサやスイッチから、車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、車両1の前記状態の数値(例えば、車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ33へ送信することに加え、又はこれに代わり、センサで検出した数値を含む車両1の1つ又は複数の状態に基づく判定結果(例えば、車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。なお、I/Oインタフェース31は、車両ECU401を介さずに、車両1に設けられた車両1に設けられたセンサやスイッチから、上述したような情報を取得してもよい。 The vehicle ECU 401 detects the state of the vehicle 1 (e.g., travel distance, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine speed, etc.) from sensors and switches provided in the vehicle 1. , motor rotation speed, steering angle, shift position, drive mode, various warning states, attitude (including roll angle and/or pitch angle), vehicle vibration (including magnitude, frequency, and/or frequency )), etc., and collects and manages (may also include control) the states of the vehicle 1. ) can be output to the processor 33 of the display controller 30 . The vehicle ECU 401 simply transmits a numerical value detected by a sensor or the like (for example, the pitching angle is 3 [degrees] in the forward tilting direction) to the processor 33, or alternatively, transmits the numerical value detected by the sensor. Determination results based on one or more states of the vehicle 1 including (for example, the vehicle 1 satisfies a predetermined forward lean condition), or/and analysis results (for example, the degree of brake pedal opening information that the vehicle is leaning forward due to braking) may be sent to the processor 33 . For example, the vehicle ECU 401 may output to the display control device 30 a signal indicating that the vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 401 . Note that the I/O interface 31 may acquire the above-described information from sensors and switches provided in the vehicle 1 without using the vehicle ECU 401 .

また、車両ECU401は、車両用表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 In addition, the vehicle ECU 401 may output to the display control device 30 an instruction signal that instructs an image to be displayed by the vehicle display system 10. At this time, the coordinates, size, type, display mode of the image, the need for notification of the image, and so on. Necessity-related information that serves as a basis for determining the degree and/or the necessity of notification may be added to the instruction signal and transmitted.

道路情報データベース403は、車両1に設けられた図示しないナビゲーション装置、又は車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバー、に含まれ、後述する自車位置検出部405から取得される車両1の位置に基づき、車両1の周辺の情報(車両1の周辺の実オブジェクト関連情報)である車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号、又は経路を示す画像データをプロセッサ33へ出力してもよい。 The road information database 403 is included in a navigation device (not shown) provided in the vehicle 1 or an external server connected to the vehicle 1 via an external communication interface (I/O interface 31). Based on the position of the vehicle 1 acquired from the unit 405, road information (lanes, white lines, stop lines, crosswalks, road width, number of lanes, intersections, curves, forks, traffic regulations, etc.), presence/absence, position (including distance to vehicle 1), direction, shape, type of feature information (buildings, bridges, rivers, etc.) , detailed information, etc. may be read and sent to the processor 33 . The road information database 403 may also calculate an appropriate route (navigation information) from the departure point to the destination and output to the processor 33 a signal indicating the navigation information or image data indicating the route.

自車位置検出部405は、車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末415、及び/もしくは外部通信機器417へ出力する。道路情報データベース403、後述する携帯情報端末415、及び/又は外部通信機器417は、自車位置検出部405から車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。 The vehicle position detection unit 405 is a GNSS (global navigation satellite system) or the like provided in the vehicle 1, detects the current position and direction of the vehicle 1, and transmits a signal indicating the detection result via the processor 33. , or directly to the road information database 403, a portable information terminal 415 and/or an external communication device 417, which will be described later. The road information database 403, the portable information terminal 415, and/or the external communication device 417 acquire the position information of the vehicle 1 from the vehicle position detection unit 405 continuously, intermittently, or at each predetermined event. , information about the surroundings of the vehicle 1 may be selected/generated and output to the processor 33 .

車外センサ407は、車両1の周辺(前方、側方、及び後方)に存在する実オブジェクト300を検出する。車外センサ407が検知する実オブジェクト300は、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面310、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラ、又はこれらの組み合わせからなる検出ユニットと、当該1つ又は複数の検出ユニットからの検出データを処理する(データフュージョンする)処理装置と、から構成される。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(車両1からの相対的な距離、車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。1つ又は複数の車外センサ407は、各センサの検知周期毎に、車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The vehicle exterior sensor 407 detects the real object 300 existing around the vehicle 1 (front, side, and rear). Real objects 300 detected by the vehicle exterior sensor 407 include, for example, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), road surface 310 of driving lanes described later, lane markings, roadside objects, and/or features (buildings etc.). Exterior sensors include, for example, radar sensors such as millimeter wave radar, ultrasonic radar, and laser radar, cameras, or a detection unit consisting of a combination thereof, and processing detection data from the one or more detection units ( data fusion) and a processing device. A conventional well-known technique is applied to object detection by these radar sensors and camera sensors. By object detection by these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the vehicle 1, the traveling direction of the vehicle 1 in the front-back direction) horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction), depth direction (front-rear direction)), moving speed (lateral direction (left-right direction), depth direction (front-rear direction)), and/or type, etc. may be detected. One or a plurality of sensors outside the vehicle 407 detects a real object in front of the vehicle 1 in each sensor detection period, and detects real object information (presence or absence of a real object, existence of a real object), which is an example of real object information. If so, information such as the position, size and/or type of each real object) can be output to the processor 33 . Note that these pieces of real object information may be transmitted to the processor 33 via another device (for example, the vehicle ECU 401). Also, when using a camera as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark, such as at night. Moreover, when using a camera as a sensor, a stereo camera that can acquire distance and the like by parallax is desirable.

操作検出部409は、例えば、車両1のCID(Center Information Display)、インストルメントパネルなどに設けられたハードウェアスイッチ、又は画像とタッチセンサなどとを兼ね合わされたソフトウェアスイッチなどであり、車両1の乗員(運転席の着座するユーザ、及び/又は助手席に着座するユーザ)による操作に基づく操作情報を、プロセッサ33へ出力する。例えば、操作検出部409は、ユーザの操作により、表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、観察者の目位置4を設定する操作に基づく情報(目位置情報の一例)などを、プロセッサ33へ出力する。 The operation detection unit 409 is, for example, a CID (Center Information Display) of the vehicle 1, a hardware switch provided on an instrument panel, or a software switch combining an image and a touch sensor. It outputs to the processor 33 operation information based on the operation by the passenger (the user sitting in the driver's seat and/or the user sitting in the front passenger seat). For example, the operation detection unit 409 sets the display area setting information based on the operation of moving the display area 100, the eye box setting information based on the operation of moving the eye box 200, and the observer's eye position 4 by the user's operation. Information based on the operation (an example of eye position information) and the like are output to the processor 33 .

目位置検出部411は、車両1の運転席に着座する観察者の目の位置を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部411から撮像画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで観察者の目の位置を特定することができる。目位置検出部411は、カメラの撮像画像を解析し、解析結果である観察者の目の位置を示す信号をプロセッサ33に出力してもよい。なお、車両1の観察者の目の位置、又は観察者の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ33は、観察者の目の位置に基づき、画像の位置を少なくとも調整することで、前景の所望の位置(実オブジェクトとの特定の位置関係になる位置)に重畳した画像を、目位置を検出した観察者(観察者)に視認させてもよい。 The eye position detection unit 411 may include a camera such as an infrared camera that detects the positions of the eyes of an observer sitting in the driver's seat of the vehicle 1 , and may output the captured image to the processor 33 . The processor 33 acquires a captured image (an example of information that can estimate the positions of the eyes) from the eye position detection unit 411, and analyzes the captured image to specify the positions of the eyes of the observer. The eye position detection unit 411 may analyze the image captured by the camera and output to the processor 33 a signal indicating the position of the observer's eyes, which is the analysis result. In addition, the method of acquiring the position of the eyes of the observer of the vehicle 1 or the information that can estimate the position of the observer's eyes is not limited to these, and a known eye position detection (estimation) technique is used. may be obtained by The processor 33 adjusts at least the position of the image based on the position of the observer's eyes, thereby superimposing the image superimposed on the desired position of the foreground (position having a specific positional relationship with the real object). The detected observer (observer) may visually recognize it.

視線方向検出部(不図示)は、車両1の運転席に着座する観察者の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部(不図示)から撮像画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで観察者の視線方向(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部(不図示)は、カメラからの撮像画像を解析し、解析結果である観察者の視線方向(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、車両1の観察者の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 The line-of-sight direction detection unit (not shown) may include an infrared camera or a visible light camera that captures the face of an observer sitting in the driver's seat of the vehicle 1 , and may output the captured image to the processor 33 . The processor 33 acquires a captured image (an example of information that can estimate the line-of-sight direction) from a line-of-sight direction detection unit (not shown), and analyzes the captured image to ) can be specified. Note that the line-of-sight direction detection unit (not shown) may analyze the captured image from the camera and output to the processor 33 a signal indicating the line-of-sight direction (and/or the gaze position) of the observer, which is the analysis result. . Note that the method of acquiring information that can estimate the line-of-sight direction of the observer of the vehicle 1 is not limited to these, and includes an EOG (Electro-oculogram) method, a corneal reflection method, a scleral reflection method, and Purkinje image detection. may be obtained using other known gaze direction detection (estimation) techniques such as method, search coil method, infrared fundus camera method.

車両姿勢検出部413は、例えば、ジャイロセンサ、加速度センサ、及びハイトセンサなどの1つ以上を含み、姿勢変動情報を検出し、プロセッサ33へ出力する。前記姿勢変動情報は、移動体の角速度、加速度、高さ、車両姿勢(ピッチ角、ロール角等)、前記車両姿勢の変化の周波数(振動周波数)などである。 Vehicle posture detection unit 413 includes one or more of, for example, a gyro sensor, an acceleration sensor, and a height sensor, detects posture change information, and outputs the information to processor 33 . The posture change information includes the angular velocity, acceleration, height of the moving body, vehicle posture (pitch angle, roll angle, etc.), frequency of change in the vehicle posture (vibration frequency), and the like.

携帯情報端末415は、スマートフォン、ノートパソコン、スマートウォッチ、又は観察者(又は車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末415とペアリングすることで、携帯情報端末415と通信を行うことが可能であり、携帯情報端末415(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末415は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末415は、車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末415は、携帯情報端末415の所持者(例えば、観察者)のスケジュール情報、携帯情報端末415での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及びオブジェクト移動処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。 The personal digital assistant 415 is a smart phone, a laptop computer, a smartwatch, or other information device that can be carried by an observer (or another occupant of the vehicle 1). By pairing with the mobile information terminal 415, the I/O interface 31 can communicate with the mobile information terminal 415, and the data recorded in the mobile information terminal 415 (or the server through the mobile information terminal) can be transmitted. to get The mobile information terminal 415 has, for example, the same functions as the road information database 403 and the own vehicle position detection unit 405 described above, acquires the road information (an example of real object related information), and transmits it to the processor 33. good too. The mobile information terminal 415 may also acquire commercial information (an example of real object related information) related to commercial facilities near the vehicle 1 and transmit it to the processor 33 . The mobile information terminal 415 transmits schedule information of the owner of the mobile information terminal 415 (for example, an observer), incoming call information at the mobile information terminal 415, mail reception information, etc. to the processor 33, and the processor 33 and the object Movement processing circuitry 35 may generate and/or transmit image data for these.

外部通信機器417は、車両1と情報のやりとりをする通信機器であり、例えば、車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器417は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器417は、上述の自車位置検出部405と同様の機能を有し、車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器417から取得される情報は、上述のものに限定されない。 The external communication device 417 is a communication device that exchanges information with the vehicle 1, for example, other vehicles connected to the vehicle 1 by vehicle-to-vehicle communication (V2V: vehicle-to-vehicle communication), pedestrian-to-vehicle communication (V2P: vehicle-to-pedestrian ) connected by pedestrians (mobile information terminals carried by pedestrians), network communication equipment connected by road-to-vehicle communication (V2I: Vehicle To roadside Infrastructure), broadly speaking, communication with vehicle 1 (V2X : Vehicle To Everything). The external communication device 417 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and/or features (buildings, etc.), and sends them to the processor 33. may be output. In addition, the external communication device 417 has the same function as the vehicle position detection unit 405 described above, may acquire the position information of the vehicle 1 and transmit it to the processor 33, and furthermore may store the information of the road information database 403 described above. It may also have a function to acquire the road information (an example of real object related information) and transmit it to the processor 33 . Information acquired from the external communication device 417 is not limited to the above.

メモリ37に記憶されたソフトウェア構成要素は、判定モジュール502、オブジェクト移動処理モジュール504、目位置検出モジュール512、車両姿勢検出モジュール514、表示領域設定モジュール516、及び重畳面積算出モジュール518を含む。 Software components stored in memory 37 include determination module 502 , object movement processing module 504 , eye position detection module 512 , vehicle orientation detection module 514 , display area setting module 516 , and overlapping area calculation module 518 .

図4は、ヘッドアップディスプレイ装置20が表示する仮想オブジェクトVOの例を示す図である。図4の上段のAA乃至ACは、表示領域100(第1の表示領域110)が比較的低い位置に配置される際の仮想オブジェクトVO(第1の仮想オブジェクトV10)の表示例を示す図である。プロセッサ33は、仮想オブジェクトVO(V10)を、図4AA(V11)、図4AB(V12)、図4AC(V13)の順に、時間経過に伴い車両の進行方向の前側(Z軸正方向)から後側(Z軸負方向)へ向かっているように移動させつつ、サイズを徐々に大きくする。このときの第1の仮想オブジェクトV10の移動に伴うサイズの変化率(以下では、サイズ変化率とも呼ぶ。)Gは第1の変化率G10とする。 FIG. 4 is a diagram showing an example of a virtual object VO displayed by the head-up display device 20. As shown in FIG. AA to AC in the upper part of FIG. 4 are diagrams showing display examples of the virtual object VO (first virtual object V10) when the display area 100 (first display area 110) is arranged at a relatively low position. be. 4AA (V11), FIG. 4AB (V12), and FIG. 4AC (V13) in the order of FIG. 4AA (V11), FIG. 4AB (V12), and FIG. The size is gradually increased while moving toward the side (Z-axis negative direction). The rate of change in size accompanying the movement of the first virtual object V10 at this time (hereinafter also referred to as the rate of change in size) G is assumed to be the first rate of change G10.

図4の下段のBA乃至BCは、表示領域100(第2の表示領域120)が比較的高い位置(第2の表示領域120は第1の表示領域110より高い位置である。)に配置される際の仮想オブジェクトVO(第2の仮想オブジェクトV20)の表示例を示す図である。プロセッサ33は、仮想オブジェクトVO(V20)を、図4BA(V21)、図4BB(V22)、図4BC(V23)の順に、時間経過に伴い車両の進行方向の前側(Z軸正方向)から後側(Z軸負方向)へ向かっているように移動させつつ、サイズを徐々に大きくする。このときの第2の仮想オブジェクトV20の移動に伴うサイズの変化率(以下では、サイズ変化率とも呼ぶ。)Gは第2のサイズ変化率G2とする。プロセッサ33は、第2のサイズ変化率G2を、第1の変化率G10より大きく設定する。すなわち、プロセッサ33は、仮想オブジェクトVOが前景に対して相対的に高い位置に視認され得る状態でサイズの変化率Gを大きくすることで、サイズ変更による奥行き感を強調する。なお、符号PPは、表示領域100と走行レーンとが重なる領域(重畳領域)を示す。比較的高い位置に配置される第2の表示領域120における第2重畳領域PP2は、比較的低い位置に配置される第1の表示領域110における第1重畳領域PP1より狭い。重畳領域PPについては、後述する。 In BA to BC in the lower part of FIG. 4, the display area 100 (second display area 120) is arranged at a relatively high position (the second display area 120 is higher than the first display area 110). FIG. 10 is a diagram showing a display example of a virtual object VO (second virtual object V20) when 4BA (V21), FIG. 4BB (V22), and FIG. 4BC (V23), the processor 33 moves the virtual object VO (V20) from the front side (positive direction of the Z-axis) to the rear side in the traveling direction of the vehicle over time. The size is gradually increased while moving toward the side (Z-axis negative direction). The rate of change in size accompanying the movement of the second virtual object V20 at this time (hereinafter also referred to as the rate of change in size) G is assumed to be the second rate of change in size G2. The processor 33 sets the second size change rate G2 to be greater than the first change rate G10. That is, the processor 33 increases the size change rate G in a state where the virtual object VO can be viewed at a relatively high position with respect to the foreground, thereby emphasizing the sense of depth resulting from the size change. Reference character PP indicates an area (overlapping area) where the display area 100 and the driving lane overlap. The second overlapping area PP2 in the second display area 120 arranged at a relatively high position is narrower than the first overlapping area PP1 in the first display area 110 arranged at a relatively low position. The overlapping area PP will be described later.

図5は、いくつかの実施形態に従って、仮想オブジェクトを移動させながらサイズを徐々に変えるオブジェクト移動処理を実行する方法S100を示すフロー図である。方法S100は、ディスプレイを含む画像表示部20と、この画像表示部20を制御する表示制御装置30と、において実行される。方法S100内のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 5 is a flow diagram illustrating a method S100 of performing an object movement process that incrementally changes the size of a virtual object while moving it, according to some embodiments. The method S100 is performed in an image display unit 20 including a display and a display control device 30 that controls the image display unit 20. FIG. Some acts in method S100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

プロセッサ33は、判定モジュール502を実行することで、仮想オブジェクトVOの移動に伴うサイズの変化率Gを大きくするための所定の条件を満たすか否かを判定する(ステップS110)。いくつかの実施形態における判定モジュール502は、表示領域100の位置(S120)、観察者の目位置(S130)、車両1の姿勢(S140)、又はこれらの組み合わせに基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たしたと判定する。 By executing the determination module 502, the processor 33 determines whether or not a predetermined condition for increasing the rate of change G in size accompanying movement of the virtual object VO is satisfied (step S110). The determination module 502 in some embodiments determines whether the virtual object VO is in the foreground based on the position of the display area 100 (S120), the observer's eye position (S130), the pose of the vehicle 1 (S140), or a combination thereof. On the other hand, when it is estimated to be visually recognized at a relatively high position, it is determined that the predetermined condition is satisfied.

判定モジュール502は、リレー光学系の状態が所定の条件を満たすか否か判定する(S122)。 The determination module 502 determines whether the state of the relay optical system satisfies a predetermined condition (S122).

表示領域設定モジュール516は、入力する観察者の目位置4の情報や設定情報に基づき、第1アクチュエータ28の回転量(角度)、及び第2アクチュエータ29の回転量(角度)、を設定することで、リレー光学系25の状態(角度、位置)を制御することができる。表示領域設定モジュール516は、目位置検出モジュール512で検出した目位置情報、目位置検出モジュール512で推定した目位置推定情報に基づき、第1アクチュエータ28の回転量(角度)、及び第2アクチュエータ29の回転量(角度)、を設定すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、表示領域設定モジュール516は、目位置、又は目の位置を推定可能な情報から、第1の回転軸AX1を軸とした回転量(角度)、及び第2の回転軸AX2を軸とした回転量(角度)、を設定するためのテーブルデータ、演算式、などを含み得る。表示領域100の位置(高さ)は、当該アクチュエータの回転量(角度)により決定され得る。したがって、リレー光学系25の状態を推定可能な当該アクチュエータの回転量(角度)は、表示領域100の位置を推定可能な情報の一例であり、判定モジュール502は、アクチュエータの回転量(角度)に基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たすと判定してもよい。判定モジュール502は、アクチュエータの回転量(角度)に基づき、所定の条件を満たすか否かを判定するための閾値、テーブルデータ、演算式などを含み得る。 The display area setting module 516 sets the amount of rotation (angle) of the first actuator 28 and the amount of rotation (angle) of the second actuator 29 based on the input information about the eye position 4 of the observer and setting information. , the state (angle, position) of the relay optical system 25 can be controlled. The display area setting module 516 determines the rotation amount (angle) of the first actuator 28 and the second actuator 29 based on the eye position information detected by the eye position detection module 512 and the eye position estimation information estimated by the eye position detection module 512 . includes various software components for performing various operations related to setting the amount of rotation (angle) of the . That is, the display area setting module 516 uses the eye position or information that can estimate the eye position to determine the amount of rotation (angle) about the first rotation axis AX1 and the rotation amount (angle) about the second rotation axis AX2. Table data for setting the amount of rotation (angle), an arithmetic expression, and the like may be included. The position (height) of the display area 100 can be determined by the amount of rotation (angle) of the actuator. Therefore, the rotation amount (angle) of the actuator from which the state of the relay optical system 25 can be estimated is an example of information from which the position of the display area 100 can be estimated. Based on this, when it is estimated that the virtual object VO is visually recognized at a relatively high position with respect to the foreground, it may be determined that the predetermined condition is satisfied. The determination module 502 can include thresholds, table data, arithmetic expressions, etc. for determining whether or not a predetermined condition is satisfied based on the amount of rotation (angle) of the actuator.

また、表示領域設定モジュール516は、操作検出部409による操作や車両ECU401からの指示に基づき、第1の回転軸AX1を軸とした回転量(角度)、及び第2の回転軸AX2を軸とした回転量(角度)、を設定してもよい。例えば、表示領域設定モジュール516は、(1)図示しない観察者識別部から取得した観察者の好みのアイボックスの位置情報(アイボックス位置設定情報の一例)、好みの表示領域の位置情報(表示領域設定情報の一例)、(2)車両1に設けられた操作検出部409から取得した、ユーザの操作に基づく、表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、(3)車両ECU401から取得した、車両ECU401が決定した表示領域100の位置を示す表示領域設定情報、アイボックス200の位置を示すアイボックス設定情報などから、第1の回転軸AX1を軸とした第1アクチュエータ28の回転量(角度)、及び第2の回転軸AX2を軸とした第2アクチュエータ29の回転量(角度)、を設定すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。したがって、操作検出部409による操作や車両ECU401からの指示に基づくこれらの情報は、表示領域100の位置を推定可能な情報の一例であり、判定モジュール502は、これらの情報に基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たすと判定してもよい。 In addition, the display area setting module 516 determines the amount of rotation (angle) about the first rotation axis AX1 and the rotation amount (angle) about the second rotation axis AX2 based on an operation by the operation detection unit 409 or an instruction from the vehicle ECU 401. A rotation amount (angle) may be set. For example, the display area setting module 516 (1) position information of the observer's favorite eyebox (an example of eyebox position setting information) acquired from the observer identification unit (not shown), position information of the favorite display area (display an example of area setting information), (2) display area setting information based on an operation to move the display area 100 based on the user's operation, acquired from the operation detection unit 409 provided in the vehicle 1; (3) display area setting information indicating the position of the display area 100 determined by the vehicle ECU 401 and eye box setting information indicating the position of the eye box 200 acquired from the vehicle ECU 401; setting the rotation amount (angle) of the first actuator 28 about the rotation axis AX1 and the rotation amount (angle) of the second actuator 29 about the second rotation axis AX2. It contains various software components for performing various operations. Therefore, the information based on the operation by the operation detection unit 409 and the instruction from the vehicle ECU 401 is an example of information that can estimate the position of the display area 100, and the determination module 502 determines the position of the virtual object VO based on this information. is estimated to be viewed at a relatively high position with respect to the foreground, it may be determined that a predetermined condition is satisfied.

判定モジュール502は、表示器の使用領域が所定の条件を満たすか否か判定する(S124)。 The determination module 502 determines whether or not the usage area of the display satisfies a predetermined condition (S124).

また、表示領域設定モジュール516は、入力する観察者の目位置4の情報や設定情報に基づき、表示器21の表示面21aのうち使用する領域を変更してもよい。すなわち、表示領域設定モジュール516は、表示器21の表示面21aで画像の表示に使用する領域を変更することで、虚像Vの表示に使用される表示領域100の位置を変更することもできる。したがって、表示器21の表示面21aで画像の表示に使用する領域を示す情報は、表示領域100の位置を推定可能な情報の一例であり、判定モジュール502は、表示器21の使用領域を示す情報に基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たすと判定してもよい。判定モジュール502は、表示器21の使用領域を示す情報に基づき、所定の条件を満たすか否かを判定するための閾値、テーブルデータ、演算式などを含み得る。 Further, the display area setting module 516 may change the area to be used of the display surface 21a of the display 21 based on the input information about the eye position 4 of the observer and setting information. That is, the display area setting module 516 can also change the position of the display area 100 used for displaying the virtual image V by changing the area used for displaying the image on the display surface 21 a of the display device 21 . Therefore, the information indicating the area used for displaying the image on the display surface 21a of the display 21 is an example of information that enables estimation of the position of the display area 100, and the determination module 502 indicates the use area of the display 21. Based on the information, when it is estimated that the virtual object VO is viewed at a relatively high position with respect to the foreground, it may be determined that the predetermined condition is satisfied. The determination module 502 can include threshold values, table data, arithmetic expressions, etc. for determining whether or not a predetermined condition is satisfied based on information indicating the use area of the display device 21 .

目位置検出モジュール512は、車両1の観察者の目の位置を検出する。目位置検出モジュール512は、複数段階で設けられた高さ領域のどこに観察者の目の高さがあるかの判定、観察者の目の高さ(Y軸方向の位置)の検出、観察者の目の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、及び/又は観察者の目の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール512は、例えば、目位置検出部411から観察者の目の位置を取得する、又は、目位置検出部411から観察者の目の高さを含む目の位置を推定可能な情報を受信し、観察者の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、車両1の運転席の位置、観察者の顔の位置、座高の高さ、観察者による図示しない操作部での入力値などであってもよい。目位置が高くなると、仮想オブジェクトVOは、観察者の前景の比較的低い位置に重なって視認され、目位置が低くなると、仮想オブジェクトVOは、観察者の前景の比較的高い位置に重なって視認されるようになる。したがって、車両1の観察者の目の位置(高さ)を示す情報又は目位置を推定可能な情報は、前景に対する表示領域100が重なる相対的な位置(高さ)を推定可能な情報の一例であり、判定モジュール502は、観察者の目の位置(高さ)を示す情報又は目位置を推定可能な情報に基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たすと判定してもよい(S130)。判定モジュール502は、観察者の目の位置(高さ)を示す情報又は目位置を推定可能な情報に基づき、所定の条件を満たすか否かを判定するための閾値、テーブルデータ、演算式などを含み得る。 The eye position detection module 512 detects the eye position of the observer of the vehicle 1 . The eye position detection module 512 determines where the height of the observer's eyes is in height regions provided in a plurality of stages, detects the height of the observer's eyes (position in the Y-axis direction), Detection of the eye height (Y-axis position) and depth direction position (Z-axis direction position) of the observer, and / or detection of the observer's eye position (X, Y, Z-axis position), includes various software components for performing various operations related to the The eye position detection module 512, for example, acquires the position of the observer's eyes from the eye position detection unit 411, or obtains information from the eye position detection unit 411 that can estimate the position of the observer's eyes, including the height of the observer's eyes. and estimate the eye position, including the eye height of the observer. Information from which the eye position can be estimated may be, for example, the position of the driver's seat of the vehicle 1, the position of the observer's face, the height of the sitting height, the value input by the observer through an operation unit (not shown), and the like. When the eye position is high, the virtual object VO is superimposed on a relatively low position in the foreground of the observer, and when the eye position is low, the virtual object VO is superimposed on a relatively high position in the foreground of the observer and is visually recognized. It will be done. Therefore, the information indicating the position (height) of the eyes of the observer of the vehicle 1 or the information capable of estimating the eye position is an example of the information capable of estimating the relative position (height) of the overlap of the display area 100 with respect to the foreground. and the determination module 502 determines that the virtual object VO is viewed at a relatively high position with respect to the foreground based on information indicating the position (height) of the observer's eyes or information from which the eye positions can be estimated. If it is estimated, it may be determined that a predetermined condition is satisfied (S130). Based on information indicating the position (height) of the eyes of the observer or information capable of estimating the eye positions, the determination module 502 uses threshold values, table data, arithmetic expressions, etc. for determining whether or not a predetermined condition is satisfied. can include

車両姿勢検出モジュール514は、車両1に搭載され、車両1の姿勢を検出する。車両姿勢検出モジュール514は、複数段階で設けられた姿勢領域のどこに車両1の姿勢があるかの判定、車両1の地球座標系における角度(ピッチング角、ローリング角)の検出、車両1の路面に対する角度(ピッチング角、ローリング角)の検出、及び/又は車両1の路面に対する高さ(Y軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。車両姿勢検出モジュール514は、例えば、車両1に設けられた三軸加速度センサ(不図示)と、前記三軸加速度センサが検出した三軸加速度を解析することで、水平面を基準とした車両1のピッチング角(車両姿勢)を推定し、車両1のピッチング角に関する情報を含む車両姿勢情報をプロセッサ33に出力する。なお、車両姿勢検出モジュール514は、前述した三軸加速度センサ以外に、車両1のサスペンション近傍に配置されるハイトセンサ(不図示)で構成されてもよい。このとき、車両姿勢検出モジュール514は、前記ハイトセンサが検出する車両1の地面からの高さを解析することで、前述したように車両1のピッチング角を推定し、車両1のピッチング角に関する情報を含む車両姿勢情報をプロセッサ33に出力する。なお、車両姿勢検出モジュール514が、車両1のピッチング角を求める方法は、上述した方法に限定されず、公知のセンサや解析方法を用いて車両1のピッチング角を求めてもよい。車両1が前傾になる(ピッチダウン)と、仮想オブジェクトVOは、観察者の前景の比較的低い位置に重なって視認され、車両1が後傾になる(ピッチアップ)と、仮想オブジェクトVOは、観察者の前景の比較的高い位置に重なって視認されるようになる。したがって、車両1の姿勢(ピッチング角)を示す情報は、前景に対する表示領域100が重なる相対的な位置(高さ)を推定可能な情報の一例であり、判定モジュール502は、車両1の姿勢(ピッチング角)を示す情報に基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たすと判定してもよい(S140)。判定モジュール502は、車両1の姿勢(ピッチング角)を示す情報に基づき、所定の条件を満たすか否かを判定するための閾値、テーブルデータ、演算式などを含み得る。 A vehicle attitude detection module 514 is mounted on the vehicle 1 and detects the attitude of the vehicle 1 . The vehicle attitude detection module 514 determines where the attitude of the vehicle 1 is in the attitude area provided in a plurality of stages, detects the angle (pitching angle, rolling angle) of the vehicle 1 in the earth coordinate system, and detects the angle of the vehicle 1 with respect to the road surface. It includes various software components for performing various operations related to detection of angles (pitch angle, roll angle) and/or detection of the height of the vehicle 1 with respect to the road surface (Y-axis position). The vehicle attitude detection module 514 analyzes, for example, a three-axis acceleration sensor (not shown) provided in the vehicle 1 and the three-axis acceleration detected by the three-axis acceleration sensor to determine the position of the vehicle 1 with respect to the horizontal plane. A pitching angle (vehicle attitude) is estimated, and vehicle attitude information including information about the pitching angle of the vehicle 1 is output to the processor 33 . The vehicle posture detection module 514 may be configured by a height sensor (not shown) arranged near the suspension of the vehicle 1 other than the three-axis acceleration sensor described above. At this time, the vehicle attitude detection module 514 estimates the pitching angle of the vehicle 1 as described above by analyzing the height of the vehicle 1 from the ground detected by the height sensor, and obtains information about the pitching angle of the vehicle 1. to the processor 33. The method by which the vehicle attitude detection module 514 obtains the pitching angle of the vehicle 1 is not limited to the method described above, and the pitching angle of the vehicle 1 may be obtained using a known sensor or analysis method. When the vehicle 1 leans forward (pitch down), the virtual object VO is superimposed on a relatively low position in the foreground of the observer, and when the vehicle 1 leans backward (pitch up), the virtual object VO , will be superimposed on a relatively high position in the foreground of the observer. Therefore, the information indicating the attitude (pitching angle) of the vehicle 1 is an example of information capable of estimating the relative position (height) where the display area 100 overlaps with the foreground. pitching angle), if it is estimated that the virtual object VO is viewed at a relatively high position with respect to the foreground, it may be determined that a predetermined condition is satisfied (S140). The determination module 502 may include thresholds, table data, arithmetic expressions, etc. for determining whether or not a predetermined condition is satisfied based on information indicating the attitude (pitching angle) of the vehicle 1 .

重畳面積算出モジュール518は、表示領域100と走行レーンとの重畳領域PPの面積を算出する。重畳面積算出モジュール518は、車外センサ407で検出された走行レーンの位置と、表示領域設定モジュール516が設定した表示領域100の設定位置と、から表示領域100と走行レーンとの重畳領域PPの面積を算出する。図4ACの例では、第1の表示領域110は、比較的低い位置にあるため、重畳領域PP1は広い。一方、図4BCの例では、第2の表示領域120は、比較的高い位置にあるため、重畳領域PP2は図4ACの例に比べると狭い。したがって、重畳領域PPの面積を示す情報は、前景に対する表示領域100が重なる相対的な位置(高さ)を推定可能な情報の一例であり、判定モジュール502は重畳領域PPの面積を示す情報に基づき、仮想オブジェクトVOが前景に対して相対的に高い位置に視認されると推定される場合、所定の条件を満たすと判定してもよい(不図示)。判定モジュール502は、重畳領域PPの面積を示す情報に基づき、所定の条件を満たすか否かを判定するための閾値、テーブルデータ、演算式などを含み得る。 The overlapping area calculation module 518 calculates the area of the overlapping area PP between the display area 100 and the driving lane. The overlapping area calculation module 518 calculates the area of the overlapping area PP between the display area 100 and the driving lane based on the position of the driving lane detected by the sensor 407 outside the vehicle and the set position of the display area 100 set by the display area setting module 516. Calculate In the example of FIG. 4AC, the first display area 110 is located relatively low, so the overlap area PP1 is wide. On the other hand, in the example of FIG. 4BC, the second display area 120 is positioned relatively high, so the overlapping area PP2 is narrower than in the example of FIG. 4AC. Therefore, the information indicating the area of the superimposed region PP is an example of information capable of estimating the relative position (height) where the display region 100 overlaps the foreground. Based on this, when it is estimated that the virtual object VO is viewed at a relatively high position with respect to the foreground, it may be determined that a predetermined condition is satisfied (not shown). The determination module 502 may include thresholds, table data, arithmetic expressions, etc. for determining whether or not a predetermined condition is satisfied based on information indicating the area of the superimposed region PP.

次に、ステップS150では、プロセッサ33は、オブジェクト移動処理モジュール504を実行することで、仮想オブジェクトVOを移動させながらサイズを徐々に変える(オブジェクト移動処理)。オブジェクト移動処理モジュール504は、ステップS110で所定条件を充足すると判定した場合、仮想オブジェクトVOの移動に伴うサイズの変化率Gを大きくする(第2の変化率G20に設定する)第2のオブジェクト移動処理を実行する(ステップS160)。一方、オブジェクト移動処理モジュール504は、ステップS110で所定条件を充足しないと判定した場合、仮想オブジェクトVOの移動に伴うサイズの変化率Gを小さくする(第1の変化率G10(G10<G20)に設定する)第1のオブジェクト移動処理を実行する(不図示)。 Next, in step S150, the processor 33 executes the object movement processing module 504 to gradually change the size of the virtual object VO while moving it (object movement processing). If the object movement processing module 504 determines in step S110 that the predetermined condition is satisfied, the object movement processing module 504 increases the rate of change G of the size accompanying the movement of the virtual object VO (sets it to the second rate of change G20). Processing is executed (step S160). On the other hand, if it is determined in step S110 that the predetermined condition is not satisfied, the object movement processing module 504 reduces the rate of change G of the size accompanying the movement of the virtual object VO (to the first rate of change G10 (G10<G20)). setting) is executed (not shown).

図6A乃至図6Fは、仮想オブジェクトVOの移動に伴うサイズの変化特性Qのいくつかの実施形態を示すグラフであり、横軸が仮想オブジェクトVOの仮想的に設定される表現深度VLであり、縦軸が表現深度VLだけ離れた位置から視認される仮想オブジェクトVOのサイズ(視角)Asである。ここで、仮想オブジェクトVOのサイズ(視角)Asは、視点から見た視対象(仮想オブジェクトVO)がなす角度であり、Visual angularやAngular sizeとも呼ばれる。仮想オブジェクトVOの仮想的なサイズをBS、表現深度VLだけ離れた位置から視認される仮想オブジェクトVOのサイズ(視角)Asとすると、As=arctan(BS/VL)の関係式で表される。すなわち、表現深度VLが深い位置では、表現深度VLの変化に対するサイズ(視角)Asの変化率は小さく、表現深度VLが浅い位置では、表現深度VLの変化に対するサイズ(視角)Asの変化率は大きくなる。 6A to 6F are graphs showing several embodiments of the size change characteristic Q accompanying the movement of the virtual object VO, where the horizontal axis is the representation depth VL that is virtually set for the virtual object VO, The vertical axis is the size (viewing angle) As of the virtual object VO viewed from a position separated by the representation depth VL. Here, the size (visual angle) As of the virtual object VO is the angle formed by the visual target (virtual object VO) viewed from the viewpoint, and is also called visual angular or angular size. Assuming that the virtual size of the virtual object VO is BS, and the size (viewing angle) As of the virtual object VO viewed from a position distant by the representation depth VL, the relational expression As=arctan (BS/VL) is obtained. That is, at a position where the representation depth VL is deep, the rate of change of the size (visual angle) As with respect to the change of the representation depth VL is small, and at a position with the shallow representation depth VL, the rate of change of the size (visual angle) As with respect to the change of the representation depth VL is growing.

図6Aに示す実施形態では、第2の変化率G21(G20)は、表現深度VLの全体に亘って、第1の変化率G11(G10)より大きい。言い換えると、第2の変化特性Q21(Q20)の各表現深度VLでの傾き(第2の変化率G21)は、第1の変化特性Q11(Q10)の各表現深度VLでの傾き(第1の変化率G11)より全体に亘って大きい。 In the embodiment shown in FIG. 6A, the second rate of change G21 (G20) is greater than the first rate of change G11 (G10) over the representation depth VL. In other words, the slope (second change rate G21) of the second change characteristic Q21 (Q20) at each representation depth VL is equal to the slope (first change rate G21) of the first change characteristic Q11 (Q10) at each representation depth VL (first is greater than the rate of change G11).

図6Bに示す実施形態では、第2の変化率G22(G20)は、表現深度VLの一部で、第1の変化率G12(G10)より大きい。具体的には、表現深度VLが浅い一部(近傍領域)でのみ、第2の変化率G22(G20)は、第1の変化率G12(G10)より大きく、表現深度VLの他部では、第2の変化率G22(G20)は、第1の変化率G12(G10)と等しい。言い換えると、表現深度VLの近傍領域では、第2の変化特性Q22(Q20)の傾き(第2の変化率G22)は、第1の変化特性Q12(Q10)の傾き(第1の変化率G12)より大きく、近傍領域以外の表現深度VLでは、第2の変化特性Q22(Q20)の傾き(第2の変化率G22)は、第1の変化特性Q12(Q10)の傾き(第1の変化率G12)と等しい。 In the embodiment shown in FIG. 6B, the second rate of change G22 (G20) is greater than the first rate of change G12 (G10) at a fraction of the representational depth VL. Specifically, the second rate of change G22 (G20) is greater than the first rate of change G12 (G10) only in a portion (neighboring region) where the depth of expression VL is shallow, and in the other portion of the depth of expression VL, The second rate of change G22 (G20) is equal to the first rate of change G12 (G10). In other words, in the region near the expression depth VL, the slope of the second change characteristic Q22 (Q20) (second change rate G22) is the same as the slope of the first change characteristic Q12 (Q10) (first change rate G12 ), the slope of the second change characteristic Q22 (Q20) (the second rate of change G22) is the same as the slope of the first change characteristic Q12 (Q10) (the first change rate G12).

図6Cに示す実施形態では、第2の変化率G23(G20)は、車両の進行に伴う実世界における実オブジェクトのサイズの変化率G30より大きい。言い換えると、第2の変化特性Q23(Q20)の各表現深度VLでの傾き(第2の変化率G23)は、実世界における実オブジェクトのサイズの変化特性Q30の各表現深度VLでの傾き(変化率G30)より全体に亘って大きい。これにより、仮想オブジェクトVOの表示位置が路面から離れて奥行き感が低下するようなシチュエーションでも仮想オブジェクトの奥行き感をさらに強調することができる。また、このとき、第1の変化率G13(G10)は、表現深度VLの全体に亘って、実オブジェクトの変化率G30と等しい。言い換えると、第1の変化特性Q13(Q10)の各表現深度VLでの傾き(第1の変化率G13)は、実オブジェクトの変化特性Q30の各表現深度VLでの傾き(実オブジェクトの変化率G30)と等しい。 In the embodiment shown in FIG. 6C, the second rate of change G23 (G20) is greater than the rate of change G30 of the size of real objects in the real world as the vehicle travels. In other words, the slope (second rate of change G23) of the second change characteristic Q23 (Q20) at each representation depth VL is the slope ( larger than the change rate G30) over the whole. As a result, even in a situation where the display position of the virtual object VO is separated from the road surface and the sense of depth is reduced, the sense of depth of the virtual object can be further emphasized. Also, at this time, the first rate of change G13 (G10) is equal to the rate of change G30 of the real object over the entire representation depth VL. In other words, the slope (first change rate G13) of the first change characteristic Q13 (Q10) at each representation depth VL is the slope of the real object change characteristic Q30 at each representation depth VL (real object change rate G30).

図6Dに示す実施形態では、第1の変化率G14(G10)は、車両の進行に伴う実世界における実オブジェクトのサイズの変化率G30より小さく、かつ第2の変化率G24(G20)は、車両の進行に伴う実世界における実オブジェクトのサイズの変化率G30より大きい。言い換えると、第1の変化特性Q14(Q10)の各表現深度VLでの傾き(第1の変化率G14)は、実世界における実オブジェクトのサイズの変化特性Q30の各表現深度VLでの傾き(変化率G30)より全体に亘って小さく、かつ、第2の変化特性Q24(Q20)の各表現深度VLでの傾き(第2の変化率G24)は、実世界における実オブジェクトのサイズの変化特性Q30の各表現深度VLでの傾き(変化率G30)より全体に亘って大きい。 In the embodiment shown in FIG. 6D, the first rate of change G14 (G10) is less than the rate of change G30 of the size of the real object in the real world as the vehicle travels, and the second rate of change G24 (G20) is: It is larger than the change rate G30 of the size of the real object in the real world as the vehicle travels. In other words, the slope (first change rate G14) of the first change characteristic Q14 (Q10) at each representation depth VL is the slope ( The slope (second rate of change G24) of the second change characteristic Q24 (Q20) at each expression depth VL is smaller than the rate of change G30) over the entire area, and is the size change characteristic of the real object in the real world. It is larger over the whole than the slope (change rate G30) at each expression depth VL of Q30.

図6Eに示す実施形態では、第1の変化率G15(G10)は、車両の進行に伴う実世界における実オブジェクトのサイズの変化率G30より小さく、かつ第2の変化率G25(G20)は、車両の進行に伴う実世界における実オブジェクトのサイズの変化率G30と等しい。言い換えると、第1の変化特性Q15(Q10)の各表現深度VLでの傾き(第1の変化率G15)は、実世界における実オブジェクトのサイズの変化特性Q30の各表現深度VLでの傾き(変化率G30)より全体に亘って小さく、かつ、第2の変化特性Q25(Q20)の各表現深度VLでの傾き(第2の変化率G25)は、実世界における実オブジェクトのサイズの変化特性Q30の各表現深度VLでの傾き(変化率G30)より全体に亘って等しい。 In the embodiment shown in FIG. 6E, the first rate of change G15 (G10) is less than the rate of change G30 of the size of the real object in the real world as the vehicle travels, and the second rate of change G25 (G20) is: It is equal to the rate of change G30 of the size of the real object in the real world as the vehicle travels. In other words, the slope (first change rate G15) of the first change characteristic Q15 (Q10) at each representation depth VL is the slope ( The slope (second rate of change G25) of the second change characteristic Q25 (Q20) at each expression depth VL is smaller than the rate of change G30) over the entire area, and is the size change characteristic of the real object in the real world. The slope (change rate G30) of Q30 at each expression depth VL is equal throughout.

図6Fに示す実施形態では、第2の変化特性Q26(Q20)は、最大サイズAsmより大きくならないように仮想オブジェクトVOのサイズ(視角)AsをAsmに維持しつつ移動させる。これによれば、移動に伴うサイズに上限(最大サイズ)を設定することで、仮想オブジェクトが過度に大きく表示され、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 In the embodiment shown in FIG. 6F, the second change characteristic Q26 (Q20) moves the virtual object VO while maintaining the size (visual angle) As of Asm so as not to exceed the maximum size Asm. According to this, by setting an upper limit (maximum size) to the size associated with movement, it is possible to prevent the virtual object from being displayed in an excessively large size and excessively depriving the observer's visual attention. .

図7A乃至図7Dは、仮想オブジェクトVOの移動に伴う輝度特性Rのいくつかの実施形態を示すグラフであり、横軸が仮想オブジェクトVOの仮想的に設定される表現深度VLであり、縦軸が仮想オブジェクトVOの輝度である。 7A to 7D are graphs showing several embodiments of the brightness characteristic R accompanying the movement of the virtual object VO, where the horizontal axis is the representation depth VL that is virtually set for the virtual object VO, and the vertical axis is is the luminance of the virtual object VO.

図7Aに示す実施態様では、第2のオブジェクト移動処理における第2の輝度特性R21(R20)は、第1のオブジェクト移動処理における第1の輝度特性R11(R10)より低く設定される。これによれば、移動に伴うサイズの変化率が大きくなる第2のオブジェクオ移動処理が実行される仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 In the embodiment shown in FIG. 7A, the second luminance characteristic R21 (R20) in the second object movement process is set lower than the first luminance characteristic R11 (R10) in the first object movement process. According to this, the brightness of the virtual object for which the second object-moving process is executed, the rate of size change of which increases with movement, is set lower than the brightness of the virtual object of which the rate of size change, which accompanies movement, is small. It is possible to prevent the observer's visual attention from being excessively deprived.

図7Bに示す実施態様では、第2のオブジェクト移動処理における第2の輝度特性R22(R20)は、表現深度VLが浅くなるに従い徐々に低く設定される。これによれば、移動に伴いサイズ(視角)が大きくなるに従い、仮想オブジェクトの輝度を徐々に低くしていくため、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 In the embodiment shown in FIG. 7B, the second luminance characteristic R22 (R20) in the second object movement process is set gradually lower as the representation depth VL becomes shallower. According to this, as the size (visual angle) increases as the virtual object moves, the brightness of the virtual object is gradually lowered, so that it is possible to prevent the observer's visual attention from being excessively deprived. .

図7Cに示す実施態様では、第2のオブジェクト移動処理における第2の輝度特性R23(R20)は、表現深度VLが浅い一部分のみ第1の輝度特性R13(R10)より低く設定される。これによれば、特にサイズが大きくなり観察者の視覚的注意が奪われやすい近傍表示態様において、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを効果的に抑制することができる。 In the implementation shown in FIG. 7C, the second luminance characteristic R23 (R20) in the second object movement process is set lower than the first luminance characteristic R13 (R10) only in a portion where the representation depth VL is shallow. According to this, in a neighborhood display mode that is particularly large in size and tends to deprive the visual attention of the observer, the brightness of a virtual object with a large size change rate accompanying movement is adjusted to the brightness of a virtual object with a small size change rate accompanying movement. Since the brightness is lower than the brightness of the object, it is possible to effectively prevent the viewer's visual attention from being excessively deprived.

図7Dに示す実施態様では、第2のオブジェクト移動処理における第2の輝度特性R23(R20)は、表現深度VLが浅い一部分のみ第1の輝度特性R13(R10)より低く、かつ表現深度VLが浅くなるに従い徐々に低く設定される。これによれば、特にサイズが大きくなり観察者の視覚的注意が奪われやすい近傍表示態様において、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを効果的に抑制することができる。 In the embodiment shown in FIG. 7D, the second luminance characteristic R23 (R20) in the second object movement process is lower than the first luminance characteristic R13 (R10) only in a portion where the expression depth VL is shallow, and the expression depth VL is It is set gradually lower as the depth becomes shallower. According to this, in a neighborhood display mode that is particularly large in size and tends to deprive the visual attention of the observer, the brightness of a virtual object with a large size change rate accompanying movement is adjusted to the brightness of a virtual object with a small size change rate accompanying movement. Since the brightness is lower than the brightness of the object, it is possible to effectively prevent the viewer's visual attention from being excessively deprived.

再び、図5を参照する。図5のステップS162のオブジェクト移動処理は、車両1の進行に基づき、仮想オブジェクトVOを移動させつつ、仮想オブジェクトVOの移動に伴い第1の変化率G10でサイズ(視角)を徐々に変化させる第1のオブジェクト移動処理と、車両1の進行に基づき、仮想オブジェクトVOを移動させつつ、仮想オブジェクトVOの移動に伴い第1の変化率G10より大きい第2の変化率G20でサイズ(視角)を徐々に変化させる第2のオブジェクト移動処理と、を少なくとも含み、表示領域100の高さ方向の位置、アイボックス200内の観察者の高さ方向の目位置4、車両1のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて切り替え、第2の変化率G20は、図6C、図6Dに示したように、車両1の進行に伴う実世界における実オブジェクトのサイズの変化率G30よりも大きい。本実施形態では、車両の進行に基づき、仮想オブジェクトを移動させつつ、サイズを変化させるので、仮想オブジェクトが実景に調和しやすくなる。本実施形態では、これに加え、車両の進行に伴う実世界における実オブジェクトのサイズの変化率よりも大きい変化率で仮想オブジェクトのサイズを変化させつつ移動させる。これにより、仮想オブジェクトの奥行き感が低下するようなシチュエーションでも仮想オブジェクトの奥行き感を強調することができるという利点を有する。 Again, refer to FIG. The object moving process in step S162 in FIG. 5 is a process of moving the virtual object VO based on the progress of the vehicle 1, and gradually changing the size (visual angle) at a first rate of change G10 as the virtual object VO moves. 1 and the progress of the vehicle 1, while moving the virtual object VO, the size (visual angle) is gradually changed at a second rate of change G20 larger than the first rate of change G10 as the virtual object VO moves. and a second object movement process that changes the position of the display area 100 in the height direction, the eye position 4 in the height direction of the observer in the eye box 200, the pitching posture of the vehicle 1, and these at least Switching based on at least one of the estimable information, the second rate of change G20 is greater than the rate of change G30 of the size of the real object in the real world as the vehicle 1 travels, as shown in FIGS. 6C and 6D. is also big. In this embodiment, the size of the virtual object is changed while moving the virtual object based on the progress of the vehicle, so that the virtual object easily blends in with the real scene. In this embodiment, in addition to this, the virtual object is moved while changing its size at a rate of change greater than the rate of change of the size of the real object in the real world as the vehicle travels. This has the advantage that it is possible to emphasize the sense of depth of the virtual object even in a situation where the sense of depth of the virtual object is lowered.

図5のステップS164では、プロセッサ33は、図7A乃至図7Dに示すように、第2のオブジェクト移動処理における変化率Gが大きい仮想オブジェクトVOの輝度を、第1のオブジェクト移動処理における変化率Gが小さい仮想オブジェクトVOの輝度より低く設定する。移動に伴うサイズの変化率が大きい仮想オブジェクトは、奥行き感が強調されるが、観察者の視覚的注意が過度に奪われることも想定される。本実施形態では、移動に伴うサイズの変化率を大きくすることで、仮想オブジェクトの奥行き感を強調する。本実施形態では、これに加え、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 In step S164 of FIG. 5, the processor 33, as shown in FIGS. 7A to 7D, adjusts the brightness of the virtual object VO, which has a large rate of change G in the second object moving process, to the rate of change G in the first object moving process. is set lower than the brightness of the virtual object VO with a small value. A virtual object with a large rate of change in size with movement emphasizes the sense of depth, but it is also assumed that the viewer's visual attention is excessively deprived. In this embodiment, the sense of depth of the virtual object is emphasized by increasing the rate of change in size accompanying movement. In this embodiment, in addition to this, since the brightness of a virtual object whose size change rate is large due to movement is set lower than the brightness of a virtual object whose size change rate is small due to movement, the observer's visual attention is excessive. can be suppressed.

図5のステップS166では、プロセッサ33は、図7C、図7Dに示すように、第2のオブジェクト移動処理において、遠方表示態様(例えば、図4AA、図4BA)と、仮想オブジェクトの移動において遠方表示態様よりも下方であり、遠方表示態様よりもサイズが大きい近傍表示態様(例えば、図4AC、図4BC)と、を設定し、遠方表示態様では、変化率が大きい仮想オブジェクトの輝度と、変化率が小さい仮想オブジェクトの輝度とを同じに設定し、近傍表示態様では、変化率が大きい仮想オブジェクトの輝度を、変化率が小さい仮想オブジェクトの輝度より低く設定する。移動に伴うサイズの変化率が大きい仮想オブジェクトは、奥行き感が強調され、特に近傍表示態様では大きく表示され、観察者の視覚的注意が過度に奪われることも想定される。本実施形態では、特にサイズが大きくなり観察者の視覚的注意が奪われやすい近傍表示態様において、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを効果的に抑制することができる。 In step S166 of FIG. 5, the processor 33, as shown in FIGS. 7C and 7D, sets the distant display mode (for example, FIGS. 4AA and 4BA) in the second object movement process and the far display mode in the movement of the virtual object. A near display mode (for example, FIGS. 4AC and 4BC) that is lower than the display mode and larger in size than the distant display mode is set. is set to be the same as the brightness of a virtual object with a small change rate, and in the neighborhood display mode, the brightness of a virtual object with a large change rate is set lower than the brightness of a virtual object with a small change rate. A virtual object with a large rate of change in size as it moves emphasizes the sense of depth, and is displayed large especially in the near display mode, and it is assumed that the visual attention of the observer is excessively deprived. In the present embodiment, in a neighborhood display mode that is particularly large in size and tends to deprive the viewer of visual attention, the brightness of a virtual object that has a large rate of change in size due to movement is adjusted to the brightness of a virtual object that has a small rate of change in size due to movement. Since the brightness is lower than the brightness of the object, it is possible to effectively prevent the viewer's visual attention from being excessively deprived.

図5のステップS168では、プロセッサ33は、図6Fに示すように、オブジェクト移動処理において、仮想オブジェクトVOに最大サイズAsmを設定し、仮想オブジェクトVOの移動の一部において、仮想オブジェクトVOのサイズAsが最大サイズAsmより大きくならないように仮想オブジェクトVOのサイズAsを最大サイズAsmに維持しつつ移動させ、仮想オブジェクトVOの移動の他部において、仮想オブジェクトVOのサイズAsが最大サイズAsmより小さい範囲で、仮想オブジェクトVOのサイズAsを徐々に変化させつつ移動させる。本実施形態では、移動に伴うサイズに上限(最大サイズ)を設定することで、仮想オブジェクトが過度に大きく表示され、観察者の視覚的注意が過度に奪われてしまうことを抑制することができる。 In step S168 of FIG. 5, the processor 33 sets the maximum size Asm to the virtual object VO in the object movement process, and sets the size Asm of the virtual object VO in part of the movement of the virtual object VO, as shown in FIG. 6F. The virtual object VO is moved while maintaining the size As of the virtual object VO at the maximum size Asm so that the size As of the virtual object VO does not exceed the maximum size Asm. , the size As of the virtual object VO is gradually changed. In this embodiment, by setting an upper limit (maximum size) for the size accompanying movement, it is possible to prevent the virtual object from being displayed in an excessively large size and thereby excessively depriving the observer's visual attention. .

また、図5のステップS168のいくつかの実施形態では、プロセッサ33は、オブジェクト移動処理において、図7C又は図7Dに示すように、1)遠方表示態様と、仮想オブジェクトの移動において遠方表示態様よりも下方であり、遠方表示態様よりもサイズが大きい近傍表示態様と、を設定し、遠方表示態様では、第2のオブジェクト移動処理における変化率が大きい仮想オブジェクトの輝度と、第1のオブジェクト移動処理における変化率が小さい仮想オブジェクトの輝度とを同じに設定し、近傍表示態様では、第2のオブジェクト移動処理における変化率が大きい仮想オブジェクトの輝度を、第1のオブジェクト移動処理における変化率が小さい仮想オブジェクトの輝度より低く設定し、かつ図6Fに示すように、2)仮想オブジェクトに最大サイズを設定し、近傍表示態様で表示される仮想オブジェクトの移動の少なくとも一部において、仮想オブジェクトのサイズが最大サイズより大きくならないように仮想オブジェクトのサイズを最大サイズに維持しつつ移動させる。本実施形態では、特にサイズが大きくなり観察者の視覚的注意が奪われやすい近傍表示態様において、移動に伴うサイズの変化率が大きい仮想オブジェクトの輝度を、移動に伴うサイズの変化率が小さい仮想オブジェクトの輝度より低くするので、観察者の視覚的注意が過度に奪われてしまうことを効果的に抑制することができる。これに加え、移動に伴うサイズに上限(最大サイズ)を設定することで、仮想オブジェクトが過度に大きく表示され、観察者の視覚的注意が過度に奪われてしまうことを抑制することもできる。 Also, in some embodiments of step S168 of FIG. 5, the processor 33, in the object movement process, performs 1) the far display mode and the movement of the virtual object from the far display mode, as shown in FIG. 7C or 7D. and a near display mode having a size larger than that of the distant display mode. In the neighborhood display mode, the brightness of a virtual object with a large change rate in the second object moving process is set to the brightness of a virtual object with a small change rate in the first object moving process. 2) set a maximum size for the virtual object such that the size of the virtual object is maximized for at least a portion of the movement of the virtual object displayed in the near view mode; Move the virtual object while maintaining the maximum size so that it does not exceed the size. In the present embodiment, in a neighborhood display mode that is particularly large in size and tends to deprive the viewer of visual attention, the brightness of a virtual object that has a large rate of change in size due to movement is adjusted to the brightness of a virtual object that has a small rate of change in size due to movement. Since the brightness is lower than the brightness of the object, it is possible to effectively prevent the viewer's visual attention from being excessively deprived. In addition to this, by setting an upper limit (maximum size) for the size associated with movement, it is possible to prevent the virtual object from being displayed in an excessively large size and thereby excessively depriving the observer's visual attention.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above may be implemented by executing one or more functional modules of an information processing device such as a general purpose processor or an application specific chip. These modules, combinations of these modules, and/or combinations with known hardware that can replace their functions are all within the scope of protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図3で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of vehicle display system 10 are optionally implemented in hardware, software, or a combination of hardware and software to carry out the principles of the various described embodiments. It is noted that the functional blocks illustrated in FIG. 3 may optionally be combined or separated into two or more sub-blocks to implement the principles of the described embodiments. will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of the functional blocks described herein.

1 :車両
2 :フロントウインドシールド
4 :目(目位置)
10 :車両用表示システム
20 :ヘッドアップディスプレイ装置(画像表示部)
21 :表示器
21a :表示面
22 :液晶ディスプレイパネル
24 :光源ユニット
25 :リレー光学系
26 :第1ミラー
27 :第2ミラー
28 :第1アクチュエータ
29 :第2アクチュエータ
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :オブジェクト移動処理回路
37 :メモリ
40 :表示光
40p :光軸
41 :第1画像光
42 :第2画像光
43 :第3画像光
90 :虚像光学系
100 :表示領域
101 :上端
102 :下端
110 :第1の表示領域
120 :第2の表示領域
200 :アイボックス
205 :中心
300 :実オブジェクト
310 :路面
320 :歩行者
330 :分岐路
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :車外センサ
409 :操作検出部
411 :目位置検出部
413 :車両姿勢検出部
415 :携帯情報端末
417 :外部通信機器
502 :判定モジュール
504 :オブジェクト移動処理モジュール
512 :目位置検出モジュール
514 :車両姿勢検出モジュール
516 :表示領域設定モジュール
518 :重畳面積算出モジュール
As :サイズ
Asm :最大サイズ
G10 :第1の変化率
G20 :第2の変化率
G30 :変化率
G :変化率
M :画像
PP :重畳領域
Q :変化特性
Q10 :第1の変化特性
Q20 :第2の変化特性
R :輝度特性
R10 :第1の輝度特性
R20 :第2の輝度特性
V :虚像
V10 :第1の仮想オブジェクト
V20 :第2の仮想オブジェクト
VL :表現深度
VO :仮想オブジェクト
1: Vehicle 2: Front windshield 4: Eye (eye position)
10: Vehicle display system 20: Head-up display device (image display unit)
21: Display 21a: Display surface 22: Liquid crystal display panel 24: Light source unit 25: Relay optical system 26: First mirror 27: Second mirror 28: First actuator 29: Second actuator 30: Display control device 31: I /O interface 33 : Processor 35 : Object movement processing circuit 37 : Memory 40 : Display light 40p : Optical axis 41 : First image light 42 : Second image light 43 : Third image light 90 : Virtual image optical system 100 : Display area 101: upper end 102: lower end 110: first display area 120: second display area 200: eyebox 205: center 300: real object 310: road surface 320: pedestrian 330: branch road 401: vehicle ECU
403 : road information database 405 : vehicle position detection unit 407 : vehicle exterior sensor 409 : operation detection unit 411 : eye position detection unit 413 : vehicle posture detection unit 415 : mobile information terminal 417 : external communication device 502 : determination module 504 : object Movement processing module 512: Eye position detection module 514: Vehicle orientation detection module 516: Display area setting module 518: Overlapping area calculation module As: Size Asm: Maximum size G10: First rate of change G20: Second rate of change G30: Change rate G: Change rate M: Image PP: Superimposed area Q: Change characteristic Q10: First change characteristic Q20: Second change characteristic R: Luminance characteristic R10: First luminance characteristic R20: Second luminance characteristic V : Virtual image V10 : First virtual object V20 : Second virtual object VL : Expression depth VO : Virtual object

Claims (8)

車両内のアイボックス(200)から見て前景に重なる表示領域(100)内に、画像の虚像(V)を表示する画像表示部(20)を制御する表示制御装置(30)において、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記プロセッサ(33)は、
仮想オブジェクト(VO)を移動させつつ、前記仮想オブジェクト(VO)の移動に伴い所定の変化率(G)でサイズ(As)を徐々に変化させ、
前記表示領域(100)の高さ方向の位置、前記アイボックス(200)内の観察者の高さ方向の目位置、前記車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて、前記変化率を変更するオブジェクト移動処理、を実行する、
ことを特徴とする表示制御装置。
In a display control device (30) that controls an image display unit (20) that displays a virtual image (V) of an image in a display area (100) that overlaps the foreground when viewed from an eyebox (200) in a vehicle,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
Said processor (33)
While moving the virtual object (VO), gradually changing the size (As) at a predetermined rate of change (G) as the virtual object (VO) moves,
Based on at least one of the height direction position of the display area (100), the height direction eye position of the observer in the eye box (200), the pitching posture of the vehicle, and information capable of estimating these and executing an object movement process that changes the rate of change by
A display control device characterized by:
前記オブジェクト移動処理は、
前記車両の進行に基づき、前記仮想オブジェクト(VO)を移動させつつ、前記仮想オブジェクト(VO)の移動に伴い第1の変化率(G10)でサイズ(As)を徐々に変化させる第1のオブジェクト移動処理と、
前記車両の進行に基づき、前記仮想オブジェクト(VO)を移動させつつ、前記仮想オブジェクト(VO)の移動に伴い前記第1の変化率(G10)より大きい第2の変化率(G20)でサイズ(As)を徐々に変化させる第2のオブジェクト移動処理と、を少なくとも含み、前記表示領域(100)の高さ方向の位置、前記アイボックス(200)内の観察者の高さ方向の目位置、前記車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて切り替え、
前記第2の変化率(G20)は、前記車両の進行に伴う実世界における実オブジェクトのサイズ(As)の変化率(G30)よりも大きい、
ことを特徴とする請求項1に記載の表示制御装置。
The object moving process includes:
A first object whose size (As) is gradually changed at a first rate of change (G10) in accordance with the movement of the virtual object (VO) while moving the virtual object (VO) based on the progress of the vehicle. movement processing;
While moving the virtual object (VO) based on the progress of the vehicle, the size ( A second object movement process for gradually changing As), the position of the display area (100) in the height direction, the eye position of the observer in the eye box (200) in the height direction, Switching based on at least one of the pitching attitude of the vehicle and information that can estimate these,
The second rate of change (G20) is greater than the rate of change (G30) of the size (As) of real objects in the real world as the vehicle travels.
The display control device according to claim 1, characterized by:
前記プロセッサ(33)は、
前記変化率が大きい前記仮想オブジェクトの輝度(R20)を、前記変化率が小さい前記仮想オブジェクトの輝度(R10)より低く設定する、
ことを特徴とする請求項1又は2に記載の表示制御装置。
Said processor (33)
setting the luminance (R20) of the virtual object with a large rate of change lower than the luminance (R10) of the virtual object with a small rate of change;
3. The display control device according to claim 1, wherein:
前記プロセッサ(33)は、前記オブジェクト移動処理において、
遠方表示態様と、
前記仮想オブジェクト(VO)の移動において前記遠方表示態様よりも下方であり、前記遠方表示態様よりもサイズ(As)が大きい近傍表示態様と、を設定し、
前記遠方表示態様では、前記変化率が大きい前記仮想オブジェクトの輝度(R20)と、前記変化率が小さい前記仮想オブジェクトの輝度(R10)とを同じに設定し、
前記近傍表示態様では、前記変化率が大きい前記仮想オブジェクトの輝度(R20)を、前記変化率が小さい前記仮想オブジェクトの輝度(R10)より低く設定する、
ことを特徴とする請求項1又は2に記載の表示制御装置。
The processor (33), in the object movement process,
a distant display mode;
setting a near display mode that is lower than the distant display mode in the movement of the virtual object (VO) and has a larger size (As) than the distant display mode,
In the distant display mode, setting the luminance (R20) of the virtual object having a large rate of change and the luminance (R10) of the virtual object having a small rate of change to be the same,
In the neighborhood display mode, the brightness (R20) of the virtual object having a large rate of change is set lower than the brightness (R10) of the virtual object having a small rate of change.
3. The display control device according to claim 1, wherein:
前記プロセッサ(33)は、前記オブジェクト移動処理において、
前記仮想オブジェクトに最大サイズ(As)を設定し、
前記仮想オブジェクトの移動の一部において、前記仮想オブジェクトのサイズ(As)が前記最大サイズ(Asm)より大きくならないように前記仮想オブジェクトのサイズ(As)を前記最大サイズ(Asm)に維持しつつ移動させ、
前記仮想オブジェクトの移動の他部において、前記仮想オブジェクトのサイズ(As)が前記最大サイズ(Asm)より小さい範囲で、前記仮想オブジェクトのサイズ(As)を徐々に変化させつつ移動させる、
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
The processor (33), in the object movement process,
setting a maximum size (As) for the virtual object;
moving while maintaining the size (As) of the virtual object at the maximum size (Asm) so that the size (As) of the virtual object does not become larger than the maximum size (Asm) in part of the movement of the virtual object let
In the other part of the movement of the virtual object, moving the virtual object while gradually changing the size (As) of the virtual object within a range where the size (As) of the virtual object is smaller than the maximum size (Asm);
5. The display control device according to any one of claims 1 to 4, characterized in that:
前記プロセッサ(33)は、
前記表示領域(100)の高さ方向の位置、前記アイボックス(200)内の観察者の高さ方向の目位置、前記車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて、前記目位置又は前記アイボックス(200)の所定の位置から観察したときの前記表示領域(100)内における路面の占める割合(PP)を算出し、
前記割合が小さいと判定される場合、前記変化率(G)を大きくする、
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
Said processor (33)
Based on at least one of the height direction position of the display area (100), the height direction eye position of the observer in the eye box (200), the pitching posture of the vehicle, and information capable of estimating these calculating the ratio (PP) of the road surface in the display area (100) when observed from the eye position or a predetermined position of the eye box (200),
If the ratio is determined to be small, increase the rate of change (G);
5. The display control device according to any one of claims 1 to 4, characterized in that:
請求項1乃至6のいずれか1項に記載の表示制御装置(30)と、
表示面に画像を表示する表示器(21)と、
前記表示器(21)が表示する前記画像の表示光を、外部の被投影部に投影することで、アイボックス(200)から見て前景に重なる表示領域(100)内に、画像の虚像(V)を表示する1つ又は複数のリレー光学系(25)と、を備えるヘッドアップディスプレイ装置(20)。
A display control device (30) according to any one of claims 1 to 6;
a display (21) for displaying an image on the display surface;
By projecting the display light of the image displayed by the display device (21) onto an external projection target part, a virtual image of the image ( and one or more relay optics (25) for displaying V).
車両内のアイボックス(200)から見て前景に重なる表示領域(100)内に、画像の虚像(V)を表示する画像表示部(20)を制御する表示制御方法において、
仮想オブジェクト(VO)を移動させつつ、前記仮想オブジェクト(VO)の移動に伴い所定の変化率でサイズ(As)を徐々に変化させることと、
前記表示領域(100)の高さ方向の位置、前記アイボックス(200)内の観察者の高さ方向の目位置、前記車両のピッチング姿勢、及びこれらを推定可能な情報の少なくとも1つに基づいて、前記変化率を変更することと、を含む、
ことを特徴とする表示制御方法。

In a display control method for controlling an image display unit (20) that displays a virtual image (V) of an image in a display area (100) that overlaps the foreground when viewed from an eye box (200) in a vehicle,
While moving the virtual object (VO), gradually changing the size (As) at a predetermined rate of change as the virtual object (VO) moves;
Based on at least one of the height direction position of the display area (100), the height direction eye position of the observer in the eye box (200), the pitching posture of the vehicle, and information capable of estimating these changing the rate of change by
A display control method characterized by:

JP2021187785A 2021-11-18 2021-11-18 Display control device, head-up display device and display control method Pending JP2023074703A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021187785A JP2023074703A (en) 2021-11-18 2021-11-18 Display control device, head-up display device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021187785A JP2023074703A (en) 2021-11-18 2021-11-18 Display control device, head-up display device and display control method

Publications (1)

Publication Number Publication Date
JP2023074703A true JP2023074703A (en) 2023-05-30

Family

ID=86541323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021187785A Pending JP2023074703A (en) 2021-11-18 2021-11-18 Display control device, head-up display device and display control method

Country Status (1)

Country Link
JP (1) JP2023074703A (en)

Similar Documents

Publication Publication Date Title
CN110869901B (en) User interface device for vehicle and vehicle
JP6201690B2 (en) Vehicle information projection system
WO2020110580A1 (en) Head-up display, vehicle display system, and vehicle display method
CN110955045B (en) Display device, display control method, and storage medium
US11506891B2 (en) Method for operating a visual field display device for a motor vehicle
JPWO2019038914A1 (en) Display control device, display control method, and program
WO2021054277A1 (en) Head-up display and image display system
JP7459883B2 (en) Display control device, head-up display device, and method
JP2023077857A (en) Head up display device
WO2021015171A1 (en) Head-up display
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2023048213A1 (en) Display control device, head-up display device, and display control method
JP2023074703A (en) Display control device, head-up display device and display control method
WO2021065698A1 (en) Head-up display device, method, and computer program
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2021056358A (en) Head-up display device
JP2022113292A (en) Display control device, head-up display device, and display control method
JPWO2020090187A1 (en) Virtual image display device and head-up display device
JP2020121607A (en) Display control device, method and computer program
JP2020117105A (en) Display control device, method and computer program
JP6936907B2 (en) Display devices, display control methods, and programs
JP2022190724A (en) Display control device, head-up display device and display control method
JP2022077138A (en) Display controller, head-up display device, and display control method
JP7434894B2 (en) Vehicle display device