JP2020199883A - Display control device, head-up display device, method and computer program - Google Patents

Display control device, head-up display device, method and computer program Download PDF

Info

Publication number
JP2020199883A
JP2020199883A JP2019108274A JP2019108274A JP2020199883A JP 2020199883 A JP2020199883 A JP 2020199883A JP 2019108274 A JP2019108274 A JP 2019108274A JP 2019108274 A JP2019108274 A JP 2019108274A JP 2020199883 A JP2020199883 A JP 2020199883A
Authority
JP
Japan
Prior art keywords
image
angle
vehicle
driver
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019108274A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
誠 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2019108274A priority Critical patent/JP2020199883A/en
Publication of JP2020199883A publication Critical patent/JP2020199883A/en
Pending legal-status Critical Current

Links

Images

Abstract

To suppress the reduction in the visibility of an image while preventing the oversight of the image.SOLUTION: An image display unit displays an image formed of one or a plurality of image elements visually recognized so as to be along the cross direction of the own vehicle in a region overlapped on a foreground when viewed from a driver of the own vehicle, in a case where a first condition consisting of at least one of states that a driver does not visually recognizes a tip end region 240 of an image longer than a prescribed time, the driver gazes at a rear end region 220 of the image and the driver gazes at a region on the upper side with respect to the tip end region 240 is satisfied, changes the angle of the tip end region 240 so as to be raised from the angle along a road surface 330 on which the own vehicle travels and visually recognized.SELECTED DRAWING: Figure 5

Description

本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a display control device, a head-up display device, a method, and a computer program used in a vehicle to superimpose and visually recognize an image on the foreground of the vehicle.

特許文献1には、運転者(視認者)が見ていない情報画像の輝度を上げたり線を太くしたりする(視認性を上げる)ことで、見ていない情報画像に運転者の注意を向けさせる画像表示装置が記載されている。 In Patent Document 1, the driver's attention is directed to the information image that is not seen by the driver (viewer) by increasing the brightness of the information image or thickening the line (increasing the visibility). The image display device to be used is described.

特許文献2には、自車両の前景(実景)にあたかも実際に存在するかのような仮想オブジェクトを遠近感のある画像で表現し、拡張現実(AR:Augmented Reality)を生成し、前景に仮想オブジェクト(画像)を溶け込ませることで、仮想オブジェクト(画像)が示す情報と実景とのつながりを向上させ、視認者(自車両の運転者)の視覚的負荷を軽減しつつ、情報を認識させるヘッドアップディスプレイ装置が記載されている。 In Patent Document 2, a virtual object as if it actually exists in the foreground (actual view) of the own vehicle is expressed by an image with a sense of perspective, augmented reality (AR) is generated, and the virtual object is virtualized in the foreground. A head that recognizes information while improving the connection between the information shown by the virtual object (image) and the actual scene by blending the object (image) and reducing the visual load on the viewer (driver of the own vehicle). An up-display device is described.

特開2017−138350号公報Japanese Unexamined Patent Publication No. 2017-138350 特開2016−212338号公報Japanese Unexamined Patent Publication No. 2016-21238

しかしながら、実景に溶け込ませるように仮想オブジェクト(画像)を表示した場合、特許文献1のように表示されている画像の視認性を上げる、より詳しくは、画像全体の視認性を上げることで、実景に対する仮想オブジェクト(画像)の馴染み具合が低下してしまう。また、これにより、仮想オブジェクト(画像)が持つ空間的情報の把握のしやすさが低下してしまうことも想定される。 However, when a virtual object (image) is displayed so as to blend into the actual scene, the visibility of the displayed image as in Patent Document 1 is improved, and more specifically, the visibility of the entire image is increased to improve the visibility of the actual scene. The familiarity of the virtual object (image) with respect to is reduced. It is also assumed that this will reduce the ease of grasping the spatial information possessed by the virtual object (image).

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the particular embodiments disclosed herein is presented below. It should be understood that these aspects are presented solely to provide the reader with an overview of these particular embodiments and do not limit the scope of this disclosure. In fact, the present disclosure may include various aspects not described below.

本開示の概要は、画像の見逃しを防止しつつも、画像の見やすさ低下を抑制する、より具体的には、仮想オブジェクト(画像)が持つ空間的情報の把握のしやすさ低下を抑制することにも関する。 The outline of the present disclosure suppresses a decrease in the visibility of an image while preventing an image from being overlooked, and more specifically, suppresses a decrease in the ease of grasping spatial information possessed by a virtual object (image). Also related to that.

したがって、本明細書に記載される表示制御装置は、運転者が、画像の先端領域を所定の時間より長く視認していないこと、画像の後端領域を注視していること、及び先端領域よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされた場合、自車両が走行する路面に沿った角度から起きて視認されるように、先端領域の角度を変更する。 Therefore, in the display control device described in the present specification, the driver does not visually recognize the front end region of the image for longer than a predetermined time, is gazing at the rear end region of the image, and is from the tip region. If the first condition consisting of at least one of the fact that the vehicle is gazing at the upper region is satisfied, the angle of the tip region is adjusted so that the vehicle can be seen from an angle along the road surface on which the vehicle is traveling. change.

いくつかの実施形態に係る、車両用表示システムの適用例を示す図である。It is a figure which shows the application example of the display system for a vehicle which concerns on some embodiments. いくつかの実施形態に係る、車両用表示システムのブロック図である。It is a block diagram of the display system for a vehicle which concerns on some embodiments. 運転者の視線方向と、特定角度領域との差分角度を説明する図であり、自車両の上から見た図である。It is a figure explaining the difference angle between the line-of-sight direction of a driver, and a specific angle region, and is the figure seen from the top of own vehicle. 運転者の視線方向と、特定角度領域との差分角度を説明する図であり、自車両の左から見た図である。It is a figure explaining the difference angle between a driver's line-of-sight direction and a specific angle region, and is the figure seen from the left of the own vehicle. いくつかの実施形態に係る、画像表示部が表示するパースペクティブ画像であり、一部の角度を変更する前の表示例を示す図である。It is a perspective image displayed by the image display unit which concerns on some embodiments, and is the figure which shows the display example before changing a part angle. いくつかの実施形態に係る、画像表示部が表示するパースペクティブ画像であり、一部の角度を変更した後の表示例を示す図である。It is a perspective image displayed by the image display unit which concerns on some embodiments, and is the figure which shows the display example after changing a part angle. 図5に示すパースペクティブ画像の領域毎の路面との角度を示すグラフであり、横軸はパースペクティブ画像の領域を示し、縦軸が路面に対して仮想的に設定されたパースペクティブ画像の角度[degree]を示す。It is a graph which shows the angle with the road surface for each area of the perspective image shown in FIG. 5, the horizontal axis shows the area of a perspective image, and the vertical axis is the angle of a perspective image virtually set with respect to the road surface [degree]. Is shown. いくつかの実施形態に係る、パースペクティブ画像の領域毎の路面との角度を示すグラフの別例であり、横軸はパースペクティブ画像の領域を示し、縦軸が路面に対して仮想的に設定されたパースペクティブ画像の角度[degree]を示す。画像の視認性を上昇させる処理のフロー図である。Another example of a graph showing the angle of each area of the perspective image with respect to the road surface according to some embodiments, the horizontal axis indicates the area of the perspective image, and the vertical axis is virtually set with respect to the road surface. The angle [degree] of the perspective image is shown. It is a flow chart of the process which raises the visibility of an image. いくつかの実施形態に係る、画像表示部が表示するパースペクティブ画像の別例であり、一部の角度を変更する前の表示例を示す図である。It is another example of the perspective image displayed by the image display part which concerns on some embodiments, and is the figure which shows the display example before changing a part angle. いくつかの実施形態に係る、画像表示部が表示するパースペクティブ画像の別例であり、一部の角度を変更した後の表示例を示す図である。It is another example of the perspective image displayed by the image display part which concerns on some embodiments, and is the figure which shows the display example after changing a part angle. いくつかの実施形態に係る、画像表示部が表示するパースペクティブ画像の別例であり、一部の角度を変更した後の表示例を示す図である。It is another example of the perspective image displayed by the image display part which concerns on some embodiments, and is the figure which shows the display example after changing a part angle. 図9に示すパースペクティブ画像の領域毎の路面との角度を示すグラフであり、横軸はパースペクティブ画像の領域を示し、縦軸が路面に対して仮想的に設定されたパースペクティブ画像の角度[degree]を示す。It is a graph which shows the angle with the road surface for each area of the perspective image shown in FIG. 9, the horizontal axis shows the area of a perspective image, and the vertical axis is the angle of a perspective image virtually set with respect to the road surface [degree]. Is shown. いくつかの実施形態に係る、パースペクティブ画像の領域毎の路面との角度を示すグラフの別例であり、横軸はパースペクティブ画像の領域を示し、縦軸が路面に対して仮想的に設定されたパースペクティブ画像の角度[degree]を示す。Another example of a graph showing the angle of each area of the perspective image with respect to the road surface according to some embodiments, the horizontal axis indicates the area of the perspective image, and the vertical axis is virtually set with respect to the road surface. The angle [degree] of the perspective image is shown. パースペクティブ画像の一部の角度を変更してから元の角度に戻るまでのタイミングチャートであり、横軸は時間を示し、縦軸が路面に対して仮想的に設定されたパースペクティブ画像の一部の角度[degree]を示す。It is a timing chart from changing a part of the angle of the perspective image to returning to the original angle, the horizontal axis shows the time, and the vertical axis is a part of the perspective image virtually set for the road surface. Indicates the angle [image]. いくつかの実施形態に係る、車両用表示システムが表示するパースペクティブ画像の例を示す図である。It is a figure which shows the example of the perspective image displayed by the display system for a vehicle which concerns on some embodiments. いくつかの実施形態に係る、車両用表示システムが表示するパースペクティブ画像の例を示す図である。It is a figure which shows the example of the perspective image displayed by the display system for a vehicle which concerns on some embodiments. いくつかの実施形態に係る、車両用表示システムが表示するパースペクティブ画像の例を示す図である。It is a figure which shows the example of the perspective image displayed by the display system for a vehicle which concerns on some embodiments. いくつかの実施形態に係る、パースペクティブ画像の一部の角度を変更する処理のフロー図である。It is a flow chart of the process which changes the angle of a part of a perspective image which concerns on some embodiments.

以下、図1及び図2では、例示的な車両用表示システムの構成の説明を提供する。図3A、図3Bでは、注視判定の一例の説明を提供する。図4ないし図12Cでは、表示例の説明を提供する。図13では、例示的な表示制御の処理の流れを説明する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, FIGS. 1 and 2 provide a description of the configuration of an exemplary vehicle display system. 3A and 3B provide an explanation of an example of gaze determination. 4 to 12C provide a description of a display example. FIG. 13 describes a flow of an exemplary display control process. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.

図1を参照する。車両用表示システム10は、画像表示部20と、画像表示部20を制御する表示制御装置30と、で構成される。なお、本実施形態の説明では、自車両1の運転席に着座する運転者4が自車両1の前方を向いた際の左右方向をX軸(左方向がX軸正方向)、上下方向をY軸(上方向がY軸正方向)、前後方向をZ軸(前方向がZ軸正方向)とする。 See FIG. The vehicle display system 10 includes an image display unit 20 and a display control device 30 that controls the image display unit 20. In the description of the present embodiment, the left-right direction when the driver 4 seated in the driver's seat of the own vehicle 1 faces the front of the own vehicle 1 is the X-axis (the left direction is the X-axis positive direction), and the vertical direction is The Y-axis (upward direction is the Y-axis positive direction) and the front-back direction is the Z-axis (front direction is the Z-axis positive direction).

車両用表示システム10における画像表示部20は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光20aを自車両1のフロントウインドシールド2(被投影部材の一例である)に向けて出射し、フロントウインドシールド2(被投影部材の一例である)よりも前方側(Z軸正方向)の表示領域100で画像を視認させる。これにより、運転者4は、フロントウインドシールド2を介して視認される現実空間である前景300と奥行き方向(前後方向)に重なった画像を視認できる。 The image display unit 20 in the vehicle display system 10 is a head-up display (HUD: Head-Up Display) device provided in the dashboard 5 of the own vehicle 1. The HUD device emits the display light 20a toward the front windshield 2 (an example of the projected member) of the own vehicle 1 and emits the display light 20a toward the front side (Z) of the front windshield 2 (an example of the projected member). The image is visually recognized in the display area 100 (in the positive direction of the axis). As a result, the driver 4 can visually recognize an image that overlaps with the foreground 300, which is a real space that is visually recognized through the front windshield 2, in the depth direction (front-back direction).

表示領域100は、HUD装置の内部で生成された画像が、虚像として結像する(画像として視認される)平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。表示領域100自体は、実際に運転者4に視認されない、又は視認されにくい程度に視認性が低い。表示領域100には、自車両1の左右方向(X軸方向)を軸とした水平方向(XZ平面)とのなす角度(図1のチルト角θt)が設定される。なお、本実施形態では、表示領域100を面領域(2次元面、又は曲がった2次元面)として説明するが、画像表示部20が公知の技術を用いた3D表示器であれば、表示領域100は、3次元領域になり得る。 The display area 100 is an area of a plane, a curved surface, or a partially curved surface in which an image generated inside the HUD device is imaged as a virtual image (visible as an image), and is also called an imaging surface. The display area 100 itself is so low in visibility that it is not actually visible to the driver 4 or is difficult to see. In the display area 100, an angle (tilt angle θt in FIG. 1) formed with the horizontal direction (XZ plane) about the left-right direction (X-axis direction) of the own vehicle 1 is set. In the present embodiment, the display area 100 is described as a surface area (two-dimensional surface or curved two-dimensional surface), but if the image display unit 20 is a 3D display using a known technique, the display area 100 can be a three-dimensional region.

チルト角θtは、例えば、90[degree]であり、水平面(例えば、自車両1が走行する走行レーンの路面330。)に対して垂直となるように設けられる(図1の表示領域110。)が、水平面(自車両1が走行する走行レーンの路面330。)に沿うように、運転者4から見た表示領域100の上側の部分(Y軸正方向の部分)が下側の部分(Y軸負方向の部分)よりも運転者4から離れた位置になる角度に設定されてもよい(図1の表示領域120。)。チルト角θtは、これらに限定されず、0〜90[degree]に設定されることが好ましい。また、チルト角θtは、例えば、後述するリレー光学系24を図示しないアクチュエータなどで回転させることで、運転者4が任意に変更可能であってもよい。なお、チルト角θtは、91〜180[degree]に設定されてもよい、すなわち、運転者4から見た表示領域100の上側の部分(Y軸正方向の部分)が下側の部分(Y軸負方向の部分)よりも運転者4に近くなる角度に設定されてもよい。 The tilt angle θt is, for example, 90 [degree], and is provided so as to be perpendicular to the horizontal plane (for example, the road surface 330 of the traveling lane in which the own vehicle 1 travels) (display area 110 in FIG. 1). However, the upper part (the part in the positive direction of the Y axis) of the display area 100 seen from the driver 4 is the lower part (Y) so as to be along the horizontal plane (the road surface 330 of the traveling lane on which the own vehicle 1 travels). It may be set at an angle that is farther from the driver 4 than the portion in the negative axis direction (display area 120 in FIG. 1). The tilt angle θt is not limited to these, and is preferably set to 0 to 90 [degree]. Further, the tilt angle θt may be arbitrarily changed by the driver 4, for example, by rotating the relay optical system 24 described later with an actuator (not shown) or the like. The tilt angle θt may be set to 91 to 180 [degree], that is, the upper portion (the portion in the positive direction of the Y axis) of the display area 100 as seen from the driver 4 is the lower portion (Y). The angle may be set closer to the driver 4 than the portion in the negative axis direction).

画像表示部20は、画像を表示する表示面を有する表示器22と、リレー光学系24と、を含む。表示器22は、LCDなどのバックライトからの光を透過する透過型ディスプレイであってもよく、スクリーンに画像を投影するプロジェクション型ディスプレイであってもよい。これらの場合、表示面は、透過型ディスプレイにおけるディスプレイ表面であり、プロジェクション型ディスプレイのスクリーンである。 The image display unit 20 includes a display 22 having a display surface for displaying an image, and a relay optical system 24. The display 22 may be a transmissive display that transmits light from a backlight such as an LCD, or may be a projection type display that projects an image on a screen. In these cases, the display surface is the display surface in the transmissive display and the screen of the projection display.

リレー光学系24は、表示器22とフロントウインドシールド2との間の表示器22からの画像の光の光路上に配置され、表示器22からの画像の光を画像表示部20の外側のフロントウインドシールド2に投影する1つ又は複数の光学部材で構成される。リレー光学系24は、1つの凹面鏡(反射光学部材の一例)を含むが、これに加え、例えば、1つ又は複数の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材、又はこれらの組み合わせを含んでいてもよい。 The relay optical system 24 is arranged on the optical path of the light of the image from the display 22 between the display 22 and the front windshield 2, and the light of the image from the display 22 is transmitted to the front outside the image display unit 20. It is composed of one or a plurality of optical members projected on the windshield 2. The relay optical system 24 includes one concave mirror (an example of a reflection optical member), and in addition to this, for example, one or more refractive optical members such as a lens, a diffraction optical member such as a hologram, a reflection optical member, and the like. Alternatively, a combination thereof may be included.

また、画像表示部20は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される画像を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の画像を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定(調整可能に配置)され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された画像を視認することができる。 Further, the image display unit 20 may be a head-mounted display (hereinafter, HMD) device. The driver 4 attaches the HMD device to his / her head and sits on the seat of the own vehicle 1, so that the displayed image is superimposed on the foreground 300 via the front windshield 2 of the own vehicle 1 and visually recognized. .. The display area 100 on which the vehicle display system 10 displays a predetermined image is fixed (adjustably arranged) at a specific position with respect to the coordinate system of the own vehicle 1, and when the driver 4 faces that direction, The image displayed in the display area 100 fixed at the specific position can be visually recognized.

画像表示部20は、表示制御装置30の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景300に存在する、後述する障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面330、道路標識、及び地物(建物、橋など)などの実オブジェクト310の近傍(画像と実オブジェクトとの特定の位置関係の一例)、実オブジェクト310に重なる位置(画像と実オブジェクトとの特定の位置関係の一例)、又は実オブジェクト310を基準に設定された位置(画像と実オブジェクトとの特定の位置関係の一例)に画像を表示することで、視覚的な拡張現実(AR:Augmented Reality)を視認者(典型的には、自車両1の運転席に着座する運転者4)に知覚させることもできる。 The image display unit 20 exists in the foreground 300, which is a real space (actual view) that is visually recognized through the front windshield 2 of the own vehicle 1 based on the control of the display control device 30, and is an obstacle (pedestrian) described later. , Bicycles, motorcycles, other vehicles, etc.), the road surface 330 of the driving lane described later, road signs, and the vicinity of the real object 310 such as features (buildings, bridges, etc.) (the specific positional relationship between the image and the real object). (Example), at a position overlapping the real object 310 (an example of a specific positional relationship between the image and the real object), or at a position set based on the real object 310 (an example of a specific positional relationship between the image and the real object). By displaying the image, the visual augmented reality (AR) can be perceived by the viewer (typically, the driver 4 seated in the driver's seat of the own vehicle 1).

図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 2 is a block diagram of the vehicle display system 10 according to some embodiments. The display control device 30 includes one or more I / O interfaces 31, one or more processors 33, one or more image processing circuits 35, and one or more memories 37. The various functional blocks described in FIG. 2 may consist of hardware, software, or a combination of both. FIG. 2 is only one embodiment, and the illustrated components may be combined with a smaller number of components, or there may be additional components. For example, the image processing circuit 35 (eg, graphic processing unit) may be included in one or more processors 33.

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(画像表示部20)の操作を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。 As shown, the processor 33 and the image processing circuit 35 are operably connected to the memory 37. More specifically, the processor 33 and the image processing circuit 35 execute a program stored in the memory 37 to generate and / or transmit image data, for example, and display the vehicle display system 10 (image display). The operation of unit 20) can be performed. The processor 33 and / or the image processing circuit 35 includes at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 37 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. The volatile memory may include DRAM and SRAM, and the non-volatile memory may include ROM and NVROM.

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。 As shown, the processor 33 and the image processing circuit 35 are operably connected to the memory 37. More specifically, the processor 33 and the image processing circuit 35 execute the program stored in the memory 37 to operate the vehicle display system 10, such as generating and / or transmitting image data. It can be carried out. The processor 33 and / or the image processing circuit 35 includes at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 37 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. The volatile memory may include DRAM and SRAM, and the non-volatile memory may include ROM and NVROM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401、又は他の電子機器(後述する符号403〜415)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16−2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G−LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, the processor 33 is operably linked to the I / O interface 31. The I / O interface 31 communicates with, for example, the vehicle ECU 401 described later or other electronic device (reference numerals 403 to 415 described later) provided in the vehicle according to the standard of CAN (Controller Area Network) (also CAN communication). ). The communication standard adopted by the I / O interface 31 is not limited to CAN, and is, for example, CANFD (CAN with Flexible Data Rate), LIN (Local Interconnect Network), Ethernet (registered trademark), MOST (Media Oriented Systems Transport). : MOST is a registered trademark), a wired communication interface such as UART, or USB, or a local such as a personal area network (PAN) such as a Bluetooth (registered trademark) network, or an 802.1x Wi-Fi (registered trademark) network. In-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN), is included. In addition, the I / O interface 31 is a wireless wide area network (WWAN0, IEEE 802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), IEEE 802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, An external communication (external communication) interface such as a wide area communication network (for example, an Internet communication network) may be included according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び外部通信機器415などが動作可能に連結される。 As shown in the figure, the processor 33 is interoperably connected to the I / O interface 31 to provide information with various other electronic devices and the like connected to the vehicle display system 10 (I / O interface 31). Can be exchanged. The I / O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detection unit 405, an external sensor 407, a line-of-sight direction detection unit 409, an eye position detection unit 411, a mobile information terminal 413, and an external communication device. 415 and the like are operably connected.

表示器22は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、画像表示部20によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、画像表示部20が表示する画像を制御する。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 The display 22 is operably connected to the processor 33 and the image processing circuit 35. Therefore, the image displayed by the image display unit 20 may be based on the image data received from the processor 33 and / or the image processing circuit 35. The processor 33 and the image processing circuit 35 control the image displayed by the image display unit 20 based on the information acquired from the I / O interface 31. The I / O interface 31 may include a function of processing (converting, calculating, analyzing) information received from another electronic device or the like connected to the vehicle display system 10.

車両ECU401は、自車両1に設けられたセンサやスイッチから、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、自車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、自車両1の前記状態の数値(例えば、自車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ステアリング操舵角が右方向に10[degree]。)をプロセッサ33へ送信することに加え、又は代わりに、センサで検出した数値を含む自車両1の1つ又は複数の状態に基づく判定結果(例えば、自車両1が右方向に進路を変えようとしていること。)、若しくは/及び解析結果(例えば、運転者4が案内経路の通りに、分岐路で右折する意思があること。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、自車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。 The vehicle ECU 401 uses sensors and switches provided in the own vehicle 1 to determine the state of the own vehicle 1 (for example, mileage, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine). Rotation speed, motor rotation speed, steering angle, shift position, drive mode, various warning states, posture (including roll angle and / or pitching angle), vehicle vibration (magnitude, frequency, and / or frequency of vibration) (Including)), etc., and collects and manages (may also include control) the state of the own vehicle 1. As a part of the function, the numerical value of the state of the own vehicle 1 (for example,). A signal indicating the vehicle speed of the own vehicle 1) can be output to the processor 33 of the display control device 30. The vehicle ECU 401 simply transmits the numerical value detected by the sensor or the like (for example, the steering steering angle is 10 [degree] to the right) to the processor 33, or instead, includes the numerical value detected by the sensor. Judgment result based on one or more states of own vehicle 1 (for example, own vehicle 1 is trying to change course to the right) and / and analysis result (for example, driver 4 follows the guidance route). In addition, the intention to turn right at the branch road) may be transmitted to the processor 33. For example, the vehicle ECU 401 may output a signal indicating a determination result indicating that the own vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 401 to the display control device 30.

また、車両ECU401は、車両用表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 Further, the vehicle ECU 401 may output an instruction signal indicating an image to be displayed by the vehicle display system 10 to the display control device 30, and at this time, it is necessary to notify the coordinates, size, type, display mode, and image of the image. The degree and / or the necessity-related information that is the basis for determining the notification necessity may be added to the instruction signal and transmitted.

道路情報データベース403は、自車両1に設けられた図示しないナビゲーション装置、又は自車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバ、に含まれ、後述する自車位置検出部405から取得される自車両1の位置に基づき、自車両1の周辺の情報(自車両1の周辺の実オブジェクト関連情報)である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号をプロセッサ33へ出力してもよい。 The road information database 403 is included in a navigation device (not shown) provided in the own vehicle 1 or an external server connected to the own vehicle 1 via an external communication interface (I / O interface 31), and the own vehicle will be described later. Based on the position of the own vehicle 1 acquired from the position detection unit 405, the road information (lane, white line, white line,) on which the own vehicle 1 travels, which is the information around the own vehicle 1 (information related to the actual object around the own vehicle 1). Stop line, crosswalk, width of road, number of lanes, intersection, curve, branch road, traffic regulation, etc.), presence / absence of feature information (buildings, bridges, rivers, etc.), position (including distance to own vehicle 1) ), Direction, shape, type, detailed information, etc. may be read and transmitted to the processor 33. Further, the road information database 403 may calculate an appropriate route (navigation information) from the departure point to the destination and output a signal indicating the navigation information to the processor 33.

自車位置検出部405は、自車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の自車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末413、及び/もしくは外部通信機器415へ出力する。道路情報データベース403、後述する携帯情報端末413、及び/又は外部通信機器415は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。 The own vehicle position detection unit 405 is a GNSS (Global Navigation Satellite System) or the like provided in the own vehicle 1, detects the current position and orientation of the own vehicle 1, and sends a signal indicating the detection result to the processor 33. It is output to the road information database 403, the portable information terminal 413 described later, and / or the external communication device 415 via or directly. The road information database 403, the mobile information terminal 413 described later, and / or the external communication device 415 acquires the position information of the own vehicle 1 from the own vehicle position detection unit 405 continuously, intermittently, or at a predetermined event. Then, the information around the own vehicle 1 may be selected and generated and output to the processor 33.

車外センサ407は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクト310を検出する。車外センサ407が検知する実オブジェクト310は、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面330、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。1つ又は複数の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The vehicle exterior sensor 407 detects a real object 310 existing around the own vehicle 1 (front, side, and rear). The real object 310 detected by the external sensor 407 is, for example, an obstacle (pedestrian, bicycle, motorcycle, other vehicle, etc.), a road surface 330 of a traveling lane described later, a lane marking, a roadside object, and / or a feature (building). Etc.) may be included. Examples of the vehicle exterior sensor include a radar sensor such as a millimeter wave radar, an ultrasonic radar, and a laser radar, and a camera sensor composed of a camera and an image processing device, which may be composed of a combination of both a radar sensor and a camera sensor. It may be composed of only one of them. Conventional well-known methods are applied to object detection by these radar sensors and camera sensors. By detecting an object with these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the own vehicle 1 and the traveling direction of the own vehicle 1). Horizontal direction (horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction)) , Depth direction (front-back direction)), movement speed (horizontal direction (horizontal direction), depth direction (front-back direction)), and / or type may be detected. One or more external sensors 407 detect a real object in front of the own vehicle 1 for each detection cycle of each sensor, and the real object information (presence or absence of the real object, the real object is an example of the real object information). If it exists, information such as the position, size, and / or type of each real object) can be output to the processor 33. The actual object information may be transmitted to the processor 33 via another device (for example, the vehicle ECU 401). Further, when a camera is used as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark such as at night. Further, when a camera is used as a sensor, a stereo camera capable of acquiring a distance or the like by parallax is desirable.

視線方向検出部409は、例えば、赤外線カメラ、又は可視光カメラで運転者4の顔を撮像し、当該撮像画像を解析することで、運転者4の視線方向GZを特定し、解析結果(視線方向GZがしばらく停滞する注視位置)を示す信号をプロセッサ33へ出力することができる。なお、プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報)を取得し、前記撮像画像を解析することで、運転者4の視線方向GZを特定してもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 The line-of-sight direction detection unit 409 captures the driver 4's face with, for example, an infrared camera or a visible light camera, analyzes the captured image, identifies the line-of-sight direction GZ of the driver 4, and analyzes the analysis result (line of sight). A signal indicating a gaze position where the direction GZ is stagnant for a while) can be output to the processor 33. The processor 33 may specify the line-of-sight direction GZ of the driver 4 by acquiring an captured image (information capable of estimating the line-of-sight direction) from the line-of-sight direction detection unit 409 and analyzing the captured image. Further, the method of acquiring information capable of estimating the line-of-sight direction of the driver 4 of the own vehicle 1 or the line-of-sight direction of the driver 4 is not limited to these, and is not limited to these, and is limited to the EOG (Electro-occlera) method and the corneal reflex. It may be obtained using other known line-of-sight detection (estimation) techniques such as the method, scleral reflex method, Purkinje image detection method, search coil method, infrared fundus camera method.

視線方向検出部409は、自車両1の運転席に着座する運転者4の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向GZ(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部409は、カメラからの撮像画像を解析し、解析結果である運転者4の視線方向GZ(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、自車両1の運転者4の視線方向GZを推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。プロセッサ33は、注視方向(さらには、どこを注視しているかを示す注視位置)により、画像表示部20が表示している画像の一部の路面330(ZX水平面)に対する角度を調整する。これについては、後述する。 The line-of-sight direction detection unit 409 may include an infrared camera or a visible light camera that captures the face of the driver 4 seated in the driver's seat of the own vehicle 1, and may output the captured image to the processor 33. The processor 33 acquires an captured image (an example of information capable of estimating the line-of-sight direction) from the line-of-sight direction detection unit 409, and analyzes the captured image to obtain the line-of-sight direction GZ (and / or the gaze position) of the driver 4. Can be identified. The line-of-sight direction detection unit 409 may analyze the captured image from the camera and output a signal indicating the line-of-sight direction GZ (and / or the gaze position) of the driver 4 as the analysis result to the processor 33. The method for acquiring information capable of estimating the line-of-sight direction GZ of the driver 4 of the own vehicle 1 is not limited to these, and the EOG (Electro-oculogram) method, the corneal reflex method, the scleral reflex method, and the like. It may be obtained using other known line-of-sight detection (estimation) techniques such as Purkinje image detection, search coil, and infrared fundus camera. The processor 33 adjusts the angle of a part of the image displayed by the image display unit 20 with respect to the road surface 330 (ZX horizontal plane) according to the gaze direction (furthermore, the gaze position indicating where the gaze is). This will be described later.

目位置検出部411は、自車両1の運転席に着座する運転者4の目の位置を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部411から撮像画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、目位置検出部411は、カメラの撮像画像を解析し、解析結果である運転者4の目の位置を示す信号をプロセッサ33に出力してもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ33は、運転者4の目の位置に基づき、画像の位置を少なくとも調整することで、前景300の所望の位置(実オブジェクトとの特定の位置関係になる位置)に重畳した画像を、目位置を検出した視認者(運転者4)に視認させてもよい。 The eye position detection unit 411 may include a camera such as an infrared camera that detects the eye position of the driver 4 seated in the driver's seat of the own vehicle 1, and may output the captured image to the processor 33. The processor 33 acquires an captured image (an example of information capable of estimating the eye position) from the eye position detection unit 411, and can identify the eye position of the driver 4 by analyzing the captured image. The eye position detection unit 411 may analyze the image captured by the camera and output a signal indicating the position of the driver 4's eyes, which is the analysis result, to the processor 33. The method of acquiring the information capable of estimating the eye position of the driver 4 of the own vehicle 1 or the eye position of the driver 4 is not limited to these, and the known eye position detection (estimation) is used. It may be obtained using technology. The processor 33 adjusts at least the position of the image based on the position of the eyes of the driver 4, so that the image superimposed on the desired position of the foreground 300 (the position having a specific positional relationship with the real object) is displayed on the eyes. The visual operator (driver 4) who has detected the position may visually recognize the position.

携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末413とペアリングすることで、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。 The personal digital assistant 413 is a smartphone, a laptop computer, a smart watch, or other information device that can be carried by the driver 4 (or another occupant of the own vehicle 1). The I / O interface 31 can communicate with the mobile information terminal 413 by pairing with the mobile information terminal 413, and the data recorded in the mobile information terminal 413 (or the server through the mobile information terminal). To get. The mobile information terminal 413 has, for example, the same functions as the above-mentioned road information database 403 and own vehicle position detection unit 405, acquires the road information (an example of real object-related information), and transmits it to the processor 33. May be good. Further, the mobile information terminal 413 may acquire commercial information (an example of information related to a real object) related to a commercial facility in the vicinity of the own vehicle 1 and transmit it to the processor 33. The mobile information terminal 413 transmits the schedule information of the owner (for example, the driver 4) of the mobile information terminal 413, the incoming information on the mobile information terminal 413, the received information of the mail, etc. to the processor 33, and the processor 33 and The image processor 35 may generate and / or transmit image data relating to these.

外部通信機器415は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器415は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面(図4の符号330)、区画線(図4の符号331,332)、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器415は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器415から取得される情報は、上述のものに限定されない。 The external communication device 415 is a communication device that exchanges information with the own vehicle 1, for example, another vehicle connected to the own vehicle 1 by vehicle-to-vehicle communication (V2V: Vehicle To Vehicle), and pedestrian-to-vehicle communication (V2P: Vehicle). It is a network communication device connected by pedestrians (portable information terminals carried by pedestrians) connected by To Pedestrian) and by road-to-vehicle communication (V2I: Vehicle To Roadside Infrastructure). In a broad sense, it is a network communication device with the own vehicle 1. Includes everything connected by communication (V2X: Vehicle To Everything). The external communication device 415 includes, for example, a pedestrian, a bicycle, a motorcycle, another vehicle (preceding vehicle, etc.), a road surface (reference numeral 330 in FIG. 4), a lane marking (reference numeral 331, 332 in FIG. 4), a roadside object, and /. Alternatively, the position of a feature (building, etc.) may be acquired and output to the processor 33. Further, the external communication device 415 has the same function as the above-mentioned own vehicle position detection unit 405, and may acquire the position information of the own vehicle 1 and transmit it to the processor 33, and further, the above-mentioned road information database 403. The road information (an example of real object-related information) may be acquired and transmitted to the processor 33. The information acquired from the external communication device 415 is not limited to the above.

メモリ37に記憶されたソフトウェア構成要素は、実オブジェクト情報検出モジュール502、実オブジェクト位置特定モジュール504、報知必要度判定モジュール506、目位置検出モジュール508、画像種類設定モジュール510、画像配置設定モジュール512、画像サイズ設定モジュール514、視線方向判定モジュール516、グラフィックモジュール518、及び行動判定モジュール520を含む。 The software components stored in the memory 37 are the actual object information detection module 502, the actual object position identification module 504, the notification necessity determination module 506, the eye position detection module 508, the image type setting module 510, the image arrangement setting module 512, and the like. It includes an image size setting module 514, a line-of-sight direction determination module 516, a graphic module 518, and an action determination module 520.

実オブジェクト情報検出モジュール502は、自車両1の前方に存在する実オブジェクト310の少なくとも位置を含む情報(実オブジェクト情報とも呼ぶ)を取得する。実オブジェクト情報検出モジュール502は、例えば、車外センサ407から、自車両1の前景300に存在する実オブジェクト310の位置(自車両1の運転席にいる運転者4から自車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい。)、及び実オブジェクト310のサイズ(高さ方向、横方向のサイズ。)、自車両1に対する相対速度(相対的な移動方向も含む。)、を含む情報(実オブジェクト情報の一例)を取得してもよい。また、実オブジェクト情報検出モジュール502は、外部通信機器415を介して実オブジェクト(例えば、他車両)の位置、相対速度、種類、他車両の方向指示器の点灯状態、舵角操作の状態、及び/又は運転支援システムによる進行予定経路、進行スケジュール、を示す情報(実オブジェクト関連情報の一例)を取得してもよい。 The real object information detection module 502 acquires information (also referred to as real object information) including at least the position of the real object 310 existing in front of the own vehicle 1. The real object information detection module 502 is, for example, from the vehicle exterior sensor 407, the position of the real object 310 existing in the foreground 300 of the own vehicle 1 (from the driver 4 in the driver's seat of the own vehicle 1 to the traveling direction of the own vehicle 1 (forward). ) Is the position in the height direction (vertical direction), the horizontal direction (horizontal direction), and the position in the depth direction (forward direction) may be added to these positions), and the position of the real object 310. Information (an example of real object information) including the size (size in the height direction and the size in the lateral direction) and the relative speed with respect to the own vehicle 1 (including the relative moving direction) may be acquired. Further, the real object information detection module 502 includes the position, relative speed, type of the real object (for example, another vehicle), the lighting state of the direction indicator of the other vehicle, the steering angle operation state, and the steering angle operation state via the external communication device 415. / Or, information (an example of information related to a real object) indicating a planned progress route and a progress schedule by the driving support system may be acquired.

また、実オブジェクト情報検出モジュール502は、車外センサ407から、自車両1の走行レーンの路面330(図4参照)の左側の区画線331(図4参照)の位置と、右側の区画線332(図4参照)の位置とを取得し、それら左右の区画線331,332の間の領域(走行レーンの路面330)を認識してもよい。 Further, the real object information detection module 502 is determined by the position of the lane marking 331 (see FIG. 4) on the left side of the road surface 330 (see FIG. 4) of the traveling lane of the own vehicle 1 and the lane marking 332 (see FIG. The position of (see FIG. 4) may be acquired, and the region (road surface 330 of the traveling lane) between the left and right lane markings 331 and 332 may be recognized.

また、実オブジェクト情報検出モジュール502は、後述するパースペクティブ画像200の内容(以下では、適宜「画像の種類」ともいう)を決定する元となる、自車両1の前景300に存在する実オブジェクトに関する情報(実オブジェクト関連情報)を検出してもよい。実オブジェクト関連情報は、例えば、実オブジェクトが、歩行者である、又は他車両であるなどの実オブジェクトの種類を示す種類情報、実オブジェクトの移動方向を示す移動方向情報、実オブジェクトまでの距離や到達時間を示す距離時間情報、又は駐車場(実オブジェクト)の料金などの実オブジェクトの個別詳細情報、である(但し、これらに限定されない)。例えば、実オブジェクト情報検出モジュール502は、道路情報データベース403又は携帯情報端末413から種類情報、距離時間情報、及び/もしくは個別詳細情報を取得し、車外センサ407から種類情報、移動方向情報、及び/もしくは距離時間情報を取得し、並びに/又は外部通信機器415から種類情報、移動方向情報、距離時間情報、及び/もしくは個別詳細情報を検出してもよい。 Further, the real object information detection module 502 is information about a real object existing in the foreground 300 of the own vehicle 1 which is a source for determining the content of the perspective image 200 (hereinafter, also appropriately referred to as “image type”) described later. (Real object related information) may be detected. The real object-related information includes, for example, type information indicating the type of the real object such as the real object being a pedestrian or another vehicle, moving direction information indicating the moving direction of the real object, distance to the real object, and the like. Distance time information indicating the arrival time, or individual detailed information of the real object such as the charge of the parking lot (real object) (but not limited to these). For example, the real object information detection module 502 acquires type information, distance / time information, and / or individual detailed information from the road information database 403 or the mobile information terminal 413, and the type information, movement direction information, and / or from the vehicle exterior sensor 407. Alternatively, the distance / time information may be acquired and / or the type information, the moving direction information, the distance / time information, and / or the individual detailed information may be detected from the external communication device 415.

実オブジェクト位置特定モジュール504は、I/Oインタフェース31を介して、車外センサ407、若しくは外部通信機器415から実オブジェクト310の現在の位置を示す観測位置を取得し、又はこれら2以上の観測位置をフュージョンした実オブジェクトの観測位置を取得し、取得した観測位置に基づいて実オブジェクト310の位置(特定位置とも呼ぶ)を設定する。後述する画像配置設定モジュール512は、この実オブジェクト位置特定モジュール504が設定した実オブジェクト310の特定位置を基準に画像の位置を決定する。 The real object position identification module 504 acquires the observation position indicating the current position of the real object 310 from the vehicle exterior sensor 407 or the external communication device 415 via the I / O interface 31, or obtains two or more observation positions thereof. The observation position of the fused real object is acquired, and the position (also referred to as a specific position) of the real object 310 is set based on the acquired observation position. The image arrangement setting module 512, which will be described later, determines the position of the image based on the specific position of the real object 310 set by the real object position specifying module 504.

実オブジェクト位置特定モジュール504は、直前に取得した実オブジェクト310の観測位置に基づいて実オブジェクト310の位置を特定してもよいが、これに限定されず、少なくとも直前に取得した実オブジェクト310の観測位置を含む過去に取得した1つ又は複数の実オブジェクト310の観測位置を元に予測される所定の時刻における実オブジェクトの予測位置に基づいて実オブジェクト310の位置を特定(推定)してもよい。すなわち、実オブジェクト位置特定モジュール504と後述する画像配置設定モジュール512を実行することで、プロセッサ33は、直前に取得した実オブジェクト310の観測位置に基づいてパースペクティブ画像200の位置を特定し得るし、少なくとも直前に取得した実オブジェクト310の観測位置を含む過去に取得した1つ又は複数の実オブジェクト310の観測位置を元に予測されるパースペクティブ画像200の表示更新タイミングにおける実オブジェクト310の予測位置に基づいてパースペクティブ画像200の位置を設定し得る。なお、実オブジェクト位置特定モジュール504による予測位置の算出方法に特段の制約はなく、実オブジェクト位置特定モジュール504が処理対象とする表示更新タイミングよりも過去に取得された観測位置に基づいて予測を行う限り、如何なる手法を用いてもよい。実オブジェクト位置特定モジュール504は、例えば、最小二乗法や、カルマンフィルタ、α−βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又は複数の観測位置を用いて、次回の値を予測するようにしてもよい。なお、車両用表示システム10は、実オブジェクトの観測位置、及び/又は予測位置を取得できればよく、実オブジェクトの予測位置を設定する(算出する)機能を有していなくてもよく、実オブジェクトの予測位置を設定する(算出する)機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別(例えば、車両ECU401)に設けられてもよい。 The real object position specifying module 504 may specify the position of the real object 310 based on the observed position of the real object 310 acquired immediately before, but is not limited to this, and at least observes the real object 310 acquired immediately before. The position of the real object 310 may be specified (estimated) based on the predicted position of the real object at a predetermined time predicted based on the observed position of one or more real objects 310 acquired in the past including the position. .. That is, by executing the real object position specifying module 504 and the image arrangement setting module 512 described later, the processor 33 can specify the position of the perspective image 200 based on the observed position of the real object 310 acquired immediately before. Based on the predicted position of the real object 310 at the display update timing of the perspective image 200 predicted based on the observed position of one or more real objects 310 acquired in the past including the observed position of the real object 310 acquired at least immediately before. The position of the perspective image 200 can be set. There are no particular restrictions on the method of calculating the predicted position by the real object position specifying module 504, and the prediction is performed based on the observation position acquired in the past from the display update timing targeted by the real object position specifying module 504. Any method may be used as long as it is used. The real object positioning module 504 uses, for example, a least squares method, a prediction algorithm such as a Kalman filter, an α-β filter, or a particle filter, and uses one or more observation positions in the past to determine the next value. You may try to predict. The vehicle display system 10 only needs to be able to acquire the observed position and / or the predicted position of the real object, and does not have to have the function of setting (calculating) the predicted position of the real object. A part or all of the function of setting (calculating) the predicted position may be provided separately from the display control device 30 of the vehicle display system 10 (for example, the vehicle ECU 401).

報知必要度判定モジュール506は、車両用表示システム10が表示する各パースペクティブ画像200が運転者4に報知するべき内容であるかを判定する。報知必要度判定モジュール506は、I/Oインタフェース31に接続される種々の他の電子機器から情報を取得し、報知必要度を算出してもよい。また、図2でI/Oインタフェース31に接続された電子機器が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度判定モジュール506が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。報知必要度判定モジュール506は、画像200の報知必要度を推定する元となる必要度関連情報を検出し、これから報知必要度を推定してもよい。画像の報知必要度を推定する元となる必要度関連情報は、例えば、実オブジェクトや交通規制(道路情報の一例)の位置、種類などで推定されてもよく、I/Oインタフェース31に接続される種々の他の電子機器から入力される他の情報に基づいて、又は他の情報を加味して推定されてもよい。すなわち、報知必要度判定モジュール506は、運転者4に報知すべきかを判定し、後述する画像を表示しないことも選択し得る。なお、車両用表示システム10は、報知必要度を取得できればよく、報知必要度を推定する(算出する)機能を有していなくてもよく、報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別(例えば、車両ECU401)に設けられてもよい。 The notification necessity determination module 506 determines whether each perspective image 200 displayed by the vehicle display system 10 is the content to be notified to the driver 4. The notification necessity determination module 506 may acquire information from various other electronic devices connected to the I / O interface 31 and calculate the notification necessity. Further, the electronic device connected to the I / O interface 31 in FIG. 2 transmits information to the vehicle ECU 401, and the notification necessity determination module 506 detects (acquires) the notification necessity determined by the vehicle ECU 401 based on the received information. ) May. The "necessity of notification" is, for example, the degree of danger derived from the degree of seriousness that can occur, the degree of urgency derived from the length of reaction time required to take a reaction action, the own vehicle 1 or the driver 4 ( Alternatively, it can be determined by the effectiveness derived from the situation of the own vehicle 1 (other occupants of the own vehicle 1), or a combination thereof (the index of the necessity of notification is not limited to these). The notification necessity determination module 506 may detect the necessity-related information that is the basis for estimating the notification necessity of the image 200, and may estimate the notification necessity from this. The necessity-related information that is the basis for estimating the notification necessity of an image may be estimated by, for example, the position and type of a real object or traffic regulation (an example of road information), and is connected to the I / O interface 31. It may be estimated based on other information input from various other electronic devices or in addition to other information. That is, the notification necessity determination module 506 may determine whether to notify the driver 4 and may choose not to display the image described later. The vehicle display system 10 only needs to be able to acquire the notification necessity, and does not have to have a function of estimating (calculating) the notification necessity, and some or all of the functions for estimating the notification necessity are , It may be provided separately from the display control device 30 of the vehicle display system 10 (for example, the vehicle ECU 401).

目位置検出モジュール508は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール508は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、及び/又は運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール508は、例えば、目位置検出部411から運転者4の眼の位置を取得する、又は、目位置検出部411から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。 The eye position detection module 508 detects the position of the eyes of the driver 4 of the own vehicle 1. The eye position detection module 508 determines where the eye height of the driver 4 is located in the height region provided in a plurality of stages, detects the eye height of the driver 4 (position in the Y-axis direction), and Detection of driver 4 eye height (Y-axis position) and depth position (Z-axis position) and / or driver 4 eye position (X, Y, Z-axis position) ) Includes various software components for performing various actions related to detection. The eye position detection module 508 can acquire, for example, the eye position of the driver 4 from the eye position detection unit 411, or can estimate the eye position including the eye height of the driver 4 from the eye position detection unit 411. Information is received and the eye position including the eye height of the driver 4 is estimated. The information that can estimate the position of the eyes is, for example, the position of the driver's seat of the own vehicle 1, the position of the face of the driver 4, the height of the sitting height, the input value by the driver 4 at the operation unit (not shown), and the like. May be good.

画像種類設定モジュール510は、例えば、実オブジェクト情報検出モジュール502により検出された実オブジェクトの種類、位置、実オブジェクト情報検出モジュール502で検出された実オブジェクト関連情報の種類、数、及び/又は報知必要度判定モジュール506で検出された(推定された)報知必要度の大きさに基づいて、実オブジェクトに対して表示する画像の種類を決定することができる。また、画像種類設定モジュール510は、後述する視線方向判定モジュール516による判定結果により、表示する画像の種類を増減させてもよい。具体的には、実オブジェクト310が運転者4によって視認されにくい状態である場合、実オブジェクトの近傍に運転者4によって視認される画像の種類を多くしてもよい。 The image type setting module 510 needs to notify, for example, the type and position of the real object detected by the real object information detection module 502, and the type, number, and / or notification of the real object-related information detected by the real object information detection module 502. The type of image to be displayed for the real object can be determined based on the magnitude of the (estimated) notification necessity detected by the degree determination module 506. Further, the image type setting module 510 may increase or decrease the types of images to be displayed depending on the determination result by the line-of-sight direction determination module 516 described later. Specifically, when the real object 310 is difficult to be visually recognized by the driver 4, the number of types of images visually recognized by the driver 4 may be increased in the vicinity of the real object.

画像配置設定モジュール512は、パースペクティブ画像200が、実オブジェクト310(路面330)と特定の位置関係になって視認されるように、実オブジェクト位置特定モジュール504が特定した実オブジェクト310の位置(観測位置又は予測位置)に基づき、パースペクティブ画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。これに加え、画像配置設定モジュール512は、実オブジェクト位置特定モジュール504が設定した実オブジェクト310の決定位置に基づき、運転者4が自車両1の運転席から表示領域100の方向を見た際の前後方向(Z軸方向)を決定してもよい。なお、画像配置設定モジュール512は、目位置検出部411が検出した運転者4の眼の位置に基づいて、パースペクティブ画像200の位置を調整する。具体的には、画像配置設定モジュール512は、パースペクティブ画像200が区画線331,332の間の領域(路面330)に視認されるように、パースペクティブ画像200の左右方向、及び上下方向の位置を決定する。 The image arrangement setting module 512 is a position (observation position) of the real object 310 specified by the real object position specifying module 504 so that the perspective image 200 is visually recognized in a specific positional relationship with the real object 310 (road surface 330). Or, based on the predicted position), the coordinates of the perspective image 200 (horizontal direction (X-axis direction) and vertical direction (Y-axis direction) when the driver 4 sees the direction of the display area 100 from the driver's seat of the own vehicle 1). Includes at least). In addition to this, the image arrangement setting module 512 is when the driver 4 looks at the direction of the display area 100 from the driver's seat of the own vehicle 1 based on the determined position of the real object 310 set by the real object position specifying module 504. The front-back direction (Z-axis direction) may be determined. The image arrangement setting module 512 adjusts the position of the perspective image 200 based on the position of the driver 4's eyes detected by the eye position detection unit 411. Specifically, the image arrangement setting module 512 determines the positions of the perspective image 200 in the horizontal direction and the vertical direction so that the perspective image 200 can be visually recognized in the area (road surface 330) between the division lines 331 and 332. To do.

また、画像配置設定モジュール512は、パースペクティブ画像200の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角)を設定し得る。なお、パースペクティブ画像200の角度は、予め設定された角度であり、自車両1の前後左右方向(XY面)と平行となるように設定され得る。 Further, the image arrangement setting module 512 can set the angle of the perspective image 200 (pitching angle about the X direction, yaw rate angle about the Y direction, rolling angle about the Z direction). The angle of the perspective image 200 is a preset angle, and can be set to be parallel to the front-rear and left-right directions (XY planes) of the own vehicle 1.

画像サイズ設定モジュール514は、対応付ける実オブジェクト310の位置、形状、及び/又はサイズに合わせて、パースペクティブ画像200のサイズを変更してもよい。例えば、画像サイズ設定モジュール514は、対応付ける実オブジェクト310の位置が遠方であれば、パースペクティブ画像200のサイズを小さくし得る。また、画像サイズ設定モジュール514は、対応付ける実オブジェクト310のサイズが大きければ、パースペクティブ画像200のサイズを大きくし得る。 The image size setting module 514 may change the size of the perspective image 200 according to the position, shape, and / or size of the corresponding real object 310. For example, the image size setting module 514 can reduce the size of the perspective image 200 if the position of the associated real object 310 is far away. Further, the image size setting module 514 can increase the size of the perspective image 200 if the size of the associated real object 310 is large.

また、画像サイズ設定モジュール514は、報知必要度判定モジュール506で検出された(推定された)報知必要度の大きさに基づいて、パースペクティブ画像200のサイズを決定し得る。 Further, the image size setting module 514 can determine the size of the perspective image 200 based on the magnitude of the (estimated) notification necessity detected by the notification necessity determination module 506.

画像サイズ設定モジュール514は、過去の所定の回数の実オブジェクト310のサイズに基づいて、今回の表示更新周期で表示するパースペクティブ画像200を表示するサイズを予測算出する機能を有してもよい。第1の手法として、画像サイズ設定モジュール514は、カメラ(車外センサ407の一例)による過去の2つの撮像画像間で、例えば、Lucas−Kanade法を使用して、実オブジェクト310の画素を追跡することで、今回の表示更新周期における実オブジェクト310のサイズを予測し、予測した実オブジェクト310のサイズに合わせてパースペクティブ画像200のサイズを決定してもよい。第2手法として、過去の2つの撮像画像間での実オブジェクト310のサイズの変化に基づき、実オブジェクト310のサイズの変化率を求めて、実オブジェクト310のサイズの変化率に応じてパースペクティブ画像200のサイズを決定してもよい。なお、時系列で変化する視点からの実オブジェクト310のサイズ変化を推定する方法は、上記に限られず、例えば、Horn−Schunck法、Buxton−Buxton、Black−Jepson法などのオプティカルフロー推定アルゴリズムを含む公知の手法を用いてもよい。 The image size setting module 514 may have a function of predicting and calculating the size of the perspective image 200 to be displayed in the current display update cycle based on the size of the real object 310 a predetermined number of times in the past. As a first method, the image sizing module 514 tracks the pixels of the real object 310 between two past images captured by a camera (an example of an outside sensor 407), using, for example, the Lucas-Kanade method. Therefore, the size of the real object 310 in the current display update cycle may be predicted, and the size of the perspective image 200 may be determined according to the predicted size of the real object 310. As a second method, the rate of change in the size of the real object 310 is obtained based on the change in the size of the real object 310 between the two past captured images, and the perspective image 200 is obtained according to the rate of change in the size of the real object 310. You may decide the size of. The method of estimating the size change of the real object 310 from the viewpoint that changes in time series is not limited to the above, and includes, for example, an optical flow estimation algorithm such as the Horn-Schunkk method, Buxton-Buxton, and Black-Jepson method. A known method may be used.

視線方向判定モジュール516は、自車両1の運転者4が、特定の領域を見ていること、及び/又は特定の領域を見ていないこと、の判定に関する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的には、視線方向判定モジュール516は、自車両1の運転者4が後述するパースペクティブ画像200の先端領域240(図4参照)を見ているか否かの判定(特定の領域を見ていることの判定の一例。)、後述するパースペクティブ画像200の先端領域240から視線方向が所定の視線閾値より離れているか否かの判定(特定の領域を見ていないことの判定の一例。)、自車両1の運転者4が後述するパースペクティブ画像200の先端領域240もしくは後端領域220(図4参照)のどちら側を見ているかの判定(特定の領域を見ていることの判定の一例。)、及び/又は自車両1の運転者4が後述するパースペクティブ画像200の先端領域240より遠方側を見ているか否かの判定(特定の領域を見ていることの判定の一例。)、に関する様々な動作を実行するための様々なソフトウェア構成要素を含む。 The line-of-sight direction determination module 516 is used to perform various actions related to the determination that the driver 4 of the own vehicle 1 is looking at a specific area and / or is not looking at a specific area. Includes software components. Specifically, the line-of-sight direction determination module 516 determines whether or not the driver 4 of the own vehicle 1 is looking at the tip region 240 (see FIG. 4) of the perspective image 200 described later (seeing a specific region). (Example of determination of that), determination of whether or not the line-of-sight direction is far from a predetermined line-of-sight threshold from the tip region 240 of the perspective image 200 described later (an example of determination of not seeing a specific region), self. Determining whether the driver 4 of the vehicle 1 is looking at the front end region 240 or the rear end region 220 (see FIG. 4) of the perspective image 200 described later (an example of determining that the driver 4 is looking at a specific region). , And / or determination of whether or not the driver 4 of the own vehicle 1 is looking at a side farther from the tip region 240 of the perspective image 200 described later (an example of determination of determining that the driver 4 is looking at a specific region). Includes various software components for performing various operations.

運転者4が特定の方向(特定角度領域Eとも言う。)を見ているか(注視しているか)を判定する方法の例を説明する。視線方向判定モジュール516は、視線方向検出部409が検出した視線方向GZに基づき、特定角度領域Eを見ているか否かを判定する。視線方向判定モジュール516は、視線方向GZと、特定角度領域E(例えば、後述するパースペクティブ画像200が表示されている方向)との差分角度Δθを算出し、差分角度Δθが所定の差分角度閾値未満であるかを判定する。この差分角度Δθが前記差分角度閾値未満ではない場合、特定の方向を注視していないと判定し、注視判定カウンタを初期値(例えば0)にクリアする。この注視判定カウンタは、視線方向が特定の方向に向いていると判定された期間を計測するためのカウンタであり、プロセッサ33の動作中にメモリ37に記憶されている。 An example of a method of determining whether the driver 4 is looking at (or gazing at) a specific direction (also referred to as a specific angle region E) will be described. The line-of-sight direction determination module 516 determines whether or not the specific angle region E is being viewed based on the line-of-sight direction GZ detected by the line-of-sight direction detection unit 409. The line-of-sight direction determination module 516 calculates the difference angle Δθ between the line-of-sight direction GZ and the specific angle region E (for example, the direction in which the perspective image 200 described later is displayed), and the difference angle Δθ is less than a predetermined difference angle threshold value. Is determined. When the difference angle Δθ is not less than the difference angle threshold value, it is determined that the person is not gazing in a specific direction, and the gaze determination counter is cleared to an initial value (for example, 0). The gaze determination counter is a counter for measuring a period in which it is determined that the line-of-sight direction is directed to a specific direction, and is stored in the memory 37 during the operation of the processor 33.

一方、差分角度Δθが前記差分角度閾値未満である場合、視線方向判定モジュール516は、前記注視判定カウンタをインクリメントする。つまり、視線方向判定モジュール516は、運転者4が注視行動を開始したと推定し、前記注視判定カウンタのインクリメントを開始する。視線方向判定モジュール516は、前記注視判定カウンタの値が、所定の注視判定閾値を超えたか否かを判定し、その結果、前記注視判定カウンタが前記注視判定閾値を超えた場合は、注視判定、すなわち、運転者4が特定角度領域E(例えば、後述するパースペクティブ画像200が表示されている方向)を注視していると判定する。 On the other hand, when the difference angle Δθ is less than the difference angle threshold value, the line-of-sight direction determination module 516 increments the gaze determination counter. That is, the line-of-sight direction determination module 516 estimates that the driver 4 has started the gaze action, and starts incrementing the gaze determination counter. The line-of-sight direction determination module 516 determines whether or not the value of the gaze determination counter exceeds a predetermined gaze determination threshold value, and as a result, when the gaze determination counter exceeds the gaze determination threshold value, gaze determination, That is, it is determined that the driver 4 is gazing at the specific angle region E (for example, the direction in which the perspective image 200 described later is displayed).

図3A及び図3Bは、運転者4の視線方向GZと、パースペクティブ画像200が表示されている特定角度領域Eとの差分角度Δθを説明する図である。図3Aでは、運転者4の左右方向の視線方向GZxと、運転者4から見た上下左右方向(XY平面)に沿った表示領域110に表示されたパースペクティブ画像200の特定角度領域Exとの差分角度をΔθxと表記する。図3Bでは、運転者4の上下方向の視線方向GZyと、運転者4から見た上下左右方向(XY平面)に沿った表示領域110に表示されたパースペクティブ画像200の特定角度領域Eyとの差分角度をΔθyと表記する。 3A and 3B are diagrams for explaining the difference angle Δθ between the line-of-sight direction GZ of the driver 4 and the specific angle region E on which the perspective image 200 is displayed. In FIG. 3A, the difference between the horizontal line-of-sight direction GZx of the driver 4 and the specific angle region Ex of the perspective image 200 displayed in the display area 110 along the vertical and horizontal directions (XY planes) seen from the driver 4. The angle is expressed as Δθx. In FIG. 3B, the difference between the vertical line-of-sight direction GZy of the driver 4 and the specific angle region Ey of the perspective image 200 displayed in the display area 110 along the vertical and horizontal directions (XY planes) seen from the driver 4. The angle is expressed as Δθy.

視線方向判定モジュール516は、画像配置設定モジュール512から入力した画像200の位置情報と、画像サイズ設定モジュール514から入力した画像200のサイズ情報と、及び目位置検出モジュール508から入力した運転者4の目位置情報と、から、運転者4の現在の目の位置からパースペクティブ画像200に向けた特定角度領域E(Ex、Ey)を設定する。次に、視線方向判定モジュール516は、設定した特定角度領域E(Ex、Ey)と、視線方向検出部409から入力する視線方向GZ(GZx、GZy)とから、差分角度Δθ(Δθx、Δθy)をそれぞれ算出し、差分角度Δθx、Δθyが、それぞれ比較するために設けられた前記差分角度閾値未満であるか判定し、差分角度Δθx、Δθy双方が、前記差分角度閾値未満である場合、特定角度領域Eに視線が向いていると判定する。なお、差分角度Δθxの比較対象である差分角度閾値、及び/又は差分角度Δθyの比較対象である差分角度閾値は、ゼロであってもよく、すなわち、視線方向GZが特定角度領域E内にあることで、特定角度領域Eを注視していると判定しなくてもよい。視線方向判定モジュール516は、特定角度領域Eを運転者4が注視しているか否かの判定結果を、プロセッサ33に送信する。なお、注視判定方法は、これらの手段に限定されない。また、表示制御装置30(プロセッサ33)は、自車両1の運転者4が見ている領域(注視している領域)を取得できればよく、視線方向GZから見ている領域(注視している領域)を判定する(算出する)機能を有していなくてもよく、これらの機能の一部又は全部は、車両用表示システム10の表示制御装置30(プロセッサ33)とは別(例えば、車両ECU401)に設けられてもよい。さらに言えば、表示制御装置30(プロセッサ33)は、自車両1の運転者4が、特定の領域を見ていること、所定の時間より長い間、特定の領域を見ていないこと、などの判定結果を取得できればよく、運転者4の注視方向から上記判定をする機能を有していなくてもよく、自車両1の運転者4が、特定の領域を見ていること、又は特定の領域を見ていないこと、などを判定する機能を有していなくてもよく、これらの機能の一部又は全部は、車両用表示システム10の表示制御装置30(プロセッサ33)とは別(例えば、車両ECU401)に設けられてもよい。 The line-of-sight direction determination module 516 includes the position information of the image 200 input from the image arrangement setting module 512, the size information of the image 200 input from the image size setting module 514, and the driver 4 input from the eye position detection module 508. From the eye position information, a specific angle region E (Ex, Ey) from the current eye position of the driver 4 toward the perspective image 200 is set. Next, the line-of-sight direction determination module 516 determines the difference angle Δθ (Δθx, Δθy) from the set specific angle region E (Ex, Ey) and the line-of-sight direction GZ (GZx, GZy) input from the line-of-sight direction detection unit 409. Is calculated, and it is determined whether the difference angles Δθx and Δθy are less than the difference angle thresholds provided for comparison. If both the difference angles Δθx and Δθy are less than the difference angle thresholds, a specific angle is specified. It is determined that the line of sight is directed to the area E. The difference angle threshold that is the comparison target of the difference angle Δθx and / or the difference angle threshold that is the comparison target of the difference angle Δθy may be zero, that is, the line-of-sight direction GZ is in the specific angle region E. Therefore, it is not necessary to determine that the specific angle region E is being watched. The line-of-sight direction determination module 516 transmits to the processor 33 a determination result of whether or not the driver 4 is gazing at the specific angle region E. The gaze determination method is not limited to these means. Further, the display control device 30 (processor 33) only needs to be able to acquire the area seen by the driver 4 of the own vehicle 1 (the area being watched), and the area seen from the line-of-sight direction GZ (the area being watched). ) Does not have to be determined (calculated), and some or all of these functions are separate from the display control device 30 (processor 33) of the vehicle display system 10 (for example, the vehicle ECU 401). ) May be provided. Furthermore, in the display control device 30 (processor 33), the driver 4 of the own vehicle 1 is looking at a specific area, is not looking at a specific area for a longer time than a predetermined time, and the like. It suffices if the determination result can be obtained, and it is not necessary to have the function of making the above determination from the gaze direction of the driver 4, and the driver 4 of the own vehicle 1 is looking at a specific area or a specific area. It is not necessary to have a function of determining that the vehicle is not being viewed, and some or all of these functions are separate from the display control device 30 (processor 33) of the vehicle display system 10 (for example, It may be provided in the vehicle ECU 401).

また、視線方向判定モジュール516は、運転者4がパースペクティブ画像200以外の何を視認しているかを検出してもよい。例えば、視線方向判定モジュール516は、実オブジェクト情報検出モジュール502が検出した自車両1の前景300に存在する実オブジェクト310の位置と、視線方向検出部409から取得した運転者4の視線方向GZと、を比較することで、注視している実オブジェクト310を特定し、視認された実オブジェクト310を特定する情報を、プロセッサ33に送信してもよい。 Further, the line-of-sight direction determination module 516 may detect what the driver 4 is viewing other than the perspective image 200. For example, the line-of-sight direction determination module 516 includes the position of the real object 310 existing in the foreground 300 of the own vehicle 1 detected by the real object information detection module 502, and the line-of-sight direction GZ of the driver 4 acquired from the line-of-sight direction detection unit 409. , The real object 310 to be watched may be specified, and the information for identifying the real object 310 to be visually recognized may be transmitted to the processor 33.

グラフィックモジュール518は、レンダリングなどの画像処理をして画像データを生成し、表示器22を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール518は、表示される画像の、種類、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール518は、画像種類設定モジュール510が設定した種類、画像配置設定モジュール512が設定した位置座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)の位置座標を少なくとも含む位置座標。)画像配置設定モジュール512が設定した角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角)、及び画像サイズ設定モジュール514が設定したサイズで運転者4に視認されるように画像データを生成し、画像表示部20に表示する。 The graphic module 518 includes various known software components for performing image processing such as rendering to generate image data and driving the display 22. The graphic module 518 also provides the type, arrangement (position coordinates, angle), size, display distance (in the case of 3D), visual effect (eg, brightness, transparency, saturation, contrast, or contrast) of the displayed image. Other visual characteristics), may include various known software components for modification. The graphic module 518 has the type set by the image type setting module 510 and the position coordinates set by the image arrangement setting module 512 (the left-right direction when the driver 4 sees the direction of the display area 100 from the driver's seat of the own vehicle 1 (left-right direction). Position coordinates including at least the position coordinates in the vertical direction (Y-axis direction) and the vertical direction (Y-axis direction).) Angles set by the image arrangement setting module 512 (pitching angle centered on the X direction, yaw rate angle centered on the Y direction) , Rolling angle about the Z direction), and image data is generated so that the driver 4 can see the size set by the image size setting module 514, and the image data is displayed on the image display unit 20.

グラフィックモジュール518は、自車両1の前後方向に沿うように視認される1つ又は複数の画像要素から構成されるパースペクティブ画像200を表示する。パースペクティブ画像200は、前景300の実オブジェクト310(analog)と所定の位置関係になるように配置され、この場合、(Kontaktanalog)画像とも呼ばれる。本実施形態の説明では、パースペクティブ画像200を、(Kontaktanalog)画像として説明するが、パースペクティブ画像200は、遠近法を用いて描画されていればよく、必ずしも前景300の実オブジェクト310と所定の位置関係になるように配置されない、すなわち、実オブジェクト310によらず、表示位置が固定(又は調整可能な半固定)される非(Kontaktanalog)画像であってもよい。 The graphic module 518 displays a perspective image 200 composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle 1. The perspective image 200 is arranged so as to have a predetermined positional relationship with the real object 310 (analog) of the foreground 300, and in this case, it is also called a (Kontaktanalogue) image. In the description of the present embodiment, the perspective image 200 will be described as a (Kontakatanalog) image, but the perspective image 200 may be drawn using perspective and does not necessarily have a predetermined positional relationship with the real object 310 in the foreground 300. It may be a non-(Kontaktanalogue) image in which the display position is fixed (or adjustable semi-fixed) regardless of the real object 310.

図4は、パースペクティブ画像200が表示される例を示す図である。図4のパースペクティブ画像200は、案内経路を示す6つ(複数)の矢印状の画像(経路画像とも呼ぶ。)からなり、自車両1の前景300における路面330に重なる位置に、案内経路のうち自車両1に近い方から符号201、202、203、204、205、206の順に配置される。案内経路は、直進した後に交差点で右折を示しており、すなわち、交差点までの案内経路を示すパースペクティブ画像201、202、203は、運転者4から見て自車両1の走行レーンの路面330に重なり、前方の交差点に向かうように直進方向(Z軸正方向)を指示し、交差点から先の案内経路を示すパースペクティブ画像204、205、206は、運転者4から見て右折方向の分岐路の路面330に重なるように右方向(X軸負方向)を指示する。パースペクティブ画像201〜206は、路面330に沿うように視認されるように配置されており、すなわち、画像配置設定モジュール512は、パースペクティブ画像201〜206が示す仮想オブジェクトを、路面330とのなす角度が0[degree]になる(換言すると、路面330と平行になる)ように配置(角度)を設定する。 FIG. 4 is a diagram showing an example in which the perspective image 200 is displayed. The perspective image 200 of FIG. 4 is composed of six (plural) arrow-shaped images (also referred to as route images) showing the guide route, and is located at a position overlapping the road surface 330 in the foreground 300 of the own vehicle 1 among the guide routes. The reference numerals 201, 202, 203, 204, 205, and 206 are arranged in this order from the side closest to the own vehicle 1. The guidance route shows a right turn at an intersection after going straight, that is, perspective images 201, 202, and 203 showing the guidance route to the intersection overlap the road surface 330 of the traveling lane of the own vehicle 1 as seen from the driver 4. Perspective images 204, 205, and 206, which indicate the straight direction (Z-axis positive direction) toward the intersection ahead and show the guidance route from the intersection, are the road surfaces of the branch road in the right turn direction when viewed from the driver 4. Instruct the right direction (X-axis negative direction) so that it overlaps 330. The perspective images 201 to 206 are arranged so as to be visually recognized along the road surface 330, that is, the image arrangement setting module 512 has an angle between the virtual object shown by the perspective images 201 to 206 and the road surface 330. The arrangement (angle) is set so as to be 0 [image] (in other words, parallel to the road surface 330).

本実施形態のグラフィックモジュール518は、視線方向判定モジュール516による判定結果により、パースペクティブ画像200の一部の路面330に対する角度を変更する。図5は、図4のパースペクティブ画像200の一部(先端領域240(204、205、206))の路面330に対する角度を変更した後の表示例を示す。視線方向判定モジュール516により運転者4がパースペクティブ画像200の先端領域240(特定角度領域Eの一例)をしばらく見ていないと判定されると、グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせる(換言すると、路面330を基準としたX方向を軸とした先端領域240(204、205、206)のピッチング角を0[degree]から90[degree]に変更する)。 The graphic module 518 of the present embodiment changes the angle of the perspective image 200 with respect to a part of the road surface 330 according to the determination result by the line-of-sight direction determination module 516. FIG. 5 shows a display example after changing the angle of a part of the perspective image 200 of FIG. 4 (tip region 240 (204, 205, 206)) with respect to the road surface 330. When it is determined by the line-of-sight direction determination module 516 that the driver 4 has not seen the tip region 240 (an example of the specific angle region E) of the perspective image 200 for a while, the graphic module 518 determines the tip region 240 (204) of the perspective image 200. , 205, 206) to get up toward the driver 4 (in other words, the pitching angle of the tip region 240 (204, 205, 206) about the X direction with respect to the road surface 330 is set from 0 [degree] to 90. Change to [degree]).

また、いくつかの実施形態において、視線方向判定モジュール516により運転者4がパースペクティブ画像200の後端領域220(特定角度領域Eの一例)を注視していると判定される場合、グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせてもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]から90[degree]に変更してもよい)。 Further, in some embodiments, when the line-of-sight direction determination module 516 determines that the driver 4 is gazing at the rear end region 220 (an example of the specific angle region E) of the perspective image 200, the graphic module 518 , The tip region 240 (204, 205, 206) of the perspective image 200 may be raised toward the driver 4 (in other words, the pitching angle of the tip region 240 about the X direction with respect to the road surface 330). It may be changed from 0 [degree] to 90 [degree]).

また、いくつかの実施形態において、視線方向判定モジュール516により運転者4がパースペクティブ画像200の先端領域240よりも上側(Y軸正方向)の領域(特定角度領域Eの一例)を注視していると判定される場合、グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせてもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]から90[degree]に変更してもよい)。 Further, in some embodiments, the driver 4 is gazing at a region (an example of a specific angle region E) above the tip region 240 of the perspective image 200 (in the positive direction of the Y axis) by the line-of-sight direction determination module 516. If it is determined that, the graphic module 518 may raise the tip region 240 (204, 205, 206) of the perspective image 200 toward the driver 4 (in other words, the X direction with respect to the road surface 330 as a reference). The pitching angle of the tip region 240 as the axis may be changed from 0 [degree] to 90 [degree]).

図6Aは、図5のパースペクティブ画像の各領域に設定される配置(角度)を示す図であり、横軸がパースペクティブ画像の各領域201〜206を示し、縦軸が路面330に対して仮想的に設定されたピッチング角度[degree]を示す。後端領域220のパースペクティブ画像201,202,203には、0[degree]が設定され、先端領域240のパースペクティブ画像204,205,206には、90[degree]が設定される。 FIG. 6A is a diagram showing arrangements (angles) set in each region of the perspective image of FIG. 5, where the horizontal axis represents each region 201 to 206 of the perspective image and the vertical axis is virtual with respect to the road surface 330. Indicates the pitching angle [image] set in. 0 [degree] is set in the perspective images 201, 202, 203 of the rear end region 220, and 90 [degree] is set in the perspective images 204, 205, 206 of the front end region 240.

図6Bは、パースペクティブ画像200の各領域に設定される配置(角度)の別例を示す図である。グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせる際、パースペクティブ画像200の先端に向かうにつれて徐々に起き上がるように角度を設定してもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]先端に向かうにつれて徐々に90[degree]に近づけるように変更してもよい。)。具体的には、後端領域220のパースペクティブ画像201,202,203には、0[degree]が設定され、先端領域240のパースペクティブ画像204は30[degree]、パースペクティブ画像205は60[degree]、パースペクティブ画像206は90[degree]、すなわち、最先端の画像要素(符号206)と、最先端の画像要素に連なる複数の画像要素(符号205、204)と、の角度を異ならせてもよく、最先端に向かうに連れて角度の変更具合を大きく設定してもよい。 FIG. 6B is a diagram showing another example of the arrangement (angle) set in each area of the perspective image 200. The graphic module 518 may be angled so that when the tip region 240 (204, 205, 206) of the perspective image 200 is raised toward the driver 4, the tip region 240 (204, 205, 206) of the perspective image 200 is gradually raised toward the tip of the perspective image 200. (In other words, the pitching angle of the tip region 240 about the X direction with respect to the road surface 330 may be changed so as to gradually approach 90 [graphic] toward the 0 [degree] tip.) Specifically, 0 [degree] is set in the perspective images 201, 202, 203 of the rear end region 220, 30 [degree] is set in the perspective image 204 of the front end region 240, and 60 [degree] is set in the perspective image 205. The perspective image 206 may have 90 [degree], that is, the angle between the state-of-the-art image element (reference numeral 206) and a plurality of image elements (reference numerals 205, 204) connected to the state-of-the-art image element may be different. The degree of change in the angle may be set larger toward the cutting edge.

なお、いくつかの実施形態では、パースペクティブ画像200は、1つの画像要素で構成され得る。図7は、1つの画像要素で構成されたパースペクティブ画像200が注視判定に応じて変形する前の表示例を示す。また、図8は、図7のパースペクティブ画像200が注視判定に応じて変形した後の表示例を示す。図8の例では、急に起き上がるようにパースペクティブ画像200の先端領域240の角度が設定されているが、これに限定されない。したがって、グラフィックモジュール518は、パースペクティブ画像200の先端領域240を運転者4に向かって起き上がらせる際、パースペクティブ画像200の最先端に向かうにつれて徐々に起き上がるように角度を設定してもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]から最先端に向かうにつれて徐々に90[degree]に近づけるように変更してもよい。)。 In some embodiments, the perspective image 200 may be composed of one image element. FIG. 7 shows a display example before the perspective image 200 composed of one image element is deformed according to the gaze determination. Further, FIG. 8 shows a display example after the perspective image 200 of FIG. 7 is deformed according to the gaze determination. In the example of FIG. 8, the angle of the tip region 240 of the perspective image 200 is set so as to rise suddenly, but the angle is not limited to this. Therefore, the graphic module 518 may set the angle so that when the tip region 240 of the perspective image 200 is raised toward the driver 4, the tip region 240 is gradually raised toward the leading edge of the perspective image 200 (in other words,). The pitching angle of the tip region 240 about the X direction with respect to the road surface 330 may be changed so as to gradually approach 90 [graphic] from 0 [degree] toward the cutting edge.)

また、いくつかの実施形態では、グラフィックモジュール518は、視線方向判定モジュール516による判定結果により、パースペクティブ画像200の後端領域220の路面330に対する角度を変更し得る。図9は、図4のパースペクティブ画像200の一部(後端領域220(201、202、203))の路面330に対する角度(ローリング角)を変更した後の表示例を示す。視線方向判定モジュール516により運転者4がパースペクティブ画像200の後端領域220(特定角度領域Eの一例)をしばらく見ていないと判定される場合、又は視線方向判定モジュール516により運転者4がパースペクティブ画像200の先端領域240(特定角度領域Eの一例)を注視していると判定される場合、グラフィックモジュール518は、パースペクティブ画像200の後端領域220(201、202、203)を、路面330を基準としたZ方向を軸とした後端領域220のロール角を0[degree]から90[degree]に変更してもよい。なお、運転者4から見て奥行き方向(Z方向)に並んでいる(延在している)ように視認させるパースペクティブ画像200が表現する仮想オブジェクトの路面330に対する角度を大きくして起き上がらせるように視認させる際、起き上がらせたパースペクティブ画像200の位置を自車両1の走行レーンの中央より左側又は右側にずらして配置してもよい。 Further, in some embodiments, the graphic module 518 may change the angle of the rear end region 220 of the perspective image 200 with respect to the road surface 330 depending on the determination result by the line-of-sight direction determination module 516. FIG. 9 shows a display example after changing the angle (rolling angle) of a part of the perspective image 200 of FIG. 4 (rear end region 220 (201, 202, 203)) with respect to the road surface 330. When the line-of-sight direction determination module 516 determines that the driver 4 has not seen the rear end region 220 (an example of the specific angle region E) of the perspective image 200 for a while, or the line-of-sight direction determination module 516 determines that the driver 4 has not seen the perspective image. When it is determined that the tip region 240 (an example of the specific angle region E) of the 200 is being watched, the graphic module 518 refers to the rear end region 220 (201, 202, 203) of the perspective image 200 with reference to the road surface 330. The roll angle of the rear end region 220 about the Z direction may be changed from 0 [image] to 90 [graphic]. It should be noted that the virtual object represented by the perspective image 200, which is visually recognized as being lined up (extending) in the depth direction (Z direction) when viewed from the driver 4, is raised at a large angle with respect to the road surface 330. When visually recognizing, the position of the raised perspective image 200 may be shifted to the left or right from the center of the traveling lane of the own vehicle 1.

図10Aは、図9のパースペクティブ画像の各領域に設定される配置(角度)を示す図であり、横軸がパースペクティブ画像の各領域201〜206を示し、縦軸が路面330に対して仮想的に設定されたローリング角度[degree]を示す。後端領域220のパースペクティブ画像201,202,203には、90[degree]が設定され、先端領域240のパースペクティブ画像204,205,206には、0[degree]が設定される。 10A is a diagram showing arrangements (angles) set in each region of the perspective image of FIG. 9, the horizontal axis represents each region 201 to 206 of the perspective image, and the vertical axis is virtual with respect to the road surface 330. Indicates the rolling angle [image] set to. 90 [degree] is set in the perspective images 201, 202, 203 of the rear end region 220, and 0 [degree] is set in the perspective images 204, 205, 206 of the front end region 240.

図10Bは、パースペクティブ画像200の各領域に設定される配置(角度)の別例を示す図である。画像配置設定モジュール512は、パースペクティブ画像200の後端領域220(201、202、203)を路面330から起き上がらせる際、パースペクティブ画像200の最後端に向かうにつれて徐々に起き上がるようにローリング角度を設定してもよい(換言すると、路面330を基準としたZ方向を軸とした後端230のローリング角を0[degree]から最後端に向かうにつれて徐々に90[degree]に近づけるように変更してもよい)。具体的には、先端領域240のパースペクティブ画像204,205,206には、0[degree]が設定され、後端領域220のパースペクティブ画像203は30[degree]、パースペクティブ画像202は60[degree]、最後端のパースペクティブ画像201は90[degree]が設定される。 FIG. 10B is a diagram showing another example of the arrangement (angle) set in each area of the perspective image 200. The image arrangement setting module 512 sets the rolling angle so that when the rear end region 220 (201, 202, 203) of the perspective image 200 is raised from the road surface 330, it gradually rises toward the rearmost end of the perspective image 200. (In other words, the rolling angle of the rear end 230 about the Z direction with respect to the road surface 330 may be changed so as to gradually approach 90 [image] from 0 [image] toward the rearmost end. ). Specifically, 0 [degree] is set in the perspective images 204, 205, 206 of the front end region 240, 30 [degree] is set in the perspective image 203 of the rear end region 220, and 60 [degree] is set in the perspective image 202. 90 [degree] is set for the perspective image 201 at the rearmost end.

図11は、パースペクティブ画像200の一部の角度を変更してから元の角度に戻るまでのタイミングチャートであり、横軸は時間を示し、縦軸が路面330に対して仮想的に設定されたパースペクティブ画像200の一部のローリング角度[degree]を示す。視線方向判定モジュール516の判定結果に基づき、特定の条件が満たされた時間t11において、グラフィックモジュール518は、路面330に対して仮想的に設定されるパースペクティブ画像200の一部(後端領域220、又は先端領域240)の角度を大きくし、路面330から起き上がらせ、所定の時間(例えば、10秒)が経過した時間t12から徐々に(例えば、30秒かけて)、変更したパースペクティブ画像200の一部(後端領域220、又は先端領域240)の角度を元に戻す(時間t13)。注視されていないパースペクティブ画像200の一部を路面330に沿った角度から起こすことにより、運転者4の視覚的注意を迅速にパースペクティブ画像200に向けさせることができる。 FIG. 11 is a timing chart from changing a part of the angle of the perspective image 200 to returning to the original angle, the horizontal axis shows the time, and the vertical axis is virtually set with respect to the road surface 330. The rolling angle [degree] of a part of the perspective image 200 is shown. Based on the determination result of the line-of-sight direction determination module 516, at the time t11 when a specific condition is satisfied, the graphic module 518 is a part of the perspective image 200 virtually set for the road surface 330 (rear end region 220, Alternatively, the angle of the tip region 240) is increased, the vehicle is raised from the road surface 330, and the perspective image 200 is changed gradually (for example, over 30 seconds) from the time t12 after a predetermined time (for example, 10 seconds) has elapsed. The angle of the portion (rear end region 220 or tip region 240) is restored (time t13). By raising a part of the perspective image 200 that is not being watched from an angle along the road surface 330, the visual attention of the driver 4 can be quickly directed to the perspective image 200.

また、上記実施形態によれば、角度が変化したパースペクティブ画像200の一部に連なっているパースペクティブ画像200の他部は、路面330に沿った角度で表示され続けるため、画像(パースペクティブ画像200の他部)が、前景300に溶け込みやすくなり、その結果、仮想現実における画像の違和感が軽減され、視覚的注意を過度に向きにくくし得る。 Further, according to the above embodiment, since the other part of the perspective image 200 connected to a part of the perspective image 200 whose angle has changed continues to be displayed at an angle along the road surface 330, the image (other than the perspective image 200). Part) can easily blend into the foreground 300, and as a result, the discomfort of the image in the virtual reality can be reduced and the visual attention can be made excessively difficult to direct.

さらに、上記実施形態によれば、注視されていないパースペクティブ画像200の一部を路面330に沿った角度に戻すのにかける時間(図11のt12〜t13であり、変更保持時間とも呼ぶ。)を、注視されていないパースペクティブ画像200の一部を路面330に沿った角度から起こすのにかける時間よりも長くする、すなわち、路面330に沿った角度にゆっくり戻すことで、運転者4の視覚的注意が過度に取られることなく、パースペクティブ画像200を前景300に溶け込みやすい元の状態に戻すことができる。 Further, according to the above embodiment, the time taken to return a part of the perspective image 200 not being watched to the angle along the road surface 330 (t12 to t13 in FIG. 11, also referred to as a change holding time) is defined. The visual attention of the driver 4 by making a part of the non-gaze perspective image 200 longer than the time it takes to wake up from an angle along the road surface 330, i.e. slowly returning it to an angle along the road surface 330. Can be returned to the original state in which the perspective image 200 is easily blended into the foreground 300 without being excessively taken.

パースペクティブ画像200の具体的な種類に制限はなく、自車両1の前後方向に沿うように視認される1つ又は複数の画像要素からなる、上記の案内経路を示す画像の他にも、例えば、区画線331、332に沿って表示されるレーンガイド画像(図12Aの符号200)、区画線331、332を逸脱しそうになった際に区画線に沿って表示される車線逸脱警告(LDW、Lane Departure Warning)に関する画像(図12Aの符号200と同様、又は類似。)、自車両1と同じ走行レーンの前方を走行する他車両350に追従走行する際に設定される車間距離を路面330に重ねて表示する定車間距離制御(ACC、Adaptive Cruise Control)に関する画像(図12Bの符号200)、又は隣接する走行レーンを走行する他車両370が自車両1の走行レーンに侵入してくると予測される場合に他車両370の予測侵入経路を示す画像(図12Cの符号200)などであってもよい。 The specific type of the perspective image 200 is not limited, and in addition to the above-mentioned image showing the guide route, which consists of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle 1, for example, Lane guide image displayed along the lane markings 331 and 332 (reference numeral 200 in FIG. 12A), lane departure warning (LDW, Lane) displayed along the lane marking when the vehicle is about to deviate from the lane markings 331 and 332. The image relating to Departure Warning) (similar to or similar to reference numeral 200 in FIG. 12A) and the inter-vehicle distance set when following another vehicle 350 traveling in front of the same traveling lane as the own vehicle 1 are superimposed on the road surface 330. It is predicted that the image related to the constant distance control (ACC, Adaptive Cruise Control) (reference numeral 200 in FIG. 12B) or another vehicle 370 traveling in the adjacent traveling lane will invade the traveling lane of the own vehicle 1. In this case, it may be an image (reference numeral 200 in FIG. 12C) showing the predicted intrusion route of the other vehicle 370.

再び図2を参照する。行動判定モジュール520は、パースペクティブ画像200が示す情報に対して運転者4が的確な行動をとったか否かを検出する。いくつかのパースペクティブ画像200には、それぞれ運転者4の的確な行動が対応づけてメモリ37に記憶されている。特に、パースペクティブ画像200の一部の路面330に対する角度を変更した後、行動判定モジュール520は、パースペクティブ画像200に対応付けられた的確な行動が検出されたか否かを判定する。例えば、
パースペクティブ画像200が案内経路情報を含む場合、案内経路が示す方向と同じ方向を運転者4が注視したこと、又は案内経路が示す方向と同じ方向に向かおうとする操舵がなされたこと、などを条件として、パースペクティブ画像200に対応付けられた的確な行動が検出されたと判定してもよい。また、パースペクティブ画像200が前記車線逸脱警告に関する画像である場合、車線逸脱を回避するような操舵がなされたこと、などを条件として、パースペクティブ画像200に対応付けられた的確な行動が検出されたと判定してもよい。行動判定モジュール520は、行動を判定するために収集する情報は、車両ECU401から入力する自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)、視線方向検出部409から入力する運転者4の状態(例えば、視線方向)などであるが、これらに限定されない。グラフィックモジュール518は、パースペクティブ画像200の一部の路面330に対する角度を変更した後、行動判定モジュール520で的確な行動がなされたと判定された場合、前記変更保持時間が経過しなくても、パースペクティブ画像200の角度を変更していた一部を路面330に沿った角度に戻してもよい。この場合、前記変更保持時間が経過後にパースペクティブ画像200の角度を戻す速さよりも、行動判定モジュール520で的確な行動がなされたと判定されたことを条件として角度を戻す速さの方を速くしてもよい。これにより、運転者4により的確な動作がなされた場合に、パースペクティブ画像200の一部を路面330に沿った角度に戻すことで、再びパースペクティブ画像200の全体が前景300に溶け込みやすくなり、その結果、仮想現実における画像の違和感が軽減され、視覚的注意を過度に向きにくくし得る。
See FIG. 2 again. The action determination module 520 detects whether or not the driver 4 has taken an appropriate action with respect to the information shown by the perspective image 200. Each of the perspective images 200 is associated with the accurate action of the driver 4 and stored in the memory 37. In particular, after changing the angle of the perspective image 200 with respect to a part of the road surface 330, the action determination module 520 determines whether or not an accurate action associated with the perspective image 200 is detected. For example
When the perspective image 200 includes the guide route information, the driver 4 gazes at the same direction as the guide route indicates, or the steering is performed to move in the same direction as the guide route indicates. As a condition, it may be determined that an accurate action associated with the perspective image 200 has been detected. Further, when the perspective image 200 is an image related to the lane deviation warning, it is determined that an accurate action associated with the perspective image 200 is detected on condition that the steering is performed so as to avoid the lane deviation. You may. The information collected by the action determination module 520 for determining the action is the state of the own vehicle 1 (for example, mileage, vehicle speed, accelerator pedal opening, engine throttle opening, injector fuel injection amount, etc., which is input from the vehicle ECU 401. The engine speed, motor speed, steering angle, shift position, drive mode, various warning states), the state of the driver 4 input from the line-of-sight direction detection unit 409 (for example, the line-of-sight direction), etc., but are limited to these. Not done. After changing the angle of the perspective image 200 with respect to a part of the road surface 330, the graphic module 518 determines that an appropriate action has been taken by the action determination module 520, even if the change holding time does not elapse. A part of the angle of 200 may be changed back to the angle along the road surface 330. In this case, the speed at which the angle is returned is faster than the speed at which the angle of the perspective image 200 is returned after the change holding time has elapsed, provided that the action determination module 520 determines that an accurate action has been taken. May be good. As a result, when the driver 4 makes an accurate operation, by returning a part of the perspective image 200 to an angle along the road surface 330, the entire perspective image 200 can be easily blended into the foreground 300 again, and as a result. , The discomfort of the image in the virtual reality is reduced, and the visual attention can be made excessively difficult to direct.

図13は、いくつかの実施形態に係る、パースペクティブ画像200の一部(先端領域240又は後端領域220)の角度を変更する処理のフロー図である。
まず、1つ又は複数のプロセッサ33は、視線方向検出部409から自車両1の運転者4の視線方向GZを取得し(ステップS11)、メモリ37から現在表示されている画像の位置を取得する(ステップS12)。
FIG. 13 is a flow chart of a process for changing the angle of a part (front end region 240 or rear end region 220) of the perspective image 200 according to some embodiments.
First, one or more processors 33 acquire the line-of-sight direction GZ of the driver 4 of the own vehicle 1 from the line-of-sight direction detection unit 409 (step S11), and acquire the position of the currently displayed image from the memory 37. (Step S12).

次に、プロセッサ33は、ステップS11で取得した視線方向GZ(又は視線方向GZから推定した注視方向)と、ステップS12で取得した画像の位置と、を比較して、先端領域240の角度を変更する条件が満たされたか否かを判定する(ステップS13)。具体的には、プロセッサ33は、視線方向判定モジュール516を実行し、自車両1の運転者4が、先端領域240をしばらく視認していないこと、後端領域220を注視していること、又は先端領域240よりも上側(Y軸正方向)を注視していること、が判定された場合(ステップS13でYes)、先端領域240の角度を路面330に沿った角度から起きて視認されるように変更し(ステップS14)、ステップS17に移行する。 Next, the processor 33 compares the line-of-sight direction GZ (or the gaze direction estimated from the line-of-sight direction GZ) acquired in step S11 with the position of the image acquired in step S12, and changes the angle of the tip region 240. It is determined whether or not the condition to be performed is satisfied (step S13). Specifically, the processor 33 executes the line-of-sight direction determination module 516, and the driver 4 of the own vehicle 1 has not seen the front end region 240 for a while, is gazing at the rear end region 220, or When it is determined that the driver is gazing at the upper side (Y-axis positive direction) of the tip region 240 (Yes in step S13), the angle of the tip region 240 is raised from the angle along the road surface 330 and visually recognized. (Step S14), and the process proceeds to step S17.

一方、先端領域240の角度を変更する条件が満たされなかった場合(ステップS13でNo)、プロセッサ33は、ステップS11で取得した視線方向GZ(又は視線方向GZから推定した注視方向)と、ステップS12で取得した画像の位置と、を比較して、後端領域220の角度を変更する条件が満たされたか否かを判定する(ステップS15)。具体的には、プロセッサ33は、視線方向判定モジュール516を実行し、自車両1の運転者4が、後端領域220をしばらく視認していないこと、又は先端領域240を注視していること、が判定された場合(ステップS15でYes)、後端領域220の角度を路面330に沿った角度から起きて視認されるように変更し(ステップS16)、ステップS17に移行する。なお、後端領域220の角度を変更する条件が満たされなかった場合(ステップS15でNo)、処理を終了し、再びステップS11から処理を開始する。 On the other hand, when the condition for changing the angle of the tip region 240 is not satisfied (No in step S13), the processor 33 sets the line-of-sight direction GZ (or the gaze direction estimated from the line-of-sight direction GZ) acquired in step S11 and the step. By comparing with the position of the image acquired in S12, it is determined whether or not the condition for changing the angle of the rear end region 220 is satisfied (step S15). Specifically, the processor 33 executes the line-of-sight direction determination module 516, and the driver 4 of the own vehicle 1 has not visually recognized the rear end region 220 for a while, or is gazing at the front end region 240. When is determined (Yes in step S15), the angle of the rear end region 220 is changed so that it can be visually recognized by rising from an angle along the road surface 330 (step S16), and the process proceeds to step S17. If the condition for changing the angle of the rear end region 220 is not satisfied (No in step S15), the process is terminated and the process is started again from step S11.

ステップS17では、プロセッサ33は、先端領域240又は後端領域220の角度を元に戻す条件が満たされか否かを判定する。具体的には、プロセッサ33は、ステップS14での先端領域240の角度を変更してからの経過時間、又はステップS16での後端領域220の角度を変更してからの経過時間、をタイマー(図示しない)で測定し、所定の時間が経過した場合(ステップS17でYes)、先端領域240又は後端領域220の角度を、路面330に沿った角度に戻し(ステップS18)、処理を終了し、再びステップS11から処理を開始する。また、プロセッサ33は、行動判定モジュール520を実行し、パースペクティブ画像200が示す情報に対して運転者4が的確な行動をとったことを検出した場合(ステップS17でYes)、先端領域240又は後端領域220の角度を、路面330に沿った角度に戻し(ステップS18)、処理を終了し、再びステップS11から処理を開始してもよい。 In step S17, the processor 33 determines whether or not the condition for restoring the angle of the front end region 240 or the rear end region 220 is satisfied. Specifically, the processor 33 timers the elapsed time after changing the angle of the front end region 240 in step S14 or the elapsed time after changing the angle of the rear end region 220 in step S16. When the measurement is performed in (not shown) and a predetermined time has elapsed (Yes in step S17), the angle of the front end region 240 or the rear end region 220 is returned to the angle along the road surface 330 (step S18), and the process is completed. , The process is started again from step S11. Further, when the processor 33 executes the action determination module 520 and detects that the driver 4 has taken an appropriate action with respect to the information indicated by the perspective image 200 (Yes in step S17), the tip region 240 or later. The angle of the end region 220 may be returned to an angle along the road surface 330 (step S18), the process may be terminated, and the process may be started again from step S11.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operation of the processing process described above can be carried out by executing one or more functional modules of an information processing device such as a general-purpose processor or a chip for a specific purpose. These modules, combinations of these modules, and / or combinations with common hardware that can replace their functionality are all within the scope of the protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicle display system 10 are optionally performed by hardware, software, or a combination of hardware and software to implement the principles of the various embodiments described. The functional blocks described in FIG. 2 may be optionally combined or one functional block separated into two or more subblocks in order to implement the principles of the embodiments described. It will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of functional blocks described herein.

1 :自車両
2 :フロントウインドシールド
4 :運転者
5 :ダッシュボード
10 :車両用表示システム
20 :画像表示部
20a :表示光
22 :表示器
24 :リレー光学系
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
100 :表示領域
200 :パースペクティブ画像
220 :後端領域
240 :先端領域
300 :前景
310 :実オブジェクト
330 :路面
331 :区画線
332 :区画線
350 :他車両
370 :他車両
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :車外センサ
409 :視線方向検出部
411 :目位置検出部
413 :携帯情報端末
415 :外部通信機器
502 :実オブジェクト情報検出モジュール
504 :実オブジェクト位置特定モジュール
506 :報知必要度判定モジュール
508 :目位置検出モジュール
510 :画像種類設定モジュール
512 :画像配置設定モジュール
514 :画像サイズ設定モジュール
516 :視線方向判定モジュール
518 :グラフィックモジュール
520 :行動判定モジュール
E :特定角度領域
1: Own vehicle 2: Front windshield 4: Driver 5: Dashboard 10: Vehicle display system 20: Image display unit 20a: Display light 22: Display 24: Relay optical system 30: Display control device 31: I / O interface 33: Processor 35: Image processing circuit 37: Memory 100: Display area 200: Perspective image 220: Rear end area 240: Tip area 300: Foreground 310: Real object 330: Road surface 331: Compartment line 332: Compartment line 350: Other vehicle 370: Other vehicle 401: Vehicle ECU
403: Road information database 405: Own vehicle position detection unit 407: Vehicle outside sensor 409: Line-of-sight direction detection unit 411: Eye position detection unit 413: Mobile information terminal 415: External communication device 502: Real object information detection module 504: Real object position Specific module 506: Notification necessity determination module 508: Eye position detection module 510: Image type setting module 512: Image arrangement setting module 514: Image size setting module 516: Line-of-sight direction determination module 518: Graphic module 520: Action determination module E: Specific angle area

Claims (19)

自車両の運転者から見て前景に重なる領域に、前記自車両の前後方向に沿うように視認される1つ又は複数の画像要素からなる画像(200)を表示する画像表示部(20)を制御する表示制御装置(30)において、
外部から情報を取得可能な1つ又は複数のI/Oインタフェース(31)と、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記1つ又は複数のプロセッサ(33)は、
前記運転者が、前記画像(200)の先端領域(240)を所定の時間より長く視認していないこと、前記画像(200)の後端領域(220)を注視していること、及び前記先端領域(240)よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされた場合、
前記自車両が走行する路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する、命令を実行する、
表示制御装置。
An image display unit (20) for displaying an image (200) composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle in an area overlapping the foreground when viewed from the driver of the own vehicle. In the display control device (30) to be controlled
One or more I / O interfaces (31) that can acquire information from the outside,
With one or more processors (33),
Memory (37) and
It comprises one or more computer programs stored in the memory (37) and configured to be executed by the one or more processors (33).
The one or more processors (33)
The driver has not visually recognized the tip region (240) of the image (200) for longer than a predetermined time, is gazing at the rear end region (220) of the image (200), and the tip. When the first condition consisting of at least one of watching the region above the region (240) is satisfied.
Execute a command to change the angle of the tip region (240) so that the vehicle can be seen from an angle along the road surface (330) on which the vehicle travels.
Display control device.
前記1つ又は複数のプロセッサ(33)は、
前記運転者が、前記画像(200)の前記後端領域(220)を所定の時間より長く視認していないこと、及び前記画像(200)の前記先端領域(240)を注視していること、の少なくとも1つからなる第2条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記後端領域(220)の角度を変更する、命令を実行する、
請求項1に記載の表示制御装置。
The one or more processors (33)
The driver has not seen the rear end region (220) of the image (200) for longer than a predetermined time, and is gazing at the tip region (240) of the image (200). If the second condition consisting of at least one of
Execute a command to change the angle of the rear end region (220) so that it can be seen from an angle along the road surface (330).
The display control device according to claim 1.
前記画像(200)は、複数の画像要素からなり、
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記複数の画像要素のうち全てではない、最先端の前記画像要素と、前記最先端の画像要素に連なる1つ又は複数の画像要素と、の角度を変更する、命令を実行する、
請求項1に記載の表示制御装置。
The image (200) is composed of a plurality of image elements.
The one or more processors (33)
When the first condition is satisfied,
The state-of-the-art image element, which is not all of the plurality of image elements, and one or a plurality of the state-of-the-art image elements connected to the state-of-the-art image element so as to be visually recognized by rising from an angle along the road surface (330). Change the angle of the image element, execute the command,
The display control device according to claim 1.
前記画像(200)は、1つの画像要素からなり、
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記画像(200)のうち前記先端領域(240)を屈曲させて、前記先端領域(240)の角度を変更する、命令を実行する、
請求項1に記載の表示制御装置。
The image (200) is composed of one image element.
The one or more processors (33)
When the first condition is satisfied,
A command is given to bend the tip region (240) of the image (200) to change the angle of the tip region (240) so that the image (200) can be seen from an angle along the road surface (330). Execute,
The display control device according to claim 1.
前記先端領域(240)の角度を変更した後、
前記1つ又は複数のプロセッサ(33)は、
前記画像(200)が示す情報に対して前記運転者が的確な行動をとったと推定できる場合、
変更された前記先端領域(240)の角度を戻す、命令をさらに実行する、
請求項1に記載の表示制御装置。
After changing the angle of the tip region (240),
The one or more processors (33)
When it can be estimated that the driver has taken an appropriate action with respect to the information shown in the image (200).
Return the angle of the modified tip region (240), execute further instructions,
The display control device according to claim 1.
前記1つ又は複数のプロセッサ(33)は、
変更された前記先端領域(240)の角度を戻す速度を、前記路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する速度より速くする、
請求項5に記載の表示制御装置。
The one or more processors (33)
The speed at which the modified tip region (240) is returned is made faster than the speed at which the angle at the tip region (240) is changed so that it can be seen from an angle along the road surface (330).
The display control device according to claim 5.
自車両の運転者から見て前景に重なる領域に、前記自車両の前後方向に沿うように視認される1つ又は複数の画像要素からなる画像(200)を表示するヘッドアップディスプレイ装置(20)において、
外部から情報を取得可能な1つ又は複数のI/Oインタフェース(31)と、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記1つ又は複数のプロセッサ(33)は、
前記運転者が、前記画像(200)の先端領域(240)を所定の時間より長く視認していないこと、前記画像(200)の後端領域(220)を注視していること、及び前記先端領域(240)よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされた場合、
前記自車両が走行する路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する、命令を実行する、
ヘッドアップディスプレイ装置。
A head-up display device (20) that displays an image (200) composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle in an area overlapping the foreground when viewed from the driver of the own vehicle. In
One or more I / O interfaces (31) that can acquire information from the outside,
With one or more processors (33),
Memory (37) and
It comprises one or more computer programs stored in the memory (37) and configured to be executed by the one or more processors (33).
The one or more processors (33)
The driver has not visually recognized the tip region (240) of the image (200) for longer than a predetermined time, is gazing at the rear end region (220) of the image (200), and the tip. When the first condition consisting of at least one of watching the region above the region (240) is satisfied.
Execute a command to change the angle of the tip region (240) so that the vehicle can be seen from an angle along the road surface (330) on which the vehicle travels.
Head-up display device.
前記1つ又は複数のプロセッサ(33)は、
前記運転者が、前記画像(200)の前記後端領域(220)を所定の時間より長く視認していないこと、及び前記画像(200)の前記先端領域(240)を注視していること、の少なくとも1つからなる第2条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記後端領域(220)の角度を変更する、命令を実行する、
請求項7に記載のヘッドアップディスプレイ装置。
The one or more processors (33)
The driver has not seen the rear end region (220) of the image (200) for longer than a predetermined time, and is gazing at the tip region (240) of the image (200). If the second condition consisting of at least one of
Execute a command to change the angle of the rear end region (220) so that it can be seen from an angle along the road surface (330).
The head-up display device according to claim 7.
前記画像(200)は、複数の画像要素からなり、
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記複数の画像要素のうち全てではない、最先端の前記画像要素と、前記最先端の画像要素に連なる1つ又は複数の画像要素と、の角度を変更する、命令を実行する、
請求項7に記載のヘッドアップディスプレイ装置。
The image (200) is composed of a plurality of image elements.
The one or more processors (33)
When the first condition is satisfied,
The state-of-the-art image element, which is not all of the plurality of image elements, and one or a plurality of the state-of-the-art image elements connected to the state-of-the-art image element so as to be visually recognized by rising from an angle along the road surface (330). Change the angle of the image element, execute the command,
The head-up display device according to claim 7.
前記画像(200)は、1つの画像要素からなり、
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記画像(200)のうち前記先端領域(240)を屈曲させて、前記先端領域(240)の角度を変更する、命令を実行する、
請求項7に記載のヘッドアップディスプレイ装置。
The image (200) is composed of one image element.
The one or more processors (33)
When the first condition is satisfied,
A command is given to bend the tip region (240) of the image (200) to change the angle of the tip region (240) so that the image (200) can be seen from an angle along the road surface (330). Execute,
The head-up display device according to claim 7.
前記先端領域(240)の角度を変更した後、
前記1つ又は複数のプロセッサ(33)は、
前記画像(200)が示す情報に対して前記運転者が的確な行動をとったと推定できる場合、
変更された前記先端領域(240)の角度を戻す、命令をさらに実行する、
請求項7に記載のヘッドアップディスプレイ装置。
After changing the angle of the tip region (240),
The one or more processors (33)
When it can be estimated that the driver has taken an appropriate action with respect to the information shown in the image (200).
Return the angle of the modified tip region (240), execute further instructions,
The head-up display device according to claim 7.
前記1つ又は複数のプロセッサ(33)は、
変更された前記先端領域(240)の角度を戻す速度を、前記路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する速度より速くする、
請求項11に記載のヘッドアップディスプレイ装置。
The one or more processors (33)
The speed at which the modified tip region (240) is returned is made faster than the speed at which the angle at the tip region (240) is changed so that it can be seen from an angle along the road surface (330).
The head-up display device according to claim 11.
自車両の運転者から見て前景に重なる領域に、前記自車両の前後方向に沿うように視認される1つ又は複数の画像要素からなる画像(200)を表示する画像表示部(20)を制御する方法であって、
前記運転者の視線方向を取得することと、
少なくとも前記画像表示部(20)が表示している前記画像(200)の位置と、前記視線方向と、に基づき、前記運転者が、前記画像(200)の先端領域(240)を所定の時間より長く視認していないこと、前記画像(200)の後端領域(220)を注視していること、及び前記先端領域(240)よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされたか否かを判定することと、
前記第1条件が満たされた場合、
前記自車両が走行する路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更することと、を含む、
方法。
An image display unit (20) for displaying an image (200) composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle in an area overlapping the foreground when viewed from the driver of the own vehicle. It ’s a way to control
Acquiring the line-of-sight direction of the driver
Based on at least the position of the image (200) displayed by the image display unit (20) and the line-of-sight direction, the driver sets the tip region (240) of the image (200) for a predetermined time. At least one of not seeing for a longer time, gazing at the rear end region (220) of the image (200), and gazing at the region above the tip region (240). Determining whether or not the first condition consisting of
When the first condition is satisfied,
Including changing the angle of the tip region (240) so that the vehicle can be seen from an angle along the road surface (330) on which the own vehicle travels.
Method.
少なくとも前記画像表示部(20)が表示している前記画像(200)の位置と、前記視線方向と、に基づき、前記運転者が、前記画像(200)の前記後端領域(220)を所定の時間より長く視認していないこと、及び前記画像(200)の前記先端領域(240)を注視していること、の少なくとも1つからなる第2条件が満たされたか否かを判定することと、
前記第2条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記後端領域(220)の角度を変更することと、をさらに含む、
請求項13に記載の方法。
Based on at least the position of the image (200) displayed by the image display unit (20) and the line-of-sight direction, the driver determines the rear end region (220) of the image (200). It is determined whether or not the second condition consisting of at least one of not visually recognizing for longer than the time of and watching the tip region (240) of the image (200) is satisfied. ,
When the second condition is satisfied,
Further including changing the angle of the rear end region (220) so that it can be seen from an angle along the road surface (330).
13. The method of claim 13.
前記画像(200)は、複数の画像要素からなり、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記複数の画像要素のうち全てではない、最先端の前記画像要素と、前記最先端の画像要素に連なる1つ又は複数の画像要素と、の角度を変更する、
請求項13に記載の方法。
The image (200) is composed of a plurality of image elements.
When the first condition is satisfied,
The state-of-the-art image element, which is not all of the plurality of image elements, and one or a plurality of the state-of-the-art image elements connected to the state-of-the-art image element so as to be visually recognized by rising from an angle along the road surface (330). Change the angle of the image element,
13. The method of claim 13.
前記画像(200)は、1つの画像要素からなり、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記画像(200)のうち前記先端領域(240)を屈曲させて、前記先端領域(240)の角度を変更する、
請求項13に記載の方法。
The image (200) is composed of one image element.
When the first condition is satisfied,
The tip region (240) of the image (200) is bent to change the angle of the tip region (240) so that the image (200) can be seen from an angle along the road surface (330).
13. The method of claim 13.
前記先端領域(240)の角度を変更した後、
前記自車両の状態、及び/又は前記運転者の状態を取得することと、
前記自車両の状態、及び/又は前記運転者の状態から前記画像(200)が示す情報に対して前記運転者が的確な行動をとったか推定することと、
前記画像(200)が示す情報に対して前記運転者が的確な行動をとったか推定された場合、
変更された前記先端領域(240)の角度を戻すことと、をさらに含む、
請求項13に記載の方法。
After changing the angle of the tip region (240),
Acquiring the state of the own vehicle and / or the state of the driver,
Estimating from the state of the own vehicle and / or the state of the driver whether the driver has taken an appropriate action with respect to the information shown in the image (200).
When it is estimated that the driver has taken an appropriate action with respect to the information shown in the image (200).
Further including returning the angle of the modified tip region (240).
13. The method of claim 13.
変更された前記先端領域(240)の角度を戻す速度を、前記路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する速度より速くする、
請求項17に記載の方法。
The speed at which the modified tip region (240) is returned is made faster than the speed at which the angle at the tip region (240) is changed so that it can be seen from an angle along the road surface (330).
17. The method of claim 17.
請求項13乃至18のいずれかに記載の方法を実行するための命令を含む、コンピュータ・プログラム。
A computer program comprising instructions for performing the method according to any one of claims 13-18.
JP2019108274A 2019-06-10 2019-06-10 Display control device, head-up display device, method and computer program Pending JP2020199883A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108274A JP2020199883A (en) 2019-06-10 2019-06-10 Display control device, head-up display device, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108274A JP2020199883A (en) 2019-06-10 2019-06-10 Display control device, head-up display device, method and computer program

Publications (1)

Publication Number Publication Date
JP2020199883A true JP2020199883A (en) 2020-12-17

Family

ID=73741750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108274A Pending JP2020199883A (en) 2019-06-10 2019-06-10 Display control device, head-up display device, method and computer program

Country Status (1)

Country Link
JP (1) JP2020199883A (en)

Similar Documents

Publication Publication Date Title
US20210104212A1 (en) Display control device, and nontransitory tangible computer-readable medium therefor
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP2016109645A (en) Information providing device, information providing method, and control program for providing information
JP7459883B2 (en) Display control device, head-up display device, and method
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2020158601A1 (en) Display control device, method, and computer program
JP2020086884A (en) Lane marking estimation device, display control device, method and computer program
JP2020121607A (en) Display control device, method and computer program
JP2020121704A (en) Display control device, head-up display device, method and computer program
JP2020199883A (en) Display control device, head-up display device, method and computer program
JP7434894B2 (en) Vehicle display device
JP2021056358A (en) Head-up display device
WO2021200913A1 (en) Display control device, image display device, and method
WO2023145852A1 (en) Display control device, display system, and display control method
JP2022077138A (en) Display controller, head-up display device, and display control method
JP2021160409A (en) Display control device, image display device, and method
JP2020106911A (en) Display control device, method, and computer program
JP2020117104A (en) Display control device, display system, method and computer program
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2022057051A (en) Display controller and virtual display device
JP2022113292A (en) Display control device, head-up display device, and display control method
JP7255596B2 (en) Display control device, head-up display device