JP7255596B2 - Display control device, head-up display device - Google Patents

Display control device, head-up display device Download PDF

Info

Publication number
JP7255596B2
JP7255596B2 JP2020532369A JP2020532369A JP7255596B2 JP 7255596 B2 JP7255596 B2 JP 7255596B2 JP 2020532369 A JP2020532369 A JP 2020532369A JP 2020532369 A JP2020532369 A JP 2020532369A JP 7255596 B2 JP7255596 B2 JP 7255596B2
Authority
JP
Japan
Prior art keywords
visibility
real object
image
related information
information image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020532369A
Other languages
Japanese (ja)
Other versions
JPWO2020022239A1 (en
Inventor
貴生人 川手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Publication of JPWO2020022239A1 publication Critical patent/JPWO2020022239A1/en
Application granted granted Critical
Publication of JP7255596B2 publication Critical patent/JP7255596B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Description

本発明は、車両で使用され、車両の前景に虚像を重畳して視認させるヘッドアップディスプレイ装置及びこれに用いられる表示制御装置に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a head-up display device that is used in a vehicle and that superimposes a virtual image on the foreground of the vehicle for visual recognition, and a display control device used in the head-up display device.

特許文献1に開示されているヘッドアップディスプレイ装置は、前景に存在する実オブジェクトが接近した場合、実オブジェクトに対して表示される強調画像が煩わしく感じられるため、実オブジェクトが接近して来た場合に、実オブジェクトに対して表示される強調画像の視認性を低下させている(特許文献1では、画像を暗くする、又は小さくする)。 In the head-up display device disclosed in Patent Literature 1, when a real object existing in the foreground approaches, the emphasized image displayed for the real object feels annoying. Secondly, the visibility of the enhanced image displayed for the real object is reduced (in Patent Document 1, the image is made darker or smaller).

特開2015-11666号公報JP 2015-11666 A

しかしながら、接近した実オブジェクトに対する画像の視認性を低下させることで、画像の煩わしさを低減することができるが、接近した実オブジェクトを見逃す可能性が増加してしまう。 However, by reducing the visibility of the image with respect to the approaching real object, the annoyance of the image can be reduced, but the possibility of missing the approaching real object increases.

本発明は、上記の問題点に鑑みてなされたものであり、画像の煩わしさを低減しつつ、接近した実オブジェクトを認識させやすくすることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to facilitate recognition of an approaching real object while reducing the annoyance of images.

表示制御装置の第1の態様は、車両に搭載され、前記車両の前景に重なる表示領域に、前記前景に存在する実オブジェクトの関連情報画像を表示させる表示制御装置であって、前記実オブジェクトの位置を取得し、前記実オブジェクトまでの距離が短くなるにつれて、又は前記実オブジェクトが前記表示領域の外縁に近づくにつれて、徐々に前記関連情報画像の視認性を低下させる第1視認性調整部と、視認者の注視範囲を取得し、前記関連情報画像が注視されたと判定された場合、前記関連情報画像の視認性を、上昇させた後、前記車両の走行距離、又は経過時間に基づき、徐々に低下させる第2視認性調整部と、を備える、ものである。 A first aspect of a display control device is a display control device that is mounted on a vehicle and displays a related information image of a real object existing in the foreground in a display area that overlaps the foreground of the vehicle. a first visibility adjustment unit that acquires a position and gradually reduces the visibility of the related information image as the distance to the real object becomes shorter or as the real object approaches the outer edge of the display area; When it is determined that the viewer's gaze range is acquired and the related information image is gazed at, the visibility of the related information image is increased, and then gradually increased based on the travel distance of the vehicle or the elapsed time. and a second visibility adjustment unit that lowers the visibility.

車両に接近した実オブジェクトは、視認者(車両の運転者)にとって、衝突の危険性を対処済みのものであったり、興味対象外のものであったりするため、比較的、重要度が低い(又は重要度が低くなった)ものである。第1の態様によれば、実オブジェクトが車両に近づくにつれて、関連情報画像の視認性が低下するため、視認者(車両の運転者)にとって、衝突の危険を回避済みの実オブジェクトや興味対象外の実オブジェクトの関連情報画像への視覚的注意が向きにくくすることができるが、視認者が車両に接近した実オブジェクト、又はこの実オブジェクトの関連情報画像に興味がある場合には、視認者が関連情報画像を注視したことに基づいて、関連情報画像の視認性が一時的に上昇するため、興味がある実オブジェクトに関する情報が認識しやすくなる。そして、関連情報画像の視認性は、一時的に上昇した後、車両の走行距離、又は経過時間に基づいて、徐々に低下するので、関連情報画像の煩わしさを軽減して、注視し過ぎを防止し、車両の安全運転に寄与することができる。 A real object approaching the vehicle is relatively less important to the viewer (the driver of the vehicle) because the risk of collision has already been dealt with, or the object is not of interest. or less important). According to the first aspect, as the real object approaches the vehicle, the visibility of the related information image decreases. However, if the viewer is interested in the real object approaching the vehicle or the related information image of this real object, the viewer may Since the visibility of the related information image temporarily increases based on the gaze of the related information image, it becomes easier to recognize the information related to the interesting real object. The visibility of the related information image temporarily rises, and then gradually decreases based on the travel distance of the vehicle or the elapsed time. It can be prevented and contribute to the safe driving of the vehicle.

本発明の実施形態に係るヘッドアップディスプレイ装置の構成を機能的に示すブロック図である。1 is a block diagram functionally showing the configuration of a head-up display device according to an embodiment of the present invention; FIG. 上記実施形態のヘッドアップディスプレイ装置が表示する虚像の例を示す図である。It is a figure which shows the example of the virtual image which the head-up display apparatus of the said embodiment displays. 上記実施形態のヘッドアップディスプレイ装置が実行する第1視認性調整処理を示すフローチャートである。It is a flow chart which shows the 1st visibility adjustment processing which the head up display device of the above-mentioned embodiment performs. 上記実施形態のヘッドアップディスプレイ装置が実行する第2視認性調整処理を示すフローチャートである。It is a flow chart which shows the 2nd visibility adjustment processing which the head up display device of the above-mentioned embodiment performs. 図3に示した第1視認性調整処理が実行される際の虚像の例を示す図である。4 is a diagram showing an example of a virtual image when the first visibility adjustment process shown in FIG. 3 is executed; FIG. 図4に示した第2視認性調整処理が実行される際の虚像の例を示す図である。5 is a diagram showing an example of a virtual image when the second visibility adjustment process shown in FIG. 4 is executed; FIG. 図3に示した第1視認性調整処理における距離に対する関連情報画像の視認性の特性を示す図である。FIG. 4 is a diagram showing visibility characteristics of a related information image with respect to distance in the first visibility adjustment process shown in FIG. 3 ; 第1視認性調整処理が行われる前に第2視認性調整処理が行われた場合の時間及び走行距離に対する関連情報画像の視認性の特性を示す図である。It is a figure which shows the visibility characteristic of the related information image with respect to time and a driving distance when the 2nd visibility adjustment process is performed before the 1st visibility adjustment process is performed. 第1視認性調整処理が行われた後に第2視認性調整処理が行われた場合の時間及び走行距離に対する関連情報画像の視認性の特性を示す図である。It is a figure which shows the visibility characteristic of the related information image with respect to time and a driving distance when the 2nd visibility adjustment process is performed after the 1st visibility adjustment process is performed. 第1視認性調整処理が行われる前に第2視認性調整処理が行われた場合の時間に対する関連情報画像の視認性の特性の変形例を示す図である。FIG. 10 is a diagram showing a modified example of the visibility characteristic of the related information image with respect to time when the second visibility adjustment process is performed before the first visibility adjustment process is performed; 第1視認性調整処理が行われた後に第2視認性調整処理が行われた場合の時間に対する関連情報画像の視認性の特性の変形例を示す図である。FIG. 10 is a diagram showing a modification of the visibility characteristic of the related information image with respect to time when the second visibility adjustment process is performed after the first visibility adjustment process is performed;

以下、本発明に係る実施形態について図面を参照して説明する。なお、本発明は下記の実施形態(図面の内容も含む。)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができる。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Modifications (including deletion of components) can be made to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.

図1は、本実施形態におけるヘッドアップディスプレイ装置(以下、HUD装置1と呼ぶ)の全体構成を示すブロック図である。HUD装置1は、虚像V(図2参照)の元となる表示画像を表示する画像表示部10と、画像表示部10が表示した表示画像の表示光を被投影部2(例えば、車両のフロントウインドシールド)に向けて適宜拡大して投射する反射光学系、屈折光学系、回折光学系などの単数又は複数の光学部材からなるリレー光学部10aと、画像表示部10の表示を制御する表示制御装置20と、によって構成される。 FIG. 1 is a block diagram showing the overall configuration of a head-up display device (hereinafter referred to as HUD device 1) according to this embodiment. The HUD device 1 includes an image display unit 10 that displays a display image that is the source of a virtual image V (see FIG. 2), and display light of the display image displayed by the image display unit 10 to a projection target unit 2 (for example, the front of a vehicle). A relay optical unit 10a consisting of one or more optical members such as a reflective optical system, a refracting optical system, a diffractive optical system, etc., which appropriately magnifies and projects toward the windshield), and a display control that controls the display of the image display unit 10 and a device 20 .

画像表示部10は、例えば、DMDやLCoSなどの反射型表示デバイスを用いたプロジェクタ(図示しない)と、プロジェクタからの投影光を受光して表示画像を表示し、この表示画像を示す表示光(図示しない)をリレー光学部10aに向けて出射するスクリーン(図示しない)と、から主に構成される。画像表示部10は、画像生成部80(表示制御装置20)から入力する画像データに基づき、スクリーンに表示画像を表示することで、視認者の前方に虚像を生成する。なお、画像表示部10は、例えば、液晶表示素子などの透過型表示パネルや、有機EL素子などの自発光表示パネルや、レーザー光を走査する走査型表示デバイスなどを適用してもよく、画像表示部10が、反射型表示デバイスや走査型表示デバイスなどのプロジェクタから構成される場合、スクリーンが画像表示部10の表示面と言える。一方、画像表示部10が、透過型表示パネルや自発光表示パネルから構成される場合、パネルの表示領域が画像表示部10の表示面と言える。 The image display unit 10 receives projection light from a projector (not shown) using a reflective display device such as DMD or LCoS, displays a display image by receiving projection light from the projector, and displays display light ( (not shown) to the relay optical unit 10a. The image display unit 10 generates a virtual image in front of the viewer by displaying a display image on the screen based on image data input from the image generation unit 80 (display control device 20). The image display unit 10 may be, for example, a transmissive display panel such as a liquid crystal display element, a self-luminous display panel such as an organic EL element, or a scanning display device that scans laser light. When the display unit 10 is configured by a projector such as a reflective display device or a scanning display device, the screen can be said to be the display surface of the image display unit 10 . On the other hand, when the image display section 10 is composed of a transmissive display panel or a self-luminous display panel, the display area of the panel can be said to be the display surface of the image display section 10 .

表示制御装置20は、第1のインターフェース(識別情報取得部30、位置情報取得部32、距離情報取得部34、注視位置取得部40、車両状態取得部50)と、この第1のインターフェースに代えて、あるいは、第1のインターフェースとともに、表示処理部70の処理に必要な各種情報を取得する第2のインターフェース60と、後述する関連情報画像V1(虚像Vの一種)の表示制御を少なくとも実行する表示処理部70と、を備える。 The display control device 20 includes a first interface (identification information acquisition unit 30, position information acquisition unit 32, distance information acquisition unit 34, gaze position acquisition unit 40, vehicle state acquisition unit 50) and a Alternatively, together with the first interface, the second interface 60 for acquiring various information necessary for the processing of the display processing unit 70 and display control of a related information image V1 (a kind of virtual image V) described later are at least executed. A display processing unit 70 is provided.

前記第1のインターフェース(識別情報取得部30、位置情報取得部32、距離情報取得部34、注視位置取得部40、車両状態取得部50)、及び第2のインターフェース60は、外部機器と通信可能に連結されている。前記外部機器は、実オブジェクト識別部31、実オブジェクト位置検出部33、実オブジェクト距離検出部35、視線検出部41、位置検出部51、方角検出部52、姿勢検出部53、クラウドサーバー(外部サーバー)500、車両ECU600、ナビゲーションシステム700、及び図示しない自車両内の他の車載機器、自車両内の携帯機器、他車両(車車間通信V2V)、路上の通信インフラ(路車間通信V2I)、歩行者の携帯機器(車両と歩行者との通信V2P)などである。HUD装置1は、外部機器からインターフェースを介して、各種情報、及び虚像Vの元となる画像要素データを取得し、表示処理部70の処理に従い虚像Vを表示する。なお、画像要素データの一部又は全部は、後述する記憶部71に記憶され、後述する画像生成部80が、表示処理部70からの指示に従い記憶部71に記憶された画像要素データを読み出し、画像表示部10に虚像Vの基となる表示画像を表示させる画像データを生成させる形態であってもよい。 The first interface (identification information acquisition unit 30, position information acquisition unit 32, distance information acquisition unit 34, gaze position acquisition unit 40, vehicle state acquisition unit 50) and second interface 60 can communicate with external devices. connected to The external devices include a real object identification unit 31, a real object position detection unit 33, a real object distance detection unit 35, a line of sight detection unit 41, a position detection unit 51, a direction detection unit 52, an orientation detection unit 53, a cloud server (external server ) 500, a vehicle ECU 600, a navigation system 700, other in-vehicle devices (not shown) in the own vehicle, portable devices in the own vehicle, other vehicles (vehicle-to-vehicle communication V2V), road communication infrastructure (road-to-vehicle communication V2I), walking mobile device of a person (V2P communication between a vehicle and a pedestrian). The HUD device 1 acquires various kinds of information and image element data that is the basis of the virtual image V from an external device via an interface, and displays the virtual image V according to the processing of the display processing unit 70 . Part or all of the image element data is stored in a storage unit 71, which will be described later, and the image generation unit 80, which will be described later, reads the image element data stored in the storage unit 71 according to an instruction from the display processing unit 70, Image data for displaying a display image that is the basis of the virtual image V on the image display unit 10 may be generated.

識別情報取得部30は、自車両の前景200に存在する実オブジェクト300の識別情報を取得する入力インターフェースであり、例えば、自車両に搭載された単数又は複数のカメラやセンサなどからなる実オブジェクト識別部31から識別情報を取得し、表示処理部70に出力する。例えば、実オブジェクト識別部31は、自車両の前景200を撮像(検出)し、その撮像(検出)データを解析して自車両の前景200の実オブジェクト300の識別情報を生成する図示しない識別部を有する。例えば、識別情報取得部30が取得する識別情報は、実オブジェクト300の種類である。実オブジェクト300の種類とは、例えば、障害物(他車両、人物、動物、モノ),道路標識,道路,又は建物などであるが、前景200に存在し、識別可能であればこれらに限定されない。 The identification information acquisition unit 30 is an input interface for acquiring identification information of a real object 300 existing in the foreground 200 of the own vehicle. It acquires the identification information from the unit 31 and outputs it to the display processing unit 70 . For example, the real object identification unit 31 captures (detects) the foreground 200 of the own vehicle, analyzes the imaged (detected) data, and generates identification information of the real object 300 in the foreground 200 of the own vehicle. have For example, the identification information acquired by the identification information acquisition unit 30 is the type of the real object 300 . The types of real objects 300 are, for example, obstacles (other vehicles, people, animals, objects), road signs, roads, buildings, etc., but are not limited to these as long as they exist in the foreground 200 and can be identified. .

位置情報取得部32は、自車両の前景200に存在する実オブジェクト300の位置を取得する入力インターフェースであり、例えば、自車両に搭載された単数又は複数のカメラやセンサなどからなる実オブジェクト位置検出部33から実オブジェクト300の位置を取得し、表示処理部70に出力する。例えば、実オブジェクト位置検出部33は、自車両の前景200を撮像(検出)し、その撮像(検出)データを解析して前景200の実オブジェクト300の位置情報を生成する図示しない位置解析部を有する。この場合、位置情報取得部32が取得する実オブジェクト300の位置情報は、視認者から見た2次元(上下方向と左右方向)の位置を含み、例えば、自車両の前景200における実オブジェクト300の実座標又は表示領域11における実オブジェクト300の座標である。 The position information acquisition unit 32 is an input interface that acquires the position of the real object 300 that exists in the foreground 200 of the own vehicle. The position of the real object 300 is acquired from the unit 33 and output to the display processing unit 70 . For example, the real object position detection unit 33 includes a position analysis unit (not shown) that captures (detects) the foreground 200 of the own vehicle, analyzes the captured (detected) data, and generates position information of the real object 300 in the foreground 200. have. In this case, the position information of the real object 300 acquired by the position information acquisition unit 32 includes the two-dimensional (vertical and horizontal directions) positions viewed from the viewer. Real coordinates or coordinates of the real object 300 in the display area 11 .

距離情報取得部34は、自車両の前景200に存在する実オブジェクト300までの距離を取得する入力インターフェースであり、例えば、自車両に搭載された単数又は複数のカメラやセンサなどからなる実オブジェクト距離検出部35から実オブジェクト300までの距離を取得し、表示処理部70に出力する。例えば、実オブジェクト距離検出部35は、自車両の前景200を撮像(検出)し、その撮像(検出)データを解析して実オブジェクト300までの距離情報を生成する図示しない距離解析部を有する。この場合、距離情報取得部34が取得する実オブジェクト300の距離情報は、自車両から又はHUD装置1から実オブジェクト300までの距離である。 The distance information acquisition unit 34 is an input interface that acquires the distance to the real object 300 that exists in the foreground 200 of the own vehicle. The distance to the real object 300 is acquired from the detection unit 35 and output to the display processing unit 70 . For example, the real object distance detection unit 35 has a distance analysis unit (not shown) that captures (detects) the foreground 200 of the own vehicle, analyzes the captured (detected) data, and generates distance information to the real object 300 . In this case, the distance information of the real object 300 acquired by the distance information acquisition unit 34 is the distance from the own vehicle or from the HUD device 1 to the real object 300 .

なお、上記の解析部(識別部、位置解析部、距離解析部)は、HUD装置1内に設けられてもよい。具体的には、前記解析部は、表示処理部70内に設けられてもよく、この場合、識別情報取得部30が取得する識別情報、位置情報取得部32が取得する位置情報、距離情報取得部34が取得する距離情報は、実オブジェクト識別部31(実オブジェクト位置検出部33、実オブジェクト距離検出部35)が前景200を撮像(検出)した撮像(検出)データとなる。なお、識別情報取得部30、位置情報取得部32、距離情報取得部34の一部又は全部は、カメラ、センサ、解析部が共通であってもよい。なお、以下では、実オブジェクト300の識別情報、位置情報、距離情報を総称して実オブジェクト情報とも呼ぶ。 Note that the analysis units (identification unit, position analysis unit, distance analysis unit) described above may be provided in the HUD device 1 . Specifically, the analysis unit may be provided in the display processing unit 70. In this case, the identification information acquired by the identification information acquisition unit 30, the position information acquired by the position information acquisition unit 32, the distance information acquisition The distance information acquired by the unit 34 is captured (detected) data of the foreground 200 captured (detected) by the real object identification unit 31 (the real object position detection unit 33 and the real object distance detection unit 35). Some or all of the identification information acquisition unit 30, the position information acquisition unit 32, and the distance information acquisition unit 34 may share the same camera, sensor, and analysis unit. Note that, hereinafter, the identification information, position information, and distance information of the real object 300 are also collectively referred to as real object information.

また、他の実施形態では、識別情報取得部30(又は/及び位置情報取得部32又は/及び距離情報取得部34)の代わりに、あるいは識別情報取得部30(又は/及び位置情報取得部32又は/及び距離情報取得部34)とともに、第2のインターフェース60が識別情報取得部30(位置情報取得部32、距離情報取得部34)として機能してもよい。言い換えると、第2のインターフェース60が、クラウドサーバー500、車両ECU600、ナビゲーションシステム700、及び図示しない自車両内の他の車載機器、自車両内の携帯機器、他車両(車車間通信V2V)、路上の通信インフラ(路車間通信V2I)、歩行者の携帯機器(車両と歩行者との通信V2P)から実オブジェクト情報を取得してもよい。第2のインターフェース60は、例えば、クラウドサーバー500、車両ECU600、ナビゲーションシステム700、から、地図情報とともに、道路標識,道路,建物等の実オブジェクト300の位置情報、識別情報、座標情報(距離情報)等を取得可能であり、また、図示しない他車両(車車間通信V2V)、路上の通信インフラ(路車間通信V2I)、歩行者の携帯機器(車両と歩行者との通信V2P)から、障害物(他車両、人物、動物、モノ),道路標識,道路等の位置情報、識別情報、座標情報(距離情報)等を取得可能である。表示処理部70は、自車両又はHUD装置1の位置情報(自車両の方角情報を追加してもよい)を、第2のインターフェース60を介して、前記外部機器に出力し、前記外部機器は、入力した自車両又はHUD装置1の位置情報(追加の方角情報)に基づき、自車両の前景200に存在する実オブジェクト300の位置情報、識別情報、距離情報を第2のインターフェース60に出力してもよい。なお、前記識別情報は、実オブジェクト300の種類より細かい個体識別情報であってもよい。 In another embodiment, instead of the identification information acquisition unit 30 (or/and the position information acquisition unit 32 and/or the distance information acquisition unit 34), or the identification information acquisition unit 30 (or/and the position information acquisition unit 32) Or/and the distance information acquisition unit 34), the second interface 60 may function as the identification information acquisition unit 30 (position information acquisition unit 32, distance information acquisition unit 34). In other words, the second interface 60 connects the cloud server 500, the vehicle ECU 600, the navigation system 700, other in-vehicle devices (not shown) in the own vehicle, portable devices in the own vehicle, other vehicles (vehicle-to-vehicle communication V2V), road real object information may be acquired from the communication infrastructure (V2I road-to-vehicle communication) and mobile devices of pedestrians (V2P communication between vehicles and pedestrians). The second interface 60, for example, from the cloud server 500, the vehicle ECU 600, the navigation system 700, along with the map information, location information, identification information, coordinate information (distance information) of real objects 300 such as road signs, roads, buildings, etc. etc. can be obtained from other vehicles (vehicle-to-vehicle communication V2V) not shown, road communication infrastructure (road-to-vehicle communication V2I), mobile devices of pedestrians (vehicle-pedestrian communication V2P), obstacles (Other vehicles, people, animals, things), road signs, location information such as roads, identification information, coordinate information (distance information), etc. can be acquired. The display processing unit 70 outputs the position information of the own vehicle or the HUD device 1 (or the direction information of the own vehicle may be added) to the external device via the second interface 60, and the external device , based on the input positional information (additional direction information) of the own vehicle or the HUD device 1, outputs the positional information, the identification information, and the distance information of the real object 300 existing in the foreground 200 of the own vehicle to the second interface 60. may Note that the identification information may be individual identification information that is more detailed than the type of the real object 300 .

注視位置取得部40は、視認者が注視している範囲(注視範囲GZ)に関する注視情報を取得する入力インターフェースであり、例えば、車両に搭載されたカメラなどからなる視線検出部41から注視範囲GZを取得し、表示処理部70に出力する。視認者の注視範囲GZは、視認者が目視(注視)している領域であり、目視点(注視点)を含み、人が通常注視可能とされる一定範囲である。なお、視認者の注視範囲GZの設定方法は、これに限定されるものではなく、視線検出部41は、例えば、特開2015-126451号公報に記載されているように、所定の時間(例えば、1秒)内に測定される複数の目視点(注視点)を含む矩形領域を、注視範囲GZに設定してもよい。 The gaze position acquisition unit 40 is an input interface for acquiring gaze information regarding the range (gazing range GZ) where the viewer is gazing. is acquired and output to the display processing unit 70 . The gaze range GZ of the viewer is a region where the viewer is looking (gazes), and is a fixed range that includes the point of sight (point of gaze) and is usually possible for a person to gaze. Note that the method of setting the gaze range GZ of the viewer is not limited to this. , 1 second) may be set as the gaze range GZ.

車両状態取得部50は、車両の状態(位置、方角、姿勢)に関する情報を取得する。車両状態取得部50は、GNSS(全地球航法衛星システム)等からなる位置検出部51により検出された車両又はHUD装置1の位置情報を取得し、方角センサからなる方角検出部52により検出された車両又はHUD装置1の向きを示す方角情報を取得し、ハイトセンサや加速度センサからなる姿勢検出部53により検出された車両の路面からの高さ又は/及び路面に対する角度を示す姿勢情報を取得し、表示処理部70に出力する。 The vehicle state acquisition unit 50 acquires information about the vehicle state (position, direction, attitude). The vehicle state acquisition unit 50 acquires the position information of the vehicle or the HUD device 1 detected by a position detection unit 51 such as a GNSS (Global Navigation Satellite System), and obtains the position information of the vehicle or the HUD device 1 detected by a direction detection unit 52 formed of a direction sensor. Direction information indicating the direction of the vehicle or the HUD device 1 is acquired, and posture information indicating the height of the vehicle from the road surface and/or the angle with respect to the road surface detected by the posture detection unit 53 consisting of a height sensor and an acceleration sensor is acquired. , to the display processing unit 70 .

表示処理部70は、少なくとも1つのプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、及び少なくとも1つの特定用途向け集積回路(ASIC)、及び/又は、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)などの少なくとも1つの半導体集積回路を含む。少なくとも1つのプロセッサは、少なくとも1つのコンピュータ読み取り可能で有形な記録媒体から1つ又は複数の命令を読み取ることにより、報知要否判定部72と、第1視認性調整部73と、第2視認性調整部74と、を含む表示処理部70の機能の全部又は一部を実行することができる。そのような記録媒体は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリはDRAM及びSRAMを含み、不揮発性メモリはROM及びNVROMを含む。半導体メモリは、少なくとも1つのプロセッサと共に回路の一部となる半導体回路でもある。ASICは、図1に示す機能ブロックの全部又は一部を実行するようにカスタマイズされた集積回路であり、FPGAは、製造後に、図1に示す機能ブロックの全部又は一部を実行できるように設計された集積回路である。なお、表示処理部70は、画像表示部10に表示画像(虚像Vの元となる画像)を表示させるための画像データを生成する画像生成部80を有していてもよいが、画像生成部80の機能の一部又は全部は、表示制御装置20又はHUD装置1とは別に設けられてもよい。 Display processing unit 70 includes at least one processor (e.g., central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one application specific integrated circuit (ASIC), and/or It includes at least one semiconductor integrated circuit, such as at least one Field Programmable Gate Array (FPGA). At least one processor reads one or more commands from at least one computer-readable and tangible recording medium to determine whether or not notification is required, the first visibility adjustment unit 73, and the second visibility adjustment unit 73. All or part of the functions of the display processing unit 70 including the adjusting unit 74 can be performed. Such recording media include any type of magnetic media such as hard disks, any type of optical media such as CDs and DVDs, any type of semiconductor memory such as volatile memory, and non-volatile memory. . Volatile memory includes DRAM and SRAM, and non-volatile memory includes ROM and NVROM. A semiconductor memory is also a semiconductor circuit that is part of a circuit with at least one processor. An ASIC is an integrated circuit customized to perform all or part of the functional blocks shown in FIG. 1, and an FPGA is designed to perform all or part of the functional blocks shown in FIG. 1 after fabrication. integrated circuit. Note that the display processing unit 70 may have an image generation unit 80 that generates image data for displaying a display image (an image that is the source of the virtual image V) on the image display unit 10, but the image generation unit Some or all of the functions of 80 may be provided separately from the display control device 20 or the HUD device 1 .

報知要否判定部72は、識別情報取得部30,位置情報取得部32、距離情報取得部34などから取得した情報に基づき、実オブジェクト300の報知必要度を判定し、視認者に報知するか否かを判定する。報知必要度が所定の閾値より高くなった場合に、視認者に報知する必要があると判定する。報知必要度は、実オブジェクト300に対して、起こり得る事態の重大さの程度から導き出される危険度や、反応行動を起こすまでに要求される反応時間の長短から導かれる緊急度などであり、識別情報取得部30,位置情報取得部32、距離情報取得部34が取得する実オブジェクト300に関する実オブジェクト情報のみで決定されてもよく、前記実オブジェクト情報に加えて、他のインターフェースから入力される各種情報に基づいて決定されてもよい。なお、報知要否判定部72は、本質的には、前記報知必要度に基づき視認者に実オブジェクト300の存在を報知するかを判定する機能を有していればいいので、前記報知必要度を決定する機能を有していなくてもよく、前記報知必要度を決定する機能の一部又は全部は、表示制御装置20とは別に設けられてもよい。表示処理部70は、報知要否判定部72が報知を必要と判定した実オブジェクト300に対して少なくとも関連情報画像V1(加えて、強調画像V2)が表示されるように画像生成部80に指示する。なお、報知の要否は、前記危険度や前記緊急度を用いる方法に限定されない。例えば、クラウドサーバー500、車両ECU600、ナビゲーションシステム700から視認者にとって役立つ実オブジェクト300に関する情報が取得されれば、報知要否判定部72は、報知を必要と判定してもよい。また、実オブジェクト300は、視認者から見えている必要はなく、表示処理部70は、前景200で他のものの影に隠れている場合や遠方過ぎて視認できない場合でも、報知が必要とされた実オブジェクト300に対する関連情報画像V1が所定の位置に表示されるように、又は報知が必要とされた実オブジェクト300の方向に強調画像V2が表示されるように画像生成部80に指示してもよい。 The notification necessity determination unit 72 determines the necessity of notification of the real object 300 based on information acquired from the identification information acquisition unit 30, the position information acquisition unit 32, the distance information acquisition unit 34, and the like, and determines whether to notify the viewer. determine whether or not When the notification necessity level becomes higher than a predetermined threshold value, it is determined that it is necessary to notify the viewer. The notification necessity level is, for example, the degree of danger derived from the degree of seriousness of a situation that can occur with respect to the real object 300, the degree of urgency derived from the length of reaction time required to take a reaction action, and the like. It may be determined only by real object information about the real object 300 acquired by the information acquisition unit 30, the position information acquisition unit 32, and the distance information acquisition unit 34. It may be determined based on information. Note that the notification necessity determining unit 72 essentially has a function of determining whether or not to notify the viewer of the presence of the real object 300 based on the notification necessity degree. , and part or all of the function for determining the necessity of notification may be provided separately from the display control device 20 . The display processing unit 70 instructs the image generation unit 80 to display at least the related information image V1 (and the emphasized image V2) for the real object 300 for which the notification necessity determination unit 72 determines that notification is necessary. do. The necessity of notification is not limited to the method using the degree of danger or the degree of urgency. For example, if information about the real object 300 that is useful for the viewer is obtained from the cloud server 500, the vehicle ECU 600, and the navigation system 700, the notification necessity determination unit 72 may determine that notification is necessary. In addition, the real object 300 does not have to be visible to the viewer, and the display processing unit 70 is required to notify even when it is hidden behind other objects in the foreground 200 or when it is too far away to be visually recognized. Even if the image generator 80 is instructed to display the related information image V1 for the real object 300 at a predetermined position or to display the emphasized image V2 in the direction of the real object 300 for which notification is required, good.

第1視認性調整部73は、報知要否判定部72が報知を必要と判定した実オブジェクト300の関連情報の有無を判定し、実オブジェクト300の関連情報が有れば、関連情報画像V1を表示させるように画像生成部80に指示する。第1視認性調整部73は、識別情報取得部30又は第2のインターフェース60から実オブジェクト300の識別情報を取得し、この識別情報に対応した関連情報が記憶部71又は第2のインターフェース60を介した外部機器にあれば、関連情報が有ると判定する。 The first visibility adjustment unit 73 determines the presence or absence of related information for the real object 300 that the notification necessity determination unit 72 has determined to require notification. The image generator 80 is instructed to display. The first visibility adjustment unit 73 acquires the identification information of the real object 300 from the identification information acquisition unit 30 or the second interface 60, and the related information corresponding to this identification information is stored in the storage unit 71 or the second interface 60. If it exists in the external device through which the related information exists, it is determined that the related information exists.

また、第1視認性調整部73は、虚像V(関連情報画像V1、強調画像V2)の視認性を調整する。ここでいう「視認性」を変化させる手法としては、例えば、虚像Vの輝度、明度、色彩、又はこれらの結合を変更することである。第1視認性調整部73は、実オブジェクト距離検出部35から取得する実オブジェクト300の距離情報に基づき、関連情報画像V1の視認性を変化させる。具体的には、第1視認性調整部73は、実オブジェクト300が接近するにつれて、関連情報画像V1の視認性を徐々に低下させる。 Also, the first visibility adjustment unit 73 adjusts the visibility of the virtual image V (the related information image V1 and the enhanced image V2). As a technique for changing the "visibility" referred to here, for example, the luminance, brightness, color, or a combination thereof of the virtual image V is changed. The first visibility adjustment section 73 changes the visibility of the related information image V1 based on the distance information of the real object 300 acquired from the real object distance detection section 35 . Specifically, the first visibility adjustment unit 73 gradually lowers the visibility of the related information image V1 as the real object 300 approaches.

変形例として、第1視認性調整部73は、表示領域11内での実オブジェクト300の位置(又は実オブジェクト300に対して表示される強調画像V2の位置)により関連情報画像V1の視認性を変化させてもよい。具体的には、第1視認性調整部73は、実オブジェクト位置検出部33から取得する実オブジェクト300の位置情報に基づき、表示領域11内での実オブジェクト300の位置を特定し、実オブジェクト300が表示領域11の外縁に近づくにつれて、関連情報画像V1の視認性を徐々に低下させてもよい。このように、第1視認性調整部73が、実オブジェクト300の距離情報(視認者から見た奥行方向)又は位置情報(視認者から見た上下方向又は/及び左右方向)に基づき、視認性を徐々に低下させる処理を第1視認性調整処理と呼ぶ。 As a modification, the first visibility adjustment unit 73 adjusts the visibility of the related information image V1 based on the position of the real object 300 within the display area 11 (or the position of the enhanced image V2 displayed with respect to the real object 300). You can change it. Specifically, the first visibility adjustment unit 73 identifies the position of the real object 300 within the display area 11 based on the position information of the real object 300 acquired from the real object position detection unit 33, and detects the position of the real object 300. approaches the outer edge of the display area 11, the visibility of the related information image V1 may be gradually lowered. In this way, the first visibility adjustment unit 73 adjusts the visibility based on the distance information (the depth direction viewed from the viewer) or the position information (the vertical direction and/or the horizontal direction viewed from the viewer) of the real object 300. is called a first visibility adjustment process.

第2視認性調整部74は、視認者が、実オブジェクト300(あるいは実オブジェクト300に対して表示される強調画像V2)を視認しているか、又は、関連情報画像V1を視認しているかを判定する。第2視認性調整部74は、記憶部71に記憶されている現在表示されている関連情報画像V1及び強調画像V2の位置情報を取得し、位置情報取得部32から実オブジェクト300の位置情報を取得し、注視位置取得部40から注視範囲GZを取得し、関連情報画像V1又は強調画像V2の位置情報と注視範囲GZとに基づいて判定する。 The second visibility adjustment unit 74 determines whether the viewer is viewing the real object 300 (or the enhanced image V2 displayed for the real object 300) or the related information image V1. do. The second visibility adjustment unit 74 acquires the position information of the currently displayed related information image V1 and the emphasized image V2 stored in the storage unit 71, and acquires the position information of the real object 300 from the position information acquisition unit 32. Then, the gaze range GZ is acquired from the gaze position acquisition unit 40, and determination is made based on the position information of the related information image V1 or the enhanced image V2 and the gaze range GZ.

また、第2視認性調整部74は、視認者が、実オブジェクト300(あるいは実オブジェクト300に対して表示される強調画像V2)を視認した場合、又は、関連情報画像V1を視認した場合、視認性を上昇させた後、低下させる第2視認性調整処理を実行することが可能である。第2視認性調整部74は、視認者が、実オブジェクト300(及び実オブジェクト300に対して表示される強調画像V2)を視認しておらず、かつ、関連情報画像V1を視認していない場合、第1視認性調整処理を実行し、視認者が、実オブジェクト300(あるいは実オブジェクト300に対して表示される強調画像V2)を視認した場合、又は、関連情報画像V1を視認した場合、第2視認性調整処理を実行する。 Further, the second visibility adjustment unit 74 adjusts the visibility when the viewer views the real object 300 (or the enhanced image V2 displayed for the real object 300) or the related information image V1. After increasing the visibility, it is possible to execute a second visibility adjustment process to decrease the visibility. When the viewer does not visually recognize the real object 300 (and the enhanced image V2 displayed for the real object 300) and does not visually recognize the related information image V1, the second visibility adjustment unit 74 , the first visibility adjustment process is executed, and when the viewer views the real object 300 (or the enhanced image V2 displayed for the real object 300) or the related information image V1, the second 2 Execute visibility adjustment processing.

次に、図2を用いて、HUD装置1が表示する虚像Vを説明する。図2の例では、実オブジェクト300は、駐車場であり、この駐車場を指示するように強調画像V2が表示され、駐車場を示す『P』を表示する関連情報画像V1が表示領域11の上端部12に表示されている。表示処理部70は、報知要否判定部72が報知を必要と判定した実オブジェクト300の近傍又は視認されないが実オブジェクト300が存在する位置に強調画像V2を表示し、実オブジェクト300の関連情報画像V1を表示領域11の予め定められた特定の位置(図2の例では上端部12)に表示する。特定の位置は、HUD10が虚像Vを表示可能な表示領域11の鉛直方向を4等分した場合の上端部12又は下端部13であることが好ましいが、表示領域11の鉛直方向を3等分した場合の上端部12又は下端部13であってもよい。言い換えると、表示領域11は、関連情報画像V1を表示する上端部12の鉛直方向の幅(表示領域11の上端と関連情報画像V1の下端との間の長さ)の2倍程度の鉛直方向の幅の領域を、上端部12の下側に設けることが好ましく、又は、関連情報画像V1を表示する下端部13の鉛直方向の幅(表示領域11の下端と関連情報画像V1の上端との間の長さ)の2倍程度の鉛直方向の幅の領域を、下端部13の上側に設けることが好ましい。 Next, the virtual image V displayed by the HUD device 1 will be described with reference to FIG. In the example of FIG. 2, the real object 300 is a parking lot. It is displayed on the top edge 12 . The display processing unit 70 displays the emphasized image V2 in the vicinity of the real object 300 determined to require notification by the notification necessity determination unit 72 or at a position where the real object 300 exists although it is not visually recognized, and displays the related information image of the real object 300. V1 is displayed at a predetermined specific position of the display area 11 (upper end 12 in the example of FIG. 2). The specific position is preferably the upper end portion 12 or the lower end portion 13 when the vertical direction of the display area 11 in which the HUD 10 can display the virtual image V is divided into four equal parts. It may be the upper end portion 12 or the lower end portion 13 in the case of being. In other words, the display area 11 has a vertical width of about twice the vertical width of the upper end portion 12 displaying the related information image V1 (the length between the upper end of the display area 11 and the lower end of the related information image V1). or the vertical width of the lower end portion 13 displaying the related information image V1 (the width between the lower end of the display region 11 and the upper end of the related information image V1). It is preferable to provide an area having a vertical width of about twice the length between the lower ends 13 above the lower end portion 13 .

次に、図3を参照する。図3は、本実施形態のHUD装置1の表示制御に関わる第1視認性調整処理の主要な手順の一例を示すフローチャートである。HUD装置1が起動されると、第1視認性調整処理が開始される。 Next, refer to FIG. FIG. 3 is a flowchart showing an example of main procedures of the first visibility adjustment process related to display control of the HUD device 1 of this embodiment. When the HUD device 1 is activated, the first visibility adjustment process is started.

まず、実オブジェクト情報(識別情報、位置情報、距離情報)が取得され(ステップS1)、視認者に報知すべき実オブジェクト300であるかが判定され(ステップS2)、YESの場合、実オブジェクト300の近傍に強調画像V2が表示され(ステップS3)、NOの場合、第1視認性調整処理が終了される。 First, real object information (identification information, position information, distance information) is acquired (step S1), and it is determined whether the real object 300 should be notified to the viewer (step S2). is displayed in the vicinity of (step S3), and in the case of NO, the first visibility adjustment process is terminated.

続いて、関連情報画像V1の表示条件が成立したかが判定され(ステップS4)、YESの場合、関連情報画像V1が表示され(ステップS5)、NOの場合、関連情報画像V1が表示されず、又は関連情報画像V1が表示してあれば非表示とされ(ステップS6)、第1視認性調整処理が終了される。ステップS4の関連情報画像V1の表示条件は、実オブジェクト300に対する関連情報があることを少なくとも含み、これに加えて、状況に応じて関連情報画像V1の優先度(必要度)が高いと判定できることを含んでいてもよい。 Subsequently, it is determined whether the display condition for the related information image V1 is satisfied (step S4). If YES, the related information image V1 is displayed (step S5). If NO, the related information image V1 is not displayed. Or, if the related information image V1 is displayed, it is hidden (step S6), and the first visibility adjustment process ends. The display condition of the related information image V1 in step S4 includes at least that there is related information for the real object 300, and in addition, it can be determined that the priority (necessity) of the related information image V1 is high depending on the situation. may contain

この後、第1視認性調整処理を実行する条件が成立したか判定され(ステップS7)、YESの場合、関連情報画像V1の視認性が、ステップS1で取得された実オブジェクト300の距離情報や位置情報に基づいて低下され(ステップS8、第1視認性調整処理とも呼ぶ)、NOの場合、第1視認性調整処理が終了される。ステップS7における第1視認性調整処理を実行する条件は、実オブジェクト300が予め定められた後述する距離Dm(図7参照)以内であること、又は実オブジェクト300が表示領域11の外縁に近い予め定められた図示しない領域内であること、などである。ステップS8の第1視認性調整処理では、実オブジェクト300が接近するにつれて、又は実オブジェクト300が表示領域11の外縁に近づくにつれて、関連情報画像V1の視認性が徐々に低下される。車両に接近した報知優先度(必要度)が低くなった実オブジェクト300の関連情報の視認性を自動的に低下させ、視認者の視覚的注意が奪われにくくして、車両運行に集中させることができる。 After that, it is determined whether or not the condition for executing the first visibility adjustment process is satisfied (step S7). It is lowered based on the position information (step S8, also referred to as first visibility adjustment processing), and in the case of NO, the first visibility adjustment processing is terminated. The condition for executing the first visibility adjustment process in step S7 is that the real object 300 is within a predetermined distance Dm (see FIG. being within a defined region (not shown); In the first visibility adjustment process in step S8, as the real object 300 approaches or as the real object 300 approaches the outer edge of the display area 11, the visibility of the related information image V1 is gradually lowered. To automatically lower the visibility of related information of a real object 300 whose notification priority (necessity) is lowered when approaching a vehicle, to make it difficult for the visual attention of a viewer to be deprived, and to concentrate on vehicle operation. can be done.

次に、図4を参照する。図4は、本実施形態のHUD装置1の表示制御に関わる第2視認性調整処理の主要な手順の一例を示すフローチャートである。第1視認性調整処理が終了すると、続けて第2視認性調整処理が開始される。なお、第2視認性調整処理が終了すると、第1視認性調整処理から再度開始される。 Reference is now made to FIG. FIG. 4 is a flowchart showing an example of main procedures of the second visibility adjustment process related to display control of the HUD device 1 of this embodiment. After the first visibility adjustment process ends, the second visibility adjustment process is started. Note that when the second visibility adjustment process ends, the first visibility adjustment process is restarted.

まず、視認者の注視範囲GZが取得され(ステップS11)、関連情報画像V1が注視されているか判定され(ステップS12)、YESの場合、ステップS13に移行され、NOの場合、第2視認性調整処理が終了される。 First, the gaze range GZ of the viewer is acquired (step S11), and it is determined whether or not the related information image V1 is being gazed at (step S12). The adjustment process is terminated.

続いて、ステップS13では、ステップS12で注視されていると判定された関連情報画像V1が、第1視認性調整処理中であるかが判定される。換言すると、ステップS8で第1視認性調整処理の条件が満たされているかが判定される。ステップS13でYESの場合、関連情報画像V1の現在の視認性が取得され(ステップS14)、この現在の視認性を基準として予め定められた値だけ視認性が上昇され(ステップS15)、その後、視認性が低下され(ステップS16)、第2視認性調整処理が終了され、再び、第1視認性調整処理からルーチンを開始する。ステップS13でNOの場合、関連情報画像V1の通常の視認性を基準として予め定められた値だけ視認性が上昇され(ステップS15)、その後、視認性が低下され(ステップS16)、第2視認性調整処理が終了され、再び、第1視認性調整処理からルーチンを開始する。ステップS13からステップS16までの処理を第2視認性調整処理と呼ぶ。すなわち、視認者が関連情報画像V1を視認すると、視認性が徐々に低下する第1視認性調整処理が中断され、視認性が上昇するため、視認している関連情報画像V1が徐々に視認しづらくなる状況を避けることができ、関連情報画像V1を認識しやすくすることができる。 Subsequently, in step S13, it is determined whether or not the related information image V1 determined to be watched in step S12 is undergoing the first visibility adjustment process. In other words, it is determined in step S8 whether the conditions for the first visibility adjustment process are satisfied. If YES in step S13, the current visibility of the related information image V1 is acquired (step S14), the visibility is increased by a predetermined value based on the current visibility (step S15), and then The visibility is lowered (step S16), the second visibility adjustment process is terminated, and the routine starts again from the first visibility adjustment process. In the case of NO in step S13, the visibility is increased by a predetermined value based on the normal visibility of the related information image V1 (step S15), then the visibility is decreased (step S16), and the visibility is reduced (step S16). The property adjustment process is terminated, and the routine starts again from the first visibility adjustment process. The processing from step S13 to step S16 is called second visibility adjustment processing. That is, when the viewer views the related information image V1, the first visibility adjustment process in which the visibility gradually decreases is interrupted, and the visibility increases. Difficult situations can be avoided, and the related information image V1 can be easily recognized.

次に、図5、図6を参照して、第1視認性調整処理と第2視認性調整処理について説明する。図5は、視認者が前方を向いた際に被投影部2(車両のフロントウインドシールド)を介して視認される、前景200と、本実施形態における第1視認性調整処理が実行された際の虚像Vとを示す図である。 Next, the first visibility adjustment process and the second visibility adjustment process will be described with reference to FIGS. 5 and 6. FIG. FIG. 5 shows a foreground 200 that is visually recognized through the projection target 2 (the front windshield of the vehicle) when the viewer faces forward, and the foreground 200 when the first visibility adjustment process in the present embodiment is executed. It is a figure which shows the virtual image V of .

図5(a)では、実オブジェクト300が遠方に位置する(予め定められた距離Dmより離れている)ため、図3のステップS7でNOとなり、ステップS8の第1視認性調整処理が実行されていない関連情報画像V1と、実オブジェクト300の近傍に矩形の強調画像V2とが表示されている。この際の関連情報画像V1の視認性は、後述する初期値Lm(図7参照)である。 In FIG. 5A, since the real object 300 is located far away (more than the predetermined distance Dm), the result of step S7 in FIG. 3 is NO, and the first visibility adjustment process is executed in step S8. A related information image V1 that is not displayed and a rectangular emphasized image V2 near the real object 300 are displayed. The visibility of the related information image V1 at this time is an initial value Lm (see FIG. 7), which will be described later.

図5(b)では、車両の走行に伴い、実オブジェクト300が接近した(予め定められた距離Dmより近づいた)ため、図3のステップS7でYESとなり、ステップS8の第1視認性調整処理が実行された関連情報画像V1と、実オブジェクト300の近傍に矩形の強調画像V2とが表示されている。この際の関連情報画像V1の視認性は、初期値Lmより低くなるように設定される。 In FIG. 5B, as the vehicle travels, the real object 300 approaches (closer than the predetermined distance Dm), so YES is determined in step S7 of FIG. , and a rectangular emphasized image V2 near the real object 300 are displayed. The visibility of the related information image V1 at this time is set to be lower than the initial value Lm.

図5(c)では、実オブジェクト300が近傍に位置する(予め定められた距離Dsより近づいた)ため、関連情報画像V1は、ステップS8の第1視認性調整処理が実行されて視認性がゼロ(非表示)となり、実オブジェクト300が視認者から見て表示領域11外になったため、強調画像V2の視認性がゼロ(非表示)とされている。すなわち、図5に示す第1視認性調整処理の例では、実オブジェクト300の接近に従い、関連情報画像V1の視認性を低下させている。なお、図5の例では、強調画像V2の視認性も、実オブジェクト300の距離が短くなるにつれて(又は実オブジェクト300が表示領域11の外縁に近づくにつれて)、低下させているが、これに限定されない。 In FIG. 5C, since the real object 300 is located nearby (closer than the predetermined distance Ds), the related information image V1 is subjected to the first visibility adjustment process in step S8, and the visibility is reduced. The visibility of the enhanced image V2 is zero (not displayed) because the real object 300 is outside the display area 11 as seen from the viewer. That is, in the example of the first visibility adjustment process shown in FIG. 5, the visibility of the related information image V1 is lowered as the real object 300 approaches. In the example of FIG. 5, the visibility of the enhanced image V2 is also lowered as the distance to the real object 300 becomes shorter (or as the real object 300 approaches the outer edge of the display area 11), but this is not the only option. not.

図6は、視認者が前方を向いた際に被投影部(車両のウインドシールド)2を介して視認される、前景200と、本実施形態における第2視認性調整処理が実行された際の虚像Vとを示す図である。 FIG. 6 shows a foreground 200 that is visually recognized through the projection target portion (the windshield of the vehicle) 2 when the viewer faces forward, and a view of the foreground 200 when the second visibility adjustment process in this embodiment is executed. 3 is a diagram showing a virtual image V; FIG.

図6(a)、図6(b)では、実オブジェクト300が遠方に位置する(予め定められた距離Dmより離れている)ため、図3のステップS7でNOとなり、ステップS8の第1視認性調整処理が実行されていない関連情報画像V1と、実オブジェクト300の近傍に矩形の強調画像V2とが表示されている。図6(b)では、関連情報画像V1が視認者に視認された(注視範囲GZ内に関連情報画像V1が含まれる)ため、図4のステップS12でYESとなり、ステップS15の視認性の上昇がなされた関連情報画像V1と、実オブジェクト300の近傍に矩形の強調画像V2とが表示されている。この際の関連情報画像V1の視認性は、関連情報画像V1が第1視認性調整処理中であれば、その視認性を基準として予め定められた値だけ上昇して設定され、関連情報画像V1が第1視認性調整処理中でなければ、通常の視認性(初期値Lm)を基準として予め定められた値だけ上昇して設定される。図6(c)では、図4のステップS16の視認性低下が実行された関連情報画像V1と、実オブジェクト300の近傍に矩形の強調画像V2とが表示されている。すなわち、図6に示す第2視認性調整処理の例では、関連情報画像V1は、関連情報画像V1が視認されると強調表示され、その後、視認性が低下される。 In FIGS. 6A and 6B, since the real object 300 is located far away (farther than the predetermined distance Dm), the result in step S7 in FIG. 3 is NO, and the first visual recognition in step S8 A related information image V1 on which sex adjustment processing has not been performed and a rectangular emphasized image V2 near the real object 300 are displayed. In FIG. 6B, since the related information image V1 is visually recognized by the viewer (the related information image V1 is included in the gaze range GZ), YES is obtained in step S12 of FIG. 4, and visibility is increased in step S15. and a rectangular emphasized image V2 near the real object 300 are displayed. At this time, if the related information image V1 is undergoing the first visibility adjustment process, the visibility of the related information image V1 is set to be increased by a predetermined value based on the visibility. is not during the first visibility adjustment process, it is set to be increased by a predetermined value based on normal visibility (initial value Lm). In FIG. 6(c), the related information image V1 for which visibility reduction in step S16 of FIG. That is, in the example of the second visibility adjustment process shown in FIG. 6, the related information image V1 is highlighted when the related information image V1 is visually recognized, and then the visibility is lowered.

図7は、本実施形態の第1視認性調整処理における実オブジェクト300までの距離と関連情報画像V1の視認性との関係を示す特性図である。実オブジェクト300までの距離が、予め定められた所定の第1距離閾値Dm以上であれば、図3のステップS7でNOとなり、関連情報画像V1を初期の視認性Lmに維持し、第1距離閾値Dm未満であれば、図3のステップS7でYESとなり、ステップS8に移行し、距離が短くなるにつれて、徐々に視認性を低下させ、第2距離閾値Ds未満では、視認性をゼロ(非表示)とする(第1視認性調整処理が実行される)。第1距離閾値Dmと第2距離閾値Dsとの間の距離と視認性との関係は、図7の例では線形としてあるが、非線形であってもよく、距離に応じて視認性を段階的に変化させてもよい。 FIG. 7 is a characteristic diagram showing the relationship between the distance to the real object 300 and the visibility of the related information image V1 in the first visibility adjustment process of this embodiment. If the distance to the real object 300 is equal to or greater than the predetermined first distance threshold value Dm, the determination in step S7 in FIG. If the distance is less than the threshold value Dm, the result is YES in step S7 of FIG. 3, and the process proceeds to step S8. display) (the first visibility adjustment process is executed). The relationship between the distance and the visibility between the first distance threshold Dm and the second distance threshold Ds is linear in the example of FIG. may be changed to

図8は、第2視認性調整処理による関連情報画像V1の視認性の変化を示すタイムチャートであり、図8Aは、上記の第1視認性調整処理が開始される前の図7の距離D1の時(時間t10)に視認者が関連情報画像V1を注視した場合の第2視認性調整処理による関連情報画像V1の視認性のタイムチャートであり、図8Bは、上記の第1視認性調整処理が開始される後の図7の距離D2の時(時間t20)に視認者が関連情報画像V1を注視した場合の第2視認性調整処理による関連情報画像V1の視認性のタイムチャートである。 FIG. 8 is a time chart showing changes in the visibility of the related information image V1 due to the second visibility adjustment process, and FIG. 8A shows the distance D1 in FIG. FIG. 8B is a time chart of the visibility of the related information image V1 by the second visibility adjustment process when the viewer gazes at the related information image V1 at the time (time t10), and FIG. 8 is a time chart of the visibility of the related information image V1 by the second visibility adjustment process when the viewer gazes at the related information image V1 at the distance D2 in FIG. 7 (time t20) after the process is started; .

図8Aに示す実施形態では、関連情報画像V1が注視されると、その時の視認性(初期の視認性Lm)を基準として、一定の第1の期間Ta(例えば、1秒)をかけて徐々に予め定められた一定の値だけ視認性を上昇させ、その後、車両が一定の第1走行距離Laを走行するまで視認性を一定に維持し、その後、車両がさらに第2走行距離Lbを走行するまでに視認性が0(ゼロ)になるように視認性を徐々に低下させる。徐々に関連情報画像V1の視認性を上昇させることで、視認性を上昇させた関連情報画像V1に、視認者の視覚的注意を維持又は再び向けやすくさせることができる。 In the embodiment shown in FIG. 8A, when the related information image V1 is gazed at, the visibility (initial visibility Lm) at that time is used as a reference, and the visibility gradually increases over a certain first period Ta (for example, 1 second). , the visibility is maintained constant until the vehicle travels a certain first travel distance La, and then the vehicle travels a second travel distance Lb. The visibility is gradually reduced until the visibility becomes 0 (zero). By gradually increasing the visibility of the related information image V1, the viewer's visual attention can be maintained or easily redirected to the related information image V1 whose visibility has been increased.

図8Bに示す実施形態では、関連情報画像V1が注視されると、その時の視認性(図7に示す第1表示調整処理によって距離D2に対応して調整された視認性L2)を基準として、一定の第1の期間Taをかけて徐々に予め定められた一定の値だけ視認性を上昇させ、その後、車両が一定の第1走行距離Laを走行するまで視認性を一定に維持し、その後、車両がさらに第3走行距離Lcを走行するまでに視認性が0(ゼロ)になるように視認性を徐々に低下させる。なお、走行距離の増加に対する視認性の低下率は、第2視認性調整処理が実行される際の視認性(図8Aでは、時間t10におけるLm、図8Bでは、時間t20におけるL2(<Lm))によらず、一定であることが好ましいが、これに限定されず、例えば、第2視認性調整処理が実行される際の視認性が低い程、前記低下率を急にしてもよい(単位走行距離あたりの視認性が低下する割合を大きくしてもよい)。 In the embodiment shown in FIG. 8B, when the related information image V1 is gazed at, the visibility at that time (visibility L2 adjusted corresponding to the distance D2 by the first display adjustment process shown in FIG. 7) is used as a reference, The visibility is gradually increased by a predetermined constant value over a constant first period Ta, and then the visibility is maintained constant until the vehicle travels a constant first travel distance La, and then , the visibility is gradually lowered to 0 (zero) until the vehicle further travels the third traveling distance Lc. Note that the rate of decrease in visibility with respect to an increase in travel distance is the visibility when the second visibility adjustment process is executed (Lm at time t10 in FIG. 8A, L2 (<Lm) at time t20 in FIG. 8B ), but is not limited to this. For example, the lower the visibility when the second visibility adjustment process is performed, the steeper the decrease rate may be (unit The rate at which the visibility decreases per mileage may be increased).

図9は、第2視認性調整処理による関連情報画像V1の視認性の変化を示すタイムチャートであり、図9Aは、上記の第1視認性調整処理が開始される前の図7の距離D1の時(時間t30)に視認者が関連情報画像V1を注視した場合の第2視認性調整処理による関連情報画像V1の視認性のタイムチャートであり、図9Bは、上記の第1視認性調整処理が開始される後の図7の距離D2の時(時間t40)に視認者が関連情報画像V1を注視した場合の第2視認性調整処理による関連情報画像V1の視認性のタイムチャートである。 FIG. 9 is a time chart showing changes in the visibility of the related information image V1 due to the second visibility adjustment process, and FIG. 9A shows the distance D1 in FIG. FIG. 9B is a time chart of the visibility of the related information image V1 by the second visibility adjustment process when the viewer gazes at the related information image V1 at the time (time t30), and FIG. 8 is a time chart of the visibility of the related information image V1 by the second visibility adjustment process when the viewer gazes at the related information image V1 at the time of the distance D2 in FIG. 7 (time t40) after the process is started; .

図9Aに示す実施形態では、関連情報画像V1が注視されると、その時の視認性(初期の視認性Lm)を基準として、一定の第1の期間Taをかけて徐々に予め定められた一定の値だけ視認性を上昇させ、その後、一定の第2の期間Tbが経過するまで視認性を一定に維持し、その後、第3の期間Tcが経過するまでに視認性が0(ゼロ)になるように視認性を徐々に低下させる。 In the embodiment shown in FIG. 9A, when the related information image V1 is gazed at, the visibility (initial visibility Lm) at that time is used as a reference, and the predetermined constant is gradually applied over a constant first period Ta. The visibility is increased by the value of , and then the visibility is kept constant until a certain second period Tb elapses, and then the visibility becomes 0 (zero) by the time the third period Tc elapses Gradually decrease the visibility so that

図9Bに示す実施形態では、関連情報画像V1が注視されると、その時の視認性(図7に示す第1表示調整処理によって距離D2に対応して調整された視認性L2)を基準として、一定の第1の期間Taをかけて徐々に予め定められた一定の値だけ視認性を上昇させ、その後、一定の第2の期間Tbが経過するまで視認性を一定に維持し、その後、第4の期間Td(<Tc)が経過するまでに視認性が0(ゼロ)になるように視認性を徐々に低下させる。なお、時間経過に対する視認性の低下率は、第2視認性調整処理が実行される際の視認性(図9Aでは、時間t30におけるLm、図9Bでは、時間t40におけるL2(<Lm))によらず、一定であることが好ましいが、これに限定されず、例えば、第2視認性調整処理が実行される際の視認性が低い程、前記低下率を急にしてもよい(単位時間あたりの視認性が低下する割合を大きくしてもよい)。なお、第2視認性調整処理において、一定の第1の期間Taをかけて、第1表示調整処理で調整された視認性から一定の値だけ視認性を上昇させるのではなく、特定の視認性(例えば、通常の視認性Lm)まで上昇させてもよい。 In the embodiment shown in FIG. 9B, when the related information image V1 is gazed at, the visibility at that time (visibility L2 adjusted corresponding to the distance D2 by the first display adjustment process shown in FIG. 7) is used as a reference, The visibility is gradually increased by a predetermined constant value over a constant first period Ta, then the visibility is maintained constant until a constant second period Tb elapses, and then the second constant period Tb elapses. The visibility is gradually lowered so that the visibility becomes 0 (zero) before the period Td (<Tc) of 4 elapses. Note that the rate of decrease in visibility over time is the visibility when the second visibility adjustment process is performed (Lm at time t30 in FIG. 9A and L2 (<Lm) at time t40 in FIG. 9B). However, it is not limited to this, and for example, the lower the visibility when the second visibility adjustment process is executed, the steeper the decrease rate may be (per unit time (You may increase the rate at which the visibility of is reduced). Note that, in the second visibility adjustment process, rather than increasing the visibility by a certain value from the visibility adjusted in the first display adjustment process over a certain first period Ta, a specific visibility (eg, normal visibility Lm).

1…HUD装置(ヘッドアップディスプレイ装置)、2…ウインドシールド、10…画像表示部、10a…リレー光学部、11…表示領域、12…上端部、13…下端部、20…表示制御装置、30…識別情報取得部、31…実オブジェクト識別部、32…位置情報取得部、33…実オブジェクト位置検出部、34…距離情報取得部、35…実オブジェクト距離検出部、40…注視位置取得部、41…視線検出部、50…車両状態取得部、51…位置検出部、52…方角検出部、53…姿勢検出部、60…第2のインターフェース、70…表示処理部、71…記憶部、72…報知要否判定部、73…第1視認性調整部、74…第2視認性調整部、80…画像生成部、200…前景、300…実オブジェクト、500…クラウドサーバー、600…車両ECU、700…ナビゲーションシステム、GZ…注視範囲、V…虚像、V1…関連情報画像、V2…強調画像 REFERENCE SIGNS LIST 1 HUD device (head-up display device) 2 windshield 10 image display unit 10a relay optical unit 11 display area 12 upper end 13 lower end 20 display control device 30 ... identification information acquisition section, 31 ... real object identification section, 32 ... position information acquisition section, 33 ... real object position detection section, 34 ... distance information acquisition section, 35 ... real object distance detection section, 40 ... gaze position acquisition section, 41 line-of-sight detection unit 50 vehicle state acquisition unit 51 position detection unit 52 direction detection unit 53 attitude detection unit 60 second interface 70 display processing unit 71 storage unit 72 ... notification necessity determination unit, 73 ... first visibility adjustment unit, 74 ... second visibility adjustment unit, 80 ... image generation unit, 200 ... foreground, 300 ... real object, 500 ... cloud server, 600 ... vehicle ECU, 700... Navigation system, GZ... Gaze range, V... Virtual image, V1... Related information image, V2... Emphasized image

Claims (5)

車両に搭載され、前記車両の前景に重なる表示領域に、前記前景に存在する実オブジェクトの関連情報画像を生成する画像生成部を備える表示制御装置であって、
1つ又はそれ以上のプロセッサと、
メモリと、
前記メモリに格納され、前記1つ又はそれ以上のプロセッサによって実行されるように構成される1つ又はそれ以上の命令と、を備え、
前記1つ又はそれ以上のプロセッサは、
前記実オブジェクトの位置を取得し、
前記実オブジェクトまでの距離が短くなるにつれて、又は前記実オブジェクトが前記表示領域の外縁に近づくにつれて、徐々に前記関連情報画像の視認性を低下させ、
視認者の注視範囲を取得し、
前記関連情報画像が注視されたと判定された場合、所定の期間をかけて前記関連情報画像の視認性を徐々に上昇させた後、前記車両の走行距離、又は経過時間に基づき、徐々に低下させる、命令を実行する、
表示制御装置。
A display control device that is mounted on a vehicle and includes an image generation unit that generates a related information image of a real object existing in the foreground in a display area that overlaps the foreground of the vehicle,
one or more processors;
memory;
one or more instructions stored in the memory and configured to be executed by the one or more processors;
The one or more processors are
obtaining the position of the real object;
gradually reducing the visibility of the related information image as the distance to the real object becomes shorter or as the real object approaches the outer edge of the display area;
Get the gaze range of the viewer,
When it is determined that the related information image has been watched, the visibility of the related information image is gradually increased over a predetermined period of time, and then gradually decreased based on the distance traveled by the vehicle or the elapsed time. , execute the instruction,
Display controller.
車両に搭載され、前記車両の前景に重なる表示領域に、前記前景に存在する実オブジェクトの関連情報画像を生成する画像生成部を備える表示制御装置であって、
1つ又はそれ以上のプロセッサと、
メモリと、
前記メモリに格納され、前記1つ又はそれ以上のプロセッサによって実行されるように構成される1つ又はそれ以上の命令と、を備え、
前記1つ又はそれ以上のプロセッサは、
前記実オブジェクトの位置を取得し、
前記実オブジェクトまでの距離が短くなるにつれて、又は前記実オブジェクトが前記表示領域の外縁に近づくにつれて、徐々に前記関連情報画像の視認性を低下させ、
視認者の注視範囲を取得し、
前記関連情報画像が注視されたと判定された場合、前記関連情報画像の視認性を、上昇させた後、前記車両の走行距離、又は経過時間に基づき、徐々に低下させ
前記関連情報画像が注視されたと判定され、前記関連情報画像が通常の視認性より低下させられていた場合、所定の期間をかけて前記関連情報画像の視認性を前記通常の視認性まで徐々に上昇させる、命令を実行する、
表示制御装置。
A display control device that is mounted on a vehicle and includes an image generation unit that generates a related information image of a real object existing in the foreground in a display area that overlaps the foreground of the vehicle,
one or more processors;
memory;
one or more instructions stored in the memory and configured to be executed by the one or more processors;
The one or more processors are
obtaining the position of the real object;
gradually reducing the visibility of the related information image as the distance to the real object becomes shorter or as the real object approaches the outer edge of the display area;
Get the gaze range of the viewer,
when it is determined that the related information image has been watched, the visibility of the related information image is increased, and then gradually decreased based on the travel distance of the vehicle or the elapsed time ;
When it is determined that the related information image has been gazed at and the visibility of the related information image has been lowered from normal visibility, the visibility of the related information image is gradually increased to the normal visibility over a predetermined period of time. raise , carry out orders,
Display controller.
車両に搭載され、前記車両の前景に重なる表示領域に、前記前景に存在する実オブジェクトの関連情報画像を生成する画像生成部を備える表示制御装置であって、
1つ又はそれ以上のプロセッサと、
メモリと、
前記メモリに格納され、前記1つ又はそれ以上のプロセッサによって実行されるように構成される1つ又はそれ以上の命令と、を備え、
前記1つ又はそれ以上のプロセッサは、
前記実オブジェクトの位置を取得し、
前記実オブジェクトまでの距離が短くなるにつれて、又は前記実オブジェクトが前記表示領域の外縁に近づくにつれて、徐々に前記関連情報画像の視認性を低下させ、
視認者の注視範囲を取得し、
前記関連情報画像が注視されたと判定された場合、前記関連情報画像の視認性を、上昇させた後、前記車両の走行距離、又は経過時間に基づき、徐々に低下させ
前記走行距離、又は前記経過時間に基づく視認性の低下率を、前記関連情報画像が注視されたと判定された際の前記関連情報画像の視認性によらず、一定とする、命令を実行する、
表示制御装置。
A display control device that is mounted on a vehicle and includes an image generation unit that generates a related information image of a real object existing in the foreground in a display area that overlaps the foreground of the vehicle,
one or more processors;
memory;
one or more instructions stored in the memory and configured to be executed by the one or more processors;
The one or more processors are
obtaining the position of the real object;
gradually reducing the visibility of the related information image as the distance to the real object becomes shorter or as the real object approaches the outer edge of the display area;
Get the gaze range of the viewer,
when it is determined that the related information image has been watched, the visibility of the related information image is increased, and then gradually decreased based on the travel distance of the vehicle or the elapsed time ;
Execute a command to keep the rate of decrease in visibility based on the distance traveled or the elapsed time constant regardless of the visibility of the related information image when it is determined that the related information image has been watched. ,
Display controller.
車両に搭載され、前記車両の前景に重なる表示領域に、前記前景に存在する実オブジェクトの関連情報画像を生成する画像生成部を備える表示制御装置であって、
1つ又はそれ以上のプロセッサと、
メモリと、
前記メモリに格納され、前記1つ又はそれ以上のプロセッサによって実行されるように構成される1つ又はそれ以上の命令と、を備え、
前記1つ又はそれ以上のプロセッサは、
前記実オブジェクトの位置を取得し、
前記実オブジェクトまでの距離が短くなるにつれて、又は前記実オブジェクトが前記表示領域の外縁に近づくにつれて、徐々に前記関連情報画像の視認性を低下させ、
視認者の注視範囲を取得し、
前記関連情報画像が注視されたと判定された場合、前記関連情報画像の視認性を、上昇させた後、前記車両の走行距離、又は経過時間に基づき、徐々に低下させ
前記1つ又はそれ以上のプロセッサは、
前記実オブジェクトに重なる位置、又は近傍に、前記実オブジェクトを強調する強調画像をさらに表示させ、
前記実オブジェクトまでの距離が短くなるにつれて、又は前記実オブジェクトが前記表示領域の外縁に近づくにつれて、徐々に前記強調画像の視認性を低下させ、
前記強調画像が注視されたと判定された場合でも、前記強調画像の視認性を調整しない、命令を実行する、
表示制御装置。
A display control device that is mounted on a vehicle and includes an image generation unit that generates a related information image of a real object existing in the foreground in a display area that overlaps the foreground of the vehicle,
one or more processors;
memory;
one or more instructions stored in the memory and configured to be executed by the one or more processors;
The one or more processors are
obtaining the position of the real object;
gradually reducing the visibility of the related information image as the distance to the real object becomes shorter or as the real object approaches the outer edge of the display area;
Get the gaze range of the viewer,
when it is determined that the related information image has been watched, the visibility of the related information image is increased, and then gradually decreased based on the travel distance of the vehicle or the elapsed time ;
The one or more processors are
further displaying an enhanced image that emphasizes the real object at a position overlapping the real object or in the vicinity of the real object;
Gradually reducing the visibility of the enhanced image as the distance to the real object becomes shorter or as the real object approaches the outer edge of the display area;
executing an instruction not to adjust the visibility of the enhanced image even if it is determined that the enhanced image has been gazed upon ;
Display controller.
請求項1乃至のいずれかに記載の表示制御装置と、
前記表示制御装置の制御に基づき前記関連情報画像のもととなる画像を表示する画像表示部と、
前記画像表示部が表示した前記画像を被投影部に向けて投影することで、前記画像の虚像を視認させるリレー光学部と、を備える、ヘッドアップディスプレイ装置。
A display control device according to any one of claims 1 to 4 ;
an image display unit that displays an image that is the source of the related information image under the control of the display control device;
A head-up display device, comprising: a relay optical unit for visually recognizing a virtual image of the image by projecting the image displayed by the image display unit toward a projection target unit.
JP2020532369A 2018-07-24 2019-07-22 Display control device, head-up display device Active JP7255596B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018138641 2018-07-24
JP2018138641 2018-07-24
PCT/JP2019/028579 WO2020022239A1 (en) 2018-07-24 2019-07-22 Display control device and head-up display device

Publications (2)

Publication Number Publication Date
JPWO2020022239A1 JPWO2020022239A1 (en) 2021-08-05
JP7255596B2 true JP7255596B2 (en) 2023-04-11

Family

ID=69181514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020532369A Active JP7255596B2 (en) 2018-07-24 2019-07-22 Display control device, head-up display device

Country Status (2)

Country Link
JP (1) JP7255596B2 (en)
WO (1) WO2020022239A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004265A (en) 2015-06-10 2017-01-05 トヨタ自動車株式会社 Display device
JP2017039373A (en) 2015-08-19 2017-02-23 トヨタ自動車株式会社 Vehicle video display system
WO2017046937A1 (en) 2015-09-18 2017-03-23 日産自動車株式会社 Display apparatus for vehicle and display method for vehicle
JP2017138350A (en) 2016-02-01 2017-08-10 アルプス電気株式会社 Image display device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194503A (en) * 2013-03-29 2014-10-09 Funai Electric Co Ltd Head-up display device
JP5983547B2 (en) * 2013-07-02 2016-08-31 株式会社デンソー Head-up display and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004265A (en) 2015-06-10 2017-01-05 トヨタ自動車株式会社 Display device
JP2017039373A (en) 2015-08-19 2017-02-23 トヨタ自動車株式会社 Vehicle video display system
WO2017046937A1 (en) 2015-09-18 2017-03-23 日産自動車株式会社 Display apparatus for vehicle and display method for vehicle
JP2017138350A (en) 2016-02-01 2017-08-10 アルプス電気株式会社 Image display device

Also Published As

Publication number Publication date
JPWO2020022239A1 (en) 2021-08-05
WO2020022239A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP5866553B2 (en) Display control device, projection device, and display control program
JP6094399B2 (en) Head-up display and program
US11250816B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
JP2017215816A (en) Information display device, information display system, information display method, and program
JP6075248B2 (en) Information display device
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
WO2020105685A1 (en) Display control device, method, and computer program
JP4277678B2 (en) Vehicle driving support device
JP7402083B2 (en) Display method, display device and display system
JP2019202589A (en) Display device
JP6328366B2 (en) Display control apparatus and display control method for head-up display
JPWO2017029740A1 (en) Display control device, display device, and display control method
JP7255596B2 (en) Display control device, head-up display device
JP2010009491A (en) Driving assist system, driving assist method, and driving assist program
JP2019121140A (en) Display control device and head-up display device
JP6988368B2 (en) Head-up display device
JP7338632B2 (en) Display device
JP2019207632A (en) Display device
JP2019064422A (en) Head-up display device
WO2021200913A1 (en) Display control device, image display device, and method
JP2019148935A (en) Display control device and head-up display device
JP7434894B2 (en) Vehicle display device
JP7429875B2 (en) Display control device, display device, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7255596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150