JP7172730B2 - Vehicle display control device, vehicle display control method, vehicle display control program - Google Patents

Vehicle display control device, vehicle display control method, vehicle display control program Download PDF

Info

Publication number
JP7172730B2
JP7172730B2 JP2019034296A JP2019034296A JP7172730B2 JP 7172730 B2 JP7172730 B2 JP 7172730B2 JP 2019034296 A JP2019034296 A JP 2019034296A JP 2019034296 A JP2019034296 A JP 2019034296A JP 7172730 B2 JP7172730 B2 JP 7172730B2
Authority
JP
Japan
Prior art keywords
vehicle
driver
driving support
related information
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019034296A
Other languages
Japanese (ja)
Other versions
JP2020138610A (en
Inventor
猛 羽藤
一輝 小島
孝光 鈴木
貴志 市田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019034296A priority Critical patent/JP7172730B2/en
Publication of JP2020138610A publication Critical patent/JP2020138610A/en
Application granted granted Critical
Publication of JP7172730B2 publication Critical patent/JP7172730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)

Description

本開示は、車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムに関する。 The present disclosure relates to a vehicle display control device, a vehicle display control method, and a vehicle display control program.

従来より、例えば車両のウインドシールドなどの投影部に、車両の経路案内に関連する情報を表す虚像コンテンツを投影するヘッドアップディスプレイが知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, there has been known a head-up display that projects virtual image content representing information related to route guidance of a vehicle onto a projection unit such as a windshield of the vehicle (see, for example, Patent Literature 1).

国際公開第2015/118859号WO2015/118859

この種のヘッドアップディスプレイの技術によれば、ドライバは、投影される虚像コンテンツが表す情報に基づき運転を行うことができ、ドライバによる運転を支援することができる。しかしながら、例えば車両を右折あるいは左折させる場合、車両をレーンチェンジさせる場合などにおいては、虚像コンテンツが投影されることで、ドライバの目線を、例えば車両の進行方向前方などの見るべき箇所ではなく、虚像コンテンツの投影部内に不要に誘導してしまうおそれがある。 According to this type of head-up display technology, the driver can drive based on the information represented by the projected virtual image content, and can assist the driver in driving. However, when the vehicle is turned right or left, or when the vehicle is changed lanes, for example, the virtual image content is projected so that the driver's line of sight is not the place to be seen, such as the front of the vehicle in the direction of travel, but the virtual image. There is a risk that the user may be unnecessarily guided into the projected portion of the content.

そこで、本開示は、ドライバの目線を虚像コンテンツの投影部内に不要に誘導してしまうことを抑制できるようにした車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムを提供する。 Therefore, the present disclosure provides a vehicular display control device, a vehicular display control method, and a vehicular display control program that can suppress unnecessary guidance of the driver's line of sight into the virtual image content projection unit.

本開示に係る車両用表示制御装置は、車両の走行支援に関連する走行支援関連情報を表す虚像コンテンツを投影部10に投影するヘッドアップディスプレイ230を制御する車両用表示制御装置20であって、前記投影部に投影されている前記虚像コンテンツが表す前記走行支援関連情報の意図がドライバによって認識されたか否かを判定する判定部53と、前記判定部が、前記走行支援関連情報の意図がドライバによって認識されたと判定すると、前記ドライバの目線を前記走行支援関連情報以外の情報に向けるように誘導する誘導部54と、を備える。 A vehicle display control device according to the present disclosure is a vehicle display control device 20 that controls a head-up display 230 that projects virtual image content representing driving support related information related to vehicle driving support on a projection unit 10, a determination unit 53 for determining whether or not the intention of the driving support related information represented by the virtual image content projected on the projection unit is recognized by the driver; and a guidance unit 54 that guides the driver's line of sight to information other than the driving support related information when it is determined that the information is recognized by the driver.

本開示に係る車両用表示制御方法は、車両の走行支援に関連する走行支援関連情報を表す虚像コンテンツを投影部10に投影するヘッドアップディスプレイ230を制御する車両用表示制御方法であって、前記投影部に投影されている前記虚像コンテンツが表す前記走行支援関連情報の意図がドライバによって認識されたか否かを判定する判定処理と、前記判定処理において、前記走行支援関連情報の意図がドライバによって認識されたと判定されると、前記ドライバの目線を前記走行支援関連情報以外の情報に向けるように誘導する誘導処理と、を含む。 A vehicle display control method according to the present disclosure is a vehicle display control method for controlling a head-up display 230 that projects virtual image content representing driving support related information related to vehicle driving support on a projection unit 10, a determination process for determining whether or not the intention of the driving support-related information represented by the virtual image content projected on the projection unit is recognized by the driver; and in the determination process, the intention of the driving support-related information is recognized by the driver. and guidance processing for guiding the driver's line of sight to information other than the driving support-related information when it is determined that the driving support related information is detected.

本開示に係る車両用表示制御プログラムは、コンピュータを、車両の走行支援に関連する走行支援関連情報を表す虚像コンテンツを投影部10に投影するヘッドアップディスプレイ230を制御する車両用表示制御装置20として機能させるための車両用表示制御プログラムであって、前記投影部に投影されている前記虚像コンテンツが表す前記走行支援関連情報の意図がドライバによって認識されたか否かを判定する判定処理と、前記判定処理において、前記走行支援関連情報の意図がドライバによって認識されたと判定されると、前記ドライバの目線を前記走行支援関連情報以外の情報に向けるように誘導する誘導処理と、を前記コンピュータに実行させる。 The vehicle display control program according to the present disclosure uses a computer as a vehicle display control device 20 that controls a head-up display 230 that projects virtual image content representing driving support-related information related to vehicle driving support on the projection unit 10. A display control program for a vehicle for functioning, comprising: determination processing for determining whether or not a driver recognizes an intention of the driving support-related information represented by the virtual image content projected on the projection unit; In the processing, when it is determined that the intention of the driving support related information is recognized by the driver, the computer is caused to execute guidance processing for guiding the driver's line of sight to information other than the driving support related information. .

本開示によれば、投影部に投影されている虚像コンテンツが表す走行支援関連情報の意図がドライバによって認識されたことに応じて、ドライバの目線を走行支援関連情報以外の情報に向けるように誘導することができ、これにより、ドライバの目線を虚像コンテンツの投影部内に不要に誘導してしまうことを抑制することができる。 According to the present disclosure, in response to the driver recognizing the intention of the driving support-related information represented by the virtual image content projected on the projection unit, the driver is guided to look at information other than the driving support-related information. As a result, it is possible to prevent the driver's line of sight from being unnecessarily guided into the projection section of the virtual image content.

本実施形態に係る車両用システムの構成例を概略的に示す図1 is a diagram schematically showing a configuration example of a vehicle system according to this embodiment; FIG. 本実施形態に係るヘッドアップディスプレイの車両への搭載例を概略的に示す図FIG. 2 is a diagram schematically showing an example of mounting a head-up display according to the present embodiment on a vehicle; 本実施形態に係る車両用表示制御装置の制御系の構成例を概略的に示す図FIG. 2 is a diagram schematically showing a configuration example of a control system of the vehicle display control device according to the present embodiment; 本実施形態に係る虚像コンテンツの投影例を概略的に示す図(その1)FIG. 1 is a diagram (part 1) schematically showing a projection example of virtual image content according to the present embodiment; 本実施形態に係る虚像コンテンツの投影例を概略的に示す図(その2)FIG. 2 is a diagram (part 2) schematically showing a projection example of virtual image content according to the present embodiment; 本実施形態に係る虚像コンテンツの投影例を概略的に示す図(その3)FIG. 3 is a diagram (part 3) schematically showing a projection example of virtual image content according to the present embodiment; 本実施形態に係る虚像コンテンツの投影例を概略的に示す図(その4)FIG. 4 is a diagram schematically showing a projection example of virtual image content according to the present embodiment (No. 4); 本実施形態に係る虚像コンテンツの投影例を概略的に示す図(その5)FIG. 5 is a diagram schematically showing a projection example of virtual image content according to the present embodiment (No. 5); 本実施形態に係る虚像コンテンツの投影例を概略的に示す図(その6)FIG. 6 is a diagram schematically showing a projection example of virtual image content according to the present embodiment (No. 6);

以下、本開示に係る一実施形態について図面を参照しながら説明する。図1に例示する車両用システム1は、例えば道路上を走行する車両などの移動体に用いられるものであり、HMIシステム2(HMI:Human Machine Interface)、ADASロケータ3(ADAS:Advanced Driver Assistance Systems)、周辺監視センサ4、車両制御ECU5(ECU:Electronic Control Unit)、運転支援ECU6(ECU:Electronic Control Unit)などを備えている。HMIシステム2、ADASロケータ3、周辺監視センサ4、車両制御ECU5、運転支援ECU6は、例えば、車両に搭載されている車内LAN(LAN:Local Area Network)にそれぞれ接続されている。 An embodiment according to the present disclosure will be described below with reference to the drawings. A vehicle system 1 illustrated in FIG. 1 is used for a mobile object such as a vehicle traveling on a road, and includes an HMI system 2 (HMI: Human Machine Interface), an ADAS locator 3 (ADAS: Advanced Driver Assistance Systems ), a surrounding monitoring sensor 4, a vehicle control ECU 5 (ECU: Electronic Control Unit), a driving support ECU 6 (ECU: Electronic Control Unit), and the like. The HMI system 2, the ADAS locator 3, the surroundings monitoring sensor 4, the vehicle control ECU 5, and the driving support ECU 6 are each connected to, for example, an in-vehicle LAN (LAN: Local Area Network) mounted on the vehicle.

ADASロケータ3は、GNSS受信機30(GNSS:Global Navigation Satellite System)、慣性センサ31、地図データベース32などを備えている。以下、地図データベース32を地図DB32と称する。GNSS受信機30は、複数の人工衛星から測位信号を受信する。慣性センサ31は、例えばジャイロセンサや加速度センサなどを備えている。ADASロケータ3は、GNSS受信機30により受信する測位信号と、慣性センサ31によるセンシング結果とを組み合わせることにより、車両用システム1が搭載されている自車両の車両位置を逐次測位する。そして、ADASロケータ3は、測位した車両位置を車内LANを介して出力する。この場合、車両位置は、緯度および経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。 The ADAS locator 3 includes a GNSS receiver 30 (GNSS: Global Navigation Satellite System), an inertial sensor 31, a map database 32, and the like. The map database 32 is hereinafter referred to as a map DB 32 . The GNSS receiver 30 receives positioning signals from multiple satellites. The inertial sensor 31 includes, for example, a gyro sensor and an acceleration sensor. The ADAS locator 3 combines the positioning signal received by the GNSS receiver 30 and the sensing result of the inertial sensor 31 to sequentially locate the vehicle position of the own vehicle on which the vehicle system 1 is mounted. Then, the ADAS locator 3 outputs the determined vehicle position via the in-vehicle LAN. In this case, the vehicle position is represented by a coordinate system consisting of latitude and longitude. In this coordinate system, for example, the X axis indicates longitude and the Y axis indicates latitude. It should be noted that positioning of the vehicle position can be performed, for example, on the basis of mileage information obtained based on the sensing results of a vehicle speed sensor mounted on the vehicle. configuration can be adopted.

地図DB32は、例えば不揮発性メモリーなどで構成されており、リンクデータ、ノードデータ、道路形状データなどの各種のデータを含む地図データを格納している。リンクデータは、地図上の道路を構成するリンクを特定するリンク識別データ、リンクの長さを示すリンク長データ、リンクの方位を示すリンク方位データ、リンクの走行に要する時間を示すリンク走行時間データ、リンクの始点および終点を構成するノードの座標を示すノード座標データ、道路の属性を示すリンク属性データなどの各種のデータを含む。ノードデータは、地図上に存在するノードを特定するノード識別データ、ノードの座標を示すノード座標データ、ノードの名称を示すノード名称データ、例えば交差点などのノードの種別を示すノード種別データ、ノードに接続するリンクを特定する接続リンクデータなどの各種のデータを含む。道路形状データは、地図上に存在する道路の形状を示すデータである。道路形状データには、道路の高度、道路の横断勾配、道路の縦断勾配などを示すデータが含まれている。 The map DB 32 is composed of, for example, a non-volatile memory or the like, and stores map data including various data such as link data, node data, and road shape data. The link data includes link identification data that identifies links that form roads on the map, link length data that indicates the length of the link, link orientation data that indicates the orientation of the link, and link traveling time data that indicates the time required for traveling the link. , node coordinate data indicating the coordinates of nodes forming the start point and end point of a link, and link attribute data indicating road attributes. The node data includes node identification data that identifies a node existing on the map, node coordinate data that indicates the coordinates of the node, node name data that indicates the name of the node, node type data that indicates the type of node such as an intersection, Contains various data such as connecting link data that identifies connecting links. The road shape data is data indicating the shape of roads existing on the map. The road shape data includes data indicating the altitude of the road, the cross slope of the road, the longitudinal slope of the road, and the like.

なお、地図データは、例えば車両に搭載されている通信モジュールなどを介して、自車両の外部から取得するようにしてもよい。また、地図データとして、道路形状の特徴点や地図上に存在する構造物の特徴点などの点群を含む三次元地図データを用いてもよい。また、三次元地図データを用いる場合、ADASロケータ3は、この三次元地図データや、点群を検出するLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)などによるセンシング結果などを用いて自車両の車両位置を特定する構成としてもよい。 Note that the map data may be acquired from outside the own vehicle, for example, via a communication module mounted on the vehicle. As the map data, three-dimensional map data including point groups such as feature points of road shapes and feature points of structures existing on the map may be used. In addition, when using three-dimensional map data, the ADAS locator 3 uses this three-dimensional map data and sensing results such as LIDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging) for detecting point groups. may be configured to identify the vehicle position.

周辺監視センサ4は、自車両の周辺環境を監視するセンサであり、この場合、自律的に動作する自律センサとして備えられている。周辺監視センサ4は、例えば、歩行者などの人間、人間以外の動物、自車両以外の車両などの自車両の周辺で移動する動的物標や、例えば、道路上に存在する落下物、道路の周辺に存在するガードレール、縁石、樹木などの自車両の周辺で静止している静的物標など、自車両の周辺に存在する対象物を検出する。また、周辺監視センサ4は、自車両の周辺の道路に設けられている走行区画線、一時停止線、横断歩道、例えば「止まれ」などと表記された指示標示などの路面標示を検出可能である。そして、周辺監視センサ4は、得られるセンシングデータを車内LANに逐次出力する。周辺監視センサ4は、例えば、自車両周辺の所定範囲を撮像する周辺監視カメラ、自車両周辺の所定範囲に探査波を出力するミリ波レーダ、ソナー、LIDARなどの探査波センサなどで構成される。 The surroundings monitoring sensor 4 is a sensor that monitors the surrounding environment of the own vehicle, and in this case, is provided as an autonomous sensor that operates autonomously. The surroundings monitoring sensor 4 detects, for example, a human such as a pedestrian, an animal other than a human, a dynamic target moving around the own vehicle such as a vehicle other than the own vehicle, a fallen object existing on a road, a road Detect objects existing around the vehicle, such as guardrails, curbs, trees, and other stationary objects around the vehicle. In addition, the perimeter monitoring sensor 4 can detect road markings such as lane markings, stop lines, pedestrian crossings, and instructional markings such as "stop" provided on the roads surrounding the vehicle. . Then, the periphery monitoring sensor 4 sequentially outputs the obtained sensing data to the in-vehicle LAN. The surroundings monitoring sensor 4 includes, for example, a surroundings monitoring camera that captures a predetermined range around the vehicle, a millimeter-wave radar, sonar, LIDAR, or other detection wave sensor that outputs search waves to a predetermined range around the vehicle. .

探査波センサは、対象物によって反射された反射波を受信することにより得られる受信信号に基づく走査結果を、センシングデータとして車内LANに逐次出力する。より詳細に説明すると、探査波センサは、探査波を送信してから、対象物で反射される反射波を受信するまでの時間に基づいて、探査波センサから対象物までの距離を測定する。また、探査波センサは、反射波を受信する際の角度に基づいて、探査波センサに対する対象物の方位を測定する。なお、方位は、例えば方位角で表すことができ、例えば自車両の正面方向を基準として時計回りを正の方位角、反時計回りを負の方位角として表すことができる。 The survey wave sensor sequentially outputs scanning results based on received signals obtained by receiving reflected waves reflected by an object to the in-vehicle LAN as sensing data. More specifically, the probe wave sensor measures the distance from the probe wave sensor to the object based on the time from when the probe wave is transmitted to when the reflected wave reflected by the object is received. Also, the probe wave sensor measures the azimuth of the object with respect to the probe wave sensor based on the angle at which the reflected wave is received. The azimuth can be represented, for example, by an azimuth angle. For example, with the front direction of the host vehicle as a reference, clockwise rotation can be expressed as a positive azimuth angle, and counterclockwise rotation can be expressed as a negative azimuth angle.

この場合、周辺監視センサ4は、少なくとも、自車両の前方の所定範囲を撮像範囲とする前方カメラ41と、自車両の前方の所定範囲を探査範囲とするミリ波レーダ42と、を備えた構成となっている。前方カメラ41は、例えば、自車両のルームミラーや、インストルメントパネルの上面などに設けるとよい。また、ミリ波レーダ42は、例えば、自車両のフロントグリルや、フロントバンパーなどに設けるとよい。ミリ波レーダ42は、ミリ波または準ミリ波を自車両の前方のセンシング範囲に走査しながら送信し、対象物によって反射された反射波を受信することで、ミリ波レーダ42に対する対象物までの距離および方位を測定する。前方カメラ41によるセンシング範囲およびミリ波レーダ42によるセンシング範囲は、一致させるようにしてもよいし、一致させないようにしてもよい。また、前方カメラ41によるセンシング範囲とミリ波レーダ42によるセンシング範囲は、少なくとも一部が重なっていてもよいし、重なっていなくてもよい。また、自車両の異なる箇所に、複数の周辺監視センサ4を備えるようにしてもよい。 In this case, the perimeter monitoring sensor 4 includes at least a front camera 41 whose imaging range is a predetermined range in front of the vehicle, and a millimeter wave radar 42 whose search range is a predetermined range in front of the vehicle. It has become. The front camera 41 may be provided, for example, on the rearview mirror of the vehicle or on the upper surface of the instrument panel. Also, the millimeter wave radar 42 may be provided, for example, on the front grill or the front bumper of the own vehicle. The millimeter wave radar 42 scans and transmits millimeter waves or quasi-millimeter waves to a sensing range in front of the vehicle, and receives reflected waves reflected by the object. Measure distance and bearing. The sensing range of the front camera 41 and the sensing range of the millimeter wave radar 42 may or may not match. Also, the sensing range of the front camera 41 and the sensing range of the millimeter wave radar 42 may or may not overlap at least partially. Also, a plurality of perimeter monitoring sensors 4 may be provided at different locations of the own vehicle.

車両制御ECU5は、例えば、自車両の加速および減速の制御、操舵の制御、制動の制御などを行うための電子制御ユニットである。車両制御ECU5は、自車両の加速および減速の制御を行うパワーユニット制御ECU、自車両の操舵の制御を行う操舵制御ECU、自車両の制動を制御するブレーキ制御ECUなどを含む。車両制御ECU5は、自車両に搭載されているアクセルポジションセンサ、ブレーキ踏力センサ、舵角センサ、車輪速センサなどの各種のセンサから出力される検出信号に基づき、例えば、電子制御スロットル、ブレーキアクチュエータ、EPSモータ(EPS:Electric Power Steering)などの各種の走行制御系のデバイスに制御信号を出力する。また、車両制御ECU5は、各種のセンサから得られる検出信号を車内LANに出力可能である。 The vehicle control ECU 5 is, for example, an electronic control unit for controlling acceleration and deceleration of the host vehicle, steering control, braking control, and the like. The vehicle control ECU 5 includes a power unit control ECU that controls acceleration and deceleration of the vehicle, a steering control ECU that controls steering of the vehicle, a brake control ECU that controls braking of the vehicle, and the like. The vehicle control ECU 5 is based on detection signals output from various sensors such as an accelerator position sensor, a brake depression force sensor, a steering angle sensor, and a wheel speed sensor mounted on the own vehicle. It outputs control signals to various driving control system devices such as an EPS motor (EPS: Electric Power Steering). Further, the vehicle control ECU 5 can output detection signals obtained from various sensors to the in-vehicle LAN.

運転支援ECU6は、例えば、車両制御ECU5と協働することにより、ドライバによる運転操作を支援する。運転支援ECU6による支援には、自車両の走行を自動で制御する自動運転機能も含まれる。運転支援ECU6は、ADASロケータ3から取得する自車両の車両位置、地図DB32に格納されている地図データ、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の走行環境を認識する。より詳細に説明すると、運転支援ECU6は、例えば、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の周辺に存在する物体の位置、形状、移動状態などを認識したり、自車両の周辺に存在する路面標示の位置、大きさ、内容などを認識したりすることが可能である。そして、運転支援ECU6は、このように認識される情報と、地図データや自車両の車両位置などの情報を組み合わせることにより、自車両の周辺の実際の走行環境を三次元で再現した仮想空間を生成することが可能である。 The driving assistance ECU 6, for example, cooperates with the vehicle control ECU 5 to assist the driver's driving operation. The support by the driving support ECU 6 also includes an automatic driving function that automatically controls the running of the own vehicle. The driving support ECU 6 recognizes the driving environment of the own vehicle based on the vehicle position of the own vehicle obtained from the ADAS locator 3, map data stored in the map DB 32, sensing data obtained from the periphery monitoring sensor 4, and the like. More specifically, the driving support ECU 6 recognizes the position, shape, movement state, etc. of objects existing in the vicinity of the own vehicle based on sensing data acquired from the surroundings monitoring sensor 4, for example. It is possible to recognize the position, size, content, etc. of the road markings existing around the road. Then, the driving support ECU 6 combines the information thus recognized with information such as map data and the vehicle position of the own vehicle to create a virtual space in which the actual driving environment around the own vehicle is reproduced in three dimensions. It is possible to generate

また、運転支援ECU6は、認識した走行環境に基づき、自動運転機能によって自車両を自動走行させるための走行計画を生成する。走行計画としては、長中期の走行計画や、短期の走行計画を生成することができる。短期の走行計画では、生成した自車両周辺の仮想空間を用いて、例えば、先行車との目標車間距離を維持するための加減速制御、車線追従や車線変更のための操舵制御、衝突回避のための制動制御などが決定される。長中期の走行計画では、自車両を目的地に到達させるための推奨経路や走行スケジュールなどが決定される。なお、運転支援ECU6は、短期の走行計画および長中期の走行計画のうち何れか一方、例えば、短期の走行計画のみを生成するようにしてもよい。 Further, the driving support ECU 6 generates a driving plan for automatically driving the own vehicle by the automatic driving function based on the recognized driving environment. As the travel plan, a long-term travel plan and a short-term travel plan can be generated. In the short-term driving plan, the generated virtual space around the vehicle is used to perform acceleration/deceleration control to maintain a target distance from the preceding vehicle, steering control for lane following and lane changes, and collision avoidance. braking control and the like for In the long- and medium-term travel plan, a recommended route and a travel schedule for the vehicle to reach its destination are determined. The driving support ECU 6 may generate either one of the short-term driving plan and the long-term driving plan, for example, only the short-term driving plan.

運転支援ECU6により実行される自動運転機能の一例としては、例えば、駆動力および制動力を調整することにより先行車との目標車間距離を維持するように自車両の走行速度を制御するACC機能(ACC:Adaptive Cruise Control)がある。また、自車両の前方のセンシング結果に基づき制動力を発生させることにより自車両を強制的に減速させるAEB機能(AEB:Autonomous Emergency Braking)がある。なお、ACC機能やAEB機能は、あくまでも一例であり、運転支援ECU6は、その他の機能を備える構成としてもよい。 An example of an automatic driving function executed by the driving support ECU 6 is an ACC function ( ACC: Adaptive Cruise Control). In addition, there is an AEB function (AEB: Autonomous Emergency Braking) that forcibly decelerates the vehicle by generating a braking force based on the result of sensing ahead of the vehicle. Note that the ACC function and the AEB function are merely examples, and the driving assistance ECU 6 may be configured to include other functions.

HMIシステム2は、HCU20(Human Machine Interface Control Unit)、操作デバイス21、DSM22(Driver Status Monitor)、表示装置23などを備えている。HMIシステム2は、自車両のユーザであるドライバによる入力操作を受け付けたり、自車両のドライバに向けて各種の情報を提示したりする。操作デバイス21は、自車両のドライバにより操作される各種のスイッチ類を含んでいる。操作デバイス21は、各種の設定などを行うために用いられる。具体的には、操作デバイス21は、自車両のステアリングのスポーク部に設けられているステアリングスイッチなどで構成されている。 The HMI system 2 includes an HCU 20 (Human Machine Interface Control Unit), an operation device 21, a DSM 22 (Driver Status Monitor), a display device 23, and the like. The HMI system 2 receives input operations by the driver, who is the user of the vehicle, and presents various types of information to the driver of the vehicle. The operating device 21 includes various switches operated by the driver of the host vehicle. The operation device 21 is used for making various settings. Specifically, the operation device 21 is configured by a steering switch or the like provided on the spoke portion of the steering wheel of the host vehicle.

DSM22は、例えば、近赤外光を発生する光源、近赤外光を検知する近赤外光カメラ、これらを制御する制御ユニットなどを含んでいる。DSM22は、例えば、ステアリングコラムカバーやインストルメントパネルの上面などにおいて、近赤外光カメラを自車両の運転席に指向させた状態で配置されている。DSM22は、近赤外光の光源から近赤外光が照射されたドライバの頭部を近赤外光カメラによって撮像する。そして、近赤外光カメラによる撮像画像は、図示しない制御ユニットによって画像解析される。この制御ユニットは、例えば、ドライバの目を撮像画像から抽出し、自車両の車室内に設定されている基準位置に対するドライバの目の位置を視点位置として検出する。なお、基準位置は、例えば、近赤外光カメラの設置位置を設定することができる。そして、DSM22は、検出したドライバの視点位置を表す情報をHCU20に出力する。また、制御ユニットは、近赤外光カメラによる撮像画像を画像解析することにより、ドライバの目線、つまり、ドライバの目がどの方向に向かっているのかを特定あるいは推測することが可能である。そして、DSM22は、特定あるいは推測されたドライバの目線の方向を表す目線情報をHCU20に出力する。 The DSM 22 includes, for example, a light source that generates near-infrared light, a near-infrared camera that detects near-infrared light, a control unit that controls these, and the like. The DSM 22 is arranged, for example, on the upper surface of the steering column cover or the instrument panel, with the near-infrared camera directed toward the driver's seat of the vehicle. The DSM 22 uses a near-infrared camera to capture an image of the driver's head irradiated with near-infrared light from a near-infrared light source. An image captured by the near-infrared camera is image-analyzed by a control unit (not shown). This control unit, for example, extracts the eyes of the driver from the captured image, and detects the positions of the eyes of the driver with respect to the reference positions set in the interior of the vehicle as the viewpoint positions. For the reference position, for example, the installation position of the near-infrared camera can be set. Then, the DSM 22 outputs to the HCU 20 information representing the detected viewpoint position of the driver. In addition, the control unit can identify or estimate the driver's line of sight, that is, the direction in which the driver's eyes are directed, by image analysis of the image captured by the near-infrared camera. Then, the DSM 22 outputs to the HCU 20 line-of-sight information representing the specified or presumed line-of-sight direction of the driver.

表示装置23は、ヘッドアップディスプレイ230(HUD:Head Up Display)として構成されている。以下、ヘッドアップディスプレイ230を、HUD230と称する。図2に例示するように、HUD230は、例えば、自車両のインストルメントパネル12に設けられている。HUD230は、例えば、液晶式または走査式などのプロジェクタ231により、HCU20から出力される画像データに基づく表示画像を形成する。表示画像としては、例えば、車両の経路案内に関連する情報を表す画像などである。 The display device 23 is configured as a head-up display 230 (HUD: Head Up Display). Hereinafter, the head-up display 230 is called HUD230. As illustrated in FIG. 2, the HUD 230 is provided, for example, on the instrument panel 12 of the host vehicle. The HUD 230 forms a display image based on image data output from the HCU 20 by a projector 231 such as a liquid crystal type or a scanning type, for example. The display image is, for example, an image representing information related to vehicle route guidance.

HUD230は、プロジェクタ231によって形成される表示画像を、例えば凹面鏡などを有する光学系232を介して、投影部の一例であるフロントウインドシールド10に投影する。フロントウインドシールド10には、投影領域Rが設けられており、プロジェクタ231によって形成される表示画像は、この投影領域R内に投影される。投影領域Rは、運転席の前方、特には、運転席に着座したドライバの前方に位置するように設けられている。 The HUD 230 projects a display image formed by the projector 231 onto the front windshield 10, which is an example of a projection unit, via an optical system 232 having, for example, a concave mirror. A projection area R is provided on the front windshield 10, and the display image formed by the projector 231 is projected within this projection area R. As shown in FIG. The projection area R is provided so as to be positioned in front of the driver's seat, particularly in front of the driver seated in the driver's seat.

フロントウインドシールド10に投影された表示画像の光束は、運転席に着座しているドライバによって知覚つまり視認される。また、フロントウインドシールド10は、例えば、透光性のガラス材などによって構成されており、自車両の前方に存在する風景つまり前景の光束も、運転席に着座しているドライバによって知覚つまり視認される。これにより、ドライバは、フロントウインドシールド10の前方にて結像される表示画像の虚像を、虚像コンテンツ100として前景の一部に重畳させた状態で視認可能となる。つまり、HUD230は、自車両の前景に虚像コンテンツ100を重畳表示することにより、いわゆるAR表示(AR:Augmented Reality)を実現する。虚像コンテンツ100は、少なくとも、自車両の走行支援に関連する情報、即ち、走行支援関連情報を視覚的に表すコンテンツである。走行支援関連情報としては、例えば、案内経路における自車両の進行方向などを示す経路案内関連情報、自車両を自動運転制御する場合における進路などを示す自動運転関連情報、自車両が走行するレーンを示すレーン情報、自車両の進行方向前方に存在するカーブを通知するカーブ通知情報、自車両の進行方向前方に歩行者が存在することを伝える歩行者情報、自車両の進行方向前方に停止線が存在することを伝える停止線情報など、自車両の走行支援に有用な情報であれば種々の情報を適用することができる。そして、例えば、歩行者情報を表す虚像コンテンツ100として、重畳コンテンツは、自車両の進行方向前方の交差点や路面上に存在する歩行者または歩行者周辺に重畳表示されるコンテンツであり、非重畳コンテンツは、自車両の進行方向前方の交差点や路面の構成を示す鳥瞰画像内に、歩行者の位置を示すようにしたアイコンなどのコンテンツである。 The luminous flux of the display image projected onto the front windshield 10 is perceived or visually recognized by the driver seated in the driver's seat. The front windshield 10 is made of, for example, a translucent glass material or the like, and the scenery in front of the vehicle, that is, the light flux in the foreground is also perceived or visually recognized by the driver sitting in the driver's seat. be. As a result, the driver can visually recognize the virtual image of the display image formed in front of the front windshield 10 as the virtual image content 100 superimposed on a part of the foreground. That is, the HUD 230 realizes so-called AR display (AR: Augmented Reality) by superimposing and displaying the virtual image content 100 on the foreground of the host vehicle. The virtual image content 100 is content that visually represents at least information related to driving support for the host vehicle, that is, driving support related information. Driving support related information includes, for example, route guidance related information that indicates the direction of travel of the vehicle on the guidance route, automatic driving related information that indicates the course when the vehicle is automatically controlled, and lane information that the vehicle is traveling on. lane information that indicates a curve ahead of the vehicle in the direction of travel; pedestrian information that indicates that there is a pedestrian ahead of the vehicle in the direction of travel; Various types of information can be applied as long as it is information that is useful for driving support of the own vehicle, such as stop line information that conveys the existence of the vehicle. Then, for example, as virtual image content 100 representing pedestrian information, the superimposed content is content that is superimposed and displayed at an intersection or on the road surface in front of the vehicle in the traveling direction, or in the vicinity of the pedestrian, and non-superimposed content. is a content such as an icon that indicates the position of a pedestrian in a bird's-eye view image that indicates the configuration of an intersection and a road surface in front of the vehicle in the traveling direction.

なお、HUD230が虚像コンテンツ100を投影する投影部は、フロントウインドシールド10に限られず、例えば、透光性のコンバイナなどで構成してもよい。また、表示装置23は、例えば、コンビネーションメータ、CUD(Center Information Display)などで構成してもよい。 Note that the projection unit on which the HUD 230 projects the virtual image content 100 is not limited to the front windshield 10, and may be configured by, for example, a translucent combiner. Also, the display device 23 may be configured by, for example, a combination meter, a CUD (Center Information Display), or the like.

HCU20は、例えば、プロセッサ、揮発性メモリー、不揮発性メモリー、入出力回路、これらを接続するバスなどを備えるマイクロコンピュータを主体として構成されている。HUC20は、HUD230や車内LANに接続されている。HUC20は、本開示に係る車両用表示制御装置の一例であり、例えば不揮発性メモリーなどの記憶媒体に格納されている制御プログラムを実行することにより、HUD230による表示などを制御する。この制御プログラムには、本開示に係る車両用表示制御プログラムが含まれている。また、HUC20は、制御プログラムを実行することにより、本開示に係る車両用表示制御方法が行われる。なお、メモリーは、例えば、コンピュータによって読み取り可能なプログラムやデータを非一時的に格納する非遷移的実体的記憶媒体(Non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、例えば、半導体メモリーや磁気ディスクなどによって実現することができる。 The HCU 20 is mainly composed of a microcomputer including, for example, a processor, a volatile memory, a nonvolatile memory, an input/output circuit, and a bus connecting these. HUC20 is connected to HUD230 and in-vehicle LAN. The HUC 20 is an example of a vehicle display control device according to the present disclosure, and controls display by the HUD 230 by executing a control program stored in a storage medium such as a nonvolatile memory. This control program includes a vehicle display control program according to the present disclosure. Further, the HUC 20 executes the control program to perform the vehicle display control method according to the present disclosure. Note that the memory is, for example, a non-transitory tangible storage medium that non-temporarily stores computer-readable programs and data. Also, the non-transitional material storage medium can be realized by, for example, a semiconductor memory, a magnetic disk, or the like.

また、図1に例示するように、車両用システム1は、さらにメータ系表示部7を備えている。メータ系表示部7は、HUD230のフロントウインドシールド10とは異なる表示部の一例であり、例えば、自車両の走行速度やエンジンの回転速度などのメータ系の情報を表示可能な表示部である。また、メータ系表示部7は、後述するように、虚像コンテンツ100が表す走行支援関連情報などの各種の情報も、虚像コンテンツ100とは異なる態様、例えば液晶表示などにより表示可能である。 Further, the vehicle system 1 further includes a meter system display unit 7, as illustrated in FIG. The meter system display unit 7 is an example of a display unit different from the front windshield 10 of the HUD 230, and is a display unit capable of displaying meter system information such as the running speed of the host vehicle and the rotation speed of the engine. Further, as will be described later, the meter system display unit 7 can also display various types of information such as driving assistance related information represented by the virtual image content 100 in a manner different from that of the virtual image content 100, such as liquid crystal display.

次に、HUD230による表示の制御に関するHCU20の構成例について、さらに詳細に説明する。図3に例示するように、HCU20は、車両用表示制御プログラムを実行することにより、重畳コンテンツ投影部51、非重畳コンテンツ投影部52、判定部53、誘導部54をソフトウェアにより仮想的に実現する。なお、HCU20は、これらの処理部をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。 Next, a configuration example of the HCU 20 regarding control of display by the HUD 230 will be described in more detail. As illustrated in FIG. 3, the HCU 20 virtually realizes a superimposed content projection unit 51, a non-superimposed content projection unit 52, a determination unit 53, and a guidance unit 54 by executing a vehicle display control program. . The HCU 20 may configure these processing units with hardware, or may configure them with a combination of software and hardware.

重畳コンテンツ投影部51は、重畳コンテンツ投影処理を実行する。重畳コンテンツ投影処理は、虚像コンテンツ100の一例である重畳コンテンツ101を、自車両の前景に含まれる対象に重畳させるようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、重畳コンテンツ101は、自車両の前景に含まれる対象に積極的に張り付けるようにして投影される虚像コンテンツ100であり、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100、例えば、後述する非重畳コンテンツ102が偶発的に自車両の前景に含まれる対象に重畳する位置に投影される場合における当該非重畳コンテンツ102などとは異なるものである。具体的には、重畳コンテンツ101は、自車両の前景に含まれる対象、例えば、道路に沿うようにして投影される虚像コンテンツ100、ドライバから見てフロントウインドシールド10の奥行き方向、つまり、自車両の進行方向前方に向かって延びる虚像コンテンツ100、自車両の前景に含まれる対象、例えば、自車両の進行方向前方に実際に存在する停止線などに重畳して投影された状態が自車両の移動に関わらず維持される虚像コンテンツ100、ドライバの視点位置と、自車両の前方における実際の実景と、投影領域R内における投影位置との位置関係が所定の関係に維持される虚像コンテンツ100、などである。 The superimposed content projection unit 51 executes superimposed content projection processing. The superimposed content projection process is a process of projecting the superimposed content 101, which is an example of the virtual image content 100, in the projection area R of the front windshield 10 so as to be superimposed on an object included in the foreground of the own vehicle. Note that the superimposed content 101 is a virtual image content 100 that is projected so as to be positively attached to an object included in the foreground of the own vehicle. It is different from the virtual image content 100 that is not projected, for example, the non-superimposed content 102 that is accidentally projected at a position where the non-superimposed content 102 is superimposed on the object included in the foreground of the vehicle. Specifically, the superimposed content 101 is an object included in the foreground of the vehicle, for example, a virtual image content 100 projected along the road, the depth direction of the front windshield 10 as seen from the driver, that is, the vehicle. virtual image content 100 extending forward in the direction of travel of the vehicle, and an object included in the foreground of the vehicle, for example, a stop line that actually exists in front of the direction of travel of the vehicle. a virtual image content 100 that maintains a predetermined positional relationship between the driver's viewpoint position, the actual scene in front of the host vehicle, and the projection position in the projection area R; is.

非重畳コンテンツ投影部52は、非重畳コンテンツ投影処理を実行する。非重畳コンテンツ投影処理は、虚像コンテンツ100の一例である非重畳コンテンツ102を、自車両の前景に含まれる対象に重畳させないようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、非重畳コンテンツ102は、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100であるが、偶発的に、自車両の前景に含まれる対象に重畳した状態で投影され場合も有り得る虚像コンテンツ100である。 The non-superimposed content projection unit 52 executes non-superimposed content projection processing. The non-superimposed content projection process is a process of projecting the non-superimposed content 102, which is an example of the virtual image content 100, onto the projection area R of the front windshield 10 so as not to be superimposed on the object included in the foreground of the own vehicle. Note that the non-superimposed content 102 is the virtual image content 100 that is not projected by actively sticking to the object included in the foreground of the own vehicle, but is accidentally superimposed on the object included in the foreground of the own vehicle. It is a virtual image content 100 that can be projected at .

判定部53は、判定処理を実行する。判定処理は、フロントウインドシールド10の投影領域R内に投影されている虚像コンテンツ100が表す走行支援関連情報の意図がドライバによって認識されたか否かを判定する処理である。なお、判定の具体例については後述する。 The determination unit 53 executes determination processing. The determination process is a process of determining whether or not the driver has recognized the intention of the driving support related information represented by the virtual image content 100 projected in the projection area R of the front windshield 10 . A specific example of determination will be described later.

誘導部54は、誘導処理を実行する。誘導処理は、判定部53が、走行支援関連情報の意図がドライバによって認識されたと判定すると、ドライバの目線を走行支援関連情報以外の情報に向けるように誘導する処理である。なお、誘導の具体例については後述する。 The guidance unit 54 executes guidance processing. The guiding process is a process of guiding the driver's eyes to information other than the driving support-related information when the determination unit 53 determines that the driver has recognized the intention of the driving support-related information. A specific example of guidance will be described later.

次に、本開示に係る車両用表示制御装置20による虚像コンテンツ100の表示形態の例をいくつか説明する。 Next, some examples of display forms of the virtual image content 100 by the vehicle display control device 20 according to the present disclosure will be described.

図4に例示する表示形態例は、例えば自車両が左折する場合における虚像コンテンツ100の表示形態の一例である。この場合、HCU20は、自車両が交差点の手前の所定距離内に到達すると、まず、フロントウインドシールド10の投影領域R内において、自車両の前景に含まれる対象、この場合、実際に存在する自車両前方の道路に重畳させるようにして矢印マークM1を重畳コンテンツ101として表示する。この場合、重畳コンテンツ101の一例である矢印マークM1は、自車両の経路案内に関連する走行支援関連情報として、案内経路における自車両の進行方向が左方向であることを示す矢印情報となっている。 The display form example illustrated in FIG. 4 is an example of the display form of the virtual image content 100 when the own vehicle turns left, for example. In this case, when the vehicle reaches within a predetermined distance before the intersection, the HCU 20 first detects an object included in the foreground of the vehicle, in this case, the actual vehicle, within the projection area R of the front windshield 10. An arrow mark M1 is displayed as superimposed content 101 so as to be superimposed on the road in front of the vehicle. In this case, the arrow mark M1, which is an example of the superimposed content 101, becomes arrow information indicating that the traveling direction of the own vehicle on the guidance route is the left direction as driving support related information related to the route guidance of the own vehicle. there is

そして、HCU20は、例えば自車両のウインカーが左折状態に操作されると、フロントウインドシールド10の投影領域R内に投影されている矢印マークM1が表す走行支援関連情報の意図、この場合、案内経路における自車両の進行方向が左方向であることがドライバによって認識されたと判定する。そして、HCU20は、誘導処理を実行する。 For example, when the turn signal of the host vehicle is operated to turn left, the HCU 20 detects the intention of the driving support related information represented by the arrow mark M1 projected in the projection area R of the front windshield 10, in this case, the guidance route. It is determined that the driver recognizes that the direction of travel of the own vehicle at is to the left. Then, the HCU 20 executes guidance processing.

具体的には、HCU20は、まず、フロントウインドシールド10の投影領域R内に投影されている矢印マークM1を消す消去処理を実行する。そして、HCU20は、誘導処理に移行する。この誘導処理において、HCU20は、フロントウインドシールド10の投影領域R内において、自車両の前景に含まれる対象、この場合、実際に存在する自車両前方の道路に重畳させないようにして矢印マークM2を非重畳コンテンツ102として表示する。この場合、非重畳コンテンツ102の一例である矢印マークM2は、自車両の経路案内に関連する走行支援関連情報として、ドライバに自車両の進行方向左側の実景を見ることを指示する矢印情報となっている。 Specifically, the HCU 20 first executes an erasing process for erasing the arrow mark M1 projected within the projection area R of the front windshield 10 . Then, the HCU 20 shifts to guidance processing. In this guidance process, the HCU 20 displays the arrow mark M2 within the projection area R of the front windshield 10 so as not to overlap the object included in the foreground of the vehicle, in this case, the road that actually exists in front of the vehicle. It is displayed as non-superimposed content 102 . In this case, the arrow mark M2, which is an example of the non-superimposed content 102, is arrow information that instructs the driver to look at the actual scene on the left side of the vehicle in the traveling direction as the driving support related information related to the route guidance of the vehicle. ing.

このように、HCU20は、重畳コンテンツ101の一例である矢印マークM1が表す走行支援関連情報の意図がドライバによって認識されたと判定すると、当該矢印マークM1を消去して、非重畳コンテンツ102の一例である矢印マークM2を表示する。これにより、HCU20は、ドライバの目線を、フロントウインドシールド10の投影領域R内ではなく、重畳コンテンツ101が表す走行支援関連情報以外の情報、この場合、自車両の進行方向左側の実景に向けるように誘導する。 In this way, when the HCU 20 determines that the driver has recognized the intention of the driving support-related information indicated by the arrow mark M1, which is an example of the superimposed content 101, the HCU 20 erases the arrow mark M1 and A certain arrow mark M2 is displayed. As a result, the HCU 20 directs the driver's line of sight not to the projection area R of the front windshield 10, but to the information other than the driving support-related information represented by the superimposed content 101, in this case, the actual scene on the left side of the traveling direction of the own vehicle. lead to

なお、HCU20は、重畳コンテンツ101の一例である矢印マークM1を消去する消去処理を実行しながら、非重畳コンテンツ102の一例である矢印マークM2を表示する表示処理を実行するように構成してもよい。また、HCU20は、自車両が左折する場合においては、左方向に指向する非重畳コンテンツ102をフロントウインドシールド10の投影領域R内に表示するように構成するとよい。また、HCU20は、自車両が左折する場合においては、非重畳コンテンツ102をフロントウインドシールド10の投影領域R内の左端側に表示するように構成するとよい。また、HCU20は、自車両が右折する場合においては、右方向に指向する非重畳コンテンツ102をフロントウインドシールド10の投影領域R内に表示するように構成するとよい。また、HCU20は、自車両が右折する場合においては、非重畳コンテンツ102をフロントウインドシールド10の投影領域R内の右端側に表示するように構成するとよい。 Note that the HCU 20 may be configured to execute display processing for displaying the arrow mark M2, which is an example of the non-superimposed content 102, while executing erasing processing for erasing the arrow mark M1, which is an example of the superimposed content 101. good. Also, the HCU 20 may be configured to display the non-superimposed content 102 oriented leftward within the projection area R of the front windshield 10 when the host vehicle turns left. Also, the HCU 20 may be configured to display the non-superimposed content 102 on the left end side within the projection area R of the front windshield 10 when the host vehicle turns left. Also, the HCU 20 may be configured to display the non-superimposed content 102 directed to the right in the projection area R of the front windshield 10 when the host vehicle turns right. Also, the HCU 20 may be configured to display the non-superimposed content 102 on the right end side within the projection area R of the front windshield 10 when the own vehicle turns right.

また、HCU20は、DSM22によって特定あるいは推定されるドライバの目線が自車両の進行方向に向かっている場合には、虚像コンテンツ100の消去処理を実行しないように構成してもよい。 Further, the HCU 20 may be configured not to execute the process of deleting the virtual image content 100 when the line of sight of the driver identified or estimated by the DSM 22 is directed toward the traveling direction of the host vehicle.

図5に例示する表示形態例は、消去処理によって消された虚像コンテンツ100が表す走行支援関連情報を、フロントウインドシールド10とは異なる表示部に表示する場合における表示形態の一例である。即ち、HCU20は、重畳コンテンツ101の一例である矢印マークM1を消去する消去処理を実行すると、当該消去処理によって消された矢印マークM1が表す走行支援関連情報、この場合、案内経路における自車両の進行方向が左方向であることを示す情報をメータ系表示部7部に表示する。この場合、HCU20は、メータ系表示部7の液晶表示部に、案内経路における自車両の進行方向が左方向であることを示す矢印マークM3を表示している。 The display form example illustrated in FIG. 5 is an example of a display form in which the driving assistance related information represented by the virtual image content 100 erased by the erasing process is displayed on a display section different from the front windshield 10 . That is, when the HCU 20 executes the erasing process of erasing the arrow mark M1, which is an example of the superimposed content 101, the driving assistance related information represented by the arrow mark M1 erased by the erasing process, in this case, the vehicle's position on the guidance route. Information indicating that the direction of travel is to the left is displayed on the meter system display section 7 . In this case, the HCU 20 displays an arrow mark M3 on the liquid crystal display section of the meter system display section 7 to indicate that the traveling direction of the vehicle on the guidance route is leftward.

図6に例示する表示形態例は、自車両の進行方向前方に存在する対象を強調して表示する強調表示処理を実行する場合における表示形態の一例である。即ち、HCU20は、例えば、重畳コンテンツ101の消去処理を完了すると強調表示処理を実行する。この強調表示処理において、HCU20は、自車両の進行方向前方に存在する対象の一例である横断歩道を強調マークM4によって囲むことにより強調して表示している。 The display form example illustrated in FIG. 6 is an example of a display form in the case of executing the highlighting process of emphasizing and displaying an object present in the traveling direction of the host vehicle. That is, the HCU 20 executes the highlighting process, for example, when the erasing process of the superimposed content 101 is completed. In this highlighting process, the HCU 20 highlights and displays a pedestrian crossing, which is an example of an object present in front of the vehicle in the traveling direction, by surrounding it with the highlighting mark M4.

なお、このような強調表示処理は、重畳コンテンツ101の消去処理を実行しながら実行してもよいし、重畳コンテンツ101の消去処理を開始する前から実行してもよい。また、強調表示の態様は、例えば、強調マークM4を点灯、点滅、変形、変色させることによって強調の効果を一層高めるようにしてもよい。また、強調表示の態様は、強調マークM4による強調に限られるものではなく、例えば、強調したい対象に向かう矢印マークを投影したり、強調したい対象に重畳する部分を光らせる虚像コンテンツを投影したり、強調したい対象に重畳する部分の色を変える虚像コンテンツを投影したりするなど、種々の態様が考えられる。 Note that such a highlighting process may be executed while the superimposed content 101 erasing process is being executed, or may be executed before the superimposed content 101 erasing process is started. Further, as for the mode of highlighting, for example, the highlighting effect may be further enhanced by lighting, blinking, deforming, or changing the color of the highlighting mark M4. In addition, the mode of highlighting is not limited to the highlighting by the highlighting mark M4. Various modes are conceivable, such as projecting virtual image content that changes the color of the portion to be superimposed on the object to be emphasized.

図7に例示する表示形態例は、フロントウインドシールド10の投影領域R内に投影されている虚像コンテンツ100を、案内経路における自車両の進行方向に向けて移動させる移動処理を実行する場合における表示形態の一例である。即ち、図7に例示する移動処理の一例では、HCU20は、例えば、矢印マークM1の消去処理後に表示する矢印マークM2を、右側から左側に向けて移動させている。HCU20は、このように、左方向に指向する矢印マークM2を右側から左側に向けて移動させることにより、ドライバの目線を、案内経路における自車両の進行方向、この場合、左方向に誘導する。なお、HCU20は、例えば案内経路における自車両の進行方向が右方向である場合には、右方向に指向する矢印マークを左側から右側に向けて移動させることにより、ドライバの目線を、案内経路における自車両の進行方向、この場合、右方向に誘導するようにしてもよい。 The display form example illustrated in FIG. 7 is a display in the case of executing the moving process of moving the virtual image content 100 projected in the projection area R of the front windshield 10 toward the traveling direction of the own vehicle on the guidance route. It is an example of a form. That is, in an example of the movement process illustrated in FIG. 7, the HCU 20 moves the arrow mark M2 displayed after the arrow mark M1 is erased from the right side to the left side. The HCU 20 thus moves the leftward arrow mark M2 from right to left, thereby guiding the driver's line of sight in the traveling direction of the vehicle on the guidance route, in this case leftward. For example, when the traveling direction of the own vehicle on the guidance route is the right direction, the HCU 20 moves the arrow mark pointing in the right direction from the left side to the right side to shift the driver's line of sight from the guidance route. The direction of travel of the own vehicle, in this case, may be guided in the right direction.

また、図8に例示する表示形態も、フロントウインドシールド10の投影領域R内に投影されている虚像コンテンツ100を、案内経路における自車両の進行方向に向けて移動させる移動処理を実行する場合における表示形態の一例である。即ち、図8に例示する移動処理の一例では、HCU20は、矢印マークM1の消去処理後にラベルL1を表示する。このラベルL1は、この場合、フロントウインドシールド10の投影領域R内の左下部分に表示されており、その模様が、矢印Vで示すように右側から左側に向かって流れているように見えるものとなっている。HCU20は、このようなラベルL1を表示することにより、ドライバの目線を、案内経路における自車両の進行方向、この場合、左方向に誘導する。また、このようなラベルL1が表示されることにより、自車両が交差点内に接近して当該交差点からの退出先が投影領域R外に外れたとしても、ドライバは、ラベルL1に基づき、自車両をどの方向に進行させるべきであるのかを容易に認識することができる。 Also, the display form illustrated in FIG. It is an example of a display form. That is, in one example of the movement process illustrated in FIG. 8, the HCU 20 displays the label L1 after the process of erasing the arrow mark M1. In this case, the label L1 is displayed in the lower left portion of the projection area R of the front windshield 10, and the pattern appears to flow from the right side to the left side as indicated by the arrow V. It's becoming By displaying such a label L1, the HCU 20 guides the driver's line of sight to the traveling direction of the host vehicle on the guidance route, in this case to the left. In addition, by displaying such a label L1, even if the own vehicle approaches the intersection and the exit destination from the intersection deviates from the projection area R, the driver can control the own vehicle based on the label L1. can be easily recognized in which direction the should be advanced.

なお、HCU20は、例えば案内経路における自車両の進行方向が右方向である場合には、模様が左側から右側に向かって流れているように見えるラベルをフロントウインドシールド10の投影領域R内の右下部分に表示することにより、ドライバの目線を、案内経路における自車両の進行方向、この場合、右方向に誘導するようにしてもよい。また、ラベルL1は、模様が流れるように見えるものに限られず、例えば、ラベルL1内を矢印マークなどのアイテムが移動するもの、案内経路における自車両の進行方向に向かって太さが異なるようにしたもの、模様などが変化しないもの、などであってもよい。 For example, when the traveling direction of the host vehicle on the guidance route is to the right, the HCU 20 displays a label whose pattern appears to flow from left to right within the projection area R of the front windshield 10. By displaying it in the lower part, the driver's line of sight may be guided in the traveling direction of the host vehicle on the guide route, in this case, in the right direction. In addition, the label L1 is not limited to a label that looks like a flowing pattern. It may be one that has been changed, or one that does not change the pattern or the like.

図9に例示する表示態様例は、重畳コンテンツ101の一例である矢印マークM5を消去する場合における表示態様の一例である。即ち、図9に例示するように、HCU20は、案内経路における自車両の進行方向に沿って矢印マークM5を徐々に消去していく。このように、自車両の進行に伴い矢印マークM5が徐々に消去されていくことにより、ドライバは、矢印マークM5が表す走行支援関連情報、この場合、案内経路における自車両の進行方向に沿って自車両が進行していることを視覚的あるいは感覚的に認識することができる。 The display mode example illustrated in FIG. 9 is an example of a display mode when the arrow mark M5, which is an example of the superimposed content 101, is erased. That is, as illustrated in FIG. 9, the HCU 20 gradually erases the arrow mark M5 along the traveling direction of the host vehicle on the guidance route. In this way, the arrow mark M5 is gradually erased as the vehicle advances, so that the driver can read the driving support-related information indicated by the arrow mark M5, in this case, along the traveling direction of the vehicle on the guidance route. It is possible to visually or sensuously recognize that the own vehicle is traveling.

本実施形態によれば、フロントウインドシールド10の投影領域R内に投影されている重畳コンテンツ101が表す走行支援関連情報の意図がドライバによって認識されたことに応じて、ドライバの目線を走行支援関連情報以外の情報、この場合、車外の実際の状況に向けるように誘導することができ、これにより、ドライバの目線をフロントウインドシールド10の投影領域R内に不要に誘導してしまうことを抑制することができる。 According to the present embodiment, when the driver recognizes the intention of the driving assistance related information represented by the superimposed content 101 projected in the projection area R of the front windshield 10, the driver's line of sight is changed to the driving assistance related information. Information other than information, in this case, can be guided to turn to the actual situation outside the vehicle, thereby suppressing unnecessarily guiding the driver's line of sight into the projection area R of the front windshield 10. be able to.

また、本実施形態によれば、HCU20は、ドライバの目線を自車両の進行方向に誘導するように、フロントウインドシールド10の投影領域R内に投影されている重畳コンテンツ101を消す消去処理を実行可能である。即ち、フロントウインドシールド10の投影領域R内から重畳コンテンツ101を消すことにより、ドライバの目線をフロントウインドシールド10の投影領域R内に不要に誘導してしまうことを一層抑制することができる。 Further, according to the present embodiment, the HCU 20 performs erasing processing to erase the superimposed content 101 projected within the projection area R of the front windshield 10 so as to guide the driver's line of sight in the traveling direction of the vehicle. It is possible. That is, by erasing the superimposed content 101 from within the projection area R of the front windshield 10, it is possible to further prevent the driver's line of sight from being unnecessarily guided into the projection area R of the front windshield 10.

また、本実施形態によれば、HCU20は、消去処理によって消去された重畳コンテンツ101が表す走行支援関連情報を、HUD230のフロントウインドシールド10とは異なる表示部に表示することが可能である。これにより、ドライバは、消去された重畳コンテンツ101が表す走行支援関連情報を、必要に応じて再確認することができる。なお、HUD230のフロントウインドシールド10とは異なる表示部は、メータ系表示部7に限られるものではなく、例えば、ナビゲーション装置の表示部など、自車両に搭載されている表示部であれば適宜適用することができる。 Further, according to the present embodiment, the HCU 20 can display the driving assistance related information represented by the superimposed content 101 deleted by the deletion process on a display section of the HUD 230 different from the front windshield 10 . As a result, the driver can reconfirm the driving assistance related information represented by the deleted superimposed content 101 as necessary. Note that the display section of the HUD 230 that is different from the front windshield 10 is not limited to the meter system display section 7. For example, any display section mounted on the vehicle, such as a display section of a navigation device, can be applied as appropriate. can do.

また、本実施形態によれば、HCU20は、ドライバの目線が案内経路における自車両の進行方向に既に向かっている場合には消去処理を実行しないようにすることができる。即ち、既にドライバの目線が案内経路における自車両の進行方向に向かっているのであれば、HUD230のフロントウインドシールド10から敢えて重畳コンテンツ101を消去する必要性も低くなる。そのため、HUD230のフロントウインドシールド10から重畳コンテンツ101が無用に消去されてしまうことを回避することができる。なお、HCU20は、ドライバの目線が案内経路における自車両の進行方向に向かっている場合においても消去処理を実行するように構成してもよい。 Further, according to the present embodiment, the HCU 20 can prevent the erasing process from being executed when the driver's line of sight is already in the traveling direction of the host vehicle on the guidance route. That is, if the driver's line of sight is already in the traveling direction of the vehicle on the guidance route, the necessity of intentionally erasing the superimposed content 101 from the front windshield 10 of the HUD 230 is reduced. Therefore, unnecessary deletion of the superimposed content 101 from the front windshield 10 of the HUD 230 can be avoided. It should be noted that the HCU 20 may be configured to execute the erasing process even when the driver's line of sight is directed toward the traveling direction of the host vehicle on the guidance route.

また、本実施形態によれば、HCU20は、自車両の進行方向前方に実際に存在する対象を強調して表示する強調表示処理を実行可能である。これにより、自車両の進行方向前方に実際に存在する注意すべき対象をドライバに認識させやすくすることができる。なお、強調表示する対象としては、横断歩道に限られず、例えば、人、先行車、自転車、信号機、障害物など、種々の対象が考えられる。このような対象は、例えば周辺監視センサ4によって検知することができ、強調表示すべき対象を適宜選択して強調するようにするとよい。 Further, according to the present embodiment, the HCU 20 can execute a highlighting process for emphasizing and displaying an object that actually exists in front of the host vehicle in the traveling direction. This makes it easier for the driver to recognize an object that actually exists in front of the vehicle in the direction of travel and should be noted. Objects to be highlighted are not limited to pedestrian crossings, and can be various objects such as people, preceding vehicles, bicycles, traffic lights, and obstacles. Such an object can be detected by, for example, the surroundings monitoring sensor 4, and the object to be highlighted should be appropriately selected and emphasized.

また、本実施形態によれば、HCU20は、ドライバの目線を案内経路における自車両の進行方向に誘導するように、フロントウインドシールド10に投影されている虚像コンテンツ100を案内経路における自車両の進行方向に向けて移動させる移動処理を実行可能である。このように、虚像コンテンツ100を移動させることにより、その虚像コンテンツ100が表す情報の意図、例えば、自車両を左方向に進行させるのか右方向に進行させるのかという意図を、ドライバに一層認識しやすくすることができる。 Further, according to the present embodiment, the HCU 20 displays the virtual image content 100 projected on the front windshield 10 so as to guide the driver's line of sight in the traveling direction of the vehicle on the guidance route. It is possible to execute movement processing for moving in a direction. By moving the virtual image content 100 in this manner, the driver can more easily recognize the intention of the information represented by the virtual image content 100, for example, the intention of whether the host vehicle is to proceed leftward or rightward. can do.

なお、本開示は、上述した一実施形態に限定されるものではなく、その要旨を逸脱しない範囲で適宜変更や拡張を行うことができる。例えば、フロントウインドシールド10に投影する虚像コンテンツ100の形状、大きさ、太さなどは、適宜変更して設定することができる。 Note that the present disclosure is not limited to the above-described embodiment, and can be appropriately modified and expanded without departing from the scope of the present disclosure. For example, the shape, size, thickness, etc. of the virtual image content 100 projected onto the front windshield 10 can be changed and set as appropriate.

また、フロントウインドシールド10に投影されている虚像コンテンツ100が表す走行支援関連情報の意図がドライバによって認識されたか否かの判定手法は、種々の手法を適用することができる。即ち、例えば、虚像コンテンツ100が表す走行支援関連情報が、案内経路における自車両の進行方向が左方向であることを示す経路案内関連情報である場合には、自車両のウインカーが左折状態に操作されたこと、自車両のステアリングが左方向に操作されたこと、DSM22によってドライバの目線が自車両の進行方向左方に向かっていることが検知されたこと、ADASロケータ3によって特定される車両位置に基づき自車両が左折用レーンを走行していることが確認されたことなどを条件に、虚像コンテンツ100が表す走行支援関連情報の意図がドライバによって認識されたと判定することができる。なお、虚像コンテンツ100が表す走行支援関連情報が経路案内関連情報以外の情報、例えば、自動運転関連情報、レーン情報、カーブ通知情報などである場合においても、その情報の意図がドライバによって認識されたか否かの判定は、例えば、ウインカーの操作状態、ステアリングの操作状態、ドライバの目線、車室内に設けられている各種の操作ボタンの操作状態などに基づいて判定することができる。 Various methods can be applied to determine whether or not the driver has recognized the intention of the driving assistance related information represented by the virtual image content 100 projected on the front windshield 10 . That is, for example, when the driving support related information represented by the virtual image content 100 is the route guidance related information indicating that the vehicle is traveling in the left direction on the guidance route, the turn signal of the vehicle is operated to turn left. that the steering of the own vehicle is operated in the left direction; that the DSM 22 detects that the driver's line of sight is directed to the left in the traveling direction of the own vehicle; and that the vehicle position specified by the ADAS locator 3 It can be determined that the driver has recognized the intention of the driving support related information represented by the virtual image content 100 on the condition that it is confirmed that the vehicle is traveling in the left turn lane based on the above. Even if the driving support related information represented by the virtual image content 100 is information other than the route guidance related information, such as automatic driving related information, lane information, curve notification information, etc., whether the intention of the information was recognized by the driver. Whether or not it is determined can be determined based on, for example, the operation state of the turn signals, the operation state of the steering wheel, the line of sight of the driver, the operation state of various operation buttons provided in the vehicle interior, and the like.

即ち、判定部53による判定処理は、虚像コンテンツ100が表す走行支援関連情報の意図がドライバによって認識されたか否かを判別できる手法であれば、種々の手法を適用することができる。また、誘導部54による誘導処理は、ドライバの目線を走行支援関連情報以外の情報に向けるように誘導できる手法であれば、種々の手法を適用することができる。走行支援関連情報以外の情報は、車外の実景に限られるものではなく、虚像コンテンツ100が表す走行支援関連情報以外の情報であれば種々の情報を適用することができる。 That is, various methods can be applied to the determination processing by the determination unit 53 as long as the method can determine whether or not the intention of the driving support related information represented by the virtual image content 100 is recognized by the driver. Further, the guidance processing by the guidance unit 54 can employ various methods as long as they can guide the driver's eyes toward information other than the driving support related information. The information other than the driving support related information is not limited to the actual scenery outside the vehicle, and various information other than the driving support related information represented by the virtual image content 100 can be applied.

なお、本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。 Although the present disclosure has been described with reference to examples, it is understood that the present disclosure is not limited to such examples or structures. The present disclosure also includes various modifications and modifications within the equivalent range. In addition, various combinations and configurations, as well as other combinations and configurations, including single elements, more, or less, are within the scope and spirit of this disclosure.

また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 Also, the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by the computer program. , may be implemented. Alternatively, the controls and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the control units and techniques described in this disclosure can be implemented by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured. The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible recording medium.

図面中、7はメータ系表示部(投影部とは異なる表示部)、10はフロントウインドシールド(投影部)、20はHCU(車両用表示制御装置)、53は判定部、54は誘導部、230はヘッドアップディスプレイを示す。
In the drawing, 7 is a meter system display unit (a display unit different from the projection unit), 10 is a front windshield (projection unit), 20 is an HCU (vehicle display control unit), 53 is a determination unit, 54 is a guidance unit, 230 indicates a head-up display.

Claims (7)

車両の走行支援に関連する走行支援関連情報を表す虚像コンテンツを投影部(10)に投影するヘッドアップディスプレイ(230)を制御する車両用表示制御装置(20)であって、
前記投影部に投影されている前記虚像コンテンツが表す前記走行支援関連情報の意図がドライバによって認識されたか否かを判定する判定部(53)と、
前記判定部が、前記走行支援関連情報の意図がドライバによって認識されたと判定すると、前記ドライバの目線を前記走行支援関連情報以外の情報に向けるように誘導する誘導部(54)と、
を備え
前記誘導部は、前記ドライバの目線を車両の進行方向に誘導するように、前記投影部に投影されている前記虚像コンテンツを車両の進行方向に移動させる移動処理を実行可能である車両用表示制御装置。
A vehicle display control device (20) for controlling a head-up display (230) that projects virtual image content representing driving support-related information related to driving support of a vehicle on a projection unit (10),
a determination unit (53) that determines whether or not the intention of the driving assistance related information represented by the virtual image content projected on the projection unit is recognized by the driver;
a guiding unit (54) for guiding the driver's line of sight to information other than the driving support-related information when the determining unit determines that the intention of the driving support-related information has been recognized by the driver;
with
The display control for a vehicle, wherein the guidance unit is capable of executing movement processing for moving the virtual image content projected on the projection unit in the direction of travel of the vehicle so as to guide the line of sight of the driver in the direction of travel of the vehicle. Device.
前記誘導部は、前記ドライバの目線を車両の進行方向に誘導するように、前記投影部に投影されている前記虚像コンテンツを消す消去処理を実行可能である請求項1に記載の車両用表示制御装置。 2. The vehicle display control according to claim 1, wherein the guiding unit is capable of executing erasing processing for erasing the virtual image content projected on the projecting unit so as to guide the line of sight of the driver in the traveling direction of the vehicle. Device. 前記誘導部は、前記消去処理を実行すると、当該消去処理によって消された前記虚像コンテンツが表す前記走行支援関連情報を、前記投影部とは異なる表示部に表示する請求項2に記載の車両用表示制御装置。 3. The vehicle according to claim 2, wherein, when executing the erasing process, the guiding part displays the driving support-related information represented by the virtual image content erased by the erasing process on a display part different from the projection part. Display controller. 前記誘導部は、前記ドライバの目線が車両の進行方向に向かっている場合には、前記消去処理を実行しないように構成されている請求項2または3に記載の車両用表示制御装置。 4. The display control device for a vehicle according to claim 2, wherein the guide section is configured not to execute the erasing process when the line of sight of the driver is in the traveling direction of the vehicle. 前記誘導部は、車両の進行方向前方に存在する対象を強調して表示する強調表示処理を実行可能である請求項1から4の何れか1項に記載の車両用表示制御装置。 5. The vehicle display control device according to any one of claims 1 to 4, wherein the guidance unit is capable of executing a highlighting process of highlighting and displaying an object present in front of the vehicle in the traveling direction. 車両の走行支援に関連する走行支援関連情報を表す虚像コンテンツを投影部(10)に投影するヘッドアップディスプレイ(230)を制御する車両用表示制御方法であって、
前記投影部に投影されている前記虚像コンテンツが表す前記走行支援関連情報の意図がドライバによって認識されたか否かを判定する判定処理と、
前記判定処理において、前記走行支援関連情報の意図がドライバによって認識されたと判定されると、前記ドライバの目線を前記走行支援関連情報以外の情報に向けるように誘導する誘導処理と、
を含み、
前記誘導処理では、前記ドライバの目線を車両の進行方向に誘導するように、前記投影部に投影されている前記虚像コンテンツを車両の進行方向に移動させる移動処理を実行可能である車両用表示制御方法。
A vehicle display control method for controlling a head-up display (230) that projects virtual image content representing driving support-related information related to vehicle driving support on a projection unit (10),
Determination processing for determining whether or not the intention of the driving support-related information represented by the virtual image content projected on the projection unit has been recognized by the driver;
Guidance processing for guiding the driver's line of sight to information other than the driving support-related information when it is determined in the determination processing that the intention of the driving support-related information has been recognized by the driver;
including
In the guidance processing, display control for a vehicle is capable of executing movement processing of moving the virtual image content projected on the projection unit in the direction of travel of the vehicle so as to guide the line of sight of the driver in the direction of travel of the vehicle. Method.
コンピュータを、
車両の走行支援に関連する走行支援関連情報を表す虚像コンテンツを投影部(10)に投影するヘッドアップディスプレイ(230)を制御する車両用表示制御装置(20)として機能させるための車両用表示制御プログラムであって、
前記投影部に投影されている前記虚像コンテンツが表す前記走行支援関連情報の意図がドライバによって認識されたか否かを判定する判定処理と、
前記判定処理において、前記走行支援関連情報の意図がドライバによって認識されたと判定されると、前記ドライバの目線を前記走行支援関連情報以外の情報に向けるように誘導する誘導処理と、
を前記コンピュータに実行させ
前記誘導処理では、前記ドライバの目線を車両の進行方向に誘導するように、前記投影部に投影されている前記虚像コンテンツを車両の進行方向に移動させる移動処理を前記コンピュータに実行させることが可能である車両用表示制御プログラム。
the computer,
Vehicle display control for functioning as a vehicle display control device (20) for controlling a head-up display (230) that projects virtual image content representing driving support related information related to vehicle driving support on a projection unit (10) a program,
Determination processing for determining whether or not the intention of the driving support-related information represented by the virtual image content projected on the projection unit has been recognized by the driver;
Guidance processing for guiding the driver's line of sight to information other than the driving support-related information when it is determined in the determination processing that the intention of the driving support-related information has been recognized by the driver;
causing said computer to execute
In the guiding process, it is possible to cause the computer to execute a moving process of moving the virtual image content projected on the projection unit in the traveling direction of the vehicle so as to guide the line of sight of the driver in the traveling direction of the vehicle. A vehicle display control program.
JP2019034296A 2019-02-27 2019-02-27 Vehicle display control device, vehicle display control method, vehicle display control program Active JP7172730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019034296A JP7172730B2 (en) 2019-02-27 2019-02-27 Vehicle display control device, vehicle display control method, vehicle display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019034296A JP7172730B2 (en) 2019-02-27 2019-02-27 Vehicle display control device, vehicle display control method, vehicle display control program

Publications (2)

Publication Number Publication Date
JP2020138610A JP2020138610A (en) 2020-09-03
JP7172730B2 true JP7172730B2 (en) 2022-11-16

Family

ID=72264270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019034296A Active JP7172730B2 (en) 2019-02-27 2019-02-27 Vehicle display control device, vehicle display control method, vehicle display control program

Country Status (1)

Country Link
JP (1) JP7172730B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014213763A (en) 2013-04-26 2014-11-17 日本精機株式会社 Vehicle information projection system
WO2015037325A1 (en) 2013-09-12 2015-03-19 株式会社デンソー Vehicle-mounted display device
JP2018092442A (en) 2016-12-05 2018-06-14 株式会社デンソー Display control unit for vehicle and display system for vehicle
JP2018124078A (en) 2017-01-30 2018-08-09 トヨタ自動車株式会社 Vehicle information display system and vehicle information display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014213763A (en) 2013-04-26 2014-11-17 日本精機株式会社 Vehicle information projection system
WO2015037325A1 (en) 2013-09-12 2015-03-19 株式会社デンソー Vehicle-mounted display device
JP2018092442A (en) 2016-12-05 2018-06-14 株式会社デンソー Display control unit for vehicle and display system for vehicle
JP2018124078A (en) 2017-01-30 2018-08-09 トヨタ自動車株式会社 Vehicle information display system and vehicle information display method

Also Published As

Publication number Publication date
JP2020138610A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
US10293748B2 (en) Information presentation system
US20160304126A1 (en) Vehicle control device
US11900812B2 (en) Vehicle control device
US11157751B2 (en) Traffic guide object recognition device, traffic guide object recognition method, and storage medium
JP7052786B2 (en) Display control device and display control program
US20210016793A1 (en) Control apparatus, display apparatus, movable body, and image display method
JP6984624B2 (en) Display control device and display control program
WO2020189238A1 (en) Vehicular display control device, vehicular display control method, and vehicular display control program
JP2018200626A (en) Vehicle display control device and display control program
WO2019189515A1 (en) Control apparatus, display apparatus, movable body, and image display method
US11610488B2 (en) Notification device and vehicle control device
JP7400242B2 (en) Vehicle display control device and vehicle display control method
JP2021149319A (en) Display control device, display control method, and program
JP7302311B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP7172730B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP7487593B2 (en) Vehicle display control device, vehicle display control system, and vehicle display control method
JP7263962B2 (en) VEHICLE DISPLAY CONTROL DEVICE AND VEHICLE DISPLAY CONTROL METHOD
JP2020138609A (en) Display control device for vehicle, display control method for vehicle, and display control program for vehicle
JP2022035667A (en) Display control device for vehicle, display control system for vehicle, and display control method for vehicle
JP7151653B2 (en) In-vehicle display controller
JP7294091B2 (en) Display controller and display control program
JP7416114B2 (en) Display control device and display control program
JP7230960B2 (en) display controller
WO2020246114A1 (en) Display control device and display control program
JP2021028587A (en) In-vehicle display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R151 Written notification of patent or utility model registration

Ref document number: 7172730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151