JP7302311B2 - Vehicle display control device, vehicle display control method, vehicle display control program - Google Patents

Vehicle display control device, vehicle display control method, vehicle display control program Download PDF

Info

Publication number
JP7302311B2
JP7302311B2 JP2019107083A JP2019107083A JP7302311B2 JP 7302311 B2 JP7302311 B2 JP 7302311B2 JP 2019107083 A JP2019107083 A JP 2019107083A JP 2019107083 A JP2019107083 A JP 2019107083A JP 7302311 B2 JP7302311 B2 JP 7302311B2
Authority
JP
Japan
Prior art keywords
vehicle
display
behavior
processing unit
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019107083A
Other languages
Japanese (ja)
Other versions
JP2020201647A (en
Inventor
祐司 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019107083A priority Critical patent/JP7302311B2/en
Publication of JP2020201647A publication Critical patent/JP2020201647A/en
Application granted granted Critical
Publication of JP7302311B2 publication Critical patent/JP7302311B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本開示は、車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムに関する。 The present disclosure relates to a vehicle display control device, a vehicle display control method, and a vehicle display control program.

近年、自動運転機能を備える車両の開発が進められている。自車両を自動で運転させる場合、自車両の周辺に存在する物標、例えば、他車両との衝突を回避するように走行を制御する必要がある。そのため、車両の周辺に存在する物標の挙動を考慮しながら自動運転を実現するための技術の開発が求められている。この種の技術の一例として、例えば特許文献1には、自車両の周辺を走行する車両の行動の予測結果と、他車両の周辺を走行する車両の行動の予測結果とを利用して、自車両を自動で運転させる走行制御計画を生成する技術が開示されている。 In recent years, the development of vehicles equipped with an automatic driving function is progressing. When the self-vehicle is driven automatically, it is necessary to control the running so as to avoid collisions with targets existing in the vicinity of the self-vehicle, such as other vehicles. Therefore, there is a demand for the development of technology for realizing automatic driving while considering the behavior of targets that exist around the vehicle. As an example of this type of technology, for example, in Patent Document 1, a prediction result of the behavior of a vehicle traveling around the own vehicle and a prediction result of the behavior of a vehicle traveling around another vehicle are used to predict the behavior of the vehicle. Techniques are disclosed for generating a cruise control plan for automatically driving a vehicle.

特許第4371137号公報Japanese Patent No. 4371137

例えば特許文献1に開示されている技術によれば、自車両の周辺を走行する車両の行動の予測結果だけでなく、他車両の周辺を走行する車両の行動の予測結果も考慮して、自車両の走行制御計画を生成することができ、より高精度な自動運転を実現できる可能性がある。しかしながら、従来の技術では、物標の挙動の予測結果は、あくまでも装置が利用するものとなっており、車両のユーザである例えばドライバは、装置が予測した挙動を知ることができない。そのため、ユーザは、物標の挙動のどのような予測結果に基づき車両の自動運転が制御されているのかを知ることができず、状況によっては、不安を感じてしまうことも懸念される。 For example, according to the technology disclosed in Japanese Patent Laid-Open No. 2002-200000, the vehicle is capable of predicting not only the behavior of vehicles traveling around the own vehicle but also the behavior of vehicles traveling around other vehicles. It is possible to generate a driving control plan for a vehicle, and it may be possible to realize more accurate automatic driving. However, in the conventional technology, the prediction result of the behavior of the target is used only by the device, and the user of the vehicle, for example, the driver, cannot know the behavior predicted by the device. Therefore, the user cannot know what prediction result of the behavior of the target is based on which the automatic driving of the vehicle is controlled, and depending on the situation, there is concern that the user may feel uneasy.

そこで、本開示は、車両の周辺に存在する物標の挙動について、どのような挙動が予測されているのかをユーザに知らせることができるようにした車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムを提供する。 Therefore, the present disclosure provides a display control device for a vehicle, a display control method for a vehicle, and a display control method for a vehicle, which enable a user to be notified of what kind of behavior is expected with respect to the behavior of a target existing around the vehicle. A vehicle display control program is provided.

本開示に係る車両用表示制御装置は、自動運転機能を備える車両に搭載される車両用表示制御装置20であって、車両の周辺に存在する物標を検出する検出処理部53と、前記検出処理部が検出する物標の挙動を予測する予測処理部54と、前記予測処理部が予測する物標の挙動を示す挙動予測情報を表示部7,8,23に表示する表示処理部55と、ユーザの目線を特定する特定処理部56と、前記表示部への前記挙動予測情報の表示を制御する表示制御処理部57と、を備え、前記表示制御処理部は、前記特定処理部が特定するユーザの目線が、前記検出処理部が検出する物標に向かっている場合に、前記表示部に前記挙動予測情報を表示する。 The vehicle display control device according to the present disclosure is a vehicle display control device 20 mounted in a vehicle equipped with an automatic driving function, and includes a detection processing unit 53 that detects a target existing around the vehicle, and the detection a prediction processing unit 54 for predicting the behavior of the target detected by the processing unit; and a display processing unit 55 for displaying behavior prediction information indicating the behavior of the target predicted by the prediction processing unit on the display units 7, 8 and 23. and a display control processing unit 57 for controlling display of the behavior prediction information on the display unit. When the user's line of sight is directed toward the target detected by the detection processing unit, the behavior prediction information is displayed on the display unit.

本開示に係る車両用表示制御方法は、自動運転機能を備える車両に搭載される車両用表示制御装置20を制御する車両用表示制御方法であって、車両の周辺に存在する物標を検出する検出処理と、前記検出処理により検出する物標の挙動を予測する予測処理と、前記予測処理により予測する物標の挙動を示す挙動予測情報を表示部7,8,23に表示する表示処理と、ユーザの目線を特定する特定処理と、前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、を含み、前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記表示処理により前記挙動予測情報を表示する。 A vehicle display control method according to the present disclosure is a vehicle display control method for controlling a vehicle display control device 20 mounted in a vehicle equipped with an automatic driving function, and detects a target existing around the vehicle. detection processing, prediction processing for predicting the behavior of the target detected by the detection processing, and display processing for displaying behavior prediction information indicating the behavior of the target predicted by the prediction processing on the display units 7, 8, and 23. , a specifying process for specifying a user's line of sight, and a display control process for controlling display of the behavior prediction information by the display process, wherein the display control process includes a user's line of sight specified by the specifying process. When the vehicle is heading toward a target detected by the detection process, the behavior prediction information is displayed by the display process.

本開示に係る車両用表示制御プログラムは、コンピュータを、自動運転機能を備える車両に搭載される車両用表示制御装置20として機能させるための車両用表示制御プログラムであって、車両の周辺に存在する物標を検出する検出処理と、前記検出処理により検出する物標の挙動を予測する予測処理と、前記予測処理により予測する物標の挙動を示す挙動予測情報を表示部7,8,23に表示する表示処理と、ユーザの目線を特定する特定処理と、前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、を前記コンピュータに実行させ、前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記表示処理により前記挙動予測情報を表示させる。 The vehicular display control program according to the present disclosure is a vehicular display control program for causing a computer to function as a vehicular display control device 20 mounted in a vehicle equipped with an automatic driving function, and is present around the vehicle. A detection process for detecting a target, a prediction process for predicting the behavior of the target detected by the detection process, and behavior prediction information indicating the behavior of the target predicted by the prediction process are displayed on the display units 7, 8, and 23. The computer is caused to execute a display process for displaying, a specific process for specifying a user's line of sight, and a display control process for controlling display of the behavior prediction information by the display process, and the display control process includes the specific process. When the line of sight of the user specified by is directed toward the target detected by the detection process, the behavior prediction information is displayed by the display process.

本開示によれば、車両の周辺に存在する物標の挙動について、その挙動予測情報が表示部に表示される。よって、車両の周辺に存在する物標の挙動について、どのような挙動が予測されているのかをユーザに知らせることができ、ユーザが不安に感じてしまうことを抑制することができる。 According to the present disclosure, the behavior prediction information is displayed on the display unit regarding the behavior of the target existing around the vehicle. Therefore, it is possible to inform the user of the predicted behavior of the target object existing around the vehicle, and to suppress the user from feeling uneasy.

本開示に係る車両用システムの構成例を概略的に示す図A diagram schematically showing a configuration example of a vehicle system according to the present disclosure 本開示に係るヘッドアップディスプレイの車両への搭載例を概略的に示す図FIG. 2 is a diagram schematically showing an example of mounting a head-up display according to the present disclosure on a vehicle; 本開示に係る車両の車室内における複数の表示部の配置例を概略的に示す図FIG. 2 is a diagram schematically showing an arrangement example of a plurality of display units in a vehicle interior of a vehicle according to the present disclosure; 本開示に係る車両用表示制御装置の制御系の構成例を概略的に示す図A diagram schematically showing a configuration example of a control system of a vehicle display control device according to the present disclosure 本開示に係る挙動予測情報を表示する表示部の選定例を説明するための図A diagram for explaining a selection example of a display unit that displays behavior prediction information according to the present disclosure 本開示に係るヘッドアップディスプレイへの挙動予測情報の表示例を概略的に示す図A diagram schematically showing a display example of behavior prediction information on a head-up display according to the present disclosure 本開示に係るメータ系表示部への挙動予測情報の表示例を概略的に示す図(その1)FIG. 1 is a diagram (part 1) schematically showing a display example of behavior prediction information on a meter system display unit according to the present disclosure; 本開示に係るメータ系表示部への挙動予測情報の表示例を概略的に示す図(その2)FIG. 2 is a diagram (part 2) schematically showing a display example of behavior prediction information on a meter system display unit according to the present disclosure; 本開示に係る車両用表示制御装置による制御例を概略的に示すフローチャートFlowchart schematically showing a control example by the vehicle display control device according to the present disclosure 本開示の変形例に係る車両用表示制御装置の制御系の構成例を概略的に示す図(その1)FIG. 11 is a diagram (part 1) schematically showing a configuration example of a control system of a vehicle display control device according to a modification of the present disclosure; 本開示に係る挙動予測情報の通知方法の一例を概略的に示す図A diagram schematically showing an example of a method for notifying behavior prediction information according to the present disclosure 本開示の変形例に係る車両用表示制御装置の制御系の構成例を概略的に示す図(その2)FIG. 2 is a diagram (part 2) schematically showing a configuration example of a control system of a vehicle display control device according to a modification of the present disclosure;

以下、本開示に係る一実施形態について図面を参照しながら説明する。図1に例示する車両用システム1は、例えば道路上を走行する車両などの移動体に用いられるものであり、HMIシステム2(HMI:Human Machine Interface)、ADASロケータ3(ADAS:Advanced Driver Assistance Systems)、周辺監視センサ4、車両制御ECU5(ECU:Electronic Control Unit)、運転支援ECU6(ECU:Electronic Control Unit)などを備えている。HMIシステム2、ADASロケータ3、周辺監視センサ4、車両制御ECU5、運転支援ECU6は、例えば、車両に搭載されている車内LAN(LAN:Local Area Network)にそれぞれ接続されている。 An embodiment according to the present disclosure will be described below with reference to the drawings. A vehicle system 1 illustrated in FIG. 1 is used for a mobile object such as a vehicle traveling on a road, and includes an HMI system 2 (HMI: Human Machine Interface), an ADAS locator 3 (ADAS: Advanced Driver Assistance Systems ), a surrounding monitoring sensor 4, a vehicle control ECU 5 (ECU: Electronic Control Unit), a driving support ECU 6 (ECU: Electronic Control Unit), and the like. The HMI system 2, the ADAS locator 3, the surroundings monitoring sensor 4, the vehicle control ECU 5, and the driving support ECU 6 are each connected to, for example, an in-vehicle LAN (LAN: Local Area Network) mounted on the vehicle.

ADASロケータ3は、GNSS受信機30(GNSS:Global Navigation Satellite System)、慣性センサ31、地図データベース32などを備えている。以下、地図データベース32を地図DB32と称する。GNSS受信機30は、複数の人工衛星から測位信号を受信する。慣性センサ31は、例えばジャイロセンサや加速度センサなどを備えている。ADASロケータ3は、GNSS受信機30により受信する測位信号と、慣性センサ31によるセンシング結果とを組み合わせることにより、車両用システム1が搭載されている自車両の車両位置を逐次測位する。そして、ADASロケータ3は、測位した車両位置を車内LANを介して出力する。この場合、車両位置は、緯度および経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。 The ADAS locator 3 includes a GNSS receiver 30 (GNSS: Global Navigation Satellite System), an inertial sensor 31, a map database 32, and the like. The map database 32 is hereinafter referred to as a map DB 32 . The GNSS receiver 30 receives positioning signals from multiple satellites. The inertial sensor 31 includes, for example, a gyro sensor and an acceleration sensor. The ADAS locator 3 combines the positioning signal received by the GNSS receiver 30 and the sensing result of the inertial sensor 31 to sequentially locate the vehicle position of the own vehicle on which the vehicle system 1 is mounted. Then, the ADAS locator 3 outputs the determined vehicle position via the in-vehicle LAN. In this case, the vehicle position is represented by a coordinate system consisting of latitude and longitude. In this coordinate system, for example, the X axis indicates longitude and the Y axis indicates latitude. It should be noted that positioning of the vehicle position can be performed, for example, on the basis of mileage information obtained based on the sensing results of a vehicle speed sensor mounted on the vehicle. configuration can be adopted.

地図DB32は、例えば不揮発性メモリーなどで構成されており、リンクデータ、ノードデータ、道路形状データなどの各種のデータを含む地図データを格納している。リンクデータは、地図上の道路を構成するリンクを特定するリンク識別データ、リンクの長さを示すリンク長データ、リンクの方位を示すリンク方位データ、リンクの走行に要する時間を示すリンク走行時間データ、リンクの始点および終点を構成するノードの座標を示すノード座標データ、道路の属性を示すリンク属性データなどの各種のデータを含む。ノードデータは、地図上に存在するノードを特定するノード識別データ、ノードの座標を示すノード座標データ、ノードの名称を示すノード名称データ、例えば交差点などのノードの種別を示すノード種別データ、ノードに接続するリンクを特定する接続リンクデータなどの各種のデータを含む。道路形状データは、地図上に存在する道路の形状を示すデータである。道路形状データには、道路の高度、道路の横断勾配、道路の縦断勾配などを示すデータが含まれている。 The map DB 32 is composed of, for example, a non-volatile memory, and stores map data including various data such as link data, node data, and road shape data. The link data includes link identification data that identifies links that form roads on the map, link length data that indicates the length of the link, link orientation data that indicates the orientation of the link, and link traveling time data that indicates the time required for traveling the link. , node coordinate data indicating the coordinates of nodes forming the start point and end point of a link, and link attribute data indicating road attributes. The node data includes node identification data that identifies a node existing on the map, node coordinate data that indicates the coordinates of the node, node name data that indicates the name of the node, node type data that indicates the type of node such as an intersection, Contains various data such as connecting link data that identifies connecting links. The road shape data is data indicating the shape of roads existing on the map. The road shape data includes data indicating the altitude of the road, the cross slope of the road, the longitudinal slope of the road, and the like.

なお、地図データは、例えば車両に搭載されている通信モジュールなどを介して、自車両の外部から取得するようにしてもよい。また、地図データとして、道路形状の特徴点や地図上に存在する構造物の特徴点などの点群を含む三次元地図データを用いてもよい。また、三次元地図データを用いる場合、ADASロケータ3は、この三次元地図データや、点群を検出するLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)などによるセンシング結果などを用いて自車両の車両位置を特定する構成としてもよい。 Note that the map data may be acquired from outside the own vehicle, for example, via a communication module mounted on the vehicle. As the map data, three-dimensional map data including point groups such as feature points of road shapes and feature points of structures existing on the map may be used. In addition, when using three-dimensional map data, the ADAS locator 3 uses this three-dimensional map data and sensing results such as LIDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging) for detecting point groups. may be configured to identify the vehicle position.

周辺監視センサ4は、自車両の周辺環境を監視するセンサであり、この場合、自律的に動作する自律センサとして備えられている。周辺監視センサ4は、例えば、歩行者などの人間、人間以外の動物、自車両以外の車両などの自車両の周辺で移動する動的物標や、例えば、道路上に存在する落下物、道路の周辺に存在するガードレール、縁石、樹木などの自車両の周辺で静止している静的物標など、自車両の周辺に存在する対象物を検出する。また、周辺監視センサ4は、自車両の周辺の道路に設けられている走行区画線、一時停止線、横断歩道、例えば「止まれ」などと表記された指示標示などの路面標示を検出可能である。そして、周辺監視センサ4は、得られるセンシングデータを車内LANに逐次出力する。周辺監視センサ4は、例えば、自車両周辺の所定範囲を撮像する周辺監視カメラ、自車両周辺の所定範囲に探査波を出力するミリ波レーダ、ソナー、LIDARなどの探査波センサなどで構成される。 The surroundings monitoring sensor 4 is a sensor that monitors the surrounding environment of the own vehicle, and in this case, is provided as an autonomous sensor that operates autonomously. The surroundings monitoring sensor 4 detects, for example, a human such as a pedestrian, an animal other than a human, a dynamic target moving around the own vehicle such as a vehicle other than the own vehicle, a fallen object existing on a road, a road Detect objects existing around the vehicle, such as guardrails, curbs, trees, and other stationary objects around the vehicle. In addition, the perimeter monitoring sensor 4 can detect road markings such as lane markings, stop lines, pedestrian crossings, and instructional markings such as "stop" provided on the roads surrounding the vehicle. . Then, the periphery monitoring sensor 4 sequentially outputs the obtained sensing data to the in-vehicle LAN. The surroundings monitoring sensor 4 includes, for example, a surroundings monitoring camera that captures a predetermined range around the vehicle, a millimeter-wave radar, sonar, LIDAR, or other detection wave sensor that outputs search waves to a predetermined range around the vehicle. .

探査波センサは、対象物によって反射された反射波を受信することにより得られる受信信号に基づく走査結果を、センシングデータとして車内LANに逐次出力する。より詳細に説明すると、探査波センサは、探査波を送信してから、対象物で反射される反射波を受信するまでの時間に基づいて、探査波センサから対象物までの距離を測定する。また、探査波センサは、反射波を受信する際の角度に基づいて、探査波センサに対する対象物の方位を測定する。なお、方位は、例えば方位角で表すことができ、例えば自車両の正面方向を基準として時計回りを正の方位角、反時計回りを負の方位角として表すことができる。 The survey wave sensor sequentially outputs scanning results based on received signals obtained by receiving reflected waves reflected by an object to the in-vehicle LAN as sensing data. More specifically, the probe wave sensor measures the distance from the probe wave sensor to the object based on the time from when the probe wave is transmitted to when the reflected wave reflected by the object is received. Also, the probe wave sensor measures the azimuth of the object with respect to the probe wave sensor based on the angle at which the reflected wave is received. The azimuth can be represented, for example, by an azimuth angle. For example, with the front direction of the host vehicle as a reference, clockwise rotation can be expressed as a positive azimuth angle, and counterclockwise rotation can be expressed as a negative azimuth angle.

この場合、周辺監視センサ4は、少なくとも、自車両の前方の所定範囲を撮像範囲とする前方カメラ41と、自車両の前方の所定範囲を探査範囲とするミリ波レーダ42と、を備えた構成となっている。前方カメラ41は、例えば、自車両のルームミラーや、インストルメントパネルの上面などに設けるとよい。また、ミリ波レーダ42は、例えば、自車両のフロントグリルや、フロントバンパーなどに設けるとよい。ミリ波レーダ42は、ミリ波または準ミリ波を自車両の前方のセンシング範囲に走査しながら送信し、対象物によって反射された反射波を受信することで、ミリ波レーダ42に対する対象物までの距離および方位を測定する。前方カメラ41によるセンシング範囲およびミリ波レーダ42によるセンシング範囲は、一致させるようにしてもよいし、一致させないようにしてもよい。また、前方カメラ41によるセンシング範囲とミリ波レーダ42によるセンシング範囲は、少なくとも一部が重なっていてもよいし、重なっていなくてもよい。また、自車両の異なる箇所に、複数の周辺監視センサ4を備えるようにしてもよい。 In this case, the perimeter monitoring sensor 4 includes at least a front camera 41 whose imaging range is a predetermined range in front of the vehicle, and a millimeter wave radar 42 whose search range is a predetermined range in front of the vehicle. It has become. The front camera 41 may be provided, for example, on the rearview mirror of the vehicle or on the upper surface of the instrument panel. Also, the millimeter wave radar 42 may be provided, for example, on the front grill or the front bumper of the own vehicle. The millimeter wave radar 42 scans and transmits millimeter waves or quasi-millimeter waves to a sensing range in front of the vehicle, and receives reflected waves reflected by the object. Measure distance and bearing. The sensing range of the front camera 41 and the sensing range of the millimeter wave radar 42 may or may not match. Also, the sensing range of the front camera 41 and the sensing range of the millimeter wave radar 42 may or may not overlap at least partially. Also, a plurality of perimeter monitoring sensors 4 may be provided at different locations of the own vehicle.

車両制御ECU5は、例えば、自車両の加速および減速の制御、操舵の制御、制動の制御などを行うための電子制御ユニットである。車両制御ECU5は、自車両の加速および減速の制御を行うパワーユニット制御ECU、自車両の操舵の制御を行う操舵制御ECU、自車両の制動を制御するブレーキ制御ECUなどを含む。車両制御ECU5は、自車両に搭載されているアクセルポジションセンサ、ブレーキ踏力センサ、舵角センサ、車輪速センサなどの各種のセンサから出力される検出信号に基づき、例えば、電子制御スロットル、ブレーキアクチュエータ、EPSモータ(EPS:Electric Power Steering)などの各種の走行制御系のデバイスに制御信号を出力する。また、車両制御ECU5は、各種のセンサから得られる検出信号を車内LANに出力可能である。 The vehicle control ECU 5 is, for example, an electronic control unit for controlling acceleration and deceleration of the host vehicle, steering control, braking control, and the like. The vehicle control ECU 5 includes a power unit control ECU that controls acceleration and deceleration of the vehicle, a steering control ECU that controls steering of the vehicle, a brake control ECU that controls braking of the vehicle, and the like. The vehicle control ECU 5 is based on detection signals output from various sensors such as an accelerator position sensor, a brake depression force sensor, a steering angle sensor, and a wheel speed sensor mounted on the own vehicle. It outputs control signals to various driving control system devices such as an EPS motor (EPS: Electric Power Steering). Further, the vehicle control ECU 5 can output detection signals obtained from various sensors to the in-vehicle LAN.

運転支援ECU6は、例えば、車両制御ECU5と協働することにより、ドライバによる運転操作を支援する。運転支援ECU6による支援には、自車両の走行を自動で制御する自動運転機能も含まれる。運転支援ECU6は、ADASロケータ3から取得する自車両の車両位置、地図DB32に格納されている地図データ、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の走行環境を認識する。より詳細に説明すると、運転支援ECU6は、例えば、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の周辺に存在する物体の位置、形状、移動状態などを認識したり、自車両の周辺に存在する路面標示の位置、大きさ、内容などを認識したりすることが可能である。そして、運転支援ECU6は、このように認識される情報と、地図データや自車両の車両位置などの情報を組み合わせることにより、自車両の周辺の実際の走行環境を三次元で再現した仮想空間を生成することが可能である。 The driving assistance ECU 6, for example, cooperates with the vehicle control ECU 5 to assist the driver's driving operation. The support by the driving support ECU 6 also includes an automatic driving function that automatically controls the running of the own vehicle. The driving support ECU 6 recognizes the driving environment of the own vehicle based on the vehicle position of the own vehicle obtained from the ADAS locator 3, map data stored in the map DB 32, sensing data obtained from the periphery monitoring sensor 4, and the like. More specifically, the driving support ECU 6 recognizes the position, shape, movement state, etc. of objects existing in the vicinity of the own vehicle based on sensing data acquired from the surroundings monitoring sensor 4, for example. It is possible to recognize the position, size, content, etc. of the road markings existing around the road. Then, the driving support ECU 6 combines the information thus recognized with information such as map data and the vehicle position of the own vehicle to create a virtual space in which the actual driving environment around the own vehicle is reproduced in three dimensions. It is possible to generate

また、運転支援ECU6は、認識した走行環境に基づき、自動運転機能によって自車両を自動走行させるための走行計画を生成する。走行計画としては、長中期の走行計画や、短期の走行計画を生成することができる。短期の走行計画では、生成した自車両周辺の仮想空間を用いて、例えば、先行車との目標車間距離を維持するための加減速制御、車線追従や車線変更のための操舵制御、衝突回避のための制動制御などが決定される。長中期の走行計画では、自車両を目的地に到達させるための推奨経路や走行スケジュールなどが決定される。なお、運転支援ECU6は、短期の走行計画および長中期の走行計画のうち何れか一方、例えば、短期の走行計画のみを生成するようにしてもよい。 Further, the driving support ECU 6 generates a driving plan for automatically driving the own vehicle by the automatic driving function based on the recognized driving environment. As the travel plan, a long-term travel plan and a short-term travel plan can be generated. In the short-term driving plan, the generated virtual space around the vehicle is used to perform acceleration/deceleration control to maintain a target distance from the preceding vehicle, steering control for lane following and lane changes, and collision avoidance. braking control and the like for In the long- and medium-term travel plan, a recommended route and a travel schedule for the vehicle to reach its destination are determined. The driving support ECU 6 may generate either one of the short-term driving plan and the long-term driving plan, for example, only the short-term driving plan.

運転支援ECU6により実行される自動運転機能の一例としては、例えば、駆動力および制動力を調整することにより先行車との目標車間距離を維持するように自車両の走行速度を制御するACC機能(ACC:Adaptive Cruise Control)がある。また、自車両の前方のセンシング結果に基づき制動力を発生させることにより自車両を強制的に減速させるAEB機能(AEB:Autonomous Emergency Braking)がある。なお、ACC機能やAEB機能は、あくまでも一例であり、運転支援ECU6は、その他の機能を備える構成としてもよい。 An example of an automatic driving function executed by the driving support ECU 6 is an ACC function ( ACC: Adaptive Cruise Control). In addition, there is an AEB function (AEB: Autonomous Emergency Braking) that forcibly decelerates the vehicle by generating a braking force based on the result of sensing ahead of the vehicle. Note that the ACC function and the AEB function are merely examples, and the driving assistance ECU 6 may be configured to include other functions.

HMIシステム2は、HCU20(Human Machine Interface Control Unit)、操作デバイス21、DSM22(Driver Status Monitor)、表示装置23などを備えている。HMIシステム2は、自車両のユーザであるドライバによる入力操作を受け付けたり、自車両のドライバに向けて各種の情報を提示したりする。操作デバイス21は、自車両のドライバにより操作される各種のスイッチ類を含んでいる。操作デバイス21は、各種の設定などを行うために用いられる。具体的には、操作デバイス21は、自車両のステアリングのスポーク部に設けられているステアリングスイッチなどで構成されている。 The HMI system 2 includes an HCU 20 (Human Machine Interface Control Unit), an operation device 21, a DSM 22 (Driver Status Monitor), a display device 23, and the like. The HMI system 2 receives input operations by the driver, who is the user of the vehicle, and presents various types of information to the driver of the vehicle. The operating device 21 includes various switches operated by the driver of the host vehicle. The operation device 21 is used for making various settings. Specifically, the operation device 21 is configured by a steering switch or the like provided on the spoke portion of the steering wheel of the host vehicle.

DSM22は、例えば、近赤外光を発生する光源、近赤外光を検知する近赤外光カメラ、これらを制御する制御ユニットなどを含んでいる。DSM22は、例えば、ステアリングコラムカバーやインストルメントパネルの上面などにおいて、近赤外光カメラを自車両の運転席に指向させた状態で配置されている。DSM22は、近赤外光の光源から近赤外光が照射されたドライバの頭部を近赤外光カメラによって撮像する。そして、近赤外光カメラによる撮像画像は、図示しない制御ユニットによって画像解析される。この制御ユニットは、例えば、ドライバの目を撮像画像から抽出し、自車両の車室内に設定されている基準位置に対するドライバの目の位置を視点位置として検出する。なお、基準位置は、例えば、近赤外光カメラの設置位置を設定することができる。そして、DSM22は、検出したドライバの視点位置を表す情報をHCU20に出力する。また、制御ユニットは、近赤外光カメラによる撮像画像を画像解析することにより、ドライバの目線、つまり、ドライバの目がどの方向に向かっているのかを特定あるいは推測することが可能である。そして、DSM22は、特定あるいは推測されたドライバの目線の方向を表す目線情報をHCU20に出力する。 The DSM 22 includes, for example, a light source that generates near-infrared light, a near-infrared camera that detects near-infrared light, a control unit that controls these, and the like. The DSM 22 is arranged, for example, on the upper surface of the steering column cover or the instrument panel, with the near-infrared camera directed toward the driver's seat of the vehicle. The DSM 22 uses a near-infrared light camera to capture an image of the driver's head irradiated with near-infrared light from a near-infrared light source. An image captured by the near-infrared camera is image-analyzed by a control unit (not shown). This control unit, for example, extracts the eyes of the driver from the captured image, and detects the positions of the eyes of the driver with respect to the reference positions set in the interior of the vehicle as the viewpoint positions. For the reference position, for example, the installation position of the near-infrared camera can be set. Then, the DSM 22 outputs to the HCU 20 information representing the detected viewpoint position of the driver. In addition, the control unit can identify or estimate the driver's line of sight, that is, the direction in which the driver's eyes are directed, by image analysis of the image captured by the near-infrared camera. Then, the DSM 22 outputs to the HCU 20 line-of-sight information representing the specified or presumed line-of-sight direction of the driver.

表示装置23は、ヘッドアップディスプレイ230(HUD:Head Up Display)として構成されている。以下、ヘッドアップディスプレイ230を、HUD230と称する。図2に例示するように、HUD230は、例えば、自車両のインストルメントパネル12に設けられている。HUD230は、例えば、液晶式または走査式などのプロジェクタ231により、HCU20から出力される画像データに基づく表示画像を形成する。表示画像としては、例えば、車両の経路案内に関連する情報を表す画像などである。 The display device 23 is configured as a head-up display 230 (HUD: Head Up Display). Hereinafter, the head-up display 230 is called HUD230. As illustrated in FIG. 2, the HUD 230 is provided, for example, on the instrument panel 12 of the host vehicle. The HUD 230 forms a display image based on image data output from the HCU 20 by a projector 231 such as a liquid crystal type or a scanning type, for example. The display image is, for example, an image representing information related to vehicle route guidance.

HUD230は、プロジェクタ231によって形成される表示画像を、例えば凹面鏡などを有する光学系232を介して、投影部の一例であるフロントウインドシールド10に投影する。フロントウインドシールド10には、投影領域Rが設けられており、プロジェクタ231によって形成される表示画像は、この投影領域R内に投影される。投影領域Rは、運転席の前方、特には、運転席に着座したドライバの前方に位置するように設けられている。ドライバは、ユーザの一例である。 The HUD 230 projects a display image formed by the projector 231 onto the front windshield 10, which is an example of a projection unit, via an optical system 232 having, for example, a concave mirror. A projection area R is provided on the front windshield 10, and the display image formed by the projector 231 is projected within this projection area R. As shown in FIG. The projection area R is provided so as to be positioned in front of the driver's seat, particularly in front of the driver seated in the driver's seat. A driver is an example of a user.

フロントウインドシールド10に投影された表示画像の光束は、運転席に着座しているドライバによって知覚つまり視認される。また、フロントウインドシールド10は、例えば、透光性のガラス材などによって構成されており、自車両の前方に存在する風景つまり前景の光束も、運転席に着座しているドライバによって知覚つまり視認される。これにより、ドライバは、フロントウインドシールド10の前方にて結像される表示画像の虚像を、虚像コンテンツ100として前景の一部に重畳させた状態で視認可能となる。つまり、HUD230は、自車両の前景に虚像コンテンツ100を重畳表示することにより、いわゆるAR表示(AR:Augmented Reality)を実現する。虚像コンテンツ100は、少なくとも、自車両の走行支援に関連する情報、即ち、走行支援関連情報を視覚的に表すコンテンツである。走行支援関連情報としては、例えば、案内経路における自車両の進行方向などを示す経路案内関連情報、自車両を自動運転制御する場合における進路などを示す自動運転関連情報、自車両が走行するレーンを示すレーン情報、自車両の進行方向前方に存在するカーブを通知するカーブ通知情報、自車両の進行方向前方に歩行者が存在することを伝える歩行者情報、自車両の進行方向前方に停止線が存在することを伝える停止線情報など、自車両の走行支援に有用な情報であれば種々の情報を適用することができる。そして、例えば、歩行者情報を表す虚像コンテンツ100として、重畳コンテンツは、自車両の進行方向前方の交差点や路面上に存在する歩行者または歩行者周辺に重畳表示されるコンテンツであり、非重畳コンテンツは、自車両の進行方向前方の交差点や路面の構成を示す鳥瞰画像内に、歩行者の位置を示すようにしたアイコンなどのコンテンツである。 The luminous flux of the display image projected onto the front windshield 10 is perceived or visually recognized by the driver seated in the driver's seat. The front windshield 10 is made of, for example, a translucent glass material or the like, and the scenery in front of the vehicle, that is, the light flux in the foreground is also perceived or visually recognized by the driver sitting in the driver's seat. be. As a result, the driver can visually recognize the virtual image of the display image formed in front of the front windshield 10 as the virtual image content 100 superimposed on a part of the foreground. That is, the HUD 230 realizes so-called AR display (AR: Augmented Reality) by superimposing and displaying the virtual image content 100 on the foreground of the host vehicle. The virtual image content 100 is at least content that visually represents information related to driving assistance for the own vehicle, that is, driving assistance related information. Driving support related information includes, for example, route guidance related information that indicates the direction of travel of the vehicle on the guidance route, automatic driving related information that indicates the course when the vehicle is automatically controlled, and lane information that the vehicle is traveling on. lane information that indicates a curve ahead of the vehicle in the direction of travel; pedestrian information that indicates that there is a pedestrian ahead of the vehicle in the direction of travel; Various types of information can be applied as long as it is information that is useful for driving support of the own vehicle, such as stop line information that conveys the existence of the vehicle. Then, for example, as virtual image content 100 representing pedestrian information, the superimposed content is content superimposed on or around a pedestrian present on the intersection or on the road surface in front of the vehicle in the traveling direction, and non-superimposed content. is a content such as an icon that indicates the position of a pedestrian in a bird's-eye view image that indicates the configuration of an intersection and a road surface in front of the vehicle in the traveling direction.

なお、HUD230が虚像コンテンツ100を投影する投影部は、フロントウインドシールド10に限られず、例えば、透光性のコンバイナなどで構成してもよい。また、表示装置23は、例えば、コンビネーションメータ、CUD(Center Information Display)などで構成してもよい。 Note that the projection unit on which the HUD 230 projects the virtual image content 100 is not limited to the front windshield 10, and may be configured by, for example, a translucent combiner. Also, the display device 23 may be configured by, for example, a combination meter, a CUD (Center Information Display), or the like.

HCU20は、例えば、プロセッサ、揮発性メモリー、不揮発性メモリー、入出力回路、これらを接続するバスなどを備えるマイクロコンピュータを主体として構成されている。HCU20は、HUD230や車内LANに接続されている。HCU20は、本開示に係る車両用表示制御装置の一例であり、例えば不揮発性メモリーなどの記憶媒体に格納されている制御プログラムを実行することにより、例えばHUD230などの表示部による表示などを制御する。この制御プログラムには、本開示に係る車両用表示制御プログラムが含まれている。また、HCU20は、制御プログラムを実行することにより、本開示に係る車両用表示制御方法が行われる。なお、メモリーは、例えば、コンピュータによって読み取り可能なプログラムやデータを非一時的に格納する非遷移的実体的記憶媒体(Non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、例えば、半導体メモリーや磁気ディスクなどによって実現することができる。 The HCU 20 is mainly composed of a microcomputer including, for example, a processor, a volatile memory, a nonvolatile memory, an input/output circuit, and a bus connecting these. HCU20 is connected to HUD230 and in-vehicle LAN. The HCU 20 is an example of a vehicle display control device according to the present disclosure, and controls display by a display unit such as the HUD 230 by executing a control program stored in a storage medium such as a nonvolatile memory. . This control program includes a vehicle display control program according to the present disclosure. Further, the HCU 20 executes the control program to perform the vehicle display control method according to the present disclosure. Note that the memory is, for example, a non-transitory tangible storage medium that non-temporarily stores computer-readable programs and data. Also, the non-transitional material storage medium can be realized by, for example, a semiconductor memory, a magnetic disk, or the like.

また、図1に例示するように、車両用システム1は、さらにメータ系表示部7を備えている。メータ系表示部7は、HUD230のフロントウインドシールド10とは異なる表示部の一例であり、例えば、自車両の走行速度やエンジンの回転速度などのメータ系の情報を表示可能な表示部である。また、メータ系表示部7は、後述するように、虚像コンテンツ100が表す走行支援関連情報などの各種の情報も、虚像コンテンツ100とは異なる態様、例えば液晶表示などにより表示可能である。また、車両用システム1は、さらにナビゲーション表示部8を備えている。ナビゲーション表示部8は、車両に搭載されるナビゲーション装置のディスプレイを構成している。ナビゲーション表示部8は、HUD230のフロントウインドシールド10とは異なる表示部の一例である。また、ナビゲーション表示部8は、虚像コンテンツ100が表す走行支援関連情報などの各種の情報も、虚像コンテンツ100とは異なる態様、例えば液晶表示などにより表示可能である。 Further, the vehicle system 1 further includes a meter system display unit 7, as illustrated in FIG. The meter system display unit 7 is an example of a display unit different from the front windshield 10 of the HUD 230, and is a display unit capable of displaying meter system information such as the running speed of the host vehicle and the rotation speed of the engine. Further, as will be described later, the meter system display unit 7 can also display various types of information such as driving assistance related information represented by the virtual image content 100 in a manner different from that of the virtual image content 100, such as liquid crystal display. In addition, the vehicle system 1 further includes a navigation display section 8 . The navigation display unit 8 constitutes a display of a navigation device mounted on the vehicle. The navigation display section 8 is an example of a display section different from the front windshield 10 of the HUD 230 . The navigation display unit 8 can also display various types of information such as driving assistance related information represented by the virtual image content 100 in a manner different from that of the virtual image content 100, such as liquid crystal display.

図3に例示するように、HUD230の投影領域Rは、フロントウインドシールド10のうち運転席の前方正面に位置して設けられている。また、メータ系表示部7は、インストルメントパネル12にあって、運転席の前方正面においてHUD230の投影領域Rよりも下方となる位置に設けられている。また、ナビゲーション表示部8は、インストルメントパネル12の左右方向のほぼ中央部に位置して設けられている。なお、図3に示した各種の表示系構成要素の配置位置は、あくまでも一例であり、それぞれの表示系構成要素の配置位置は、適宜変更して実施することができる。 As illustrated in FIG. 3, the projection area R of the HUD 230 is provided on the front windshield 10 in front of the driver's seat. Further, the meter system display unit 7 is provided on the instrument panel 12 at a position below the projection area R of the HUD 230 in front of the driver's seat. Further, the navigation display unit 8 is provided so as to be positioned substantially in the center of the instrument panel 12 in the left-right direction. It should be noted that the arrangement positions of the various display system components shown in FIG. 3 are merely examples, and the arrangement positions of the respective display system components can be changed as appropriate.

次に、HUD230による表示の制御に関するHCU20の構成例について、さらに詳細に説明する。図4に例示するように、HCU20は、車両用表示制御プログラムを実行することにより、重畳コンテンツ投影部51、非重畳コンテンツ投影部52、検出処理部53、予測処理部54、表示処理部55、特定処理部56、表示制御処理部57をソフトウェアにより仮想的に実現する。なお、HCU20は、これらの処理部をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。 Next, a configuration example of the HCU 20 regarding control of display by the HUD 230 will be described in more detail. As illustrated in FIG. 4, the HCU 20 executes a vehicle display control program to perform a superimposed content projection unit 51, a non-superimposed content projection unit 52, a detection processing unit 53, a prediction processing unit 54, a display processing unit 55, The specific processing unit 56 and the display control processing unit 57 are virtually realized by software. The HCU 20 may configure these processing units with hardware, or may configure them with a combination of software and hardware.

重畳コンテンツ投影部51は、重畳コンテンツ投影処理を実行する。重畳コンテンツ投影処理は、虚像コンテンツ100の一例である重畳コンテンツ101を、自車両の前景に含まれる対象に重畳させるようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、重畳コンテンツ101は、自車両の前景に含まれる対象に積極的に張り付けるようにして投影される虚像コンテンツ100であり、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100、例えば、後述する非重畳コンテンツ102が偶発的に自車両の前景に含まれる対象に重畳する位置に投影される場合における当該非重畳コンテンツ102などとは異なるものである。具体的には、重畳コンテンツ101は、自車両の前景に含まれる対象、例えば、道路に沿うようにして投影される虚像コンテンツ100、ドライバから見てフロントウインドシールド10の奥行き方向、つまり、自車両の進行方向前方に向かって延びる虚像コンテンツ100、自車両の前景に含まれる対象、例えば、自車両の進行方向前方に実際に存在する停止線などに重畳して投影された状態が自車両の移動に関わらず維持される虚像コンテンツ100、ドライバの視点位置と、自車両の前方における実際の実景と、投影領域R内における投影位置との位置関係が所定の関係に維持される虚像コンテンツ100、などである。 The superimposed content projection unit 51 executes superimposed content projection processing. The superimposed content projection process is a process of projecting the superimposed content 101, which is an example of the virtual image content 100, in the projection area R of the front windshield 10 so as to be superimposed on an object included in the foreground of the own vehicle. Note that the superimposed content 101 is a virtual image content 100 that is projected so as to be positively attached to an object included in the foreground of the own vehicle. It is different from the virtual image content 100 that is not projected, for example, the non-superimposed content 102 that is accidentally projected at a position where the non-superimposed content 102 is superimposed on the object included in the foreground of the vehicle. Specifically, the superimposed content 101 is an object included in the foreground of the vehicle, for example, a virtual image content 100 projected along the road, the depth direction of the front windshield 10 as seen from the driver, that is, the vehicle. virtual image content 100 extending forward in the direction of travel of the vehicle, and an object included in the foreground of the vehicle, for example, a stop line that actually exists in front of the vehicle in the direction of travel. a virtual image content 100 that maintains a predetermined positional relationship between the driver's viewpoint position, the actual scene in front of the host vehicle, and the projection position within the projection area R; is.

非重畳コンテンツ投影部52は、非重畳コンテンツ投影処理を実行する。非重畳コンテンツ投影処理は、虚像コンテンツ100の一例である非重畳コンテンツ102を、自車両の前景に含まれる対象に重畳させないようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、非重畳コンテンツ102は、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100であるが、偶発的に、自車両の前景に含まれる対象に重畳した状態で投影される場合も有り得る虚像コンテンツ100である。 The non-superimposed content projection unit 52 executes non-superimposed content projection processing. The non-superimposed content projection process is a process of projecting the non-superimposed content 102, which is an example of the virtual image content 100, onto the projection area R of the front windshield 10 so as not to be superimposed on the object included in the foreground of the own vehicle. Note that the non-superimposed content 102 is the virtual image content 100 that is not projected by actively sticking to the object included in the foreground of the own vehicle, but is accidentally superimposed on the object included in the foreground of the own vehicle. It is the virtual image content 100 that can be projected at .

検出処理部53は、検出処理を実行する。検出処理は、車両の周辺に存在する物標を検出する処理である。この場合、検出処理部53は、主として周辺監視センサ4によって、車両の周辺に存在する物標、例えば、他車両などを検出することが可能である。 The detection processing unit 53 executes detection processing. The detection process is a process of detecting targets existing around the vehicle. In this case, the detection processing unit 53 can detect a target existing around the vehicle, such as another vehicle, mainly by the surroundings monitoring sensor 4 .

予測処理部54は、予測処理を実行する。予測処理は、検出処理部53が検出する物標の挙動を予測する処理である。この場合、予測処理部54は、主として周辺監視センサ4の前方カメラ41やミリ波データ42によって物標の実際の挙動を特定し、その特定した挙動を分析することにより、その後における当該物標の挙動を予測する。また、予測処理部54は、検出処理部53が検出した物標の挙動履歴を記憶し、この挙動履歴を分析することにより当該物標の今後の挙動を予測することが可能である。 The prediction processing unit 54 executes prediction processing. The prediction processing is processing for predicting the behavior of the target detected by the detection processing unit 53 . In this case, the prediction processing unit 54 mainly identifies the actual behavior of the target using the front camera 41 of the perimeter monitoring sensor 4 and the millimeter wave data 42, and analyzes the identified behavior to determine the subsequent behavior of the target. Predict behavior. Further, the prediction processing unit 54 stores the behavior history of the target detected by the detection processing unit 53, and can predict the future behavior of the target by analyzing this behavior history.

表示処理部55は、表示処理を実行する。表示処理は、予測処理部54が予測する物標の挙動を示す挙動予測情報を、車両の車室内の異なる位置にそれぞれ配置されている複数の表示部、この場合、HUD230の投影領域R、メータ系表示部7、ナビゲーション表示部8の少なくとも何れか1つの表示部に表示する処理である。 The display processing unit 55 executes display processing. In the display processing, the behavior prediction information indicating the behavior of the target predicted by the prediction processing unit 54 is displayed on a plurality of display units arranged at different positions in the vehicle interior, in this case, the projection area R of the HUD 230, the meter This is processing for displaying on at least one of the system display unit 7 and the navigation display unit 8 .

特定処理部56は、特定処理を実行する。特定処理は、ユーザ、この場合、運転席に着座しているドライバの目線を特定する処理である。この場合、特定処理部56は、主としてDSM22よって、ドライバの目線を特定することが可能となっている。 The specific processing unit 56 executes specific processing. The specifying process is a process of specifying the line of sight of the user, in this case, the driver sitting in the driver's seat. In this case, the identification processing unit 56 can identify the line of sight of the driver mainly by the DSM 22 .

表示制御処理部57は、表示制御処理を実行する。表示制御処理は、車両に搭載されている複数の表示部への挙動予測情報の表示を制御する処理である。この場合、表示制御処理部57は、特定処理部56が特定するユーザの目線が、検出処理部53が検出する物標に向かっている場合に、複数の表示部の何れかに挙動予測情報を表示することが可能である。具体的には、表示制御処理部57は、特定処理部56が特定するユーザの目線に最も近い表示部に挙動予測情報を表示することが可能である。 The display control processing unit 57 executes display control processing. The display control process is a process of controlling display of behavior prediction information on a plurality of display units mounted on the vehicle. In this case, the display control processing unit 57 outputs the behavior prediction information to one of the plurality of display units when the user's line of sight identified by the identification processing unit 56 is directed toward the target detected by the detection processing unit 53. It is possible to display Specifically, the display control processing unit 57 can display the behavior prediction information on the display unit closest to the eye line of the user identified by the identification processing unit 56 .

即ち、図5にポイントP1で例示するように、例えば直進時などにおいてドライバの目線が車両の進行方向前方、換言すれば、フロントウインドシールド10のうち運転席の正面前方部分に向かっている場合には、表示制御処理部57は、その目線を示すポイントP1に最も近い表示部、この場合、HUD230の投影領域R内に挙動予測情報を表示する。また、図5にポイントP2で例示するように、例えば停車時においてドライバの目線がインストルメントパネル12のうち運転席の正面前方部分、換言すれば、ステアリングやメータなどに向かっている場合には、表示制御処理部57は、その目線を示すポイントP2に最も近い表示部、この場合、メータ系表示部7に挙動予測情報を表示する。また、図5にポイントP3で例示するように、例えば左折時などにおいてドライバの目線がフロントウインドシールド10のうち運転席の前方左側部分に向かっている場合には、表示制御処理部57は、その目線を示すポイントP3に最も近い表示部、この場合、ナビゲーション表示部8に挙動予測情報を表示する。 That is, as illustrated by point P1 in FIG. 5, for example, when the driver's line of sight is directed forward in the traveling direction of the vehicle, in other words, when the driver's line of sight is directed toward the front portion of the front windshield 10 in front of the driver's seat when the vehicle is traveling straight ahead. , the display control processing unit 57 displays the behavior prediction information on the display unit closest to the point P1 indicating the line of sight, in this case, within the projection area R of the HUD 230 . Further, as exemplified by point P2 in FIG. 5, for example, when the driver's line of sight is directed toward the front front portion of the driver's seat in the instrument panel 12 when the vehicle is stopped, in other words, the steering wheel, meter, etc. The display control processing unit 57 displays the behavior prediction information on the display unit closest to the point P2 indicating the line of sight, in this case, on the meter system display unit 7 . Further, as exemplified by point P3 in FIG. 5, when the driver's line of sight is toward the front left portion of the driver's seat on the front windshield 10 when turning left, for example, the display control processing unit 57 The behavior prediction information is displayed on the display unit closest to the point P3 indicating the line of sight, in this case, on the navigation display unit 8. FIG.

また、表示制御処理部57は、特定処理部56が特定するドライバの目線が、検出処理部53が検出する物標に向かっている状態が所定時間以上継続している場合に、表示部に挙動予測情報を表示することが可能である。この場合、所定時間として、少なくとも1秒以上の時間を設定するとよい。即ち、表示制御処理部57は、ドライバがある程度注視する物標、つまり、ドライバが関心を持っていると判定できる物標について、その挙動予測情報を提示するように構成するとよい。 In addition, the display control processing unit 57 displays the behavior on the display unit when the line of sight of the driver identified by the identification processing unit 56 continues for a predetermined time or longer toward the target detected by the detection processing unit 53. It is possible to display forecast information. In this case, it is preferable to set at least one second or more as the predetermined time. In other words, the display control processing unit 57 may be configured to present the behavior prediction information of a target that the driver gazes at to some extent, that is, a target that can be determined to be of interest to the driver.

次に、本開示に係る車両用表示制御装置20による挙動予測情報の表示形態の例をいくつか説明する。 Next, some examples of display forms of behavior prediction information by the vehicle display control device 20 according to the present disclosure will be described.

図6に例示する表示態様は、自動運転で走行中の自車両の前方左側に、くねくねと蛇行しながら進行する他車両Vbが存在している場合における挙動予測情報Y1の表示態様である。この場合、HUD230の投影領域R内には、他車両Vbが自車両側に近寄ってくる可能性があることを示す挙動予測情報Y1が表示されている。この場合、挙動予測情報Y1は、自車両側に向かう複数の矢印マークにより構成されたアイコン情報となっている。なお、挙動予測情報Y1は、重畳コンテンツとして表示してもよいし、非重畳コンテンツとして表示してもよい。 The display mode illustrated in FIG. 6 is a display mode of the behavior prediction information Y1 when another vehicle Vb traveling in a meandering manner exists on the front left side of the host vehicle that is traveling in automatic operation. In this case, within the projection area R of the HUD 230, behavior prediction information Y1 is displayed that indicates that there is a possibility that the other vehicle Vb will approach the own vehicle. In this case, the behavior prediction information Y1 is icon information composed of a plurality of arrow marks pointing toward the own vehicle. Note that the behavior prediction information Y1 may be displayed as superimposed content or may be displayed as non-superimposed content.

図7に例示する表示態様は、同じく、自動運転で走行中の自車両の前方左側に、くねくねと蛇行しながら進行する他車両Vbが存在している場合における挙動予測情報Y1の表示態様である。この場合、メータ系表示部7には、他車両Vbが自車両Va側に近寄ってくる可能性があることを示す挙動予測情報Y1が表示されている。この場合、挙動予測情報Y1は、自車両側に向かう複数の矢印マークにより構成されたアイコン情報となっている。なお、この場合、メータ系表示部7には、自車両Vaを示すアイコンのほか、他車両Vb以外の他車両Vcを示すアイコンも表示されている。 Similarly, the display mode illustrated in FIG. 7 is a display mode of the behavior prediction information Y1 in the case where another vehicle Vb traveling in a meandering manner exists on the front left side of the host vehicle that is traveling in automatic operation. . In this case, the meter system display unit 7 displays behavior prediction information Y1 indicating that the other vehicle Vb may approach the own vehicle Va. In this case, the behavior prediction information Y1 is icon information composed of a plurality of arrow marks pointing toward the own vehicle. In this case, the meter system display unit 7 displays not only the icon indicating the own vehicle Va but also the icon indicating the other vehicle Vc other than the other vehicle Vb.

図8に例示する表示態様は、同じく、自動運転で走行中の自車両の前方左側に、くねくねと蛇行しながら進行する他車両Vbが存在している場合における挙動予測情報Y1の表示態様である。この場合、メータ系表示部7には、他車両Vbが自車両Va側に近寄ってくる可能性があることを示す挙動予測情報Y1が表示されている。さらに、メータ系表示部7には、他車両Vbのそれまでの走行軌跡を示す走行軌跡情報Y2が表示されている。この走行軌跡情報Y2は、他車両Vbが、現在だけでなく過去においても、くねくねと蛇行しながら走行してきたことを示す蛇行状のアイコン情報となっている。この走行軌跡情報Y2は、例えば、他車両Vbについて周辺監視センサ4により得られる過去の履歴データを分析することにより生成することができる。 Similarly, the display mode illustrated in FIG. 8 is a display mode of the behavior prediction information Y1 in the case where another vehicle Vb traveling in a meandering manner exists on the front left side of the host vehicle that is traveling in automatic operation. . In this case, the meter system display unit 7 displays behavior prediction information Y1 indicating that the other vehicle Vb may approach the own vehicle Va. Further, the meter system display unit 7 displays running locus information Y2 indicating the running locus of the other vehicle Vb so far. The travel locus information Y2 is meandering icon information indicating that the other vehicle Vb has meandered in the past as well as at present. This travel locus information Y2 can be generated, for example, by analyzing past history data obtained by the surroundings monitoring sensor 4 for the other vehicle Vb.

次に、本開示に係る車両用表示制御装置、この場合、HCU20による制御の一例について説明する。図9に例示するように、HCU20は、検出処理部53により、車両の周辺に存在する物標、例えば、他車両の検出処理を実行する。そして、HCU20は、車両の周辺に存在する物標を検出すると(S1:YES)、その物標が示す挙動を記憶する(S2)。物標の挙動は、例えば周辺監視センサ4によって得られる各種のデータを分析することにより特定することができ、例えば、対象となる物標が他車両である場合には、その走行軌跡、走行態様、走行速度などの挙動を特定することが可能である。また、特定された挙動を示す挙動情報は、HCU20が備える図示しない記憶部に記憶される。なお、記憶部は、例えばメモリーなどといった記憶媒体により構成されている。 Next, the vehicle display control device according to the present disclosure, in this case, an example of control by the HCU 20 will be described. As illustrated in FIG. 9 , the HCU 20 uses the detection processing unit 53 to detect a target, such as another vehicle, existing around the vehicle. When the HCU 20 detects a target existing around the vehicle (S1: YES), the HCU 20 stores the behavior of the target (S2). The behavior of the target can be specified by analyzing various data obtained by the perimeter monitoring sensor 4, for example. , running speed, etc. can be specified. Behavior information indicating the specified behavior is stored in a storage unit (not shown) provided in the HCU 20 . Note that the storage unit is configured by a storage medium such as a memory, for example.

この場合、HCU20は、検出された物標の挙動を示す挙動情報をリアルタイムに動的に記憶部に記憶するようになっている。但し、HCU20は、例えば所定期間ごとに、その間に蓄積された挙動情報を一括して記憶部に記憶するようにしてもよい。 In this case, the HCU 20 dynamically stores the behavior information indicating the behavior of the detected target in the storage unit in real time. However, the HCU 20 may collectively store the behavior information accumulated during each predetermined period in the storage unit, for example.

そして、HCU20は、記憶した物標の挙動情報に基づき、その物標の今後の挙動を予測する(S3)。そして、HCU20は、予測した物標の挙動が不安定であるか否かを判定する(S4)。即ち、HCU20は、その物標の挙動予測情報が示す走行軌跡、走行態様、走行速度などの挙動に基づき、予想される挙動が不安定であるか否かを判定する。具体的には、HCU20は、物標が、蛇行しながら走行している場合、車線から大きくはみ出している場合、走行速度が法定速度を超えている場合などに、その物標について予測される挙動が不安定であると判定するようになっている。 Then, the HCU 20 predicts the future behavior of the target based on the stored behavior information of the target (S3). The HCU 20 then determines whether the predicted behavior of the target is unstable (S4). That is, the HCU 20 determines whether or not the expected behavior is unstable based on the behavior such as the travel locus, travel mode, and travel speed indicated by the target behavior prediction information. Specifically, the HCU 20 determines the predicted behavior of the target when the target is meandering, deviates significantly from the lane, or exceeds the legal speed limit. is determined to be unstable.

HCU20は、予測した物標の挙動が不安定ではないと判定した場合(S4:NO)には、この制御を終了する。しかし、HCU20は、予測した物標の挙動が不安定であると判定した場合(S4:YES)には、ユーザ、この場合、ドライバの視線が当該物標に向かっているか否か、即ち、ドライバが当該物標を注視しているか否かを判定する(S5)。 When the HCU 20 determines that the predicted behavior of the target is not unstable (S4: NO), it ends this control. However, when the HCU 20 determines that the predicted behavior of the target is unstable (S4: YES), the user, in this case, the driver's line of sight is directed toward the target. is gazing at the target (S5).

HCU20は、ドライバの視線が当該物標に向かっている場合(S5:YES)には、その視線に最も近い表示部に当該物標に係る挙動予測情報を表示して(S6)、この制御を終了する。この場合、HCU20は、ドライバが当該物標を注視している時間が所定時間以上継続していることを条件に挙動予測情報を表示するようにしてもよいし、ドライバが当該物標を注視している時間が所定時間以上継続していなくても挙動予測情報を表示するようにしてもよい。 When the line of sight of the driver is directed toward the target (S5: YES), the HCU 20 displays behavior prediction information related to the target on the display unit closest to the line of sight (S6), and performs this control. finish. In this case, the HCU 20 may display the behavior prediction information on condition that the driver gazes at the target for a predetermined period of time or more, or the driver gazes at the target. The behavior prediction information may be displayed even if the time that the user is on does not continue for a predetermined time or more.

一方、HCU20は、ドライバの視線が当該物標に向かっていない場合(S5:NO)には、誘導処理を実行して(S7)、この制御を終了する。誘導処理は、ドライバの目線を当該物標に向かうように誘導するための処理であり、例えば、ドライバの目線に最も近い表示部に、当該物標が存在している方向を示す情報、例えば、矢印マークを表示したり、当該物標が存在している方向を示す音声情報を図示しないスピーカから出力したり、例えば運転席やステアリングホイールを振動させたりする処理などが考えられる。誘導処理を振動で実現する場合、例えば、運転席やステアリングホールのうち物標が存在している側の部分を振動させることなどが考えられる。 On the other hand, when the driver's line of sight is not directed toward the target (S5: NO), the HCU 20 executes the guidance process (S7) and terminates this control. Guidance processing is processing for guiding the driver's line of sight toward the target. Processing such as displaying an arrow mark, outputting audio information indicating the direction in which the target exists from a speaker (not shown), or vibrating the driver's seat or steering wheel, for example, can be considered. When the guidance process is implemented by vibration, for example, it is conceivable to vibrate the part of the driver's seat or the steering wheel on the side where the target exists.

本実施形態によれば、自車両の周辺に存在する例えば他車両などの物標の挙動について、その挙動予測情報が視覚的な情報として表示部に表示される。よって、自車両の周辺に存在する物標の挙動について、どのような挙動が予測されているのかをドライバに知らせることができ、ドライバが不安に感じてしまうことを抑制することができる。また、本実施形態によれば、挙動予測情報は、ドライバの目線が当該物標に向かっていることを条件に表示部に表示することが可能である。そのため、ドライバが注目している物標について、その挙動予測情報をドライバに提供することができ、ドライバが注目していない物標に関する挙動予測情報、つまり、ドライバにとって不要である可能性がある情報が提供されてしまうことを回避することができる。 According to the present embodiment, the behavior prediction information about the behavior of a target such as another vehicle existing around the own vehicle is displayed as visual information on the display unit. Therefore, it is possible to inform the driver of the expected behavior of the target objects existing around the vehicle, and to prevent the driver from feeling uneasy. Further, according to the present embodiment, the behavior prediction information can be displayed on the display unit on condition that the driver's line of sight is directed toward the target. Therefore, it is possible to provide the driver with behavior prediction information about the target that the driver is paying attention to, and behavior prediction information about the target that the driver is not paying attention to, that is, information that may be unnecessary for the driver. can be avoided from being provided.

また、本実施形態によれば、ドライバの目線に最も近い表示部に挙動予測情報を表示することが可能である。よって、ドライバは、視線を大きく変更あるいは全く変更しなくても挙動予測情報を確認することができ、より使い勝手のよい情報提供システムを実現することができる。なお、ドライバの目線に最も近い表示部が複数存在する場合には、複数の表示部に挙動予測情報を表示するようにしてもよいし、何れかの表示部を適宜選定して挙動予測情報を表示するようにしてもよい。また、ドライバの目線に最も近い表示部が複数存在する場合において何れかの表示部を選定する場合には、例えば、過去において挙動予測情報が表示された回数が多い表示部を選定するなど、適宜の手法により表示部を選定することができる。 Further, according to the present embodiment, it is possible to display the behavior prediction information on the display unit closest to the line of sight of the driver. Therefore, the driver can confirm the behavior prediction information without changing the line of sight significantly or at all, and a more user-friendly information providing system can be realized. If there are a plurality of display units that are closest to the line of sight of the driver, the behavior prediction information may be displayed on the plurality of display units, or one of the display units may be appropriately selected to display the behavior prediction information. You may make it display. Further, when there are a plurality of display units that are closest to the line of sight of the driver, when selecting one of the display units, for example, the display unit that has displayed the behavior prediction information many times in the past is selected. The display part can be selected by the method of

また、本実施形態においては、ドライバの目線が物標に向かっている状態が所定時間以上継続している場合に、表示部に挙動予測情報が表示されるようにするとよい。これによれば、ドライバがある程度注視する物標、つまり、ドライバが関心を持っている可能性が高い物標について、その挙動予測情報が提示されるようになる。従って、ドライバが不要と思っている可能性がある物標に関する情報が提示されてしまうことを回避することができ、換言すれば、ドライバにとって有用な情報を効率良く提示することができる。 Further, in the present embodiment, it is preferable that the behavior prediction information is displayed on the display unit when the driver's line of sight is directed toward the target for a predetermined time or longer. According to this, the behavior prediction information is presented for a target that the driver gazes at to some extent, that is, a target that the driver is likely to be interested in. Therefore, it is possible to avoid presenting information about targets that the driver may think is unnecessary. In other words, it is possible to efficiently present useful information to the driver.

なお、本開示は、上述した一実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変更や拡張を行うことができる。例えば、HCU20は、まずはHUD230の投影領域R内に挙動予測情報を表示し、ドライバの目線がHUD230の投影領域Rから外れている場合、あるいは、ドライバの目線がHUD230の投影領域Rから外れた場合には、他の表示部に挙動予測情報を表示するようにしてもよい。また、他の表示部に挙動予測情報を表示する際には、そのときにおけるドライバの目線に最も近い表示部に挙動予測情報を表示するようにするとよい。即ち、車両の走行中においては、ドライバの目線は、進行方向前方に向かっている場合が殆どであると想定されるので、そのような目線に最も近いHUD230の投影領域R内に挙動予測情報を表示することにより、当該情報をドライバに効率良く伝えることができる。そして、ドライバの目線がHUD230の投影領域Rから外れている場合、あるいは、外れた場合には、その目線を追うようにして当該目線に最も近い表示部に挙動予測情報を表示することができ、ドライバの目線が車両の進行方向前方から変わったとしても挙動予測情報をドライバに伝達しやすくすることができる。 The present disclosure is not limited to the above-described embodiment, and various modifications and extensions can be made without departing from the scope of the present disclosure. For example, the HCU 20 first displays the behavior prediction information in the projection area R of the HUD 230, and if the driver's line of sight is out of the projection area R of the HUD 230, or if the driver's line of sight is out of the projection area R of the HUD 230 Alternatively, the behavior prediction information may be displayed on another display unit. Also, when displaying the behavior prediction information on another display section, it is preferable to display the behavior prediction information on the display section closest to the line of sight of the driver at that time. That is, while the vehicle is running, it is assumed that the driver's line of sight is directed forward in the direction of travel in most cases. By displaying the information, the information can be efficiently conveyed to the driver. Then, when the line of sight of the driver is out of the projection area R of the HUD 230, or when it is out of the line of sight, the behavior prediction information can be displayed on the display unit closest to the line of sight so as to follow the line of sight, Even if the line of sight of the driver changes from the front in the traveling direction of the vehicle, it is possible to easily transmit the behavior prediction information to the driver.

また、例えば図10に例示するように、HCU20は、さらに判定処理部58を備える構成としてもよい。HCU20は、車両用表示制御プログラムを実行することにより、判定処理部58をソフトウェアにより仮想的に実現することが可能である。なお、HCU20は、判定処理部58をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。 Further, the HCU 20 may further include a determination processing unit 58, as illustrated in FIG. 10, for example. The HCU 20 can virtually realize the determination processing unit 58 by software by executing the vehicle display control program. Note that the HCU 20 may configure the determination processing unit 58 with hardware, or may configure it with a combination of software and hardware.

判定処理部58は、予測処理部54が予測する物標の挙動の危険度を判定する。即ち、図11に例示するように、判定処理部58は、予測処理部54が予測する物標の挙動の危険度を複数段階、この場合、少なくとも危険度「高」,「中」,「低」の3段階に分けて判定するように構成されている。そして、表示制御処理部57は、判定処理部58が判定する危険度が上昇するごとに、改めて表示部に挙動予測情報を表示するように構成されている。また、表示制御処理部57は、判定処理部58が判定する危険度が不変または低下した場合には、改めて表示部に挙動予測情報を表示しないように構成されている。 The determination processing unit 58 determines the degree of risk of behavior of the target predicted by the prediction processing unit 54 . That is, as exemplified in FIG. 11, the determination processing unit 58 sets the risk of the behavior of the target predicted by the prediction processing unit 54 to a plurality of levels. is configured to be determined in three steps. Then, the display control processing unit 57 is configured to display the behavior prediction information again on the display unit each time the degree of risk determined by the determination processing unit 58 increases. Further, the display control processing unit 57 is configured not to display behavior prediction information on the display unit again when the degree of risk determined by the determination processing unit 58 remains unchanged or decreases.

この構成によれば、対象となる物標について予想される挙動の危険度が上昇した場合に限って、その挙動予測情報をドライバに通知することができ、不必要に何度も挙動予測情報がドライバに通知されてしまうことを回避することができる。なお、判定処理部58は、危険度を2段階に分けて判定するようにしてもよいし、4段階以上の多段階に分けて判定するようにしてもよい。また、表示制御処理部57は、危険度が1段階でも上昇したら挙動予測情報を再表示するようにしてもよいし、複数段階、例えば、2段階上昇したら挙動予測情報を再表示するようにしてもよい。 According to this configuration, the behavior prediction information can be notified to the driver only when the risk of the behavior expected of the target object increases, and the behavior prediction information is sent unnecessarily many times. It is possible to avoid notifying the driver. Note that the determination processing unit 58 may determine the degree of risk by dividing it into two stages, or may determine it by dividing it into multiple stages of four stages or more. The display control processing unit 57 may redisplay the behavior prediction information when the risk level rises by even one level, or may redisplay the behavior prediction information when the risk level rises by a plurality of levels, for example, by two levels. good too.

また、図12に例示するように、HCU20は、さらに評価結果入力処理部59を備える構成としてもよい。HCU20は、車両用表示制御プログラムを実行することにより、評価結果入力処理部59をソフトウェアにより仮想的に実現することが可能である。なお、HCU20は、評価結果入力処理部59をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。 Moreover, as illustrated in FIG. 12, the HCU 20 may be configured to further include an evaluation result input processing unit 59 . The HCU 20 can virtually realize the evaluation result input processing unit 59 by software by executing the vehicle display control program. Note that the HCU 20 may configure the evaluation result input processing unit 59 by hardware, or may be configured by a combination of software and hardware.

評価結果入力処理部59は、評価結果入力処理を実行する。評価結果入力処理は、表示部に表示される挙動予測情報が示す物標の挙動を評価した結果をHCU20に入力するための処理である。即ち、ドライバは、表示部に表示される挙動予測情報について、その表示内容や表示タイミングなどが自身の納得するものであるか否かを評価する。そして、ドライバは、その評価結果を例えば操作デバイス21などにより構成される入力部を介して評価結果入力処理部59、ひいては、HCU20に入力する。そして、HCU20は、入力された評価結果に基づき、挙動予測情報の表示態様、例えば、表示内容や表示タイミングなどを調整するようにするとよい。即ち、HCU20は、入力された評価結果に基づく学習機能を備えることにより、よりドライバの要求に応じた態様で挙動予測情報を表示できるようになる。 The evaluation result input processing unit 59 executes evaluation result input processing. The evaluation result input process is a process for inputting to the HCU 20 the result of evaluating the behavior of the target indicated by the behavior prediction information displayed on the display unit. That is, the driver evaluates whether or not the behavior prediction information displayed on the display unit is satisfactory to him/herself in terms of display content, display timing, and the like. Then, the driver inputs the evaluation result to the evaluation result input processing unit 59 and, by extension, the HCU 20 via an input unit configured by the operation device 21 or the like. Then, the HCU 20 preferably adjusts the display mode of the behavior prediction information, such as display content and display timing, based on the input evaluation result. That is, the HCU 20 has a learning function based on the input evaluation result, so that the behavior prediction information can be displayed in a manner that better meets the driver's request.

入力部としては、操作デバイス21の他、例えば表示部のディスプレイ上に形成されるタッチボタン、運転席から手の届く範囲に設けられる機械式のボタンなどが考えられる。また、入力部としては、挙動予測情報がドライバの予測する内容と一致することを入力するための一致ボタン、および、一致しないことを入力する不一致ボタンを備える構成としてもよいし、挙動予測情報の内容を複数段階、例えば、「優」,「良」,「可」の3段階に分けて評価できるボタン群で構成してもよい。即ち、入力部は、何らかのかたちで挙動予測情報を評価できるものであれば、種々の構成を適用することができる。 As the input unit, in addition to the operation device 21, for example, touch buttons formed on the display of the display unit, mechanical buttons provided within reach from the driver's seat, and the like can be considered. Further, the input unit may include a match button for inputting that the behavior prediction information matches the content predicted by the driver, and a non-match button for inputting that the behavior prediction information does not match. It may be composed of a group of buttons that can be evaluated in a plurality of levels, for example, three levels of "excellent", "good", and "acceptable". That is, the input section can apply various configurations as long as the behavior prediction information can be evaluated in some way.

また、図10に例示した制御系の構成例と図12に例示した制御系の構成例とを組み合わせた構成としてもよい。即ち、HCU20は、判定処理部58および評価結果入力処理部59の双方を備えた構成としてもよい。また、本開示は、自動運転機能により自動で走行している状況における車両に適用することができ、また、自動運転機能ではなくドライバによる操作に基づき走行している状況における車両にも適用することができる。また、表示部は、車両に搭載可能な表示部であれば種々の表示部を適用することができる。また、複数の表示部の配置位置は、適宜変更して実施することができる。 Further, the configuration example of the control system illustrated in FIG. 10 and the configuration example of the control system illustrated in FIG. 12 may be combined. That is, the HCU 20 may be configured to include both the determination processing section 58 and the evaluation result input processing section 59 . In addition, the present disclosure can be applied to a vehicle in a situation where the vehicle is automatically driven by the automatic driving function, and can also be applied to a vehicle in a situation where the vehicle is driven based on the operation by the driver instead of the automatic driving function. can be done. Moreover, as the display unit, various display units can be applied as long as they are display units that can be mounted on a vehicle. Also, the arrangement positions of the plurality of display units can be changed as appropriate.

なお、本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。 Although the present disclosure has been described with reference to examples, it is understood that the present disclosure is not limited to such examples or structures. The present disclosure also includes various modifications and modifications within the equivalent range. In addition, various combinations and configurations, as well as other combinations and configurations, including single elements, more, or less, are within the scope and spirit of this disclosure.

また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 Also, the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by the computer program. , may be implemented. Alternatively, the controls and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the control units and techniques described in this disclosure can be implemented by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured. The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible recording medium.

図面中、7はメータ系表示部(表示部)、8はナビゲーション表示部(表示部)、20はHCU(車両用表示制御装置)、23は表示装置(表示部)、53は検出処理部、54は予測処理部、55は表示処理部、56は特定処理部、57は表示制御処理部、58は判定処理部、59は評価結果入力処理部を示す。
In the drawing, 7 is a meter system display unit (display unit), 8 is a navigation display unit (display unit), 20 is an HCU (vehicle display control unit), 23 is a display device (display unit), 53 is a detection processing unit, 54 is a prediction processing unit, 55 is a display processing unit, 56 is a specific processing unit, 57 is a display control processing unit, 58 is a determination processing unit, and 59 is an evaluation result input processing unit.

Claims (6)

自動運転機能を備える車両に搭載される車両用表示制御装置(20)であって、
車両の周辺に存在する物標を検出する検出処理部(53)と、
前記検出処理部が検出する物標の挙動を予測する予測処理部(54)と、
前記予測処理部が予測する物標の挙動を示す挙動予測情報を表示部(7,8,23)に表示する表示処理部(55)と、
ユーザの目線を特定する特定処理部(56)と、
前記表示部への前記挙動予測情報の表示を制御する表示制御処理部(57)と、
を備え、
それぞれ異なる位置に複数の前記表示部(7,8,23)が備えられており、
前記表示制御処理部は、前記特定処理部が特定するユーザの目線が、前記検出処理部が検出する物標に向かっている場合に、前記特定処理部が特定するユーザの目線に最も近い前記表示部に前記挙動予測情報を表示する車両用表示制御装置。
A vehicle display control device (20) mounted in a vehicle equipped with an automatic driving function,
a detection processing unit (53) for detecting targets existing around the vehicle;
a prediction processing unit (54) for predicting the behavior of the target detected by the detection processing unit;
a display processing unit (55) for displaying behavior prediction information indicating behavior of a target predicted by the prediction processing unit on a display unit (7, 8, 23);
a specific processing unit (56) that identifies the line of sight of the user;
a display control processing unit (57) for controlling display of the behavior prediction information on the display unit;
with
A plurality of display units (7, 8, 23) are provided at different positions,
When the line of sight of the user identified by the identification processing unit is directed toward the target detected by the detection processing unit, the display control processing unit controls the display closest to the line of sight of the user identified by the identification processing unit. A display control device for a vehicle that displays the behavior prediction information on the part.
前記表示制御処理部は、前記特定処理部が特定するユーザの目線が、前記検出処理部が検出する物標に向かっている状態が所定時間以上継続している場合に、前記表示部に前記挙動予測情報を表示する請求項1に記載の車両用表示制御装置。 The display control processing unit displays the behavior on the display unit when the line of sight of the user identified by the identification processing unit continues toward the target detected by the detection processing unit for a predetermined time or longer. 2. The vehicle display control device according to claim 1, wherein the prediction information is displayed. 前記予測処理部が予測する物標の挙動の危険度を判定する判定処理部(58)をさらに備え、
前記表示制御処理部は、前記判定処理部が判定する危険度が上昇するごとに、前記表示部に前記挙動予測情報を表示する請求項1または2に記載の車両用表示制御装置。
further comprising a determination processing unit (58) for determining the degree of risk of behavior of the target predicted by the prediction processing unit;
The vehicle display control device according to claim 1 or 2, wherein the display control processing unit displays the behavior prediction information on the display unit each time the degree of risk determined by the determination processing unit increases.
前記表示部に表示される前記挙動予測情報が示す物標の挙動を評価した結果を入力する評価結果入力処理部(59)をさらに備える請求項1から3の何れか1項に記載の車両用表示制御装置。 4. The vehicle according to any one of claims 1 to 3, further comprising an evaluation result input processing unit (59) for inputting an evaluation result of the behavior of the target indicated by the behavior prediction information displayed on the display unit. Display controller. 自動運転機能を備える車両に搭載される車両用表示制御装置(20)を制御する車両用表示制御方法であって、
車両の周辺に存在する物標を検出する検出処理と、
前記検出処理により検出する物標の挙動を予測する予測処理と、
前記予測処理により予測する物標の挙動を示す挙動予測情報を表示部(7,8,23)に表示する表示処理と、
ユーザの目線を特定する特定処理と、
前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、
を含み、
それぞれ異なる位置に複数の前記表示部(7,8,23)が備えられており、
前記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記特定処理により特定するユーザの目線に最も近い前記表示部に前記表示処理により前記挙動予測情報を表示する車両用表示制御方法。
A vehicle display control method for controlling a vehicle display control device (20) mounted in a vehicle equipped with an automatic driving function,
a detection process for detecting targets existing around the vehicle;
a prediction process for predicting the behavior of the target detected by the detection process;
Display processing for displaying behavior prediction information indicating the behavior of the target predicted by the prediction processing on a display unit (7, 8, 23);
a specific process for identifying the line of sight of the user;
a display control process for controlling display of the behavior prediction information by the display process;
including
A plurality of display units (7, 8, 23) are provided at different positions,
In the display control processing, when the line of sight of the user identified by the identification processing is directed toward the target detected by the detection processing, the display is performed on the display unit closest to the line of sight of the user identified by the identification processing. A vehicle display control method for displaying the behavior prediction information by processing.
コンピュータを、
自動運転機能を備え複数の表示部(7,8,23)をそれぞれ異なる位置に備える車両に搭載される車両用表示制御装置(20)として機能させるための車両用表示制御プログラムであって、
車両の周辺に存在する物標を検出する検出処理と、
前記検出処理により検出する物標の挙動を予測する予測処理と、
前記予測処理により予測する物標の挙動を示す挙動予測情報を前記表示部に表示する表示処理と、
ユーザの目線を特定する特定処理と、
前記表示処理による前記挙動予測情報の表示を制御する表示制御処理と、
を前記コンピュータに実行させ
記表示制御処理では、前記特定処理により特定するユーザの目線が、前記検出処理により検出する物標に向かっている場合に、前記特定処理により特定するユーザの目線に最も近い前記表示部に前記表示処理により前記挙動予測情報を表示させる車両用表示制御プログラム。
the computer,
A vehicle display control program for functioning as a vehicle display control device (20) mounted in a vehicle having a plurality of display units (7, 8, 23) at different positions and having an automatic driving function,
a detection process for detecting targets existing around the vehicle;
a prediction process for predicting the behavior of the target detected by the detection process;
a display process for displaying behavior prediction information indicating the behavior of the target predicted by the prediction process on the display unit ;
a specific process for identifying the line of sight of the user;
a display control process for controlling display of the behavior prediction information by the display process;
causing said computer to execute
In the display control processing, when the line of sight of the user identified by the identification processing is directed toward the target detected by the detection processing, the A vehicle display control program for displaying the behavior prediction information by display processing.
JP2019107083A 2019-06-07 2019-06-07 Vehicle display control device, vehicle display control method, vehicle display control program Active JP7302311B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019107083A JP7302311B2 (en) 2019-06-07 2019-06-07 Vehicle display control device, vehicle display control method, vehicle display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019107083A JP7302311B2 (en) 2019-06-07 2019-06-07 Vehicle display control device, vehicle display control method, vehicle display control program

Publications (2)

Publication Number Publication Date
JP2020201647A JP2020201647A (en) 2020-12-17
JP7302311B2 true JP7302311B2 (en) 2023-07-04

Family

ID=73742671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019107083A Active JP7302311B2 (en) 2019-06-07 2019-06-07 Vehicle display control device, vehicle display control method, vehicle display control program

Country Status (1)

Country Link
JP (1) JP7302311B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7447039B2 (en) 2021-03-10 2024-03-11 矢崎総業株式会社 Vehicle display device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170036673A1 (en) 2015-08-03 2017-02-09 Lg Electronics Inc. Driver assistance apparatus and control method for the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170036673A1 (en) 2015-08-03 2017-02-09 Lg Electronics Inc. Driver assistance apparatus and control method for the same

Also Published As

Publication number Publication date
JP2020201647A (en) 2020-12-17

Similar Documents

Publication Publication Date Title
US10293748B2 (en) Information presentation system
JP6729220B2 (en) Vehicle driving support device
US20160304126A1 (en) Vehicle control device
US10452930B2 (en) Information display device mounted in vehicle including detector
JP6591087B2 (en) Display control device, display device, and display control method
JP7039940B2 (en) Vehicle control unit
US11200806B2 (en) Display device, display control method, and storage medium
JP7139902B2 (en) Notification device
CN109720343B (en) Vehicle control apparatus
JP6969509B2 (en) Vehicle display control device, vehicle display control method, and control program
JP7346859B2 (en) Control device, display device, moving object, control method, and program
US20220004348A1 (en) Vehicle display control device, vehicle display control method, and vehicle display control program product
JP7400242B2 (en) Vehicle display control device and vehicle display control method
JP6855759B2 (en) Self-driving vehicle control system
JP7285705B2 (en) Autonomous driving system
JP7302311B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP7448624B2 (en) Driving support devices, driving support methods, and programs
US20230103715A1 (en) Vehicle display control device, vehicle display control system, and vehicle display control method
JP2021149319A (en) Display control device, display control method, and program
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
JP7263962B2 (en) VEHICLE DISPLAY CONTROL DEVICE AND VEHICLE DISPLAY CONTROL METHOD
JP2022035667A (en) Display control device for vehicle, display control system for vehicle, and display control method for vehicle
JP2020138609A (en) Display control device for vehicle, display control method for vehicle, and display control program for vehicle
JP7172730B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP2021043084A (en) Display controller and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R151 Written notification of patent or utility model registration

Ref document number: 7302311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151