WO2020149109A1 - 表示システム、表示制御装置及び表示制御プログラム - Google Patents

表示システム、表示制御装置及び表示制御プログラム Download PDF

Info

Publication number
WO2020149109A1
WO2020149109A1 PCT/JP2019/050352 JP2019050352W WO2020149109A1 WO 2020149109 A1 WO2020149109 A1 WO 2020149109A1 JP 2019050352 W JP2019050352 W JP 2019050352W WO 2020149109 A1 WO2020149109 A1 WO 2020149109A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
display
route
content
vehicle
Prior art date
Application number
PCT/JP2019/050352
Other languages
English (en)
French (fr)
Inventor
智 堀畑
一輝 小島
神谷 玲朗
基宏 福本
猛 羽藤
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019178859A external-priority patent/JP7028228B2/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020149109A1 publication Critical patent/WO2020149109A1/ja
Priority to US17/374,044 priority Critical patent/US20210356289A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present disclosure relates to display control that controls a display superimposed on the foreground.
  • Patent Document 1 discloses a vehicle display device in which a guidance display for guiding a route to a destination is superimposed on the driver's forward field of view seen through the windshield.
  • This display device for a vehicle superimposes an arrow indicating the direction of a right or left turn on a road as a guidance display based on route information when approaching an intersection that guides a right or left turn of a vehicle by a predetermined distance.
  • the present disclosure aims to provide a display control technique capable of easily recognizing a superimposed display for continuous guidance.
  • a display system used in a vehicle wherein a route guidance content is displayed by a head-up display from a navigation device that guides a route to a destination and route guidance information acquired from the navigation device. And a display control device for superimposing display on the display device, the navigation device starts both the first route guidance and the second route guidance when it is determined that the plurality of route guidance are continuous guidance.
  • the display control device displays the first guidance content for the first route guidance and hides the first guidance content.
  • the display system is configured to display the second guidance content for performing the second route guidance.
  • Another aspect of the present disclosure is a display control device that is used in a vehicle equipped with a navigation device and that controls a superimposed display on a road surface by a head-up display, the route being provided by a navigation device that guides a route to a destination.
  • the navigation device includes a route information acquisition unit that acquires the guidance information and a display control unit that displays the route guidance content generated from the route guidance information on the road surface by a head-up display.
  • the display control unit causes the route information acquisition unit to determine the route guidance information indicating continuous guidance.
  • the navigation device displays the first guidance content for performing the first route guidance in the continuous guidance area where both the first route guidance and the second route guidance are started, and the first guidance is displayed. After the content is hidden, the display control device displays the second guidance content for performing the second route guidance.
  • Another aspect of the present disclosure is a display control program which is used in a vehicle equipped with a navigation display and controls a superimposed display on a road surface by a head-up display, wherein at least one processing unit has a route to a destination.
  • the route guidance information used for guidance is acquired, and based on the route guidance information, it is determined whether or not the route guidance provided by the navigation display is continuous guidance that continuously performs a plurality of route guidances.
  • the route guidance content to be generated is superimposed and displayed on the road surface by the head-up display and route guidance information indicating continuous guidance is acquired, both the first route guidance and the second route guidance are started by the navigation display.
  • the display control program is configured to execute a process including the above.
  • the head-up display can perform information presentation specialized for each route guidance, and specifically, the second route until the first guidance content that provides the first route guidance is hidden.
  • the second guidance content for guidance is displayed on standby. In this way, by sequentially displaying the first guidance content and the second guidance content, the superimposed display of continuous guidance that is easy for the user to recognize is realized.
  • FIG. 1 is a diagram showing an overview of an in-vehicle network including HCU according to an embodiment of the present disclosure. It is a figure showing an example of a HUD device carried in vehicles. It is a figure which shows an example of a schematic structure of HCU. It is a figure which shows the detail of the drawing process of the content by a display generation part. It is a figure for explaining an example of a scene which guides a right-and-left turn point and a continuous point continuously. It is a figure for explaining one example of a display end timing of the 1st guidance contents.
  • FIG. 11 is a diagram for explaining a display end timing of the first guidance content of the first modification.
  • FIG. 16 is a diagram for explaining a display start timing of the second guidance content of Modification 2. It is a figure for demonstrating the right turn scene in a continuous point.
  • FIG. 16 is a diagram for explaining a display start timing of the second guidance content of modification 3;
  • FIG. 16 is a diagram showing one display example of the second guidance content of modification 4.
  • the function of the display control device is realized by an HCU (Human Machine Interface Control) 100 shown in FIGS. 1 and 2.
  • the HCU 100 comprises an HMI (Human Machine Interface) system 10 used in the vehicle A together with a head-up display (hereinafter, “HUD”) device 20, and the like.
  • the HMI system 10 further includes an operation device 26, a DSM (Driver Status Monitor) 27, and the like.
  • the HMI system 10 has an input interface function that receives an operation by an occupant (for example, a driver) of the vehicle A and an output interface function that presents information to the driver.
  • the HMI system 10 is communicatively connected to the communication bus 99 of the vehicle-mounted network 1 mounted on the vehicle A.
  • the HMI system 10 is one of a plurality of nodes provided in the vehicle-mounted network 1.
  • a peripheral monitoring sensor 30, a locator 40, a navigation device 50, a vehicle control ECU (Electronic Control Unit) 54, a driving support ECU 57, etc. are connected as nodes. These nodes connected to the communication bus 99 can communicate with each other.
  • the front, rear, left, and right directions in the following description are defined with the vehicle A stationary on a horizontal plane as a reference.
  • the front-back direction is defined along the longitudinal direction of the vehicle A.
  • the left-right direction is defined along the width direction of the vehicle A.
  • the surrounding monitoring sensor 30 is an autonomous sensor that monitors the surrounding environment of the vehicle A.
  • the perimeter monitoring sensor 30 detects moving objects such as pedestrians, cyclists, animals other than humans, and other vehicles from the detection range around the vehicle, and also displays falling objects on the road, guardrails, curbs, lane markings, and the like. And stationary objects such as roadside structures can be detected.
  • the perimeter monitoring sensor 30 provides detection information obtained by detecting an object around the vehicle A (particularly in the front range) to the driving assistance ECU 57, the HCU 100, and the like through the communication bus 99.
  • the peripheral monitoring sensor 30 has a front camera 31, a millimeter wave radar 32, and a lidar 33 as a detection configuration for detecting an object.
  • the front camera 31 outputs, as detection information, at least one of image pickup data obtained by photographing the front area of the vehicle A and an analysis result of the image pickup data.
  • the millimeter wave radar 32 irradiates a millimeter wave or a quasi-millimeter wave toward the forward range and receives the reflected wave reflected by a moving object, a stationary object, or the like to generate detection information output to the outside.
  • the lidar 33 irradiates the laser beam toward the front area and generates detection information output to the outside by a process of receiving the reflected light reflected by a moving object, a stationary object, or the like.
  • Locator 40 generates highly accurate position information and the like of vehicle A by composite positioning that combines multiple pieces of acquired information.
  • the locator 40 can specify the lane in which the vehicle A is traveling, for example, from among a plurality of lanes.
  • the locator 40 includes a GNSS (Global Navigation Satellite System) receiver 41, an inertial sensor 42, a high-precision map database (hereinafter, “DB”) 43, a locator ECU 44, and the like.
  • GNSS Global Navigation Satellite System
  • DB high-precision map database
  • GNSS receiver 41 receives positioning signals transmitted from a plurality of artificial satellites (positioning satellites).
  • the GNSS receiver 41 can receive positioning signals from each positioning satellite of at least one satellite positioning system among satellite positioning systems such as GPS, GLONASS, Galileo, IRNSS, QZSS, and Beidou.
  • the inertial sensor 42 includes, for example, a gyro sensor and an acceleration sensor.
  • the high-precision map DB 43 is configured by including a non-volatile memory, and stores map data with higher precision than that used in the navigation device 50 (hereinafter, “high-precision map data”).
  • the high-precision map data includes information about lane markings and road markings, three-dimensional shape information of structures in the roadside area, road lane number information, three-dimensional shape information, and the like.
  • the locator ECU 44 includes a microcomputer including a processor, a RAM, a storage unit, an input/output interface, and a bus connecting these.
  • the locator ECU 44 combines the positioning signal received by the GNSS receiver 41, the measurement result of the inertial sensor 42, the vehicle speed information output to the communication bus 99, and the like to sequentially measure the vehicle position and the traveling direction of the vehicle A.
  • the locator ECU 44 provides the navigation device 50, the HCU 100, and the like with position information and direction information of the vehicle A (own vehicle) based on the positioning result via the communication bus 99.
  • the locator ECU 44 determines whether the required high-precision map data is in the high-precision map DB 43 in response to a request from the HCU 100 or the like. When the requested high accuracy map data is in the high accuracy map DB 43, the locator ECU 44 reads the corresponding high accuracy map data from the high accuracy map DB 43 and provides it to the requesting HCU 100.
  • the navigation device 50 is an in-vehicle device that cooperates with the HMI system 10 to provide route guidance to a destination set by a passenger.
  • the navigation device 50 constructs the display system 110 of the vehicle A together with the HCU 100 and the like.
  • the navigation device 50 includes a map database for navigation (hereinafter, “navi map DB”) 51, a navigation display 52, and a navigation ECU 53.
  • the navigation map DB 51 is configured with a non-volatile memory and comprehensively stores a wider range of map data than the high precision map DB 43.
  • map data stored in the navigation map DB 51 link data about the road, node data, shape data, and the like are described.
  • the navigation display 52 is an image display device such as a liquid crystal display and an organic EL display.
  • the navigation display 52 is installed, for example, in the center of the upper surface of the instrument panel 9 or in the center cluster.
  • a route guidance (hereinafter, “route guidance image”) is displayed.
  • the route guidance image is composed of a map image section based on the navigation map data, a route image section showing routes to destinations and transit points, a point image section showing destinations and transit points, and the like.
  • the navigation ECU 53 is configured to include a microcomputer (also referred to as a microcontroller) that includes a processor, a RAM, a storage unit, an input/output interface, and a bus connecting these.
  • the navigation ECU 53 acquires the position information and direction information of the vehicle A (own vehicle) from the locator ECU 44 via the communication bus 99.
  • the navigation ECU 53 acquires the operation information input to the operation device 26 through the communication bus 99 and the HCU 100, and sets the destination based on the user operation.
  • the navigation ECU 53 searches for a plurality of routes to the destination so that conditions such as time priority and distance priority are satisfied. When one of the searched plural routes is selected, the navigation ECU 53 provides the route information based on the set route to the HCU 100 through the communication bus 99 together with the related navigation map data.
  • the navigation ECU 53 outputs a guidance execution request toward the HMI system 10 when a branch point such as an intersection, a destination of a set route, and an alarm point such as a temporary stop approach.
  • the HUD device 20 or the like implements route guidance to the driver based on the guidance implementation request.
  • the points on the set route where such route guidance to the driver is performed are referred to as “route guidance points”.
  • the navigation ECU 53 calculates a route to the destination and generates route guidance information to the destination. Regarding the route guidance to the destination, the navigation ECU 53 grasps the point-to-point distance from the first route guidance point existing closest to the own vehicle to the second route guidance point. When the point-to-point distance is equal to or less than a predetermined distance (“threshold distance”, for example, about 150 to several hundreds of meters), the navigation ECU 53 determines that the plurality of route guidances are continuous guidance. In this case, the navigation ECU 53 provides the HCU 100 with a notice (flag) indicating that the route guidance provided by the navigation display 52 is continuous guidance for continuously performing a plurality of route guidances, in the route guidance information. ..
  • a predetermined distance for example, about 150 to several hundreds of meters
  • the navigation ECU 53 displays the first route guidance (also referred to as first route guidance) and the second route guidance (second route guidance). (Also called) is started.
  • the display of the second route guide may be started at substantially the same time as the display of the first route guide, or may be started slightly after the display of the first route guide. Further, the display of the first route guidance may be kept displayed until the display of the second route guidance is erased, or may be hidden before the display of the second route guidance. Good.
  • an area where both the first route guidance and the second route guidance are started is referred to as a continuous guidance area CGA (see FIG. 5).
  • the continuous guidance area CGA includes at least two route guidance points and a connecting road Rc (see FIG. 5) connecting them.
  • the vehicle control ECU 54 is an electronic control device that performs acceleration/deceleration control, steering control, and the like of the vehicle A.
  • the vehicle control ECU 54 is connected to a sensor group that detects a driver's driving operation, such as a steering angle sensor 55, an accelerator position sensor, and a brake stroke sensor.
  • the vehicle control ECU 54 is connected to a group of actuators related to the traveling of the vehicle A, for example, an EPS (Electric Power Steering) motor, an electronically controlled throttle and an injector, a brake actuator, and the like.
  • EPS Electrical Power Steering
  • the vehicle control ECU 54 outputs measurement information (for example, steering angle information) by the sensor group to the communication bus 99, and acquires driving operation information described later from the driving assistance ECU 57 through the communication bus 99.
  • the vehicle control ECU 54 controls each operation of the actuator group and eventually the behavior of the vehicle A based on the measurement information by the sensor group or the driving operation information acquired from the driving support ECU 57.
  • the driving support ECU 57 has at least one of a driving support function that supports a driving operation by a driver and an automatic driving function that can substitute the driving operation of the driver.
  • the driving support function or the automatic driving function includes an ACC (Adaptive Cruise Control) function that controls the traveling speed or the inter-vehicle distance, and an LTC (Lane Trace Control) function that controls the steering angle according to the lane.
  • the driving support function may further include an AEB (Autonomous Energy Breaking) function for forcibly decelerating the vehicle A and the like.
  • the driving support ECU 57 recognizes the traveling environment around the vehicle A based on the detection information acquired from the peripheral monitoring sensor 30.
  • the driving support ECU 57 generates driving operation information for driving support or automatic driving based on the recognition result of the traveling environment.
  • the driving support ECU 57 causes the vehicle control ECU 54 to execute the above-mentioned acceleration/deceleration control and steering control by providing the generated driving operation information to the vehicle control ECU 54.
  • the driving support ECU 57 can provide the HCU 100 with the analysis result of the detection information performed for recognition of the traveling environment as the detection information which has been analyzed.
  • the driving assistance ECU 57 can provide the HCU 100 with information extracted from the image data of the front camera 31 or the like, specifically, relative position information of a lane marking (white line) and a road edge of the road on which the vehicle is running.
  • the driving support ECU 57 can also provide the HCU 100 with type information and three-dimensional shape information of structures and the like provided in the roadside area beside the road.
  • the operation device 26 is an input unit that receives a user operation by a driver or the like. A user operation for switching between start and stop of the driving support function and the automatic driving function is input to the operation device 26.
  • the operation device 26 includes a steering switch provided on the spoke portion of the steering wheel, an operation lever provided on the steering column portion 8, a voice input device for detecting a driver's speech, and the like.
  • the DSM 27 has a configuration that includes a near infrared light source and a near infrared camera, and a control unit that controls these.
  • the DSM 27 is installed, for example, on the upper surface of the steering column section 8 or the upper surface of the instrument panel 9 with the near infrared camera facing the headrest portion of the driver's seat.
  • the DSM 27 takes an image of the driver's head irradiated with near-infrared light by the near-infrared light source using a near-infrared camera.
  • the image captured by the near infrared camera is analyzed by the control unit.
  • the control unit extracts information such as the position of the eye point EP and the line-of-sight direction from the captured image, and sequentially outputs the extracted state information to the HCU 100.
  • the HUD device 20 is mounted on the vehicle A as one of a plurality of vehicle-mounted display devices together with the multi-information display and the navigation display 52.
  • the HUD device 20 presents various information related to the vehicle A to the driver by Augmented Reality (hereinafter, “AR”) display using the virtual image Vi.
  • AR Augmented Reality
  • the HUD device 20 uses the normal virtual image Vi (hereinafter, “non-AR content”) and the virtual image Vi that is AR-displayed (hereinafter, “AR content”), and presents information to the driver.
  • Non-AR content is displayed as if it is fixed relative to the vehicle configuration such as windshield WS.
  • the AR content can be visually moved by the driver following the superimposition target so that the AR content is relatively fixed to the superimposition target in the foreground.
  • the AR content has, for example, a display shape extended in the depth direction viewed from the driver, and the shape is continuously updated at a predetermined cycle in accordance with the relative position and shape of the superimposition target.
  • the HUD device 20 is electrically connected to the HCU 100 and sequentially acquires the video data generated by the HCU 100.
  • the HUD device 20 is housed in a housing space inside the instrument panel 9 below the windshield WS.
  • the HUD device 20 projects the light imaged as the virtual image Vi toward the projection range PA of the windshield WS.
  • the light projected on the windshield WS is reflected toward the driver's seat in the projection area PA and is perceived by the driver.
  • the driver visually recognizes the display in which the virtual image Vi is superimposed on the superimposition target in the foreground seen through the projection area PA.
  • the HUD device 20 is composed of a projector 21, a magnifying optical system 22, and the like.
  • the projector 21 has an LCD (Liquid Crystal Display) panel and a backlight.
  • the projector 21 is fixed to the housing of the HUD device 20 with the display surface of the LCD panel facing the magnifying optical system 22.
  • the projector 21 displays each frame image of the video data on the display surface of the LCD panel and illuminates the display surface with a backlight so that the light imaged as the virtual image Vi is emitted toward the magnifying optical system 22.
  • the magnifying optical system 22 is configured to include at least one concave mirror in which a metal such as aluminum is vapor-deposited on the surface of a base material made of synthetic resin or glass.
  • the magnifying optical system 22 projects the light emitted from the projector 21 on the upper projection area PA while spreading the light by reflection.
  • the angle of view VA is set for the above HUD devices 20. Assuming that the virtual range in the space where the virtual image Vi can be formed by the HUD device 20 is the image forming surface IS, the angle of view VA is defined based on the virtual line connecting the eye point EP of the driver and the outer edge of the image forming surface IS. Is the viewing angle.
  • the view angle VA is an angle range in which the driver can visually recognize the virtual image Vi as seen from the eye point EP.
  • the horizontal field angle in the horizontal direction (about 10° to 12°) is larger than the vertical field angle in the vertical direction (for example, about 4° to 5°).
  • the front range overlapping the imaging plane IS is the range within the angle of view VA.
  • the HCU 100 is an electronic control device that integrally controls the display by a plurality of display devices including the HUD device 20 in the HMI system 10.
  • the HCU 100 is configured to include a computer including a processing unit 11, a RAM 12, a storage unit 13, an input/output interface 14, and a bus connecting these.
  • the processing unit 11 is hardware for arithmetic processing combined with the RAM 12.
  • the processing unit 11 is configured to include at least one arithmetic core such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the processing unit 11 may be configured to further include an FPGA (Field-Programmable Gate Array) and an IP core having other dedicated functions.
  • the RAM 12 may be configured to include a video RAM for image generation.
  • the storage unit 13 is configured to include a non-volatile storage medium.
  • the storage unit 13 stores various programs executed by the processing unit 11 (display control program and the like).
  • the storage unit 13 is also called a non-transitory storage medium.
  • the HCU 100 shown in FIGS. 1 to 3 executes a program stored in the storage unit 13 by the processing unit 11 and includes a plurality of functional units. Specifically, in the HCU 100, the viewpoint position identification unit 70, the route information acquisition unit 71, the position information acquisition unit 72, the vehicle information acquisition unit 73, the outside world information acquisition unit 74, the continuous guidance determination unit 75, the roadside object determination unit 76.
  • the functional units such as the vehicle posture estimation unit 77 and the display generation unit 78 are constructed.
  • the viewpoint position specifying unit 70, the route information acquisition unit 71, the position information acquisition unit 72, the own vehicle information acquisition unit 73, and the outside world information acquisition unit 74 are functional units that acquire information from the communication bus 99.
  • the viewpoint position specifying unit 70 specifies the position of the eyepoint EP of the driver sitting in the driver's seat based on the state information acquired from the DSM 27.
  • the viewpoint position specifying unit 70 generates three-dimensional coordinates (hereinafter, “eye point coordinates”) indicating the position of the eye point EP, and sequentially supplies the generated eye point coordinates to the display generating unit 78.
  • the route information acquisition unit 71 acquires route guidance information regarding route guidance to the destination and navigation map data used for route guidance from the navigation ECU 53. In addition, the route information acquisition unit 71 acquires the guidance execution request output by the navigation ECU 53, along with the route guidance information and the navigation map data, based on the approach to the guidance point. When the navigation device 50 provides continuous guidance, the route information acquisition unit 71 acquires route guidance information including a notification indicating that there is continuous guidance (hereinafter, “continuous guidance notification”).
  • the route information acquisition unit 71 can perform a process of acquiring high-precision map data from the locator 40 together with the navigation map data or in place of the navigation map data.
  • the route information acquisition unit 71 requests the locator ECU 44 to provide related high-precision map data based on the route guidance information acquired from the navigation ECU 53.
  • the route information acquisition unit 71 acquires the high accuracy map data returned from the locator ECU 44.
  • the position information acquisition unit 72 acquires the position information and direction information of the vehicle A from the locator ECU 44.
  • the own vehicle information acquisition unit 73 acquires the latest steering angle information measured by the steering angle sensor 55 from the vehicle control ECU 54 as one of the own vehicle information indicating the traveling state of the vehicle A.
  • the own vehicle information acquisition unit 73 acquires attitude information particularly related to the vehicle attitude in the pitch direction. Specifically, the vehicle information acquisition unit 73 acquires the height information based on the output of the height sensor and the torque information indicating the braking torque and the driving torque generated in the vehicle A as the attitude information.
  • the outside world information acquisition unit 74 acquires detection information about the front range of the vehicle A from at least one of the surroundings monitoring sensor 30 and the driving support ECU 57.
  • the detection information may be image data of the front range captured by the front camera 31 or the like, or may be an analysis result obtained by recognition of the traveling environment by the periphery monitoring sensor 30 or the driving assistance ECU 57.
  • the analysis result includes information indicating the relative position of the lane markings or road edges in the front range as described above.
  • the detection information as the analysis result is the type information about the structure BO provided on the side of the road in the front range, for example, the shield BO (see FIG. 9) that blocks the driver's lateral field of view, and 3 It includes at least dimensional shape information.
  • the shield BO is, for example, a building such as a building or a fence surrounding a site in a roadside area.
  • the continuous guidance determining unit 75 determines whether or not to provide continuous guidance.
  • the continuous guidance includes a guidance point (hereinafter, “right/left turn point P1”, refer to FIG. 5) that guides the vehicle A (own vehicle) to turn left/right, and a guidance point (see FIG. 5) next to the right/left turn point P1.
  • the continuous guidance determination unit 75 determines whether or not the route guidance information acquired by the route information acquisition unit 71 includes a continuous guidance notification indicating the continuity of a plurality of guidance points.
  • the continuous guidance determination unit 75 notifies the display generation unit 78 that the continuous guidance is performed.
  • the continuous guidance determination unit 75 grasps the distance between the two guidance points.
  • the continuous guidance determination unit 75 determines whether the point-to-point distance is shorter than a predetermined distance (for example, about 100 m). This predetermined distance is specified so that the time required to understand the content of the route guidance of the continuous point P2 is secured.
  • the continuous guidance determination unit 75 notifies the display generation unit 78 of the determination result that the two guidance points are very close to each other.
  • the right/left turn point P1 may be limited to a guide point where a branch such as a right turn or a left turn occurs, such as an intersection.
  • the continuous point P2 may be any of a branch point such as an intersection, a destination of the set route, and an alarm point for calling attention such as temporary stop and slow speed.
  • three or more guide points may be consecutive on the set route at intervals less than the threshold distance.
  • the intermediate continuous point P2 sandwiched between the first right/left turning point P1 and the last continuous point P2 is limited to a branch point such as an intersection, like the right/left turning point P1.
  • the set of route guidance information includes information on a plurality (4) of guidance points.
  • the continuous guidance determining unit 75 sets the first guidance point to the right/left turn point P1 and the second to fourth guidance points to the continuous point P2 for convenience.
  • the roadside object determination unit 76 determines whether or not there is a specific object in the roadside area of the road on which the vehicle A is traveling, based on the detection information acquired by the outside world information acquisition unit 74.
  • the specific object is an object for which a condition is set in advance as being unsuitable for superimposing the route guidance content CNTg (see FIG. 9) that guides the continuous point P2.
  • the roadside object determination unit 76 specifies the shield BO (see FIG. 9) provided in the roadside area as described above as the specific object.
  • the roadside object determination unit 76 after the vehicle A starts a right turn or a left turn at the right/left turn point P1 (branch point), a road from the right/left turn point P1 to the continuous point P2 (hereinafter, “connection road Rc”, FIG. It is determined whether or not there is a shield BO in the roadside area (see 5). When there is no shield BO in the roadside area of the connecting road Rc, that is, when the roadside area is open, the roadside object determination unit 76 provides the display generation unit 78 with a determination result indicating that there is no shield BO. ..
  • the vehicle attitude estimation unit 77 estimates the direction of the vehicle A turning at the turning point P1 with respect to the connecting road Rc as the traveling direction of the vehicle A.
  • the vehicle attitude estimation unit 77 can estimate the traveling direction of the vehicle A based on a plurality of determination methods using a plurality of pieces of acquired information that are different from each other.
  • the vehicle attitude estimation unit 77 sequentially outputs the estimation result of the traveling direction of the vehicle A to the display generation unit 78 at least before and after passing the right/left turn point P1.
  • the vehicle attitude estimation unit 77 estimates the traveling direction of the vehicle A based on the detection information of the front camera 31 acquired by the outside world information acquisition unit 74.
  • This detection information may be the image data of the front camera 31 or the analysis result of the image data as described above.
  • the vehicle attitude estimation unit 77 grasps the relative position of the lane markings or road edges on the connecting road Rc based on the detection information, and estimates the traveling direction of the vehicle A based on these extending directions.
  • the vehicle attitude estimation unit 77 uses the map data acquired by the route information acquisition unit 71 and the direction information acquired by the position information acquisition unit 72 to travel the vehicle A. Determine the direction.
  • the map data may be either high precision map data or navigation map data.
  • the vehicle attitude estimation unit 77 performs the traveling direction determination that combines the map data and the direction information when both the lane markings and the road edge of the connecting road Rc cannot be detected from the imaged data.
  • the vehicle posture estimation unit 77 calculates an intersection angle ⁇ 1 formed by the road (hereinafter, referred to as “first road R1”) heading to the right/left turning point P1 and the connecting road Rc at the right/left turning point P1 based on the map data (FIG. 5). In addition, the vehicle attitude estimation unit 77 calculates the attitude change angle in the yaw direction of the vehicle A at the right/left turn point P1 based on the direction information with the extension direction of the first road R1 as a reference. The vehicle attitude estimation unit 77 estimates the traveling direction of the vehicle A based on the intersection angle ⁇ 1 and the attitude change angle.
  • the vehicle attitude estimation unit 77 determines the traveling direction of the vehicle A using the steering angle information acquired by the own vehicle information acquisition unit 73 as the third determination method.
  • the vehicle attitude estimation unit 77 estimates that the vehicle A is heading in the direction of the connecting road Rc based on the decrease in the steering angle.
  • the vehicle attitude estimation unit 77 determines the traveling direction using the steering angle information, for example, when the lane markings and road edges of the connecting road Rc are difficult to detect and the positioning signal reception environment is not good. ..
  • the display generation unit 78 generates video data that is sequentially output to the HUD device 20.
  • the display generation unit 78 has a function of selecting a content, a function of drawing the selected content, a function of controlling a display period of the selected content, and the like.
  • details of the content selection function and the content drawing function will be described based on FIG. 4 and with reference to FIGS. 1 to 3.
  • the display generation unit 78 selects content to be displayed by the HUD device 20 based on information acquired from the outside such as a guidance execution request (see S11).
  • the display generation unit 78 can individually select the AR content and the non-AR content to be displayed.
  • the display generation unit 78 performs a drawing process of the original image of the AR content (see S21 to S24) and a drawing process of the original image of the non-AR content (see S31). Will be carried out in parallel.
  • the display generation unit 78 prepares an original image of each selected content by performing image processing such as combining the part data stored in the storage unit 13.
  • the display generation unit 78 builds a 3D model for drawing the original image of the AR content (see S21).
  • the position information and the shape information of the superimposition target for example, road surface
  • the display generation unit 78 arranges the constructed 3D model in the virtual space with reference to the own vehicle position (see S22).
  • Information indicating the traveling direction of the vehicle A estimated by the vehicle attitude estimation unit 77 is used for the placement of the 3D model.
  • the display generation unit 78 sets the virtual camera position and the position of the virtual magnifying optical system 22 (or the imaging plane IS) in the virtual space where the 3D model is arranged.
  • the display generation unit 78 calculates the shape of the 3D model viewed from the virtual camera position by the viewpoint conversion process (see S23).
  • the virtual camera position in the virtual space corresponds to the position of the eyepoint EP of the driver.
  • the virtual camera position is corrected based on the eye point coordinates acquired by the viewpoint position specifying unit 70.
  • the virtual camera position and the optical system position are respectively corrected to the positions reflecting the posture change of the vehicle A based on the height information and the torque information acquired by the own vehicle information acquisition unit 73.
  • the correction of the attitude change of the vehicle A and the change of the eye point EP of the driver are mainly performed in the low frequency band (for example, less than 0.5 Hz).
  • the display generation unit 78 draws the original image of the selected non-AR content in parallel with the drawing of the original image of the AR content (see S31).
  • the display generation unit 78 combines the original images of the AR content and the non-AR content drawn in parallel to generate an output image (see S41).
  • the display generation unit 78 acquires the latest measurement result from the gyro sensor 79 provided in the HCU 100.
  • the gyro sensor 79 is a measuring unit that measures the posture change in the high frequency band (for example, about 0.5 to 2 Hz) among the posture changes occurring in the vehicle A.
  • the gyro sensor 79 measures each angular velocity of the vehicle A in the pitch direction and the roll direction, and sequentially outputs the measurement result to the display generation unit 78.
  • the display generation unit 78 refers to the measurement information of the gyro sensor 79 and adjusts the position of the original image of the AR content in the output image so as to correct the posture change in the high frequency band. In addition, the display generation unit 78 applies a predetermined deformation to the output image so that the distortion of the optical image due to the reflection on the magnifying optical system 22 is canceled. The output image to which the distortion correction is applied in this way becomes individual frame images in the video data. The display generation unit 78 sequentially outputs the video data including a large number of output images to the projector 21 (see S42).
  • the display generation unit 78 uses the route guidance information acquired from the navigation ECU 53 to cause the HUD device 20 to superimpose and display the route guidance content CNTg on the road surface in the foreground.
  • the route guidance information includes the position information of each guidance point, the distance information between the two guidance points, the direction of the right/left turn to be performed at each intersection, and the navigation map data.
  • the navigation map data includes the type of road on which the vehicle is running, the shape of the intersection, the number of lanes at the intersection, the advancing direction allowed for each lane, and the like.
  • the display generation unit 78 triggers the guidance execution request notified from the navigation ECU 53 to start the route guidance at the guidance point by the route guidance content CNTg based on the route guidance information. Even in the continuous guidance scene, the display generation unit 78 starts displaying the first route guidance content CNTg based on the acquisition of the guidance execution request, and sets the display start timing and the display end timing of each route guidance content CNTg, respectively. Set.
  • the display generation unit 78 refers to the navigation map data or the high-precision map data acquired by the route information acquisition unit 71, and determines the type of road on which the vehicle is traveling.
  • the display generation unit 78 changes the presentation method of the route guidance content CNTg in the continuous guidance based on whether or not the road on which the vehicle is running is a highway such as a motorway or a national highway.
  • the display generation unit 78 When it is determined that the road on which the vehicle is traveling is a highway, the display generation unit 78 performs the same route guidance as the navigation device 50 based on the acquisition of the continuous guidance notification. That is, when the display generation unit 78 approaches the first guidance point for performing the first route guidance by a predetermined distance (for example, 1 km), the route guidance content CNTg for performing the first route guidance and the second guidance point. The route guidance content CNTg for route guidance is displayed together.
  • a predetermined distance for example, 1 km
  • the display generation unit 78 determines that the road on which the vehicle is traveling is not a highway, it sequentially starts displaying a plurality of route guidance contents CNTg based on the acquisition of the continuous guidance notification. Specifically, in the continuous guidance area CGA where the route guidance for right and left turns is continuous, the display generation unit 78 continuously displays the route guidance content CNTg (hereinafter, “first guidance content CNT1”) for performing the first route guidance. Start based on the acquisition of the guidance notice. At this time, the display of the route guidance content CNTg (hereinafter, “second guidance content CNT2”) for performing the second route guidance is not started. The display generation unit 78 starts displaying the second guidance content CNT2 after hiding the first guidance content CNT1. As described above, the navigation device 50 displays the route guidance image for performing the first route guidance and the route guidance image for performing the second route guidance in the continuous guidance area CGA. Start together.
  • the display generation unit 78 starts the process of drawing the prepared drawing data on each frame image in front of each guide point in accordance with the traveling of the vehicle A along the set route, and displays the route guide content CNTg. To start. In addition, the display generation unit 78 ends the process of drawing the drawing data in each frame image at the position related to each guide point, and ends the display of the route guide content CNTg.
  • the display start timing and the display end timing of the first guidance content CNT1 and the second guidance content CNT2 in the continuous guidance area CGA shown in FIG. 5 will be further described.
  • the navigation ECU 53 outputs route guidance information including a continuous guidance notice to the HCU 100, along with a guidance execution request, at a predetermined distance (for example, 300 m) before the first intersection (right/left turn point P1). Based on the acquisition of the guidance execution request by the route information acquisition unit 71, the display generation unit 78 uses the route guidance information to start displaying the first guidance content CNT1 as the route guidance content CNTg.
  • the first guidance content CNT1 is a right turn content for instructing a right turn at the right and left turn point P1 (see FIG. 7).
  • the first guidance content CNT1 is superimposed and displayed on the road surface of the first road R1, and shows the planned travel locus of the vehicle A based on the route guidance information to the driver.
  • the first guidance content CNT1 displays the approach route to the right/left turn point P1 and the exit route from the right/left turn point P1 in an AR display. With such a display, the first guidance content CNT1 prompts the driver to move to the right turn lane until reaching the right/left turn point P1 and to perform the right turn at the right/left turn point P1.
  • the display generation unit 78 hides the first guidance content CNT1 before the vehicle A reaches the turning point P1. Specifically, the display generation unit 78 determines whether to display the vehicle A (own vehicle) based on the map data acquired by the route information acquisition unit 71 and the position information of the vehicle A (own vehicle) acquired by the position information acquisition unit 72. Know the distance to the right/left turn point P1. The display generation unit 78 ends the display of the first guidance content CNT1 when the distance to the right/left turn point P1 becomes less than a predetermined distance (hereinafter, “end distance Lh1”) (see FIG. 6). The end distance Lh1 is set to about 15 m, for example.
  • the end distance Lh1 is set to, for example, a distance at which the intersection including the right/left turn point P1 is framed out below the angle of view VA.
  • an interval in which the route guidance content CNTg is not displayed is provided between the end of the display of the first guidance content CNT1 and the start of the display of the second guidance content CNT2.
  • the display generation unit 78 acquires the determination result of the traveling direction from the vehicle posture estimation unit 77.
  • the display generation unit 78 starts displaying the second guidance content CNT2 that provides route guidance for the continuous point P2 based on the traveling direction of the vehicle A with respect to the connecting road Rc and the distance from the vehicle A (own vehicle) to the continuous point P2.
  • the display generation unit 78 starts displaying the second guidance content CNT2 when the vehicle A approaches the continuous point P2 by a predetermined distance and the traveling direction of the vehicle A approaches the extension direction of the connection road Rc. ..
  • the display generation unit 78 sets the planned display position of the second guidance content CNT2 so as to include the continuous point P2 that is the target of the second route guidance (see FIG. 8).
  • the second guidance content CNT2 is a superimposed content including the base end image portion PeB and the front end image portion PeT.
  • the base end image portion PeB is an image element group that is superimposed on the road surface range from the continuous point P2 to the own vehicle side, that is, the road surface of the connection road Rc in the second guidance content CNT2.
  • the leading edge image portion PeT is an image element that is superimposed on the road surface range on the traveling direction side from the continuous point P2 in the second guidance content CNT2.
  • the overlapping range of the tip image portion PeT is set to have a length of, for example, several m to 20 m from the continuous point P2 in the planned traveling direction.
  • the display generation unit 78 displays the view angle VA of the HUD device 20 and the 3D object corresponding to the second guidance content CNT2 based on the result of the layout simulation (see S23 in FIG. 4) in the virtual space using the 3D object. Understand the positional relationship.
  • the display generation unit 78 determines that at least part of the base end image portion PeB is within the angle of view VA in the second guidance content CNT2 that is assumed to be superimposed on the display planned position (see the shaded area in FIG. 8). ), display of the second guidance content CNT2 is started.
  • the second guidance content CNT2 is route guidance content CNTg that is displayed on the road surface of the connection road Rc in a superimposed manner and indicates to the driver the planned travel locus of the vehicle A based on the route information (see FIG. 9).
  • the second guidance content CNT2 AR-displays the entry route to the continuous point P2 and the exit route from the continuous point P2. With such a display, the second guidance content CNT2 shows the relative position of the continuous point P2 and prompts the driver to perform a left turn at the continuous point P2.
  • the display generation unit 78 can adjust the display start timing of the second guidance content CNT2 according to the point-to-point distance from the right/left turn point P1 to the continuous point P2. As an example, when the continuous guidance determination unit 75 determines that the point-to-point distance is shorter than a predetermined distance (for example, about 100 m), the display generation unit 78 advances the display start timing of the second guidance content CNT2. Make adjustments.
  • a predetermined distance for example, about 100 m
  • the second guidance content CNT2 will be displayed immediately before the continuous point P2 (for example, about 20 m). ) May start the display.
  • the continuous point P2 may be outside the angle of view VA. Therefore, the route guidance becomes meaningless.
  • the display generation unit 78 relaxes the display start condition of the second guidance content CNT2 when the point-to-point distance between the right/left turn point P1 and the continuous point P2 is shorter than a predetermined distance.
  • the display generation unit 78 starts the display of the second guidance content CNT2 immediately after the display of the first guidance content CNT1 ends or at the timing when the vehicle A passes the right/left turn point P1.
  • the display generation unit 78 may display the second guidance content CNT2 changed to the icon-like state in a non-AR display.
  • the non-AR display of the second guidance content CNT2 as described above can contribute to improving the recognizability of the driver when the distance between points is not secured in a narrow street such as a residential area.
  • the display generation unit 78 changes the display start timing of the second guidance content CNT2 according to the visibility situation of the roadside area of the connection road Rc.
  • the vehicle posture estimation unit 77 determines that the roadside area has the shield BO.
  • adjustment is made to accelerate the display start of the second guidance content CNT2.
  • the display generation unit 78 starts displaying the second guidance content CNT2 based on the determination that at least a part of the second guidance content CNT2, which is assumed to be superposed on the planned display position, is within the view angle VA. You can let me.
  • the display generation unit 78 changes the display start timing of the second guidance content CNT2 according to the type of the second guidance content CNT2, in other words, the type of the second guidance point.
  • the display generation unit 78 causes the second guidance content CNT2 to be superimposed and displayed on the building or the like in the roadside area that is the goal point.
  • the second guidance content CNT2 has a pin shape or the like indicating the destination. Therefore, the display generation unit 78 may start displaying the second guidance content CNT2 based on the determination that at least a part of the second guidance content CNT2 is within the angle of view VA.
  • the display generation unit 78 grasps the position information of the vehicle A (own vehicle), and ends the display of the second guidance content CNT2 based on the approach or the passage to the continuous point P2. As an example, the display generation unit 78 terminates the display of the second guidance content CNT2 when the distance to the continuous point P2 becomes less than a predetermined distance (for example, 15 m), similar to the first guidance content CNT1. As still another example, the display generation unit 78 displays the second guidance content CNT2 at the timing when the vehicle A passes through the continuous point P2 or at the timing when the vehicle A travels a predetermined distance after passing the continuous point P2. To finish.
  • a predetermined distance for example, 15 m
  • the guidance display process shown in FIG. 10 is started based on the guidance execution request notified to the HCU 100 from the navigation ECU 53 (see FIG. 1).
  • the navigation-related information related to the guidance execution request that triggered the guidance display process this time specifically, the position information of the vehicle A, the direction information, the route guidance information, and the like are acquired, and the process proceeds to S102.
  • the route guidance information acquired in S101 is referred to, and it is determined whether or not continuous guidance is performed based on whether or not the route guidance information includes continuous guidance information. If it is determined in S102 that continuous guidance is not provided, the process proceeds to S104. On the other hand, if it is determined in S102 that continuous guidance is to be provided, the process proceeds to S103. In S103, the number of consecutive guidance points is set based on the route guidance information. In addition, in S103, a series of route guidance information in the continuous guidance area CGA is separated as information of individual guidance points, and the process proceeds to S104.
  • the value of the counter that counts the guidance points is set to "1", and the process proceeds to S105.
  • the route guidance content CNTg for the current (Nth) guidance point is generated based on the numerical value of the counter. Specifically, the AR display of the route guidance content CNTg is started by drawing the original image of the route guidance content CNTg on the video data, and the process proceeds to S106.
  • S106 the display end timing corresponding to the route guidance content CNTg being displayed is set, and the process proceeds to S107.
  • S107 it is determined whether or not there is a next (N+1)th guide point. When it is determined in S107 that there is no next guidance point, the process proceeds to S109. On the other hand, if it is determined in S107 that there is a next (N+1)th guide point (continuous point P2 or the like), the process proceeds to S108.
  • S108 the display start timing of the route guidance content CNTg for guiding the next guidance point is set, and the process proceeds to S109.
  • S109 it is determined whether the display end timing set in S106 has come. If it is determined in S109 that the display end timing has come, the process proceeds to S110. The display of the current (N-th) route guidance content CNTg is ended, and the process proceeds to S111.
  • S111 it is determined whether or not there is a remaining guidance point set in S103.
  • the series of guidance display processing based on the guidance execution request this time is ended.
  • the process proceeds to S112.
  • the value of the guidance point counter is incremented by 1, and the process proceeds to S113.
  • S113 it is determined whether the display start timing set in the immediately preceding S108 has come. When it is determined in S112 that the display start timing has come, the process proceeds to S105. In S105 after the second time, based on the value of the counter incremented in S112, generation of the second guide content CNT2 for guiding the next (N+1)th guide point, that is, the continuous point P2, and AR display are started. Then, in subsequent S107 to S113, the process waits for the end or start of the AR display. When the route guidance at all the guidance points is completed in this way, a series of guidance display processing based on the guidance execution request this time is ended.
  • the navigation device 50 displays the first route guidance image in the continuous guidance area CGA and also performs the “continuous guidance” in which the second route guidance image is displayed on the navigation display 52.
  • continuous guidance when the HCU 100 acquires route guidance information including information on a plurality of guidance points, the HCU 100 guides the guidance content for guiding the first guidance point and the second guidance point. It is also possible to display the guidance content together.
  • the angle of view VA of the HUD device 20 is limited in the horizontal direction. Therefore, even if the guide content of the second guide point is displayed at the same time as the display of the guide content of the first guide point is displayed, this guide content may be cut off from the view angle VA in many scenes. Becomes higher. As a result, there is a possibility that the second guidance content, which has started to be displayed early, may rather make it difficult to recognize the route guidance information presentation. Further, since the second guidance content is superimposed and displayed at a position distant from the current position of the vehicle A, the display size may be small and it may be more difficult to recognize.
  • the HCU 100 sequentially displays the route guidance content CNTg that guides the plurality of guidance areas. Let That is, the HCU 100 displays the first guidance content CNT1 for performing the first route guidance, hides the first guidance content CNT1 and then displays the second guidance content CNT2 for performing the second route guidance.
  • the navigation device 50 starts both the first route guidance and the second route guidance, so that the user can grasp the entire image of the continuous guidance. Therefore, the HCU 100 can perform information presentation specialized for individual route guidance, and specifically, the second route guidance until the first guidance content CNT1 that provides the first route guidance is hidden.
  • the second guidance content CNT2 to be displayed is put on standby. As described above, by displaying the first guidance content CNT1 and the second guidance content CNT2 in order, the display system 110 and the HCU 100 can realize superimposed display of continuous guidance that is easy for the user to recognize.
  • the second guidance content CNT2 based on the determination that at least a part of the base end image portion PeB on the vehicle side from the continuous point P2 is within the view angle VA. , Display is started. According to the above, the display of the second guidance content CNT2 is started in a state where both the front and rear ends of the planned traveling route can be shown together. Therefore, the second guidance content CNT2 can be presented in a manner that is more easily recognized by the user.
  • the display generation unit 78 hides the first guidance content CNT1 before the vehicle A reaches the right/left turn point P1 which is the first route guidance target. Therefore, it is possible to avoid the situation in which the attention object such as a pedestrian at the right/left turn point P1 is hidden by the first guidance content CNT1 to be superimposed on the foreground.
  • the control of erasing the first guidance content CNT1 before the right/left turn point P1 can contribute to the smooth running of the right/left turn point P1.
  • the display generation unit 78 does not wait for the display of the second guidance content CNT2 and does not display the second guidance content CNT1 before the second guidance content CNT2 is displayed.
  • the display of the guidance content CNT2 is started. According to the above, it is possible to avoid the situation where it is difficult to secure the time required to recognize the second guidance content CNT2 when the traveling speed of the vehicle A is high.
  • the traveling direction of the vehicle A is detected by using the detection information of the lane marking or the road edge of the connection road Rc by the front camera 31 mounted on the vehicle A. Is determined. Therefore, the display generation unit 78 can determine the display start timing of the second guidance content CNT2 by grasping the direction of the vehicle A with respect to the connection road Rc in real time. According to the above, the HCU 100 can improve the accuracy of the attitude determination of the vehicle A and start the route guidance of the continuous point P2 at an appropriate timing. Therefore, the risk of erroneous recognition of route guidance is further reduced.
  • the traveling direction of the vehicle A is determined using the map data and the direction information based on the positioning signal. Therefore, the display generation unit 78 recognizes the direction of the vehicle A with respect to the connection road Rc and appropriately displays the second guide content CNT2 even when the connection road Rc is in a mode in which it is difficult to detect the marking line and the road edge. Can be controlled. According to the above, the running direction can be determined without depending on the road environment, so that the risk of misrecognition of route guidance can be reduced in many traveling scenes.
  • the display start of the second guidance content CNT2 is accelerated.
  • the superimposition display of the second guidance content CNT2 is started early, the superimposition on the incorrect superimposition target does not occur. Therefore, the risk of erroneous recognition of the driver can be substantially eliminated. Therefore, according to the process of accelerating the display start of the second guidance content CNT2 based on the absence of the shield BO, the driver can be made to recognize the continuous point P2 at an early stage.
  • the second guidance content CNT2 when the superimposition target of the second guidance content CNT2 is a destination or the like in the roadside area of the connection road Rc, the second guidance content CNT2 is earlier than when the superimposition target is in the road surface area.
  • the display is started. According to such adjustment, the driver can recognize the continuous point P2 at an early stage.
  • the HUD device 20 corresponds to a “head-up display”
  • the display generation unit 78 corresponds to a “display control unit”
  • the HCU 100 corresponds to a “display control device”.
  • the base end image portion PeB corresponds to “a part on the front side (of the second guidance content)”
  • the right/left turn point P1 corresponds to the “first guidance point”
  • the continuous point P2 corresponds to the “second guidance point”. Equivalent to.
  • Modification 1 In Modification 1 of the above embodiment shown in FIG. 13, the display end timing of the first guidance content CNT1 is different from that in the above embodiment.
  • the HCU 100 passes the first turn guidance target point P1 for route guidance, and then the vehicle A travels a predetermined distance (end distance Lh1) based on the first guidance content.
  • CNT1 is hidden.
  • the HCU 100 ends the display of the first guidance content CNT1 when the end distance Lh1 from the center of the intersection to the vehicle A becomes about 10 m or 50 m.
  • the display of the first guidance content CNT1 is continued until the vehicle A passes through the intersection that becomes the right/left turn point P1. Therefore, when the right/left turn point P1 is a complicated intersection such as a multi-forked road, the driver can keep track of the exit road to which the driver is guided until the end. Based on the above, a superimposed display of continuous guidance that is easy for the user to recognize is realized. As described above, there are various types of guide points, such as simple intersections such as crossroads and complex intersections. Therefore, control for changing the display end timing of the first guidance content CNT1 may be performed according to the type of guidance point included in the route guidance information.
  • the HCU 100 starts displaying the second guidance content CNT2 when the distance from the vehicle A to the continuous point P2 becomes shorter than a predetermined distance after the end of the first guidance content CNT1.
  • the display end of the first guidance content CNT1 and the display start of the second guidance content CNT2 may be continuous.
  • Modification 2 In Modification 2 of the above embodiment shown in FIGS. 14 and 15, the display mode of the second guidance content CNT2 is different from that of the above embodiment.
  • the second guidance content CNT2 of the second modification is an arrow-shaped content that indicates the planned travel path of the vehicle A. Also in the second guidance content CNT2 of Modification 2, the image portion superimposed on the road surface of the connecting road Rc becomes the base end image portion PeB. Further, in the second guidance content CNT2, the image portion that is superimposed on the road surface range on the traveling direction side from the continuous point P2 is the tip image portion PeT.
  • the display end timing of the first guidance content CNT1 and the display start timing of the second guidance content CNT2 are different from the above embodiment.
  • the HCU 100 hides the first guidance content CNT1 based on having passed the right/left turn point P1 which is the first route guidance target.
  • the HCU 100 starts displaying the second guidance content CNT2 based on the determination that the continuous point P2, which is the second route guidance target, is within the angle of view VA after passing the right/left turn point P1. ..
  • the HCU 100 grasps the positional relationship between the view angle VA and the continuous point P2 in the virtual space based on the result of the layout simulation (see S23 of FIG. 4) in the virtual space using the 3D object, as in the above embodiment. Then, it is determined whether or not the continuous point P2 is within the angle of view VA.
  • the display start of the second guidance content CNT2 is waited for until the continuous point P2 enters within the angle of view VA. Therefore, in the second guidance content CNT2, only the very tip of the tip image part PeT is not displayed during the turning at the right/left turn point P1, and the tip image part PeT and the base end image part PeB are connected to each other. , Display is started. Therefore, the display of the second guidance content CNT2 that is easy for the driver to understand is realized.
  • the second guidance content CNT2 starts to be displayed in such a manner as to include a part of the tip image portion PeT together with the base image portion PeB. To be done. That is, the second guidance content CNT2 is started to be displayed in such a manner that the meaning can be understood. Therefore, the easy-to-understand display of the second guidance content CNT2 is realized regardless of the direction of right/left turn at the continuous point P2.
  • Modification 3 Also in Modification 3 of the above embodiment shown in FIG. 16, the display start timing of the second guidance content CNT2 is different from that in the above embodiment.
  • the HCU 100 starts displaying the second guidance content CNT2 based on the estimation that the traveling direction of the vehicle A is in the direction along the connecting road Rc toward the continuous point P2 that is the second route guidance target. .. That is, in Modification 3, when the right/left turn point P1 and the continuous point P2 are continuous, the display of the second guidance content CNT2 indicates that the straight-ahead determination is established after the start of the right turn or the left turn at the right/left turn point P1. Will be started on condition.
  • the display generation unit 78 continuously acquires the estimation result of the traveling direction of the vehicle A acquired from the vehicle attitude estimation unit 77.
  • the display generation unit 78 selectively uses these pieces of information based on the relative position of the lane markings or road edges of the connecting road Rc, the intersection angle ⁇ 1 (see FIG. 5) and the attitude change angle, and the steering angle information to determine whether to go straight. carry out.
  • the display generation unit 78 establishes a straight-ahead determination when the lane markings or road edges located on the left and right sides of the vehicle A are within the angle of view of the front camera 31 and the front camera 31 is ready to take a picture.
  • the display generation unit 78 may establish the straight-ahead determination at the timing when the lane marking on one side or the road edge enters the angle of view of the front camera 31.
  • the display generation unit 78 makes a straight-ahead determination combining map data and direction information when neither the lane markings nor the road edge of the connecting road Rc can be detected from the imaged data.
  • the display generation unit 78 sets a threshold angle slightly smaller than the intersection angle ⁇ 1 with the intersection angle ⁇ 1 as a reference.
  • the display generation unit 78 establishes the straight ahead determination at the timing when the posture change angle of the vehicle A in the yaw direction at the right/left turn point P1 exceeds the threshold angle.
  • the display generation unit 78 performs the traveling direction determination using the steering angle information when the lane markings and road edges of the connecting road Rc are difficult to detect and the positioning signal reception environment is not good.
  • the display generation unit 78 monitors the transition of the steering operation at the right/left turn point P1 based on the steering angle information, and when the angular velocity of the steering is less than the predetermined velocity, that is, at the timing when the change in the steering angle is stable, Make a straight-ahead decision.
  • the display generation unit 78 may establish the straight-ahead determination based on the steering angle information at the timing when the steering angle becomes less than the predetermined threshold value in the process of returning the steering wheel.
  • the predetermined threshold value that establishes the straight-ahead determination is appropriately changed based on the map data according to the intersection angle ⁇ 1, the shape of the connecting road Rc, and the like.
  • the second guidance content CNT2 is started to be displayed in a state in which the distal end image portion PeT and the proximal end image portion PeB are connected to each other. Therefore, the easy-to-understand display of the second guidance content CNT2 is realized.
  • the traveling direction of the vehicle A is determined using the detection information of the lane markings or road edges of the connecting road Rc by the front camera 31 mounted on the vehicle A. Therefore, the display generation unit 78 can determine the display start timing of the second guidance content CNT2 by grasping the direction of the vehicle A with respect to the connection road Rc in real time. According to the above, the HCU 100 can improve the accuracy of the straight ahead determination of the vehicle A and appropriately control the display start timing of the second guidance content CNT2.
  • the traveling direction of the vehicle A is determined using the map data and the direction information based on the positioning signal. Therefore, the display generation unit 78 can determine the display start timing of the second guidance content CNT2 by grasping the direction of the vehicle A with respect to the connection road Rc even if it is difficult to detect the lane markings and road edges of the connection road Rc. According to the above, since the straight ahead determination can be performed without depending on the road environment, the display start timing of the second guidance content CNT2 can be appropriately controlled in many traveling scenes.
  • the traveling direction of vehicle A can be determined using the steering angle information. In this way, if the end of the turning of the vehicle A can be known using the own vehicle information, the display generation unit 78 can determine the display start timing of the second guidance content CNT2 without being affected by the external environment of the vehicle A. .. According to the above, the display start timing of the second guidance content CNT2 can be appropriately controlled in more traveling scenes.
  • the conditions for establishing straight ahead determination in Modification 3 may be changed as appropriate.
  • the display generation unit 78 establishes the straight-ahead traveling determination by at least one of the traveling direction determination based on the detection information, the traveling direction determination using the map data and the direction information, and the traveling direction determination using the steering angle information. In this case, the display of the guidance content CNT2 may be started.
  • the display generation unit 78 may establish the straight-ahead determination based on the majority of these three traveling direction determinations.
  • the display generation unit 78 may not have all the functions for determining the three traveling directions.
  • Modification 4 As shown in FIG. 17, the HCU 100 of Modification 4 intentionally expands the overlapping range of the second guidance content CNT2 to the outside of the road surface. According to such a display process, the second guide content CNT2 is likely to be displayed in a state in which the front end image portion PeT and the base end image portion PeB are connected to each other. As a result, the enlargement of the second guidance content CNT2 enables early display of the distal end image portion PeT and the proximal end image portion PeB, and contributes to an easy-to-understand presentation of the guide route at the continuous point P2.
  • the HCU 100 of the modified example 5 of the above-described embodiment starts displaying the second guidance content CNT2 based on that at least a part of the second guidance content CNT2 is within the angle of view VA.
  • the HCU 100 according to the sixth modification of the above-described embodiment has a first guidance content CNT1 to a second guidance content CNT2 at a point (time point) at which the vehicle has traveled a predetermined distance after passing the right/left turn point P1.
  • the display start timing and the display end timing of each of the guidance contents CNT1 and CNT2 may be appropriately changed within the timing exemplified in the above embodiment and modification.
  • the display start timing of the second guidance content CNT2 may be, for example, when the vehicle passes the right/left turn point P1 and when the vehicle travels a predetermined distance after passing the right/left turn point P1.
  • the continuous guidance determination unit 75 determines whether or not a plurality of guidance points are continuous, instead of the navigation ECU 53. For example, when the navigation ECU 53 does not output the continuous guidance notification, the continuous guidance determination unit 75 may determine whether or not to implement the continuous guidance based on other route guidance information acquired from the navigation ECU 53.
  • the continuous guidance determination unit 75 determines that there is continuous guidance information, and these guidance points are included. Decide to implement continuous guidance. As another example, the continuous guidance determination unit 75 calculates the point-to-point distance between the right/left turn point P1 and the continuous point P2 arranged on the set route from the route guidance information that is sequentially acquired. The continuous guidance determining unit 75 uses the same determination logic as the navigation ECU 53 to determine that the right/left turn point P1 and the continuous point P2 are continuous, that is, there is continuous guidance information.
  • the distance between points which is the threshold value for continuous guidance, may be appropriately set within, for example, about 100 to 1000 m.
  • the point-to-point distance may be adjustable by the user of the vehicle A such as a driver, or may be automatically adjusted according to the type of the continuous point P2.
  • the switching timing to the guide content CNT2 is advanced.
  • the specific type of such a specific object is not limited to the above-mentioned shield BO, and may be appropriately changed depending on the content of the guidance content CNT2, for example.
  • the process of recognizing the specific object may be performed by the surroundings monitoring sensor 30 or the driving assistance ECU 57, or may be performed by the outside world information acquisition unit 74 or the roadside object determination unit 76.
  • a user terminal such as a smartphone is connected to the in-vehicle network.
  • a route to a destination is set in an application executed by a user terminal by a user operation such as a driver.
  • the user terminal can provide route guidance information to the destination, related navigation map data, and the like to the route information acquisition unit 71 through an in-vehicle network or the like.
  • the route guidance information may include a continuous guidance notification.
  • the route information acquisition unit 71 of the modified example 9 of the above embodiment can acquire the route information and the map data from the server on the cloud through the network outside the vehicle.
  • the navigation device does not have to be fixed to the vehicle in advance as long as the information necessary for route guidance can be acquired from the smartphone or the cloud server as in the modified examples 8 and 9.
  • the mode of the route guidance content CNTg may be appropriately changed in order to improve recognition by the driver.
  • the route guidance content CNTg may be in a state in which the brightness decreases as the distance from the own vehicle increases.
  • a portion that overlaps the shield BO may have a lower brightness than a portion that does not overlap the shield BO.
  • the display may be superposed as if it floats up from the road surface, so that the distant portion may be enlarged.
  • the display control function realized by the HCU 100 may be realized by another vehicle-mounted ECU mounted on the vehicle A.
  • the display control function may be implemented in the navigation ECU 53 of the navigation device 50.
  • the display control function may be mounted on the control circuit of the HUD device 20.
  • the HCU 100 may be an electronic control device mounted on the vehicle A as a meter ECU.
  • the HCU 100 may include the function of the navigation ECU 53 and control the route guidance display by the navigation display 52 together with the virtual image display of the HUD device 20.
  • the HUD device of Modification 10 is provided with an EL (Electro Luminescence) panel instead of the LCD and the backlight.
  • EL Electro Luminescence
  • a projector using a plasma display panel, a cathode ray tube, and a display device such as an LED can be adopted for the HUD device.
  • the HUD device of Modification 11 is provided with a laser module (hereinafter “LSM”) and a screen instead of the LCD and the backlight.
  • LSM is configured to include, for example, a laser light source and a MEMS (Micro Electro Mechanical Systems) scanner.
  • the screen is, for example, a micromirror array or a microlens array.
  • a display image is drawn on the screen by scanning the laser light emitted from the LSM.
  • the HUD device projects a display image drawn on a screen onto a windshield by a magnifying optical element to display a virtual image in the air.
  • the HUD device of the modification 13 is provided with a DLP (Digital Light Processing, registered trademark) projector.
  • the DLP projector has a digital mirror device (hereinafter, “DMD”) provided with a large number of micromirrors, and a projection light source that projects light toward the DMD.
  • DMD digital mirror device
  • the DLP projector draws a display image on the screen by controlling the DMD and the projection light source in cooperation with each other.
  • the HUD device of Modification 14 a projector using LCOS (Liquid Crystal On Silicon) is adopted. Furthermore, the HUD device of Modification 15 employs a holographic optical element as one of optical systems for displaying a virtual image in the air.
  • LCOS Liquid Crystal On Silicon
  • each function provided by the HCU can be provided by software and hardware that executes the software, only software, only hardware, or a combination thereof. Furthermore, when such a function is provided by an electronic circuit as hardware, each function can also be provided by a digital circuit including a large number of logic circuits or an analog circuit.
  • the form of a storage medium that stores a program or the like that can realize the above display control method may be changed as appropriate.
  • the storage medium is not limited to the configuration provided on the circuit board, and may be provided in the form of a memory card or the like, inserted into the slot portion, and electrically connected to the control circuit of the HCU. ..
  • the storage medium may be an optical disk, a hard disk drive, or the like serving as a copy base of the program to the HCU.
  • the vehicle equipped with the HMI system is not limited to a general privately-owned passenger vehicle, and may be a car rental vehicle, a manned taxi vehicle, a ride-sharing vehicle, a freight vehicle, a bus, or the like. Furthermore, the HMI system and the HCU may be installed in a vehicle dedicated to unmanned driving used for mobility services.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer that constitutes a processor programmed to execute one or a plurality of functions embodied by a computer program.
  • apparatus and method described in the present disclosure may be realized by a dedicated hardware logic circuit.
  • device and the method described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transition tangible recording medium as an instruction executed by the computer.
  • a continuous guidance determination unit that determines whether A vehicle attitude estimation unit that estimates the orientation of the vehicle with respect to the road on which the vehicle is traveling, and determines whether or not the orientation of the vehicle can display the guidance content that sequentially guides the guidance point, When it is determined that the route information includes the continuous guidance information, after the right/left turn content for guiding the right/left turn point is displayed, the direction of the vehicle becomes a direction in which the guidance content can be displayed.
  • a display control unit for starting the display of the guidance content And a display control device. (Appendix 2)
  • the vehicle attitude estimation unit determines that the orientation of the vehicle is a direction in which the guidance content can be displayed, based on detection information of the lane markings or road edges of the road by an external sensor mounted on the vehicle.
  • the display control device can display the guidance content in the direction of the vehicle by using map information about the road on which the vehicle is traveling and direction information of the vehicle based on a positioning signal received from a positioning satellite. 3.
  • the display control device according to appendix 1 or 2, which determines that the orientation has changed.
  • the vehicle attitude estimation unit uses the steering angle information about the steering angle of the vehicle to determine that the orientation of the vehicle has become the orientation in which the guidance content can be displayed.
  • a roadside object determination unit that determines whether or not there is a specific object that is not appropriate as a target for superimposing the guidance content, in a roadside area of the road on which the vehicle travels after a right or left turn at the right or left turn point. , 5.
  • the display of the guidance content is started earlier when it is determined that the specific object is not in the roadside area than when it is determined that the specific object is in the roadside area.
  • Display controller (Appendix 6) Whether the vehicle attitude estimation unit can display the guidance content when the guidance content superimposition target is in the roadside area of the road, compared to when the guidance content superimposition target is in the road surface area of the road. 6.
  • the display control device according to any one of appendices 1 to 5, which relaxes a determination criterion for determining.
  • Appendix 7 A display control program used in a vehicle for controlling a display superimposed on the foreground for route guidance, At least one processing unit, Whether or not the route information used for the route guidance includes continuous guidance information indicating a continuation of a right/left turn point that guides a right/left turn of the vehicle and a sequential guidance point that provides guidance after the right/left turn point. Determine whether Estimating the direction of the vehicle with respect to the road that is running, for the direction of the vehicle, it is determined whether or not it is possible to display the guide content for guiding the guide points in sequence.
  • the route information includes the continuous guidance information
  • the direction of the vehicle is changed to a direction in which the guidance content can be displayed.
  • the condition is to start displaying the guidance content,
  • the guidance content for guiding the guidance points sequentially is displayed after the right turn or left turn at the right and left turn points. Is started on condition that the vehicle is turned in a direction in which can be displayed. Based on the above, the display start timing of the guidance content that sequentially guides the guidance point may be appropriate. Therefore, the risk of erroneous recognition due to the superimposed display for route guidance can be reduced.
  • each step is expressed as, for example, S101. Further, each step can be divided into multiple sub-steps, while multiple steps can be combined into one step.
  • the embodiments, configurations, and aspects of the display system, the display control device, and the display control program according to one aspect of the present disclosure have been illustrated.
  • the configuration and each aspect are not limited.
  • embodiments, configurations, and aspects obtained by appropriately combining the technical parts disclosed in different embodiments, configurations, and aspects are also included in the scope of the embodiments, configurations, and aspects according to the present disclosure.

Abstract

車両(A)において用いられる表示システムは、目的地までの経路案内を行うナビゲーション装置(50)と、ナビゲーション装置より取得する経路案内情報から、経路案内コンテンツ(CNTg)をヘッドアップディスプレイ(20)によって路面に重畳表示させる表示制御装置(100)と、を備える。ナビゲーション装置は、複数の経路案内が連続する連続案内であると判定した場合、1つ目の経路案内と2つ目の経路案内とを共に開始する。表示制御装置は、ナビゲーション装置より取得する経路案内情報が連続案内であると判定した場合に、1つ目の経路案内を行う第1案内コンテンツ(CNT1)を表示させ、第1案内コンテンツを非表示とした後、2つ目の経路案内を行う第2案内コンテンツ(CNT2)を表示させる。

Description

表示システム、表示制御装置及び表示制御プログラム 関連出願の相互参照
 本出願は、2019年1月16日に出願された日本国特許出願2019-5543号、2019年9月30日に出願された日本国特許出願2019-178859号、に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、前景に重畳される表示を制御する表示制御に関する。
 例えば特許文献1には、目的地までの経路を案内する誘導表示を、フロントガラス越しに見えるドライバの前方視界に重畳する車両用表示装置が開示されている。この車両用表示装置は、車両の右左折を案内する交差点に所定の距離近づくと、経路情報に基づく誘導表示として、右左折の方向を示す矢印を道路に重畳表示する。
国際公開第2015/118859号
 特許文献1のように、目的地までの経路案内を行う場合、誘導表示を要する複数の案内地点について、連続して存在する連続案内のシーンが発生し得る。このように連続案内を行うケースにおいて、1つ目の経路案内を行う案内表示と2つ目の経路案内を行う案内表示とを、共に分かり易く提示することは、特許文献1では、何ら想定されていなかった。
 本開示は、連続案内のための重畳表示を認識し易くすることが可能な表示制御の技術を提供することを目的とする。
 本開示の一態様によれば、車両において用いられる表示システムであって、目的地までの経路案内を行うナビゲーション装置と、ナビゲーション装置より取得する経路案内情報から、経路案内コンテンツをヘッドアップディスプレイによって路面に重畳表示させる表示制御装置と、を備え、ナビゲーション装置は、複数の経路案内が連続する連続案内であると判定した場合、1つ目の経路案内と2つ目の経路案内とを共に開始し、表示制御装置は、ナビゲーション装置より取得する経路案内情報が連続案内であると判定した場合に、1つ目の経路案内を行う第1案内コンテンツを表示させ、第1案内コンテンツを非表示とした後、2つ目の経路案内を行う第2案内コンテンツを表示させる表示システムとされる。
 本開示の別の一態様は、ナビゲーション装置を搭載する車両において用いられ、ヘッドアップディスプレイによる路面への重畳表示を制御する表示制御装置であって、目的地までの経路案内を行うナビゲーション装置より経路案内情報を取得する経路情報取得部と、経路案内情報から生成する経路案内コンテンツを、ヘッドアップディスプレイによって路面に重畳表示させる表示制御部と、を備え、経路情報取得部は、ナビゲーション装置にて複数の経路案内が連続する連続案内であると判定された場合に、当該連続案内があることを示す経路案内情報を取得し、表示制御部は、連続案内を示す経路案内情報を経路情報取得部が取得した場合に、ナビゲーション装置が1つ目の経路案内と2つ目の経路案内とを共に開始する連続案内エリアにおいて、1つ目の経路案内を行う第1案内コンテンツを表示させ、第1案内コンテンツを非表示とした後、2つ目の経路案内を行う第2案内コンテンツを表示させる表示制御装置とされる。
 本開示の別の一態様は、ナビゲーションディスプレイを搭載する車両において用いられ、ヘッドアップディスプレイによる路面への重畳表示を制御する表示制御プログラムであって、少なくとも一つの処理部に、目的地までの経路案内に用いられる経路案内情報を取得し、経路案内情報に基づき、ナビゲーションディスプレイによって行われる経路案内が、複数の経路案内を連続して行う連続案内であるか否かを判定し、経路案内情報から生成する経路案内コンテンツを、ヘッドアップディスプレイによって路面に重畳表示させ、連続案内を示す経路案内情報を取得した場合に、1つ目の経路案内と2つ目の経路案内とがナビゲーションディスプレイによって共に開始される連続案内エリアにおいて、1つ目の経路案内を行う第1案内コンテンツを表示させ、第1案内コンテンツを非表示とした後、2つ目の経路案内を行う第2案内コンテンツを表示させる、ことを含む処理を実行させる表示制御プログラムとされる。
 これらの態様では、ナビゲーション装置又はナビゲーションディスプレイにて、1つ目の経路案内と2つ目の経路案内とが共に開始されるため、連続案内の全体像がユーザによって把握され得る。そのため、ヘッドアップディスプレイは、個々の経路案内に特化した情報提示を実施でき、具体的には、1つ目の経路案内を行う第1案内コンテンツを非表示とするまで、2つ目の経路案内を行う第2案内コンテンツの表示を待機させる。このように、第1案内コンテンツ及び第2案内コンテンツを順に表示させることで、ユーザにとって認識し易い連続案内の重畳表示が実現される。
 本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
本開示の一実施形態によるHCUを含む車載ネットワークの全体像を示す図である。 車両に搭載されるHUD装置の一例を示す図である。 HCUの概略的な構成の一例を示す図である。 表示生成部によるコンテンツの描画処理の詳細を示す図である。 右左折地点及び連続地点を連続して案内するシーンの一例を説明するための図である。 第1案内コンテンツの表示終了タイミングの1つの例を説明するための図である。 右左折地点を案内する第1案内コンテンツの1つの表示例を示す図である。 第2案内コンテンツの表示開始タイミングの1つの例を説明するための図である。 連続地点を案内する第2案内コンテンツの1つの表示例を示す図である。 HCUにて実施される案内表示処理の詳細を示すフローチャートである。 第2案内コンテンツの表示開始が適切でない場合の表示を比較例として示す図である。 接続道路の路側域に遮蔽物がない場合に、第2案内コンテンツの表示開始を早めることの効果を説明するための図である。 変形例1の第1案内コンテンツの表示終了タイミングを説明するための図である。 変形例2の第2案内コンテンツの表示開始タイミングを説明するための図である。 連続地点での右折シーンを説明するための図である。 変形例3の第2案内コンテンツの表示開始タイミングを説明するための図である。 変形例4の第2案内コンテンツの1つの表示例を示す図である。
 本開示の一実施形態による表示制御装置の機能は、図1及び図2に示すHCU(Human Machine Interface Control Unit)100によって実現されている。HCU100は、車両Aにおいて用いられるHMI(Human Machine Interface)システム10を、ヘッドアップディスプレイ(Head Up Display,以下、「HUD」)装置20等と共に構成している。HMIシステム10には、操作デバイス26及びDSM(Driver Status Monitor)27等がさらに含まれている。HMIシステム10は、車両Aの乗員(例えばドライバ等)による操作を受け付ける入力インターフェース機能と、ドライバへ向けて情報を提示する出力インターフェース機能とを備えている。
 HMIシステム10は、車両Aに搭載された車載ネットワーク1の通信バス99に、通信可能に接続されている。HMIシステム10は、車載ネットワーク1に設けられた複数のノードのうちの一つである。車載ネットワーク1の通信バス99には、例えば周辺監視センサ30、ロケータ40、ナビゲーション装置50、車両制御ECU(Electronic Control Unit)54、運転支援ECU57等がノードとして接続されている。通信バス99に接続されたこれらのノードは、相互に通信可能となっている。
 尚、以下の説明における前後及び左右の各方向は、水平面上に静止させた車両Aを基準として規定される。具体的に、前後方向は、車両Aの長手方向に沿って規定される。また左右方向は、車両Aの幅方向に沿って規定される。
 周辺監視センサ30は、車両Aの周辺環境を監視する自律センサである。周辺監視センサ30は、自車周囲の検出範囲から、歩行者、サイクリスト、人間以外の動物、及び他車両等の移動物体、さらに路上の落下物、ガードレール、縁石、走行区画線等の路面表示、及び道路脇の構造物等の静止物体、を検出可能である。周辺監視センサ30は、車両Aの周囲(特に前方範囲)の物体を検出した検出情報を、通信バス99を通じて、運転支援ECU57及びHCU100等に提供する。
 周辺監視センサ30は、物体検出のための検出構成として、フロントカメラ31、ミリ波レーダ32及びライダ33を有している。フロントカメラ31は、車両Aの前方範囲を撮影した撮像データ、及び撮像データの解析結果の少なくとも一方を、検出情報として出力する。ミリ波レーダ32は、ミリ波又は準ミリ波を前方範囲へ向けて照射し、移動物体及び静止物体等で反射された反射波を受信する処理により、外部に出力される検出情報を生成する。ライダ33は、レーザ光を前方範囲へ向けて照射し、移動物体及び静止物体等で反射された反射光を受信する処理により、外部に出力される検出情報を生成する。
 ロケータ40は、複数の取得情報を組み合わせる複合測位により、車両Aの高精度な位置情報等を生成する。ロケータ40は、例えば複数車線のうちで、車両Aが走行する車線を特定可能である。ロケータ40は、GNSS(Global Navigation Satellite System)受信器41、慣性センサ42、高精度地図データベース(以下、「DB」)43及びロケータECU44等によって構成されている。
 GNSS受信器41は、複数の人工衛星(測位衛星)から送信された測位信号を受信する。GNSS受信器41は、GPS、GLONASS、Galileo、IRNSS、QZSS、Beidou等の衛星測位システムのうちで、少なくとも一つの衛星測位システムの各測位衛星から、測位信号を受信可能である。
 慣性センサ42は、例えばジャイロセンサ及び加速度センサを備えている。高精度地図DB43は、不揮発性メモリを備えて構成されており、ナビゲーション装置50にて用いられるよりも高精度な地図データ(以下、「高精度地図データ」)を記憶している。高精度地図データには、区画線及び道路標示に関する情報、路側域にある構造物の3次元形状情報、並びに道路レーン数情報及び3次元形状情報等が含まれている。
 ロケータECU44は、プロセッサ、RAM、記憶部、入出力インターフェース、及びこれらを接続するバス等を備えたマイクロコンピュータを備えて構成されている。ロケータECU44は、GNSS受信器41で受信する測位信号、慣性センサ42の計測結果、及び通信バス99に出力された車速情報等を組み合わせ、車両Aの自車位置及び進行方向等を逐次測位する。ロケータECU44は、測位結果に基づく車両A(自車)の位置情報及び方角情報を、通信バス99を通じて、ナビゲーション装置50及びHCU100等に提供する。加えてロケータECU44は、HCU100等からの要求に応じて、必要とされた高精度地図データが高精度地図DB43にあるか否かを判定する。要求された高精度地図データが高精度地図DB43にある場合、ロケータECU44は、該当する高精度地図データを高精度地図DB43から読み出し、要求元であるHCU100に提供する。
 ナビゲーション装置50は、HMIシステム10と連携し、乗員によって設定された目的地までの経路案内を実施する車載装置である。ナビゲーション装置50は、HCU100等と共に、車両Aの表示システム110を構築している。ナビゲーション装置50は、ナビゲーション用の地図データベース(以下、「ナビ地図DB」)51、ナビゲーションディスプレイ52、及びナビゲーションECU53を有している。
 ナビ地図DB51は、不揮発性メモリを備えて構成されており、高精度地図DB43よりも広範囲の地図データを網羅的に記憶している。ナビ地図DB51に格納されたナビ地図データには、道路についてのリンクデータ、ノードデータ、及び形状データ等が記載されている。
 ナビゲーションディスプレイ52は、例えば液晶ディスプレイ及び有機ELディスプレイ等の画像表示器である。ナビゲーションディスプレイ52は、例えばインスツルメントパネル9の上面中央又はセンタークラスタ等に設置されている。ナビゲーションディスプレイ52の画面には、経路案内のための(以下、「経路案内画像」)が表示される。経路案内画像は、ナビ地図データに基づくマップ画像部、目的地及び経由地へのルートを示すルート画像部、目的地及び経由地等を示す地点画像部等によって構成されている。
 ナビゲーションECU53は、プロセッサ、RAM、記憶部、入出力インターフェース、及びこれらを接続するバス等を備えたマイクロコンピュータ(マイクロコントローラとも呼ぶ)を備えて構成されている。ナビゲーションECU53は、車両A(自車)の位置情報及び方角情報を、通信バス99を通じてロケータECU44より取得する。
 ナビゲーションECU53は、通信バス99及びHCU100を通じて、操作デバイス26に入力された操作情報を取得し、ユーザ操作に基づく目的地を設定する。ナビゲーションECU53は、目的地までの複数経路を、例えば時間優先及び距離優先等の条件を満たすように探索する。探索された複数経路のうちの一つが選択されると、ナビゲーションECU53は、当該設定経路に基づく経路情報を、関連するナビ地図データと共に、通信バス99を通じて、HCU100に提供する。
 ナビゲーションECU53は、交差点等のような分岐ポイント、設定経路の目的地、並びに一時停止等の警報ポイントが接近した場合、HMIシステム10へ向けた案内実施要求を出力する。HMIシステム10では、案内実施要求に基づき、ドライバへ向けた経路案内が、HUD装置20等によって実施される。以下の説明では、こうしたドライバへの経路案内が実施される設定経路上のポイントを、「経路案内ポイント」とする。
 ナビゲーションECU53は、目的地までの経路を計算し、目的地までの経路案内情報を生成する。ナビゲーションECU53は、目的地までの経路案内について、自車の直近に存在する1つ目の経路案内ポイントから2つ目の経路案内ポイントまでのポイント間距離を把握する。ナビゲーションECU53は、ポイント間距離が所定の距離(「閾値距離」,例えば、150~数百m程度)以下である場合、複数の経路案内が連続する連続案内であると判定する。この場合、ナビゲーションECU53は、ナビゲーションディスプレイ52によって行われる経路案内が、複数の経路案内を連続して行う連続案内である旨の通知(フラグ)を、経路案内情報に含ませて、HCU100に提供する。
 ナビゲーションECU53は、直近の経路案内が連続案内であると判定した場合、1つ目の経路案内(第1の経路案内とも呼ぶ)を行う表示と共に、2つ目の経路案内(第2の経路案内とも呼ぶ)を行う表示を開始する。2つ目の経路案内の表示は、1つ目の経路案内の表示と実質同時に開始されてよく、又は1つ目の経路案内の表示から僅かに遅れて開始されてもよい。また、1つ目の経路案内の表示は、2つ目の経路案内の表示が消されるまで表示を継続されてもよく、又は2つ目の経路案内の表示よりも先に非表示とされてよい。尚、ナビゲーション装置50にて、1つ目の経路案内と2つ目の経路案内とが共に開始されるエリアを、連続案内エリアCGA(図5参照)とする。連続案内エリアCGAには、2つの経路案内ポイントと、これらを接続する接続道路Rc(図5参照)とが少なくとも含まれる。
 車両制御ECU54は、車両Aの加減速制御及び操舵制御等を行う電子制御装置である。車両制御ECU54は、ドライバの運転操作を検出するセンサ群、例えば操舵角センサ55、アクセルポジションセンサ及びブレーキストロークセンサ等と接続されている。車両制御ECU54は、車両Aの走行に関連するアクチュエータ群、例えばEPS(Electric Power Steering)モータ、電子制御スロットル及びインジェクタ、並びにブレーキアクチュエータ等と接続されている。
 車両制御ECU54は、センサ群による計測情報(例えば操舵角情報)を、通信バス99に出力すると共に、後述する運転操作情報を、通信バス99を通じて運転支援ECU57から取得する。車両制御ECU54は、センサ群による計測情報又は運転支援ECU57から取得する運転操作情報に基づき、アクチュエータ群の各作動、ひいては車両Aの挙動を制御する。
 運転支援ECU57は、ドライバによる運転操作を支援する運転支援機能、及びドライバの運転操作を代行可能な自動運転機能の少なくとも一方を備えている。運転支援機能又は自動運転機能には、走行速度又は車間距離を制御するACC(Adaptive Cruise Control)機能、車線に合わせて操舵角を制御するLTC(Lane Trace Control)機能等が含まれている。運転支援機能には、車両Aを強制的に減速させるAEB(Autonomous Emergency Braking)機能等がさらに含まれていてもよい。
 運転支援ECU57は、周辺監視センサ30から取得する検出情報に基づき、車両Aの周囲の走行環境を認識する。運転支援ECU57は、走行環境の認識結果に基づき、運転支援又は自動運転のための運転操作情報を生成する。運転支援ECU57は、生成した運転操作情報の車両制御ECU54への提供により、上述の加減速制御及び操舵制御を車両制御ECU54に実行させる。
 運転支援ECU57は、走行環境認識のために実施した検出情報の解析結果を、解析済みの検出情報として、HCU100に提供可能である。一例として、運転支援ECU57は、フロントカメラ31の撮像データ等から抽出された情報、具体的には、走行中の道路の区画線(白線)及び道路端の相対位置情報を、HCU100に提供できる。加えて運転支援ECU57は、道路脇の路側域に設けられた構造物等の種別情報及び3次元形状情報等も、HCU100に提供できる。
 HMIシステム10に含まれる操作デバイス26、DSM27、HUD装置20及びHCU100の詳細を説明する。
 操作デバイス26は、ドライバ等によるユーザ操作を受け付ける入力部である。操作デバイス26には、例えば運転支援機能及び自動運転機能等について、起動及び停止の切り替えを行うユーザ操作が入力される。具体的には、ステアリングホイールのスポーク部に設けられたステアスイッチ、ステアリングコラム部8に設けられた操作レバー、及びドライバの発話を検出する音声入力装置等が、操作デバイス26に含まれる。
 DSM27は、近赤外光源及び近赤外カメラと、これらを制御する制御ユニットとを含む構成である。DSM27は、運転席のヘッドレスト部分に近赤外カメラを向けた姿勢にて、例えばステアリングコラム部8の上面又はインスツルメントパネル9の上面等に設置されている。DSM27は、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御ユニットによって画像解析される。制御ユニットは、アイポイントEPの位置及び視線方向等の情報を撮像画像から抽出し、抽出した状態情報をHCU100へ向けて逐次出力する。
 HUD装置20は、マルチインフォメーションディスプレイ及びナビゲーションディスプレイ52等と共に、複数の車載表示デバイスの一つとして、車両Aに搭載されている。HUD装置20は、虚像Viを用いた拡張現実(Augmented Reality,以下「AR」)表示により、車両Aに関連する種々の情報をドライバに提示する。HUD装置20は、通常の虚像Vi(以下、「非ARコンテンツ」)と、AR表示される虚像Vi(以下、「ARコンテンツ」)とを使い分け、ドライバへの情報提示を実施する。
 非ARコンテンツは、ウィンドシールドWS等の車両構成に相対固定されているように表示される。ARコンテンツは、前景中の重畳対象に相対固定されているように、重畳対象を追って、ドライバの見た目上で移動可能である。ARコンテンツは、例えばドライバから見た奥行き方向に延伸した表示形状とされ、重畳対象の相対位置及び形状に合わせて、所定の周期で形状を更新され続ける。
 HUD装置20は、HCU100と電気的に接続されており、HCU100によって生成された映像データを逐次取得する。HUD装置20は、ウィンドシールドWSの下方にて、インスツルメントパネル9内の収容空間に収容されている。HUD装置20は、虚像Viとして結像される光を、ウィンドシールドWSの投影範囲PAへ向けて投影する。ウィンドシールドWSに投影された光は、投影範囲PAにおいて運転席側へ反射され、ドライバによって知覚される。ドライバは、投影範囲PAを通して見える前景中の重畳対象に、虚像Viが重畳された表示を視認する。
 HUD装置20は、プロジェクタ21及び拡大光学系22等によって構成されている。プロジェクタ21は、LCD(Liquid Crystal Display)パネル及びバックライトを有している。プロジェクタ21は、LCDパネルの表示面を拡大光学系22へ向けた姿勢にて、HUD装置20の筐体に固定されている。プロジェクタ21は、映像データの各フレーム画像をLCDパネルの表示面に表示し、当該表示面をバックライトによって透過照明することで、虚像Viとして結像される光を拡大光学系22へ向けて射出する。拡大光学系22は、合成樹脂又はガラス等からなる基材の表面にアルミニウム等の金属を蒸着させた凹面鏡を、少なくとも一つ含む構成である。拡大光学系22は、プロジェクタ21から射出された光を反射によって広げつつ、上方の投影範囲PAに投影する。
 以上のHUD装置20には、画角VAが設定される。HUD装置20にて虚像Viを結像可能な空間中の仮想範囲を結像面ISとすると、画角VAは、ドライバのアイポイントEPと結像面ISの外縁とを結ぶ仮想線に基づき規定される視野角である。画角VAは、アイポイントEPから見て、ドライバが虚像Viを視認できる角度範囲となる。HUD装置20では、垂直方向における垂直画角(例えば4°~5°程度)よりも、水平方向における水平画角(10°~12°程度)の方が大きくされている。アイポイントEPから見たとき、結像面ISと重なる前方範囲が画角VA内の範囲となる。
 HCU100は、HMIシステム10において、HUD装置20を含む複数の表示デバイスによる表示を統合的に制御する電子制御装置である。HCU100は、処理部11、RAM12、記憶部13、入出力インターフェース14、及びこれらを接続するバス等を備えたコンピュータを備えて構成されている。処理部11は、RAM12と結合された演算処理のためのハードウェアである。処理部11は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等の演算コアを少なくとも一つ含む構成である。処理部11は、FPGA(Field-Programmable Gate Array)及び他の専用機能を備えたIPコア等をさらに含む構成であってよい。RAM12は、映像生成のためのビデオRAMを含む構成であってよい。処理部11は、RAM12へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。記憶部13は、不揮発性の記憶媒体を含む構成である。記憶部13には、処理部11によって実行される種々のプログラム(表示制御プログラム等)が格納されている。記憶部13は、非一時的記憶媒体ともよぶ。
 図1~図3に示すHCU100は、記憶部13に記憶されたプログラムを処理部11によって実行し、複数の機能部を備える。具体的に、HCU100には、視点位置特定部70、経路情報取得部71、位置情報取得部72、自車情報取得部73、外界情報取得部74、連続案内判定部75、路側物体判定部76、車両姿勢推定部77及び表示生成部78等の機能部が構築される。視点位置特定部70、経路情報取得部71、位置情報取得部72、自車情報取得部73及び外界情報取得部74は、通信バス99から情報を取得する機能部である。
 視点位置特定部70は、DSM27から取得する状態情報に基づき、運転席に着座しているドライバのアイポイントEPの位置を特定する。視点位置特定部70は、アイポイントEPの位置を示す3次元の座標(以下、「アイポイント座標」)を生成し、生成したアイポイント座標を、表示生成部78に逐次提供する。
 経路情報取得部71は、ナビゲーション装置50に目的地が設定されている場合に、目的地までの経路案内に関する経路案内情報と、経路案内に用いられるナビ地図データとを、ナビゲーションECU53から取得する。加えて経路情報取得部71は、案内ポイントへの接近に基づき、ナビゲーションECU53によって出力される案内実施要求を、経路案内情報及びナビ地図データ等と共に取得する。ナビゲーション装置50にて連続案内が実施される場合、経路情報取得部71は、連続案内があることを示す通知(以下、「連続案内通知」)を含んだ経路案内情報を取得する。
 経路情報取得部71は、ナビ地図データと共に、又はナビ地図データに替えて、高精度地図データをロケータ40から取得する処理を実施できる。経路情報取得部71は、ナビゲーションECU53から取得した経路案内情報に基づき、関連する高精度地図データの提供をロケータECU44に要求する。こうして要求された高精度地図データが高精度地図DB43に格納されている場合、経路情報取得部71は、ロケータECU44から返信される高精度地図データを取得する。
 位置情報取得部72は、車両Aの位置情報及び方角情報を、ロケータECU44から取得する。自車情報取得部73は、車両Aの走行状態を示す自車情報の一つとして、操舵角センサ55によって計測された最新の操舵角情報を、車両制御ECU54から取得する。加えて自車情報取得部73は、特にピッチ方向の車両姿勢に関連する姿勢情報を取得する。具体的に、自車情報取得部73は、ハイトセンサの出力に基づくハイト情報と、車両Aに発生する制動トルク及び駆動トルクを示すトルク情報とを、姿勢情報として取得する。
 外界情報取得部74は、周辺監視センサ30及び運転支援ECU57の少なくとも一方から、車両Aの前方範囲についての検出情報を取得する。検出情報は、フロントカメラ31によって撮影された前方範囲の撮像データ等であってもよく、或いは周辺監視センサ30又は運転支援ECU57での走行環境認識によって得られた解析結果であってもよい。
 検出情報が解析結果である場合、当該解析結果には、上述したような前方範囲における区画線又は道路端の相対位置を示す情報が含まれている。加えて解析結果としての検出情報は、前方範囲の道路脇に設けられた構造物であって、例えばドライバの側方視界を遮るような遮蔽物BO(図9参照)等についての種別情報及び3次元形状情報を少なくとも含んでいる。尚、遮蔽物BOは、例えばビル等の建築物や、路側域の敷地を取り囲む塀等である。
 連続案内判定部75は、連続案内を実施するか否かを判定する。例えば連続案内は、車両A(自車)の右左折を案内する案内ポイント(以下、「右左折地点P1」,図5参照)と、当該右左折地点P1の次に案内を実施する案内ポイント(以下、「連続地点P2」,図5参照)とが連続する場合に実施される。連続案内判定部75は、経路情報取得部71にて取得される経路案内情報に、複数の案内ポイントの連続を示す連続案内通知が含まれているか否かを判定する。連続案内判定部75は、経路案内情報に連続案内通知がある場合、連続案内の実施を、表示生成部78に通知する。
 連続案内判定部75は、連続案内通知を取得した場合、2つの案内ポイント間の距離を把握する。連続案内判定部75は、ポイント間距離が所定距離(例えば100m程度)よりも短いか否かを判定する。この所定距離は、連続地点P2の経路案内の内容把握に必要な時間が確保されるように規定される。連続案内判定部75は、上述の所定距離よりもポイント間距離が短い場合、2つの案内ポイントが非常に近接している旨の判定結果を表示生成部78に通知する。
 ここで、右左折地点P1は、交差点等のように右折又は左折等の分岐が発生する案内ポイントに限定されてよい。一方、連続地点P2は、交差点等のような分岐ポイント、設定経路の目的地、並びに一時停止及び徐行等の注意喚起を行う警報ポイント等のいずれかであってよい。
 加えて、3つ以上の案内ポイントが、互いに閾値距離未満の間隔で、設定経路上に連続していてもよい。この場合、最初の右左折地点P1と最後の連続地点P2とに挟まれた中間の連続地点P2は、右左折地点P1と同様に、交差点等のような分岐ポイントに限られる。例えば、複数回(4回)の分岐が連続発生する場合、ひと纏まりの経路案内情報には、複数(4つ)の案内ポイントの情報が含まれる。連続案内判定部75は、1つ目の案内ポイントを右左折地点P1とし、2~4つ目の案内ポイントを便宜的に連続地点P2とする。
 路側物体判定部76は、外界情報取得部74にて取得される検出情報に基づき、車両Aの走行する道路の路側域に、特定物体があるか否かを判定する。特定物体は、連続地点P2を案内する経路案内コンテンツCNTg(図9参照)の重畳対象として適切ではないとして、予め条件を設定された物体である。具体的に、路側物体判定部76は、上述したような路側域に設けられた遮蔽物BO(図9参照)を、特定物体として特定する。路側物体判定部76は、右左折地点P1(分岐ポイント)にて車両Aが右折又は左折を開始した後において、右左折地点P1から連続地点P2へ向かう道路(以下、「接続道路Rc」,図5参照)の路側域に、遮蔽物BOがあるか否かを判定する。接続道路Rcの路側域に遮蔽物BOがない場合、即ち、路側域が開けた状態である場合、路側物体判定部76は、遮蔽物BOがない旨の判定結果を表示生成部78に提供する。
 車両姿勢推定部77は、右左折地点P1において旋回する車両Aの接続道路Rcに対する向きを、車両Aの走行方向として推定する。車両姿勢推定部77は、互いに異なる複数の取得情報を用いた複数の判定方法に基づき、車両Aの走行方向を推定可能である。車両姿勢推定部77は、車両Aの走行方向の推定結果を、少なくとも右左折地点P1を通過する前後の期間において、表示生成部78に逐次出力する。
 車両姿勢推定部77は、1つ目の判定方法として、外界情報取得部74にて取得されるフロントカメラ31の検出情報に基づき、車両Aの走行方向を推定する。この検出情報は、フロントカメラ31の撮像データであってもよく、上述したような撮像データの解析結果であってもよい。車両姿勢推定部77は、検出情報に基づき、接続道路Rcにおける区画線又は道路端の相対位置を把握し、これらの延伸方向を基準として、車両Aの走行方向を推定する。
 車両姿勢推定部77は、2つ目の判定方法として、経路情報取得部71にて取得される地図データと、位置情報取得部72にて取得される方角情報とを用いて、車両Aの走行方向を判定する。地図データは、高精度地図データ及びナビ地図データのいずれであってもよい。車両姿勢推定部77は、接続道路Rcの区画線及び道路端の両方が撮像データから検出できない場合等に、地図データ及び方角情報を組み合わせた走行方向判定を実施する。
 車両姿勢推定部77は、地図データに基づき、右左折地点P1へ向かう道路(以下、「第1道路R1」)及び接続道路Rcが、右左折地点P1にてなす交差角度θ1を算出する(図5参照)。加えて車両姿勢推定部77は、第1道路R1の延伸方向を基準として、方角情報に基づいて右左折地点P1における車両Aのヨー方向の姿勢変化角度を算定する。車両姿勢推定部77は、交差角度θ1及び姿勢変化角度基づき、車両Aの走行方向を推定する。
 さらに車両姿勢推定部77は、3つ目の判定方法として、自車情報取得部73にて取得される操舵角情報を用いて、車両Aの走行方向を判定する。車両姿勢推定部77は、操舵角の減少に基づき、接続道路Rcの方向に車両Aが向いたことを推定する。車両姿勢推定部77は、例えば接続道路Rcの区画線及び道路端が検出困難であり、且つ、測位信号の受信環境が良好でない場合等に、操舵角情報を用いた走行方向の判定を実施する。
 表示生成部78は、HUD装置20に逐次出力される映像データを生成する。表示生成部78は、コンテンツを選定する機能、選定したコンテンツを描画する機能、及び選定したコンテンツの表示期間を制御する機能等を有している。以下、コンテンツ選定機能及びコンテンツ描画機能の詳細を、図4に基づき、図1~図3を参照しつつ説明する。
 表示生成部78は、案内実施要求等の外部から取得する情報に基づき、HUD装置20によって表示させるコンテンツを選定する(S11参照)。表示生成部78は、表示対象とするARコンテンツ及び非ARコンテンツを、個別に選定可能である。表示生成部78は、ARコンテンツ及び非ARコンテンツの両方を虚像表示させる場合、ARコンテンツの元画像の描画処理(S21~S24参照)と、非ARコンテンツの元画像の描画処理(S31参照)とを併行実施する。表示生成部78は、記憶部13に記憶されたパーツデータを組み合わせる等の画像処理により、選定した各コンテンツの元画像を準備する。
 表示生成部78は、ARコンテンツの元画像の描画のため、3Dモデルを構築する(S21参照)。3Dモデルの構築には、外界情報取得部74にて取得される重畳対象(例えば路面等)の位置情報及び形状情報等が用いられる。表示生成部78は、構築した3Dモデルを、自車位置を基準とし、仮想空間に配置する(S22参照)。3Dモデルの配置には、車両姿勢推定部77にて推定された車両Aの走行方向を示す情報等が用いられる。
 表示生成部78は、3Dモデルを配置した仮想空間に、仮想のカメラ位置及び仮想の拡大光学系22(又は結像面IS)の位置を設定する。表示生成部78は、視点変換処理により、仮想のカメラ位置から見た3Dモデルの形状を演算する(S23参照)。仮想空間における仮想のカメラ位置は、ドライバのアイポイントEPの位置に対応している。仮想のカメラ位置は、視点位置特定部70にて取得されるアイポイント座標に基づき補正される。さらに、仮想のカメラ位置及び光学系位置は、自車情報取得部73にて取得されるハイト情報及びトルク情報に基づき、車両Aの姿勢変化を反映した位置にそれぞれ補正される。以上のように、視点変換処理では、主に低周波数帯域(例えば、0.5Hz未満)の車両Aの姿勢変化及びドライバのアイポイントEPの変化について、それぞれの補正が実施される。
 表示生成部78は、ARコンテンツの元画像の描画に併行して、選定した非ARコンテンツの元画像を描画する(S31参照)。表示生成部78は、併行して描画されたARコンテンツ及び非ARコンテンツの各元画像を合成し、出力画像を生成する(S41参照)。
 ここで、表示生成部78は、HCU100に設けられたジャイロセンサ79から、最新の計測結果を取得する。ジャイロセンサ79は、車両Aに生じる姿勢変化のうちで、高周波数帯域(例えば、0.5~2Hz程度)の姿勢変化を計測する計測部である。ジャイロセンサ79は、一例として、車両Aのピッチ方向及びロール方向の各角速度を計測し、その計測結果を表示生成部78に逐次出力する。
 表示生成部78は、出力画像の生成処理において、ジャイロセンサ79の計測情報を参照し、高周波数帯域の姿勢変化を補正するように、出力画像におけるARコンテンツの元画像の位置を調整する。加えて表示生成部78は、拡大光学系22での反射に伴う光像の歪みが相殺されるように、予め規定された変形を出力画像に付与する。こうして歪み補正を適用された出力画像は、映像データにおける個々のフレーム画像となる。表示生成部78は、多数の出力画像よりなる映像データを、プロジェクタ21へ向けて逐次出力する(S42参照)。
 選定したコンテンツの表示期間を制御する機能の詳細を、図5~図9に示す連続案内のシーンに基づき、図1~図3を参照しつつ説明する。
 表示生成部78は、ナビゲーションECU53より取得される経路案内情報を用いて、経路案内コンテンツCNTgをHUD装置20によって前景中の路面に重畳表示させる。経路案内情報には、各案内ポイントの位置情報、2つの案内ポイント間の距離情報、各交差点にて実施する右左折の方向、及びナビ地図データ等が含まれている。ナビ地図データには、走行中の道路の種別、交差点形状、交差点の車線数、及び各車線に許容された進行方向等が含まれている。
 表示生成部78は、ナビゲーションECU53より通知される案内実施要求をトリガとして、経路案内情報に基づく経路案内コンテンツCNTgにより、案内ポイントでの経路案内を開始させる。連続案内のシーンでも、表示生成部78は、案内実施要求の取得に基づき、最初の経路案内コンテンツCNTgの表示を開始し、且つ、各経路案内コンテンツCNTgの表示開始タイミング及び表示終了タイミングを、それぞれ設定する。
 表示生成部78は、経路情報取得部71にて取得されるナビ地図データ又は高精度地図データを参照し、走行中の道路の種別を判定する。表示生成部78は、走行中の道路が自動車専用道路及び高速自動車国道等の高速道路であるか否かに基づき、連続案内における経路案内コンテンツCNTgの提示方法を変更する。
 表示生成部78は、走行中の道路が高速道路であると判定した場合、連続案内通知の取得に基づき、ナビゲーション装置50と同様の経路案内を実施する。即ち、表示生成部78は、1つ目の経路案内を行う第1案内ポイントに所定の距離(例えば1km)まで接近すると、1つ目の経路案内を行う経路案内コンテンツCNTgと、2つ目の経路案内を行う経路案内コンテンツCNTgとを、共に表示させる。
 一方、表示生成部78は、走行中の道路が高速道路でないと判定した場合、連続案内通知の取得に基づき、複数の経路案内コンテンツCNTgの表示を順次開始させる。具体的に、右左折の経路案内が連続する連続案内エリアCGAにおいて、表示生成部78は、1つ目の経路案内を行う経路案内コンテンツCNTg(以下、「第1案内コンテンツCNT1」)を、連続案内通知の取得に基づき開始する。このとき、2つ目の経路案内を行う経路案内コンテンツCNTg(以下、「第2案内コンテンツCNT2」)の表示は、開始されない。表示生成部78は、第1案内コンテンツCNT1を非表示とした後で、第2案内コンテンツCNT2の表示を開始させる。尚、ナビゲーション装置50は、上述したように、連続案内エリアCGAにて、1つ目の経路案内を行う経路案内画像の表示と、2つ目の経路案内を行う経路案内画像の表示とを、共に開始する。
 表示生成部78は、設定経路に沿った車両Aの走行に合わせるかたちで、各案内ポイントの手前にて、準備した描画データを各フレーム画像に描画する処理を開始し、経路案内コンテンツCNTgの表示を開始させる。加えて表示生成部78は、各案内ポイントに関連する位置にて、描画データを各フレーム画像に描画する処理を終了し、経路案内コンテンツCNTgの表示を終了させる。以下、図5に示す連続案内エリアCGAでの第1案内コンテンツCNT1及び第2案内コンテンツCNT2の表示開始タイミング及び表示終了タイミングの詳細を、さらに説明する。
 (第1案内コンテンツの表示開始タイミング)
 ナビゲーションECU53は、1つ目の交差点(右左折地点P1)の所定距離(例えば300m)手前にて、案内実施要求と共に、連続案内通知を含んだ経路案内情報を、HCU100に出力する。表示生成部78は、経路情報取得部71による案内実施要求の取得に基づき、経路案内情報を用いて、経路案内コンテンツCNTgとしての第1案内コンテンツCNT1の表示を開始させる。
 第1案内コンテンツCNT1は、右左折地点P1での右折を指示する右折コンテンツである(図7参照)。第1案内コンテンツCNT1は、第1道路R1の路面に重畳表示され、経路案内情報に基づく車両Aの予定走行軌跡を、ドライバに示す。第1案内コンテンツCNT1は、右左折地点P1への進入経路と、右左折地点P1からの退出経路とをAR表示する。こうした表示により、第1案内コンテンツCNT1は、右左折地点P1到達までの右折車線への移動実施と、右左折地点P1での右折実施とを、ドライバに促す内容となる。
 (第1案内コンテンツの表示終了タイミング)
 表示生成部78は、右左折地点P1に車両Aが到達する以前に、第1案内コンテンツCNT1を非表示とする。具体的に、表示生成部78は、経路情報取得部71にて取得される地図データと、位置情報取得部72にて取得される車両A(自車)の位置情報とに基づき、自車から右左折地点P1までの距離を把握する。表示生成部78は、右左折地点P1までの距離が所定の距離(以下、「終了距離Lh1」)未満となると(図6参照)、第1案内コンテンツCNT1の表示を終了する。終了距離Lh1は、例えば15m程度に設定されている。終了距離Lh1は、一例として、右左折地点P1を含む交差点が画角VAの下側にフレームアウトする距離に設定される。尚、本実施形態では、第1案内コンテンツCNT1の表示終了から、第2案内コンテンツCNT2の表示開始までの間に、経路案内コンテンツCNTgを表示させないインターバルが設けられる。
 (第2案内コンテンツの表示開始タイミング)
 表示生成部78は、右左折地点P1にて車両Aの右折が開始されると、車両姿勢推定部77より走行方向の判定結果を取得する。表示生成部78は、接続道路Rcに対する車両Aの走行方向と、車両A(自車)から連続地点P2までの距離とに基づき、連続地点P2の経路案内を行う第2案内コンテンツCNT2の表示開始を制御する。表示生成部78は、車両Aが連続地点P2に所定の距離まで接近しており、且つ、車両Aの走行方向が接続道路Rcの延伸方向に近づくと、第2案内コンテンツCNT2の表示を開始させる。
 詳記すると、表示生成部78は、2つ目の経路案内の対象である連続地点P2を含むように、第2案内コンテンツCNT2の表示予定位置を設定する(図8参照)。第2案内コンテンツCNT2は、基端画像部PeB及び先端画像部PeTを含む重畳コンテンツとされている。基端画像部PeBは、第2案内コンテンツCNT2において、連続地点P2から自車側となる路面範囲、即ち、接続道路Rcの路面に重畳される画像要素群である。一方、先端画像部PeTは、第2案内コンテンツCNT2において、連続地点P2から進行方向側となる路面範囲に重畳される画像要素である。先端画像部PeTの重畳範囲は、連続地点P2から予定走行方向に例えば数m~20m程度の長さに設定される。
 表示生成部78は、3Dオブジェクトを用いた仮想空間でのレイアウトシミュレーション(図4のS23参照)の結果に基づき、HUD装置20の画角VAと、第2案内コンテンツCNT2に対応する3Dオブジェクトとの位置関係を把握する。表示生成部78は、表示予定位置への重畳を仮定した第2案内コンテンツCNT2において、基端画像部PeBの少なくとも一部が画角VA内であると判定したことに基づき(図8 斜線範囲参照)、第2案内コンテンツCNT2の表示を開始させる。
 第2案内コンテンツCNT2は、接続道路Rcの路面に重畳表示され、経路情報に基づく車両Aの予定走行軌跡をドライバに示す経路案内コンテンツCNTgである(図9参照)。第2案内コンテンツCNT2は、連続地点P2への進入経路と、連続地点P2からの退出経路とをAR表示する。こうした表示により、第2案内コンテンツCNT2は、連続地点P2の相対位置を示すと共に、連続地点P2での左折実施をドライバに促す内容となる。
 さらに、表示生成部78は、右左折地点P1から連続地点P2までのポイント間距離に応じて、第2案内コンテンツCNT2の表示開始タイミングを調整可能である。一例として、連続案内判定部75にてポイント間距離が所定の距離(例えば、100m程度)よりも短いと判定されている場合、表示生成部78は、第2案内コンテンツCNT2の表示開始タイミングを早める調整を実施する。
 例えば、接続道路Rcに対して車両Aが概ね真っ直ぐとなったタイミングまで第2案内コンテンツCNT2の表示開始を待機してしまうと、第2案内コンテンツCNT2は、連続地点P2の直前(例えば、20m程度)で表示開始となる虞がある。この場合、経路案内の内容理解に必要な時間の確保が困難となり、且つ、連続地点P2が画角VA外となる虞もあるため、経路案内は、意味をなさなくなる。
 表示生成部78は、右左折地点P1及び連続地点P2間のポイント間距離が所定の距離より短い場合、第2案内コンテンツCNT2の表示開始条件を緩和する。一例として、表示生成部78は、第1案内コンテンツCNT1の表示終了直後、又は車両Aが右左折地点P1を通過したタイミングで、第2案内コンテンツCNT2の表示を開始させる。このとき、表示生成部78は、アイコン状の様態に変更した第2案内コンテンツCNT2を、非AR表示させてもよい。以上のような第2案内コンテンツCNT2の非AR表示は、例えば住宅地等の細街路で、ポイント間距離が確保されない場合に、ドライバの認識し易さ向上に寄与できる。
 表示生成部78は、第2案内コンテンツCNT2の表示開始タイミングを、接続道路Rcの路側域の見通し状況に応じて変更する。車両姿勢推定部77は、路側物体判定部76にて接続道路Rcの路側域に遮蔽物BO(図12参照)がないと判定された場合、路側域に遮蔽物BOあると判定される場合よりも、第2案内コンテンツCNT2の表示開始を早める調整を実施する。一例として、表示生成部78は、表示予定位置への重畳を仮定した第2案内コンテンツCNT2の少なくとも一部が画角VA内であると判定したことに基づき、第2案内コンテンツCNT2の表示を開始させてよい。
 表示生成部78は、第2案内コンテンツCNT2の種別、換言すれば、2つ目の案内ポイントの種別に応じて、第2案内コンテンツCNT2の表示開始タイミングを変更する。表示生成部78は、2つ目の案内ポイントが目的地等である場合、ゴール地点となる路側域の建物等に第2案内コンテンツCNT2を重畳表示させる。この場合、第2案内コンテンツCNT2は、目的地を示すピン形状等となる。故に、表示生成部78は、第2案内コンテンツCNT2の少なくとも一部が画角VA内であると判定したことに基づき、第2案内コンテンツCNT2の表示を開始させてよい。
 (第2案内コンテンツの表示終了タイミング)
 表示生成部78は、車両A(自車)の位置情報を把握し、連続地点P2への接近又は通過に基づき、第2案内コンテンツCNT2の表示を終了する。一例として、表示生成部78は、例えば第1案内コンテンツCNT1と同様に、連続地点P2までの距離が所定の距離(例えば、15m)未満となると、第2案内コンテンツCNT2の表示を終了する。さらに別の一例として、表示生成部78は、車両Aが連続地点P2を通過したタイミングで、又は、連続地点P2を通過した後、所定の距離を走行したタイミングで、第2案内コンテンツCNT2の表示を終了する。
 HCU100にて実施される案内表示処理の詳細を、図10に示すフローチャートに基づき、図5~図9を参照しつつ、以下説明する。図10に示す案内表示処理は、ナビゲーションECU53(図1参照)からHCU100に通知される案内実施要求に基づいて開始される。
 S101では、今回の案内表示処理の開始トリガとなった案内実施要求に関連するナビゲーション関連情報、具体的には、車両Aの位置情報、方角情報及び経路案内情報等を取得し、S102に進む。
 S102では、S101にて取得した経路案内情報を参照し、経路案内情報に連続案内情報が含まれるか否かに基づき、連続案内を行うか否かを判定する。S102にて、連続案内を行わないと判定した場合、S104に進む。一方、S102にて、連続案内を行うと判定した場合、S103に進む。S103では、経路案内情報に基づき、連続している案内ポイントの数を設定する。加えてS103では、連続案内エリアCGAにおける一連の経路案内情報を個々の案内ポイントの情報として分離し、S104に進む。
 S104では、案内ポイントを計数するカウンタの数値を「1」に設定し、S105に進む。S105では、カウンタの数値に基づき、現在(第N番目)の案内ポイントについての経路案内コンテンツCNTgを生成する。具体的には、映像データへの経路案内コンテンツCNTgの元画像の描画により、当該経路案内コンテンツCNTgのAR表示を開始させて、S106に進む。
 S106では、表示中の経路案内コンテンツCNTgに対応する表示終了タイミングを設定し、S107に進む。S107では、次(第N+1番目)の案内ポイントの有無を判定する。S107にて、次の案内ポイントが無いと判定した場合、S109に進む。一方、S107にて、次(第N+1番目)の案内ポイント(連続地点P2等)があると判定した場合、S108に進む。S108では、次の案内ポイントを案内する経路案内コンテンツCNTgの表示開始タイミングを設定し、S109に進む。
 S109では、S106にて設定した表示終了タイミングになったか否かを判定する。S109にて、表示終了タイミングになったと判定した場合、S110に進む。現在(第N番目)の経路案内コンテンツCNTgの表示を終了し、S111に進む。
 S111では、S103にて設定した案内ポイントに残りがあるか否かを判定する。S111にて、残りの案内ポイントがないと判定した場合、今回の案内実施要求に基づく一連の案内表示処理を終了する。一方で、S111にて、残りの案内ポイントがあると判定した場合、S112に進む。
 S112では、案内ポイントのカウンタの値を1つ増やし、S113に進む。S113では、直前のS108にて設定した表示開始タイミングになったか否かを判定する。S112にて、表示開始タイミングになったと判定した場合、S105に進む。2回目以降のS105では、S112にてインクリメントされたカウンタの値に基づき、次(第N+1番目)の案内ポイント、即ち連続地点P2を案内する第2案内コンテンツCNT2の生成及びAR表示を開始する。そして、以降のS107~S113にて、AR表示の終了又は開始を待機する。こうして全ての案内ポイントでの経路案内を完了した場合、今回の案内実施要求に基づく一連の案内表示処理を終了する。
 ここまで説明した本実施形態の解決課題及び作用効果を、以下説明する。
 ナビゲーション装置50は、連続案内エリアCGAにおいて、1つ目の経路案内画像を表示すると共に、2つ目の経路案内画像をナビゲーションディスプレイ52に表示させる「連続案内」を実施する。こうした「連続案内」に際し、HCU100は、複数の案内ポイントの情報を含んだ経路案内情報を取得した場合に、1つ目の案内ポイントを案内する案内コンテンツと、2つ目の案内ポイントを案内する案内コンテンツとを、共に表示させることも可能である。
 しかし、HUD装置20の画角VAには左右方向の制限がある。故に、1つ目の案内ポイントの案内コンテンツの表示開始に合わせて、2つ目の案内ポイントの案内コンテンツまで表示させたとしても、この案内コンテンツは、多くのシーンにおいて画角VAから見切れる可能性が高くなる。その結果、早期に表示を開始した2つ目の案内コンテンツは、経路案内の情報提示をかえって認識し難くする可能性があった。さらに、2つ目の案内コンテンツは、車両Aの現在位置から遠い位置に重畳表示されるため、表示サイズが小さくなり、より認識し難くなる可能性もあった。
 こうした課題を解決するため、本実施形態では、ナビゲーション装置50が複数の経路案内画像の表示を共に開始する連続案内エリアCGAにおいて、HCU100は、複数の案内エリアを案内する経路案内コンテンツCNTgを順次表示させる。即ち、HCU100は、1つ目の経路案内を行う第1案内コンテンツCNT1を表示させ、この第1案内コンテンツCNT1を非表示とした後、2つ目の経路案内を行う第2案内コンテンツCNT2を表示させる。
 以上の本実施形態では、ナビゲーション装置50にて、1つ目の経路案内と2つ目の経路案内とが共に開始されるため、連続案内の全体像がユーザによって把握され得る。そのため、HCU100は、個々の経路案内に特化した情報提示を実施でき、具体的には、1つ目の経路案内を行う第1案内コンテンツCNT1を非表示とするまで、2つ目の経路案内を行う第2案内コンテンツCNT2の表示を待機させる。以上のように、第1案内コンテンツCNT1及び第2案内コンテンツCNT2を順に表示させることで、表示システム110及びHCU100は、ユーザにとって認識し易い連続案内の重畳表示を実現できる。
 図11に示す比較例のように、右左折地点での旋回中に次の案内ポイント(連続地点)を案内するコンテンツCNTXの表示が開始された場合、このコンテンツCNTXの少なくとも一部は、路側域の遮蔽物BOに重畳表示されてしまい得る。例えば、ナビゲーションECU53にて実施されるマップマッチング処理の結果に基づき、コンテンツCNTXへの切り替えを実施した場合、この比較例のような重畳表示が発生し易くなる。そして、車両Aが道路正面を向いていない段階で表示を開始されたコンテンツCNTXは、ドライバに誤解を与えたり、煩わしさを与えたりする。そのため、コンテンツCNTXによって提示される情報は、ドライバに正しく伝わり難くなる。
 そのため本実施形態では、図9に示すように、第2案内コンテンツCNT2は、連続地点P2から自車側となる基端画像部PeBの少なくとも一部が画角VA内であるとの判定に基づき、表示を開始される。以上によれば、第2案内コンテンツCNT2は、予定走行経路の前後両端を共に示し得る状態で、表示を開始される。したがって、第2案内コンテンツCNT2は、ユーザにとっていっそう認識し易い様態で提示され得る。
 本実施形態では、1つ目の経路案内の対象である右左折地点P1に車両Aが到達する以前に、表示生成部78は、第1案内コンテンツCNT1を非表示とする。故に、前景中に重畳させる第1案内コンテンツCNT1により、右左折地点P1に存在する歩行者等の注意対象物が隠されてしまう事態は、回避される。以上のように、右左折地点P1の手前で第1案内コンテンツCNT1を消す制御は、右左折地点P1の円滑な走行に寄与し得る。
 さらに本実施形態では、例えば高速道路等の特定種別の道路において、表示生成部78は、第2案内コンテンツCNT2の表示を待機させず、第1案内コンテンツCNT1を非表示とする前に、第2案内コンテンツCNT2の表示を開始させる。以上によれば、車両Aの走行速度が高い場合に、第2案内コンテンツCNT2の認識に要する時間の確保が難しくなる事態は、回避される。
 さらに本実施形態では、右左折地点P1での右折又は左折の開始後、車両Aに搭載されたフロントカメラ31よる接続道路Rcの区画線又は道路端の検出情報を用いて、車両Aの走行方向が判定される。そのため表示生成部78は、接続道路Rcに対する車両Aの向きをリアルタイムで把握して、第2案内コンテンツCNT2の表示開始タイミングを決定できる。以上によれば、HCU100は、車両Aの姿勢判定の精度を高めて、連続地点P2の経路案内を適切なよりタイミングで開始させることができる。したがって、経路案内の誤認識のおそれは、いっそう低減される。
 加えて本実施形態では、右左折地点P1での右折又は左折の開始後、地図データと、測位信号に基づく方角情報とを用いて、車両Aの走行方向が判定される。そのため表示生成部78は、接続道路Rcが区画線及び道路端を検出困難な態様であっても、接続道路Rcに対する車両Aの向きを把握して、第2案内コンテンツCNT2の表示開始タイミングを適切に制御できる。以上によれば、道路環境に依存らないで素行方向を判定できるため、多くの走行シーンにおいて、経路案内の誤認識の虞が低減され得る。
 本実施形態では、図12に示すように、接続道路Rcの路側域に遮蔽物BO(図9参照)がない場合、第2案内コンテンツCNT2の表示開始が早められる。こうしたシーンでは、第2案内コンテンツCNT2の重畳表示を早期に開始しても、誤った重畳対象への重畳が生じない。故に、ドライバの誤認識の虞も、実質的に無くなり得る。したがって、遮蔽物BOの不存在に基づき第2案内コンテンツCNT2の表示開始を早める処理によれば、ドライバに連続地点P2を早期に認識させることができる。
 さらに本実施形態では、第2案内コンテンツCNT2の重畳対象が接続道路Rcの路側域にある目的地等である場合、当該重畳対象が路面域にある場合よりも、第2案内コンテンツCNT2は、早期に表示を開始される。こうした調整によれば、ドライバによる連続地点P2の認識も、早期に実施可能になる。
 尚、上記実施形態において、HUD装置20が「ヘッドアップディスプレイ」に相当し、表示生成部78が「表示制御部」に相当し、HCU100が「表示制御装置」に相当する。また、基端画像部PeBが「(第2案内コンテンツの)手前側の部分」に相当し、右左折地点P1が「第1案内ポイント」に相当し、連続地点P2が「第2案内ポイント」に相当する。
 (他の実施形態)
 以上、本開示の一実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
 (変形例1)
 図13に示す上記実施形態の変形例1では、第1案内コンテンツCNT1の表示終了タイミングが、上記実施形態と異なっている。HCU100は、連続案内エリアCGAにおいて、1つ目の経路案内の対象である右左折地点P1を通過した後、車両Aが所定の距離(終了距離Lh1)を走行したことに基づき、第1案内コンテンツCNT1を非表示とする。一例として、HCU100は、交差点の中心から車両Aまでの終了距離Lh1が10m又は50m程度になったことに基づき、第1案内コンテンツCNT1の表示を終了する。
 以上の変形例1では、車両Aが右左折地点P1となる交差点を抜けるまで、第1案内コンテンツCNT1の表示が継続される。故に、右左折地点P1が多叉路等の複雑交差点である場合、ドライバは、案内されている退出先の道路を最後まで把握し続けることができる。以上によれば、ユーザにとって認識し易い連続案内の重畳表示が実現される。このように、案内ポイントは、十字路等の単純交差点や複雑交差点等の種々の種類が存在する。そこで、経路案内情報に含まれる案内ポイントの種類に応じて、第1案内コンテンツCNT1の表示終了タイミングを変化させる制御が実施されてもよい。
 尚、HCU100は、第1案内コンテンツCNT1の終了後、車両Aから連続地点P2までの距離が所定の距離よりも短くなったタイミングで、第2案内コンテンツCNT2の表示を開始させる。変形例1では、第1案内コンテンツCNT1の表示終了と第2案内コンテンツCNT2の表示開始とが連続していてもよい。
 (変形例2)
 図14及び図15に示す上記実施形態の変形例2では、第2案内コンテンツCNT2の表示の様態が上記実施形態とは異なっている。変形例2の第2案内コンテンツCNT2は、車両Aの予定走行軌跡を示す矢印形状のコンテンツである。変形例2の第2案内コンテンツCNT2でも、接続道路Rcの路面に重畳される画像部分が基端画像部PeBとなる。また、第2案内コンテンツCNT2のうちで、連続地点P2から進行方向側となる路面範囲に重畳される画像部分が先端画像部PeTとなる。
 加えて変形例2では、第1案内コンテンツCNT1の表示終了タイミングと、第2案内コンテンツCNT2の表示開始タイミングとが、上記実施形態と異なっている。HCU100は、連続案内エリアCGAにおいて、1つ目の経路案内の対象である右左折地点P1を通過したことに基づき、第1案内コンテンツCNT1を非表示とする。
 そして、HCU100は、右左折地点P1の通過後、2つ目の経路案内の対象である連続地点P2が画角VA内であると判定したことに基づき、第2案内コンテンツCNT2の表示を開始する。HCU100は、上記実施形態と同様に、3Dオブジェクトを用いた仮想空間でのレイアウトシミュレーション(図4のS23参照)の結果に基づき、画角VAと連続地点P2との位置関係を仮想空間内で把握し、連続地点P2が画角VA内か否かの判定を行う。
 変形例2では、第2案内コンテンツCNT2の表示開始は、連続地点P2が画角VA内に入るまで待機される。故に、第2案内コンテンツCNT2は、右左折地点P1での旋回中に、先端画像部PeTのごく先端のみが表示されることなく、先端画像部PeT及び基端画像部PeBが互いに繋がった状態で、表示を開始される。したがって、ドライバにとって分かり易い第2案内コンテンツCNT2の表示が実現される。
 変形例2では、連続地点P2にて右折するシーン(図15参照)でも、第2案内コンテンツCNT2は、基端画像部PeBと共に、先端画像部PeTの一部を含んだ様態で、表示を開始される。即ち、第2案内コンテンツCNT2は、意味理解が可能な様態で表示を開始される。故に、第2案内コンテンツCNT2の分かり易い表示は、連続地点P2での右左折の方向にかかわらず、実現される。
 (変形例3)
 図16に示す上記実施形態の変形例3でも、第2案内コンテンツCNT2の表示開始タイミングが、上記実施形態と異なっている。HCU100は、2つ目の経路案内の対象である連続地点P2へ向かう接続道路Rcに沿う方向に車両Aの進行方向が向いたと推定したことに基づき、第2案内コンテンツCNT2の表示を開始させる。即ち、変形例3では、右左折地点P1及び連続地点P2が連続している場合、第2案内コンテンツCNT2の表示は、右左折地点P1での右折又は左折の開始後に、直進判定が成立したことを条件に開始される。
 変形例3において、表示生成部78は、車両姿勢推定部77から取得する車両Aの走行方向の推定結果を継続的に取得する。表示生成部78は、接続道路Rcの区画線又は道路端の相対位置、交差角度θ1(図5参照)及び姿勢変化角度、及び操舵角情報等に基づき、これらの情報を使い分けて、直進判定を実施する。
 表示生成部78は、車両Aに対して左右両側に位置する区画線又は道路端がフロントカメラ31の画角内に入り、これらを撮影可能な状態になったタイミングで、直進判定を成立させる。表示生成部78は、片側の区画線又は道路端がフロントカメラ31の画角内に入ったタイミングで、直進判定を成立させてもよい。
 表示生成部78は、接続道路Rcの区画線及び道路端がいずれも撮像データから検出できない場合等に、地図データ及び方角情報を組み合わせた直進判定を実施する。表示生成部78は、交差角度θ1を基準とし、交差角度θ1よりも僅かに小さい閾値角度を設定する。表示生成部78は、右左折地点P1における車両Aのヨー方向の姿勢変化角度が閾値角度を超えたタイミングで、直進判定を成立させる。
 表示生成部78は、接続道路Rcの区画線及び道路端が検出困難であり、且つ、測位信号の受信環境が良好でない場合等に、操舵角情報を用いた走行方向判定を実施する。表示生成部78は、操舵角情報に基づき、右左折地点P1におけるステアリング操作の推移を監視し、ステアリングの角速度が所定速度未満となった場合、即ち、操舵角の変化が落ち着いたタイミングにて、直進判定を成立させる。
 尚、表示生成部78は、操舵角情報に基づき、ステアリングを戻す過程にて、操舵角が所定閾値未満となったタイミングで、直進判定を成立させてもよい。この場合、直進判定を成立させる所定閾値は、地図データに基づき、交差角度θ1や接続道路Rcの形状等に応じて、適宜変更される。
 変形例3でも、第2案内コンテンツCNT2は、先端画像部PeT及び基端画像部PeBが互いにつながった様態で表示を開始される。故に、分かり易い第2案内コンテンツCNT2の表示が実現される。
 変形例3では、車両Aに搭載されたフロントカメラ31よる接続道路Rcの区画線又は道路端の検出情報を用いて、車両Aの走行方向判定が実施される。そのため表示生成部78は、接続道路Rcに対する車両Aの向きをリアルタイムで把握して、第2案内コンテンツCNT2の表示開始タイミングを決定できる。以上によれば、HCU100は、車両Aの直進判定の精度を高めて、第2案内コンテンツCNT2の表示開始タイミングを適切に制御できる。
 変形例3では、地図データと、測位信号に基づく方角情報とを用いて、車両Aの走行方向判定が実施される。そのため表示生成部78は、接続道路Rcの区画線及び道路端が検出困難であっても、接続道路Rcに対する車両Aの向きを把握して、第2案内コンテンツCNT2の表示開始タイミングを決定できる。以上によれば、道路環境に依存らないで直進判定を実施できるため、多くの走行シーンにおいて、第2案内コンテンツCNT2の表示開始タイミングは、適切に制御され得る。
 変形例3では、操舵角情報を用いての車両Aの走行方向判定が実施可能である。このように、自車情報を用いて車両Aの旋回の終了を把握できれば、表示生成部78は、車両Aの外部環境に影響を受けることなく、第2案内コンテンツCNT2の表示開始タイミングを決定できる。以上によれば、さらに多くの走行シーンにて、第2案内コンテンツCNT2の表示開始タイミングは、適切に制御され得る。
 変形例3における直進判定の成立条件は、適宜変更されてよい。一例として、表示生成部78は、検出情報に基づく走行方向判定、地図データ及び方角情報を用いた走行方向判定、並びに操舵角情報を用いた走行方向判定の少なくとも一つにて、直進判定が成立した場合に、案内コンテンツCNT2の表示を開始させてよい。また別の一例として、表示生成部78は、これら3つの走行方向判定の多数決に基づき、直進判定を成立させてよい。さらに別の一例として、表示生成部78は、3つの走行方向の判定機能を全て備えていなくてもよい。
 (変形例4)
 変形例4のHCU100は、図17に示すように、第2案内コンテンツCNT2の重畳範囲を敢えて路面外まで拡張させる。こうした表示処理によれば、第2案内コンテンツCNT2は、先端画像部PeT及び基端画像部PeBが互いに繋がった様態で表示され易くなる。その結果、第2案内コンテンツCNT2の拡大は、先端画像部PeT及び基端画像部PeBの一体的な表示を早期に可能にし、連続地点P2における案内経路の分かり易い提示に寄与できる。
 上記実施形態の変形例5のHCU100は、第2案内コンテンツCNT2の少なくとも一部が画角VA内となったことに基づき、第2案内コンテンツCNT2の表示を開始する。また、上記実施形態の変形例6のHCU100は、連続案内を行う場合、右左折地点P1の通過後、所定の距離を走行した地点(時点)で、第1案内コンテンツCNT1から第2案内コンテンツCNT2へと切り替える。尚、各案内コンテンツCNT1,CNT2の表示開始タイミング及び表示終了タイミングは、上記実施形態及び変形例にて例示したタイミングのうちで、適宜変更されてよい。具体的には、第2案内コンテンツCNT2の表示開始タイミングは、右左折地点P1の通過時、及び右左折地点P1を通過後の所定の距離を走行したとき等であってよい。
 上記実施形態の変形例7では、複数の案内ポイントが連続しているか否かの判断を、ナビゲーションECU53に替えて、連続案内判定部75が実施する。例えばナビゲーションECU53が連続案内通知を出力しない場合、連続案内判定部75は、ナビゲーションECU53より取得する他の経路案内情報に基づき、連続案内の実施の要否を判定してもよい。
 一例として、連続案内判定部75は、案内実施要求と共に送信されるひと纏まりの経路案内情報に複数の案内ポイントの情報が含まれている場合、連続案内情報があると判定し、これらの案内ポイントの連続案内の実施を決定する。また別の一例として、連続案内判定部75は、逐次取得する経路案内情報から、設定経路上に並ぶ右左折地点P1と連続地点P2とのポイント間距離を算出する。連続案内判定部75は、ナビゲーションECU53と同様の判定ロジックで、右左折地点P1及び連続地点P2が連続している、即ち、連続案内情報があると判定する。
 連続案内をするか否かの閾値となるポイント間距離は、例えば100~1000m程度のうちで適宜設定されてよい。こうしたポイント間距離は、ドライバ等の車両Aのユーザによって調整可能であってもよく、又は連続地点P2の種別に応じて自動的に調整されてもよい。
 上記実施形態では、接続道路Rcの路側域に例えば遮蔽物BO等の特定物体がない場合、案内コンテンツCNT2への切り替えタイミングが早められていた。こうした特定物体の具体的な種別は、上述の遮蔽物BOに限定されず、例えば案内コンテンツCNT2の内容に応じて適宜変更されてよい。また、特定物体を認識する処理は、周辺監視センサ30又は運転支援ECU57にて実施されてもよく、或いは外界情報取得部74又は路側物体判定部76にて実施されてもよい。
 上記実施形態の変形例8では、スマートフォン等のユーザ端末が、車載ネットワークに接続されている。ユーザ端末にて実行されるアプリケーションには、ドライバ等のユーザ操作により、目的地までの経路が設定されている。ユーザ端末は、目的地までの経路案内情報、及び関連するナビ地図データ等を、車載ネットワーク等を通じて経路情報取得部71に提供可能である。さらに、経路案内情報には、連続案内通知が含まれていてもよい。
 上記実施形態の変形例9の経路情報取得部71は、車外ネットワークを通じて、クラウド上のサーバから経路情報及び地図データ等を取得できる。以上の変形例8,9のように、スマートフォン又はクラウドサーバからルート案内に必要な情報が取得できるのであれば、ナビゲーション装置は、車両に予め固定された構成でなくてもよい。
 経路案内コンテンツCNTgの様態は、ドライバによる認識を良好にするため、適宜変更されてよい。一例として、経路案内コンテンツCNTgは、自車から遠ざかるほど低輝度となる様態であってよい。さらに、経路案内コンテンツCNTgの先端画像部PeTのうちで、遮蔽物BOと重なる部分が、遮蔽物BOと重ならない部分よりも低輝度とされてよい。また、自車から遠ざかるほど、路面から浮き上がっているかのように重畳表示させることで、遠方部分を大きく見せるような工夫がなされていてもよい。
 上述の実施形態において、HCU100により実現されていた表示制御機能は、車両Aに搭載される他の車載ECUによって実現されていてもよい。一例として、表示制御機能は、ナビゲーション装置50のナビゲーションECU53に実装されてもよい。また別の一例として、表示制御機能は、HUD装置20の制御回路に実装されていてもよい。さらに、HCU100は、メータECUとして車両Aに搭載される電子制御装置であってよい。或いは、HCU100が、ナビゲーションECU53の機能を含んでおり、ナビゲーションディスプレイ52による経路案内表示を、HUD装置20の虚像表示と共に制御してもよい。
 重畳表示に用いられるHUD装置のプロジェクタの具体構成は、適宜変更されてよい。例えば変形例10のHUD装置には、LCD及びバックライトに替えて、EL(Electro Luminescence)パネルが設けられている。さらに、ELパネルに替えて、プラズマディスプレイパネル、ブラウン管及びLED等の表示器を用いたプロジェクタがHUD装置には採用可能である。
 変形例11のHUD装置には、LCD及びバックライトに替えて、レーザモジュール(以下「LSM」)及びスクリーンが設けられている。LSMは、例えばレーザ光源及びMEMS(Micro Electro Mechanical Systems)スキャナ等を含む構成である。スクリーンは、例えばマイクロミラーアレイ又はマイクロレンズアレイである。変形例12のHUD装置では、LSMから照射されるレーザ光の走査により、スクリーンに表示像が描画される。HUD装置は、スクリーンに描画された表示像を、拡大光学素子によってウィンドシールドに投影し、虚像を空中表示させる。
 変形例13のHUD装置には、DLP(Digital Light Processing,登録商標)プロジェクタが設けられている。DLPプロジェクタは、多数のマイクロミラーが設けられたデジタルミラーデバイス(以下、「DMD」)と、DMDに向けて光を投射する投射光源とを有している。DLPプロジェクタは、DMD及び投射光源を連携させた制御により、表示像をスクリーンに描画する。
 変形例14のHUD装置では、LCOS(Liquid Crystal On Silicon)を用いたプロジェクタが採用されている。またさらに、変形例15のHUD装置には、虚像を空中表示させる光学系の一つに、ホログラフィック光学素子が採用されている。
 上記実施形態にて、HCUによって提供されていた各機能は、ソフトウェア及びそれを実行するハードウェア、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの複合的な組合せによっても提供可能である。さらに、こうした機能がハードウェアとしての電子回路によって提供される場合、各機能は、多数の論理回路を含むデジタル回路、又はアナログ回路によっても提供可能である。
 上記の表示制御方法を実現可能なプログラム等を記憶する記憶媒体の形態も、適宜変更されてよい。例えば記憶媒体は、回路基板上に設けられた構成に限定されず、メモリカード等の形態で提供され、スロット部に挿入されて、HCUの制御回路に電気的に接続される構成であってよい。さらに、記憶媒体は、HCUへのプログラムのコピー基となる光学ディスク及びのハードディスクドライブ等であってもよい。
 HMIシステムを搭載する車両は、一般的な自家用の乗用車に限定されず、レンタカー用の車両、有人タクシー用の車両、ライドシェア用の車両、貨物車両及びバス等であってもよい。さらに、モビリティサービスに用いられる無人運転専用の車両に、HMIシステム及びHCUが搭載されてもよい。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 (付記1)
 車両において用いられ、経路案内のために前景に重畳される表示を制御する表示制御装置であって、
 前記経路案内に用いられる経路情報に、前記車両の右左折を案内する右左折地点と、当該右左折地点の次に案内を実施する順次案内地点との連続を示す連続案内情報が含まれるか否かを判定する連続案内判定部と、
 走行中の道路に対する前記車両の向きを推定し、前記車両の向きについて、前記順次案内地点を案内する案内コンテンツを表示可能な向きとなったか否かを判定する車両姿勢推定部と、
 前記経路情報に前記連続案内情報が含まれると判定された場合に、前記右左折地点を案内する右左折コンテンツを表示後、前記車両の向きが前記案内コンテンツを表示可能な向きとなったことを条件に、前記案内コンテンツの表示を開始させる表示制御部と、
 を備える表示制御装置。
 (付記2)
 前記車両姿勢推定部は、前記車両に搭載された外界センサによる前記道路の区画線又は道路端の検出情報に基づいて、前記車両の向きが前記案内コンテンツを表示可能な向きとなったことを判定する付記1に記載の表示制御装置。
 (付記3)
 前記車両姿勢推定部は、前記車両が走行中の前記道路に関する地図情報と、測位衛星から受信する測位信号に基づく前記車両の方角情報とを用いて、前記車両の向きが前記案内コンテンツを表示可能な向きとなったことを判定する付記1又は2に記載の表示制御装置。
 (付記4)
 前記車両姿勢推定部は、前記車両の操舵角に関する操舵角情報を用いて、前記車両の向きが前記案内コンテンツを表示可能な向きとなったことを判定する付記1~3のいずれか一項に記載の表示制御装置。
 (付記5)
 前記右左折地点での右左折後に前記車両の走行する前記道路の路側域に、前記案内コンテンツを重畳する対象として適切ではない特定物体があるか否かを判定する路側物体判定部、をさらに備え、
 前記特定物体が路側域にないと判定される場合、前記特定物体が路側域にあると判定される場合よりも、前記案内コンテンツの表示開始が早められる付記1~4のいずれか一項に記載の表示制御装置。
 (付記6)
 前記車両姿勢推定部は、前記案内コンテンツの重畳対象が前記道路の路側域にある場合、前記案内コンテンツの重畳対象が前記道路の路面域にある場合よりも、前記案内コンテンツが表示可能か否かを判定するための判定基準を緩和する付記1~5のいずれか一項に記載の表示制御装置。
 (付記7)
 車両において用いられ、経路案内のために前景に重畳される表示を制御する表示制御プログラムであって、
 少なくとも一つの処理部に、
 前記経路案内に用いられる経路情報に、前記車両の右左折を案内する右左折地点と、当該右左折地点の次に案内を実施する順次案内地点との連続を示す連続案内情報が含まれるか否かを判定し、
 走行中の道路に対する前記車両の向きを推定し、前記車両の向きについて、前記順次案内地点を案内する案内コンテンツを表示可能な向きとなったか否かを判定し、
 前記経路情報に前記連続案内情報が含まれると判定された場合に、前記右左折地点を案内する右左折コンテンツを表示後、前記車両の向きが前記案内コンテンツを表示可能な向きとなったことを条件に、前記案内コンテンツの表示を開始させる、
 ことを含む処理を実行させる表示制御プログラム。
 これらの特徴によれば、右左折地点及び順次案内地点が連続している場合、順次案内地点を案内する案内コンテンツの表示は、右左折地点での右折又は左折の後に、順次案内地点の案内コンテンツを表示可能な向きに車両が向いたことを条件に、開始される。以上によれば、順次案内地点を案内する案内コンテンツの表示開始タイミングは、適切となり得る。したがって、経路案内のための重畳表示に起因する誤認識のおそれは、低減可能となる。
 ここで本願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のステップ(あるいはセクションと言及される)から構成され、各ステップは、たとえば、S101と表現される。さらに、各ステップは、複数のサブステップに分割されることができる、一方、複数のステップが合わさって一つのステップにすることも可能である。
 以上、本開示の一態様に係る表示システム、表示制御装置、表示制御プログラムの実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。
 

 

Claims (10)

  1.  車両(A)において用いられる表示システムであって、
     目的地までの経路案内を行うナビゲーション装置(50)と、
     前記ナビゲーション装置より取得する経路案内情報から、経路案内コンテンツ(CNTg)をヘッドアップディスプレイ(20)によって路面に重畳表示させる表示制御装置(100)と、を備え、
     前記ナビゲーション装置は、複数の経路案内が連続する連続案内であると判定した場合、1つ目の経路案内と2つ目の経路案内とを共に開始し、
     前記表示制御装置は、前記ナビゲーション装置より取得する前記経路案内情報が前記連続案内であると判定した場合に、前記1つ目の経路案内を行う第1案内コンテンツ(CNT1)を表示させ、前記第1案内コンテンツを非表示とした後、前記2つ目の経路案内を行う第2案内コンテンツ(CNT2)を表示させる表示システム。
  2.  前記表示制御装置は、
     前記2つ目の経路案内の対象である第2案内ポイント(P2)を含むように前記第2案内コンテンツの表示予定位置を設定し、
     前記表示予定位置への重畳を仮定した前記第2案内コンテンツにおいて前記第2案内ポイントから自車側となる部分(PeB)の少なくとも一部が前記ヘッドアップディスプレイの画角(VA)内であると判定したことに基づき、前記第2案内コンテンツの表示を開始させる請求項1に記載の表示システム。
  3.  前記表示制御装置は、前記2つ目の経路案内の対象である第2案内ポイント(P2)が前記ヘッドアップディスプレイの画角(VA)内である判定したことに基づき、前記第2案内コンテンツの表示を開始させる請求項1に記載の表示システム。
  4.  前記表示制御装置は、前記2つ目の経路案内の対象である第2案内ポイント(P2)へ向かう道路に沿う方向に前記車両の進行方向が向いたと推定したことに基づき、前記第2案内コンテンツの表示を開始させる請求項1に記載の表示システム。
  5.  前記表示制御装置は、前記1つ目の経路案内の対象である第1案内ポイント(P1)に前記車両が到達する以前に、前記第1案内コンテンツを非表示とする請求項1~4のいずれか一項に記載の表示システム。
  6.  前記表示制御装置は、前記1つ目の経路案内の対象である第1案内ポイント(P1)を通過した後、前記車両が所定の距離を走行したことに基づき、前記第1案内コンテンツを非表示とする請求項1~4のいずれか一項に記載の表示システム。
  7.  前記表示制御装置は、経路案内を行う道路が特定種別の道路である場合に、前記第1案内コンテンツを非表示とする前に、前記第2案内コンテンツの表示を開始させる請求項1~6のいずれか一項に記載の表示システム。
  8.  ナビゲーション装置(50)を搭載する車両(A)において用いられ、ヘッドアップディスプレイ(20)による路面への重畳表示を制御する表示制御装置であって、
     目的地までの経路案内を行う前記ナビゲーション装置より経路案内情報を取得する経路情報取得部(71)と、
     前記経路案内情報から生成する経路案内コンテンツ(CNTg)を、前記ヘッドアップディスプレイによって路面に重畳表示させる表示制御部(78)と、を備え、
     前記経路情報取得部は、前記ナビゲーション装置にて複数の経路案内が連続する連続案内であると判定された場合に、当該連続案内があることを示す前記経路案内情報を取得し、
     前記表示制御部は、前記連続案内を示す前記経路案内情報を前記経路情報取得部が取得した場合に、前記ナビゲーション装置が1つ目の経路案内と2つ目の経路案内とを共に開始する連続案内エリア(CGA)において、前記1つ目の経路案内を行う第1案内コンテンツ(CNT1)を表示させ、前記第1案内コンテンツを非表示とした後、前記2つ目の経路案内を行う第2案内コンテンツ(CNT2)を表示させる表示制御装置。
  9.  ナビゲーションディスプレイ(52)を搭載する車両(A)において用いられ、ヘッドアップディスプレイ(20)による路面への重畳表示を制御する表示制御プログラムであって、
     少なくとも一つの処理部(11)に、
     目的地までの経路案内に用いられる経路案内情報を取得し(S101)、
     前記経路案内情報に基づき、前記ナビゲーションディスプレイによって行われる経路案内が、複数の経路案内を連続して行う連続案内であるか否かを判定し(S102)、
     前記経路案内情報から生成する経路案内コンテンツ(CNTg)を、前記ヘッドアップディスプレイによって路面に重畳表示させ(S105)、
     前記連続案内を示す前記経路案内情報を取得した場合に、1つ目の経路案内と2つ目の経路案内とが前記ナビゲーションディスプレイによって共に開始される連続案内エリア(CGA)において、前記1つ目の経路案内を行う第1案内コンテンツ(CNT1)を表示させ、前記第1案内コンテンツを非表示とした後、前記2つ目の経路案内を行う第2案内コンテンツ(CNT2)を表示させる、
     ことを含む処理を実行させる表示制御プログラム。
  10.  請求項9に記載する表示制御プログラムを記憶するコンピュータ読み取り可能な非一時的記憶媒体。
PCT/JP2019/050352 2019-01-16 2019-12-23 表示システム、表示制御装置及び表示制御プログラム WO2020149109A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/374,044 US20210356289A1 (en) 2019-01-16 2021-07-13 Display system, display control device, and display control program product

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019005543 2019-01-16
JP2019-005543 2019-01-16
JP2019-178859 2019-09-30
JP2019178859A JP7028228B2 (ja) 2019-01-16 2019-09-30 表示システム、表示制御装置及び表示制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/374,044 Continuation US20210356289A1 (en) 2019-01-16 2021-07-13 Display system, display control device, and display control program product

Publications (1)

Publication Number Publication Date
WO2020149109A1 true WO2020149109A1 (ja) 2020-07-23

Family

ID=71614374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050352 WO2020149109A1 (ja) 2019-01-16 2019-12-23 表示システム、表示制御装置及び表示制御プログラム

Country Status (1)

Country Link
WO (1) WO2020149109A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132315A1 (ja) * 2022-01-10 2023-07-13 日本精機株式会社 表示装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046424A1 (ja) * 2011-09-30 2013-04-04 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、及び表示装置
JP2018128466A (ja) * 2018-04-25 2018-08-16 パイオニア株式会社 ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013046424A1 (ja) * 2011-09-30 2013-04-04 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、及び表示装置
JP2018128466A (ja) * 2018-04-25 2018-08-16 パイオニア株式会社 ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132315A1 (ja) * 2022-01-10 2023-07-13 日本精機株式会社 表示装置

Similar Documents

Publication Publication Date Title
JP7063316B2 (ja) 表示制御装置及び表示制御プログラム
JP7028228B2 (ja) 表示システム、表示制御装置及び表示制御プログラム
WO2020261781A1 (ja) 表示制御装置、表示制御プログラム、および持続的有形コンピュータ読み取り媒体
JP7218822B2 (ja) 表示制御装置
US20220172652A1 (en) Display control device and display control program product
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
WO2020208989A1 (ja) 表示制御装置及び表示制御プログラム
WO2020225990A1 (ja) 表示制御装置及び表示制御プログラム
US11850940B2 (en) Display control device and non-transitory computer-readable storage medium for display control on head-up display
JP7215466B2 (ja) 表示制御装置及び表示制御プログラム
JP7243660B2 (ja) 表示制御装置及び表示制御プログラム
WO2020149109A1 (ja) 表示システム、表示制御装置及び表示制御プログラム
JP6930563B2 (ja) 表示制御装置及び表示制御プログラム
JP7111121B2 (ja) 表示制御装置及び表示制御プログラム
JP7173078B2 (ja) 表示制御装置及び表示制御プログラム
JP7234650B2 (ja) 表示制御装置及び表示制御プログラム
JP2021094965A (ja) 表示制御装置、および表示制御プログラム
JP7230960B2 (ja) 表示制御装置
JP2020185982A (ja) 表示制御装置及び表示制御プログラム
JP2021006805A (ja) 表示制御装置及び表示制御プログラム
JP7420165B2 (ja) 表示制御装置、および表示制御プログラム
JP2020185830A (ja) 表示制御装置及び表示制御プログラム
JP7014206B2 (ja) 表示制御装置および表示制御プログラム
JP7255443B2 (ja) 表示制御装置及び表示制御プログラム
JP7259802B2 (ja) 表示制御装置、表示制御プログラム及び車載システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19910626

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19910626

Country of ref document: EP

Kind code of ref document: A1