WO2020189238A1 - 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム - Google Patents

車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム Download PDF

Info

Publication number
WO2020189238A1
WO2020189238A1 PCT/JP2020/008677 JP2020008677W WO2020189238A1 WO 2020189238 A1 WO2020189238 A1 WO 2020189238A1 JP 2020008677 W JP2020008677 W JP 2020008677W WO 2020189238 A1 WO2020189238 A1 WO 2020189238A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
content
display control
display
unit
Prior art date
Application number
PCT/JP2020/008677
Other languages
English (en)
French (fr)
Inventor
將隼 宇都宮
晋海 崔
昌平 佐藤
洋樹 松井
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN202080021896.5A priority Critical patent/CN113646201A/zh
Publication of WO2020189238A1 publication Critical patent/WO2020189238A1/ja
Priority to US17/475,509 priority patent/US20220004348A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • This disclosure relates to a vehicle display control device, a vehicle display control method, and a vehicle display control program.
  • Patent Document 1 discloses that a processor mounted on a vehicle determines whether or not to perform regenerative braking based on accelerator off information and brake on information.
  • the accelerator off information is defined as information indicating that the amount of operation of the accelerator pedal by the driver is smaller than a predetermined threshold value
  • the brake on information is defined as the amount of operation of the brake pedal by the driver. It is defined as information indicating that the value has exceeded the threshold value.
  • a processor controls various operations according to an operation state of, for example, an accelerator pedal or a brake pedal by a driver. Therefore, the more the operation by the driver is optimized, the more the control by the processor is optimized, and by extension, it becomes possible to realize the optimization of the running of the vehicle itself.
  • the present disclosure provides a vehicle display control device, a vehicle display control method, and a vehicle display control program that enable the driver to further optimize the operation of the vehicle.
  • the vehicle display control device includes a display unit and a display control unit that executes content display processing for displaying content indicating the operation timing of the vehicle on the display unit.
  • the vehicle display control method includes a content display process of displaying content indicating the operation timing of the vehicle on the display unit.
  • the vehicle display control program causes a computer to execute a content display process of displaying content indicating the operation timing of the vehicle on the display unit.
  • the driver can operate the vehicle at a more optimal timing by operating the vehicle based on the operation timing indicated by the content displayed on the display unit.
  • FIG. 1 is a diagram schematically showing a configuration example of a vehicle system according to the present disclosure.
  • FIG. 2 is a diagram schematically showing an example of mounting the head-up display according to the present disclosure in a vehicle.
  • FIG. 3 is a diagram schematically showing a configuration example of a control system of the vehicle display control device according to the present disclosure.
  • FIG. 4 is a diagram schematically showing a projection example of the content according to the first embodiment.
  • FIG. 5 is a flowchart schematically showing an operation example of the vehicle display control device according to the first embodiment.
  • FIG. 6 is a diagram (No.
  • FIG. 7 is a diagram (No. 2) schematically showing a projection example of the content according to the second embodiment.
  • FIG. 8 is a diagram schematically showing a projection example of the content according to the third embodiment.
  • FIG. 9 is a diagram schematically showing a projection example of the content according to the fourth embodiment.
  • FIG. 10 is a diagram schematically showing a projection example of the content according to the fifth embodiment.
  • FIG. 11 is a diagram schematically showing a projection example of the content according to the sixth embodiment.
  • the vehicle system 1 illustrated in FIG. 1 is used for a moving body such as a vehicle traveling on a road, and includes an HMI system 2 (HMI: Human Machine Interface) and an ADAS locator 3 (ADAS: Advanced Driver Assistance Systems). ), Peripheral monitoring sensor 4, vehicle control ECU 5 (ECU: Electronic Control Unit), driving support ECU 6 (ECU: Electronic Control Unit), and the like.
  • the HMI system 2, the ADAS locator 3, the peripheral monitoring sensor 4, the vehicle control ECU 5, and the driving support ECU 6 are connected to, for example, an in-vehicle LAN (LAN: Local Area Network) mounted on the vehicle.
  • LAN Local Area Network
  • the ADAS locator 3 includes a GNSS receiver 30 (GNSS: Global Navigation Satellite System), an inertial sensor 31, a map database 32, and the like.
  • the map database 32 is referred to as a map DB 32.
  • the GNSS receiver 30 receives positioning signals from a plurality of artificial satellites.
  • the inertial sensor 31 includes, for example, a gyro sensor and an acceleration sensor.
  • the ADAS locator 3 sequentially positions the vehicle position of its own vehicle on which the vehicle system 1 is mounted by combining the positioning signal received by the GNSS receiver 30 and the sensing result by the inertial sensor 31. Then, the ADAS locator 3 outputs the positioned vehicle position via the in-vehicle LAN.
  • the vehicle position is represented by a coordinate system consisting of latitude and longitude.
  • the X-axis indicates longitude and the Y-axis indicates latitude.
  • the positioning of the vehicle position is various as long as the position of the own vehicle can be specified, for example, based on the information of the mileage obtained based on the sensing result by the vehicle speed sensor mounted on the own vehicle. The configuration of can be adopted.
  • the map DB 32 is composed of, for example, a non-volatile memory, and stores map data including various data such as link data, node data, and road shape data.
  • the link data includes link identification data that identifies the links that make up the road on the map, link length data that indicates the length of the link, link orientation data that indicates the orientation of the link, and link travel time data that indicates the time required to travel the link. , Includes various data such as node coordinate data indicating the coordinates of the nodes constituting the start point and end point of the link, and link attribute data indicating the attributes of the road.
  • the node data includes node identification data that identifies a node existing on the map, node coordinate data that indicates the coordinates of the node, node name data that indicates the name of the node, for example, node type data that indicates the type of node such as an intersection, and node data.
  • Includes various data such as connection link data that identifies the link to connect to.
  • Road shape data is data indicating the shape of a road existing on a map.
  • the road shape data includes data indicating the altitude of the road, the cross slope of the road, the longitudinal slope of the road, and the like.
  • the map data may be acquired from the outside of the own vehicle, for example, via a communication module mounted on the vehicle.
  • three-dimensional map data including a point cloud such as a feature point of the road shape and a feature point of a structure existing on the map may be used.
  • the ADAS locator 3 uses the 3D map data and the sensing result by LIDAR (Light Detection and Ringing / Laser Imaging Detection and Ringing) that detects the point cloud, and the like. It may be configured to specify the vehicle position of.
  • LIDAR Light Detection and Ringing / Laser Imaging Detection and Ringing
  • the peripheral monitoring sensor 4 is a sensor that monitors the surrounding environment of the own vehicle, and in this case, it is provided as an autonomous sensor that operates autonomously.
  • the peripheral monitoring sensor 4 is, for example, a dynamic target moving around the own vehicle such as a human being such as a pedestrian, an animal other than the human being, or a vehicle other than the own vehicle, a falling object existing on the road, or a road. Detects objects that exist around the vehicle, such as guardrails, curbs, trees, and other static targets that are stationary around the vehicle.
  • the peripheral monitoring sensor 4 can detect road markings such as traveling lane markings, stop lines, and pedestrian crossings provided on the roads around the own vehicle, for example, instruction markings such as "stop". ..
  • the peripheral monitoring sensor 4 sequentially outputs the obtained sensing data to the in-vehicle LAN.
  • the peripheral monitoring sensor 4 is composed of, for example, a peripheral monitoring camera that captures a predetermined range around the own vehicle, a millimeter wave radar that outputs a search wave in a predetermined range around the own vehicle, a sonar, an exploration wave sensor such as LIDAR, and the like. ..
  • the exploration wave sensor sequentially outputs scanning results based on the received signal obtained by receiving the reflected wave reflected by the object as sensing data to the in-vehicle LAN. More specifically, the exploration wave sensor measures the distance from the exploration wave sensor to the object based on the time from transmitting the exploration wave to receiving the reflected wave reflected by the object. The exploration wave sensor also measures the orientation of the object with respect to the exploration wave sensor based on the angle at which the reflected wave is received.
  • the azimuth can be represented by, for example, an azimuth, for example, clockwise can be represented as a positive azimuth and counterclockwise can be represented as a negative azimuth with respect to the front direction of the own vehicle.
  • the peripheral monitoring sensor 4 includes at least a front camera 41 having a predetermined range in front of the own vehicle as an imaging range, and a millimeter wave radar 42 having a predetermined range in front of the own vehicle as an exploration range. It has become.
  • the front camera 41 may be provided, for example, on the rear mirror of the own vehicle, the upper surface of the instrument panel, or the like.
  • the millimeter wave radar 42 may be provided, for example, on the front grill of the own vehicle, the front bumper, or the like.
  • the millimeter wave radar 42 transmits millimeter waves or quasi-millimeter waves while scanning the sensing range in front of the own vehicle, and receives the reflected waves reflected by the object to reach the object with respect to the millimeter wave radar 42.
  • the sensing range of the front camera 41 and the sensing range of the millimeter wave radar 42 may or may not be matched. Further, at least a part of the sensing range of the front camera 41 and the sensing range of the millimeter wave radar 42 may or may not overlap. Further, a plurality of peripheral monitoring sensors 4 may be provided at different locations of the own vehicle.
  • the vehicle control ECU 5 is, for example, an electronic control unit for controlling acceleration and deceleration of the own vehicle, steering control, braking control, and the like.
  • the vehicle control ECU 5 includes a power unit control ECU that controls acceleration and deceleration of the own vehicle, a steering control ECU that controls the steering of the own vehicle, a brake control ECU that controls braking of the own vehicle, and the like.
  • the vehicle control ECU 5 is based on detection signals output from various sensors such as an accelerator position sensor, a brake pedal force sensor, a steering angle sensor, and a wheel speed sensor mounted on the own vehicle, for example, an electronically controlled throttle, a brake actuator, and the like. It outputs control signals to various driving control system devices such as EPS motors (EPS: Electric Power Steering). Further, the vehicle control ECU 5 can output detection signals obtained from various sensors to the in-vehicle LAN.
  • EPS Electric Power Steering
  • the driving support ECU 6 supports the driving operation by the driver by cooperating with the vehicle control ECU 5, for example.
  • the support provided by the driving support ECU 6 also includes an automatic driving function that automatically controls the running of the own vehicle.
  • the driving support ECU 6 recognizes the driving environment of the own vehicle based on the vehicle position of the own vehicle acquired from the ADAS locator 3, the map data stored in the map DB 32, the sensing data acquired from the peripheral monitoring sensor 4, and the like. More specifically, the driving support ECU 6 recognizes the position, shape, moving state, etc. of an object existing in the vicinity of the own vehicle based on, for example, sensing data acquired from the peripheral monitoring sensor 4, or the own vehicle. It is possible to recognize the position, size, contents, etc. of road markings that exist in the vicinity of. Then, the driving support ECU 6 combines the information recognized in this way with information such as map data and the vehicle position of the own vehicle to create a virtual space that reproduces the actual driving environment around the own vehicle in three dimensions. It is possible to generate.
  • the driving support ECU 6 generates a driving plan for automatically driving the own vehicle by the automatic driving function based on the recognized driving environment.
  • a travel plan a long- to medium-term travel plan and a short-term travel plan can be generated.
  • a short-term driving plan the generated virtual space around the own vehicle is used, for example, acceleration / deceleration control for maintaining the target inter-vehicle distance from the preceding vehicle, steering control for lane tracking and lane change, and collision avoidance. Braking control for this is determined.
  • the long- to medium-term driving plan the recommended route and driving schedule for the vehicle to reach the destination are determined.
  • the driving support ECU 6 may generate only one of the short-term running plan and the long- and medium-term running plan, for example, the short-term running plan.
  • an ACC function that controls the traveling speed of the own vehicle so as to maintain the target inter-vehicle distance from the preceding vehicle by adjusting the driving force and the braking force
  • ACC Adaptive Cruise Control
  • AEB Autonomous Emergency Braking
  • the ACC function and the AEB function are merely examples, and the driving support ECU 6 may be configured to have other functions.
  • the HMI system 2 includes an HCU 20 (Human Machine Interface Control Unit), an operation device 21, a DSM 22 (Driver Status Monitor), a display device 23, and the like.
  • the HMI system 2 accepts an input operation by a driver who is a user of the own vehicle, and presents various information to the driver of the own vehicle.
  • the operation device 21 includes various switches operated by the driver of the own vehicle.
  • the operation device 21 is used to make various settings and the like.
  • the operation device 21 is composed of a steering switch or the like provided on the spokes of the steering of the own vehicle.
  • the operation device 21 includes an accelerator pedal, a brake pedal, and the like provided in the driver's seat of the vehicle.
  • the accelerator pedal, brake pedal, and the like included in the operation device 21 are operated by the driver, and are an example of an operation input unit for inputting an operation to the vehicle.
  • the DSM 22 includes, for example, a light source that generates near-infrared light, a near-infrared light camera that detects near-infrared light, a control unit that controls these, and the like.
  • the DSM 22 is arranged on, for example, on the steering column cover or the upper surface of the instrument panel in a state where the near-infrared light camera is directed toward the driver's seat of the own vehicle.
  • the DSM 22 uses a near-infrared light camera to image the head of the driver irradiated with near-infrared light from a near-infrared light source. Then, the image captured by the near-infrared light camera is image-analyzed by a control unit (not shown).
  • this control unit extracts the driver's eyes from the captured image and detects the position of the driver's eyes with respect to the reference position set in the vehicle interior of the own vehicle as the viewpoint position.
  • the reference position for example, the installation position of the near-infrared light camera can be set.
  • the DSM 22 outputs information indicating the detected viewpoint position of the driver to the HCU 20.
  • the control unit can identify or infer the driver's line of sight, that is, the direction in which the driver's eye is heading, by performing image analysis of the image captured by the near-infrared light camera. Then, the DSM 22 outputs the line-of-sight information indicating the direction of the line-of-sight of the specified or estimated driver to the HCU 20.
  • the display device 23 is an example of a display unit, and in this case, it is configured as a head-up display 230 (HUD: Head Up Display).
  • HUD Head Up Display
  • the head-up display 230 will be referred to as a HUD 230.
  • the HUD 230 is provided, for example, on the instrument panel 12 of the own vehicle.
  • the HUD 230 forms a display image based on the image data output from the HCU 20 by, for example, a liquid crystal type or a scanning type projector 231.
  • the display image is, for example, an image showing information related to vehicle route guidance.
  • the HUD 230 projects the display image formed by the projector 231 onto the front windshield 10, which is an example of the projection unit, via an optical system 232 having, for example, a concave mirror.
  • the front windshield 10 is provided with a projection area R, and the display image formed by the projector 231 is projected in the projection area R.
  • the projection area R is provided so as to be located in front of the driver's seat, particularly in front of the driver seated in the driver's seat.
  • the luminous flux of the display image projected on the front windshield 10 is perceived, that is, visually recognized by the driver seated in the driver's seat.
  • the front windshield 10 is made of, for example, a translucent glass material, and the scenery, that is, the luminous flux in the foreground existing in front of the own vehicle is also perceived, that is, visually recognized by the driver seated in the driver's seat.
  • the driver can visually recognize the virtual image of the display image formed in front of the front windshield 10 in a state of being superimposed on a part of the foreground as the virtual image content 100. That is, the HUD 230 realizes so-called AR display (AR: Augmented Reality) by superimposing the virtual image content 100 on the foreground of the own vehicle.
  • AR Augmented Reality
  • the virtual image content 100 is at least content that visually represents information related to the traveling support of the own vehicle, that is, traveling support-related information.
  • the driving support-related information include route guidance-related information indicating the traveling direction of the own vehicle in the guidance route, automatic driving-related information indicating the course when the own vehicle is automatically controlled, and the lane in which the own vehicle travels. Lane information to be shown, curve notification information to notify the curve existing in front of the traveling direction of the own vehicle, pedestrian information to inform that there is a pedestrian in front of the traveling direction of the own vehicle, and a stop line in front of the traveling direction of the own vehicle.
  • Various information can be applied as long as it is useful information for driving support of the own vehicle, such as stop line information for notifying the existence.
  • the superimposed content is content that is superimposed and displayed on an intersection in front of the traveling direction of the own vehicle or on a pedestrian or a pedestrian's periphery existing on a road surface, and is a non-superimposed content.
  • Is content such as an icon indicating the position of a pedestrian in a bird's-eye view image showing the composition of an intersection or a road surface in front of the vehicle in the traveling direction.
  • the virtual image content 100 also includes information indicating the operation timing for operating the vehicle, that is, content indicating the operation timing information, and information indicating the operation area for operating the vehicle, that is, content indicating the operation area information.
  • the content representing the operation timing information is referred to as the operation timing content
  • the content representing the operation area information is referred to as the operation area content.
  • the operation timing information includes, for example, accelerator on information indicating the timing of operating the accelerator pedal on the road ahead in the traveling direction of the vehicle, accelerator off information indicating the timing of releasing the accelerator pedal, and brake on indicating the timing of operating the brake pedal.
  • the operation area information includes, for example, an area for operating the accelerator pedal on the road ahead in the traveling direction of the vehicle, in other words, an accelerator on information indicating a traveling section, an area for operating the brake pedal, in other words, traveling.
  • Various information can be applied as long as it is information indicating a traveling area related to the operation of the vehicle, such as brake-on information indicating a section.
  • the operation timing content and the operation area content can be displayed on the projection unit as superimposed content, or can be displayed on the projection unit as non-superimposed content.
  • the projection unit on which the HUD 230 projects the virtual image content 100 is not limited to the front windshield 10, and may be configured by, for example, a translucent combiner. Further, the display device 23 may be configured by, for example, a combination meter, a CID (Center Information Display), or the like.
  • the HCU 20 is mainly composed of a microcomputer including, for example, a processor, a volatile memory, a non-volatile memory, an input / output circuit, a bus connecting these, and the like.
  • the HCU 20 is connected to the HUD 230 and the in-vehicle LAN.
  • the HCU 20 is an example of the display control device for a vehicle according to the present disclosure, and controls the display by the HUD 230 by executing a control program stored in a storage medium such as a non-volatile memory.
  • This control program includes a vehicle display control program according to the present disclosure. Further, the HCU 20 performs the vehicle display control method according to the present disclosure by executing the control program.
  • the memory is, for example, a non-transitory tangible storage medium that stores programs and data that can be read by a computer non-temporarily.
  • the non-transitional substantive storage medium can be realized by, for example, a semiconductor memory or a magnetic disk.
  • the HCU 20 virtually realizes the display control processing unit 200 by software by executing the vehicle display control program.
  • the display control processing unit 200 may be configured by hardware, or may be configured by a combination of software and hardware.
  • the display control processing unit 200 includes a superposed content projection unit 51, a non-superimposed content projection unit 52, and an operation system content projection unit 53.
  • the superimposed content projection unit 51 executes the superimposed content projection process.
  • the superimposed content projection process is a process of projecting the superimposed content, which is an example of the virtual image content 100, into the projection area R of the front windshield 10 so as to be superimposed on the object included in the foreground of the own vehicle.
  • the superimposed content is virtual image content 100 that is projected so as to be positively attached to an object included in the foreground of the own vehicle, and is projected so as to be positively attached to an object included in the foreground of the own vehicle. It is different from the virtual image content 100 that is not performed, for example, the non-superimposed content when the non-superimposed content described later is accidentally projected at a position where it is superposed on an object included in the foreground of the own vehicle.
  • the superimposed content is an object included in the foreground of the own vehicle, for example, the virtual image content 100 projected along the road, the depth direction of the front windshield 10 as seen from the driver, that is, the own vehicle.
  • the virtual image content 100 extending forward in the traveling direction, the object included in the foreground of the own vehicle, for example, the state projected superimposed on the stop line actually existing in front of the traveling direction of the own vehicle is the movement of the own vehicle.
  • the virtual image content 100 maintained regardless, the virtual image content 100 in which the positional relationship between the driver's viewpoint position, the actual actual view in front of the own vehicle, and the projected position in the projection area R is maintained in a predetermined relationship, etc. is there.
  • the non-superimposed content projection unit 52 executes the non-superimposition content projection process.
  • the non-superimposed content projection process is a process of projecting the non-superimposed content, which is an example of the virtual image content 100, into the projection area R of the front windshield 10 without superimposing it on the object included in the foreground of the own vehicle.
  • the non-superimposed content is the virtual image content 100 that is not projected so as to be positively attached to the object included in the foreground of the own vehicle, but is accidentally superimposed on the object included in the foreground of the own vehicle. It is a virtual image content 100 that may be projected.
  • the operation system content projection unit 53 executes the operation system content projection process.
  • the operation system content projection process is an example of the content display process, and is a process of projecting the operation system content, for example, the operation timing content and the operation area content described above into the projection area R of the front windshield 10.
  • the operation-type content projection unit 53 can project the operation-type content as superimposed content and can also project it as non-superimposed content.
  • the operation system content projection unit 53 may project the operation system content as the superimposed content by cooperating with the superposition content projection unit 51, or the operation system content projection unit 53 alone can project the operation system content. It may be projected as superimposed content.
  • the operation-type content projection unit 53 may project the operation-type content as non-superimposition content by cooperating with the non-superimposition content projection unit 52, or the operation-type content projection unit 53 alone may project the operation-type content. May be projected as non-superimposed content.
  • the display control processing unit 200 of the HCU 20 displays the operation timing contents 101, 102, 103, 104 in the projection area R of the front windshield 10.
  • the operation timing content 101 is operation-type content that represents accelerator-on information, and is content that indicates the timing at which the accelerator pedal is operated on a road existing in front of the vehicle in the traveling direction, and in this case, the vehicle is depressed.
  • the operation timing content 102 is an operation system content indicating accelerator off information, and is content indicating a timing at which the accelerator pedal is operated on a road existing in front of the vehicle in the traveling direction, and in this case, released.
  • the operation timing content 103 is an operation-type content representing brake-on information, and is content indicating the timing at which the brake pedal is operated on a road existing in front of the vehicle in the traveling direction, and in this case, the vehicle is depressed.
  • the operation timing content 104 is an operation system content indicating brake-off information, and is content indicating a timing at which the brake pedal is operated on a road existing in front of the vehicle in the traveling direction, and in this case, released.
  • the display control processing unit 200 displays a plurality of types of operation timing contents 101, 102, 103, 104 as superimposed contents. That is, the display control processing unit 200 displays a plurality of types of operation timing contents 101, 102, 103, 104 so as to be superimposed on the road that actually exists in front of the vehicle in the traveling direction. Therefore, the driver can easily visually recognize the timing at which the accelerator pedal or the brake pedal should be depressed or released on the road actually existing in front of the vehicle in the traveling direction. be able to.
  • the display control processing unit 200 displays a plurality of types of operation timing contents 101, 102, 103, 104 as common shapes, in this case, linear contents.
  • the display control processing unit 200 may display a plurality of types of operation timing contents 101, 102, 103, 104 in different shapes.
  • the display control processing unit 200 displays a plurality of types of operation timing contents 101, 102, 103, 104 in different colors.
  • the display control processing unit 200 displays the operation timing content 101 indicating the accelerator on information in blue, the operation timing content 102 indicating the accelerator off information in yellow, the operation timing content 103 indicating the brake on information in red, and the brake off information.
  • the operation timing content 104 shown is displayed in purple.
  • the display colors of the plurality of types of operation timing contents 101, 102, 103, 104 can be appropriately changed and set. Further, the display control processing unit 200 may share the display colors of the plurality of types of operation timing contents 101, 102, 103, 104.
  • the display control processing unit 200 may appropriately make the display modes, for example, size, thickness, color depth, etc. of the plurality of types of operation timing contents 101, 102, 103, 104 different. However, it may be common. Further, the display control processing unit 200 can have a display mode such that the operation timing contents 101, 102, 103, 104 are lit, turned on, or blinked.
  • the display control processing unit 200 displays the operation area contents 105 and 106 in the projection area R of the front windshield 10.
  • the operation area content 105 is an operation-type content that represents accelerator-on information, and is content that indicates an area in which the accelerator pedal is operated on a road existing in front of the vehicle in the traveling direction, in this case, a depressed area, in other words, a traveling section. ing. That is, in this case, the operation area content 105 is superimposed and displayed on the area between the operation timing content 101 and the operation timing content 102 on the road existing in front of the vehicle in the traveling direction.
  • the operation area content 106 is operation-type content that represents brake-on information, and is content that indicates an area in which the brake pedal is operated on a road existing in front of the vehicle in the traveling direction, in this case, a stepping area, in other words, a traveling section. ing. That is, in this case, the operation area content 106 is superimposed and displayed on the area between the operation timing content 103 and the operation timing content 104 on the road existing in front of the vehicle in the traveling direction.
  • the display control processing unit 200 displays a plurality of types of operation area contents 105 and 106 as superimposed contents. That is, the display control processing unit 200 displays a plurality of types of operation area contents 105 and 106 so as to be superimposed on a road that actually exists in front of the vehicle in the traveling direction. Therefore, the driver can easily visually recognize the timing in which the accelerator pedal or the brake pedal should be depressed on the road actually existing in front of the vehicle in the traveling direction.
  • the display control processing unit 200 displays a plurality of types of operation area contents 105 and 106 as a common shape, in this case, a band-shaped content.
  • the display control processing unit 200 may display a plurality of types of operation area contents 105 and 106 in different shapes.
  • the display control processing unit 200 displays a plurality of types of operation area contents 105 and 106 in different colors.
  • the display control processing unit 200 displays the operation area content 105 indicating the accelerator-on information in blue and the operation area content 106 indicating the brake-on information in red.
  • the display colors of the plurality of types of operation area contents 105 and 106 can be appropriately changed and set.
  • the display control processing unit 200 may share the display colors of the plurality of types of operation area contents 105 and 106.
  • the display control processing unit 200 may appropriately make different display modes, for example, size, thickness, color depth, etc. of the plurality of types of operation area contents 105 and 106, and may be common. May be good.
  • the display control processing unit 200 can have a display mode such as illuminating, lighting, or blinking the operation area contents 105 and 106.
  • the display control processing unit 200 displays the significance content 110 in the projection area R of the front windshield 10.
  • the significance content 110 is content that represents significance information.
  • the significance information is information indicating the significance of the operation system content displayed in the projection area R of the front windshield 10, that is, the significance of the operation timing indicated by the operation timing content and the significance of the operation area indicated by the operation area content. is there.
  • the significance content 110 is information indicating that a mountain road WR including a plurality of curves exists in front of the vehicle in the traveling direction. Therefore, the significance content 110 includes, for example, various operation timings indicated by the plurality of types of operation timing contents 101, 102, 103, 104 displayed as described above and various operations indicated by the plurality of types of operation area contents 105, 106.
  • the information indirectly indicates that the area is an operation timing or an operation area set in anticipation of traveling on a mountain road WR.
  • the significance content 110 indicates the significance of the operation timing and the operation area indicated by the operation content, such as character information and voice information such as "displaying the operation timing and the operation area suitable for the mountain road.” It may be information that is directly shown.
  • the display control processing unit 200 displays the significance content 110 as non-superimposed content. That is, in this case, the display control processing unit 200 displays the meaning content 110 at the corner portion in the projection area R of the front windshield 10 so as not to superimpose it on the road actually existing in front of the vehicle in the traveling direction.
  • the significance content 110 is displayed.
  • the significance content 110 displayed in a non-superimposed state on the road actually existing in front of the vehicle in the traveling direction is not as information indicating the timing or area for inputting an operation to the vehicle, but such information. It is the content provided to the driver as information that complements or reinforces the operation timing content and the operation area content indicating.
  • the significance content 110 is not limited to information indicating that the mountain road WR exists in front of the vehicle in the traveling direction. For example, information indicating that a slope exists in front of the vehicle in the traveling direction and traffic congestion occur. Various kinds of information can be applied, such as information indicating that the vehicle is running and information indicating the weather in the future. Further, the significance content 110 may be content that indirectly indicates various information by an icon or the like, or may be content that directly indicates, for example, character information. Further, the significance content 110 may be visual information by display or auditory information by voice. Further, the display position of the significance content 110 in the projection area R can be appropriately changed and set, but it is preferable that the display position is not superimposed on the road existing in front of the vehicle in the traveling direction.
  • the display control processing unit 200 of the HCU 20 starts executing the operation system content projection processing, for example, when the vehicle starts traveling (A1).
  • various operation-related contents are displayed in the projection area R of the front windshield 10.
  • the conditions for starting the operation-based content projection process are not limited to the start of the vehicle running.
  • the display device 23 is turned on, and the driver inputs the start of execution of the operation-based content projection process.
  • Various conditions can be set.
  • the operation content indicated by the operation system content is actually operated when the vehicle reaches the operation timing or the operation area indicated by the displayed operation system content. Monitor whether or not it has been done (A2).
  • the display control processing unit 200 When the vehicle arrives at the operation timing or the operation area indicated by the displayed operation content, the display control processing unit 200 actually operates the operation content indicated by the operation content (A2: YES). The process proceeds to step A1 and the operation-based content projection process is continued. At this time, the display control processing unit 200 continues the operation system content projection process while resetting the operation system content as the vehicle progresses. As a result, in the projection area R of the front windshield 10, the operation system contents according to the traveling condition of the vehicle are appropriately displayed.
  • the display control processing unit 200 When the vehicle arrives at the operation timing or the operation area indicated by the displayed operation content, the display control processing unit 200 does not actually operate the operation content indicated by the operation content (A2: NO). , The non-operation counter is counted up by 1 (A3). Then, the display control processing unit 200 confirms whether or not the value of the non-operation counter exceeds a predetermined value (A4).
  • the predetermined value can be appropriately changed and set. In this case, for example, "3" is set.
  • the display control processing unit 200 monitors whether or not a predetermined time has elapsed since the negative determination was made in step A2 (A5). ). The predetermined time can be appropriately changed and set. Then, when the predetermined time elapses (A5: YES), the display control processing unit 200 executes the resetting process (A6). In this resetting process, the display control processing unit 200 determines the traveling condition of the vehicle at that time, for example, the traveling position, the traveling speed, the shape, the slope, the type of the road existing in front of the traveling direction of the vehicle, and the weather condition around the vehicle. Reset the operation content to be displayed according to various information such as. Then, the display control processing unit 200 proceeds to step A1 and displays the operation system content obtained by the resetting process in the projection area R of the front windshield 10.
  • the display control processing unit 200 stops the execution of the operation-related content projection process (A7). Then, the display control processing unit 200 ends this control.
  • the display control processing unit 200 may notify, for example, by display or voice that the execution of the operation-related content projection processing has been stopped. Further, the display control processing unit 200 ends this control even when a predetermined end condition is satisfied.
  • predetermined end conditions for example, the ignition switch of the vehicle is turned off, the route guidance of the vehicle is finished, the display device 23 is turned off, and the driver inputs the end of execution of the operation system content projection process.
  • Various conditions can be set, such as that.
  • the driver operates the vehicle based on the operation timing and the operation area indicated by the operation system content displayed in the projection area R of the front windshield 10, so that the driver operates the vehicle at a more optimum timing.
  • the vehicle can be operated.
  • the display control processing unit 200 sets the subsequent operation timing or operation area. Executes the resetting process to be reset, and displays the operation content indicating the operation timing and operation area obtained by the resetting process. That is, if even one of the operations indicated by the plurality of operation-type contents displayed in the projection area R of the front windshield 10 is not executed, the contents of the optimum operation-type contents to be displayed thereafter are also included. Fluctuations occur. Therefore, when the operation indicated by the operation content is not executed, the actual situation of the vehicle, that is, the operation indicated by the operation content is not executed by resetting the operation content to be displayed thereafter. It is possible to continue to display the optimum operation system content according to the actual vehicle condition caused by the above.
  • the display control processing unit 200 performs the reset processing after a lapse of a predetermined time. Execute. In other words, when the operation indicated by the operation content is not executed, the resetting process is not performed immediately, but the resetting process is performed after a certain amount of time has passed, so that the running condition of the vehicle can be changed.
  • the operation content can be reset in a stable state, and the more optimal operation content can be reset and displayed.
  • the display control processing unit 200 executes the operation system content projection process when the vehicle is not operated in the operation timing or the operation area indicated by the operation system content displayed in the projection area R of the front windshield 10. Stop. That is, if the operation timing or operation area indicated by the displayed operation content does not match the driving style of the driver, there is a high possibility that the vehicle will not be operated in the operation timing or operation area. Therefore, by stopping the execution of the operation content projection process when the vehicle is not operated in the operation timing or operation area indicated by the displayed operation content, the operation content is not suitable for the driving style of the driver. It is possible to prevent the display of from continuing.
  • the display control processing unit 200 stops the execution of the operation system content projection process on condition that the operation timing indicated by the displayed operation system content and the number of times the vehicle has not been operated in the operation area exceed a predetermined value. I did it. Therefore, it is possible to prevent the execution of the operation-related content projection process from being stopped when the driver does not accidentally perform the operation in the operation timing or operation area indicated by the displayed operation-type content.
  • the driver intentionally operates the operation system content by setting the operation timing indicated by the displayed operation system content and the number of times the vehicle is not operated in the operation area to be a plurality of times as a condition for stopping the execution of the operation system content projection process. It is possible to stop the execution of the operation system content projection process only when it is not set.
  • the execution of the operation content projection process may be stopped based on the operation timing indicated by the displayed operation content or the cumulative number of times the vehicle has not been operated in the operation area, or the displayed operation content may be stopped. It may be performed when the number of times the vehicle has not been operated in the indicated operation timing or operation area continues for a predetermined number of times.
  • the display control processing unit 200 also displays the meaning content 110 indicating the operation timing and the significance of the operation area indicated by the operation system content displayed in the projection area R of the front windshield 10. Therefore, based on the significance content 110, the significance of the information indicated by the operation content can be easily transmitted to the driver, and more detailed information can be provided to the driver.
  • the display control processing unit 200 may be configured to be switchable between a display mode for displaying the significance content 110 and a non-display mode for not displaying the meaning content 110.
  • the display control processing unit 200 of the HCU 20 is one of a plurality of operation timing contents 101, 102, 103, 104 that can be displayed in the projection area R of the front windshield 10.
  • the operation timing contents 101, 102, and 103 close to the vehicle are displayed as superimposed contents.
  • the display control processing unit 200 displays the operation timing content 104 farthest from the vehicle among the plurality of operation timing contents 101, 102, 103, 104 in the projection area R of the front windshield 10 as non-superimposed content. I am doing it.
  • the display control processing unit 200 makes the display form of the operation timing content 104 displayed as the non-superimposed content different from the display form of the other operation timing contents 101, 102, 103 displayed as the superimposed content.
  • the display control processing unit 200 has a bar-shaped portion corresponding to the operation timing content 104 on one side of the projection area R of the front windshield 10, in this case, on one side of the roads in front of the vehicle in the traveling direction.
  • the simple content 104a is displayed.
  • the display control processing unit 200 may display the simple content 104a in a mode such as lighting, blinking, or emitting light.
  • the operation timing content 104 farthest from the vehicle is forward in the traveling direction of the vehicle. It is not superimposed and displayed on the road, but the display form is changed and displayed as non-superimposed content. That is, in the operation system content far from the vehicle, the traveling situation may change by the time the vehicle reaches the point, and the content of the information to be shown, for example, the display position may change. Therefore, it is possible to avoid giving unnecessary information to the driver by superimposing the operation content close to the vehicle and not superimposing the operation content far from the vehicle.
  • the operation-type content that is not superimposed and displayed is displayed as non-superimposed content, in this case, bar-shaped simple content 104a. Therefore, it is possible to inform the driver in advance that there is a possibility that some operation timing or operation area exists on the road ahead of the operation timing contents 101, 102, 103, and the existence of information on the running of the vehicle can be transmitted. You can give a notice.
  • the display control processing unit 200 is displayed on the road outside the projection area R, not on the plurality of operation timing contents 104 that can be displayed in the projection area R of the front windshield 10.
  • the simple content 107a that simply indicates the information may be displayed in the projection area R, and in this case, the non-superimposed display may be performed.
  • the display control processing unit 200 of the HCU 20 displays recommended travel lane information for the operation timing contents 101, 102, 103, 104 displayed in the projection area R of the front windshield 10, respectively.
  • 101r, 102r, 103r, 104r are added.
  • the recommended travel lane information 101r, 102r, 103r, 104r is information indicating the travel lane recommended for the driver to travel, and in this case, the content indicates the recommended lane by a triangular mark.
  • the display control processing unit 200 displays a plurality of recommended traveling lane information 101r, 102r, 103r, 104r as superimposed contents. That is, the display control processing unit 200 displays a plurality of recommended traveling lane information 101r, 102r, 103r, 104r by superimposing them on the traveling lanes constituting the road actually existing in front of the vehicle in the traveling direction. There is. Therefore, the driver can easily visually recognize which travel lane should be driven on the road that actually exists in front of the vehicle in the traveling direction.
  • the display control processing unit 200 does not display all the recommended traveling lane information 101r, 102r, 103r, 104r that can be displayed in the projection area R of the front windshield 10, but rather the latest information in front of the vehicle in the traveling direction. Only one or a few recommended driving lane information may be displayed. Further, as the recommended traveling lane, for example, the optimum traveling lane may be set according to the shape, curvature, slope, type, etc. of the road existing in front of the vehicle in the traveling direction.
  • the recommended traveling lane information is included in the operation system content displayed in the projection area R of the front windshield 10. Therefore, the driver can easily recognize which driving lane in front of the vehicle in the traveling direction, and can provide the driver with more detailed driving support information.
  • the display control processing unit 200 of the HCU 20 displays the operation area content 108 in the projection area R of the front windshield 10.
  • the operation area content 108 is an operation-type content indicating accelerator-on information, and its thickness differs depending on the portion.
  • the thickness of the operation area content 108 indicates the recommended operation amount of the accelerator pedal, that is, the amount of depression. It is recommended that the thicker part increases the amount of depression of the accelerator pedal, and the thinner part indicates the amount of depression of the accelerator pedal. It is the content that recommends to make it smaller.
  • the driver can easily visually recognize how much the accelerator pedal should be depressed based on the thickness of the operation system content 108. Therefore, more detailed driving support information can be provided to the driver.
  • the display control processing unit 200 may make the thickness of the operation system content indicating the brake off information different according to the recommended operation amount of the brake pedal. Further, the display control processing unit 200 may make the size, color, darkness, etc. of the operation-related content different according to the recommended operation amount.
  • the operation system content 109 displayed in the projection area R of the front windshield 10 is actually displayed at a position where the vehicle has not yet reached. Therefore, when the vehicle actually reaches the operation timing or operation area indicated by the displayed operation content 109, the display control processing unit 200 of the HCU 20 actually positions the operation content 109 at the position indicated by the broken line. Occasionally, it is configured to perform a predetermined notification process.
  • the predetermined notification process is, for example, a process of notifying by voice that the vehicle has actually reached the operation timing or operation area indicated by the displayed operation content 109, or an operation timing or operation area indicated by the displayed operation content 109.
  • Various processes are applied, such as a process of lighting or blinking the entire projection area R of the shield 10 or a part of the edge portion, and a process of emitting light of the entire projection area R of the front window shield 10 or a part of the edge portion. can do. That is, if it is a process that can notify that the vehicle has actually arrived at the operation timing or the operation area indicated by the displayed operation content 109 and does not hinder the safe driving of the vehicle, various processes can be performed. Can be applied.
  • the driver can operate the vehicle at a more accurate timing by notifying that the vehicle has actually reached the operation timing or the operation area indicated by the displayed operation system content 109. .. Therefore, the operation of the vehicle by the driver can be further optimized.
  • the display control processing unit 200 of the HCU 20 displays the fuel consumption information content 120 in the projection area R of the front windshield 10.
  • the fuel consumption information content 120 is content indicating information on the fuel consumption of the vehicle, and in this case, it is displayed at the end of the projection area R as non-superimposed content.
  • the fuel consumption information content 120 is calculated based on the current fuel consumption information 120a indicating the fuel consumption calculated based on the running condition of the vehicle this time, the past fuel consumption information 120b indicating the fuel consumption calculated based on the running condition of the past vehicle, and the performance of the vehicle.
  • the content is displayed in the form of comparing the spec fuel consumption information 120c indicating the fuel consumption.
  • the past fuel consumption information 120b may indicate the fuel consumption calculated based on the previous running condition of the vehicle, or the best fuel consumption or the worst fuel consumption among the fuel consumption calculated based on the running condition of the past vehicle. It may be shown, or it may be shown, such as an average value or a median value of fuel consumption calculated based on the past running conditions of the vehicle.
  • the spec fuel consumption information 120c may be presented in advance by, for example, a vehicle manufacturer or a dealer, or may be calculated by the display control processing unit 200 based on various information of the vehicle. ..
  • information on the fuel efficiency of the vehicle can also be provided to the driver, and the driver can be encouraged to operate with good fuel efficiency.
  • the display unit is not limited to the HUD 230, and for example, the display panel of the navigation device mounted on the vehicle, the meter system display unit that displays the meter system information such as the traveling speed of the vehicle and the rotation speed of the engine, and the like. May be different display units.
  • control unit and its method described in the present disclosure are provided by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. , May be realized.
  • the controls and methods thereof described in the present disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the control unit and method thereof described in the present disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

Abstract

車両用表示制御装置20は、表示部23と、車両の操作タイミングを示すコンテンツを前記表示部に表示するコンテンツ表示処理を実行する表示制御部200と、を備える。

Description

車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム 関連出願の相互参照
 本出願は、2019年3月18日に出願された日本出願番号2019-050304号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムに関する。
 車両に搭載されるプロセッサは、各種の情報に基づき車両の動作を制御するようになっている。例えば、特許文献1には、車両に搭載されるプロセッサが、アクセルオフ情報やブレーキオン情報に基づき回生制動を行うか否かを判断することが開示されている。この特許文献1において、アクセルオフ情報は、ドライバによるアクセルペダルの操作量が所定の閾値よりも小さくなったことを示す情報として定義され、ブレーキオン情報は、ドライバによるブレーキペダルの操作量が所定の閾値よりも大きくなったことを示す情報として定義されている。
米国特許出願公開第2018/0043896号明細書
 特許文献1に開示されている通り、車両においては、ドライバによる例えばアクセルペダルやブレーキペダルなどの操作状態に応じて、プロセッサが各種の動作を制御するようになっている。そのため、ドライバによる操作が最適化されるほど、プロセッサによる制御も最適化されるようになり、ひいては、車両の走行そのものの最適化を実現することが可能となる。
 そこで、本開示は、ドライバによる車両の操作について一層の最適化を図ることができるようにした車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラムを提供する。
 本開示の一態様において、車両用表示制御装置は、表示部と、車両の操作タイミングを示すコンテンツを前記表示部に表示するコンテンツ表示処理を実行する表示制御部と、を備える。
 本開示の一態様において、車両用表示制御方法は、車両の操作タイミングを示すコンテンツを表示部に表示するコンテンツ表示処理、を含む。
 本開示の一態様において、車両用表示制御プログラムは、車両の操作タイミングを示すコンテンツを表示部に表示するコンテンツ表示処理、をコンピュータに実行させる。
 本開示によれば、ドライバは、表示部に表示されるコンテンツが示す操作タイミングに基づき車両を操作することにより、より最適なタイミングで車両を動作させることができる。これにより、ドライバによる車両の操作について一層の最適化を図ることができ、ひいては、車両の走行そのものの最適化を実現することが可能となる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、本開示に係る車両用システムの構成例を概略的に示す図であり、 図2は、本開示に係るヘッドアップディスプレイの車両への搭載例を概略的に示す図であり、 図3は、本開示に係る車両用表示制御装置の制御系の構成例を概略的に示す図であり、 図4は、第1実施形態に係るコンテンツの投影例を概略的に示す図であり、 図5は、第1実施形態に係る車両用表示制御装置の動作例を概略的に示すフローチャートであり、 図6は、第2実施形態に係るコンテンツの投影例を概略的に示す図(その1)であり、 図7は、第2実施形態に係るコンテンツの投影例を概略的に示す図(その2)であり、 図8は、第3実施形態に係るコンテンツの投影例を概略的に示す図であり、 図9は、第4実施形態に係るコンテンツの投影例を概略的に示す図であり、 図10は、第5実施形態に係るコンテンツの投影例を概略的に示す図であり、 図11は、第6実施形態に係るコンテンツの投影例を概略的に示す図である。
 以下、本開示に係る複数の実施形態について図面を参照しながら説明する。なお、複数の実施形態において実質的に同一の要素には同一の符号を付し、その説明を省略する。
 (共通構成について)
 複数の実施形態の説明に入る前に、本開示に係る複数の実施形態において共通の基本構成例について説明する。図1に例示する車両用システム1は、例えば道路上を走行する車両などの移動体に用いられるものであり、HMIシステム2(HMI:Human Machine Interface)、ADASロケータ3(ADAS:Advanced Driver Assistance Systems)、周辺監視センサ4、車両制御ECU5(ECU:Electronic Control Unit)、運転支援ECU6(ECU:Electronic Control Unit)などを備えている。HMIシステム2、ADASロケータ3、周辺監視センサ4、車両制御ECU5、運転支援ECU6は、例えば、車両に搭載されている車内LAN(LAN:Local Area Network)にそれぞれ接続されている。
 ADASロケータ3は、GNSS受信機30(GNSS:Global Navigation Satellite System)、慣性センサ31、地図データベース32などを備えている。以下、地図データベース32を地図DB32と称する。GNSS受信機30は、複数の人工衛星から測位信号を受信する。慣性センサ31は、例えばジャイロセンサや加速度センサなどを備えている。ADASロケータ3は、GNSS受信機30により受信する測位信号と、慣性センサ31によるセンシング結果とを組み合わせることにより、車両用システム1が搭載されている自車両の車両位置を逐次測位する。そして、ADASロケータ3は、測位した車両位置を車内LANを介して出力する。この場合、車両位置は、緯度および経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。
 地図DB32は、例えば不揮発性メモリーなどで構成されており、リンクデータ、ノードデータ、道路形状データなどの各種のデータを含む地図データを格納している。リンクデータは、地図上の道路を構成するリンクを特定するリンク識別データ、リンクの長さを示すリンク長データ、リンクの方位を示すリンク方位データ、リンクの走行に要する時間を示すリンク走行時間データ、リンクの始点および終点を構成するノードの座標を示すノード座標データ、道路の属性を示すリンク属性データなどの各種のデータを含む。ノードデータは、地図上に存在するノードを特定するノード識別データ、ノードの座標を示すノード座標データ、ノードの名称を示すノード名称データ、例えば交差点などのノードの種別を示すノード種別データ、ノードに接続するリンクを特定する接続リンクデータなどの各種のデータを含む。道路形状データは、地図上に存在する道路の形状を示すデータである。道路形状データには、道路の高度、道路の横断勾配、道路の縦断勾配などを示すデータが含まれている。
 なお、地図データは、例えば車両に搭載されている通信モジュールなどを介して、自車両の外部から取得するようにしてもよい。また、地図データとして、道路形状の特徴点や地図上に存在する構造物の特徴点などの点群を含む三次元地図データを用いてもよい。また、三次元地図データを用いる場合、ADASロケータ3は、この三次元地図データや、点群を検出するLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)などによるセンシング結果などを用いて自車両の車両位置を特定する構成としてもよい。
 周辺監視センサ4は、自車両の周辺環境を監視するセンサであり、この場合、自律的に動作する自律センサとして備えられている。周辺監視センサ4は、例えば、歩行者などの人間、人間以外の動物、自車両以外の車両などの自車両の周辺で移動する動的物標や、例えば、道路上に存在する落下物、道路の周辺に存在するガードレール、縁石、樹木などの自車両の周辺で静止している静的物標など、自車両の周辺に存在する対象物を検出する。また、周辺監視センサ4は、自車両の周辺の道路に設けられている走行区画線、一時停止線、横断歩道、例えば「止まれ」などと表記された指示標示などの路面標示を検出可能である。そして、周辺監視センサ4は、得られるセンシングデータを車内LANに逐次出力する。周辺監視センサ4は、例えば、自車両周辺の所定範囲を撮像する周辺監視カメラ、自車両周辺の所定範囲に探査波を出力するミリ波レーダ、ソナー、LIDARなどの探査波センサなどで構成される。
 探査波センサは、対象物によって反射された反射波を受信することにより得られる受信信号に基づく走査結果を、センシングデータとして車内LANに逐次出力する。より詳細に説明すると、探査波センサは、探査波を送信してから、対象物で反射される反射波を受信するまでの時間に基づいて、探査波センサから対象物までの距離を測定する。また、探査波センサは、反射波を受信する際の角度に基づいて、探査波センサに対する対象物の方位を測定する。なお、方位は、例えば方位角で表すことができ、例えば自車両の正面方向を基準として時計回りを正の方位角、反時計回りを負の方位角として表すことができる。
 この場合、周辺監視センサ4は、少なくとも、自車両の前方の所定範囲を撮像範囲とする前方カメラ41と、自車両の前方の所定範囲を探査範囲とするミリ波レーダ42と、を備えた構成となっている。前方カメラ41は、例えば、自車両のルームミラーや、インストルメントパネルの上面などに設けるとよい。また、ミリ波レーダ42は、例えば、自車両のフロントグリルや、フロントバンパーなどに設けるとよい。ミリ波レーダ42は、ミリ波または準ミリ波を自車両の前方のセンシング範囲に走査しながら送信し、対象物によって反射された反射波を受信することで、ミリ波レーダ42に対する対象物までの距離および方位を測定する。前方カメラ41によるセンシング範囲およびミリ波レーダ42によるセンシング範囲は、一致させるようにしてもよいし、一致させないようにしてもよい。また、前方カメラ41によるセンシング範囲とミリ波レーダ42によるセンシング範囲は、少なくとも一部が重なっていてもよいし、重なっていなくてもよい。また、自車両の異なる箇所に、複数の周辺監視センサ4を備えるようにしてもよい。
 車両制御ECU5は、例えば、自車両の加速および減速の制御、操舵の制御、制動の制御などを行うための電子制御ユニットである。車両制御ECU5は、自車両の加速および減速の制御を行うパワーユニット制御ECU、自車両の操舵の制御を行う操舵制御ECU、自車両の制動を制御するブレーキ制御ECUなどを含む。車両制御ECU5は、自車両に搭載されているアクセルポジションセンサ、ブレーキ踏力センサ、舵角センサ、車輪速センサなどの各種のセンサから出力される検出信号に基づき、例えば、電子制御スロットル、ブレーキアクチュエータ、EPSモータ(EPS:Electric Power Steering)などの各種の走行制御系のデバイスに制御信号を出力する。また、車両制御ECU5は、各種のセンサから得られる検出信号を車内LANに出力可能である。
 運転支援ECU6は、例えば、車両制御ECU5と協働することにより、ドライバによる運転操作を支援する。運転支援ECU6による支援には、自車両の走行を自動で制御する自動運転機能も含まれる。運転支援ECU6は、ADASロケータ3から取得する自車両の車両位置、地図DB32に格納されている地図データ、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の走行環境を認識する。より詳細に説明すると、運転支援ECU6は、例えば、周辺監視センサ4から取得するセンシングデータなどに基づいて、自車両の周辺に存在する物体の位置、形状、移動状態などを認識したり、自車両の周辺に存在する路面標示の位置、大きさ、内容などを認識したりすることが可能である。そして、運転支援ECU6は、このように認識される情報と、地図データや自車両の車両位置などの情報を組み合わせることにより、自車両の周辺の実際の走行環境を三次元で再現した仮想空間を生成することが可能である。
 また、運転支援ECU6は、認識した走行環境に基づき、自動運転機能によって自車両を自動走行させるための走行計画を生成する。走行計画としては、長中期の走行計画や、短期の走行計画を生成することができる。短期の走行計画では、生成した自車両周辺の仮想空間を用いて、例えば、先行車との目標車間距離を維持するための加減速制御、車線追従や車線変更のための操舵制御、衝突回避のための制動制御などが決定される。長中期の走行計画では、自車両を目的地に到達させるための推奨経路や走行スケジュールなどが決定される。なお、運転支援ECU6は、短期の走行計画および長中期の走行計画のうち何れか一方、例えば、短期の走行計画のみを生成するようにしてもよい。
 運転支援ECU6により実行される自動運転機能の一例としては、例えば、駆動力および制動力を調整することにより先行車との目標車間距離を維持するように自車両の走行速度を制御するACC機能(ACC:Adaptive Cruise Control)がある。また、自車両の前方のセンシング結果に基づき制動力を発生させることにより自車両を強制的に減速させるAEB機能(AEB:Autonomous Emergency Braking)がある。なお、ACC機能やAEB機能は、あくまでも一例であり、運転支援ECU6は、その他の機能を備える構成としてもよい。
 HMIシステム2は、HCU20(Human Machine Interface Control Unit)、操作デバイス21、DSM22(Driver Status Monitor)、表示装置23などを備えている。HMIシステム2は、自車両のユーザであるドライバによる入力操作を受け付けたり、自車両のドライバに向けて各種の情報を提示したりする。操作デバイス21は、自車両のドライバにより操作される各種のスイッチ類を含んでいる。操作デバイス21は、各種の設定などを行うために用いられる。具体的には、操作デバイス21は、自車両のステアリングのスポーク部に設けられているステアリングスイッチなどで構成されている。また、操作デバイス21は、車両の運転席に設けられているアクセルペダル、ブレーキペダルなどを含む。操作デバイス21に含まれるアクセルペダル、ブレーキペダルなどは、ドライバによって操作されるものであって、車両に操作を入力するための操作入力部の一例である。
 DSM22は、例えば、近赤外光を発生する光源、近赤外光を検知する近赤外光カメラ、これらを制御する制御ユニットなどを含んでいる。DSM22は、例えば、ステアリングコラムカバーやインストルメントパネルの上面などにおいて、近赤外光カメラを自車両の運転席に指向させた状態で配置されている。DSM22は、近赤外光の光源から近赤外光が照射されたドライバの頭部を近赤外光カメラによって撮像する。そして、近赤外光カメラによる撮像画像は、図示しない制御ユニットによって画像解析される。この制御ユニットは、例えば、ドライバの目を撮像画像から抽出し、自車両の車室内に設定されている基準位置に対するドライバの目の位置を視点位置として検出する。なお、基準位置は、例えば、近赤外光カメラの設置位置を設定することができる。そして、DSM22は、検出したドライバの視点位置を表す情報をHCU20に出力する。また、制御ユニットは、近赤外光カメラによる撮像画像を画像解析することにより、ドライバの目線、つまり、ドライバの目がどの方向に向かっているのかを特定あるいは推測することが可能である。そして、DSM22は、特定あるいは推測されたドライバの目線の方向を表す目線情報をHCU20に出力する。
 表示装置23は、表示部の一例であり、この場合、ヘッドアップディスプレイ230(HUD:Head Up Display)として構成されている。以下、ヘッドアップディスプレイ230を、HUD230と称する。図2に例示するように、HUD230は、例えば、自車両のインストルメントパネル12に設けられている。HUD230は、例えば、液晶式または走査式などのプロジェクタ231により、HCU20から出力される画像データに基づく表示画像を形成する。表示画像としては、例えば、車両の経路案内に関連する情報を表す画像などである。
 HUD230は、プロジェクタ231によって形成される表示画像を、例えば凹面鏡などを有する光学系232を介して、投影部の一例であるフロントウインドシールド10に投影する。フロントウインドシールド10には、投影領域Rが設けられており、プロジェクタ231によって形成される表示画像は、この投影領域R内に投影される。投影領域Rは、運転席の前方、特には、運転席に着座したドライバの前方に位置するように設けられている。
 フロントウインドシールド10に投影された表示画像の光束は、運転席に着座しているドライバによって知覚つまり視認される。また、フロントウインドシールド10は、例えば、透光性のガラス材などによって構成されており、自車両の前方に存在する風景つまり前景の光束も、運転席に着座しているドライバによって知覚つまり視認される。これにより、ドライバは、フロントウインドシールド10の前方にて結像される表示画像の虚像を、虚像コンテンツ100として前景の一部に重畳させた状態で視認可能となる。つまり、HUD230は、自車両の前景に虚像コンテンツ100を重畳表示することにより、いわゆるAR表示(AR:Augmented Reality)を実現する。虚像コンテンツ100は、少なくとも、自車両の走行支援に関連する情報、即ち、走行支援関連情報を視覚的に表すコンテンツである。走行支援関連情報としては、例えば、案内経路における自車両の進行方向などを示す経路案内関連情報、自車両を自動運転制御する場合における進路などを示す自動運転関連情報、自車両が走行するレーンを示すレーン情報、自車両の進行方向前方に存在するカーブを通知するカーブ通知情報、自車両の進行方向前方に歩行者が存在することを伝える歩行者情報、自車両の進行方向前方に停止線が存在することを伝える停止線情報など、自車両の走行支援に有用な情報であれば種々の情報を適用することができる。そして、例えば、歩行者情報を表す虚像コンテンツ100として、重畳コンテンツは、自車両の進行方向前方の交差点や路面上に存在する歩行者または歩行者周辺に重畳表示されるコンテンツであり、非重畳コンテンツは、自車両の進行方向前方の交差点や路面の構成を示す鳥瞰画像内に、歩行者の位置を示すようにしたアイコンなどのコンテンツである。
 また、虚像コンテンツ100には、車両を操作する操作タイミングを示す情報、即ち、操作タイミング情報を表すコンテンツ、車両を操作する操作領域を示す情報、即ち、操作領域情報を表すコンテンツも含まれる。以下、操作タイミング情報を表すコンテンツを操作タイミングコンテンツと称し、操作領域情報を表すコンテンツを操作領域コンテンツと称する。操作タイミング情報としては、例えば、車両の進行方向前方の道路上においてアクセルペダルを操作するタイミングを示すアクセルオン情報、アクセルペダルを放すタイミングを示すアクセルオフ情報、ブレーキペダルを操作するタイミングを示すブレーキオン情報、ブレーキペダルを放すタイミングを示すブレーキオフ情報など、車両の操作に関連するタイミングを示す情報であれば種々の情報を適用することができる。また、操作領域情報としては、例えば、車両の進行方向前方の道路上においてアクセルペダルを操作する領域、換言すれば、走行区間を示すアクセルオン情報、ブレーキペダルを操作する領域、換言すれば、走行区間を示すブレーキオン情報など、車両の操作に関連する走行領域を示す情報であれば種々の情報を適用することができる。また、操作タイミングコンテンツおよび操作領域コンテンツは、重畳コンテンツとして投影部に表示することも可能であるし、非重畳コンテンツとして投影部に表示することも可能である。
 なお、HUD230が虚像コンテンツ100を投影する投影部は、フロントウインドシールド10に限られず、例えば、透光性のコンバイナなどで構成してもよい。また、表示装置23は、例えば、コンビネーションメータ、CID(Center Information Display)などで構成してもよい。
 HCU20は、例えば、プロセッサ、揮発性メモリー、不揮発性メモリー、入出力回路、これらを接続するバスなどを備えるマイクロコンピュータを主体として構成されている。HCU20は、HUD230や車内LANに接続されている。HCU20は、本開示に係る車両用表示制御装置の一例であり、例えば不揮発性メモリーなどの記憶媒体に格納されている制御プログラムを実行することにより、HUD230による表示などを制御する。この制御プログラムには、本開示に係る車両用表示制御プログラムが含まれている。また、HCU20は、制御プログラムを実行することにより、本開示に係る車両用表示制御方法を行う。なお、メモリーは、例えば、コンピュータによって読み取り可能なプログラムやデータを非一時的に格納する非遷移的実体的記憶媒体(Non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、例えば、半導体メモリーや磁気ディスクなどによって実現することができる。
 次に、HUD230による表示の制御に関するHCU20の構成例について、さらに詳細に説明する。図3に例示するように、HCU20は、車両用表示制御プログラムを実行することにより、表示制御処理部200をソフトウェアにより仮想的に実現する。なお、HCU20は、表示制御処理部200をハードウェアにより構成してもよいし、ソフトウェアとハードウェアの組み合わせにより構成してもよい。表示制御処理部200は、重畳コンテンツ投影部51、非重畳コンテンツ投影部52、操作系コンテンツ投影部53を含む。
 重畳コンテンツ投影部51は、重畳コンテンツ投影処理を実行する。重畳コンテンツ投影処理は、虚像コンテンツ100の一例である重畳コンテンツを、自車両の前景に含まれる対象に重畳させるようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、重畳コンテンツは、自車両の前景に含まれる対象に積極的に張り付けるようにして投影される虚像コンテンツ100であり、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100、例えば、後述する非重畳コンテンツが偶発的に自車両の前景に含まれる対象に重畳する位置に投影される場合における当該非重畳コンテンツなどとは異なるものである。具体的には、重畳コンテンツは、自車両の前景に含まれる対象、例えば、道路に沿うようにして投影される虚像コンテンツ100、ドライバから見てフロントウインドシールド10の奥行き方向、つまり、自車両の進行方向前方に向かって延びる虚像コンテンツ100、自車両の前景に含まれる対象、例えば、自車両の進行方向前方に実際に存在する停止線などに重畳して投影された状態が自車両の移動に関わらず維持される虚像コンテンツ100、ドライバの視点位置と、自車両の前方における実際の実景と、投影領域R内における投影位置との位置関係が所定の関係に維持される虚像コンテンツ100、などである。
 非重畳コンテンツ投影部52は、非重畳コンテンツ投影処理を実行する。非重畳コンテンツ投影処理は、虚像コンテンツ100の一例である非重畳コンテンツを、自車両の前景に含まれる対象に重畳させないようにしてフロントウインドシールド10の投影領域R内に投影する処理である。なお、非重畳コンテンツは、自車両の前景に含まれる対象に積極的に張り付けるようにして投影されない虚像コンテンツ100であるが、偶発的に、自車両の前景に含まれる対象に重畳した状態で投影され場合も有り得る虚像コンテンツ100である。
 操作系コンテンツ投影部53は、操作系コンテンツ投影処理を実行する。操作系コンテンツ投影処理は、コンテンツ表示処理の一例であり、操作系コンテンツ、例えば、上述した操作タイミングコンテンツや操作領域コンテンツなどをフロントウインドシールド10の投影領域R内に投影する処理である。操作系コンテンツ投影部53は、操作系コンテンツを、重畳コンテンツとしても投影可能であり、非重畳コンテンツとしても投影可能である。ここで、操作系コンテンツ投影部53は、重畳コンテンツ投影部51と協働することにより操作系コンテンツを重畳コンテンツとして投影するようにしてもよいし、操作系コンテンツ投影部53単独で操作系コンテンツを重畳コンテンツとして投影するようにしてもよい。また、操作系コンテンツ投影部53は、非重畳コンテンツ投影部52と協働することにより操作系コンテンツを非重畳コンテンツとして投影するようにしてもよいし、操作系コンテンツ投影部53単独で操作系コンテンツを非重畳コンテンツとして投影するようにしてもよい。
 次に、HCU20による虚像コンテンツ100の表示形態、特に、操作系コンテンツの表示形態の具体例について説明する。
 図4に例示する表示形態例によれば、HCU20の表示制御処理部200は、フロントウインドシールド10の投影領域R内に、操作タイミングコンテンツ101,102,103,104を表示している。操作タイミングコンテンツ101は、アクセルオン情報を表す操作系コンテンツであり、車両の進行方向前方に存在する道路上においてアクセルペダルを操作、この場合、踏み込むタイミングを示すコンテンツとなっている。また、操作タイミングコンテンツ102は、アクセルオフ情報を表す操作系コンテンツであり、車両の進行方向前方に存在する道路上においてアクセルペダルを操作、この場合、放すタイミングを示すコンテンツとなっている。また、操作タイミングコンテンツ103は、ブレーキオン情報を表す操作系コンテンツであり、車両の進行方向前方に存在する道路上においてブレーキペダルを操作、この場合、踏み込むタイミングを示すコンテンツとなっている。また、操作タイミングコンテンツ104は、ブレーキオフ情報を表す操作系コンテンツであり、車両の進行方向前方に存在する道路上においてブレーキペダルを操作、この場合、放すタイミングを示すコンテンツとなっている。
 この場合、表示制御処理部200は、複数種類の操作タイミングコンテンツ101,102,103,104を、何れも重畳コンテンツとして表示している。即ち、表示制御処理部200は、車両の進行方向前方に実際に存在する道路上に重畳させるようにして、複数種類の操作タイミングコンテンツ101,102,103,104を表示している。よって、ドライバは、車両の進行方向前方に実際に存在する道路上において、どの地点でアクセルペダルやブレーキペダルを踏み込めばよいのか、あるいは、放せばよいのかのタイミングを、視覚的に容易に認識することができる。
 また、表示制御処理部200は、複数種類の操作タイミングコンテンツ101,102,103,104を、共通の形状、この場合、何れも線状のコンテンツとして表示するようになっている。なお、表示制御処理部200は、複数種類の操作タイミングコンテンツ101,102,103,104を、それぞれ異なる形状により表示するようにしてもよい。
 また、表示制御処理部200は、複数種類の操作タイミングコンテンツ101,102,103,104を、それぞれ異なる色により表示するようになっている。この場合、表示制御処理部200は、アクセルオン情報を示す操作タイミングコンテンツ101を青色、アクセルオフ情報を示す操作タイミングコンテンツ102を黄色、ブレーキオン情報を示す操作タイミングコンテンツ103を赤色、ブレーキオフ情報を示す操作タイミングコンテンツ104を紫色で表示するようになっている。なお、複数種類の操作タイミングコンテンツ101,102,103,104の表示色は、適宜変更して設定することができる。また、表示制御処理部200は、複数種類の操作タイミングコンテンツ101,102,103,104の表示色を共通としてもよい。また、表示制御処理部200は、複数種類の操作タイミングコンテンツ101,102,103,104について、その表示態様、例えば、大きさ、太さ、色の濃さなどを適宜異ならせるようにしてもよいし、共通としてもよい。また、表示制御処理部200は、操作タイミングコンテンツ101,102,103,104を光らせる、点灯させる、点滅させるなどといった表示態様とすることも可能である。
 また、表示制御処理部200は、フロントウインドシールド10の投影領域R内に、操作領域コンテンツ105,106を表示している。操作領域コンテンツ105は、アクセルオン情報を表す操作系コンテンツであり、車両の進行方向前方に存在する道路上においてアクセルペダルを操作、この場合、踏み込む領域、換言すれば、走行区間を示すコンテンツとなっている。つまり、この場合、車両の進行方向前方に存在する道路上において操作タイミングコンテンツ101と操作タイミングコンテンツ102との間の領域に、操作領域コンテンツ105が重畳表示されている。操作領域コンテンツ106は、ブレーキオン情報を表す操作系コンテンツであり、車両の進行方向前方に存在する道路上においてブレーキペダルを操作、この場合、踏み込む領域、換言すれば、走行区間を示すコンテンツとなっている。つまり、この場合、車両の進行方向前方に存在する道路上において操作タイミングコンテンツ103と操作タイミングコンテンツ104との間の領域に、操作領域コンテンツ106が重畳表示されている。
 この場合、表示制御処理部200は、複数種類の操作領域コンテンツ105,106を、何れも重畳コンテンツとして表示している。即ち、表示制御処理部200は、車両の進行方向前方に実際に存在する道路上に重畳させるようにして、複数種類の操作領域コンテンツ105,106を表示している。よって、ドライバは、車両の進行方向前方に実際に存在する道路上において、どの領域でアクセルペダルやブレーキペダルを踏み込めばよいのかのタイミングを、視覚的に容易に認識することができる。
 また、表示制御処理部200は、複数種類の操作領域コンテンツ105,106を、共通の形状、この場合、何れも帯状のコンテンツとして表示するようになっている。なお、表示制御処理部200は、複数種類の操作領域コンテンツ105,106を、それぞれ異なる形状により表示するようにしてもよい。
 また、表示制御処理部200は、複数種類の操作領域コンテンツ105,106を、それぞれ異なる色により表示するようになっている。この場合、表示制御処理部200は、アクセルオン情報を示す操作領域コンテンツ105を青色、ブレーキオン情報を示す操作領域コンテンツ106を赤色で表示するようになっている。なお、複数種類の操作領域コンテンツ105,106の表示色は、適宜変更して設定することができる。また、表示制御処理部200は、複数種類の操作領域コンテンツ105,106の表示色を共通としてもよい。また、表示制御処理部200は、複数種類の操作領域コンテンツ105,106について、その表示態様、例えば、大きさ、太さ、色の濃さなどを適宜異ならせるようにしてもよいし、共通としてもよい。また、表示制御処理部200は、操作領域コンテンツ105,106を光らせる、点灯させる、点滅させるなどといった表示態様とすることも可能である。
 また、表示制御処理部200は、フロントウインドシールド10の投影領域R内に、意義コンテンツ110を表示している。意義コンテンツ110は、意義情報を表すコンテンツである。意義情報は、フロントウインドシールド10の投影領域R内に表示されている操作系コンテンツが示す意義、即ち、操作タイミングコンテンツが示す操作タイミングの意義や操作領域コンテンツが示す操作領域の意義を示す情報である。この場合、意義コンテンツ110は、車両の進行方向前方に、複数のカーブを含む山道WRが存在することを示す情報となっている。よって、この意義コンテンツ110は、例えば上述のように表示される複数種類の操作タイミングコンテンツ101,102,103,104が示す各種の操作タイミングや複数種類の操作領域コンテンツ105,106が示す各種の操作領域が、山道WRを走行することを見越した上で設定された操作タイミングや操作領域であることを間接的に示す情報となっている。なお、意義コンテンツ110は、例えば「山道に適した操作タイミングや操作領域を表示しています。」などといった文字情報や音声情報などのように、操作系コンテンツが示す操作タイミングや操作領域の意義を直接的に示す情報であってもよい。
 この場合、表示制御処理部200は、意義コンテンツ110を、非重畳コンテンツとして表示している。即ち、表示制御処理部200は、この場合、フロントウインドシールド10の投影領域R内の角部に意義コンテンツ110を表示することによって、車両の進行方向前方に実際に存在する道路上に重畳させないようにして意義コンテンツ110を表示するようにしている。このように、車両の進行方向前方に実際に存在する道路に対し非重畳状態で表示される意義コンテンツ110は、車両に対し操作を入力するタイミングや領域を示す情報としてではなく、このような情報を示す操作タイミングコンテンツや操作領域コンテンツを補完あるいは補強する情報としてドライバに提供されるコンテンツとなっている。
 なお、意義コンテンツ110は、車両の進行方向前方に山道WRが存在することを示す情報に限られず、例えば、車両の進行方向前方に、坂道が存在していることを示す情報、渋滞が発生していることを示す情報、今後の天気を示す情報など、種々の情報を適用することができる。また、意義コンテンツ110は、各種の情報をアイコンなどによって間接的に示すコンテンツであってもよいし、例えば文字情報などの直接的に示すコンテンツであってもよい。また、意義コンテンツ110は、表示による視覚的な情報であってもよいし、音声による聴覚的な情報であってもよい。また、投影領域R内における意義コンテンツ110の表示位置は、適宜変更して設定することができるが、車両の進行方向前方に存在する道路上に重畳しない位置とすることが好ましい。
 次に、本開示に係るHCU20による動作例について説明する。図5に例示するように、HCU20の表示制御処理部200は、例えば、車両の走行が開始されると、操作系コンテンツ投影処理の実行を開始する(A1)。これにより、フロントウインドシールド10の投影領域R内に各種の操作系コンテンツが表示されるようになる。なお、操作系コンテンツ投影処理の開始条件は、車両の走行が開始されることに限られず、例えば、表示装置23がオンされたこと、ドライバによって操作系コンテンツ投影処理の実行開始が入力されたことなど、種々の条件を設定することができる。
 表示制御処理部200は、操作系コンテンツ投影処理の実行を開始すると、表示した操作系コンテンツが示す操作タイミングあるいは操作領域に車両が到達したときにおいて、当該操作系コンテンツが示す操作内容が実際に操作されたか否かを監視する(A2)。
 表示制御処理部200は、表示した操作系コンテンツが示す操作タイミングあるいは操作領域に車両が到達したときにおいて、当該操作系コンテンツが示す操作内容が実際に操作された場合(A2:YES)には、ステップA1に移行して操作系コンテンツ投影処理を継続する。このとき、表示制御処理部200は、車両の進行に伴い、操作系コンテンツを再設定しながら操作系コンテンツ投影処理を継続する。これにより、フロントウインドシールド10の投影領域R内には、車両の走行状況に応じた操作系コンテンツが適宜表示されるようになる。
 表示制御処理部200は、表示した操作系コンテンツが示す操作タイミングあるいは操作領域に車両が到達したときにおいて、当該操作系コンテンツが示す操作内容が実際に操作されなかった場合(A2:NO)には、非操作カウンタを1だけカウントアップする(A3)。そして、表示制御処理部200は、非操作カウンタの値が所定値を超えたか否かを確認する(A4)。なお、この所定値は、適宜変更して設定することができ、この場合、例えば「3」が設定されている。
 表示制御処理部200は、非操作カウンタの値が所定値を超えていない場合(A4:NO)には、ステップA2において否定判定をしてから所定時間が経過したか否かを監視する(A5)。なお、この所定時間は、適宜変更して設定することができる。そして、表示制御処理部200は、所定時間が経過すると(A5:YES)、再設定処理を実行する(A6)。この再設定処理では、表示制御処理部200は、その時点における車両の走行状況、例えば、走行位置、走行速度、車両の進行方向前方に存在する道路の形状、勾配、種類、車両周辺の天気状況などの各種の情報に応じて、表示すべき操作系コンテンツを再設定する。そして、表示制御処理部200は、ステップA1に移行して、再設定処理により得られた操作系コンテンツをフロントウインドシールド10の投影領域R内に表示する。
 表示制御処理部200は、非操作カウンタの値が所定値を超えた場合(A4:YES)には、操作系コンテンツ投影処理の実行を停止する(A7)。そして、表示制御処理部200は、この制御を終了する。なお、表示制御処理部200は、操作系コンテンツ投影処理の実行を停止したことを、例えば表示や音声によって報知するようにしてもよい。また、表示制御処理部200は、所定の終了条件が満たされた場合にも、この制御を終了するようになっている。所定の終了条件としては、例えば、車両のイグニッションスイッチがオフされたこと、車両の経路案内が終了したこと、表示装置23がオフされたこと、ドライバによって操作系コンテンツ投影処理の実行終了が入力されたことなど、種々の条件を設定することができる。
 以上に例示した実施形態によれば、ドライバは、フロントウインドシールド10の投影領域R内に表示される操作系コンテンツが示す操作タイミングや操作領域に基づき車両を操作することにより、より最適なタイミングで車両を動作させることができる。これにより、ドライバによる車両の操作について一層の最適化を図ることができ、ひいては、車両の走行そのものの最適化を実現することが可能となる。
 また、表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった場合には、以降の操作タイミングや操作領域を再設定する再設定処理を実行し、その再設定処理により得られる操作タイミングや操作領域を示す操作系コンテンツを表示する。即ち、フロントウインドシールド10の投影領域R内に表示される複数の操作系コンテンツが示す操作のうち1つでも実行されなかった場合には、その後に表示すべき最適な操作系コンテンツの内容にも変動が生じる。そのため、操作系コンテンツが示す操作が実行されなかった場合に、その後に表示する操作系コンテンツを再設定することによって、車両の実際の状況、つまり、操作系コンテンツが示す操作が実行されなかったことにより生じた実際の車両の状況に応じた最適な操作系コンテンツの表示を継続することができる。
 また、表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった場合には、所定時間経過後に再設定処理を実行する。つまり、操作系コンテンツが示す操作が実行されなかった場合に、直ちに再設定処理を行うのではなく、ある程度の時間が経過してから再設定処理を行うようにすることで、車両の走行状況が安定した状態で操作系コンテンツを再設定することができ、より最適な操作系コンテンツを再設定して表示することができる。
 また、表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった場合には、操作系コンテンツ投影処理の実行を停止する。即ち、表示した操作系コンテンツが示す操作タイミングや操作領域がドライバの走行スタイルに合致しないものである場合には、その操作タイミングや操作領域において車両が操作されない可能性が高くなる。そのため、表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった場合に操作系コンテンツ投影処理の実行を停止するようにすることで、ドライバの走行スタイルに適していない操作系コンテンツの表示が継続してしまうことを回避することができる。
 また、表示制御処理部200は、表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった回数が所定値を超えたことを条件として、操作系コンテンツ投影処理の実行を停止するようにした。そのため、表示した操作系コンテンツが示す操作タイミングや操作領域においてドライバが偶発的に操作をしなかった場合に操作系コンテンツ投影処理の実行が停止されてしまうことを回避することができる。また、表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった回数が複数回となることを操作系コンテンツ投影処理の実行停止の条件とすることにより、ドライバが意図的に操作しないようにしている場合に限って操作系コンテンツ投影処理の実行を停止することができる。なお、操作系コンテンツ投影処理の実行停止は、表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった累積回数に基づいて行うようにしてもよいし、表示した操作系コンテンツが示す操作タイミングや操作領域において車両が操作されなかった回数が所定回数連続した場合に行うようにしてもよい。
 また、表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示した操作系コンテンツが示す操作タイミングや操作領域の意義を示す意義コンテンツ110も表示する。そのため、この意義コンテンツ110に基づき、操作系コンテンツが示す情報の意義をドライバに伝達しやすくすることができ、より詳細な情報をドライバに提供することができる。なお、表示制御処理部200は、意義コンテンツ110を表示する表示モードと、表示しない非表示モードとに切り換え可能に構成してもよい。
 (第2実施形態)
 図6に例示する表示形態例によれば、HCU20の表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示可能な複数の操作タイミングコンテンツ101,102,103,104のうちの一部、この場合、車両に近い操作タイミングコンテンツ101,102,103を重畳コンテンツとして表示している。そして、表示制御処理部200は、複数の操作タイミングコンテンツ101,102,103,104のうち車両から最も遠い操作タイミングコンテンツ104については、非重畳コンテンツとしてフロントウインドシールド10の投影領域R内に表示するようにしている。
 この場合、表示制御処理部200は、非重畳コンテンツとして表示する操作タイミングコンテンツ104の表示形態を、重畳コンテンツとして表示する他の操作タイミングコンテンツ101,102,103の表示形態とは異ならせている。具体的には、表示制御処理部200は、フロントウインドシールド10の投影領域Rの一辺部、この場合、車両の進行方向前方の道路が連なる一辺部に、操作タイミングコンテンツ104に対応するバー状の簡易コンテンツ104aを表示するようにしている。なお、表示制御処理部200は、簡易コンテンツ104aを、例えば、点灯、点滅、発光させるなどの態様により表示するようにしてもよい。
 この実施形態によれば、フロントウインドシールド10の投影領域R内に表示可能な複数の操作タイミングコンテンツ101,102,103,104のうち車両から最も遠い操作タイミングコンテンツ104については、車両の進行方向前方の道路上に重畳表示せず、その表示形態を変えて非重畳コンテンツとして表示する。即ち、車両から遠い操作系コンテンツは、その地点に車両が到達するまでに走行状況が変化して、示すべき情報の内容、例えば、表示する位置などが変動する可能性がある。そのため、車両から近い操作系コンテンツを重畳表示し、車両から遠い操作系コンテンツを重畳表示しないようにすることにより、ドライバに無用な情報を与えてしまうことを回避することができる。
 また、重畳表示しない操作系コンテンツについては、非重畳コンテンツ、この場合、バー状の簡易コンテンツ104aとして表示するようにした。そのため、操作タイミングコンテンツ101,102,103よりも先の道路上において、何らかの操作タイミングや操作領域が存在する可能性があることをドライバに予め伝達することができ、車両の走行に関する情報の存在を予告することができる。
 なお、図7に例示するように、表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示可能な複数の操作タイミングコンテンツ104ではなく、投影領域R外の道路上に表示されるべき操作系コンテンツ107について、その情報を簡易的に示す簡易コンテンツ107aを投影領域R内に表示、この場合、非重畳表示するようにしてもよい。
 (第3実施形態)
 図8に例示する表示形態例によれば、HCU20の表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示する操作タイミングコンテンツ101,102,103,104に、それぞれ推奨走行レーン情報101r,102r,103r,104rを付加している。推奨走行レーン情報101r,102r,103r,104rは、ドライバに走行を推奨する走行レーンを示す情報であり、この場合、三角形状のマークにより推奨レーンを指し示すコンテンツとなっている。
 この場合、表示制御処理部200は、複数の推奨走行レーン情報101r,102r,103r,104rを、何れも重畳コンテンツとして表示している。即ち、表示制御処理部200は、車両の進行方向前方に実際に存在する道路を構成する走行レーン上に重畳させるようにして、複数の推奨走行レーン情報101r,102r,103r,104rを表示している。よって、ドライバは、車両の進行方向前方に実際に存在する道路上において、どの走行レーンを走行すればよいのかを、視覚的に容易に認識することができる。
 なお、表示制御処理部200は、フロントウインドシールド10の投影領域R内に表示可能な全ての推奨走行レーン情報101r,102r,103r,104rを表示するのではなく、車両の進行方向前方において直近の1つ、あるいは、数個の推奨走行レーン情報のみを表示するようにしてもよい。また、推奨走行レーンは、例えば、車両の進行方向前方に存在する道路の形状、曲率、勾配、種類などに応じて最適な走行レーンを設定するようにするとよい。
 この実施形態によれば、フロントウインドシールド10の投影領域R内に表示される操作系コンテンツに推奨走行レーン情報が含まれている。そのため、ドライバは、車両の進行方向前方のどの走行レーンを走行すればよいのかを容易に認識することができ、より詳細な運転支援情報をドライバに提供することができる。
 (第4実施形態)
 図9に例示する表示形態例によれば、HCU20の表示制御処理部200は、フロントウインドシールド10の投影領域R内に操作領域コンテンツ108を表示している。操作領域コンテンツ108は、この場合、アクセルオン情報を示す操作系コンテンツであり、その太さが部位によって異なっている。操作領域コンテンツ108の太さは、推奨されるアクセルペダルの操作量、つまり、踏み込み量を示しており、太い部分ほどアクセルペダル踏み込み量を大きくすることを推奨し、細い部分ほどアクセルペダルの踏み込み量を小さくすることを推奨するコンテンツとなっている。
 この実施形態によれば、ドライバは、操作系コンテンツ108の太さに基づき、アクセルペダルをどの程度踏み込めばよいのかを、視覚的に容易に認識することができる。よって、より詳細な運転支援情報をドライバに提供することができる。なお、表示制御処理部200は、ブレーキオフ情報を示す操作系コンテンツについて、その太さを、推奨するブレーキペダルの操作量に応じて異ならせるようにしてもよい。また、表示制御処理部200は、推奨する操作量に応じて、操作系コンテンツの大きさ、色、濃さなどを異ならせるようにしてもよい。
 (第5実施形態)
 図10に例示するように、フロントウインドシールド10の投影領域R内に表示される操作系コンテンツ109は、実際には、まだ車両が到達していない位置上に表示されている。そのため、HCU20の表示制御処理部200は、表示した操作系コンテンツ109が示す操作タイミングや操作領域に車両が実際に到達したとき、この場合、破線で示す位置に実際に操作系コンテンツ109が位置したときに、所定の通知処理を実行するように構成されている。所定の通知処理は、例えば、表示した操作系コンテンツ109が示す操作タイミングや操作領域に車両が実際に到達したことを音声により通知する処理、表示した操作系コンテンツ109が示す操作タイミングや操作領域に車両が実際に到達するまでの時間を予測して音声により通知する処理、ステアリングや座席を振動させることにより通知する処理、フロントウインドシールド10の投影領域R内に文字情報を表示する処理、フロントウインドシールド10の投影領域Rの全体または縁部などの一部を点灯あるいは点滅させる処理、フロントウインドシールド10の投影領域Rの全体または縁部などの一部を発光させる処理など、種々の処理を適用することができる。即ち、表示した操作系コンテンツ109が示す操作タイミングや操作領域に車両が実際に到達したことを通知できる処理であって、車両の安全走行の観点から支障がない処理であれば、種々の処理を適用することができる。
 この実施形態によれば、表示した操作系コンテンツ109が示す操作タイミングや操作領域に車両が実際に到達したことが通知されることによって、ドライバは、より正確なタイミングで車両を操作することができる。従って、ドライバによる車両の操作について一層の最適化を図ることができる。
 (第6実施形態)
 図11に例示する表示形態例によれば、HCU20の表示制御処理部200は、フロントウインドシールド10の投影領域R内に燃費情報コンテンツ120を表示している。燃費情報コンテンツ120は、車両の燃費に関する情報を示すコンテンツであり、この場合、非重畳コンテンツとして投影領域Rの端部に表示されている。
 燃費情報コンテンツ120は、今回の車両の走行状況に基づき算出した燃費を示す今回燃費情報120a、過去の車両の走行状況に基づき算出した燃費を示す過去燃費情報120b、車両の性能に基づき算出された燃費を示すスペック燃費情報120cを比較する形態で表示するコンテンツとなっている。なお、過去燃費情報120bは、前回の車両の走行状況に基づき算出した燃費を示すものであってもよいし、過去の車両の走行状況に基づき算出した燃費のうち最良の燃費あるいは最悪の燃費を示すものであってもよいし、過去の車両の走行状況に基づき算出した燃費の平均値や中央値などを示すものであってもよい。また、スペック燃費情報120cは、例えば、車両のメーカやディーラなどによって予め提示されるものであってもよいし、表示制御処理部200が車両の各種情報に基づいて算出したものであってもよい。
 この実施形態によれば、車両の燃費に関する情報もドライバに提供することができ、ドライバに対し、燃費の良い操作を促すことができる。
 (その他の実施形態)
 なお、本開示は、上述した複数の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で適宜変更や拡張を行うことができる。例えば、上述した複数の実施形態を適宜組み合わせて実施することができる。また、フロントウインドシールド10に投影する虚像コンテンツ100の形状、大きさ、太さなどは、適宜変更して設定することができる。
 また、表示部は、HUD230に限られず、例えば、車両に搭載されるナビゲーション装置の表示パネル、車両の走行速度やエンジンの回転速度などのメータ系の情報を表示するメータ系表示部など、HUD230とは異なる表示部であってもよい。
 なお、本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (12)

  1.  表示部(23)と、
     車両の操作タイミングを示すコンテンツを前記表示部に表示するコンテンツ表示処理を実行する表示制御部(200)と、
    を備える車両用表示制御装置。
  2.  前記表示制御部は、前記表示部に表示した前記コンテンツが示す操作タイミングにおいて車両が操作されなかった場合には、以降の操作タイミングを再設定する再設定処理を実行し、その再設定処理により得られる操作タイミングを示す前記コンテンツを前記表示部に表示する請求項1に記載の車両用表示制御装置。
  3.  前記表示制御部は、前記表示部に表示した前記コンテンツが示す操作タイミングにおいて車両が操作されなかった場合には、所定時間経過後に前記再設定処理を実行する請求項2に記載の車両用表示制御装置。
  4.  前記表示制御部は、前記表示部に表示した前記コンテンツが示す操作タイミングにおいて車両が操作されなかった場合には、前記コンテンツ表示処理の実行を停止する請求項1に記載の車両用表示制御装置。
  5.  前記表示制御部は、前記表示部に表示した前記コンテンツが示す操作タイミングの意義を示す意義情報を前記表示部に表示する請求項1から4の何れか1項に記載の車両用表示制御装置。
  6.  前記表示制御部は、前記表示部に表示した前記コンテンツが示す操作タイミングに実際に到達したときに所定の通知処理を実行する請求項1から5の何れか1項に記載の車両用表示制御装置。
  7.  前記表示制御部は、前記表示部の表示領域内に表示可能な複数の前記コンテンツのうち一部の前記コンテンツを前記表示部に表示する請求項1から6の何れか1項に記載の車両用表示制御装置。
  8.  前記表示制御部は、前記表示部の表示領域内に表示可能な複数の前記コンテンツのうち一部の前記コンテンツを他の前記コンテンツと異なる表示形態により前記表示部に表示する請求項1から7の何れか1項に記載の車両用表示制御装置。
  9.  前記コンテンツは、推奨する走行レーンを示す推奨走行レーン情報を含む請求項1から8の何れか1項に記載の車両用表示制御装置。
  10.  ドライバにより操作されるものであって、車両に操作を入力する操作入力部を備え、
     前記コンテンツは、前記操作入力部の操作量を示す操作量情報を含む請求項1から9の何れか1項に記載の車両用表示制御装置。
  11.  車両の操作タイミングを示すコンテンツを表示部に表示するコンテンツ表示処理、
    を含む車両用表示制御方法。
  12.  車両の操作タイミングを示すコンテンツを表示部に表示するコンテンツ表示処理、
    をコンピュータに実行させる車両用表示制御プログラム。
     
PCT/JP2020/008677 2019-03-18 2020-03-02 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム WO2020189238A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080021896.5A CN113646201A (zh) 2019-03-18 2020-03-02 车辆用显示控制装置、车辆用显示控制方法、车辆用显示控制程序
US17/475,509 US20220004348A1 (en) 2019-03-18 2021-09-15 Vehicle display control device, vehicle display control method, and vehicle display control program product

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-050304 2019-03-18
JP2019050304A JP2020152161A (ja) 2019-03-18 2019-03-18 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/475,509 Continuation US20220004348A1 (en) 2019-03-18 2021-09-15 Vehicle display control device, vehicle display control method, and vehicle display control program product

Publications (1)

Publication Number Publication Date
WO2020189238A1 true WO2020189238A1 (ja) 2020-09-24

Family

ID=72520911

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008677 WO2020189238A1 (ja) 2019-03-18 2020-03-02 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム

Country Status (4)

Country Link
US (1) US20220004348A1 (ja)
JP (1) JP2020152161A (ja)
CN (1) CN113646201A (ja)
WO (1) WO2020189238A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3995340A1 (en) * 2020-11-10 2022-05-11 Toyota Jidosha Kabushiki Kaisha Vehicle display control device, acceleration display method, and non-transitory memory medium memorizing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7145186B2 (ja) * 2020-09-23 2022-09-30 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
JP7405050B2 (ja) * 2020-09-25 2023-12-26 いすゞ自動車株式会社 自動運転装置、自動運転方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016117300A (ja) * 2014-12-18 2016-06-30 トヨタ自動車株式会社 運転支援装置
WO2017072959A1 (ja) * 2015-10-30 2017-05-04 三菱電機株式会社 出力制御装置及び出力制御方法
JP2017117050A (ja) * 2015-12-22 2017-06-29 パイオニア株式会社 情報表示装置、情報表示方法及びプログラム
JP2017182559A (ja) * 2016-03-31 2017-10-05 マツダ株式会社 運転支援装置
WO2019016931A1 (ja) * 2017-07-21 2019-01-24 三菱電機株式会社 表示制御装置および表示制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4192132B2 (ja) * 2004-09-28 2008-12-03 クラリオン株式会社 車載器及びテレビジョン番組表示方法
JP4265592B2 (ja) * 2005-10-05 2009-05-20 トヨタ自動車株式会社 車両の減速制御装置
JP2013001296A (ja) * 2011-06-20 2013-01-07 Denso Corp 車両の後退速度規制装置
EP2944497B1 (en) * 2013-01-11 2017-03-29 Nissan Motor Co., Ltd. Display control device for vehicle and display control method for vehicle
EP3444160B1 (en) * 2014-01-28 2022-07-20 Volvo Truck Corporation A vehicle driver feedback system and corresponding method
JP2017021546A (ja) * 2015-07-10 2017-01-26 田山 修一 車輌用画像表示システム及び方法
JP6537208B2 (ja) * 2016-02-18 2019-07-03 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
US11173926B2 (en) * 2016-08-05 2021-11-16 Mitsubishi Electric Corporation Operation authority management apparatus and operation authority management method
JP6775188B2 (ja) * 2016-08-05 2020-10-28 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置および表示制御方法
JP6552472B2 (ja) * 2016-11-14 2019-07-31 本田技研工業株式会社 停車制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016117300A (ja) * 2014-12-18 2016-06-30 トヨタ自動車株式会社 運転支援装置
WO2017072959A1 (ja) * 2015-10-30 2017-05-04 三菱電機株式会社 出力制御装置及び出力制御方法
JP2017117050A (ja) * 2015-12-22 2017-06-29 パイオニア株式会社 情報表示装置、情報表示方法及びプログラム
JP2017182559A (ja) * 2016-03-31 2017-10-05 マツダ株式会社 運転支援装置
WO2019016931A1 (ja) * 2017-07-21 2019-01-24 三菱電機株式会社 表示制御装置および表示制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3995340A1 (en) * 2020-11-10 2022-05-11 Toyota Jidosha Kabushiki Kaisha Vehicle display control device, acceleration display method, and non-transitory memory medium memorizing program
US11794581B2 (en) 2020-11-10 2023-10-24 Toyota Jidosha Kabushiki Kaisha Vehicle display control device, acceleration display method, and non-transitory memory medium memorizing program

Also Published As

Publication number Publication date
CN113646201A (zh) 2021-11-12
JP2020152161A (ja) 2020-09-24
US20220004348A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
US11008016B2 (en) Display system, display method, and storage medium
US10197414B2 (en) Vehicle display control device and vehicle display control method
US20160304126A1 (en) Vehicle control device
JP6591087B2 (ja) 表示制御装置、表示装置および表示制御方法
JP6981377B2 (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
WO2020189238A1 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
US11200806B2 (en) Display device, display control method, and storage medium
JP6827378B2 (ja) 車両制御システム、車両制御方法、およびプログラム
US11281224B2 (en) Vehicle control device
US11850940B2 (en) Display control device and non-transitory computer-readable storage medium for display control on head-up display
JP2018200626A (ja) 車両用表示制御装置及び表示制御プログラム
US20240042928A1 (en) Vehicle notification control device and vehicle notification control method
JP7400242B2 (ja) 車両用表示制御装置および車両用表示制御方法
US10902823B2 (en) Display system, display control method, and storage medium
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP7263962B2 (ja) 車両用表示制御装置および車両用表示制御方法
JP2020138609A (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2021037895A (ja) 表示制御システム、表示制御装置、および表示制御プログラム
JP7172730B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP7255429B2 (ja) 表示制御装置および表示制御プログラム
JP7151653B2 (ja) 車載表示制御装置
JP7275985B2 (ja) 表示制御装置
US20230020471A1 (en) Presentation control device and automated driving control system
JP7014206B2 (ja) 表示制御装置および表示制御プログラム
WO2021075402A1 (ja) 表示制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20773494

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20773494

Country of ref document: EP

Kind code of ref document: A1