WO2020050324A1 - 車両用表示システム、車両システム及び車両 - Google Patents

車両用表示システム、車両システム及び車両 Download PDF

Info

Publication number
WO2020050324A1
WO2020050324A1 PCT/JP2019/034815 JP2019034815W WO2020050324A1 WO 2020050324 A1 WO2020050324 A1 WO 2020050324A1 JP 2019034815 W JP2019034815 W JP 2019034815W WO 2020050324 A1 WO2020050324 A1 WO 2020050324A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
display
control unit
hud
road surface
Prior art date
Application number
PCT/JP2019/034815
Other languages
English (en)
French (fr)
Inventor
俊彦 紅林
政昭 中林
滝井 直樹
美紗子 神谷
美昭 伏見
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2020541273A priority Critical patent/JP7282789B2/ja
Priority to EP19858518.4A priority patent/EP3848245A1/en
Priority to CN201980058218.3A priority patent/CN112689579A/zh
Priority to US17/274,063 priority patent/US12005832B2/en
Publication of WO2020050324A1 publication Critical patent/WO2020050324A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/184Displaying the same information on different displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/797Instrument locations other than the dashboard at the vehicle exterior
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/14Other vehicle conditions
    • B60Q2300/146Abnormalities, e.g. fail-safe
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/20Indexing codes relating to the driver or the passengers
    • B60Q2300/21Manual control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/20Indexing codes relating to the driver or the passengers
    • B60Q2300/23Driver's line of sight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2900/00Features of lamps not covered by other groups in B60Q
    • B60Q2900/50Arrangements to reconfigure features of lighting or signalling devices, or to choose from a list of pre-defined settings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present disclosure relates to a vehicle display system, a vehicle system, and a vehicle.
  • the vehicle system automatically controls traveling of the vehicle. Specifically, in the automatic driving mode, the vehicle system performs steering control based on information indicating the surrounding environment of the vehicle (surrounding environment information) obtained from sensors such as a camera and a radar (for example, a laser radar or a millimeter wave radar). At least one of (control of the traveling direction of the vehicle), brake control, and accelerator control (control of braking and acceleration / deceleration of the vehicle) is automatically performed.
  • the driver controls the running of the vehicle as in many conventional vehicles.
  • the traveling of the vehicle is controlled according to the driver's operation (steering operation, brake operation, accelerator operation), and the vehicle system does not automatically perform the steering control, the brake control, and the accelerator control.
  • the vehicle driving mode is not a concept that exists only in some vehicles, but a concept that exists in all vehicles including a conventional vehicle that does not have an automatic driving function. Classified according to the method.
  • autonomous driving vehicles vehicles traveling in the automatic driving mode
  • manual driving vehicles vehicles traveling in the manual driving mode
  • Patent Literature 1 discloses an automatic following system in which a following vehicle automatically runs following a preceding vehicle.
  • each of the preceding vehicle and the following vehicle has an illumination system, and character information for preventing another vehicle from interrupting between the preceding vehicle and the following vehicle is transmitted to the illumination system of the preceding vehicle. While being displayed, character information indicating that the vehicle is in automatic follow-up running is displayed on the lighting system of the following vehicle.
  • visual communication between autonomous vehicles and humans is expected to become important.
  • visual communication between a vehicle and an object such as a pedestrian existing outside the vehicle and visual communication between the vehicle and an occupant of the vehicle will become increasingly important.
  • visual communication between the vehicle and the object can be realized using a road surface drawing device that emits a light pattern onto the road surface, and the vehicle and the occupant can be communicated using a head-up display (HUD).
  • HUD head-up display
  • the display control unit (vehicle computer) of the vehicle display system automatically controls the emission of the light pattern, but the occupant himself or herself manually controls the emission of the light pattern according to the situation of the surrounding environment of the vehicle.
  • you want to control For example, it is assumed that the occupant wants to emit a light pattern toward a specific pedestrian existing around the vehicle in a situation where the light pattern is not emitted on the road surface.
  • a vehicle equipped with the road surface drawing device and the HUD if at least one of the road surface drawing device and the HUD becomes abnormal, visual communication between the vehicle and the occupant cannot be continued.
  • a vehicle display system capable of continuing visual communication between a vehicle and an occupant even when an abnormality occurs in at least one of the road surface drawing device and the HUD.
  • a first object of the present disclosure is to provide a vehicle display system and a vehicle with improved usability when a passenger manually controls a light pattern.
  • 2A second object of the present disclosure is to provide a vehicle display system and a vehicle capable of continuing visual communication between the vehicle and an occupant even when an abnormality occurs in the vehicle display system.
  • 3A third object of the present disclosure is to provide a vehicle system and a vehicle that can speed up the operation of the HUD and the road surface drawing device.
  • a display system for a vehicle is provided in a vehicle, A first display device configured to emit a light pattern toward a road surface outside the vehicle; A second display device located inside the vehicle and configured to display the predetermined information to an occupant of the vehicle such that the predetermined information is superimposed on a real space outside the vehicle; and , A display control unit configured to control the first display device.
  • the display control unit is configured to control the emission of the light pattern in accordance with the occupant's input operation on a display area in which the predetermined information can be displayed.
  • the emission of the light pattern is controlled in accordance with the occupant's input operation on the display area.
  • the occupant can control the emission of the light pattern by an intuitive input operation. Accordingly, it is possible to provide a vehicle display system with improved usability when the occupant manually controls the light pattern.
  • the display control unit may be configured to control an emission position of the light pattern based on a position of the occupant's viewpoint and an input position of the input operation.
  • the light pattern emission position is controlled based on the occupant's viewpoint position and the occupant's input operation input position.
  • the occupant can determine the emission position of the light pattern by intuitive input operation. Accordingly, it is possible to provide a vehicle display system with improved usability when the occupant manually controls the light pattern.
  • the display control unit may be configured to start emitting the light pattern in response to the input operation on the display area.
  • the emission of the light pattern is started according to the input operation on the display area.
  • the light pattern can be emitted toward an object (for example, a pedestrian or the like) existing outside the vehicle by an intuitive input operation by the occupant.
  • the display control unit includes: Based on the position of the viewpoint of the occupant and a first input position of the input operation, a start position of the light pattern on the road surface is specified, Based on the position of the viewpoint and a second input position of the input operation, specify an end position of the light pattern on the road surface, The light pattern may be emitted on the road surface based on the start position and the end position.
  • the start position of the light pattern is specified based on the position of the occupant's viewpoint and the first input position of the input operation, and the light pattern is determined based on the occupant's viewpoint and the second input position of the input operation.
  • the end position is specified.
  • the light pattern is emitted on the road surface based on the start position and the end position of the light pattern. In this manner, the light pattern can be emitted toward the object outside the vehicle by the intuitive input operation by the occupant.
  • the display control unit may be configured to change an emission position of the light pattern in accordance with the input operation on the display area.
  • the emission position of the light pattern is changed according to the input operation on the display area.
  • the light pattern emission position can be changed by an intuitive input operation by the occupant.
  • the display control unit includes: A first specified position on the road surface is specified based on a position of the occupant's viewpoint and a third input position of the input operation, When the first designated position overlaps with the light pattern emitted on the road surface, the second designated position on the road surface is specified based on the viewpoint position and the fourth input position of the input operation, Changing an emission position of the light pattern based on the second designated position; It may be configured as follows.
  • the emission position of the light pattern is changed to the second designated position.
  • the light pattern emission position can be changed by an intuitive input operation by the occupant.
  • the display area may include a touch panel configured to receive the input operation.
  • the emission of the light pattern is controlled according to the occupant's input operation on the touch panel. In this way, the emission of the light pattern can be controlled by an intuitive input operation by the occupant.
  • the display system for a vehicle may further include a tracking camera located inside the vehicle and configured to acquire image data indicating the occupant.
  • the display control unit Based on the image data, specify the position of the occupant's viewpoint and the position of the occupant's hand, Based on the position of the hand, specify the input position of the input operation,
  • the emission position of the light pattern may be controlled based on the viewpoint position and the input position of the input operation.
  • the input position of the occupant's input operation is determined based on the position of the occupant's hand. Is specified. Further, the emission position of the light pattern is controlled based on the occupant's viewpoint position and the input position of the input operation. In this way, it is possible to control the emission position of the light pattern by the movement of the hand in the space (without using the touch panel). Accordingly, it is possible to provide a vehicle display system with improved usability when the occupant manually controls the light pattern.
  • a display system for a vehicle is a display system for a vehicle provided in a vehicle, A first display device configured to emit a light pattern toward a road surface outside the vehicle; The vehicle running information is located inside the vehicle, and the vehicle running information related to the running of the vehicle is displayed to an occupant of the vehicle such that the vehicle running information is superimposed on a real space outside the vehicle.
  • a second display device A display control unit configured to control the first display device and the second display device; Is provided. The display control unit, When it is determined that there is an abnormality in the first display device, information corresponding to the light pattern is displayed on the second display device.
  • the display control unit when it is determined that there is an abnormality in the first display device, the display control unit, when the first display device emits the plurality of light patterns, respectively applies the plurality of light patterns.
  • the corresponding information may be displayed on the second display device.
  • the display control unit may cause the second display device to display abnormality information of the first display device.
  • the information indicating that the first display device is abnormal is displayed on the second display device.
  • the occupant can grasp that the first display device is abnormal.
  • the display control unit causes the first display device to emit a light pattern corresponding to the vehicle travel information when it is determined that the second display device has an abnormality.
  • the light pattern corresponding to the vehicle traveling information is emitted to the first display device.
  • a vehicle display system capable of performing visual communication between a vehicle and an occupant even when an abnormality occurs in the second display device.
  • a display system for a vehicle is a display system for a vehicle provided in a vehicle, A first display device configured to emit a light pattern toward a road surface outside the vehicle; The vehicle running information is located inside the vehicle, and the vehicle running information related to the running of the vehicle is displayed to an occupant of the vehicle such that the vehicle running information is superimposed on a real space outside the vehicle.
  • a second display device A display control unit configured to control the first display device and the second display device; Is provided. The display control unit, When it is determined that there is an abnormality in the second display device, a light pattern corresponding to the vehicle travel information is emitted to the first display device.
  • the light pattern corresponding to the vehicle traveling information is emitted to the first display device.
  • a vehicle display system capable of performing visual communication between a vehicle and an occupant even when an abnormality occurs in the second display device.
  • the display control unit is configured to, when the second display device displays a plurality of the vehicle travel information, display the plurality of the vehicle travel information.
  • the first display device may emit a light pattern corresponding to at least one of the vehicle travel information.
  • the light pattern corresponding to at least one of the plurality of vehicle travel information is emitted to the first display device.
  • the first display device emits a light pattern corresponding to vehicle travel information including graphic information that is easy to read from the light pattern and simple text information. In this way, even if an abnormality occurs in the second display device, the occupant can continuously and accurately grasp almost the same information as before the abnormality.
  • a vehicle provided with the vehicle display system may be provided.
  • a vehicle system in a vehicle, and includes a vehicle control unit configured to control traveling of the vehicle, and a display system for a vehicle.
  • the vehicle display system A head-up display (HUD) that is located inside the vehicle and configured to display the predetermined information to an occupant of the vehicle such that the predetermined information is superimposed on a real space outside the vehicle.
  • HUD head-up display
  • a road surface drawing device configured to emit a light pattern toward a road surface outside the vehicle
  • a display control unit configured to determine whether to operate the road surface drawing device and the HUD and to control the operation of the road surface drawing device and the HUD.
  • the display control unit determines whether to operate the road surface drawing device and the HUD, and controls the operations of the road surface drawing device and the HUD. As described above, the calculation load on the vehicle control unit can be reduced, and the operations of the road surface drawing device and the HUD can be accelerated.
  • the display control unit includes: A first electronic control unit comprising a first processor, a first memory, and configured to control the operation of the HUD; A second electronic control unit comprising a second processor and a second memory; May be provided.
  • the second electronic control unit may control the operation of the road surface drawing device when the HUD is not operating.
  • the first electronic control unit may control operations of the HUD and the road surface drawing device.
  • the second electronic control unit controls the operation of the road surface drawing apparatus, while when the HUD is operating, the first electronic control unit is controlled by the HUD and the road surface. Controls the operation of the drawing device.
  • the HUD and the road surface drawing device are operating, it is possible to operate at least one of the HUD and the road surface drawing device efficiently and at high speed.
  • the first electronic control unit when the HUD and the road surface drawing device are operating in cooperation with each other (in other words, when the operation content of one of the HUD and the road surface drawing device is determined according to the operation content of the other), the first electronic control unit generates not only a control signal for controlling the operation of the HUD but also a control signal for controlling the operation of the road surface drawing apparatus. Therefore, it is possible to operate the road surface drawing device efficiently and at high speed in consideration of the operation content of the HUD. Alternatively, the HUD can be operated efficiently and at high speed in consideration of the operation content of the road surface drawing apparatus.
  • the vehicle may further include a lighting device configured to emit the low beam and / or the high beam toward the outside of the vehicle.
  • the second electronic control unit may control operations of the road surface drawing device and the lighting device.
  • the first electronic control unit controls the operation of the HUD and the road surface drawing device, while the second electronic control unit controls the operation of the lighting device. Good.
  • the second electronic control unit controls the operations of the road surface drawing device and the lighting device, while when the HUD is operating, the first electronic control unit is controlled by the first electronic control unit.
  • the operation of both the HUD and the road surface drawing device is controlled.
  • the vehicle may further include a lighting device configured to emit the low beam and / or the high beam toward the outside of the vehicle.
  • the second electronic control unit may control operations of the road surface drawing device and the lighting device.
  • the first electronic control unit may control operations of the HUD, the road surface drawing device, and the lighting device.
  • the second electronic control unit controls the operations of the road surface drawing device and the lighting device
  • the first electronic control unit is controlled by the first electronic control unit. It controls all operations of the HUD, the road surface drawing device, and the lighting device.
  • the first electronic control unit performs not only the control signal for controlling the operation of the HUD but also the operation of the road surface drawing device.
  • a control signal for controlling the operation of the lighting device Therefore, it is possible to operate the road surface drawing device and the lighting device efficiently and at high speed in consideration of the operation content of the HUD.
  • the HUD can be operated efficiently and at high speed in consideration of the operation contents of the road surface drawing device and the lighting device.
  • a vehicle display system capable of continuing visual communication between a vehicle and an occupant even when an abnormality occurs in the vehicle display system, and a vehicle including the vehicle display system.
  • FIG. 1 is a front view of a vehicle equipped with a vehicle system according to a first embodiment of the present invention.
  • 1 is a block diagram of a vehicle system according to a first embodiment. It is a figure which shows the occupant of a vehicle, HUD (Head-Up @ Display) arrange
  • 5 is a flowchart for describing a first operation example of the display system of the first embodiment. It is a figure which shows a vehicle and the pedestrian existing around the vehicle. It is a figure for explaining the method of specifying the starting position of a light pattern based on a crew member's viewpoint position and a touch position.
  • HUD Head-Up @ Display
  • FIG. 11 is a diagram illustrating a state where two input positions on the HUD display area are specified by a swipe operation. It is a figure showing signs that a light pattern is emitted on a road surface based on two input positions specified by swipe operation.
  • FIG. 5 is a diagram illustrating a light pattern emitted from a vehicle toward a pedestrian. 5 is a flowchart illustrating a second operation example of the display system according to the first embodiment. It is a figure showing the light pattern emitted from the vehicle. It is a figure showing signs that a light pattern overlaps with a 1st specified position specified by a crew member's input operation in a crew member's view.
  • FIG. 5 is a diagram illustrating a state where two input positions on the HUD display area are specified by a swipe operation. It is a figure showing signs that a light pattern is emitted on a road surface based on two input positions specified by swipe operation.
  • FIG. 5 is a diagram illustrating a light pattern emitted from
  • FIG. 7 is a diagram illustrating a manner in which an emission position of a light pattern is changed by an occupant swiping an HUD display area. It is a figure showing signs that an emission position of a light pattern emitted from a vehicle is changed.
  • FIG. 7 is a diagram for explaining a method of specifying an input position of an input operation based on image data obtained by an internal camera.
  • It is a block diagram of a vehicle system according to a second embodiment of the present invention.
  • 9 is a flowchart for explaining an example of display control by a display control unit according to a second embodiment. It is a figure for explaining an example of road surface drawing display concerning a 2nd embodiment. It is a figure for explaining an example of HUD display concerning a 2nd embodiment.
  • FIG. 5 is a diagram illustrating an example of HUD information displayed in a HUD display area.
  • left-right direction is a direction including the “left direction” and the “right direction”.
  • the “vertical direction” is a direction including “upward” and “downward”.
  • the “front-rear direction” is a direction including the “front direction” and the “back direction”.
  • the front-back direction is a direction orthogonal to the left-right direction and the up-down direction.
  • FIG. 1 is a front view of a vehicle 1 on which a vehicle system 2 is mounted.
  • FIG. 2 is a block diagram of the vehicle system 2.
  • the vehicle 1 is a vehicle (automobile) that can run in the automatic driving mode.
  • the vehicle system 2 includes a vehicle control unit 3, a vehicle display system 4 (hereinafter, simply referred to as “display system 4”), a sensor 5, a camera 6, and a radar 7. . Further, the vehicle system 2 includes an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, a wireless communication unit 10, a storage device 11, a steering actuator 12, a steering device 13, a brake actuator 14, , A brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • HMI Human Machine Interface
  • GPS Global Positioning System
  • the vehicle control unit 3 is configured to control the traveling of the vehicle 1.
  • the vehicle control unit 3 includes, for example, at least one electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a computer system including one or more processors and one or more memories (eg, SoC (System on a Chip)), and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
  • the CPU may be configured by a plurality of CPU cores.
  • the GPU may be configured by a plurality of GPU cores.
  • the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the vehicle control program may be stored in the ROM.
  • the vehicle control program may include an artificial intelligence (AI) program for automatic driving.
  • AI is a program (learned model) constructed by supervised or unsupervised machine learning (particularly, deep learning) using a multilayer neural network.
  • the RAM may temporarily store a vehicle control program, vehicle control data, and / or surrounding environment information indicating a surrounding environment of the vehicle.
  • the processor may be configured to load a program specified from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the computer system may be constituted by a non-Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
  • a non-Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
  • the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
  • the display system 4 includes a left headlamp 20L, a right headlamp 20R, a left road surface drawing device 45L, and a right road surface drawing device 45R. Further, the display system 4 includes a HUD (Head-Up @ Display) 42 and a display control unit 43.
  • HUD Head-Up @ Display
  • the left headlamp 20L is arranged on the front left side of the vehicle 1 and irradiates a low beam lamp configured to irradiate a low beam to the front of the vehicle 1 and a high beam to a front of the vehicle 1. And a high beam lamp configured to perform the operation.
  • the right headlamp 20R is arranged on the right front side of the vehicle 1 and is configured to irradiate a low beam to the front of the vehicle 1 and a high beam configured to irradiate a high beam to the front of the vehicle 1. And a lamp.
  • Each of the low beam lamp and the high beam lamp has one or more light emitting elements such as an LED (Light Emitting Diode) and an LD (Laser Diode), and optical members such as a lens and a reflector.
  • LED Light Emitting Diode
  • LD Laser Diode
  • optical members such as a lens and a reflector.
  • the left head lamp 20L and the right head lamp 20R may be simply referred to as a head lamp 20 for convenience of explanation.
  • the left road surface drawing device 45L (an example of a first display device) is disposed in the lamp room of the left headlamp 20L.
  • the left road surface drawing device 45L is configured to emit a light pattern toward a road surface outside the vehicle 1.
  • the left road surface drawing device 45L includes, for example, a light source unit, a driving mirror, an optical system such as a lens and a mirror, a light source driving circuit, and a mirror driving circuit.
  • the light source unit is a laser light source or an LED light source.
  • the laser light source is an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
  • the drive mirror is, for example, a MEMS (Micro Electro Mechanical Systems) mirror, a DMD (Digital Mirror Device), a galvano mirror, a polygon mirror, or the like.
  • the light source drive circuit is configured to drive and control the light source unit.
  • the light source driving circuit generates a control signal for controlling the operation of the light source unit based on a signal related to the predetermined light pattern transmitted from the display control unit 43, and then transmits the generated control signal to the light source.
  • the mirror driving circuit is configured to drive and control the driving mirror.
  • the mirror driving circuit generates a control signal for controlling the operation of the driving mirror based on a signal related to the predetermined light pattern transmitted from the display control unit 43, and then drives the generated control signal. It is configured to send to a mirror.
  • the left road surface drawing device 45L can draw light patterns of various colors on the road surface by scanning the laser light.
  • the light pattern may be an arrow-shaped light pattern indicating the traveling direction of the vehicle 1.
  • the right road surface drawing device 45R (an example of a first display device) is disposed in the lamp room of the right headlamp 20R.
  • the right road surface drawing device 45R is configured to emit a light pattern toward a road surface outside the vehicle 1.
  • the right road surface drawing device 45R includes a light source unit, a driving mirror, an optical system such as a lens, a light source driving circuit, and a mirror driving circuit.
  • the drawing method of the left road surface drawing device 45L and the right road surface drawing device 45R may be a raster scan method, a DLP (Digital Light Processing) method, or an LCOS (Liquid Crystal on silicon) method.
  • the light source unit may be an LED light source.
  • a projection method may be adopted as a drawing method of the left road surface drawing device 45L and the right road surface drawing device 45R.
  • the light source unit may be a plurality of LED light sources arranged in a matrix.
  • the left road surface drawing device 45L and the right road surface drawing device 45R may be arranged on the vehicle body roof 100A.
  • one road surface drawing device may be arranged on the vehicle body roof 100A.
  • the left road surface drawing device 45L and the right road surface drawing device 45R may be simply referred to as the road surface drawing device 45 for convenience of description.
  • the road surface drawing device 45 indicates a left road surface drawing device 45L, a right road surface drawing device 45R, or a combination of the left road surface drawing device 45L and the right road surface drawing device 45R.
  • the HUD 42 (an example of the second display device) is located inside the vehicle 1. Specifically, the HUD 42 is installed at a predetermined location in the room of the vehicle 1. For example, as shown in FIG. 3, the HUD 42 may be arranged on a dashboard of the vehicle 1.
  • the HUD 42 functions as a visual interface between the vehicle 1 and the occupant H.
  • the HUD 42 displays the HUD information to the occupant H such that predetermined information (hereinafter, referred to as HUD information) is superimposed on a real space outside the vehicle 1 (particularly, a surrounding environment in front of the vehicle 1).
  • predetermined information hereinafter, referred to as HUD information
  • the HUD 42 functions as an AR (Augmented Reality) display.
  • the HUD information displayed by the HUD 42 is, for example, vehicle travel information related to the travel of the vehicle 1 and / or surrounding environment information related to the surrounding environment of the vehicle 1 (particularly, information related to an object existing outside the vehicle 1). Information).
  • the HUD 42 has a HUD body 420 and a transparent screen 421.
  • the HUD main unit 420 has a light source unit, a driving mirror, an optical system, a light source driving circuit, and a mirror driving circuit.
  • the light source unit is, for example, a laser light source or an LED light source.
  • the laser light source is, for example, an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
  • the driving mirror is, for example, a MEMS mirror, a DMD, a galvano mirror, a polygon mirror, or the like.
  • the optical system includes at least one of a prism, a lens, a diffuser, and a magnifier.
  • the light source drive circuit is configured to drive and control the light source unit.
  • the light source driving circuit generates a control signal for controlling the operation of the light source unit based on the image data transmitted from the display control unit 43, and then transmits the generated control signal to the light source unit. It is configured.
  • the mirror driving circuit is configured to drive and control the driving mirror.
  • the mirror drive circuit generates a control signal for controlling the operation of the drive mirror based on the image data transmitted from the display control unit 43, and then transmits the generated control signal to the drive mirror. It is configured.
  • the transparent screen 421 is a transparent combiner (transparent plate member).
  • the transparent screen 421 has a HUD display area D1 on which HUD information can be displayed (see FIGS. 6, 7 and the like).
  • the light (image) emitted from the HUD main body 420 is applied to the HUD display area D1 of the transparent screen 421.
  • the HUD display area D1 reflects the light emitted from the HUD body 420 toward the occupant H's viewpoint E.
  • the occupant H recognizes the light (image) emitted from the HUD main body 420 as a virtual image formed at a predetermined position in front of the transparent screen 421.
  • the occupant E can feel as if the HUD information is floating on the road.
  • the transparent screen 421 has a touch panel configured to receive an input operation by the occupant H.
  • a touch panel is provided in the HUD display area D1 of the transparent screen 421.
  • a predetermined operation signal corresponding to the occupant H's input operation is generated from the transparent screen 421 (particularly, the touch panel), and the operation signal is transmitted to the display control unit 43.
  • the display control unit 43 is configured to execute a predetermined process in accordance with the occupant H's input operation on the touch panel.
  • the transparent screen 421 may be constituted by a part of the front window 60. Even in this case, a part of the front window 60 has the HUD display area D1. Furthermore, the occupant H recognizes the light (image) emitted from the HUD main body 420 as a virtual image formed at a predetermined position in front of the front window 60.
  • the position where the virtual image is formed may be changed by adjusting the position of the optical system of the HUD 42 (particularly, the focal length of the projection optical system).
  • the display control unit 43 can control the HUD 42 based on the position information of the object existing in front of the vehicle 1 so that the position of the object substantially matches the virtual image formation position.
  • the drawing method of the HUD 42 may be a raster scan direction, a DLP method, or an LCOS method.
  • the light source unit of the HUD 42 may be an LED light source.
  • the display control unit 43 includes a road surface drawing device 45 (specifically, a left road surface drawing device 45L and a right road surface drawing device 45R), a head lamp 20 (specifically, a left head lamp 20L and a right head lamp 20R), and a HUD. Is configured to control the operation. At this point, the display control unit 43 controls the operation of the road surface drawing device 45 (specifically, the left road surface drawing device 45L and the right road surface drawing device 45R) so that a predetermined position on the road surface is irradiated with the light pattern. It is configured to control. In particular, the display control unit 43 is configured to control the emission of the light pattern according to the input operation of the occupant H on the HUD display area D1 (touch panel). Further, the display control unit 43 is configured to control the operation of the HUD 42 so that the HUD information is displayed in the HUD display area D1.
  • a road surface drawing device 45 specifically, a left road surface drawing device 45L and a right road surface drawing device 45R
  • the display control unit 43 is configured by an electronic control unit (ECU).
  • the electronic control unit includes a computer system (eg, SoC, etc.) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes at least one of a CPU, an MPU, a GPU, and a TPU.
  • the memory includes a ROM and a RAM.
  • the computer system may be configured by a non-Neumann computer such as an ASIC or an FPGA.
  • the vehicle control unit 3 and the display control unit 43 are provided as separate components, but the vehicle control unit 3 and the display control unit 43 may be integrally configured.
  • the display control unit 43 and the vehicle control unit 3 may be configured by a single electronic control unit.
  • the display control unit 43 includes two electronic control units, an electronic control unit configured to control the operation of the headlamp 20 and the road surface drawing device 45 and an electronic control unit configured to control the operation of the HUD 42. It may be constituted by a unit.
  • the sensor 5 includes at least one of an acceleration sensor, a speed sensor, and a gyro sensor.
  • the sensor 5 is configured to detect a traveling state of the vehicle 1 and output traveling state information to the vehicle control unit 3.
  • the sensor 5 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects an external weather condition, and whether a person is in the vehicle. It may further include a human sensor or the like for detecting.
  • the camera 6 is a camera including an image sensor such as a charge-coupled device (CCD) or a complementary MOS (CMOS).
  • the camera 6 includes one or more external cameras 6A and an internal camera 6B.
  • the external camera 6 ⁇ / b> A is configured to acquire image data indicating the surrounding environment of the vehicle 1 and transmit the image data to the vehicle control unit 3.
  • the vehicle control unit 3 acquires surrounding environment information based on the transmitted image data.
  • the surrounding environment information may include information on an object (a pedestrian, another vehicle, a sign, or the like) existing outside the vehicle 1.
  • the surrounding environment information may include information on an attribute of an object existing outside the vehicle 1 and information on a distance and a position of the object with respect to the vehicle 1.
  • the external camera 6A may be configured as a monocular camera, or may be configured as a stereo camera.
  • the internal camera 6B is arranged inside the vehicle 1 and configured to acquire image data indicating the occupant H.
  • the internal camera 6B may be arranged at a predetermined position on the ceiling of the vehicle 1 (see FIG. 3), or may be arranged on a dashboard.
  • the internal camera 6B functions as a tracking camera that tracks the viewpoint E of the occupant H.
  • the viewpoint E of the occupant H may be either the left eye viewpoint or the right eye viewpoint of the occupant H.
  • the viewpoint E may be defined as the midpoint of a line segment connecting the left-eye viewpoint and the right-eye viewpoint.
  • the display control unit 43 may specify the position of the viewpoint E of the occupant H based on the image data acquired by the internal camera 6B.
  • the position of the viewpoint E of the occupant H may be updated at a predetermined cycle based on the image data, or may be determined only once when the vehicle 1 is started.
  • the radar 7 includes at least one of a millimeter-wave radar, a microwave radar, and a laser radar (for example, a LiDAR unit).
  • the LiDAR unit is configured to detect a surrounding environment of the vehicle 1.
  • the LiDAR unit is configured to acquire 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1 and then transmit the 3D mapping data to the vehicle control unit 3.
  • the vehicle control unit 3 specifies the surrounding environment information based on the transmitted 3D mapping data.
  • the HMI 8 includes an input unit that receives an input operation from a driver, and an output unit that outputs driving information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode switching switch for switching an operation mode of the vehicle 1, and the like.
  • the output unit is a display (excluding the HUD) that displays various types of traveling information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 receives information (for example, travel information and the like) related to another vehicle around the vehicle 1 from the other vehicle and transmits information (for example, travel information and the like) related to the vehicle 1 to the other vehicle.
  • Information for example, travel information and the like
  • the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as a traffic light and a traffic light, and transmit travel information of the vehicle 1 to the infrastructure equipment (road-vehicle communication).
  • the wireless communication unit 10 receives information about the pedestrian from a portable electronic device (a smartphone, a tablet, a wearable device, or the like) carried by the pedestrian, and transmits own-vehicle traveling information of the vehicle 1 to the portable electronic device.
  • a portable electronic device a smartphone, a tablet, a wearable device, or the like
  • the vehicle 1 may communicate directly with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate with an access point. Further, the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device via a communication network (not shown).
  • the communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN), and a radio access network (RAN).
  • the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark), or Li-Fi.
  • the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device using the fifth generation mobile communication system (5G).
  • 5G fifth generation mobile communication system
  • the storage device 11 is an external storage device such as a hard disk drive (HDD) or an SSD (Solid State Drive).
  • the storage device 11 may store two-dimensional or three-dimensional map information and / or a vehicle control program.
  • the three-dimensional map information may be constituted by 3D mapping data (point cloud data).
  • the storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3.
  • the map information and the vehicle control program may be updated via the wireless communication unit 10 and the communication network.
  • the vehicle control unit 3 When the vehicle 1 runs in the automatic driving mode, the vehicle control unit 3 performs at least one of a steering control signal, an accelerator control signal, and a brake control signal based on driving state information, surrounding environment information, current position information, map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal.
  • the vehicle control unit 3 automatically controls the traveling of the vehicle 1 based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. That is, in the automatic driving mode, the traveling of the vehicle 1 is automatically controlled by the vehicle system 2.
  • the vehicle control unit 3 when the vehicle 1 runs in the manual driving mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to a manual operation of the accelerator pedal, the brake pedal, and the steering wheel by the driver.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the driver's manual operation, so that the driving of the vehicle 1 is controlled by the driver.
  • the operation mode includes an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 In the fully automatic driving mode, the vehicle system 2 automatically performs all traveling control of steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
  • the vehicle system 2 In the advanced driving support mode, the vehicle system 2 automatically performs all of the driving control such as steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although the driver can drive the vehicle 1.
  • the vehicle system 2 In the driving support mode, the vehicle system 2 automatically performs a part of the driving control among the steering control, the brake control, and the accelerator control, and the driver drives the vehicle 1 with the driving support of the vehicle system 2.
  • the vehicle system 2 In the manual driving mode, the vehicle system 2 does not automatically perform the traveling control, and the driver drives the vehicle 1 without driving assistance of the vehicle system 2.
  • the driving mode of the vehicle 1 may be switched by operating a driving mode switch.
  • the vehicle control unit 3 changes the driving mode of the vehicle 1 into four driving modes (a fully automatic driving mode, an advanced driving support mode, a driving support mode, and a manual driving mode) according to the driver's operation on the driving mode changeover switch. ) Switch between.
  • the driving mode of the vehicle 1 is automatically set based on information on a travelable section in which the automatic driving vehicle can travel, a driving prohibited section in which the driving of the automatic driving vehicle is prohibited, or information on the external weather condition. It may be switched.
  • the vehicle control unit 3 switches the operation mode of the vehicle 1 based on the information.
  • the driving mode of the vehicle 1 may be automatically switched by using a seating sensor, a face direction sensor, or the like. In this case, the vehicle control unit 3 switches the driving mode of the vehicle 1 based on the output signal from the sitting sensor or the face orientation sensor.
  • FIG. 4 is a flowchart for explaining a first operation example of the display system 4 of the present embodiment.
  • FIG. 5 is a diagram illustrating the vehicle 1 and a pedestrian P1 existing around the vehicle 1.
  • FIG. 6 is a diagram for explaining a method of specifying the start position e1 of the light pattern L1 based on the position of the viewpoint E of the occupant H and the touch position C1.
  • FIG. 7 is a diagram illustrating a state where two input positions (a touch position C1 and an end position C2) on the HUD display area D1 are designated by a swipe operation.
  • FIG. 5 is a diagram illustrating the vehicle 1 and a pedestrian P1 existing around the vehicle 1.
  • FIG. 6 is a diagram for explaining a method of specifying the start position e1 of the light pattern L1 based on the position of the viewpoint E of the occupant H and the touch position C1.
  • FIG. 7 is a diagram illustrating a state where two input positions (a touch position C1 and an end position C2) on the HUD
  • FIG. 8 is a diagram illustrating a state in which the light pattern L1 is emitted on the road surface based on two input positions designated by the swipe operation.
  • FIG. 9 is a diagram showing a light pattern L1 emitted from the vehicle 1 toward the pedestrian P1. 7 and 8 show the surrounding environment in front of the vehicle that is visually recognized by the occupant E through the HUD display area D1 of the transparent screen 421.
  • step S1 the display control unit 43 determines whether or not the occupant H has touched the HUD display area D1 (touch panel). If the decision result in the step S1 is YES, the process proceeds to a step S2. On the other hand, if the decision result in the step S1 is NO, the decision processing in the step S1 is repeatedly executed until a touch operation is detected.
  • step S2 the display control unit 43 sets the position of the viewpoint E of the occupant H and the touch position C1 of the hand T of the occupant H (an example of a first input position; see FIG. 7).
  • the start position e1 (see FIG. 9) of the light pattern L1 is specified.
  • the display control unit 43 specifies the position of the viewpoint E of the occupant H based on the image data indicating the occupant H acquired by the internal camera 6B.
  • the transparent screen 421 (touch panel) generates an operation signal indicating the touch position C1 of the hand T in response to the touch operation of the occupant H, and transmits the operation signal to the display control unit 43.
  • the display control unit 43 specifies the start position e1 of the light pattern L1 based on the position of the viewpoint E and the touch position C1. At this point, as shown in FIG. 6, the intersection of the road surface and the straight line passing through the position of the viewpoint E and the touch position C1 is specified as the start position e1.
  • step S3 the display control unit 43 determines whether or not the occupant H has completed the swipe operation on the HUD display area D1. If the decision result in the step S3 is YES, the process proceeds to a step S4. On the other hand, if the decision result in the step S3 is NO, the display control unit 43 waits until the occupant H finishes the swipe operation.
  • step S4 the display control unit 43 determines the light pattern L1 on the road surface based on the position of the viewpoint E of the occupant H and the end position C2 of the swipe operation (an example of the second input position, see FIG. 7). (See FIG. 9). Specifically, the display control unit 43 specifies the position of the viewpoint E of the occupant H based on the image data acquired by the internal camera 6B. Further, the transparent screen 421 generates an operation signal indicating the end position C2 of the swipe operation of the occupant H, and transmits the operation signal to the display control unit 43. Next, the display control unit 43 specifies the end position e2 of the light pattern L1 based on the position of the viewpoint E and the end position C2.
  • step S5 the display control unit 43 causes the light pattern L1 to be emitted on the road surface based on the start position e1 and the end position e2.
  • the display control unit 43 emits the light pattern L1 such that one end of the light pattern L1 corresponds to the start position e1 and the other end of the light pattern L1 corresponds to the end position e2.
  • Control in the field of view of the occupant H, the touch position C1 overlaps one end of the light pattern L1, and the end position C2 of the swipe operation overlaps the other end of the light pattern L1.
  • the emission of the light pattern is controlled according to the input operation of the occupant H on the HUD display area D1.
  • the occupant H can control the emission of the light pattern by an intuitive input operation (for example, a swipe operation). Therefore, the display system 4 with improved usability when the occupant H manually controls the light pattern can be provided.
  • emission of the light pattern L1 is started in response to an input operation on the HUD display area D1. More specifically, the start position e1 of the light pattern L1 is specified based on the position of the viewpoint E of the occupant H and the touch position C1, and the light position is determined based on the position of the viewpoint E and the end position C2 of the swipe operation. The end position e2 of the pattern L1 is specified. Further, based on the start position e1 and the end position e2, the light pattern L1 is emitted on the road surface. As described above, the light pattern L1 can be emitted toward the target such as the pedestrian P1 existing outside the vehicle 1 by the intuitive input operation by the occupant H.
  • the pedestrian P1 can clearly recognize that the vehicle 1 recognizes the pedestrian P1, and can be relieved. As described above, it is possible to realize rich visual communication between the vehicle 1 and an object such as the pedestrian P1 by the light pattern L1.
  • the emission of the light pattern is controlled by the swipe operation of the occupant H, but the input operation of the occupant H is not limited to the swipe operation.
  • the emission of the light pattern may be controlled by an input operation (two touch operations) other than the swipe operation.
  • the start position e1 of the light pattern L1 may be specified by the first touch operation
  • the end position e2 of the light pattern L1 may be specified by the second touch operation.
  • the light pattern L1 is a linear light pattern, but the shape of the light pattern L1 is not limited to a linear shape, but may be any shape such as a triangle or an arrow. There may be.
  • the position of the viewpoint E is updated at a predetermined cycle based on the image data acquired by the internal camera 6B, but the present embodiment is not limited to this. For example, the position of the viewpoint E may be determined only once when the vehicle 1 is started.
  • FIG. 10 is a flowchart illustrating a second operation example of the display system 4 of the present embodiment.
  • FIG. 11 is a diagram showing a light pattern L2 emitted from the vehicle 1.
  • FIG. 12 is a diagram illustrating a state where the first specified position C3 specified by the input operation of the occupant H and the light pattern L2 overlap in the occupant H's field of view.
  • FIG. 13 is a diagram illustrating a state in which the emission position of the light pattern L2 is changed by a swipe operation of the occupant H on the HUD display area D1.
  • FIG. 14 is a diagram illustrating a manner in which the emission position of the light pattern L2 emitted from the vehicle 1 is changed. In this operation example, it is assumed that the vehicle 1 has already emitted the light pattern L2 onto the road surface as a precondition.
  • step S10 the display control unit 43 determines whether or not a touch operation of the occupant H on the HUD display area D1 has been detected. If the decision result in the step S10 is YES, the process proceeds to a step S11. On the other hand, if the decision result in the step S10 is NO, the decision process in the step S10 is repeatedly executed until a touch operation is detected.
  • step S11 the display control unit 43 controls the occupant H based on the position of the viewpoint E of the occupant H and the touch position C3 of the hand T of the occupant H (an example of a third input position, see FIG. 12).
  • the first specified position e3 (see FIG. 14) on the specified road surface is specified.
  • the first designated position e3 is specified as an intersection between a straight line passing through the position of the viewpoint E and the touch position C3 and the road surface.
  • step S12 the display control unit 43 determines whether the first designated position e3 on the road surface overlaps with the light pattern L2 emitted on the road surface. If the decision result in the step S12 is YES, the process proceeds to a step S13. On the other hand, if the decision result in the step S12 is NO, the process ends. Next, the display control unit 43 determines whether or not the occupant H has completed the swipe operation on the HUD display area D1 (Step S13). If the decision result in the step S13 is YES, the process proceeds to a step S14. On the other hand, if the determination result in step S13 is NO, the display control unit 43 waits until the occupant H finishes the swipe operation.
  • step S14 the display control unit 43 performs the second designation on the road surface based on the position of the viewpoint E of the occupant H and the end position C4 of the swipe operation (an example of the fourth input position, see FIG. 13).
  • the position e4 (see FIG. 14) is specified. Specifically, the display control unit 43 specifies the position of the viewpoint E of the occupant H based on the image data acquired by the internal camera 6B. Further, the transparent screen 421 generates an operation signal indicating the end position C4 of the occupant H's swipe operation, and then transmits the operation signal to the display control unit 43. Next, the display control unit 43 specifies the second designated position e4 based on the position of the viewpoint E and the end position C4.
  • step S15 the display control unit 43 changes the emission position of the light pattern L2 based on the second designated position e4.
  • the display control unit 43 changes the emission position of the light pattern L2 such that the predetermined position of the light pattern L2 overlaps the second designated position e4.
  • the emission position of the light pattern L2 may be changed such that a predetermined position of the light pattern L2 overlapping the first designated position e3 overlaps the second designated position e4.
  • the end position C4 of the swipe operation overlaps a predetermined position of the light pattern L2.
  • the emission position of the light pattern L2 is changed according to the input operation on the HUD display area D1.
  • the output position of the light pattern L2 can be changed by an intuitive input operation (for example, a swipe operation) by the occupant H. Therefore, the display system 4 with improved usability when the occupant H manually controls the light pattern can be provided.
  • the second designated position e4 is specified based on the position of the viewpoint E and the end position C4 of the swipe operation.
  • the emission position of the light pattern L2 is changed based on the second designated position e4.
  • the output position of the light pattern L2 can be changed by the intuitive input operation by the occupant H.
  • the display control unit 43 uses the two input positions (the touch position and the touch position) of the occupant H based on the operation signal generated by the touch panel.
  • the swipe operation end position is specified, the present embodiment is not limited to this.
  • the transparent screen 421 may not have a touch panel.
  • the input position of the input operation of the occupant H may be specified by the internal camera 6B.
  • the display control unit 43 specifies the position of the hand T of the occupant H based on the image data acquired by the internal camera 6B, and then, based on the position of the hand T.
  • the input position C0 of the input operation may be specified.
  • the display control unit 43 may specify the position of the viewpoint E of the occupant H based on the image data. As described above, the display control unit 43 can control the emission position of the light pattern based on the position of the viewpoint E and the input position C0. Here, the intersection of the straight line passing through the viewpoint E and the input position C0 and the road surface is specified as the position e0 related to the emission of the light pattern. Further, the input position C0 may correspond to the position of the tip of the index finger of the hand T.
  • the emission position of the light pattern can be controlled by the operation of the hand T in the space instead of the input operation on the touch panel.
  • the input position may be determined by the operation of the hand T in space. Therefore, the display system 4 with improved usability when the occupant H manually controls the light pattern can be provided.
  • FIG. 16 is a block diagram of the vehicle system 2A.
  • the vehicle 1A is a vehicle (automobile) that can run in the automatic driving mode.
  • the vehicle system 2A includes a vehicle control unit 3, a vehicle display system 4A (hereinafter, simply referred to as “display system 4A”), a sensor 5, a camera 6, and a radar 7. .
  • the vehicle system 2A includes an HMI 8, a GPS 9, a wireless communication unit 10, and a storage device 11.
  • the vehicle system 2A includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the display system 4A includes a display control unit 40A, a lighting device 41A, a road surface drawing device 42A, and a head-up display (HUD) 43A.
  • the road surface drawing device 42A is an example of a first display device.
  • the HUD 43A is an example of a second display device.
  • the illumination device 41A is configured to emit light toward the outside of the vehicle.
  • the lighting device 41A is, for example, a head lamp or a position lamp provided at the front of the vehicle, a rear combination lamp provided at the rear of the vehicle, a turn signal lamp provided at the front or side of the vehicle, a pedestrian or other vehicle. It is equipped with various lamps that notify the driver of the status of the vehicle.
  • the road surface drawing device 42A is configured to emit a light pattern toward a road surface outside the vehicle.
  • the road surface drawing device 42A includes, for example, a laser light source configured to emit laser light, an optical deflecting device configured to deflect laser light emitted from the laser light source, and an optical system member such as a lens.
  • the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green laser light, and a blue laser light, respectively.
  • the light deflecting device is, for example, a MEMS mirror, a galvanometer mirror, a polygon mirror, or the like.
  • the road surface drawing device 42A is configured to draw light patterns M0 and M1 (see FIG. 19A) on a road surface by scanning with a laser beam.
  • the laser light source is an RGB laser light source
  • the road surface drawing device 42A can draw light patterns of various colors on the road surface.
  • the number, arrangement, and shape of the road surface drawing devices 42A are not particularly limited as long as the road surface drawing device 42A can draw a light pattern on the road surface.
  • the road surface drawing device 42A may be disposed in the front-side or rear-side center of the vehicle body roof in the horizontal direction.
  • the number of the road surface drawing devices 42A is two, the left head lamp (not shown) and the right head lamp (not shown) or the vicinity thereof, or the left rear combination lamp (not shown) and the right head lamp (not shown)
  • One road surface drawing device 42A may be mounted in or near a rear combination lamp (not shown).
  • One road surface drawing device 42A may be mounted inside or in the vicinity thereof.
  • the drawing method of the road surface drawing device 42A may be a DLP method or an LCOS method.
  • an LED is used instead of a laser as the light source.
  • the HUD 43A is installed at a predetermined location in the vehicle.
  • the HUD 43A is installed on a dashboard of a vehicle.
  • the location of the HUD 43A is not particularly limited.
  • the HUD 43A functions as a visual interface between the vehicle and the occupant.
  • the HUD 43A is configured to display vehicle traveling information related to traveling of the vehicle to the occupants of the vehicle.
  • the vehicle travel information includes information related to driving of the vehicle 1A (for example, information related to automatic driving, etc.), pedestrian information, and the like.
  • the HUD 43A is configured to display information obtained by vehicle-to-vehicle communication between a vehicle and another vehicle and / or road-to-vehicle communication between a vehicle and infrastructure equipment (such as a traffic light).
  • HUD 43A is configured to display messages transmitted from other vehicles and / or infrastructure equipment.
  • the HUD 43A is configured to display information obtained from the sensor 5 and / or the camera 6. The occupant of the vehicle can grasp the traveling state of the vehicle and / or pedestrian information by looking at the message displayed by the HUD 43A.
  • the information displayed by the HUD 43A is visually presented to the occupant of the vehicle such that the information is superimposed on the real space in front of the vehicle.
  • the HUD 43A functions as an AR display.
  • the HUD 43A includes an image generation unit and a transparent screen on which an image generated by the image generation unit is displayed.
  • the image generating unit includes, for example, a laser light source configured to emit a laser beam, and a light source configured to deflect the laser beam emitted from the laser light source.
  • a deflecting device and an optical system member such as a lens are provided.
  • the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green laser light, and a blue laser light, respectively.
  • the light deflecting device is, for example, a MEMS mirror.
  • the drawing method of the HUD 43A may be the DLP method or the LCOS method. In this case, an LED is used instead of a laser as the light source.
  • the HUD 43A does not have to include a transparent screen.
  • the image generated by the image generation unit may be displayed on a windshield of the vehicle.
  • the HMI 8 further includes an abnormality switch for notifying an abnormality of the road surface drawing device 42A and / or the HUD 43A.
  • the display control unit 40A is configured to control driving of the lighting device 41A.
  • the display control unit 40A controls the lighting device 41A to emit predetermined light based on information related to the vehicle or information related to the surrounding environment of the vehicle.
  • the display control unit 40A is configured to control driving of the road surface drawing device 42A and the HUD 43A.
  • the display control unit 40A presents a predetermined light pattern to an object (pedestrian, other vehicle, or the like) or a passenger based on information related to the vehicle or information related to the surrounding environment of the vehicle.
  • the road surface drawing device 42A is controlled as described above.
  • the display control unit 40A controls the HUD 43A based on the information related to the vehicle or the information related to the surrounding environment of the vehicle such that a predetermined message is presented to the occupant.
  • the display control unit 40A controls the HUD 43A so as to display information corresponding to the light pattern. For example, when it is determined that there is an abnormality in the road surface drawing device 42A that emits the light pattern, the display control unit 40A causes the HUD 43A to display information corresponding to the light pattern emitted by the road surface drawing device 42A. Control. When it is determined that the road surface drawing device 42A is abnormal before the light pattern is emitted, the display control unit 40A controls the HUD 43A so that the road surface drawing device 42A displays information corresponding to the light pattern to be emitted. Control.
  • the display control unit 40A may control the HUD 43A to display information corresponding to each of the plurality of light patterns.
  • the display control unit 40A may control the HUD 43A to display information corresponding to a part of the plurality of light patterns.
  • Some of the light patterns are, for example, a light pattern for a vehicle occupant (for example, a light pattern for navigation), and when there is common information displayed on both the road surface drawing device 42A and the HUD 43A, other than the common information. Information, etc.
  • the display control unit 40A may control the HUD 43A so as to display the abnormality information of the road surface drawing device 42A.
  • the display control unit 40A controls the road surface drawing device 42A to display a light pattern corresponding to the vehicle travel information. For example, when it is determined that there is an abnormality in the HUD 43A displaying the vehicle travel information, the display control unit 40A causes the road surface drawing device 42A to emit a light pattern corresponding to the vehicle travel information displayed on the HUD 43A. Control. When it is determined that the HUD 43A is abnormal before displaying the vehicle travel information, the display control unit 40A controls the road surface drawing device 42A to emit a light pattern corresponding to the vehicle travel information to be displayed on the HUD 43A. Control.
  • the display control unit 40A may control the road surface drawing device 42A to emit a light pattern corresponding to at least one of the plurality of vehicle travel information.
  • the road surface drawing device 42A is controlled so as to emit a light pattern corresponding to the vehicle running information composed of information on a graphic or information on a simple character which is easy to read from the light pattern among a plurality of vehicle running information.
  • each vehicle traveling information is composed of graphic information, character information, or information obtained by combining them.
  • the display control unit 40A can easily correct (delete, or read from the light pattern) the vehicle travel information.
  • Information for example, graphic information
  • the light pattern corresponding to the corrected vehicle traveling information may be emitted to the road surface drawing device 42A.
  • the display control unit 40A is configured by an electronic control unit (ECU), and is electrically connected to a power supply (not shown).
  • the electronic control unit includes a computer system (eg, SoC, etc.) including one or more processors and one or more memories, and an analog processing circuit including active elements such as transistors and passive elements.
  • the analog processing circuit includes a lamp driving circuit (for example, an LED driver or the like) configured to control driving of the lamp of the lighting device 41A.
  • the analog processing circuit is configured to control the driving of the laser light source of the road surface drawing device 42A, and to control the driving of the optical deflection device of the road surface drawing device 42A.
  • a first light deflection device control circuit is configured to control the driving of the laser light source of the road surface drawing device 42A, and to control the driving of the optical deflection device of the road surface drawing device 42A.
  • the analog processing circuit includes a second laser light source control circuit configured to control driving of the laser light source of the HUD 43A, and a second optical deflection device control configured to control driving of the optical deflector of the HUD 43A.
  • the processor is, for example, a CPU, an MPU, a GPU, and / or a TPU.
  • the memory includes a ROM and a RAM. Further, the computer system may be configured by a non-Neumann computer such as an ASIC or an FPGA.
  • the computer system of the display control unit 40A specifies a light pattern to be applied to the outside of the vehicle, and then outputs a signal indicating the specified light pattern.
  • the signal is transmitted to the first laser light source control circuit and the first light deflection device control circuit.
  • the first laser light source control circuit generates a control signal for controlling the driving of the laser light source based on the signal indicating the light pattern, and transmits the generated control signal to the laser light source of the road surface drawing device 42A. I do.
  • the first optical deflector control circuit generates a control signal for controlling the driving of the optical deflector based on the signal indicating the light pattern, and then transmits the generated control signal to the road surface drawing device 42A. Transmit to the light deflector. In this way, the display control unit 40A can control the driving of the road surface drawing device 42A.
  • the computer system of the display control unit 40A specifies image information (for example, information of characters and graphics) displayed on the HUD 43A based on the instruction signal transmitted from the vehicle control unit 3, and then specifies the specified information.
  • a signal indicating the image information is transmitted to the second laser light source control circuit and the second light deflection device control circuit.
  • the second laser light source control circuit generates a control signal for controlling the driving of the laser light source based on the signal indicating the image information, and transmits the generated control signal to the laser light source of the HUD 43A.
  • the second light deflecting device control circuit generates a control signal for controlling the driving of the light deflecting device based on the signal indicating the image information, and then transmits the generated control signal to the light deflecting device of the HUD 43A.
  • the display control unit 40A can control the driving of the HUD 43A.
  • the computer system of the display control unit 40A displays image information (for example, information of characters and graphics) displayed on the HUD 43A based on the specified light pattern. ). Then, the computer system of the display control unit 40A transmits a signal indicating the specified image information to the second laser light source control circuit and the second light deflection device control circuit.
  • image information for example, information of characters and graphics
  • the computer system of the display control unit 40A determines that the HUD 43A is abnormal, based on the image information displayed on the specified HUD 43A, the light emitted to the outside of the vehicle by the road surface drawing device 42A is determined. Identify the pattern. Then, the computer system of the display control unit 40A transmits a signal indicating the specified light pattern to the first laser light source control circuit and the first light deflection device control circuit.
  • a common display control unit 40A is provided for the lighting device 41A, the road surface drawing device 42A, and the HUD 43A, but a separate display control unit may be provided for each.
  • the vehicle control unit 3 and the display control unit 40A are provided as separate components, but the vehicle control unit 3 and the display control unit 40A may be integrally configured.
  • the display control unit 40A and the vehicle control unit 3 may be configured by a single electronic control unit.
  • the vehicle display system 4A has a configuration that also includes the vehicle control unit 3.
  • the determination of the abnormality of the road surface drawing device 42A and the HUD 43A is performed by, for example, the display control unit 40A.
  • the display control unit 40A determines an abnormality of the road surface drawing device 42A based on, for example, a captured image of a light pattern drawn on the road surface.
  • the display control unit 40A acquires a captured image of the light pattern captured by the camera 6 from the vehicle control unit 3, and determines whether the light pattern of the captured image matches the light pattern emitted by the road surface drawing device 42A. .
  • the display control unit 40A determines that an abnormality has occurred in the laser light source of the road surface drawing device 42A or a signal path to the laser light source.
  • the display control unit 40A determines that an abnormality has occurred in the light deflection device of the road surface drawing device 42A.
  • the reference light pattern is stored in the memory or the storage device 11 of the display control unit 40A in advance, and is, for example, a light pattern extracted from a captured image by drawing and imaging each light pattern on a road surface.
  • the display control unit 40A determines an abnormality of the road surface drawing device 42A based on a signal from the road surface drawing device 42A, for example.
  • the road surface drawing device 42A has a self-diagnosis function, and may transmit an abnormality signal to the display control unit 40A when an abnormality occurs.
  • the display control unit 40A When the road surface drawing device 42A has a configuration of transmitting a reception confirmation signal to the display control unit 40A when receiving a signal (for example, a signal indicating a light pattern) from the display control unit 40A, the display control unit 40A When the reception confirmation signal is not received from the device 42A, it may be determined that an abnormality has occurred in the road surface drawing device 42A.
  • the display control unit 40A determines, for example, an abnormality of the road surface drawing device 42A based on an abnormal signal from a passenger of the vehicle.
  • the occupant of the vehicle checks the light pattern drawn on the road surface, and operates the HMI 8 abnormal switch or the like when it is determined that the light pattern is abnormal.
  • the display control unit 40A may determine that an abnormality has occurred in the road surface drawing device 42A when receiving an abnormality signal based on the operation of the abnormality switch from the vehicle control unit 3.
  • the display control unit 40 ⁇ / b> A may use a camera installed on the vehicle based on a signal from the HUD 43 ⁇ / b> A (for example, an abnormal signal or a reception confirmation signal), an abnormal signal from an occupant of the vehicle, or the like. Then, the abnormality of the HUD 43A is determined based on the captured image of the display screen of the HUD 43A captured by Step 6.
  • the vehicle controller 3 may determine the abnormality of the road surface drawing device 42A and the HUD 43A instead of the display controller 40A. When determining that an abnormality has occurred in the road surface drawing device 42A or the HUD 43A, the vehicle control unit 3 transmits an abnormality signal to the display control unit 40A.
  • FIG. 17 is a flowchart illustrating an example of display control by the display control unit according to the second embodiment.
  • FIG. 18A is a diagram for describing an example of a road surface rendering display according to the second embodiment.
  • FIG. 18B is a diagram illustrating an example of the HUD display according to the second embodiment.
  • FIG. 19 is a diagram for explaining an example of a HUD display when a road surface drawing display is abnormal according to the second embodiment.
  • FIG. 20A is a diagram illustrating an example of a HUD display according to the second embodiment.
  • FIG. 20B is a diagram for describing an example of a road surface rendering display according to the second embodiment.
  • FIG. 21 is a diagram for describing an example of a road surface drawing display when the HUD display is abnormal according to the second embodiment.
  • the display control unit 40A determines that there is an abnormality in the road surface drawing device 42A that emits the predetermined light pattern or the HUD 43A that displays the predetermined vehicle travel information.
  • the display control unit 40A determines that the abnormality is abnormal. Information to be displayed by the device is displayed on a normal device.
  • step S21 the display control unit 40A controls the road surface drawing device 42A to emit a predetermined light pattern toward the road surface based on the surrounding environment information and the like acquired from the vehicle control unit 3. I do.
  • step S22 the display control unit 40A controls the HUD 43A to display the vehicle traveling information based on the traveling state information and the like acquired from the vehicle control unit 3.
  • FIG. 18A shows the light pattern M0 drawn on the road surface by the road surface drawing device 42A
  • FIG. 18B shows the vehicle travel information M1 displayed on the HUD 43A.
  • the light pattern M0 is composed of character information of 20 m and graphic information of an arrow indicating a left turn, and is a navigation light pattern for urging the occupant of the vehicle 1A to turn left 20 m ahead.
  • the vehicle travel information M1 is vehicle speed information indicating that the vehicle is currently traveling at 50 km / h.
  • step S23 the display control unit 40A determines whether an abnormality has occurred in the road surface drawing device 42A. If the road surface drawing device 42A is abnormal (YES in step S23), the display control unit 40A determines in step S24 whether an abnormality has occurred in the HUD 43A.
  • the display control unit 40A for example, based on a captured image of a light pattern, based on a signal (for example, an abnormal signal) from the road surface drawing device 42A, or based on an abnormal signal from a vehicle occupant, An abnormality of 42A is determined.
  • the display control unit 40A for example, based on a captured image of the display screen of the HUD 43A, based on a signal (for example, an abnormal signal) from the HUD 43A, or based on an abnormal signal from an occupant of the vehicle, Judge the abnormality.
  • a signal for example, an abnormal signal
  • the display controller 40A causes the HUD 43A to display information corresponding to the light pattern emitted by the road surface drawing device 42A in step S25.
  • the display control unit 40A may stop displaying the light pattern by the road surface drawing device 42A.
  • the display control unit 40A transmits the information M2 corresponding to the light pattern M0 drawn on the road surface as shown in FIG. It is displayed on the HUD 43A.
  • the display control unit 40A stops displaying the light pattern M0 by the road surface drawing device 42A.
  • the display control unit 40A may display, on the HUD 43A, a message M3 indicating that an abnormality has occurred in the road surface drawing device 42A, in addition to the information M2 corresponding to the light pattern M0.
  • the display control unit 40A stops displaying by the road surface drawing device 42A and the HUD 43A in step S26.
  • the information M2 uses the same character information and graphic information as the light pattern M0, but is not limited thereto.
  • step S23 If the road surface drawing device 42A is normal in step S23 (NO in step S23), the display control unit 40A continues to display the road surface drawing device 42A in step S27.
  • step S28 the display control unit 40A determines whether an abnormality has occurred in the HUD 43A. If the HUD 43A is abnormal (YES in step S28), the display controller 40A causes the road surface drawing device 42A to emit a light pattern corresponding to the vehicle travel information displayed on the HUD 43A in step S29.
  • FIG. 20A shows the vehicle travel information M1 and the vehicle travel information (pedestrian information) M4 displayed on the HUD 43A
  • FIG. 20B shows the light pattern M5 drawn on the road surface by the road surface drawing device 42A
  • the vehicle travel information M4 is pedestrian information indicating that the pedestrian 101 enters from the left side at a distance of 20 m
  • the light pattern M5 is a navigation light pattern that prompts the occupant of the vehicle 1A to proceed straight by the figure of the arrow.
  • steps S21 and S22 when the HUD 43A and the road surface drawing device 42A are performing the display of FIGS. 20A and 20B, the display control unit 40A determines that an abnormality has occurred in the HUD 43A, as shown in FIG.
  • the road surface drawing device 42A is controlled to emit a light pattern M6 corresponding to the vehicle travel information M4 displayed on the HUD 43A.
  • the light pattern M6 does not partially include the character information (“enter from the left”) of the vehicle travel information M4, and uses graphic information different from the vehicle travel information M4.
  • the display controller 40A continues to display the HUD 43A in step S30.
  • the light pattern M6 uses character information and graphic information different from the vehicle travel information M4, but is not limited thereto.
  • the display control unit 40A when it is determined that the road surface drawing device 42A has an abnormality, the display control unit 40A causes the HUD 43A to display information corresponding to the light pattern emitted by the road surface drawing device 42A.
  • the display control unit 40A causes the road surface drawing device 42A to emit a light pattern corresponding to the vehicle traveling information displayed on the HUD 43A.
  • the display control unit 40A corresponds to the vehicle traveling information M4 that is easy to read from the light pattern among the plurality of vehicle traveling information M1 and M4 displayed on the HUD 43A.
  • the light pattern M6 to be emitted is emitted to the road surface drawing device 42A.
  • the display control unit 40A causes the road surface drawing device 42A to emit an optical pattern M6 including only information (for example, graphic information or simple character information) that can be easily read from the optical pattern in the vehicle travel information M4. .
  • the occupant of the vehicle can accurately grasp the same information as before the abnormality.
  • the display control unit 40A converts some information (for example, graphic information) in the vehicle travel information M4 into information that can be easily read from the light pattern (for example, converts it into different graphic information), and converts the information.
  • the light pattern M6 including the information is emitted to the road surface drawing device 42A. Thereby, the occupant of the vehicle can more accurately grasp the substantially same information as the vehicle traveling information.
  • the road surface drawing device 42A emits one light pattern M0, and the HUD 43A displays information M2 corresponding to the light pattern M0, but is not limited thereto.
  • the display control unit 40A may cause the HUD 43A to display information corresponding to all or a part of the light patterns.
  • the light pattern M6 corresponding to the vehicle travel information M4 is emitted by the road surface drawing device 42A. It is not limited to.
  • the display control unit 40A may cause the road surface drawing device 42A to emit a light pattern corresponding to all vehicle travel information.
  • FIG. 22 is a flowchart illustrating an example of display control by the display control unit according to the third embodiment.
  • members having the same reference numerals as those already described in the description of the second embodiment will not be described for convenience of description.
  • the display control unit 40A is configured to display a predetermined light pattern and predetermined vehicle travel information on the road surface drawing device 42A and the HUD 43A based on the instruction signal transmitted from the vehicle control unit 3 before the road surface drawing device
  • information to be displayed by the device determined to be abnormal is displayed on a normal device.
  • the display control unit 40A determines in step S31 whether an abnormality has occurred in the road surface drawing device. . If the road surface drawing device 42A is abnormal (YES in step S31), the display control unit 40A determines in step S32 whether an abnormality has occurred in the HUD 43A.
  • the display control unit 40A transmits, for example, a signal indicating an optical pattern or image information to the road surface drawing device 42A and the HUD 43A, and if the reception confirmation signal is not received from the road surface drawing device 42A or the HUD 43A within a predetermined period, the road surface drawing device It is determined that an abnormality has occurred in the device 42A or the HUD 43A.
  • the display control unit 40A may store abnormality information of the road surface drawing device 42A and the HUD 43A in the memory or the storage device 11, and determine an abnormality of the road surface drawing device 42A or the HUD 43A based on the abnormality information.
  • the abnormality information is stored in the memory or the storage device by the display control unit 40A, for example, at a timing when an abnormality signal is received from the road surface drawing device 42A, the HUD 43A or an occupant of the vehicle, or a timing when an abnormality is determined in the past road surface drawing display or the HUD display. 11 is stored.
  • the display control unit 40A emits the light pattern specified based on the surrounding environment information and the like acquired from the vehicle control unit 3 from the road surface drawing device 42A in step S33. Instead, information corresponding to the light pattern is displayed on the HUD 43A. For example, when the display control unit 40A determines that the road surface drawing device 42A is abnormal, the road surface drawing device 42A does not perform the road surface drawing of the light pattern M0 of FIG. 18A, and the light pattern M0 as shown in FIG. Is displayed on the HUD 43A.
  • the display control unit 40A may display, on the HUD 43A, a message M3 indicating that an abnormality has occurred in the road surface drawing device 42A, in addition to the information M2 corresponding to the light pattern M0.
  • the display control unit 40A does not perform display by the road surface drawing device 42A and the HUD 43A in step S34.
  • step S31 If the road surface drawing device 42A is normal in step S31 (NO in step S31), the display control unit 40A directs the vehicle toward the road surface based on the surrounding environment information and the like acquired from the vehicle control unit 3 in step S35.
  • the road surface drawing device 42A is controlled to emit a predetermined light pattern. For example, as illustrated in FIG. 18A, the display control unit 40A causes the road surface drawing device 42A to emit the light pattern M0.
  • step S36 the display control unit 40A determines whether an abnormality has occurred in the HUD 43A.
  • the display control unit 40A causes the HUD 43A to display the vehicle travel information specified based on the travel state information and the like acquired from the vehicle control unit 3 in step S37. Instead, a light pattern corresponding to the vehicle travel information is emitted to the road surface drawing device 42A. For example, when the display control unit 40A determines that the HUD 43A is abnormal, the HUD 43A does not display the vehicle travel information M1 and the vehicle travel information M4 in FIG. 20A, and the light pattern M6 corresponding to the vehicle travel information M4. Is emitted by the road surface drawing device 42A.
  • step S36 the display controller 40A controls the HUD 43A to display predetermined vehicle travel information in step S38.
  • the display control unit 40A causes the HUD 43A to display the vehicle travel information M1 and the vehicle travel information M4.
  • the display control unit 40A when it is determined that the road surface drawing device 42A has an abnormality, the display control unit 40A causes the HUD 43A to display information corresponding to the light pattern to be emitted by the road surface drawing device 42A.
  • the display control unit 40A causes the road surface drawing device 42A to emit a light pattern corresponding to the vehicle travel information to be displayed on the HUD 43A.
  • the display control unit 40A corresponds to the vehicle traveling information M4 which is easy to read from the light pattern among the plurality of vehicle traveling information M1 and M4 to be displayed on the HUD 43A.
  • the light pattern M6 is emitted to the road surface drawing device 42A.
  • the display control unit 40A causes the road surface drawing device 42A to emit an optical pattern M6 including only information (for example, graphic information or simple character information) that can be easily read from the optical pattern in the vehicle travel information M4. .
  • the display control unit 40A converts some information (for example, graphic information) in the vehicle travel information M4 into information that can be easily read from the light pattern (for example, converts it into different graphic information), and converts the information.
  • the light pattern M6 including the information is emitted to the road surface drawing device 42A. Thereby, predetermined information can be accurately transmitted to the occupant of the vehicle.
  • the display control unit 40A may cause the HUD 43A to display information corresponding to all or a part of the light patterns.
  • step S37 when the display control unit 40A specifies a plurality of vehicle travel information, the display control unit 40A may cause the road surface drawing device 42A to emit a light pattern corresponding to all the vehicle travel information.
  • the display control unit 40A determines the abnormality of the HUD 43A after determining the abnormality of the road surface drawing device 42A, but is not limited thereto.
  • the display control unit 40A may determine the abnormality of the road surface drawing device 42A after determining the abnormality of the HUD 43A.
  • the display control unit 40A determines the abnormality of both the road surface drawing device 42A and the HUD 43A, but the present invention is not limited to this.
  • the display control unit 40A determines an abnormality in one of the road surface drawing device 42A and the HUD 43A. May be displayed on the other of the road surface drawing device 42A and the HUD 43A.
  • the display control unit 40A determines that the road surface drawing device 42A is abnormal, and when the road surface drawing device 42A is determined to be abnormal, causes the HUD 43A to display information corresponding to the light pattern. You may. Steps S41 to S44 in FIG. 23 correspond to steps S21, S23, S25, and S27 in FIG.
  • steps S51 to S53 in FIG. 24 correspond to steps S31, S33, and S35 in FIG. Description is omitted.
  • FIGS. 23 and 24 show an example in which the abnormality of the road surface drawing apparatus is determined, similarly, the abnormality of only the HUD 43A may be determined.
  • FIG. 25 is a front view of a vehicle 1B on which the vehicle system 2B is mounted.
  • FIG. 26 is a block diagram of the vehicle system 2B.
  • the vehicle 1B is a vehicle (automobile) that can travel in the automatic driving mode.
  • the vehicle system 2B includes a vehicle control unit 3, a vehicle display system 4B (hereinafter, simply referred to as “display system 4B”), a sensor 5, a camera 6, and a radar 7. . Further, the vehicle system 2B includes an HMI 8, a GPS 9, a wireless communication unit 10, a storage device 11, a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, an accelerator Device 17.
  • the display system 4B includes a left headlamp 20L, a right headlamp 20R, a left road surface drawing device 45L, and a right road surface drawing device 45R. Further, the display system 4B includes a HUD 42B and a display control unit 43BB.
  • the HUD 42B is located inside the vehicle 1B. Specifically, HUD 42B is installed at a predetermined location in the room of vehicle 1B. For example, as shown in FIG. 27, HUD 42B may be arranged in the dashboard of vehicle 1B.
  • the HUD 42B functions as a visual interface between the vehicle 1B and the occupant H.
  • the HUD 42B displays the HUD information to the occupant H such that predetermined information (hereinafter, referred to as HUD information) is superimposed on a real space outside the vehicle 1B (particularly, a surrounding environment in front of the vehicle 1B). It is configured as follows.
  • the HUD 42B functions as an AR display.
  • the HUD information displayed by the HUD 42B is, for example, vehicle travel information related to the travel of the vehicle 1B and / or surrounding environment information related to the surrounding environment of the vehicle 1B (particularly, information related to an object existing outside the vehicle 1B). Information).
  • the HUD 42B has a HUD main body 420B and a transparent screen 421B.
  • the HUD main unit 420B includes a light source unit, a driving mirror, an optical system, a light source driving circuit, and a mirror driving circuit.
  • the light source unit is, for example, a laser light source or an LED light source.
  • the laser light source is, for example, an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
  • the driving mirror is, for example, a MEMS mirror, a DMD, a galvano mirror, a polygon mirror, or the like.
  • the optical system includes at least one of a prism, a lens, a diffuser, and a magnifier.
  • the light source drive circuit is configured to drive and control the light source unit.
  • the light source driving circuit generates a control signal for controlling the operation of the light source unit based on the image data transmitted from the display control unit 43B, and then transmits the generated control signal to the light source unit. It is configured.
  • the mirror driving circuit is configured to drive and control the driving mirror.
  • the mirror drive circuit generates a control signal for controlling the operation of the drive mirror based on the image data transmitted from the display control unit 43B, and then transmits the generated control signal to the drive mirror. It is configured.
  • the transparent screen 421B is constituted by a part of the front window 60.
  • the transparent screen 421B has a HUD display area D10 capable of displaying HUD information (see FIG. 30).
  • the light (image) emitted from the HUD body 420B is applied to the HUD display area D10 of the transparent screen 421B.
  • the HUD display area D10 reflects the light emitted from the HUD main body 420B toward the viewpoint E of the occupant H.
  • the occupant H recognizes the light (image) emitted from the HUD body 420B as a virtual image formed at a predetermined position in front of the transparent screen 421B.
  • the occupant H can feel as if the HUD information is floating on the road.
  • the transparent screen 421B may be configured as a transparent combiner separated from the front window 60. Also in this case, the combiner has a HUD display area. Further, the occupant H recognizes the light (image) emitted from the HUD body 420B as a virtual image formed at a predetermined position in front of the combiner. The position where the virtual image is formed (the virtual image formation position) may be changed by adjusting the position of the optical system of the HUD 42B (particularly, the focal length of the projection optical system). At this point, the display control unit 43B (particularly, the first electronic control unit 47B) controls the position of the target object and the virtual image formation position to substantially match based on the position information of the target object existing in front of the vehicle 1B. , HUD42B can be controlled.
  • the drawing method of the HUD 42B may be a raster scan direction, a DLP method, or an LCOS method. When the DLP system or the LCOS system is adopted, the light source unit of the HUD 42B may be an LED
  • the display control unit 43B includes a road surface drawing device 45 (specifically, a left road surface drawing device 45L and a right road surface drawing device 45R), a head lamp 20 (specifically, a left head lamp 20L and a right head lamp 20R), and a HUD 42B. Is configured to control the operation. At this point, the display control unit 43B controls the operation of the road surface drawing device 45 (specifically, the left road surface drawing device 45L and the right road surface drawing device 45R) so that the light pattern is irradiated to a predetermined position on the road surface. It is configured to control. Further, the display control unit 43B is configured to control the operation of the HUD 42B so that the HUD information is displayed in the HUD display area D10.
  • the display control unit 43B is configured to determine whether to operate the road surface drawing device 45 and the HUD 42B. That is, in the present embodiment, the display control unit 43B is not configured to control the driving of the road surface drawing device 45 and the HUD 42B according to the instruction signal from the vehicle control unit 3. Rather, the display control unit 43B specifies an object around the vehicle 1B based on the detection data (for example, image data or the like) of the on-board sensor transmitted from the vehicle control unit 3, and then specifies the road surface drawing device 45 and It is configured to determine whether to operate the HUD 42B.
  • the detection data for example, image data or the like
  • the display control unit 43B includes a first electronic control unit 47B and a second electronic control unit 48B.
  • the first electronic control unit 47B is configured to control the operation of the HUD 42B. Further, when both the HUD 42B and the road surface drawing device 45 operate, the first electronic control unit 47B controls the operations of both the HUD 42B and the road surface drawing device 45.
  • the first electronic control unit 47B includes a computer system (for example, SoC or the like) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes at least one of a CPU, an MPU, a GPU, and a TPU.
  • the memory includes a ROM and a RAM. Further, the computer system may be configured by a non-Neumann computer such as an ASIC or an FPGA.
  • the second electronic control unit 48B is configured to control the operations of the headlamp 20 and the road surface drawing device 45.
  • the second electronic control unit 48B is configured to control the operation of the headlamp 20 and the road surface drawing device 45.
  • the first electronic control unit 47B controls the operation of both the HUD 42B and the road surface drawing device 45, while the second electronic control unit 48B The operation of the headlamp 20 is controlled.
  • the second electronic control unit 48B includes a computer system (for example, SoC or the like) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes at least one of a CPU, an MPU, a GPU, and a TPU.
  • the memory includes a ROM and a RAM.
  • the computer system may be configured by a non-Neumann computer such as an ASIC or an FPGA.
  • one or both of the first electronic control unit 47B and the second electronic control unit 48B constituting the display control unit 43B operate at least one of the HUD 42B, the road surface drawing device 45, and the headlamp 20. You may decide if you should. For example, while the first electronic control unit 47B determines whether to operate the HUD 42B, the second electronic control unit 48B determines whether to operate each of the road surface drawing device 45 and the headlamp 20. Good. Alternatively, the first electronic control unit 47B (or the second electronic control unit 48B) may determine whether to operate each of the HUD 42B, the road surface drawing device 45, and the headlamp 20.
  • first electronic control unit 47B and the second electronic control unit 48B are provided as separate components, but the first electronic control unit 47B and the second electronic control unit 48B are integrally configured. Is also good.
  • the first electronic control unit 47B and the second electronic control unit 48B may be configured by a single electronic control unit.
  • vehicle control unit 3 and the display control unit 43B are provided as separate components.
  • FIG. 28 is a flowchart for explaining an operation example of the display system 4B.
  • FIG. 29 is a diagram illustrating a state in which the vehicle 1B emits the light pattern L10 toward a pedestrian P1 (an example of an object) existing around the vehicle 1B.
  • FIG. 30 is a diagram illustrating an example of HUD information displayed in the HUD display area D10. In particular, FIG. 30 shows the HUD information M11 to M14 in the field of view of the occupant H and the light pattern L10 emitted on the road surface.
  • the first electronic control unit 47B determines whether to operate each of the HUD 42B, the road surface drawing device 45, and the headlamp 20.
  • step S61 the first electronic control unit 47B converts the detection data (for example, image data, 3D mapping data, and the like) acquired by the external camera 6A and / or the radar 7 from the vehicle control unit 3. Receive. Thereafter, when the first electronic control unit 47B specifies the presence of the pedestrian P1 based on the detection data (YES in step S61), the first electronic control unit 47B determines whether the pedestrian P1 exists within a predetermined distance from the vehicle 1B. A determination is made (step S62). On the other hand, if the decision result in the step S61 is NO, the present process ends.
  • the detection data for example, image data, 3D mapping data, and the like
  • the first electronic control unit 47B determines to display the HUD information on the HUD 42B and walks. It is determined that the light pattern L10 is emitted toward the person P1 (step S63). Further, in step S63, the first electronic control unit 47B determines, based on detection data such as image data and 3D mapping data, information (for example, the attribute of the target object) associated with the target object (in this example, the pedestrian P1). Information, position information of the object with respect to the vehicle 1B, and information relating to the future behavior of the object).
  • the first electronic control unit 47B controls the operation of the HUD 42B so that the HUD information M11 to M14 is displayed on the HUD 42B (in particular, the HUD display area D10) based on the information related to the object.
  • the first electronic control unit 47B transmits a control signal for controlling the operation of the HUD 42B to the HUD 42B.
  • HUD information M11 to M14 are displayed on HUD display area D10.
  • the HUD information M11 includes the attribute information of the target and the position information of the target with respect to the vehicle 1B.
  • the HUD information M11 indicates a pedestrian as the attribute information of the target and 26 m as the position information of the target.
  • the HUD information M12 includes information related to the behavior prediction of the target object.
  • the HUD information M12 indicates that the pedestrian P1 is going to cross the pedestrian crossing C as behavior prediction information of the pedestrian P1.
  • the HUD information M13 includes information indicating the presence of the target. As shown in FIG. 30, the HUD information M13 indicates a pedestrian mark as information indicating the presence of the pedestrian P1. Note that the HUD information M13 may include text information such as "there is a pedestrian" or graphic information such as an exclamation mark as information indicating the presence of the target object.
  • the HUD information M14 is a frame pattern surrounding the pedestrian P1.
  • the first electronic control unit 47B causes the road surface drawing device 45 to emit the light pattern L10 onto the road surface toward the pedestrian P1 based on the information related to the object. Control the operation of.
  • the first electronic control unit 47B transmits a control signal for controlling the operation of the road surface drawing device 45 to the road surface drawing device 45 via the second electronic control unit 48B.
  • the road surface drawing device 45 emits the light pattern L10 onto the road surface.
  • the light pattern L10 is a linear light pattern extending from the vehicle 1B toward the pedestrian P1.
  • the light pattern L10 can visually associate the vehicle 1B with the pedestrian P1.
  • the shape of the light pattern L10 is not limited to a linear shape, but may be an arbitrary shape such as a triangular shape or an arrow shape.
  • the HUD 42B operates to realize visual communication between the vehicle 1B and the occupant H.
  • the HUD 42B may not operate.
  • the second electronic control unit 48B may execute the processing of steps S61 to S63.
  • step S63 after the second electronic control unit 48B determines to emit the light pattern L10 toward the pedestrian P1, the light pattern L10 is emitted onto the road surface toward the pedestrian P1.
  • the operation of the road surface drawing device 45 is controlled.
  • the first electronic control unit 47B controls the operations of the HUD 42B and the road surface drawing device 45.
  • the second electronic control unit 48B controls the operation of the road surface drawing device 45.
  • the operation of the headlamp 20 may be constantly controlled by the second electronic control unit 48B. That is, when the HUD 42B does not operate, the second electronic control unit 48B may control the operations of the road surface drawing device 45 and the headlamp 20. On the other hand, when the HUD 42B operates, the first electronic control unit 47B may control the operation of the HUD 42B and the road surface drawing device 45, while the second electronic control unit 48B may control the operation of the headlamp 20.
  • the display control unit 43B (in particular, the first electronic control unit 47B) should operate the road surface drawing device 45 and the HUD 42B instead of the vehicle control unit 3 that controls the traveling of the vehicle 1B.
  • the operations of the road surface drawing device 45 and the HUD 42B are controlled.
  • the calculation load of the vehicle control unit 3 can be reduced, and the operations of the road surface drawing device 45 and the HUD 42B can be accelerated.
  • the second electronic control unit 48B controls the operation of the road surface drawing device 45.
  • the first electronic control unit 47B controls the operations of the HUD 42B and the road surface drawing device 45.
  • the HUD 42B and the road surface drawing device 45 operate in cooperation with each other (for example, when the emission position of the light pattern L10 is determined according to the display position of the HUD information, or according to the emission position of the light pattern L10).
  • the first electronic control unit 47B when the display position of the HUD information is determined), the first electronic control unit 47B generates a control signal for controlling the operation of the HUD 42B and a control signal for controlling the operation of the road surface drawing device 45. Therefore, the road surface drawing device 45 can be operated efficiently and at high speed in consideration of the operation content of the HUD 42B. Alternatively, the HUD 42B can be operated efficiently and at high speed in consideration of the operation content of the road surface drawing device 45.
  • the operation of the headlamp 20 is always controlled by the second electronic control unit 48B, but the present embodiment is not limited to this.
  • the first electronic control unit 47B may control all operations of the HUD 42B, the road surface drawing device 45, and the headlamp 20.
  • the HUD 42B, the road surface drawing device 45, and the headlamp 20 are operating, at least one of them can be operated efficiently and at high speed.
  • the HUD 42B can be operated efficiently and at high speed in consideration of the operation contents of the road surface drawing device 45 and / or the headlamp 20.
  • the driving mode of the vehicle has been described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode.
  • the driving mode of the vehicle includes these four modes. Should not be limited to.
  • the classification of the driving mode of the vehicle may be changed as appropriate in accordance with the laws and regulations regarding automatic driving in each country.
  • the definitions of “fully automatic driving mode”, “advanced driving assistance mode”, and “driving assistance mode” described in the description of the present embodiment are merely examples, and laws and regulations relating to automatic driving in each country or These definitions may be changed as appropriate according to the rules.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両に設けられた表示システムは、車両の外部の路面に向けて光パターン(L1)を出射するように構成された路面描画装置と、車両の内部に位置すると共に、HUD情報が車両の外部の現実空間と重畳されるようにHUD情報を車両の乗員に向けて表示するように構成されたHUDと、路面描画装置を制御するように構成された表示制御部と、を備える。表示制御部は、HUD情報が表示可能なHUD表示領域(D1)に対する乗員の入力操作に応じて、光パターン(L1)の出射を制御するように構成されている。

Description

車両用表示システム、車両システム及び車両
 本開示は、車両用表示システム、車両システム及び車両に関する。
 現在、自動車の自動運転技術の研究が各国で盛んに行われており、自動運転モードで車両(以下、「車両」は自動車のことを指す。)が公道を走行することができるための法整備が各国で検討されている。ここで、自動運転モードでは、車両システムが車両の走行を自動的に制御する。具体的には、自動運転モードでは、車両システムは、カメラ、レーダ(例えば、レーザレーダやミリ波レーダ)等のセンサから得られる車両の周辺環境を示す情報(周辺環境情報)に基づいてステアリング制御(車両の進行方向の制御)、ブレーキ制御及びアクセル制御(車両の制動、加減速の制御)のうちの少なくとも1つを自動的に行う。一方、以下に述べる手動運転モードでは、従来型の車両の多くがそうであるように、運転者が車両の走行を制御する。具体的には、手動運転モードでは、運転者の操作(ステアリング操作、ブレーキ操作、アクセル操作)に従って車両の走行が制御され、車両システムはステアリング制御、ブレーキ制御及びアクセル制御を自動的に行わない。尚、車両の運転モードとは、一部の車両のみに存在する概念ではなく、自動運転機能を有さない従来型の車両も含めた全ての車両において存在する概念であって、例えば、車両制御方法等に応じて分類される。
 このように、将来において、公道上では自動運転モードで走行中の車両(以下、適宜、「自動運転車」という。)と手動運転モードで走行中の車両(以下、適宜、「手動運転車」という。)が混在することが予想される。
 自動運転技術の一例として、特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が照明システムを備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の照明システムに表示されると共に、自動追従走行である旨を示す文字情報が後続車の照明システムに表示される。
日本国特開平9-277887号公報
 将来の自動運転社会では、自動運転車と人間との間の視覚的コミュニケーションが重要になっていくことが予想される。特に、車両と当該車両の外部に存在する歩行者等の対象物との間の視覚的コミュニケーション及び車両と当該車両の乗員との間の視覚的コミュニケーションが益々重要になっていくことが予想される。この点において、光パターンを路面上に出射する路面描画装置を用いて車両と対象物との間の視覚的コミュニケーションを実現することができると共に、ヘッドアップディスプレイ(HUD)を用いて車両と乗員との間の視覚的コミュニケーションを実現することができる。
 ところで、通常では車両用表示システムの表示制御部(車載コンピュータ)が光パターンの出射を自動的に制御しているが、車両の周辺環境の状況に応じて、乗員自身が光パターンの出射を手動で制御したい場合がある。例えば、光パターンが路面上に出射されていない状況において、乗員が車両の周辺に存在する特定の歩行者に向けて光パターンを出射したい場合等が想定される。このように、光パターンの出射の手動制御の観点より車両用表示システムをさらに改善する余地がある。
 また、路面描画装置およびHUDが搭載された車両では、路面描画装置及びHUDのうちの少なくとも一方に異常が生じた場合、車両と乗員との間の視覚的コミュニケーションを継続できなくなる。このように、路面描画装置及びHUDのうちの少なくとも一方に異常が生じた場合であっても車両と乗員との間の視覚的コミュニケーションを継続可能な車両用表示システムについて検討する余地がある。
 さらに、車両と人間との間の視覚的コミュニケーションの信頼性をさらに高めるために、路面描画装置とHUDの動作をより高速化させたいといった要望も少なからず存在する。このように、路面描画装置とHUDの動作の高速化の観点から車両システムをさらに改善する余地がある。
 本開示の第1の目的は、乗員が光パターンを手動制御する場合におけるユーザビリティが向上した車両用表示システム及び車両を提供することである。
 本開示の第2の目的は、車両用表示システムに異常が生じた場合でも車両と乗員との間の視覚的コミュニケーションを継続可能な車両用表示システム及び車両を提供することである。
 本開示の第3の目的は、HUDと路面描画装置の動作を高速化させることが可能な車両システム及び車両を提供することである。
 本開示の一態様の車両用表示システムは、車両に設けられ、
 前記車両の外部の路面に向けて光パターンを出射するように構成された第1表示装置と、
 前記車両の内部に位置すると共に、所定の情報が前記車両の外部の現実空間と重畳されるように前記所定の情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
 前記第1表示装置を制御するように構成された表示制御部と、を備える。
 前記表示制御部は、前記所定の情報が表示可能な表示領域に対する前記乗員の入力操作に応じて、前記光パターンの出射を制御するように構成されている。
 上記構成によれば、表示領域に対する乗員の入力操作に応じて光パターンの出射が制御される。このように、乗員は、直感的な入力操作によって光パターンの出射を制御することが可能となる。したがって、乗員が光パターンを手動制御する場合におけるユーザビリティが向上した車両用表示システムを提供することができる。
 また、前記表示制御部は、前記乗員の視点の位置と前記入力操作の入力位置に基づいて、前記光パターンの出射位置を制御するように構成されてもよい。
 上記構成によれば、乗員の視点の位置と乗員の入力操作の入力位置に基づいて、光パターンの出射位置が制御される。このように、乗員は、直感的な入力操作により光パターンの出射位置を決定することが可能となる。したがって、乗員が光パターンを手動制御する場合におけるユーザビリティが向上した車両用表示システムを提供することができる。
 また、前記表示制御部は、前記表示領域に対する前記入力操作に応じて、前記光パターンの出射を開始するように構成されてもよい。
 上記構成によれば、表示領域に対する入力操作に応じて光パターンの出射が開始される。このように、乗員による直感的な入力操作によって車両の外部に存在する対象物(例えば、歩行者等)に向けて光パターンを出射することができる。
 また、前記表示制御部は、
 前記乗員の視点の位置と、前記入力操作の第1入力位置に基づいて、前記路面上における前記光パターンの開始位置を特定し、
 前記視点の位置と、前記入力操作の第2入力位置に基づいて、前記路面上における前記光パターンの終了位置を特定し、
 前記開始位置と前記終了位置とに基づいて、前記光パターンを前記路面上に出射する、ように構成されてもよい。
 上記構成によれば、乗員の視点の位置と入力操作の第1入力位置に基づいて光パターンの開始位置が特定されると共に、乗員の視点と入力操作の第2入力位置に基づいて光パターンの終了位置が特定される。さらに、光パターンの開始位置と終了位置に基づいて光パターンが路面上に出射される。このように、乗員による直感的な入力操作によって車両の外部の対象物に向けて光パターンを出射することができる。
 また、前記表示制御部は、前記表示領域に対する前記入力操作に応じて、前記光パターンの出射位置を変更するように構成されてもよい。
 上記構成によれば、表示領域に対する入力操作に応じて光パターンの出射位置が変更される。このように、乗員による直感的な入力操作によって光パターンの出射位置を変更することができる。
 また、前記表示制御部は、
 前記乗員の視点の位置と、前記入力操作の第3入力位置に基づいて、前記路面上における第1指定位置を特定し、
 前記第1指定位置が前記路面上に出射された光パターンと重なる場合に、前記視点の位置と、前記入力操作の第4入力位置に基づいて、前記路面上における第2指定位置を特定し、
 前記第2指定位置に基づいて、前記光パターンの出射位置を変更する、
ように構成されてもよい。
 上記構成によれば、第1指定位置が光パターンの出射位置と重なる場合に、光パターンの出射位置が第2指定位置に変更される。このように、乗員による直感的な入力操作によって光パターンの出射位置を変更することができる。
 また、前記表示領域は、前記入力操作を受付けるように構成されたタッチパネルを有してもよい。
 上記構成によれば、タッチパネルに対する乗員の入力操作に応じて光パターンの出射が制御される。このように、乗員による直感的な入力操作によって光パターンの出射を制御することが可能となる。
 また、車両用表示システムは、前記車両の内部に位置すると共に、前記乗員を示す画像データを取得するように構成されたトラッキングカメラをさらに備えてもよい。
 前記表示制御部は、
 前記画像データに基づいて、前記乗員の視点の位置及び前記乗員の手の位置を特定し、
 前記手の位置に基づいて、前記入力操作の入力位置を特定し、
 前記視点の位置と前記入力操作の入力位置に基づいて、前記光パターンの出射位置を制御するように構成されてもよい。
 上記構成によれば、トラッキングカメラによって取得された画像データに基づいて乗員の視点の位置と乗員の手の位置が特定された上で、乗員の手の位置に基づいて乗員の入力操作の入力位置が特定される。さらに、乗員の視点の位置と入力操作の入力位置に基づいて光パターンの出射位置が制御される。このように、(タッチパネルを用いない)空間中の手の動作によって光パターンの出射位置を制御することが可能となる。したがって、乗員が光パターンを手動制御する場合におけるユーザビリティが向上した車両用表示システムを提供することができる。
 本開示の一態様に係る車両用表示システムは、車両に設けられた車両用表示システムであって、
 前記車両の外部の路面に向けて光パターンを出射するように構成された第1表示装置と、
 前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
 前記第1表示装置及び前記第2表示装置を制御するように構成された表示制御部と、
を備える。
 前記表示制御部は、
 前記第1表示装置に異常があると判断された場合に、前記光パターンに対応する情報を前記第2表示装置に表示させる。
 上記構成によれば、第1表示装置に異常があると判断された場合に、光パターンに対応する情報を第2表示装置に表示させる。このように、第1表示装置に異常が生じた場合でも車両と乗員との間の視覚的コミュニケーションを行うことが可能な車両用表示システムを提供することができる。
 また、第1表示装置に異常があると判断された場合に、前記表示制御部は、前記第1表示装置が複数の前記光パターンを出射している場合には、前記複数の光パターンにそれぞれ対応する情報を前記第2表示装置に表示させてもよい。
 上記構成によれば、全ての光パターンに対応する情報を第2表示装置に表示させる。このように、乗員は、第1表示装置に異常が生じた場合でも、異常前と同じ情報を継続的に把握することができる。
 また、前記表示制御部は、前記第1表示装置の異常情報を前記第2表示装置に表示させてもよい。
 上記構成によれば、第1表示装置が異常である情報を第2表示装置に表示させる。このように、乗員は、第1表示装置が異常であることを把握することができる。
 また、前記表示制御部は、前記第2表示装置に異常があると判断された場合に、前記車両走行情報に対応する光パターンを前記第1表示装置に出射させる。
 上記構成によれば、第2表示装置に異常があると判断された場合に、車両走行情報に対応する光パターンを第1表示装置に出射させる。このように、第2表示装置に異常が生じた場合でも車両と乗員との間の視覚的コミュニケーションを行うことが可能な車両用表示システムを提供することができる。
 本開示の他の態様に係る車両用表示システムは、車両に設けられた車両用表示システムであって、
 前記車両の外部の路面に向けて光パターンを出射するように構成された第1表示装置と、
 前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
 前記第1表示装置及び前記第2表示装置を制御するように構成された表示制御部と、
を備える。
 前記表示制御部は、
 前記第2表示装置に異常があると判断された場合に、前記車両走行情報に対応する光パターンを前記第1表示装置に出射させる。
 上記構成によれば、第2表示装置に異常があると判断された場合に、車両走行情報に対応する光パターンを第1表示装置に出射させる。このように、第2表示装置に異常が生じた場合でも車両と乗員との間の視覚的コミュニケーションを行うことが可能な車両用表示システムを提供することができる。
 また、第2表示装置に異常があると判断された場合に、前記表示制御部は、前記第2表示装置が複数の前記車両走行情報を表示している場合には、前記複数の車両走行情報の少なくとも1つの車両走行情報に対応する光パターンを前記第1表示装置に出射させてもよい。
 上記構成によれば、複数の車両走行情報のうち少なくとも1つの情報に対応する光パターンを第1表示装置に出射させる。例えば、複数の車両走行情報のうち、光パターンから読み取ることが容易な図形の情報や簡単な文字の情報からなる車両走行情報に対応する光パターンを第1表示装置に出射させる。このように、乗員は、第2表示装置に異常が生じた場合でも、異常前とほぼ同じ情報を継続的に且つ正確に把握することができる。
 また、上記車両用表示システムを備えた、車両が提供されてもよい。
 上記構成によれば、車両用表示システムに異常が生じた場合でも車両と乗員との間の視覚的コミュニケーションを継続可能な車両用表示システムを提供することができる。
 本開示の一態様の車両システムは、車両に設けられており、前記車両の走行を制御するように構成された車両制御部と、車両用表示システムと、を備える。
 前記車両用表示システムは、
 前記車両の内部に位置すると共に、所定の情報が前記車両の外部の現実空間と重畳されるように前記所定の情報を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイ(HUD)と、
 前記車両の外部の路面に向けて光パターンを出射するように構成された路面描画装置と、
 前記路面描画装置及び前記HUDを動作させるべきかどうかを決定すると共に、前記路面描画装置及び前記HUDの動作を制御するように構成された表示制御部と、を備える。
 上記構成によれば、車両制御部に代わって、表示制御部が路面描画装置及びHUDを動作させるべきかどうかを決定すると共に、路面描画装置及びHUDの動作を制御する。このように、車両制御部による演算負荷を減らすことができると共に、路面描画装置及びHUDの動作を高速化させることが可能となる。
 また、前記表示制御部は、
 第1プロセッサと、第1メモリとを備え、前記HUDの動作を制御するように構成された第1電子制御ユニットと、
 第2プロセッサと、第2メモリとを備えた第2電子制御ユニットと、
を有してもよい。
 前記HUDが動作していない場合に、前記第2電子制御ユニットが、前記路面描画装置の動作を制御してもよい。
 前記HUDが動作している場合に、前記第1電子制御ユニットが、前記HUD及び前記路面描画装置の動作を制御してもよい。
 上記構成によれば、HUDが動作していない場合に、第2電子制御ユニットが路面描画装置の動作を制御する一方で、HUDが動作している場合に、第1電子制御ユニットがHUD及び路面描画装置の動作を制御する。このように、HUDと路面描画装置の両方が動作している場合にHUDと路面描画装置のうちの少なくとも一方を効率的且つ高速に動作させることが可能となる。特に、HUDと路面描画装置が互いに協調して動作している場合に(換言すれば、HUDと路面描画装置のうちの一方の動作内容に応じて他方の動作内容が決定される場合に)、第1電子制御ユニットは、HUDの動作を制御するための制御信号だけでなく路面描画装置の動作を制御するための制御信号を生成する。このため、HUDの動作内容を考慮した上で路面描画装置を効率的且つ高速に動作させることが可能となる。または、路面描画装置の動作内容を考慮した上でHUDを効率的且つ高速に動作させることが可能となる。
 また、前記車両用表示システムは、
 前記車両の外部に向けてロービーム及び/又はハイビームを出射するように構成された照明装置をさらに備えてもよい。
 前記HUDが動作していない場合に、前記第2電子制御ユニットが、前記路面描画装置及び前記照明装置の動作を制御してもよい。
 前記HUDが動作している場合に、前記第1電子制御ユニットが、前記HUD及び前記路面描画装置の動作を制御する一方、前記第2電子制御ユニットが、前記照明装置の動作を制御してもよい。
 上記構成によれば、HUDが動作していない場合に、第2電子制御ユニットが路面描画装置及び照明装置の動作を制御する一方で、HUDが動作している場合に、第1電子制御ユニットがHUD及び路面描画装置の両方の動作を制御する。このように、HUDと路面描画装置の両方が動作している場合にHUDと路面描画装置のうちの少なくとも一方を効率的且つ高速に動作させることが可能となる。
 また、前記車両用表示システムは、
 前記車両の外部に向けてロービーム及び/又はハイビームを出射するように構成された照明装置をさらに備えてもよい。
 前記HUDが動作していない場合に、前記第2電子制御ユニットが、前記路面描画装置及び前記照明装置の動作を制御してもよい。
 前記HUDが動作している場合に、前記第1電子制御ユニットが、前記HUD、前記路面描画装置及び前記照明装置の動作を制御してもよい。
 上記構成によれば、HUDが動作していない場合に、第2電子制御ユニットが路面描画装置及び照明装置の動作を制御する一方で、HUDが動作している場合に、第1電子制御ユニットがHUD、路面描画装置及び照明装置の全ての動作を制御する。このように、HUD、路面描画装置、照明装置の全てが動作している場合に、HUD、路面描画装置及び照明装置のうちの少なくとも一方を効率的且つ高速に動作させることが可能となる。特に、HUDと、路面描画装置と、照明装置とが互いに協調して動作している場合に、第1電子制御ユニットは、HUDの動作を制御するための制御信号だけでなく路面描画装置の動作を制御するための制御信号および照明装置の動作を制御するための制御信号を生成する。このため、HUDの動作内容を考慮した上で路面描画装置及び照明装置を効率的且つ高速に動作させることが可能となる。または、路面描画装置と照明装置の動作内容を考慮した上でHUDを効率的且つ高速に動作させることが可能となる。
 また、上記車両システムを備えた車両が提供される。
 上記によれば、HUDと路面描画装置の動作を高速化させることが可能な車両を提供することができる。
 本開示によれば、乗員が光パターンを手動制御する場合におけるユーザビリティが向上した車両用表示システム及び車両を提供することができる。
 また、車両用表示システムに異常が生じた場合でも車両と乗員との間の視覚的コミュニケーションを継続可能な車両用表示システム及び当該車両用表示システムを備えた車両を提供することができる。
 さらに、HUDと路面描画装置の動作を高速化させることが可能な車両システム及び車両を提供することができる。
本発明の第1実施形態に係る車両システムが搭載された車両の正面図である。 第1実施形態に係る車両システムのブロック図である。 車両の乗員と、ダッシュボード上に配置されたHUD(Head-Up Display)と、乗員の視点をトラッキングする内部カメラとをそれぞれ示す図である。 第1実施形態の表示システムの第1動作例を説明するためのフローチャートである。 車両と車両の周辺に存在する歩行者を示す図である。 乗員の視点の位置とタッチ位置とに基づいて光パターンの開始位置を特定する方法を説明するための図である。 スワイプ操作によってHUD表示領域上における2つの入力位置が指定される様子を示す図である。 スワイプ操作によって指定された2つの入力位置に基づいて光パターンが路面上に出射される様子を示す図である。 車両から歩行者に向けて出射された光パターンを示す図である。 第1実施形態の表示システムの第2動作例を説明するためのフローチャートである。 車両から出射された光パターンを示す図である。 乗員の視界において乗員の入力操作によって指定された第1指定位置と光パターンが重なる様子を示す図である。 HUD表示領域に対する乗員のスワイプ操作によって光パターンの出射位置が変更される様子を示す図である。 車両から出射された光パターンの出射位置が変更される様子を示す図である。 内部カメラによって取得された画像データに基づいて入力操作の入力位置を特定する方法を説明するための図である。 本発明の第2実施形態に係る車両システムのブロック図である。 第2実施形態に係る表示制御部による表示制御の一例を説明するためのフローチャートである。 第2実施形態に係る路面描画表示の一例を説明するための図である。 第2実施形態に係るHUD表示の一例を説明するための図である。 第2実施形態に係る路面描画表示異常時のHUD表示の一例を説明するための図である。 第2実施形態に係るHUD表示の一例を説明するための図である。 第2実施形態に係る路面描画表示の一例を説明するための図である。 第2実施形態に係るHUD表示異常時の路面描画表示の一例を説明するための図である。 本発明の第3実施形態に係る表示制御部による表示制御の一例を説明するためのフローチャートである。 第2実施形態に係る表示制御部による表示制御の変形例を説明するためのフローチャートである。 第3実施形態に係る表示制御部による表示制御の変形例を説明するためのフローチャートである。 本発明の第4実施形態に係る車両システムが搭載された車両の正面図である。 第4実施形態に係る車両システムのブロック図である。 HUDから出射された光が乗員の目に到達する様子を示す図である。 第4実施形態の表示システムの動作例を説明するためのフローチャートである。 車両が車両の周辺に存在する歩行者に向けて光パターンを出射する様子を示す図である。 HUD表示領域に表示されたHUD情報の一例を示す図である。
(第1実施形態)
 以下、本発明の第1実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図1に示す車両1について設定された相対的な方向である。ここで、「左右方向」は、「左方向」及び「右方向」を含む方向である。「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。前後方向は、図1では示されていないが、左右方向及び上下方向に直交する方向である。
 最初に、図1及び図2を参照して、本実施形態に係る車両システム2について以下に説明する。図1は、車両システム2が搭載された車両1の正面図である。図2は、車両システム2のブロック図である。車両1は、自動運転モードで走行可能な車両(自動車)である。
 図2に示すように、車両システム2は、車両制御部3と、車両用表示システム4(以下、単に「表示システム4」という。)と、センサ5と、カメラ6と、レーダ7とを備える。さらに、車両システム2は、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11と、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
 車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
 表示システム4は、左側ヘッドランプ20Lと、右側ヘッドランプ20Rと、左側路面描画装置45Lと、右側路面描画装置45Rとを備える。さらに、表示システム4は、HUD(Head-Up Display)42と、表示制御部43とを備える。
 図1に示すように、左側ヘッドランプ20Lは、車両1の左側前面に配置されており、ロービームを車両1の前方に照射するように構成されたロービームランプと、ハイビームを車両1の前方に照射するように構成されたハイビームランプとを備える。右側ヘッドランプ20Rは、車両1の右側前面に配置されており、ロービームを車両1の前方に照射するように構成されたロービームランプと、ハイビームを車両1の前方に照射するように構成されたハイビームランプとを備える。ロービームランプとハイビームランプの各々は、LED(Light Emitting Diode)やLD(Laser Diode)等の1以上の発光素子と、レンズ及びリフレクタ等の光学部材を有する。また、以降では、説明の便宜上、左側ヘッドランプ20L及び右側ヘッドランプ20Rを単にヘッドランプ20と総称する場合がある。
 左側路面描画装置45L(第1表示装置の一例)は、左側ヘッドランプ20Lの灯室内に配置されている。左側路面描画装置45Lは、車両1の外部の路面に向けて光パターンを出射するように構成されている。左側路面描画装置45Lは、例えば、光源部と、駆動ミラーと、レンズやミラー等の光学系と、光源駆動回路と、ミラー駆動回路とを有する。光源部は、レーザ光源又はLED光源である。例えば、レーザ光源は、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。駆動ミラーは、例えば、MEMS(Micro Electro Mechanical Systems)ミラー、DMD(Digital Mirror Device)、ガルバノミラー、ポリゴンミラー等である。光源駆動回路は、光源部を駆動制御するように構成されている。光源駆動回路は、表示制御部43から送信された所定の光パターンに関連する信号に基づいて、光源部の動作を制御するための制御信号を生成した上で、当該生成された制御信号を光源部に送信するように構成されている。ミラー駆動回路は、駆動ミラーを駆動制御するように構成されている。ミラー駆動回路は、表示制御部43から送信された所定の光パターンに関連する信号に基づいて、駆動ミラーの動作を制御するための制御信号を生成した上で、当該生成された制御信号を駆動ミラーに送信するように構成されている。光源部がRGBレーザ光源である場合、左側路面描画装置45Lは、レーザ光を走査することで様々の色の光パターンを路面上に描画することが可能となる。例えば、光パターンは、車両1の進行方向を示す矢印形状の光パターンであってもよい。
 右側路面描画装置45R(第1表示装置の一例)は、右側ヘッドランプ20Rの灯室内に配置されている。右側路面描画装置45Rは、車両1の外部の路面に向けて光パターンを出射するように構成されている。左側路面描画装置45Lと同様に、右側路面描画装置45Rは、光源部と、駆動ミラーと、レンズ等の光学系と、光源駆動回路と、ミラー駆動回路とを有する。
 また、左側路面描画装置45L及び右側路面描画装置45Rの描画方式は、ラスタースキャン方式、DLP(Digital Light Processing)方式又はLCOS(Liquid Crystal on Silicon)方式であってもよい。DLP方式又はLCOS方式が採用される場合、光源部はLED光源であってもよい。また、左側路面描画装置45L及び右側路面描画装置45Rの描画方式として、プロジェクション方式が採用されてもよい。プロジェクション方式が採用される場合、光源部は、マトリクス状に並んだ複数のLED光源であってもよい。さらに、本実施形態では、左側路面描画装置45L及び右側路面描画装置45Rは、車体ルーフ100A上に配置されてもよい。この点において、1つの路面描画装置が車体ルーフ100A上に配置されてもよい。以降では、説明の便宜上、左側路面描画装置45L及び右側路面描画装置45Rを単に路面描画装置45と総称する場合がある。また、以降の説明において、路面描画装置45は、左側路面描画装置45L、右側路面描画装置45R又は左側路面描画装置45Lと右側路面描画装置45Rの組み合わせを示すものとする。
 HUD42(第2表示装置の一例)は、車両1の内部に位置する。具体的には、HUD42は、車両1の室内の所定箇所に設置されている。例えば、図3に示すように、HUD42は、車両1のダッシュボード上に配置されてもよい。HUD42は、車両1と乗員Hとの間の視覚的インターフェースとして機能する。HUD42は、所定の情報(以下、HUD情報という。)が車両1の外部の現実空間(特に、車両1の前方の周辺環境)と重畳されるように当該HUD情報を乗員Hに向けて表示するように構成されている。このように、HUD42は、AR(Augmented Reality)ディスプレイとして機能する。HUD42によって表示されるHUD情報は、例えば、車両1の走行に関連した車両走行情報及び/又は車両1の周辺環境に関連した周辺環境情報(特に、車両1の外部に存在する対象物に関連した情報)である。
 図3に示すように、HUD42は、HUD本体部420と、透明スクリーン421とを有する。HUD本体部420は、光源部と、駆動ミラーと、光学系と、光源駆動回路と、ミラー駆動回路とを有する。光源部は、例えば、レーザ光源又はLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑光レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。駆動ミラーは、例えば、MEMSミラー、DMD、ガルバノミラー、ポリゴンミラー等である。光学系は、プリズム、レンズ、拡散板、拡大鏡のうち少なくとも一つを含む。光源駆動回路は、光源部を駆動制御するように構成されている。光源駆動回路は、表示制御部43から送信された画像データに基づいて、光源部の動作を制御するための制御信号を生成した上で、当該生成された制御信号を光源部に送信するように構成されている。ミラー駆動回路は、駆動ミラーを駆動制御するように構成されている。ミラー駆動回路は、表示制御部43から送信された画像データに基づいて、駆動ミラーの動作を制御するための制御信号を生成した上で、当該生成された制御信号を駆動ミラーに送信するように構成されている。
 透明スクリーン421は、透明なコンバイナー(透明な板状部材)である。透明スクリーン421は、HUD情報が表示可能なHUD表示領域D1を有する(図6,7等を参照)。HUD本体部420から出射された光(画像)は、透明スクリーン421のHUD表示領域D1に照射される。次に、HUD表示領域D1は、HUD本体部420から出射された光を乗員Hの視点Eに向けて反射する。この結果、乗員Hは、HUD本体部420から出射された光(画像)を透明スクリーン421の前方の所定の位置において形成された虚像として認識する。このように、HUD42によって表示されるHUD情報(画像)が車両1の前方の現実空間に重畳される結果、乗員Eは、当該HUD情報が道路上に浮いているように感じることができる。
 また、透明スクリーン421は、乗員Hの入力操作を受け付けるように構成されたタッチパネルを有する。特に、透明スクリーン421のHUD表示領域D1にタッチパネルが設けられている。乗員HがHUD表示領域D1を手指で触れることで、透明スクリーン421(特に、タッチパネル)から乗員Hの入力操作に対応する所定の操作信号が生成された上、当該操作信号が表示制御部43に送信される。このように、表示制御部43は、タッチパネルに対する乗員Hの入力操作に応じて所定の処理を実行するように構成されている。
 尚、本実施形態では、透明スクリーン421はフロントウィンドウ60の一部によって構成されてもよい。この場合でも、フロントウィンドウ60の一部はHUD表示領域D1を有する。さらに、乗員Hは、HUD本体部420から出射された光(画像)を、フロントウィンドウ60の前方の所定の位置において形成された虚像として認識する。
 また、虚像が形成される位置(虚像形成位置)は、HUD42の光学系の位置(特に、投影光学系の焦点距離)を調整することで可変されてもよい。この点において、表示制御部43は、車両1の前方に存在する対象物の位置情報に基づいて、対象物の位置と虚像形成位置が略一致するように、HUD42を制御することができる。また、HUD42の描画方式は、ラスタースキャン方向、DLP方式又はLCOS方式であってもよい。DLP方式又はLCOS方式が採用される場合、HUD42の光源部はLED光源であってもよい。
 表示制御部43は、路面描画装置45(具体的には、左側路面描画装置45Lと右側路面描画装置45R)、ヘッドランプ20(具体的には、左側ヘッドランプ20Lと右側ヘッドランプ20R)及びHUD42の動作を制御するように構成されている。この点において、表示制御部43は、路面上の所定の位置に光パターンが照射されるように路面描画装置45(具体的には、左側路面描画装置45Lと右側路面描画装置45R)の動作を制御するように構成されている。特に、表示制御部43は、HUD表示領域D1(タッチパネル)に対する乗員Hの入力操作に応じて、光パターンの出射を制御するように構成されている。さらに、表示制御部43は、HUD情報がHUD表示領域D1に表示されるようにHUD42の動作を制御するように構成されている。
 表示制御部43は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
 本実施形態では、車両制御部3と表示制御部43は、別個の構成として設けられているが、車両制御部3と表示制御部43は一体的に構成されてもよい。この点において、表示制御部43と車両制御部3は、単一の電子制御ユニットにより構成されていてもよい。また、表示制御部43は、ヘッドランプ20と路面描画装置45の動作を制御するように構成された電子制御ユニットと、HUD42の動作を制御するように構成された電子制御ユニットの2つの電子制御ユニットによって構成されてもよい。
 センサ5は、加速度センサ、速度センサ及びジャイロセンサのうち少なくとも一つを含む。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。
 カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、一以上の外部カメラ6Aと、内部カメラ6Bとを含む。外部カメラ6Aは、車両1の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の距離や位置に関する情報とを含んでもよい。外部カメラ6Aは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。
 内部カメラ6Bは、車両1の内部に配置されると共に、乗員Hを示す画像データを取得するように構成されている。内部カメラ6Bは、車両1の天井の所定の位置に配置されてもよいし(図3参照)、ダッシュボード上に配置されてもよい。内部カメラ6Bは、乗員Hの視点Eをトラッキングするトラッキングカメラとして機能する。ここで、乗員Hの視点Eは、乗員Hの左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。表示制御部43は、内部カメラ6Bによって取得された画像データに基づいて、乗員Hの視点Eの位置を特定してもよい。乗員Hの視点Eの位置は、画像データに基づいて、所定の周期で更新されてもよいし、車両1の起動時に一回だけ決定されてもよい。
 レーダ7は、ミリ波レーダ、マイクロ波レーダ及びレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含む。例えば、LiDARユニットは、車両1の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイ(HUDを除く)である。GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
 無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備又は携帯型電子機器とアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備又は携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及び無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1は、他車両、インフラ設備又は携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
 記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2次元又は3次元の地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3次元の地図情報は、3Dマッピングデータ(点群データ)によって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10と通信ネットワークを介して更新されてもよい。
 車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、車両1の走行を自動的に制御する。つまり、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
 次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
 また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替える。
 次に、図4から図9を参照することで本実施形態の表示システム4の第1動作例について以下に説明する。図4は、本実施形態の表示システム4の第1動作例を説明するためのフローチャートである。図5は、車両1と車両1の周辺に存在する歩行者P1を示す図である。図6は、乗員Hの視点Eの位置とタッチ位置C1とに基づいて光パターンL1の開始位置e1を特定する方法を説明するための図である。図7は、スワイプ操作によってHUD表示領域D1上における2つの入力位置(タッチ位置C1と終了位置C2)が指定される様子を示す図である。図8は、スワイプ操作によって指定された2つの入力位置に基づいて光パターンL1が路面上に出射される様子を示す図である。図9は、車両1から歩行者P1に向けて出射された光パターンL1を示す図である。尚、図7,8では、透明スクリーン421のHUD表示領域D1を通じて乗員Eにより視認される前方の周辺環境が示されている。
 図4に示すように、ステップS1において、表示制御部43は、HUD表示領域D1(タッチパネル)に対する乗員Hのタッチ操作が検出されたかどうかを判定する。ステップS1の判定結果がYESの場合、処理はステップS2に進む。一方、ステップS1の判定結果がNOである場合、タッチ操作が検出されるまでステップS1の判定処理が繰り返し実行される。
 次に、ステップS2において、表示制御部43は、乗員Hの視点Eの位置と乗員Hの手Tのタッチ位置C1(第1入力位置の一例、図7参照)とに基づいて、路面上における光パターンL1の開始位置e1(図9参照)を特定する。具体的には、表示制御部43は、内部カメラ6Bによって取得された乗員Hを示す画像データに基づいて、乗員Hの視点Eの位置を特定する。また、透明スクリーン421(タッチパネル)は、乗員Hのタッチ操作に応じて手Tのタッチ位置C1を示す操作信号を生成した上で、当該操作信号を表示制御部43に送信する。次に、表示制御部43は、視点Eの位置とタッチ位置C1とに基づいて光パターンL1の開始位置e1を特定する。この点において、図6に示すように、視点Eの位置とタッチ位置C1とを通る直線と路面との交点が開始位置e1として特定される。
 次に、ステップS3において、表示制御部43は、HUD表示領域D1に対する乗員Hのスワイプ操作が終了したかどうかを判定する。ステップS3の判定結果がYESの場合、処理はステップS4に進む。一方、ステップS3の判定結果がNOである場合、表示制御部43は乗員Hのスワイプ操作が終了するまで待機する。
 次に、ステップS4において、表示制御部43は、乗員Hの視点Eの位置とスワイプ操作の終了位置C2(第2入力位置の一例、図7参照)とに基づいて、路面上における光パターンL1の終了位置e2(図9参照)を特定する。具体的には、表示制御部43は、内部カメラ6Bによって取得された画像データに基づいて、乗員Hの視点Eの位置を特定する。さらに、透明スクリーン421は、乗員Hのスワイプ操作の終了位置C2を示す操作信号を生成した上で、当該操作信号を表示制御部43に送信する。次に、表示制御部43は、視点Eの位置と終了位置C2とに基づいて光パターンL1の終了位置e2を特定する。
 次に、ステップS5において、表示制御部43は、開始位置e1と終了位置e2とに基づいて光パターンL1を路面上に出射させる。特に、図9に示すように、表示制御部43は、光パターンL1の一端が開始位置e1に対応すると共に、光パターンL1の他端が終了位置e2に対応するように光パターンL1の出射を制御する。また、図8に示すように、乗員Hの視界において、タッチ位置C1は光パターンL1の一端に重なると共に、スワイプ操作の終了位置C2は光パターンL1の他端に重なる。
 表示システム4の第1動作例によれば、HUD表示領域D1に対する乗員Hの入力操作に応じて光パターンの出射が制御される。このように、乗員Hは、直感的な入力操作(例えば、スワイプ操作)によって光パターンの出射を制御することが可能となる。したがって、乗員Hが光パターンを手動制御する場合におけるユーザビリティが向上した表示システム4を提供することができる。
 特に、本動作例では、HUD表示領域D1に対する入力操作に応じて光パターンL1の出射が開始される。より具体的には、乗員Hの視点Eの位置とタッチ位置C1とに基づいて光パターンL1の開始位置e1が特定されると共に、視点Eの位置とスワイプ操作の終了位置C2とに基づいて光パターンL1の終了位置e2が特定される。さらに、開始位置e1と終了位置e2に基づいて光パターンL1が路面上に出射される。このように、乗員Hによる直感的な入力操作によって車両1の外部に存在する歩行者P1等の対象物に向けて光パターンL1を出射することができる。歩行者P1は、路面上に出射された光パターンL1を見ることで、車両1が歩行者P1を認識していることを明確に把握することができるため、安心することができる。このように、光パターンL1によって車両1と歩行者P1等の対象物との間のリッチな視覚的コミュニケーションを実現することが可能となる。
 尚、本実施形態では、乗員Hのスワイプ操作によって光パターンの出射が制御されているが、乗員Hの入力操作はスワイプ操作に限定されるものではない。例えば、スワイプ操作以外の入力操作(2回のタッチ操作)によって光パターンの出射が制御されてもよい。この場合、1回目のタッチ操作によって光パターンL1の開始位置e1が特定されると共に、2回目のタッチ操作によって光パターンL1の終了位置e2が特定されてもよい。
 さらに、本実施形態の説明では、光パターンL1は直線状の光パターンであるが、光パターンL1の形状は、直線状に限定されるものではなく、三角形状や矢印形状等の任意の形状であってもよい。また、本実施形態では、視点Eの位置は、内部カメラ6Bによって取得された画像データに基づいて所定の周期で更新されているが、本実施形態はこれに限定されるものではない。例えば、視点Eの位置は車両1の起動時に一回だけ決定されてもよい。
 次に、図10から図14を参照することで本実施形態の表示システム4の第2動作例について以下に説明する。図10は、本実施形態の表示システム4の第2動作例を説明するためのフローチャートである。図11は、車両1から出射された光パターンL2を示す図である。図12は、乗員Hの視界において乗員Hの入力操作によって指定された第1指定位置C3と光パターンL2が重なる様子を示す図である。図13は、HUD表示領域D1に対する乗員Hのスワイプ操作によって光パターンL2の出射位置が変更される様子を示す図である。図14は、車両1から出射された光パターンL2の出射位置が変更される様子を示す図である。尚、本動作例では、前提条件として、車両1は路面上に光パターンL2を既に出射しているものとする。
 図10に示すように、ステップS10において、表示制御部43は、HUD表示領域D1に対する乗員Hのタッチ操作が検出されたかどうかを判定する。ステップS10の判定結果がYESの場合、処理はステップS11に進む。一方、ステップS10の判定結果がNOである場合、タッチ操作が検出されるまでステップS10の判定処理が繰り返し実行される。
 次に、ステップS11において、表示制御部43は、乗員Hの視点Eの位置と乗員Hの手Tのタッチ位置C3(第3入力位置の一例、図12参照)とに基づいて、乗員Hによって指定された路面上の第1指定位置e3(図14参照)を特定する。ここで、第1指定位置e3は、視点Eの位置とタッチ位置C3とを通る直線と路面との交点として特定される。
 次に、ステップS12において、表示制御部43は、路面上の第1指定位置e3が路面上に出射されている光パターンL2と重なるかどうかを判定する。ステップS12の判定結果がYESの場合、処理はステップS13に進む。一方、ステップS12の判定結果がNOである場合、処理は終了する。次に、表示制御部43は、HUD表示領域D1に対する乗員Hのスワイプ操作が終了したかどうかを判定する(ステップS13)。ステップS13の判定結果がYESの場合、処理はステップS14に進む。一方、ステップS13の判定結果がNOである場合、表示制御部43は乗員Hのスワイプ操作が終了するまで待機する。
 次に、ステップS14において、表示制御部43は、乗員Hの視点Eの位置とスワイプ操作の終了位置C4(第4入力位置の一例、図13参照)とに基づいて、路面上における第2指定位置e4(図14参照)を特定する。具体的には、表示制御部43は、内部カメラ6Bによって取得された画像データに基づいて、乗員Hの視点Eの位置を特定する。さらに、透明スクリーン421は、乗員Hのスワイプ操作の終了位置C4を示す操作信号を生成した上で、当該操作信号を表示制御部43に送信する。次に、表示制御部43は、視点Eの位置と終了位置C4とに基づいて第2指定位置e4を特定する。
 次に、ステップS15において、表示制御部43は、第2指定位置e4に基づいて光パターンL2の出射位置を変更する。この点において、図14に示すように、表示制御部43は、光パターンL2の所定の位置が第2指定位置e4に重なるように光パターンL2の出射位置を変更する。例えば、第1指定位置e3と重なる光パターンL2の所定の位置が第2指定位置e4に重なるように光パターンL2の出射位置が変更されてもよい。また、図13に示すように、乗員Hの視界において、スワイプ操作の終了位置C4は光パターンL2の所定の位置と重なる。
 表示システム4の第2動作例によれば、HUD表示領域D1に対する入力操作に応じて光パターンL2の出射位置が変更される。このように、乗員Hによる直感的な入力操作(例えば、スワイプ操作)によって光パターンL2の出射位置を変更することができる。したがって、乗員Hが光パターンを手動制御する場合におけるユーザビリティが向上した表示システム4を提供することができる。
 特に、本動作例では、第1指定位置e3が光パターンL2の出射位置と重なる場合に、視点Eの位置とスワイプ操作の終了位置C4に基づいて第2指定位置e4が特定された上で、第2指定位置e4に基づいて光パターンL2の出射位置が変更される。このように、乗員Hによる直感的な入力操作によって光パターンL2の出射位置を変更することができる。
 尚、表示システム4の第1動作例及び第2動作例の説明では、表示制御部43は、タッチパネルによって生成された操作信号に基づいて、乗員Hの入力操作の2つの入力位置(タッチ位置及びスワイプ操作の終了位置)を特定しているが、本実施形態はこれに限定されるものではない。例えば、透明スクリーン421はタッチパネルを有さなくてもよい。この場合、内部カメラ6Bによって乗員Hの入力操作の入力位置が特定されてもよい。具体的には、図15に示すように、表示制御部43は、内部カメラ6Bによって取得された画像データに基づいて乗員Hの手Tの位置を特定した上で、手Tの位置に基づいて入力操作の入力位置C0を特定してもよい。さらに、表示制御部43は、当該画像データに基づいて、乗員Hの視点Eの位置を特定してもよい。このように、表示制御部43は、視点Eの位置と入力位置C0とに基づいて光パターンの出射位置を制御することができる。ここで、視点Eと入力位置C0とを通る直線と路面との交点が光パターンの出射に関連する位置e0として特定される。また、入力位置C0は、手Tの人差し指の先端の位置に対応してもよい。
 このように、タッチパネルに対する入力操作ではなく、空間中の手Tの動作によって光パターンの出射位置を制御することが可能となる。特に、ホログラム式のHUDがHUD42として採用される場合に、空間中の手Tの動作によって入力位置が決定されてもよい。したがって、乗員Hが光パターンを手動制御する場合におけるユーザビリティが向上した表示システム4を提供することができる。
(第2実施形態)
 以下、本発明の第2実施形態(以下、第2実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。また、以降では、第1実施形態において既に説明された構成要素と同一の参照番号を有する構成要素については特に再度説明しない。
 最初に、図16を参照して、本実施形態に係る車両システム2Aについて以下に説明する。車両システム2Aは、車両1A(図18A参照)に搭載されている。図16は、車両システム2Aのブロック図である。車両1Aは、自動運転モードで走行可能な車両(自動車)である。
 図16に示すように、車両システム2Aは、車両制御部3と、車両用表示システム4A(以下、単に「表示システム4A」という。)と、センサ5と、カメラ6と、レーダ7とを備える。さらに、車両システム2Aは、HMI8と、GPS9と、無線通信部10と、記憶装置11とを備える。さらに、車両システム2Aは、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
 表示システム4Aは、表示制御部40Aと、照明装置41Aと、路面描画装置42Aと、ヘッドアップディスプレイ(HUD)43Aと、を備える。路面描画装置42Aは、第1表示装置の一例である。HUD43Aは、第2表示装置の一例である。
 照明装置41Aは、車両の外部に向けて光を出射するように構成されている。照明装置41Aは、例えば、車両の前部に設けられるヘッドランプやポジションランプ、車両の後部に設けられるリアコンビネーションランプ、車両の前部または側部に設けられるターンシグナルランプ、歩行者や他車両のドライバーに自車両の状況を知らせる各種ランプなどを備える。
 路面描画装置42Aは、車両の外部の路面に向けて光パターンを出射するように構成されている。路面描画装置42Aは、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光源から出射されたレーザ光を偏向するように構成された光偏向装置と、レンズ等の光学系部材とを備える。レーザ光源は、例えば、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光偏向装置は、例えば、MEMSミラー、ガルバノミラー、ポリゴンミラー等である。路面描画装置42Aは、レーザ光を走査することで光パターンM0,M1(図19A参照)を路面上に描画するように構成されている。レーザ光源がRGBレーザ光源である場合、路面描画装置42Aは、様々な色の光パターンを路面上に描画することが可能となる。
 路面描画装置42Aは、路面上に光パターンを描画することが可能である限りにおいて、路面描画装置42Aの数、配置場所及び形状は特に限定されるものではない。例えば、路面描画装置42Aの数が1つである場合、車体ルーフ上の前側または後側における左右方向の真ん中に配置されてもよい。また、路面描画装置42Aの数が2つである場合、左側ヘッドランプ(図示せず)および右側ヘッドランプ(図示せず)またはそれらの近傍、あるいは、左側リアコンビネーションランプ(図示せず)及び右側リアコンビネーションランプ(図示せず)内またはそれらの近傍にそれぞれ1つの路面描画装置42Aが搭載されてもよい。また、路面描画装置42Aの数が4つである場合、左側ヘッドランプ(図示せず)、右側ヘッドランプ(図示せず)、左側リアコンビネーションランプ(図示せず)及び右側リアコンビネーションランプ(図示せず)内またはそれらの近傍にそれぞれ1つの路面描画装置42Aが搭載されてもよい。
 また、路面描画装置42Aの描画方式は、DLP方式又はLCOS方式であってもよい。この場合、光源としてレーザの代わりにLEDが使用される。
 HUD43Aは、車両の車内の所定箇所に設置されている。例えば、図18Bに示すように、HUD43Aは、車両のダッシュボード上に設置されている。尚、HUD43Aの設置個所については特に限定されない。HUD43Aは、車両と乗員との間の視覚的インターフェースとして機能する。特に、HUD43Aは、車両の走行に関連した車両走行情報を車両の乗員に向けて表示するように構成されている。車両走行情報は、車両1Aの運転に係る情報(例えば、自動運転に関連する情報等)や歩行者情報等を含む。例えば、HUD43Aは、車両と他車両との間の車車間通信及び/又は車両とインフラ設備(信号機等)との間の路車間通信によって得られた情報を表示するように構成されている。この点において、HUD43Aは、他車両及び/又はインフラ設備から送信されたメッセージを表示するように構成されている。車両の乗員は、HUD43Aによって表示されたメッセージを見ることで、他車両の意図等を把握することができる。また、例えば、HUD43Aは、センサ5及び/又はカメラ6から得られた情報を表示するように構成されている。車両の乗員は、HUD43Aによって表示されたメッセージを見ることで、車両の走行状態及び/又は歩行者情報等を把握することができる。
 HUD43Aによって表示された情報は、車両の前方の現実空間に重畳されるように車両の乗員に視覚的に提示される。このように、HUD43Aは、ARディスプレイとして機能する。
 HUD43Aは、画像生成ユニットと、画像生成ユニットにより生成された画像が表示される透明スクリーンとを備える。HUD43Aの描画方式がレーザプロジェクタ方式である場合、画像生成ユニットは、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光源から出射されたレーザ光を偏向するように構成された光偏向装置と、レンズ等の光学系部材とを備える。レーザ光源は、例えば、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光偏向装置は、例えば、MEMSミラーである。尚、HUD43Aの描画方式は、DLP方式又はLCOS方式であってもよい。この場合、光源としてレーザの代わりにLEDが使用される。
 また、HUD43Aは、透明スクリーンを備えなくてもよい。この場合、画像生成ユニットにより生成された画像は、車両のフロントガラス上に表示されてもよい。
 HMI8は、路面描画装置42A及び/又はHUD43Aの異常を知らせる異常スイッチ等をさらに含む。
 表示制御部40Aは、照明装置41Aの駆動を制御するように構成されている。例えば、表示制御部40Aは、車両に関連する情報又は車両の周辺環境に関連する情報に基づいて、所定の光を出射するように照明装置41Aを制御する。また、表示制御部40Aは、路面描画装置42A及びHUD43Aの駆動を制御するように構成されている。例えば、表示制御部40Aは、車両に関連する情報又は車両の周辺環境に関連する情報に基づいて、対象物(歩行者、他車両、等)又は乗員に向けて所定の光パターンが提示されるように路面描画装置42Aを制御する。また、表示制御部40Aは、車両に関連する情報又は車両の周辺環境に関連する情報に基づいて、乗員に向けて所定のメッセージが提示されるようにHUD43Aを制御する。
 また、表示制御部40Aは、路面描画装置42Aに異常があると判断された場合、光パターンに対応する情報を表示するようにHUD43Aを制御する。例えば、光パターンを出射している路面描画装置42Aに異常があると判断された場合、表示制御部40Aは、路面描画装置42Aにより出射されている光パターンに対応する情報を表示するようにHUD43Aを制御する。また、光パターンを出射する前に路面描画装置42Aに異常があると判断された場合、表示制御部40Aは、路面描画装置42Aにより出射予定の光パターンに対応する情報を表示するようにHUD43Aを制御する。また、光パターンが複数ある場合、表示制御部40Aは、複数の光パターンにそれぞれ対応する情報を表示するようにHUD43Aを制御してもよい。また、表示制御部40Aは、複数の光パターンのうち一部の光パターンに対応する情報を表示するようHUD43Aを制御してもよい。一部の光パターンは、例えば、車両の乗員向け光パターン(例えば、ナビゲーション用光パターン)、路面描画装置42AおよびHUD43Aの両方で表示されている共通の情報がある場合には共通の情報以外の情報、等である。また、表示制御部40Aは、路面描画装置42Aの異常情報を表示するようにHUD43Aを制御してもよい。
 また、表示制御部40Aは、HUD43Aに異常があると判断された場合、車両走行情報に対応する光パターンを表示するように路面描画装置42Aを制御する。例えば、車両走行情報を表示しているHUD43Aに異常があると判断された場合、表示制御部40Aは、HUD43Aに表示されている車両走行情報に対応する光パターンを出射するように路面描画装置42Aを制御する。また、車両走行情報を表示する前にHUD43Aに異常があると判断された場合、表示制御部40Aは、HUD43Aに表示予定の車両走行情報に対応する光パターンを出射するように路面描画装置42Aを制御する。また、車両走行情報が複数ある場合、表示制御部40Aは、複数の車両走行情報の少なくとも1つの車両走行情報に対応する光パターンを出射するように路面描画装置42Aを制御してもよい。例えば、複数の車両走行情報のうち、光パターンから読み取ることが容易な図形の情報や簡単な文字の情報からなる車両走行情報に対応する光パターンを出射するように路面描画装置42Aを制御する。また、各車両走行情報は、図形の情報、文字の情報、または、それらを組み合わせた情報からなる。例えば、車両走行情報の中に光パターンから読み取ることが難しい情報(例えば、文字情報)が含まれる場合、表示制御部40Aは、車両走行情報を修正(削除、又は、光パターンから読み取ることが容易な情報(例えば、図形情報)に変換)し、修正した車両走行情報に対応する光パターンを路面描画装置42Aに出射させてもよい。
 表示制御部40Aは、電子制御ユニット(ECU)により構成されており、図示しない電源に電気的に接続されている。電子制御ユニットは、1以上のプロセッサ及び1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成されるアナログ処理回路とを含む。アナログ処理回路は、照明装置41Aのランプの駆動を制御するように構成されたランプ駆動回路(例えば、LEDドライバ等)を備える。また、アナログ処理回路は、路面描画装置42Aのレーザ光源の駆動を制御するように構成された第1レーザ光源制御回路と、路面描画装置42Aの光偏向装置の駆動を制御するように構成された第1光偏向装置制御回路とを含む。また、アナログ処理回路は、HUD43Aのレーザ光源の駆動を制御するように構成された第2レーザ光源制御回路と、HUD43Aの光偏向装置の駆動を制御するように構成された第2光偏向装置制御回路とを含む。プロセッサは、例えば、CPU、MPU、GPU及び/又はTPUである。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
 例えば、表示制御部40Aのコンピュータシステムは、車両制御部3から送信された指示信号に基づいて、車両の外部に照射される光パターンを特定した上で、当該特定された光パターンを示す信号を第1レーザ光源制御回路及び第1光偏向装置制御回路に送信する。第1レーザ光源制御回路は、光パターンを示す信号に基づいて、レーザ光源の駆動を制御するための制御信号を生成した上で、当該生成された制御信号を路面描画装置42Aのレーザ光源に送信する。一方、第1光偏向装置制御回路は、光パターンを示す信号に基づいて、光偏向装置の駆動を制御するための制御信号を生成した上で、当該生成された制御信号を路面描画装置42Aの光偏向装置に送信する。このようにして、表示制御部40Aは、路面描画装置42Aの駆動を制御することができる。
 また、表示制御部40Aのコンピュータシステムは、車両制御部3から送信された指示信号に基づいて、HUD43Aに表示される画像情報(例えば、文字や図形の情報)を特定した上で、当該特定された画像情報を示す信号を第2レーザ光源制御回路及び第2光偏向装置制御回路に送信する。第2レーザ光源制御回路は、画像情報を示す信号に基づいて、レーザ光源の駆動を制御するための制御信号を生成した上で、当該生成された制御信号をHUD43Aのレーザ光源に送信する。一方、第2光偏向装置制御回路は、画像情報を示す信号に基づいて、光偏向装置の駆動を制御するための制御信号を生成した上で、当該生成された制御信号をHUD43Aの光偏向装置に送信する。このようにして、表示制御部40Aは、HUD43Aの駆動を制御することができる。
 また、表示制御部40Aのコンピュータシステムは、路面描画装置42Aが異常であると判断された場合、上記特定された光パターンに基づいて、HUD43Aに表示される画像情報(例えば、文字や図形の情報)を特定する。そして、表示制御部40Aのコンピュータシステムは、特定された画像情報を示す信号を第2レーザ光源制御回路及び第2光偏向装置制御回路に送信する。
 また、表示制御部40Aのコンピュータシステムは、HUD43Aが異常であると判断された場合、上記特定されたHUD43Aに表示される画像情報に基づいて、路面描画装置42Aにより車両の外部に照射される光パターンを特定する。そして、表示制御部40Aのコンピュータシステムは、特定された光パターンを示す信号を第1レーザ光源制御回路及び第1光偏向装置制御回路に送信する。
 尚、本実施形態では、照明装置41A、路面描画装置42A及びHUD43Aに対して共通の表示制御部40Aが設けられているが、それぞれに対して別個の表示制御部が設けられてもよい。また、本実施形態では、車両制御部3と表示制御部40Aは、別個の構成として設けられているが、車両制御部3と表示制御部40Aは一体的に構成されてもよい。この点において、表示制御部40Aと車両制御部3は、単一の電子制御ユニットにより構成されていてもよい。この場合、車両用表示システム4Aは、車両制御部3も含んだ構成となる。
 路面描画装置42AおよびHUD43Aの異常の判断は、例えば、表示制御部40Aにて行われる。表示制御部40Aは、例えば、路面上に描画されている光パターンの撮像画像に基づいて路面描画装置42Aの異常の判断を行う。表示制御部40Aは、カメラ6により撮像された光パターンの撮像画像を車両制御部3から取得し、当該撮像画像の光パターンが、路面描画装置42Aにより出射された光パターンと一致するか判断する。例えば、撮像画像に光パターンが含まれていない場合、表示制御部40Aは、路面描画装置42Aのレーザ光源又はレーザ光源への信号経路に異常が発生していると判断する。また、撮像画像に含まれる光パターンの形状が、参照用光パターンの形状と一致しない場合、表示制御部40Aは、路面描画装置42Aの光偏向装置に異常が発生していると判断する。参照用光パターンは、表示制御部40Aのメモリまたは記憶装置11に予め記憶されており、例えば、各光パターンを路面上に描画して撮像し、該撮像画像から抽出した光パターンである。
 また、表示制御部40Aは、例えば、路面描画装置42Aからの信号に基づいて路面描画装置42Aの異常の判断を行う。路面描画装置42Aは、自己診断機能を有しており、異常が発生した場合、表示制御部40Aへ異常信号を送信してもよい。また、路面描画装置42Aは、表示制御部40Aから信号(例えば、光パターンを示す信号)を受信すると表示制御部40Aへ受信確認信号を送信する構成を有する場合、表示制御部40Aは、路面描画装置42Aから受信確認信号を受信しない場合、路面描画装置42Aに異常が発生していると判断してもよい。
 また、表示制御部40Aは、例えば、車両の乗員からの異常信号に基づいて路面描画装置42Aの異常の判断を行う。車両の乗員は、路面上に描画されている光パターンを確認し、光パターンが異常であると判断した場合、HMI8の異常スイッチ等を操作する。表示制御部40Aは、車両制御部3から、異常スイッチの操作に基づく異常信号を受信した場合に、路面描画装置42Aに異常が発生していると判断してもよい。
 表示制御部40Aは、同様に、例えば、HUD43Aからの信号(例えば、異常信号や受信確認信号)に基づいて、車両の乗員からの異常信号に基づいて、または、車両の車内に設置されたカメラ6により撮像されたHUD43Aの表示画面の撮像画像に基づいて、HUD43Aの異常の判断を行う。
 尚、路面描画装置42AおよびHUD43Aの異常の判断は、表示制御部40Aの代わりに車両制御部3が行ってもよい。車両制御部3は、路面描画装置42A又はHUD43Aに異常が発生したと判断した場合、異常信号を表示制御部40Aへ送信する。
 次に、第2実施形態に係る表示制御部40Aの表示制御の一例について図17から図21を主に参照して説明する。図17は、第2実施形態に係る表示制御部による表示制御の一例を説明するためのフローチャートである。図18Aは、第2実施形態に係る路面描画表示の一例を説明するための図である。図18Bは、第2実施形態に係るHUD表示の一例を説明するための図である。図19は、第2実施形態に係る路面描画表示異常時のHUD表示の一例を説明するための図である。図20Aは、第2実施形態に係るHUD表示の一例を説明するための図である。図20Bは、第2実施形態に係る路面描画表示の一例を説明するための図である。図21は、第2実施形態に係るHUD表示異常時の路面描画表示の一例を説明するための図である。
 第2実施形態に係る表示制御部40Aは、所定の光パターンを出射している路面描画装置42Aまたは所定の車両走行情報を表示しているHUD43Aに異常があると判断した場合、異常と判断した装置により表示すべき情報を、正常である装置に表示させる。
 図17に示すように、ステップS21において、表示制御部40Aは、車両制御部3から取得した周辺環境情報等に基づいて、路面に向けて所定の光パターンを出射するよう路面描画装置42Aを制御する。ステップS22において、表示制御部40Aは、車両制御部3から取得した走行状態情報等に基づいて、車両走行情報を表示するようHUD43Aを制御する。図18Aは、路面描画装置42Aにより路面上に描画された光パターンM0、図18Bは、HUD43Aに表示された車両走行情報M1を示す。光パターンM0は、20mの文字情報および左折を示す矢印の図形情報からなり、車両1Aの乗員に20m先を左折することを促すナビゲーション用光パターンである。車両走行情報M1は、現在時速50キロで走行していることを示す車両の速度情報である。
 次に、ステップS23において、表示制御部40Aは、路面描画装置42Aに異常が発生しているか否かを判断する。路面描画装置42Aが異常である場合には(ステップS23のYES)、表示制御部40Aは、ステップS24において、HUD43Aに異常が発生しているか否かを判断する。表示制御部40Aは、例えば、光パターンの撮像画像に基づいて、路面描画装置42Aからの信号(例えば、異常信号)に基づいて、または、車両の乗員からの異常信号に基づいて、路面描画装置42Aの異常の判断を行う。また、表示制御部40Aは、例えば、HUD43Aの表示画面の撮像画像に基づいて、HUD43Aからの信号(例えば、異常信号)に基づいて、または、車両の乗員からの異常信号に基づいて、HUD43Aの異常の判断を行う。
 HUD43Aが正常である場合には(ステップS24のNO)、表示制御部40Aは、ステップS25において、路面描画装置42Aにより出射している光パターンに対応する情報をHUD43Aに表示させる。また、表示制御部40Aは、路面描画装置42Aによる光パターンの表示を中止してもよい。例えば、路面描画装置42AおよびHUD43Aが図18A及び図18Bの表示を行っている場合、表示制御部40Aは、図19に示すように、路面上に描画された光パターンM0に対応する情報M2をHUD43Aに表示させる。また、表示制御部40Aは、路面描画装置42Aによる光パターンM0の表示を中止する。また、表示制御部40Aは、光パターンM0に対応する情報M2の他に、路面描画装置42Aに異常が発生している旨のメッセージM3をHUD43Aに表示してもよい。一方、ステップS24において、HUD43Aが異常である場合には、表示制御部40Aは、ステップS26において、路面描画装置42AおよびHUD43Aによる表示を中止する。尚、図19において、情報M2は、光パターンM0と同じ文字情報および図形情報を使用しているが、これに限定されない。
 ステップS23において、路面描画装置42Aが正常である場合には(ステップS23のNO)、表示制御部40Aは、ステップS27において、路面描画装置42Aの表示を継続する。次に、ステップS28において、表示制御部40Aは、HUD43Aに異常が発生しているか否かを判断する。HUD43Aが異常である場合には(ステップS28のYES)、表示制御部40Aは、ステップS29において、HUD43Aに表示している車両走行情報に対応する光パターンを路面描画装置42Aに出射させる。
 例えば、図20Aは、HUD43Aに表示された車両走行情報M1および車両走行情報(歩行者情報)M4、図20Bは、路面描画装置42Aにより路面上に描画された光パターンM5を示す。車両走行情報M4は、20m先の左側から歩行者101が進入することを示す歩行者情報である。光パターンM5は、矢印の図形により車両1Aの乗員に直進を促すナビゲーション用光パターンである。ステップS21およびステップS22において、HUD43Aおよび路面描画装置42Aが図20A及び図20Bの表示を行っている場合、表示制御部40Aは、HUD43Aに異常が発生していると判断すると、図21に示すように、HUD43Aに表示されている車両走行情報M4に対応する光パターンM6を出射するよう路面描画装置42Aを制御する。光パターンM6は、車両走行情報M4の文字情報(「左側から進入」)を一部含まず、また、車両走行情報M4とは異なる図形情報を用いている。一方、ステップS28において、HUD43Aが正常である場合には(ステップS28のNO)、表示制御部40Aは、ステップS30において、HUD43Aの表示を継続する。尚、図21において、光パターンM6は、車両走行情報M4とは異なる文字情報および図形情報を使用しているが、これに限定されない。
 このように、本実施形態では、表示制御部40Aは、路面描画装置42Aに異常があると判断された場合、路面描画装置42Aにより出射されている光パターンに対応する情報をHUD43Aに表示させる。また、表示制御部40Aは、HUD43Aに異常があると判断された場合、HUD43Aに表示している車両走行情報に対応する光パターンを路面描画装置42Aに出射させる。このように、路面描画装置42Aおよび/またはHUD43Aに異常があると判断された場合でも、車両と乗員との間の視覚的コミュニケーションを継続することができる。
 また、HUD43Aに異常があると判断された場合、表示制御部40Aは、HUD43Aに表示されている複数の車両走行情報M1,M4のうち、光パターンから読み取ることが容易な車両走行情報M4に対応する光パターンM6を路面描画装置42Aに出射させる。また、表示制御部40Aは、車両走行情報M4の中で、光パターンから読み取ることが容易な情報(例えば、図形情報や簡単な文字情報)のみを含む光パターンM6を路面描画装置42Aに出射させる。これにより、車両の乗員は、異常前とほぼ同じ情報を正確に把握することができる。また、表示制御部40Aは、車両走行情報M4の中の一部の情報(例えば、図形情報)を光パターンから読み取ることが容易な情報に変換(例えば、異なる図形情報に変換)し、変換した情報を含む光パターンM6を路面描画装置42Aに出射させる。これにより、車両の乗員は、車両走行情報とほぼ同じ情報をより正確に把握することができる。
 尚、本実施形態では、図18A及び図19において、路面描画装置42Aが一つの光パターンM0を出射し、HUD43Aがこの光パターンM0に対応する情報M2を表示しているが、これに限定されない。路面描画装置42Aが複数の光パターンを出射している場合、表示制御部40Aは、すべて又は一部の光パターンに対応する情報をHUD43Aに表示させてもよい。
 また、図20A及び図21では、HUD43Aが表示している車両走行情報M1および車両走行情報M4のうち、車両走行情報M4に対応する光パターンM6を路面描画装置42Aにより出射しているが、これに限定されない。表示制御部40Aは、すべての車両走行情報に対応する光パターンを路面描画装置42Aに出射させてもよい。
(第3実施形態)
 次に、本発明の第3実施形態(以下、第3実施形態という。)に係る表示制御部40Aの表示制御の一例について図22を主に参照して説明する。図22は、第3実施形態に係る表示制御部による表示制御の一例を説明するためのフローチャートである。尚、第3実施形態の説明では、第2実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は省略する。
 第3実施形態に係る表示制御部40Aは、車両制御部3から送信された指示信号に基づいて路面描画装置42AおよびHUD43Aに所定の光パターンおよび所定の車両走行情報を表示させる前に路面描画装置42AまたはHUD43Aに異常があると判断した場合、異常と判断された装置により表示すべき情報を、正常な装置に表示させる。
 図22に示すように、表示制御部40Aは、車両制御部3から路面描画表示及びHUD表示の指示信号を受信すると、ステップS31において、路面描画装置に異常が発生しているか否かを判断する。路面描画装置42Aが異常である場合には(ステップS31のYES)、表示制御部40Aは、ステップS32において、HUD43Aに異常が発生しているか否かを判断する。表示制御部40Aは、例えば、路面描画装置42AおよびHUD43Aへ光パターンまたは画像情報を示す信号を送信し、路面描画装置42AまたはHUD43Aから受信確認信号を所定期間内に受信しない場合には、路面描画装置42AまたはHUD43Aに異常が発生していると判断する。また、表示制御部40Aは、メモリまたは記憶装置11に路面描画装置42AおよびHUD43Aの異常情報を記憶しておき、この異常情報に基づき、路面描画装置42AまたはHUD43Aの異常判断を行ってもよい。異常情報は、例えば、路面描画装置42A、HUD43A又は車両の乗員から異常信号を受信したタイミングや、過去の路面描画表示又はHUD表示において異常を判断したタイミングで、表示制御部40Aによりメモリまたは記憶装置11に記憶される。
 HUD43Aが正常である場合には(ステップS32のNO)、表示制御部40Aは、ステップS33において、車両制御部3から取得した周辺環境情報等に基づいて特定した光パターンを路面描画装置42Aから出射させずに、該光パターンに対応する情報をHUD43Aに表示させる。例えば、表示制御部40Aは、路面描画装置42Aが異常であると判断した場合には、路面描画装置42Aによる図18Aの光パターンM0の路面描画は行わず、図19に示すように光パターンM0に対応する情報M2をHUD43Aに表示させる。また、表示制御部40Aは、光パターンM0に対応する情報M2の他に、路面描画装置42Aに異常が発生している旨のメッセージM3をHUD43Aに表示してもよい。一方、ステップS32において、HUD43Aが異常である場合には(ステップS32のYES)、表示制御部40Aは、ステップS34において、路面描画装置42AおよびHUD43Aによる表示を行わない。
 ステップS31において、路面描画装置42Aが正常である場合には(ステップS31のNO)、表示制御部40Aは、ステップS35において、車両制御部3から取得した周辺環境情報等に基づいて、路面に向けて所定の光パターンを出射するよう路面描画装置42Aを制御する。例えば、表示制御部40Aは、図18Aに示すように、路面描画装置42Aから光パターンM0を出射させる。次に、ステップS36において、表示制御部40Aは、HUD43Aに異常が発生しているか否かを判断する。HUD43Aが異常である場合には(ステップS36のYES)、表示制御部40Aは、ステップS37において、車両制御部3から取得した走行状態情報等に基づいて特定した車両走行情報をHUD43Aには表示させずに、該車両走行情報に対応する光パターンを路面描画装置42Aに出射させる。例えば、表示制御部40Aは、HUD43Aが異常であると判断した場合には、HUD43Aによる図20Aの車両走行情報M1および車両走行情報M4の表示は行わず、車両走行情報M4に対応する光パターンM6を路面描画装置42Aにより出射させる。一方、ステップS36において、HUD43Aが正常である場合には(ステップS36のNO)、表示制御部40Aは、ステップS38において、所定の車両走行情報を表示するようにHUD43Aを制御する。例えば、表示制御部40Aは、図20Aに示すように、HUD43Aに車両走行情報M1および車両走行情報M4を表示させる。
 このように、本実施形態では、表示制御部40Aは、路面描画装置42Aに異常があると判断された場合、路面描画装置42Aにより出射予定の光パターンに対応する情報をHUD43Aに表示させる。また、表示制御部40Aは、HUD43Aに異常があると判断された場合、HUD43Aに表示予定の車両走行情報に対応する光パターンを路面描画装置42Aに出射させる。このように、路面描画装置42Aおよび/またはHUD43Aに異常があると判断された場合でも、車両と乗員との間の視覚的コミュニケーションを行うことができる。
 また、HUD43Aに異常があると判断された場合、表示制御部40Aは、HUD43Aに表示予定の複数の車両走行情報M1,M4のうち、光パターンから読み取ることが容易な車両走行情報M4に対応する光パターンM6を路面描画装置42Aに出射させる。また、表示制御部40Aは、車両走行情報M4の中で、光パターンから読み取ることが容易な情報(例えば、図形情報や簡単な文字情報)のみを含む光パターンM6を路面描画装置42Aに出射させる。また、表示制御部40Aは、車両走行情報M4の中の一部の情報(例えば、図形情報)を光パターンから読み取ることが容易な情報に変換(例えば、異なる図形情報に変換)し、変換した情報を含む光パターンM6を路面描画装置42Aに出射させる。これにより、車両の乗員へ所定の情報を正確に伝えることができる。
 尚、本実施形態では、ステップ33において、表示制御部40Aは複数の光パターンを特定した場合、すべて又は一部の光パターンに対応する情報をHUD43Aに表示させてもよい。
 また、ステップS37において、表示制御部40Aは複数の車両走行情報を特定した場合、すべての車両走行情報に対応する光パターンを路面描画装置42Aに出射させてもよい。
 上記実施形態では、表示制御部40Aは、路面描画装置42Aの異常を判断した後に、HUD43Aの異常を判断しているが、これに限定されない。表示制御部40Aは、HUD43Aの異常を判断した後に、路面描画装置42Aの異常を判断してもよい。
 また、上記実施形態では、表示制御部40Aは、路面描画装置42A及びHUD43Aの両方の異常を判断しているが、これに限定されない。表示制御部40Aは、路面描画装置42A及びHUD43Aの何れか一方の異常を判断し、路面描画装置42A及びHUD43Aの一方が異常と判断した場合には、異常と判断された路面描画装置42A及びHUD43Aの一方に表示すべき情報を、路面描画装置42A及びHUD43Aの他方に、表示させてもよい。例えば、図23または図24に示すように、表示制御部40Aは、路面描画装置42Aの異常を判断し、路面描画装置42Aを異常と判断した場合、光パターンに対応する情報をHUD43Aに表示させてもよい。図23のステップS41~44は、図17のステップS21、S23、S25、S27に対応し、図24のステップS51~S53は、図22のステップS31、S33、S35に対応するため、その詳細な説明は省略する。尚、図23および図24は路面描画装置の異常を判断する例を示しているが、同様にHUD43Aのみの異常を判断してもよい。
(第4実施形態)
 以下、本発明の第4実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 最初に、図25及び図26を参照して、本実施形態に係る車両システム2Bについて以下に説明する。図25は、車両システム2Bが搭載された車両1Bの正面図である。図26は、車両システム2Bのブロック図である。車両1Bは、自動運転モードで走行可能な車両(自動車)である。
 図26に示すように、車両システム2Bは、車両制御部3と、車両用表示システム4B(以下、単に「表示システム4B」という。)と、センサ5と、カメラ6と、レーダ7とを備える。さらに、車両システム2Bは、HMI8と、GPS9と、無線通信部10と、記憶装置11と、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
 表示システム4Bは、左側ヘッドランプ20Lと、右側ヘッドランプ20Rと、左側路面描画装置45Lと、右側路面描画装置45Rとを備える。さらに、表示システム4Bは、HUD42Bと、表示制御部43BBとを備える。
 HUD42Bは、車両1Bの内部に位置する。具体的には、HUD42Bは、車両1Bの室内の所定箇所に設置されている。例えば、図27に示すように、HUD42Bは、車両1Bのダッシュボード内に配置されてもよい。HUD42Bは、車両1Bと乗員Hとの間の視覚的インターフェースとして機能する。HUD42Bは、所定の情報(以下、HUD情報という。)が車両1Bの外部の現実空間(特に、車両1Bの前方の周辺環境)と重畳されるように当該HUD情報を乗員Hに向けて表示するように構成されている。このように、HUD42Bは、ARディスプレイとして機能する。HUD42Bによって表示されるHUD情報は、例えば、車両1Bの走行に関連した車両走行情報及び/又は車両1Bの周辺環境に関連した周辺環境情報(特に、車両1Bの外部に存在する対象物に関連した情報)である。
 図27に示すように、HUD42Bは、HUD本体部420Bと、透明スクリーン421Bとを有する。HUD本体部420Bは、光源部と、駆動ミラーと、光学系と、光源駆動回路と、ミラー駆動回路とを有する。光源部は、例えば、レーザ光源又はLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑光レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。駆動ミラーは、例えば、MEMSミラー、DMD、ガルバノミラー、ポリゴンミラー等である。光学系は、プリズム、レンズ、拡散板、拡大鏡のうち少なくとも一つを含む。光源駆動回路は、光源部を駆動制御するように構成されている。光源駆動回路は、表示制御部43Bから送信された画像データに基づいて、光源部の動作を制御するための制御信号を生成した上で、当該生成された制御信号を光源部に送信するように構成されている。ミラー駆動回路は、駆動ミラーを駆動制御するように構成されている。ミラー駆動回路は、表示制御部43Bから送信された画像データに基づいて、駆動ミラーの動作を制御するための制御信号を生成した上で、当該生成された制御信号を駆動ミラーに送信するように構成されている。
 透明スクリーン421Bは、フロントウィンドウ60の一部によって構成されている。透明スクリーン421Bは、HUD情報が表示可能なHUD表示領域D10を有する(図30参照)。HUD本体部420Bから出射された光(画像)は、透明スクリーン421BのHUD表示領域D10に照射される。次に、HUD表示領域D10は、HUD本体部420Bから出射された光を乗員Hの視点Eに向けて反射する。この結果、乗員Hは、HUD本体部420Bから出射された光(画像)を透明スクリーン421Bの前方の所定の位置において形成された虚像として認識する。このように、HUD42Bによって表示されるHUD情報(画像)が車両1Bの前方の現実空間に重畳される結果、乗員Hは、当該HUD情報が道路上に浮いているように感じることができる。
 尚、透明スクリーン421Bは、フロントウィンドウ60から分離した透明なコンバイナーとして構成されてもよい。この場合でも、コンバイナーはHUD表示領域を有する。さらに、乗員Hは、HUD本体部420Bから出射された光(画像)をコンバイナーの前方の所定の位置において形成された虚像として認識する。また、虚像が形成される位置(虚像形成位置)は、HUD42Bの光学系の位置(特に、投影光学系の焦点距離)を調整することで可変されてもよい。この点において、表示制御部43B(特に、第1電子制御ユニット47B)は、車両1Bの前方に存在する対象物の位置情報に基づいて、対象物の位置と虚像形成位置が略一致するように、HUD42Bを制御することができる。また、HUD42Bの描画方式は、ラスタースキャン方向、DLP方式又はLCOS方式であってもよい。DLP方式又はLCOS方式が採用される場合、HUD42Bの光源部はLED光源であってもよい。
 表示制御部43Bは、路面描画装置45(具体的には、左側路面描画装置45Lと右側路面描画装置45R)、ヘッドランプ20(具体的には、左側ヘッドランプ20Lと右側ヘッドランプ20R)及びHUD42Bの動作を制御するように構成されている。この点において、表示制御部43Bは、路面上の所定の位置に光パターンが照射されるように路面描画装置45(具体的には、左側路面描画装置45Lと右側路面描画装置45R)の動作を制御するように構成されている。さらに、表示制御部43Bは、HUD情報がHUD表示領域D10に表示されるようにHUD42Bの動作を制御するように構成されている。また、表示制御部43Bは、路面描画装置45及びHUD42Bを動作させるべきかどうかを決定するように構成されている。つまり、本実施形態では、表示制御部43Bは、車両制御部3からの指示信号に応じて路面描画装置45及びHUD42Bの駆動を制御するようには構成されていない。寧ろ、表示制御部43Bは、車両制御部3から送信された車載センサの検出データ(例えば、画像データ等)に基づいて、車両1Bの周辺の対象物を特定した上で、路面描画装置45及びHUD42Bを動作させるべきかどうかを決定するように構成されている。
 表示制御部43Bは、第1電子制御ユニット47Bと、第2電子制御ユニット48Bとを備える。第1電子制御ユニット47Bは、HUD42Bの動作を制御するように構成されている。さらに、HUD42B及び路面描画装置45の両方が動作する場合では、第1電子制御ユニット47Bは、HUD42B及び路面描画装置45の両方の動作を制御する。第1電子制御ユニット47Bは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
 第2電子制御ユニット48Bは、ヘッドランプ20と路面描画装置45の動作を制御するように構成されている。特に、HUD42Bが動作しない一方で、ヘッドランプ20と路面描画装置45が動作する場合では、第2電子制御ユニット48Bは、ヘッドランプ20と路面描画装置45の動作を制御するように構成されている。一方、HUD42Bと、ヘッドランプ20と、路面描画装置45が動作する場合では、第1電子制御ユニット47BがHUD42B及び路面描画装置45の両方の動作を制御する一方で、第2電子制御ユニット48Bがヘッドランプ20の動作を制御する。第2電子制御ユニット48Bは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
 本実施形態では、表示制御部43Bを構成する第1電子制御ユニット47B及び第2電子制御ユニット48Bの一方または両方が、HUD42B、路面描画装置45及びヘッドランプ20のうちの少なくとも一つを動作させるべきかどうかを決定してもよい。例えば、第1電子制御ユニット47BがHUD42Bを動作させるべきかどうかを決定する一方で、第2電子制御ユニット48Bが路面描画装置45及びヘッドランプ20のそれぞれを動作させるべきかどうかを決定してもよい。また、第1電子制御ユニット47B(又は第2電子制御ユニット48B)がHUD42B、路面描画装置45及びヘッドランプ20のそれぞれを動作させるべきかどうかを決定してもよい。
 本実施形態では、第1電子制御ユニット47Bと第2電子制御ユニット48Bは、別個の構成として設けられているが、第1電子制御ユニット47Bと第2電子制御ユニット48Bは一体的に構成されてもよい。この点において、第1電子制御ユニット47Bと第2電子制御ユニット48Bは、単一の電子制御ユニットにより構成されていてもよい。一方、本実施形態では、車両制御部3と表示制御部43Bは、別個の構成として設けられている。
 次に、図28から図30を主に参照することで本実施形態の表示システム4Bの動作例について以下に説明する。図28は、表示システム4Bの動作例を説明するためのフローチャートである。図29は、車両1Bが車両1Bの周辺に存在する歩行者P1(対象物の一例)に向けて光パターンL10を出射する様子を示す図である。図30は、HUD表示領域D10に表示されるHUD情報の一例を示す図である。特に、図30では、乗員Hの視界におけるHUD情報M11~M14と路面上に出射された光パターンL10が示される。
 尚、以降の説明では、第1電子制御ユニット47BがHUD42B、路面描画装置45及びヘッドランプ20のそれぞれを動作させるべきかどうかを決定するものとする。
 図28に示すように、ステップS61において、第1電子制御ユニット47Bは、車両制御部3から外部カメラ6A及び/又はレーダ7によって取得された検出データ(例えば、画像データや3Dマッピングデータ等)を受信する。その後、第1電子制御ユニット47Bは、検出データに基づいて、歩行者P1の存在を特定した場合に(ステップS61でYES)、歩行者P1は車両1Bから所定の距離以内に存在するかどうかを判定する(ステップS62)。一方、ステップS61の判定結果がNOの場合、本処理が終了する。
 次に、第1電子制御ユニット47Bは、歩行者P1が車両1Bから所定の距離以内に存在すると判定した場合に(ステップS62でYES)、HUD情報をHUD42Bに表示することを決定すると共に、歩行者P1に向けて光パターンL10を出射することを決定する(ステップS63)。さらに、ステップS63において、第1電子制御ユニット47Bは、画像データや3Dマッピングデータ等の検出データに基づいて、対象物(本例では、歩行者P1)に関連した情報(例えば、対象物の属性情報、車両1Bに対する対象物の位置情報、及び対象物の将来行動に関連する情報)を生成する。
 次に、第1電子制御ユニット47Bは、対象物に関連した情報に基づいて、HUD情報M11~M14がHUD42B(特に、HUD表示領域D10)に表示されるようにHUD42Bの動作を制御する。特に、第1電子制御ユニット47Bは、HUD42Bの動作を制御するための制御信号をHUD42Bに送信する。当該制御信号に基づいて、HUD表示領域D10上にHUD情報M11~M14が表示される。ここで、HUD情報M11は、対象物の属性情報と車両1Bに対する対象物の位置情報を含む。図30に示すように、HUD情報M11は、対象物の属性情報として歩行者を示すと共に、対象物の位置情報として26mを示す。また、HUD情報M12は、対象物の行動予測に関連する情報を含む。図30に示すように、HUD情報M12は、歩行者P1の行動予測情報として歩行者P1が横断歩道Cを渡る予定であることを示す。
 また、HUD情報M13は、対象物の存在を示す情報を含む。図30に示すように、HUD情報M13は、歩行者P1の存在を示す情報として歩行者マークを示す。尚、HUD情報M13は、対象物の存在を示す情報として、「歩行者がいます」等のテキスト情報やエクスクラメーションマーク等の図形情報を含んでもよい。HUD情報M14は、歩行者P1を囲む枠パターンである。
 一方、ステップS63において、第1電子制御ユニット47Bは、対象物に関連した情報に基づいて、路面描画装置45が歩行者P1に向けて路面上に光パターンL10を出射するように路面描画装置45の動作を制御する。特に、第1電子制御ユニット47Bは、第2電子制御ユニット48Bを介して路面描画装置45の動作を制御するための制御信号を路面描画装置45に送信する。当該制御信号に基づいて、路面描画装置45は、路面上に光パターンL10を出射する。図29に示すように、光パターンL10は、車両1Bから歩行者P1に向かって延びる直線状の光パターンである。このように、光パターンL10は、車両1Bと歩行者P1を視覚的に関連付けることができる。さらに、車両1Bの乗員Hは、光パターンL10を視認することで歩行者P1の存在を明確に把握することができる。光パターンL10の形状は、直線状に限定されるものではなく、三角形状や矢印形状等の任意の形状であってもよい。
 尚、本実施形態では、乗員Hが車両1Bに存在することを前提としている。このため、車両1Bと乗員Hとの間の視覚コミュニケーションを実現するためにHUD42Bが動作しているが、乗員Hが車両1Bに存在しない場合にはHUD42Bは動作しなくてもよい。換言すれば、車両1Bが乗員Hなしに完全自動運転モードで走行中の場合には、歩行者P1に向けて光パターンL10が出射される一方で、HUD42Bには歩行者P1に関連するHUD情報は表示されない。かかる場合では、第2電子制御ユニット48BがステップS61~S63の処理を実行してもよい。特に、ステップS63において、第2電子制御ユニット48Bが歩行者P1に向けて光パターンL10を出射することを決定した上で、歩行者P1に向けて路面上に光パターンL10が出射されるように路面描画装置45の動作を制御する。このように、HUD42Bが動作する場合には、第1電子制御ユニット47BがHUD42Bと路面描画装置45の動作を制御する。一方で、HUD42Bが動作しない場合には、第2電子制御ユニット48Bが路面描画装置45の動作を制御する。
 また、ヘッドランプ20の動作制御について言及すると、ヘッドランプ20の動作は第2電子制御ユニット48Bによって常に制御されてもよい。つまり、HUD42Bが動作しない場合では、第2電子制御ユニット48Bが路面描画装置45及びヘッドランプ20の動作を制御してもよい。一方、HUD42Bが動作する場合では、第1電子制御ユニット47BがHUD42B及び路面描画装置45の動作を制御する一方で、第2電子制御ユニット48Bがヘッドランプ20の動作を制御してもよい。
 本実施形態によれば、車両1Bの走行を制御する車両制御部3に代わって、表示制御部43B(特に、第1電子制御ユニット47B)が路面描画装置45及びHUD42Bを動作させるべきかどうかを決定すると共に、路面描画装置45及びHUD42Bの動作を制御する。このように、車両制御部3による演算負荷を低減することができると共に、路面描画装置45及びHUD42Bの動作を高速化させることが可能となる。
 また、HUD42Bが動作していない場合には、第2電子制御ユニット48Bが路面描画装置45の動作を制御する。一方で、HUD42Bが動作している場合には、第1電子制御ユニット47BがHUD42B及び路面描画装置45の動作を制御する。このように、HUD42Bと路面描画装置45の両方が動作している場合に、HUD42Bと路面描画装置45のうちの少なくとも一方を効率的且つ高速に動作させることが可能となる。特に、HUD42Bと路面描画装置45が互いに協調して動作している場合に(例えば、HUD情報の表示位置に応じて光パターンL10の出射位置が決定される場合若しくは光パターンL10の出射位置に応じてHUD情報の表示位置が決定される場合等)、第1電子制御ユニット47Bは、HUD42Bの動作を制御するための制御信号と路面描画装置45の動作を制御するための制御信号を生成する。このため、HUD42Bの動作内容を考慮した上で路面描画装置45を効率的且つ高速に動作させることが可能となる。または、路面描画装置45の動作内容を考慮した上でHUD42Bを効率的且つ高速に動作させることが可能となる。
 尚、本実施形態では、ヘッドランプ20の動作は第2電子制御ユニット48Bによって常に制御されているが、本実施形態はこれに限定されるものではない。例えば、HUD42Bが動作する場合では、第1電子制御ユニット47Bは、HUD42B、路面描画装置45及びヘッドランプ20の全ての動作を制御してもよい。HUD42B、路面描画装置45及びヘッドランプ20の全てが動作している場合に、これらのうちの少なくとも一つを効率的且つ高速に動作させることが可能となる。特に、HUD42Bの動作内容を考慮した上で路面描画装置45及び/又はヘッドランプ20を効率且つ高速に動作させることが可能となる。または、路面描画装置45及び/又はヘッドランプ20の動作内容を考慮した上でHUD42Bを効率的且つ高速に動作させることが可能となる。
 以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 本実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードの区分は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
 本出願は、2018年9月5日に出願された日本国特許出願(特願2018-166043号)に開示された内容と、2018年9月5日に出願された日本国特許出願(特願2018-166044号)に開示された内容と、2018年9月5日に出願された日本国特許出願(特願2018-166045号)に開示された内容を適宜援用する。

Claims (20)

  1.  車両に設けられた車両用表示システムであって、
     前記車両の外部の路面に向けて光パターンを出射するように構成された第1表示装置と、
     前記車両の内部に位置すると共に、所定の情報が前記車両の外部の現実空間と重畳されるように前記所定の情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
     前記第1表示装置を制御するように構成された表示制御部と、
    を備え、
     前記表示制御部は、前記所定の情報が表示可能な表示領域に対する前記乗員の入力操作に応じて、前記光パターンの出射を制御するように構成されている、車両用表示システム。
  2.  前記表示制御部は、前記乗員の視点の位置と前記入力操作の入力位置に基づいて、前記光パターンの出射位置を制御するように構成されている、請求項1に記載の車両用表示システム。
  3.  前記表示制御部は、前記表示領域に対する前記入力操作に応じて、前記光パターンの出射を開始するように構成されている、請求項1又は2に記載の車両用表示システム。
  4.  前記表示制御部は、
     前記乗員の視点の位置と、前記入力操作の第1入力位置に基づいて、前記路面上における前記光パターンの開始位置を特定し、
     前記視点の位置と、前記入力操作の第2入力位置に基づいて、前記路面上における前記光パターンの終了位置を特定し、
     前記開始位置と前記終了位置とに基づいて、前記光パターンを前記路面上に出射する、ように構成されている、請求項3に記載の車両用表示システム。
  5.  前記表示制御部は、前記表示領域に対する前記入力操作に応じて、前記光パターンの出射位置を変更するように構成されている、請求項1又は2に記載の車両用表示システム。
  6.  前記表示制御部は、
     前記乗員の視点の位置と、前記入力操作の第3入力位置に基づいて、前記路面上における第1指定位置を特定し、
     前記第1指定位置が前記路面上に出射された光パターンと重なる場合に、前記視点の位置と、前記入力操作の第4入力位置に基づいて、前記路面上における第2指定位置を特定し、
     前記第2指定位置に基づいて、前記光パターンの出射位置を変更する、
    ように構成されている、請求項5に記載の車両用表示システム。
  7.  前記表示領域は、前記入力操作を受付けるように構成されたタッチパネルを有する、請求項1から6のうちいずれか一項に記載の車両用表示システム。
  8.  前記車両の内部に位置すると共に、前記乗員を示す画像データを取得するように構成されたトラッキングカメラをさらに備え、
     前記表示制御部は、
     前記画像データに基づいて、前記乗員の視点の位置及び前記乗員の手の位置を特定し、
     前記手の位置に基づいて、前記入力操作の入力位置を特定し、
     前記視点の位置と前記入力操作の入力位置に基づいて、前記光パターンの出射位置を制御するように構成されている、請求項1から6のうちいずれか一項に記載の車両用表示システム。
  9.  車両に設けられた車両用表示システムであって、
     前記車両の外部の路面に向けて光パターンを出射するように構成された第1表示装置と、
     前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
     前記第1表示装置及び前記第2表示装置を制御するように構成された表示制御部と、
    を備え、
     前記表示制御部は、
     前記第1表示装置に異常があると判断された場合に、前記光パターンに対応する情報を前記第2表示装置に表示させる、車両用表示システム。
  10.  第1表示装置に異常があると判断された場合に、前記表示制御部は、前記第1表示装置が複数の前記光パターンを出射している場合には、前記複数の光パターンにそれぞれ対応する情報を前記第2表示装置に表示させるように構成されている、請求項9に記載の車両用表示システム。
  11.  前記表示制御部は、前記第1表示装置の異常情報を前記第2表示装置に表示させるように構成されている、請求項9又は10に記載の車両用表示システム。
  12.  前記表示制御部は、
     前記第2表示装置に異常があると判断された場合に、前記車両走行情報に対応する光パターンを前記第1表示装置に出射させる、請求項9~11のうち何れか一項に記載の車両用表示システム。
  13.  車両に設けられた車両用表示システムであって、
     前記車両の外部の路面に向けて光パターンを出射するように構成された第1表示装置と、
     前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
     前記第1表示装置及び前記第2表示装置を制御するように構成された表示制御部と、
    を備え、
     前記表示制御部は、
     前記第2表示装置に異常があると判断された場合に、前記車両走行情報に対応する光パターンを前記第1表示装置に出射させる、車両用表示システム。
  14.  第2表示装置に異常があると判断された場合に、前記表示制御部は、前記第2表示装置が複数の前記車両走行情報を表示している場合には、前記複数の車両走行情報の少なくとも1つの車両走行情報に対応する光パターンを前記第1表示装置に出射させるように構成されている、請求項12又は13に記載の車両用表示システム。
  15.  請求項1から14のうちいずれか一項に記載の車両用表示システムを備えた、車両。
  16.  車両に設けられた車両システムであって、
     前記車両の走行を制御するように構成された車両制御部と、
     車両用表示システムと、
    を備え、
     前記車両用表示システムは、
     前記車両の内部に位置すると共に、所定の情報が前記車両の外部の現実空間と重畳されるように前記所定の情報を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイ(HUD)と、
     前記車両の外部の路面に向けて光パターンを出射するように構成された路面描画装置と、
     前記路面描画装置及び前記HUDを動作させるべきかどうかを決定すると共に、前記路面描画装置及び前記HUDの動作を制御するように構成された表示制御部と、を備えた、車両システム。
  17.  前記表示制御部は、
     第1プロセッサと、第1メモリとを備え、前記HUDの動作を制御するように構成された第1電子制御ユニットと、
     第2プロセッサと、第2メモリとを備えた第2電子制御ユニットと、
    を有し、
     前記HUDが動作していない場合に、前記第2電子制御ユニットが、前記路面描画装置の動作を制御し、
     前記HUDが動作している場合に、前記第1電子制御ユニットが、前記HUD及び前記路面描画装置の動作を制御する、請求項16に記載の車両システム。
  18.  前記車両用表示システムは、
     前記車両の外部に向けてロービーム及び/又はハイビームを出射するように構成された照明装置をさらに備え、
     前記HUDが動作していない場合に、前記第2電子制御ユニットが、前記路面描画装置及び前記照明装置の動作を制御し、
     前記HUDが動作している場合に、前記第1電子制御ユニットが、前記HUD及び前記路面描画装置の動作を制御する一方、前記第2電子制御ユニットが、前記照明装置の動作を制御する、請求項17に記載の車両システム。
  19.  前記車両用表示システムは、
     前記車両の外部に向けてロービーム及び/又はハイビームを出射するように構成された照明装置をさらに備え、
     前記HUDが動作していない場合に、前記第2電子制御ユニットが、前記路面描画装置及び前記照明装置の動作を制御し、
     前記HUDが動作している場合に、前記第1電子制御ユニットが、前記HUD、前記路面描画装置及び前記照明装置の動作を制御する、請求項17に記載の車両システム。
  20.  請求項16から19のうちいずれか一項に記載の車両システムを備えた、車両。
PCT/JP2019/034815 2018-09-05 2019-09-04 車両用表示システム、車両システム及び車両 WO2020050324A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020541273A JP7282789B2 (ja) 2018-09-05 2019-09-04 車両用表示システム、車両システム及び車両
EP19858518.4A EP3848245A1 (en) 2018-09-05 2019-09-04 Vehicle display system, vehicle system, and vehicle
CN201980058218.3A CN112689579A (zh) 2018-09-05 2019-09-04 车辆用显示系统、车辆系统以及车辆
US17/274,063 US12005832B2 (en) 2018-09-05 2019-09-04 Vehicle display system, vehicle system, and vehicle

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2018-166045 2018-09-05
JP2018166044 2018-09-05
JP2018166045 2018-09-05
JP2018-166043 2018-09-05
JP2018166043 2018-09-05
JP2018-166044 2018-09-05

Publications (1)

Publication Number Publication Date
WO2020050324A1 true WO2020050324A1 (ja) 2020-03-12

Family

ID=69721874

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034815 WO2020050324A1 (ja) 2018-09-05 2019-09-04 車両用表示システム、車両システム及び車両

Country Status (5)

Country Link
US (1) US12005832B2 (ja)
EP (1) EP3848245A1 (ja)
JP (3) JP7282789B2 (ja)
CN (1) CN112689579A (ja)
WO (1) WO2020050324A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112770936A (zh) * 2018-09-28 2021-05-07 株式会社小糸制作所 灯具系统
KR102552261B1 (ko) * 2019-04-29 2023-07-05 엘지전자 주식회사 전자 장치 및 전자 장치의 동작 방법
JP2022063933A (ja) * 2020-10-13 2022-04-25 株式会社Subaru 車両の表示装置
JP7468401B2 (ja) 2021-02-22 2024-04-16 トヨタ自動車株式会社 情報処理装置、情報処理システム、情報処理方法、及び表示装置
JP2022154810A (ja) * 2021-03-30 2022-10-13 トヨタ自動車株式会社 情報処理装置、情報処理システム、情報処理方法、及び車両

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015123855A (ja) * 2013-12-26 2015-07-06 株式会社小糸製作所 車両用灯具
JP2017193306A (ja) * 2016-04-22 2017-10-26 トヨタ自動車株式会社 車両用入力装置
JP2017226233A (ja) * 2016-06-20 2017-12-28 マツダ株式会社 車両用後方視認装置
JP2018166045A (ja) 2017-03-28 2018-10-25 イビデン株式会社 セラミックヒーター及びセラミックヒーターの製造方法
JP2018166043A (ja) 2017-03-28 2018-10-25 株式会社日立ハイテクサイエンス 集束イオンビーム装置
JP2018166044A (ja) 2017-03-28 2018-10-25 イビデン株式会社 セラミックヒーター

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09277887A (ja) 1996-04-16 1997-10-28 Honda Motor Co Ltd 自動追従走行システム
JP2008126954A (ja) 2006-11-24 2008-06-05 Tokai Rika Co Ltd 意思伝達装置
US9605971B2 (en) 2011-06-17 2017-03-28 Robert Bosch Gmbh Method and device for assisting a driver in lane guidance of a vehicle on a roadway
DE102012219572A1 (de) 2012-10-25 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur Darstellung eines Hinweises mittels einer Fahrzeuganzeige für mindestens einen Verkehrsteilnehmer
EP2740632A1 (en) 2012-12-07 2014-06-11 Urs Nüssli Lateral rearview mirror system for a vehicle, method for projecting an image to the environment of the vehicle and corresponding application program product
KR20220136517A (ko) * 2013-06-27 2022-10-07 아이사이트 모빌 테크놀로지 엘티디 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
AU2015238339B2 (en) 2014-03-25 2018-02-22 Jaguar Land Rover Limited Navigation system
EP3146262A4 (en) 2014-04-29 2018-03-14 Chia Ming Chen Light control systems and methods
JP6746270B2 (ja) 2014-09-08 2020-08-26 株式会社小糸製作所 車両用表示システム
CN105974583B (zh) 2015-03-11 2019-06-18 现代摩比斯株式会社 用于车辆的抬头显示器及其控制方法
KR102321095B1 (ko) * 2015-03-26 2021-11-04 현대모비스 주식회사 차량용 헤드업 디스플레이 장치 및 그 제어 방법
CN112092724A (zh) 2015-04-10 2020-12-18 麦克赛尔株式会社 车辆
US11247605B2 (en) 2015-04-10 2022-02-15 Maxell, Ltd. Image projection apparatus configured to project an image on a road surface
CN104833367A (zh) 2015-05-11 2015-08-12 京东方科技集团股份有限公司 车载投影系统
JP5866594B1 (ja) 2015-07-31 2016-02-17 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
KR20170058188A (ko) 2015-11-18 2017-05-26 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
CN106980456A (zh) * 2016-01-15 2017-07-25 中兴通讯股份有限公司 投影设备的控制方法及投影设备
DE102016001420A1 (de) 2016-02-05 2017-08-24 Audi Ag Einstellvorrichtung für eine einstellbare Beleuchtungsanlage eines Kraftfahrzeugs
US11214269B2 (en) * 2016-05-24 2022-01-04 Sony Corporation In-vehicle information processing device, in-vehicle information processing system, and information processing method
CN106484277A (zh) * 2016-07-29 2017-03-08 深圳市美贝壳科技有限公司 一种快速投射的方法
CN107784864A (zh) 2016-08-26 2018-03-09 奥迪股份公司 车辆辅助驾驶方法及系统
FR3060828B1 (fr) 2016-12-15 2019-08-02 Valeo Vision Systeme de diffusion de messages publicitaires par un vehicule automobile
KR101908309B1 (ko) * 2017-04-12 2018-10-16 엘지전자 주식회사 차량용 램프
US20190179587A1 (en) * 2017-12-07 2019-06-13 Sitronix Technology Corp. Optical imaging device with backup display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015123855A (ja) * 2013-12-26 2015-07-06 株式会社小糸製作所 車両用灯具
JP2017193306A (ja) * 2016-04-22 2017-10-26 トヨタ自動車株式会社 車両用入力装置
JP2017226233A (ja) * 2016-06-20 2017-12-28 マツダ株式会社 車両用後方視認装置
JP2018166045A (ja) 2017-03-28 2018-10-25 イビデン株式会社 セラミックヒーター及びセラミックヒーターの製造方法
JP2018166043A (ja) 2017-03-28 2018-10-25 株式会社日立ハイテクサイエンス 集束イオンビーム装置
JP2018166044A (ja) 2017-03-28 2018-10-25 イビデン株式会社 セラミックヒーター

Also Published As

Publication number Publication date
JP2023093548A (ja) 2023-07-04
US20210256933A1 (en) 2021-08-19
JP7478282B2 (ja) 2024-05-02
CN112689579A (zh) 2021-04-20
US12005832B2 (en) 2024-06-11
JP7470230B2 (ja) 2024-04-17
EP3848245A1 (en) 2021-07-14
JPWO2020050324A1 (ja) 2021-09-02
JP7282789B2 (ja) 2023-05-29
JP2023093547A (ja) 2023-07-04

Similar Documents

Publication Publication Date Title
CN110027468B (zh) 车车间通信系统、车辆系统、车辆用照明系统及车辆
WO2020050324A1 (ja) 車両用表示システム、車両システム及び車両
CN110803100B (zh) 车辆用显示系统以及车辆
JP7309724B2 (ja) 車両用表示システム及び車両
WO2020110580A1 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
EP3835105B1 (en) Vehicle display system and vehicle
WO2021065617A1 (ja) 車両用表示システム及び車両
JP7295863B2 (ja) 車両用表示システム及び車両
WO2021015171A1 (ja) ヘッドアップディスプレイ
CN211032356U (zh) 车辆用显示系统及车辆
JP6980553B2 (ja) 車両用照明システム及び車両

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19858518

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020541273

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019858518

Country of ref document: EP

Effective date: 20210406