WO2019230271A1 - 表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体 - Google Patents

表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体 Download PDF

Info

Publication number
WO2019230271A1
WO2019230271A1 PCT/JP2019/017330 JP2019017330W WO2019230271A1 WO 2019230271 A1 WO2019230271 A1 WO 2019230271A1 JP 2019017330 W JP2019017330 W JP 2019017330W WO 2019230271 A1 WO2019230271 A1 WO 2019230271A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
vehicle
display control
route
Prior art date
Application number
PCT/JP2019/017330
Other languages
English (en)
French (fr)
Inventor
智 堀畑
靖 作間
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2019230271A1 publication Critical patent/WO2019230271A1/ja
Priority to US17/102,649 priority Critical patent/US11803053B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic

Definitions

  • the present disclosure relates to a display control device that controls display of a virtual image, a display control program, and a persistent tangible computer-readable medium thereof.
  • Patent Document 1 discloses a vehicle information projection system that displays a guide route image or the like in a virtual image using a head-up display device.
  • the guide route image of the vehicle information projection system is displayed superimposed on the travel route in the actual scene.
  • video deviates from the driving
  • This disclosure is intended to provide a display control device, a display control program, and a sustained tangible computer-readable medium thereof that can reduce the uncomfortable feeling of virtual image display that notifies the travel route of a vehicle.
  • a display control device that controls display of a virtual image that is used in a vehicle and is superimposed on a superimposition target in the foreground of the occupant is a guidance display that notifies the occupant of the travel route of the vehicle.
  • a display generation unit that generates a guidance display object image formed by a combination of a plurality of image elements that are superimposed on each other along the travel route, and a plurality of the image elements, the virtual image of the virtual image
  • An outage determination unit that individually determines whether or not the displayable range is exceeded. When there is the image element that is out of the displayable range, the display generation unit is closer to the front side of the travel route than the image element determined to be out of the displayable range among the plurality of image elements. The image element is displayed as the guidance display object image.
  • a display control program that is used in a vehicle and controls display of a virtual image superimposed on a superimposition target in a foreground of an occupant includes at least one processing unit, A display generation unit that generates a guidance display object image formed by a combination of a plurality of image elements that are superimposed and displayed along the travel route, the display generation unit being a guidance display object image to be notified to the occupant;
  • the element is caused to function as an overrun determination unit for individually determining whether or not the element is out of the displayable range of the virtual image.
  • the display generation unit is closer to the front side of the travel route than the image element determined to be out of the displayable range among the plurality of image elements.
  • the image element is displayed as the guidance display object image.
  • a persistent tangible computer readable medium comprising computer-implemented instructions, the instructions being used in a vehicle and of a virtual image superimposed on a superposition object in a foreground of an occupant
  • the instruction is a guidance display object image that notifies the occupant of the travel route of the vehicle, and is based on a combination of a plurality of image elements that are superimposed and displayed along the travel route.
  • Generating a guidance display object image to be formed individually determining whether or not a plurality of the image elements are out of the displayable range of the virtual image, and the image elements out of the displayable range In this case, the image elements up to the front side of the travel route from the image elements determined to be out of the displayable range among the plurality of image elements. , And a be displayed as the guide display object image.
  • the guidance display object for notifying the travel route is formed by a plurality of image elements displayed in a superimposed manner along the travel route. If there is an image element that is outside the displayable range of the virtual image, among the plurality of image elements, the image elements up to the front side of the image element that is outside the displayable range are displayed as a guidance display object.
  • the guidance display object is formed by the image element substantially correctly superimposed on the travel route, and can be displayed as a virtual image in a manner in which the continuity of the travel route is ensured. As a result, it is possible to reduce the uncomfortable feeling of the virtual image display that notifies the travel route of the vehicle.
  • the drawing It is a block diagram showing the overall image of the in-vehicle configuration related to the virtual image display system, It is a figure showing an example of information presentation using a far virtual image and a near virtual image, It is a figure which shows a display change of AR route in order with approach to an intersection, It is a diagram showing a virtual image display in a scene where the intersection is out of the displayable range, and is a diagram showing an AR route in which the point portion and the exit instruction portion are not displayed based on the overrun determination, It is a figure showing a virtual image display in a scene where the intersection is within the displayable range, and is a figure showing an AR route on which a point part and an exit instruction part are displayed, It is a flowchart showing details of the parting determination that is a sub-process of the display control process, In the scene where there is a pedestrian crossing between the vehicle and the intersection, based
  • the display control apparatus 100 includes the virtual image display system 10 used in the vehicle A together with a head-up display (hereinafter, “HUD”) device 30 and the like.
  • the virtual image display system 10 displays a virtual image Vi superimposed on a superimposition target in the foreground of an occupant (for example, a driver) of the vehicle A, for example, another vehicle, a pedestrian and a cyclist, and a travel route.
  • the virtual image display system 10 presents various information related to the vehicle A to the driver by augmented reality (Augmented Reality, hereinafter referred to as “AR”) display using the virtual image Vi.
  • AR Augmented Reality
  • the display control device 100 can communicate with other in-vehicle configurations via a communication bus of the in-vehicle network.
  • a navigation information providing unit 21, an ADAS information providing unit 22, a host vehicle information providing unit 27, a driver information providing unit 28, an in-vehicle device 40, and the like are directly or indirectly electrically connected to the communication bus.
  • the navigation information providing unit 21 includes at least a navigation device mounted on the vehicle A, and includes a map database and a GNSS (Global Navigation Satellite System) receiver.
  • the map database stores a large amount of map data for route guidance by the navigation device. In the map data, coordinate strings indicating road shapes such as nodes and shape points are described.
  • the GNSS receiver receives positioning signals transmitted from a plurality of artificial satellites.
  • the navigation information providing unit 21 measures the current position of the vehicle A based on the positioning signal received by the GNSS receiver.
  • the navigation information providing unit 21 sequentially outputs GNSS reception information indicating the current position of the vehicle A to the communication bus and provides it to the display control device 100.
  • the navigation information providing unit 21 obtains the map data about the vehicle A and the traveling direction read from the map database, the route information to the destination, and the map route information. Is provided to the display control device 100.
  • the navigation information providing unit 21 may be configured to be able to communicate with a mobile terminal that can execute a navigation application.
  • map data and route information acquired through communication with the mobile terminal can be provided to the display control device 100 as map route information.
  • the ADAS information providing unit 22 includes at least a locator 23, an external sensor 24, a driving support control system 25, a high-precision map database 26, and the like.
  • the locator 23 indicates the lane on which the vehicle A travels by the combined positioning in which the GNSS reception information provided from the navigation information providing unit 21 is combined with the measurement information of the inertial sensor and the external sensor 24 and the high-precision map information. Accurate position information is generated.
  • the locator 23 provides high-precision position information to the driving support control system 25, the display control device 100, and the like.
  • the external sensor 24 includes a front camera, a millimeter wave and quasi-millimeter wave radar, a lidar, a sonar, and the like.
  • the external sensor 24 detects a stationary object and a moving object from the periphery of the vehicle A, particularly from the front range of the vehicle A.
  • the external sensor 24 detects pedestrian crossings, road signs and traffic lights as stationary objects, pedestrians and cyclists as moving objects, and the like.
  • the outside sensor 24 provides outside world sensing information indicating an object detection result to the locator 23, the driving support control system 25, and the display control device 100.
  • the driving support control system 25 supports the driving operation of the driver by using the high-precision position information by the locator 23, the external world sensing information by the external sensor 24, the high-accuracy map information acquired from the high-accuracy map database 26, and the like.
  • the driving support control system 25 has functional units that realize automatic driving functions such as ACC (Adaptive Cruise Control), LTC (lane trace control), LKA (Lane Keeping Assist), and the like.
  • the driving support control system 25 has a functional unit that realizes a collision avoidance function such as FCW (Forward collision) and AEB (Automatic emergency braking).
  • FCW Forward collision
  • AEB Automatic emergency braking
  • the high accuracy map database 26 stores high accuracy map information as map data with higher accuracy than the map data stored in the navigation information providing unit 21.
  • the high-accuracy map in addition to information such as the center line of the roadway and the connection between roads, information such as three-dimensional positions and shapes of pedestrian crossings, stop lines, traffic signs, traffic lights, and the like are stored.
  • the high accuracy map database 26 provides high accuracy map information to the locator 23, the driving support control system 25, the display control device 100, and the like. In the area where the high accuracy map is not yet prepared, the provision of the high accuracy map information by the high accuracy map database 26 may be stopped.
  • the own vehicle information providing unit 27 includes a plurality of in-vehicle sensors that measure the state of the vehicle A.
  • the own vehicle information providing unit 27 provides information such as the current vehicle speed, acceleration, angular velocity, and vehicle attitude of the vehicle A to the display control device 100 as own vehicle movement information.
  • the driver information providing unit 28 includes at least a driver status monitor (hereinafter referred to as “DSM”) mounted on the vehicle A, and includes a near infrared light source, a near infrared camera, and an image analysis unit. ing.
  • the driver information providing unit 28 acquires information such as the driver's eye point EP, line-of-sight direction, and eye opening degree by analyzing a face image captured using a near-infrared camera.
  • the driver information providing unit 28 provides the acquired driver sensing information to the display control apparatus 100.
  • the in-vehicle device 40 is an electronic control unit mounted on the vehicle A, and is electrically connected to in-vehicle displays such as a combination meter 41, a multi-information display (MID) 42, and a center information display (CID) 43.
  • in-vehicle displays such as a combination meter 41, a multi-information display (MID) 42, and a center information display (CID) 43.
  • MID multi-information display
  • CID center information display
  • the in-vehicle device 40 integrally controls information presentation to the driver in response to a control request to each in-vehicle display.
  • the in-vehicle device 40 outputs a superimposed display control request to the display control device 100 in a scene that requires information presentation by virtual image display.
  • the HUD device 30 is electrically connected to the display control device 100, and acquires video data generated by the display control device 100.
  • the HUD device 30 is configured by a projector, a screen, a magnifying optical system, and the like.
  • the HUD device 30 is accommodated in an accommodation space in the instrument panel below the windshield WS.
  • the HUD device 30 projects the light of the display image formed as the virtual image Vi toward the projection range PA of the windshield WS.
  • the light projected toward the windshield WS is reflected toward the driver's seat in the projection range PA and is perceived by the driver.
  • the driver visually recognizes the display in which the virtual image Vi is superimposed on the superimposition target in the foreground that can be seen through the projection range PA.
  • the projection range PA in which light can be projected by the HUD device 30 is a limited part of the entire surface of the windshield WS.
  • the projection range PA is an area where the virtual image Vi can be displayed on the driver's appearance.
  • the range that can be seen through the projection range PA is substantially the range in which the virtual image Vi can be displayed (hereinafter, “displayable range DA”, see FIG. 2).
  • the projection range PA includes a near virtual image display area PA2 and a far virtual image display area PA1.
  • the near virtual image display area PA2 is narrower than the far virtual image display area PA1, and is located, for example, at the lower left or lower right of the far virtual image display area PA1.
  • the light projected on the near virtual image display area PA2 is imaged as a near virtual image Vi2.
  • the light projected on the far virtual image display area PA1 is imaged as a far virtual image Vi1.
  • the field angle of the far virtual image display area PA1 is 12 ° in the horizontal (lateral) direction and 4 ° in the vertical (vertical) direction.
  • the near virtual image Vi2 and the far virtual image Vi1 shown in FIGS. 1 and 2 are formed at different positions in the front-rear direction and the vertical direction of the vehicle A, respectively.
  • the near virtual image Vi2 is formed nearer to the driver than the far virtual image Vi1, and specifically, is formed in a space of about 2 to 3 m in front of the vehicle A from the driver's eye point EP.
  • the near-virtual image Vi2 mainly presents information indicating the state of the vehicle A to the driver by non-AR display.
  • a non-AR display object such as a turn-by-turn icon 17 instructing execution of a right / left turn and a speed display 18 indicating the vehicle speed is displayed as a near-virtual image Vi2.
  • the far virtual image Vi1 is formed at a position farther from the windshield WS than the near virtual image Vi2, specifically, in a space of about 10 to 20 m in front of the vehicle A from the eye point EP.
  • the distant virtual image Vi1 is superimposed on a superimposition target in the foreground (for example, a road surface, a forward vehicle, etc.), and realizes the above-described AR display.
  • the AR route 11 or the like indicating the travel route set in the navigation device is displayed as the far-imagined image Vi1.
  • the control circuit of the display control apparatus 100 is mainly configured by a computer having a processing unit 61, a RAM 62, a memory device 63, and an input / output interface.
  • the processing unit 61 includes at least one of a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the memory device 63 stores various programs executed by the processing unit 61.
  • a plurality of application programs (50a to 50e) for generating AR content displayed as a virtual image, a presentation management program for integrally controlling the virtual image display of the AR content, and the like are stored as a display control program.
  • the display control apparatus 100 includes a common information generation block 71 and an integrated display control block 73 as functional blocks based on the presentation management program.
  • the common information generation block 71 acquires information used in common by the superimposed display applications 50a to 50e and the integrated display control block 73 from the communication bus. Specifically, GNSS reception information, map route information, high-accuracy position information, high-accuracy map information, external world sensing information, driving support control information, own vehicle motion information, driver sensing information, and superimposed display control requests, etc. It is acquired by the common information generation block 71. Based on the acquired information, the common information generation block 71 calculates parameters necessary for correcting the superimposed display. In addition, the common information generation block 71 abstracts the acquired information.
  • the superimposed display applications 50a to 50e Based on the information provided by the common information generation block 71, the superimposed display applications 50a to 50e generate AR content related to the ADAS function and the cockpit function, and set the display flag thereof.
  • Each of the superimposed display applications 50a to 50e is associated with the ACC function, the LKA function, the FCW function, the navigation device, and the like of the driving support control system 25.
  • Each of the superimposed display applications 50a to 50e individually determines AR content and non-AR content to be displayed as a virtual image according to the provided information, and issues a display request to the integrated display control block 73.
  • the integrated display control block 73 generates video data of the far virtual image Vi1 and the near virtual image Vi2 using information provided from the common information generation block 71 based on display requests from the superimposed display applications 50a to 50e.
  • the integrated display control block 73 includes a display mediation unit 74, a superimposed display correction unit 75, and a drawing output unit 76.
  • the display mediation unit 74 is a functional unit that adjusts AR content and non-AR content displayed as the far-virtual image Vi1 and the near-virtual image Vi2.
  • the display mediation unit 74 selects high-priority AR content and non-AR content from the acquired display requests, and uses them as virtual image display targets.
  • AR content notifying high priority (urgent) information that is related to the FCW function, for example, is always displayed and displayed quickly.
  • the superimposition display correction unit 75 acquires parameters for superimposition display correction calculated by the common information generation block 71, and generates correction information of the video data of the far virtual image Vi1.
  • the correction information is information for adjusting the imaging position of the far imaginary image Vi1 on a virtual line that three-dimensionally connects the superimposition target and the eye point EP and correctly superimposing the far imaginary image Vi1 on the superposition target.
  • the superimposed display correction unit 75 sequentially generates correction information in consideration of the relative position of the overlapping target, the position of the eye point EP, the vehicle posture, and the like.
  • the drawing output unit 76 generates video data composed of continuous display images by processing the original image of the content selected by the display mediation unit 74 on the display image for each of the far virtual image Vi1 and the near virtual image Vi2.
  • the drawing output unit 76 adjusts the drawing position and drawing shape of the original image in each display image based on the correction information from the superimposed display correction unit 75 for the video data of the far virtual image Vi1.
  • the drawing output unit 76 outputs the generated video data to the HUD device 30 in a predetermined video format.
  • the TBT display application 50e determines the display of the AR route 11 shown in FIG.
  • the AR route 11 is a guidance display object that notifies the driver of the travel route of the vehicle A (see FIG. 1) based on the route information provided from the navigation information providing unit 21 (see FIG. 1).
  • the AR route 11 is displayed at, for example, an intersection and clearly indicates a point (hereinafter, “specific point SP”) for turning right or left or changing lanes.
  • the AR route 11 is formed by a combination of a plurality (three) of image elements 11e. Each image element 11e is superimposed and displayed on the road surface in the foreground so as to be aligned along the travel route.
  • the AR route 11 is a display object including at least an entry instruction unit IE1, a point unit IE2, and an exit instruction unit IE3.
  • the entry instruction unit IE1, the point unit IE2, and the exit instruction unit IE3 form an AR route 11 indicating a travel route in a display manner such as a single stroke that is continuously arranged along the travel route of the host vehicle.
  • the entry instruction unit IE1 is an image element 11e that indicates a path (entrance path) on the near side that enters a specific point SP (for example, an intersection). Of the three image elements 11e, the entry instruction unit IE1 is the image element 11e that is positioned closest to the travel path (vehicle side), and is displayed as a virtual image below the point unit IE2.
  • the approach instruction unit IE1 includes a plurality of virtual three-dimensional objects VO1 arranged along the approach route to the specific point SP. The size of the virtual three-dimensional object VO1 decreases as it approaches the specific point side from the vehicle side. The plurality of virtual three-dimensional objects VO1 located on the vehicle side are arranged at intervals in the vertical direction.
  • the point portion IE2 is an image element 11e that indicates the position of the specific point SP to the driver by being superimposed on the specific point SP.
  • the point portion IE2 is an image element 11e located on the front side of the travel route next to the point portion IE2 among the three image elements 11e.
  • the point portion IE2 is a barrier wall-like display mode standing on the road surface. In the point portion IE2, the traveling direction based on the route information is specified.
  • the exit instruction unit IE3 is an image element 11e indicating the exit route ahead from the specific point SP.
  • the exit instruction unit IE3 is displayed as a virtual image mainly on the right side or the left side of the point unit IE2.
  • the exit instruction unit IE3 includes a plurality of virtual three-dimensional objects VO3 arranged along the exit route from the specific point SP.
  • the plurality of virtual three-dimensional objects VO3 are arranged at intervals in the left-right direction.
  • the TBT display application 50e and the integrated display control block 73 shown in FIG. 1 perform partial drawing of the three image elements 11e as shown in FIG. 3 according to the traveling state of the vehicle A and the surrounding environment.
  • the display of each image element 11e that forms the AR route 11 is changed according to the distance to the specific point SP that performs the course change.
  • the display and non-display of the three image elements 11e are switched by the approach to the specific point SP.
  • the point part IE2 and the exit instruction part IE3 are displayed together with the entry instruction part IE1 when the distance to the intersection is less than 100 m as an example due to the approach to the specific point SP. .
  • the AR route 11 is in a display mode in which the specific point SP and the exit route are emphasized and the route from the entrance to the exit of the intersection is continuously indicated.
  • the entry instruction unit IE1 (see FIG. 3B) and the exit instruction unit IE3 (see FIG. 3B) while leaving the point part IE2. Is hidden.
  • the AR route 11 is in a display mode in which it is difficult to hinder the visibility of risk targets such as oncoming vehicles, pedestrians, and traffic lights.
  • the TBT display application 50e shown in FIG. 1 performs a parting judgment (see FIG. 6) and an overlap judgment (see FIG. 8).
  • the TBT display application 50e individually determines whether or not each image element 11e is out of the displayable range DA when trying to arrange three image elements 11e along the road surface of the travel route by the overrun determination. .
  • the intersection as the specific point SP is out of the displayable range DA, and only a part of the approach route and the exit route is within the displayable range DA. ing.
  • the image element 11e up to the front side of the travel route is displayed rather than the image element 11e determined to be out of view. That is, the exit instructing unit IE3 (indicated by a broken line in FIG. 4) is not displayed even if a part can be displayed. Then, the AR route 11 of only the entry instruction unit IE1 is displayed. As described above, display continuity in the AR route 11 is ensured.
  • the TBT display application 50e starts displaying the point portion IE2 and the exit instruction portion IE3. To do. As described above, the continuous AR route 11 from the approach route through the intersection to the exit route is displayed.
  • the TBT display application 50e shown in FIG. 1 performs self-detection (see FIG. 6) to realize the above display based on various information acquired by the common information generation block 71, the angle of view information of the HUD device 30, and the like.
  • the displayable range DA for the vehicle position is specified (S21).
  • the displayable range DA is set mainly based on the three-dimensional positional relationship between the eye point EP and the far virtual image display area PA1.
  • the TBT display application 50e grasps the road shape ahead (curvature curvature and gradient, etc.) based on normal map data or high-precision map information, and external sensing information (S22). Further, the TBT display application 50e calculates the superimposition position and superimposition size of the image elements 11e constituting the AR route 11 based on the grasped road shape (S23). Then, the TBT display application 50e compares the specified displayable range DA with the calculated superimposed position of each image element 11e, and hides the image element 11e determined to be out of the displayable range DA. Set (S24).
  • the TBT display application 50e determines the presence / absence of display floating for the image element 11e that is not set to non-display (S25). As an example, when the point unit IE2 is set to non-display and the exit instruction unit IE3 is set to display (see FIG. 4), the TBT display application 50e determines that there is a display float, and the display floats. The displayed image element 11e is set to non-display (S26).
  • the displayable range DA may be a range slightly smaller than the far virtual image display area PA1 when viewed from the eye point EP.
  • a margin for a buffer may be provided between the far virtual image display area PA1 and the displayable range DA.
  • the displayable range DA is set so as to substantially match the distant image display area PA1, when the posture change of the vehicle A occurs, switching between display and non-display may occur repeatedly for the specific image element 11e. By securing the buffer as described above, frequent switching between display and non-display can be prevented.
  • the TBT display application 50e individually changes the display and non-display settings of the image element 11e by overlapping determination different from the overrun determination.
  • the TBT display application 50e determines whether or not the image element 11e determined to be invisible overlaps with the specific object SO (see FIG. 7) in the foreground defined in advance on the appearance of the driver.
  • the specific object SO is a cautionary object such as a road sign such as a pedestrian crossing, a traffic light, and a pedestrian.
  • the entry instruction unit IE1 in the AR route 11 is changed so as not to overlap the specific object SO.
  • the TBT display application 50e performs the AR on the pedestrian crossing by the process of hiding at least one virtual three-dimensional object VO1 for the portion determined to overlap the specific object SO in the entry instruction unit IE1. Avoid display.
  • the TBT display application 50e cancels the overlap determination between the specific object SO and the entry instruction unit IE1, and restarts the entire display of the entry instruction unit IE1.
  • the TBT display application 50e may change the setting to hide the entire entry instruction unit IE1 instead of the setting change to hide the virtual three-dimensional object VO1 overlapping the pedestrian crossing.
  • the TBT display application 50e is a virtual that is located in a portion overlapping the pedestrian crossing in the exit instruction unit IE3.
  • the three-dimensional object VO3 is not displayed.
  • the TBT display application 50e may hide the entire exit instruction unit IE3.
  • the TBT display application 50e hides the entire virtual three-dimensional object VO1 or the entire exit instruction unit IE3. it can.
  • the TBT display application 50e shown in FIG. 1 grasps the overlap position and the overlap size of the image element 11e whose display is temporarily determined by the cut-off determination. (S61). In addition, the TBT display application 50e grasps position information and shape information of the specific object SO (see FIG. 7) (S62). Then, the TBT display application 50e calculates the three-dimensional positional relationship between the specific object SO and the image element 11e (S63), and determines the presence or absence of these overlapping as viewed from the eye point EP (S64). When there is an image element 11e overlapping with the specific object SO, the TBT display application 50e determines to change the display mode or switch to the non-display setting for the image element 11e (S65).
  • the display control process shown in FIG. 9 is triggered by the occurrence of a specific event such as the completion of route setting in a navigation device or the like.
  • S101 the presence / absence of AR content to be displayed such as the AR route 11 is determined. If it is determined in S101 that there is AR content, the process proceeds to S102. On the other hand, when it is determined that there is no AR content, the state of waiting for the generation of the AR content is maintained by repeating S101.
  • an image element 11e cut-off determination (see FIG. 6) is performed, and the process proceeds to S103.
  • the process branches based on the result of the parting determination in S102. If it is determined in S102 that there is an image element 11e that is not displayed due to being overrun, the process proceeds from S103 to S104.
  • S104 a display image obtained by deleting the image element 11e that has been hidden by the overrun determination is temporarily set, and the process proceeds to S106.
  • S106 the AR content overlap determination (see FIG. 8) is performed, and the process proceeds to S107.
  • S107 the process branches based on the result of the overlap determination in S106. If it is determined in S106 that there is an image element 11e estimated to overlap with the specific object SO, the process proceeds from S107 to S108.
  • the display image temporarily determined in S104 or S105 is corrected, a display image formed by deleting a part or all of the image element 11e overlapping the specific object SO is determined, and the process proceeds to S110.
  • the virtual three-dimensional object VO1 that overlaps the specific object SO is in a non-display state.
  • S110 AR display generation is performed. Specifically, in S110, a display image based on the determination in S108 or S109 is continuously drawn, and is output to the HUD device 30 as video data. As described above, the display of the AR content corrected according to the traveling state of the vehicle A and the surrounding environment is generated.
  • the erasing condition is a condition set in advance, for example, passing through a guidance intersection (specific point SP) for performing route guidance, or remaining distance to the guidance intersection being less than several meters. If it is determined in S111 that the erasure condition is not satisfied, the process returns to S102. On the other hand, when it is determined in S111 that the erasing condition is satisfied, the display control process is terminated.
  • the TBT display application 50e can switch the display and non-display settings of the plurality of image elements 11e based on an operation input from a driver or the like.
  • the default setting see FIG. 3B
  • display of all the image elements 11e constituting the AR route 11 is permitted in the section of 100 to 30 m before the specific point SP.
  • the TBT display application 50e flexibly changes the image element 11e to be displayed by switching the display setting from the default based on input to the touch panel 44, the steering switch 45, and the like by the user (driver or the like).
  • the TBT display application 50e displays the entry instruction unit IE1 and the exit instruction unit IE3 in a section of 100 to 30 m before a specific point SP (intersection or the like). And the TBT display application 50e switches to the display of only the point part IE2 at the point where the distance to the specific point SP is 30 m.
  • the TBT display application 50e continues to display all (three) image elements 11e even when approaching the intersection.
  • the exit instruction unit IE3 is likely to be difficult to superimpose with high accuracy compared to the entry instruction unit IE1. Therefore, the TBT display application 50e can always hide the exit instruction unit IE3 based on a user operation for a user who is likely to feel annoyance. Alternatively, it may be possible to perform a display setting in which the visibility of the exit instruction unit IE3 is lower than that of the entry instruction unit IE1.
  • the AR route 11 for notifying the travel route is formed by a plurality of image elements 11e superimposed and displayed along the travel route. If there is an image element 11e that is outside the displayable range DA of the virtual image Vi, among the plurality of image elements 11e, the image element 11e that is closer to the front side than the image element 11e that is outside the displayable range DA is the AR route 11 Is displayed.
  • the entry instruction portion IE1 to the near side of the travel route from the point portion IE2 is drawn on the video data, and the foreground is used as the AR route 11.
  • a virtual image is displayed inside.
  • the AR route 11 is formed by the approach instruction unit IE1 correctly superimposed on the travel route, and is displayed as a virtual image in a manner in which the continuity of the travel route is ensured. As a result, the discomfort of the virtual image display that notifies the travel route of the vehicle A can be reduced.
  • the TBT display application 50e determines the displayable range DA in real time by performing continuous parting determination during the approach period to the specific point SP, and accurately identifies the image element 11e where the parting occurs. Can do. According to the above, display of the interrupted AR route 11 in which the approach route and the exit route are not connected, in other words, the AR route 11 in which the exit instruction unit IE3 is floating, can be effectively prevented. According to the above, the driver feels that the virtual image display is uncomfortable.
  • the display of the image element 11e overlapping the specific object SO is suppressed.
  • the AR route 11 is in a mode that avoids overlapping with road signs, pedestrian crossings, pedestrians, and the like defined as the specific object SO, and it is difficult for the driver to visually recognize the route. According to the above, it is possible to display a virtual image that is difficult for the driver to feel annoying.
  • the design in which one AR route 11 is disassembled into a plurality of parts as in the present embodiment it is possible to reduce the processing load of processing for changing to a display mode in accordance with a change in situation.
  • the AR content such as the AR route 11 has an integrated design
  • the design is decomposed into a plurality of image elements 11e as in the present embodiment, a drawing shape of AR content that is optimal for the current situation can be realized by simply interrupting the drawing of some image elements 11e. . Therefore, by adopting the process of switching between display and non-display for each image element 11e, the calculation load can be reduced as compared with the process of partially erasing the integrated AR content.
  • the AR route 11 in the present embodiment is composed of three image elements 11e. With such a display configuration, it is easier to reduce the processing load for switching between display and non-display for each image element 11e than in the form in which the AR route 11 is formed by a larger number of image elements 11e.
  • the AR route 11 of the present embodiment includes an entry instruction unit IE1 indicating an entry route, a point unit IE2 indicating a specific point SP, and an exit instruction unit IE3 indicating an exit route. According to such a display configuration, even if the AR route 11 is divided into a plurality of image elements 11e, the travel route of the vehicle A can be easily shown to the driver.
  • the display mode of each image element 11e is changed according to the distance to the specific point SP. Specifically, the TBT display application 50e switches each image element 11e from non-display to display at a stage where each image element 11e can be correctly superimposed on the object to be superimposed. According to the above, since the display of the image element 11e deviated from the superimposition target can be avoided, it becomes more difficult for the driver to feel uncomfortable with respect to the virtual image display.
  • each image element 11e in the present embodiment can be individually switched based on a user operation.
  • the image element 11e that the user does not like can be maintained in a non-display state according to the user's preference.
  • a virtual image display that makes it more difficult for the driver to feel uncomfortable is realized.
  • the calculation processing load is hardly increased.
  • the far virtual image Vi1 corresponds to a “virtual image”
  • the AR route 11 corresponds to a “guidance display object”
  • the touch panel 44 and the steering switch 45 correspond to an “operation unit”.
  • the TBT display application 50e that performs the oversight determination in S102 corresponds to the “oversight determination unit”
  • the TBT display application 50e that performs the overlap determination in S106 corresponds to the “overlap determination unit”.
  • the TBT display application 50e and the integrated display control block 73 that perform AR display generation in S106 correspond to a “display generation unit”.
  • the AR route including the entry instruction part, the point part, and the exit instruction part is displayed as the guidance display object.
  • the overall display shape of the guidance display object and the display shapes of the entry instruction unit, the point unit, and the exit instruction unit may be appropriately changed.
  • the number of image elements forming the guidance display object may be four or more, or may be two.
  • the display shape that does not overlap with the specific object is changed for each image element.
  • the specific object to be subjected to such overlap determination may be changed as appropriate.
  • the overlap determination as described above may be omitted.
  • display control for switching between display and non-display of image elements in accordance with the distance to a specific point can be omitted.
  • the display / non-display setting of each image element can be switched by a user operation.
  • Input interfaces used for such user operations are not limited to touch panels and steering switches.
  • an input by at least one of voice and gesture may be an operation of the user, and may be used for switching between display and non-display settings of each image element.
  • the display setting switching function based on such user operations may be omitted.
  • the HUD device of the above embodiment is a bifocal projection device that can form a far-virtual image and a near-virtual image at completely different positions.
  • the HUD device may be a single focus type projection device.
  • the image plane of the projected virtual image light is inclined in the forward direction of the vehicle as it goes upward.
  • a virtual image formed in the vicinity of the lower edge of the imaging plane is set as a “near virtual image”, and non-AR display is performed.
  • a virtual image formed upward from the center of the imaging plane is referred to as a “far virtual image”, and AR display is performed.
  • the HUD device as described above is adopted, it is possible to perform display control based on the discontinuity determination for the far-imagined image. Further, the HUD device may be configured not to display a virtual image corresponding to a “near virtual image”.
  • the optical configuration of the HUD device can be changed as appropriate.
  • the projector may employ a configuration including a laser light source, a MEMS scanner, and the like.
  • DLP Digital Light Processing, registered trademark
  • DMD Digital Micromirror Device
  • a projector using LCOS (Liquid Crystal On On Silicon) or the like, a liquid crystal projector having a liquid crystal panel and an LED light source, or the like can be used in the HUD device.
  • the display control device of the above embodiment is provided as an electronic control unit separate from the HUD device.
  • each function of the display control device may be implemented in, for example, a control circuit provided in the HUD device, or may be implemented in a control circuit provided in a combination meter.
  • each function provided by the control circuit of the display control device in the above embodiment can be provided by software and hardware that executes the software, only software, only hardware, or a combination thereof.
  • each function can also be provided by a digital circuit including a large number of logic circuits or an analog circuit.
  • non-transitory tangible storage media such as a flash memory and a hard disk can be used for a memory device that stores a display control program and a TBT display application.
  • the form of such a storage medium may be changed as appropriate.
  • the storage medium is in the form of a memory card or the like, and may be configured to be inserted into a slot portion provided in the display control device and electrically connected to the control circuit.
  • the storage medium is not limited to the above-described memory device of the in-vehicle device, and may be an optical disk that is a copy base of the program to the memory device, a hard disk drive of a general-purpose computer, or the like.
  • control unit and the method described in the present disclosure are realized by a dedicated computer provided by configuring a processor and a memory programmed to execute one or more functions embodied by a computer program. May be.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.
  • control unit and the method thereof described in the present disclosure are based on a combination of a processor and a memory programmed to execute one or more functions and a processor configured by one or more hardware logic circuits. It may be realized by one or more configured dedicated computers.
  • the computer program may be stored in a computer-readable non-transition tangible recording medium as instructions executed by the computer.
  • each section is expressed as S101, for example.
  • each section can be divided into a plurality of subsections, while a plurality of sections can be combined into one section.
  • each section configured in this manner can be referred to as a device, module, or means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Computer Hardware Design (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

車両(A)の乗員の前景中にある重畳対象に重畳される虚像(Vi1)の表示を制御する表示制御装置は、前記車両の走行経路を前記乗員に通知し、前記走行経路に沿って並ぶように重畳表示される複数の画像要素(11e)の組み合わせにより形成される案内表示物像(11)を生成する表示生成部(S110)と、各画像要素について、前記虚像の表示可能範囲から外れるか否かを判定する見切れ判定部(S102)と、を備える。前記表示生成部は、前記表示可能範囲から外れる前記画像要素がある場合、前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させる。

Description

表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体 関連出願の相互参照
 本出願は、2018年5月29日に出願された日本特許出願番号2018-102456号に基づくもので、ここにその記載内容を援用する。
 本開示は、虚像の表示を制御する表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体に関するものである。
 従来、例えば特許文献1には、ヘッドアップディスプレイ装置を用いて案内経路映像等を虚像表示する車両情報投影システムが開示されている。この車両情報投影システムの案内経路映像は、実景中の走行経路に重畳表示される。そして、案内経路映像が実景中の走行経路から逸脱した場合には、虚像の視認性を下げる制御が行われる。
 特許文献1の表示制御では、逸脱判定に基づき、案内経路映像の全体の視認性が一体的に低くされる。こうした表示制御において、実景に正しく重畳されない案内経路映像の表示は、視認され難くはなるものの、継続されてしまっている。その結果、走行経路を確認しようとする運転者に違和感が惹起され得た。
特開2014-213763号公報
 本開示は、車両の走行経路を通知する虚像表示の違和感を低減可能な表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体の提供を目的とする。
 本開示の第一の態様において、車両において用いられ、乗員の前景中にある重畳対象に重畳される虚像の表示を制御する表示制御装置は、前記車両の走行経路を前記乗員に通知する案内表示物像であり、前記走行経路に沿って並ぶように重畳表示される複数の画像要素の組み合わせにより形成される案内表示物像を生成する表示生成部と、複数の前記画像要素について、前記虚像の表示可能範囲から外れるか否かを個別に判定する見切れ判定部と、を備える。前記表示生成部は、前記表示可能範囲から外れる前記画像要素がある場合、複数の前記画像要素のうちで前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させる。
 本開示の第二の態様において、車両において用いられ、乗員の前景中にある重畳対象に重畳される虚像の表示を制御する表示制御プログラムは、少なくとも一つの処理部を、前記車両の走行経路を前記乗員に通知する案内表示物像であり、前記走行経路に沿って並ぶように重畳表示される複数の画像要素の組み合わせにより形成される案内表示物像を生成する表示生成部、複数の前記画像要素について、前記虚像の表示可能範囲から外れるか否かを個別に判定する見切れ判定部、として機能させる。前記表示生成部は、前記表示可能範囲から外れる前記画像要素がある場合、複数の前記画像要素のうちで前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させる。
 本開示の第三の態様において、コンピュータによって実施される命令を備える持続的有形コンピュータ読み取り媒体であって、当該命令は、車両において用いられ、乗員の前景中にある重畳対象に重畳される虚像の表示を制御するものであり、当該命令は、前記車両の走行経路を前記乗員に通知する案内表示物像であり、前記走行経路に沿って並ぶように重畳表示される複数の画像要素の組み合わせにより形成される案内表示物像を生成することと、複数の前記画像要素について、前記虚像の表示可能範囲から外れるか否かを個別に判定することと、前記表示可能範囲から外れる前記画像要素がある場合、複数の前記画像要素のうちで前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させることとを備える。
 これらの態様において、走行経路を通知する案内表示物は、走行経路に沿って並ぶよう重畳表示された複数の画像要素によって形成されている。そして、虚像の表示可能範囲から外れる画像要素がある場合、複数の画像要素のうちで、表示可能範囲外となる画像要素よりも手前側までの画像要素が、案内表示物として表示される。以上によれば、案内表示物は、走行経路に実質正しく重畳された画像要素によって形成され、且つ、走行経路の連続性を確保された態様で虚像表示され得る。その結果、車両の走行経路を通知する虚像表示の違和感が低減可能になる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
虚像表示システムに関連する車載構成の全体像を示すブロック図であり、 遠虚像及び近虚像を用いた情報提示の一例を示す図であり、 交差点への接近に伴うARルートの表示変化を順に示す図であり、 交差点が表示可能範囲から外れたシーンでの虚像表示を示す図であって、見切れ判定に基づきポイント部及び退出指示部が非表示とされたARルートを示す図であり、 交差点が表示可能範囲内となったシーンでの虚像表示を示す図であって、ポイント部及び退出指示部が表示されたARルートを示す図であり、 表示制御処理のサブ処理である見切れ判定の詳細を示すフローチャートであり、 自車と交差点との間に横断歩道があるシーンにて、重なり判定に基づき、進入指示部のうちで横断歩道と重なる部分が削除された状態を示す図であり、 表示制御処理のサブ処理である重なり判定の詳細を示すフローチャートであり、 表示制御装置にて実施される表示制御処理の詳細を示すフローチャートである。
 本開示の一実施形態による表示制御装置100は、車両Aにおいて用いられる虚像表示システム10を、ヘッドアップディスプレイ(Head Up Display,以下、「HUD」)装置30等と共に構成している。虚像表示システム10は、車両Aの乗員(例えばドライバ)の前景中の重畳対象、例えば他車両、歩行者及びサイクリスト、並びに走行経路等に重畳される虚像Viを表示する。虚像表示システム10は、虚像Viを用いた拡張現実(Augmented Reality,以下「AR」)表示により、車両Aに関連する種々の情報をドライバに提示する。
 表示制御装置100は、車載ネットワークの通信バスを介して、他の車載構成と相互に通信可能である。通信バスには、例えばナビ情報提供部21、ADAS情報提供部22、自車情報提供部27、ドライバ情報提供部28及び車載装置40等が直接的又は間接的に電気接続されている。
 ナビ情報提供部21は、車両Aに搭載されたナビゲーション装置を少なくとも含む構成であり、地図データベース及びGNSS(Global Navigation Satellite System)受信器を有している。地図データベースは、ナビゲーション装置による経路案内のための地図データを大量に記憶している。地図データには、ノード及び形状点等の道路形状を示す座標列が記載されている。GNSS受信器は、複数の人工衛星から送信された測位信号を受信する。
 ナビ情報提供部21は、GNSS受信器で受信した測位信号に基づき、車両Aの現在位置を測位する。ナビ情報提供部21は、車両Aの現在位置を示すGNSS受信情報を、通信バスに逐次出力し、表示制御装置100に提供する。加えてナビ情報提供部21は、ナビゲーション装置に目的地が設定されている場合、地図データベースから読み出した車両Aの周囲及び進行方向の地図データと、目的地までのルート情報とを、地図経路情報として表示制御装置100に提供する。
 尚、ナビ情報提供部21は、ナビアプリを実行可能な携帯端末と通信可能な構成であってもよい。こうした構成のナビ情報提供部21では、携帯端末との通信によって取得する地図データ及びルート情報が、地図経路情報として表示制御装置100に提供可能となる。
 ADAS情報提供部22は、ロケータ23、外界センサ24、運転支援制御システム25及び高精度マップデータベース26等を少なくとも含む構成である。ロケータ23は、ナビ情報提供部21から提供されるGNSS受信情報に、慣性センサ及び外界センサ24等の計測情報と高精度マップ情報とを組み合わせた複合測位により、車両Aが走行するレーンを示すような高精度位置情報を生成する。ロケータ23は、高精度位置情報を、運転支援制御システム25及び表示制御装置100等に提供する。
 外界センサ24は、フロントカメラ、ミリ波及び準ミリ波レーダ、ライダ並びにソナー等を含む構成である。外界センサ24は、車両Aの周囲、特に車両Aの前方範囲から、静止物体及び移動物体を検出する。例えば外界センサ24は、静止物体としての横断歩道、道路標識及び信号機、移動物体としての歩行者及びサイクリスト等を検出する。外界センサ24は、物体の検出結果を示す外界センシング情報を、ロケータ23、運転支援制御システム25及び表示制御装置100に提供する。
 運転支援制御システム25は、ロケータ23による高精度位置情報及び外界センサ24による外界センシング情報、並びに高精度マップデータベース26から取得する高精度マップ情報等を用いてドライバの運転操作を支援する。運転支援制御システム25は、ACC(Adaptive Cruise Control)、LTC(lane trace control)、LKA(Lane Keeping Assist)等の自動運転機能を実現する機能部を有している。加えて運転支援制御システム25は、FCW(Forward collision warning)及びAEB(Automatic emergency braking)等の衝突回避機能を実現する機能部を有している。運転支援制御システム25は、各機能部による運転支援制御情報を、表示制御装置100に提供する。
 高精度マップデータベース26は、ナビ情報提供部21に格納された地図データよりも高精度な地図データとして、高精度マップ情報を記憶している。高精度マップには、車道の中心線、道路同士の繋がり等の情報に加えて、横断歩道、停止線、交通標識及び信号機等の3次元位置及び形状等の情報が格納されている。高精度マップデータベース26は、高精度マップ情報を、ロケータ23、運転支援制御システム25及び表示制御装置100等に提供する。尚、高精度マップが未整備のエリアでは、高精度マップデータベース26による高精度マップ情報の提供は、中止されてよい。
 自車情報提供部27は、車両Aの状態を計測する複数の車載センサを含む構成である。自車情報提供部27は、車両Aの現在の車速、加速度、角速度及び車両姿勢等の情報を、自車運動情報として表示制御装置100に提供する。
 ドライバ情報提供部28は、車両Aに搭載されたドライバステータスモニタ(Driver Status Monitor,以下、「DSM」)を少なくとも含む構成であり、近赤外光源、近赤外カメラ及び画像解析部を有している。ドライバ情報提供部28は、近赤外カメラを用いて撮像した顔画像の解析により、ドライバのアイポイントEP、視線方向及び開眼度等の情報を取得する。ドライバ情報提供部28は、取得したドライバのセンシング情報を表示制御装置100に提供する。
 車載装置40は、車両Aに搭載された電子制御ユニットであり、コンビネーションメータ41、マルチインフォメーションディスプレイ(MID)42及びセンターインフォメーションディスプレイ(CID)43等の車載表示器と電気的に接続されている。例えばCID43の表示画面には、地図データ及び目的地へ向けたルート情報等がナビゲーション装置によって表示される。CID43の表示画面は、ドライバ等によるタッチ操作が可能なタッチパネル44とされている。車載装置40は、各車載表示器への制御要求により、ドライバへの情報提示を統合的に制御する。加えて車載装置40は、虚像表示による情報提示を必要とするシーンにおいて、重畳表示の制御要求を表示制御装置100へ向けて出力する。
 HUD装置30は、表示制御装置100と電気的に接続されており、表示制御装置100にて生成された映像データを取得する。HUD装置30は、プロジェクタ、スクリーン及び拡大光学系等によって構成されている。HUD装置30は、ウィンドシールドWSの下方にて、インスツルメントパネル内の収容空間に収容されている。
 HUD装置30は、虚像Viとして結像される表示像の光を、ウィンドシールドWSの投影範囲PAへ向けて投影する。ウィンドシールドWSへ向けて投影された光は、投影範囲PAにおいて運転席側へ反射され、ドライバによって知覚される。ドライバは、投影範囲PAを通して見える前景中の重畳対象に、虚像Viが重畳された表示を視認する。
 HUD装置30によって光を投影可能な投影範囲PAは、ウィンドシールドWS全面のうちの限られた一部の領域である。投影範囲PAは、ドライバの見た目上で虚像Viが表示可能となる領域である。ドライバのアイポイントEPから前景を見たとき、投影範囲PAを通して見える範囲が、実質的に虚像Viを表示可能な範囲(「以下、表示可能範囲DA」,図2参照)となる。
 図2に示すように、投影範囲PAには、近虚像表示エリアPA2及び遠虚像表示エリアPA1が含まれている。近虚像表示エリアPA2は、遠虚像表示エリアPA1よりも狭く、例えば遠虚像表示エリアPA1の左下又は右下に位置している。近虚像表示エリアPA2に投影された光は、近虚像Vi2として結像される。一方で、遠虚像表示エリアPA1に投影された光は、遠虚像Vi1として結像される。一例として、遠虚像表示エリアPA1の画角は、水平(横)方向に12°とされ、垂直(縦)方向に4°とされる。
 図1及び図2に示す近虚像Vi2及び遠虚像Vi1は、車両Aの前後方向及び上下方向のそれぞれにおいて、互いに異なる位置に結像される。近虚像Vi2は、遠虚像Vi1よりもドライバの近傍に結像され、具体的には、ドライバのアイポイントEPから車両Aの前方向に2~3m程度の空間中に結像される。近虚像Vi2は、主に車両Aの状態を示す情報等を、非AR表示によってドライバに提示する。一例として、右左折の実施を指示するターンバイターンアイコン17及び車速を示すスピード表示18等の非AR表示物が、近虚像Vi2として表示される。
 遠虚像Vi1は、近虚像Vi2よりもウィンドシールドWSから遠い位置、具体的には、アイポイントEPから車両Aの前方向に10~20m程度の空間中に結像される。遠虚像Vi1は、ドライバの見かけ上にて、前景中の重畳対象(例えば路面や前走車等)に重畳され、上述のAR表示を実現する。一例として、ナビゲーション装置に設定された走行経路を示すARルート11等が、遠虚像Vi1として表示される。
 図1に示す表示制御装置100は、HUD装置30による虚像Viの表示を制御する電子制御ユニットである。表示制御装置100の制御回路は、処理部61、RAM62、メモリ装置63及び入出力インターフェースを有するコンピュータを主体に構成されている。処理部61は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等を少なくとも一つを含む構成である。
 メモリ装置63には、処理部61によって実行される種々のプログラムが格納されている。メモリ装置63には、虚像表示されるARコンテンツを生成する複数のアプリケーションプログラム(50a~50e)、及びARコンテンツの虚像表示を統合的に制御する提示管理プログラム等が、表示制御プログラムとして記憶されている。表示制御装置100は、提示管理プログラムに基づく機能ブロックとして、共通情報生成ブロック71及び統合表示制御ブロック73を有する。
 共通情報生成ブロック71は、各重畳表示アプリケーション50a~50e及び統合表示制御ブロック73にて共通で使用される情報を、通信バスから取得する。具体的には、GNSS受信情報、地図経路情報、高精度位置情報、高精度マップ情報、外界センシング情報、運転支援制御情報、自車運動情報、ドライバのセンシング情報及び重畳表示の制御要求等が、共通情報生成ブロック71によって取得される。共通情報生成ブロック71は、取得した情報に基づき、重畳表示の補正に必要なパラメータを算出する。加えて共通情報生成ブロック71は、取得した情報の抽象化等を実施する。
 共通情報生成ブロック71によって提供される情報に基づき、重畳表示アプリケーション50a~50eは、ADAS機能及びコクピット機能に関連したARコンテンツの生成と、その表示フラグの設定とを実施する。各重畳表示アプリケーション50a~50eは、運転支援制御システム25のACC機能、LKA機能及びFCW機能、さらにナビゲーション装置等と関連付けられている。各重畳表示アプリケーション50a~50eは、提供された情報に応じて、虚像表示させるARコンテンツ及び非ARコンテンツを個別に決定し、統合表示制御ブロック73に対して表示要求を行う。
 統合表示制御ブロック73は、各重畳表示アプリケーション50a~50eからの表示要求に基づき、共通情報生成ブロック71から提供される情報を用いて、遠虚像Vi1及び近虚像Vi2それぞれの映像データを生成する。統合表示制御ブロック73は、表示調停部74、重畳表示補正部75及び描画出力部76を有している。
 表示調停部74は、遠虚像Vi1及び近虚像Vi2として表示するARコンテンツ及び非ARコンテンツを調整する機能部である。表示調停部74は、取得した表示要求の中から、優先度の高いARコンテンツ及び非ARコンテンツを選別し、虚像表示の対象とする。こうした設定により、例えばFCW機能に関連するような優先度(緊急度)の高い情報を通知するARコンテンツは、実質必ず表示対象とされ、迅速に表示される。
 重畳表示補正部75は、共通情報生成ブロック71にて算出された重畳表示補正のためのパラメータ等を取得し、遠虚像Vi1の映像データの補正情報を生成する。補正情報は、重畳対象とアイポイントEPとを3次元的に結ぶ仮想線上に、遠虚像Vi1の結像位置を調整し、遠虚像Vi1を重畳対象に正しく重畳させるための情報である。重畳表示補正部75は、重畳対象の相対位置、アイポイントEPの位置及び車両姿勢等を考慮した補正情報を逐次生成する。
 描画出力部76は、遠虚像Vi1及び近虚像Vi2のそれぞれについて、表示調停部74によって選別されたコンテンツの元画像を表示画像に描画する処理により、連続する表示画像よりなる映像データを生成する。描画出力部76は、遠虚像Vi1の映像データについて、重畳表示補正部75による補正情報に基づき、各表示画像における元画像の描画位置及び描画形状を調整する。描画出力部76は、生成した各映像データを、予め規定された映像フォーマットにて、HUD装置30へ向けて出力する。
 以上説明した複数の重畳表示アプリケーション50a~50eのうちの一つは、図2に示すARルート11の表示を決定するTBT表示アプリ50eである。ARルート11は、上述したように、ナビ情報提供部21(図1参照)から提供されるルート情報に基づき、車両A(図1参照)の走行経路をドライバに通知する案内表示物である。ARルート11は、例えば交差点等にて表示され、右左折又は車線変更等を行うポイント(以下、「特定ポイントSP」)を、ドライバに明示する。
 ARルート11は、複数(三つの)の画像要素11eの組み合わせによって形成されている。各画像要素11eは、走行経路に沿って並ぶようにして、前景中の路面上に重畳表示される。具体的に、ARルート11は、進入指示部IE1、ポイント部IE2及び退出指示部IE3を少なくとも含む表示物である。進入指示部IE1、ポイント部IE2及び退出指示部IE3は、自車の走行経路に沿って連続して並ぶ一筆書きのような表示態様により、走行経路を示すARルート11を形成している。
 進入指示部IE1は、特定ポイントSP(例えば交差点等)に進入する手前側の経路(進入経路)を示す画像要素11eである。進入指示部IE1は、三つの画像要素11eのうちで、最も走行経路手前側(車両側)に位置する画像要素11eであり、ポイント部IE2の下方に虚像表示される。進入指示部IE1は、特定ポイントSPまでの進入経路に沿って並べられる複数の仮想立体物VO1を含んでいる。仮想立体物VO1のサイズは、車両側から特定ポイント側へ近づくに従って、小さくなる。車両側に位置する複数の仮想立体物VO1は、上下方向に互いに間隔を開けて並んでいる。
 ポイント部IE2は、特定ポイントSPに重畳表示されることで、特定ポイントSPの位置をドライバに示す画像要素11eである。ポイント部IE2は、三つの画像要素11eのうちで、ポイント部IE2の次に走行経路手前側に位置する画像要素11eである。ポイント部IE2は、路面に立設されたバリア壁状の表示態様である。ポイント部IE2には、ルート情報に基づく進行方向が明示されている。
 退出指示部IE3は、特定ポイントSPから先の退出経路を示す画像要素11eである。退出指示部IE3は、主にポイント部IE2の右側又は左側に虚像表示される。退出指示部IE3は、特定ポイントSPからの退出経路に沿って並べられる複数の仮想立体物VO3を含んでいる。複数の仮想立体物VO3は、左右方向に互いに間隔を開けて並んでいる。
 図1に示すTBT表示アプリ50e及び統合表示制御ブロック73は、車両Aの走行状況及び周辺環境に応じて、図3に示すように、三つの画像要素11eの部分描画を実施する。一例として、ARルート11を形成する各画像要素11eの表示は、進路変更を実施する特定ポイントSPまでの距離に応じて変更される。具体的には、特定ポイントSPへの接近により、三つの画像要素11eの表示及非表示が切り替えられる。
 図3Aに示すように、特定ポイントSPまでの距離が十分にある場合、一例として交差点までの距離が100mを超えるような区間では、三つの画像要素11eのうちで進入指示部IE1のみがARルート11として表示される。この区間では、特定ポイントSP及び退出経路が遠いため、ポイント部IE2(図2参照)及び退出指示部IE3(図2参照)の正しい位置への重畳は、困難となり易い。故に、ポイント部IE2及び退出指示部IE3は、非表示とされる。
 そして、図3Bに示すように、特定ポイントSPへの接近により、一例として交差点までの距離が100m未満となった段階で、ポイント部IE2及び退出指示部IE3が、進入指示部IE1と共に表示される。以上により、ARルート11は、特定ポイントSP及び退出経路を強調し、交差点の進入から退出までの経路を連続的に示す表示態様となる。
 さらに、図3Cに示すように、特定ポイントSPまでの距離が30m程度となった段階で、ポイント部IE2を残しつつ、進入指示部IE1(図3B参照)及び退出指示部IE3(図3B参照)が非表示とされる。その結果、ARルート11は、対向車、歩行者及び信号機等のリスク対象の視認を妨げ難い表示態様となる。
 また図1に示すTBT表示アプリ50eは、見切れ判定(図6参照)及び重なり判定(図8参照)を実施する。TBT表示アプリ50eは、見切れ判定により、走行経路の路面に沿って三つの画像要素11eを配置しようとした場合に、各画像要素11eについて、表示可能範囲DAから外れるか否かを個別に判定する。
 一例として図4に示すシーンでは、特定ポイントSPとしての交差点(二点鎖線の楕円参照)が表示可能範囲DAから外れており、進入経路及び退出経路の一部のみが表示可能範囲DA内に収まっている。こうしたシーンでは、見切れると判定された画像要素11eよりも走行経路手前側までの画像要素11eが表示される。即ち、退出指示部IE3(図4では破線にて示す)は、仮に一部が表示可能であっても非表示とされる。そして、進入指示部IE1のみのARルート11が表示される。以上により、ARルート11における表示の連続性が確保される。
 図5に示すように、交差点への接近によって特定ポイントSPが表示可能範囲DA内に位置した段階で、TBT表示アプリ50e(図1参照)は、ポイント部IE2及び退出指示部IE3の表示を開始する。以上により、進入経路から交差点を経て退出経路に至るまでの連続したARルート11が表示される。
 以上の表示を実現する見切れ判定(図6参照)にて、図1に示すTBT表示アプリ50eは、共通情報生成ブロック71に取得された各種情報及びHUD装置30の画角情報等に基づき、自車位置に対する表示可能範囲DAを特定する(S21)。表示可能範囲DAは、主にアイポイントEP及び遠虚像表示エリアPA1の3次元的な位置関係に基づいて設定される。
 加えてTBT表示アプリ50eは、通常の地図データ又は高精度マップ情報、及び外界センシング情報に基づき、前方の道路形状(カーブの曲率及び勾配等)を把握する(S22)。さらにTBT表示アプリ50eは、把握した道路形状に基づき、ARルート11を構成する画像要素11eの重畳位置及び重畳サイズを演算する(S23)。そしてTBT表示アプリ50eは、特定した表示可能範囲DAと、演算した各画像要素11eの重畳位置等とを比較し、表示可能範囲DAから外れていると判別された画像要素11eを、非表示の設定とする(S24)。
 次にTBT表示アプリ50eは、非表示の設定とされていない画像要素11eについて、表示浮きの有無を判定する(S25)。一例として、ポイント部IE2が非表示の設定であり、退出指示部IE3が表示の設定である場合(図4参照)、TBT表示アプリ50eは、表示浮きがあると判定し、表示浮きとなっている画像要素11eを非表示の設定とする(S26)。
 尚、表示可能範囲DAは、アイポイントEPから見て、遠虚像表示エリアPA1よりも僅かに小さい範囲とされてよい。換言すれば、遠虚像表示エリアPA1と表示可能範囲DAとの間に、バッファとなる余裕代が設けられていてもよい。例えば、表示可能範囲DAを遠虚像表示エリアPA1と実質一致するよう設定すると、車両Aの姿勢変化が発生した場合に、特定の画像要素11eについて、表示と非表示との切り替えが繰り返し生じ得る。上記のようなバッファの確保によれば、頻繁な表示及び非表示の切り替え発生が防止される。
 さらにTBT表示アプリ50eは、見切れ判定とは別の重なり判定により、画像要素11eの表示及び非表示の設定を個別に変更する。TBT表示アプリ50eは、見切れていないと判定された画像要素11eについて、予め規定された前景中の特定物体SO(図7参照)と、ドライバの見た目上で重なるか否かを判定する。特定物体SOは、例えば横断歩道等の道路標識、信号機及び歩行者等の注意対象物である。
 一例として図7に示すシーンでは、自車(車両A)と交差点との間に横断歩道が存在している。こうしたシーンでは、ARルート11のうちの進入指示部IE1が、特定物体SOと重ならない態様に変更される。具体的に、TBT表示アプリ50eは、進入指示部IE1のうちで特定物体SOと重なると判定された部分について、少なくとも一つの仮想立体物VO1を非表示とする処理により、横断歩道上へのAR表示を回避する。そして、車両Aが横断歩道を通過したタイミングで、TBT表示アプリ50eは、特定物体SOと進入指示部IE1との重なり判定を解除し、進入指示部IE1の全体表示を再開させる。尚、TBT表示アプリ50eは、横断歩道と重なる仮想立体物VO1を非表示とする設定変更に替えて、進入指示部IE1の全体を非表示とする設定変更を行ってもよい。
 また別の一例として、交差点での右左折後に通過予定の横断歩道上に横断歩行者がいるシーンにて、TBT表示アプリ50eは、退出指示部IE3のうちで横断歩道と重なる部分に位置する仮想立体物VO3を非表示とする。このシーンでも、TBT表示アプリ50eは、退出指示部IE3の全体を非表示としてもよい。さらに別の一例として、退出経路の一部が建物等の背後になって視認不可能なシーンでも、TBT表示アプリ50eは、一部の仮想立体物VO1又は退出指示部IE3の全体を非表示にできる。
 以上の表示制御を実現する重なり判定(図8参照)にて、図1に示すTBT表示アプリ50eは、見切れ判定にて表示を仮決定された画像要素11eについて、その重畳位置及び重畳サイズを把握する(S61)。加えてTBT表示アプリ50eは、特定物体SO(図7参照)の位置情報及び形状情報を把握する(S62)。そしてTBT表示アプリ50eは、特定物体SOと画像要素11eとの3次元での位置関係を演算し(S63)、アイポイントEPから見たこれらの重なりの有無を判定する(S64)。特定物体SOと重なる画像要素11eがある場合、TBT表示アプリ50eは、この画像要素11eについて、表示態様の変更又は非表示設定への切り替えを決定する(S65)。
 ここまで説明したARルート11の表示を実現するために、表示制御装置100にて実施される表示制御処理の全体を、図9に基づき、図1及び図2を参照しつつ、詳細に説明する。図9に示す表示制御処理は、例えばナビゲーション装置等におけるルート設定の完了等、特定イベントの発生をトリガとして開始される。
 S101では、ARルート11等の表示すべきARコンテンツの有無を判定する。S101にて、ARコンテンツがあると判定した場合、S102に進む。一方で、ARコンテンツがないと判定した場合、S101の繰り返しによってARコンテンツの発生を待機した状態を維持する。
 S102では、画像要素11eの見切れ判定(図6参照)を実施し、S103に進む。S103では、S102の見切れ判定の結果に基づき、処理を分岐する。S102にて、見切れによって非表示とされた画像要素11eがあると判定した場合、S103からS104に進む。S104では、見切れ判定によって非表示とされた画像要素11eを削除してなる表示画像を仮設定し、S106に進む。
 一方、S102にて、見切れている画像要素11eがないと判定した場合、S103からS105に進む。S105では、ARルート11の全ての画像要素11eを描画してなる表示画像に仮設定して、S106に進む。
 S106では、ARコンテンツの重なり判定(図8参照)を実施し、S107に進む。S107では、S106の重なり判定の結果に基づき、処理を分岐する。S106にて、特定物体SOとの重なりを推定される画像要素11eがあると判定した場合、S107からS108に進む。
 S108では、S104又はS105にて仮決定した表示画像を修正し、特定物体SOと重なる画像要素11eの一部又は全部を削除してなる表示画像を決定して、S110に進む。以上により、画像要素11eにおける重なり部分の描画が中断され、仮に虚像表示されたとすると特定物体SOに重なってしまう仮想立体物VO1は、非表示の状態となる。
 一方、S106にて、特定物体SOとの重なりを推定される画像要素11eがないと判定した場合、S107からS109に進む。S109では、S104又はS105にて仮決定した表示画像を正式な表示画像として決定し、S110に進む。
 S110では、AR表示生成を行う。具体的に、S110では、S108又はS109の決定に基づく表示画像を連続的に描画し、映像データとしてHUD装置30へ向けて出力される。以上により、車両Aの走行状況及び周辺環境に応じて補正されたARコンテンツの表示が生成される。
 S111では、AR表示の消去条件が成立しているか否かを判定する。消去条件は、予め設定された条件であり、例えばルート案内を行う案内交差点(特定ポイントSP)を通過した、又は案内交差点までの残距離が数m未満となった等である。S111にて、消去条件が成立していないと判定した場合、S102に戻る。一方で、S111にて、消去条件が成立したと判定した場合、表示制御処理を終了する。
 上記のような自動での表示態様の変更に加えて、TBT表示アプリ50eは、複数の画像要素11eの表示及び非表示の設定をドライバ等の操作入力に基づいて切り替え可能である。一例として、デフォルトの設定(図3B参照)では、特定ポイントSPの手前、100~30mの区間にて、ARルート11を構成する全ての画像要素11eの表示が許容されている。TBT表示アプリ50eは、ユーザ(ドライバ等)によるタッチパネル44及びステアリングスイッチ45等への入力に基づき、表示設定をデフォルトから切り替えて、表示させる画像要素11eを柔軟に変更する。
 例えば、ユーザ操作に基づく一つの表示設定において、TBT表示アプリ50eは、特定ポイントSP(交差点等)の手前、100~30mの区間にて、進入指示部IE1及び退出指示部IE3を表示させる。そして、TBT表示アプリ50eは、特定ポイントSPまでの距離が30mとなった地点で、ポイント部IE2のみの表示に切り替える。
 また、特定ポイントSPに接近した場合、デフォルトの表示設定では、ポイント部IE2のみがARルート11として表示される(図3C参照)。しかし、ユーザ操作に基づく他の一つの表示設定において、TBT表示アプリ50eは、交差点に接近した段階でも、全て(三つ)の画像要素11eの表示を継続させる。
 さらに、退出指示部IE3は、進入指示部IE1と比較して、高精度な重畳が困難となり易い。故に、煩わしさを感じ易いユーザのために、TBT表示アプリ50eは、ユーザ操作に基づき、退出指示部IE3を常に非表示にできる。或いは、退出指示部IE3の視認性を進入指示部IE1よりも低い状態にする表示設定が可能とされてもよい。
 ここまで説明した本実施形態では、走行経路に沿って並ぶよう重畳表示される複数の画像要素11eにより、走行経路を通知するARルート11が形成されている。そして、虚像Viの表示可能範囲DAから外れる画像要素11eがある場合、複数の画像要素11eのうちで、表示可能範囲DAから外れる画像要素11eよりも手前側までの画像要素11eが、ARルート11として表示される。
 具体的には、ポイント部IE2が表示可能範囲DA外であると判定した場合、ポイント部IE2よりも走行経路の手前側までの進入指示部IE1が、映像データに描画され、ARルート11として前景中に虚像表示される。以上によれば、ARルート11は、走行経路に正しく重畳された進入指示部IE1によって形成され、且つ、走行経路の連続性を確保された態様で虚像表示される。その結果、車両Aの走行経路を通知する虚像表示の違和感は、低減可能になる。
 加えて本実施形態のTBT表示アプリ50eは、特定ポイントSPへの接近期間において、継続的な見切れ判定の実施によって表示可能範囲DAをリアルタイムに判断し、見切れの発生する画像要素11eを的確に識別し得る。以上によれば、進入経路と退出経路とが繋がっていない途切れたARルート11、換言すれば、退出指示部IE3が浮いてしまっているARルート11の表示は、効果的に防がれる。以上によれば、虚像表示の違和感は、いっそうドライバに感じられ難くなる。
 また本実施形態では、特定物体SOと重なる画像要素11eの表示が抑制される。その結果、ARルート11は、特定物体SOとして規定した道路標識、横断歩道及び歩行者等との重なりを避けた態様となり、ドライバによる視認を妨げ難くなる。以上によれば、ドライバに煩わしく感じられ難い虚像表示が可能になる。
 さらに本実施形態のように、一つのARルート11を複数に分解したデザインによれば、状況変化に合わせた表示態様に変更する処理の演算負荷が軽減可能となる。詳記すると、ARルート11等のARコンテンツが一体的なデザインである場合、アイポイントEPから見て、特定物体SOと重なる一部を削除した描画形状を、状況に応じて演算する処理が必要となる。一方で、本実施形態のように複数の画像要素11eに分解されたデザインであれば、一部の画像要素11eの描画を単に中断させる処理により、現状に最適なARコンテンツの描画形状が実現できる。したがって、画像要素11e毎に表示及び非表示を切り替える処理の採用によれば、一体的なARコンテンツを部分的に消す処理よりも、演算負荷の軽減が可能になる。
 加えて本実施形態でのARルート11は、三つの画像要素11eによって構成されている。こうした表示構成であれば、より多数の画像要素11eによってARルート11を形成する形態よりも、画像要素11e毎の表示及び非表示を切り替える処理の負荷が軽減され易い。
 また本実施形態のARルート11には、進入経路を示す進入指示部IE1、特定ポイントSPを示すポイント部IE2、及び退出経路を示す退出指示部IE3が含まれている。こうした表示構成によれば、ARルート11は、複数の画像要素11eに分割されていても、車両Aの走行経路をドライバに分かり易く示し得る。
 さらに本実施形態では、特定ポイントSPまでの距離に応じて、各画像要素11eの表示態様が変更される。具体的に、TBT表示アプリ50eは、各画像要素11eを重畳対象に正しく重畳可能となった段階で、各画像要素11eを非表示から表示へと切り替える。以上によれば、重畳対象からずれた画像要素11eの表示が回避され得るため、ドライバは、虚像表示に対して、いっそう違和感を覚え難くなる。
 また本実施形態における各画像要素11eの表示及び非表示の設定は、ユーザ操作に基づき、個別に切り替え可能である。こうした構成であれば、ユーザの嗜好に応じて、ユーザが好まない画像要素11eは、非表示の状態に維持され得る。その結果、見切れ判定及び重なり判定による非表示への自動切り替えと相俟って、ドライバにいっそう違和感を与え難い虚像表示が実現される。さらに、一部の画像要素11eを非表示の設定に切り替えても、本実施形態であれば、演算処理の負荷増加は生じ難い。
 尚、本実施形態では、遠虚像Vi1が「虚像」に相当し、ARルート11が「案内表示物」に相当し、タッチパネル44及びステアリングスイッチ45が「操作部」に相当する。また、S102の見切れ判定を行うTBT表示アプリ50eが「見切れ判定部」に相当し、S106の重なり判定を行うTBT表示アプリ50eが「重なり判定部」に相当する。さらにS106のAR表示生成を行うTBT表示アプリ50e及び統合表示制御ブロック73が「表示生成部」に相当する。
 (他の実施形態)
 以上、本開示の一実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
 上記実施形態では、進入指示部、ポイント部及び退出指示部を含むARルートが案内表示物として表示されていた。しかし、案内表示物の全体の表示形状、及び進入指示部、ポイント部及び退出指示部のそれぞれの表示形状は、適宜変更されてよい。さらに、案内表示物を形成する画像要素の数は、四つ以上であってもよく、又は二つであってもよい。
 上記実施形態では、重なり判定に基づき、特定物体と重ならない表示形状への変更が画像要素毎に実施されていた。こうした重なり判定の対象となる特定物体は、適宜変更されてよい。また、上記のような重なり判定は、省略されてもよい。同様に、特定ポイントまでの距離に応じて画像要素の表示及び非表示を切り替える表示制御も、省略可能である。
 上記実施形態では、個々の画像要素の表示及び非表示の設定がユーザ操作によって切り替え可能であった。こうしたユーザ操作に用いられる入力インターフェースは、タッチパネル及びステアリングスイッチに限定されない。例えば、音声及びジェスチャーの少なくとも一方による入力がユーザの操作とされ、各画像要素の表示及び非表示の設定切り替えに用いられてもよい。尚、こうしたユーザ操作に基づく表示設定の切り替え機能は、省略されてよい。
 上記実施形態のHUD装置は、遠虚像及び近虚像を全く異なる位置に結像可能な二焦点方式の投影装置であった。しかし、HUD装置は、単焦点方式の投影装置であってもよい。単焦点方式のHUD装置の一例では、投影される虚像光の結像面が、上方向へ向かうに従って車両の前方向に傾斜した姿勢である。こうしたHUD装置では、結像面のうちで下縁近傍に結像される虚像が「近虚像」とされ、非AR表示を行う。一方で、結像面の中央から上方に結像される虚像が「遠虚像」とされ、AR表示を行う。以上のようなHUD装置を採用した形態であっても、遠虚像について、見切れ判定に基づく表示制御が可能である。さらに、HUD装置は、「近虚像」に相当する虚像を表示しない構成であってもよい。
 HUD装置の光学的な構成は、適宜変更可能である。例えばプロジェクタには、レーザ光源及びMEMSスキャナ等を含む構成が採用されていてもよい。或いは、DMD(Digital Micromirror Device)を用いたDLP(Digital Light Processing,登録商標)が、プロジェクタに採用されてもよい。さらに、LCOS(Liquid Crystal On Silicon)等を用いたプロジェクタ、液晶パネル及びLED光源を有する液晶プロジェクタ等が、HUD装置に採用可能である。
 上記実施形態の表示制御装置は、HUD装置とは別体の電子制御ユニットとして設けられていた。しかし、上記表示制御装置の各機能は、例えばHUD装置に設けられた制御回路に実装されていてもよく、又はコンビネーションメータに設けられた制御回路等に実装されていてもよい。
 さらに、上記実施形態にて表示制御装置の制御回路により提供された各機能は、ソフトウェア及びそれを実行するハードウェア、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの複合的な組合せによっても提供可能である。こうした機能がハードウェアである電子回路によって提供される場合、各機能は、多数の論理回路を含むデジタル回路、又はアナログ回路によっても提供可能である。
 表示制御プログラム及びTBT表示アプリ等を記憶するメモリ装置等には、フラッシュメモリ及びハードディスク等の種々の非遷移的実体的記憶媒体(non-transitory tangible storage medium)が採用可能である。こうした記憶媒体の形態も、適宜変更されてよい。例えば記憶媒体は、メモリカード等の形態であり、表示制御装置に設けられたスロット部に挿入されて、制御回路に電気的に接続される構成であってよい。さらに記憶媒体は、上述のような車載装置のメモリ装置に限定されず、当該メモリ装置へのプログラムのコピー基となる光学ディスク及び汎用コンピュータのハードディスクドライブ等であってもよい。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)から構成され、各セクションは、たとえば、S101と表現される。さらに、各セクションは、複数のサブセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、このように構成される各セクションは、デバイス、モジュール、ミーンズとして言及されることができる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (8)

  1.  車両(A)において用いられ、乗員の前景中にある重畳対象に重畳される虚像(Vi1)の表示を制御する表示制御装置であって、
     前記車両の走行経路を前記乗員に通知する案内表示物像(11)であり、前記走行経路に沿って並ぶように重畳表示される複数の画像要素(11e)の組み合わせにより形成される案内表示物像を生成する表示生成部(S110)と、
     複数の前記画像要素について、前記虚像の表示可能範囲から外れるか否かを個別に判定する見切れ判定部(S102)と、を備え、
     前記表示生成部は、前記表示可能範囲から外れる前記画像要素がある場合、複数の前記画像要素のうちで前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させる表示制御装置。
  2.  複数の前記画像要素について、予め規定された前景中の特定物体(SO)と重なるか否かを判定する重なり判定部(S106)、をさらに備え、
     前記表示生成部は、前記特定物体と重なると判定された前記画像要素の態様を、前記特定物体と重ならない態様に変更する請求項1に記載の表示制御装置。
  3.  前記表示生成部は、進路変更を通知する前記案内表示物像を、三つ以上の前記画像要素によって形成する請求項1又は2に記載の表示制御装置。
  4.  前記案内表示物像は、進路変更を実施する特定ポイント(SP)を示したポイント部(IE2)、前記特定ポイントまでの進入経路を示す進入指示部(IE1)、及び前記特定ポイントからの退出経路を示す退出指示部(IE3)を、前記画像要素として含む請求項3に記載の表示制御装置。
  5.  前記表示生成部は、前記車両の現在地から進路変更を実施する特定ポイント(SP)までの距離に応じて、前記案内表示物像を形成する各前記画像要素の表示を変更する請求項1~4のいずれか一項に記載の表示制御装置。
  6.  前記表示生成部は、複数の前記画像要素の表示及び非表示を、操作部(44,45)への入力に基づき設定する請求項1~5のいずれか一項に記載の表示制御装置。
  7.  車両(A)において用いられ、乗員の前景中にある重畳対象に重畳される虚像(Vi1)の表示を制御する表示制御プログラムであって、
     少なくとも一つの処理部(61)を、
     前記車両の走行経路を前記乗員に通知する案内表示物像(11)であり、前記走行経路に沿って並ぶように重畳表示される複数の画像要素(11e)の組み合わせにより形成される案内表示物像を生成する表示生成部(S110)、
     複数の前記画像要素について、前記虚像の表示可能範囲(DA)から外れるか否かを個別に判定する見切れ判定部(S102)、として機能させ、
     前記表示生成部は、前記表示可能範囲から外れる前記画像要素がある場合、複数の前記画像要素のうちで前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させる表示制御プログラム。
  8.  コンピュータによって実施される命令を備える持続的有形コンピュータ読み取り媒体であって、当該命令は、車両(A)において用いられ、乗員の前景中にある重畳対象に重畳される虚像(Vi1)の表示を制御するものであり、当該命令は、
     前記車両の走行経路を前記乗員に通知する案内表示物像(11)であり、前記走行経路に沿って並ぶように重畳表示される複数の画像要素(11e)の組み合わせにより形成される案内表示物像を生成することと、
     複数の前記画像要素について、前記虚像の表示可能範囲から外れるか否かを個別に判定することと、
     前記表示可能範囲から外れる前記画像要素がある場合、複数の前記画像要素のうちで前記表示可能範囲から外れると判定された前記画像要素よりも前記走行経路の手前側までの前記画像要素を、前記案内表示物像として表示させることと、
     を備える持続的有形コンピュータ読み取り媒体。
     
     
PCT/JP2019/017330 2018-05-29 2019-04-24 表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体 WO2019230271A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/102,649 US11803053B2 (en) 2018-05-29 2020-11-24 Display control device and non-transitory tangible computer-readable medium therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018102456A JP6866875B2 (ja) 2018-05-29 2018-05-29 表示制御装置、及び表示制御プログラム
JP2018-102456 2018-05-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/102,649 Continuation US11803053B2 (en) 2018-05-29 2020-11-24 Display control device and non-transitory tangible computer-readable medium therefor

Publications (1)

Publication Number Publication Date
WO2019230271A1 true WO2019230271A1 (ja) 2019-12-05

Family

ID=68698018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017330 WO2019230271A1 (ja) 2018-05-29 2019-04-24 表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体

Country Status (3)

Country Link
US (1) US11803053B2 (ja)
JP (1) JP6866875B2 (ja)
WO (1) WO2019230271A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149740A1 (en) * 2020-01-24 2021-07-29 Ricoh Company, Ltd. Display apparatus, movable body, display method, program, and non-transitory recording medium
US11465504B2 (en) * 2020-02-19 2022-10-11 Honda Motor Co., Ltd. Control device, vehicle, computer-readable storage medium, and control method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7028228B2 (ja) 2019-01-16 2022-03-02 株式会社デンソー 表示システム、表示制御装置及び表示制御プログラム
KR20220088710A (ko) * 2019-11-06 2022-06-28 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어 방법
WO2022064542A1 (ja) * 2020-09-23 2022-03-31 三菱電機株式会社 案内制御装置および案内制御方法
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61134437U (ja) * 1985-02-13 1986-08-21
JP2001324344A (ja) * 2000-05-12 2001-11-22 Fujitsu Ten Ltd ナビゲーション装置
JP2004301525A (ja) * 2003-03-28 2004-10-28 Sanyo Electric Co Ltd ナビゲーション装置
JP2014089138A (ja) * 2012-10-31 2014-05-15 Aisin Aw Co Ltd 位置案内システム、方法およびプログラム
WO2015118859A1 (ja) * 2014-02-05 2015-08-13 パナソニックIpマネジメント株式会社 車両用表示装置および車両用表示装置の表示方法
JP2016020876A (ja) * 2014-07-16 2016-02-04 日産自動車株式会社 車両用表示装置
JP2016155505A (ja) * 2015-02-26 2016-09-01 アイシン・エィ・ダブリュ株式会社 虚像表示装置
JP2017211370A (ja) * 2016-05-20 2017-11-30 株式会社リコー Hud装置、車両装置、情報表示方法。
WO2018070193A1 (ja) * 2016-10-13 2018-04-19 マクセル株式会社 ヘッドアップディスプレイ装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4085928B2 (ja) 2003-08-22 2008-05-14 株式会社デンソー 車両用ナビゲーションシステム
JP6176478B2 (ja) 2013-04-26 2017-08-09 日本精機株式会社 車両情報投影システム
EP3370103A1 (en) * 2017-03-02 2018-09-05 Ricoh Company Ltd. Display device and apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61134437U (ja) * 1985-02-13 1986-08-21
JP2001324344A (ja) * 2000-05-12 2001-11-22 Fujitsu Ten Ltd ナビゲーション装置
JP2004301525A (ja) * 2003-03-28 2004-10-28 Sanyo Electric Co Ltd ナビゲーション装置
JP2014089138A (ja) * 2012-10-31 2014-05-15 Aisin Aw Co Ltd 位置案内システム、方法およびプログラム
WO2015118859A1 (ja) * 2014-02-05 2015-08-13 パナソニックIpマネジメント株式会社 車両用表示装置および車両用表示装置の表示方法
JP2016020876A (ja) * 2014-07-16 2016-02-04 日産自動車株式会社 車両用表示装置
JP2016155505A (ja) * 2015-02-26 2016-09-01 アイシン・エィ・ダブリュ株式会社 虚像表示装置
JP2017211370A (ja) * 2016-05-20 2017-11-30 株式会社リコー Hud装置、車両装置、情報表示方法。
WO2018070193A1 (ja) * 2016-10-13 2018-04-19 マクセル株式会社 ヘッドアップディスプレイ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149740A1 (en) * 2020-01-24 2021-07-29 Ricoh Company, Ltd. Display apparatus, movable body, display method, program, and non-transitory recording medium
EP4093629A1 (en) * 2020-01-24 2022-11-30 Ricoh Company, Ltd. Display apparatus, movable body, display method, program, and non-transitory recording medium
US11465504B2 (en) * 2020-02-19 2022-10-11 Honda Motor Co., Ltd. Control device, vehicle, computer-readable storage medium, and control method

Also Published As

Publication number Publication date
US11803053B2 (en) 2023-10-31
JP6866875B2 (ja) 2021-04-28
JP2019206256A (ja) 2019-12-05
US20210078503A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
US20210104212A1 (en) Display control device, and nontransitory tangible computer-readable medium therefor
WO2019230271A1 (ja) 表示制御装置、表示制御プログラム、及びその持続的有形コンピュータ読み取り媒体
US11535155B2 (en) Superimposed-image display device and computer program
WO2020241003A1 (ja) 表示制御装置、及び表示制御プログラム
JP2020102241A (ja) 画像処理装置
US8536995B2 (en) Information display apparatus and information display method
JP6201690B2 (ja) 車両情報投影システム
WO2020261781A1 (ja) 表示制御装置、表示制御プログラム、および持続的有形コンピュータ読み取り媒体
JP7218822B2 (ja) 表示制御装置
US12033548B2 (en) Display control device and display control program product
JP7028228B2 (ja) 表示システム、表示制御装置及び表示制御プログラム
JP2020097399A (ja) 表示制御装置および表示制御プログラム
JP6665605B2 (ja) 表示制御装置及び表示制御方法
JP7310560B2 (ja) 表示制御装置及び表示制御プログラム
WO2019230270A1 (ja) 表示制御装置、表示制御プログラム、およびその持続的有形コンピュータ読み取り媒体
JP7259802B2 (ja) 表示制御装置、表示制御プログラム及び車載システム
JP7318431B2 (ja) 表示制御装置及び表示制御プログラム
JP7234650B2 (ja) 表示制御装置及び表示制御プログラム
WO2020149109A1 (ja) 表示システム、表示制御装置及び表示制御プログラム
JP7547931B2 (ja) ヘッドアップディスプレイ装置
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
WO2022064542A1 (ja) 案内制御装置および案内制御方法
JP2024148788A (ja) 表示制御方法及び表示制御装置
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法
JP2020187068A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19812269

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19812269

Country of ref document: EP

Kind code of ref document: A1