WO2015178355A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2015178355A1
WO2015178355A1 PCT/JP2015/064247 JP2015064247W WO2015178355A1 WO 2015178355 A1 WO2015178355 A1 WO 2015178355A1 JP 2015064247 W JP2015064247 W JP 2015064247W WO 2015178355 A1 WO2015178355 A1 WO 2015178355A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured image
display
vehicle
display device
Prior art date
Application number
PCT/JP2015/064247
Other languages
English (en)
French (fr)
Inventor
勇希 舛屋
誠 秦
佑哉 宇都
中村 崇
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to EP15796958.5A priority Critical patent/EP3147149B1/en
Priority to US15/311,532 priority patent/US9818206B2/en
Publication of WO2015178355A1 publication Critical patent/WO2015178355A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/04Mobile visual advertising by land vehicles
    • G09F21/049Mobile visual advertising by land vehicles giving information to passengers inside the vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Definitions

  • the present invention relates to a display device.
  • Patent Document 1 As a conventional display device, for example, there is one disclosed in Patent Document 1.
  • the device disclosed in Patent Literature 1 is configured as a head-up display (HUD) device that projects light representing an image on a windshield of a vehicle so that the user visually recognizes the image as a virtual image. Yes.
  • HUD head-up display
  • AR Augmented Reality
  • a warning regarding a target object is performed by displaying an image (hereinafter, a captured image) superimposed on a target object outside the vehicle such as a vehicle or a pedestrian approaching forward.
  • a target object outside the vehicle such as a vehicle or a pedestrian approaching forward.
  • the viewer is uncomfortable.
  • the present invention has been made in view of the above circumstances, and can reduce a sense of incongruity given to a viewer even if a position shift occurs between a predetermined object and a captured image displayed superimposed thereon. It is an object to provide a display device that can be used.
  • a display device includes: A display device that is mounted on a vehicle and displays a virtual image of the image by projecting display light representing an image on the light-transmitting member so as to superimpose the light-transmitting member on a visually recognized landscape, Display means for emitting the display light; and reflection means for reflecting the display light emitted by the display means toward the translucent member; Specifying means for specifying a predetermined object outside the vehicle; By controlling the display means, a control means for displaying a first captured image that is visually recognized superimposed on at least a part of the object specified by the specifying means in the video, Vibration detecting means for detecting a vibration amount of the vehicle, The control means includes When the amount of vibration detected by the vibration detection means exceeds a predetermined threshold, the first captured image is replaced with at least a part of the object and is visually recognized instead of the first captured image. 2 captured images are displayed, The second captured image is Compared to the first captured image, it is an image in which the color density
  • the present invention even if a positional deviation occurs between a predetermined object and a captured image displayed so as to be superimposed on the predetermined object, it is possible to reduce a sense of discomfort given to the viewer.
  • the vehicle display system 1 includes a display device 100, an information acquisition unit 200, and an ECU (Electronic Control Unit) 300. As shown in FIG. 2, the vehicle display system 1 displays various information related to the vehicle 2 (hereinafter referred to as vehicle information) to a user 4 (mainly a driver) who has boarded the vehicle 2 by communicating with each unit. .
  • vehicle information includes not only information on the vehicle 2 itself but also external information on the vehicle 2.
  • Display device 100 As shown in FIG. 2, the display device 100 is mounted on the vehicle 2.
  • the display device 100 is configured as a head-up display (HUD) that displays the image represented by the display light N as a virtual image V in front of the windshield 3 by projecting the display light N onto the windshield 3 of the vehicle 2. .
  • the image represented by the display light N is for reporting vehicle information. Thereby, the user 4 can visually recognize the vehicle information displayed so as to overlap with the scenery seen through the windshield 3.
  • the display device 100 is disposed in an instrument panel of the vehicle 2, for example.
  • the display device 100 includes a display unit 10, a reflection unit 20, a housing 30, and a display controller 40.
  • the display means 10 displays an image for informing vehicle information under the control of the display controller 40.
  • the display means 10 includes a liquid crystal display (LCD), a backlight that illuminates the LCD from behind, and the like.
  • the display means 10 displays the video toward a plane mirror 21 described later. Thereby, the display light N representing an image is emitted toward the plane mirror 21.
  • the display means 10 may be configured by an organic EL (Electro-Luminescence) display, DMD (Digital Micromirror Device), reflection type and transmission type LCOS (registered trademark: Liquid Crystal On Silicon), or the like.
  • the reflecting means 20 includes a plane mirror 21 and a concave mirror 22.
  • the plane mirror 21 is formed of a cold mirror, for example, and reflects the display light N from the display unit 10 to the concave mirror 22.
  • the concave mirror 22 reflects the display light N emitted from the display means 10 and reflected by the flat mirror 21 to the windshield 3 while expanding it. Thereby, the virtual image V visually recognized by the user 4 is obtained by enlarging the video displayed on the display unit 10.
  • the reflecting unit 20 is configured by two mirrors is shown, but the reflecting unit 20 may be configured by one or three or more mirrors.
  • the housing 30 accommodates the display means 10 and the reflection means 20 at appropriate positions where each of the functions described above can be realized.
  • the housing 30 has a light shielding property and is formed in a box shape from synthetic resin or metal.
  • the housing 30 is provided with an opening 30 a that secures the optical path of the display light N.
  • a translucent cover 31 is attached to the housing 30 so as to close the opening 30a.
  • the translucent cover 31 is made of a translucent resin such as acrylic.
  • the display light N reflected by the concave mirror 22 passes through the translucent cover 31 and travels toward the windshield 3. In this way, the display light N is emitted from the display device 100 toward the windshield 3.
  • the display light N is reflected by the windshield 3 toward the user 4, so that the virtual image V is displayed in front of the windshield 3 when viewed from the user 4.
  • the concave mirror 22 may be provided so as to be capable of rotating or translating by an actuator (not shown).
  • the concave mirror 22 is provided so as to be rotatable clockwise / counterclockwise in FIG. 3, and the concave mirror 22 is rotated to change the reflection angle of the display light N, whereby the display position of the virtual image V can be adjusted. It may be.
  • the display controller 40 controls the display operation of the display means 10, and includes a control unit 41, a storage unit 42, an image memory 43, and an input / output unit 44.
  • the control unit 41 includes a CPU (Central Processing Unit), a GDC (Graphics Display Controller), a driver for driving the display means 10, and the like.
  • the CPU controls the operation of each part of the display device 100 by reading and executing a program stored in advance in the storage unit 42.
  • the CPU and GDC are connected by an interface circuit and perform bidirectional communication.
  • the GDC controls the operation of the display unit 10 in cooperation with the CPU, and causes the display unit 10 to display a video based on the image data stored in the image memory 43.
  • the control part 41 measures time suitably with the built-in timer.
  • the storage unit 42 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and stores an operation program (particularly, an operation program for a display form changing process described later) indicating a processing procedure of the CPU.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the image memory 43 is composed of a flash memory, an HDD (Hard Disk Drive), and the like, and is data of a video (that is, a video visually recognized as a virtual image V) displayed on the display means 10, and includes various types of captured images and the like to be described later. Image data including an image is stored.
  • the input / output unit 44 is communicably connected to each of the information acquisition unit 200 and the ECU 300.
  • the control unit 41 communicates with the information acquisition unit 200 and the ECU 300 via the input / output unit 44 through a CAN (Controller Area Network) or the like.
  • the vehicle information and vehicle state information are input from the information acquisition unit 200 to the control unit 41 via the input / output unit 44.
  • the control unit 41 determines the display form of various images and the display position in the video according to the input information. And the control part 41 is controlled so that various images are displayed in the position corresponding to the target object mentioned later.
  • control unit 41 adjusts the brightness and brightness of various images (that is, the brightness and brightness of the virtual image V) by controlling the LCD constituting the display means 10 and the light source included in the backlight.
  • the control unit 41 calculates acceleration based on vehicle speed information from a vehicle speed sensor 240 described later, and calculates the vibration amount of the vehicle 2 from the acceleration. Then, when the vibration amount exceeds a predetermined amount, the control unit 41 changes the display form of the captured image described later. Details will be described later.
  • the information acquisition unit 200 includes a front information acquisition unit 210, a navigation system 220, a GPS (Global Positioning System) controller 230, and a vehicle speed sensor 240.
  • a navigation system 220 includes a GPS (Global Positioning System) controller 230 and a vehicle speed sensor 240.
  • GPS Global Positioning System
  • the front information acquisition unit 210 acquires information ahead of the vehicle 2 and includes a stereo camera 211 and a captured image analysis unit 212.
  • the stereo camera 211 captures a forward landscape including a road on which the vehicle 2 travels.
  • the captured image analysis unit 212 acquires data of the image captured by the stereo camera 211 (imaging data), and acquires various types of information in front of the vehicle 2 by performing image analysis on the acquired captured data using a pattern matching method.
  • the captured image analysis unit 212 acquires information (an object position, a distance from the vehicle 2 to the object, etc.) regarding an object (an example of the object) such as a preceding vehicle, an obstacle, and a pedestrian.
  • the object may be the road itself.
  • the captured image analysis unit 212 acquires information regarding lanes, white lines, stop lines, pedestrian crossings, road widths, lane numbers, intersections, curves, branch roads, and the like.
  • the captured image analysis unit 212 outputs information on the target obtained by analyzing the captured image to the display controller 40.
  • the navigation system 220 has a storage unit that stores map data, and reads map data in the vicinity of the current position from the storage unit based on position information from the GPS controller 230 to determine a guide route. Then, the navigation system 220 outputs information regarding the determined guide route to the display controller 40. Further, the navigation system 220 outputs information indicating the name / type of the facility (an example of the object) ahead of the vehicle 2 and the distance between the facility and the vehicle 2 to the display controller 40 by referring to the map data. To do.
  • Map data includes information on roads (road width, number of lanes, intersections, curves, branch roads, etc.), regulation information on road signs such as speed limits, information on each lane when there are multiple lanes (which lanes are Various information such as where the lane is heading) is associated with the position data.
  • the navigation system 220 reads map data in the vicinity of the current position based on the position data from the GPS controller 230 and outputs it to the display controller 40.
  • the GPS controller 230 receives a GPS signal from an artificial satellite or the like, and calculates the position of the vehicle 2 based on the received GPS signal. When the position of the vehicle 2 is calculated, the GPS controller 230 outputs the position data to the navigation system 220.
  • the vehicle speed sensor 240 detects the speed of the vehicle 2 and outputs vehicle speed information indicating the detected vehicle speed to the display controller 40.
  • the information acquisition unit 200 configured in this manner allows the control unit 41 to communicate with the presence / absence of an object outside the vehicle 2, the type / position of the object, the vehicle 2 and the object via the input / output unit 44. “Outside vehicle information” indicating the distance and the like, and “vehicle state information” indicating the speed of the vehicle 2 and the like are transmitted.
  • the ECU 300 controls each part of the vehicle 2 and determines an image to be displayed on the display device 100 based on signals output from various sensors mounted on the vehicle 2. Then, the data about the determined image is output to the display controller 40. Such an image determination may be performed by the control unit 41.
  • a virtual image V is displayed in the display area E as shown in FIG.
  • the display area E is defined as a range in which the user 4 can visually recognize the virtual image V (so-called eyebox).
  • the image formation distance of the virtual image V is set to be large (for example, 15 m or more) in order to display information superimposed on the real scene.
  • the virtual image V (video displayed on the display unit 10) displayed by the display device 100 includes a guide route image V1, a white line recognition image V2, an operation state image V3, and a restriction image V4.
  • the guide route image V ⁇ b> 1 is an image for guiding the route of the vehicle 2, and is displayed based on information on the guide route from the navigation system 220.
  • the white line recognition image V ⁇ b> 2 is an image for recognizing the presence of a lane and is displayed based on information from the front information acquisition unit 210.
  • the operation state image V3 is an image indicating the operation state of the vehicle 2 such as the vehicle speed and the engine speed (vehicle speed in the illustrated example), and is displayed based on information from the vehicle speed sensor 240 and the ECU 300.
  • the restriction image V4 is an image showing restriction information such as a speed limit, and is displayed based on the restriction information from the navigation system 220.
  • a layer is assigned to each display content, and individual display control is possible.
  • the image visually recognized by the user 4 as the virtual image V is superimposed on a predetermined object such as a preceding vehicle or a pedestrian (an object outside the vehicle appearing in a real scene). It includes a captured image that is displayed and alerts the user to the presence of the object.
  • the captured image is displayed based on the position of the target specified by the captured image analysis unit 212 of the front information acquisition unit 210. For example, when using adaptive cruise control (ACC) that controls the speed of the vehicle 2 so as to follow the preceding vehicle, the captured image is displayed so as to be superimposed on the identified preceding vehicle. To recognize the vehicle ahead.
  • ACC adaptive cruise control
  • the object captured by the captured image is not limited to the forward vehicle, but in order to facilitate understanding of the description, in the following, the object W is the forward vehicle as shown in FIGS.
  • the captured image can be displayed in the display area E simultaneously with the various images V1 to V4.
  • FIGS. 5A and 5B for ease of viewing, Only the captured image that is visually recognized as part of the virtual image V is shown.
  • control unit 41 controls the display unit 10 and superimposes it on the target object W specified by the front information acquisition unit 210 to display the first captured image Va shown in FIG. A second captured image Vb shown in 5 (b) is displayed.
  • the first captured image Va is an image that is visually recognized while being superimposed on at least a part of the identified object W.
  • the first captured image Va is a frame image showing a frame, and is displayed with at least a part of the object W positioned in the frame.
  • that the 1st capture image Va overlaps with at least one part of the target object W means that at least one part of the target object W is located in the external shape of a frame. Therefore, as shown in FIG. 5A, the state in which the object W is in the frame area indicated by the first captured image Va is also superimposed on the first captured image Va. It is.
  • the control unit 41 controls the display means 10 to display such a first captured image Va (synonymous with the first captured image Va visually recognized as the virtual image V), thereby allowing the user 4 to display the vehicle ahead. Make it exist. However, in the display mode like the first captured image Va, if the positional relationship between the object W and the first captured image Va is shifted due to the vibration of the vehicle 2, the user 4 may feel uncomfortable. There is a case. For example, when the user 4 is gazing at an arbitrary position P1 (see FIG. 6A) in the frame portion of the first captured image Va, when the frame portion is repeatedly detached from the position P1 or returned due to vibrations. , Flickering and blinking will occur, causing a sense of incongruity.
  • control unit 41 determines that the vibration amount of the vehicle 2 has become so large that the displacement of the captured image cannot be tolerated by executing a display form changing process described later, the control unit 41 displays the first captured image Va. Change to the second captured image Vb.
  • the second captured image Vb is an image in a form in which the inside of the frame of the first captured image Va is filled.
  • the second captured image Vb is an image in which the color density difference between the pixels constituting the image edge and the area outside the image and adjacent to the image edge is reduced as compared with the first captured image Va. is there. This will be described below.
  • FIGS. 6 (a) and 6 (b) are diagrams showing a part of an image visually recognized as a virtual image V in pixel units.
  • the actual pixels are finer than those shown in the figure, but are schematically shown in the figure in consideration of ease of viewing.
  • the pixels constituting the image edge of the first captured image Va are a pixel group expressing a frame, and include a pixel displayed at the position P1.
  • the region outside the first captured image Va and adjacent to the image end is a region that includes a pixel displayed at the position P2 and surrounds a pixel group that represents a frame.
  • the color density difference between the pixels constituting the image edge of the first captured image Va and the area surrounding the image group expressing the frame is referred to as a first density difference.
  • the color density difference means a color luminance difference or brightness difference.
  • the pixels constituting the image end of the second captured image Vb are a pixel group along the dotted line A and are displayed at the position P3. It includes a pixel.
  • the region outside the second captured image Vb and adjacent to the image end includes a pixel displayed at the position P4 and surrounds the outside of the dotted line A.
  • the color density difference between the pixels constituting the image edge of the second captured image Vb and the area surrounding the outside of the dotted line A is hereinafter referred to as a second density difference.
  • the second gray level difference at the time of displaying the second captured image Vb is controlled to be smaller than the first gray level difference.
  • the display contrast between the image edge and the area outside the image and adjacent to the image edge is smaller in the second captured image Vb than in the first captured image Va, and the boundary between the inside and outside of the image.
  • Dare to be obscured thereby, for example, when the user 4 is gazing at an arbitrary position P3 in the second captured image Vb, the image end of the second captured image Vb is detached from the position P3 or returned due to vibration.
  • the second captured image Vb is displayed as a gradation image in which the color becomes darker (the luminance or brightness becomes lower) from the end of the image toward the center.
  • the color density difference between the pixels in the plurality of images constituting the second captured image Vb is reduced, so that even if the second captured image Vb vibrates, the flickers that occur as described above are not noticeable.
  • the second captured image Vb into such a gradation image, a sense of incongruity due to the light color at the edge of the image does not occur, and the display looks good.
  • the second captured image Vb displayed as a gradation image satisfies at least one of the following (1) and (2).
  • (1) The color density difference between adjacent pixels in the plurality of pixels constituting the second captured image Vb is smaller than the first density difference described above.
  • (2) The color density difference between adjacent pixels in the plurality of pixels constituting the second captured image Vb is smaller than the color density difference between the frame portion and the area in the frame in the first captured image Va. .
  • the color of the frame portion of the first captured image Va is a color suitable for alerting, for example, red.
  • the color of the second captured image Vb is, for example, a gradation based on red shades.
  • the color of the frame portion of the first captured image Va and the color of the second captured image Vb are preferably similar colors, but may not be similar colors.
  • an appropriate pixel group may be selected as a region (outside image region or in frame region) to be compared with the image edge.
  • the display device 100 can display the various images V1 to V4 and the like in a video that is visually recognized as a virtual image V.
  • the first captured image Va is displayed as a second image in a predetermined case.
  • the display form changing process unique to the present embodiment for changing to the captured image Vb will be described.
  • the control unit 41 starts the display form changing process shown in FIG.
  • the control unit 41 acquires vehicle speed information from the vehicle speed sensor 240 at predetermined time intervals (step S1), and calculates the acceleration of the vehicle 2 from the time change of the vehicle speed (step S2).
  • the control unit 41 acquires the amplitude L of the vehicle 2 based on the calculated acceleration (step S3).
  • the control unit 41 is data stored in advance in the storage unit 42, and table data that associates acceleration with the amplitude in the vertical direction (vertical direction as viewed from the user 4) assumed for a certain acceleration.
  • the amplitude L corresponding to the calculated acceleration is acquired.
  • the amplitude L may be obtained by a predetermined mathematical formula.
  • the amplitude L should just be an amplitude in at least one direction among the up-down direction, the front-back direction, and the left-right direction as seen from the user 4.
  • control unit 41 determines whether or not the acquired amplitude L is larger than a threshold value Lth stored in the storage unit 42 in advance (step S4).
  • step S4 When the amplitude L is larger than the threshold value Lth (step S4; Yes), the control unit 41 turns on the vibration detection flag (sets a flag) (step S5), and executes the process of step S6.
  • step S6 the control unit 41 stores the current time in the storage unit 42 as the vibration detection time Tst, and executes the process of step S9.
  • step S4 When the amplitude L is less than or equal to the threshold value Lth (step S4; No), the control unit 41 determines whether or not the period Tth stored in the storage unit 42 in advance has elapsed from the vibration detection time Tst (the current time is T). In this case, it is determined whether or not
  • Step S7 When the period Tth has elapsed (step S7; Yes), the control unit 41 turns off the vibration detection flag (lowers the flag) (step S8), and executes the process of step S9.
  • the control unit 41 executes the process of step S9 immediately after step S4.
  • the control unit 41 executes the process of step S9 without turning off the vibration detection flag.
  • Steps S7 and S8 are processes for preventing the captured image from being instantaneously switched over and over to complicate the display.
  • step S9 the control unit 41 determines whether or not the vibration detection flag is on.
  • the vibration detection flag is in an off state (step S9; No)
  • the control unit 41 performs the first operation.
  • the captured image Va is displayed on the display means 10 (step S10).
  • step S9; Yes it can be assumed that the vibration amount of the vehicle 2 is so large that the shift of the captured image cannot be allowed.
  • step S11 the first captured image Va is deleted (step S11), and the second captured image Vb is displayed (step S12). That is, in the process of step S11 and step S12, the control unit 41 changes the first captured image Va to the second captured image Vb.
  • the change from the first captured image Va to the second captured image Vb may be made by gradually changing the display mode. For example, after the frame portion of the first captured image Va is erased, the second captured image Vb may appear by filling the inside of the frame indicated by the frame image with gradation expression.
  • the control unit 41 repeatedly executes the above writing process until the display device 100 is turned off by, for example, ignition off.
  • the above is the display form changing process.
  • the first captured image may not be a frame image.
  • the first captured image Vc shown in the figure has an elliptical shape and is displayed under the control of the control unit 41 so as to be visually recognized by being superimposed on a part of the object W that is the preceding vehicle. It is.
  • the first captured image Vc is expressed as a solid figure with substantially uniform luminance or brightness.
  • the vibration detection flag is on (step S9; Yes)
  • the displayed second captured image Vd has the same shape as the first captured image Vc, and the target object It is an image that is visually recognized superimposed on a part of W.
  • the second captured image Vd is displayed as a gradation image in which the color becomes darker (the luminance or brightness decreases) from the image edge toward the center. Even in such a captured image, the second captured image Vd is more colored than the first captured image Vc in the colors of the pixels constituting the image end and the region outside the image and adjacent to the image end. It is an image in which the difference in shading is reduced. Further, the color density difference between adjacent pixels in the plurality of pixels constituting the second captured image Vd is the color between the pixels constituting the image end of the first captured image Vc and the region surrounding the image end from the outside. It is smaller than the difference in shading.
  • the first captured image may be a frame image showing a ring-shaped or polygonal frame instead of a rectangular frame.
  • the second captured image may be a mosaic image.
  • the second captured image is expressed as a gradation image in which the color becomes darker toward the center in the horizontal and vertical directions in the figure, but is not limited thereto.
  • the second captured image preferably has a dark color from the image edge toward at least the center in the left-right direction, but in the up-down direction, the color becomes darker toward a position deviated from the center position of the image. May be.
  • the darkest part of the second captured image represented as a gradation image may be biased downward. In this way, it is possible to provide a good-looking display that matches the actual state of the scenery that the road is usually darker than the sky.
  • the outer sizes of the first captured image and the second captured image may be different.
  • the display device 100 described above is mounted on the vehicle 2 (an example of a vehicle), and projects the display light N representing an image on the windshield 3 (an example of a light-transmitting member) so that the windshield 3 can be seen through.
  • a virtual image V of the image is displayed so as to be superimposed on the scenery to be displayed.
  • the display device 100 includes a display unit 10 that emits display light N, a reflection unit 20 that reflects the display light N emitted from the display unit 10 toward the windshield 3, and a control unit 41 that controls the display unit 10. .
  • the control unit 41 functions as a specifying unit that specifies a predetermined object W outside the vehicle 2 in cooperation with the information acquisition unit 200 (mainly the front information acquisition unit 210).
  • control unit 41 functions as a control unit that displays a first captured image that is visually recognized while being superimposed on at least a part of the object W specified by the specifying unit. Further, the control unit 41 functions as a vibration detection unit that detects the amplitude L (an example of the vibration amount) of the vehicle 2 based on the vehicle speed information from the vehicle speed sensor 240. When the amount of vibration detected by the vibration detection unit exceeds a predetermined threshold due to the function as the control unit, the control unit 41 replaces the first captured image with at least one of the objects W in the video. A second captured image that is visually recognized by being superimposed on the part is displayed.
  • amplitude L an example of the vibration amount
  • the second captured image is an image in which the color difference between the pixels constituting the image edge and the area outside the image and adjacent to the image edge is reduced as compared with the first captured image. It is. Since it did in this way, as above-mentioned, even if position shift arises in the target object W and the captured image displayed on it, the discomfort given to a viewer can be reduced.
  • the projection target of the display light N is not limited to the windshield 3, but may be a combiner configured by a plate-shaped half mirror, a hologram element, or the like.
  • control unit 41 determines the vibration amount based on the vehicle speed information from the vehicle speed sensor 240 , but the present invention is not limited to this.
  • the control unit 41 may determine the vibration amount based on information from an acceleration sensor, a gyro sensor, a vibration sensor, or the like.
  • the front information acquisition unit 210 acquires information for specifying the object W is mainly shown, but the present invention is not limited to this.
  • the object W may be specified based on information from other parts constituting the information acquisition unit 200 or information from an external communication device such as a millimeter wave radar, sonar, or road traffic information communication system.
  • an example of a vehicle on which the display device 100 is mounted is a vehicle, but is not limited thereto.
  • the display device 100 may be mounted on another vehicle such as a motorcycle, a construction machine, an agricultural machine, a ship, an aircraft, or the like.
  • the present invention is particularly applicable as a head-up display that is mounted on a vehicle such as a vehicle and allows a user to visually recognize a virtual image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

表示装置は、車両に搭載され、フロントガラスに映像を表す表示光を投射して映像の虚像を表示し、表示光を出射する表示手段と、車両の外にある対象物(W)を特定する特定手段と、映像内に、対象物(W)の少なくとも一部と重畳して視認される第1の捕捉画像(Va)を表示させる制御手段と、車両の振動量を検出する振動検出手段と、を備える。制御手段は、振動検出手段が検出した振動量が閾値を超えた場合、第1の捕捉画像(Va)に代えて第2の捕捉画像(Vb)を表示させる。第2の捕捉画像(Vb)は、第1の捕捉画像(Va)よりも、画像端を構成する画素と、画像外の領域であって前記画像端に隣接する領域との色の濃淡差が低減された画像である。これにより、所定の対象物と、これに重畳して表示される捕捉画像とに位置ずれが生じても、視認者に与える違和感を低減することができる。

Description

表示装置
 本発明は、表示装置に関する。
 従来の表示装置として、例えば、特許文献1に開示されたものがある。特許文献1に開示された装置は、車両のフロントガラスに映像を表す光を投射することで、その映像を虚像としてユーザに視認させるヘッドアップディスプレイ(HUD:Head-Up Display)装置として構成されている。この種のHUD装置によって、フロントガラス等の透光部材越しに見える風景と重畳させて、車外の対象物に関する情報を表示し、AR(Augmented Reality)を実現することが行われている。
特開2011-121401号公報
 ARを実現するHUD装置では、前方に接近した車両や歩行者などの車外の対象物に、重畳させて画像(以下、捕捉画像)を表示することにより、対象物に関する注意喚起を行う場合がある。この場合、車両の振動によって対象物と捕捉画像との位置関係にずれが生じると、視認者に違和感を与えてしまう。
 本発明は、上記実情に鑑みてなされたものであり、所定の対象物と、これに重畳して表示される捕捉画像とに位置ずれが生じても、視認者に与える違和感を低減することができる表示装置を提供することを目的とする。
 上記目的を達成するため、本発明に係る表示装置は、
 乗り物に搭載され、透光部材に映像を表す表示光を投射することで、前記透光部材を透かして視認される風景に重畳させて前記映像の虚像を表示する表示装置であって、
 前記表示光を出射する表示手段と
 前記表示手段が出射した前記表示光を、前記透光部材に向けて反射させる反射手段と、
 前記乗り物の外にある所定の対象物を特定する特定手段と、
 前記表示手段を制御することで、前記映像内に、前記特定手段が特定した前記対象物の少なくとも一部と重畳して視認される第1の捕捉画像を表示させる制御手段と、
 前記乗り物の振動量を検出する振動検出手段と、を備え、
 前記制御手段は、
 前記振動検出手段が検出した振動量が予め定められた閾値を超えた場合、前記第1の捕捉画像に代えて、前記映像内に、前記対象物の少なくとも一部と重畳して視認される第2の捕捉画像を表示させ、
 前記第2の捕捉画像は、
 前記第1の捕捉画像よりも、画像端を構成する画素と、画像外の領域であって前記画像端に隣接する領域との色の濃淡差が低減された画像である、
 ことを特徴とする。
 本発明によれば、所定の対象物と、これに重畳して表示される捕捉画像とに位置ずれが生じても、視認者に与える違和感を低減することができる。
本発明の一実施形態に係る車両用表示システムのブロック図である。 本発明の一実施形態に係る表示装置の車両への搭載態様を示す図である。 本発明の一実施形態に係る表示装置の概略構成図である。 虚像として視認される映像内に表示される各種画像を説明するための図である。 本発明の一実施形態に係る捕捉画像を説明するための図であり、(a)は第1捕捉画像を示す図であり、(b)は第2捕捉画像を説明するための図である。 本発明の一実施形態に係る捕捉画像を説明するための図であり、(a)は第1捕捉画像を示す図であり、(b)は第2捕捉画像を説明するための図である。 本発明の一実施形態に係る表示形態変更処理のフローチャートである。 変形例に係る捕捉画像を説明するための図であり、(a)は第1捕捉画像を示す図であり、(b)は第2捕捉画像を説明するための図である。
 本発明の一実施形態に係る表示装置を、図面を参照して説明する。
 本実施形態に係る車両用表示システム1は、図1に示すように、表示装置100と、情報取得部200と、ECU(Electronic Control Unit)300と、を備える。
 車両用表示システム1は、各部が通信することにより、図2に示すように、車両2に搭乗したユーザ4(主に運転者)に、車両2に関する各種情報(以下、車両情報)を表示する。なお、車両情報は、車両2自体の情報のみならず、車両2の外部情報も含む。
(表示装置100)
 表示装置100は、図2に示すように、車両2に搭載される。表示装置100は、車両2のフロントガラス3に表示光Nを投射することで、表示光Nが表す映像を虚像Vとしてフロントガラス3の前方に表示するヘッドアップディスプレイ(HUD)として構成されている。表示光Nが表す映像は、車両情報を報知するためのものである。
 これにより、ユーザ4は、フロントガラス3越しに見える風景と重なって表示される車両情報を視認することができる。表示装置100は、例えば、車両2のインスツルメントパネル内に配置されている。
 表示装置100は、図1、図3に示すように、表示手段10と、反射手段20と、筐体30と、表示コントローラ40と、を備える。
 表示手段10は、表示コントローラ40の制御の下で、車両情報を報知するための映像を表示する。表示手段10は、液晶ディスプレイ(LCD:Liquid Crystal Display)、LCDを背後から照明するバックライト等から構成されている。表示手段10は、映像を後述の平面鏡21に向かって表示する。これにより、映像を表す表示光Nが平面鏡21に向かって出射される。
 なお、表示手段10は、有機EL(Electro-Luminescence)ディスプレイや、DMD(Digital Micromirror Device)、反射型及び透過型のLCOS(登録商標:Liquid Crystal On Silicon)等で構成されてもよい。
 反射手段20は、平面鏡21と、凹面鏡22とから構成されている。平面鏡21は、例えばコールドミラーからなり、表示手段10からの表示光Nを凹面鏡22へと反射させる。凹面鏡22は、表示手段10から出射されて平面鏡21で反射した表示光Nを拡大しつつ、フロントガラス3へと反射させる。これにより、ユーザ4に視認される虚像Vは、表示手段10に表示されている映像が拡大されたものとなる。
 なお、本実施形態では、反射手段20が2枚の鏡で構成される例を示しているが、反射手段20は、1枚、又は3枚以上の鏡から構成されてもよい。
 筐体30は、表示手段10及び反射手段20を、各々が上述の機能を実現可能な適宜の位置に収容する。筐体30は、合成樹脂や金属により遮光性を有して箱状に形成されている。筐体30には、表示光Nの光路を確保する開口部30aが設けられている。筐体30には、開口部30aを塞ぐように、透光性カバー31が取り付けられている。透光性カバー31は、アクリル等の透光性樹脂から形成されている。
 凹面鏡22で反射した表示光Nは、透光性カバー31を透過して、フロントガラス3へと向かう。このようにして、表示装置100からは、フロントガラス3に向けて表示光Nが出射される。この表示光Nがフロントガラス3でユーザ4に向かって反射することで、ユーザ4から見てフロントガラス3の前方に虚像Vが表示される。
 なお、凹面鏡22は、図示しないアクチュエータにより、回転移動または平行移動可能に設けられていてもよい。例えば、凹面鏡22が、図3における時計回り・反時計回りに回転可能に設けられ、凹面鏡22が回転して表示光Nの反射角が変更されることで、虚像Vの表示位置が調整可能となっていてもよい。
 表示コントローラ40は、表示手段10の表示動作を制御するものであり、制御部41と、記憶部42と、画像メモリ43と、入出力部44と、を備える。
 制御部41は、CPU(Central Processing Unit)、GDC(Graphics Display Controller)、表示手段10を駆動するドライバなどから構成されている。CPUは、記憶部42内に予め記憶されたプログラムを読み出し、実行することで、表示装置100の各部の動作を制御する。CPUとGDCとはインターフェイス回路により接続され、双方向通信を行う。GDCは、CPUと協働して表示手段10の動作を制御し、画像メモリ43に記憶されている画像データに基づく映像を表示手段10に表示させる。また、制御部41は、内蔵されたタイマで適宜、計時を行う。
 記憶部42は、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成され、CPUの処理手順を示す動作プログラム(特に、後述する表示形態変更処理の動作プログラム)を記憶する。
 画像メモリ43は、フラッシュメモリ、HDD(Hard Disk Drive)等から構成され、表示手段10に表示させる映像(つまり、虚像Vとして視認される映像)のデータであって、後述する捕捉画像などの各種画像を含む画像データを記憶する。
 入出力部44は、情報取得部200及びECU300の各々と通信可能に接続されている。制御部41は、入出力部44を介して、情報取得部200及びECU300とCAN(Controller Area Network)などにより通信を行う。
 入出力部44を介して、情報取得部200からは車外情報や車両状態情報(これら情報は後述する)が制御部41に入力される。制御部41は、入力された情報に応じた各種画像の表示形態や、映像内における表示位置を決定する。そして、制御部41は、各種画像が後述の対象物に対応する位置に表示されるように制御する。
 また、制御部41は、表示手段10を構成するLCD、及び、バックライトが含む光源を制御することにより、各種画像の輝度や明度(つまり、虚像Vの輝度や明度)を調整する。また、制御部41は、後述の車速センサ240からの車速情報に基づいて加速度を算出し、加速度から車両2の振動量を算定する。そして、振動量が所定量を超えた場合に、制御部41は、後述の捕捉画像の表示形態を変更させる。詳しくは、後述する。
(情報取得部200)
 情報取得部200は、前方情報取得部210と、ナビゲーションシステム220と、GPS(Global Positioning System)コントローラ230と、車速センサ240と、を備える。
 前方情報取得部210は、車両2の前方の情報を取得するものであり、ステレオカメラ211と、撮像画像解析部212と、を有する。ステレオカメラ211は、車両2が走行する道路を含む前方風景を撮像する。撮像画像解析部212は、ステレオカメラ211が撮像した画像のデータ(撮像データ)を取得し、取得した撮像データをパターンマッチング法により画像解析することで、車両2の前方における各種情報を取得する。
 撮像画像解析部212は、前方車両、障害物、歩行者などの物体(対象物の一例)に関する情報(対象物の位置、車両2から対象物までの距離など)を取得する。また、対象物は、道路自体であってもよい。この場合、撮像画像解析部212は、車線、白線、停止線、横断歩道、道路の幅員、車線数、交差点、カーブ、分岐路等に関する情報を取得する。撮像画像解析部212は、撮像画像を解析して得た対象物の情報を表示コントローラ40に出力する。
 ナビゲーションシステム220は、地図データを記憶する記憶部を有し、GPSコントローラ230からの位置情報に基づいて、現在位置近傍の地図データを記憶部から読み出し、案内経路を決定する。そして、ナビゲーションシステム220は、決定した案内経路に関する情報を表示コントローラ40に出力する。また、ナビゲーションシステム220は、地図データを参照することにより、車両2の前方の施設(対象物の一例)の名称・種類や、施設と車両2との距離などを示す情報を表示コントローラ40に出力する。地図データでは、道路に関する情報(道路の幅員、車線数、交差点、カーブ、分岐路等)、制限速度などの道路標識に関する規制情報、車線が複数存在する場合の各車線についての情報(どの車線がどこに向かう車線か)などの各種情報が位置データと対応付けられている。ナビゲーションシステム220は、GPSコントローラ230からの位置データに基づいて、現在位置近傍の地図データを読み出し、表示コントローラ40に出力する。
 GPSコントローラ230は、人工衛星などからGPS信号を受信し、受信したGPS信号に基づいて車両2の位置の計算を行う。GPSコントローラ230は、車両2の位置を計算すると、その位置データをナビゲーションシステム220に出力する。
 車速センサ240は、車両2の速度を検出し、検出した車速を示す車速情報を表示コントローラ40に出力する。
 このように構成される情報取得部200は、入出力部44を介して、制御部41に、車両2の外部の対象物の有無や、対象物の種類・位置、車両2と対象物との距離などを示す「車外情報」や、車両2の速度などを示す「車両状態情報」を送出する。
(ECU300)
 ECU300は、車両2の各部を制御するものであり、車両2に搭載される種々のセンサから出力される信号に基づき、表示装置100に表示させる画像を決定する。そして、決定した画像についてのデータを表示コントローラ40に出力する。なお、このような画像の決定は、制御部41が行ってもよい。
 以上の構成からなる車両用表示システム1では、図4に示すように、表示領域Eに虚像Vが表示される。表示領域Eは、ユーザ4が虚像Vを視認可能な範囲(所謂アイボックス)として規定される。なお、車両用表示システム1では、実景に重畳させて情報を表示するため、虚像Vの結像距離は大きめ(例えば、15m以上)に設定されている。
 表示装置100が表示する虚像V(表示手段10に表示される映像)は、図4に示すように、案内経路画像V1、白線認識画像V2、運航状態画像V3、及び規制画像V4を含む。
 案内経路画像V1は、車両2の経路誘導をするための画像であり、ナビゲーションシステム220からの案内経路に関する情報に基づいて表示される。白線認識画像V2は、車線の存在を認識させるための画像であり、前方情報取得部210からの情報に基づいて表示される。運航状態画像V3は、車速、エンジン回転数など(図示例では車速)の車両2の運航状態を示す画像であり、車速センサ240やECU300からの情報に基づいて表示される。規制画像V4は、制限速度などの規制情報を示す画像であり、ナビゲーションシステム220からの規制情報に基づいて表示される。なお、表示コントローラ40では、表示コンテンツ毎にレイヤーが割り当てられており、個別の表示制御が可能となっている。
 また、虚像Vとしてユーザ4に視認される画像は、上記の各種画像V1~V4の他に、前方車両、歩行者などの所定の対象物(実景内に現れる車外の対象物)に重畳して表示され、対象物の存在をユーザに注意喚起する捕捉画像を含む。捕捉画像は、前方情報取得部210の撮像画像解析部212によって特定された対象物の位置に基づいて表示される。
 捕捉画像は、例えば、前方車両に追従するように車両2の速度を制御するアダプティブクルーズコントロール(ACC:Adaptive Cruise Control)を使用する際に、特定された前方車両と重畳して表示され、ユーザ4に、追従する前方車両を認識させる。捕捉画像が捉える対象物は、前方車両に限られるものではないが、説明の理解を容易にするため、以下では、図5(a)、(b)に示すように、対象物Wが前方車両であるものとする。なお、捕捉画像は、前記の各種画像V1~V4と同時に、表示領域E内に表示されることが可能であるが、図5(a)、(b)では、見易さを考慮して、虚像Vの一部として視認される捕捉画像のみを示した。
 本実施形態では、制御部41は、表示手段10を制御し、前方情報取得部210によって特定された対象物Wに重畳させて、図5(a)に示す第1の捕捉画像Va、または図5(b)に示す第2の捕捉画像Vbを表示させる。
 第1の捕捉画像Vaは、特定された対象物Wの少なくとも一部と重畳して視認される画像である。具体的には、第1の捕捉画像Vaは、枠を示す枠画像であり、枠内に対象物Wの少なくとも一部を位置させて表示される。なお、第1の捕捉画像Vaが対象物Wの少なくとも一部と重畳するとは、枠の外形内に対象物Wの少なくとも一部が位置することを言う。したがって、図5(a)に示すように、第1の捕捉画像Vaが示す枠内領域に対象物Wが収まっている状態も、対象物Wが第1の捕捉画像Vaと重畳している状態である。
 制御部41は、表示手段10を制御して、このような第1の捕捉画像Va(虚像Vとして視認される第1の捕捉画像Vaと同義)を表示させることにより、ユーザ4に前方車両の存在をさせる。
 しかしながら、第1の捕捉画像Vaのような表示態様であると、車両2の振動によって対象物Wと第1の捕捉画像Vaとの位置関係にずれが生じると、ユーザ4に違和感を与えてしまう場合がある。例えば、ユーザ4が第1の捕捉画像Vaの枠部分における任意の位置P1(図6(a)参照)を注視していた場合、振動により枠部分が位置P1から外れたり復帰したりを繰り返すと、ちらつきや点滅が発生したようになり、違和感が生じる。
 そこで、制御部41は、後述の表示形態変更処理を実行することにより、車両2の振動量が捕捉画像の位置ずれを許容できないほどに大きくなったと判定した場合は、第1の捕捉画像Vaを第2の捕捉画像Vbへと変更させる。
 第2の捕捉画像Vbは、第1の捕捉画像Vaの枠内を塗り潰したような態様の画像である。
 第2の捕捉画像Vbは、第1の捕捉画像Vaよりも、画像端を構成する画素と、画像外の領域であって画像端に隣接する領域との色の濃淡差が低減された画像である。これについて、以下説明する。
 図6(a)、(b)に、虚像Vとして視認される映像の一部を画素単位で表した図を示す。なお、実際の画素は同図に示すものよりも細密であるが、見やすさを考慮して同図のように模式的に示している。
 図6(a)に示す例では、第1の捕捉画像Vaの画像端を構成する画素は、枠を表現する画素群であり、位置P1に表示される画素を含むものである。また、第1の捕捉画像Va外の領域であって画像端に隣接する領域は、位置P2に表示される画素を含み、枠を表現する画素群を取り囲む領域である。
 第1の捕捉画像Vaの画像端を構成する画素と、枠を表現する画像群を取り囲む領域との色の濃淡差を以下、第1の濃淡差という。なお、色の濃淡差とは、色の輝度差、または明度差を言う。
 図6(b)に示す例では、第2の捕捉画像Vbの画像端(見やすさのため点線Aで囲った)を構成する画素は、点線Aに沿う画素群であり、位置P3に表示される画素を含むものである。また、第2の捕捉画像Vb外の領域であって画像端に隣接する領域は、位置P4に表示される画素を含み、点線Aの外側を取り囲む領域である。
 第2の捕捉画像Vbの画像端を構成する画素と、点線Aの外側を取り囲む領域との色の濃淡差を以下、第2の濃淡差という。
 第2の捕捉画像Vb表示時における第2の濃淡差は、第1の濃淡差よりも小さくなるように制御される。つまりは、画像端と、画像の外側であって画像端に隣接する領域との間の表示コントラストが、第1の捕捉画像Vaに比べて、第2の捕捉画像Vbでは小さく、画像内外の境界をあえて不明瞭にしている。
 これにより、例えば、ユーザ4が第2の捕捉画像Vbにおける任意の位置P3を注視していた場合に、振動により第2の捕捉画像Vbの画像端が位置P3から外れたり復帰したりを繰り返しても、ユーザ4にちらつき等として認識されにくい。
 また、第2の捕捉画像Vbは、画像端から中央部に向かって色が濃くなる(輝度または明度が低くなる)グラデーション画像として表示される。これにより、第2の捕捉画像Vbを構成する複数における画素間の色の濃淡差が小さくなるため、第2の捕捉画像Vbが振動しても、前述のように発生するちらつき等が目立たない。また、第2の捕捉画像Vbを、このようなグラデーション画像にすることにより、画像端部の色を薄くしたことによる違和感も生じず、見栄えの良い表示となる。
 このようにグラデーション画像として表示される第2の捕捉画像Vbは、下記(1)、(2)の少なくともいずれかを満たす。
(1)第2の捕捉画像Vbを構成する複数の画素における隣り合う画素間の色の濃淡差は、前述した第1の濃淡差よりも小さい。
(2)第2の捕捉画像Vbを構成する複数の画素における隣り合う画素間の色の濃淡差は、第1の捕捉画像Vaにおける枠部分と枠内の領域との色の濃淡差よりも小さい。
 第1の捕捉画像Vaの枠部分の色は、注意喚起に適した色であり、例えば赤である。そして、第2の捕捉画像Vbの色は、例えば赤の濃淡によるグラデーションである。なお、第1の捕捉画像Vaの枠部分の色と、第2の捕捉画像Vbの色とは、同系色が好ましいが、同系色でなくともよい。また、色の濃度の比較において、画像端との比較対象となる領域(画像外領域、または枠内領域)としては、適宜の画素群を選択すればよい。
 表示装置100は、虚像Vとして視認される映像内に、前記の各種画像V1~V4などを表示することが可能であるが、以下では、所定の場合に、第1の捕捉画像Vaを第2の捕捉画像Vbへと変更する、本実施形態に特有の表示形態変更処理について説明する。
(表示形態変更処理)
 制御部41は、例えば車両2のイグニッション・オンにより表示装置100が起動すると、図7に示す表示形態変更処理を開始する。制御部41は、処理を開始すると、所定時間毎に車速センサ240から車速情報を取得し(ステップS1)、車速の時間変化から車両2の加速度を算出する(ステップS2)。
 続いて、制御部41は、算出した加速度に基づいて車両2の振幅Lを取得する(ステップS3)。例えば、制御部41は、記憶部42に予め記憶されたデータであって、加速度と、ある加速度において想定される鉛直方向(ユーザ4から見て上下方向)の振幅とを対応させたテーブルデータを参照して、算出した加速度に対応する振幅Lを取得する。なお、振幅Lは所定の数式により求められるものであってもよい。また、振幅Lは、ユーザ4から見ての上下方向、前後方向、左右方向のうち少なくとも一方向における振幅であればよい。
 続いて、制御部41は、取得した振幅Lが、予め記憶部42に記憶された閾値Lthよりも大きいか否かを判別する(ステップS4)。
 振幅Lが閾値Lthよりも大きい場合(ステップS4;Yes)、制御部41は、振動検出フラグをオンにし(フラグを立て)(ステップS5)、ステップS6の処理を実行する。ステップS6において制御部41は、現在時刻を、振動検出時刻Tstとして記憶部42に記憶させ、ステップS9の処理を実行する。
 振幅Lが閾値Lth以下の場合(ステップS4;No)、制御部41は、振動検出時刻Tstから、予め記憶部42に記憶された期間Tthが経過しているか否か(現在時刻をTとした場合に、|T-Tst|≧Tthが成立するか否か)を判別する(ステップS7)。
 期間Tthが経過している場合(ステップS7;Yes)、制御部41は、振動検出フラグをオフにし(フラグを下げて)(ステップS8)、ステップS9の処理を実行する。なお、振幅Lが閾値Lth以下であり(ステップS4;No)、且つ、振動検出フラグがオフであった場合は、制御部41は、ステップS4の直後にステップS9の処理を実行する。
 期間Tthが経過していない場合(ステップS7;No)、制御部41は、振動検出フラグをオフにせずにステップS9の処理を実行する。
 ステップS7及びステップS8は、捕捉画像が瞬間的に何度も切り替わり、表示が煩雑になってしまうことを防ぐための処理である。
 ステップS9で、制御部41は、振動検出フラグがオンであるか否かを判別する。
 振動検出フラグがオフの状態である場合(ステップS9;No)、捕捉画像のずれがユーザ4にとって気にならない程の車両2の振動量であると想定できるため、制御部41は、第1の捕捉画像Vaを表示手段10に表示させる(ステップS10)。
 一方、振動検出フラグがオンの状態である場合(ステップS9;Yes)、捕捉画像のずれを許容できない程に車両2の振動量が大きいと想定できるため、制御部41は、表示手段10を制御して、第1の捕捉画像Vaを消去させ(ステップS11)、第2の捕捉画像Vbを表示させる(ステップS12)。つまり、ステップS11及びステップS12の処理で、制御部41は、第1の捕捉画像Vaを第2の捕捉画像Vbへと変更させる。
 第1の捕捉画像Vaから第2の捕捉画像Vbへの変更は、次第に表示態様が変化することでなされてもよい。例えば、第1の捕捉画像Vaの枠部分が消去された後に、枠画像が示す枠内がグラデーション表現で塗り潰されることによって、第2の捕捉画像Vbが現れるようにしてもよい。
 制御部41は、例えばイグニッション・オフにより表示装置100がオフになるまで、上記の書く処理を繰り返し実行する。以上が表示形態変更処理である。
 なお、以上の捕捉画像は、あくまで一例である。捕捉画像として、様々な形状・表示態様のものを適用可能である。以下に変形の一例を説明する。
(捕捉画像の変形例)
 第1の捕捉画像は、図8(a)に示すように、枠画像でないものであってもよい。同図に示す第1の捕捉画像Vcは、楕円形状をなし、前方車両である対象物Wの一部と重畳して視認されるようにして、制御部41の制御の下で表示される画像である。第1の捕捉画像Vcは、例えば、略均一の輝度、または明度で、ベタ塗り状の図形として表現される。
 そして、振動検出時に(振動検出フラグがオンの状態である場合(ステップS9;Yes))、表示される第2の捕捉画像Vdは、第1の捕捉画像Vcと同様の形状であり、対象物Wの一部と重畳して視認される画像である。また、第2の捕捉画像Vdは、画像端から中央部に向かって色が濃くなる(輝度または明度が低くなる)グラデーション画像として表示される。
 このような捕捉画像においても、第2の捕捉画像Vdは、第1の捕捉画像Vcよりも、画像端を構成する画素と、画像外の領域であって画像端に隣接する領域との色の濃淡差が低減された画像である。また、第2の捕捉画像Vdを構成する複数の画素における隣り合う画素間の色の濃淡差は、第1の捕捉画像Vcの画像端を構成する画素と画像端を外から取り囲む領域との色の濃淡差よりも小さい。
 また、図示しないが、第1の捕捉画像は、矩形の枠でなく、リング状・多角形状の枠を示す枠画像であってもよい。また、第2の捕捉画像は、モザイク状の画像であってもよい。
 また、図5(b)、図8(b)では、第2の捕捉画像を、図中、左右上下方向における中央部に向かって色が濃くなるグラデーション画像として表現したがこれに限られない。第2の捕捉画像は、画像端から、少なくとも左右方向における中心に向かって色が濃くなることが好ましいが、上下方向においては、画像の中心位置から偏った位置に向かって色が濃くなるようにしてもよい。例えば、グラデーション画像として表された第2の捕捉画像のうち、最も色が濃くなる部分が、下方に偏っていてもよい。このようにすれば、通常、空よりも道路のほうが色が濃いという風景の実状に合わせた、見栄えの良い表示が可能である。
 また、第1の捕捉画像と第2の捕捉画像との外形の大きさを異ならせても良い。また、グラデーション表現で第2の捕捉画像を表示する場合、車両2から対象物Wへの距離に応じて、濃淡を変化させてもよい。例えば、対象物Wが車両2に近づくに従って、第2の捕捉画像内において他の領域よりも色の濃い領域が広範になっていくようにしてもよい。
 以上に説明した表示装置100は、車両2(乗り物の一例)に搭載され、フロントガラス3(透光部材の一例)に映像を表す表示光Nを投射することで、フロントガラス3を透かして視認される風景に重畳させて映像の虚像Vを表示する。
 表示装置100は、表示光Nを出射する表示手段10と、表示手段10が出射した表示光Nを、フロントガラス3に向けて反射させる反射手段20と、表示手段10を制御する制御部41と、を備える。制御部41は、情報取得部200(主に、前方情報取得部210)と協働して、車両2の外にある所定の対象物Wを特定する特定手段として機能する。また、制御部41は、映像内に、特定手段が特定した対象物Wの少なくとも一部と重畳して視認される第1の捕捉画像を表示させる制御手段として機能する。また、制御部41は、車速センサ240からの車速情報に基づき、車両2の振幅L(振動量の一例)を検出する振動検出手段として機能する。
 制御部41は、制御手段としての機能により、振動検出手段が検出した振動量が予め定められた閾値を超えた場合、第1の捕捉画像に代えて、映像内に、対象物Wの少なくとも一部と重畳して視認される第2の捕捉画像を表示させる。そして、第2の捕捉画像は、第1の捕捉画像よりも、画像端を構成する画素と、画像外の領域であって前記画像端に隣接する領域との色の濃淡差が低減された画像である。
 このようにしたから、前述したように、対象物Wと、これに重畳して表示される捕捉画像とに位置ずれが生じても、視認者に与える違和感を低減することができる。
 なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。
 表示光Nの投射対象は、フロントガラス3に限定されず、板状のハーフミラー、ホログラム素子等により構成されるコンバイナであってもよい。
 以上の説明では、制御部41が車速センサ240からの車速情報に基づき、振動量を定める例を示したが、これに限られない。制御部41が、加速度センサ、ジャイロセンサ、振動センサ等からの情報に基づいて振動量を定めてもよい。
 以上の説明では、主に前方情報取得部210が対象物Wを特定する情報を取得する例を示したが、これに限られない。情報取得部200を構成する他の各部からの情報や、ミリ波レーダーやソナー、または道路交通情報通信システムなどの外部通信装置からの情報に基づいて、対象物Wを特定してもよい。
 また、以上の実施形態では、表示装置100が搭載される乗り物の一例を車両としたが、これに限られない。表示装置100は、オートバイ等の他の車両、建設機械、農耕機械、船舶、航空機等に搭載されるものであってもよい。
 以上の説明では、本発明の理解を容易にするために、重要でない公知の技術的事項の説明を適宜省略した。
 本発明は、特に、車両などの乗り物に搭載され、ユーザに虚像を視認させるヘッドアップディスプレイとして適用可能である。
1 車両用表示システム
2 車両
3 フロントガラス
4 ユーザ
100 表示装置
10 表示手段
20 反射手段
40 表示コントローラ
41 制御部
42 記憶部
43 画像メモリ
44 入出力部
200 情報取得部
210 前方情報取得部
220 ナビゲーションシステム
230 GPSコントローラ
240 車速センサ
300 ECU
N 表示光
E 表示領域
V 虚像
Va,Vc 第1の捕捉画像
Vb,Vd 第2の捕捉画像
W 対象物

Claims (5)

  1.  乗り物に搭載され、透光部材に映像を表す表示光を投射することで、前記透光部材を透かして視認される風景に重畳させて前記映像の虚像を表示する表示装置であって、
     前記表示光を出射する表示手段と
     前記表示手段が出射した前記表示光を、前記透光部材に向けて反射させる反射手段と、
     前記乗り物の外にある所定の対象物を特定する特定手段と、
     前記表示手段を制御することで、前記映像内に、前記特定手段が特定した前記対象物の少なくとも一部と重畳して視認される第1の捕捉画像を表示させる制御手段と、
     前記乗り物の振動量を検出する振動検出手段と、を備え、
     前記制御手段は、
     前記振動検出手段が検出した振動量が予め定められた閾値を超えた場合、前記第1の捕捉画像に代えて、前記映像内に、前記対象物の少なくとも一部と重畳して視認される第2の捕捉画像を表示させ、
     前記第2の捕捉画像は、
     前記第1の捕捉画像よりも、画像端を構成する画素と、画像外の領域であって前記画像端に隣接する領域との色の濃淡差が低減された画像である、
     ことを特徴とする表示装置。
  2.  前記第1の捕捉画像は、枠を示す枠画像であり、前記枠内に前記対象物の少なくとも一部を位置させて表示される、
     ことを特徴とする請求項1に記載の表示装置。
  3.  前記第2の捕捉画像を構成する複数の画素における隣り合う画素間の色の濃淡差は、
     前記第1の捕捉画像の画像端を構成する画素と、前記第1の捕捉画像外の領域であって前記第1の捕捉画像の画像端に隣接する領域との色の濃淡差よりも小さい、
     ことを特徴とする請求項1又は2に記載の表示装置。
  4.  前記第2の捕捉画像を構成する複数の画素における隣り合う画素間の色の濃淡差は、
     前記第1の捕捉画像における前記枠部分と前記枠内の領域との色の濃淡差よりも小さい、
     ことを特徴とする請求項2に記載の表示装置。
  5.  前記第2の捕捉画像は、画像端から中央部に向かって色が濃くなるグラデーション画像である、
     ことを特徴とする請求項1又は4に記載の表示装置。
PCT/JP2015/064247 2014-05-23 2015-05-19 表示装置 WO2015178355A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15796958.5A EP3147149B1 (en) 2014-05-23 2015-05-19 Display device
US15/311,532 US9818206B2 (en) 2014-05-23 2015-05-19 Display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-107428 2014-05-23
JP2014107428A JP6409337B2 (ja) 2014-05-23 2014-05-23 表示装置

Publications (1)

Publication Number Publication Date
WO2015178355A1 true WO2015178355A1 (ja) 2015-11-26

Family

ID=54554024

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064247 WO2015178355A1 (ja) 2014-05-23 2015-05-19 表示装置

Country Status (4)

Country Link
US (1) US9818206B2 (ja)
EP (1) EP3147149B1 (ja)
JP (1) JP6409337B2 (ja)
WO (1) WO2015178355A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10649207B1 (en) 2017-06-30 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Display system, information presentation system, method for controlling display system, recording medium, and mobile body

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203185A1 (de) * 2015-03-11 2016-09-15 Hyundai Mobis Co., Ltd. Head-Up-Display und Steuerverfahren dafür
KR101796986B1 (ko) * 2015-12-14 2017-12-12 현대자동차주식회사 차량 및 그 제어방법
JP6629889B2 (ja) * 2016-02-05 2020-01-15 マクセル株式会社 ヘッドアップディスプレイ装置
JP6610376B2 (ja) * 2016-03-25 2019-11-27 日本精機株式会社 表示装置
JP2017218113A (ja) * 2016-06-10 2017-12-14 株式会社東海理化電機製作所 車両用表示装置
US20180059773A1 (en) * 2016-08-29 2018-03-01 Korea Automotive Technology Institute System and method for providing head-up display information according to driver and driving condition
JP6601441B2 (ja) * 2017-02-28 2019-11-06 株式会社デンソー 表示制御装置及び表示制御方法
JPWO2018179142A1 (ja) * 2017-03-29 2019-07-25 三菱電機株式会社 表示制御装置および表示制御方法
JP6731644B2 (ja) * 2017-03-31 2020-07-29 パナソニックIpマネジメント株式会社 表示位置補正装置、表示位置補正装置を備える表示装置、及び表示装置を備える移動体
JP6425762B2 (ja) * 2017-04-26 2018-11-21 三菱電機株式会社 自動二輪車の表示装置
US11648878B2 (en) * 2017-09-22 2023-05-16 Maxell, Ltd. Display system and display method
JP7140504B2 (ja) * 2018-02-14 2022-09-21 矢崎総業株式会社 投影表示装置
DE102018204254B4 (de) * 2018-03-20 2020-12-03 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
JP7066271B2 (ja) * 2018-05-25 2022-05-13 アルパイン株式会社 画像処理装置、画像処理方法及びヘッドアップディスプレイシステム
JP7071905B2 (ja) 2018-10-25 2022-05-19 株式会社デンソー 表示装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005075190A (ja) * 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
JP2011121401A (ja) * 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
US20110251768A1 (en) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Video based intelligent vehicle control system
US20130201335A1 (en) * 2012-02-04 2013-08-08 Audi Ag Method for visualizing the vicinity of a motor vehicle
JP2013174667A (ja) * 2012-02-23 2013-09-05 Nippon Seiki Co Ltd 車両用表示装置
WO2014208081A1 (ja) * 2013-06-28 2014-12-31 株式会社デンソー ヘッドアップディスプレイ及びプログラム製品
JP2015049842A (ja) * 2013-09-04 2015-03-16 トヨタ自動車株式会社 注意喚起表示装置及び注意喚起表示方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4110235C2 (de) * 1991-03-28 1995-03-16 Ver Glaswerke Gmbh Verfahren zur Herstellung eines am Rand eine Übergangszone aufweisenden holographischen Elements für eine Windschutzscheibe
WO2005121707A2 (en) * 2004-06-03 2005-12-22 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
DE102005046672A1 (de) * 2005-09-29 2007-04-05 Robert Bosch Gmbh Nachtsichteinrichtung
DE102006012773A1 (de) * 2006-03-17 2006-11-30 Daimlerchrysler Ag Virtuelles Spotlight zur Kennzeichnung von interessierenden Objekten in Bilddaten
JP2007318324A (ja) * 2006-05-24 2007-12-06 Toyota Motor Corp 画像表示装置
US20120224062A1 (en) * 2009-08-07 2012-09-06 Light Blue Optics Ltd Head up displays
JP2011155390A (ja) * 2010-01-26 2011-08-11 Denso Corp 車載表示装置
US20120102438A1 (en) * 2010-10-22 2012-04-26 Robinson Ian N Display system and method of displaying based on device interactions
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
EP3416153A1 (en) * 2011-05-03 2018-12-19 iOnRoad Technologies Ltd. Parking space identifying method and system
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9478045B1 (en) * 2012-03-21 2016-10-25 Amazon Technologies, Inc. Vibration sensing and canceling for displays
US9400551B2 (en) * 2012-09-28 2016-07-26 Nokia Technologies Oy Presentation of a notification based on a user's susceptibility and desired intrusiveness
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
US9514650B2 (en) * 2013-03-13 2016-12-06 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles when turning
US9251715B2 (en) * 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US20160353146A1 (en) * 2015-05-27 2016-12-01 Google Inc. Method and apparatus to reduce spherical video bandwidth to user headset

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005075190A (ja) * 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
JP2011121401A (ja) * 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
US20110251768A1 (en) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Video based intelligent vehicle control system
US20130201335A1 (en) * 2012-02-04 2013-08-08 Audi Ag Method for visualizing the vicinity of a motor vehicle
JP2013174667A (ja) * 2012-02-23 2013-09-05 Nippon Seiki Co Ltd 車両用表示装置
WO2014208081A1 (ja) * 2013-06-28 2014-12-31 株式会社デンソー ヘッドアップディスプレイ及びプログラム製品
JP2015049842A (ja) * 2013-09-04 2015-03-16 トヨタ自動車株式会社 注意喚起表示装置及び注意喚起表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10649207B1 (en) 2017-06-30 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Display system, information presentation system, method for controlling display system, recording medium, and mobile body

Also Published As

Publication number Publication date
JP2015221651A (ja) 2015-12-10
US20170084056A1 (en) 2017-03-23
JP6409337B2 (ja) 2018-10-24
EP3147149B1 (en) 2019-02-13
US9818206B2 (en) 2017-11-14
EP3147149A4 (en) 2018-02-28
EP3147149A1 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
JP6409337B2 (ja) 表示装置
US11181743B2 (en) Head up display apparatus and display control method thereof
JP6707666B2 (ja) ヘッドアップディスプレイ装置
JP6443716B2 (ja) 画像表示装置、画像表示方法及び画像表示制御プログラム
JP2016147652A (ja) 車両用表示制御装置及び車両用表示ユニット
WO2018003650A1 (ja) ヘッドアップディスプレイ
WO2018167844A1 (ja) ヘッドアップディスプレイ装置とその画像表示方法
EP3776156A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2016112984A (ja) 車両用虚像表示システム、ヘッドアップディスプレイ
JP2015120395A (ja) 車両情報投影システム
JP2019202589A (ja) 表示装置
WO2019189619A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2019040634A (ja) 画像表示装置、画像表示方法及び画像表示制御プログラム
JP2018020779A (ja) 車両情報投影システム
US20200047686A1 (en) Display device, display control method, and storage medium
WO2016129219A1 (ja) 車両用表示制御装置及び車両用表示ユニット
JP6872441B2 (ja) ヘッドアップディスプレイ装置
CN110816407A (zh) 显示装置、显示控制方法及存储介质
JP2019206262A (ja) 表示装置
JP2020047153A (ja) 表示装置
JP2024048432A (ja) 表示システム
WO2021131529A1 (ja) ヘッドアップディスプレイ装置
WO2020040276A1 (ja) 表示装置
JP6607128B2 (ja) 虚像表示装置、虚像表示方法および制御プログラム
JP6610376B2 (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15796958

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15311532

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015796958

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015796958

Country of ref document: EP