WO2015060193A1 - 車両情報投影システム及び投影装置 - Google Patents

車両情報投影システム及び投影装置 Download PDF

Info

Publication number
WO2015060193A1
WO2015060193A1 PCT/JP2014/077560 JP2014077560W WO2015060193A1 WO 2015060193 A1 WO2015060193 A1 WO 2015060193A1 JP 2014077560 W JP2014077560 W JP 2014077560W WO 2015060193 A1 WO2015060193 A1 WO 2015060193A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
display
image
behavior
Prior art date
Application number
PCT/JP2014/077560
Other languages
English (en)
French (fr)
Inventor
武志 谷内田
広川 拓郎
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013219018A external-priority patent/JP2015080988A/ja
Priority claimed from JP2013245739A external-priority patent/JP6201690B2/ja
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to EP14856234.1A priority Critical patent/EP3061642B1/en
Priority to CN201480057605.2A priority patent/CN105682973B/zh
Priority to US15/026,534 priority patent/US20160216521A1/en
Publication of WO2015060193A1 publication Critical patent/WO2015060193A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present invention relates to a vehicle information projection system that projects a predetermined information image and visually recognizes a virtual image in front of a vehicle occupant, and a projection device used therefor.
  • a system using a head-up display (HUD) device which is a projection device as disclosed in Patent Document 1 is known.
  • HUD head-up display
  • Such a HUD device projects a video image on a windshield of a vehicle to allow a viewer (occupant) to visually recognize a virtual image indicating predetermined information together with a real scene of the outside world of the vehicle.
  • the occupant can confirm the route with little movement of the line of sight while viewing the actual scene It is something that can be done.
  • the virtual image V is shifted upward (in the positive direction of the Y axis) with respect to the specific object W of the outside scene and is viewed by the viewer as shown in FIG.
  • the virtual image V is displaced with respect to a particular target W of the outside scene of these vehicles (false indications), the viewer there is a risk that uncomfortable feeling.
  • the present invention has been made in view of the above-described problem, and can suppress a positional shift (incorrect display) of a virtual image to be displayed in correspondence with a specific target of an outside scene of a vehicle, thereby allowing a viewer to recognize information without a sense of incongruity. It is an object to provide a vehicle information projection system and a projection apparatus.
  • a vehicle information projection system includes a vehicle exterior situation estimation unit that estimates the position of a specific target outside the vehicle, a display that generates an information video related to the specific target, and the display.
  • a position where the information image is projected according to a relay optical system that directs the information image generated by the device toward a projection target in front of the vehicle occupant and the position of the specific target estimated by the vehicle exterior state estimation unit A position at which the information image is projected based on the vehicle behavior detected by the behavior detecting means, and a projection device including a video position adjusting means for adjusting; and a behavior detecting means for detecting the behavior of the vehicle. Is to correct.
  • the present invention it is possible to suppress a positional shift (incorrect display) of a virtual image to be displayed in correspondence with a specific target of an outside scene of the vehicle, and to allow a viewer to recognize information without a sense of incongruity.
  • FIGS. 1 and the like A first embodiment of a vehicle information projection system 1 of the present invention will be described with reference to FIGS.
  • the axis along the left-right direction as viewed from the occupant 3 viewing the virtual image V is the X-axis
  • the axis along the vertical direction is the Y-axis
  • the occupant who views the virtual image V perpendicular to the X-axis and the Y-axis.
  • the axis along the line-of-sight direction 3 is the Z-axis.
  • the direction in which the arrows indicating the X, Y, and Z axes are directed is defined as the + (plus) direction of the axis indicated by the arrow, and the opposite side is appropriately described as the-(minus) direction.
  • FIG. 1 shows a system configuration of a vehicle information projection system 1 according to the first embodiment.
  • the vehicle information projection system 1 according to the present embodiment projects the first display light N1 representing the first virtual image V1 and the second display light N2 representing the second virtual image V2 onto the windshield 2a of the host vehicle 2.
  • a head-up display device (hereinafter referred to as a HUD device) 100 that is a projection device that causes the occupant (viewer) 3 of the host vehicle 2 to visually recognize the first virtual image V1 and the second virtual image V2, and vehicle information about the host vehicle 2
  • the information acquisition part 200 which acquires the vehicle exterior situation around the own vehicle 2
  • the display controller 400 which controls the display of the HUD apparatus 100 based on the information input from the information acquisition part 200 are comprised.
  • the HUD device 100 includes a first projection unit 10 that emits a first display light N1 and a second projection unit 20 that emits a second display light N2, which are arranged in a casing 40.
  • the first display light N1 and the second display light N2 are emitted from the transmissive portion 40a provided in the remote display area E1 and the near display area E2 of the windshield 2a.
  • the first display light N ⁇ b> 1 reflected on the far display area E ⁇ b> 1 of the windshield 2 a has a relatively long imaging distance and makes the first virtual image V ⁇ b> 1 visible at a position away from the passenger 3.
  • the second display light N2 reflected by the windshield 2a has a shorter imaging distance than the first virtual image V1, and makes the second virtual image V2 visible to the occupant 3 side of the first virtual image V1.
  • the virtual image (first virtual image V1) projected by the first projecting means 10 is visually recognized as if it is 15 m or more away from the occupant 3 (imaging distance of 15 m or more), and the second The virtual images (second virtual image V2 and auxiliary virtual image V3 described later) projected by the projecting unit 20 are visually recognized as if they are at a position about 2.5 m away from the occupant 3.
  • FIG. 2 is a diagram for explaining a state of the first virtual image V1 and the second virtual image V2 projected on the windshield 2a that the occupant 3 visually recognizes at the driver's seat of the host vehicle 2, and the first virtual image V1 and the second virtual image V1.
  • the second virtual image V2 is projected onto the windshield 2a disposed on the upper side (the Y axis plus side) of the steering 2b of the host vehicle 2.
  • the area where the first virtual image V1 is displayed is arranged above the area where the second virtual image V2 is displayed (near display area E2).
  • the first display light N1 and the second display light N2 are emitted respectively.
  • FIG. 3 is a diagram showing a collision warning video V1c which is a display example of a first virtual image V1 described later.
  • the first virtual image V1 projected on the far display area (first display area) E1 of the windshield 2a has a route to the destination on the lane (actual scene) of the host vehicle 2 on the route. ),
  • a white line is recognized by a stereo camera 201a, which will be described later, and the vehicle 2 is likely to deviate from the lane, and is superimposed in the vicinity of the white line to recognize the presence of the white line.
  • a white line recognition image V1b that suppresses lane departure or simply superimposes in the vicinity of the white line and recognizes the presence of the white line, and an object (a preceding vehicle or an obstacle) on the lane of the host vehicle 2 is recognized by a stereo camera 201a described later.
  • a collision warning image V1c that superimposes in the vicinity of an object on the recognized lane and urges attention to suppress the collision, and an adaptive control that controls the speed of the host vehicle 2 to follow the preceding vehicle.
  • Loose Control Adaptive Cruise Control
  • it is superimposed on the vehicle that is recognized as the front vehicle, and the front vehicle lock image (not shown) that recognizes the front vehicle following the occupant 3 is shown.
  • the second virtual image V2 projected on the vicinity display area (second display area) E2 of the windshield 2a is the speed information, rotation speed information, and fuel consumption of the host vehicle 2 output from the vehicle speed sensor 204 and the vehicle ECU 300 described later.
  • Regulation information (restriction based on the lane in which the host vehicle 2 is currently traveling from the navigation system 202 by recognizing the current position of the host vehicle 2 from the operation state image V2a relating to the operation state of the host vehicle 2 such as information and the GPS controller 203 described later.
  • a control video V2b regarding control information based on the current position of the host vehicle 2 a vehicle warning video (not shown) that causes the occupant 3 to recognize an abnormality in the host vehicle 2, and the like, an actual scene of the outside of the host vehicle 2
  • the video is not displayed in accordance with the specific target W.
  • the information acquisition unit 200 captures an image of the front of the host vehicle 2, estimates a situation ahead of the host vehicle 2, a navigation system 202 that provides route guidance for the host vehicle 2, a GPS controller 203, A vehicle speed sensor 204, and outputs the acquired information to the display controller 400 described later.
  • the vehicle exterior situation estimation unit and the distance detection unit described in the claims of the present application are configured by the front information acquisition unit 201, the navigation system 202, the GPS controller 203, and the like in the present embodiment.
  • the situation can be estimated, it is not limited to these, by communicating between the external communication device such as millimeter wave radar, sonar, or road traffic information communication system and the vehicle 2, The situation in front of the host vehicle 2 may be estimated.
  • the behavior detecting means described in the claims of the present application includes the front information acquisition unit 201, the vehicle speed sensor 204, and the like in the present embodiment.
  • the front information acquisition unit 201 acquires information in front of the host vehicle 2, and in this embodiment, the stereo camera 201a that images the front side of the host vehicle 2 and the imaging data acquired by the stereo camera 201a are obtained.
  • the stereo camera 201a captures the front area including the road on which the host vehicle 2 travels, and the captured image analysis unit 201b performs image analysis on the captured data acquired by the stereo camera 201a using the pattern matching method.
  • Information (lanes, white lines, stop lines, pedestrian crossings, road width, number of lanes, intersections, curves, branch roads) and information on objects (specific objects) on roads (specific objects) ),
  • the distance between the subject vehicle 2 lane, white line, stop line, intersection, curve, branch road, forward vehicle, obstacle, etc.
  • the host vehicle 2 can be calculated. it can.
  • the front information acquisition unit 201 analyzes information from the imaging data captured by the stereo camera 201a, information on the road shape (specific target), information on an object on the road (specific target), and the captured image. Information about the distance between the specific target and the vehicle 2 is output to the display controller 400.
  • the navigation system 202 has a storage unit that stores map data. Based on the position information from the GPS controller 203, the navigation system 202 reads map data in the vicinity of the current position from the storage unit, determines a guide route, and information on the guide route. Is displayed on the display controller 400 and the HUD device 100 displays the guidance route video V1a and the like, thereby performing route guidance to the destination set by the occupant 3. Further, the navigation system 202 outputs the name and type of the facility (specific target) ahead of the host vehicle 2 and the distance between the host vehicle 2 and the facility to the display controller 400 by referring to the map data.
  • Map data also includes information on roads (road width, number of lanes, intersections, curves, branch roads, etc.), restriction information on road signs such as speed limits, and information on each lane when there are multiple lanes ( Which lane is to which lane) and the like are stored in association with the position data, and the navigation system 202 reads map data in the vicinity of the current position based on the position information from the GPS controller 203 to display the display controller. Output to 400.
  • a GPS (Global Positioning System) controller 203 receives a GPS signal from an artificial satellite, etc., calculates the position of the host vehicle 2 based on the GPS signal, and outputs the calculated host vehicle position to the navigation system 202. To do.
  • GPS Global Positioning System
  • the vehicle speed sensor 204 detects the speed of the host vehicle 2 and outputs the speed information of the host vehicle 2 to the display controller 400.
  • the display controller 400 causes the HUD device 100 to display an operation state video V2a indicating the vehicle speed of the host vehicle 2 based on the speed information input from the vehicle speed sensor 204. Further, the display controller 400 to be described later can obtain the acceleration of the host vehicle 2 based on the speed information input from the vehicle speed sensor 204, and estimates the behavior of the host vehicle 2 based on the calculated acceleration. Based on the behavior of 2, the position of the first virtual image V1 can be adjusted (image position adjustment process). Details of the “image position adjustment process” will be described later.
  • the vehicle ECU 300 is an ECU (Electronic Control Unit) that comprehensively controls the host vehicle 2 and is displayed on the HUD device 100 based on signals output from various sensors (not shown) mounted on the host vehicle 2.
  • the information video to be determined is determined, and the instruction data of the information video is output to the display controller 400 described later, so that the display controller 400 causes the HUD device 100 to project the desired information video.
  • the display controller 400 controls the operation of first projection means 10, second projection means 20, and actuator 30a, which will be described later, in the HUD device 100, and the first display light N1 and the second display light N2 are placed at predetermined positions on the windshield 2a.
  • the HUD device 100, the information acquisition unit 200, and the vehicle ECU 300 communicate signals with a CAN (Controller Area Network) bus communication or the like.
  • CAN Controller Area Network
  • the input / output unit 401 is communicably connected to the information acquisition unit 200 and the vehicle ECU 300.
  • the information acquisition unit 200 communicates from the information acquisition unit 200 the presence / absence of a specific target outside the host vehicle 2, the type / position of the specific target, and the like.
  • the vehicle behavior information indicating the behavior such as the speed of the vehicle 2 and the distance information indicating the distance between the host vehicle 2 and the specific target W outside the vehicle are input.
  • the display control unit 402 reads out the video data from the image memory 403 based on the outside situation information input from the information acquisition unit 200 and displays the first information video K1 to be displayed on the first projection unit 10 and the second projection unit 20.
  • the second information video K2 to be displayed is generated and output to the HUD device 100 (first projection means 10 and second projection means 20).
  • the display control unit 402 includes a display element included in the first display unit 11 and the second display unit 21 described later, a driver that drives a light source that illuminates the display element, and the like, and the first display unit 11 displays the first information video K1.
  • the second information image K2 is displayed on the second display means 21.
  • the display control unit 402 controls the display elements and light sources of the first display unit 11 and the second display unit 21 to thereby control the first information video K1 (first virtual image V1) and the second information video K2 (second display).
  • the brightness and brightness of the virtual image V2) can be adjusted, whereby the visibility of the first virtual image V1 and the second virtual image V2 can be adjusted.
  • the visibility (brightness and brightness) of these images is adjusted based on illuminance information around the occupant 3 input from an illuminance sensor (not shown) and an operation signal from an adjustment switch (not shown).
  • the display control unit 402 determines that the behavior of the host vehicle 2 is large in the “image position adjustment process” to be described later, the display control unit 402 is a fixed distance from the host vehicle 2.
  • the brightness and brightness of the first virtual image V1 (first information video K1) corresponding to the specific target W that is separated as described above can be reduced (including non-display).
  • the display control unit 402 uses the information on the road shape input from the front information acquisition unit 201, the information on the object on the road, and the information on the distance to the captured specific target.
  • the first information image is determined such that the display form and the display position are determined, and the first virtual image V1 is visually recognized at a position corresponding to a specific target of the real scene (a branch road, a lane, a preceding vehicle, or an obstacle to guide the route).
  • K1 is generated. Specifically, for example, the display control unit 402 displays the guidance route image V1a for guiding the route of the host vehicle 2 based on the information about the guidance route input from the navigation system 202, and the vehicle forward information input from the forward information acquisition unit 201.
  • a white line recognition image V1b for recognizing the presence of a lane based on the vehicle, a collision warning image V1c for calling attention to a preceding vehicle or an obstacle, and the like are generated, and the generated first information image K1 is output to the first projection unit 10 to obtain information.
  • an operation state image V2a related to the operation state of the host vehicle 2 such as speed information, a restriction image V2b related to restriction information such as a speed limit, and the like are generated.
  • the video K2 is output to the display control means 402.
  • the display control unit 402 estimates the behavior of the host vehicle 2 and adjusts the position where the first virtual image V1 is visually recognized by the occupant 3 based on the behavior of the host vehicle 2.
  • the “image position correction process” in the present embodiment will be described below based on the operation flow of FIG.
  • step S10 the display control unit 402 inputs speed information (vehicle behavior information) from the information acquisition unit 200 (vehicle speed sensor 204) at predetermined time intervals, and the acceleration A of the host vehicle 2 is determined from the time change of the speed information. Is calculated (step S20).
  • step S20 the display control unit 402 compares the acceleration A calculated in step S20 with the threshold value Ath stored in advance in the storage unit 404 (step S30). When the acceleration A is greater than the threshold value Ath (NO in step S30), the display control unit 402 does not display the first virtual image V1 corresponding to the specific target W that is a predetermined distance away from the host vehicle 2 in step S40. (Visibility is lowered) and the process proceeds to step S50.
  • the position correction amount D corresponding to the calculated acceleration A is read, and the position of the first information image K1 (first virtual image V1) displayed by the first projection means 10 described later is adjusted based on the position correction amount D (step) S60).
  • requires acceleration based on the speed information from the vehicle speed sensor 204 mounted as a speed detection part of a vehicle meter, and adjusts the position of the 1st information image
  • the display control unit 402 controls the visibility of the first virtual image V1 to the normal visibility when it is determined that the behavior of the host vehicle 2 is the behavior in the normal traveling.
  • FIG. 5 is a schematic cross-sectional view in the XZ plane of the HUD device 100 in the present embodiment
  • FIG. 6 is a schematic cross-sectional view in the YZ plane of the HUD device 100 in the present embodiment.
  • the HUD device 100 projects the first display light N1 related to the first virtual image V1 onto the far display area (first display area) E1 of the windshield 2a.
  • second projection means 20 for projecting the second display light N2 related to the second virtual image V2 onto the vicinity display area (second display area) E2 of the windshield 2a, the first display light N1 and the second display light.
  • a concave mirror 30 that directs N2 toward the windshield 2a and a housing 40 are provided.
  • the first projection unit 10 includes a first display unit 11 that displays the first information image K1 on the display surface, a folding mirror 12, a collimator lens 13, and a parallel mirror 14, and includes first information.
  • the first display light N1 indicating the image K1 is emitted toward a concave mirror 30 to be described later, and the first display light N1 is projected (reflected) on a predetermined area of the windshield 2a by the concave mirror 30 to display the distant display of the windshield 2a.
  • the first virtual image V1 is made visible to the occupant 3.
  • the first display means 11 includes a display element 11 a configured from a liquid crystal display (LCD) and the like, a light source 11 b that illuminates the display element 11 a from the back, and the like, and is based on a signal output from the display controller 400.
  • the desired first information video K1 is displayed on the display surface of the display element 11a.
  • the first display means 11 is not a transmissive LCD, but a self-luminous organic EL display, a reflective DMD (Digital Micromirror Device), a reflective and transmissive LCOS (registered trademark: Liquid Crystal On Silicon). ) Or the like.
  • the image light L indicating the first information image K 1 displayed by the first display unit 11 is reflected by the folding mirror 12 and enters the collimating lens 13.
  • the image light L is collimated by the collimating lens 13 (the collimating lens 13 emits the parallel light M).
  • the parallel light M emitted from the collimating lens 13 enters the parallel mirror 14.
  • one reflecting surface is a semi-transmissive mirror 14a that reflects a part of incident light and transmits a part thereof as the first display light N1, and the other reflecting surface reflects only to reflect. This is a mirror 14b.
  • first display lights N1 a part of the parallel light M is emitted from the parallel mirror 14 as a plurality of first display lights N1 (a plurality of semi-transparent mirrors 14a are connected to the plurality of mirrors 14a).
  • the first display light N1 is transmitted). Since the first display light N1 is light collimated by the collimator lens 13, the first information image K1 displayed by the first display means 11 when the occupant 3 visually recognizes the first display light N1 with both eyes is It is visually recognized as being far from the occupant 3 (first virtual image V1).
  • the parallel light M emitted from the collimating lens 13 is reflected a plurality of times between the parallel mirrors 14 to duplicate and emit the first display light N1 in the X-axis direction. Therefore, even if both eyes of the occupant 3 move in the X-axis direction, the first virtual image V1 can be visually recognized over a wide range.
  • the second projection means 20 has second display means 21 for displaying the second information video K2 based on a signal input from the display controller 400. As shown in FIG. 6, the second display means 21 emits the second display light N2 indicating the second information image K2 from the opening 40b of the casing 40 described later toward the concave mirror 30 described later. The second display light N2 is projected (reflected) onto a predetermined area of the windshield 2a by 30, and the second virtual image V2 is visually recognized by the occupant 3 in the vicinity display area E2 of the windshield 2a.
  • the concave mirror 30 is obtained by forming a reflective film on the surface of a base material made of, for example, a synthetic resin material by means such as vapor deposition.
  • the first display light N1 emitted from the first projection means 10 and the second projection means The second display light N2 emitted from 20 is reflected toward the windshield 2a.
  • the first display light N1 (second display light N2) reflected by the concave mirror 30 passes through the transmission part 40a of the housing 40 and travels toward the windshield 2a.
  • the first display light N1 (second display light N2) reflected by reaching the windshield 2a displays the first virtual image V1 related to the first information image K1 in the far display area E1 at the front position of the windshield 2a.
  • the HUD device 100 causes the occupant 3 to visually recognize both the first virtual image V1 (second virtual image V2) and the outside scene (including the specific target W) that actually exists in front of the windshield 2a. be able to.
  • the concave mirror 30 has a function as a magnifying glass, enlarges the first information video K1 (second information video K2) displayed on the first display means 11 (second display means 21), and windshield 2a side. Reflect to. That is, the first information image K1 (second information image K2) displayed by the first display means 11 (second display means 21) is enlarged in the first virtual image V1 (second virtual image V2) visually recognized by the occupant 3. It is a statue.
  • the housing 40 houses the first projection means 10, the second projection means 20, and the concave mirror 30, and positions and fixes each of them.
  • the housing 40 includes a transmission portion 40a for emitting the first display light N1 and the second display light N2 reflected by the concave mirror 30 to the windshield 2a.
  • the housing 40 also has an opening 40b that transmits the first display light N1 emitted from the second projection unit 20 to the concave mirror 30 side.
  • the HUD device used in the vehicle information projection system 1 of the present invention is not limited to the above example, and the first projection unit 10 is replaced with the second projection unit.
  • the first virtual image V1 projected by the first projection unit 10 may be viewed in the distance by being arranged so as to have an optical path longer than the optical path of the light emitted by the light.
  • the imaging distance of the first virtual image V1 is set to be longer than the imaging distance of the second virtual image V2.
  • the imaging distance of the first virtual image V1 is not limited to this.
  • the imaging distance of the second virtual image V2 may be substantially equal.
  • the first information video K1 related to the first virtual image V1 displayed in the first display area E1 and the second information video K2 related to the second virtual image V2 displayed in the second display area E2 are displayed. May be generated by common display means (for example, only the second projection means 20 in the above embodiment).
  • the projection target is not limited to the windshield 2a of the host vehicle 2, and may be a combiner constituted by a plate-shaped half mirror, a hologram element, or the like.
  • first virtual image V1 and the second virtual image V2 do not have to be projected on the same projection target, one is projected onto the windshield 2a, and the other is projected onto the combiner. May be.
  • the vehicle information projection system 1 has the information acquisition unit 200 (forward information acquisition unit 201, navigation system 202, GPS controller) that estimates the position of the specific target W outside the host vehicle 2. 203), a first display means 11 (second display means 21) for generating a first information video K1 (second information video K2) related to the specific target W, and a first display means 11 (second display means 21).
  • the concave mirror 30 that directs the generated information video toward the windshield 2a in front of the occupant 3 of the host vehicle 2 and the position at which the information video is projected according to the position of the specific target W estimated by the information acquisition unit 200
  • an information acquisition unit 200 that detects the behavior of the host vehicle 2 (vehicle speed sensor 204).
  • the first information video K1 (second information The position at which the image K2) is projected is corrected.
  • the positional deviation (incorrect display) of the first virtual image V1 displayed in correspondence with the specific target W outside the host vehicle 2 is suppressed.
  • the occupant 3 of the host vehicle 2 can be made to recognize information without a sense of incongruity.
  • the image position adjusting means for adjusting the position at which the first information image K1 (first virtual image V1) is projected in the first embodiment uses the concave mirror 30 based on the vehicle behavior detected by the vehicle speed sensor 204.
  • the actuator 30a can be rotated, and the position where the first information image K1 (first virtual image V1) is projected can be easily adjusted.
  • the display position of the second virtual image V2 that is not displayed corresponding to the specific target W is also moved by the rotation of the concave mirror 30, but the display controller 400 corresponds to the rotation of the concave mirror 30 (drive of the actuator 30a).
  • the relative position where the second virtual image V2 is visually recognized with respect to the windshield 2a is not changed. Therefore, the passenger 3 can visually recognize the second virtual image V2 stably.
  • the adjustment amount of the position on the display surface of the second information image K2 displayed on the second display means 21 is stored in advance in the storage unit 404 in association with the rotation amount of the concave mirror 30 (drive amount of the actuator 30a). By reading this, the position of the second information video K2 can be quickly adjusted.
  • the display controller 400 in the first virtual image V1 is a specific target W that is separated from the host vehicle 2 by a predetermined distance or more. This reduces the visibility of the first virtual image V1. That is, when the posture of the host vehicle 2 is tilted back and forth due to the vehicle behavior, the positional deviation between the specific target W and the first virtual image V1 increases, and the first corresponding to the specific target W at a position away from the host vehicle 2 By reducing the visibility of the virtual image V1, it is possible to reduce the confusion of the occupant 3 caused by a sudden and large change in the position of the first virtual image V1, and the first object V1 and the first object W1.
  • the occupant 3 can detect the positional deviation between the specific object W and the first virtual image V1. By making it difficult to visually recognize, it is possible to make it difficult for the occupant 3 to feel uncomfortable. Moreover, the visibility of the first virtual image V1 corresponding to the specific object W at a short distance is relatively reduced by reducing the visibility of the first virtual image V1 with respect to the specific target W that is separated from the host vehicle 2 by a predetermined distance or more. Since it becomes high, the passenger
  • the display controller 400 controls the visibility of the first virtual image V1 according to the distance between the host vehicle 2 and the specific target W. Even in an urgent case where the behavior of No. 2 is large, the distance between the host vehicle 2 and the specific target W can be quickly recognized due to the difference in the visibility of the first virtual image V1.
  • the behavior of the host vehicle 2 is estimated by obtaining the acceleration of the host vehicle 2 from the vehicle speed information of the vehicle speed sensor 204.
  • the present invention is not limited to this, and the specific target imaged by the stereo camera 201a. You may estimate the behavior of the own vehicle 2 based on the time transition of the position of W. Specifically, “image position adjustment processing” is performed based on the operation flow of FIG.
  • step S10a the display control unit 402 inputs the positional information (vehicle behavior information) of the specific target W from the front information acquisition unit 201 (stereo camera 201a) at predetermined time intervals, and specifies from the time change of the positional information.
  • a movement amount C of the object W is calculated (step S20a).
  • the movement amount C of the specific target W is the movement amount in the Y-axis direction, and is the vertical movement amount in the imaging direction of the stereo camera 201a. From the movement amount C of the specific target W, the Y-axis of the host vehicle 2 The direction inclination can be estimated.
  • the display control unit 402 compares the movement amount C calculated in step S20a with the threshold value Cth stored in the storage unit 404 in advance (step S30a). Then, when the movement amount C is larger than the threshold Cth (NO in step S30a), the display control unit 402 determines that the first virtual image V1 corresponding to the specific target W that is separated from the host vehicle 2 by a certain distance or more in step S40a. Display (decrease visibility) and proceed to step S50a. If the movement amount C is less than or equal to the threshold value Cth (YES in step S30a), the display control unit 402 performs step S20a of the second image position correction table data stored in advance in the storage unit 404 in step S50a.
  • the position correction amount D corresponding to the movement amount C calculated in step 1 is read out, and the position of the first information image K1 (first virtual image V1) displayed by the first projection means 10 described later is adjusted based on the position correction amount D. (Step S60a). As described above, the position of the first virtual image V1 can be accurately corrected by correcting the position of the first virtual image V1 based on the positional shift of the specific target W imaged by the stereo camera 201a.
  • the image position adjusting means for adjusting the position where the first information image K1 (first virtual image V1) is projected is a concave mirror (relay optical system) 30 which is a reflective optical member based on the vehicle behavior.
  • the display controller 400 adjusts the position of the first information image K1 on the display surface of the first display unit 11 so that the front information is displayed.
  • the position of the first information video K1 (first virtual image V1) projected on the glass 2a may be adjusted.
  • the first display unit 11 displays the first information image K1 in a normal display area that is smaller than the displayable area, and the concave mirror 30 (relay optical system) is displayed in the displayable area including the normal display area.
  • the displayed image can be directed to the windshield 2a, and the display controller 400 can adjust the display position of the first information video K1 on the first display means 11, and based on the detected vehicle behavior, The display position of the first information video K1 on the first display means 11 is moved outside the normal display area.
  • FIG. 8 is a diagram illustrating a scene visually recognized by the occupant 3 when the present embodiment is not used.
  • FIG. 9 is a figure which shows the scenery which the passenger
  • the second display region E2 and the first virtual image V1 are omitted for easy understanding of the drawings.
  • problems when the fourth embodiment of the present invention is not used will be described.
  • the host vehicle 2 stops while displaying the first virtual image V1 corresponding to the specific object W near the end (lower end) of the first display area E11 on the windshield 2a.
  • the position where the first information image K1 (first virtual image V1) is projected is the second position on the display surface and the actuator 30a that rotates the concave mirror (relay optical system) 30.
  • the display controller 400 in the fourth embodiment first recognizes in which area in the first display area E11 the first virtual image V1 is displayed.
  • the display controller 400 is configured such that the area where the first virtual image V1 is displayed cannot be adjusted to a position corresponding to the specific target W depending on the behavior of the host vehicle 2, as illustrated in FIG. If the virtual image V1 is determined to be near the end of the first display area E11), the actuator 30a is driven, and the position of the first display area E11 on the windshield 2a is determined as shown in FIG. 9B.
  • the position of the specific object W in the first display area E11 is moved downward so as not to be near the end of the first display area E11 (the first position from the position of the first display area E11 in FIG. 9B).
  • the display controller 400 adjusts the position of the first information video K1 on the display surface of the first display unit 11 as shown in FIG.
  • the position of the virtual image V1 is adjusted.
  • a space capable of adjusting the position is secured below the first virtual image V ⁇ b> 1. It is possible to adjust the position of the first information image K1 downward (in the negative direction of the Y axis) on the display surface of the first display means 11, and to quickly adjust the position of the first virtual image V1. .
  • the display controller 400 may secure a position-adjustable space above the first virtual image V1 by the method described above.
  • the display control unit 402 When the display control unit 402 according to the vehicle information projection system 1 of the fifth embodiment determines that the behavior of the host vehicle 2 is large in “image position adjustment processing” to be described later, the first information image K1 corresponding to the specific target.
  • the first information image K1 corresponding to a specific object within a certain distance from the host vehicle 2 is displayed as a substitute information image K3 having a different display mode (the first virtual image V1) is reduced in brightness and brightness (including non-display).
  • the display is switched to the first virtual image V1).
  • the display control unit 402 uses the information on the road shape input from the front information acquisition unit 201, the information on the object on the road, and the information on the distance to the captured specific target.
  • the display form and the display position are determined, and the first information image K1 is generated so that the first virtual image V1 is visually recognized at the position corresponding to the specific object of the real scene (lane, white line Wb, forward vehicle Wc).
  • the display control unit 402 for example, a white line recognition image K1b for recognizing the presence of a lane based on vehicle front information input from the front information acquisition unit 201, and a collision warning image that calls attention to the front vehicle Wc or an obstacle.
  • the generated first information video K1 is output to the first projection means 10, and based on the information input from the information acquisition unit 200 or the vehicle ECU 300, the operation related to the operation state of the host vehicle 2 such as speed information A status video K2a, a regulation video K2b related to regulation information such as a speed limit, and the like are generated, and the generated second information video K2 is output to the display control means 402.
  • the display control means 402 estimates the behavior of the host vehicle 2 and adjusts the position, visibility, and display mode of the first virtual image V1 visually recognized by the occupant 3 based on the behavior of the host vehicle 2.
  • the “image position correction process” in this embodiment will be described below based on the operation flow of FIG.
  • step S10b the display control means 402 inputs speed information (vehicle behavior information) from the information acquisition unit 200 (vehicle speed sensor 204) at predetermined time intervals, and the acceleration A of the host vehicle 2 is determined from the time change of the speed information. Is calculated (step S20b).
  • speed information vehicle behavior information
  • the display control means 402 inputs speed information (vehicle behavior information) from the information acquisition unit 200 (vehicle speed sensor 204) at predetermined time intervals, and the acceleration A of the host vehicle 2 is determined from the time change of the speed information. Is calculated (step S20b).
  • the display control unit 402 compares the acceleration A calculated in step S20b with the threshold value Ath stored in the storage unit 404 in advance (step S30b). If the acceleration A is equal to or less than the threshold value Ath (YES in step S30b), the display control unit 402 in step S20b among the first image position correction table data stored in advance in the storage unit 404 in step S40b. A position correction amount D corresponding to the calculated acceleration A is read, and the position of a first information image K1 (first virtual image V1) displayed by the first projection means 10 described later is adjusted and displayed based on the position correction amount D. (Step S50b).
  • the acceleration A is obtained based on the speed information from the vehicle speed sensor 204 mounted as the speed detection unit of the vehicle instrument, and the position of the first information image K1 (first virtual image V1) is adjusted from the acceleration A. Since the position correction amount D can be obtained and the position can be adjusted, the position of the first virtual image V1 can be adjusted without adding a dedicated detection sensor.
  • the display control unit 402 does not display the first information video K1 (first virtual image V1) corresponding to the specific target W in step S60b. (Including a drop in visibility). Then, in step S70b, the display control unit 402 determines whether it is necessary to display the substitute information video K3. Specifically, the display control unit 402 determines that the substitute information image K3 related to the collision warning image K1c having a high degree of danger is necessary.
  • the display control unit 402 If the alternative information video K3 is necessary (YES in step S70b), the display control unit 402 generates image data of the alternative information video K3.
  • the alternative information image K3 is an arrow-shaped image as shown in FIG. 11B, and the specified direction (the forward vehicle Wc) has moved relative to the first display area E1 in the direction indicated by the arrow.
  • Direction That is, if the host vehicle 2 accelerates rapidly, the host vehicle 2 tilts backward, and the forward vehicle Wc is shifted downward (in the negative direction of the Y axis) with respect to the first display area E1, the substitute information image K3 Is generated so as to indicate the lower side (the negative direction of the Y-axis) where the forward vehicle Wc is located.
  • the first display means 11 erases the first information video K1 that has been displayed so far, and displays the required alternative information video K3.
  • the display control means 402 displays the alternative information image K3 when the position of the first information image K1 is adjusted in Step S50b, when the first information image K1 is not displayed, or when the substitute information image K3 is displayed.
  • the second information video K2 other than the first information video K1 (operating state video K2a, regulation video K2b, etc.) visually recognized as the first virtual image V1 at the position corresponding to the specific target of the real scene is Continue to display. With such a configuration, even when the posture of the host vehicle 2 changes, the host vehicle 2 can continue to recognize information within a specific region (in the vicinity display region E2).
  • the display control unit 402 nears the display position of the second information video K2 in step S50b. You may move within the display area E2.
  • FIG. 11A shows a scene that the occupant 3 visually recognizes when the vehicle posture of the host vehicle 2 is in a normal state, and FIG. Inclined and shows the scenery that the occupant 3 visually recognizes when the image position correction process is executed.
  • the white line recognition image K1b indicating the white line Wb and the collision warning image K1c indicating the preceding vehicle Wc are visually recognized as the first virtual image V1
  • the operation state image K2a and the regulation image K2b are the first. It is visually recognized as a virtual image V2.
  • the substitute information image K3 is shown in FIG. 11 (b), the front vehicle Wc is displayed so as to indicate a certain lower side (minus direction of the Y axis), and a white line recognition image K1b indicating the white line Wb and a collision warning image K1c indicating the front vehicle Wc are displayed. Is not displayed, and the operation state video K2a and the regulation video K2b are continuously displayed.
  • the operation state image K2a is visually recognized by overlapping with the preceding vehicle Wc because the specific target is shifted downward (the vicinity display region E2 side) with respect to the first display region E1 due to the posture change of the host vehicle 2.
  • the display position is moved.
  • the vehicle information projection system 1 has the information acquisition unit 200 (the front information acquisition unit 201, the navigation system 202, the GPS controller 203) that estimates the position of the specific target outside the host vehicle 2. ),
  • the first display means 11 (second display means 21) for generating the first information video K1 (second information video K2) relating to the specific object, and the first display means 11 (second display means 21).
  • the concave mirror 30 that directs the display image toward the windshield 2a in front of the occupant 3 of the host vehicle 2 and the position where the display image is projected are driven according to the position of the specific target estimated by the information acquisition unit 200.
  • An HUD device 100 having an actuator 30a to be adjusted, an information acquisition unit 200 (vehicle speed sensor 204) for detecting the behavior of the host vehicle 2,
  • the acceleration is calculated from the vehicle speed detected by the information acquisition unit 200, the behavior of the host vehicle 2 is estimated from the acceleration, and the first information image K1 (second information image K2) is based on the behavior of the host vehicle 2.
  • the first display light N1 emitted from the first projection means 10 and the second display light N2 emitted from the second projection means 20 are shared by a concave mirror (relay optical system).
  • the first display light N1 and the second display light N2 may be emitted toward the windshield 2a by separate relay optical systems.
  • the HUD device 100 of the above embodiment has a plurality of projection means of the first projection means 10 and the second projection means 20, the second projection means 20 may be omitted.
  • the position at which the first information image K1 (first virtual image V1) is projected is adjusted by rotating the concave mirror (relay optical system) 30, which is a reflective optical member, based on the vehicle behavior.
  • the present invention is not limited to this, and the first information image K1 (the first information image K1) can be obtained by rotating and / or moving the first display light N1 emitted from the first projection means 10 with a refractive optical member such as a lens.
  • the position at which the first virtual image V1) is projected may be adjusted.
  • the display controller 400 estimates the behavior of the host vehicle 2 from output signals from a gyro sensor, a suspension stroke sensor, a brake pedal sensor, an accelerator pedal sensor, and the like, and corrects the position correction amount of the first virtual image V1. D may be calculated.
  • the vehicle information projection system according to the present invention can be applied to, for example, a vehicle display system that projects an image onto a windshield of a vehicle and displays a virtual image.
  • 1 vehicle information projection system 100 HUD device (projection device), 10 first projection means, 11 first display means, 20 second projection means, 21 second display means, 30 concave mirror (relay optical system), 30a actuator (video) (Position adjustment means), 200 information acquisition unit (exterior condition estimation means), 400 display controller (video position adjustment means), E1 remote display area (first display area), E2 vicinity display area (second display area), K1 No. 1 information video, K2 second information video, K3 alternative information video, L image light, N1 first display light, N2 second display light, V1 first virtual image, V2 second virtual image

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)

Abstract

 車両の外景の特定対象に対応させて表示させる虚像の位置ずれ(誤表示)を抑制し、視認者に違和感なく情報を認識させることができる。 前方情報取得部(201)は、自車両(2)の外にある特定対象(W)の位置を推定し、第1表示手段(11)は、特定対象(W)に関する情報映像を生成し、映像位置調整手段(30a)は、前方情報取得部(201)により推定された特定対象(W)の位置に応じて、情報映像が投影される位置を調整し、挙動検出手段(204)は、自車両(2)の挙動を検出し、挙動検出手段(204)にて検出した車両挙動に基づき、映像位置調整手段(30a)が情報映像の投影される位置を補正する。

Description

車両情報投影システム及び投影装置
 本発明は、所定の情報映像を投影し、車両の乗員前方側に虚像を視認させる車両情報投影システム及びこれに用いる投影装置に関する。
 従来の車両情報投影システムとして、特許文献1に開示されるような投影装置であるヘッドアップディスプレイ(HUD:Head-Up Display)装置を用いたものが知られている。このようなHUD装置は、車両のフロントガラスに情報映像を投影することで、視認者(乗員)に、車両の外界の実景とともに所定の情報を示す虚像を視認させるものであり、車両の案内経路を表す情報映像の形状や大きさや、表示させる位置を調整し、実景である車線(特定対象)に対応づけて表示することで、乗員は実景を視認しながら少ない視線移動だけで経路を確認することができるものである。
特開2011-121401号公報
 しかしながら、特許文献1のような実景に対応させて虚像を視認させるHUD装置において、HUD装置が搭載された車両が、図12(a)に示すように急減速した場合、車両の前方側が下向き(図12におけるY軸のマイナス方向)に下がってしまう(前傾姿勢になってしまう)ため、図12(b)に示すように外景の特定対象Wに対して虚像Vが下向き(Y軸のマイナス方向)にずれて視認者が視認してしまうおそれがあり、さらに、図13(a)に示すように急加速した場合、車両の前方側が上向き(図13におけるY軸のプラス方向)に上がってしまう(後傾姿勢になってしまう)ため、図13(b)に示すように外景の特定対象Wに対して虚像Vが上向き(Y軸のプラス方向)にずれて視認者に視認されてしまうおそれがあり、これら車両の外景の特定対象Wに対して虚像Vがずれてしまうこと(誤表示)により、視認者が違和感を覚えるおそれがあった。
 本発明は上記問題を鑑みてなされたものであり、車両の外景の特定対象に対応させて表示させる虚像の位置ずれ(誤表示)を抑制し、視認者に違和感なく情報を認識させることができる車両情報投影システム及び投影装置を提供することを目的とする。
 上記目的を達成するため、本発明に係る車両情報投影システムは、車両の外にある特定対象の位置を推定する車外状況推定手段と、前記特定対象に関する情報映像を生成する表示器と、前記表示器が生成した前記情報映像を前記車両の乗員前方の投影対象に向けるリレー光学系と、前記車外状況推定手段により推定された前記特定対象の位置に応じて、前記情報映像が投影される位置を調整する映像位置調整手段とを具備した投影装置と、前記車両の挙動を検出する挙動検出手段と、を備え、前記挙動検出手段にて検出した車両挙動に基づき、前記情報映像が投影される位置を補正するものである。
 本発明によれば、車両の外景の特定対象に対応させて表示させる虚像の位置ずれ(誤表示)を抑制し、視認者に違和感なく情報を認識させることができる。
本発明の第一実施形態における車両情報投影システムの構成を説明する図である。 上記実施形態における車両の乗員が視認する景色を説明する図である。 上記実施形態における車両の乗員が視認する景色を説明する図である。 上記実施形態における画像の位置を調整する動作フロー図である。 上記実施形態におけるHUD装置の構成を説明する図である。 上記実施形態におけるHUD装置の構成を説明する図である。 第二実施形態における画像の位置を調整する動作フロー図である。 第四実施形態を用いない場合に車両の乗員が視認する景色を説明する図である。 上記実施形態を用いた場合に車両の乗員が視認する景色を説明する図である。 第五実施形態における画像の位置を調整する動作フロー図である。 上記実施形態における表示の推移を説明する図である。 従来技術の問題点を説明する図である。 従来技術の問題点を説明する図である。
(第一実施形態)
 本発明の車両情報投影システム1の第一実施形態について、図1~図6を参照して説明する。なお、以下では、車両情報投影システム1の構成の理解を容易にするため、図1等に示したX、Y、Z座標系を用いて適宜説明する。ここでは、虚像Vを視認する乗員3から見ての左右方向に沿った軸をX軸、上下方向に沿った軸をY軸とし、X軸及びY軸と直交し、虚像Vを視認する乗員3の視線方向に沿った軸をZ軸としている。また、図中、X、Y、Z軸の各軸を示す矢印の向く方向を、矢印が示す軸の+(プラス)方向、その反対側を-(マイナス)方向として、適宜、説明する。
 図1に第一実施形態に係る車両情報投影システム1のシステム構成を示す。
 本実施形態に係る車両情報投影システム1は、第1の虚像V1を表す第1表示光N1と、第2の虚像V2を表す第2表示光N2とを自車両2のフロントガラス2aに投影し、第1の虚像V1及び第2の虚像V2を自車両2の乗員(視認者)3に視認させる投影装置であるヘッドアップディスプレイ装置(以下、HUD装置)100と、自車両2に関する車両情報、及び自車両2の周辺の車外状況などを取得する情報取得部200と、情報取得部200から入力される情報に基づき、HUD装置100の表示を制御する表示コントローラ400と、から構成される。
 HUD装置100は、第1表示光N1を出射する第1投影手段10と、第2表示光N2を出射する第2投影手段20と、を筐体40内に配置したものであり、筐体40に設けられた透過部40aから第1表示光N1と第2表示光N2をフロントガラス2aの遠方表示領域E1と近傍表示領域E2へ出射する。
 フロントガラス2aの遠方表示領域E1に反射した第1表示光N1は、図1に示すように、結像距離が比較的長く、乗員3から離れた位置に第1の虚像V1を視認させる。
 また、フロントガラス2aに反射した第2表示光N2は、第1の虚像V1に比べて結像距離が短く、第1の虚像V1より乗員3側に第2の虚像V2を視認させる。具体的に例えば、第1投影手段10により投影される虚像(第1の虚像V1)は、乗員3から15m以上離れた位置にあるかのように視認され(結像距離15m以上)、第2投影手段20により投影される虚像(第2の虚像V2及び後述する補助虚像V3)は、乗員3から2.5m程度離れた位置にあるかのように視認される。
 以下に、図2,3を用いて、乗員3が視認する第1の虚像V1及び第2の虚像V2について説明する。図2は、乗員3が自車両2の運転席で視認するフロントガラス2aに投影された第1の虚像V1及び第2の虚像V2の様子を説明する図であり、第1の虚像V1及び第2の虚像V2は、自車両2のステアリング2bの上側(Y軸のプラス側)に配設されるフロントガラス2aに投影される。本実施形態におけるHUD装置100は、第1の虚像V1が表示される領域(遠方表示領域E1)が、第2の虚像V2が表示される領域(近傍表示領域E2)より上側に配置されるように第1表示光N1及び第2表示光N2をそれぞれ出射する。図3は、後述する第1の虚像V1の一表示例である衝突警告映像V1cを示す図である。
 フロントガラス2aの遠方表示領域(第1の表示領域)E1に投影される第1の虚像V1は、図2,3に示すように、目的地までの経路を自車両2の外界の車線(実景)に重畳させて経路誘導する案内経路映像V1a,後述するステレオカメラ201aにより白線を認識し、自車両2が車線を逸脱しそうになった場合、白線近傍に重畳させて白線の存在を認識させて車線逸脱を抑制する、または単に白線近傍に重畳させて白線の存在を認識させる白線認識映像V1b,後述するステレオカメラ201aにより自車両2の車線上にある物体(前方車両や障害物)を認識し、これら認識された車線上の物体の近傍に重畳させて注意を促し、衝突を抑制する衝突警告映像V1c,前方車両に追従するように自車両2の速度を制御するアダプティブクルーズコントロール(ACC:Adaptive Cruise Control)を使用する際に、前方車両として認識する車両に重畳させ、乗員3に追従する前方車両を認識させる前方車両ロック映像(図示しない),前方車両と自車両2との距離に関する指標を前方車両と自車両2との間の車線に重畳させ、車間距離を乗員に認識させる車間距離映像(図示しない)などであり、自車両2の外界の実景の特定対象(車線、白線、前方車両、障害物など)Wに合わせて表示されるものである。
 フロントガラス2aの近傍表示領域(第2の表示領域)E2に投影される第2の虚像V2は、後述する車速センサ204や車両ECU300から出力された自車両2の速度情報や回転数情報や燃費情報など自車両2の運行状態に関する運行状態映像V2a,後述するGPSコントローラ203から自車両2の現在位置を認識し、ナビゲーションシステム202から自車両2が現在走行している車線に基づく規制情報(制限速度など)を読み出し、自車両2の現在位置に基づく規制情報に関する規制映像V2b,自車両2の異常を乗員3に認識させる車両警告映像(図示しない)などであり、自車両2の外界の実景の特定対象Wに合わせて表示しない映像である。
 情報取得部200は、自車両2の前方を撮像し、自車両2の前方の状況を推定する前方情報取得部201と、自車両2の経路案内を行うナビゲーションシステム202と、GPSコントローラ203と、車速センサ204と、を備え、それぞれが取得した情報を後述する表示コントローラ400に出力するものである。
 ちなみに、本願の特許請求の範囲に記載の車外状況推定手段,距離検出手段は、本実施形態における前方情報取得部201,ナビゲーションシステム202,GPSコントローラ203などから構成されるが、自車両2の前方の状況を推定できるものであれば、これらに限定されるものではなく、ミリ波レーダーやソナー、または道路交通情報通信システムなどの外部通信装置と自車両2との間で通信を行うことによって、自車両2の前方の状況を推定するものであってもよい。また、本願の特許請求の範囲に記載の挙動検出手段は、本実施形態における前方情報取得部201,車速センサ204などから構成される。
 前方情報取得部201は、自車両2の前方の情報を取得するものであり、本実施形態では、自車両2前方側を撮像するステレオカメラ201aと、このステレオカメラ201aで取得された撮像データを解析する撮像画像解析部201bと、を有する。
 ステレオカメラ201aは、自車両2が走行する道路を含む前方領域を撮像するものであり、撮像画像解析部201bがステレオカメラ201aで取得された撮像データをパターンマッチング法により画像解析することで、道路形状(特定対象)に関する情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路等)や道路上の物体(特定対象)に関する情報(前方車両や障害物)を解析することができ、さらに撮像された特定対象(車線,白線,停止線,交差点,カーブ,分岐路,前方車両,障害物等)と自車両2との間の距離を算出することができる。
 すなわち、本実施形態において、前方情報取得部201は、ステレオカメラ201aで撮像した撮像データから解析した、道路形状(特定対象)に関する情報、道路上の物体(特定対象)に関する情報、及び撮像された特定対象と自車両2との距離に関する情報などを表示コントローラ400に出力する。
 ナビゲーションシステム202は、地図データを記憶する記憶部を有し、GPSコントローラ203からの位置情報に基づいて、現在位置近傍の地図データを記憶部から読み出し、案内経路を決定し、この案内経路に関する情報を表示コントローラ400に出力し、HUD装置100に案内経路映像V1aなどを表示させることにより、乗員3により設定された目的地までの経路案内を行うものである。また、ナビゲーションシステム202は、地図データを参照することにより、自車両2の前方の施設(特定対象)の名称・種類、及び自車両2と施設との距離を表示コントローラ400に出力する。
 また、地図データには、道路に関する情報(道路の幅員,車線数,交差点,カーブ,分岐路等)や制限速度などの道路標識に関する規制情報,車線が複数存在する場合の各車線についての情報(どの車線がどこに向かう車線か)などが、位置データに対応付けられて記憶されており、ナビゲーションシステム202は、GPSコントローラ203からの位置情報に基づいて、現在位置近傍の地図データを読み出し、表示コントローラ400に出力する。
 GPS(Global Positioning System)コントローラ203は、人工衛星などからGPS信号を受信し、このGPS信号をもとにして自車両2の位置の計算を行い、計算された自車両位置をナビゲーションシステム202に出力するものである。
 車速センサ204は、自車両2の速度を検出し、この自車両2の速度情報を表示コントローラ400に出力するものである。表示コントローラ400は、車速センサ204から入力される速度情報に基づき、HUD装置100に自車両2の車速を示す運行状態映像V2aを表示させる。また、後述する表示コントローラ400は、車速センサ204から入力される速度情報に基づき、自車両2の加速度を求めることができ、この算出された加速度により自車両2の挙動を推定し、この自車両2の挙動に基づき、第1の虚像V1の位置を調整することができる(画像位置調整処理)。この『画像位置調整処理』の詳細については後述することとする。
 車両ECU300は、自車両2を総合的に制御するECU(Electronic Control Unit)であり、自車両2に搭載される様々なセンサ(図示しない)などから出力される信号に基づき、HUD装置100に表示させる情報映像を決定し、この情報映像の指示データを後述する表示コントローラ400に出力することで、表示コントローラ400がHUD装置100に所望の情報映像を投影させる。
 表示コントローラ400は、HUD装置100における後述する第1投影手段10、第2投影手段20、アクチュエータ30aの動作を制御し、フロントガラス2aの所定の位置に第1表示光N1及び第2表示光N2を投影させるものであり、CPU(Central Processing Unit)やメモリなどを備える回路で構成されるECUであり、入出力部401と、表示制御手段402と、画像メモリ403、記憶部404とを含み、HUD装置100、情報取得部200及び車両ECU300とCAN(Controller Area Network)バス通信等により信号の伝達を行う。
 入出力部401は、情報取得部200及び車両ECU300と通信可能に接続され、情報取得部200から自車両2の車外における特定対象の有無や特定対象の種類や位置などを示す車外状況情報、自車両2の速度などの挙動を示す車両挙動情報、自車両2と車外の特定対象Wとの距離を示す距離情報などを入力する。
 表示制御手段402は、情報取得部200から入力される車外状況情報に基づき、画像メモリ403から映像データを読み出し、第1投影手段10に表示させる第1情報映像K1と、第2投影手段20に表示させる第2情報映像K2とを生成し、HUD装置100(第1投影手段10及び第2投影手段20)に出力する。
 表示制御手段402は、後述する第1表示手段11や第2表示手段21が有する表示素子や表示素子を照明する光源を駆動するドライバーなどを含み、第1表示手段11に第1情報映像K1を表示させ、第2表示手段21に第2情報映像K2を表示させるものである。
 表示制御手段402は、第1表示手段11や第2表示手段21の表示素子や光源を制御することにより、第1情報映像K1(第1の虚像V1)及び第2情報映像K2(第2の虚像V2)の輝度や明度を調整することができ、これにより第1の虚像V1及び第2の虚像V2の視認性を調整することができる。これら映像の視認性(輝度、明度)は、従来の車両情報投影システムにおいては、図示しない照度センサから入力される乗員3の周辺の照度情報や、図示しない調整スイッチからの操作信号に基づき調整されるのみであるが、本発明の車両情報投影システム1に係る表示制御手段402は、後述する『画像位置調整処理』において、自車両2の挙動が大きいと判定した場合、自車両2から一定距離以上離れた特定対象Wに対応する第1の虚像V1(第1情報映像K1)の輝度や明度を低下(非表示も含む)させることができる。
 ちなみに、第1情報映像K1の生成において、表示制御手段402は、前方情報取得部201から入力される道路形状に関する情報、道路上の物体に関する情報、及び撮像された特定対象との距離に関する情報から、表示形態や表示する位置を決定し、実景の特定対象(経路誘導する分岐路,車線,前方車両や障害物)に対応する位置に第1の虚像V1が視認されるように第1情報映像K1を生成する。表示制御手段402は、具体的に例えば、ナビゲーションシステム202から入力される案内経路に関する情報に基づく自車両2の経路誘導をする案内経路映像V1a,前方情報取得部201から入力される車両前方情報に基づく車線の存在を認識させる白線認識映像V1b,及び前方車両または障害物に対する注意を促す衝突警告映像V1cなどを生成し、これら生成した第1情報映像K1を第1投影手段10に出力し、情報取得部200または車両ECU300から入力される情報に基づき、速度情報など自車両2の運行状態に関する運行状態映像V2a,制限速度などの規制情報に関する規制映像V2bなどを生成し、これら生成した第2情報映像K2を表示制御手段402に出力する。
 また、表示制御手段402は、自車両2の挙動を推定し、この自車両2の挙動に基づき、第1の虚像V1が乗員3によって視認される位置を調整する。以下に、図4の動作フローに基づき、本実施形態における『画像位置補正処理』について説明する。
 表示制御手段402は、まず、ステップS10において、所定時間毎に情報取得部200(車速センサ204)から速度情報(車両挙動情報)を入力し、この速度情報の時間変化から自車両2の加速度Aを算出する(ステップS20)。次に、表示制御手段402は、ステップS20において算出した加速度Aと予め記憶部404に記憶しておいた閾値Athとを比較する(ステップS30)。そして、表示制御手段402は、加速度Aが閾値Athより大きい場合(ステップS30でNO)、ステップS40において、自車両2から一定距離以上離れた特定対象Wに対応する第1の虚像V1を非表示にし(視認性を低下させ)ステップS50に移行する。また、加速度Aが閾値Ath以下の場合(ステップS30でYES)、表示制御手段402は、ステップS50において、記憶部404に予め記憶させておいた第1の画像位置補正テーブルデータのうちステップS20で算出した加速度Aに対応した位置補正量Dを読み出し、この位置補正量Dに基づき後述する第1投影手段10が表示する第1情報映像K1(第1の虚像V1)の位置を調整する(ステップS60)。このように、車両用計器の速度検出部として搭載される車速センサ204からの速度情報に基づき加速度を求め、この加速度から第1情報映像K1(第1の虚像V1)の位置を調整する位置補正量Dを求めて、位置を調整することができるので、専用の検出センサを追加することなく、第1の虚像V1の位置を調整することができる。ちなみに、表示制御手段402は、自車両2の挙動が通常走行における挙動であると判定した場合、第1の虚像V1の視認性を通常の視認性に制御するものである。
 以上が、本実施の形態に係る車両情報投影システム1のシステム構成であり、これより、本実施形態のHUD装置100の構成の一例を図5,6を用いて説明する。図5は、本実施形態におけるHUD装置100のXZ平面における概略断面図であり、図6は、本実施形態におけるHUD装置100のYZ平面における概略断面図である。
 本実施形態におけるHUD装置100は、上述したように、第1の虚像V1に係る第1表示光N1をフロントガラス2aの遠方表示領域(第1の表示領域)E1に投影する第1投影手段10と、第2の虚像V2に係る第2表示光N2をフロントガラス2aの近傍表示領域(第2の表示領域)E2に投影する第2投影手段20と、第1表示光N1及び第2表示光N2をフロントガラス2aに向ける凹面鏡30と、筐体40と、を備える。
 第1投影手段10は、図5に示すように、第1情報映像K1を表示面に表示する第1表示手段11、折り返しミラー12、コリメートレンズ13、平行ミラー14と、を備え、第1情報映像K1を示す第1表示光N1を後述する凹面鏡30に向けて出射し、この凹面鏡30により第1表示光N1がフロントガラス2aの所定の領域に投影(反射)され、フロントガラス2aの遠方表示領域E1において、第1の虚像V1を乗員3に視認させるものである。
 第1表示手段11は、液晶ディスプレイ(LCD)などから構成される表示素子11aと、この表示素子11aを背面から照明する光源11bなどから構成されており、表示コントローラ400から出力される信号に基づき、所望の第1情報映像K1を表示素子11aの表示面に表示するものである。なお、第1表示手段11は、透過型のLCDではなく、自発光型の有機ELディスプレイや、反射型のDMD(Digital Micromirror Device)、反射型及び透過型のLCOS(登録商標:Liquid Crystal On Silicon)等で構成されてもよい。
 第1投影手段10において、第1表示手段11が表示する第1情報映像K1を示す画像光Lは、折り返しミラー12によって反射され、コリメートレンズ13に入射する。画像光Lはコリメートレンズ13によって、平行化される(コリメートレンズ13が平行光Mを出射する)。コリメートレンズ13から出射した平行光Mは、平行ミラー14に入射する。平行ミラー14のうち、一方の反射面は、入射した光の一部を反射し一部を第1表示光N1として透過する半透過ミラー14aであり、もう一方の反射面は反射のみをする反射ミラー14bである。平行ミラー14に入射した平行光Mは、平行ミラー14内で反射を繰り返しつつ、一部の平行光Mは平行ミラー14から複数の第1表示光N1として出射する(半透過ミラー14aを複数の第1表示光N1が透過する)。第1表示光N1は、コリメートレンズ13により、平行化された光なので、第1表示光N1を乗員3が両眼で視認することにより、第1表示手段11が表示した第1情報映像K1は、乗員3から遠方にあるように視認される(第1の虚像V1)。本実施形態における第1投影手段10においては、このコリメートレンズ13から出射される平行光Mを平行ミラー14間で複数回反射させることで、第1表示光N1をX軸方向に複製して出射させることができるので、乗員3の両眼がX軸方向に移動しても広範囲で第1の虚像V1を視認することができる。
 第2投影手段20は、表示コントローラ400から入力される信号に基づき、第2情報映像K2を表示する第2表示手段21を有する。この第2表示手段21は、図6に示すように、後述する筐体40の開口40bから、第2情報映像K2を示す第2表示光N2を後述する凹面鏡30に向けて出射し、この凹面鏡30により第2表示光N2がフロントガラス2aの所定の領域に投影(反射)され、フロントガラス2aの近傍表示領域E2において、第2の虚像V2を乗員3に視認させるものである。
 凹面鏡30は、例えば合成樹脂材料からなる基材の表面に、蒸着等の手段により反射膜を形成したものであり、第1投影手段10から出射される第1表示光N1と、第2投影手段20から出射される第2表示光N2と、をフロントガラス2aに向けて反射する。凹面鏡30で反射した第1表示光N1(第2表示光N2)は、筐体40の透過部40aを透過して、フロントガラス2aに向かう。フロントガラス2aに到達し、反射された第1表示光N1(第2表示光N2)は、フロントガラス2aの前方位置の遠方表示領域E1に第1情報映像K1に係る第1の虚像V1を表示し、近傍表示領域E2に第2情報映像K2に係る第2の虚像V2を表示する。これにより、HUD装置100は、第1の虚像V1(第2の虚像V2)と、フロントガラス2aの前方に実際に存在する外景(特定対象Wを含む)等の双方を、乗員3に視認させることができる。なお、凹面鏡30は拡大鏡としての機能を有し、第1表示手段11(第2表示手段21)に表示された第1情報映像K1(第2情報映像K2)を拡大してフロントガラス2a側へ反射する。すなわち、乗員3に視認される第1の虚像V1(第2の虚像V2)は第1表示手段11(第2表示手段21)が表示する第1情報映像K1(第2情報映像K2)が拡大した像である。
 筐体40は、第1投影手段10、第2投影手段20、凹面鏡30を収納するものであり、それぞれを位置決め固定する。筐体40は、凹面鏡30が反射する第1表示光N1と第2表示光N2とをフロントガラス2aに出射するための透過部40aを有する。また、筐体40は、第2投影手段20が出射する第1表示光N1を凹面鏡30側へ透過する開口40bを有する。
 以上が、本実施形態におけるHUD装置100の構成であるが、本発明の車両情報投影システム1に用いられるHUD装置としては、上記の例に限られず、第1投影手段10を、第2投影手段20が出射する光の光路より長い光路を有するように配設して、第1投影手段10が投影する第1の虚像V1が遠方に視認されるようにしてもよい。
 また、上記実施形態においては、第1の虚像V1の結像距離が第2の虚像V2の結像距離が長く設定されていたが、これに限らず、第1の虚像V1の結像距離が第2の虚像V2の結像距離とは、略同等であってもよい。また、この場合、第1表示領域E1に表示される第1の虚像V1に関わる第1情報映像K1と、第2の表示領域E2に表示される第2の虚像V2に関わる第2情報映像K2とを共通の表示手段(例えば、上記実施形態における第2投影手段20のみ)で生成してもよい。
 また、投影対象は、自車両2のフロントガラス2aに限定されず、板状のハーフミラー、ホログラム素子等により構成されているコンバイナであってもよい。
 また、第1の虚像V1と第2の虚像V2が同一の投影対象上に投影されていなくてもよく、一方はフロントガラス2aに投影され、他方は、上記コンバイナに投影されるように構成してもよい。
 以上説明したように、第一実施形態における車両情報投影システム1は、自車両2の外にある特定対象Wの位置を推定する情報取得部200(前方情報取得部201,ナビゲーションシステム202,GPSコントローラ203)と、特定対象Wに関する第1情報映像K1(第2情報映像K2)を生成する第1表示手段11(第2表示手段21)と、第1表示手段11(第2表示手段21)が生成した情報映像を自車両2の乗員3前方のフロントガラス2aに向ける凹面鏡30と、情報取得部200により推定された特定対象Wの位置に応じて、情報映像が投影される位置を、凹面鏡30を駆動することで調整するアクチュエータ30aと、を具備したHUD装置100と、自車両2の挙動を検出する情報取得部200(車速センサ204)と、を備え、情報取得部200にて検出した車速から加速度を算出し、この加速度から自車両2の挙動を推定し、この自車両2の挙動に基づき、第1情報映像K1(第2情報映像K2)が投影される位置を補正するものであり、斯かる構成により、自車両2の外の特定対象Wに対応させて表示させる第1の虚像V1の位置ずれ(誤表示)を抑制し、自車両2の乗員3に違和感なく情報を認識させることができる。
 また、第一実施形態における第1情報映像K1(第1の虚像V1)が投影される位置を調整する映像位置調整手段は、車速センサ204にて検出された車両挙動に基づいて、凹面鏡30を回転させることができるアクチュエータ30aであり、容易に第1情報映像K1(第1の虚像V1)が投影される位置を調整することができる。この際、凹面鏡30の回転により、特定対象Wに対応して表示しない第2の虚像V2の表示位置も移動してしまうが、表示コントローラ400が凹面鏡30の回転(アクチュエータ30aの駆動)に対応して、第2表示手段21に表示される第2情報映像K2の表示面上の位置を変更することにより、フロントガラス2aに対して第2の虚像V2が視認される相対的な位置が変更されないため、乗員3が第2の虚像V2を安定して視認することができる。なお、第2表示手段21に表示される第2情報映像K2の表示面上の位置の調整量は、凹面鏡30の回転量(アクチュエータ30aの駆動量)に対応付けられて予め記憶部404に記憶されており、これを読み出すことにより、迅速に第2情報映像K2の位置を調整することができる。
 また、第一実施形態における車両情報投影システム1において、車両挙動が所定の条件を満たした場合、表示コントローラ400は、第1の虚像V1のうち、自車両2から所定距離以上離れた特定対象Wに対する第1の虚像V1の視認性を低下させるものである。つまり、車両挙動によって自車両2の姿勢が前後に傾く際に特定対象Wと第1の虚像V1との位置ずれが大きくなる、自車両2から離れた位置にある特定対象Wに対応した第1の虚像V1の視認性を低下させることにより、第1の虚像V1の位置が急激に大きく変化することに起因する乗員3の戸惑いを軽減することが可能であり、また、特定対象Wと第1の虚像V1との位置ずれが大きくなることに起因する第1の虚像V1の位置補正の誤差が大きくなってしまった場合でも、乗員3が特定対象Wと第1の虚像V1との位置ずれを視認しにくくすることで乗員3が違和感を覚えにくくすることができる。また、自車両2から所定距離以上離れた特定対象Wに対する第1の虚像V1の視認性を低下させることにより、近距離の特定対象Wに対応する第1の虚像V1の視認性が相対的に高くなるため、特に近距離の特定対象Wに対して、乗員3に注意を促すことができる。
 また、第一実施形態における車両情報投影システム1において、表示コントローラ400は、自車両2と特定対象Wとの距離に応じて、第1の虚像V1の視認性を制御するものであり、自車両2の挙動が大きい緊急的な場合においても、第1の虚像V1の視認性の違いにより、自車両2と特定対象Wとの距離を速やかに認識することができる。
 なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。以下に変形例の一例を示す。
(第二実施形態)
 上記実施形態においては、自車両2の挙動を、車速センサ204の車速情報から自車両2の加速度を求めることにより推定していたが、これに限らず、ステレオカメラ201aにて撮像される特定対象Wの位置の時間推移に基づき、自車両2の挙動を推定してもよい。具体的には、図7の動作フローに基づき『画像位置調整処理』を行う。
 表示制御手段402は、まず、ステップS10aにおいて、所定時間毎に前方情報取得部201(ステレオカメラ201a)から特定対象Wの位置情報(車両挙動情報)を入力し、この位置情報の時間変化から特定対象Wの移動量Cを算出する(ステップS20a)。なお、特定対象Wの移動量Cは、Y軸方向の移動量であり、ステレオカメラ201aの撮像方向における上下方向の移動量であり、この特定対象Wの移動量Cから自車両2のY軸方向の傾きを推定することができる。
 次に、表示制御手段402は、ステップS20aにおいて算出した移動量Cと予め記憶部404に記憶しておいた閾値Cthとを比較する(ステップS30a)。そして、表示制御手段402は、移動量Cが閾値Cthより大きい場合(ステップS30aでNO)、ステップS40aにおいて、自車両2から一定距離以上離れた特定対象Wに対応する第1の虚像V1を非表示にし(視認性を低下させ)ステップS50aに移行する。また、移動量Cが閾値Cth以下の場合(ステップS30aでYES)、表示制御手段402は、ステップS50aにおいて、記憶部404に予め記憶させておいた第2の画像位置補正テーブルデータのうちステップS20aにて算出した移動量Cに対応した位置補正量Dを読み出し、この位置補正量Dに基づき後述する第1投影手段10が表示する第1情報映像K1(第1の虚像V1)の位置を調整する(ステップS60a)。このように、ステレオカメラ201aが撮像する特定対象Wの位置ずれに基づき、第1の虚像V1の位置を補正することにより、正確に第1の虚像V1の位置を補正することができる。
(第三実施形態)
 上記実施形態において、第1情報映像K1(第1の虚像V1)が投影される位置を調整する映像位置調整手段は、車両挙動に基づいて反射型の光学部材である凹面鏡(リレー光学系)30を回転させるアクチュエータ30aで及びこれを制御する表示コントローラ400で構成されていたが、表示コントローラ400が、第1表示手段11の表示面上で第1情報映像K1の位置を調整することで、フロントガラス2aに投影される第1情報映像K1(第1の虚像V1)の位置を調整してもよい。具体的には、第1表示手段11は、表示可能領域に対して小さい通常表示領域に第1情報映像K1を表示し、凹面鏡30(リレー光学系)は、通常表示領域を含む表示可能領域に表示される像をフロントガラス2aに向けることが可能であり、表示コントローラ400は、第1表示手段11における第1情報映像K1の表示位置を調整可能であり、検出された車両挙動に基づいて、第1表示手段11における第1情報映像K1の表示位置を通常表示領域外に移動させるものである。
(第四実施形態)
 以下に、本発明の第四実施形態を、図8,9を用いて説明する。図8は、本実施形態を用いない場合の乗員3が視認する景色を示す図である。また、図9は、本実施形態を用いた場合の乗員3が視認する景色を示す図である。なお、これらの図においては、図を見易くするために、第2の表示領域E2や第1の虚像V1を省略した。
 まず、本発明の第四実施形態を用いない場合の問題点について説明する。例えば、図8(a)に示すように、フロントガラス2a上の第1表示領域E11の端部(下端)付近で特定対象Wに対応する第1の虚像V1を表示しながら自車両2が停車しており、その後に自車両2が急加速した場合、自車両2が後傾することで、第1表示領域E12が特定対象Wに対して上側(Y軸のプラス方向)にずれてしまい、特定対象Wに対応するように第1の虚像V1を表示できないという問題がある。
 しかしながら、本発明の第四実施形態においては、第1情報映像K1(第1の虚像V1)が投影される位置を、凹面鏡(リレー光学系)30を回転させるアクチュエータ30aと、表示面上で第1情報映像K1の位置を調整する第1表示手段11と、これらアクチュエータ30a及び第1表示手段11を制御する表示コントローラ400と、によって位置調整することで、上記問題を解消することができる。
 第四実施形態における表示コントローラ400は、まず第1表示領域E11内のどこの領域に第1の虚像V1が表示されているか認識する。表示コントローラ400は、第1の虚像V1が表示されている領域が、図9(a)に示すように、自車両2の挙動によっては特定対象Wに対応した位置に位置調整できない領域(第1の虚像V1が第1表示領域E11の端部付近)であると判定した場合、アクチュエータ30aを駆動して、図9(b)に示すように、フロントガラス2aにおける第1表示領域E11の位置を、第1表示領域E11内の特定対象Wの位置が、第1表示領域E11の端部付近にならないように下側に移動させる(図9(b)における第1表示領域E11の位置から第1表示領域E12の位置へ移動させる)。そして、表示コントローラ400は、図9(c)に示すように、第1表示手段11の表示面上で第1情報映像K1の位置を調整することで、特定対象Wに対応した位置に第1の虚像V1の位置を調整する。斯かる構成により、図9(c)の状態で、自車両2が急加速した場合でも、第1の虚像V1の下側に位置調整可能なスペースを確保されているので、表示コントローラ400が、第1表示手段11の表示面上で第1情報映像K1の位置を下側(Y軸のマイナス方向)に調整することが可能となり、迅速に第1の虚像V1の位置を調整することができる。また、自車両2が(高速で)走行している場合、急減速により、第1の虚像V1が特定対象Wの上側(Y軸のプラス側)にずれてしまうことが予測されるため、自車両2が(高速で)走行している場合、表示コントローラ400は、上述した方法で、第1の虚像V1の上側に位置調整可能なスペースを確保するとよい。
(第五実施形態)
 第五実施形態の車両情報投影システム1に係る表示制御手段402は、後述する『画像位置調整処理』において、自車両2の挙動が大きいと判定した場合、特定対象に対応する第1情報映像K1(第1の虚像V1)の輝度や明度を低下(非表示も含む)させ、自車両2から一定距離以内にある特定対象に対応する第1情報映像K1を表示態様の異なる代替情報映像K3(第1の虚像V1)に表示切り替えさせる。
 ちなみに、第1情報映像K1の生成において、表示制御手段402は、前方情報取得部201から入力される道路形状に関する情報、道路上の物体に関する情報、及び撮像された特定対象との距離に関する情報から、表示形態や表示する位置を決定し、実景の特定対象(車線,白線Wb,前方車両Wc)に対応する位置に第1の虚像V1が視認されるように、第1情報映像K1を生成する。表示制御手段402は、具体的に例えば、前方情報取得部201から入力される車両前方情報に基づく車線の存在を認識させる白線認識映像K1b,及び前方車両Wcまたは障害物に対する注意を促す衝突警告映像K1cなどを生成し、これら生成した第1情報映像K1を第1投影手段10に出力し、情報取得部200または車両ECU300から入力される情報に基づき、速度情報など自車両2の運行状態に関する運行状態映像K2a,制限速度などの規制情報に関する規制映像K2bなどを生成し、これら生成した第2情報映像K2を表示制御手段402に出力する。
 また、表示制御手段402は、自車両2の挙動を推定し、この自車両2の挙動に基づき、第1の虚像V1が乗員3によって視認される位置、視認性、表示態様を調整する。以下に、図10の動作フローに基づき、本実施形態における『画像位置補正処理』について説明する。
 表示制御手段402は、まず、ステップS10bにおいて、所定時間毎に情報取得部200(車速センサ204)から速度情報(車両挙動情報)を入力し、この速度情報の時間変化から自車両2の加速度Aを算出する(ステップS20b)。
 次に、表示制御手段402は、ステップS20bにおいて算出した加速度Aと予め記憶部404に記憶しておいた閾値Athとを比較する(ステップS30b)。そして、加速度Aが閾値Ath以下の場合(ステップS30bでYES)、表示制御手段402は、ステップS40bにおいて、記憶部404に予め記憶させておいた第1の画像位置補正テーブルデータのうちステップS20bで算出した加速度Aに対応した位置補正量Dを読み出し、この位置補正量Dに基づき後述する第1投影手段10が表示する第1情報映像K1(第1の虚像V1)の位置を調整して表示する(ステップS50b)。このように、車両用計器の速度検出部として搭載される車速センサ204からの速度情報に基づき加速度Aを求め、この加速度Aから第1情報映像K1(第1の虚像V1)の位置を調整する位置補正量Dを求めて、位置を調整することができるので、専用の検出センサを追加することなく、第1の虚像V1の位置を調整することができる。
 また、加速度Aが閾値Athより大きい場合(ステップS30bでNOの場合)、表示制御手段402は、ステップS60bにおいて、特定対象Wに対応する第1情報映像K1(第1の虚像V1)を非表示(視認性低下も含む)に設定する。そして、表示制御手段402は、ステップS70bにおいて、代替情報映像K3の表示が必要かどうか判定する。具体的には、表示制御手段402は、危険度が高い衝突警告映像K1cに関する代替情報映像K3を必要と判定する。
 代替情報映像K3が必要である場合(ステップS70bにおいてYES)、表示制御手段402は、代替情報映像K3の画像データを生成する。代替情報映像K3は、図11(b)に示すような矢印形状の画像であり、この矢印の指示方向は、第1表示領域E1に対して特定対象(前方車両Wc)が相対的に移動した方向である。すなわち、自車両2が急加速して自車両2が後傾し、前方車両Wcが第1表示領域E1に対して下側(Y軸のマイナス方向)にずれてしまった場合、代替情報映像K3は、前方車両Wcがある下側(Y軸のマイナス方向)を指示するように生成される。
 その後、第1表示手段11は、表示制御手段402の制御のもと、ステップS50bにおいて、それまで表示されていた第1情報映像K1を消去し、必要とされる代替情報映像K3を表示する。
 また、表示制御手段402は、ステップS50bにおいて、第1情報映像K1の位置調整が行われる場合、または、第1情報映像K1が非表示にされる場合、または、代替情報映像K3が表示される場合のいずれの場合においても、実景の特定対象に対応した位置に第1の虚像V1として視認される第1情報映像K1以外の第2情報映像K2(運行状態映像K2a、規制映像K2bなど)は、表示を継続する。斯かる構成により、自車両2の姿勢が変化した場合においても特定の領域内(近傍表示領域E2内)で自車両2が情報を認識しつづけることができる。さらに、表示制御手段402は、自車両2の車両姿勢に応じて、特定対象が第2情報映像K2と重なって視認されるおそれがある場合、ステップS50bで第2情報映像K2の表示位置を近傍表示領域E2内で移動させてもよい。
 以上の画像位置補正処理の一具体例を、図11を用いて説明する。図11(a)は、自車両2の車両姿勢が通常状態である場合の乗員3が視認する景色を示しており、図11(b)は、自車両2の車両姿勢が急加速などで後傾になり、画像位置補正処理が実行された場合の乗員3が視認する景色を示している。図11(a)に示す通常状態では、白線Wbを示す白線認識映像K1b、及び前方車両Wcを示す衝突警告映像K1cが第1の虚像V1として視認され、運行状態映像K2a及び規制映像K2bが第2の虚像V2として視認される。自車両2が急加速して自車両2が後傾し、特定対象が第1表示領域E1に対して下側(Y軸のマイナス方向)にずれてしまった場合、代替情報映像K3は、図11(b)に示すように、前方車両Wcがある下側(Y軸のマイナス方向)を指示するように表示され、白線Wbを示す白線認識映像K1b、及び前方車両Wcを示す衝突警告映像K1cは非表示となり、運行状態映像K2a及び規制映像K2bは表示を継続する。なお、運行状態映像K2aは、自車両2の姿勢変化により、特定対象が第1表示領域E1に対して下側(近傍表示領域E2側)にずれてしまうことにより、前方車両Wcと重なって視認される恐れがあるため、表示位置が移動される。
 以上説明したように、第五実施形態における車両情報投影システム1は、自車両2の外にある特定対象の位置を推定する情報取得部200(前方情報取得部201,ナビゲーションシステム202,GPSコントローラ203)と、特定対象に関する第1情報映像K1(第2情報映像K2)を生成する第1表示手段11(第2表示手段21)と、第1表示手段11(第2表示手段21)が生成した表示画像を自車両2の乗員3前方のフロントガラス2aに向ける凹面鏡30と、情報取得部200により推定された特定対象の位置に応じて、表示画像が投影される位置を、凹面鏡30を駆動することで調整するアクチュエータ30aと、を具備したHUD装置100と、自車両2の挙動を検出する情報取得部200(車速センサ204)と、を備え、情報取得部200にて検出した車速から加速度を算出し、この加速度から自車両2の挙動を推定し、この自車両2の挙動に基づき、第1情報映像K1(第2情報映像K2)を異なる表示画像に変更するものであり、このように、車両姿勢の変化により、乗員3が視認する第1の虚像V1と特定対象との相対位置が、特定の位置関係からずれてしまう場合、通常表示画像(第1情報映像K1)とは異なる形状の代替情報映像K3表示することができるため、乗員3が第1の虚像V1の位置ずれを認識することを防止することができ、乗員3に第1の虚像V1の位置ずれによる違和感を与えない商品性のあるヘッドアップディスプレイ装置を提供できる。
 また、上記実施形態のHUD装置100において、第1投影手段10が出射する第1表示光N1と、第2投影手段20が出射する第2表示光N2とを、共通の凹面鏡(リレー光学系)30により、フロントガラス2aの方向へ向けて出射させていたが、別々のリレー光学系により、第1表示光N1と第2表示光N2とをフロントガラス2aに向けて出射させてもよい。
 また、上記実施形態のHUD装置100は、第1投影手段10及び第2投影手段20の投影手段を複数有していたが、第2投影手段20を省略してもよい。
 上記実施形態において、車両挙動に基づいて反射型の光学部材である凹面鏡(リレー光学系)30を回転させることで、第1情報映像K1(第1の虚像V1)が投影される位置を調整していたが、これに限られず、第1投影手段10から出射される第1表示光N1を、レンズなどの屈折型の光学部材を回転および/または移動させることで、第1情報映像K1(第1の虚像V1)が投影される位置を調整するものであってもよい。
 また、表示コントローラ400は、上述した以外に、ジャイロセンサ、サスストロークセンサ、ブレーキペダルセンサ、アクセルペダルセンサなどの出力信号から自車両2の挙動を推定して、第1の虚像V1の位置補正量Dを算出してもよい。
 本発明の車両情報投影システムは、例えば、車両のウインドシールド等に像を投影し、虚像を表示する車両用表示システムに適用することができる。
1 車両情報投影システム、100 HUD装置(投影装置)、10 第1投影手段、11 第1表示手段、20 第2投影手段、21 第2表示手段、30 凹面鏡(リレー光学系)、30a アクチュエータ(映像位置調整手段)、200 情報取得部(車外状況推定手段)、400 表示コントローラ(映像位置調整手段)、E1 遠方表示領域(第1表示領域)、E2 近傍表示領域(第2表示領域)、K1 第1情報映像、K2 第2情報映像、K3 代替情報映像、L 画像光、N1 第1表示光、N2 第2表示光、V1 第1の虚像、V2 第2の虚像

Claims (11)

  1.  車両の外にある特定対象の位置を推定する車外状況推定手段と、
     前記特定対象に関する情報映像を生成する表示器と、前記表示器が生成した前記情報映像を前記車両の乗員前方の投影対象に向けるリレー光学系と、前記車外状況推定手段により推定された前記特定対象の位置に応じて、前記情報映像が投影される位置を調整する映像位置調整手段とを具備した投影装置と、
     前記車両の挙動を検出する挙動検出手段と、を備え、
     前記挙動検出手段にて検出した車両挙動に基づき、前記情報映像が投影される位置を補正する、
    ことを特徴とする車両情報投影システム。
  2.  前記映像位置調整手段は、前記挙動検出手段にて検出された前記車両挙動に基づいて、前記リレー光学系を移動または/および回転させることができるアクチュエータを有する、
    ことを特徴とする請求項1に記載の車両情報投影システム。
  3.  前記表示器は、表示可能領域に対して小さい通常表示領域に前記情報映像を表示し、
     前記リレー光学系は、前記通常表示領域を含む前記表示可能領域に表示される像を前記投影対象に向けることが可能であり、
     前記映像位置調整手段は、前記表示器における前記情報映像の表示位置を調整可能であり、前記挙動検出手段にて検出された前記車両挙動に基づいて、前記表示器における前記情報映像の表示位置を前記通常表示領域外に移動させる、
    ことを特徴とする請求項1または2に記載の車両情報投影システム。
  4.  前記挙動検出手段にて検出した前記車両挙動が所定の条件を満たした場合、前記投影装置は、前記情報映像の少なくとも一部の視認性を低下させる、
    ことを特徴とする請求項1乃至3のいずれかに記載の車両情報投影システム。
  5.  前記車外状況推定手段は、前記車両と前記特定対象との距離を検出可能な距離検出手段を有し、
     前記投影装置は、前記車外状況推定手段が検出した前記距離に応じて、前記情報映像の視認性を制御する表示制御手段を有する、
    ことを特徴とする請求項1乃至4のいずれかに記載の車両情報投影システム。
  6.  前記表示制御手段は、前記車外状況推定手段が検出した前記距離が長い方を、前記距離が短いものより、前記情報映像の視認性を低下させる、
    ことを特徴とする請求項1乃至5のいずれかに記載の車両情報投影システム。
  7.  前記挙動検出手段は、前記車両の加速度を検出可能である、
    ことを特徴とする請求項1乃至6のいずれかに記載の車両情報投影システム。
  8.  前記挙動検出手段は、前記車両の外景における前記特定対象を撮像可能な撮像手段を有し、前記撮像手段にて撮像された前記特定対象の位置に基づき、前記車両挙動を検出する、
    ことを特徴とする請求項1乃至7のいずれかに記載の車両情報投影システム。
  9.  前記挙動検出手段にて検出した車両挙動に基づき、前記重畳画像とは異なる代替画像を表示させる、
    ことを特徴とする請求項1乃至8のいずれかに記載の車両情報投影システム。
  10.  前記代替画像は、前記表示画像とは形状が異なる、
    ことを特徴とする請求項9に記載の車両情報投影システム。
  11.  請求項1乃至10のいずれかに記載の車両情報投影システムに用いられる投影装置。
PCT/JP2014/077560 2013-10-22 2014-10-16 車両情報投影システム及び投影装置 WO2015060193A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14856234.1A EP3061642B1 (en) 2013-10-22 2014-10-16 Vehicle information projection system, and projection device
CN201480057605.2A CN105682973B (zh) 2013-10-22 2014-10-16 车辆信息投影系统和投影装置
US15/026,534 US20160216521A1 (en) 2013-10-22 2014-10-16 Vehicle information projection system and projection device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-219018 2013-10-22
JP2013219018A JP2015080988A (ja) 2013-10-22 2013-10-22 車両情報投影システム及び投影装置
JP2013245739A JP6201690B2 (ja) 2013-11-28 2013-11-28 車両情報投影システム
JP2013-245739 2013-11-28

Publications (1)

Publication Number Publication Date
WO2015060193A1 true WO2015060193A1 (ja) 2015-04-30

Family

ID=52992792

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/077560 WO2015060193A1 (ja) 2013-10-22 2014-10-16 車両情報投影システム及び投影装置

Country Status (4)

Country Link
US (1) US20160216521A1 (ja)
EP (1) EP3061642B1 (ja)
CN (1) CN105682973B (ja)
WO (1) WO2015060193A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105835775A (zh) * 2016-03-17 2016-08-10 乐视网信息技术(北京)股份有限公司 一种车辆行驶预警的方法、装置及终端设备
US20160355133A1 (en) * 2015-06-02 2016-12-08 Lg Electronics Inc. Vehicle Display Apparatus And Vehicle Including The Same
JP2016212338A (ja) * 2015-05-13 2016-12-15 日本精機株式会社 ヘッドアップディスプレイ
EP3184365A3 (en) * 2015-12-24 2017-07-19 Lg Electronics Inc. Display device for vehicle and control method thereof
WO2018019544A1 (de) * 2016-07-26 2018-02-01 Audi Ag Verfahren zum steuern einer anzeigevorrichtung für ein kraftfahrzeug, anzeigevorrichtung für ein kraftfahrzeug und kraftfahrzeug mit einer anzeigevorrichtung
JP2018077400A (ja) * 2016-11-10 2018-05-17 日本精機株式会社 ヘッドアップディスプレイ
EP3312658A4 (en) * 2015-06-16 2018-06-27 JVC KENWOOD Corporation Virtual image presentation system, image projection device, and virtual image presentation method
EP3330117A4 (en) * 2015-07-27 2019-03-06 Nippon Seiki Co., Ltd. VEHICLE DISPLAY DEVICE
JPWO2018088360A1 (ja) * 2016-11-08 2019-10-03 日本精機株式会社 ヘッドアップディスプレイ装置
EP3480647A4 (en) * 2016-06-29 2020-02-19 Nippon Seiki Co., Ltd. DISPLAY HELMET
WO2020039751A1 (ja) * 2018-08-21 2020-02-27 株式会社デンソー 表示制御装置、表示制御プログラム、及びコンピュータ読み取り可能な非一時的な記憶媒体
WO2020148803A1 (ja) * 2019-01-15 2020-07-23 三菱電機株式会社 車両用表示制御装置及び車両用表示制御方法
CN111801239A (zh) * 2018-03-02 2020-10-20 松下知识产权经营株式会社 显示系统
JPWO2020241863A1 (ja) * 2019-05-30 2020-12-03
WO2022209258A1 (ja) * 2021-03-29 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法及び記録媒体
JP2023029340A (ja) * 2018-03-30 2023-03-03 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、及び、プログラム

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9690104B2 (en) * 2014-12-08 2017-06-27 Hyundai Motor Company Augmented reality HUD display method and device for vehicle
EP3031656B1 (en) * 2014-12-10 2018-01-03 Ricoh Company, Ltd. Information provision device, information provision method, and carrier medium storing information provision program
JP6661883B2 (ja) * 2015-02-09 2020-03-11 株式会社デンソー 車両用表示制御装置及び車両用表示制御方法
DE102016203185A1 (de) * 2015-03-11 2016-09-15 Hyundai Mobis Co., Ltd. Head-Up-Display und Steuerverfahren dafür
US11247605B2 (en) 2015-04-10 2022-02-15 Maxell, Ltd. Image projection apparatus configured to project an image on a road surface
WO2016163294A1 (ja) * 2015-04-10 2016-10-13 日立マクセル株式会社 映像投射装置
JP6223630B2 (ja) * 2015-04-17 2017-11-01 三菱電機株式会社 表示制御装置、表示システム、表示制御方法および表示制御プログラム
CN108027515A (zh) * 2015-09-25 2018-05-11 富士胶片株式会社 投影型显示装置及投影控制方法
JP6726674B2 (ja) * 2015-10-15 2020-07-22 マクセル株式会社 情報表示装置
CN105730237A (zh) * 2016-02-04 2016-07-06 京东方科技集团股份有限公司 一种行车辅助装置及行车辅助方法
CN108473054B (zh) 2016-02-05 2021-05-28 麦克赛尔株式会社 平视显示器装置
JP2017142785A (ja) * 2016-02-05 2017-08-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN108473055B (zh) 2016-02-05 2021-02-26 麦克赛尔株式会社 平视显示器装置
JP6418182B2 (ja) * 2016-03-07 2018-11-07 トヨタ自動車株式会社 車両用照明装置
JP6930971B2 (ja) 2016-06-20 2021-09-01 京セラ株式会社 表示装置、表示システム、および移動体
KR102536865B1 (ko) * 2016-07-22 2023-05-25 엘지전자 주식회사 전자 장치 및 그 제어 방법
JP6775188B2 (ja) * 2016-08-05 2020-10-28 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置および表示制御方法
CN118112811A (zh) * 2016-08-29 2024-05-31 麦克赛尔株式会社 车辆
EP3299241B1 (en) * 2016-09-26 2021-11-10 Volvo Car Corporation Method, system and vehicle for use of an object displaying device in a vehicle
WO2018066307A1 (ja) * 2016-10-06 2018-04-12 富士フイルム株式会社 投写型表示装置、その表示制御方法及びプログラム
JP6756228B2 (ja) * 2016-10-07 2020-09-16 株式会社デンソー 車載表示制御装置
CN106985749B (zh) * 2016-10-25 2019-07-05 蔚来汽车有限公司 基于车道线灭点的hud显示系统和方法
WO2018097120A1 (ja) * 2016-11-24 2018-05-31 日本精機株式会社 注意喚起表示装置
KR101899981B1 (ko) * 2016-12-02 2018-09-19 엘지전자 주식회사 차량용 헤드 업 디스플레이
KR20180093583A (ko) * 2017-02-14 2018-08-22 현대모비스 주식회사 개별 제어가 가능한 다중 표시영역을 구현하는 헤드 업 디스플레이 장치 및 헤드 업 디스플레이 장치의 표시 제어 방법
JP6601441B2 (ja) * 2017-02-28 2019-11-06 株式会社デンソー 表示制御装置及び表示制御方法
EP3605501A4 (en) * 2017-03-31 2020-12-16 Nippon Seiki Co., Ltd. ATTENTION-CATCHING DEVICE
CN107323375B (zh) * 2017-06-27 2019-12-03 京东方科技集团股份有限公司 车载显示系统、交通设备和图像显示方法
JP6796806B2 (ja) 2017-06-30 2020-12-09 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
CN110914094B (zh) * 2017-07-19 2023-05-16 株式会社电装 车辆用显示装置以及显示控制装置
WO2019017198A1 (ja) * 2017-07-19 2019-01-24 株式会社デンソー 車両用表示装置及び表示制御装置
US20190066382A1 (en) * 2017-08-31 2019-02-28 Denso Ten Limited Driving support device, driving support method, information providing device and information providing method
CN107907999B (zh) * 2017-11-22 2023-11-03 苏州萝卜电子科技有限公司 增强现实抬头显示装置以及消重影方法
KR102477842B1 (ko) * 2017-12-20 2022-12-16 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2019174802A (ja) * 2018-03-28 2019-10-10 株式会社リコー 制御装置、表示装置、表示システム、移動体、制御方法、及びプログラム
JP6695062B2 (ja) * 2018-03-29 2020-05-20 パナソニックIpマネジメント株式会社 表示システム、制御装置、制御方法、プログラム、及び移動体
JP7173131B2 (ja) * 2018-03-30 2022-11-16 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置
JP7042443B2 (ja) * 2018-06-21 2022-03-28 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び移動体
JP7026325B2 (ja) * 2018-06-21 2022-02-28 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び移動体
US20200018977A1 (en) * 2018-07-13 2020-01-16 Conserve & Associates , Inc. Display device and automobile head-up display system using the same
CN109050403A (zh) * 2018-08-16 2018-12-21 苏州胜利精密制造科技股份有限公司 车用hud显示系统及方法
EP3868594B1 (en) * 2018-10-16 2023-12-27 Panasonic Intellectual Property Management Co., Ltd. Display system, display device and display control method
CN109927625A (zh) * 2019-03-12 2019-06-25 北京小马智行科技有限公司 一种信息投影方法及装置
UA120581C2 (uk) * 2019-03-15 2019-12-26 Апостера Гмбх Пристрій компенсації трясіння для систем доповненої реальності в автомобілі (варіанти) і спосіб компенсації трясіння (варіанти)
US11615599B2 (en) 2019-03-15 2023-03-28 Harman International Industries, Incorporated Apparatus of shaking compensation and method of shaking compensation
JP7507439B2 (ja) * 2019-04-11 2024-06-28 パナソニックIpマネジメント株式会社 勾配変化検出システム、それを用いた表示システム及び移動体用プログラム
DE112020002353T5 (de) * 2019-05-14 2022-01-27 Panasonic intellectual property Management co., Ltd Anzeigevorrichtung
WO2020235160A1 (ja) * 2019-05-22 2020-11-26 パナソニックIpマネジメント株式会社 表示システム
JP7450230B2 (ja) * 2019-05-29 2024-03-15 パナソニックIpマネジメント株式会社 表示システム
WO2020241094A1 (ja) 2019-05-31 2020-12-03 パナソニックIpマネジメント株式会社 表示システム
CN114025983B (zh) * 2019-06-27 2024-09-17 松下汽车电子系统株式会社 显示控制装置及方法、图像显示系统、移动体、记录介质
CN114127614B (zh) * 2019-08-25 2023-08-25 日本精机株式会社 平视显示装置
CN113129224B (zh) * 2019-12-31 2023-11-28 精工爱普生株式会社 显示系统、电子设备、移动体和显示方法
EP3848781B1 (en) 2019-12-31 2023-05-10 Seiko Epson Corporation Circuit device, electronic apparatus, and mobile body
CN111523471B (zh) * 2020-04-23 2023-08-04 阿波罗智联(北京)科技有限公司 车辆所在车道的确定方法、装置、设备以及存储介质
EP4163156A4 (en) 2020-06-08 2023-12-06 Panasonic Intellectual Property Management Co., Ltd. DISPLAY SYSTEM
US11975608B2 (en) * 2020-07-06 2024-05-07 Hyundai Mobis Co., Ltd. Apparatus for displaying display information according to driving environment and method thereof
US11169377B1 (en) * 2020-09-16 2021-11-09 E-Lead Electronic Co., Ltd. Multi-focal plane head-up display
JP7557916B2 (ja) * 2021-02-04 2024-09-30 パナソニックオートモーティブシステムズ株式会社 車載装置、車載装置の制御方法、および車載システム
US11922836B2 (en) * 2021-03-29 2024-03-05 Panasonic Intellectual Property Management Co., Ltd. Rendering system, display system, display control system, and rendering method
JP7555662B2 (ja) 2021-03-30 2024-09-25 パナソニックオートモーティブシステムズ株式会社 表示補正システム、表示システム、表示補正方法、及びプログラム
CN115460388B (zh) * 2022-08-26 2024-04-19 富泰华工业(深圳)有限公司 扩展现实设备的投影方法及相关设备
JP2024076415A (ja) * 2022-11-25 2024-06-06 キヤノン株式会社 表示システム、表示制御方法、及びコンピュータプログラム
CN115995161A (zh) * 2023-02-01 2023-04-21 华人运通(上海)自动驾驶科技有限公司 基于投影确定停车位置的方法和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009090689A (ja) * 2007-10-03 2009-04-30 Calsonic Kansei Corp ヘッドアップディスプレイ
WO2010113788A1 (ja) * 2009-03-30 2010-10-07 株式会社エクォス・リサーチ 情報表示装置
WO2011055699A1 (ja) * 2009-11-04 2011-05-12 本田技研工業株式会社 車両用表示装置
JP2011121401A (ja) 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
JP2012086831A (ja) * 2010-09-22 2012-05-10 Toshiba Corp 車載表示装置
JP2014181025A (ja) * 2013-03-15 2014-09-29 Honda Motor Co Ltd 動的焦点面を備える立体ヘッドアップディスプレイ

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08197981A (ja) * 1995-01-23 1996-08-06 Aqueous Res:Kk 車輌用表示装置
JP3711864B2 (ja) * 2000-12-01 2005-11-02 日産自動車株式会社 車両用表示装置
JP4300818B2 (ja) * 2002-11-25 2009-07-22 日産自動車株式会社 車載表示装置および携帯表示装置
US20110187844A1 (en) * 2008-09-12 2011-08-04 Kabushiki Kaisha Toshiba Image irradiation system and image irradiation method
JP2010070066A (ja) * 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP4702437B2 (ja) * 2008-11-25 2011-06-15 トヨタ自動車株式会社 車両用表示装置
JP5161760B2 (ja) * 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法
JP5523448B2 (ja) * 2009-04-23 2014-06-18 パナソニック株式会社 運転支援システム、情報表示装置、及び情報表示プログラム
JP2010262161A (ja) * 2009-05-08 2010-11-18 Toshiba Corp 表示装置、表示方法及び車両
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
JP2011007562A (ja) * 2009-06-24 2011-01-13 Toshiba Alpine Automotive Technology Corp 車両用ナビゲーション装置及びナビゲーション方法
US9280824B2 (en) * 2009-09-30 2016-03-08 Panasonic Intellectual Property Management Co., Ltd. Vehicle-surroundings monitoring device
JP5646923B2 (ja) * 2010-09-03 2014-12-24 矢崎総業株式会社 車両用表示装置及び車両用表示システム
JP5821179B2 (ja) * 2010-12-08 2015-11-24 トヨタ自動車株式会社 車両用情報伝達装置
JP5679449B2 (ja) * 2011-07-08 2015-03-04 アルパイン株式会社 車載システム
US9393908B2 (en) * 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
TWI468645B (zh) * 2011-11-09 2015-01-11 Altek Autotronics Corp 盲點偵測警示系統
US8952897B2 (en) * 2012-08-10 2015-02-10 Microsoft Corporation Single page soft input panels for larger character sets
JP6015227B2 (ja) * 2012-08-10 2016-10-26 アイシン・エィ・ダブリュ株式会社 交差点案内システム、方法およびプログラム
US20140176425A1 (en) * 2012-12-20 2014-06-26 Sl Corporation System and method for identifying position of head-up display area
JP2014142423A (ja) * 2013-01-22 2014-08-07 Denso Corp ヘッドアップディスプレイ装置
JP6148887B2 (ja) * 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
JP6139298B2 (ja) * 2013-06-28 2017-05-31 東京エレクトロン株式会社 Cu配線の形成方法
JP5983547B2 (ja) * 2013-07-02 2016-08-31 株式会社デンソー ヘッドアップディスプレイ及びプログラム
JP6361382B2 (ja) * 2014-08-29 2018-07-25 アイシン精機株式会社 車両の制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009090689A (ja) * 2007-10-03 2009-04-30 Calsonic Kansei Corp ヘッドアップディスプレイ
WO2010113788A1 (ja) * 2009-03-30 2010-10-07 株式会社エクォス・リサーチ 情報表示装置
WO2011055699A1 (ja) * 2009-11-04 2011-05-12 本田技研工業株式会社 車両用表示装置
JP2011121401A (ja) 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
JP2012086831A (ja) * 2010-09-22 2012-05-10 Toshiba Corp 車載表示装置
JP2014181025A (ja) * 2013-03-15 2014-09-29 Honda Motor Co Ltd 動的焦点面を備える立体ヘッドアップディスプレイ

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212338A (ja) * 2015-05-13 2016-12-15 日本精機株式会社 ヘッドアップディスプレイ
EP3296794A4 (en) * 2015-05-13 2018-11-21 Nippon Seiki Co., Ltd. Head-up display
CN106218506B (zh) * 2015-06-02 2018-12-04 Lg电子株式会社 车辆显示装置和包括该车辆显示装置的车辆
US20160355133A1 (en) * 2015-06-02 2016-12-08 Lg Electronics Inc. Vehicle Display Apparatus And Vehicle Including The Same
CN106218506A (zh) * 2015-06-02 2016-12-14 Lg电子株式会社 车辆显示装置和包括该车辆显示装置的车辆
EP3312658A4 (en) * 2015-06-16 2018-06-27 JVC KENWOOD Corporation Virtual image presentation system, image projection device, and virtual image presentation method
EP3330117A4 (en) * 2015-07-27 2019-03-06 Nippon Seiki Co., Ltd. VEHICLE DISPLAY DEVICE
EP3184365A3 (en) * 2015-12-24 2017-07-19 Lg Electronics Inc. Display device for vehicle and control method thereof
US10924679B2 (en) 2015-12-24 2021-02-16 Lg Electronics Inc. Display device for vehicle and control method thereof
CN105835775A (zh) * 2016-03-17 2016-08-10 乐视网信息技术(北京)股份有限公司 一种车辆行驶预警的方法、装置及终端设备
EP3480647A4 (en) * 2016-06-29 2020-02-19 Nippon Seiki Co., Ltd. DISPLAY HELMET
DE102016213687A1 (de) * 2016-07-26 2018-02-01 Audi Ag Verfahren zum Steuern einer Anzeigevorrichtung für ein Kraftfahrzeug, Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung
DE102016213687B4 (de) 2016-07-26 2019-02-07 Audi Ag Verfahren zum Steuern einer Anzeigevorrichtung für ein Kraftfahrzeug, Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung
WO2018019544A1 (de) * 2016-07-26 2018-02-01 Audi Ag Verfahren zum steuern einer anzeigevorrichtung für ein kraftfahrzeug, anzeigevorrichtung für ein kraftfahrzeug und kraftfahrzeug mit einer anzeigevorrichtung
US11221724B2 (en) 2016-07-26 2022-01-11 Audi Ag Method for controlling a display apparatus for a motor vehicle, display apparatus for a motor vehicle and motor vehicle having a display apparatus
JPWO2018088360A1 (ja) * 2016-11-08 2019-10-03 日本精機株式会社 ヘッドアップディスプレイ装置
JP2018077400A (ja) * 2016-11-10 2018-05-17 日本精機株式会社 ヘッドアップディスプレイ
CN111801239A (zh) * 2018-03-02 2020-10-20 松下知识产权经营株式会社 显示系统
JP2023029340A (ja) * 2018-03-30 2023-03-03 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、及び、プログラム
JP7515229B2 (ja) 2018-03-30 2024-07-12 パナソニックオートモーティブシステムズ株式会社 映像表示システム、映像表示方法、及び、プログラム
WO2020039751A1 (ja) * 2018-08-21 2020-02-27 株式会社デンソー 表示制御装置、表示制御プログラム、及びコンピュータ読み取り可能な非一時的な記憶媒体
JP2020029130A (ja) * 2018-08-21 2020-02-27 株式会社デンソー 表示制御装置および表示制御プログラム
WO2020148803A1 (ja) * 2019-01-15 2020-07-23 三菱電機株式会社 車両用表示制御装置及び車両用表示制御方法
JPWO2020241863A1 (ja) * 2019-05-30 2020-12-03
US20220232202A1 (en) 2019-05-30 2022-07-21 Kyocera Corporation Head-up display system and movable object
JP7337153B2 (ja) 2019-05-30 2023-09-01 京セラ株式会社 ヘッドアップディスプレイシステムおよび移動体
US11882268B2 (en) 2019-05-30 2024-01-23 Kyocera Corporation Head-up display system and movable object
WO2020241863A1 (ja) * 2019-05-30 2020-12-03 京セラ株式会社 ヘッドアップディスプレイシステムおよび移動体
WO2022209258A1 (ja) * 2021-03-29 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法及び記録媒体

Also Published As

Publication number Publication date
EP3061642A4 (en) 2017-05-24
EP3061642A1 (en) 2016-08-31
CN105682973A (zh) 2016-06-15
EP3061642B1 (en) 2019-10-02
CN105682973B (zh) 2018-06-19
US20160216521A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
WO2015060193A1 (ja) 車両情報投影システム及び投影装置
JP6201690B2 (ja) 車両情報投影システム
JP2015080988A (ja) 車両情報投影システム及び投影装置
CN111433067B (zh) 平视显示装置及其显示控制方法
JP6176478B2 (ja) 車両情報投影システム
JP6361794B2 (ja) 車両情報投影システム
US20180143431A1 (en) Head-up display
US11215819B2 (en) Head-up display
WO2016190135A1 (ja) 車両用表示システム
US11999231B2 (en) Head-up display device
JPWO2014174575A1 (ja) 車両用ヘッドアップディスプレイ装置
JP6225379B2 (ja) 車両情報投影システム
US20200051529A1 (en) Display device, display control method, and storage medium
JP2019049505A (ja) 車両用表示装置および表示制御方法
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
US20210003414A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2018077400A (ja) ヘッドアップディスプレイ
US20200047686A1 (en) Display device, display control method, and storage medium
JP7062038B2 (ja) 虚像表示装置
CN110816268B (zh) 显示装置、显示控制方法及存储介质
JP2023151827A (ja) ヘッドアップディスプレイ装置の表示制御装置
JP2023066556A (ja) ヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14856234

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15026534

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014856234

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014856234

Country of ref document: EP