WO2018070252A1 - 車両用映像表示装置 - Google Patents
車両用映像表示装置 Download PDFInfo
- Publication number
- WO2018070252A1 WO2018070252A1 PCT/JP2017/035092 JP2017035092W WO2018070252A1 WO 2018070252 A1 WO2018070252 A1 WO 2018070252A1 JP 2017035092 W JP2017035092 W JP 2017035092W WO 2018070252 A1 WO2018070252 A1 WO 2018070252A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- inclination
- vehicle body
- hud
- display device
- Prior art date
Links
- 230000008859 change Effects 0.000 claims abstract description 49
- 238000012937 correction Methods 0.000 claims description 98
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005096 rolling process Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/50—Instruments characterised by their means of attachment to or integration in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
- B60K35/233—Head-up displays [HUD] controlling the size or position in display areas of virtual images depending on the condition of the vehicle or the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
Definitions
- the present invention relates to a vehicle video display device that is suitable for being mounted on a vehicle or the like and displaying various video information.
- HUD head-up display
- the basic configuration of the HUD is to project an optically generated image on the windshield (windshield), the reflected image light enters the driver's eyes, and the driver visually recognizes the virtual image in front of the windshield. It is. At that time, the driver views the displayed virtual image by superimposing it on the outside scene (the background of the outside world) that can be seen in front of the windshield, but may project the positional relationship between the outside scene and the virtual image to be appropriate. desirable.
- Patent Document 1 discloses at least one of vehicle angle information related to at least one of the attitude and orientation of the vehicle and external angle information related to the angle of the background object at the position of the target of the display object in the background of the external environment of the vehicle.
- Japanese Patent Application Laid-Open No. H07-260260 discloses a technique for projecting an image including a display object by acquiring the information, changing an angle of the display object in the video based on at least one of the acquired vehicle angle information and external world angle information.
- the vehicular video display device Since the vehicular video display device (HUD) is fixedly installed inside the vehicle, the HUD projection direction and display position change integrally with the attitude of the vehicle in a traveling vehicle.
- the posture of the vehicle for example, forward / backward inclination and left / right inclination
- the shape of the road ahead of the vehicle for example, upward / downward / left / right inclination
- the display deviation is corrected in the case of deviation.
- the parallelism between the vehicle (vehicle body) and the road surface, that is, the inclination of the vehicle body with respect to the road surface on which the vehicle travels is not particularly taken into consideration. That is, in normal HUD installation, the vehicle body is positioned so as to be displayed at a predetermined position as being parallel to the road surface. However, when a driver or the like gets on the vehicle and loads a load, the vehicle body tilts in the left-right direction (roll direction) and / or the front-rear direction (pitch direction) with respect to the road surface. As a result, a tilt or shift occurs in the display position of the HUD, and correction thereof is also necessary.
- an object of the present invention is to provide a vehicle image display device that corrects a display position in accordance with the inclination of the vehicle body with respect to the road surface.
- a video display device for a vehicle displays a virtual image in front of a vehicle to a driver by projecting an image on a windshield of the vehicle, and is installed in the vehicle.
- the vehicle information acquisition unit that acquires vehicle information including the inclination of the vehicle body in the left-right direction (roll direction) and the front-rear direction (pitch direction), and the virtual image display based on the vehicle information acquired by the vehicle information acquisition unit
- a control unit that controls the state; and a video display device that generates a video based on an instruction from the control unit.
- the control unit calculates a change amount of the inclination of the vehicle body in the left-right direction (roll direction) and / or the front-rear direction (pitch direction) with respect to the road surface on which the vehicle travels from the vehicle information, and based on the calculated change amount, The display state is corrected so as not to change the display state of the virtual image.
- a display device can be provided.
- FIG. 2 is a block diagram showing a configuration of a HUD control system in Embodiment 1.
- the schematic diagram which shows the video display operation
- FIG. 6 is a block diagram showing an internal configuration of a HUD in Embodiment 2.
- 10 is a flowchart illustrating HUD correction in the second embodiment.
- HUD vehicle image display device
- the axis in the direction in which the vehicle moves straight forward may be referred to as a rolling axis, and the direction in which the vehicle rotates about the rolling axis may be described as the roll direction.
- an axis that belongs to the same horizontal plane as the rolling axis and is orthogonal to the rolling axis may be referred to as a pitching axis, and a direction in which the vehicle rotates about the pitching axis may be referred to as a pitch direction.
- a yawing axis an axis belonging to the same vertical plane as the rolling axis and orthogonal to the rolling axis
- a yaw direction a direction in which the vehicle rotates around the yawing axis
- FIG. 1 is a schematic diagram for explaining an outline of a HUD mounted on a vehicle.
- the HUD 100 mounted on the vehicle 1 projects the video generated by the video display device 2 onto the windshield (hereinafter referred to as the windshield 7) of the vehicle 1 through the mirror 3.
- the image reflected by the windshield 7 enters the eyes of the driver, and the driver visually recognizes the image from the HUD.
- the video to be displayed includes information related to driving (display content such as travel guidance) and supports driving operation.
- the interior of the HUD 100 includes a vehicle information acquisition unit 5 that acquires various types of vehicle information 50, a control unit 10 that generates video information to be displayed based on the vehicle information acquisition unit 5, a mirror drive unit 4 that drives the mirror 3, and an attitude of the HUD 100 HUD rotating unit 32 for adjusting the sound, speaker 6 for outputting voice information to the driver, and the like.
- the vehicle information 50 includes vehicle body tilt information used for adjusting the attitude of the HUD.
- FIG. 2 is a block diagram showing the configuration of the control system of the HUD 100 in this embodiment.
- Various vehicle information 50 is input to the vehicle information acquisition unit 5 and sent to the control unit 10.
- An electronic control unit (ECU, Electronic Control Unit) 11 in the control unit 10 generates a video signal (display content) displayed by the HUD 100 based on the input vehicle information 50. Further, based on the vehicle information 50, a control signal for the attitude of the HUD 100, the mirror 3, and a sound signal to the speaker 6 (shown in FIG. 1) are generated.
- the video display device 2 includes a light source 21 such as an LED or a laser, an illumination optical system (not shown), and a display element 23 such as a liquid crystal element, and emits video light generated by the display element 23 toward the mirror 3. .
- a nonvolatile memory 13 for storing a program executed by the ECU 11, a memory 14 for storing video information and control information, a light source adjusting unit 15 for controlling the light source 21 of the video display device 2, and a video signal to be displayed
- a distortion correction unit 16 that corrects the distortion of the display element
- a display element driving unit 17 that drives the display element 23 based on the corrected video signal.
- a mirror adjustment unit 18 that outputs a drive signal to the mirror drive unit 4 to adjust the mirror 3, and a drive signal to the HUD rotation unit (display device rotation unit) 32 to adjust the attitude of the HUD 100.
- the HUD inclination adjustment part (display apparatus inclination adjustment part) 31 which outputs is output.
- the HUD tilt adjustment unit 31 generates a drive signal based on the vehicle body tilt information detected by the tilt detection unit 30.
- FIG. 3 is a diagram illustrating an example of a hardware configuration related to the acquisition of the vehicle information 50.
- the acquisition of the vehicle information 50 is performed by an information acquisition device such as various sensors installed in the vehicle 1 under the control of an electronic control unit (ECU) 11 in the control unit 10, for example.
- ECU electronice control unit
- Each device exists outside the HUD 100, but HUD-related sensors (HUD display On / Off sensor 121, HUD mirror adjustment sensor 122, etc.) may be provided inside the HUD.
- HUD-related sensors HUD display On / Off sensor 121, HUD mirror adjustment sensor 122, etc.
- the vehicle speed sensor 101 acquires speed information of the vehicle 1.
- the shift position sensor 102 acquires current gear information of the vehicle 1.
- the steering wheel angle sensor 103 acquires steering wheel angle information.
- the headlight sensor 104 acquires lamp lighting information related to On / Off of the headlight.
- the illuminance sensor 105 and the chromaticity sensor 106 acquire external light information.
- the distance measuring sensor 107 acquires distance information between the vehicle 1 and an external object.
- the infrared sensor 108 acquires infrared information related to the presence / absence and distance of an object at a short distance of the vehicle 1.
- the engine start sensor 109 detects engine On / Off information.
- the acceleration sensor 110 and the gyro sensor 111 acquire acceleration gyro information including acceleration and angular velocity as information on the posture and behavior of the vehicle 1.
- the temperature sensor 112 acquires temperature information inside and outside the vehicle.
- the road-to-vehicle communication wireless receiver 113 and the vehicle-to-vehicle communication wireless receiver 114 are respectively road-to-vehicle communication information received by road-to-vehicle communication between the vehicle 1 and roads, signs, signals, etc.
- the vehicle-to-vehicle communication information received by the vehicle-to-vehicle communication with another vehicle is acquired.
- the camera (inside the car) 115 and the camera (outside the car) 116 respectively capture the situation inside and outside the car and acquire images that are camera video information (inside / outside the car).
- the camera (inside the vehicle) 115 captures, for example, the driver's posture, eye position, movement, and the like. By analyzing the obtained image, for example, it is possible to acquire information such as the driver's fatigue status and eye (line of sight) height.
- the camera (outside the vehicle) 116 captures surrounding conditions such as the front and rear of the vehicle 1. By analyzing the obtained image, for example, it is possible to grasp the presence of moving objects such as other vehicles and pedestrians in the vicinity, buildings and topography, road surface conditions (rain, snow, freezing, unevenness, etc.) It is.
- the GPS (Global Positioning System) receiver 117 and the VICS (Vehicle Information System and Communication System) are each obtained by receiving GPS signals. GPS information and VICS information obtained by receiving the VICS signal are acquired. It may be implemented as a part of a car navigation system that acquires and uses these pieces of information.
- the load sensor 119 and the position sensor 120 detect the load and posture of the driver or occupant.
- the HUD display On / Off sensor 121 detects whether the HUD power supply is On or Off.
- the HUD mirror adjustment sensor 122 detects an adjustment signal of the HUD mirror and acquires information on whether or not to perform mirror adjustment processing.
- the tilt sensor 123 detects the tilt of the vehicle body with respect to the direction of gravity.
- the vehicle height sensor 124 detects the height of the vehicle body with respect to the road surface, and can be obtained by inclining the vehicle body with respect to the road surface by being attached to a plurality of locations of the vehicle body.
- the inclination sensor 123 and the vehicle height sensor 124 are used according to the purpose. That is, the inclination sensor 123 and the vehicle height sensor 124 are used as the inclination detection unit 30 in FIG.
- the inclination of the vehicle body can also be estimated by using the load sensor 119 or the camera outside the vehicle 116.
- FIG. 4 is a schematic diagram showing an image display operation by the HUD.
- a video for display is emitted from the video display device 2 installed at the lower part of the dashboard of the vehicle 1.
- the image is reflected by the first mirror 3 b and the second mirror 3 a (for example, a concave mirror, a free-form surface mirror, a mirror having an optical axis asymmetric shape, etc.) and projected toward the windshield 7.
- the first mirror 3 b is fixed, and the second mirror 3 a can be rotated by the mirror driving unit 4.
- the rotatable second mirror 3a is simply referred to as “mirror 3”.
- the image converged and projected from the mirror 3 is reflected by the windshield 7, is incident on the driver's eyes 8 and forms an image on the retina, whereby the image can be visually recognized.
- the driver sees the virtual image 9 that exists in front of the windshield 7, and the position of the virtual image 9 is referred to as a “display position” for convenience.
- a reflection position of an image on the windshield 7 is denoted by reference numeral 70.
- the mirror drive unit 4 adjusts the display position of the virtual image 9 in accordance with the height of the driver's eyes. That is, the position of the virtual image 9 can be moved in the vertical direction by rotating the axis of the mirror 3 as shown by the arrow by the mirror driving unit 4 so that the virtual image 9 can be visually recognized at an easily viewable position.
- FIGS. 5A to 5C are diagrams for explaining the relationship between the boarding position of the vehicle and the vehicle body tilt, and are shown in a plan view seen from above, a rear view seen from the rear, and a left side view seen from the left side. Yes.
- FIG. 5A shows a case where there is no boarding, and this is the reference posture of the vehicle body.
- the vehicle body is drawn as being parallel to the road surface in the standard posture.
- the HUD 100 is installed so that its display position becomes the reference position. That is, the center position of the displayed virtual image 9 is adjusted so as to coincide with the line-of-sight direction 8a of the driver (eye 8), and the horizontal line 9a of the virtual image 9 is adjusted to be parallel to the road surface 99.
- FIG. 5B shows a case where the driver 81 gets in only the driver's seat. Since the position of the driver's seat is lowered by the weight of the driver 81, the vehicle is inclined with respect to the road surface 99 in the left-right direction (roll direction) and the front-rear direction (pitch direction). That is, when viewed from the seated driver, the horizontal line 9a of the virtual image 9 rotates clockwise by ⁇ 1, and the center position of the virtual image 9 rotates by ⁇ 1 downward than the line-of-sight direction 8a (moves downward by ⁇ z1). To do). Therefore, the correction for this can be done by rotating the HUD 100 counterclockwise by - ⁇ 1 and rotating upward by - ⁇ 1.
- FIG. 5C shows a case where a driver 81 is in the driver's seat and a passenger 82 is in the passenger seat.
- the inclination of the vehicle front-rear direction increases with the weight of the driver 81 and the occupant 82, if the weight difference between the two 81 and 82 is small, the vehicle is balanced in the left-right direction and the inclination does not occur (or is small).
- the center position of the virtual image 9 rotates by ⁇ 2 below the line-of-sight direction 8a (moves downward by ⁇ z2). Therefore, correction for this can be done by rotating the HUD 100 upward by - ⁇ 2.
- FIG. 5D shows a case where a driver 81 is in the driver's seat and a passenger 83 is in the right rear seat.
- the lean in the left-right direction (roll direction) of the vehicle body increases due to the weight of the driver 81 and the occupant 83, but if the difference in weight between the two 81, 83 is small, the lean in the front-rear direction (pitch direction) does not occur (or small).
- the horizontal line 9a of the virtual image 9 rotates clockwise by ⁇ 2, but the center position of the virtual image 9 coincides with the line-of-sight direction 8a. Therefore, correction for this can be done by rotating the HUD 100 counterclockwise by - ⁇ 2.
- the vehicle body inclination also occurs according to the loading position even when a load is loaded, and the HUD 100 is rotated in the left-right direction or the front-rear direction accordingly. It may be corrected.
- FIG. 6 is a diagram for explaining a vehicle body tilt detection method. Here, a specific configuration example in the case where a sensor is used for the inclination detection unit 30 in FIG. 2 is shown.
- (A) is a case where one sensor is used, and the inclination sensor 123 is attached in the vicinity of the installation position of the HUD.
- the tilt sensor 123 measures the gravitational acceleration of the earth, and detects the tilt of the horizontal reference plane of the vehicle body relative to the direction of gravity in two axial directions (left and right direction (roll direction) and front and rear direction (pitch direction)). . Since the inclination sensor 123 detects that there is an inclination on the road surface, it is suitable for obtaining a relative change amount of the vehicle body inclination.
- (B) is a case where a plurality of sensors are used, and the vehicle height sensor 124 is attached to the front and rear positions of the vehicle body.
- the vehicle height sensor 124 measures the height of the lower surface of the vehicle body from the road surface, and a laser distance meter, an ultrasonic distance meter, or the like is used. By comparing the measurement values of the plurality of vehicle height sensors 124, the inclination of the vehicle body with respect to the road surface is calculated.
- (C) is a case where a plurality of sensors are used, and a load sensor 119 is attached to each seat position in the vehicle.
- the load sensor 119 can detect the presence or absence of seating in each seat, and can estimate the approximate inclination of the vehicle body from the seating distribution.
- a seat belt wearing sensor may be used instead of the load sensor 119.
- (D) is a case where a plurality of sensors are used, and the load sensor 119 is attached to each seat position or trunk room in the vehicle.
- the load sensor 119 measures the weight at each position, and calculates the inclination of the vehicle body from the weight distribution with respect to the vehicle body.
- This method has higher detection accuracy than the method (c).
- an in-vehicle camera 116 can be used as the tilt detection unit 30.
- FIG. 7 is a diagram illustrating an example of the configuration of the HUD rotation unit (display device rotation unit) 32.
- (A) is a plan view
- (b) is a front view
- (c) is a left side view.
- the x-axis is the vehicle width direction
- the y-axis is the vehicle traveling direction
- the z-axis is the HUD projection direction.
- the configuration of the HUD rotating unit 32 is such that the HUD 100 is supported by a frame-shaped holder 71 and the holder 71 is supported by an arm mechanism 72.
- the arm mechanism 72 is attached to the reference plane of the vehicle body.
- a pair of rotary motors 73 is attached to the holder 71 so that the HUD 100 can be rotated around the y-axis.
- a pair of rotary motors 74 are attached to the arm mechanism 72 so that the holder 71 can rotate around the x axis.
- the HUD 100 is tilted in the front-rear direction, and the vertical tilt of the virtual image viewed from the driver is changed by ⁇ .
- the vertical tilt of the virtual image is adjusted not by tilting the HUD 100 but by moving other rotary motors 75 and 76 provided in the arm mechanism 72 to move the position of the HUD 100 in the height direction (z direction). It is also possible to make it.
- FIG. 8A is a flowchart showing HUD correction (when the sensor is used) before the vehicle travels.
- S200 When the engine of the vehicle is started, the engine start sensor 109 detects and starts the following processing.
- the vehicle information acquisition unit 5 acquires the vehicle body inclination before boarding (and before loading) with a sensor attached to the vehicle, and sets this as the initial value S0.
- the sensor used here is any one of the inclination sensor 123, the vehicle height sensor 124, and the load sensor 119 shown in FIG. 6, and the values acquired by the sensors are the values of angle, distance, and weight, respectively. Since it is before boarding, the vehicle body assumes a reference posture parallel to the road surface, and the display position of the HUD 100 is expected to be the reference position that is most easily seen by the driver (FIG. 5A). If the display position before boarding deviates from the reference position, the HUD may be adjusted separately so that the position becomes easy to see.
- the detected value S0 of the vehicle body inclination before boarding is affected by the road surface inclination depending on the type of sensor.
- the inclination sensor 123 detects the road surface inclination, but the other vehicle height sensors 124 and load sensors 119 do not affect the road surface inclination.
- S202 A driver / occupant gets on the vehicle and loads a load.
- S203 Acquire the vehicle body inclination after boarding (after loading) with the sensor, and let this be S1. See FIGS. 5B to 5D.
- the HUD inclination adjustment unit 31 calculates the HUD correction amounts ⁇ and ⁇ according to the change amount ⁇ S of the vehicle body inclination. As shown in FIGS. 5B to 5D, the HUD correction amount ⁇ that recovers when the vehicle body tilts to the left and right, and the HUD correction amount that recovers when the vehicle body tilts back and forth. ⁇ is calculated. If the sensor is the tilt sensor 123, the correction amounts ⁇ and ⁇ can be directly obtained from the change in the tilt angle in the biaxial direction. When the sensors are the vehicle height sensor 124 and the load sensor 119, the correction amounts ⁇ and ⁇ are calculated by converting the change in distance and weight at a plurality of installation positions into the change amount of the inclination in the biaxial direction.
- the HUD rotation unit 32 rotates and adjusts the HUD 100 according to the correction amounts ⁇ and ⁇ calculated by the HUD inclination adjustment unit 31. That is, as shown in FIG. 7, the HUD 100 is rotated by an angle ⁇ around the y axis and by an angle ⁇ around the x axis. This completes the HUD inclination adjustment before traveling.
- S207 The display operation of HUD is started and the operation is shifted to the driving operation.
- the HUD correction amount is determined according to the amount of change in the inclination of the vehicle body before and after boarding, so that even if the road surface is inclined, the correction process is performed without being affected by it. be able to. As a result, even if the driver or the like gets on the vehicle and the vehicle body is tilted, a virtual image can be displayed with a posture and position that are easy to see with respect to the road surface when viewed from the driver.
- vehicle body information at the time of vehicle manufacture if vehicle body information at the time of vehicle manufacture exists, it can be acquired and used as the initial value S0.
- vehicle height data at the time of manufacture is possessed as vehicle body information, it may be used.
- the initial value S0 0 (no inclination), and the vehicle body inclination acquisition step before boarding in S201 can be omitted. .
- FIG. 8B is a flowchart showing HUD correction (when using the camera) before the vehicle travels.
- S210 When the vehicle engine is started, the following processing is started.
- the vehicle information acquisition unit 5 acquires an image (foreground image) in front of the vehicle before boarding (and before loading) with the outside camera 116 attached to the vehicle, and sets this as an initial value M0.
- S212 A driver / occupant gets on the vehicle and loads a load.
- S213 A foreground image after boarding (after loading) is acquired by the outside camera 116, and this is set as M1. If the vehicle body tilts after boarding (after loading), the foreground image M1 rotates or shifts with respect to the initial value M0.
- the change amount ⁇ M is a motion vector amount between images.
- the HUD inclination adjusting unit 31 calculates the HUD correction amounts ⁇ and ⁇ according to the change amount ⁇ S of the vehicle body inclination.
- S217 The HUD rotation unit 32 adjusts the rotation of the HUD 100 according to the correction amounts ⁇ and ⁇ calculated by the HUD inclination adjustment unit 31.
- S218 The display operation of HUD is started, and the operation moves to the driving operation. Thus, the HUD correction before traveling can be performed using the camera.
- the HUD addition correction for the vehicle body tilt while the vehicle is running will be described.
- the dynamic balance of the vehicle body may change and further change from the static vehicle body tilt state before traveling.
- additional correction of the HUD is performed with respect to the dynamic vehicle body tilt accompanying such traveling.
- the detection of the vehicle body tilt will be described separately for the case where the sensor is used and the case other than the sensor.
- FIG. 9A is a flowchart showing additional HUD correction (when the sensor is used) while the vehicle is running.
- the sensor used for the inclination detection before traveling is continuously used.
- S300 The following correction process is started in response to an instruction from the driver (or automatically when the vehicle travels is detected).
- the vehicle information acquisition unit 5 acquires the vehicle body inclination during traveling with a sensor attached to the vehicle, and designates this as S2.
- the sensor used here detects the inclination with respect to the road surface, and the vehicle height sensor 124 shown in FIG. 6 is suitable.
- the high-sensitivity load sensor 119 can also measure by changing (decreasing) the load received by the sensor due to the centrifugal force acting on the occupant or the load.
- the inclination sensor 123 is inappropriate because it is affected by the inclination of the road surface during traveling.
- the slope S1 before traveling is the value acquired in S203 of FIG. 8A.
- the HUD inclination adjustment unit 31 calculates HUD additional correction amounts ⁇ ′ and ⁇ ′ according to the change amount ⁇ S ′ of the vehicle body inclination. This additional correction amount corrects the dynamic vehicle body inclination associated with vehicle travel by ⁇ ′ in the left-right direction and ⁇ ′ in the front-rear direction.
- S304 According to the additional correction amounts ⁇ ′ and ⁇ ′ calculated by the HUD inclination adjustment unit 31, the HUD rotation unit 32 rotates and adjusts the HUD 100.
- S305 It is determined whether or not to continue the HUD addition correction. For example, the operation is continued if the vehicle is running, and is stopped if the vehicle is stopped.
- S306 When continuing, after waiting for a fixed time, the process returns to S301, and the above correction is repeated. This is to prevent driver discomfort by correcting frequently.
- S307 The running HUD addition correction process is terminated.
- FIG. 9B is a flowchart showing HUD addition correction (other than the sensor) during vehicle travel. Since the foreground image obtained by the camera used in FIG. 8B cannot be used for vehicle body tilt detection during traveling, posture control information indicating the driving operation and the traveling state is used here. S310: The following correction process is started according to the driver's instruction (or automatically).
- the vehicle information acquisition unit 5 acquires posture control information with each sensor attached to the vehicle.
- the attitude control information is information indicating a driving operation or a driving state that affects the dynamic attitude of the vehicle body during driving.
- S312 A change amount ⁇ S ′ of the vehicle body tilt due to traveling is calculated from the posture control information. Therefore, the relationship between the traveling speed, acceleration, steering angle, yaw angle, etc. and the dynamic inclination ⁇ S ′ of the vehicle body is obtained in advance and stored in the nonvolatile memory 13.
- S313 The HUD inclination adjustment unit 31 calculates HUD additional correction amounts ⁇ ′ and ⁇ ′ according to the change amount ⁇ S ′ of the vehicle body inclination.
- S314 According to the additional correction amounts ⁇ ′ and ⁇ ′ calculated by the HUD inclination adjustment unit 31, the HUD rotation unit 32 rotates and adjusts the HUD 100.
- S315 It is determined whether or not to continue the HUD addition correction.
- S316 When continuing, after waiting for a fixed time, the process returns to S311 and the above correction is repeated.
- S317 The additional correction process during traveling is terminated.
- FIG. 10A to 10C are diagrams showing examples of display states by HUD tilt correction.
- FIG. 10A shows a reference display state with no vehicle body tilt
- FIG. 10B shows a state where vehicle body tilt has occurred
- FIG. 10C shows a state after tilt correction.
- the HUD 100 is attached to the vehicle so that the display position of the HUD 100 becomes the reference position.
- the HUD rotating unit 32 shown in FIG. 7 is used for the attachment mechanism of the HUD 100.
- a virtual image display area 90 that is visible in front of the vehicle is displayed in a posture parallel to the horizon (road surface) 99 of the outside world. This area 90 will be referred to as a “reference display area”.
- the content shown in the virtual image (for example, the straight arrow 95) is displayed in an easy-to-see manner along the traveling direction of the road.
- FIG. 10B shows a state in which the vehicle body tilts as shown in FIG. 5D when the driver 81 or the like gets on, and the vehicle body tilts to the right (clockwise).
- the display area 91 is tilted to the right.
- the straight-ahead arrow 95 in the virtual image is also tilted to the right and displayed by ⁇ , which deviates from the traveling direction of the road, giving the driver 81 a sense of discomfort.
- FIG. 10C shows a state in which tilt correction is performed by HUD rotation.
- the rotation motor 73 provided on the holder 71 rotates the HUD 100 by ⁇ in the direction opposite to the vehicle body tilt (counterclockwise).
- the display area 92 returns to the posture of the reference display area 90 parallel to the horizon 99, and the straight-ahead arrow 95 in the virtual image is displayed along the traveling direction of the road.
- the display area appears to shift up and down with respect to the reference display area 90.
- the display area may be moved in the vertical direction by rotating the HUD 100 in the front-rear direction by the rotary motor 74 of FIG. The same applies when a dynamic vehicle body tilt occurs during traveling.
- the virtual image display state for the driver is changed.
- a virtual image can be displayed with a posture and position that are easy to see with respect to the road surface.
- accurate video information can be provided to the driver.
- the attitude of the HUD is fixed and the content display position in the virtual image to be displayed is corrected.
- FIG. 11 is a block diagram showing the configuration of the control system of the HUD 100 in this embodiment. Different parts from the configuration of the first embodiment (FIG. 2) will be described.
- a new content correction amount calculation unit 33 is provided and connected to the distortion correction unit 16, and the HUD inclination adjustment unit 31 and the HUD rotation unit 32 (FIG. 7) in FIG. 2 are eliminated.
- the content correction amount calculation unit 33 calculates the display position on the display element 23 of the display content (for example, a progress arrow or a speed value) included in the video signal and outputs it to the distortion correction unit 16. That is, the content correction amount calculation unit 33 determines the correction amount of the content display position based on the vehicle body tilt information detected by the tilt detection unit 30. For example, if there is a vehicle body tilt ⁇ in the left-right direction (roll direction), the content is rotated by ⁇ in the opposite direction to the vehicle body tilt. If there is a vehicle body tilt ⁇ in the front-rear direction (pitch direction), the content is tilted. Is moved in the opposite direction (vertical direction) by ⁇ z.
- the movement amount ⁇ z is an amount determined from the HUD projection distance and the vehicle body inclination ⁇ .
- the center position of the content may shift in the left-right direction (x direction) as the content rotates, adjustment of the content in the left-right direction ( ⁇ x) is added as necessary.
- the distortion correction unit 16 corrects the display position of the content according to the correction amount from the content correction amount calculation unit 33, further corrects the distortion of the video signal to be displayed, and sends the corrected video signal to the display element driving unit 17. .
- the tilt and position of the content included in the video are changed without changing the displayed video area.
- the HUD rotation mechanism is unnecessary, and the vehicle body inclination is corrected by the video signal processing in the control unit 10. Therefore, in the correction by the video signal processing as compared with the rotation mechanism of the HUD, it is possible to perform a correction that responds quickly to a high-speed vehicle body inclination change such as vehicle body vibration during traveling.
- FIG. 12 is a flowchart showing the HUD correction in this embodiment.
- S400 When the vehicle engine is started, the following processing is started.
- S401 The vehicle information acquisition unit 5 acquires a vehicle body inclination before boarding (and before loading) with a sensor attached to the vehicle, and sets this as an initial value S0.
- S402 A driver / occupant gets on the vehicle and loads the load.
- S403 Obtain the vehicle body inclination after boarding (after loading) with the sensor, and this is set as S1.
- the content correction amount calculation unit 33 calculates the content correction amounts ⁇ and ⁇ z according to the change amount ⁇ S of the vehicle body tilt.
- the correction amount ⁇ is the rotation angle of the content with respect to the inclination of the vehicle body in the left-right direction (roll direction)
- the correction amount ⁇ z is the movement amount of the content in the vertical direction with respect to the inclination of the vehicle body in the front-rear direction (pitch direction).
- the correction amount ⁇ z is converted into a coordinate value on the display element 23, and includes a lateral movement amount as necessary.
- the distortion correction unit 16 corrects the position of each content in the video signal. That is, each content is rotated by an angle ⁇ and moved in the vertical direction by ⁇ z.
- the display element driving unit 17 drives the display element 23 based on the corrected video signal. This completes the HUD correction (content position correction) before traveling.
- S407 The display operation of HUD is started and the operation is shifted to the driving operation.
- FIG. 13 is a diagram showing an example of the HUD display state after the content position correction. Since the display state before the content position correction is the same as in FIGS. 10A and 10B, the drawing is omitted.
- the display area 91 is tilted to the right (clockwise) as shown in FIG.
- the display area 93 is set to the tilted area 91 as it is, and the content included in the virtual image is rotated by ⁇ in the direction opposite to the vehicle body tilt (counterclockwise).
- the straight arrow 95 is rotated to the position indicated by reference numeral 96, and the speed display 97 is similarly rotated.
- the content in the virtual image (straight forward arrow 96, speed display 97) is corrected to an easy-to-see display along the traveling direction of the road.
- the display area appears to be shifted by ⁇ z in the vertical direction with respect to the reference display area 90. It will be.
- the content included in the virtual image may be moved by ⁇ z in the opposite direction (vertical direction) to the vehicle body tilt.
- the content display state for the driver changes.
- the content can be displayed with an easy-to-see posture and position with respect to the road surface.
- the video signal processing can quickly respond to a change in the vehicle body tilt, which is particularly suitable for correction during running that causes vehicle body vibration or the like.
- the present invention is not limited to the above-described embodiments, and various forms as described below are possible.
- the operation of each embodiment is to automatically detect the tilt of the vehicle body and automatically correct the display state. Of course, the driver manually adjusts while viewing the display state of the virtual image. It is also possible to add functions.
- the HUD rotation method of the first embodiment and the content position correction method of the second embodiment can be appropriately selected or combined according to the magnitude of the change amount of the vehicle body tilt and the speed of the change. . For example, when the amount of change is large, the HUD rotation method is selected, and when the change is fast, the content position correction method is selected.
- the present invention is not limited to the windshield projection type HUD described in the embodiment, but can be applied to a combiner type HUD in which a combiner that displays a front image and a virtual image in an overlapping manner is integrated.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Computer Hardware Design (AREA)
- Transportation (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Optics & Photonics (AREA)
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Traffic Control Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
本発明は、路面に対する車体の傾きに応じて表示位置を補正する車両用映像表示装置を提供する。車両用映像表示装置(HUD)100の制御部10は、車両に設置されたデバイスにより取得した車両情報50から、路面に対する車体の左右方向(ロール方向)および/または前後方向(ピッチ方向)の傾きの変化量を算出する。特に、運転者が乗車する前と乗車した後の車体の傾きの変化量を算出する。そして、運転者に対して表示する虚像の表示状態に変化が生じないように、HUD回転部32により、車両に搭載した車両用映像表示装置100の傾きを補正する。
Description
本発明は、車両等に搭載し各種映像情報を表示するのに好適な車両用映像表示装置に関するものである。
近年、映像を現実空間に重ねて表示する技術の1つとして、車両のフロントガラスに各種情報を表示する車両用映像表示装置(いわゆるヘッドアップディスプレイ(以下、HUD))が実用化されている。例えば表示する映像情報(表示コンテンツ)として運転者向けの情報を提供することで、車両の運転操作を支援することができる。
HUDの基本構成は、光学的に生成した映像をフロントガラス(ウィンドシールド)に投射し、反射した映像光が運転者の目に入射し、運転者はその虚像をフロントガラスの前方に視認するものである。その際運転者は、表示される虚像を、フロントガラスの前方に見える外景(外界の背景)に重畳させて視認する訳であるが、外景と虚像の位置関係が適切になるよう投射することが望ましい。
例えば特許文献1には、車両の姿勢及び方位の少なくともいずれかの角度に関する車両角度情報、及び、車両の外界の背景における表示オブジェクトのターゲットの位置での背景物の角度に関する外界角度情報の少なくともいずれかを取得し、取得した車両角度情報及び外界角度情報の少なくともいずれかに基づいて、表示オブジェクトの映像内における角度を変化させ、表示オブジェクトを含む映像を投影する技術が開示されている。
車両用映像表示装置(HUD)は車両内部に固定されて設置されるので、走行中の車両においては、HUDの投射方向や表示位置は車両の姿勢と一体で変化することになる。特許文献1の技術によれば、走行中の車両の姿勢(例えば、前後の傾きや左右の傾き等)と、車両の前方の道の形状(例えば、上り下りや左右方向の傾き等)とがずれた場合に、表示のずれを補正すると述べられている。
しかしながら特許文献1では、車両(車体)と路面の平行度、すなわち車両が走行する路面に対する車体の傾きについては特に考慮されていない。すなわち通常のHUD設置では、車体が路面に平行であるものとして所定の位置に表示されるよう位置決めされる。ところが運転者等が車両に乗車し、また荷物を積載することで、車体は路面に対し左右方向(ロール方向)および/または前後方向(ピッチ方向)に傾きが発生する。その結果HUDの表示位置に傾きやずれが発生するので、その補正も必要になる。
そこで本発明の目的は、路面に対する車体の傾きに応じて表示位置を補正する車両用映像表示装置を提供することである。
上記課題を解決するため、本発明による車両用映像表示装置は、車両のウィンドシールドに映像を投射することで運転者に対して車両の前方に虚像を表示するものであって、車両に設置されたデバイスにより、車体の左右方向(ロール方向)および前後方向(ピッチ方向)の傾きを含む車両情報を取得する車両情報取得部と、車両情報取得部が取得した車両情報に基づいて、虚像の表示状態を制御する制御部と、制御部からの指示に基づいて映像を生成する映像表示装置と、を備える。制御部は、車両情報から車両が走行する路面に対する車体の左右方向(ロール方向)および/または前後方向(ピッチ方向)の傾きの変化量を算出し、算出した変化量に基づいて、運転者に対する虚像の表示状態に変化が生じないように表示状態を補正する構成とした。
本発明によれば、運転者等が車両に乗車して車体に傾きが生じても、運転者に対する虚像の表示状態に変化が生じることがなく、路面に対して見やすい位置に表示する車両用映像表示装置を提供することができる。
本発明による車両用映像表示装置(ヘッドアップディスプレイ(以下、HUD))の実施形態について、図面を用いて説明する。
なお、以下の説明において、車両の運動方向については、車両が前進で直進する方向の軸をローリング軸とし、ローリング軸を中心に車両が回転する方向をロール方向と記載する場合がある。また、ローリング軸と同一の水平面に属し、ローリング軸と直交する軸をピッチング軸とし、ピッチング軸を中心に車両が回転する方向をピッチ方向と記載する場合がある。また、ローリング軸と同一の鉛直面に属し、ローリング軸と直交する軸をヨーイング軸とし、ヨーイング軸を中心に車両が回転する方向をヨー方向と記載する場合がある。
実施例1では、車体傾きに伴うHUDの表示位置のずれを補正するため、HUDの姿勢を調整する場合について説明する。
図1は、車両に搭載したHUDの概要を説明する模式図である。車両1に搭載されたHUD100は、映像表示装置2で生成した映像をミラー3を介して車両1のフロントガラス(以下、ウィンドシールド7と呼ぶ)に投射する。ウィンドシールド7で反射した映像は運転者の目に入射し、運転者はHUDからの映像を視認する。表示する映像には運転に関連する情報(走行案内などの表示コンテンツ)が含まれ、運転操作を支援するものとなる。HUD100の内部は、各種の車両情報50を取得する車両情報取得部5と、これをもとに表示する映像情報を生成する制御部10と、ミラー3を駆動するミラー駆動部4、HUD100の姿勢を調整するHUD回転部32、運転者に音声情報を出力するスピーカ6などを有する。車両情報50には運転状態を示す速度情報やギア情報などの他に、HUDの姿勢調整に用いる車体傾き情報なども含まれる。
図2は、本実施例におけるHUD100の制御系の構成を示すブロック図である。車両情報取得部5には各種の車両情報50が入力され制御部10へ送られる。制御部10内の電子制御ユニット(ECU、Electronic Control Unit)11は、入力した車両情報50に基づきHUD100が表示する映像信号(表示コンテンツ)を生成する。また、車両情報50に基づき、HUD100の姿勢やミラー3に対する制御信号やスピーカ6(図1に示す)への音声信号を生成する。映像表示装置2は、LEDやレーザなどの光源21、照明光学系(図示せず)、液晶素子などの表示素子23からなり、表示素子23で生成された映像光をミラー3に向けて出射する。
制御部10内には、ECU11が実行するプログラムを格納する不揮発性メモリ13、映像情報や制御情報を記憶するメモリ14、映像表示装置2の光源21を制御する光源調整部15、表示する映像信号の歪みを補正する歪み補正部16、補正された映像信号に基づき表示素子23を駆動する表示素子駆動部17を有する。さらに、ミラー3を調整するためにミラー駆動部4に対して駆動信号を出力するミラー調整部18と、HUD100の姿勢を調整するためにHUD回転部(表示装置回転部)32に対して駆動信号を出力するHUD傾き調整部(表示装置傾き調整部)31を有する。HUD傾き調整部31は、傾き検出部30にて検出した車体傾き情報に基づき駆動信号を生成する。
図3は、車両情報50の取得に係るハードウェア構成の例を示す図である。車両情報50の取得は、例えば、制御部10内の電子制御ユニット(ECU)11の制御の下、車両1に設置された各種のセンサ等の情報取得デバイスにより行われる。各デバイスはHUD100の外部に存在するが、HUD関連のセンサ(HUD表示On/Offセンサ121,HUDミラー調整センサ122等)はHUDの内部に備えていてもよい。以下、各デバイスの機能を説明する。なお、本実施例の動作を実行するために必ずしもこれら全てのデバイスを備えている必要はなく、また、適宜他の種類のデバイスを追加してもよい。
車速センサ101は、車両1の速度情報を取得する。シフトポジションセンサ102は、車両1の現在のギア情報を取得する。ハンドル操舵角センサ103は、ハンドル操舵角情報を取得する。ヘッドライトセンサ104は、ヘッドライトのOn/Offに係るランプ点灯情報を取得する。照度センサ105および色度センサ106は、外光情報を取得する。測距センサ107は、車両1と外部の物体との間の距離情報を取得する。赤外線センサ108は、車両1の近距離における物体の有無や距離等に係る赤外線情報を取得する。エンジン始動センサ109は、エンジンのOn/Off情報を検知する。
加速度センサ110およびジャイロセンサ111は、車両1の姿勢や挙動の情報として、加速度や角速度からなる加速度ジャイロ情報を取得する。温度センサ112は車内外の温度情報を取得する。路車間通信用無線受信機113および車車間通信用無線受信機114は、それぞれ、車両1と道路や標識、信号等との間の路車間通信により受信した路車間通信情報、および車両1と周辺の他の車両との間の車車間通信により受信した車車間通信情報を取得する。
カメラ(車内)115およびカメラ(車外)116は、それぞれ、車内および車外の状況を撮影してカメラ映像情報(車内/車外)である画像を取得する。カメラ(車内)115では、例えば、運転者の姿勢や、目の位置、動き等を撮影する。得られた画像を解析することにより、例えば、運転者の疲労状況や目(視線)の高さなどの情報を取得することが可能である。また、カメラ(車外)116では、車両1の前方や後方等の周囲の状況を撮影する。得られた画像を解析することにより、例えば、周辺の他の車両や歩行者等の移動物の有無、建物や地形、路面状況(雨や積雪、凍結、凹凸等)などを把握することが可能である。
GPS(Global Positioning System:全地球測位システム)受信機117およびVICS(Vehicle Information and Communication System:道路交通情報通信システム、登録商標(以下同様))受信機118は、それぞれ、GPS信号を受信して得られるGPS情報およびVICS信号を受信して得られるVICS情報を取得する。これらの情報を取得して利用するカーナビゲーションシステムの一部として実装されていてもよい。
荷重センサ119および位置センサ120は、運転者や乗員の荷重と姿勢を検出する。HUD表示On/Offセンサ121は、HUDの電源がOnかOffかの状態を検出する。HUDミラー調整センサ122は、HUDミラーの調整信号を検出し、ミラー調整処理を実施するか否かの情報を取得する。
傾斜センサ123は、重力方向に対する車体の傾きを検出する。車高センサ124は、路面に対する車体の高さを検出するもので、車体の複数個所に取り付けることで路面に対する車体の傾きを求めることができる。
本実施例では、車体の傾きを求めるため、目的に応じて傾斜センサ123と車高センサ124を使用する。すなわち図2の傾き検出部30として、傾斜センサ123や車高センサ124を使用する。さらには他の方法として、荷重センサ119や車外カメラ116を用いることでも車体の傾きを推定することができる。
図4は、HUDによる映像表示動作を示す模式図である。車両1のダッシュボードの下部に設置された映像表示装置2から、表示用の映像が出射される。映像は、第1のミラー3bと第2のミラー3a(例えば、凹面ミラーや自由曲面ミラー、光軸非対称の形状を有するミラー等)で反射され、ウィンドシールド7に向けて投射される。第1のミラー3bは固定されており、第2のミラー3aはミラー駆動部4により回転可能となっている。以下の説明では、回転可能な第2のミラー3aを単に「ミラー3」と呼ぶことにする。
ミラー3から収束して投射された映像は、ウィンドシールド7にて反射され、運転者の目8に入射して網膜上に結像することで、映像を視認することができる。そのとき運転者は、ウィンドシールド7の前方に存在する虚像9を見ていることになり、この虚像9の位置を便宜上「表示位置」と呼ぶことにする。ウィンドシールド7における映像の反射位置を符号70で示す。
ここでミラー駆動部4は、運転者の目の高さに応じて虚像9の表示位置を調整するものである。すなわち、ミラー駆動部4によりミラー3を矢印のように軸回転させることで虚像9の位置を上下方向に移動させ、虚像9を見やすい位置で視認することができる。
次に、本実施例における車体の傾きに対する表示位置の補正について説明する。
図5A~図5Cは、車両の乗車位置と車体傾きの関係を説明する図であり、車両を上から見た平面図、後方から見た背面図、及び左側から見た左側面図で示している。
図5A~図5Cは、車両の乗車位置と車体傾きの関係を説明する図であり、車両を上から見た平面図、後方から見た背面図、及び左側から見た左側面図で示している。
図5Aは乗車なしの場合であり、これを車体の基準姿勢とする。説明を簡単にするために、基準姿勢では車体は路面に平行であるものとして描いている。基準姿勢において、HUD100はその表示位置が基準位置になるよう設置される。すなわち、表示される虚像9の中心位置が運転者(目8)の視線方向8aに一致するように、また虚像9の水平線9aが路面99に平行になるように調整されている。
図5Bは、運転席にのみ運転者81が乗車した場合である。車両は運転者81の重量で運転席の位置が下がるため、路面99に対し車両の左右方向(ロール方向)と前後方向(ピッチ方向)に傾きが発生する。すなわち着席している運転者から見て、虚像9の水平線9aは時計回りにα1だけ回転し、虚像9の中心位置は視線方向8aよりも下方向にβ1だけ回転する(下方向にΔz1だけ移動する)。よってこれに対する補正は、HUD100を反時計回りに-α1だけ回転させ、上方向に-β1だけ回転させればよい。
図5Cは、運転席に運転者81と助手席に乗員82が乗車した場合である。運転者81と乗員82の重量で車両の前後方向(ピッチ方向)の傾きが増加するが、両者81,82の重量差が小さければ左右方向にはつりあって傾きは発生しない(または小さい)。運転者から見て、虚像9の水平線9aの回転はなく、虚像9の中心位置は視線方向8aよりも下方向にβ2だけ回転する(下方向にΔz2だけ移動する)。よってこれに対する補正は、HUD100を上方向に-β2だけ回転させればよい。
なお、運転者81と乗員82の重量差が大きい場合には左右方向(ロール方向)の傾き(時計回り、または反時計回り)が発生するので、図5Bのα1に対応する補正を追加すればよい。また、助手席に乗員82の代わりに荷物または犬猫などの動物が置かれた場合も同様で、重量差により左右方向(ロール方向)の傾きが発生することが予想されるので、左右方向(ロール方向)の補正を追加する。
図5Dは、運転席に運転者81と右側後部席に乗員83が乗車した場合である。運転者81と乗員83の重量で車体の左右方向(ロール方向)の傾きが増加するが、両者81,83の重量差が小さければ前後方向(ピッチ方向)にはつりあって傾きは発生しない(または小さい)。運転者から見て、虚像9の水平線9aは時計回りにα2だけ回転するが、虚像9の中心位置は視線方向8aに一致している。よってこれに対する補正は、HUD100を反時計回りに-α2だけ回転させればよい。なお、運転者81と乗員83の重量差が大きい場合には前後方向(ピッチ方向)の傾き(上方向、または下方向)が発生するので、図5Bのβ1に対応する補正を追加すればよい。
上記した図5B~図5D以外にも様々な乗車状態がある。運転席に運転者81が、左側後部席に乗員が乗車した場合、あるいは運転席と助手席および後部席の全席に乗車した場合には、左右方向(ロール方向)および前後方向(ピッチ方向)に重量がつりあって傾きは小さいことが期待される。しかし、各乗車位置での重量差が大きい場合、また後部席に2名以上乗車する場合などには、左右方向(ロール方向)あるいは前後方向(ピッチ方向)の傾きが発生することがあり、これらに対する補正を行う。
ここでは乗員の乗車位置と車体の傾きの関係を述べたが、荷物を積載した場合についてもその積載位置に応じて車体傾きが発生し、それに応じてHUD100を左右方向または前後方向に回転させて補正すればよい。
図6は、車体傾きの検出法を説明する図である。ここでは図2の傾き検出部30にセンサを用いた場合の具体的な構成例を示す。
(a)は1個のセンサを用いる場合で、傾斜センサ123をHUDの設置位置の近傍に取り付ける。傾斜センサ123は地球の重力加速度を測定するもので、重力方向に対する車体の水平基準面の傾きを、2軸方向(左右方向(ロール方向)と前後方向(ピッチ方向))に検出するものとする。傾斜センサ123では路面に傾斜があるとそれを含めて検出するので、相対的な車体傾きの変化量を求めるのに適している。
(b)は複数のセンサを用いる場合で、車高センサ124を車体の前後位置に取り付ける。車高センサ124は、路面からの車体下面の高さを測定するもので、レーザ距離計や超音波距離計などが用いられる。複数の車高センサ124の測定値を比較することで、路面に対する車体の傾きを算出する。
(c)は複数のセンサを用いる場合で、荷重センサ119を車内の各シート位置に取り付ける。荷重センサ119で各シートにおける着座の有無を検出し、着座分布からおおよその車体の傾きを推定することができる。荷重センサ119の代わりにシートベルト装着センサでもよい。
(d)は複数のセンサを用いる場合で、荷重センサ119を車内の各シート位置やトランクルームに取り付ける。荷重センサ119で各位置の重量を測定し、車体に対する重量分布から車体の傾きを算出するものである。この方式は(c)の方式より検出精度が高くなる。
さらには傾き検出部30として、車外カメラ116を用いることも可能である。
さらには傾き検出部30として、車外カメラ116を用いることも可能である。
図7は、HUD回転部(表示装置回転部)32の構成の一例を示す図である。(a)は平面図、(b)は正面図、(c)は左側面図であり、x軸は車両幅方向、y軸は車両進行方向、z軸はHUDの投射方向である。
HUD回転部32の構成は、HUD100を枠状のホルダー71で支持し、ホルダー71をアーム機構72で支持する。アーム機構72は車体の基準面に取り付ける。ホルダー71には一対の回転モータ73を取り付け、HUD100をy軸の周りに回転可能としている。これにより、運転者から見た虚像の左右方向(x方向)の傾きをαだけ変えるようにしている。また、アーム機構72には一対の回転モータ74を取り付け、ホルダー71をx軸の周りに回転可能としている。これにより、HUD100を前後方向に傾け、運転者から見た虚像の上下方向の傾きをβだけ変えるようにしている。なお、虚像の上下方向の傾きの調整は、HUD100を傾けるのではなく、アーム機構72に設けた他の回転モータ75,76を回転させることでHUD100の高さ方向(z方向)の位置を移動させることでも可能である。
このように本実施例では、HUDの表示位置を補正するため、HUD回転部32によりHUDの姿勢を回転させる機構を採用している。そのため、HUDにより表示される虚像の内容には何ら変更することなく、運転者に正確な映像情報を提供することができる。
次に、車体傾きに対するHUDの補正処理の流れを説明する。まず、車両走行前の補正について、車体傾き検出のためセンサを用いる場合とカメラを用いる場合に分けて説明する。
図8Aは、車両走行前のHUD補正(センサ使用時)を示すフローチャートである。
S200:車両のエンジンを始動するとエンジン始動センサ109が検出し、以下の処理を開始する。
S200:車両のエンジンを始動するとエンジン始動センサ109が検出し、以下の処理を開始する。
S201:車両情報取得部5は、車両に取り付けたセンサで乗車前(および荷物積込み前)の車体傾きを取得し、これを初期値S0とする。ここで用いるセンサは、図6に示した傾斜センサ123、車高センサ124、荷重センサ119のいずれかであり、それぞれで取得される値は角度、距離、重量の値となる。乗車前なので車体は路面に平行な基準姿勢となり、HUD100の表示位置は運転者に対して最も見やすい基準位置となることが期待される(図5A)。もしも乗車前の表示位置が基準位置からずれていれば、見やすい位置となるよう別途HUDを調整すればよい。乗車前の車体傾きの検出値S0はセンサの種類によって路面の傾きの影響を受ける。傾斜センサ123では路面の傾きを含んで検出されるが、他の車高センサ124や荷重センサ119では路面の傾きは影響しない。
S202:車両に運転者・乗員が乗車し、荷物を積込む。
S203:センサで乗車後(積載後)の車体傾きを取得し、これをS1とする。前記図5B~図5D参照。
S203:センサで乗車後(積載後)の車体傾きを取得し、これをS1とする。前記図5B~図5D参照。
S204:HUD傾き調整部31は、センサで取得した車体傾きの初期値S0と乗車時S1の差分から、その変化量ΔS=S1-S0を算出する。このように車体傾きの変化量ΔSを求めるので、傾斜センサ123を用いる場合の路面の傾きの影響は相殺される。
S205:HUD傾き調整部31は、車体傾きの変化量ΔSに応じてHUD補正量α、βを算出する。図5B~図5Dに示したように、車体が左右に傾いたときは、これを回復させるようなHUD補正量αを、車体が前後に傾いたときは、これを回復させるようなHUD補正量βを算出する。センサが傾斜センサ123であれば、2軸方向の傾斜角の変化から補正量α、βを直接求めることができる。センサが車高センサ124や荷重センサ119の場合は、複数設置位置での距離や重量の変化を2軸方向の傾きの変化量に換算することで補正量α、βを算出する。
S206:HUD傾き調整部31で算出した補正量α、βに従い、HUD回転部32によりHUD100を回転調整する。すなわち図7に示したようにHUD100をy軸の周りに角度αだけ、x軸の周りに角度βだけ回転させる。これで、走行前のHUDの傾き調整を終了する。
S207:HUDの表示動作を開始し、運転動作に移行する。
S207:HUDの表示動作を開始し、運転動作に移行する。
このように走行前のHUD補正では、乗車前と乗車後の車体の傾きの変化量に応じてHUD補正量を決定するので、路面が傾斜していてもその影響を受けずに補正処理を行うことができる。これにより、運転者等が車両に乗車して車体の傾きが生じても、運転者から見て路面に対して見やすい姿勢と位置で虚像を表示することができる。
なお、S201における乗車前の車体傾きS0の取得では、車両製造時の車体情報が存在すれば、それを取得して初期値S0として用いることができる。例えば車体情報として製造時の車高データを所有していれば、それを利用すればよい。特に、製造時の車高データが車体と路面が平行であることを示すものであれば、初期値S0=0(傾きなし)ということであり、S201の乗車前の車体傾き取得工程を省略できる。
図8Bは、車両走行前のHUD補正(カメラ使用時)を示すフローチャートである。
S210:車両のエンジンを始動すると、以下の処理を開始する。
S210:車両のエンジンを始動すると、以下の処理を開始する。
S211:車両情報取得部5は、車両に取り付けた車外カメラ116で乗車前(および荷物積込み前)の車両前方の画像(前景画像)を取得し、これを初期値M0とする。
S212:車両に運転者・乗員が乗車し、荷物を積込む。
S213:車外カメラ116で乗車後(積載後)の前景画像を取得し、これをM1とする。乗車後(積載後)に車体が傾けば、前景画像M1は初期値M0に対し回転やずれが生じる。
S212:車両に運転者・乗員が乗車し、荷物を積込む。
S213:車外カメラ116で乗車後(積載後)の前景画像を取得し、これをM1とする。乗車後(積載後)に車体が傾けば、前景画像M1は初期値M0に対し回転やずれが生じる。
S214:HUD傾き調整部31は、車外カメラ116で取得した前景画像の初期値M0と乗車時M1の差分から、その変化量ΔM=M1-M0を算出する。例えばこの変化量ΔMは画像間の動きベクトル量である。
S215:HUD傾き調整部31は、前景画像の変化量ΔMを車体傾きの変化量ΔSに換算する。すなわち、画像の変化量(動きベクトル)ΔMを画像の回転成分と上下移動成分に分離したとき、回転成分は車体の左右方向(ロール方向)の傾きに、上下移動成分は車体の前後方向(ピッチ方向)の傾きに対応する。
S215:HUD傾き調整部31は、前景画像の変化量ΔMを車体傾きの変化量ΔSに換算する。すなわち、画像の変化量(動きベクトル)ΔMを画像の回転成分と上下移動成分に分離したとき、回転成分は車体の左右方向(ロール方向)の傾きに、上下移動成分は車体の前後方向(ピッチ方向)の傾きに対応する。
S216:HUD傾き調整部31は、車体傾きの変化量ΔSに応じてHUD補正量α、βを算出する。
S217:HUD傾き調整部31で算出した補正量α、βに従い、HUD回転部32によりHUD100を回転調整する。
S218:HUDの表示動作を開始し、運転動作に移行する。
このように、走行前のHUD補正をカメラを用いて行うこともできる。
S217:HUD傾き調整部31で算出した補正量α、βに従い、HUD回転部32によりHUD100を回転調整する。
S218:HUDの表示動作を開始し、運転動作に移行する。
このように、走行前のHUD補正をカメラを用いて行うこともできる。
次に、車両走行中の車体傾きに対するHUD追加補正について説明する。車両走行中には車体の動的バランスが変化して、走行前の静的な車体傾き状態からさらに変化する場合がある。例えば、(1)カーブ走行時に生じる遠心力による左右方向(ロール方向)の振れ(傾き)、(2)加減速時に生じる前後方向(ピッチ方向)の振れ(傾き)、(3)坂道走行時に生じる前後方向(ピッチ方向)の振れ(傾き)がある。ここではこのような走行に伴う動的な車体傾きに対してHUDの追加補正を行うものである。車体傾きの検出は、センサを用いる場合とセンサ以外の場合に分けて説明する。
図9Aは、車両走行中のHUD追加補正(センサ使用時)を示すフローチャートである。ここでは、走行前の傾き検出に用いたセンサを継続して使用する。
S300:運転者の指示により(または車両走行を検出し自動的に)、以下の補正処理を開始する。
S300:運転者の指示により(または車両走行を検出し自動的に)、以下の補正処理を開始する。
S301:車両情報取得部5は、車両に取り付けたセンサで走行中の車体傾きを取得し、これをS2とする。ここで用いるセンサは路面に対する傾きを検出するもので、図6に示した車高センサ124が適している。また、高感度の荷重センサ119によっても、乗員や荷物に働く遠心力によりセンサの受ける荷重が変化(減少)することで測定が可能である。なお、傾斜センサ123は走行中の路面の傾斜の影響を受けるので不適当である。
S302:HUD傾き調整部31は、センサで取得した走行前の車体傾きS1と走行中の車体傾きS2の差分から、その変化量ΔS’=S2-S1を算出する。ここで走行前の傾きS1は、図8AのS203で取得した値である。
S303:HUD傾き調整部31は、車体傾きの変化量ΔS’に応じてHUD追加補正量α’、β’を算出する。この追加補正量は、車両走行に伴う動的な車体傾きを左右方向にα’、前後方向にβ’だけ補正するものである。
S304:HUD傾き調整部31で算出した追加補正量α’、β’に従い、HUD回転部32によりHUD100を回転調整する。
S303:HUD傾き調整部31は、車体傾きの変化量ΔS’に応じてHUD追加補正量α’、β’を算出する。この追加補正量は、車両走行に伴う動的な車体傾きを左右方向にα’、前後方向にβ’だけ補正するものである。
S304:HUD傾き調整部31で算出した追加補正量α’、β’に従い、HUD回転部32によりHUD100を回転調整する。
S305:HUD追加補正を継続するか否か判定する。例えば、車両が走行中であれば継続し、停車中であれば中止する。
S306:継続する場合は、一定時間待機してからS301へ戻り、上記の補正を繰り返す。これは頻繁に補正することで運転者に不快感を与えないようにするためである。
S307:走行中のHUD追加補正処理を終了する。
S306:継続する場合は、一定時間待機してからS301へ戻り、上記の補正を繰り返す。これは頻繁に補正することで運転者に不快感を与えないようにするためである。
S307:走行中のHUD追加補正処理を終了する。
このように、車両走行中においても路面に対する車体傾きを検出してHUD追加補正を行うことで、走行中に動的な車体傾きが生じても、路面に対して見やすい位置に虚像を表示することができる。
図9Bは、車両走行中のHUD追加補正(センサ以外)を示すフローチャートである。走行中の車体傾き検出には、図8Bで用いたカメラによる前景画像を使用できないので、ここでは運転操作や走行状態を示す姿勢制御情報を用いる。
S310:運転者の指示により(または自動的に)、以下の補正処理を開始する。
S310:運転者の指示により(または自動的に)、以下の補正処理を開始する。
S311:車両情報取得部5は、車両に取り付けた各センサで姿勢制御情報を取得する。姿勢制御情報とは、走行中の車体の動的姿勢に影響する運転操作や走行状態を示す情報のことで、図3に示した車速センサ101、ハンドル操舵角センサ103、加速度センサ110、ジャイロセンサ111等により検出される情報である。
S312:姿勢制御情報から走行による車体傾きの変化量ΔS’を算出する。そのため、予め走行速度、加速度、操舵角、ヨー角などと車体の動的な傾きΔS’の関係を求め、不揮発性メモリ13に記憶しておく。
S313:HUD傾き調整部31は、車体傾きの変化量ΔS’に応じてHUD追加補正量α’、β’を算出する。
S314:HUD傾き調整部31で算出した追加補正量α’、β’に従い、HUD回転部32によりHUD100を回転調整する。
S313:HUD傾き調整部31は、車体傾きの変化量ΔS’に応じてHUD追加補正量α’、β’を算出する。
S314:HUD傾き調整部31で算出した追加補正量α’、β’に従い、HUD回転部32によりHUD100を回転調整する。
S315:HUD追加補正を継続するか否か判定する。
S316:継続する場合は、一定時間待機してからS311へ戻り、上記の補正を繰り返す。
S317:走行中の追加補正処理を終了する。
S316:継続する場合は、一定時間待機してからS311へ戻り、上記の補正を繰り返す。
S317:走行中の追加補正処理を終了する。
このように、運転操作や走行状態を示す姿勢制御情報から走行中に生じる動的な車体傾きを算出して、HUDの追加補正を行うこともできる。
図10A~図10Cは、HUD傾き補正による表示状態の例を示す図である。図10Aは車体傾きのない基準表示状態、図10Bは車体傾きが発生した状態、図10Cは傾き補正後の状態である。
図10Aの基準表示状態では、乗員や荷物がなく車体傾きは発生しない。この状態でHUD100の表示位置が基準位置になるよう、HUD100を車両に取り付ける。なお、HUD100の取り付け機構には、図7に示したHUD回転部32を用いている。車両前方に見える虚像の表示領域90は、外界の地平線(路面)99と平行な姿勢で表示される。この領域90を「基準表示領域」と呼ぶことにする。虚像内に示されるコンテンツ(例えば直進矢印95)は道路の進行方向に沿って見やすく表示される。
図10Bは、運転者81等が乗車したことで車体傾きが図5Dとなり、車体が右側(時計回り)に傾いた状態である。この状態ではHUD100も右側に傾くため、表示領域91は右側に傾いた状態となる。よって、虚像内の直進矢印95も右側にαだけ傾いて表示され、道路の進行方向からずれるので運転者81に対し違和感を与えることになる。
図10Cは、HUD回転により傾き補正を行った状態である。ホルダー71に設けた回転モータ73により、HUD100を車体傾きと反対方向(反時計方向)に-αだけ回転させる。これにより表示領域92は地平線99と平行な基準表示領域90の姿勢に戻り、虚像内の直進矢印95は道路の進行方向に沿った表示となる。
ここでは左右方向(ロール方向)の車体傾きに対する補正を説明したが、前後方向(ピッチ方向)の車体傾きの場合は、表示領域が基準表示領域90に対して上下方向にシフトして見えることになる。これに対しては、図7の回転モータ74によりHUD100を前後方向に回転させて、表示領域を上下方向に移動させればよい。また、走行中に動的な車体傾きが発生した場合においても全く同様である。
実施例1によれば、運転者等が車両に乗車して車体の傾きが生じた場合、あるいは車両が走行中に動的な車体傾きが生じた場合に、運転者に対する虚像の表示状態に変化が生じないようにHUDの姿勢を補正することで、路面に対して見やすい姿勢と位置で虚像を表示することができる。その際、HUDにより表示される虚像の内容には何ら変更が伴わないので、運転者に正確な映像情報を提供することができる。
実施例2では、車体傾きに伴うHUDの表示位置のずれを補正するため、HUDの姿勢は固定しておき、表示する虚像内のコンテンツ表示位置を補正することで実現する。
図11は、本実施例におけるHUD100の制御系の構成を示すブロック図である。実施例1(図2)の構成と異なる箇所について説明する。制御部10内において、新たにコンテンツ補正量算出部33を設けて歪み補正部16へ接続し、図2におけるHUD傾き調整部31とHUD回転部32(図7)をなくしている。
コンテンツ補正量算出部33は、映像信号に含まれる表示コンテンツ(例えば進行矢印や速度値など)の表示素子23上の表示位置を算出し、歪み補正部16に出力する。すなわちコンテンツ補正量算出部33は、傾き検出部30にて検出した車体傾き情報に基づいてコンテンツの表示位置の補正量を決定する。例えば、左右方向(ロール方向)の車体傾きαが存在するときはコンテンツを車体傾きと反対方向に-αだけ回転させ、前後方向(ピッチ方向)の車体傾きβが存在するときはコンテンツを車体傾きと反対方向(上下方向)にΔzだけ移動させる。移動量ΔzはHUDの投射距離と車体傾きβから決まる量である。また、コンテンツの回転に伴いコンテンツの中心位置が左右方向(x方向)にずれる場合があるので、必要に応じてコンテンツの左右方向の位置の調整(Δx)を加える。
歪み補正部16では、コンテンツ補正量算出部33からの補正量に従いコンテンツの表示位置を補正し、さらに表示する映像信号の歪みを補正して、補正後の映像信号を表示素子駆動部17に送る。その結果、表示される映像領域はそのままで、映像に含まれるコンテンツの傾きや位置が変更されることになる。
このように本実施例の構成では、HUDの回転機構は不要で、制御部10内での映像信号処理にて車体傾きに対する補正を行う。よって、HUDの回転機構に比べ映像信号処理による補正では、走行中の車体振動などの高速の車体傾き変化に対し、迅速に応答した補正を行うことができる。
図12は、本実施例におけるHUD補正を示すフローチャートである。ここでは、車両走行前の車体傾きをセンサで検出する場合について説明する。これは実施例1の図8Aのフローチャートに対応し、図8Aと共通のステップは簡単に説明する。
S400:車両のエンジンを始動すると、以下の処理を開始する。
S400:車両のエンジンを始動すると、以下の処理を開始する。
S401:車両情報取得部5は、車両に取り付けたセンサで乗車前(および荷物積込み前)の車体傾きを取得し、これを初期値S0とする。
S402:車両に運転者・乗員が乗車し、荷物を積込む。
S403:センサで乗車後(積載後)の車体傾きを取得し、これをS1とする。
S404:コンテンツ補正量算出部33は、センサで取得した車体傾きの初期値S0と乗車時S1の差分から、その変化量ΔS=S1-S0を算出する。
S402:車両に運転者・乗員が乗車し、荷物を積込む。
S403:センサで乗車後(積載後)の車体傾きを取得し、これをS1とする。
S404:コンテンツ補正量算出部33は、センサで取得した車体傾きの初期値S0と乗車時S1の差分から、その変化量ΔS=S1-S0を算出する。
S405:コンテンツ補正量算出部33は、車体傾きの変化量ΔSに応じてコンテンツ補正量α、Δzを算出する。ここに補正量αは、車体の左右方向(ロール方向)の傾きに対するコンテンツの回転角、補正量Δzは、車体の前後方向(ピッチ方向)の傾きに対するコンテンツの上下方向の移動量である。なお、補正量Δzは、表示素子23上での座標値に換算したもので、必要に応じて左右方向の移動量を含める。
S406:コンテンツ補正量算出部33で算出した補正量α、Δzに従い、歪み補正部16は映像信号内の各コンテンツの位置を補正する。すなわち各コンテンツを角度αだけ回転させ、上下方向にΔzだけ移動させる。表示素子駆動部17は、補正後の映像信号に基づいて表示素子23を駆動する。これで、走行前のHUD補正(コンテンツ位置補正)を終了する。
S407:HUDの表示動作を開始し、運転動作に移行する。
S407:HUDの表示動作を開始し、運転動作に移行する。
他の方式によるコンテンツ位置補正として、車体傾きをカメラで検出する場合は前記図8Bをベースに、走行中の追加補正は前記図9A,図9Bをベースに、上記S405、S406の工程で置き換えて実行すればよい。
図13は、コンテンツ位置補正後のHUD表示状態の例を示す図である。コンテンツ位置補正前の表示状態は前記図10A、図10Bと同様なので、図面を省略する。
車体傾きにより表示領域91は、図10Bのように右側(時計方向)に傾いた状態となる。これに対する補正では、表示領域93はそのまま傾いた領域91とし、虚像に含まれるコンテンツを車体傾きと反対方向(反時計方向)に-αだけ回転させる。例えば直進矢印95は符号96の位置まで回転させ、速度表示97についても同様に回転させる。これにより虚像内のコンテンツ(直進矢印96,速度表示97)は、道路の進行方向に沿って見やすい表示に補正される。
ここでは左右方向(ロール方向)の車体傾きに対する補正を説明したが、前後方向(ピッチ方向)の車体傾きの場合は、表示領域が基準表示領域90に対して上下方向にΔzだけシフトして見えることになる。これに対しては、虚像に含まれるコンテンツを車体傾きと反対方向(上下方向)に-Δzだけ移動させればよい。
実施例2においても、運転者等が車両に乗車して車体の傾きが生じた場合、あるいは車両が走行中に動的な車体傾きが生じた場合に、運転者に対するコンテンツの表示状態に変化が生じないようにコンテンツの表示位置を補正することで、路面に対して見やすい姿勢と位置でコンテンツを表示することができる。その際、映像信号処理により車体傾きの変化に対し迅速に応答できるので、特に車体振動などが生じる走行中の補正に好適である。
本発明は上記した各実施例に限定されるものではなく、以下のような様々な形態が可能である。
(1)各実施例の動作は、車体の傾きを自動的に検出して表示状態を自動的に補正するものであったが、勿論、運転者が虚像の表示状態を見ながら手動で調整する機能を追加することも可能である。
(2)車体の傾きの変化量の大きさや変化の速さに応じて、実施例1のHUD回転方式と、実施例2のコンテンツ位置補正方式とを適宜選択し、あるいは組み合わせることも可能である。例えば、変化量が大きい場合はHUD回転方式を選択し、変化が速い場合はコンテンツ位置補正方式を選択する。
(3)車体の前後方向(ピッチ方向)の傾きの変化に対し、HUDを前後方向に傾けて補正することを述べたが、HUDを上下方向に移動させて補正する構成や、ミラー駆動部4によりミラー3を回転・移動させて補正する構成も可能である。
(1)各実施例の動作は、車体の傾きを自動的に検出して表示状態を自動的に補正するものであったが、勿論、運転者が虚像の表示状態を見ながら手動で調整する機能を追加することも可能である。
(2)車体の傾きの変化量の大きさや変化の速さに応じて、実施例1のHUD回転方式と、実施例2のコンテンツ位置補正方式とを適宜選択し、あるいは組み合わせることも可能である。例えば、変化量が大きい場合はHUD回転方式を選択し、変化が速い場合はコンテンツ位置補正方式を選択する。
(3)車体の前後方向(ピッチ方向)の傾きの変化に対し、HUDを前後方向に傾けて補正することを述べたが、HUDを上下方向に移動させて補正する構成や、ミラー駆動部4によりミラー3を回転・移動させて補正する構成も可能である。
本発明は、実施例で述べたウィンドシールド投射型HUDに限らず、前方の風景と虚像を重ねて見せるコンバイナを一体化したコンバイナ型HUDにも適用可能である。
1:車両、
2:映像表示装置、
3:ミラー、
4:ミラー駆動部、
5:車両情報取得部、
6:スピーカ、
7:ウィンドシールド、
8:運転者の目、
9:虚像、
10:制御部、
11:電子制御ユニット(ECU)、
16:歪み補正部、
17:表示素子駆動部、
18:ミラー調整部、
21:光源、
23:表示素子、
30:傾き検出部、
31:HUD傾き調整部(表示装置傾き調整部)、
32:HUD回転部(表示装置回転部)、
33:コンテンツ補正量算出部、
50:車両情報、
71:ホルダー、
72:アーム機構、
73~76:回転モータ、
81:運転者、
90~93:表示領域、
95~97:表示コンテンツ、
100:車両用映像表示装置(ヘッドアップディスプレイ、HUD)、
116:車外カメラ、
119:荷重センサ、
123:傾斜センサ、
124:車高センサ。
2:映像表示装置、
3:ミラー、
4:ミラー駆動部、
5:車両情報取得部、
6:スピーカ、
7:ウィンドシールド、
8:運転者の目、
9:虚像、
10:制御部、
11:電子制御ユニット(ECU)、
16:歪み補正部、
17:表示素子駆動部、
18:ミラー調整部、
21:光源、
23:表示素子、
30:傾き検出部、
31:HUD傾き調整部(表示装置傾き調整部)、
32:HUD回転部(表示装置回転部)、
33:コンテンツ補正量算出部、
50:車両情報、
71:ホルダー、
72:アーム機構、
73~76:回転モータ、
81:運転者、
90~93:表示領域、
95~97:表示コンテンツ、
100:車両用映像表示装置(ヘッドアップディスプレイ、HUD)、
116:車外カメラ、
119:荷重センサ、
123:傾斜センサ、
124:車高センサ。
Claims (8)
- 車両用映像表示装置において、
車両に設置されたデバイスにより、車体の左右方向(ロール方向)および前後方向(ピッチ方向)の傾きを含む車両情報を取得する車両情報取得部と、
前記車両情報取得部が取得した前記車両情報に基づいて、運転者に対して表示する虚像の表示状態を制御する制御部と、
前記制御部からの指示に基づいて映像を生成する映像表示装置と、を備え、
前記制御部は、前記車両情報から前記車両が走行する路面に対する前記車体の左右方向(ロール方向)および/または前後方向(ピッチ方向)の傾きの変化量を算出し、該算出した変化量に基づいて、前記運転者に対する前記虚像の表示状態に変化が生じないように前記表示状態を補正することを特徴とする車両用映像表示装置。 - 請求項1に記載の車両用映像表示装置において、
前記制御部は前記車体の傾きの変化量として、前記車両に前記運転者と乗員が乗車せず荷物を積載しない状態と、前記運転者と乗員が乗車し荷物を積載した状態での、前記車体の傾きの変化量を算出することを特徴とする車両用映像表示装置。 - 請求項1に記載の車両用映像表示装置において、
前記制御部は前記車体の傾きの変化量として、前記車両が走行する前と前記車両が走行中との、前記車両が走行する路面に対する前記車体の傾きの変化量を算出することを特徴とする車両用映像表示装置。 - 請求項1に記載の車両用映像表示装置において、
前記デバイスは、重力方向に対する前記車体の傾きを検出する傾斜センサ、前記路面に対する前記車体の高さを検出する車高センサ、前記車両内のシートにかかる荷重を検出する荷重センサのいずれかであることを特徴とする車両用映像表示装置。 - 請求項2に記載の車両用映像表示装置において、
前記デバイスは前記車両の前景を撮影するカメラであり、
前記制御部は、前記カメラにより撮影された画像の変化量から前記車体の傾きの変化量を算出することを特徴とする車両用映像表示装置。 - 請求項3に記載の車両用映像表示装置において、
前記車両情報には、前記車両の運転操作や走行状態を示す姿勢制御情報が含まれ、
前記制御部は取得した前記姿勢制御情報から、前記車両が走行中の前記路面に対する前記車体の傾きの変化量を算出することを特徴とする車両用映像表示装置。 - 請求項1に記載の車両用映像表示装置において、
前記車両に搭載した当該車両用映像表示装置の姿勢を調整する表示装置回転部を備え、
前記制御部は前記算出した車体の傾きの変化量に応じて、前記表示装置回転部により、前記車両に対する当該車両用映像表示装置の左右方向(ロール方向)および/または前後方向(ピッチ方向)の傾きを補正することを特徴とする車両用映像表示装置。 - 請求項1に記載の車両用映像表示装置において、
前記制御部には、前記虚像内の表示コンテンツの表示位置の補正量を算出するコンテンツ補正量算出部を備え、
前記コンテンツ補正量算出部は、前記算出された車体の傾きの変化量に応じて前記表示コンテンツの表示位置の補正量を算出し、
前記制御部は、前記算出された補正量だけ前記表示コンテンツを回転および/または移動させて前記映像を補正することを特徴とする車両用映像表示装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-202497 | 2016-10-14 | ||
JP2016202497A JP2019217791A (ja) | 2016-10-14 | 2016-10-14 | 車両用映像表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018070252A1 true WO2018070252A1 (ja) | 2018-04-19 |
Family
ID=61905344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/035092 WO2018070252A1 (ja) | 2016-10-14 | 2017-09-28 | 車両用映像表示装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019217791A (ja) |
WO (1) | WO2018070252A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020012879A1 (ja) * | 2018-07-13 | 2020-01-16 | マクセル株式会社 | ヘッドアップディスプレイ |
EP3736178A1 (en) * | 2019-05-06 | 2020-11-11 | Aptiv Technologies Limited | Method and system for localizing an occupant within a vehicle |
WO2020224873A1 (de) * | 2019-05-08 | 2020-11-12 | Volkswagen Aktiengesellschaft | Verfahren zum betrieb eines kraftfahrzeugs |
JP2020187294A (ja) * | 2019-05-16 | 2020-11-19 | 株式会社デンソー | 車両の表示制御装置 |
WO2021020145A1 (ja) * | 2019-07-30 | 2021-02-04 | 株式会社デンソー | 表示制御装置 |
WO2021020385A1 (ja) * | 2019-07-30 | 2021-02-04 | 株式会社デンソー | 表示制御装置 |
CN112823101A (zh) * | 2018-10-23 | 2021-05-18 | 麦克赛尔株式会社 | 平视显示器系统 |
EP3835104A4 (en) * | 2018-08-09 | 2021-10-20 | Panasonic Intellectual Property Management Co., Ltd. | DISPLAY SYSTEM |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7339175B2 (ja) * | 2020-01-31 | 2023-09-05 | 矢崎エナジーシステム株式会社 | メータ調整装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0952555A (ja) * | 1995-08-11 | 1997-02-25 | Mitsubishi Electric Corp | 周辺監視装置 |
JP2008258778A (ja) * | 2007-04-02 | 2008-10-23 | Toyota Motor Corp | 撮像システム |
JP2015080988A (ja) * | 2013-10-22 | 2015-04-27 | 日本精機株式会社 | 車両情報投影システム及び投影装置 |
WO2016190135A1 (ja) * | 2015-05-28 | 2016-12-01 | 日本精機株式会社 | 車両用表示システム |
-
2016
- 2016-10-14 JP JP2016202497A patent/JP2019217791A/ja active Pending
-
2017
- 2017-09-28 WO PCT/JP2017/035092 patent/WO2018070252A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0952555A (ja) * | 1995-08-11 | 1997-02-25 | Mitsubishi Electric Corp | 周辺監視装置 |
JP2008258778A (ja) * | 2007-04-02 | 2008-10-23 | Toyota Motor Corp | 撮像システム |
JP2015080988A (ja) * | 2013-10-22 | 2015-04-27 | 日本精機株式会社 | 車両情報投影システム及び投影装置 |
WO2016190135A1 (ja) * | 2015-05-28 | 2016-12-01 | 日本精機株式会社 | 車両用表示システム |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020012879A1 (ja) * | 2018-07-13 | 2020-01-16 | マクセル株式会社 | ヘッドアップディスプレイ |
US12061336B2 (en) | 2018-07-13 | 2024-08-13 | Maxell, Ltd. | Head-up display |
US11719932B2 (en) | 2018-07-13 | 2023-08-08 | Maxell, Ltd. | Head-up display |
JPWO2020012879A1 (ja) * | 2018-07-13 | 2021-06-10 | マクセル株式会社 | ヘッドアップディスプレイ |
EP3835104A4 (en) * | 2018-08-09 | 2021-10-20 | Panasonic Intellectual Property Management Co., Ltd. | DISPLAY SYSTEM |
CN112823101A (zh) * | 2018-10-23 | 2021-05-18 | 麦克赛尔株式会社 | 平视显示器系统 |
EP3736178A1 (en) * | 2019-05-06 | 2020-11-11 | Aptiv Technologies Limited | Method and system for localizing an occupant within a vehicle |
US11414086B2 (en) | 2019-05-06 | 2022-08-16 | Aptiv Technologies Limited | Method and system for localizing an occupant within a vehicle |
WO2020224873A1 (de) * | 2019-05-08 | 2020-11-12 | Volkswagen Aktiengesellschaft | Verfahren zum betrieb eines kraftfahrzeugs |
JP2020187294A (ja) * | 2019-05-16 | 2020-11-19 | 株式会社デンソー | 車両の表示制御装置 |
WO2021020145A1 (ja) * | 2019-07-30 | 2021-02-04 | 株式会社デンソー | 表示制御装置 |
JP7057327B2 (ja) | 2019-07-30 | 2022-04-19 | 株式会社Soken | 表示制御装置 |
JP7063856B2 (ja) | 2019-07-30 | 2022-05-09 | 株式会社Soken | 表示制御装置 |
JP2021020626A (ja) * | 2019-07-30 | 2021-02-18 | 株式会社Soken | 表示制御装置 |
JP2021020625A (ja) * | 2019-07-30 | 2021-02-18 | 株式会社Soken | 表示制御装置 |
WO2021020385A1 (ja) * | 2019-07-30 | 2021-02-04 | 株式会社デンソー | 表示制御装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2019217791A (ja) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018070252A1 (ja) | 車両用映像表示装置 | |
US10769831B2 (en) | Head up display | |
CN110573369B (zh) | 平视显示器装置及其显示控制方法 | |
US11506906B2 (en) | Head-up display system | |
JP6731644B2 (ja) | 表示位置補正装置、表示位置補正装置を備える表示装置、及び表示装置を備える移動体 | |
JP5161760B2 (ja) | 車載用表示システム及び表示方法 | |
EP3330117B1 (en) | Vehicle display device | |
JP6655732B2 (ja) | ヘッドアップディスプレイシステム | |
JP6952899B2 (ja) | ヘッドアップディスプレイ | |
US20200333608A1 (en) | Display device, program, image processing method, display system, and moving body | |
CN114025983B (zh) | 显示控制装置及方法、图像显示系统、移动体、记录介质 | |
JP2014201197A (ja) | ヘッドアップディスプレイ装置 | |
JP7221161B2 (ja) | ヘッドアップディスプレイ及びそのキャリブレーション方法 | |
JP7450230B2 (ja) | 表示システム | |
WO2021020385A1 (ja) | 表示制御装置 | |
JPWO2019230198A1 (ja) | 位置調整装置およびそれを備えた投影システム | |
WO2020090187A1 (ja) | 虚像表示装置、およびヘッドアップディスプレイ装置 | |
CN110297325B (zh) | 增强现实眼镜和系统及增强现实眼镜显示车上信息的方法 | |
US11619811B2 (en) | Image display system, moving body, image display method, and program | |
WO2019074114A1 (en) | DISPLAY DEVICE, PROGRAM, IMAGE PROCESSING METHOD, DISPLAY SYSTEM, AND MOBILE BODY | |
JP7228761B2 (ja) | 画像表示システム、移動体、画像表示方法及びプログラム | |
KR20210016196A (ko) | 차량 및 차량의 제어방법 | |
JP2024080496A (ja) | 車両用撮影装置および光軸調整方法 | |
JP2024080481A (ja) | 車両用撮影装置および光軸調整方法 | |
JP2023066556A (ja) | ヘッドアップディスプレイ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17860239 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17860239 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |