WO2016190135A1 - 車両用表示システム - Google Patents

車両用表示システム Download PDF

Info

Publication number
WO2016190135A1
WO2016190135A1 PCT/JP2016/064323 JP2016064323W WO2016190135A1 WO 2016190135 A1 WO2016190135 A1 WO 2016190135A1 JP 2016064323 W JP2016064323 W JP 2016064323W WO 2016190135 A1 WO2016190135 A1 WO 2016190135A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
display
area
unit
notification target
Prior art date
Application number
PCT/JP2016/064323
Other languages
English (en)
French (fr)
Inventor
誠 秦
友也 倉石
彩子 山村
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Publication of WO2016190135A1 publication Critical patent/WO2016190135A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • B60K35/233Head-up displays [HUD] controlling the size or position in display areas of virtual images depending on the condition of the vehicle or the driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the present invention relates to a vehicle display system that displays a virtual image.
  • the vehicular display system for example, displays an overlay image on a landscape (real scene) in front of the host vehicle to add information or the like to the real scene or emphasize a predetermined part in the real scene (AR) : Augmented Reality), and a head-up display that contributes to safe and comfortable vehicle operation by accurately providing desired information while minimizing the line of sight movement of the user who drives the vehicle.
  • a landscape real scene
  • AR Augmented Reality
  • Patent Document 1 discloses a display device, and this display device projects a display image on a combiner to make a viewer visually recognize a virtual image.
  • the display device as disclosed in Patent Document 1 superimposes a virtual image such as an arrow indicating a guide route on a real scene (lane) in front of the vehicle, so that route guidance information and the like can be displayed without the viewer moving the line of sight greatly. Recognize.
  • the front side of the vehicle rises upward in the vertical direction, and the display area for displaying the virtual image of the head-up display deviates from the specific area of the actual scene.
  • a front detection unit that detects a notification target (such as a lane or a preceding vehicle) that superimposes a virtual image from a specific region of the real scene is provided, the detection region of the front detection unit and the specific region of the real scene are similarly shifted. May end up.
  • One object of the present invention is to provide a vehicle display system capable of maintaining a display for a specific area of a real scene even when the vehicle posture changes.
  • the vehicle display system is capable of detecting a predetermined notification target from a real scene in front of the vehicle, and generates a notification target position information related to the position of the notification target existing in a predetermined detection region;
  • An image display unit that displays a display image on a display surface; and a housing that houses the image display unit, and the display is performed at a position that maintains a predetermined positional relationship with the notification target based on the notification target position information.
  • a head-up display that generates a virtual virtual image area capable of displaying a virtual image of the image;
  • a vehicle attitude information acquisition unit that acquires vehicle attitude information including information related to the attitude of the vehicle;
  • a first angle adjustment unit that moves the detection region by adjusting an angle of the front detection unit;
  • a second angle adjustment unit that moves the virtual image region by adjusting the angle of the housing;
  • a first control unit configured to control the first angle adjustment unit based on the vehicle posture information and move the detection region so as to include a reference actual scene region as a reference among actual scenes in front of the vehicle;
  • the second angle adjustment unit is controlled based on the vehicle attitude information or the control amount information related to the control amount by which the first control unit controls the first angle adjustment unit, and includes the reference actual scene area.
  • a second control unit for moving the virtual image area.
  • the display can be maintained for the specific area of the actual scene.
  • FIG. 1 It is a figure which shows the example of a structure of the display system for vehicles of this invention. It is a figure which shows the example of a structure of the image display part shown by FIG. It is a figure which shows the example of a structure of the control part shown by FIG. It is a figure explaining the positional relationship of the detection area and reference
  • FIG. 1 is a diagram illustrating a process of correction processing executed by the head-up display shown in FIG. 1, and the left diagrams of (a) to (d) are detection of a real scene and a front detection unit in an XY plane in real space.
  • FIG. 4 is a diagram showing a positional relationship between a possible region and a detection region, and the right diagrams in (a) to (d) show a real scene in an XY plane in real space and a virtual virtual image region generated by a head-up display. It is the figure which showed these positional relationships.
  • the configuration of the vehicle display system 1 according to the present invention, the configuration of a head-up display (hereinafter referred to as HUD) 100, and a virtual virtual image area 200 generated by the HUD 100 will be described.
  • HUD head-up display
  • the left-right direction when facing the front of the vehicle 2 is defined as the X axis (the right direction is the X axis positive direction).
  • the vertical direction is defined as the Y axis (the upper side in the vertical direction is the positive direction of the Y axis), and the front-rear direction is defined as the Z axis (the forward direction is the positive direction of the Z axis).
  • the vehicle display system 1 of the present embodiment includes a HUD 100, a front detection unit 300, a first actuator 400, a second actuator 500, and a vehicle attitude detection unit 600.
  • the HUD 100 is mounted on a vehicle (one application example of a moving body) 2.
  • the HUD 100 projects image light K such as vehicle information on a part of a front windshield (an example of a transmission / reflection part) 2 a of the vehicle 2.
  • the front windshield 2a reflects the image light K toward the eye box E on the viewer (mainly driver) side.
  • the viewer can visually recognize the virtual image 201 in the virtual image region 200 virtually generated forward through the front windshield 2a by placing the viewpoint (position of the viewer's eyes) in the eye box E. it can.
  • the virtual image 201 is viewed from the eye box E (viewpoint position) in the forward direction (the traveling direction of the vehicle 2), for example, at a position of 5 m to 10 m.
  • the eye box E viewpoint position
  • image light that includes a plurality of image display units 10 to be described later and / or is emitted from the image display unit 10 based on a relay optical system 20 to be described later.
  • a plurality of virtual image areas 200 having different distances from the eye box E may be generated by using a known technique such as adjusting the K imaging distance, and the virtual image 201 may be displayed on each virtual image area 200. .
  • the vehicle 2 in FIG. 1 is equipped with a front detection unit 300 that detects a notification target W to be notified to a viewer, such as a lane, white line, stop line, pedestrian, preceding vehicle, obstacle, etc. in front of the vehicle 2.
  • ing. 1 includes, for example, an imaging unit (not shown) that captures an actual scene 3 in front of the vehicle 2 and an image analysis unit (not illustrated) that analyzes a forward captured image (forward information) captured by the imaging unit.
  • the imaging unit is, for example, a monocular or compound eye visible light camera or an infrared camera, and the image analysis unit is, for example, a captured image captured by the imaging unit using a known image processing, pattern matching method, or the like.
  • the front detection unit 300 has a predetermined detectable area 310 and can detect the notification target W in the actual scene 3 included in the detectable area 310.
  • the front detection unit 300 has a predetermined detection area 320 that is narrower than the detectable area 310 in the detectable area 310.
  • the detection area 320 is set so as to include a reference actual scene area 3r which is a specific area in the actual scene 3.
  • the front detection unit 300 uses the position of the notification target W existing in the actual scene 3 (reference actual scene region 3r) included in the detection area 320 as notification target position information (hereinafter also referred to as notification target position) WP HUD100 (control unit 30). ).
  • the notification target position information WP is constituted at least by, for example, coordinates in the X-axis direction along the left-right direction of the vehicle 2 and coordinates in the Y-axis direction along the vertical direction.
  • the notification target position information WP specifically indicates the position of the notification target W using, for example, an X coordinate and a Y coordinate with a predetermined reference point O in the detection area 320 as a reference.
  • the reference point O of the coordinates indicating the position of the notification target W in the notification target position information WP may not be in the detection area 320 but may be a predetermined position in the detectable area 310, for example.
  • the position of the reference actual scene area 3r that is the target for generating the notification target position information WP may be a preset invariant position or may be automatically set based on a predetermined condition. Also, the viewer may be able to adjust as appropriate.
  • the front detection unit 300 may include a laser radar, a millimeter wave radar, an ultrasonic sensor, other known sensors, and the like in addition to the visible light camera and the infrared camera described above. At this time, the front detection unit 300 receives and analyzes the front information output from the laser radar, millimeter wave radar, ultrasonic sensor, other known sensors, etc., so that the notification target position information WP as described above is obtained. It may be generated. Further, the front detection unit 300 may generate the notification target position information WP as described above by using a plurality of types of cameras and sensors as described above and combining and analyzing data output from these.
  • the vehicle 2 in FIG. 1 includes a first actuator 400 (of the first angle adjustment unit) that adjusts the position of the detection region 320 by rotating, rotating, and moving the front detection unit 300 (imaging unit).
  • a first actuator 400 (of the first angle adjustment unit) that adjusts the position of the detection region 320 by rotating, rotating, and moving the front detection unit 300 (imaging unit).
  • rotating or rotating and moving the front detection unit 300 is also simply referred to as adjusting the angle of the front detection unit 300.
  • the first actuator 400 is, for example, a drive unit (not shown) composed of a DC motor, a stepping motor, etc., and a drive that transmits the power from the drive unit to the front detection unit 300 and adjusts the angle of the front detection unit 300.
  • a mechanism (not shown).
  • the first actuator 400 is controlled based on first drive data T1 from the control unit 30 described later.
  • the position of the virtual image region 200 is adjusted by changing the angle of the image light K directed to the front windshield 2 a by rotating or rotating and moving the housing 40 of the HUD 100.
  • a second actuator 500 (an example of a second angle adjustment unit) is mounted.
  • rotating or rotating and moving the housing 40 is also simply referred to as adjusting the angle of the housing 40.
  • the second actuator 500 includes, for example, a drive unit (not shown) composed of a DC motor, a stepping motor, and the like, and a drive mechanism that transmits power from the drive unit to the housing 40 and adjusts the angle of the housing 40 ( (Not shown).
  • the second actuator 500 is controlled based on second drive data T2 from the control unit 30 described later.
  • the vehicle attitude detection unit 600 that detects the attitude of the vehicle 2.
  • the vehicle posture detection unit 600 analyzes, for example, a three-axis acceleration sensor (not shown) and the three-axis acceleration detected by the three-axis acceleration sensor, so that the pitch angle (vehicle posture) of the vehicle 2 with respect to the horizontal plane is used.
  • vehicle attitude information G including information related to the pitch angle of the vehicle 2 is output to the HUD 100 (control unit 30).
  • the vehicle attitude detection unit 600 may be configured by a height sensor (not shown) disposed in the vicinity of the suspension of the vehicle 2 in addition to the above-described triaxial acceleration sensor.
  • the vehicle posture detection unit 600 estimates the pitch angle of the vehicle 2 as described above by analyzing the height of the vehicle 2 from the ground detected by the height sensor, and information on the pitch angle of the vehicle 2. Is output to the HUD 100 (control unit 30). Note that the method by which the vehicle attitude detection unit 600 obtains the pitch angle of the vehicle 2 is not limited to the method described above, and the pitch angle of the vehicle 2 may be obtained using a known sensor or analysis method. Further, the vehicle posture detection unit 600 may output vehicle posture information G including information on the height of the vehicle 2 from the ground in addition to the pitch angle of the vehicle 2 to the HUD 100. Part or all of the vehicle posture detection unit 600 may be provided outside the vehicle display system 1.
  • the HUD 100 includes an image display unit 10, a relay optical system 20, a control unit 30, and a housing 40, for example.
  • the HUD 100 is generally housed in the dashboard of the vehicle 2, but all or part of the image display unit 10, the relay optical system 20, the control unit 30, and the housing 40 are arranged outside the dashboard. Also good.
  • the HUD 100 (control unit 30) is connected to a bus 4 including an in-vehicle LAN (Local Area Network) mounted on the vehicle 2, and part or all of vehicle information can be input from the bus 4.
  • LAN Local Area Network
  • FIG. 2 is a diagram showing an example of the configuration of the image display unit 10 shown in FIG.
  • the left-right direction of the display surface 11 is the dx axis (the right direction is the dx axis positive direction).
  • the vertical direction is defined as the dy axis (the upward direction is the positive direction of the dy axis).
  • the dx-axis positive direction on the display surface 11 shown in FIG. 2 corresponds to, for example, the X-axis positive direction in the real space of FIG.
  • the relationship between the real space in FIG. 1 and the positive X-axis direction and / or the positive Y-axis direction may be reversed.
  • the image display unit 10 displays the display image 12 on the display surface 11 based on the display surface 11 that displays the display image 12 and the image data D that is generated by the control unit 30 described later. And a drive circuit that does not.
  • the image data D includes display position information (hereinafter also referred to as a display position) Q regarding the position where the display image 12 is displayed.
  • the display position information Q is composed at least of, for example, coordinates in the left and right dx-axis directions of the display surface 11 and coordinates in the up and down dy-axis directions.
  • the image light K emitted from the display surface 11 of the image display unit 10 is guided to the front windshield 2a by the relay optical system 20, and the virtual image 201 is displayed by the image light K reflected by the front windshield 2a toward the viewer side.
  • a possible virtual image area 200 is generated.
  • the display image 12 displayed on the display surface 11 is displayed as a virtual image 201 on the virtual image region 200. That is, the image display unit 10 changes the coordinates in the dx-axis direction and the coordinates in the dy-axis direction where the display image 12 on the display surface 11 is displayed based on the display position information Q included in the image data D.
  • the coordinates in the X-axis direction and the coordinates in the Y-axis direction in the real space where the virtual image 201 on the virtual image area 200 is visually recognized can be adjusted.
  • the image display unit 10 includes, for example, a transmissive display panel such as a liquid crystal display element, a self-luminous display panel such as an organic EL element, a reflective display panel such as DMD or LCoS (registered trademark), laser light, and the like.
  • a scanning display device or the like that scans can be applied.
  • the relay optical system 20 includes a reflective optical system such as a plane mirror, a curved mirror, and a free curved mirror, a transmissive and refractive optical system such as a curved lens and a free curved lens, and a semi-transmissive optical system such as a half mirror. System etc. are applicable.
  • the relay optical system 20 typically has a function of expanding the image light K generated by the image display unit 10, a function of correcting the distortion of the front windshield 2 a and visually recognizing the virtual image 201 without distortion, and the visual recognition of the virtual image 201.
  • the image display unit 10 and the relay optical system 20 are illustrated one by one, but a plurality of each may be provided.
  • casing 40 accommodates each member which comprises HUD100, and is provided in hook shape from hard resin.
  • An opening (not shown) having a size capable of emitting the image light K guided by the relay optical system 20 toward the windshield 3 is provided above the housing 40, and the opening is made of a transparent resin.
  • a cover glass (not shown) is attached.
  • FIG. 3 shows a schematic configuration example of the control unit 30 of FIG.
  • the control unit 30 includes, for example, a processing unit 31, a storage unit 32, and an interface 33.
  • the processing unit 31 is configured by, for example, a CPU and a RAM
  • the storage unit 32 is configured by, for example, a ROM
  • the interface 33 is configured by an input / output communication interface connected to the bus 4.
  • the interface 33 can acquire vehicle information, notification target position information WP, vehicle posture information G, and the like, which will be described later, via the bus 4, and the storage unit 32 performs an image based on the input notification target position information WP.
  • Data for generating the data D can be stored, and the processing unit 31 can generate the image data D by reading the data from the storage unit 32 and executing a predetermined operation.
  • the interface 33 can acquire vehicle posture information G including information related to the posture of the vehicle 2 from the vehicle posture detection unit 600 via the bus 4, for example, and also functions as a vehicle posture information acquisition unit of the present invention. Have. Further, the interface 33 can acquire vehicle speed information (an example of travel information) via the bus 4 and also has a function as a travel information acquisition unit of the present invention.
  • the control unit 30 also has a function as a first control unit of the present invention that controls the first actuator 400.
  • the control unit 30 also has a function as a second control unit of the present invention that controls the second actuator 500.
  • Control unit 30 may be inside HUD 100, and a part or all of the functions may be provided on the vehicle 2 side outside HUD 100.
  • FIG. 4 is a diagram for explaining a state in which the position of the detection region 320 of the front detection unit 300 with respect to the actual scene 3 is shifted from the inclination of the vehicle 2 in the conventional vehicle display system.
  • the detection area 320 is arranged so as to overlap the reference real scene area 3 r of the real scene 3.
  • the front of the vehicle 2 is inclined upward in the vertical direction due to, for example, a large amount of luggage being loaded in the luggage compartment of the vehicle 2, as shown in FIG.
  • the detection area 320 of the part 300 is shifted from the reference actual scene area 3r of the actual scene 3 to the upper side in the vertical direction.
  • the front detection unit 300 normally tilts the vehicle 2 even though the notification target position information WP of the notification target W existing in the reference actual scene area 3r of the actual scene 3 is output to the HUD 100.
  • the notification target position information WP of the notification target W existing in the reference actual scene area 3r of the actual scene 3 may not be output to the HUD 100. That is, depending on the attitude of the vehicle 2, the HUD 100 may not be able to display the virtual image 201 with respect to the notification target W existing in the reference actual scene area 3 r of the actual scene 3.
  • FIG. 5 is a diagram for explaining a state in which the position of the virtual image region 200 with respect to the real scene 3 is shifted due to the inclination of the vehicle 2 in the conventional HUD.
  • the virtual image area 200 is arranged so as to overlap the reference real scene area 3r of the real scene 3.
  • the virtual image area 200 is shifted from the reference real scene area 3r of the real scene 3 to the upper side in the vertical direction. That is, the position of the real scene 3 where the virtual image area 200 overlaps changes due to the inclination of the vehicle 2.
  • the HUD 100 normally displays the reference of the real scene 3 when the vehicle 2 is tilted even though the virtual image 201 can be displayed with respect to the notification target W existing in the reference real scene area 3r of the real scene 3. There is a possibility that the virtual image 201 cannot be displayed on the notification target W existing in the real scene area 3r.
  • the vehicle display system 1 displays the virtual image 201 superimposed on the reference real scene area 3r of the real scene 3 even when the vehicle posture changes by executing the correction process described below. It becomes possible to do.
  • FIG. 6 is a flowchart illustrating an example of correction processing executed by the vehicle display system 1.
  • the correction processing of the vehicle display system 1 is performed, for example, when the vehicle 2 is activated, when electric power is supplied to the electronic device of the vehicle 2, or when the vehicle 2 is activated or the electric power of the electronic device of the vehicle 2 is This is started when a predetermined time has elapsed from the supply and when the vehicle 2 is not in a running state.
  • the control unit 30 acquires the vehicle speed information (travel information) of the vehicle 2 from the bus 4 through the interface 33, and if the vehicle speed information is not input or the vehicle speed information is 0 km / h, the vehicle 2 Is not in the running state, and the correction process is started.
  • vehicle speed information travel information
  • step S01 the control unit 30 acquires vehicle posture information G including information related to the vehicle posture of the vehicle 2 from the vehicle posture detection unit 600.
  • step S02 the control unit 30 determines first drive data T1 (control amount information) including the drive amount of the first actuator 400 corresponding to the vehicle attitude information G acquired in step S01, and this first The first actuator 400 is driven based on the drive data T1.
  • the control unit 30 reads the table data stored in advance in the storage unit 32, determines the first drive data T1 corresponding to the vehicle attitude information G acquired in step S01, and determines the determined first The angle of the front detection unit 300 is adjusted by driving the first actuator 400 based on the drive data T1, and the detection area 320 of the front detection unit 300 is moved to the position of the reference real scene area 3r of the real scene 3.
  • the control unit 30 may obtain the first drive data T1 from the vehicle attitude information G by calculation using a preset calculation formula.
  • step S03 the control unit 30 performs second drive data T2 including the drive amount of the second actuator 500 based on the vehicle attitude information G acquired in step S01 or the first drive data T1 determined in S02. And the second actuator 500 is driven based on the second drive data T2.
  • the control unit 30 reads the table data stored in advance in the storage unit 32, and performs the second drive corresponding to the first drive data T1 determined in the vehicle attitude information G or S02 acquired in step S01.
  • the data T2 is determined, and the angle of the housing 40 of the HUD 100 is adjusted by driving the second actuator 500 based on the determined second drive data T2, and the virtual image area 200 of the HUD 100 is used as the reference actual scene area of the actual scene 3. Move to a position including 3r.
  • step S03 the control unit 30 may obtain the second drive data T2 from the vehicle attitude information G or the first drive data T1 by calculation using a preset calculation formula. Further, the inclination of the front detection unit 300 and the inclination of the housing 40 with respect to the change in the posture of the vehicle 2 may be regarded as substantially the same, and the first drive data T1 may be set as the second drive data T2. In this case, the data amount of the storage unit 32 can be reduced.
  • step S02 and step S03 do not necessarily need to be in this order, and the order may be switched or may be executed simultaneously.
  • step S04 the control unit 30 determines the distortion correction parameter P based on the second drive data T2 determined in step S03, and temporarily stores the distortion correction parameter P in the RAM of the processing unit 31.
  • the distortion correction parameter P is in a direction opposite to the distortion caused by the front windshield 2a in order to correct the distortion of the virtual image 201 caused by the movement of the location where the image light K is projected on the front windshield 2a due to the rotation of the housing 40. This is a parameter for distorting the display image 12 in advance.
  • the control unit 30 reads a data table stored in advance in the storage unit 32, determines a distortion correction parameter P corresponding to the second drive data T2, and processes the determined distortion correction parameter P to the processing unit 31. Temporarily stored in the RAM.
  • the control unit 30 may obtain the distortion correction parameter P from the second drive data T2 by calculation using a preset calculation formula.
  • step S02 the front detection unit 300 detects the notification target W and outputs the position of the detection region 320 to be output as the notification target position information WP by using the first actuator 400.
  • the position of the actual scene 3 is set so as to overlap the reference actual scene area 3r.
  • the front detection unit 300 can output notification target position information WP indicating the position of the notification target W existing in the reference actual scene area 3r to the HUD 100.
  • step S03 the HUD 100 adjusts the position of the virtual image area 200 where the virtual image 201 can be displayed to a position including the reference real scene area 3r of the real scene 3 by adjusting the angle of the housing 40 using the second actuator 500. Set. Thereby, the HUD 100 can display the virtual image 201 at a position corresponding to the notification target W existing in the reference real scene area 3r of the real scene 3.
  • FIG. 7 is a flowchart showing an example of display processing executed by the vehicle display system 1.
  • the display process of the vehicle display system 1 is started after the correction process is completed, for example. That is, in the vehicle display system 1, the image display unit 10 does not display the display image 12 on the display surface 11 while the detection area 320 and the virtual image area 200 are moved by the correction process.
  • step S11 the front detection unit 300 (imaging unit) images the real scene 3 in front of the vehicle 2.
  • step S ⁇ b> 12 the front detection unit 300 (image analysis unit) analyzes the front captured image captured by the imaging unit, and determines whether the notification target W exists in the detection region 320.
  • the front detection unit 300 When the notification target W does not exist in the detection area 320 (No in step S12), the front detection unit 300 returns to step S11 and images the real scene 3 in front of the vehicle 2 again.
  • the front detection unit 300 In step S13, the front detection unit 300 generates notification target position information WP including information on the position of the notification target W in the detection area 320. And output to the HUD 100 (control unit 30). Note that the imaging of the actual scene 3 in front of the vehicle 2 in step S11, the determination of the presence or absence of the notification target W in step S12, and the generation and output of the notification target position information WP in step S13 are continuous while the vehicle 2 is activated.
  • the forward detection unit 300 immediately generates and outputs the notification target position information WP every time the presence of the notification target W is confirmed in the detection area 320.
  • step S ⁇ b> 14 the control unit 30 inputs the notification target position information WP from the front detection unit 300.
  • step S15 the control unit 30 generates image data D so as to display the display image 12 at the display position Q of the display surface 11 based on the input notification target position information WP.
  • the control unit 30 corrects the image data D with the distortion correction parameter P determined in step S04 of the correction process.
  • step S ⁇ b> 16 the image display unit 10 displays a desired display image 12 at the display position Q on the display surface 11 based on the image data D generated by the control unit 30. Accordingly, the HUD 100 can display the virtual image 201 at a position corresponding to the position of the notification target W existing in the reference real scene area 3r of the real scene 3.
  • FIG. 8 shows the process of the correction process from (a) to (d), and the left diagrams in (a) to (d) show the real scene 3 and the front detection unit 300 in the XY plane in real space.
  • the right diagrams in (a) to (d) are virtual views generated by the real scene 3 and the HUD 100 in the XY plane in real space. It is the figure which showed the positional relationship with the virtual image area
  • FIG. 8A shows a case where the vehicle posture of the vehicle 2 is not tilted.
  • the detection area 320 of the front detection unit 300 overlaps the reference real scene area 3r of the real scene 3, and the virtual image area 200 of the HUD 100 is the same.
  • the reference scene area 3r of the actual scene 3 is included.
  • the front detection unit 300 includes notification target position information WP1 (Xa, X) indicating the position of the notification target W with reference to the reference point O in the detection region 320. Ya) is generated and output to the control unit 30 of the HUD 100.
  • the control unit 30 displays the display image 12 at the display position Q1 (xa, ya) on the display surface 11 based on the notification target position information WP1, so that the notification target W existing in the reference actual scene area 3r of the actual scene 3 is displayed.
  • the virtual image 201 can be displayed at the corresponding position.
  • FIG. 8B shows a case where the vehicle posture of the vehicle 2 is tilted.
  • the detection area 320 of the front detection unit 300 is shifted to the upper side in the vertical direction of the reference real scene area 3r of the real scene 3, and the virtual image area 200 of the HUD 100 Is shifted to the upper side in the vertical direction of the reference actual scene area 3r of the actual scene 3.
  • the front detection unit 300 has the notification target position information WP2 (Xa, X) indicating the position of the notification target W because the notification target W is outside the detection region 320.
  • Yb) is not output to the control unit 30 of the HUD 100. Therefore, the HUD 100 cannot display the virtual image 201 at a position corresponding to the notification target W.
  • step S02 of the correction process shown in FIG. 6 the vehicle display system 1 executes step S02 of the correction process shown in FIG. 6 and drives the first actuator 400 to adjust the angle of the front detection unit 300 (imaging unit).
  • the state when the detection area 320 of the front detection unit 300 is moved to a position overlapping the reference real scene area 3r of the real scene 3 is shown.
  • the control unit 30 adjusts the angle of the front detection unit 300 to move the detection region 320 of the front detection unit 300 to a position overlapping the reference real scene region 3r. Then, in the front detection unit 300, the coordinates of the notification target W with reference to the reference point O change.
  • the notification target position information WP generated by the front detection unit 300 is shifted by, for example, ⁇ in the vertical direction (Y-axis direction) from the position of the notification target position WP2 (Xa, Yb) illustrated in FIG.
  • the notification target position WP3 (Xa, Yb + ⁇ ) is changed. Therefore, there is a deviation in the correspondence between the notification target position information WP output from the front detection unit 300 and the display position information Q at which the image display unit 10 displays the display image 12.
  • the image display unit 10 HUD 100
  • the display image 12 (virtual image 201) is displayed.
  • FIG. 8D shows that the vehicle display system 1 executes step S03 of the correction process shown in FIG. 6 and adjusts the angle of the housing 40 by driving the second actuator 500, so that the virtual image area of the HUD 100 is obtained.
  • a state in which 200 is moved to a position including the reference actual scene area 3r of the actual scene 3 is shown.
  • the controller 30 moves the virtual image area 200 of the HUD 100 to a position including the reference real scene area 3r by adjusting the angle of the housing 40 in step S03 of the correction process.
  • the display position on the display surface 11 based on the notification target position information WP output from the front detection unit 300 changes.
  • the display position Q3 (xa, The display position Q4 (xa, yb) is changed by subtracting the shift amount ⁇ accompanying the angle adjustment of the front detection unit 300 from yb + ⁇ ). Therefore, the shift in the correspondence between the notification target position information WP output from the front detection unit 300 and the display position information Q on which the image display unit 10 displays the display image 12 is eliminated.
  • the control unit 30 displays the display image 12 at the display position Q4 (xa, yb) on the display surface 11 based on the notification target position information WP3, so that the notification target W existing in the reference actual scene area 3r of the actual scene 3 is displayed.
  • the virtual image 201 can be displayed at the corresponding position.
  • the control unit 30 performs the second correction in step S03 in the correction process. Coordinate correction data is generated based on the drive data T2, and in the display process, the notification position information WP is corrected based on the coordinate correction data, and the deviation in the correspondence between the correction target position information WP and the display position information Q is corrected. It is desirable to eliminate it.
  • the vehicle display system 1 can detect the predetermined notification target W from the actual scene 3 in front of the vehicle 2 and relates to the position of the notification target W existing in the predetermined detection region 320.
  • the front detection unit 300 that generates the notification target position information WP
  • the image display unit 10 that displays the display image 12 on the display surface 11, and the housing 40 that houses the image display unit 10
  • the notification target position information HUD 100 that generates a virtual virtual image area 200 that can display the virtual image 201 of the display image 12 at a position that maintains a predetermined positional relationship with the notification target W based on the WP
  • vehicle posture information G that includes information about the posture of the vehicle 2
  • the first actuator 400 (first angle) that moves the detection region 320 by adjusting the angle of the interface 33 (vehicle posture information acquisition means) that acquires the angle and the front detection unit 300 An adjustment unit), a second actuator 500 (second angle adjustment unit) that moves the virtual image region 200 by adjusting the angle of the housing 40, and the first actuator 400 based on
  • control unit 30 that moves the detection region 320 so as to include the reference actual scene region 3r of the actual scene 3 in front of the vehicle 2 and the vehicle attitude information G or the control unit 30 are the first
  • the control unit 30 controls the second actuator 500 based on the first drive data T1 (control amount information) related to the control amount for controlling one actuator 400, and moves the virtual image region 200 so as to include the reference real scene region 3r.
  • the position of the detection area 320 of the front detection unit 300 can be adjusted to a position including the reference actual scene area 3r of the actual scene 3, and the reference actual scene area 3r of the actual scene 3 can be adjusted regardless of the vehicle posture of the vehicle 2.
  • the notification target position information WP relating to the position of the existing notification target W can always be output to the HUD 100. Then, the position of the virtual image area 200 of the HUD 100 can be adjusted to a position including the reference actual scene area 3r of the actual scene 3, and the notification object W existing in the reference actual scene area 3r of the actual scene 3 regardless of the vehicle posture of the vehicle 2
  • the virtual image 201 can be accurately displayed at a position that maintains a predetermined positional relationship. Note that the virtual image 201 does not necessarily need to be displayed at a position where the virtual object 201 is visually recognized by being overlapped with the notification target W, and is viewed at a position away from the notification target W where the relative positional relationship with the notification target W is maintained. May be displayed.
  • the vehicle display system 1 further includes an interface 33 (travel information acquisition unit) that acquires vehicle speed information (travel information) indicating the travel state of the vehicle 2, and the control unit 30 uses the vehicle speed information acquired by the interface 33.
  • the first and second actuators 400 and 500 are controlled to move the detection area 320 and the virtual image area 200.
  • correction of the detection area 320 and the virtual image area 200 is not executed while the vehicle 2 is traveling, so that the viewer does not feel uncomfortable while traveling.
  • the detection area 320 and the virtual image area 200 are corrected when the vehicle 2 is stopped, the vehicle posture information G of the vehicle 2 can be accurately detected, and the detection area 320 and the virtual image area are corrected. Can be performed with high accuracy.
  • the image display unit 10 does not display the display image 12 on the display surface 11 while the detection area 320 and the virtual image area 200 are moving.
  • the virtual image 201 is not visually recognized by the viewer during the correction processing of the detection area 320 and the virtual image area 200, so that the viewer does not feel uncomfortable.
  • the notification target position information WP may include relative position information of the notification target W in the detection area 320. Since the notification target position information WP can be expressed by a small number of coordinates in the detection area 320, the load on the control unit 30 that processes the notification target position information WP can be reduced.
  • the HUD 100 is a third actuator (third angle) that adjusts the angle of the relay optical system 20 for the purpose of finely adjusting the position of the virtual image region 200 by the operation of the viewer. (Adjustment part) may be provided.
  • the third actuator is controlled by the control unit 30 (third control unit) and adjusts the position of the virtual image region 200 by rotating the relay optical system 20 (for example, a concave mirror).
  • the control unit 30 third control unit
  • the relay optical system 20 for example, a concave mirror.
  • the present invention can be applied to a vehicle display system that displays a virtual image.
  • SYMBOLS 1 Display system for vehicles, 2 ... Vehicle, 2a ... Front windshield (transmission reflection part), 3 ... Real scene, 3r ... Reference
  • first actuator first angle adjustment unit 500
  • second actuator second angle adjustment unit
  • vehicle attitude detection unit D
  • image data E
  • eye box G
  • vehicle attitude information K
  • image light Q
  • display position information Display position
  • T1 first drive data (control amount information)
  • T2 second driving data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

車両姿勢が変化した場合であっても、実景の特定の領域に対して表示を維持することができる。 車両姿勢情報に基づき、第1のアクチュエータ400によって前方検出部300の角度を調整し、前方検出部300が報知対象Wの位置に関する情報をHUD100に出力する範囲である検出領域320の位置を実景3の所定の基準実景領域3rを含むように移動させる。さらに、車両姿勢情報あるいは第1のアクチュエータ400を制御する制御量に関する第1の駆動データに基づき、第2のアクチュエータ500によってHUD100の筐体40の角度を調整し、車両2の姿勢変化あるいは虚像201が報知対象Wと所定の位置関係を保つ位置に表示可能な仮想的な虚像領域200の位置を基準実景領域3rを含むように移動させる。

Description

車両用表示システム
 本発明は、虚像を表示する車両用表示システムに関するものである。
 車両用表示システムは、例えば、自車両前方の風景(実景)に重畳画像を重ねて表示することで、実景に情報などを付加したり、実景における所定の箇所を強調したりする拡張現実(AR:Augmented Reality)を生成し、車両運転するユーザの視線移動を極力抑えつつ、所望の情報を的確に提供することで、安全で快適な車両運行に寄与するヘッドアップディスプレイを用いるものである。
 例えば特許文献1は、表示装置を開示し、この表示装置は、コンバイナに表示画像を投射することで視認者に虚像を視認させる。特許文献1に開示されるような表示装置は、車両前方の実景(車線)に案内経路を示す矢印などの虚像を重畳させることで、視認者が視線を大きく移動することなく経路案内情報などを認識させている。
特開2011-121401号公報
 しかしながら、例えば車両の後部の荷室に荷物を積んだりした場合、車両前側が鉛直方向上側に上がってしまい、ヘッドアップディスプレイの虚像を表示する表示領域と、実景の特定の領域とがずれてしまうことがある。また、実景の特定の領域から虚像を重畳させる報知対象(車線や前方車両など)を検出する前方検出部を備える場合、同様に、この前方検出部の検出領域と、実景の特定領域とがずれてしまうことがある。すなわち、通常、実景の特定の領域に対して虚像を表示できていたとしても、前述したように車両姿勢の変化により、ヘッドアップディスプレイの表示領域と実景の特定領域とがずれてしまうことや、前方検出部の検出領域と実景の特定領域とがずれてしまうことで、実景の特定の領域に対して所望の虚像を重畳して表示できないという問題があった。
 本発明の1つの目的は、車両姿勢が変化した場合であっても、実景の特定領域に対して表示を維持することができる車両用表示システムを提供することである。
 本発明における車両用表示システムは、車両の前方の実景から所定の報知対象を検出可能であり、所定の検出領域に存在する前記報知対象の位置に関する報知対象位置情報を生成する前方検出部と、
 表示画像を表示面に表示する画像表示部と、前記画像表示部を収納する筐体と、を有し、前記報知対象位置情報に基づいて前記報知対象と所定の位置関係を保つ位置に前記表示画像の虚像を表示可能な仮想的な虚像領域を生成するヘッドアップディスプレイと、
 前記車両の姿勢に関する情報を含む車両姿勢情報を取得する車両姿勢情報取得部と、
 前記前方検出部の角度を調整することで前記検出領域を移動させる第1の角度調整部と、
 前記筐体の角度を調整することで前記虚像領域を移動させる第2の角度調整部と、
 前記車両姿勢情報に基づいて前記第1の角度調整部を制御し、前記車両前方の実景のうち基準となる基準実景領域を含むように前記検出領域を移動させる第1の制御部と、
 前記車両姿勢情報、もしくは前記第1の制御部が前記第1の角度調整部を制御する制御量に関する制御量情報に基づいて前記第2の角度調整部を制御し、前記基準実景領域を含むように前記虚像領域を移動させる第2の制御部と、を備えてなることを特徴とする。
 本発明によれば、車両姿勢が変化した場合であっても、実景の特定領域に対して表示を維持することができる。
本発明の車両用表示システムの構成の例を示す図である。 図1に示される画像表示部の構成の例を示す図である。 図1に示される制御部の構成の例を示す図である。 図1に示される前方検出部の検出領域と基準実景領域との位置関係を説明する図であり、(a)は、検出領域が基準実景領域に重なっている場合を示し、(b)は、検出領域が基準実景領域からずれている場合を示す。 図1に示されるヘッドアップディスプレイが生成する虚像領域と基準実景領域との位置関係を説明する図であり、(a)は、虚像領域が基準実景領域に重なっている場合を示し、(b)は、虚像領域が基準実景領域からずれている場合を示す。 図1に示される車両用表示システムが実行する補正処理の例を示すフローチャートである。 図1に示される車両用表示システムが実行する表示処理の例を示すフローチャートである。 図1に示されるヘッドアップディスプレイが実行する補正処理の過程を示した図であり、(a)~(d)の左図は、実空間におけるX-Y平面における、実景と前方検出部の検出可能領域及び検出領域との位置関係を示した図であり、(a)~(d)の右図は、実空間におけるX-Y平面における実景とヘッドアップディスプレイが生成する仮想的な虚像領域との位置関係を示した図である。
 以下に説明する実施形態は、本発明を容易に理解するために用いられる。本発明は、以下に説明される実施形態によって限定されるものではなく、種々の変更(構成要件の削除を含む)が可能である。
 図1を参照して、本発明の車両用表示システム1の構成と、ヘッドアップディスプレイ(以下、HUDと記載)100の構成と、HUD100が生成する仮想的な虚像領域200について説明する。以下の説明を容易にするために、図1に示されるように、実空間において、例えば、車両2の前方を向いたときの左右方向をX軸(右方向がX軸正方向)に規定し、鉛直方向をY軸(鉛直方向上側がY軸正方向)に規定し、前後方向をZ軸(前方向がZ軸正方向)に規定する。
 図1に示すように、本実施形態の車両用表示システム1は、HUD100と、前方検出部300と、第1のアクチュエータ400と、第2のアクチュエータ500と、車両姿勢検出部600と、を備える。HUD100は、車両(移動体の一適用例)2に搭載される。例えばHUD100は、車両2のフロントウインドシールド(透過反射部の一例)2aの一部に車両情報等の画像光Kを投影する。フロントウインドシールド2aは、画像光Kを視認者(主に運転者)側のアイボックスEに向けて反射する。視認者は、視点(視認者の眼の位置)をアイボックスE内におくことで、フロントウインドシールド2aを介した前方に仮想的に生成される虚像領域200内で虚像201を視認することができる。なお、虚像201は、アイボックスE(視点の位置)から前方方向(車両2の進行方向)に、例えば、5m~10mの位置に離れて視認される。なお、図1において、虚像領域200を1つのみ記載しているが、後述する画像表示部10を複数備える、または/および後述するリレー光学系20に基づき画像表示部10から出射される画像光Kの結像距離を調整する、など公知の技術を用いることで、アイボックスEからの距離が異なる複数の虚像領域200を生成し、それぞれの虚像領域200上に虚像201を表示してもよい。
 図1の車両2には、車両2の前方にある車線、白線、停止線、歩行者、先行車両、障害物など、視認者に報知すべき報知対象Wを検出する前方検出部300が搭載されている。図1の前方検出部300は、例えば、車両2の前方の実景3を撮像する撮像部(図示しない)と、この撮像部が撮像した前方撮像画像(前方情報)を解析する画像解析部(図示しない)と、を備える。前記撮像部は、例えば、単眼または複眼の可視光カメラや赤外線カメラなどであり、前記画像解析部は、例えば、公知の画像処理、パターンマッチング法などを用いて前記撮像部が撮像した撮像画像を画像解析することで、車両2の前方における報知対象Wに関する情報(位置や大きさなど)を検出し、報知対象Wの位置に関する情報をHUD100(制御部30)に出力する。前方検出部300は、所定の検出可能領域310を有し、検出可能領域310に含まれる実景3において報知対象Wを検出可能である。また、前方検出部300は、検出可能領域310内に検出可能領域310よりも狭い所定の検出領域320を有する。検出領域320は、実景3内の特定の領域である基準実景領域3rを含むように設定される。前方検出部300は、検出領域320に含まれる実景3(基準実景領域3r)に存在する報知対象Wの位置を報知対象位置情報(以下では、報知対象位置とも呼ぶ)WPとしてHUD100(制御部30)に出力する。
 報知対象位置情報WPは、例えば、車両2の左右方向に沿ったX軸方向の座標と、鉛直方向に沿ったY軸方向の座標と、により少なくとも構成される。報知対象位置情報WPは、具体的に例えば、検出領域320内にある所定の基準点Oを基準としたX座標とY座標により報知対象Wの位置を示す。報知対象位置情報WPの報知対象Wの位置を示す座標の基準点Oは、検出領域320内でなくても、例えば検出可能領域310内の所定の位置であってもよい。なお、報知対象位置情報WPを生成する対象となる基準実景領域3rの位置は、予め設定される不変の位置であってもよく、また、所定の条件に基づいて自動的に設定されてもよく、また、視認者が適宜調整可能であってもよい。
 なお、前方検出部300は、前述した可視光カメラや赤外線カメラ以外に、レーザーレーダー、ミリ波レーダー、超音波センサ、その他の公知のセンサ等を有していてもよい。このとき、前方検出部300は、レーザーレーダー、ミリ波レーダー、超音波センサ、その他の公知のセンサ等が出力する前方情報を入力して解析することによって、前述したような報知対象位置情報WPを生成してもよい。また、前方検出部300は、前述したようなカメラやセンサを複数種類用いて、これらが出力するデータを組み合わせて解析することで前述したような報知対象位置情報WPを生成してもよい。
 また、図1の車両2には、前方検出部300(撮像部)を回転、あるいは回転及び移動させることで、検出領域320の位置を調整する第1のアクチュエータ400(第1の角度調整部の一例)が搭載されている。以下の説明では、前方検出部300を回転、あるいは回転及び移動させることを、単に前方検出部300の角度を調整する、ともいう。第1のアクチュエータ400は、例えば、DCモータやステッピングモータなどからなる駆動部(図示しない)と、前記駆動部からの動力を前方検出部300に伝達し、前方検出部300の角度を調整する駆動機構(図示しない)と、を備える。第1のアクチュエータ400は、後述する制御部30からの第1の駆動データT1に基づいて制御される。
 また、図1の車両2には、HUD100の筐体40を回転、あるいは回転及び移動させることで、フロントウインドシールド2aに向けられる画像光Kの角度を変化させて虚像領域200の位置を調整する第2のアクチュエータ500(第2の角度調整部の一例)が搭載されている。以下の説明では、筐体40を回転、あるいは回転及び移動させることを、単に筐体40の角度を調整する、ともいう。第2のアクチュエータ500は、例えば、DCモータやステッピングモータなどからなる駆動部(図示しない)と、前記駆動部からの動力を筐体40に伝達し、筐体40の角度を調整する駆動機構(図示しない)と、を備える。第2のアクチュエータ500は、後述する制御部30からの第2の駆動データT2に基づいて制御される。
 また、図1の車両2には、車両2の姿勢を検出する車両姿勢検出部600が搭載されている。車両姿勢検出部600は、例えば、三軸加速度センサ(図示しない)と、前記三軸加速度センサが検出した三軸加速度を解析することで、水平面を基準とした車両2のピッチ角(車両姿勢)を推定し、車両2のピッチ角に関する情報を含む車両姿勢情報GをHUD100(制御部30)に出力する。なお、車両姿勢検出部600は、前述した三軸加速度センサ以外に、車両2のサスペンション近傍に配置されるハイトセンサ(図示しない)で構成されてもよい。このとき、車両姿勢検出部600は、前記ハイトセンサが検出する車両2の地面からの高さを解析することで、前述したように車両2のピッチ角を推定し、車両2のピッチ角に関する情報を含む車両姿勢情報GをHUD100(制御部30)に出力する。なお、車両姿勢検出部600が、車両2のピッチ角を求める方法は、前述した方法に限定されず、公知のセンサや解析方法を用いて車両2のピッチ角を求めてもよい。さらに、車両姿勢検出部600は、車両2のピッチ角以外に、車両2の地面からの高さに関する情報を含む車両姿勢情報GをHUD100に出力してもよい。なお、車両姿勢検出部600の一部または全部は、車両用表示システム1外に設けられていてもよい。
 図1のHUD100は、例えば、画像表示部10、リレー光学系20、制御部30及び筐体40を有する。HUD100は、一般的に車両2のダッシュボードの中に収納されるが、画像表示部10、リレー光学系20、制御部30及び筐体40の全部または一部がダッシュボードの外部に配置されてもよい。HUD100(制御部30)は、車両2に搭載される車載LAN(Local Area Network)などからなるバス4に接続され、このバス4から車両情報の一部又は全部を入力することができる。
 図2は、図1に示される画像表示部10の構成の例を示す図である。以下の説明を容易にするため、図2に示されるように、画像表示部10の表示面11を正面から視認した際、表示面11の左右方向をdx軸(右方向をdx軸正方向)と規定し、上下方向をdy軸(上方向をdy軸正方向)と規定する。なお、図2に示される表示面11におけるdx軸正方向は、例えば、図1の実空間におけるX軸正方向、すなわち車両2の右方向に対応する。同様に、図2に示される表示面11におけるdy軸正方向は、例えば、図1の実空間におけるY軸正方向、すなわち鉛直方向上側に対応する。なお、画像表示部10からの画像光KがアイボックスEへ到達するまでにリレー光学系20などで反射される場合、図2の表示面11のdx軸正方向または/およびdy軸正方向と、図1の実空間のX軸正方向または/およびY軸正方向とのそれぞれの関係が反転する場合がある。
 図2に示したように、画像表示部10は、表示画像12を表示する表示面11と、後述する制御部30が生成する画像データDに基づいて表示面11に表示画像12を表示させる図示しない駆動回路と、を有する。画像データDは、表示画像12を表示する位置に関する表示位置情報(以下では、表示位置とも呼ぶ)Qを含む。表示位置情報Qは、例えば、表示面11の左右方向のdx軸方向の座標と、上下方向のdy軸方向の座標と、により少なくとも構成される。画像表示部10の表示面11から出射される画像光Kは、リレー光学系20によりフロントウインドシールド2aに導かれ、フロントウインドシールド2aが視認者側に反射した画像光Kにより、虚像201を表示可能な仮想的な虚像領域200が生成される。表示面11に表示される表示画像12は、虚像領域200上で虚像201として表示される。すなわち、画像表示部10は、画像データDに含まれる表示位置情報Qに基づき、表示面11上の表示画像12が表示されるdx軸方向の座標と、dy軸方向の座標とを変えることで、虚像領域200上の虚像201が視認される実空間におけるX軸方向の座標と、Y軸方向の座標とを調整することができる。
 なお、画像表示部10には、例えば、液晶表示素子などの透過型表示パネルや、有機EL素子などの自発光表示パネルや、DMDやLCoS(登録商標)などの反射型表示パネルや、レーザー光を走査する走査型表示装置などを適用することができる。また、リレー光学系20には、平面鏡、曲面鏡、自由曲面鏡などの反射光学系や、曲面レンズ、自由曲面レンズなどの透過型,屈折型の光学系や、ハーフミラーなどの半透過型光学系などを適用可能である。リレー光学系20は、典型的には、画像表示部10が生成する画像光Kを拡大する機能、フロントウインドシールド2aの歪みを補正し、歪みのない虚像201を視認させる機能、虚像201を視認者から所定の距離だけ離れた位置で結像させる機能を有する。また、図1では、画像表示部10及びリレー光学系20を1つずつ図示してあるが、それぞれは複数設けられてもよい。また、筐体40は、HUD100を構成する各部材を収納するものであり、硬質樹脂等から筺状に設けられる。筐体40の上方にはリレー光学系20により導かれた画像光Kをフロントガラス3に向けて出射可能な大きさの開口部(図示しない)が設けられ、前記開口部には透明樹脂からなるカバーガラス(図示しない)が取り付けられる。
 図3は、図1の制御部30の概略構成例を示す。図3に示されるように、制御部30は、例えば、処理部31、記憶部32及びインターフェース33を含む。処理部31は、例えばCPUやRAMで構成され、記憶部32は、例えばROMで構成され、インターフェース33は、バス4に接続される入出力通信インターフェースで構成される。例えば、インターフェース33は、バス4を介して車両情報や後述する報知対象位置情報WP,車両姿勢情報G等を取得することができ、記憶部32は、入力した報知対象位置情報WPに基づいて画像データDを生成するためのデータを記憶することができ、処理部31は、記憶部32からのデータを読み取り、所定の動作を実行することで画像データDを生成することができる。なお、インターフェース33は、例えば、バス4を介して車両姿勢検出部600から車両2の姿勢に関する情報を含む車両姿勢情報Gを取得することができ、本発明の車両姿勢情報取得部としての機能も有する。また、インターフェース33は、バス4を介して車速情報(走行情報の一例)を取得することができ、本発明の走行情報取得部としての機能も有する。また、制御部30は、第1のアクチュエータ400を制御する本発明の第1の制御部としての機能も有する。また、制御部30は、第2のアクチュエータ500を制御する本発明の第2の制御部としての機能も有する。なお、制御部30は、HUD100の内部にあってもよく、その一部または全部の機能がHUD100の外側の車両2側に設けられてもよい。
 図4は、従来の車両用表示システムにおいて、車両2の傾斜より、実景3に対する前方検出部300の検出領域320の位置がずれる様子を説明するための図である。図4(a)に示されるように、車両2が傾斜していない場合、実景3の基準実景領域3rに重なるように検出領域320が配置される。しかし、例えば、車両2の荷室に多くの荷物が積まれたことなどに起因して、車両2の前方が鉛直方向上側に傾斜した場合、図4(b)に示されるように、前方検出部300の検出領域320は、実景3の基準実景領域3rから鉛直方向上側にずれてしまう。これにより、前方検出部300は、通常では、実景3の基準実景領域3rに存在する報知対象Wの報知対象位置情報WPをHUD100に出力していたにも関わらず、車両2が傾いてしまった場合、実景3の基準実景領域3rに存在する報知対象Wの報知対象位置情報WPをHUD100に出力しないおそれがある。すなわち、HUD100は、車両2の姿勢によっては、実景3の基準実景領域3rに存在する報知対象Wに対して虚像201を表示することができなくなるおそれがある。
 図5は、従来のHUDにおいて、車両2の傾斜より、実景3に対する虚像領域200の位置がずれる様子を説明するための図である。図5(a)に示されるように、車両2が傾斜していない場合、実景3の基準実景領域3rに重なるように虚像領域200が配置される。しかし、例えば、車両2の荷室に多くの荷物が積まれたことなどに起因して、車両2の前方が鉛直方向上側に傾斜した場合、図5(b)に示されるように、HUD100の虚像領域200は、実景3の基準実景領域3rから鉛直方向上側にずれてしまう。すなわち、車両2の傾斜により、虚像領域200が重なる実景3の位置が変わってしまう。これにより、HUD100は、通常では、実景3の基準実景領域3rに存在する報知対象Wに対して虚像201を表示できていたにも関わらず、車両2が傾いてしまった場合、実景3の基準実景領域3rに存在する報知対象Wに対して虚像201を表示できなくなってしまうおそれがある。
 本実施形態の車両用表示システム1は、以下に説明する補正処理を実行することで、車両姿勢が変化した場合であっても、実景3の基準実景領域3rに対して虚像201を重ねて表示することが可能となる。
 図6は、車両用表示システム1が実行する補正処理の例を示すフローチャートである。車両用表示システム1の前記補正処理は、例えば、車両2が起動されたとき、又は、車両2の電子機器に電力が供給されたとき、又は、車両2の起動または車両2の電子機器の電力供給から所定時間経過したときであり、かつ車両2が走行状態でない場合に開始される。具体的には、制御部30は、インターフェース33によって車両2の車速情報(走行情報)をバス4から取得し、車速情報の入力がない、あるいは車速情報が0km/hである場合に、車両2が走行状態でないと判断し、前記補正処理を開始する。
 ステップS01では、制御部30は、車両姿勢検出部600から車両2の車両姿勢に関する情報を含む車両姿勢情報Gを取得する。
 ステップS02では、制御部30は、ステップS01で取得した車両姿勢情報Gに対応する第1のアクチュエータ400の駆動量を含む第1の駆動データT1(制御量情報)を決定し、この第1の駆動データT1に基づいて第1のアクチュエータ400を駆動する。具体的には、制御部30は、記憶部32に予め記憶されたテーブルデータを読み出し、ステップS01で取得した車両姿勢情報Gに対応する第1の駆動データT1を決定し、決定した第1の駆動データT1に基づいて第1のアクチュエータ400を駆動することで前方検出部300の角度を調整し、前方検出部300の検出領域320を実景3の基準実景領域3rの位置に移動させる。なお、ステップS02で、制御部30は、車両姿勢情報Gから第1の駆動データT1を予め設定された算出式を用いて演算により求めてもよい。
 ステップS03では、制御部30は、ステップS01で取得した車両姿勢情報G、またはS02で決定した第1の駆動データT1に基づいて、第2のアクチュエータ500の駆動量を含む第2の駆動データT2を決定し、この第2の駆動データT2に基づいて第2のアクチュエータ500を駆動する。具体的には、制御部30は、記憶部32に予め記憶されたテーブルデータを読み出し、ステップS01で取得した車両姿勢情報GまたはS02で決定した第1の駆動データT1に対応する第2の駆動データT2を決定し、決定した第2の駆動データT2に基づいて第2のアクチュエータ500を駆動することでHUD100の筐体40の角度を調整し、HUD100の虚像領域200を実景3の基準実景領域3rを含む位置に移動させる。なお、ステップS03で、制御部30は、車両姿勢情報Gあるいは第1の駆動データT1から第2の駆動データT2を予め設定された算出式を用いて演算により求めてもよい。また、車両2の姿勢変化に対する前方検出部300の傾きと筐体40の傾きとを略同じとみなし、第1の駆動データT1を第2の駆動データT2としてもよい。この場合、記憶部32のデータ量を低減することができる。ちなみに、ステップS02とステップS03は、必ずしもこの順番である必要はなく、順番が入れ替わっても、または同時に実行されてもよい。
 ステップS04では、制御部30は、ステップS03で決定した第2の駆動データT2に基づいて、歪み補正パラメータPを決定し、この歪み補正パラメータPを処理部31のRAMに一時的に保持する。歪み補正パラメータPは、筐体40の回転によってフロントウインドシールド2aにおける画像光Kが投影される個所が移動することによって生じる虚像201の歪みを補正するべく、フロントウインドシールド2aによる歪みと逆方向に予め表示画像12を歪めるためのパラメータである。具体的には、制御部30は、記憶部32に予め記憶されたデータテーブルを読み出し、第2の駆動データT2に対応する歪み補正パラメータPを決定し、決定した歪み補正パラメータPを処理部31にRAMに一時的に保持する。なお、ステップS04で、制御部30は、第2の駆動データT2から歪み補正パラメータPを予め設定された算出式を用いて演算により求めてもよい。
 以上に説明した前記補正処理では、ステップS02により、前方検出部300は、報知対象Wを検出して報知対象位置情報WPとして出力する検出領域320の位置を、その角度を第1のアクチュエータ400により調整することで、実景3の基準実景領域3rと重なる位置に設定する。これにより、前方検出部300は、基準実景領域3rに存在する報知対象Wの位置を示す報知対象位置情報WPをHUD100に出力可能となる。また、ステップS03により、HUD100は、虚像201を表示可能な虚像領域200の位置を、筐体40の角度を第2のアクチュエータ500により調整することで、実景3の基準実景領域3rを含む位置に設定する。これにより、HUD100は、実景3の基準実景領域3rに存在する報知対象Wに対応した位置に虚像201を表示可能となる。
 図7は、車両用表示システム1が実行する表示処理の例を示すフローチャートである。車両用表示システム1の表示処理は、例えば、前記補正処理が完了した後に開始される。すなわち、車両用表示システム1において、画像表示部10は、前記補正処理によって検出領域320及び虚像領域200が移動している間は表示面11に表示画像12を表示しない。
 ステップS11では、前方検出部300(撮像部)は、車両2の前方の実景3を撮像する。ステップS12では、前方検出部300(画像解析部)は、前記撮像部が撮像した前記前方撮像画像を解析し、検出領域320内に報知対象Wが存在するかを判定する。
 検出領域320内に報知対象Wが存在しない(ステップS12でNo)場合、前方検出部300は、ステップS11に戻り、車両2の前方の実景3を再び撮像する。
 検出領域320内に報知対象Wが存在する(ステップS12でYes)場合、ステップS13では、前方検出部300は、検出領域320内における報知対象Wの位置に関する情報を含む報知対象位置情報WPを生成し、HUD100(制御部30)に出力する。なお、ステップS11の車両2の前方の実景3の撮像、ステップS12の報知対象Wの有無の判定、ステップS13の報知対象位置情報WPの生成と出力は、車両2が起動している間、連続的に繰り返し行われ、前方検出部300は、検出領域320内に報知対象Wの存在が確認される度に報知対象位置情報WPを直ちに生成し、出力する。
 ステップS14では、制御部30は、前方検出部300から報知対象位置情報WPを入力する。そして、ステップS15では、制御部30が、入力した報知対象位置情報WPに基づき、表示面11の表示位置Qに表示画像12を表示するように画像データDを生成する。このとき、制御部30は、画像データDを前記補正処理のステップS04で決定された歪み補正パラメータPにより補正する。ステップS16では、画像表示部10は、制御部30が生成した画像データDに基づき、表示面11上の表示位置Qに所望の表示画像12を表示する。これにより、HUD100は、実景3の基準実景領域3rに存在する報知対象Wの位置に対応した位置に虚像201を表示することができる。
 次に、図6,図8を用いて、前記補正処理の作用について、具体的に説明する。図8は、(a)~(d)までで前記補正処理の過程を示し、(a)~(d)それぞれにおける左図は、実空間におけるX-Y平面における、実景3と前方検出部300の検出可能領域310及び検出領域320との位置関係を示した図であり、(a)~(d)それぞれにおける右図は、実空間におけるX-Y平面における実景3とHUD100が生成する仮想的な虚像領域200との位置関係を示した図である。なお、図8では、車両2の傾きにより、前方検出部300の検出領域320またはHUD100の虚像領域200が実景3中の基準実景領域3rからずれる様子をわかりやすくするため、実景3中に報知対象Wを図示し、報知対象Wの報知対象位置情報WPが補正される過程を示してあるが、前記補正処理においては、実景3内に報知対象Wが存在している必要はない。
 図8(a)は、車両2の車両姿勢が傾いていない場合を示し、前方検出部300の検出領域320は、実景3の基準実景領域3rに重なっており、HUD100の虚像領域200も、同様に実景3の基準実景領域3rを含む配置になっている。この際、車両用表示システム1が前記表示処理を実行すると、前方検出部300は、検出領域320内にある基準点Oを基準とした報知対象Wの位置を示す報知対象位置情報WP1(Xa,Ya)を生成し、HUD100の制御部30に出力する。制御部30は、報知対象位置情報WP1に基づいた表示面11上の表示位置Q1(xa,ya)に表示画像12を表示することで、実景3の基準実景領域3rに存在する報知対象Wに対応した位置に虚像201を表示させることができる。
 図8(b)は、車両2の車両姿勢が傾いた場合を示し、前方検出部300の検出領域320は、実景3の基準実景領域3rの鉛直方向上側にずれており、HUD100の虚像領域200も、実景3の基準実景領域3rの鉛直方向上側にずれている。この段階で車両用表示システム1が前記表示処理を実行すると、前方検出部300は、報知対象Wが検出領域320の外側にあるので、報知対象Wの位置を示す報知対象位置情報WP2(Xa,Yb)を、HUD100の制御部30に出力しない。したがって、HUD100は、報知対象Wに対応する位置に虚像201を表示することができない。
 図8(c)は、車両用表示システム1が図6に示す前記補正処理のステップS02を実行し、第1のアクチュエータ400を駆動することで前方検出部300(撮像部)の角度を調整し、前方検出部300の検出領域320を、実景3の基準実景領域3rと重なる位置に移動させた場合の様子を示している。制御部30は、前記補正処理のステップS02により、前方検出部300の角度を調整することで、前方検出部300の検出領域320を基準実景領域3rと重なる位置に移動させる。すると、前方検出部300において、基準点Oを基準とした報知対象Wの座標が変化する。具体的に例えば、前方検出部300が生成する報知対象位置情報WPは、図8(b)に示す報知対象位置WP2(Xa,Yb)の位置から鉛直方向(Y軸方向)に例えばαだけずれた報知対象位置WP3(Xa,Yb+α)に変化する。よって、前方検出部300から出力される報知対象位置情報WPと、画像表示部10が表示画像12を表示する表示位置情報Qとの対応関係にずれが生じる。この段階で車両用表示システム1が前記表示処理を実行すると、画像表示部10(HUD100)は、図8(c)の右図に示される報知対象Wからずれた表示位置Q3(xa,yb+β)に、表示画像12(虚像201)を表示してしまうことになる。
 図8(d)は、車両用表示システム1が図6に示す前記補正処理のステップS03を実行し、第2のアクチュエータ500を駆動することで筐体40の角度を調整し、HUD100の虚像領域200を、実景3の基準実景領域3rを含む位置に移動させた場合の様子を示している。制御部30は、前記補正処理のステップS03により、筐体40の角度を調整することで、HUD100の虚像領域200を、基準実景領域3rを含む位置に移動させる。すると、画像表示部10において、前方検出部300から出力される報知対象位置情報WPに基づく表示面11上の表示位置が変化する。具体的に例えば、HUD100の虚像領域200が図8(a)に示す車両2の車両姿勢が傾いていない場合と同じ位置に移動したとすると、図8(c)に示す表示位置Q3(xa,yb+β)から前方検出部300の角度調整に伴うずれ量βが差し引かれた表示位置Q4(xa,yb)に変化する。よって、前方検出部300から出力される報知対象位置情報WPと画像表示部10が表示画像12を表示する表示位置情報Qとの対応関係のずれが解消される。制御部30は、報知対象位置情報WP3に基づいた表示面11上の表示位置Q4(xa,yb)に表示画像12を表示させることで、実景3の基準実景領域3rに存在する報知対象Wに対応した位置に虚像201を表示させることができる。なお、筐体40の角度調整によっても報知対象位置情報WPと表示位置情報Qとの対応関係のずれが完全に解消されない場合は、制御部30は、前記補正処理において、ステップS03の第2の駆動データT2に基づいて座標補正データを生成し、前記表示処理において、前記座標補正データに基づいて報知位置情報WPを補正し、補正対象位置情報WPと表示位置情報Qとの対応関係のずれを解消することが望ましい。
 以上に説明したように、本発明の車両用表示システム1は、車両2の前方の実景3から所定の報知対象Wを検出可能であり、所定の検出領域320に存在する報知対象Wの位置に関する報知対象位置情報WPを生成する前方検出部300と、表示画像12を表示面11に表示する画像表示部10と、画像表示部10を収納する筐体40と、を有し、報知対象位置情報WPに基づいて報知対象Wと所定の位置関係を保つ位置に表示画像12の虚像201を表示可能な仮想的な虚像領域200を生成するHUD100と、車両2の姿勢に関する情報を含む車両姿勢情報Gを取得するインターフェース33(車両姿勢情報取得手段)と、前方検出部300の角度を調整することで検出領域320を移動させる第1のアクチュエータ400(第1の角度調整部)と、筐体40の角度を調整することで虚像領域200を移動させる第2のアクチュエータ500(第2の角度調整部)と、車両姿勢情報Gに基づいて第1のアクチュエータ400を制御し、車両2前方の実景3のうち基準となる基準実景領域3rを含むように検出領域320を移動させる制御部30(第1の制御部)と、車両姿勢情報G、もしくは制御部30が第1のアクチュエータ400を制御する制御量に関する第1の駆動データT1(制御量情報)に基づいて第2のアクチュエータ500を制御し、基準実景領域3rを含むように虚像領域200を移動させる制御部30(第2の制御部)と、を備えてなる。
 斯かる構成により、前方検出部300の検出領域320の位置を実景3の基準実景領域3rを含む位置に調整することができ、車両2の車両姿勢に係わらず、実景3の基準実景領域3rに存在する報知対象Wの位置に関する報知対象位置情報WPを常にHUD100に出力することができる。そして、HUD100の虚像領域200の位置を実景3の基準実景領域3rを含む位置に調整することができ、車両2の車両姿勢に係わらず、実景3の基準実景領域3rに存在する報知対象Wと所定の位置関係を保つ位置に虚像201を精度よく表示することができる。なお、虚像201は、必ずしも報知対象Wに重なって視認される位置に表示される必要はなく、報知対象Wとの相対的な位置関係が保たれる報知対象Wから離れた位置に視認されるように表示されてもよい。
 また、車両用表示システム1は、車両2の走行状態を示す車速情報(走行情報)を取得するインターフェース33(走行情報取得部)をさらに備え、制御部30は、インターフェース33が取得した車速情報により車両2が走行状態でないと判定された場合に、第1,第2のアクチュエータ400,500を制御し、検出領域320及び虚像領域200を移動させる。
 掛かる構成により、車両2の走行中には検出領域320及び虚像領域200の補正が実行されないため、走行中に視認者に違和感を与えることがない。また、車両2が停止している際に検出領域320及び虚像領域200の補正が実行されることとなるため、車両2の車両姿勢情報Gを正確に検出でき、検出領域320及び虚像領域の補正を精度良く行うことができる。
 また、車両用表示システム1において、画像表示部10は、検出領域320及び虚像領域200が移動している間は表示面11に表示画像12を表示しない。
 掛かる構成により、検出領域320及び虚像領域200の補正処理中には虚像201が視認者に視認されないため、視認者に違和感を与えることがない。
 また、車両用表示システム1において、報知対象位置情報WPは、検出領域320内における報知対象Wの相対的な位置情報を含んでもよい。報知対象位置情報WPが、検出領域320内の少ない座標で表現可能であるため、報知対象位置情報WPを処理する制御部30の負荷を軽減することができる。
 なお、車両用表示システム1において、HUD100は、視認者の操作によって虚像領域200の位置を微調整することなどを目的として、リレー光学系20の角度を調整する第3のアクチュエータ(第3の角度調整部)を備えてもよい。第3のアクチュエータは、制御部30(第3の制御部)によって制御され、リレー光学系20(例えば凹面鏡)を回転させることで虚像領域200の位置を調整する。この場合、筐体40の角度を調整する第2のアクチュエータ500の回転軸は、第3のアクチュエータの回転軸と同軸上に位置することが望ましい。第2のアクチュエータ500の回転軸が第3のアクチュエータの回転軸と同軸上でない場合、第2のアクチュエータ500の角度調整による場合と、第3のアクチュエータの角度調整による場合とで虚像201に異なる歪みや両眼で見たときの左右のずれが生じるため、歪み補正のためのパラメータ数が増加して画像補正処理の負荷が増大するためである。
 本発明は、虚像を表示する車両用表示システムに適用することができるものである。
 1…車両用表示システム、2…車両、2a…フロントウインドシールド(透過反射部)、3…実景、3r…基準実景領域、4…バス、10…画像表示部、11…表示面、12…表示画像、20…リレー光学系、30…制御部(第1の制御部,第2の制御部)、31…処理部、32…記憶部、33…インターフェース(車両姿勢情報取得部,走行情報取得部)、40…筐体、100…HUD(ヘッドアップディスプレイ)、200…虚像領域、201…虚像、300…前方検出部、320…検出領域、400…第1のアクチュエータ(第1の角度調整部)、500…第2のアクチュエータ(第2の角度調整部)、600…車両姿勢検出部、D…画像データ、E…アイボックス、G…車両姿勢情報、K…画像光、Q…表示位置情報(表示位置)、W…障害物、WP…報知対象位置情報(報知対象位置)、T1…第1の駆動データ(制御量情報)、T2…第2の駆動データ

Claims (4)

  1.  車両の前方の実景から所定の報知対象を検出可能であり、所定の検出領域に存在する前記報知対象の位置に関する報知対象位置情報を生成する前方検出部と、
     表示画像を表示面に表示する画像表示部と、前記画像表示部を収納する筐体と、を有し、前記前方検出部が生成した前記報知対象位置情報に基づいて前記報知対象と所定の位置関係を保つ位置に前記表示画像の虚像を表示可能な仮想的な虚像領域を生成するヘッドアップディスプレイと、
     前記車両の姿勢に関する情報を含む車両姿勢情報を取得する車両姿勢情報取得部と、
     前記前方検出部の角度を調整することで前記検出領域を移動させる第1の角度調整部と、
     前記筐体の角度を調整することで前記虚像領域を移動させる第2の角度調整部と、
     前記車両姿勢情報取得手段が取得した前記車両姿勢情報に基づいて前記第1の角度調整部を制御し、前記車両前方の実景のうち基準となる基準実景領域を含むように前記検出領域を移動させる第1の制御部と、
     前記車両姿勢情報取得部が取得した前記車両姿勢情報、もしくは前記第1の制御部が前記第1の角度調整部を制御する制御量に関する制御量情報に基づいて前記第2の角度調整部を制御し、前記基準実景領域を含むように前記虚像領域を移動させる第2の制御部と、を備えてなることを特徴とする車両用表示システム。
  2.  前記車両の走行状態を示す走行情報を取得する走行情報取得部をさらに備え、
     前記第1,第2の制御部は、前記走行情報取得部が取得した前記走行情報により前記車両が走行状態でないと判定された場合に、前記第1,第2の角度調整部を制御し、前記検出領域及び前記虚像領域を移動させる、ことを特徴とする請求項1に記載の車両用表示システム。
  3.  前記画像表示部は、前記検出領域及び前記虚像領域が移動している間は前記表示面に前記表示画像を表示しない、ことを特徴とする請求項1に記載の車両用表示システム。
  4.  前記報知対象位置情報は、前記検出領域内における前記報知対象の相対的な位置情報を含む、ことを特徴とする請求項1に記載の車両用表示システム。
PCT/JP2016/064323 2015-05-28 2016-05-13 車両用表示システム WO2016190135A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-108873 2015-05-28
JP2015108873A JP2016222061A (ja) 2015-05-28 2015-05-28 車両用表示システム

Publications (1)

Publication Number Publication Date
WO2016190135A1 true WO2016190135A1 (ja) 2016-12-01

Family

ID=57393214

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/064323 WO2016190135A1 (ja) 2015-05-28 2016-05-13 車両用表示システム

Country Status (2)

Country Link
JP (1) JP2016222061A (ja)
WO (1) WO2016190135A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070252A1 (ja) * 2016-10-14 2018-04-19 日立マクセル株式会社 車両用映像表示装置
WO2018109902A1 (ja) * 2016-12-15 2018-06-21 アルプス電気株式会社 画像表示装置
WO2019189308A1 (ja) * 2018-03-30 2019-10-03 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
WO2019233687A1 (de) * 2018-06-04 2019-12-12 Volkswagen Aktiengesellschaft Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug
WO2020224873A1 (de) * 2019-05-08 2020-11-12 Volkswagen Aktiengesellschaft Verfahren zum betrieb eines kraftfahrzeugs
JPWO2020261642A1 (ja) * 2019-06-27 2020-12-30
CN112218778A (zh) * 2018-10-16 2021-01-12 松下知识产权经营株式会社 显示系统、显示装置以及显示控制方法
CN113064279A (zh) * 2021-03-26 2021-07-02 芜湖汽车前瞻技术研究院有限公司 Ar-hud系统的虚像位置调整方法、装置及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156063A (ja) * 2017-03-15 2018-10-04 株式会社リコー 表示装置及び機器
CN110573369B (zh) * 2017-04-19 2022-05-17 麦克赛尔株式会社 平视显示器装置及其显示控制方法
EP3760467B1 (en) 2018-03-02 2022-06-22 Panasonic Intellectual Property Management Co., Ltd. Display system
CN111886481A (zh) * 2018-05-30 2020-11-03 松下知识产权经营株式会社 位置调整装置以及具备其的投影系统
WO2020241094A1 (ja) * 2019-05-31 2020-12-03 パナソニックIpマネジメント株式会社 表示システム
JP7459883B2 (ja) 2019-12-27 2024-04-02 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置、及び方法
EP4163156A4 (en) * 2020-06-08 2023-12-06 Panasonic Intellectual Property Management Co., Ltd. DISPLAY SYSTEM
JP7509070B2 (ja) 2021-03-29 2024-07-02 株式会社デンソー 虚像表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0952555A (ja) * 1995-08-11 1997-02-25 Mitsubishi Electric Corp 周辺監視装置
JP2008258778A (ja) * 2007-04-02 2008-10-23 Toyota Motor Corp 撮像システム
JP2011123126A (ja) * 2009-12-08 2011-06-23 Denso Corp ヘッドアップディスプレイ装置及びヘッドアップディスプレイ装置におけるステッピングモータの駆動方法の決定方法
JP2015080988A (ja) * 2013-10-22 2015-04-27 日本精機株式会社 車両情報投影システム及び投影装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0952555A (ja) * 1995-08-11 1997-02-25 Mitsubishi Electric Corp 周辺監視装置
JP2008258778A (ja) * 2007-04-02 2008-10-23 Toyota Motor Corp 撮像システム
JP2011123126A (ja) * 2009-12-08 2011-06-23 Denso Corp ヘッドアップディスプレイ装置及びヘッドアップディスプレイ装置におけるステッピングモータの駆動方法の決定方法
JP2015080988A (ja) * 2013-10-22 2015-04-27 日本精機株式会社 車両情報投影システム及び投影装置

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070252A1 (ja) * 2016-10-14 2018-04-19 日立マクセル株式会社 車両用映像表示装置
WO2018109902A1 (ja) * 2016-12-15 2018-06-21 アルプス電気株式会社 画像表示装置
US11480855B2 (en) 2016-12-15 2022-10-25 Dualitas Ltd Image display device
US10983423B2 (en) 2016-12-15 2021-04-20 Dualitas Ltd Image display device
JPWO2018109902A1 (ja) * 2016-12-15 2019-10-24 アルプスアルパイン株式会社 画像表示装置
JP7515229B2 (ja) 2018-03-30 2024-07-12 パナソニックオートモーティブシステムズ株式会社 映像表示システム、映像表示方法、及び、プログラム
CN111954902A (zh) * 2018-03-30 2020-11-17 松下知识产权经营株式会社 影像显示系统、影像显示方法、程序以及具备影像显示系统的移动体
US11514559B2 (en) 2018-03-30 2022-11-29 Panasonic Intellectual Property Management Co., Ltd. Image display system, image display method, storage medium, and moving vehicle including the image display system
US11983856B2 (en) 2018-03-30 2024-05-14 Panasonic Automotive Systems Co., Ltd. Image display system, image display method, storage medium, and moving vehicle including the image display system
JP2019179214A (ja) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
CN111954902B (zh) * 2018-03-30 2023-05-02 松下知识产权经营株式会社 影像显示系统、影像显示方法、存储介质以及具备影像显示系统的移动体
JP2023029340A (ja) * 2018-03-30 2023-03-03 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、及び、プログラム
JP7194906B2 (ja) 2018-03-30 2022-12-23 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
WO2019189308A1 (ja) * 2018-03-30 2019-10-03 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
WO2019233687A1 (de) * 2018-06-04 2019-12-12 Volkswagen Aktiengesellschaft Konzept zum bereitstellen von korrekturwerten für die anzeige von augmented-reality-inhalten auf einem head-up-display für ein kraftfahrzeug
CN112218778A (zh) * 2018-10-16 2021-01-12 松下知识产权经营株式会社 显示系统、显示装置以及显示控制方法
WO2020224873A1 (de) * 2019-05-08 2020-11-12 Volkswagen Aktiengesellschaft Verfahren zum betrieb eines kraftfahrzeugs
CN113767026A (zh) * 2019-05-08 2021-12-07 大众汽车股份公司 用于运行机动车的方法
US11860372B2 (en) 2019-06-27 2024-01-02 Panasonic Intellectual Property Management Co., Ltd. Display control device, image display system, mobile body, display control method, and non-transitory computer-readable medium
JP7478919B2 (ja) 2019-06-27 2024-05-08 パナソニックオートモーティブシステムズ株式会社 表示制御装置、画像表示システム、移動体、表示制御方法及びプログラム
WO2020261642A1 (ja) * 2019-06-27 2020-12-30 パナソニックIpマネジメント株式会社 表示制御装置、画像表示システム、移動体、表示制御方法及びプログラム
JPWO2020261642A1 (ja) * 2019-06-27 2020-12-30
CN113064279B (zh) * 2021-03-26 2022-09-16 芜湖汽车前瞻技术研究院有限公司 Ar-hud系统的虚像位置调整方法、装置及存储介质
CN113064279A (zh) * 2021-03-26 2021-07-02 芜湖汽车前瞻技术研究院有限公司 Ar-hud系统的虚像位置调整方法、装置及存储介质

Also Published As

Publication number Publication date
JP2016222061A (ja) 2016-12-28

Similar Documents

Publication Publication Date Title
WO2016190135A1 (ja) 車両用表示システム
US10302940B2 (en) Head-up display
US10551619B2 (en) Information processing system and information display apparatus
JP6731644B2 (ja) 表示位置補正装置、表示位置補正装置を備える表示装置、及び表示装置を備える移動体
EP3330117B1 (en) Vehicle display device
US11215819B2 (en) Head-up display
US10409062B2 (en) Vehicle display device
WO2015060193A1 (ja) 車両情報投影システム及び投影装置
JP2017211366A (ja) 移動体システム、情報表示装置
JP6741029B2 (ja) 情報表示装置
CN110816408B (zh) 显示装置、显示控制方法及存储介质
JP6528962B2 (ja) ヘッドアップディスプレイ
JP2015080988A (ja) 車両情報投影システム及び投影装置
WO2017090464A1 (ja) ヘッドアップディスプレイ
WO2017141829A1 (ja) 情報提供装置
JP2018077400A (ja) ヘッドアップディスプレイ
JP2018052281A (ja) 車両用表示装置
JP2018120135A (ja) ヘッドアップディスプレイ
JP6481445B2 (ja) ヘッドアップディスプレイ
WO2018105585A1 (ja) ヘッドアップディスプレイ
JP2016185768A (ja) 車両用表示システム
JP6845988B2 (ja) ヘッドアップディスプレイ
WO2020090187A1 (ja) 虚像表示装置、およびヘッドアップディスプレイ装置
JPWO2018199244A1 (ja) 表示システム
WO2018199246A1 (ja) 虚像表示装置及び移動体用表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16799843

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16799843

Country of ref document: EP

Kind code of ref document: A1