WO2010109941A1 - 車載用表示システム、表示方法及び車両 - Google Patents

車載用表示システム、表示方法及び車両 Download PDF

Info

Publication number
WO2010109941A1
WO2010109941A1 PCT/JP2010/051039 JP2010051039W WO2010109941A1 WO 2010109941 A1 WO2010109941 A1 WO 2010109941A1 JP 2010051039 W JP2010051039 W JP 2010051039W WO 2010109941 A1 WO2010109941 A1 WO 2010109941A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
field image
display object
visual field
display
Prior art date
Application number
PCT/JP2010/051039
Other languages
English (en)
French (fr)
Inventor
堀田 あいら
佐々木 隆
奥村 治彦
彰久 森屋
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to EP10755742A priority Critical patent/EP2412557A4/en
Publication of WO2010109941A1 publication Critical patent/WO2010109941A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • G02B2027/012Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility comprising devices for attenuating parasitic image effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Definitions

  • the present invention relates to an in-vehicle display system, a display method, and a vehicle.
  • HUD Head-Up
  • vehicle information such as operation information such as vehicle speed and navigation information to the destination to be projected onto the windshield so that external information and vehicle information can be viewed simultaneously. Display
  • HUD is capable of presenting an intuitive display to the person who sees it, and it has been proposed to display information such as route display by matching the background observed by the driver. For example, a method of changing a figure to be displayed according to the external environment (Patent Document 1) and a method of changing the size of a graphic image to be displayed according to the vehicle speed (Patent Document 2) have been proposed.
  • the display of the HUD is observed with both eyes.
  • the depth position of the virtual image displayed by the HUD is an optically designed position (optical display position), and is often set to a position 2 to 3 m away from the driver. Therefore, in the case of HUD for binocular vision, if the driver tries to see the HUD display at the same time while looking far away during driving, the HUD display object is recognized as a double image, which is very difficult to see. On the other hand, when viewing the HUD display, the display image is recognized 2 to 3 meters ahead by binocular parallax, and it is difficult to simultaneously recognize the distant background.
  • the display image of the HUD is reflected by the windshield or the like, a double image is generated due to the thickness of the reflection screen of the windshield, which makes it difficult to see the display.
  • the present invention provides a monocular in-vehicle display system, a display method, and a vehicle that allow a display object indicating a course to be perceived at a predetermined position farther than a preceding vehicle.
  • a forward information acquisition unit that acquires forward information related to a forward path of the host vehicle, a preceding vehicle information acquisition unit that acquires preceding vehicle information related to a preceding vehicle existing ahead of the path, and the vehicle
  • a position estimating unit that estimates a position of one eye of a viewer on the vehicle; and a light beam including video information having a display object, and generating the light beam on the one eye of the viewer based on the position of the one eye
  • a video projection unit that projects toward the screen, and the video projection unit is configured to view a field of view when the viewer views the forward direction of the host vehicle based on the front information and the position of the one eye.
  • An image is estimated, and from the first visual field image position in the visual field image corresponding to the first position closer to the host vehicle than the position of the preceding vehicle acquired by the preceding vehicle information acquisition unit, Said first of position A display object having depth information is generated by reaching a second visual field image position in the visual field image corresponding to the second position on the opposite side of the position and estimated to change the course of the host vehicle.
  • An in-vehicle display system including a video data generation unit is provided.
  • a viewer who obtains front information related to a forward path of the host vehicle acquires preceding vehicle information related to a preceding vehicle existing ahead of the course, and rides on the host vehicle.
  • a position of the preceding vehicle is estimated based on the forward information and the position of the one eye, and a visual field image when the viewer views the front of the course of the host vehicle is estimated.
  • the own vehicle travels the path Reaching the second visual field image position in the visual field image corresponding to the second position estimated to be changed, generating the display object having depth information, generating a light beam including an image having the display object, and The luminous flux Display wherein the projecting toward the eye of the view viewer based on is provided.
  • the vehicle-mounted display system described above and a windshield that reflects the luminous flux emitted from the vehicle-mounted display system toward the viewer are provided. Is provided.
  • a monocular in-vehicle display system a display method, and a vehicle that allow a display object indicating a course to be perceived at a predetermined position farther than a preceding vehicle.
  • FIG. 1A and FIG. 1B are schematic views showing the operation of the in-vehicle display system according to the first embodiment of the present invention. It is a schematic diagram which shows the structure of the vehicle-mounted display system which concerns on the 1st Embodiment of this invention. It is a schematic diagram which shows the operation state of the vehicle-mounted display system which concerns on the 1st Embodiment of this invention. It is a schematic diagram which shows operation
  • FIGS. 5A and 5B are schematic views showing the operation of the in-vehicle display system according to the first embodiment of the present invention. FIG. 6C, FIG. 6B, and FIG.
  • FIGS. 10A and 10B are schematic views showing another operation and characteristics of the in-vehicle display system according to the first embodiment of the present invention.
  • FIG. 12A and FIG. 12B are schematic views showing other operations and characteristics of the in-vehicle display system according to the first embodiment of the present invention.
  • FIGS. 13A and 13B are schematic views showing another operation and characteristics of the in-vehicle display system according to the first embodiment of the present invention. It is a schematic diagram which shows another operation
  • FIG. 15A, FIG. 15B, and FIG. 15C are schematic views showing another operation of the in-vehicle display system according to the first embodiment of the present invention.
  • 16A, 16B, and 16C are schematic views showing another operation of the in-vehicle display system according to the first embodiment of the present invention. It is a schematic diagram which shows the structure of another vehicle-mounted display system which concerns on the 1st Embodiment of this invention. It is a schematic diagram which shows the structure of another vehicle-mounted display system which concerns on the 1st Embodiment of this invention. It is a flowchart figure which shows the display method which concerns on the 2nd Embodiment of this invention.
  • FIG. 1 is a schematic diagram showing the operation of the in-vehicle display system according to the first embodiment of the present invention.
  • FIG. 2 is a schematic diagram showing the configuration of the in-vehicle display system according to the present embodiment.
  • FIG. 3 is a schematic diagram showing an operation state of the in-vehicle display system according to the present embodiment.
  • 4 to 6 are schematic diagrams showing the operation of the in-vehicle display system according to the present embodiment.
  • the in-vehicle display system 10 includes a front information acquisition unit 410, a preceding vehicle information acquisition unit 420, a position estimation unit 210, and a video projection unit 115.
  • the front information acquisition unit 410 acquires front information that is information related to the forward direction of the host vehicle 730.
  • the preceding vehicle information acquisition unit 420 acquires the preceding vehicle information related to the preceding vehicle 740 that exists in front of the course of the host vehicle 730.
  • the position estimation unit 210 estimates the position of the one eye 101 of the human viewer 100 boarding the host vehicle 730.
  • the video projection unit 115 projects the light flux 112 including the video having the display object 180 toward the one eye 101 of the viewer 100 based on the estimated position of the one eye 101.
  • the host vehicle 730 is a vehicle such as an automobile, and the viewer 100 is a driver (operator) who controls the automobile. That is, the host vehicle 730 is a vehicle on which the in-vehicle display system 10 according to the present embodiment is mounted.
  • the forward information is information related to the forward direction of the host vehicle 730, is information related to the forward direction of the traveling direction in which the host vehicle 730 is estimated to travel, and includes information such as the shape of a road and an intersection.
  • the front information acquisition unit 410 acquires the front information based on, for example, an image ahead of the host vehicle 730 captured by a camera or the like. Further, for example, the position of the host vehicle 730 is specified using a GPS (Global Positioning System) function, and based on this, forward information is acquired using various communication functions. Further, for example, the forward information may be acquired by communication between an imaging function or a radar function installed on a road or a building and various databases connected thereto. Thus, the method for acquiring the front information in the front information acquisition unit 410 is arbitrary.
  • the preceding vehicle 740 is, for example, a vehicle that exists within a predetermined distance from the host vehicle 730 in front of the course of the host vehicle 730.
  • the predetermined distance can be changed according to various situations such as the moving speed of the host vehicle 730 and the width of the road on which the host vehicle 730 is traveling.
  • the preceding vehicle information acquisition unit 420 acquires the preceding vehicle information related to the preceding vehicle 740.
  • the preceding vehicle information includes information regarding the presence or absence of the preceding vehicle 740. That is, for example, if the preceding vehicle information that the distance to the host vehicle 730 exists within a predetermined distance can be acquired, the preceding vehicle 740 exists, and otherwise, the preceding vehicle 740 It does not exist.
  • the preceding vehicle information acquisition unit 420 acquires the preceding vehicle information based on, for example, an image of the preceding vehicle 740 captured by a camera or the like. Further, for example, the preceding vehicle information is acquired using a vehicle-to-vehicle communication system or a road-to-vehicle communication system. Further, for example, the preceding vehicle information is acquired by exchanging position information of the own vehicle 730 and the other vehicle using, for example, a satellite communication system. Thus, the method for acquiring the preceding vehicle information in the preceding vehicle information acquisition unit 420 is arbitrary.
  • the display object 180 is provided in an image that the in-vehicle display system 10 presents to the viewer 100.
  • Such a display object 180 is obtained by, for example, a route obtained by a navigation system that generates a route from map information to a destination, and a position of the own vehicle 730 obtained by, for example, GPS. It is generated based on the traveling direction in which the vehicle 730 is expected to travel.
  • the part for obtaining the route and the part for obtaining the position of the own vehicle 730 may be incorporated in the in-vehicle display system 10 or incorporated in the own vehicle 730 in which the in-vehicle display system 10 is installed. May be.
  • the in-vehicle display system 10 is provided, for example, in the host vehicle 730, that is, for example, in the back of the dashboard 720 of the host vehicle 730 as viewed from the viewer 100 who is a driver.
  • the video projection unit 115 includes, for example, a video data generation unit 130, a video formation unit 110, and a projection unit 120.
  • the video data generation unit 130 generates data related to a video having the display object 180.
  • the video signal including the video data generated by the video data generation unit 130 is supplied to the video formation unit 110.
  • the video forming unit 110 forms a video on, for example, the screen of the video forming unit 110 based on the video signal supplied from the video data generating unit 130.
  • a liquid crystal display device LCD having a light source can be used as the image forming unit 110.
  • the projecting unit 120 projects the image formed by the image forming unit 110 onto the one eye 101 of the viewer 100.
  • the projection unit 120 for example, a projection lens, a mirror, and various optical elements that control a divergence angle (diffusion angle) are used.
  • the projection unit 120 includes a light source.
  • an imaging lens 120a, a lenticular lens 120b for controlling a divergence angle, a mirror 126, and an aspheric Fresnel lens 127 are used as the projection unit 120.
  • the light beam 112 emitted from the image forming unit 110 passes through the imaging lens 120a, the lenticular lens 120b, the mirror 126, and the aspheric Fresnel lens 127, for example, the windshield 710 of the host vehicle 730 on which the in-vehicle display system 10 is mounted.
  • a reflector 711 translucent reflector
  • the viewer 100 perceives the virtual image 310 of the display object 180 formed at the virtual image forming position 310a via the reflector 711.
  • the configuration of the video projection unit 115 is arbitrary, and for example, the configuration of each of the video data generation unit 130, the video formation unit 110, and the projection unit 120 is also arbitrary. Regarding these, various modifications are possible as will be described later.
  • the position estimation unit 210 estimates the one eye 101 on which the image of the viewer 100 is projected.
  • the position estimation unit 210 includes, for example, an imaging unit 211 that images the viewer 100, an image processing unit 212 that performs image processing on a captured image captured by the imaging unit 211, and data that has been subjected to image processing by the image processing unit 212. And a calculation unit 213 that determines and estimates the position of the one eye 101 of the human viewer 100 based on the information.
  • the imaging unit 211 is disposed, for example, in front of or on the side of the driver's seat of the host vehicle 730, and for example, captures an image of the face of the viewer 100 who is the pilot, and as described above, the viewer The position of one eye 101 is estimated.
  • a control unit 250 is further provided, and the control unit 250 controls the video projection unit 115 based on the position of the one eye 101 of the viewer 100 estimated by the position estimation unit 210. As a result, at least one of the projection range 114a and the projection position 114 of the light beam 112 can be adjusted.
  • the control unit 250 controls the projection position 114 by controlling the angle of the mirror 126 by controlling the drive unit 126a coupled to the mirror 126 that constitutes a part of the projection unit 120, for example.
  • the display object 180 is displayed as the display image 510 and is projected and displayed on the reflector 711 (not shown) of the windshield 710. Is done. Thereby, the human viewer 100 sees the external image 520 and the display image 510 at the same time.
  • the in-vehicle display system 10 is used as an in-vehicle HUD.
  • the position of the display object 180 in the display image 510 is controlled in correspondence with the position of the external image 520.
  • the display image 510 is controlled independently of the external image 520.
  • the current position 511, surrounding building information 512, vehicle information 514 such as speed and fuel, and the like are displayed. Can be included.
  • the HUD can be displayed superimposed on the background (external video 520), it is advantageous that the viewer 100 can intuitively grasp the display.
  • the monocular HUD is suitable for display superimposed on the outside world because the HUD display can be simultaneously seen even if the viewer 100 is distant from the gazing point.
  • the video data generating unit 130 of the video projecting unit 115 that generates the display object 180 can have a virtual video space.
  • This virtual video space is associated with the real space with reference to the display position of the virtual image on which the display object 180 is displayed. Then, the display object 180 is generated so that the coordinate position in the virtual video space is reflected in the real space.
  • the display object 180 is positioned at a position in the visual field image VI of the viewer 100 corresponding to a target position in the real space RS indicated by the display object 180. Generated.
  • the video projection unit 115 allows the viewer 100 to move forward of the vehicle 730 based on the front information acquired by the front information acquisition unit 410 and the position of the one eye 101 estimated by the position estimation unit 210.
  • the visual field image VI when viewing is estimated.
  • the viewer 100 estimates how the viewer 100 sees the forward information 530 such as a road when viewing the front of the course, and the estimated field-of-view image VI includes the road in the real space RS.
  • An image 530v corresponding to the forward information 530 is estimated.
  • the image 530v may not be actually formed as an image, and may be a virtual position corresponding to each position of the front information 530 in the real space RS.
  • the display object 180 is arranged at a position (position 521v in the visual field image VI) in the visual field image VI corresponding to a target position (target position 521) ahead of the course.
  • the display object 180 is generated.
  • An example of the method of estimating the visual field image VI and arranging the display object 180 will be described later.
  • the video projection unit 115 generates a light beam 112 including an image having the display object 180, and directs the light beam 112 toward the one eye 101 of the viewer 100 based on the position of the one eye 101 estimated by the position estimation unit 210. Project.
  • the viewer 100 views the display object 180 generated in the visual field image VI by superimposing it on the background image in front of the course corresponding to the display object 180, so that the background image and the display object are displayed. 180 can be seen without a sense of incongruity.
  • three-dimensional axes (x1, y1, and z1 axes) are defined in the field-of-view image VI so as to correspond to the three-dimensional axes (x axis, y axis, and z axis) in the real space ahead of the course. be able to. Furthermore, a three-dimensional axis ( ⁇ axis, ⁇ axis, and ⁇ axis) in the virtual space VS corresponding to the visual field image VI can be defined.
  • the z-axis is the traveling direction of the host vehicle 730
  • the x-axis direction is the left-right direction
  • the y-axis is the up-down direction.
  • the x1 axis, the y1 axis, and the z1 axis are axes corresponding to the x axis, the y axis, and the z axis, respectively, in the field image VI.
  • the ⁇ axis, ⁇ axis, and ⁇ axis are axes corresponding to the x axis, the y axis, and the z axis, respectively, in the virtual space VS.
  • the distance between the viewer 100 and the field image VI is constant, and the field image VI has, for example, a vertical axis Va (y1 axis). ) And a horizontal axis Ha (corresponding to the x1 axis).
  • the display object 180 is displayed.
  • the display object 180 is generated so that has the depth information.
  • the size and shape of the display object 180 are controlled so as to have depth information in the virtual space VS corresponding to the depth in the real space RS.
  • the display object 180 has depth information by perspective, for example.
  • the display object 180 is controlled to be large on the side close to the virtual viewpoint 101a, and the display object 180 is controlled to be small on the far side.
  • the size of the display object 180 displayed superimposed on the visual field image VI decreases, for example, in the upward direction (the direction in which the value of y1 increases) and down (in the direction in which the value of y1 decreases). ) Grows as you go.
  • the shape of the display object 180 can be a shape of an arrow having a curvature, a shape having an inflection point at a point where the course is changed, as illustrated in FIG. And the shape is a shape which has depth information as mentioned above.
  • FIG. 5 illustrates a coordinate system in the in-vehicle display system 10. That is, FIG. 4A is a schematic diagram when viewed from the overhead of the viewer 100, and FIG. 4B is a schematic diagram when viewed from the side of the viewer 100.
  • FIG. 4A is a schematic diagram when viewed from the overhead of the viewer 100
  • FIG. 4B is a schematic diagram when viewed from the side of the viewer 100.
  • a predetermined reference position O (0, h1, 0) is determined.
  • the origin of the coordinate axes is the position in contact with the ground, and is (0, 0, 0). That is, the reference position O is a position having a height h1 from the origin of the coordinate axis.
  • an arbitrary position in front of the course of the host vehicle 730 when viewed from the predetermined reference position O is defined as a real space position Q (Qx, Qy, Qz).
  • the real space position Q (Qx, Qy, Qz) is obtained based on the forward information acquired by the forward information acquisition unit 410.
  • the shift amount in the x-axis direction of the one-eye position E is w1
  • the shift amount in the x-axis direction of the field image position P is w2
  • the shift amount in the x-axis direction of the real space position Q is w3.
  • the shift amount in the y-axis direction of the one-eye position E is Ey
  • the shift amount of the visual field image position P in the y-axis direction is (h1-h2).
  • the shift amount of the spatial position Q in the y-axis direction is (h1-h3).
  • the distance in the z-axis direction between the reference position O and the visual field image position P is a distance I
  • the distance in the z-axis direction between the reference position O and the real space position Q is a distance L.
  • the real space position Q (Qx, Qy, Qz) has data relating to Qz which is depth information.
  • Such a real space position Q (Qx, Qy, Qz) is x1 in the field-of-view image VI. Since it is estimated as a two-dimensional position in the y1 plane, the x-axis direction and the y-axis direction corresponding to the x1-axis direction and the y1-axis direction will be described below.
  • the shift amount w3 is equal to the ratio between the distance L and the distance I. Therefore, when the one eye 101 of the human viewer 100 is placed at the reference position O, the value in the x-axis direction of the visual field image position P (Px, Py), that is, the shift amount w2 is obtained by w3 ⁇ I / L. If the one eye 101 of the viewer 100 is deviated from the reference position O, the amount of deviation, that is, the distance Ex (w1) may be corrected.
  • the shift amount (h1-h3) in the y-axis direction of the real space position Q (Qx, Qy) and the field image position P (Px, The ratio of Py) to the shift amount (h1-h2) in the y-axis direction is the same as the ratio of the distance L to the distance I. Therefore, when the one eye 101 of the viewer 100 is placed at the reference position O, the value in the y-axis direction of the visual field image position P (Px, Py), that is, the shift amount (h1-h2) is (h1- h3) It is obtained by xI / L. If the one eye 101 of the viewer 100 is displaced from the reference position O, it may be corrected by the amount of displacement, that is, the distance (h1-Ey).
  • the visual field image position P in the visual field image VI corresponding to the real space position Q in the real space RS when the viewer 100 views the front of the course of the host vehicle 730 can be estimated.
  • the display object 180 is generated at a position in the visual field image VI corresponding to the target position in the real space RS indicated by the display object 180 by a method similar to the method for estimating the visual field image VI from the real space RS. Can do.
  • the display object 180 is arranged at the visual field image position P (Px, Py, Pz).
  • the position where the display object 180 is arranged is the position of each point included in the display object 180.
  • the position where the virtual image of the display object 180 is perceived on the real space when viewed from the predetermined reference position O is defined as the real space position Q (Qx, Qy, Qz).
  • the distance L is a set depth distance when the display object 180 is set. That is, the position of the set depth distance as viewed from the reference position O is the depth target position.
  • the ratio between the shift amount w3 and the shift amount w2 is the same as the ratio between the distance L and the distance I, and the ratio between the shift amount (h1-h3) and the shift amount (h1-h2) is the distance L.
  • the display object 180 can be generated by being arranged at a predetermined position in the visual field image VI corresponding to the real space RS.
  • FIG. 6A illustrates the position of one eye position E (Ex, Ey). That is, this figure illustrates a captured image of the head 105 of the viewer 100 captured by the imaging unit 211. As shown in the figure, the captured image is subjected to image processing by the image processing unit 212, and the position of the one eye 101 of the viewer 100 is determined and estimated by the calculation unit 213. In this way, the one-eye position E (Ex, Ey) that is the position of the one eye 101 when viewed from the reference position O is estimated by the position estimating unit 210. That is, Ex and Ey are calculated by the position estimation unit 210.
  • FIG. 6B illustrates the field image position P (Px, Py) of the target position in the field image VI where the display object 180 is arranged.
  • an image 530v of forward information (such as a road width and shape) acquired by the forward information acquisition unit 410 is illustrated.
  • the visual field image position P (Px, Py) corresponding to the position of the target on which the display object 180 is to be displayed is obtained. That is, for example, the position corresponding to the position where the display object 180 should be displayed on the road along which the host vehicle 730 travels is obtained as the visual field image position P (Px, Py).
  • FIG. 6C illustrates the display object position P1 (Px1, Py1) of the display object 180 that is perceived by being superimposed on the visual field image VI. That is, this figure illustrates the display object position P1 (Px1, Py1) that is the position of the display object 180 projected onto the reflector 711 of the host vehicle 730 by the in-vehicle display system 10.
  • the display object position P1 (Px1, Py1) is determined based on the one-eye position E (Ex, Ey) and the visual field image position P (Px, Py) corresponding to the target position.
  • the image 530v corresponding to the forward information 530 in the visual field image VI when the viewer 100 views the forward information 530 such as the road ahead of the course is estimated, and thereby each of the display objects 180 is displayed.
  • the position is generated so as to be arranged at each corresponding position in the visual field image VI corresponding to the real space RS.
  • FIG. 1A shows a visual field image VI and a display object 180 when the viewer 100 views an image (display image 510) included in the luminous flux 112 and a background ahead of the course of the host vehicle 730. Is schematically illustrated.
  • FIG. 1B illustrates a display object 180 of an image (display image 510) included in the light flux 112.
  • the visual field image VI includes information related to the forward road and the like and the preceding vehicle information related to the preceding vehicle 740.
  • An image of the road and the preceding vehicle 740 is perceived at a predetermined position.
  • the video projection unit 115 is on the near side (that is, the side of the own vehicle 730) with respect to the position of the preceding vehicle 740. )
  • the visual field image VI corresponding to the second position P02 (the course change position) that is estimated to change the course of the host vehicle 730 from the first visual field image position PV01 in the visual field image VI corresponding to the first position P01.
  • a display object 180 that reaches the second visual field image position PV02 is generated.
  • the first position P01 is a position in the real space RS, and is a position closer to the front side than the position P740 of the preceding vehicle 740 (the side of the host vehicle 730 from the preceding vehicle 740).
  • the first position P01 is a position between the host vehicle 730 and the preceding vehicle 740.
  • the first position P01 can be set to a position at a predetermined distance ahead of the course as seen from the host vehicle 730.
  • the second position P02 is a position such as a branch point (intersection) of a road or the like that prompts the user to change the course by, for example, a navigation system, and is ahead of the preceding vehicle 740 when viewed from the own vehicle 730 (the position of the preceding vehicle 740). Of the first position P01 on the opposite side).
  • positions corresponding to the first position P01 and the second position P02 of the real space RS are the first field image position PV01 and the second field image position PV02, respectively.
  • the display object 180 reaches from the first visual field image position PV01 to the second visual field image position PV02.
  • the display object 180 has depth information as described above.
  • FIG. 7 is a graph showing characteristics of the in-vehicle display system according to the first embodiment of the present invention. That is, this figure exemplifies experimental results regarding the in-vehicle display system 10.
  • the preceding vehicle 740 is located 30 m ahead of the course when viewed from the own vehicle 730
  • the second position P02 (the course change position) estimated to change the course of the own vehicle 730 is 30 m from the own vehicle.
  • 45 m, 60 m, 75 m, and 120 m the depth position perceived by the viewer 100 when the position of the display object 180 (the position of the tip of the arrow) is set to indicate the second position P02. Asked.
  • a broken line C1 in the figure illustrates characteristics when the set depth distance Ls and the subjective depth distance Lsub match, and a solid line C2 represents the subjective depth distance Lsub actually obtained through experiments. ing.
  • the subjective depth distance Lsub substantially matches the set depth distance Ls.
  • the set depth distance Ls is 120 m
  • the subjective depth distance Lsub is 105 m, exceeding 30 m, which is the distance between the preceding vehicle 740 and the host vehicle 730, and more than the preceding vehicle 740.
  • the display object 180 is perceived at a position close to the front depth setting position.
  • the configuration of the in-vehicle display system of the comparative example is similar to the in-vehicle display system 10 according to the present embodiment. However, in the case of the comparative example, the configuration of the display object 180 is different from that in the present embodiment.
  • FIG. 8 is a schematic diagram showing the operation and characteristics of the in-vehicle display system of the first comparative example.
  • FIG. 4A is a schematic diagram illustrating the operation
  • FIG. 4B is a graph illustrating the characteristics.
  • the display object 180 has a shape arranged at the second display position P02. That is, the display object 180 does not reach the second visual field image position PV02 corresponding to the second position P02 from the first visual field image position PV01 corresponding to the first position P01.
  • the position was determined by experiment.
  • the preceding vehicle 740 is disposed at a position 30 m ahead of the course as viewed from the host vehicle 730.
  • the display object 180 is generated at the position of the second visual field image position PV02 corresponding to the second position P02, and the positions of the second position P02 (positions of 30 m, 45 m, 60 m, 75 m, and 120 m as viewed from the own vehicle 730).
  • the display object 180 is arranged at each position PV30, PV45, PV60, PV75, and PV120 in the field-of-view image VI corresponding to each of FIGS.
  • the size of the display object 180 is changed corresponding to the depth position.
  • FIG. 8B illustrates the result of this experiment.
  • the subjective depth distance Lsub perceived by the display object 180 is significantly different from the set depth distance Ls.
  • the subjective depth distance Lsub is about 60 m, which is perceived in front of the set depth position.
  • FIG. 9 is a schematic diagram showing the operation and characteristics of the in-vehicle display system of the second comparative example.
  • FIG. 4A is a schematic diagram illustrating the operation
  • FIG. 4B is a graph illustrating the characteristics.
  • the display object 180 corresponds to the second position P02 from the first visual field image position PV01 corresponding to the first position P01. It reaches the second visual field image position PV02, but does not have depth information. That is, the size of the display object 180 (for example, the thickness of the arrow) is constant from the first visual field image position PV01 to the second visual field image position PV02. In the figure, the preceding vehicle 740 is not displayed.
  • the position was determined by experiment. In this case, an experiment was conducted assuming that there is no preceding vehicle 740 so that the depth position of the display object 180 can be more easily perceived.
  • FIG. 9B illustrates the result of this experiment.
  • the subjective depth distance Lsub perceived by the display object 180 is significantly different from the set depth distance Ls.
  • the subjective depth distance Lsub is about 60 m, which is perceived in front of the set depth position.
  • the subjective depth distance Lsub is better than the set depth distance Ls as compared to the first and second comparative examples. Match.
  • the operation of the in-vehicle display system 10 when the preceding vehicle 740 exists in front of the course of the host vehicle 730 has been described.
  • the preceding vehicle 740 exists. If not, the operation is arbitrary.
  • the display object 180 may be generated in the same manner as when the preceding vehicle 740 exists. That is, the first position P01 is set to a position at a predetermined distance in front of the course when viewed from the own vehicle 730, and the second position P02 is set to a position such as a branch point (intersection) such as a road that prompts the user to change the course. From the first field image position PV01 to the second field image position PV02 using the first field image position PV01 and the second field image position PV02 respectively corresponding to the first position P01 and the second position P02, The display object 180 may be generated so as to have depth information.
  • FIG. 10 is a schematic diagram showing another operation and characteristics of the vehicle-mounted display system according to the first embodiment of the present invention.
  • FIG. 4A is a schematic diagram illustrating the operation
  • FIG. 4B is a graph illustrating the characteristics.
  • the second position P ⁇ b> 02 such as a branch point (intersection) such as a road urging to change the course is displayed.
  • a display object 180 is generated at the corresponding second visual field image position PV02.
  • the position of the second position P02 is 30m, 45m, 60m, 75m, and 120m when viewed from the own vehicle 730, the position of each position PV30, PV45, PV60, PV75, and PV120 in the corresponding visual field image VI.
  • a display object 180 is arranged. At this time, the size of the display object 180 is changed corresponding to the depth position.
  • the subjective depth distance Lsub matches the set depth distance Ls well. That is, when the preceding vehicle 740 does not exist, the display object 180 is not shielded by the image of the preceding vehicle 740, and thus the displayed display object 180 is perceived with high accuracy at the set depth position. .
  • the display object 180 is displayed at a predetermined depth position, and for example, the arrow points upward in the trouble of changing the course. Then, when approaching a point such as an intersection where the route is changed, the direction of the arrow of the display object 180 may be rotated in the direction of changing the route without changing the size and shape of the display object 180.
  • the shape of the arrow of the display object 180 is gradually changed before the point where the course is to be changed, so that the tip of the arrow of the display object 180 is higher than that of the preceding vehicle 740. Place it first and display the direction of the course you want to change.
  • the display object 180 can be different depending on whether the preceding vehicle 740 is detected or not.
  • the display mode of the display object 180 depending on the presence or absence of the preceding vehicle 740, it becomes easier to recognize the difference between the preceding vehicle 740 and the display object 180, and the position of an intersection or the like that changes the course can be perceived more easily. it can.
  • FIG. 11 is a flowchart showing the operation of the in-vehicle display system according to the first embodiment of the present invention.
  • map information is acquired (step S001).
  • the target position is set (step S002).
  • the own vehicle position information which is the position of the own vehicle 730 is acquired by GPS etc., for example (step S003). And based on these, the route information estimated that the own vehicle 730 advances is produced
  • step S003 may be implemented inside the vehicle-mounted display system 10, and may be implemented by GPS or a radar system provided outside the vehicle-mounted display system 10, for example. Further, the above steps S001, S002, and S004 may also be performed inside the in-vehicle display system 10, or may be performed by a navigation system provided outside the in-vehicle display system.
  • step S005 forward information ahead of the course at each time in progress of the own vehicle 730 is acquired. That is, in the traveling own vehicle 730, the front information that changes with the passage of time is obtained. This is performed by the forward information acquisition unit 410.
  • step S006 a position for changing the course is acquired. That is, in the traveling own vehicle 730, the branch point where the course is changed is grasped.
  • the preceding vehicle 740 is detected (step S007).
  • an image of a preceding vehicle 740 captured by a camera or the like, an inter-vehicle communication system, a road-vehicle communication system, a satellite communication system, or the like is used.
  • information regarding the preceding vehicle 740 is obtained, and it is determined whether or not the preceding vehicle 740 exists (step S008). This is performed by the preceding vehicle information acquisition unit 420.
  • the second position P02 position to change the course where the display object 180 is arranged is determined (step S009).
  • the first position P01 is determined (step S010).
  • the first position P01 and the second position P02 may be set to be the same regardless of the presence or absence of the preceding vehicle 740.
  • step S011 an image of the viewer 100 is captured by a camera or the like (step S011), and based on this, position information of the one eye 101 of the viewer 100 is acquired (step S012). This is performed by the position estimation unit 210.
  • step S013 the difference between the reference position O (0, h1, 0) described with reference to FIG. 5 and the one eye position E (Ex, Ey, Ez) is corrected (step S013).
  • the display object 180 is generated based on the determined first position P01 and second position P02 (step S014). That is, the processing described with reference to FIGS. 5 and 6 is performed.
  • step S015 image distortion caused by various optical components included in the video projection unit 115 and the video formation unit 110 is corrected.
  • the above operations are performed by, for example, the video data generation unit 130 of the video projection unit 115. Then, a video signal including the generated display object 180 is provided to the video forming unit 110, and based on this, a light beam 112 is generated and the light beam 112 is projected onto the one eye 101 of the viewer 100.
  • the display object indicating the course can be perceived at a predetermined position farther than the preceding vehicle.
  • steps S001 to S015 may be replaced within the technically possible range, or may be performed simultaneously.
  • the end of the display object 180 on the second visual field image position PV02 side is disposed outside the region corresponding to the preceding vehicle 740 in the visual field image VI. Yes. That is, the end of the display object 180 on the second visual field image position PV02 side is disposed outside the image 740I of the preceding vehicle 740.
  • the second position P02 the position of a branching point such as a road that prompts the user to change the course
  • the second visual field image position PV02 can be more accurately perceived.
  • the end of the display object 180 on the second visual field image position PV02 side is arranged at a position not including the region corresponding to the preceding vehicle 740 in the visual field image VI.
  • the display object 180 can have a continuous shape from the first visual field image position PV01 to the second visual field image position PV02.
  • the position from the first visual field image position PV01 through the preceding vehicle 740 to the second visual field image position PV02 which is a position ahead of the preceding vehicle 740 is more easily perceived, and the second visual field image position PV02.
  • the depth position can be perceived more accurately.
  • the present invention is not limited to this, and the display mode of the display object 180 can be variously modified as described below.
  • FIG. 12 is a schematic diagram showing another operation and characteristics of the in-vehicle display system according to the first embodiment of the present invention.
  • FIG. 4A is a schematic diagram illustrating the operation
  • FIG. 4B is a graph illustrating the characteristics.
  • the display object 180 is generated so as to move along a path from the first visual field image position PV01 to the second visual field image position PV02. Is done. Also at this time, the display object 180 has depth information. For example, the size of the display object 180 is smaller on the second visual field image position PV02 side than on the first visual field image position PV01 side.
  • the end of the display object 180 on the second visual field image position PV02 side is disposed outside the region corresponding to the preceding vehicle 740 in the visual field image VI. That is, at the second visual field image position PV02 corresponding to the second position P01 for changing the course, the tip of the arrow of the display object 180 is bent in the direction for changing the course. For example, in the first visual field image position PV01, the direction of the arrow is upward, and in the second visual field image position PV02, the arrow tip is moved in the horizontal direction to a position where it does not overlap the image of the preceding vehicle 740, and is directed in the horizontal direction. .
  • the subjective depth distance Lsub agrees well with the set depth distance Ls.
  • FIG. 13 is a schematic diagram showing another operation and characteristics of the vehicle-mounted display system according to the first embodiment of the present invention.
  • FIG. 4A is a schematic diagram illustrating the operation
  • FIG. 4B is a graph illustrating the characteristics.
  • the display object 180 is generated so as to move along a path from the first visual field image position PV01 to the second visual field image position PV02.
  • the end of the display object 180 on the second visual field image position PV02 side is disposed inside the region corresponding to the preceding vehicle 740 in the visual field image VI.
  • the subjective depth distance Lsub also matches the set depth distance Ls well in this case, but FIG. 12B is compared with FIG.
  • the characteristic illustrated in (b) has a higher degree of coincidence between the subjective depth distance Lsub and the set depth distance Ls.
  • the end of the display object 180 on the second visual field image position PV02 side is not shielded by the image of the preceding vehicle 740, and the depth position of the second visual field image position PV02 of the display object 180 is more accurately perceived. be able to.
  • FIG. 14 is a schematic diagram showing another operation of the in-vehicle display system according to the first embodiment of the present invention.
  • the display object 180 in another operation of the in-vehicle display system 10, the display object 180 extends from the first visual field image position PV01 to the second visual field image position PV02 and is intermittently arranged. It has an element 180p. In this specific example, the plurality of display object elements 180p are displayed simultaneously.
  • FIG. 15 is a schematic diagram showing another operation of the in-vehicle display system according to the first embodiment of the present invention. That is, FIGS. 9A to 9C illustrate the display state of the display object 180 at different times, where FIG. 10A is the initial time, and FIG. ) Later than (), and (c) in the figure is the time after (b) in the same figure.
  • a plurality of display objects 180 are arranged intermittently from the first visual field image position PV01 to the second visual field image position PV02.
  • the plurality of display object elements 180p are sequentially displayed and sequentially disappear.
  • the first display object element 180p1 among the plurality of display object elements 180p is the second display object arranged on the second visual field image position PV02 side with respect to the first display object element 180p1. It disappears earlier in time than element 180p2. In this way, the display object 180 may be displayed like a telop.
  • the number of the plurality of display object elements 180p is increased, the first display object element 180p1 on the first visual field image position PV01 side, and the second visual field image.
  • the operation of reducing the difference from the second display object element 180p2 on the position PV02 side corresponds to the operation of moving the display object 180 illustrated in FIGS.
  • the display object 180 can be generated in any display mode.
  • FIG. 16 is a schematic diagram showing another operation of the in-vehicle display system according to the first embodiment of the present invention. That is, FIG. 5A illustrates the display object 180 when the host vehicle 730 is moving without changing the route, and FIG. 5B is a display object at the first time when the route is changed. 180 illustrates the display object 180 at a time later than that in FIG.
  • the display object 180 corresponds to, for example, the depth position in front of the preceding vehicle 740. Is displayed.
  • the first position P01 and the second position P02 which is the position to change the course, are set at a position in front of the preceding vehicle 740.
  • the root of the arrow from the root of the arrow of the display object 180 is displayed.
  • An arrow extends in the direction.
  • the tip of the arrow of the display object 180 is set to the position of the second visual field image position PV02 corresponding to the second position P02.
  • the direction of travel at the intersection where the course is changed is indicated by the bending of the tip of the arrow of the display object 180.
  • the information on depth is shown by displaying the base of the arrow of the display object 180 large (thick) and the small part of the arrow small (thin).
  • the image forming unit 110 for example, various optical switches such as DMD (Digital Micromirror Device) and MEMS (Micro-electro-mechanical System) are used in addition to the LCD. it can.
  • the image forming unit 110 may be a laser projector, an LED (light emitting diode) projector, or the like. In this case, an image is formed by a laser beam.
  • the apparatus can be reduced in size and power consumption.
  • the lenticular lens 120b is used as a means for controlling the divergence angle of the light beam 112.
  • a diffusion plate with a controlled diffusion angle can be used.
  • the angle of the mirror 126 can be adjusted by the driving unit 126a.
  • a concave mirror can be used as a reflecting surface having power in addition to the plane mirror.
  • the angle can be changed by the driving unit 126a.
  • image distortion depending on the angle of the mirror 126 and the like may occur. This is corrected by the video data generation unit 130 so that the video without distortion can be viewed. It can be presented to the viewer 100.
  • a luminous flux 112 with a controlled divergence angle reaches the viewer 100, and the viewer 100 views the image with one eye 101, but the distance between both eyes of the viewer 100 is an average. Since the distance is 6 cm, an image is not projected on both eyes when the width of the light beam 112 on the head 105 of the viewer 100 is controlled to about 6 cm. Note that it is preferable to project an image on the dominant eye of the viewer 100 for ease of viewing the image.
  • control unit 250 controls the angle of the mirror 126 by controlling the drive unit 126a connected to the mirror 126 that forms a part of the projection unit 120.
  • the projection range 114a can be controlled by controlling the various optical components constituting the.
  • control unit 250 may control the video forming unit 110 to adjust the luminance and contrast of the video.
  • the control unit 250 automatically adjusts at least one of the projection range 114a and the projection position 114 of the light beam 112 based on the estimated position of the one eye 101.
  • at least one of the projection range 114 a and the projection position 114 of the light beam 112 may be manually adjusted based on the estimated position of the one eye 101.
  • the angle of the mirror 126 can be controlled by manually controlling the drive unit 126a while viewing the image of the head 105 of the viewer 100 captured by the projection unit 120 on some display. .
  • the video data generation unit 130 generates data related to the video including the display object 180 based on the front information acquired by the front information acquisition unit 410 and the position of the one eye 101 estimated by the viewer 100.
  • the display object 180 may be generated based on the front information acquired by the front information acquiring unit 410. In this case, the front information and the position of the one eye 101 are also determined. It is assumed that data relating to a video including the display object 180 is generated based on the above.
  • the calculation unit 213 of the position estimation unit 210 calculates the face recognition of the viewer 100 and the eyeball position as a face component using, for example, a technique related to person authentication described in Japanese Patent No. 3279913. Then, the position of one eye 101 that projects the image of the viewer 100 is judged and estimated.
  • FIG. 17 is a schematic diagram showing the configuration of another in-vehicle display system according to the first embodiment of the present invention.
  • another vehicle-mounted display system 11 according to the present embodiment further includes a front information detection unit 424 and a route generation unit 450.
  • the description is omitted.
  • the forward information detection unit 424 includes, for example, a front imaging unit 421 (camera), an image analysis unit 422 that analyzes an image captured by the front imaging unit 421, and an image analyzed by the image analysis unit 422 from roads and intersections.
  • a front information generation unit 423 that extracts various types of information related to the shape and obstacles and generates front information. As a result, data relating to the road conditions ahead (the shape of roads and intersections) detected by the forward information detector 424 is acquired as the forward information.
  • the front information detected by the front information detection unit 424 is supplied to the front information acquisition unit 410.
  • the front information detection unit 424 can also detect information related to the preceding vehicle 740 by performing image analysis on the image captured by the front imaging unit 421, and obtain preceding vehicle information detected by the front information detection unit 424. You may supply to the part 420. FIG.
  • front information detection unit 424 may be incorporated in the front information acquisition unit 410 or the preceding vehicle information acquisition unit 420.
  • the route generation unit 450 generates route information (route information) on which the host vehicle 730 is estimated to travel.
  • the route generation unit 450 calculates a route on which the host vehicle 730 is estimated to travel based on, for example, map information and the current position of the host vehicle 730. At this time, for example, several route candidates may be calculated, the viewer 100 who is the driver of the host vehicle 730 is prompted to select, and the route may be determined based on the result.
  • the position for changing the course is obtained based on the generated route information, and the display object 180 is generated based on the position.
  • route generation unit 450 can be incorporated in the video data generation unit 130, for example. Moreover, you may incorporate in the various components incorporated in the vehicle-mounted display system.
  • the route generation unit 450 may not be provided in the in-vehicle display system 11.
  • a navigation system separately provided in the host vehicle 730 is provided with a portion corresponding to the route generation unit 450, and a route generated by the navigator system and estimated to travel by the host vehicle 730 is obtained.
  • the data generation unit 130 may generate video data including the display object 180.
  • a portion corresponding to the route generation unit 450 may be provided separately from the host vehicle 730.
  • data is acquired from a portion corresponding to the route generation unit 450 provided separately from the host vehicle 730 by wireless technology, and the video data generation unit 130 generates video data including the display object 180. be able to.
  • the route generation unit 450 (and a portion corresponding thereto) can be provided at an arbitrary place.
  • FIG. 18 is a schematic diagram showing the configuration of another in-vehicle display system according to the first embodiment of the present invention.
  • another in-vehicle display system 12 according to the present embodiment is different from the in-vehicle display system 10 illustrated in FIG. 2 in the configuration of the video projection unit 115.
  • the configurations of the image forming unit 110 and the projection unit 120 are different.
  • This specific example is an example in which the control unit 250 is not provided. Other than this, since it is the same as the in-vehicle display system 10, the description is omitted.
  • various optical switches such as LCD, DMD, and MEMS can be used as the image forming unit 110, for example.
  • the image forming unit 110 may be a laser projector, an LED projector, or the like.
  • the projection unit 120 includes, for example, a light source 121, a tapered light guide 122, a first lens 123, a variable aperture 124, a second lens 125, for example, a concave movable mirror 126, and an aspheric Fresnel.
  • a lens 127 is used. For example, if the focal length of the first lens 123 is f1 and the focal length of the second lens 125 is f2, the variable aperture 124 has a distance of f1 from the first lens 123 and a distance of f2 from the second lens 125. In place.
  • the light beam emitted from the second lens 125 enters the image forming unit 110 and becomes a light beam 112 modulated based on the image formed by the image forming unit 110.
  • the light beam 112 passes through the mirror 126 and the aspheric Fresnel lens 127, is reflected by the reflector 711 of the windshield 710 of the host vehicle 730 on which the in-vehicle display system 12 is mounted, and is projected onto the one eye 101 of the viewer 100.
  • the aspheric Fresnel lens 127 can be designed so that the shape (cross-sectional shape, etc.) of the light beam 112 can be controlled in accordance with the shape of the windshield 710, for example.
  • FIG. 19 is a flowchart showing a display method according to the second embodiment of the present invention.
  • the front information regarding the forward path of the host vehicle 730 is acquired (step SS ⁇ b> 1).
  • the preceding vehicle information regarding the preceding vehicle 740 which exists ahead of the course is acquired (step SS2).
  • the position of the one eye 101 of the 100 viewers boarding the host vehicle 730 is estimated (step SS3).
  • a visual field image VI when the viewer 100 views the front of the vehicle 730 in the course is estimated (step SS4).
  • the vehicle reaches the second visual field image position PV02 in the visual field image VI corresponding to the second position P02 estimated to change the course of the host vehicle 730, and generates a display object 180 having depth information (step SS5).
  • a light beam 112 including an image having the display object 180 is generated (step SS6). Then, the light flux 112 is projected toward the one eye 101 of the viewer 100 based on the estimated position of the one eye 101 (step SS7).
  • steps SS1 to SS7 may be interchanged within a technically possible range, or may be performed simultaneously.
  • the vehicle according to this embodiment is the host vehicle 730 described above. That is, as illustrated in FIG. 2, the host vehicle 730 directs the viewer 100 with the on-vehicle display system according to the first embodiment and the light beam 112 emitted from the on-vehicle display system. A windshield 710 to be reflected.
  • the host vehicle 730 includes the in-vehicle display system 10 at the back of the dashboard 720 of the host vehicle 730 when viewed from the viewer 100, for example.
  • in-vehicle display systems, display methods, and vehicles that can be implemented by those skilled in the art based on the above-described in-vehicle display system, display method, and vehicle as embodiments of the present invention, As long as the gist of the invention is included, it belongs to the scope of the present invention.
  • a monocular in-vehicle display system a display method, and a vehicle that allow a display object indicating a course to be perceived at a predetermined position farther than a preceding vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

自車両の進路前方に関する前方情報を取得する前方情報取得部と、前記進路前方に存在する先行車両に関する先行車両情報を取得する先行車両情報取得部と、前記自車両に搭乗する観視者の片目の位置を推定する位置推定部と、表示オブジェクトを有する映像情報を含む光束を生成し、前記光束を前記片目の位置に基づいて前記片目に向けて投影する映像投影部と、を備えた車載表示システムを提供する。前記映像投影部は、前記先行車両情報取得部によって取得された前記先行車両の位置よりも前記自車両の側の第1位置に対応する前記視野像内における第1視野像位置から、前記先行車両の位置の前記第1位置とは反対の側であって前記自車両が進路を変更すると推定される第2位置に対応する前記視野像内における第2視野像位置に到り、奥行き情報を有する前記表示オブジェクトを生成する映像データ生成部を有する車載用表示システム、表示方法及び車両を提供する。

Description

車載用表示システム、表示方法及び車両
 本発明は、車載用表示システム、表示方法及び車両に関する。
 車載用の表示装置として、車両の速度等の運行情報や目的地へのナビゲーション情報などの車両情報をフロントガラスに投影して、外界情報と車両情報とを同時に視認可能とするHUD(Head-Up Display)が開発されている。
 HUDは、見るヒトに対して直感的な表示の呈示が可能であり、運転者が観察する背景にマッチさせて経路表示などの情報の表示を行うことが提案されている。例えば、外界の状況に応じて表示する図形を変える方法(特許文献1)や、車速に応じて表示する図像等の大きさを変える方法(特許文献2)が提案されている。
 これらの技術を含め、通常のHUDの場合には、HUDの表示は両眼で観察される。HUDによって表示される虚像の奥行き位置は、光学的に設計された位置(光学的表示位置)であり、多くの場合、運転者から2~3m先の位置に設定される。従って、両眼視のHUDの場合、運転者が運転中に遠方を見ながらHUDの表示を同時に見ようとすると、HUDの表示物は2重像となって認識されるため、非常に見にくい。逆に、HUDの表示を見ようとすると、両眼視差によって表示像は2~3m先に認識されるために、背景の遠方を同時に認識することが困難である。
 さらに、HUDの表示像はフロントガラスなどに反射されて観察されるので、フロントガラスの反射スクリーンの厚さに起因した2重像が発生し、これによっても表示が見難くなる。
 このように、両眼視差に起因した見難さを解消するために、片目で表示像を観察する単眼視HUDが提案されている。例えば、両眼視差をなくして、HUDによる表示物の奥行き位置を光学的表示位置よりも遠くに見せる目的で片目のみに表示像を提示する技術がある。 
 また、上記の2重像を防止する目的で、片目のみに表示像を呈示する技術が提案されている(特許文献3)。
 このような単眼視HUDにおいて、前方に先行車があった場合、表示オブジェクトが先行車に重なったときには表示オブジェクトは先行車よりも手前に表示されることから、遮蔽効果によって表示オブジェクトは先行車よりも手前にあるように見える。従って、表示オブジェクトを先行車よりも遠方に知覚させることが困難である。特に、経路案内をするナビゲーション表示の場合には、先行車よりも遠い位置の曲がり角などを表示することが困難である。
特開2006-284458号公報 特開2006-17626号公報 特開平7-228172号公報
 本発明は、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の車載用表示システム、表示方法及び車両を提供する。
 本発明の一態様によれば、自車両の進路前方に関する前方情報を取得する前方情報取得部と、前記進路前方に存在する先行車両に関する先行車両情報を取得する先行車両情報取得部と、前記自車両に搭乗する観視者の片目の位置を推定する位置推定部と、表示オブジェクトを有する映像情報を含む光束を生成し、前記光束を前記片目の位置に基づいて前記観視者の前記片目に向けて投影する映像投影部と、を備え、前記映像投影部は、前記前方情報と前記片目の位置とに基づいて、前記観視者が前記自車両の前記進路前方を観視したときの視野像を推定し、前記先行車両情報取得部によって取得された前記先行車両の位置よりも前記自車両の側の第1位置に対応する前記視野像内における第1視野像位置から、前記先行車両の位置の前記第1位置とは反対の側であって前記自車両が進路を変更すると推定される第2位置に対応する前記視野像内における第2視野像位置に到り、奥行き情報を有する前記表示オブジェクトを生成する映像データ生成部を有することを特徴とする車載用表示システムが提供される。
 また、本発明の他の一態様によれば、自車両の進路前方に関する前方情報を取得し、前記進路前方に存在する先行車両に関する先行車両情報を取得し、前記自車両に搭乗する観視者の片目の位置を推定し、前記前方情報と前記片目の位置とに基づいて、前記観視者が前記自車両の前記進路前方を観視したときの視野像を推定し、前記先行車両の位置よりも前記自車両の側の第1位置に対応する前記視野像内における第1視野像位置から、前記先行車両の位置の前記第1位置とは反対の側であって前記自車両が進路を変更すると推定される第2位置に対応する前記視野像内における第2視野像位置に到り、奥行き情報を有する前記表示オブジェクトを生成し、前記表示オブジェクトを有する映像を含む光束を生成し、前記光束を前記片目の位置に基づいて前記観視者の前記片目に向けて投影することを特徴とする表示方法が提供される。
 また、本発明の他の一態様によれば、上記の車載用表示システムと、前記車載用表示システムから出射される前記光束を前記観視者に向けて反射させるフロントガラスと、を備えたことを特徴とする車両が提供される。
 本発明によれば、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の車載用表示システム、表示方法及び車両が提供される。
図1(a)及び図1(b)は、本発明の第1の実施形態に係る車載用表示システムの動作を示す模式図である。 本発明の第1の実施形態に係る車載用表示システムの構成を示す模式図である。 本発明の第1の実施形態に係る車載用表示システムの動作状態を示す模式図である。 本発明の第1の実施形態に係る車載用表示システムの動作を示す模式図である。 図5(a)及び図5(b)は、本発明の第1の実施形態に係る車載用表示システムの動作を示す模式図である。 図6(c)、図6(b)及び図6(c)は、本発明の第1の実施形態に係る車載用表示システムの動作を示す模式図である。 本発明の第1の実施形態に係る車載用表示システムの特性を示すグラフ図である。 図8(a)及び図8(b)は、第1の比較例の車載用表示システムの動作と特性を示す模式図である。 図9(a)及び図9(b)は、第2の比較例の車載用表示システムの動作と特性を示す模式図である。 図10(a)及び図10(b)は、本発明の第1の実施形態に係る車載用表示システムの別の動作と特性を示す模式図である。 本発明の第1の実施形態に係る車載用表示システムの動作を示すフローチャート図である。 図12(a)及び図12(b)は、本発明の第1の実施形態に係る車載用表示システムの別の動作と特性を示す模式図である。 図13(a)及び図13(b)は、本発明の第1の実施形態に係る車載用表示システムの別の動作と特性を示す模式図である。 本発明の第1の実施形態に係る車載用表示システムの別の動作を示す模式図である。 図15(a)、図15(b)及び図15(c)は、本発明の第1の実施形態に係る車載用表示システムの別の動作を示す模式図である。 図16(a)、図16(b)及び図16(c)は、本発明の第1の実施形態に係る車載用表示システムの別の動作を示す模式図である。 本発明の第1の実施形態に係る別の車載用表示システムの構成を示す模式図である。 本発明の第1の実施形態に係る別の車載用表示システムの構成を示す模式図である。 本発明の第2の実施形態に係る表示方法を示すフローチャート図である。
 以下、本発明の実施の形態について図面を参照して詳細に説明する。 
 なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
 (第1の実施の形態)
 図1は、本発明の第1の実施形態に係る車載用表示システムの動作を示す模式図である。 
 図2は、本実施形態に係る車載用表示システムの構成を示す模式図である。 
 図3は、本実施形態に係る車載用表示システムの動作状態を示す模式図である。 
 図4~6は、本実施形態に係る車載用表示システムの動作を示す模式図である。
 まず、図2~図6によって、本実施形態に係る車載用表示ステムの構成及び動作の概要を説明する。 
 図2に表したように、本実施形態に係る車載用表示システム10は、前方情報取得部410と先行車両情報取得部420と位置推定部210と映像投影部115とを備える。
 前方情報取得部410は、自車両730の進路前方に関する情報である前方情報を取得する。先行車両情報取得部420は、自車両730の進路前方に存在する先行車両740に関する先行車両情報を取得する。位置推定部210は、自車両730に搭乗する観視者100の片目101の位置を推定する。映像投影部115は、表示オブジェクト180を有する映像を含む光束112を、推定された片目101の位置に基づいて観視者100の片目101に向けて投影する。
 自車両730は、例えば自動車などの車両であり、観視者100はその自動車を操縦する運転者(操縦者)である。すなわち、自車両730は、本実施形態に係る車載用表示システム10が搭載される車両である。
 前方情報は、自車両730の進路前方に関する情報であり、自車両730が進行すると推定される進行方向に関する進路前方に関する情報であり、道路や交差点の形状等を含む情報である。
 前方情報取得部410は、例えば、カメラなどによって撮像された自車両730の前方の像に基づいて前方情報を取得する。また、例えば、自車両730の位置をGPS(Global Positioning System)機能を用いて特定し、これに基づいて、各種の通信機能を用いて前方情報を取得する。また、例えば、道路や建物等に設置される撮像機能やレーダ機能とそれと連結された各種のデータベースとの通信によって、前方情報を取得しても良い。このように、前方情報取得部410における前方情報の取得方法は任意である。
 先行車両740は、例えば、自車両730の進路前方において、自車両730との距離が予め定められた距離以内に存在する車両である。例えば、この予め定められた距離は、例えば自車両730の移動速度や、自車両730が進行している道の幅などの各種の状況によって変えることができる。
 先行車両情報取得部420は、この先行車両740に関する先行車両情報を取得する。先行車両情報は、先行車両740の有無に関する情報を含む。すなわち、例えば、自車両730との距離が予め定められた距離以内に存在するという先行車両情報が取得できた場合には、先行車両740が存在するとし、それ以外の場合は、先行車両740が存在しないとする。
 先行車両情報取得部420は、例えば、カメラなどによって撮像された先行車両740の像に基づいて先行車両情報を取得する。また、例えば、車車間通信システムや路車間通信システムを用いて、先行車両情報を取得する。また、例えば、自車両730及び他車両のそれぞれの位置情報の例えば衛星通信システムを用いた授受によって、先行車両情報を取得する。このように、先行車両情報取得部420における先行車両情報の取得方法は任意である。
 表示オブジェクト180は、車載用表示システム10が観視者100に呈示する映像に設けられるものであり、例えば、車載用表示システム10が搭載される自車両730の運行情報に関する、進行方向を示す矢印等を含む表示の内容物である。すなわち、表示オブジェクト180は、例えば、ナビゲーションシステムにおける経路を示す矢印である。
 このような表示オブジェクト180は、例えば、地図情報から目的地までの経路を生成するナビゲーションシステムによって求められた経路と、例えばGPS等によって求められた自車両730の位置と、によって求められた、自車両730が進行すると予想される進行方向に基づいて生成される。なお、上記の経路を求める部分や自車両730の位置を求める部分は、車載用表示システム10の内部に組み込まれても良く、また、車載用表示システム10が搭載される自車両730に組み込まれても良い。
 図2に例示したように、車載用表示システム10は、例えば自車両730の中、すなわち、例えば、操縦者である観視者100からみて自車両730のダッシュボード720の奥に設けられる。
 映像投影部115は、例えば、映像データ生成部130と、映像形成部110と、投影部120と、を有する。
 映像データ生成部130は、表示オブジェクト180を有する映像に関するデータを生成する。そして、映像データ生成部130で生成された映像データを含む映像信号は、映像形成部110に供給される。
 映像形成部110は、映像データ生成部130から供給された映像信号に基づいて、映像形成部110の例えば画面に映像を形成する。映像形成部110としては、例えば、光源を有する液晶表示装置LCDを用いることができる。
 そして、投影部120は、映像形成部110で形成された映像を観視者100の片目101に投影する。
 投影部120には、例えば、投影レンズ、ミラー、及び、発散角(拡散角)を制御する各種の光学素子が用いられる。また、場合によっては、投影部120は光源を含む。 
 本具体例では、投影部120として、結像レンズ120a、発散角を制御するレンチキュラーレンズ120b、ミラー126及び非球面フレネルレンズ127が用いられている。
 そして、映像形成部110から出射した光束112は、結像レンズ120a、レンチキュラーレンズ120b、ミラー126及び非球面フレネルレンズ127を経て、車載用表示システム10が搭載される自車両730の例えばフロントガラス710(ウインドシールド、透明板)に設けられる反射体711(半透明の反射体)により反射され、観視者100の片目101に投影される。そして観視者100は、反射体711を介して、虚像形成位置310aの位置に形成された表示オブジェクト180の虚像310を知覚する。
 なお、映像投影部115の構成は任意であり、例えば、上記の映像データ生成部130、映像形成部110及び投影部120のそれぞれの構成も任意である。これらに関しては、後述するように各種の変形が可能である。
 一方、位置推定部210は、観視者100の映像が投影される片目101を推定する。位置推定部210は、例えば、観視者100を撮像する撮像部211と、撮像部211によって撮像された撮像画像を画像処理する画像処理部212と、画像処理部212で画像処理されたデータに基づいて、観視者100の片目101の位置を判断し、推定する演算部213と、を含むことができる。
 なお、撮像部211は、例えば、自車両730の運転席の前方や側方に配置され、例えば、操縦者である観視者100の顔面の像を撮像し、上記のように、観視者の片目101の位置を推定する。
 さらに、本具体例では、制御部250がさらに設けられており、制御部250は、位置推定部210で推定された観視者100の片目101の位置に基づいて、映像投影部115を制御することにより、光束112の投影範囲114aと投影位置114の少なくともいずれかを調整することができる。
 制御部250は、例えば、投影部120の一部を構成するミラー126に連結された駆動部126aを制御して、ミラー126の角度を制御することによって、投影位置114を制御する。これにより、観視者100の頭部105が動いた際にも、それに追従して、映像の呈示位置を制御することが可能となり、観視者100の頭部105の移動による映像呈示位置からの外れがなくなり、実用的な観視範囲を広くすることが可能になる。
 図3に表したように、本実施形態に係る車載用表示システム10においては、表示映像510として、表示オブジェクト180が表示され、フロントガラス710の反射体711(図示せず)に投影して表示される。これにより、観視者100は、外界映像520と表示映像510とを同時に見る。このように、車載用表示システム10は車載用のHUDとして用いられる。
 なお、表示オブジェクト180は、外界映像520の位置に対応させて表示映像510内での位置が制御される。 
 表示映像510は、このような表示オブジェクト180の他に、外界映像520とは独立して制御される、例えば、現在位置511、周辺の建物情報等512、速度や燃料等の車両情報514等を含むことができる。
 HUDは背景(外界映像520)に重畳した表示ができるため、観視者100は直感的に表示を把握できることが利点である。特に、単眼視HUDは、観視者100の注視点が遠くにあってもHUD表示も同時に見ることが可能であるので、外界に重畳させる表示に向いている。
 表示オブジェクト180を生成する映像投影部115の例えば映像データ生成部130は、仮想的な映像空間を有することができる。この仮想的な映像空間は、表示オブジェクト180が表示される虚像の表示位置を基準として、実空間と対応付けがされている。そして、仮想的な映像空間内の座標位置が、実空間に反映されるように表示オブジェクト180が生成される。
 図4に表したように、車載用表示システム10においては、表示オブジェクト180は、表示オブジェクト180が示す実空間RS内の目的の位置に対応した、観視者100の視野像VI内の位置に生成される。
 すなわち、映像投影部115は、前方情報取得部410によって取得された前方情報と、位置推定部210によって推定された片目101の位置と、に基づいて、観視者100が自車両730の進路前方を観視したときの視野像VIを推定する。例えば、観視者100が、進路前方を観視したときの道等の前方情報530を観視者100がどのように見ているかを推定し、推定した視野像VIに、実空間RSの道等の前方情報530に対応した像530vを推定する。なお、この際、像530vは実際に像として形成されなくとも良く、実空間RSにおける前方情報530の各位置に対応した仮想的な位置であっても良い。
 そして、推定された視野像VIに基づいて、進路前方の目的の位置(ターゲットの位置521)に対応する視野像VI内の位置(視野像VI内の位置521v)に表示オブジェクト180が配置されるように表示オブジェクト180は生成される。 
 上記の視野像VIの推定及び表示オブジェクト180の配置の方法の例に関しては後述する。
 そして、映像投影部115は、表示オブジェクト180を有する映像を含む光束112を生成し、光束112を位置推定部210によって推定された片目101の位置に基づいて観視者100の片目101に向けて投影する。
 これにより、観視者100は、視野像VI内に生成された表示オブジェクト180を、表示オブジェクト180が対応する進路前方の背景の像と重畳して観視することで、背景の像と表示オブジェクト180とを違和感無く見ることができる。
 この時、進路前方の実空間における3次元の軸(x軸、y軸及びz軸)に対応させて、視野像VI内に3次元の軸(x1軸、y1軸及びz1軸)を定義することができる。さらに、視野像VIに対応する仮想空間VS内における3次元の軸(α軸、β軸及びγ軸)を定義することができる。
 例えばz軸は、自車両730の進行方向であり、x軸方向は左右方向であり、y軸は上下方向とする。そして、x1軸、y1軸及びz1軸は、視野像VI内においてx軸、y軸及びz軸にそれぞれ対応する軸である。そして、α軸、β軸及びγ軸は、仮想空間VS内において、x軸、y軸及びz軸にそれぞれ対応する軸である。
 なお、視野像VI内の3次元の空間は、観視者100と視野像VIとの間の距離(z1方向の距離)が一定であるとして、視野像VIは、例えば縦軸Va(y1軸に相当)と横軸Ha(x1軸に相当)の2次元の空間(平面)を有するとすることができる。
 そして、例えば、仮想空間VS内の所定の位置に、仮想視点101a(仮想式な視点)が設定され、仮想視点101aの位置から仮想空間VS内の表示オブジェクト180vを見たときに、表示オブジェクト180が奥行き情報を有するように表示オブジェクト180を生成する。
 すなわち、実空間RSにおける奥行きに対応した仮想空間VSにおいて奥行き情報を有するように、表示オブジェクト180の例えば大きさや形状が制御される。表示オブジェクト180は、例えば遠近法による奥行き情報を有する。
 例えば、仮想空間VSにおいて、仮想視点101aに近い側では、表示オブジェクト180は大きく、遠い側では表示オブジェクト180は小さく制御される。 
 この時、視野像VIに重畳されて表示される表示オブジェクト180の大きさは、例えば、上方向(y1の値が増大する方向)に行くに従って小さくなり、下方向(y1の値が小さくなる方向)に行くに従って大きくなる。
 これによって、観視者100は、表示オブジェクト180を観視したときに、表示オブジェクト180が知覚されるべき実空間RS内での奥行きの位置に、表示オブジェクト180を知覚し易くなる。
 なお、表示オブジェクト180の形状は、図4に例示したように、曲率を持った矢印の形状や、進路を変更する地点に変曲点を持った形状などとすることができる。そして、その形状は、上記のように、奥行き情報を有する形状である。
 以下、視野像VIを推定する方法の一例について説明する。 
 図5は、車載用表示システム10における座標系を例示している。すなわち、同図(a)は観視者100の頭上からみたときの模式図であり、同図(b)は観視者100の側面方向から見たときの模式図である。
 ここで、同図(a)及び(b)に表したように、(x、y、z)座標系において、観視者100の観視する片目(例えば、優位眼であり、例えば右目)101の位置を片目位置E(Ex、Ey、Ez)とする。 
 そして、本実施形態に係る車載用表示システム10によって形成される表示オブジェクト180を含む光束112が、自車両730の反射体711において反射される位置を、視野像VI内の位置である視野像位置P(Px、Py、Pz)とする。
 ここで、所定の基準位置O(0、h1、0)を定める。ここで座標軸の原点を地面に接する位置とし、(0、0、0)とする。すなわち、基準位置Oは、座標軸の原点から高さh1の位置である。
 そして、上記の所定の基準位置Oからみたときの、自車両730の進路前方における任意の位置を実空間位置Q(Qx、Qy、Qz)とする。なお、実空間位置Q(Qx、Qy、Qz)は、前方情報取得部410によって取得された前方情報に基づいて求められる。
 基準位置Oからみて、片目位置Eのx軸方向におけるシフト量をw1とし、視野像位置Pのx軸方向におけるシフト量をw2とし、実空間位置Qのx軸方向におけるシフト量をw3とする。 
 一方、座標軸の原点からみて、片目位置Eのy軸方向におけるシフト量がEyであり、基準位置Oからみて、視野像位置Pのy軸方向におけるシフト量が(h1-h2)であり、実空間位置Qのy軸方向におけるシフト量が(h1-h3)である。
 また、基準位置Oと視野像位置Pとの間のz軸方向の距離を距離Iとし、基準位置Oと実空間位置Qとの間のz軸方向の距離を距離Lとする。
 実空間位置Q(Qx、Qy、Qz)は奥行き情報であるQzに関するデータを有しているが、このような実空間位置Q(Qx、Qy、Qz)は、視野像VI内においては、x1-y1平面内の2次元の位置として推定されるので、以下では、x1軸方向とy1軸方向とに対応するx軸方向とy軸方向とに関して説明する。
 図5(a)に例示したように、x軸方向に関していうと、実空間位置Q(Qx、Qy)のx軸からのシフト量w3と、視野像位置P(Px、Py)のx軸からのシフト量w2と、の比は、距離Lと距離Iとの比と同一である。従って、基準位置Oに観視者100の片目101が配置されているときは、視野像位置P(Px、Py)のx軸方向の値すなわち、シフト量w2はw3×I/Lによって求まる。もし、観視者100の片目101が基準位置Oからずれている場合は、そのずれ量、すなわち、距離Ex(w1)によって補正すれば良い。
 一方、図5(b)に例示したように、Y軸方向に関していうと、実空間位置Q(Qx、Qy)のy軸方向におけるシフト量(h1-h3)と、視野像位置P(Px、Py)のy軸方向におけるシフト量(h1-h2)と、の比は、距離Lと距離Iとの比と同一である。従って、基準位置Oに観視者100の片目101が配置されているときは、視野像位置P(Px、Py)のy軸方向の値、すなわちシフト量(h1-h2)が、(h1-h3)×I/Lによって求まる。もし、観視者100の片目101が基準位置Oからずれている場合は、そのずれ量、すなわち、距離(h1-Ey)によって補正すれば良い。
 このように、観視者100が自車両730の進路前方を観視したときの実空間RSにおける実空間位置Qが対応する視野像VIにおける視野像位置Pを推定することができる。
 上記の実空間RSから視野像VIを推定する方法と同様の方法によって、表示オブジェクト180が示す実空間RS内の目的の位置に対応した視野像VI内の位置に、表示オブジェクト180を生成することができる。
 例えば、視野像位置P(Px、Py、Pz)に表示オブジェクト180が配置されるとする。この時、表示オブジェクト180が配置される位置は、表示オブジェクト180に含まれる各点の位置である。
 そして、上記の所定の基準位置Oからみたときに、表示オブジェクト180の虚像が実空間上に知覚される位置を、上記の実空間位置Q(Qx、Qy、Qz)とする。この時、距離Lは、表示オブジェクト180を設定する際の設定奥行き距離となる。すなわち、基準位置Oからみて設定奥行き距離の位置が奥行き目標位置となる。
 シフト量w3とシフト量w2との比が、距離Lと距離Iとの比と同一であること、及び、シフト量(h1-h3)とシフト量(h1-h2)との比が、距離Lと距離Iとの比と同一であることに基づいて、表示オブジェクト180を実空間RSに対応した視野像VI内の所定の位置に配置して生成することができる。
 図6(a)は、片目位置E(Ex、Ey)の位置を例示している。すなわち、同図は、撮像部211によって撮像された観視者100の頭部105の撮像画像を例示している。同図に表したように、この撮像画像が画像処理部212で画像処理され、演算部213によって、観視者100の片目101の位置が判断され、推定される。このようにして、基準位置Oから見たときの片目101の位置である片目位置E(Ex、Ey)が、位置推定部210によって推定される。すなわち、Ex及びEyが位置推定部210によって算出される。
 図6(b)は、表示オブジェクト180が配置される視野像VI内のターゲットの位置の視野像位置P(Px、Py)を例示している。同図には、前方情報取得部410で取得された前方情報の像530v(道路の幅や形状など)が例示されている。そして、表示オブジェクト180を表示すべきターゲットの位置に対応する視野像位置P(Px、Py)が求められる。すなわち、例えば、自車両730の進行する道において表示オブジェクト180を表示すべき位置に対応した位置が、視野像位置P(Px、Py)として求められる。
 図6(c)は、視野像VIに重畳して知覚される表示オブジェクト180の表示オブジェクト位置P1(Px1、Py1)を例示している。すなわち同図は、車載用表示システム10によって、自車両730の反射体711に投影される表示オブジェクト180の位置である表示オブジェクト位置P1(Px1、Py1)を例示している。この表示オブジェクト位置P1(Px1、Py1)は、上記の片目位置E(Ex、Ey)及びターゲットの位置に対応する視野像位置P(Px、Py)に基づいて定められる。
 このようにして、観視者100が進路前方の道等の前方情報530を観視したときの視野像VI内の前方情報530に対応した像530vを推定し、これにより、表示オブジェクト180の各位置が、実空間RSに対応した視野像VI内の対応する各位置に配置されるように生成される。
 図1(a)は、観視者100が、光束112に含まれる映像(表示映像510)と、自車両730の進路前方の背景と、を観視したときの視野像VIと表示オブジェクト180とを模式的に例示している。 
 図1(b)は、光束112に含まれる映像(表示映像510)の表示オブジェクト180を例示している。
 図1(a)に表したように、視野像VIには、前方の道等に関する前方情報と先行車両740に関する先行車両情報とに関する情報が含まれ、観視者100は、視野像VI内の所定の位置に、道等と先行車両740の像を知覚する。
 図1(a)及び(b)に表したように、本実施形態に係る車載用表示システム10においては、映像投影部115は、先行車両740の位置よりも手前側(すなわち自車両730の側)の第1位置P01に対応する視野像VI内における第1視野像位置PV01から、自車両730が進路を変更すると推定される第2位置P02(進路変更位置)に対応する視野像VI内における第2視野像位置PV02に到る表示オブジェクト180を生成する。
 第1位置P01は、実空間RSにおける位置であり、先行車両740の位置P740よりも手前側(先行車両740よりも自車両730の側)の位置である。例えば、第1位置P01は、自車両730と先行車両740との間の位置である。例えば、第1位置P01は、自車両730からみて進路前方の所定の距離の位置に設定することができる。
 第2位置P02は、例えばナビゲーションシステム等によって、進路を変更することを促す道等の分岐点(交差点)などの位置であり、自車両730からみて先行車両740よりも前方(先行車両740の位置の第1位置P01とは反対の側)の位置である。
 そして、視野像VIにおいて、実空間RSの第1位置P01と第2位置P02とにそれぞれ対応する位置が、第1視野像位置PV01及び第2視野像位置PV02である。
 そして、表示オブジェクト180は、第1視野像位置PV01から第2視野像位置PV02に到る。そして、この表示オブジェクト180は、既に説明したように、奥行き情報を有する。
 これにより、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の車載用表示システムが提供できる。
 図7は、本発明の第1の実施形態に係る車載用表示システムの特性を示すグラフ図である。 
 すなわち、同図は、車載用表示システム10に関する実験結果を例示している。この実験では、先行車両740が自車両730から見て進路前方の30mに位置にあり、自車両730が進路を変更すると推定される第2位置P02(進路変更位置)を自車両からみて、30m、45m、60m、75m及び120mの位置と変えて、その第2位置P02を示すように表示オブジェクト180の位置(矢印の先端の位置)を設定したときに、観視者100が知覚する奥行き位置を求めた。
 図7の横軸は、表示オブジェクト180の設定奥行き距離Ls(観視者100と設定奥行き位置との間の距離)を表し、縦軸は、観視者100が表示オブジェクト180を観視したときに知覚する主観的奥行き距離Lsub(観視者100と知覚した主観的奥行き位置との間の距離)を表している。
 そして、同図の破線C1は、設定奥行き距離Lsと主観的奥行き距離Lsubとが一致する場合の特性を例示しており、実線C2は、実験により実際に求められた主観的奥行き距離Lsubを表している。
 同図に表したように、本実施形態に係る車載用表示システム10においては、主観的奥行き距離Lsubは、設定奥行き距離Lsに実質的に一致している。そして、例えば、設定奥行き距離Lsを120mとした場合には、主観的奥行き距離Lsubは105mであり、先行車両740と自車両730との間の距離である30mを超えて、先行車両740よりも前方の奥行き設定位置に近い位置に表示オブジェクト180が知覚されている。
 比較例の車載用表示システムの構成は、本実施形態に係る車載用表示システム10に類似している。しかし、比較例の場合には、表示オブジェクト180の構成が本実施形態の場合と異なる。
 (第1の比較例)
 図8は、第1の比較例の車載用表示システムの動作と特性を示す模式図である。 
 同図(a)は動作を例示する模式図であり、同図(b)は特性を例示するグラフ図である。 
 図8(a)に表したように、第1の比較例の車載用表示システムにおいては、表示オブジェクト180は、第2表示位置P02の位置に配置された形状を有している。すなわち、表示オブジェクト180は、第1位置P01に対応する第1視野像位置PV01から、第2位置P02に対応する第2視野像位置PV02に到っていない。
 第1の比較例において、表示オブジェクト180を、第2位置P02を自車両730からみて、30m、45m、60m、75m及び120mの位置と変えて配置したときに、観視者100が知覚する奥行き位置を実験により求めた。なお、この場合も、先行車両740は自車両730から見て進路前方の30mに位置に配置されている。
 この時、第2位置P02に対応する第2視野像位置PV02の位置に表示オブジェクト180が生成され、第2位置P02の位置(自車両730からみて、30m、45m、60m、75m及び120mの位置)のそれぞれに対応する視野像VIにおける各位置PV30、PV45、PV60、PV75及びPV120の位置に、表示オブジェクト180が配置される。そして、この時、その奥行き位置に対応させて表示オブジェクト180の大きさが変えられている。
 図8(b)は、この実験結果を例示している。図8(b)に表したように、第1の比較例の場合には、表示オブジェクト180が知覚される主観的奥行き距離Lsubは、設定奥行き距離Lsと、大きく異なっている。そして、例えば、設定奥行き距離Lsを120mとした場合には、主観的奥行き距離Lsubは約60mであり、設定奥行き位置とは大きくかけ離れた手前に知覚されている。
 (第2の比較例)
 図9は、第2の比較例の車載用表示システムの動作と特性を示す模式図である。 
 同図(a)は動作を例示する模式図であり、同図(b)は特性を例示するグラフ図である。 
 図9(a)に表したように、第2の比較例の車載用表示システムにおいては、表示オブジェクト180は、第1位置P01に対応する第1視野像位置PV01から、第2位置P02に対応する第2視野像位置PV02に到るっているが、奥行き情報を有していない。すなわち、表示オブジェクト180の大きさ(例えば矢印の太さ)は、第1視野像位置PV01から第2視野像位置PV02にかけて一定である。なお、同図では、先行車両740を表示していない。
 第2の比較例において、表示オブジェクト180を、第2位置P02を自車両730からみて、30m、45m、60m、75m及び120mの位置と変えて配置したときに、観視者100が知覚する奥行き位置を実験により求めた。なお、この場合には、表示オブジェクト180の奥行き位置をより知覚しやすいように、先行車両740が無い場合として実験を行った。
 図9(b)は、この実験結果を例示している。図9(b)に表したように、第2の比較例の場合も、表示オブジェクト180が知覚される主観的奥行き距離Lsubは、設定奥行き距離Lsとは、大きく異なっている。そして、例えば、設定奥行き距離Lsを120mとした場合には、主観的奥行き距離Lsubは約60mであり、設定奥行き位置とは大きくかけ離れた手前に知覚されている。
 これに対し、図7に関して説明したように、本実施形態に係る車載用表示システム10においては、第1及び第2の比較例に比べて、主観的奥行き距離Lsubは、設定奥行き距離Lsと良く一致している。このように、車載用表示システム10によれば、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の車載用表示システムが提供できる。
 なお、上記においては、自車両730の進路前方に先行車両740が存在する場合の車載用表示システム10の動作について説明したが、本実施形態に係る車載用表示システム10において、先行車両740が存在しない場合の動作は任意である。
 例えば、先行車両740が存在しない場合も、先行車両740が存在する場合と同様に表示オブジェクト180を生成しても良い。すなわち、第1位置P01を自車両730からみて進路前方の所定の距離の位置に設定し、第2位置P02を進路を変更することを促す道等の分岐点(交差点)などの位置に設定し、第1位置P01と第2位置P02とにそれぞれに対応する第1視野像位置PV01及び第2視野像位置PV02を用いて、第1視野像位置PV01から第2視野像位置PV02に到り、奥行き情報を有するように表示オブジェクト180を生成しても良い。
 また、これ以外の表示オブジェクト180を生成しても良い。以下、先行車両740が存在しない場合の動作の別の一例を説明する。 
 図10は、本発明の第1の実施形態に係る車載用表示システムの別の動作と特性を示す模式図である。 
 同図(a)は動作を例示する模式図であり、同図(b)は特性を例示するグラフ図である。 
 図10(a)に表したように、車載用表示システム10において、先行車両740が存在しない場合には、進路を変更することを促す道等の分岐点(交差点)などの第2位置P02に対応する第2視野像位置PV02の位置に表示オブジェクト180が生成されている。すなわち、第2位置P02の位置が自車両730からみて、30m、45m、60m、75m及び120mの場合には、それらに対応する視野像VIにおける各位置PV30、PV45、PV60、PV75及びPV120の位置に、表示オブジェクト180が配置される。そして、この時、その奥行き位置に対応させて表示オブジェクト180の大きさが変えられている。
 このような動作をさせた場合、図10(b)に表したように、主観的奥行き距離Lsubは、設定奥行き距離Lsに良く一致する。すなわち、先行車両740が存在しない場合には、表示オブジェクト180が先行車両740の像によって遮蔽されることがないので、表示された表示オブジェクト180は、設置された設定奥行き位置に精度良く知覚される。
 また、先行車両740が存在しない場合には、表示オブジェクト180は、定められた奥行き位置に表示され、進路を変更する地点の手間では、例えば矢印は上方向を向いている。そして、進路を変更する交差点等の地点にさしかかった時は、表示オブジェクト180の大きさや形は変化させずに、表示オブジェクト180の矢印の向きを、進路を変更する方向に回転させても良い。
 一方、先行車両が存在する場合には、例えば、進路を変更する地点の手前において、表示オブジェクト180の矢印の形状を徐々に変化させて、表示オブジェクト180の矢印の先端が先行車両740のよりも先に配置して、変更する進路の方向を表示する。
 このように、車載用表示システム10において、表示オブジェクト180は、先行車両740が検出された場合と検出されない場合とで異なることができる。先行車両740の有無によって、表示オブジェクト180の表示態様を変えることで、先行車両740と表示オブジェクト180との差をより認知し易くなり、進路を変える交差点等の位置をより分かりやすく知覚させることができる。
 図11は、本発明の第1の実施形態に係る車載用表示システムの動作を示すフローチャート図である。 
 図11に表したように、まず、地図情報を取得する(ステップS001)。そして、目的位置を設定する(ステップS002)。そして、自車両730の位置である自車両位置情報を、例えばGPS等によって取得する(ステップS003)。そして、これらに基づいて、自車両730が進行すると推定される経路情報を生成する(ステップS004)。
 なお、上記のステップS003は、車載用表示システム10の内部で実施されても良く、また、車載用表示システム10の外部に設けられた例えばGPSやレーダシステムによって実施されても良い。また、上記のステップS001、S002及びS004も、車載用表示システム10の内部で実施されても良く、また、車載用表示システムの外部に設けられたナビゲーションシステムで実施されても良い。
 そして、自車両730の例えば進行中の各時刻における進路前方の前方情報を取得する(ステップS005)。すなわち、進行中の自車両730において、時間の経過につれて変化する前方情報を入手する。これは、前方情報取得部410によって実施される。
 そして、取得された前方情報に基づいて、進路を変更する位置を取得する(ステップS006)。すなわち、進行している自車両730において、進路が変更される分岐点を把握する。
 そして、先行車両740を検出する(ステップS007)。これには、例えば、カメラ等によって撮像された先行車両740の像や、車車間通信システムや路車間通信システムや衛星通信システムなどが用いられる。そして、先行車両740に関する情報が入手され、先行車両740の存在の有無の判断が行われる(ステップS008)。これは、先行車両情報取得部420によって実施される。
 そして、先行車両740の有無に基づいて、表示オブジェクト180が配置される第2位置P02(進路を変更する位置)が決定される(ステップS009)。そして、第1位置P01が決定される(ステップS010)。なお、この時、既に説明したように、先行車両740の有無に係わらず、第1位置P01及び第2位置P02をそれぞれ同じに設定しても良い。
 一方、観視者100の像をカメラなどによって撮像し(ステップS011)、これに基づいて観視者100の片目101の位置情報を取得する(ステップS012)。これは、位置推定部210によって実施される。
 そして、取得された片目101の位置情報に基づいて、図5に関して説明した基準位置O(0、h1、0)と片目位置E(Ex、Ey、Ez)との差の補正を行い(ステップS013)、決定された第1位置P01及び第2位置P02に基づいて、表示オブジェクト180を生成する(ステップS014)。すなわち、図5及び図6に関して説明した処理を行う。
 そして、必要に応じて、映像投影部115に含まれる各種の光学部品や映像形成部110に起因する画像の歪みの補正を行う(ステップS015)。
 以上の動作は、映像投影部115の例えば映像データ生成部130によって実施される。そして、生成された表示オブジェクト180を含む映像信号が映像形成部110に提供され、これに基づき、光束112が生成され、光束112が観視者100の片目101に投影される。
 これにより、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させることができる。
 なお、上記のステップS001~S015は、技術的に可能な範囲で入れ替えても良く、また同時に実施しても良い。
 なお、図1に例示したように、車載用表示システム10において、表示オブジェクト180の第2視野像位置PV02の側の端は、視野像VIにおける先行車両740に対応する領域の外に配置されている。すなわち、表示オブジェクト180の第2視野像位置PV02の側の端は、先行車両740の像740Iよりも外側に配置されている。これにより、第2視野像位置PV02が対応する第2位置P02(進路を変更することを促す道等の分岐点などの位置)をより正確に知覚させることができる。
 このように、表示オブジェクト180の第2視野像位置PV02の側の端は、視野像VI内における先行車両740に対応する領域を含まない位置に配置されることが望ましい。
 また、図1に例示したように、車載用表示システム10において、表示オブジェクト180は、第1視野像位置PV01から第2視野像位置PV02に到る連続的な形状を有することができる。これにより、第1視野像位置PV01から、先行車両740を経て、先行車両740よりも先の位置である第2視野像位置PV02に到る位置をより分かりやすく知覚させ、第2視野像位置PV02の奥行き位置をより正確に知覚させることができる。
 ただし、本発明は、これに限らず、以下に説明するように、表示オブジェクト180の表示態様は各種の変形が可能である。
 図12は、本発明の第1の実施形態に係る車載用表示システムの別の動作と特性を示す模式図である。 
 同図(a)は動作を例示する模式図であり、同図(b)は特性を例示するグラフ図である。 
 図12(a)に表したように、車載用表示システム10の別の動作では、表示オブジェクト180は、第1視野像位置PV01から第2視野像位置PV02に到る経路で移動するように生成される。そして、この時も、表示オブジェクト180は奥行き情報を有しており、例えば表示オブジェクト180の大きさは、第1視野像位置PV01の側よりも第2視野像位置PV02の側で小さい。
 なお、本具体例では、表示オブジェクト180の第2視野像位置PV02の側の端は、視野像VIにおける先行車両740に対応する領域の外に配置されている。 
 すなわち、進路を変更する第2位置P01に対応する第2視野像位置PV02においては、表示オブジェクト180の矢印の先端は、進路を変更する方向に曲げられている。例えば、第1視野像位置PV01では矢印の方向は上向きであり、第2視野像位置PV02では矢印先端が先行車両740の像に重ならない位置まで水平方向に移動させされ、横方向を向いている。
 図12(b)に表したように、この場合も、主観的奥行き距離Lsubは、設定奥行き距離Lsに良く一致する。
 図13は、本発明の第1の実施形態に係る車載用表示システムの別の動作と特性を示す模式図である。 
 同図(a)は動作を例示する模式図であり、同図(b)は特性を例示するグラフ図である。 
 図13(a)に表したように、この場合も、表示オブジェクト180は、第1視野像位置PV01から第2視野像位置PV02に到る経路で移動するように生成される。 
 ただし、本具体例では、表示オブジェクト180の第2視野像位置PV02の側の端は、視野像VIにおける先行車両740に対応する領域の内部に配置されている。
 図13(b)に表したように、この場合も、主観的奥行き距離Lsubは、設定奥行き距離Lsに良く一致するが、図12(b)と図13(b)とを比較すると、図12(b)に例示した特性の方が、主観的奥行き距離Lsubと設定奥行き距離Lsとの一致の程度はより高い。
 従って、図12及び図13に例示した結果から、表示オブジェクト180の第2視野像位置PV02の側の端は、視野像VIにおける先行車両740に対応する領域の外に配置されることがより望ましいことがわかる。
 これにより、表示オブジェクト180の第2視野像位置PV02の側の端が先行車両740の像によって遮蔽されることがなくなり、表示オブジェクト180の第2視野像位置PV02の奥行き位置をより正確に知覚させることができる。
 図14は、本発明の第1の実施形態に係る車載用表示システムの別の動作を示す模式図である。 
 図14に表したように、車載用表示システム10の別の動作では、表示オブジェクト180は、第1視野像位置PV01から第2視野像位置PV02に到り、断続的に配列した複数の表示オブジェクト要素180pを有している。 
 本具体例では、この複数の表示オブジェクト要素180pが同時に表示される。
 図15は、本発明の第1の実施形態に係る車載用表示システムの別の動作を示す模式図である。 
 すなわち、同図(a)~(c)は、異なる時刻における表示オブジェクト180の表示状態を例示しており、同図(a)が最初の時刻であり、同図(b)は同図(a)よりも後の時刻であり、同図(c)は同図(b)よりも後の時刻である。
 図15(a)~(c)に表したように、車載用表示システム10において、表示オブジェクト180は、第1視野像位置PV01から第2視野像位置PV02に到り、断続的に配列した複数の表示オブジェクト要素180pを有し、この複数の表示オブジェクト要素180pは、順次に表示され、順次に消える。
 このように、本具体例では、複数の表示オブジェクト要素180pのうちの第1表示オブジェクト要素180p1は、第1表示オブジェクト要素180p1よりも第2視野像位置PV02の側に配置された第2表示オブジェクト要素180p2よりも時間的に先に消える。 
 このように、表示オブジェクト180をテロップのように表示させても良い。
 なお、図15(a)~(c)に例示した動作において、複数の表示オブジェクト要素180pの数を多くし、第1視野像位置PV01の側の第1表示オブジェクト要素180p1と、第2視野像位置PV02の側の第2表示オブジェクト要素180p2と、の差を小さくした動作が、図12及び図13に例示した表示オブジェクト180が移動する動作に相当する。
 この他、任意の表示態様によって表示オブジェクト180を生成することができる。
 図16は、本発明の第1の実施形態に係る車載用表示システムの別の動作を示す模式図である。 
 すなわち、同図(a)は、進路の変更がなく自車両730が進行している場合の表示オブジェクト180を例示し、同図(b)は、進路を変更する場合の最初の時刻における表示オブジェクト180を例示し、同図(c)は、同図(b)よりも後の時刻における表示オブジェクト180を例示している。
 図16(a)に表したように、進路の変更がなく、自車両が道なりに進行している場合には、表示オブジェクト180は、例えば、先行車両740の手前の奥行き位置に対応して表示される。
 そして、図16(b)に表したように、進路を変更する際には、先行車両740の手前の位置に第1位置P01と、進路を変更する位置である第2位置P02とが設定され、まず、第1位置P01に対応する道路上の第1視野像位置PV01から、第2位置P02に対応する第2視野像位置PV02に向けて、表示オブジェクト180の矢印の根元から矢印の先端の方向に向けて矢印が延びる。
 その後、例えば、図16(c)に表したように、表示オブジェクト180の矢印の先端は、第2位置P02に対応する第2視野像位置PV02の位置に設定される。本具体例では、進路を変更する交差点において進行する方向が、表示オブジェクト180の矢印の先端の曲がりによって示されている。
 そして、表示オブジェクト180の矢印の根元の部分は大きく(太く)、矢印の先の部分は小さく(細く)表示されることによって、奥行に関する情報を示している。
 なお、上記の各動作において、表示オブジェクト180の少なくとも一部は、進路前方の道の表面の位置に対応する視野像内VIの位置に配置されることが望ましい。これにより、表示オブジェクト180の奥行き位置をより正確に知覚させることができる。
 なお、車載用表示システム10において、映像形成部110としては、例えば、LCDの他に、DMD(Digital Micromirror Device)、及び、MEMS(Micro-electro-mechanical System)等の各種光スイッチを用いることができる。また、映像形成部110には、レーザプロジェクタやLED(発光ダイオード)プロジェクタなどを用いることもでき、この場合は、レーザビームにより映像を形成する。映像形成部110として、光源としてLEDを用いたLCDを用いた場合は、装置を小型・省電力化できる。
 なお、上記では、光束112の発散角を制御する手段としてレンチキュラーレンズ120bを用いたが、この他に、拡散角度を制御した拡散板などを用いることもできる。
 ミラー126は、駆動部126aによって角度調整ができるようにすることができる。ミラー126として、平面鏡以外に、パワーを持った反射面として、凹面ミラーを用いることができ、この場合も駆動部126aによって、その角度を変えることができる。なお、表示される映像においては、ミラー126の角度などに依存した画像の歪みが発生することがあるが、これは映像データ生成部130において、歪み補正を行うことで、歪みのない映像を観視者100に呈示することができる。
 車載用表示システム10において、発散角が制御された光束112が観視者100に到達し、観視者100は片目101で映像を観視するが、観視者100の両眼の間隔は平均6cmであるので、観視者100の頭部105上における光束112の幅を6cm程度に制御すると両眼に映像が投影されることがない。なお、映像の見易さから観視者100の優位眼に映像を投影することが好ましい。
 なお、上記の具体例では、制御部250は、投影部120の一部を構成するミラー126に連結された駆動部126aを制御して、ミラー126の角度を制御したが、例えば、投影部120を構成する各種の光学部品を制御して、投影範囲114aを制御することができる。また、制御部250は、映像形成部110を制御して映像の輝度やコントラストなどを調整しても良い。
 なお、上記の具体例では、制御部250によって、推定された片目101の位置に基づいて光束112の投影範囲114aと投影位置114の少なくともいずれかを自動的に調整するが、本発明はこれに限らない。例えば、推定された片目101の位置に基づいて光束112の投影範囲114aと投影位置114の少なくともいずれかを手動で調整するようにしても良い。この場合は、例えば、投影部120によって撮像された観視者100の頭部105の画像を何らかのディスプレイで見ながら、駆動部126aを手動で制御して、ミラー126の角度を制御することができる。
 映像データ生成部130は、前方情報取得部410で取得された前方情報と、観視者100の推定された片目101の位置と、に基づいて表示オブジェクト180を含む映像に関するデータを生成する。片目101の位置が実質的に変動しない場合は、表示オブジェクト180は、前方情報取得部410で取得された前方情報に基づいて生成しても良く、この場合も、前方情報と片目101の位置とに基づいて表示オブジェクト180を含む映像に関するデータを生成するものとする。
 なお、位置推定部210の演算部213においては、例えば、特許第3279913号公報などに記載されている人物認証に関する技術を用いて、観視者100の顔認識と顔部品としての眼球位置を算出し、観視者100の映像を投影する片目101の位置を判断して推定する。
 図17は、本発明の第1の実施形態に係る別の車載用表示システムの構成を示す模式図である。 
 図17に表したように、本実施形態に係る別の車載用表示システム11は、前方情報検出部424と、経路生成部450と、をさらに備える。これ以外は、車載用表示システム10と同様とすることができるので説明を省略する。
 前方情報検出部424は、例えば、前方撮像部421(カメラ)と、前方撮像部421で撮像した画像を画像解析する画像解析部422と、画像解析部422で解析された画像から、道路や交差点の形状や障害物などに関する各種の情報を抽出し、前方情報を生成する前方情報生成部423と、を有している。これにより、前方情報として、前方情報検出部424により検出された前方の道路状況(道路や交差点の形状など)に関するデータが取得される。
 そして、前方情報検出部424によって検出された前方情報が、前方情報取得部410に供給される。
 また、前方情報検出部424は、前方撮像部421によって撮像した画像を画像解析することによって、先行車両740に関する情報も検出でき、前方情報検出部424によって検出された先行車両情報を先行車両情報取得部420に供給しても良い。
 なお、前方情報検出部424は、前方情報取得部410または先行車両情報取得部420に内蔵されても良い。
 一方、経路生成部450は、自車両730が進行すると推測される経路情報(ルート情報)を生成する。
 経路生成部450は、例えば、地図情報等と自車両730の現在位置とに基づいて、自車両730が進行すると推測される経路を算出する。このとき、例えば、いくつかの経路の候補を算出し、自車両730の操縦者である観視者100に選択を促して、その結果に基づき、経路を決定するようにしても良い。
 そして、図11に関して説明したように、生成された経路情報に基づいて、進路を変更する位置を求め、これに基づき表示オブジェクト180を生成する。
 なお、この経路生成部450は、例えば、映像データ生成部130に内蔵させることもできる。また、車載用表示システムに内蔵される各種の構成要素に内蔵されても良い。
 なお、この経路生成部450は、車載用表示システム11に設けられなくても良い。例えば、自車両730内に別途設けられるナビゲーションシステムに、経路生成部450に相当する部分が設けられ、そのナビゲータシステムで生成された、自車両730が進行すると推測される経路を入手して、映像データ生成部130は、表示オブジェクト180を含む映像データを生成しても良い。
 さらに、経路生成部450に相当する部分は、自車両730とは別に設けられても良い。この場合は、例えば無線技術によって、自車両730とは別に設けられた経路生成部450に相当する部分からデータを入手して、映像データ生成部130は、表示オブジェクト180を含む映像データを生成することができる。
 このように、経路生成部450(及びそれに相当する部分)は、任意の場所に設けることができる。
 図18は、本発明の第1の実施形態に係る別の車載用表示システムの構成を示す模式図である。 
 図18に表したように、本実施形態に係る別の車載用表示システム12は、映像投影部115の構成が、図2に例示した車載用表示システム10とは異なっている。具体的には、映像形成部110及び投影部120の構成が異なっている。また、本具体例は、制御部250が設けられていない例である。これ以外は、車載用表示システム10と同様なので説明を省略する。
 本実施例に係る車載用表示システム12においても、映像形成部110としては、例えば、LCD、DMD及びMEMS等の各種光スイッチを用いることができる。なお、映像形成部110には、レーザプロジェクタやLEDプロジェクタなどを用いることもできる。
 本具体例では、投影部120には、例えば、光源121、テーパライトガイド122、第1レンズ123、可変アパーチャ124、第2レンズ125、例えば凹面状の可動式のミラー126、及び、非球面フレネルレンズ127が用いられている。 
 なお、例えば、第1レンズ123の焦点距離をf1、第2レンズ125の焦点距離をf2とすると、可変アパーチャ124は、第1レンズ123からf1の距離で、第2レンズ125からf2の距離の位置に設置されている。
 そして、第2レンズ125から出射した光束は、映像形成部110に入射し、映像形成部110で形成された映像に基づいて変調された光束112となる。
 その光束112は、ミラー126及び非球面フレネルレンズ127を経て、車載用表示システム12が搭載される自車両730のフロントガラス710の反射体711により反射され、観視者100の片目101に投影される。
 なお、光源121には、LEDや高圧水銀ランプ、ハロゲンランプ、レーザなど各種のものを用いることができる。また、非球面フレネルレンズ127は、例えば、フロントガラス710の形状に合わせて光束112の形(断面形状など)を制御できるように設計することができる。
 (第2の実施の形態)
 以下、本発明の第2の実施形態に係る表示方法について説明する。 
 図19は、本発明の第2の実施形態に係る表示方法を示すフローチャート図である。 
 図19に表したように、本発明の第2の実施形態に係る表示方法では、まず、自車両730の進路前方に関する前方情報を取得する(ステップSS1)。そして、進路前方に存在する先行車両740に関する先行車両情報を取得する(ステップSS2)。そして、自車両730に搭乗する観視者100者の片目101の位置を推定する(ステップSS3)。
 そして、前方情報と片目101の位置とに基づいて、観視者100が自車両730の進路前方を観視したときの視野像VIを推定する(ステップSS4)。
 そして、先行車両740の位置よりも自車両730の側の第1位置P01に対応する視野像VI内における第1視野像位置PV01から、先行車両740の位置の第1位置P01とは反対の側であって自車両730が進路を変更すると推定される第2位置P02に対応する視野像VI内における第2視野像位置PV02に到り、奥行き情報を有する表示オブジェクト180を生成する(ステップSS5)。
 そして、表示オブジェクト180を有する映像を含む光束112を生成する(ステップSS6)。そして、光束112を推定された片目101の位置に基づいて観視者100の片目101に向けて投影する(ステップSS7)。
 これにより、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の表示方法が提供できる。
 なお、上記のステップSS1~SS7は、技術的に可能な範囲で入れ替えても良く、また同時に実施しても良い。
 (第3の実施の形態)
 以下、本発明の第3の実施形態に係る車両について説明する。 
 本実施形態に係る車両は、上記の自車両730である。すなわち、図2に例示したように、自車両730は、第1の実施形態に係るいずれかの車載用表示システムと、前記車載用表示システムから出射される光束112を観視者100に向けて反射させるフロントガラス710と、を備える。
 例えば、図2に例示したように、自車両730は、例えば、観視者100からみて自車両730のダッシュボード720の奥に、車載用表示システム10を備える。
 これにより、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の表示を提供できる車両が提供できる。
 以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、車載用表示システム、表示方法及び車両を構成する各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。 
 また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
 その他、本発明の実施の形態として上述した車載用表示システム、表示方法及び車両を基にして、当業者が適宜設計変更して実施し得る全ての車載用表示システム、表示方法及び車両も、本発明の要旨を包含する限り、本発明の範囲に属する。
 その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
 本発明によれば、進路を示す表示オブジェクトを先行車よりも遠方の所定の位置に知覚させる単眼視の車載用表示システム、表示方法及び車両が提供される。
 10、11、12 車載用表示システム
 100 観視者
 101 片目
 101a 仮想視点
 105 頭部
 110 映像形成部
 112 光束
 114 投影位置
 114a 投影範囲
 115 映像投影部
 120 投影部
 120a 結像レンズ
 120b レンチキュラーレンズ
 121 光源
 122 テーパライトガイド
 123 第1レンズ
 124 可変アパーチャ
 125 第2レンズ
 126 ミラー
 126a 駆動部
 127 非球面フレネルレンズ
 130 映像データ生成部
 180 表示オブジェクト
 180p 表示オブジェクト要素
 180p1 第1表示オブジェクト要素
 180p2 第2表示オブジェクト要素
 180v 表示オブジェクト
 210 位置推定部
 211 撮像部
 212 画像処理部
 213 演算部
 250 制御部
 310 虚像
 310a 虚像形成位置
 410 前方情報取得部
 410a 前方情報データ格納部
 420 先行車両情報取得部
 421 前方撮像部
 422 画像解析部
 423 前方情報生成部
 424 前方情報検出部
 450 経路生成部
 510 表示映像
 511 現在位置
 512 建物情報等
 514 車両情報
 520 外界映像
 521 ターゲットの位置
 521v 視野像VI内の位置
 530 前方情報
 530v 像
 710 フロントガラス
 711 反射体
 720 ダッシュボード
 730 自車両(車両)
 740 先行車両
 740I 先行車両の像
 O 基準位置
 P 視野像位置
 P01 第1位置
 P02 第2位置
 P1 表示オブジェクト位置
 P740 先行車両の位置
 PV01 第1視野像位置
 PV02 第2視野像位置
 PV30、PV45、PV60、PV75、PV120 位置
 Q 実空間位置
 RS 実空間
 VI 視野像
 VS 仮想空間(映像空間)

Claims (11)

  1.  自車両の進路前方に関する前方情報を取得する前方情報取得部と、
     前記進路前方に存在する先行車両に関する先行車両情報を取得する先行車両情報取得部と、
     前記自車両に搭乗する観視者の片目の位置を推定する位置推定部と、
    表示オブジェクトを有する映像情報を含む光束を生成し、前記光束を前記片目の位置に基づいて前記観視者の前記片目に向けて投影する映像投影部と、
     を備え、
     前記映像投影部は、前記前方情報と前記片目の位置とに基づいて、前記観視者が前記自車両の前記進路前方を観視したときの視野像を推定し、前記先行車両情報取得部によって取得された前記先行車両の位置よりも前記自車両の側の第1位置に対応する前記視野像内における第1視野像位置から、前記先行車両の位置の前記第1位置とは反対の側であって前記自車両が進路を変更すると推定される第2位置に対応する前記視野像内における第2視野像位置に到り、奥行き情報を有する前記表示オブジェクトを生成する映像データ生成部を有することを特徴とする車載用表示システム。
  2.  前記表示オブジェクトの前記第1視野像位置における大きさは、前記第2視野像位置における大きさよりも大きいことを特徴とする請求項1記載の車載用表示システム。
  3.  前記表示オブジェクトの前記第2視野像位置の側の端は、前記視野像内における前記先行車両に対応する領域を含まない位置に配置されることを特徴とする請求項2記載の車載用表示システム。
  4.  前記表示オブジェクトは、前記第1視野像位置から前記第2視野像位置に到る連続的な形状を有していることを特徴とする請求項3記載の車載用表示システム。
  5.  前記表示オブジェクトは、前記第1視野像位置から前記第2視野像位置に到り、断続的に配列した複数の表示オブジェクト要素を有していることを特徴とする請求項3記載の車載用表示システム。
  6.  前記複数の表示オブジェクト要素のうちの第1表示オブジェクト要素は、前記第1表示オブジェクト要素よりも前記第2視野像位置の側に配置された第2表示オブジェクト要素よりも時間的に先に消えることを特徴とする請求項5記載の車載用表示システム。
  7.  前記表示オブジェクトの少なくとも一部が、前記第1視野像位置と前記第2視野像位置との間を移動することを特徴とする請求項3記載の車載用表示システム。
  8.  前記表示オブジェクトの少なくとも一部は、前記進路前方の道の位置に対応する前記視野像内の位置に配置されることを特徴とする請求項3記載の車載用表示システム。
  9.  前記先行車両情報取得部は、前記進路前方に前記先行車両が存在するという情報及び存在しないという情報を取得し、
     前記表示オブジェクトは、前記進路前方に前記先行車両が存在するときと存在しないときとで異なることを特徴とする請求項3記載の車載用表示システム。
  10.  自車両の進路前方に関する前方情報を取得し、
     前記進路前方に存在する先行車両に関する先行車両情報を取得し、
     前記自車両に搭乗する観視者の片目の位置を推定し、
     前記前方情報と前記片目の位置とに基づいて、前記観視者が前記自車両の前記進路前方を観視したときの視野像を推定し、
     前記先行車両の位置よりも前記自車両の側の第1位置に対応する前記視野像内における第1視野像位置から、前記先行車両の位置の前記第1位置とは反対の側であって前記自車両が進路を変更すると推定される第2位置に対応する前記視野像内における第2視野像位置に到り、奥行き情報を有する前記表示オブジェクトを生成し、
     前記表示オブジェクトを有する映像を含む光束を生成し、
     前記光束を前記片目の位置に基づいて前記観視者の前記片目に向けて投影することを特徴とする表示方法。
  11.  請求項1記載の車載用表示システムと、
     前記車載用表示システムから出射される前記光束を前記観視者に向けて反射させるフロントガラスと、
     を備えたことを特徴とする車両。
PCT/JP2010/051039 2009-03-23 2010-01-27 車載用表示システム、表示方法及び車両 WO2010109941A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP10755742A EP2412557A4 (en) 2009-03-23 2010-01-27 VEHICLE DISPLAY SYSTEM, DISPLAY PROCEDURE AND VEHICLE THEREFOR

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-070893 2009-03-23
JP2009070893A JP5155915B2 (ja) 2009-03-23 2009-03-23 車載用表示システム、表示方法及び車両

Publications (1)

Publication Number Publication Date
WO2010109941A1 true WO2010109941A1 (ja) 2010-09-30

Family

ID=42780638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/051039 WO2010109941A1 (ja) 2009-03-23 2010-01-27 車載用表示システム、表示方法及び車両

Country Status (3)

Country Link
EP (1) EP2412557A4 (ja)
JP (1) JP5155915B2 (ja)
WO (1) WO2010109941A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021019A (ja) * 2015-07-08 2017-01-26 日産自動車株式会社 車両用表示装置及び車両用表示方法
CN110487296A (zh) * 2018-05-14 2019-11-22 大众汽车有限公司 “增强现实”显现的计算方法、装置、机动车和程序
CN110667466A (zh) * 2015-04-10 2020-01-10 麦克赛尔株式会社 图像投射装置和图像投射方法
CN111801239A (zh) * 2018-03-02 2020-10-20 松下知识产权经营株式会社 显示系统
CN111886155A (zh) * 2018-03-15 2020-11-03 大众汽车股份公司 用于控制机动车的增强现实显示器设备的显示的方法、设备和具有指令的计算机可读存储介质

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5275963B2 (ja) 2009-12-08 2013-08-28 株式会社東芝 表示装置、表示方法及び移動体
JP5331146B2 (ja) * 2011-03-22 2013-10-30 株式会社東芝 単眼ヘッドマウントディスプレイ
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
JP5734888B2 (ja) 2012-01-31 2015-06-17 株式会社東芝 表示装置、移動体、及び、表示装置の設置方法
JP5622818B2 (ja) * 2012-09-28 2014-11-12 富士重工業株式会社 視線誘導システム
KR101409846B1 (ko) 2012-12-18 2014-06-19 전자부품연구원 3차원 증강현실 기반 헤드 업 디스플레이 장치
JP6098442B2 (ja) * 2013-08-30 2017-03-22 アイシン・エィ・ダブリュ株式会社 進路案内表示システム、方法およびプログラム
JP6287422B2 (ja) * 2014-03-24 2018-03-07 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
JP6540988B2 (ja) 2014-06-09 2019-07-10 日本精機株式会社 ヘッドアップディスプレイ装置
JP6405722B2 (ja) * 2014-06-11 2018-10-17 日産自動車株式会社 車両用表示装置
WO2016006034A1 (ja) * 2014-07-08 2016-01-14 日産自動車株式会社 車両用表示装置
JP6337720B2 (ja) * 2014-09-25 2018-06-06 アイシン・エィ・ダブリュ株式会社 虚像表示装置
JP6459446B2 (ja) * 2014-11-28 2019-01-30 アイシン・エィ・ダブリュ株式会社 虚像表示装置
CN107710751B (zh) * 2015-04-17 2020-01-10 三菱电机株式会社 显示控制装置、显示系统及显示控制方法
JP6569999B2 (ja) 2016-09-14 2019-09-04 パナソニックIpマネジメント株式会社 表示装置
JP6846624B2 (ja) * 2017-02-23 2021-03-24 パナソニックIpマネジメント株式会社 画像表示システム、画像表示方法及びプログラム
WO2019004016A1 (ja) * 2017-06-26 2019-01-03 日本精機株式会社 ヘッドアップディスプレイ装置
CN107672589B (zh) * 2017-09-26 2019-05-28 畅加风行(苏州)智能科技有限公司 一种基于雷达探测数据的车辆轨迹实时预测方法和装置
JP2019172070A (ja) * 2018-03-28 2019-10-10 株式会社リコー 情報処理装置、移動体、情報処理方法、及びプログラム
DE102019220301A1 (de) * 2019-12-19 2021-06-24 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen eines Objekts durch ein Head-Up-Display-Anzeigesystem und ein Head-Up-Display-Anzeigesystem
WO2022025689A1 (ko) * 2020-07-30 2022-02-03 엘지전자 주식회사 경로 안내 장치 및 그것의 경로 안내 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07228172A (ja) 1994-02-21 1995-08-29 Nippondenso Co Ltd 車両用表示装置
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2005127996A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム
JP2006017626A (ja) 2004-07-02 2006-01-19 Yokohama Tlo Co Ltd ナビゲーションシステム
JP2006284458A (ja) 2005-04-01 2006-10-19 Denso Corp 運転支援情報表示システム
JP2007047735A (ja) * 2005-07-11 2007-02-22 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
DE10245334A1 (de) * 2002-09-27 2004-04-08 Robert Bosch Gmbh Navigationsvorrichtung
JP4085928B2 (ja) * 2003-08-22 2008-05-14 株式会社デンソー 車両用ナビゲーションシステム
EP1521059A1 (en) * 2003-09-30 2005-04-06 Mazda Motor Corporation Route guidance apparatus, method and program
JP5050735B2 (ja) * 2007-08-27 2012-10-17 マツダ株式会社 車両用運転支援装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07228172A (ja) 1994-02-21 1995-08-29 Nippondenso Co Ltd 車両用表示装置
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2005127996A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2006017626A (ja) 2004-07-02 2006-01-19 Yokohama Tlo Co Ltd ナビゲーションシステム
JP2006284458A (ja) 2005-04-01 2006-10-19 Denso Corp 運転支援情報表示システム
JP2007047735A (ja) * 2005-07-11 2007-02-22 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2412557A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110667466A (zh) * 2015-04-10 2020-01-10 麦克赛尔株式会社 图像投射装置和图像投射方法
JP2017021019A (ja) * 2015-07-08 2017-01-26 日産自動車株式会社 車両用表示装置及び車両用表示方法
JP7048202B2 (ja) 2015-07-08 2022-04-05 日産自動車株式会社 車両用表示装置及び車両用表示方法
CN111801239A (zh) * 2018-03-02 2020-10-20 松下知识产权经营株式会社 显示系统
CN111886155A (zh) * 2018-03-15 2020-11-03 大众汽车股份公司 用于控制机动车的增强现实显示器设备的显示的方法、设备和具有指令的计算机可读存储介质
US11993145B2 (en) 2018-03-15 2024-05-28 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality display device for a motor vehicle
CN110487296A (zh) * 2018-05-14 2019-11-22 大众汽车有限公司 “增强现实”显现的计算方法、装置、机动车和程序

Also Published As

Publication number Publication date
EP2412557A1 (en) 2012-02-01
JP2010221830A (ja) 2010-10-07
EP2412557A4 (en) 2012-08-22
JP5155915B2 (ja) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5155915B2 (ja) 車載用表示システム、表示方法及び車両
JP4886751B2 (ja) 車載用表示システム及び表示方法
US10551619B2 (en) Information processing system and information display apparatus
CN111433067B (zh) 平视显示装置及其显示控制方法
US8693103B2 (en) Display device and display method
JP6201690B2 (ja) 車両情報投影システム
US9076248B2 (en) Display apparatus
JP2010143520A (ja) 車載用表示システム及び表示方法
JP4686586B2 (ja) 車載用表示装置及び表示方法
JP6176478B2 (ja) 車両情報投影システム
WO2011108091A1 (ja) 車載用表示装置及び表示方法
EP3415972B1 (en) Information display apparatus
JP2017211366A (ja) 移動体システム、情報表示装置
WO2009119008A1 (en) Image display apparatus and method for displaying an image
JPWO2017134865A1 (ja) ヘッドアップディスプレイ装置
JP6361794B2 (ja) 車両情報投影システム
JP6225379B2 (ja) 車両情報投影システム
JP6883759B2 (ja) 表示システム、表示システムの制御方法、プログラム、及び移動体
JP2012035745A (ja) 表示装置、画像データ生成装置及び画像データ生成プログラム
US20210300183A1 (en) In-vehicle display apparatus, method for controlling in-vehicle display apparatus, and computer program
JP2018020779A (ja) 車両情報投影システム
JP2018125629A (ja) ヘッドアップディスプレイ装置
WO2021171397A1 (ja) 表示制御装置、表示装置、及び表示制御方法
JP2010224293A (ja) 表示装置、表示方法及び車両
JP2022113292A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10755742

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010755742

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE