WO2018142610A1 - 立体表示装置およびヘッドアップディスプレイ - Google Patents
立体表示装置およびヘッドアップディスプレイ Download PDFInfo
- Publication number
- WO2018142610A1 WO2018142610A1 PCT/JP2017/004196 JP2017004196W WO2018142610A1 WO 2018142610 A1 WO2018142610 A1 WO 2018142610A1 JP 2017004196 W JP2017004196 W JP 2017004196W WO 2018142610 A1 WO2018142610 A1 WO 2018142610A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- stereoscopic
- eye
- display
- unit
- Prior art date
Links
- 238000000926 separation method Methods 0.000 claims abstract description 67
- 230000004888 barrier function Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 14
- 239000011295 pitch Substances 0.000 description 13
- 239000011521 glass Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/30—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/23—Optical features of instruments using reflectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/29—Holographic features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/33—Illumination features
- B60K2360/334—Projection means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0161—Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements
Definitions
- the present invention relates to a stereoscopic display device and a head-up display for displaying a stereoscopic image.
- a technique for superimposing and displaying an image in which auxiliary information for assisting driving is rendered as a virtual image on a foreground viewed from a driver on a vehicle, such as a head-up display (hereinafter referred to as “HUD”), is known. It has been. And the display apparatus which changes the display distance of the virtual image seen from the driver
- a barrier or lens that selectively blocks light is arranged in front of a display device such as a liquid crystal display, so that only the left eye image is visually recognized by the driver's left eye and the right eye is By making only the eye image visible, the driver is made to recognize the stereoscopic image (see, for example, Patent Document 1).
- the conventional display device is configured as described above, an area where an observer can visually recognize a stereoscopic image is fixed by the arrangement distance between the display device and the barrier, and the slit width and slit position of the barrier. There was a problem. Therefore, if the viewpoint position of the observer moves and deviates from the region where the stereoscopic image can be visually recognized, crosstalk or the like occurs, and the stereoscopic image is not normally visually recognized.
- the present invention has been made to solve the above-described problems, and an object thereof is to enlarge an area in which an observer can visually recognize a stereoscopic image.
- n is an integer of 2 or more, and n images in which the right-eye image and the left-eye image are periodically arranged in one direction are arranged in a direction orthogonal to the one direction.
- An image generation unit that generates a stereoscopic image by arranging the display unit, a display control unit that displays the stereoscopic image generated by the image generation unit on the display unit, and a stereoscopic image displayed by the display unit at n separation angles.
- an image separation unit that separates a pair of right-eye images and left-eye images.
- the stereoscopic image displayed by the display unit is separated into n sets of right-eye images and left-eye images at n separation angles, so that the viewer can visually recognize the stereoscopic image. Increases to n.
- FIG. 3 is a structural diagram of a display unit and an image separation unit of a lenticular lens system capable of general autostereoscopic viewing.
- FIG. 3 is a structural diagram of a display unit and an image separation unit of a lenticular lens system capable of general autostereoscopic viewing.
- FIG. 3 is a structural diagram of an image separating unit of a lenticular lens type that can perform general autostereoscopic viewing.
- FIG. 3 is a structural diagram of a display unit and an image separation unit of the stereoscopic display device according to Embodiment 1 of the present invention.
- FIG. 3 is a structural diagram of a display unit and an image separation unit of the stereoscopic display device according to Embodiment 1 of the present invention. It is a structural diagram of the image separation part of the stereoscopic display device according to Embodiment 1 of the present invention.
- FIG. 7A and 7B are diagrams showing a modification of the image separation unit 5b according to Embodiment 1 of the present invention. It is a flowchart which shows the operation example of the three-dimensional display apparatus which concerns on Embodiment 2 of this invention.
- 9A, 9B, and 9C are diagrams for explaining the operation of the display control unit according to Embodiment 2 of the present invention.
- 10A and 10B are diagrams for explaining the relationship between the viewpoint position and the stereoscopic viewing area in Embodiment 2 of the present invention.
- FIG. 12A and 12B are diagrams illustrating the operation of the display control unit according to Embodiment 3 of the present invention.
- the three-dimensional display apparatus concerning Embodiment 4 of this invention it is a structural diagram of the image separation part comprised by a parallax barrier.
- 14A and 14B are main hardware configuration diagrams of the stereoscopic display device and its peripheral devices according to each embodiment of the present invention.
- FIG. 1 is a block diagram showing a configuration example of a stereoscopic display device 10 according to Embodiment 1 of the present invention.
- the stereoscopic display device 10 according to the first embodiment includes a position information acquisition unit 1, a vehicle information acquisition unit 2, an image generation unit 3, a display control unit 4, and an image display unit 5.
- the stereoscopic display device 10 is mounted on, for example, a vehicle 100 described later and used as a HUD.
- the position information acquisition unit 1 acquires position information indicating the driver's viewpoint position from the in-vehicle camera 101 and outputs it to the image generation unit 3 and the display control unit 4.
- the viewpoint position of the driver is, for example, the position of the driver's eye or the position of the head.
- the vehicle information acquisition unit 2 acquires vehicle information of the vehicle 100 via the in-vehicle network 102 and outputs the vehicle information to the image generation unit 3.
- the vehicle information is, for example, own vehicle position information, traveling direction, vehicle speed, steering angle, acceleration, time, warning information, various control signals, navigation information, and the like.
- the various control signals include, for example, a wiper on / off signal, a light lighting signal, and a shift position signal.
- the navigation information is, for example, traffic jam information, facility name, guidance guidance, route, and the like.
- the image generation unit 3 generates a display image based on the position information acquired by the position information acquisition unit 1 and the vehicle information acquired by the vehicle information acquisition unit 2, and outputs the display image to the display control unit 4.
- the display image is a stereoscopic image representing navigation content such as arrow guidance and remaining distance information, vehicle speed, warning information, and the like.
- a stereoscopic image is composed of right-eye and left-eye images for stereoscopic viewing. Note that the display image may include a two-dimensional image without parallax.
- the display control unit 4 causes the image display unit 5 to display the display image generated by the image generation unit 3. In the first embodiment, the display control unit 4 does not use the position information acquired by the position information acquisition unit 1. An example in which the display control unit 4 uses position information will be described in a second embodiment to be described later.
- the image display unit 5 separates the stereoscopic image generated by the image generation unit 3 into a right-eye image and a left-eye image based on the display control of the display control unit 4, and projects the image onto the windshield 103.
- FIG. 2 is a diagram showing a vehicle mounting example of the stereoscopic display device 10 according to Embodiment 1 of the present invention.
- the image display unit 5 includes a display unit 5a, an image separation unit 5b, and a reflective glass 5c.
- the display unit 5a is a display device such as a liquid crystal display (LCD), an organic EL display (OELD: Organic Electro-Luminescence Display), or a DLP (Digital Light Processing), and displays based on display control from the display control unit 4 Display an image.
- the image separation unit 5b separates the stereoscopic image displayed by the display unit 5a into a right eye image 201R and a left eye image 201L.
- the reflection glass 5 c optically corrects and enlarges the right eye image 201 ⁇ / b> R and the left eye image 201 ⁇ / b> L separated by the image separation unit 5 b, and projects the image onto the windshield 103.
- the in-vehicle camera 101 is installed in a place where the driver's viewpoint position 200 can be acquired, for example, the instrument panel instrumentation or the vicinity of a center display or a rearview mirror.
- This in-vehicle camera 101 captures and analyzes a face image, detects the position of the eye or head, and outputs it to the position information acquisition unit 1 as position information.
- the in-vehicle camera 101 may detect the position of the eye or head using a known technique such as triangulation using a stereo camera or TOF (Time Of Flight) using a monocular camera.
- the position of the eye or head may be detected by the in-vehicle camera 101 or the position information acquisition unit 1.
- the in-vehicle network 102 is a network for transmitting and receiving information on the vehicle 100 such as a vehicle speed and a steering angle between electronic control units (ECUs) mounted on the vehicle 100.
- ECUs electronice control units
- the windshield 103 is a projected part on which a display image from the stereoscopic display device 10 is projected. Since the HUD of the first embodiment is a windshield type, the projection target is the windshield 103. In the case of a combiner-type HUD, the projection target is a combiner.
- the image separation unit 5b separates the right-eye image 201R and the left-eye image 201L so that the stereoscopic image displayed on the display unit 5a reaches the right-eye viewpoint 200R and the left-eye viewpoint 200L of the driver.
- the reflection glass 5c performs distortion correction on the right eye image 201R and the left eye image 201L according to the shape of the windshield 103, and the right eye image 201R and the left eye image 201L are obtained as desired.
- the image is enlarged to the virtual image size and projected onto the windshield 103.
- the right eye image 201R enters the driver's right eye viewpoint 200R
- the left eye image 201L enters the driver's left eye image 201L.
- the left-eye virtual image 202L is recognized from the left-eye viewpoint 200L and the right-eye virtual image 202R is recognized from the right-eye viewpoint 200R on the virtual image position 202. Since the right-eye virtual image 202R and the left-eye virtual image 202L have parallax, the driver can visually recognize the stereoscopic image at the stereoscopic image recognition position 203.
- 3A, 3B, and 3C are structural diagrams of a display unit 5a and an image separation unit 5b of a lenticular lens system capable of general autostereoscopic viewing.
- the image separation unit 5b is disposed on the front surface of the display unit 5a.
- the general image separation unit 5b is, for example, a lenticular lens in which a plurality of semi-cylindrical lenses whose lens curvature radius Lr0 and lens pitch Lp0 are constant in the vertical direction are arranged in the horizontal direction.
- the display unit 5a is arranged so that the right-eye pixel 201Rpix and the left-eye pixel 201Lpix fit within the lens pitch Lp0.
- One right-eye pixel 201Rpix has three sub-pixels of red, green, and blue (RGB).
- One left-eye pixel 201Lpix also has three red, green, and blue sub-pixels.
- the image generation unit 3 periodically arranges the right-eye pixels 201Rpix and the left-eye pixels 201Lpix in the horizontal direction to form a horizontal stripe-shaped stereoscopic image.
- the right eye pixel 201Rpix and the left eye pixel 201Lpix are separated into a right eye pixel 201aR and a left eye pixel 201aL through a lens. All pixels on the display unit 5a are separated by the image separation unit 5b, and a right-eye image viewing area 201AR and a left-eye image viewing area 201AL are formed around the viewpoint position 200 of the driver. As a result, a stereoscopic viewing area 201A is formed.
- the position and range of the stereoscopic viewing area 201A that is, the width and depth are determined by the lens curvature radius Lr0 and the lens pitch Lp0 that match the pixel pitch of the display unit 5a.
- each lens 5b0 constituting the lenticular lens of the image separation unit 5b has the same lens curvature radius Lr0 and lens pitch Lp0, the region where the operator can visually recognize the stereoscopic image is the stereoscopic viewing region. Only 201A.
- FIG. 4A and FIG. 4B are diagrams showing a stereoscopic view region of HUD using general binocular parallax.
- the right-eye images 201R0, 201R1, 201R2 and the left-eye images 201L0, 201L1, 201L2 separated by the image separation unit 5b are reflected by the windshield 103, and the right-eye viewpoint of the driver 200R and the left eye viewpoint 200L are reached.
- the stereoscopic image output from the left end portion of the display unit 5a is separated by the image separation unit 5b, and the left end portion left eye image 201L0 and the left end portion right eye image 201R0 are displayed at the driver's viewpoint position 200. To reach.
- the three-dimensional image output from the center of the display unit 5a is separated by the image separation unit 5b, and reaches the driver's viewpoint position 200 as the center right eye image 201R1 and the center left eye image 201L1.
- the stereoscopic image output from the right end portion of the display unit 5a is separated by the image separation unit 5b, and reaches the driver's viewpoint position 200 as the right end portion right eye image 201R2 and the right end portion left eye image 201L2.
- illustration is omitted, the same applies to a stereoscopic image output from a portion other than the left end, the center, and the right end of the display unit 5a.
- the left eye images on the display unit 5a such as the left end left eye image 201L0, the center left eye image 201L1, and the right end left eye image 201L2 are gathered to be used for the left eye.
- An image viewing area 201AL is formed.
- the images for the right eye on the display unit 5a such as the left end right eye image 201R0, the center right eye image 201R1, and the right end right eye image 201R2 are gathered.
- the right eye image viewing area 201AR is formed.
- a stereoscopic viewing area 201A is formed.
- the driver when the driver's left eye and right eye enter the left-eye image recognition area 201AL and the right-eye image recognition area 201AR, the driver can normally visually recognize the stereoscopic image at the stereoscopic image recognition position 203. . On the other hand, if the left eye and right eye of the driver are out of the left-eye image recognition area 201AL and the right-eye image recognition area 201AR, the driver cannot visually recognize the stereoscopic image.
- the right eye image viewing area 201AR and the left eye image viewing area 201AL are repeatedly formed in the left-right direction. Therefore, even if the driver's viewpoint position 200 moves to any one of the right-eye viewpoints 200R0, 200R1, and 200R2 and the left-eye viewpoints 200L0, 200L1, and 200L2 in the left-right direction, the driver can view the stereoscopic image normally. it can.
- the driver's viewpoint position 200 moves to a position other than the right eye viewpoints 200R0, 200R1, 200R2, and the left eye viewpoints 200L0, 200L1, 200L2, crosstalk or the like occurs, and the stereoscopic image cannot be viewed normally.
- FIG. 5A, 5B, and 5C are structural diagrams of the display unit 5a and the image separation unit 5b of the stereoscopic display device 10 according to Embodiment 1 of the present invention.
- FIG. 6 is a diagram showing the stereoscopic viewing areas 201A and 201B of the stereoscopic display device 10 according to Embodiment 1 of the present invention.
- the image separation unit 5b includes two types of lenses: a lens 5b0 having a lens curvature radius Lr0 and a lens pitch Lp0, and a lens 5b1 having a lens curvature radius Lr1 and a lens pitch Lp1. Composed. In the vertical direction, the lenses 5b0 and 5b1 are periodically arranged, and in the horizontal direction, a plurality of lenses 5b0 are arranged in odd rows and a plurality of lenses 5b1 are arranged in even rows. In addition, the lens 5b0 and the lens 5b1 should just be a lens from which a lens curvature radius differs at least.
- the lens 5b0 and the lens 5b1 in the illustrated example have different lens curvature radii Lr0 and Lr1, and the lens pitches Lp0 and Lp1 are the same.
- the display unit 5a is arranged in the lens 5b0 so that the right-eye pixels 201Rpix and the left-eye pixels 201Lpix in the odd-numbered rows of the display unit 5a are accommodated, and the display in the lens 5b1.
- the right-eye pixels 201Rpix and the left-eye pixels 201Lpix in the even-numbered rows of the unit 5a are arranged so as to be accommodated.
- One right-eye pixel 201Rpix has three red, green, and blue sub-pixels.
- One left-eye pixel 201Lpix also has three red, green, and blue sub-pixels.
- the image generation unit 3 generates a three-dimensional image in which right-row pixels 201Rpix and left-eye pixels 201Lpix are periodically arranged in the horizontal direction and arranged in two rows in the vertical direction. That is, the image displayed on the display unit 5a corresponding to the lens 5b0 in the first row is the same as the image displayed on the display unit 5a corresponding to the lens 5b1 in the second row, and corresponds to the lens 5b0 in the third row.
- the image displayed on the display unit 5a is the same as the image displayed on the display unit 5a corresponding to 4b1 in the fourth row.
- the right-eye pixels 201Rpix and the left-eye pixels 201Lpix in the odd-numbered rows are separated into the right-eye pixels 201aR and the left-eye pixels 201aL through the lens 5b0 at the separation angle ⁇ 0.
- the right-eye pixels 201Rpix and the left-eye pixels 201Lpix in the even-numbered rows are separated into the right-eye pixels 201bR and the left-eye pixels 201bL through the lens 5b1 at a separation angle ⁇ 1.
- the pixels in the odd-numbered rows on the display unit 5a are separated by the image separation unit 5b, and the stereoscopic visual recognition area including the right-eye image visual recognition area 201AR and the left-eye image visual recognition area 201AL around the viewpoint position 200 of the driver. 201A is formed.
- the pixels in the even-numbered rows on the display unit 5a are separated by the image separation unit 5b, and the stereoscopic vision region including the right-eye image viewing region 201BR and the left-eye image viewing region 201BL around the driver's viewpoint position 200.
- 201B is formed.
- the image separation unit 5b has a lens 5b0 having a lens curvature radius Lr0 and a lens pitch Lp0 and a lens 5b1 having a lens curvature radius Lr1 and a lens pitch Lp1, so that the driver can visually recognize a stereoscopic image.
- the stereoscopic viewing region 201A is repeatedly formed in the left-right direction.
- the stereoscopic viewing area 201B is repeatedly formed in the left-right direction.
- the stereoscopic display device 10 includes the image generation unit 3, the display control unit 4, and the image separation unit 5b.
- the image generation unit 3 generates two-dimensional images by arranging two images each having a right-eye image and a left-eye image periodically arranged in the horizontal direction in the vertical direction perpendicular to the one direction.
- the display control unit 4 displays the stereoscopic image generated by the image generation unit 3 on the display unit 5a.
- the image separation unit 5b converts the stereoscopic image displayed by the display unit 4a into an odd-numbered right-eye image and a left-eye image, and an even-numbered right-eye image and left-eye image at two separation angles ⁇ 0 and ⁇ 1. And to separate.
- a stereoscopic image can be visually recognized as a stereoscopic visual recognition area 201A formed by an odd-numbered right-eye image and a left-eye image, and a stereoscopic visual recognition area formed by an even-numbered right-eye image and a left-eye image.
- Two areas of 201B are possible.
- the three-dimensional viewing area 201A, 201B has been expanded so that the stereoscopic image is normal even if the viewpoint position 200 of the driver moves. Visible to.
- the image separation unit 5b is a lenticular lens in which two types of lenses 5b0 and 5b1 having different lens curvature radii Lr0 and Lr1 are periodically arranged in the vertical direction. Since the lenticular lens of Embodiment 1 only needs to change the lens curvature radius and the like, the manufacturing cost does not increase compared to the general lenticular lens shown in FIGS. 3A, 3B, and 3C.
- the image separation unit 5b has a configuration in which the two types of lenses 5b0 and 5b1 are periodically arranged row by row, but is not limited to this configuration.
- the image separation unit 5b may have a configuration in which two types of lenses 5b0 and 5b1 are periodically arranged in two rows.
- the lenses 5b0 and 5b1 may have any configuration as long as N is an integer equal to or greater than 1, and N rows are periodically arranged.
- the image separation unit 5b is configured with two types of lenses 5b0 and 5b1, but is not limited to this configuration.
- the image separation unit 5b may have a configuration in which three types of lenses 5b0, 5b1, and 5b2 are periodically arranged in N rows.
- the image separation unit 5b may have a configuration in which n is an integer of 2 or more and n types of lenses are periodically arranged.
- the image separation unit 5b separates the stereoscopic image displayed by the display unit 5a into n sets of right-eye images and left-eye images at n separation angles. A region can be formed.
- the image generating unit 3 arranges an image in which the right-eye image and the left-eye image are periodically arranged in the horizontal direction by arranging n ⁇ N rows in the vertical direction. Generate an image.
- the image separating unit 5b has a configuration in which the lens 5b0 and the lens 5b1 arranged in the horizontal direction are periodically arranged in the vertical direction.
- the lens 5b0 and the lens 5b1 may be periodically arranged in the horizontal direction.
- the image generation unit 3 generates a stereoscopic image by arranging images in which the right-eye image and the left-eye image are periodically arranged in the vertical direction by two rows in the horizontal direction.
- the image display unit 5 includes the reflective glass 5c, and the reflective glass 5c projects the stereoscopic image onto the windshield 103 so that the driver can visually recognize the stereoscopic image.
- the windshield glass 103 and the reflection glass 5c can be configured to be unnecessary.
- the image display part 5 may be provided with the drive mechanism which moves the reflection glass 5c up and down. The image display unit 5 controls the drive mechanism so that the position of the reflecting glass 5c moves up and down according to the physique of the driver.
- the image display unit 5 may acquire information on the viewpoint position 200 from the position information acquisition unit 1.
- the image generation unit 3 generates the right-eye image and the left-eye image.
- the configuration is not limited to this configuration, and is generated outside the stereoscopic display device 10.
- the image generation unit 3 may acquire the right eye image and the left eye image via the in-vehicle network 102.
- the image generation unit 3 generates a stereoscopic image from the acquired right eye image and left eye image.
- FIG. The display control unit 4 according to the first embodiment is configured to light all the pixels of the display unit 5a.
- the display control unit 4 according to the second embodiment according to the viewpoint position 200 of the driver, either one of the pixels corresponding to the stereoscopic viewing area 201A and the pixels corresponding to the stereoscopic viewing area 201B in the display unit 5a. Turn on and turn off the other.
- the configuration of the stereoscopic display device 10 according to the second embodiment is the same as the configuration of the stereoscopic display device 10 according to the first embodiment of FIGS. 1 to 7 in the drawings. Is used.
- FIG. 8 is a flowchart showing an operation example of the stereoscopic display device 10 according to Embodiment 2 of the present invention.
- the image generation unit 3 generates a stereoscopic image based on the vehicle information acquired by the vehicle information acquisition unit 2 in parallel with the flowchart of FIG.
- step ST ⁇ b> 1 the position information acquisition unit 1 acquires position information indicating the driver's viewpoint position 200 from the in-vehicle camera 101 and outputs the position information to the display control unit 4.
- step ST2 the display control unit 4 compares the viewpoint position 200 indicated by the previously acquired position information with the viewpoint position 200 indicated by the currently acquired position information. If the current viewpoint position 200 has been changed from the previous viewpoint position 200 (step ST2 “YES”), the display control unit 4 proceeds to step ST3, and if not changed (step ST2 “NO”), the step Proceed to ST6.
- step ST3 the display control unit 4 compares the viewpoint movement amount 220D with the region determination threshold value Dth. If the viewpoint movement amount 220D is greater than or equal to the region determination threshold value Dth (step ST3 “YES”), the display control unit 4 proceeds to step ST4, and if the viewpoint movement amount 220D is less than the region determination threshold value Dth (step ST3 “NO”). ”), The process proceeds to step ST5.
- step ST4 the display control unit 4 selects the stereoscopic viewing area 201A because the viewpoint movement amount 220D is greater than or equal to the area determination threshold value Dth.
- step ST5 the display control unit 4 selects the stereoscopic viewing region 201B because the viewpoint movement amount 220D is less than the region determination threshold value Dth.
- 9A, 9B, and 9C are diagrams for explaining the operation of the display control unit 4 according to Embodiment 2 of the present invention.
- the viewpoint movement amount 220D is not the movement amount from the previous viewpoint position 200 to the current viewpoint position 200, but before and after the driver's eyebox center 210 to the current viewpoint position 200.
- the driver's eyebox center 210 is a position where the viewpoint position 200 is assumed to exist when the driver is sitting in the driver's seat, and is a value given to the display control unit 4 in advance.
- the area determination threshold value Dth is a threshold value for determining in which of the stereoscopic viewing areas 201A and 201B the driver's viewpoint position 200 exists, and is a value given to the display control unit 4 in advance.
- “0 mm” that is the eye box center 210 is set as the region determination threshold value Dth.
- the “ ⁇ ” side is the front side, that is, the windshield 103 side, and the “+” side is the rear side, that is, the rear glass side.
- the display control unit 4 selects the stereoscopic viewing area 201B.
- step ST6 the display control unit 4 causes the display unit 5a to display the stereoscopic image generated by the image generation unit 3. At that time, the display control unit 4 controls the display unit 5a to turn on the pixels corresponding to the stereoscopic viewing region selected in step ST4 or step ST5 and turn off the other pixels in the stereoscopic image.
- the image separation unit 5b has a configuration in which the lens 5b0 for the stereoscopic viewing area 201A and the lens 5b1 for the stereoscopic viewing area 201B are arranged on a horizontal stripe line by line.
- the display control unit 4 turns on the pixels corresponding to the stereoscopic viewing area 201A and turns off the pixels corresponding to the stereoscopic viewing area 201B. That is, the display control unit 4 causes the display unit 5a to display only the right-eye and left-eye images in the odd-numbered rows among the stereoscopic images.
- the display control unit 4 when selecting the stereoscopic viewing area 201B, the display control unit 4 turns off the pixels corresponding to the stereoscopic viewing area 201A and turns on the pixels corresponding to the stereoscopic viewing area 201B. That is, the display control unit 4 causes the display unit 5a to display only the right-eye and left-eye images of the even-numbered rows among the stereoscopic images.
- step ST ⁇ b> 7 the image separation unit 5 b separates either one of the stereoscopic viewing area 201 ⁇ / b> A or the stereoscopic viewing area 201 ⁇ / b> B in which the display unit 5 a is lit into a right eye image and a left eye image, and the windshield glass 103. Project.
- FIGS. 10A and 10B are diagrams illustrating the relationship between the viewpoint position 200 and the stereoscopic viewing areas 201A and 201B in the second embodiment of the present invention.
- the region determination threshold value Dth is “0 mm”.
- the display control unit 4 performs stereoscopic viewing because the viewpoint movement amount 220 ⁇ / b> D is “0 mm” or more.
- the display of the stereoscopic image on the display unit 5a is controlled so that the region 201A is formed.
- the display control unit 4 has a viewpoint movement amount 220D that is less than “0 mm”.
- the display of the stereoscopic image on the display unit 5a is controlled so that the stereoscopic visual recognition area 201B is formed.
- the stereoscopic display device 10 includes the position information acquisition unit 1 that acquires position information of the driver in the front-rear direction. Based on the position information acquired by the position information acquisition unit 1, the display control unit 4 according to the second embodiment selects each of the two images from the two images arranged in the vertical direction in the stereoscopic image. Any one of these images is determined and displayed on the display unit 5a.
- the stereoscopic viewing area 201A and the stereoscopic viewing area 201B partially overlap, even if the driver's viewpoint position 200 moves to the overlapping portion, crosstalk or the like does not occur, and the driver A stereoscopic image can be visually recognized normally.
- the switching between the stereoscopic viewing area 201A and the stereoscopic viewing area 201B is illustrated, but the display control unit 4 can also switch between three or more stereoscopic viewing areas.
- the display control unit 4 can also switch between three or more stereoscopic viewing areas.
- the display control unit 4 switches to any one of the stereoscopic viewing areas 201A, 201B, and 201C (not shown) using two area determination threshold values Dth having different values.
- the display control unit 4 turns on the image for the lens 5b0 in the first two rows of the six rows in the stereoscopic image and turns off the images for the remaining four rows of lenses 5b1 and 5b2.
- the display unit 5a is controlled.
- the display control unit 4 turns on the image for the lens 5b1 in the middle two rows of the six rows in the stereoscopic image, and displays the images for the remaining four rows of lenses 5b0 and 5b2.
- the display unit 5a is controlled to be turned off. Further, when switching to the stereoscopic viewing area 201C, the display control unit 4 turns on the images for the rear two rows of lenses 5b2 among the six rows in the stereoscopic image, and displays the images for the remaining four rows of lenses 5b0 and 5b1. The display unit 5a is controlled to be turned off.
- the image separation unit 5b is configured with two types of lenses 5b0 and 5b1, thereby forming two stereoscopic viewing areas, a stereoscopic viewing area 201A and a stereoscopic viewing area 201B, in the front-rear direction.
- a plurality of stereoscopic viewing areas are formed not only in the front-rear direction but also in the left-right direction.
- the configuration of the stereoscopic display device 10 according to the third embodiment is the same as that of the stereoscopic display device 10 according to the first and second embodiments of FIGS. 1 to 10 in the drawings.
- FIG. 10 is incorporated.
- FIG. 11 is a structural diagram of the image separation unit 5b of the stereoscopic display device 10 according to Embodiment 3 of the present invention.
- the image separation unit 5b includes six types of lenses: a lens 5b0-Center, a lens 5b0-Rshift, a lens 5b0-Lshift, a lens 5b1-Center, a lens 5b1-Rshift, and a lens 5b1-Lshift.
- the lens 5b0-Center, the lens 5b0-Rshift, and the lens 5b0-Lshift have the same lens curvature radius Lr0 and lens pitch Lp0.
- the lens 5b1-Center, the lens 5b1-Rshift, and the lens 5b1-Lshift have the same lens curvature radius Lr1 and lens pitch Lp1.
- Each lens is arranged in a horizontal row.
- the lenses 5b0-Rshift, 5b1-Rshift are arranged with the lens center shifted to the right with respect to the lenses 5b0-Center, 5b1-Center.
- the lenses 5b0-Lshift, 5b1-Lshift are arranged with the lens center shifted to the left with respect to the lenses 5b0-Center, 5b1-Center.
- FIGS. 12A and 12B are diagrams for explaining the operation of the display control unit 4 in Embodiment 3 of the present invention.
- the image separation unit 5b according to the third embodiment is composed of six types of lenses.
- FIG. 12A the front left, front center, and front right three directions.
- a total of six stereoscopic viewing areas 201A, 201B, 201C, 201D, 201E, and 201F in the rear left, rear center, and rear right rear three directions are formed.
- the rear center stereoscopic viewing area 201A is formed by the lens 5b0-Center
- the rear left stereoscopic viewing area 201C is formed by the lens 5b0-Lshift
- the rear right stereoscopic viewing area 201D is formed by the lens 5b0-Rshift
- the front center stereoscopic viewing area 201B is formed by the lens 5b1-Center
- the front left stereoscopic viewing area 201E is formed by the lens 5b1-Lshift
- the front right stereoscopic viewing area 201F is formed by the lens 5b1-Rshift.
- the image generation unit 3 generates a stereoscopic image in which images in which right-eye pixels 201Rpix and left-eye pixels 201Lpix are periodically arranged in the horizontal direction are arranged in six rows in the vertical direction. That is, an image displayed on the display unit 5a corresponding to the lens 5b0-Lshift in the first row, an image displayed on the display unit 5a corresponding to the lens 5b0-Center in the second row, and a lens 5b0-Rshift in the third row.
- the image displayed on the display unit 5a corresponding to the lens 5b1-Rshift on the sixth row is the same image.
- the display control unit 4 sets an optimum stereoscopic viewing area from among the six stereoscopic viewing areas based on the position information on the front, rear, left and right of the viewpoint position 200 of the driver. And the display control part 4 controls the display part 5a so that the image applicable to the set stereo visual recognition area
- the viewpoint movement amount 220D is a movement amount in the front-rear direction from the driver's eyebox center 210 to the viewpoint position 200 acquired this time.
- the area determination threshold value Dth is a threshold value for determining whether the driver's viewpoint position 200 exists in the forward stereoscopic viewing areas 201B, 201E, and 201F or the backward stereoscopic viewing areas 201A, 201C, and 201D.
- the viewpoint movement amount 220X is the movement amount in the left-right direction from the eyebox center 210 to the viewpoint position 200 acquired this time.
- the area determination threshold value Xmax is a threshold value for determining whether the driver's viewpoint position 200 exists in the right-side stereoscopic viewing areas 201D and 201F or the central-direction stereoscopic viewing areas 201A and 201B. This is the value given to part 4.
- the area determination threshold value Xmin is a threshold value for determining whether the driver's viewpoint position 200 exists in the left stereoscopic viewing areas 201C and 201E or the central stereoscopic viewing areas 201A and 201B. This is the value given to part 4. “+30 mm” is set as the region determination threshold value Xmax and “ ⁇ 30 mm” is set as the region determination threshold value Xmin with reference to “0 mm” that is the eye box center 210.
- the display control unit 4 compares the area determination threshold value Dth in the front-rear direction with the viewpoint movement amount 220D in the front-rear direction. Further, the display control unit 4 compares the left and right area determination thresholds Xmax and Xmin with the left and right viewpoint movement amount 220X. From the comparison result, the display control unit 4 selects any one of the stereoscopic viewing areas 201A to 201F as the stereoscopic viewing area as shown in FIG. 12B.
- the current viewpoint position 200 obtained from the position information acquisition unit 1 is a position moved “ ⁇ 20 mm” in the front-rear direction from the eye box center 210 and “+40 mm” in the left-right direction. Since the viewpoint movement amount 220D “ ⁇ 20 mm” in the front-rear direction is less than the area determination threshold Dth “0 mm”, the stereoscopic viewing area selection result is any one of the stereoscopic viewing areas 201E, 201B, and 201F.
- the stereoscopic viewing region 201F is selected from the stereoscopic viewing regions 201E, 201B, and 201F.
- the display control unit 4 causes the display unit 5a to display the right-eye and left-eye images corresponding to the lens 5b1-Rshift so that the stereoscopic viewing area 201F is formed.
- the stereoscopic display device 10 includes the position information acquisition unit 1 that acquires position information in the front-rear direction and the left-right direction of the driver. Based on the position information acquired by the position information acquisition unit 1, the display control unit 4 according to Embodiment 3 selects each of the six images from the six images arranged in the vertical direction in the stereoscopic image. Any one of these images is determined and displayed on the display unit 5a.
- the stereoscopic viewing area can be expanded not only in the front-rear direction but also in the left-right direction. Therefore, the stereoscopic image can be normally visually recognized even when the viewpoint position 200 of the driver moves.
- the display control unit 4 of Embodiment 3 divides the front-rear direction into two stereoscopic viewing areas, divides the left-right direction into three stereoscopic viewing areas, and divides it into a total of six areas.
- the viewpoint movement amounts 220D and 220X from the viewpoint position 200 to the area determination threshold values Dth, Xmax, and Xmin are selected to select an optimal stereoscopic viewing area, but the present invention is not limited to this structure.
- the right-eye image viewing area 201AR and the left-eye image viewing area 201AL are repeatedly formed in the left-right direction.
- the right eye viewpoint 200R0 moves to the left eye image viewing area 201AL and the left eye viewpoint 200L0 moves to the right eye image viewing area 201AR
- the right eye image is projected onto the left eye image viewing area 201AL and the right eye is projected.
- the driver can normally view the stereoscopic image. Therefore, the image generation unit 3 generates a normal stereoscopic image and a stereoscopic image obtained by switching the right-eye image and the left-eye image
- the display control unit 4 It may be switched whether to display the three-dimensional image or to display the three-dimensional image obtained by switching the right-eye image and the left-eye image. Thereby, the kind of lens which comprises the image separation part 5b can be reduced.
- the right-eye viewpoint 200R0 moves from the right-eye image viewing area 201AR to the adjacent right-eye image viewing area 201AR
- the left-eye viewpoint 200L0 moves from the left-eye image viewing area 201AL.
- the display control unit 4 determines whether to switch from the stereoscopic viewing areas 201A and 201B to the adjacent stereoscopic viewing areas 201C to 201F or leave the stereoscopic viewing areas 201A and 201B based on the viewpoint movement amount in the horizontal direction.
- the display on the display unit 5a may be controlled according to the determination result.
- the image separation unit 5b has a configuration in which the front-rear direction is divided into two stereoscopic viewing regions and the left-right direction is divided into three stereoscopic viewing regions, which are divided into a total of six regions. It is not limited, and it may be divided into any number of stereoscopic viewing areas other than six.
- the display control part 4 of Embodiment 2, 3 was the structure which controls the display of the display part 5a based on the information of the viewpoint position 200 which the position information acquisition part 1 acquired from the in-vehicle camera 101,
- the information is not limited to the information on the viewpoint position 200.
- the display control unit 4 may control the display of the display unit 5a based on information from a switch or the like that switches the stereoscopic viewing regions 201A to 201F by a driver's operation.
- FIG. 13 is a structural diagram of the image separation unit 5bA configured with a parallax barrier in the stereoscopic display device 10 according to Embodiment 4 of the present invention.
- the image separation unit 5bA includes two types of slits having different slit widths. In the vertical direction, the slits 5bA0 and the slits 5bA1 are periodically arranged, and in the horizontal direction, a plurality of slits 5bA0 are arranged in odd rows and a plurality of slits 5bA1 are arranged in even rows.
- the slit 5bA0 has the same function as the lens 5b0 in FIGS. 5A, 5B, and 5C, and the slit 5bA1 has the same function as the lens 5b1. Since the configuration other than the image separation unit 5bA in the stereoscopic display device 10 is as described in the first to third embodiments, the description thereof is omitted here.
- the image separation unit 5bA according to the fourth embodiment is a parallax barrier in which n types of slits 5bA0 and 5bA1 having different slit widths are periodically arranged. Also in this configuration, the same effect as in the first to third embodiments can be obtained.
- FIGS. 14A and 14B are main hardware configuration diagrams of the stereoscopic display device and its peripheral devices according to each embodiment of the present invention.
- the functions of the position information acquisition unit 1, the image generation unit 3, and the display control unit 4 in the stereoscopic display device 10 are realized by a processing circuit. That is, the stereoscopic display device 10 includes a processing circuit for realizing the above functions.
- the processing circuit may be the processor 12 that executes a program stored in the memory 13, or may be the processing circuit 16 as dedicated hardware.
- the processing circuit is a processor 12
- the functions of the position information acquisition unit 1, the image generation unit 3, and the display control unit 4 are realized by software, firmware, or a combination of software and firmware. Is done.
- Software or firmware is described as a program and stored in the memory 13.
- the processor 12 reads out and executes the program stored in the memory 13, thereby realizing the function of each unit. That is, the stereoscopic display device 10 includes a memory 13 for storing a program that, when executed by the processor 12, results in the steps shown in the flowchart of FIG. It can also be said that this program causes a computer to execute the procedure or method of the position information acquisition unit 1, the image generation unit 3, and the display control unit 4.
- the processing circuit 16 when the processing circuit is dedicated hardware, includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit). , FPGA (Field Programmable Gate Array), or a combination thereof.
- the functions of the position information acquisition unit 1, the image generation unit 3, and the display control unit 4 may be realized by a plurality of processing circuits 16, or the functions of the respective units may be realized by a single processing circuit 16.
- the processor 12 is a CPU (Central Processing Unit), a processing device, an arithmetic device, a microprocessor, a microcomputer, or the like.
- the memory 13 may be a RAM (Random Access Memory), a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), or a nonvolatile or volatile semiconductor memory such as a flash memory, a hard disk, a flexible disk, or the like.
- the magnetic disk may be an optical disk such as a CD (Compact Disc) or a DVD (Digital Versatile Disc).
- a part may be implement
- the processing circuit in the stereoscopic display device 10 can realize the above-described functions by hardware, software, firmware, or a combination thereof.
- the input device 11 is an in-vehicle camera 101 or a switch, and inputs the position information of the driver to the stereoscopic display device 10.
- the communication device 14 is the vehicle information acquisition unit 2 and acquires vehicle information from an ECU mounted on the vehicle 100 via the in-vehicle network 102.
- the output device 15 is a lenticular lens or a parallax barrier that is the image separation unit 5b or 5bA, such as a liquid crystal display that is the display unit 5a, and a windshield 103 or a combiner.
- the stereoscopic display device 10 can be used other than the vehicle 100.
- the position information acquisition unit 1 acquires information on the viewpoint position of the observer who uses the stereoscopic display device 10.
- the stereoscopic display device according to the present invention is suitable for a stereoscopic display device used for an in-vehicle HUD or the like because an area where a stereoscopic image can be visually recognized is enlarged as compared with a general lenticular lens method or a parallax barrier method.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Instrument Panels (AREA)
Abstract
表示制御部(4)は、右眼用画素(201Rpix)と左眼用画素(201Lpix)が横方向に周期的に配列された画像が、縦方向に2個ずつ配列された立体画像を、表示部(5a)に表示させる。画像分離部(5b)は、立体画像を、分離角度θ0で右眼用画素(201aR)と左眼用画素(201aL)に分離すると共に、分離角度θ1で右眼用画素(201bR)と左眼用画素(201bL)に分離する。
Description
この発明は、立体画像を表示する立体表示装置およびヘッドアップディスプレイに関するものである。
ヘッドアップディスプレイ(以下、「HUD」と称する。)のように、車両に乗った運転者から見た前景に、運転を支援するための補助情報を描画した画像を虚像として重畳表示する技術が知られている。そして、両眼視差等の立体視の原理を使い、左眼用虚像および右眼用虚像の視差量を変更することによって運転者から見た虚像の表示距離を変更する表示装置が開示されている。このような表示装置では、液晶ディスプレイ等の表示デバイスの手前に光を選択的に遮るバリアまたはレンズを配置することによって、運転者の左眼に左眼画像のみを視認させ、かつ右眼に右眼画像のみを視認させることによって、運転者に立体画像を認識させる(例えば、特許文献1参照)。
従来の表示装置は以上のように構成されているので、観察者が立体画像を視認できる領域は、表示デバイスとバリア等との配置距離、ならびにバリア等のスリット幅およびスリット位置によって固定されるという課題があった。そのため、観察者の視点位置が動いて立体画像を視認できる領域から外れると、クロストーク等が生じ、立体画像が正常に視認されない。
この発明は、上記のような課題を解決するためになされたもので、観察者が立体画像を視認できる領域を拡大することを目的とする。
この発明に係る立体表示装置は、nを二以上の整数として、右眼用画像および左眼用画像が一方向に周期的に配列された画像を、当該一方向とは直交する方向にn個ずつ配列して立体画像を生成する画像生成部と、画像生成部により生成された立体画像を表示部に表示させる表示制御部と、表示部が表示する立体画像を、n個の分離角度でn組の右眼用画像および左眼用画像に分離する画像分離部とを備えるものである。
この発明によれば、表示部が表示する立体画像を、n個の分離角度でn組の右眼用画像および左眼用画像に分離するようにしたので、観察者が立体画像を視認できる領域がn個に増える。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る立体表示装置10の構成例を示すブロック図である。図1において、実施の形態1の立体表示装置10は、位置情報取得部1、車両情報取得部2、画像生成部3、表示制御部4および画像表示部5を備える。立体表示装置10は、例えば後述する車両100に搭載され、HUDとして使用される。
実施の形態1.
図1は、この発明の実施の形態1に係る立体表示装置10の構成例を示すブロック図である。図1において、実施の形態1の立体表示装置10は、位置情報取得部1、車両情報取得部2、画像生成部3、表示制御部4および画像表示部5を備える。立体表示装置10は、例えば後述する車両100に搭載され、HUDとして使用される。
位置情報取得部1は、運転者の視点位置を示す位置情報を車内カメラ101から取得し、画像生成部3および表示制御部4へ出力する。運転者の視点位置とは、例えば運転者の眼部の位置または頭部の位置等である。
車両情報取得部2は、車内ネットワーク102を経由して車両100の車両情報を取得し、画像生成部3へ出力する。車両情報とは、例えば、自車位置情報、進行方向、車速、操舵角、加速度、時刻、警告情報、各種制御信号、およびナビゲーション情報等である。各種制御信号とは、例えば、ワイパーのオンオフ信号、ライトの点灯信号、およびシフトポジション信号等である。ナビゲーション情報とは、例えば、渋滞情報、施設名、案内ガイダンス、およびルート等である。
画像生成部3は、位置情報取得部1が取得した位置情報と、車両情報取得部2が取得した車両情報とを元に表示画像を生成し、表示制御部4へ出力する。表示画像とは、例えば、矢印案内および残距離情報等のナビゲーションコンテンツ、ならびに、車速および警告情報等を表した立体画像である。立体画像は、立体視用の右眼用および左眼用画像から構成される。なお、表示画像は、視差の無い二次元画像を含んでもよい。
表示制御部4は、画像生成部3が生成した表示画像を画像表示部5に表示させる。なお、実施の形態1では、表示制御部4は、位置情報取得部1により取得された位置情報を使用しない。表示制御部4が位置情報を使用する例は、後述する実施の形態2で説明する。
画像表示部5は、表示制御部4の表示制御に基づいて、画像生成部3が生成した立体画像を右眼用画像および左眼用画像に分離し、風防ガラス103へ投射する。
図2は、この発明の実施の形態1に係る立体表示装置10の車両搭載例を示す図である。図2において、画像表示部5は、表示部5a、画像分離部5bおよび反射ガラス5cで構成される。表示部5aは、液晶ディスプレイ(LCD)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)またはDLP(Digital Light Processing)等の表示デバイスであり、表示制御部4からの表示制御に基づいて、表示画像を表示する。画像分離部5bは、表示部5aが表示する立体画像を右眼用画像201Rおよび左眼用画像201Lに分離する。反射ガラス5cは、画像分離部5bが分離した右眼用画像201Rおよび左眼用画像201Lに対して光学的な歪補正および拡大を行い、風防ガラス103へ投射する。
車内カメラ101は、例えば、インストルメントパネルの計器類、または、センタディスプレイもしくはバックミラー等の近傍等、運転者の視点位置200を取得できる場所に設置される。この車内カメラ101は、顔画像を撮像して解析し、眼部または頭部の位置を検出し、位置情報として位置情報取得部1へ出力する。なお、車内カメラ101は、ステレオカメラを用いた三角測量、または単眼カメラを用いたTOF(Time Of Flight)等の周知の技術を用いて、眼部または頭部の位置を検出してもよい。
なお、眼部または頭部の位置検出は、車内カメラ101が行ってもよいし、位置情報取得部1が行ってもよい。
なお、眼部または頭部の位置検出は、車内カメラ101が行ってもよいし、位置情報取得部1が行ってもよい。
車内ネットワーク102は、車両100に搭載される電子制御ユニット(ECU)間で、車速および操舵角等の車両100の情報を送受信するためのネットワークである。
風防ガラス103は、立体表示装置10からの表示画像が投射される被投射部である。実施の形態1のHUDはウィンドシールド型であるため、被投射部は風防ガラス103である。コンバイナ型のHUDの場合、被投射部はコンバイナである。
次に、HUDの動作を説明する。
図2において、表示制御部4から出力された立体画像は、表示部5aに表示される。続いて、画像分離部5bは、表示部5aに表示された立体画像が運転者の右眼視点200Rおよび左眼視点200Lに到達するように、右眼用画像201Rおよび左眼用画像201Lに分離する。そして、反射ガラス5cは、右眼用画像201Rおよび左眼用画像201Lに対して風防ガラス103の形状に合わせた歪補正を行い、また、右眼用画像201Rおよび左眼用画像201Lを所望の虚像サイズに拡大して、風防ガラス103上に投射する。右眼用画像201Rは、運転者の右眼視点200Rに入り、左眼用画像201Lは、運転者の左眼用画像201Lに入る。
図2において、表示制御部4から出力された立体画像は、表示部5aに表示される。続いて、画像分離部5bは、表示部5aに表示された立体画像が運転者の右眼視点200Rおよび左眼視点200Lに到達するように、右眼用画像201Rおよび左眼用画像201Lに分離する。そして、反射ガラス5cは、右眼用画像201Rおよび左眼用画像201Lに対して風防ガラス103の形状に合わせた歪補正を行い、また、右眼用画像201Rおよび左眼用画像201Lを所望の虚像サイズに拡大して、風防ガラス103上に投射する。右眼用画像201Rは、運転者の右眼視点200Rに入り、左眼用画像201Lは、運転者の左眼用画像201Lに入る。
運転者の視点から見ると、虚像位置202上で左眼視点200Lからは左眼用虚像202Lが認識され、右眼視点200Rからは右眼用虚像202Rが認識される。右眼用虚像202Rおよび左眼用虚像202Lは視差があるため、運転者は、立体像認識位置203に立体像を視認することができる。
図3A、図3Bおよび図3Cは、一般的な裸眼立体視が可能なレンチキュラレンズ方式の表示部5aおよび画像分離部5bの構造図である。図3Aに示すように、画像分離部5bは、表示部5aの前面に配置される。一般的な画像分離部5bは、例えば、レンズ曲率半径Lr0およびレンズピッチLp0が縦方向に一定である半円筒型のレンズが、横方向に複数個配列された、レンチキュラレンズである。
図3Bに示すように、表示部5aは、レンズピッチLp0内に、右眼用画素201Rpixおよび左眼用画素201Lpixが収まるように配置される。一つの右眼用画素201Rpixには、赤緑青(RGB)の三つのサブ画素がある。一つの左眼用画素201Lpixにも、赤緑青の三つのサブ画素がある。画像生成部3は、横方向において、右眼用画素201Rpixと左眼用画素201Lpixを周期的に配列して、横ストライプ状の立体画像にする。表示部5aが点灯すると、右眼用画素201Rpixおよび左眼用画素201Lpixはレンズを介して、右眼用画素201aRおよび左眼用画素201aLに分離される。表示部5a上の全画素が画像分離部5bで分離されて、運転者の視点位置200周辺に、右眼用画像視認領域201ARおよび左眼用画像視認領域201ALが形成される。その結果、立体視認領域201Aが形成される。立体視認領域201Aの位置および範囲、つまり幅および奥行きは、表示部5aの画素ピッチに合わせたレンズ曲率半径Lr0およびレンズピッチLp0で決まる。
図3Cに示すように、画像分離部5bのレンチキュラレンズを構成する各レンズ5b0が同一のレンズ曲率半径Lr0およびレンズピッチLp0を有する場合、運手者が立体画像を視認できる領域は、立体視認領域201Aのみとなる。
図4Aおよび図4Bは、一般的な両眼視差を利用したHUDの立体視認領域を示す図である。図4Aに示すように、画像分離部5bにより分離された右眼用画像201R0,201R1,201R2および左眼用画像201L0,201L1,201L2は、風防ガラス103で反射されて、運転者の右眼視点200Rおよび左眼視点200Lに到達する。具体的には、表示部5aの左端部から出力された立体画像は、画像分離部5bで分離され、左端部左眼用画像201L0および左端部右眼用画像201R0として運転者の視点位置200に到達する。表示部5aの中心部から出力された立体画像は、画像分離部5bで分離され、中心部右眼用画像201R1および中心部左眼用画像201L1として運転者の視点位置200に到達する。表示部5aの右端部から出力された立体画像は、画像分離部5bで分離され、右端部右眼用画像201R2および右端部左眼用画像201L2として運転者の視点位置200に到達する。図示は省略するが、表示部5aの左端部、中心部および右端部以外の部分から出力された立体画像も同様である。
図4Aの左眼視点200Lにおいて、左端部左眼用画像201L0、中心部左眼用画像201L1および右端部左眼用画像201L2等の表示部5a上の各左眼用画像が集まり、左眼用画像視認領域201ALを形成する。同様に、図4Aの右眼視点200Rにおいて、左端部右眼用画像201R0、中心部右眼用画像201R1および右端部右眼用画像201R2等の表示部5a上の各右眼用画像が集まり、右眼用画像視認領域201ARを形成する。その結果、立体視認領域201Aが形成される。以上のように、運転者の左眼と右眼が左眼用画像認識領域201ALと右眼用画像認識領域201ARに入ることで、運転者は立体像認識位置203の立体画像を正常に視認できる。反対に、運転者の左眼と右眼が左眼用画像認識領域201ALと右眼用画像認識領域201ARから外れると、運転者は立体画像を正常に視認できない。
図4Bに示すように、レンチキュラレンズ方式および後述するパララックスバリア方式の場合、右眼用画像視認領域201ARと左眼用画像視認領域201ALが左右方向に繰り返し形成される。そのため、運転者の視点位置200が、左右方向において右眼視点200R0,200R1,200R2および左眼視点200L0,200L1,200L2のいずれかの位置に移動したとしても、運転者は立体画像を正常に視認できる。反対に、運転者の視点位置200が右眼視点200R0,200R1,200R2および左眼視点200L0,200L1,200L2以外の位置に移動すると、クロストーク等が生じ、立体画像を正常に視認できない。
次に、この発明の実施の形態1に係る表示部5aおよび画像分離部5bについて説明する。図5A、図5Bおよび図5Cは、この発明の実施の形態1に係る立体表示装置10の表示部5aおよび画像分離部5bの構造図である。図6は、この発明の実施の形態1に係る立体表示装置10の立体視認領域201A,201Bを示す図である。
図5Aに示すように、実施の形態1に係る画像分離部5bは、レンズ曲率半径Lr0およびレンズピッチLp0のレンズ5b0と、レンズ曲率半径Lr1およびレンズピッチLp1のレンズ5b1の、二種類のレンズで構成される。縦方向において、レンズ5b0とレンズ5b1は周期的に配列されており、横方向において、奇数行に複数のレンズ5b0が配置され偶数行に複数のレンズ5b1が配置されている。なお、レンズ5b0とレンズ5b1は、少なくともレンズ曲率半径が異なるレンズであればよい。図示例のレンズ5b0とレンズ5b1は、レンズ曲率半径Lr0,Lr1が異なり、レンズピッチLp0,Lp1が同じである。
図5Bに示すように、表示部5aは、レンズ5b0内に、表示部5aの奇数行の右眼用画素201Rpixおよび左眼用画素201Lpixが収まるように配置されると共に、レンズ5b1内に、表示部5aの偶数行の右眼用画素201Rpixおよび左眼用画素201Lpixが収まるように配置される。一つの右眼用画素201Rpixには、赤緑青の三つのサブ画素がある。一つの左眼用画素201Lpixにも、赤緑青の三つのサブ画素がある。画像生成部3は、右眼用画素201Rpixおよび左眼用画素201Lpixが横方向に周期的に配列された画像を、縦方向に二行ずつ配列した立体画像を生成する。つまり、一行目のレンズ5b0に相当する表示部5aに表示させる画像と、二行目のレンズ5b1に相当する表示部5aに表示させる画像とは同じであり、三行目のレンズ5b0に相当する表示部5aに表示させる画像と、四行目の4b1に相当する表示部5aに表示させる画像とは同じである。表示部5aが点灯すると、奇数行の右眼用画素201Rpixおよび左眼用画素201Lpixはレンズ5b0を介して、分離角度θ0で右眼用画素201aRおよび左眼用画素201aLに分離される。また、偶数行の右眼用画素201Rpixおよび左眼用画素201Lpixはレンズ5b1を介して、分離角度θ1で右眼用画素201bRおよび左眼用画素201bLに分離される。
その結果、表示部5a上の奇数行の画素は、画像分離部5bで分離され、運転者の視点位置200周辺で右眼用画像視認領域201ARおよび左眼用画像視認領域201ALからなる立体視認領域201Aを形成する。同様に、表示部5a上の偶数行の画素は、画像分離部5bで分離され、運転者の視点位置200周辺で右眼用画像視認領域201BRおよび左眼用画像視認領域201BLからなる立体視認領域201Bを形成する。
図5Cに示すように、画像分離部5bは、レンズ曲率半径Lr0およびレンズピッチLp0のレンズ5b0と、レンズ曲率半径Lr1およびレンズピッチLp1のレンズ5b1とを持つため、運転者が立体画像を視認できる領域は、立体視認領域201Aおよび立体視認領域201Bの二領域となる。したがって、運転者の視点位置200が立体視認領域201Aおよび立体視認領域201Bのどちらに移動しても、運転者は立体画像を正常に視認できる。
なお、実施の形態1の立体表示装置10においても、図4Bに示したように、立体視認領域201Aが左右方向に繰り返し形成される。同様に、立体視認領域201Bも左右方向に繰り返し形成される。
以上のように、実施の形態1に係る立体表示装置10は、画像生成部3、表示制御部4、および画像分離部5bを備える。画像生成部3は、右眼用画像および左眼用画像が横方向に周期的に配列された画像を、当該一方向とは直交する縦方向に二個ずつ配列して立体画像を生成する。表示制御部4は、画像生成部3により生成された立体画像を表示部5aに表示させる。画像分離部5bは、表示部4aが表示する立体画像を、二個の分離角度θ0,θ1で奇数行の右眼用画像および左眼用画像と偶数行の右眼用画像および左眼用画像とに分離する。これにより、立体画像を視認できる領域が、奇数行の右眼用画像および左眼用画像が形成する立体視認領域201Aと、偶数行の右眼用画像および左眼用画像が形成する立体視認領域201Bの二領域できる。従来一つの立体視認領域201Aだけであったのに対し、実施の形態1では二つの立体視認領域201A,201Bに領域が拡大したことによって、運転者の視点位置200が動いても立体画像を正常に視認できる。
また、実施の形態1の画像分離部5bは、異なるレンズ曲率半径Lr0,Lr1を有する二種類のレンズ5b0,5b1が縦方向に周期的に配列されたレンチキュラレンズである。実施の形態1のレンチキュラレンズはレンズ曲率半径等を変更するだけでよいため、図3A、図3Bおよび図3Cに示した一般的なレンチキュラレンズと比べて製造コストが増大しない。
なお、実施の形態1の画像分離部5bは、二種類のレンズ5b0,5b1が一行ずつ周期的に配列された構成であったが、この構成に限定されるものではない。例えば、図7Aに示すように、画像分離部5bは、二種類のレンズ5b0,5b1が二行ずつ周期的に配列された構成であってもよい。このように、レンズ5b0,5b1は、Nを一以上の整数とし、N行ずつ周期的に配置された構成であればよい。
また、実施の形態1の画像分離部5bは、二種類のレンズ5b0,5b1で構成されたが、この構成に限定されるものではない。例えば、図7Bに示すように、画像分離部5bは、三種類のレンズ5b0,5b1,5b2がN行ずつ周期的に配列された構成であってもよい。このように、画像分離部5bは、nを二以上の整数とし、n種類のレンズが周期的に配列された構成であればよい。この場合、画像分離部5bは、表示部5aが表示する立体画像を、n個の分離角度でn組の右眼用画像および左眼用画像に分離することになるため、n個の立体視認領域を形成できる。
なお、図7Aおよび図7Bの場合、画像生成部3は、右眼用画像および左眼用画像が横方向に周期的に配列された画像を、縦方向にn×N行ずつ配列して立体画像を生成する。
なお、図7Aおよび図7Bの場合、画像生成部3は、右眼用画像および左眼用画像が横方向に周期的に配列された画像を、縦方向にn×N行ずつ配列して立体画像を生成する。
また、実施の形態1の画像分離部5bは、横方向に配列されたレンズ5b0とレンズ5b1とが、縦方向に周期的に配列された構成であったが、反対に、縦方向に配列されたレンズ5b0とレンズ5b1とが、横方向に周期的に配列された構成であってもよい。この構成の場合、画像生成部3は、右眼用画像および左眼用画像が縦方向に周期的に配列された画像を、横方向に二列ずつ配列して立体画像を生成する。
また、実施の形態1では、画像表示部5が反射ガラス5cを備え、反射ガラス5cが立体画像を風防ガラス103へ投射することでこの立体画像を運転者に視認させているが、直視型の立体表示装置10の場合には、風防ガラス103および反射ガラス5cを必要としない構成にできる。
また、画像表示部5は、反射ガラス5cを上下に移動させる駆動機構を備えてもよい。画像表示部5は、運転者の体格に応じて反射ガラス5cの位置が上下移動するよう、駆動機構を制御する。運転者の視点位置200が高い位置にある場合、風防ガラス103における立体画像が投射される位置が高くなり、反対に視点位置200が低い位置にある場合、風防ガラス103における立体画像が投射される位置が低くなる。これにより、上下方向において、運転者の視点位置200に合わせて立体視認領域の位置を調整できる。なお、画像表示部5は、視点位置200の情報を、位置情報取得部1から取得すればよい。
また、画像表示部5は、反射ガラス5cを上下に移動させる駆動機構を備えてもよい。画像表示部5は、運転者の体格に応じて反射ガラス5cの位置が上下移動するよう、駆動機構を制御する。運転者の視点位置200が高い位置にある場合、風防ガラス103における立体画像が投射される位置が高くなり、反対に視点位置200が低い位置にある場合、風防ガラス103における立体画像が投射される位置が低くなる。これにより、上下方向において、運転者の視点位置200に合わせて立体視認領域の位置を調整できる。なお、画像表示部5は、視点位置200の情報を、位置情報取得部1から取得すればよい。
また、実施の形態1では、画像生成部3が右眼用画像および左眼用画像を生成する構成であったが、この構成に限定されるものでなく、立体表示装置10の外部で生成された右眼用画像および左眼用画像を車内ネットワーク102経由で画像生成部3が取得する構成であってもよい。画像生成部3は、取得した右眼用画像および左眼用画像から立体画像を生成する。
実施の形態2.
実施の形態1の表示制御部4は、表示部5aの全画素を点灯させる構成であった。これに対し、実施の形態2の表示制御部4は、運転者の視点位置200に応じて、表示部5aにおける立体視認領域201Aに相当する画素と立体視認領域201Bに相当する画素のいずれか一方を点灯させ、もう一方を消灯させる。
なお、実施の形態2に係る立体表示装置10の構成は、図面上は図1~図7の実施の形態1に係る立体表示装置10の構成と同じであるため、以下では図1~図7を援用する。
実施の形態1の表示制御部4は、表示部5aの全画素を点灯させる構成であった。これに対し、実施の形態2の表示制御部4は、運転者の視点位置200に応じて、表示部5aにおける立体視認領域201Aに相当する画素と立体視認領域201Bに相当する画素のいずれか一方を点灯させ、もう一方を消灯させる。
なお、実施の形態2に係る立体表示装置10の構成は、図面上は図1~図7の実施の形態1に係る立体表示装置10の構成と同じであるため、以下では図1~図7を援用する。
図8は、この発明の実施の形態2に係る立体表示装置10の動作例を示すフローチャートである。画像生成部3は、図8のフローチャートと並行して、車両情報取得部2が取得した車両情報に基づいて立体画像を生成しているものとする。
ステップST1において、位置情報取得部1は、運転者の視点位置200を示す位置情報を、車内カメラ101から取得し、表示制御部4へ出力する。
ステップST2において、表示制御部4は、前回取得した位置情報が示す視点位置200と、今回取得した位置情報が示す視点位置200とを比較する。表示制御部4は、今回の視点位置200が前回の視点位置200から変更されている場合(ステップST2“YES”)、ステップST3へ進み、変更されていない場合(ステップST2“NO”)、ステップST6へ進む。
ステップST3において、表示制御部4は、視点移動量220Dと領域判定閾値Dthとを比較する。表示制御部4は、視点移動量220Dが領域判定閾値Dth以上である場合(ステップST3“YES”)、ステップST4へ進み、視点移動量220Dが領域判定閾値Dth未満である場合(ステップST3“NO”)、ステップST5へ進む。
ステップST4において、表示制御部4は、視点移動量220Dが領域判定閾値Dth以上であるため、立体視認領域201Aを選定する。
ステップST5において、表示制御部4は、視点移動量220Dが領域判定閾値Dth未満であるため、立体視認領域201Bを選定する。
ステップST5において、表示制御部4は、視点移動量220Dが領域判定閾値Dth未満であるため、立体視認領域201Bを選定する。
図9A、図9Bおよび図9Cは、この発明の実施の形態2における表示制御部4の動作を説明する図である。図9Aおよび図9Bに示すように、視点移動量220Dは、前回の視点位置200から今回の視点位置200への移動量ではなく、運転者のアイボックス中心210から今回の視点位置200への前後方向の移動量である。運転者のアイボックス中心210は、運転者が運転席に座った状態のときに視点位置200が存在すると想定される位置であり、予め表示制御部4に与えられている値である。領域判定閾値Dthは、運転者の視点位置200が立体視認領域201A,201Bのどちらに存在するかを判定するための閾値であり、予め表示制御部4に与えられている値である。図示例では、アイボックス中心210である「0mm」が、領域判定閾値Dthとして設定されている。また、「-」側は前側、つまり風防ガラス103側であり、「+」側は後側、つまりリアガラス側である。
図9Aおよび図9Cに示すように、視点位置200がアイボックス中心210にある場合、またはアイボックス中心210より「+」側にある場合、表示制御部4は。立体視認領域201Aを選定する。
図9Bおよび図9Cに示すように、視点位置200がアイボックス中心210より「-」側にある場合、表示制御部4は、立体視認領域201Bを選定する。
図9Bおよび図9Cに示すように、視点位置200がアイボックス中心210より「-」側にある場合、表示制御部4は、立体視認領域201Bを選定する。
ステップST6において、表示制御部4は、画像生成部3が生成した立体画像を表示部5aに表示させる。その際、表示制御部4は、立体画像のうち、ステップST4またはステップST5で選定した立体視認領域に該当する画素を点灯させ、それ以外の画素を消灯させるよう、表示部5aを制御する。
例えば、図5Cに示したように、画像分離部5bが、立体視認領域201A用のレンズ5b0と立体視認領域201B用のレンズ5b1を一行ずつ横ストライプ上に並べた構成である場合を考える。この構成において、表示制御部4は、立体視認領域201Aを選定した場合、立体視認領域201Aに該当する画素を点灯させ、立体視認領域201Bに該当する画素を消灯させる。つまり、表示制御部4は、立体画像のうち、奇数行の右眼用および左眼用画像のみを表示部5aに表示させる。一方、表示制御部4は、立体視認領域201Bを選定した場合、立体視認領域201Aに該当する画素を消灯させ、立体視認領域201Bに相当する画素を点灯させる。つまり、表示制御部4は、立体画像のうち、偶数行の右眼用および左眼用画像のみを表示部5aに表示させる。
ステップST7において、画像分離部5bは、表示部5aが点灯した立体視認領域201Aまたは立体視認領域201Bのいずれか一方の画像を、右眼用画像および左眼用画像に分離し、風防ガラス103へ投射する。
図10Aおよび図10Bは、この発明の実施の形態2における視点位置200と立体視認領域201A,201Bとの関係性を説明する図である。ここでは、領域判定閾値Dthが「0mm」であるものとする。表示制御部4は、位置情報取得部1から得られた今回の視点位置200がアイボックス中心210から「+15mm」移動していた場合、視点移動量220Dは「0mm」以上であるため、立体視認領域201Aが形成されるように表示部5aの立体画像の表示を制御する。一方、表示制御部4は、位置情報取得部1から得られた今回の視点位置200がアイボックス中心210から「-15mm」移動していた場合、視点移動量220Dは「0mm」未満であるため、立体視認領域201Bが形成されるように表示部5aの立体画像の表示を制御する。
以上のように、実施の形態2に係る立体表示装置10は、運転者の前後方向の位置情報を取得する位置情報取得部1を備える。実施の形態2に係る表示制御部4は、位置情報取得部1により取得された位置情報に基づいて、立体画像において縦方向に二個ずつ配列された画像の中から、各二個の画像のうちのいずれか一個の画像を決定し、表示部5aに表示させる。この構成により、立体視認領域201Aと立体視認領域201Bとが一部重なっている場合に、この重なっている部分に運転者の視点位置200が移動したとしてもクロストーク等が生じず、運転者は立体画像を正常に視認できる。
なお、実施の形態2では、立体視認領域201Aと立体視認領域201Bとの切り替えを例示したが、表示制御部4は、三つ以上の立体視認領域を切り替えることも可能である。例えば、図7Bに示したように、n(=3)種類のレンズ5b0,5b1,5b2が周期的に配列された画像分離部5bである場合、右眼用画像および左眼用画像が横方向に周期的に配列された画像が、縦方向にn×N(=3×2)行ずつ配列された立体画像が生成される。表示制御部4は、値が異なる2つの領域判定閾値Dthを用いて、立体視認領域201A,201B,201C(不図示)のいずれかに切り替える。表示制御部4は、立体視認領域201Aに切り替える場合、立体画像における各六行のうちの先頭二行のレンズ5b0用の画像を点灯させ、残り四行のレンズ5b1,5b2用の画像を消灯させるよう、表示部5aを制御する。また、表示制御部4は、立体視認領域201Bに切り替える場合、立体画像における各六行のうちの中央二行のレンズ5b1用の画像を点灯させ、残り四行のレンズ5b0,5b2用の画像を消灯させるよう、表示部5aを制御する。また、表示制御部4は、立体視認領域201Cに切り替える場合、立体画像における各六行のうちの後ろ二行のレンズ5b2用の画像を点灯させ、残り四行のレンズ5b0,5b1用の画像を消灯させるよう、表示部5aを制御する。
実施の形態3.
実施の形態1,2は、画像分離部5bを二種類のレンズ5b0,5b1で構成することで前後方向に立体視認領域201Aおよび立体視認領域201Bの二つの立体視認領域を形成する構成であった。これに対し、実施の形態3では、前後方向だけでなく左右方向にも複数の立体視認領域を形成する。
なお、実施の形態3に係る立体表示装置10の構成は、図面上は図1~図10の実施の形態1,2に係る立体表示装置10の構成と同じであるため、以下では図1~図10を援用する。
実施の形態1,2は、画像分離部5bを二種類のレンズ5b0,5b1で構成することで前後方向に立体視認領域201Aおよび立体視認領域201Bの二つの立体視認領域を形成する構成であった。これに対し、実施の形態3では、前後方向だけでなく左右方向にも複数の立体視認領域を形成する。
なお、実施の形態3に係る立体表示装置10の構成は、図面上は図1~図10の実施の形態1,2に係る立体表示装置10の構成と同じであるため、以下では図1~図10を援用する。
図11は、この発明の実施の形態3に係る立体表示装置10の画像分離部5bの構造図である。画像分離部5bは、レンズ5b0-Center、レンズ5b0-Rshift、レンズ5b0-Lshift、レンズ5b1-Center、レンズ5b1-Rshift、およびレンズ5b1-Lshiftの、六種類のレンズで構成される。レンズ5b0-Center、レンズ5b0-Rshift、およびレンズ5b0-Lshiftは、レンズ曲率半径Lr0およびレンズピッチLp0が同じである。また、レンズ5b1-Center、レンズ5b1-Rshift、およびレンズ5b1-Lshiftは、レンズ曲率半径Lr1およびレンズピッチLp1が同じである。各レンズは、各横一列に配列されている。ただし、レンズ5b0-Rshift,5b1-Rshiftは、レンズ5b0-Center,5b1-Centerに対して、レンズ中心が右にシフトされた状態に配置されている。また、レンズ5b0-Lshift,5b1-Lshiftは、レンズ5b0-Center,5b1-Centerに対して、レンズ中心が左にシフトされた状態に配置されている。
図12Aおよび図12Bは、この発明の実施の形態3における表示制御部4の動作を説明する図である。図11に示すように、実施の形態3の画像分離部5bは、六種類のレンズで構成されていることで、図12Aに示すように、前左、前中央および前右の前三方向、ならびに後左、後中央、後右の後三方向の計六つの立体視認領域201A,201B,201C,201D,201E、201Fが形成される。ここでは、レンズ5b0-Centerにより後中央の立体視認領域201Aが形成され、レンズ5b0-Lshiftにより後左の立体視認領域201Cが形成され、レンズ5b0-Rshiftにより後右の立体視認領域201Dが形成される。また、レンズ5b1-Centerにより前中央の立体視認領域201Bが形成され、レンズ5b1-Lshiftにより前左の立体視認領域201Eが形成され、レンズ5b1-Rshiftにより前右の立体視認領域201Fが形成される。
実施の形態3の画像生成部3は、右眼用画素201Rpixおよび左眼用画素201Lpixが横方向に周期的に配列された画像を、縦方向に六行ずつ配列した立体画像を生成する。つまり、一行目のレンズ5b0-Lshiftに相当する表示部5aに表示させる画像と、二行目のレンズ5b0-Centerに相当する表示部5aに表示させる画像と、三行目のレンズ5b0-Rshiftに相当する表示部5aに表示させる画像と、四行目のレンズ5b1-Lshiftに相当する表示部5aに表示させる画像と、五行目のレンズ5b1-Centerに相当する表示部5aに表示させる画像と、六行目のレンズ5b1-Rshiftに相当する表示部5aに表示させる画像とは、すべて同じ画像である。
実施の形態3の表示制御部4は、運転者の視点位置200の前後左右の位置情報に基づいて、六つの立体視認領域の中から最適な立体視認領域を設定する。そして、表示制御部4は、画像生成部3が生成した立体画像のうち、設定した立体視認領域に該当する画像を点灯させ、それ以外の画素を消灯させるよう、表示部5aを制御する。
図12Aおよび図12Bに示すように、視点移動量220Dは、運転者のアイボックス中心210から今回取得した視点位置200への前後方向の移動量である。領域判定閾値Dthは、運転者の視点位置200が前方向の立体視認領域201B,201E,201Fと後方向の立体視認領域201A,201C,201Dのどちらに存在するかを判定するための閾値であり、予め表示制御部4に与えられている値である。図示例では、アイボックス中心210である「0mm」が、領域判定閾値Dthとして与えられている。
他方、視点移動量220Xは、アイボックス中心210から今回取得した視点位置200への左右方向の移動量である。領域判定閾値Xmaxは、運転者の視点位置200が右方向の立体視認領域201D,201Fと中央方向の立体視認領域201A,201Bのどちらに存在するかを判定するための閾値であり、予め表示制御部4に与えられている値である。領域判定閾値Xminは、運転者の視点位置200が左方向の立体視認領域201C,201Eと中央方向の立体視認領域201A,201Bのどちらに存在するかを判定するための閾値であり、予め表示制御部4に与えられている値である。アイボックス中心210である「0mm」を基準にして、「+30mm」が領域判定閾値Xmaxに設定され、「-30mm」が領域判定閾値Xminに設定されている。
表示制御部4は、前後方向の領域判定閾値Dthと前後方向の視点移動量220Dとを比較する。また、表示制御部4は、左右方向の領域判定閾値Xmax,Xminと左右方向の視点移動量220Xとを比較する。表示制御部4は、それらの比較結果から、図12Bに示すように、立体視認領域201A~201Fのいずれか一つを立体視認領域に選定する。
図12Aにおいて、位置情報取得部1から得られた今回の視点位置200は、アイボックス中心210から前後方向に「-20mm」移動し、左右方向に「+40mm」移動した位置とする。前後方向の視点移動量220D「-20mm」は領域判定閾値Dth「0mm」未満であるため、立体視認領域選定結果は立体視認領域201E,201B,201Fのいずれかになる。また、左右方向の視点移動量220X「+40mm」は領域判定閾値Xmax「+30mm」以上であるため、立体視認領域201E,201B,201Fの中から立体視認領域201Fが選定される。表示制御部4は、立体視認領域201Fが形成されるように、レンズ5b1-Rshiftに該当する右眼用および左眼用画像を表示部5aに表示させる。
以上のように、実施の形態3に係る立体表示装置10は、運転者の前後方向および左右方向の位置情報を取得する位置情報取得部1を備える。実施の形態3に係る表示制御部4は、位置情報取得部1により取得された位置情報に基づいて、立体画像において縦方向に六個ずつ配列された画像の中から、各六個の画像のうちのいずれか一個の画像を決定し、表示部5aに表示させる。この構成により、立体視認領域を前後方向だけでなく左右方向にも拡大できる。よって、運転者の視点位置200が動いても立体画像を正常に視認できる。
なお、実施の形態3の表示制御部4は、前後方向を二つの立体視認領域に区切り、左右方向を三つの立体視認領域に区切り、合計六つの領域に分けて、運転者のアイボックス中心210から視点位置200への視点移動量220D,220Xと領域判定閾値Dth,Xmax,Xminとを比較して最適な立体視認領域を選定する構成であったが、この構成に限定されるものではない。
図4Bで説明したように、右眼用画像視認領域201ARと左眼用画像視認領域201ALは左右方向に繰り返し形成される。右眼視点200R0が左眼用画像視認領域201ALに移動すると共に左眼視点200L0が右眼用画像視認領域201ARに移動した場合、左眼用画像視認領域201ALに右眼用画像を投射すると共に右眼用画像視認領域201ARに左眼用画像を投射すれば、運転者は立体画像を正常に視認できる。そこで、画像生成部3は、通常の立体画像と、右眼用画像と左眼用画像とを入れ替えた立体画像とを生成し、表示制御部4は、左右方向の視点移動量に基づいて通常の立体画像を表示させるか右眼用画像と左眼用画像とを入れ替えた立体画像を表示させるかを切り替えてもよい。これにより、画像分離部5bを構成するレンズの種類を削減することができる。
また、図4Bで説明したように、右眼視点200R0が右眼用画像視認領域201ARから隣の右眼用画像視認領域201ARに移動すると共に、左眼視点200L0が左眼用画像視認領域201ALから隣の左眼用画像認識領域201ALに移動した場合、立体視認領域201Aを隣の立体視認領域201C,201Dに切り替えず、立体視認領域201Aのままでも運転者は立体画像を正常に視認できる。そこで、表示制御部4は、左右方向の視点移動量に基づいて、立体視認領域201A,201Bから隣の立体視認領域201C~201Fに切り替えるか、立体視認領域201A,201Bのままにするか判定し、判定結果に応じて表示部5aの表示を制御してもよい。
図4Bで説明したように、右眼用画像視認領域201ARと左眼用画像視認領域201ALは左右方向に繰り返し形成される。右眼視点200R0が左眼用画像視認領域201ALに移動すると共に左眼視点200L0が右眼用画像視認領域201ARに移動した場合、左眼用画像視認領域201ALに右眼用画像を投射すると共に右眼用画像視認領域201ARに左眼用画像を投射すれば、運転者は立体画像を正常に視認できる。そこで、画像生成部3は、通常の立体画像と、右眼用画像と左眼用画像とを入れ替えた立体画像とを生成し、表示制御部4は、左右方向の視点移動量に基づいて通常の立体画像を表示させるか右眼用画像と左眼用画像とを入れ替えた立体画像を表示させるかを切り替えてもよい。これにより、画像分離部5bを構成するレンズの種類を削減することができる。
また、図4Bで説明したように、右眼視点200R0が右眼用画像視認領域201ARから隣の右眼用画像視認領域201ARに移動すると共に、左眼視点200L0が左眼用画像視認領域201ALから隣の左眼用画像認識領域201ALに移動した場合、立体視認領域201Aを隣の立体視認領域201C,201Dに切り替えず、立体視認領域201Aのままでも運転者は立体画像を正常に視認できる。そこで、表示制御部4は、左右方向の視点移動量に基づいて、立体視認領域201A,201Bから隣の立体視認領域201C~201Fに切り替えるか、立体視認領域201A,201Bのままにするか判定し、判定結果に応じて表示部5aの表示を制御してもよい。
また、実施の形態3の画像分離部5bは、前後方向を二つの立体視認領域に区切り、左右方向を三つの立体視認領域に区切り、合計六つの領域に分ける構成であったが、この構成に限定されるものではなく、六以外の任意数の立体視認領域に分けてもよい。
また、実施の形態2,3の表示制御部4は、位置情報取得部1が車内カメラ101から取得した視点位置200の情報に基づいて、表示部5aの表示を制御する構成であったが、視点位置200の情報に限定されるものではない。表示制御部4は、例えば、運転者の操作により立体視認領域201A~201Fを切り替えるスイッチ等からの情報に基づいて、表示部5aの表示を制御してもよい。
実施の形態4.
上記実施の形態1~3の画像分離部5bは、レンチキュラレンズであったが、これに限定されるものではなく、パララックスバリアであってもよい。図13は、この発明の実施の形態4に係る立体表示装置10において、パララックスバリアで構成される画像分離部5bAの構造図である。画像分離部5bAは、スリット幅が異なる二種類のスリットで構成される。縦方向において、スリット5bA0とスリット5bA1は周期的に配列されており、横方向において、奇数行に複数のスリット5bA0が配置され偶数行に複数のスリット5bA1が配置されている。このスリット5bA0は、図5A、図5Bおよび図5Cにおけるレンズ5b0と同じ機能を持ち、スリット5bA1はレンズ5b1と同じ機能を持つ。立体表示装置10における画像分離部5bA以外の構成は、実施の形態1~3で示した通りであるため、ここでは説明を省略する。
上記実施の形態1~3の画像分離部5bは、レンチキュラレンズであったが、これに限定されるものではなく、パララックスバリアであってもよい。図13は、この発明の実施の形態4に係る立体表示装置10において、パララックスバリアで構成される画像分離部5bAの構造図である。画像分離部5bAは、スリット幅が異なる二種類のスリットで構成される。縦方向において、スリット5bA0とスリット5bA1は周期的に配列されており、横方向において、奇数行に複数のスリット5bA0が配置され偶数行に複数のスリット5bA1が配置されている。このスリット5bA0は、図5A、図5Bおよび図5Cにおけるレンズ5b0と同じ機能を持ち、スリット5bA1はレンズ5b1と同じ機能を持つ。立体表示装置10における画像分離部5bA以外の構成は、実施の形態1~3で示した通りであるため、ここでは説明を省略する。
以上のように、実施の形態4の画像分離部5bAは、異なるスリット幅を有するn種類のスリット5bA0,5bA1が周期的に配列されたパララックスバリアである。この構成の場合にも、実施の形態1~3と同様の効果が得られる。
最後に、この発明の実施の形態1~4に係る立体表示装置10のハードウェア構成例を説明する。図14Aおよび図14Bは、この発明の各実施の形態に係る立体表示装置とその周辺機器の主なハードウェア構成図である。立体表示装置10における位置情報取得部1、画像生成部3、および表示制御部4の各機能は、処理回路により実現される。即ち、立体表示装置10は、上記各機能を実現するための処理回路を備える。処理回路は、メモリ13に格納されたプログラムを実行するプロセッサ12であってもよいし、専用のハードウェアとしての処理回路16であってもよい。
図14Aに示すように、処理回路がプロセッサ12である場合、位置情報取得部1、画像生成部3、および表示制御部4の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ13に格納される。プロセッサ12は、メモリ13に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、立体表示装置10は、プロセッサ12により実行されるときに、図8のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ13を備える。また、このプログラムは、位置情報取得部1、画像生成部3、および表示制御部4の手順または方法をコンピュータに実行させるものであるとも言える。
図14Bに示すように、処理回路が専用のハードウェアである場合、処理回路16は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。位置情報取得部1、画像生成部3、および表示制御部4の機能を複数の処理回路16で実現してもよいし、各部の機能をまとめて一つの処理回路16で実現してもよい。
ここで、プロセッサ12とは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、またはマイクロコンピュータ等のことである。
メモリ13は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、またはフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスクまたはフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)またはDVD(Digital Versatile Disc)等の光ディスクであってもよい。
メモリ13は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、またはフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスクまたはフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)またはDVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、位置情報取得部1、画像生成部3、および表示制御部4の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、立体表示装置10における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
入力装置11は、車内カメラ101またはスイッチ等であり、運転者の位置情報を立体表示装置10へ入力する。通信装置14は、車両情報取得部2であり、車内ネットワーク102を経由して車両100に搭載されたECUから車両情報を取得する。出力装置15は、表示部5aである液晶ディスプレイ等、画像分離部5b,5bAであるレンチキュラレンズまたはパララックスバリア、ならびに、風防ガラス103またはコンバイナである。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
また、上記説明では、立体表示装置10を車両100に搭載した例を説明したが、立体表示装置10を車両100以外で使用することも可能である。その場合、位置情報取得部1は、立体表示装置10を使用する観察者の視点位置の情報を取得する。
この発明に係る立体表示装置は、一般的なレンチキュラレンズ方式またはパララックスバリア方式に比べて、立体画像を視認できる領域を拡大したので、車載HUD等に使用される立体表示装置に適している。
1 位置情報取得部、2 車両情報取得部、3 画像生成部、4 表示制御部、5 画像表示部、5a 表示部、5b,5bA 画像分離部、5b0,5b0-Center,5b0-Rshift,5b0-Lshift,5b1,5b1-Center,5b1-Rshift,5b1-Lshift,5b2 レンズ、5bA0,5bA1 スリット、5c 反射ガラス、10 立体表示装置、11 入力装置、12 プロセッサ、13 メモリ、14 通信装置、15 出力装置、16 処理回路、100 車両、101 車内カメラ、102 車内ネットワーク、103 風防ガラス、200 視点位置、200L,200L0~200L2 左眼視点、200R,200R0~200R2 右眼視点、201A~201F 立体視認領域、201AL,201BL 左眼用画像視認領域、201AR,201BR 右眼用画像視認領域、201aL,201bL,201Lpix 左眼用画素、201L 左眼用画像、201aR,201bR,201Rpix 右眼用画素、201R 右眼用画像、202 虚像位置、202L 左眼用虚像、202R 右眼用虚像、203 立体像認識位置、210 アイボックス中心、220D,220X 視点移動量、Dth,Xmax,Xmin 領域判定閾値、Lp0 レンズピッチ、Lr0 レンズ曲率半径、θ0,θ1 分離角度。
Claims (6)
- nを二以上の整数として、右眼用画像および左眼用画像が一方向に周期的に配列された画像を、当該一方向とは直交する方向にn個ずつ配列して立体画像を生成する画像生成部と、
前記画像生成部により生成された立体画像を表示部に表示させる表示制御部と、
前記表示部が表示する立体画像を、n個の分離角度でn組の右眼用画像および左眼用画像に分離する画像分離部とを備える立体表示装置。 - 前記表示制御部は、立体画像において前記直交する方向にn個ずつ配列された画像の中から、各n個の画像のうちのいずれか一個の画像を前記表示部に表示させることを特徴とする請求項1記載の立体表示装置。
- 観察者の前後方向または左右方向の位置情報を取得する位置情報取得部を備え、
前記表示制御部は、前記位置情報取得部により取得された位置情報に基づいて、立体画像において前記直交する方向にn個ずつ配列された画像の中から、各n個の画像のうちのいずれか一個の画像を決定し、前記表示部に表示させることを特徴とする請求項2記載の立体表示装置。 - 前記画像分離部は、異なるレンズ曲率半径を有するn種類のレンズが、前記直交する方向に周期的に配列されたレンチキュラレンズであることを特徴とする請求項1記載の立体表示装置。
- 前記画像分離部は、異なるスリット幅を有するn種類のスリットが、前記直交する方向に周期的に配列されたパララックスバリアであることを特徴とする請求項1記載の立体表示装置。
- 請求項1記載の立体表示装置を備えたヘッドアップディスプレイ。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018565222A JPWO2018142610A1 (ja) | 2017-02-06 | 2017-02-06 | 立体表示装置およびヘッドアップディスプレイ |
PCT/JP2017/004196 WO2018142610A1 (ja) | 2017-02-06 | 2017-02-06 | 立体表示装置およびヘッドアップディスプレイ |
US16/477,726 US20190373249A1 (en) | 2017-02-06 | 2017-02-06 | Stereoscopic display device and head-up display |
CN201780085054.4A CN110235049A (zh) | 2017-02-06 | 2017-02-06 | 立体显示装置及平视显示器 |
DE112017006344.2T DE112017006344T5 (de) | 2017-02-06 | 2017-02-06 | Stereoskopische Anzeigevorrichtung und Head-up-Anzeige |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/004196 WO2018142610A1 (ja) | 2017-02-06 | 2017-02-06 | 立体表示装置およびヘッドアップディスプレイ |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018142610A1 true WO2018142610A1 (ja) | 2018-08-09 |
Family
ID=63040454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/004196 WO2018142610A1 (ja) | 2017-02-06 | 2017-02-06 | 立体表示装置およびヘッドアップディスプレイ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190373249A1 (ja) |
JP (1) | JPWO2018142610A1 (ja) |
CN (1) | CN110235049A (ja) |
DE (1) | DE112017006344T5 (ja) |
WO (1) | WO2018142610A1 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180373029A1 (en) * | 2017-06-22 | 2018-12-27 | Hyundai Mobis Co., Ltd. | Head-up display device for vehicle |
WO2020038451A1 (en) * | 2018-08-24 | 2020-02-27 | 3D Media Ltd | Three-dimensional display adapted for viewers with a dominant eye |
WO2020105272A1 (ja) * | 2018-11-21 | 2020-05-28 | 株式会社デンソー | 虚像表示装置及び融像調整操作装置 |
JP2020160362A (ja) * | 2019-03-27 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 虚像表示システム、ヘッドアップディスプレイ、及び移動体 |
JP2020160363A (ja) * | 2019-03-27 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 電子ミラーシステム、及び移動体 |
JPWO2020235375A1 (ja) * | 2019-05-20 | 2020-11-26 | ||
JPWO2020235376A1 (ja) * | 2019-05-20 | 2020-11-26 | ||
WO2021065427A1 (ja) | 2019-09-30 | 2021-04-08 | 京セラ株式会社 | カメラ、ヘッドアップディスプレイシステム、及び移動体 |
JP2021067909A (ja) * | 2019-10-28 | 2021-04-30 | 日本精機株式会社 | 立体表示装置及びヘッドアップディスプレイ装置 |
CN112889275A (zh) * | 2018-11-02 | 2021-06-01 | 京瓷株式会社 | 通信平视显示器系统、通信设备、移动体以及程序 |
JP2023525766A (ja) * | 2020-05-12 | 2023-06-19 | アップル インコーポレイテッド | 視認者追跡を使用するディスプレイ |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019073688A1 (ja) * | 2017-10-11 | 2019-04-18 | ソニー株式会社 | 画像表示装置 |
KR102666265B1 (ko) | 2017-11-02 | 2024-05-14 | 피씨엠에스 홀딩스, 인크. | 라이트 필드 디스플레이에서 조리개 확장을 위한 방법 및 시스템 |
US20190161010A1 (en) * | 2017-11-30 | 2019-05-30 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | High visibility head up display (hud) |
EP3844949A1 (en) * | 2018-08-29 | 2021-07-07 | PCMS Holdings, Inc. | Optical method and system for light field displays based on mosaic periodic layer |
WO2020241863A1 (ja) * | 2019-05-30 | 2020-12-03 | 京セラ株式会社 | ヘッドアップディスプレイシステムおよび移動体 |
KR20230018075A (ko) * | 2021-07-29 | 2023-02-07 | 삼성전자주식회사 | 시차 광학 소자의 캘리브레이션 장치 및 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006106608A (ja) * | 2004-10-08 | 2006-04-20 | Canon Inc | 画像表示装置 |
JP2013137486A (ja) * | 2011-03-11 | 2013-07-11 | Semiconductor Energy Lab Co Ltd | 表示装置および表示装置の駆動方法 |
JP2014112147A (ja) * | 2012-12-05 | 2014-06-19 | Nikon Corp | 表示装置 |
US20150062470A1 (en) * | 2012-08-31 | 2015-03-05 | Innocom Technology (Shenzhen) Co., Ltd | Three-dimensional image display apparatus |
-
2017
- 2017-02-06 DE DE112017006344.2T patent/DE112017006344T5/de not_active Ceased
- 2017-02-06 US US16/477,726 patent/US20190373249A1/en not_active Abandoned
- 2017-02-06 JP JP2018565222A patent/JPWO2018142610A1/ja active Pending
- 2017-02-06 WO PCT/JP2017/004196 patent/WO2018142610A1/ja active Application Filing
- 2017-02-06 CN CN201780085054.4A patent/CN110235049A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006106608A (ja) * | 2004-10-08 | 2006-04-20 | Canon Inc | 画像表示装置 |
JP2013137486A (ja) * | 2011-03-11 | 2013-07-11 | Semiconductor Energy Lab Co Ltd | 表示装置および表示装置の駆動方法 |
US20150062470A1 (en) * | 2012-08-31 | 2015-03-05 | Innocom Technology (Shenzhen) Co., Ltd | Three-dimensional image display apparatus |
JP2014112147A (ja) * | 2012-12-05 | 2014-06-19 | Nikon Corp | 表示装置 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10670865B2 (en) * | 2017-06-22 | 2020-06-02 | Hyundai Mobis Co., Ltd. | Heads-up display device for vehicle |
US20180373029A1 (en) * | 2017-06-22 | 2018-12-27 | Hyundai Mobis Co., Ltd. | Head-up display device for vehicle |
WO2020038451A1 (en) * | 2018-08-24 | 2020-02-27 | 3D Media Ltd | Three-dimensional display adapted for viewers with a dominant eye |
CN112889275A (zh) * | 2018-11-02 | 2021-06-01 | 京瓷株式会社 | 通信平视显示器系统、通信设备、移动体以及程序 |
US12010289B2 (en) | 2018-11-02 | 2024-06-11 | Kyocera Corporation | Communication head-up display system, communication device, mobile body, and non-transitory computer-readable medium |
CN112889275B (zh) * | 2018-11-02 | 2023-06-16 | 京瓷株式会社 | 通信平视显示器系统、通信设备、移动体以及程序 |
EP3876529A4 (en) * | 2018-11-02 | 2022-05-11 | Kyocera Corporation | HEAD-UP DISPLAY SYSTEM FOR COMMUNICATION, COMMUNICATION DEVICE, MOBILE BODY AND PROGRAM |
WO2020105272A1 (ja) * | 2018-11-21 | 2020-05-28 | 株式会社デンソー | 虚像表示装置及び融像調整操作装置 |
JP2020086069A (ja) * | 2018-11-21 | 2020-06-04 | 株式会社デンソー | 虚像表示装置及び融像調整操作装置 |
JP7178638B2 (ja) | 2019-03-27 | 2022-11-28 | パナソニックIpマネジメント株式会社 | 電子ミラーシステム、及び移動体 |
JP7178637B2 (ja) | 2019-03-27 | 2022-11-28 | パナソニックIpマネジメント株式会社 | 虚像表示システム、ヘッドアップディスプレイ、及び移動体 |
JP2020160363A (ja) * | 2019-03-27 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 電子ミラーシステム、及び移動体 |
JP2020160362A (ja) * | 2019-03-27 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 虚像表示システム、ヘッドアップディスプレイ、及び移動体 |
JPWO2020235376A1 (ja) * | 2019-05-20 | 2020-11-26 | ||
WO2020235375A1 (ja) * | 2019-05-20 | 2020-11-26 | 日本精機株式会社 | 表示装置 |
JPWO2020235375A1 (ja) * | 2019-05-20 | 2020-11-26 | ||
JP7416061B2 (ja) | 2019-05-20 | 2024-01-17 | 日本精機株式会社 | 表示装置 |
WO2021065427A1 (ja) | 2019-09-30 | 2021-04-08 | 京セラ株式会社 | カメラ、ヘッドアップディスプレイシステム、及び移動体 |
JP2021067909A (ja) * | 2019-10-28 | 2021-04-30 | 日本精機株式会社 | 立体表示装置及びヘッドアップディスプレイ装置 |
JP7358909B2 (ja) | 2019-10-28 | 2023-10-11 | 日本精機株式会社 | 立体表示装置及びヘッドアップディスプレイ装置 |
JP2023525766A (ja) * | 2020-05-12 | 2023-06-19 | アップル インコーポレイテッド | 視認者追跡を使用するディスプレイ |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018142610A1 (ja) | 2019-06-27 |
CN110235049A (zh) | 2019-09-13 |
US20190373249A1 (en) | 2019-12-05 |
DE112017006344T5 (de) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018142610A1 (ja) | 立体表示装置およびヘッドアップディスプレイ | |
EP3461129B1 (en) | Method and apparatus for rendering image | |
JP5006587B2 (ja) | 画像提示装置および画像提示方法 | |
JP6557868B2 (ja) | 虚像表示装置、ヘッドアップディスプレイシステム及び乗物 | |
WO2015146042A1 (ja) | 画像表示装置 | |
WO2014174575A1 (ja) | 車両用ヘッドアップディスプレイ装置 | |
WO2015145935A1 (ja) | 虚像表示装置、ヘッドアップディスプレイシステム、及び乗物 | |
JPWO2016047009A1 (ja) | ヘッドアップディスプレイおよび移動体 | |
WO2015145933A1 (ja) | 虚像表示装置、ヘッドアップディスプレイシステム及び乗物 | |
EP3580603B1 (en) | Vehicle display comprising projection system | |
US20200355914A1 (en) | Head-up display | |
JP7358909B2 (ja) | 立体表示装置及びヘッドアップディスプレイ装置 | |
JP7354846B2 (ja) | ヘッドアップディスプレイ装置 | |
JP2014050062A (ja) | 立体表示装置及びその表示方法 | |
JP7438737B2 (ja) | 3次元映像を表示する装置及び方法 | |
US20190283607A1 (en) | Display device and electronic mirror | |
JPH08314034A (ja) | 立体画像表示方法及び装置 | |
KR20200017832A (ko) | 헤드 업 디스플레이 장치 | |
JP2007129494A (ja) | ディスプレイ装置 | |
JP2016051126A (ja) | ヘッドアップディスプレイシステム、虚像表示装置 | |
JP6995294B1 (ja) | 自動車のための、表示装置の映像の視認がステアリングホイール等の障害物によって阻害されない操縦システム | |
JP7397152B2 (ja) | 画像を地面に位置させて運転手の視点に拡張現実を実現する3次元拡張現実ヘッドアップディスプレイ | |
US11187910B2 (en) | Head-up display device for adjusting display distances of virtual images | |
JP6107009B2 (ja) | スクリーン及び画像表示システム | |
WO2023228770A1 (ja) | 画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17895360 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2018565222 Country of ref document: JP Kind code of ref document: A |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17895360 Country of ref document: EP Kind code of ref document: A1 |