WO2021065825A1 - 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体 - Google Patents

3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体 Download PDF

Info

Publication number
WO2021065825A1
WO2021065825A1 PCT/JP2020/036689 JP2020036689W WO2021065825A1 WO 2021065825 A1 WO2021065825 A1 WO 2021065825A1 JP 2020036689 W JP2020036689 W JP 2020036689W WO 2021065825 A1 WO2021065825 A1 WO 2021065825A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
position data
controller
dimensional display
Prior art date
Application number
PCT/JP2020/036689
Other languages
English (en)
French (fr)
Inventor
佐藤 昭典
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to CN202080005295.5A priority Critical patent/CN112889273B/zh
Priority to EP20861989.0A priority patent/EP3840373B1/en
Priority to JP2021551263A priority patent/JP7325520B2/ja
Priority to US17/764,953 priority patent/US20220295043A1/en
Publication of WO2021065825A1 publication Critical patent/WO2021065825A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/32Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers characterised by the geometry of the parallax barriers, e.g. staggered barriers, slanted parallax arrays or parallax arrays of varying shape or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • B60K2360/149
    • B60K35/10
    • B60K35/211
    • B60K35/23
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/11Passenger cars; Automobiles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • B60Y2400/3015Optical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/08Details of timing specific for flat panels, other than clock recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present invention relates to a three-dimensional display device, a three-dimensional display system, a head-up display, and a moving body.
  • a three-dimensional display device acquires position data indicating the position of an eye detected by using an image captured by a camera of the user's eye.
  • the three-dimensional display device displays an image on a display so that the image corresponding to the left eye and the right eye of the user can be visually recognized based on the position of the eye indicated by the position data (for example, Patent Document 1). ).
  • the three-dimensional display device of the present disclosure includes a display panel, a parallax barrier, an acquisition unit, a memory, and a controller.
  • the display panel is configured to display a parallax image and emit image light corresponding to the parallax image.
  • the parallax barrier has a surface configured to define the ray direction of the image light.
  • the acquisition unit is from a detection device configured to detect the position of the eye based on the acquired images sequentially from a camera configured to image the user's eye at imaging time intervals. It is configured to sequentially acquire a plurality of position data indicating the positions of.
  • the memory is configured to store the plurality of position data sequentially acquired by the acquisition unit.
  • the controller outputs the predicted position of the eye at a time after the current time based on the plurality of position data stored in the memory, and based on the predicted position, the controller outputs the predicted position to each subpixel of the display panel. It is configured to display a parallax image.
  • the three-dimensional display system of the present disclosure includes a detection device and a three-dimensional display device.
  • the detection device sequentially detects the position of the eye based on the captured image acquired from the camera that images the user's eye at the imaging time interval.
  • the three-dimensional display device includes a display panel, a parallax barrier, an acquisition unit, a memory, and a controller.
  • the display panel is configured to display a parallax image and emit image light corresponding to the parallax image.
  • the parallax barrier has a surface configured to define the ray direction of the image light.
  • the acquisition unit is from a detection device configured to detect the position of the eye based on the acquired images sequentially from a camera configured to image the user's eye at imaging time intervals.
  • the memory is configured to store the plurality of position data sequentially acquired by the acquisition unit.
  • the controller outputs the predicted position of the eye at a time after the current time based on the plurality of position data stored in the memory, and based on the predicted position, the controller outputs the predicted position to each subpixel of the display panel. It is configured to display a parallax image.
  • the head-up display of the present disclosure includes a three-dimensional display system and a projected member.
  • the three-dimensional display system includes a detection device and a three-dimensional display device.
  • the detection device sequentially detects the position of the eye based on the captured image acquired from the camera that images the user's eye at the imaging time interval.
  • the three-dimensional display device includes a display panel, a parallax barrier, an acquisition unit, a memory, and a controller.
  • the display panel is configured to display a parallax image and emit image light corresponding to the parallax image.
  • the parallax barrier has a surface configured to define the ray direction of the image light.
  • the acquisition unit is from a detection device configured to detect the position of the eye based on the acquired images sequentially from a camera configured to image the user's eye at imaging time intervals. It is configured to sequentially acquire a plurality of position data indicating the positions of.
  • the memory is configured to store the plurality of position data sequentially acquired by the acquisition unit.
  • the controller outputs the predicted position of the eye at a time after the current time based on the plurality of position data stored in the memory, and based on the predicted position, the controller outputs the predicted position to each subpixel of the display panel. It is configured to display a parallax image.
  • the projected member reflects the image light emitted from the three-dimensional display device in the direction of the user's eyes.
  • the mobile body of the present disclosure is provided with a head-up display.
  • the head-up display includes a three-dimensional display system and a projected member.
  • the three-dimensional display system includes a detection device and a three-dimensional display device.
  • the detection device sequentially detects the position of the eye based on the captured image acquired from the camera that images the user's eye at the imaging time interval.
  • the three-dimensional display device includes a display panel, a parallax barrier, an acquisition unit, a memory, and a controller.
  • the display panel is configured to display a parallax image and emit image light corresponding to the parallax image.
  • the parallax barrier has a surface configured to define the ray direction of the image light.
  • the acquisition unit is from a detection device configured to detect the position of the eye based on the acquired images sequentially from a camera configured to image the user's eye at imaging time intervals. It is configured to sequentially acquire a plurality of position data indicating the positions of.
  • the memory is configured to store the plurality of position data sequentially acquired by the acquisition unit.
  • the controller outputs the predicted position of the eye at a time after the current time based on the plurality of position data stored in the memory, and based on the predicted position, the controller outputs the predicted position to each subpixel of the display panel. It is configured to display a parallax image.
  • the projected member reflects the image light emitted from the three-dimensional display device in the direction of the user's eyes.
  • the three-dimensional display system 10 includes a detection device 1 and a three-dimensional display device 2.
  • the detection device 1 acquires a captured image from a camera configured to capture a space where the user's eyes are expected to be located at a fixed imaging time interval (for example, 20 fps (frames per second)). It may be configured.
  • the detection device 1 is configured to sequentially detect images of the left eye (first eye) and the right eye (second eye) from the captured images acquired from the camera.
  • the detection device 1 is configured to detect the positions of the left eye and the right eye in the real space based on the images of the left eye and the right eye in the image space.
  • the detection device 1 may be configured to detect the positions of the left eye and the right eye as coordinates in three-dimensional space from an image captured by one camera.
  • the detection device 1 may be configured to detect the positions of the left eye and the right eye as coordinates in three-dimensional space from images captured by two or more cameras.
  • the detection device 1 may include a camera.
  • the detection device 1 is configured to sequentially transmit position data indicating the positions of the left eye and the right eye in the real space to the three-dimensional display device 2.
  • the three-dimensional display device 2 includes an acquisition unit 3, an irradiator 4, a display panel 5, a parallax barrier 6 as an optical element, a memory 7, and a controller 8.
  • the acquisition unit 3 is configured to acquire the position data indicating the position of the eye, which is sequentially transmitted by the detection device 1.
  • the irradiator 4 may be configured to irradiate the display panel 5 in a plane.
  • the irradiator 4 may include a light source, a light guide plate, a diffusion plate, a diffusion sheet and the like.
  • the irradiator 4 is configured to emit irradiation light from a light source and to make the irradiation light uniform in the surface direction of the display panel 5 by a light guide plate, a diffusion plate, a diffusion sheet, or the like.
  • the irradiator 4 may be configured to emit uniformed light towards the display panel 5.
  • the display panel 5 for example, a display panel such as a transmissive liquid crystal display panel can be adopted.
  • the display panel 5 has a plurality of compartmentalized areas on the active area A formed in a planar shape.
  • the active area A is configured to display a parallax image.
  • the parallax image includes a left eye image (first image) and a right eye image (second image) having parallax with respect to the left eye image.
  • the plurality of compartmentalized areas are regions partitioned in a first direction and a direction orthogonal to the first direction in the plane of the active area A.
  • the first direction may be, for example, the horizontal direction.
  • the direction orthogonal to the first direction may be, for example, a vertical direction.
  • the direction orthogonal to the horizontal direction and the vertical direction may be referred to as a depth direction.
  • the horizontal direction is represented as the x-axis direction
  • the vertical direction is represented as the y-axis direction
  • the depth direction is represented as the z-axis direction.
  • the active area A includes a plurality of subpixels P arranged in a grid along the horizontal and vertical directions.
  • Each of the plurality of subpixels P can correspond to any of the colors R (Red), G (Green), and B (Blue).
  • the three sub-pixels P of R, G, and B can form one pixel as a set.
  • One pixel can be referred to as one pixel.
  • a plurality of sub-pixels P constituting one pixel may be arranged in the horizontal direction.
  • a plurality of subpixels P of the same color may be arranged in the vertical direction.
  • the horizontal length Hpx of each of the plurality of subpixels P may be the same as each other.
  • the vertical length Hpy of each of the plurality of subpixels P may be the same as each other.
  • the display panel 5 is not limited to the transmissive liquid crystal panel, and other display panels such as organic EL can be used.
  • the transmissive display panel includes a MEMS (Micro Electro Mechanical Systems) shutter type display panel in addition to the liquid crystal panel.
  • Self-luminous display panels include organic EL (electro-luminescence) and inorganic EL display panels.
  • the display panel 5 is a self-luminous display panel, the three-dimensional display device 2 does not have to include the irradiator 4.
  • a plurality of subpixels P continuously arranged in the active area A constitute one subpixel group Pg.
  • one subpixel group Pg includes a predetermined number of subpixels in each of the horizontal direction and the vertical direction.
  • the sub-pixel group Pg of 1 includes b sub-pixels in the vertical direction, n sub-pixels in the horizontal direction, and (2 ⁇ n ⁇ b) consecutively arranged (2 ⁇ n ⁇ b) sub-pixels P1 to P (2 ⁇ n ⁇ b).
  • the plurality of subpixels P constitute a plurality of subpixel group Pg.
  • the plurality of sub-pixel groups Pg are arranged repeatedly in the horizontal direction.
  • the plurality of sub-pixel groups Pg are repeatedly arranged adjacent to positions shifted by j sub-pixels (j ⁇ n) in the horizontal direction in the vertical direction.
  • the active area A includes a plurality of subpixel groups including eight subpixels P1 to P8 arranged consecutively in one row in the vertical direction and eight columns in the horizontal direction. Pg is placed. P1 to P8 are referred to as identification information of a plurality of subpixels.
  • some sub-pixel groups Pg are coded.
  • a plurality of subpixels P at corresponding positions in all the subpixel group Pg display the same type of image, and the type of the image to be displayed is switched at the same timing.
  • the type of image is a type indicating whether it is a left-eye image or a right-eye image.
  • the plurality of subpixels P constituting the subpixel group Pg of 1 can be displayed by switching between the left eye image and the right eye image. For example, the images displayed on the plurality of subpixels P1 in all the subpixel group Pg are switched at the same timing. The images displayed on the plurality of subpixels P having other identification information in all the subpixel group Pg are switched at the same timing.
  • the types of images displayed in the plurality of subpixels P constituting the subpixel group Pg of 1 are independent of each other.
  • the plurality of subpixels P constituting the subpixel group Pg can be displayed by switching between the left eye image and the right eye image.
  • the timing at which the plurality of subpixels P1 switch between the left eye image and the right eye image may be the same as or different from the timing at which the plurality of subpixels P2 switch between the left eye image and the right eye image. ..
  • the timing at which the other two plurality of subpixels P having different identification information from each other switch between the left eye image and the right eye image may be the same or may be different.
  • the parallax barrier 6 is configured to define the light ray direction of the image light of the parallax image emitted from the display panel 5.
  • the parallax barrier 6 has a plane along the active area A, as shown in FIG.
  • the parallax barrier 6 is separated from the active area A by a predetermined distance (gap) g.
  • the parallax barrier 6 may be located on the opposite side of the irradiator 4 with respect to the display panel 5.
  • the parallax barrier 6 may be located on the irradiator 4 side of the display panel 5.
  • the parallax barrier 6 includes a plurality of dimming portions 61 and a plurality of translucent portions 62.
  • the plurality of dimming units 61 are configured to reduce the cast image light. Dimming includes shading.
  • the plurality of dimming units 61 may have a transmittance of less than the first value.
  • the plurality of dimming portions 61 may be composed of a film or a plate-shaped member.
  • the film may be made of resin or may be made of other materials.
  • the plate-shaped member may be made of resin, metal, or the like, or may be made of another material.
  • the plurality of dimming portions 61 are not limited to the film or plate-shaped member, and may be composed of other types of members.
  • the base material of the plurality of dimming portions 61 may have a dimming property, and the base material of the plurality of dimming portions 61 may contain an additive having a dimming property.
  • the plurality of translucent units 62 transmit image light with a transmittance of a second value or higher, which is larger than the first value.
  • the plurality of translucent portions 62 may be composed of openings of materials constituting the plurality of dimming portions 61.
  • the plurality of light transmitting portions 62 may be composed of a film or a plate-like member having a transmittance of a second value or more.
  • the film may be made of a resin, another material, or another material.
  • the plurality of translucent portions 62 may be configured without using any member. In this case, the transmittance of the plurality of translucent portions 62 is approximately 100%.
  • the parallax barrier 6 includes a plurality of dimming portions 61 and a plurality of translucent portions 62.
  • a part of the image light emitted from the active area A of the display panel 5 passes through the parallax barrier 6 and reaches the user's eye, and the remaining part of the image light is reduced by the parallax barrier 6. It is lit and difficult to reach the user's eyes. Therefore, the user's eyes can easily see a part of the active area A and hard to see the remaining part of the area.
  • the Hp, the number of subpixels P included in the subpixel group Pg, 2 ⁇ n, and the interdigital distance E may be determined so as to satisfy the relationship between the following equations (1) and (2).
  • the suitable viewing distance D is the distance between the user's eyes and the parallax barrier 6.
  • the gap g is the distance between the parallax barrier 6 and the display panel 5.
  • the visible area 5a is an area on the active area that is visually recognized by each eye of the user.
  • E: D (2 ⁇ n ⁇ Hp): g (1)
  • D: Lb (D + g): Lp (2)
  • the suitable viewing distance D is the distance between each of the user's right and left eyes and the parallax barrier 6.
  • the direction of the straight line passing through the right eye and the left eye is the horizontal direction.
  • the inter-eye distance E is a standard of the user's inter-eye distance E.
  • the intereye distance E may be, for example, 61.1 mm (millimeter) to 64.4 mm, which is a value calculated by research by the National Institute of Advanced Industrial Science and Technology.
  • Hp is the horizontal length of one subpixel.
  • the area of the active area A visually recognized by each eye of the user depends on the position of each eye, the positions of the plurality of translucent portions 62, and the appropriate viewing distance D.
  • the region in the active area A that emits the image light propagating to the position of the user's eye is referred to as the visible region 5a.
  • the area of the active area A that emits the image light propagating to the position of the user's left eye is referred to as the left visible area 5aL (first visible area).
  • the area of the active area A that emits the image light propagating to the position of the user's right eye is referred to as the right visible area 5aR (second visible area).
  • the area in the active area A that propagates toward the left eye of the user and emits image light that is dimmed by the plurality of dimming units 61 is referred to as a left dimming area 5bL.
  • the area in the active area A that propagates toward the user's right eye and emits image light that is dimmed by the plurality of dimming units 61 is referred to as a right dimming area 5bR.
  • the memory 7 is configured to store various information processed by the controller 8.
  • the memory 7 is composed of an arbitrary storage device such as a RAM (RandomAccessMemory) and a ROM (ReadOnlyMemory).
  • the controller 8 is connected to each component of the three-dimensional display system 10.
  • the controller 8 may be configured to control each component.
  • the components controlled by the controller 8 include the display panel 5.
  • the controller 8 is configured as, for example, a processor.
  • the controller 8 may include one or more processors.
  • the processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 8 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the controller 8 includes a storage unit, and the storage unit may store various types of information, a program for operating each component of the three-dimensional display system 10, and the like.
  • the storage unit may be composed of, for example, a semiconductor memory or the like.
  • the storage unit may function as a work memory of the controller 8.
  • the controller 8 displays the left eye image on the plurality of subpixels P included in the left visible region 5aL, and displays the right eye image on the plurality of subpixels P included in the left dimming region 5bL. Is configured to be displayed. This makes it easier for the left eye to see the left eye image and less likely to see the left eye image.
  • the controller 8 displays the right eye image on the plurality of subpixels P included in each right visible region 5aR, and displays the right eye image on the plurality of subpixels P included in the right dimming region 5bR. Is configured to be displayed. This makes it easier for the right eye to see the right eye image and less likely to see the left eye image.
  • the user's eyes can visually recognize the three-dimensional image.
  • the plurality of subpixels P for which the controller 8 displays the left eye image are designated by the reference numeral “L”
  • the plurality of subpixels P for displaying the right eye image are designated by the reference numeral “R”. Has been done.
  • the left visible region 5aL is determined based on the position of the left eye. For example, as shown in FIG. 6, the left visible region 5aL when the left eye is in the left displacement position EL1 is different from the left visible region 5aL0 when the left eye is in the left reference position EL0.
  • the left reference position EL0 is the position of the left eye, which is a reference that can be appropriately set.
  • the left displacement position EL1 is a position shifted in the horizontal direction from the left reference position EL0.
  • the right visible region 5aR is determined based on the position of the right eye. For example, as shown in FIG. 6, the right visible region 5aR1 when the right eye is in the right displacement position ER1 is different from the right visible region 5aR0 when the right eye is in the right reference position ER0.
  • the right reference position ER0 is the position of the right eye, which is a reference that can be set as appropriate.
  • the right displacement position ER1 is a position shifted in the horizontal direction from the right reference position ER0.
  • the controller 8 causes the left-eye image to be displayed on the plurality of sub-pixels P included in the left visible region 5aL, and the plurality of subs included in the right visible region 5aR in order to allow the user to appropriately view the three-dimensional image. It is necessary to display the right eye image on the pixel P. It is desirable that the controller 8 performs processing based on an accurate eye position at the time of displaying an image.
  • the detection device 1 is configured to detect an image of the eye from the captured image and detect the position of the eye in the real space based on the image of the eye in the image space.
  • the detection device 1 is configured to transmit position data including the position of the eye in the real space to the three-dimensional display device 2. It takes time for the detection device 1 to detect the position of the eye, to transmit the position data from the detection device 1 to the three-dimensional display device 2, and to change and reflect the display image based on the received position data. ..
  • the display time for displaying the image based on the position of the eyes included in the face has a time difference from the imaging time when the detection device 1 captured the face. The time difference includes the detection time, the transmission time, and the reflection time.
  • the time difference depends on the performance of the detection device 1, the communication speed between the detection device 1 and the three-dimensional display device, and the like. If the moving speed of the user's eye is faster than the speed obtained by dividing the control unit length that changes the display image as the user's eye moves by the time difference, the user does not correspond to the position of the eye. To visually recognize. For example, when the control unit length is 62.4 mm and the time difference is 65 ms, the speed of the user's eye is 0.24 mm / ms (millimeter per millisecond) (24 cm / s (centimeter per second)) or more. When moving with, the user may feel uncomfortable with the three-dimensional image.
  • the controller 8 performs the processing described below.
  • the "eye” described in the following description may represent "left eye and right eye”.
  • the controller 8 is configured to store in the memory 7 the position data indicating the eye position (measured position) acquired by the acquisition unit 3 and the order in which the position data is acquired.
  • the memory 7 sequentially stores the actually measured positions of the eyes based on each of the plurality of captured images captured at predetermined imaging time intervals.
  • the memory 7 may store the actually measured positions in the order in which the eyes are located.
  • the predetermined imaging time interval is an interval between the one captured image and the time during which the one captured image is captured, which can be appropriately set depending on the performance and design of the camera.
  • the controller 8 may be configured to filter the position data stored in the memory 7 using, for example, a low-pass filter.
  • the controller 8 can filter the position data in which the amount of change in the eye position per unit time is large.
  • the controller 8 can extract effective position data by filtering from the position data having low detection accuracy of the eye position.
  • the controller 8 can improve the accuracy of the prediction function by filtering.
  • the controller 8 may filter so as to extract only the position data whose change with respect to time is small, specifically, the frequency of the position change is lower than the predetermined value.
  • the predetermined value is the maximum value of the frequency of change in position required to achieve the desired accuracy, which is determined by experiments or the like.
  • the controller 8 is configured to output a future position as a predicted position by using a plurality of position data stored in the memory 7.
  • the future referred to here refers to the future for a plurality of position data stored in the memory 7.
  • the controller 8 can use a plurality of position data filtered by using a low-pass filter.
  • the controller 8 may be configured to output a predicted position using a plurality of new position information.
  • the controller 8 may be configured to calculate a prediction function based on, for example, a plurality of position data having a new storage time and a reflection time on the display among the position data stored in the memory 7.
  • the controller 8 may be configured to determine the novelty of the storage time based on the imaging time.
  • the controller 8 is configured to calculate a prediction function based on the actually measured position of the eye, the acquisition time when the position data is acquired by the acquisition unit 3, and the predetermined reflection time expected in advance by an experiment or the like. sell.
  • the prediction function can be a function in which a plurality of pairs of the actually measured position and the actually measured imaging timing are fitted.
  • the prediction function can adopt the imaging time as this imaging timing.
  • the prediction function is used to output the predicted position at the time when the reflection time is added to the current time. More specifically, the controller 8 assumed that the time obtained by subtracting the reflection time from the acquisition time was the time when the eye was located at the actual measurement position, and the eye was located at the actual measurement position of the eye and the actual measurement position. Based on the time, it is configured to calculate a prediction function that indicates the relationship between the time after the present time and the position of the eye at that time.
  • the prediction function can be a function in which a plurality of actually measured positions arranged at the imaging rate are fitted. The prediction function may correspond to the current time based on the reflection time.
  • the controller 8 has the latest actual measurement position Pm0 and the eye imaging time tm0 at the actual measurement position, the previous actual measurement position Pm1 and the eye imaging time tm1 at the actual measurement position, and the actual measurement two times before.
  • the prediction function is calculated based on the position Pm2 and the imaging time tm2 of the eye at the actually measured position.
  • the latest measured position Pm0 is the position indicated by the position data having the latest imaging time.
  • the previous actual measurement position Pm1 is the position indicated by the position data whose imaging time is newer than the imaging time of the latest actual measurement position Pm0.
  • the two previous actual measurement positions Pm2 are the positions indicated by the position data whose imaging time is newer than the imaging time of the previous actual measurement position Pm1.
  • the controller 8 does not have to perform the above-mentioned filtering. In this case, it may be configured to output the predicted position in the same manner by using a plurality of position data that are stored in the memory 7 by the position data storage process and have not been filtered.
  • the controller 8 is configured to output the predicted position of the eye corresponding to the time obtained by adding the predetermined time to the present time in the prediction function at a predetermined output time interval.
  • the predetermined time is a time based on the display processing time, which is the time expected to be required from the start of the display control by the controller 8 until the image is displayed on the display panel 5.
  • the predetermined output time interval may be a time interval shorter than the predetermined imaging time interval.
  • the controller 8 displays an image in each subpixel P corresponding to a visible region 5a based on the most recently output predicted position at a display time interval defined so that the display panel 5 updates the image at a predetermined frequency. It is configured to start the control to make it. An image based on the predicted position is displayed and updated on the display panel 5 after the display processing time after each display control by the controller 8 is started.
  • the detection device 1 for example, a camera that captures images at 20 fps can be adopted.
  • This camera has an imaging time interval of 50 ms.
  • the controller 8 may be configured to output captured images at the same output time interval as the imaging time interval.
  • the controller 8 may be configured to output at an output time interval different from the imaging time interval.
  • the output time interval can be shorter than the imaging time interval.
  • the output time interval may be 20 ms.
  • the controller 8 outputs the predicted position once every 20 ms (that is, at 50 sps (samples per second)).
  • the controller 8 can display an image based on the predicted position of the eye output at a time interval shorter than the imaging time interval. Therefore, the three-dimensional display device 2 can provide the user with a three-dimensional image corresponding to a finer change in the position of the eye.
  • the output time interval may be shorter than the display time interval for updating the image displayed on the display panel 5.
  • the output time interval may be 2 ms.
  • the controller 8 outputs the predicted position once every 2 ms (that is, 500 sps).
  • the controller 8 can display the image based on the positions of the left eye and the right eye at a time closer to the display time than when the image was displayed last time. Therefore, the three-dimensional display device 2 can further reduce the difficulty in visually recognizing the three-dimensional image by the user due to the change in the position of the eyes.
  • the controller 8 may evaluate the prediction function and modify it based on the evaluation. Specifically, the controller 8 compares the predicted position of the eye output based on the prediction function with the actually measured position of the eye detected from the actually captured image corresponding to the predicted position. Good. The controller 8 can associate the predicted position with the actually measured position based on the recorded imaging time. The controller 8 can associate the predicted position with the measured position based on the imaging time interval. The controller 8 may modify the prediction function based on the result of the comparison. In the subsequent prediction process, the controller 8 outputs the position of the eye using the modified prediction function, and displays an image on the display panel 5 based on the predicted position of the eye using the corrected prediction function. Good.
  • the detection device 1 acquires the captured image of 1 captured by the camera (step S11).
  • the detection device 1 detects the position of 1 of the eye based on the acquired captured image of 1 (step S12).
  • the detection device 1 transmits the position data indicating the position of 1 to the 3D display device 2 (step S13).
  • the detection device 1 determines whether or not the end instruction has been input (step S14).
  • step S14 When it is determined in step S14 that the end instruction has been input, the detection device 1 ends the process. If it is determined in step S14 that the end instruction has not been input, the detection device 1 returns to step S11 and repeats steps S11 to S13 thereafter.
  • the controller 8 of the three-dimensional display device 2 determines whether or not the position data has been received by the acquisition unit 3 (step S21).
  • step S21 If it is determined in step S21 that the position data has not been received, the controller 8 returns to step S21. When it is determined in step S21 that the position data has been received, the controller 8 stores the position data in the memory 7 (step S22).
  • the controller 8 filters the position data stored in the memory 7 (step S23).
  • the controller 8 generates a prediction function based on the filtered position data (step S24).
  • the controller 8 again determines whether or not the position data has been received by the acquisition unit 3 (step S25).
  • step S25 If it is determined in step S25 that the position data has not been received, the controller 8 returns to step S25. When it is determined in step S25 that the position data has been received, the controller 8 stores the position data in the memory 7 (step S26).
  • the controller 8 filters the position data stored in the memory 7 (step S27).
  • the controller 8 uses the actually measured position of the eye indicated by the position data indicating the position of the eye captured at the display time when the image is displayed in the display processing described in detail later among the actually measured positions indicated by the filtered position data.
  • the prediction function is modified (step S28).
  • the controller 8 determines whether or not the end instruction of the prediction function generation process has been input (step S29).
  • step S29 When it is determined in step S29 that the end instruction of the predictive function generation process has been input, the controller 8 ends the predictive function generation process. If it is determined in step S29 that the end instruction of the prediction function generation process has not been input, the controller 8 returns to step S21.
  • the controller 8 does not have to perform one or more of steps S23 and S27.
  • the controller 8 may or may not perform step S27 in the repetition from the start to the end of the process.
  • the controller 8 outputs the predicted position based on the most recently predicted or modified prediction function in the above-mentioned prediction function generation process at the output time interval (step S31).
  • the controller 8 changes the display image based on the most recently output predicted position at the display time interval, and displays the changed image on the display panel 5 (step S32).
  • the controller 8 determines whether or not an instruction to end the image display process has been input (step S33).
  • step S33 When it is determined in step S33 that the end instruction of the image display process has been input, the controller 8 ends the image display process. If it is determined in step S33 that the end instruction of the image display process has not been input, the controller 8 returns to step S31.
  • the three-dimensional display device 2 of the present embodiment outputs the predicted position of the eye at the display time in the future from the current time based on the position data stored in the memory 7, and the predicted position of the eye. Based on the position, each subpixel P of the display panel is made to display a differential image. Therefore, as in the conventional case, when the position of the eye detected based on the captured image is acquired, the control for displaying the image based on the position is started, but at a time closer to the display time. The image can be displayed based on the position of the eye. Therefore, the three-dimensional display device 2 can reduce the difficulty of the user from visually recognizing the three-dimensional image even when the position of the user's eyes changes.
  • the three-dimensional display device 2 of the present embodiment calculates a prediction function indicating the relationship between the future display time and the position of the eye based on the position data stored in the memory 7, and based on the prediction function, the eye. Outputs the predicted position of.
  • the three-dimensional display device 2 can output the predicted position of the eye regardless of the imaging time of the camera.
  • the three-dimensional display device 2 of the present embodiment can output the predicted position of the eye based on the prediction function at an output time interval different from the imaging time interval.
  • the three-dimensional display device 2 can output the predicted position of the eye at an output time interval that does not depend on the imaging time interval of the camera.
  • the three-dimensional display device 2 of the present embodiment can output the predicted position of the eye based on the prediction function at an output time interval shorter than the imaging time interval.
  • the three-dimensional display device 2 can provide a three-dimensional image according to a change in the position of the eye that occurs at a time interval shorter than the imaging time interval.
  • the three-dimensional display device 2 of the present embodiment modifies the prediction function by comparing the predicted position with the actually measured position.
  • the three-dimensional display device 2 can appropriately output the predicted position of the eye based on the predicted function modified each time.
  • the three-dimensional display device 2 can display an image based on an appropriate predicted position.
  • the three-dimensional display device 2 can reduce the difficulty in visually recognizing the three-dimensional image by the user due to the change in the position of the eyes.
  • the detection device 1 may not be able to detect the position of the eye due to, for example, the state of ambient light or the influence of an obstacle located on the optical path between the user's eye and the camera.
  • the acquisition unit 3 may fail to acquire the position data.
  • the controller 8 performs the processing described below to reduce the decrease in the accuracy of the prediction function even when the acquisition unit 3 fails to acquire the position data. sell.
  • the three-dimensional display device 2 can reduce the difficulty in visually recognizing the three-dimensional image appropriately by the control 8 maintaining the accuracy of the prediction function.
  • the controller 8 may be configured to output the predicted position of the current time by using the plurality of position data stored in the memory 7.
  • the controller 8 may be configured to calculate a prediction function for predicting the position of the eye at the current time using the plurality of position data stored in the memory 7.
  • the predictive function for predicting the position of the eye at the current time can be referred to as the first predictive function.
  • the controller 8 may be configured to output the predicted position of the current time based on the first prediction function.
  • the controller 8 can use a plurality of position data filtered by using a low-pass filter in calculating the first prediction function.
  • the controller 8 may be configured to output a predicted position using a plurality of new position information.
  • the controller 8 may be configured to calculate the first prediction function based on, for example, a plurality of position data having a new storage time and the reflection time on the display among the position data stored in the memory 7.
  • the controller 8 may be configured to determine the novelty of the storage time based on any one or more of the imaging time, the storage order, and the serial number.
  • the memory 7 is configured to store only the position information necessary for calculating the first prediction function, and the controller 8 stores the first prediction function based on all the position information stored in the memory 7. It can be configured to calculate.
  • the controller 8 calculates the first prediction function based on the actually measured position of the eye, the acquisition time when the position data is acquired by the acquisition unit 3, and the predetermined reflection time expected in advance by an experiment or the like. Can be configured.
  • the controller 8 may be configured to compare the position data with the position data having the latest storage time among the plurality of position data stored in the memory 7. .. When the two position data are position data showing the same value, the controller 8 can determine that the acquisition unit 3 has failed to acquire the position data. In other words, the controller 8 may be configured to determine that the acquisition unit 3 has failed to acquire the position data when the acquisition unit 3 continuously acquires the position data showing the same value.
  • the position data showing the same value here may be two position data in which the three coordinate values in the three-dimensional space completely match.
  • the position data showing the same value may be two position data in which the sum of the differences between the three coordinate values in the three-dimensional space is less than the threshold value, and the maximum value of the difference between the three coordinate values in the three-dimensional space is. It may be two position data that are less than the threshold.
  • the threshold value may be determined by an experiment or the like in advance.
  • the controller 8 discards the second position data, that is, the position data whose acquisition time is newer among the two consecutively acquired position data. Can be configured to.
  • the controller 8 may be configured to output the predicted position of the current time based on a plurality of position data including the position data whose acquisition time is old among the two position data acquired in succession.
  • the controller 8 is configured to output the predicted position of the eye at the future time by using a plurality of position data including the predicted position of the current time.
  • the future time here means a time after the present time.
  • the controller 8 may be configured to calculate a prediction function for predicting the position of the eye at the current time using the plurality of position data stored in the memory 7.
  • a predictive function for predicting the position of the eye at a future time can be referred to as a second predictive function.
  • the controller 8 may be configured to output a predicted position at a future time based on the second prediction function.
  • the controller 8 can use a plurality of position data filtered by using a low-pass filter in calculating the second prediction function.
  • the controller 8 may be configured to output a predicted position using a plurality of new position information.
  • the controller 8 may be configured to calculate a second prediction function based on, for example, a plurality of position data having a new storage time and a reflection time on the display among the position data stored in the memory 7.
  • the controller 8 may be configured to determine the novelty of the storage time based on any one or more of the imaging time, the storage order, and the serial number.
  • the controller 8 calculates the second prediction function based on the actually measured position of the eye, the acquisition time when the position data is acquired by the acquisition unit 3, and the predetermined reflection time expected in advance by an experiment or the like. Can be configured.
  • the second prediction function may be the same function as the first prediction function, or may be a function different from the first prediction function.
  • the controller 8 displays an image in each subpixel P corresponding to a visible region 5a based on the most recently output predicted position at a display time interval defined so that the display panel 5 updates the image at a predetermined frequency. It is configured to start the control to make it. An image based on the predicted position is displayed and updated on the display panel 5 after the display processing time after each display control by the controller 8 is started.
  • the controller 8 may evaluate the second prediction function and modify the second prediction function based on the evaluation.
  • the controller 8 may compare the predicted position of the eye output based on the second prediction function with the actually measured position of the eye detected from the actually captured image corresponding to the predicted position.
  • the controller 8 can associate the predicted position with the actually measured position based on the recorded imaging time.
  • the controller 8 can associate the predicted position with the measured position based on the imaging time interval.
  • the controller 8 may modify the second prediction function based on the result of the comparison.
  • the controller 8 outputs the eye position using the modified second prediction function, and displays an image on the display panel 5 based on the eye prediction position using the modified second prediction function. May be displayed.
  • the controller 8 can execute the process shown in the flowchart of FIG. 11 at time intervals shorter than the imaging time interval of the camera of the detection device 1.
  • the controller 8 of the three-dimensional display device 2 determines whether or not the position data has been received by the acquisition unit 3 (step S41).
  • step S41 When it is determined in step S41 that the position data has not been received, the controller 8 calculates the first prediction function using the plurality of position data stored in the memory 7, and is based on the first prediction function. Then, the predicted position of the current time is output (step S42).
  • the controller 8 calculates the second prediction function based on a plurality of position data including the predicted position of the current time, and outputs the predicted position of the future time based on the second prediction function (step S43).
  • the controller 8 changes the display image at the display time interval based on the predicted position of the future time, and displays the changed image on the display panel 5 (step S44).
  • the controller 8 determines whether or not an instruction to end the image display process has been input (step S45).
  • step S45 When it is determined in step S45 that the end instruction of the image display process has been input, the controller 8 ends the image display process. If it is determined in step S45 that the end instruction of the image display process has not been input, the controller 8 returns to step S43.
  • step S41 determines whether or not the position data showing the same value has been continuously acquired.
  • step S46 the controller 8 compares the received position data with the position data having the latest imaging time among the plurality of position data stored in the memory 7.
  • step S46 If it is determined in step S46 that the position data showing the same value is continuously acquired, the controller 8 discards the second position data continuously acquired (step S47) and proceeds to step S42.
  • step S46 If it is determined in step S46 that the position data showing the same value is not continuously acquired, the controller 8 proceeds to step S22 of the flowchart shown in FIG.
  • the three-dimensional display device 2 of the present embodiment when the acquisition unit 3 fails to acquire the position data, the eye of the current time is based on the plurality of position data stored in the memory 7. The predicted position is calculated, and the predicted position is output as position data at the current time. Therefore, the three-dimensional display device 2 can accurately predict the position of the eye at the current time when the detection device 1 cannot detect the position of the eye.
  • the three-dimensional display device 2 outputs the predicted position of the eye at the future time based on a plurality of position data including the predicted position of the current time, and disparates each subpixel of the display panel 5 based on the predicted position. Display the image. Therefore, the three-dimensional display device 2 can accurately predict the position of the eye in the future time even when the detection device 1 cannot detect the position of the eye. Since the three-dimensional display device 2 can display an image based on the predicted position of the eye at a future time, it is possible to reduce the difficulty of the user from visually recognizing the three-dimensional image.
  • the controller 8 predicts the position of the eye at a time after the imaging time based on the image captured by the detection device 1 from the camera and the imaging time of the captured image. Therefore, the three-dimensional display device 2 may be configured such that the controller 8 and the detection device 1 operate asynchronously with each other. In other words, the three-dimensional display device 2 may be configured such that the controller 8 and the detection device 1 are separate systems from each other. As a result, the three-dimensional display device 2 can supply the detection device 1 and the controller 8 with a clock signal having a frequency suitable for the processing performed by each, so that the detection device 1 and the controller 8 are operated at high speed and normally. It becomes possible.
  • the controller 8 and the detection device 1 may operate asynchronously based on the same clock signal, or may operate asynchronously based on separate clock signals.
  • One of the controller 8 and the detection device 1 may operate in synchronization with the first clock signal, and the other may operate in synchronization with the second clock signal obtained by dividing the first clock signal.
  • the three-dimensional display system 10 can be mounted on the head-up display 100.
  • the head-up display 100 is also referred to as a HUD (Head Up Display) 100.
  • the HUD 100 includes a three-dimensional display system 10, an optical member 110, and a projected member 120 having a projected surface 130.
  • the HUD 100 causes the image light emitted from the three-dimensional display device 2 to reach the projected member 120 via the optical member 110.
  • the HUD 100 causes the image light reflected by the projected member 120 to reach the left eye and the right eye of the user. That is, the HUD 100 advances the image light from the three-dimensional display device 2 to the left eye and the right eye of the user along the optical path 140 indicated by the broken line.
  • the user can visually recognize the image light that has arrived along the optical path 140 as a virtual image 150.
  • the HUD 100 can provide stereoscopic vision according to the movement of the user by controlling the display according to the positions of the left eye and the right eye of the user.
  • the image display device 1 and the HUD 100 may be mounted on the moving body 20.
  • a part of the configuration of the HUD 100 may be used in combination with other devices or parts included in the moving body 20.
  • the moving body 20 may also use the windshield as the projected member 120.
  • Another device or component included in the moving body 20, which is also used as a part of the configuration of the HUD 100, may be referred to as a HUD module.
  • the display panel 5 is not limited to the transmissive display panel, and other display panels such as a self-luminous display panel can also be used.
  • the transmissive display panel includes a MEMS (Micro Electro Mechanical Systems) shutter type display panel in addition to the liquid crystal panel.
  • Self-luminous display panels include organic EL (electro-luminescence) and inorganic EL display panels. When a self-luminous display panel is used as the display panel 5, the irradiator 4 becomes unnecessary. When a self-luminous display panel is used as the display panel 5, the parallax barrier 6 is located on the side where the image light of the display panel 5 is emitted.
  • the "moving body” in the present disclosure includes vehicles, ships, and aircraft.
  • Vehicles in the present disclosure include, but are not limited to, automobiles and industrial vehicles, and may include railroad vehicles, living vehicles, and fixed-wing aircraft traveling on runways.
  • Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolley buses and the like, and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, cranes, dump trucks, and road rollers. Vehicles include those that run manually. The classification of vehicles is not limited to the above. For example, an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of categories. Vessels in the present disclosure include marine jets, boats and tankers. Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.
  • the "time” in the present disclosure may be a time such as Coordinated Universal Time (UTC), but is not limited to this, and an original time in the device based on an internal clock or the like can be adopted.
  • the unique time is not limited to the time when a plurality of configurations are synchronized, and may include the unique time of each configuration.
  • the unique time may include a time that is common to some configurations.
  • Detection device 2 3D display device 3 Acquisition unit 4 Irradiator 5 Display panel 6 Paralux barrier 7 Memory 8 Controller 10 3D display system 20 Moving object 51a Visible area 51aL Left visible area 51aR Right visible area 51bL Left dimming area 51bL Right dimming area 61 Dimming part 62 Transmissive part 100 Head-up display 110 Optical member 120 Projected member 130 Projected surface 140 Optical path 150 Virtual image A Active area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3次元表示装置は、表示パネルと、パララックスバリアと、取得部と、メモリと、コントローラとを備える。表示パネルは、視差画像を表示して視差画像に対応する画像光を出射するように構成される。パララックスバリアは、画像光の光線方向を規定するように構成される面を有する。取得部は、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて眼の位置を検出するように構成される検出装置から、眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される。メモリは、取得部によって順次、取得された複数の位置データを記憶するように構成される。コントローラは、メモリに記憶された複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、予測位置に基づいて、表示パネルの各サブピクセルに視差画像を表示させるように構成される。

Description

3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
 本発明は、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体に関する。
 従来、3次元表示装置は、カメラが利用者の眼を撮像した撮像画像を用いて検出された眼の位置を示す位置データを取得する。3次元表示装置は、位置データが示す眼の位置に基づいて、利用者の左眼および右眼にそれぞれ対応する画像を視認させるように、画像をディスプレイに表示させている(例えば、特許文献1)。
 しかしながら、カメラが利用者の眼を撮像した時点と、3次元表示装置が眼の位置に基づいて画像を表示させる時点とには時間差がある。そのため、カメラが利用者の眼を撮像した時点以降に、利用者の眼の位置が変化した場合、利用者は、3次元表示装置によって表示された画像によって3次元画像を適切に視認し難いことがある。
特開2001-166259号公報
 本開示の3次元表示装置は、表示パネルと、パララックスバリアと、取得部と、メモリと、コントローラとを備える。前記表示パネルは、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される。前記パララックスバリアは、前記画像光の光線方向を規定するように構成される面を有する。前記取得部は、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される。前記メモリは、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成される。前記コントローラは、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成される。
 本開示の3次元表示システムは、検出装置と、3次元表示装置とを備える。前記検出装置は、撮像時間間隔で利用者の眼を撮像するカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出する。前記3次元表示装置は、表示パネルと、パララックスバリアと、取得部と、メモリと、コントローラとを備える。前記表示パネルは、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される。前記パララックスバリアは、前記画像光の光線方向を規定するように構成される面を有する。前記取得部は、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される。前記メモリは、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成される。前記コントローラは、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成される。
 本開示のヘッドアップディスプレイは、3次元表示システムと、被投影部材とを備える。前記3次元表示システムは、検出装置と、3次元表示装置とを備える。前記検出装置は、撮像時間間隔で利用者の眼を撮像するカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出する。前記3次元表示装置は、表示パネルと、パララックスバリアと、取得部と、メモリと、コントローラとを備える。前記表示パネルは、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される。前記パララックスバリアは、前記画像光の光線方向を規定するように構成される面を有する。前記取得部は、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される。前記メモリは、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成される。前記コントローラは、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成される。前記被投影部材は、前記3次元表示装置から射出された前記画像光を、利用者の眼の方向に反射させる。
 本開示の移動体は、ヘッドアップディスプレイを備える。前記ヘッドアップディスプレイは、3次元表示システムと、被投影部材とを備える。前記3次元表示システムは、検出装置と、3次元表示装置とを備える。前記検出装置は、撮像時間間隔で利用者の眼を撮像するカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出する。前記3次元表示装置は、表示パネルと、パララックスバリアと、取得部と、メモリと、コントローラとを備える。前記表示パネルは、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される。前記パララックスバリアは、前記画像光の光線方向を規定するように構成される面を有する。前記取得部は、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される。前記メモリは、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成される。前記コントローラは、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成される。前記被投影部材は、前記3次元表示装置から射出された前記画像光を、利用者の眼の方向に反射させる、
 本発明の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
本開示の一実施形態に係る3次元表示システムの概略構成を示す図である。 図1に示す表示パネルを奥行方向から見た例を示す図である。 図1に示すパララックスバリアを奥行方向から見た例を示す図である。 図1に示す表示パネルおよびパララックスバリアをパララックスバリア側から左眼で見た例を示す図である。 図1に示す表示パネルおよびパララックスバリアをパララックスバリア側から右眼で見た例を示す図である。 眼の位置と可視領域との関係を説明するための図である。 眼の撮像、位置データの取得、予測位置に基づく表示制御の開始、および表示パネルにおける画像の表示についての時刻の関係を説明するための図である。 検出装置の処理を説明するための処理フロー図である。 3次元画像装置の予測関数生成処理の一例を説明するための処理フロー図である。 3次元画像装置の画像表示処理の一例を説明するための処理フロー図である。 3次元画像装置の予測関数生成処理および画像表示処理の他の例を説明するための処理フロー図である。 図1に示す3次元表示システムを搭載したHUDの例を示す図である。 図12に示すHUDを搭載した移動体の例を示す図である。
 本開示の一実施形態について、図面を参照して詳細に説明する。以下の説明で用いられる図は模式的なものである。したがって、図面上の寸法比率等は現実のものと必ずしも一致していない。
 本開示の一実施形態にかかる3次元表示システム10は、図1に示すように、検出装置1と、3次元表示装置2とを含む。
 検出装置1は、利用者の眼があることが期待される空間を一定の撮像時間間隔(例えば、20fps(frames per second))で撮像するように構成されるカメラから撮像画像を取得するように構成されてよい。検出装置1は、カメラから取得した撮像画像から順次、左眼(第1眼)および右眼(第2眼)の像を検出するように構成される。検出装置1は、画像空間における左眼および右眼の像に基づいて、実空間における左眼および右眼それぞれの位置を検出するように構成される。検出装置1は、1つのカメラの撮像画像から、左眼および右眼の位置を3次元空間の座標として検出するように構成されてよい。検出装置1は、2個以上のカメラの撮像画像から、左眼および右眼それぞれの位置を3次元空間の座標として検出するように構成されてよい。検出装置1はカメラを備えてよい。検出装置1は、実空間における左眼および右眼の位置を示す位置データを順次、3次元表示装置2に送信するように構成される。
 3次元表示装置2は、取得部3と、照射器4と、表示パネル5と、光学素子としてのパララックスバリア6と、メモリ7と、コントローラ8とを含む。
 取得部3は、検出装置1によって順次、送信された、眼の位置を示す位置データを取得するように構成される。
 照射器4は、表示パネル5を面的に照射するように構成されうる。照射器4は、光源、導光板、拡散板、拡散シート等を含んでよい。照射器4は、光源により照射光を射出し、導光板、拡散板、拡散シート等により照射光を表示パネル5の面方向に均一化するように構成される。照射器4は均一化された光を表示パネル5の方に出射するように構成されうる。
 表示パネル5としては、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。図2に示すように、表示パネル5は、面状に形成されたアクティブエリアA上に複数の区画領域を有する。アクティブエリアAは、視差画像を表示するように構成される。視差画像は、左眼画像(第1画像)と左眼画像に対して視差を有する右眼画像(第2画像)とを含む。複数の区画領域は、第1方向と、アクティブエリアAの面内で第1方向に直交する方向とに区画された領域である。第1方向は、例えば、水平方向であってよい。第1方向に直交する方向は、例えば、鉛直方向であってよい。水平方向および鉛直方向に直交する方向は奥行方向と称されてよい。図面において、水平方向はx軸方向として表され、鉛直方向はy軸方向として表され、奥行方向はz軸方向として表される。
 複数の区画領域の各々には、1つのサブピクセルPが対応する。したがって、アクティブエリアAは、水平方向および鉛直方向に沿って格子状に配列された複数のサブピクセルPを備える。
 複数のサブピクセルPの各々は、R(Red),G(Green),B(Blue)のいずれかの色に対応しうる。R,G,Bの3つのサブピクセルPは、一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。1ピクセルを構成する複数のサブピクセルPは、水平方向に並んでよい。同じ色の複数のサブピクセルPは、鉛直方向に並んでよい。複数のサブピクセルPそれぞれの水平方向の長さHpxは、互いに同一としてよい。複数のサブピクセルPそれぞれの鉛直方向の長さHpyは、互いに同一としてよい。
 表示パネル5としては、透過型の液晶パネルに限られず、有機EL等他の表示パネルを使用しうる。透過型の表示パネルは、液晶パネルの他に、MEMS(Micro Electro Mechanical Systems)シャッター式の表示パネルを含む。自発光型の表示パネルは、有機EL(electro-luminescence)、および無機ELの表示パネルを含む。表示パネル5が自発光型の表示パネルである場合、3次元表示装置2は照射器4を備えなくてよい。
 上述したようにアクティブエリアAに連続して配列された複数のサブピクセルPは、1つのサブピクセル群Pgを構成する。例えば、1のサブピクセル群Pgは、水平方向および鉛直方向にそれぞれ所定数の複数のサブピクセルを含む。1のサブピクセル群Pgは、鉛直方向にb個、水平方向にn個、連続して配列された(2×n×b)個のサブピクセルP1~P(2×n×b)を含む。複数のサブピクセルPは、複数のサブピクセル群Pgを構成する。複数のサブピクセル群Pgは、水平方向に繰り返して配列されている。複数のサブピクセル群Pgは、鉛直方向においては、水平方向にjサブピクセル分(j<n)ずれた位置に隣接して繰り返して配列されている。本実施形態では、一例として、j=1、n=4、b=1の場合について説明する。本例では、図2に示すように、アクティブエリアAには、鉛直方向に1行、水平方向に8列、連続して配列された8個のサブピクセルP1~P8を含む複数のサブピクセル群Pgが配置される。P1~P8を複数のサブピクセルの識別情報と呼ぶ。図2には、一部のサブピクセル群Pgに符号を付している。
 全てのサブピクセル群Pgにおける、対応する位置にある複数のサブピクセルPは、同じ種別の画像を表示し、同じタイミングで表示する画像の種別を切り替える。画像の種別は、左眼画像および右眼画像のいずれであるかを表す種別である。1のサブピクセル群Pgを構成する複数のサブピクセルPは、左眼画像と右眼画像とを切り替えて表示可能である。例えば、全てのサブピクセル群Pgにおける複数のサブピクセルP1に表示される画像は同じタイミングで切り替えられる。全てのサブピクセル群Pgにおける他の識別情報を有する複数のサブピクセルPに表示された画像は同じタイミングで切り替えられる。
 1のサブピクセル群Pgを構成する複数のサブピクセルPに表示される画像の種別は互いに独立している。サブピクセル群Pgを構成する複数のサブピクセルPは、左眼画像と右眼画像とを切り替えて表示可能である。例えば、複数のサブピクセルP1が左眼画像と右眼画像とを切り替えるタイミングは、複数のサブピクセルP2が左眼画像と右眼画像とを切り替えるタイミングと同じであってよいし、異なっていてよい。互いに異なる識別情報を有する、他の2つの複数のサブピクセルPが左眼画像と右眼画像とを切り替えるタイミングは同じであってよいし、異なっていてよい。
 パララックスバリア6は、表示パネル5から出射された視差画像の画像光の光線方向を規定するように構成される。パララックスバリア6は、図1に示したように、アクティブエリアAに沿う平面を有する。パララックスバリア6は、アクティブエリアAから所定距離(ギャップ)g、離れている。パララックスバリア6は、表示パネル5に対して照射器4の反対側に位置してよい。パララックスバリア6は、表示パネル5の照射器4側に位置してよい。
 図3に示すように、パララックスバリア6は、複数の減光部61と、複数の透光部62とを備える。
 複数の減光部61は、投じられた画像光を減じるように構成される。減光は遮光を含む。複数の減光部61は、第1値未満の透過率を有しうる。複数の減光部61は、フィルムまたは板状部材で構成されてよい。フィルムは、樹脂で構成されてよいし、他の材料で構成されてよい。板状部材は、樹脂または金属等で構成されてよいし、他の材料で構成されてよい。複数の減光部61は、フィルムまたは板状部材に限られず、他の種類の部材で構成されてよい。複数の減光部61の基材は減光性を有してよいし、複数の減光部61の基材に減光性を有する添加物が含有されてよい。
 複数の透光部62は、第1値より大きい第2値以上の透過率で画像光を透過させる。複数の透光部62は、複数の減光部61を構成する材料の開口で構成されうる。複数の透光部62は、第2値以上の透過率を有するフィルムまたは板状部材で構成されてよい。フィルムは、樹脂で構成されてよいし、他の材料で構成されてよいし、他の材料で構成されてよい。複数の透光部62は、何らの部材を用いられずに構成されてよい。この場合、複数の透光部62の透過率は、略100%となる。
 このように、パララックスバリア6は、複数の減光部61および複数の透光部62を備える。これによって、表示パネル5のアクティブエリアAから射出された画像光の一部がパララックスバリア6を透過して利用者の眼に到達し、画像光の残りの一部がパララックスバリア6によって減光されて利用者の眼に到達し難くなる。したがって、利用者の眼は、アクティブエリアAの一部の領域を視認し易く、残りの一部の領域を視認し難くなる。
 1の透光部62の水平方向の長さLb、バリアピッチBp、適視距離D、ギャップg、所望される可視領域5aの水平方向の長さLp、1のサブピクセルPの水平方向の長さHp、サブピクセル群Pgに含まれるサブピクセルPの数2×n、および眼間距離Eが次の式(1)及び式(2)の関係を満たすように決定されていてよい。適視距離Dは、利用者の眼とパララックスバリア6との間の距離である。ギャップgは、パララックスバリア6と表示パネル5との間の距離である。可視領域5aは、利用者の各眼が視認する、アクティブエリア上の領域である。
 E:D=(2×n×Hp):g              (1)
 D:Lb=(D+g):Lp               (2)
 適視距離Dは、利用者の右眼および左眼それぞれとパララックスバリア6との間の距離である。右眼と左眼とを通る直線の方向(眼間方向)は水平方向である。眼間距離Eは利用者の眼間距離Eの標準である。眼間距離Eは、例えば、産業技術総合研究所の研究によって算出された値である61.1mm(millimeter)~64.4mmであってよい。Hpは、1のサブピクセルの水平方向の長さである。
 利用者の各眼が視認する、アクティブエリアAの領域は、各眼の位置、複数の透光部62の位置、および適視距離Dに依存する。以降において、利用者の眼の位置に伝播する画像光を射出するアクティブエリアA内の領域は可視領域5aと称される。利用者の左眼の位置に伝播する画像光を射出するアクティブエリアAの領域は左可視領域5aL(第1可視領域)と称される。利用者の右眼の位置に伝播する画像光を射出するアクティブエリアAの領域は右可視領域5aR(第2可視領域)と称される。利用者の左眼の方に伝播し、複数の減光部61によって減光される画像光を射出するアクティブエリアA内の領域は左減光領域5bLと称される。利用者の右眼の方に伝播し、複数の減光部61によって減光される画像光を射出するアクティブエリアA内の領域は右減光領域5bRと称される。
 メモリ7は、コントローラ8によって処理された各種情報を記憶するように構成される。メモリ7は、は、例えばRAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスにより構成される。
 コントローラ8は、3次元表示システム10の各構成要素に接続される。コントローラ8は、各構成要素を制御するよう構成されうる。コントローラ8によって制御される構成要素は、表示パネル5を含む。コントローラ8は、例えばプロセッサとして構成される。コントローラ8は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ8は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。コントローラ8は、記憶部を備え、記憶部に各種情報、または3次元表示システム10の各構成要素を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、コントローラ8のワークメモリとして機能してよい。
 コントローラ8は、図4に示すように、それぞれの左可視領域5aLに含まれる複数のサブピクセルPに左眼画像を表示させ、左減光領域5bLに含まれる複数のサブピクセルPに右眼画像を表示させるように構成される。これによって、左眼は、左眼画像を視認し易く、左眼画像を視認し難くなる。コントローラ8は、図5に示すように、それぞれの右可視領域5aRに含まれる複数のサブピクセルPに右眼画像を表示させ、右減光領域5bRに含まれる複数のサブピクセルPに右眼画像を表示させるように構成される。これによって、右眼は、右眼画像を視認し易く、左眼画像を視認し難くなる。これにより、利用者の眼は、3次元画像を視認することができる。図4および図5において、コントローラ8が左眼画像を表示させる複数のサブピクセルPには符号「L」が付され、右眼画像を表示させる複数のサブピクセルPには符号「R」が付されている。
 左可視領域5aLは左眼の位置に基づいて定まる。例えば、図6に示すように、左眼が左変位位置EL1にあるときの左可視領域5aLは、左眼が左基準位置EL0にあるときの左可視領域5aL0とは異なっている。左基準位置EL0は、適宜設定されうる基準となる、左眼の位置である。左変位位置EL1は、左基準位置EL0から水平方向にずれた位置である。
 右可視領域5aRは右眼の位置に基づいて定まる。例えば、図6に示すように、右眼が右変位位置ER1にあるときの右可視領域5aR1は、右眼が右基準位置ER0にあるときの右可視領域5aR0とは異なっている。右基準位置ER0は、適宜設定されうる基準となる、右眼の位置である。右変位位置ER1は、右基準位置ER0から水平方向にずれた位置である。
 したがって、コントローラ8は、利用者に適切に3次元画像を視認させるために、左可視領域5aLに含まれる複数のサブピクセルPに左眼画像を表示させ、右可視領域5aRに含まれる複数のサブピクセルPに右眼画像が表示させる必要がある。コントローラ8は、画像を表示する時点における、正確な眼の位置に基づいて処理を行うことが望まれる。
 検出装置1は、撮像した撮像画像から眼の像を検出し、画像空間における眼の像に基づいて、実空間における眼の位置を検出するように構成される。検出装置1は、実空間における眼の位置を含む位置データを3次元表示装置2に送信するように構成される。検出装置1による眼の位置の検出、検出装置1から3次元表示装置2への位置データの送信、および受信した位置データに基づいて表示画像を変更してから反映するまでには、時間を要する。当該顔に含まれる眼の位置に基づいた画像を表示する表示時刻は、検出装置1が顔を撮像した撮像時刻と時差がある。時差は、検出時間、送信時間、反映時間を含む。時差は、検出装置1の性能、ならびに検出装置1および3次元表示装置間の通信速度等に依存する。利用者の眼の移動に伴って表示画像を変更する制御単位長さを時差で割った速度より、利用者の眼の移動速度が速くなると、利用者は、眼の位置に対応していない画像を視認する。例えば制御単位長さが62.4mmであり、且つ時差が65msである場合、利用者の眼が、0.24mm/ms(millimeter per millisecond)(24cm/s(centimeter per second))以上の速さで移動すると、利用者は3次元画像に違和感をもつ虞がある。
 このような3次元画像の視認しにくさを低減するために、コントローラ8は、以降で説明する処理を行う。以降の説明において説明される「眼」は「左眼および右眼」を表してよい。
 (位置データ記憶処理)
 コントローラ8は、取得部3によって取得された、眼の位置(実測位置)を示す位置データと、当該位置データを取得した順をメモリ7に記憶するように構成される。メモリ7には、所定の撮像時間間隔で撮像された複数の撮像画像それぞれに基づく眼の実測位置が順次記憶される。メモリ7には、当該実測位置に眼が位置した順を合わせて記憶してよい。所定の撮像時間間隔は、カメラの性能及び設計により適宜設定されうる、一の撮像画像と、当該一の撮像画像とが撮像される時間の間隔である。
 (フィルタリング処理)
 コントローラ8は、メモリ7に記憶されている位置データを、例えば、ローパスフィルタを用いてフィルタリングするように構成されうる。コントローラ8は、眼の位置の単位時間当たりの変化量が大きい位置データをフィルタリングしうる。コントローラ8は、眼の位置の検出精度が低い位置データから実効的な位置データをフィルタリングにより抽出しうる。コントローラ8は、予測関数を算出する際に、当該予測関数の精度をフィルタリングによって高めうる。コントローラ8は、時刻に対する変化が小さい、具体的には、位置の変化の周波数が所定値より低い位置データのみを抽出するようにフィルタリングしてよい。所定値は、実験等により定められた、所望の精度を実現するために要求される位置の変化の周波数の最大値である。
 (予測処理(予測関数の算出))
 コントローラ8は、メモリ7に記憶されている複数の位置データを用いて、未来の位置を予想位置として出力するように構成される。ここでいう未来とは、当該メモリ7に記憶された複数の位置データに対する未来をいう。コントローラ8は、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。コントローラ8は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。コントローラ8は、メモリ7に記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて予測関数を算出するように構成されうる。コントローラ8は、記憶時期の新しさを撮像時刻に基づいて判断するように構成されうる。コントローラ8は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、予測関数を算出するように構成されうる。
 予測関数は、実測位置と当該実測の撮像タイミングとの複数のペアをフィッティングさせた関数としうる。予測関数は、この撮像タイミングとして撮像時刻を採用しうる。予測関数は、現時点に反映時間を加算した時刻における予測位置を出力するために用いられる。さらに具体的には、コントローラ8は、取得時刻から反映時間を減じた時刻が実測位置に眼が位置していた時刻であるとして、眼の実測位置と、当該実測位置に眼が位置していた時刻とに基づいて、現時点より後の時刻と、当該時刻での眼の位置との関係を示す予測関数を算出するように構成される。予測関数は、撮像レートで並ぶ複数の実測位置をフィッティングさせた関数としうる。予測関数は、反映時間に基づいて、現在時刻との対応をつけてよい。
 図7に示す例では、コントローラ8は、最新の実測位置Pm0及び当該実測位置における眼の撮像時刻tm0と、ひとつ前の実測位置Pm1及び当該実測位置における眼の撮像時刻tm1と、ふたつ前の実測位置Pm2及び当該実測位置における眼の撮像時刻tm2と、に基づいて予測関数を算出するように構成される。最新の実測位置Pm0は、撮像時刻が最も新しい位置データが示す位置である。ひとつ前の実測位置Pm1は、最新の実測位置Pm0の撮像時刻の次に撮像時刻が新しい位置データが示す位置である。ふたつ前の実測位置Pm2は、ひとつ前の実測位置Pm1の撮像時刻の次に撮像時刻が新しい位置データが示す位置である。
 コントローラ8は、上述したフィルタリングを行わなくてよい。この場合、位置データ記憶処理によってメモリ7に記憶されて、フィルタリング処理されていない複数の位置データを用いて、同じく予測位置を出力するように構成されうる。
 (予測処理(予測位置の出力))
 コントローラ8は、所定の出力時間間隔で、予測関数において、現時点に所定時間を加算した時刻に対応する、眼の予測位置を出力するように構成される。所定時間は、コントローラ8が表示制御を開始してから、表示パネル5に画像が表示されるまでに要すると見込まれる時間である表示処理時間に基づく時間である。所定の出力時間間隔は、所定の撮像時間間隔より短い時間間隔であってよい。
 (画像表示処理)
 コントローラ8は、表示パネル5が所定の周波数で画像を更新するように定められた表示時間間隔で、直近に出力された予測位置に基づく可視領域5aに対応して各サブピクセルPに画像を表示させる制御を開始するように構成される。コントローラ8による表示の制御がそれぞれ開始されてから表示処理時間後に、表示パネル5に予測位置に基づく画像
が表示され、更新される。
 検出装置1は、例えば、20fpsで撮像するカメラを採用しうる。このカメラは、撮像時間間隔が50msとなる。コントローラ8は、撮像時間間隔と同じ出力時間間隔で撮像画像を出力するように構成されうる。コントローラ8は、撮像時間間隔と異なる出力時間間隔で出力するように構成されうる。出力時間間隔は、撮像時間間隔より短くしうる。出力時間間隔は、20msであってよい。この場合、コントローラ8は、20msに1回(すなわち50sps(samples per second)で)、予測位置を出力する。コントローラ8は、撮像時間間隔より短い時間間隔で出力される眼の予測位置に基づいて画像を表示することができる。したがって、3次元表示装置2は、眼の位置のより細かな変化に対応した3次元画像を利用者に提供しうる。
 出力時間間隔は、表示パネル5に表示させる画像を更新する表示時間間隔より短くてよい。例えば、コントローラ8が60Hz(Hertz)で表示パネル5の画像を更新させる、すなわち、表示時間間隔が約16.7msである場合、出力時間間隔は、2msであってよい。この場合、コントローラ8は、2msに1回(すなわち500sps)、予測位置を出力する。コントローラ8は、前回に画像を表示させた時点よりも、表示時刻に近い時点での左眼および右眼の位置に基づいて画像を表示させることができる。したがって、3次元表示装置2は、眼の位置の変化によって、利用者が適切に3次元画像を視認し難くなることをさらに低減させることができる。
 (評価処理)
 コントローラ8は、予測関数を評価し、当該評価に基づいて修正してよい。具体的には、コントローラ8は、予測関数に基づいて出力された眼の予測位置と、当該予測位置に対応する、実際に撮像された撮像画像から検出された眼の実測位置とを比較してよい。コントローラ8は、記録された撮像時刻に基づいて、予測位置と実測位置とを対応させうる。コントローラ8は、撮像時間間隔に基づいて、予測位置と実測位置とを対応させうる。コントローラ8は、比較の結果に基づいて予測関数を修正してよい。コントローラ8は、以降の予測処理において、修正された予測関数を用いて眼の位置を出力し、当該修正後の予測関数を用いた眼の予測位置に基づいて表示パネル5に画像を表示させてよい。
 続いて、図8から図10のフローチャートを参照して、本実施形態の3次元表示システム10の動作について説明する。まず、図8のフローチャートを参照して、本実施形態の検出装置1の動作について説明する。
 まず、検出装置1は、カメラによって撮像された1の撮像画像を取得する(ステップS11)。
 ステップS11で、1の撮像画像が取得されると、検出装置1は、取得された1の撮像画像に基づいて、眼の1の位置を検出する(ステップS12)。
 ステップS12で、眼の1の位置が検出されると、検出装置1は、当該1の位置を示す位置データを3次元表示装置2に送信する(ステップS13)。
 ステップ13で位置データが送信されると、検出装置1は、終了指示が入力されたか否かを判定する(ステップS14)。
 ステップS14で、終了指示が入力されたと判定されると、検出装置1は、処理を終了する。ステップS14で、終了指示が入力されていないと判定されると、検出装置1は、ステップS11に戻って、以降ステップS11~S13を繰り返す。
 次に、図9および図10のフローチャートを参照して、本実施形態の3次元表示装置2の動作について説明する。まず、図9のフローチャートを参照して、3次元表示装置2の予測関数生成処理における動作について説明する。
 3次元表示装置2のコントローラ8は、取得部3によって位置データが受信されたか否かを判定する(ステップS21)。
 ステップS21で、位置データが受信されていないと判定されると、コントローラ8は、ステップS21に戻る。ステップS21で、位置データが受信されたと判定されると、コントローラ8は、位置データをメモリ7に記憶させる(ステップS22)。
 コントローラ8は、メモリ7に記憶された位置データをフィルタリングする(ステップS23)。
 コントローラ8は、フィルタリングされた後の位置データに基づいて、予測関数を生成する(ステップS24)。
 コントローラ8は、再び、取得部3によって位置データが受信されたか否かを判定する(ステップS25)。
 ステップS25で、位置データが受信されていないと判定されると、コントローラ8は、ステップS25に戻る。ステップS25で、位置データが受信されたと判定されると、コントローラ8は、位置データをメモリ7に記憶させる(ステップS26)。
 コントローラ8は、メモリ7に記憶された位置データをフィルタリングする(ステップS27)。
 コントローラ8は、フィルタリングされた位置データが示す実測位置のうち、追って詳細に説明する表示処理において、画像を表示した表示時刻に撮像された眼の位置を示す位置データが示す眼の実測位置を用いて予測関数を修正する(ステップS28)。
 コントローラ8は、予測関数生成処理の終了指示が入力されたか否かを判定する(ステップS29)。
 ステップS29で、予測関数生成処理の終了指示が入力されたと判定されると、コントローラ8は、予測関数生成処理を終了する。ステップS29で、予測関数生成処理の終了指示が入力されていないと判定されると、コントローラ8は、ステップS21に戻る。
 コントローラ8は、ステップS23及びステップS27の1つ以上を行わなくてよい。コントローラ8は、処理の開始から終了までの繰り返しにおいて、ステップS27を行ったり、行わなかったりしてよい。
 次に、図10のフローチャートを参照して、3次元表示装置2の画像表示処理の動作について説明する。
 コントローラ8は、出力時間間隔で、前述した予測関数生成処理において、直近に予測または修正された予測関数に基づいて予測位置を出力する(ステップS31)。
 コントローラ8は、表示時間間隔で、直近に出力された予測位置に基づいて表示画像を変更し、当該変更後の画像を表示パネル5に表示させる(ステップS32)。
 コントローラ8は、画像表示処理の終了指示が入力されたか否かを判定する(ステップS33)。
 ステップS33で、画像表示処理の終了指示が入力されたと判定されると、コントローラ8は、画像表示処理を終了する。ステップS33で、画像表示処理の終了指示が入力されていないと判定されると、コントローラ8は、ステップS31に戻る。
 以上説明したように、本実施形態の3次元表示装置2は、メモリ7に記憶された位置データに基づいて、現在時刻より未来の表示時刻における眼の予測位置を出力し、予測された眼の位置に基づいて、表示パネルの各サブピクセルPに視差画像を表示させる。このため、従来のように、撮像された撮像画像に基づいて検出された眼の位置が取得された時点で、当該位置に基づいて画像を表示する制御を開始するより、表示時刻に近い時点での眼の位置に基づいて画像を表示することができる。したがって、3次元表示装置2は、利用者の眼の位置が変化した場合も、利用者が3次元画像を視認し難くなることを低減することができる。
 本実施形態の3次元表示装置2は、メモリ7に記憶された位置データに基づいて、未来の表示時刻と、眼の位置との関係を示す予測関数を算出し、予測関数に基づいて、眼の予測位置を出力する。3次元表示装置2は、カメラの撮像時刻によらないで眼の予測位置を出力することができる。
 本実施形態の3次元表示装置2は、撮像時間間隔と異なる出力時間間隔で、予測関数に基づいて眼の予測位置を出力しうる。3次元表示装置2は、カメラの撮像時間間隔によらない出力時間間隔で眼の予測位置を出力することができる。
 本実施形態の3次元表示装置2は、撮像時間間隔より短い出力時間間隔で、予測関数に基づいて眼の予測位置を出力しうる。3次元表示装置2は、撮像時間間隔より短い時間間隔で生じる眼の位置の変化に応じた3次元画像を提供しうる。
 本実施形態の3次元表示装置2は、予測位置と実測位置との比較によって、予測関数を修正する。3次元表示装置2は、都度修正された予測関数に基づいて適切に眼の予測位置を出力することができる。3次元表示装置2は、適切な予測位置に基づいて画像を表示させることができる。3次元表示装置2は、眼の位置の変化によって、利用者が適切に3次元画像を視認し難くなることを低減させることができる。
 検出装置1は、例えば、環境光の状態、または利用者の眼とカメラとの間の光路上に位置する障害物の影響等により、眼の位置を検出できないことがある。取得部3は、検出装置1が眼の位置を検出できなかった場合に、位置データの取得に失敗することがある。本実施形態の3次元表示装置2では、コントローラ8が以降で説明する処理を行うことによって、取得部3が位置データの取得に失敗した場合であっても、予測関数の精度の低下を低減しうる。3次元表示装置2は、コントロール8が予測関数の精度を維持することで、利用者が適切に3次元画像を視認し難くなることを低減させることができる。
 (予測処理(現在時刻の予測位置の出力))
 コントローラ8は、取得部3が位置データの取得に失敗すると、メモリ7に記憶された複数の位置データを用いて、現在時刻の予測位置を出力するように構成されうる。コントローラ8は、メモリ7に記憶された複数の位置データを用いて、現在時刻における眼の位置を予測するための予測関数を算出するように構成されうる。現在時刻における眼の位置を予測するための予測関数は、第1予測関数と称されうる。コントローラ8は、第1予測関数に基づいて、現在時刻の予測位置を出力するように構成されうる。
 コントローラ8は、第1予測関数を算出するにあたって、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。コントローラ8は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。コントローラ8は、メモリ7に記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて第1予測関数を算出するように構成されうる。コントローラ8は、記憶時期の新しさを撮像時刻、記憶順序、及び通し番号のいずれか1つ又は複数に基づいて判断するように構成されうる。一例において、メモリ7は、第1予測関数の算出に必要な位置情報のみを記憶するように構成され、コントローラ8は、メモリ7に記憶されている全ての位置情報に基づいて第1予測関数を算出するように構成されうる。コントローラ8は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、第1予測関数を算出するように構成されうる。
 コントローラ8は、取得部3が位置データを取得した場合に、当該位置データと、メモリ7に記憶された複数の位置データのうち、記憶時期が最も新しい位置データとを比較するように構成されうる。コントローラ8は、2つの位置データが同じ値を示す位置データである場合に、取得部3が位置データの取得に失敗したと判定しうる。言い換えれば、コントローラ8は、取得部3が同じ値を示す位置データを連続して取得した場合に、取得部3が位置データの取得に失敗したと判断するように構成されうる。ここでいう同じ値を示す位置データとは、3次元空間における3つの座標値が完全に一致する2つの位置データであってよい。同じ値を示す位置データとは、3次元空間における3つの座標値の差分の和が閾値未満である2つの位置データであってよいし、3次元空間における3つの座標値の差分の最大値が閾値未満である2つの位置データであってよい。閾値は、予めの実験等によって定められてよい。
 コントローラ8は、取得部3が同じ値を示す位置データを連続して取得した場合、2つ目の位置データ、すなわち、連続して取得した2つの位置データのうち取得時刻が新しい位置データを破棄するように構成されうる。コントローラ8は、連続して取得した2つの位置データのうち取得時刻が古い位置データを含む、複数の位置データに基づいて、現在時刻の予測位置を出力するように構成されうる。
 (予測処理(未来時刻の予測位置の出力))
 コントローラ8は、現在時刻の予測位置を含む複数の位置データを用いて、未来時刻における眼の予測位置を出力するように構成される。ここでいう未来時刻とは、現在時刻より後の時刻をいう。コントローラ8は、メモリ7に記憶された複数の位置データを用いて、現在時刻における眼の位置を予測するための予測関数を算出するように構成されうる。未来時刻における眼の位置を予測するための予測関数は、第2予測関数と称されうる。コントローラ8は、第2予測関数に基づいて、未来時刻の予測位置を出力するように構成されうる。
 コントローラ8は、第2予測関数を算出するにあたって、ローパスフィルタを用いてフィルタリング処理された複数の位置データを用いうる。コントローラ8は、新しい複数の位置情報を用いて予測位置を出力するように構成されうる。コントローラ8は、メモリ7に記憶されている位置データのうち、例えば、記憶時期の新しい複数の位置データと、表示への反映時間とに基づいて第2予測関数を算出するように構成されうる。コントローラ8は、記憶時期の新しさを撮像時刻、記憶順序、及び通し番号のいずれか1つ又は複数に基づいて判断するように構成されうる。コントローラ8は、眼の実測位置と、取得部3によって位置データが取得された取得時刻と、予め実験等により見込まれている所定の反映時間とに基づいて、第2予測関数を算出するように構成されうる。第2予測関数は、第1予測関数と同じ関数であってよいし、第1予測関数と異なる関数であってよい。
 (画像表示処理)
 コントローラ8は、表示パネル5が所定の周波数で画像を更新するように定められた表示時間間隔で、直近に出力された予測位置に基づく可視領域5aに対応して各サブピクセルPに画像を表示させる制御を開始するように構成される。コントローラ8による表示の制御がそれぞれ開始されてから表示処理時間後に、表示パネル5に予測位置に基づく画像が表示され、更新される。
 (評価処理)
 コントローラ8は、第2予測関数を評価し、当該評価に基づいて、第2予測関数を修正してよい。コントローラ8は、第2予測関数に基づいて出力された眼の予測位置と、当該予測位置に対応する、実際に撮像された撮像画像から検出された眼の実測位置とを比較してよい。コントローラ8は、記録された撮像時刻に基づいて、予測位置と実測位置とを対応させうる。コントローラ8は、撮像時間間隔に基づいて、予測位置と実測位置とを対応させうる。コントローラ8は、比較の結果に基づいて第2予測関数を修正してよい。コントローラ8は、以降の予測処理において、修正された第2予測関数を用いて眼の位置を出力し、当該修正後の第2予測関数を用いた眼の予測位置に基づいて表示パネル5に画像を表示させてよい。
 続いて、図11のフローチャートを参照して、3次元表示装置2が行う予測関数生成処理および画像表示処理の他の例について説明する。コントローラ8は、図11のフローチャートに示す処理を、検出装置1のカメラの撮像時間間隔より短い時間間隔毎に実行しうる。
 3次元表示装置2のコントローラ8は、取得部3によって位置データが受信されたか否かを判定する(ステップS41)。
 ステップS41で、位置データが受信されていないと判定されると、コントローラ8は、メモリ7に記憶されている複数の位置データを用いて、第1予測関数を算出し、第1予測関数に基づいて、現在時刻の予測位置を出力する(ステップS42)。
 コントローラ8は、現在時刻の予測位置を含む、複数の位置データに基づいて、第2予測関数を算出し、第2予測関数に基づいて、未来時刻の予測位置を出力する(ステップS43)。
 コントローラ8は、表示時間間隔で、未来時刻の予測位置に基づいて、表示画像を変更し、当該変更後の画像を表示パネル5に表示させる(ステップS44)。 
 コントローラ8は、画像表示処理の終了指示が入力されたか否かを判定する(ステップS45)。
 ステップS45で、画像表示処理の終了指示が入力されたと判定されると、コントローラ8は、画像表示処理を終了する。ステップS45で、画像表示処理の終了指示が入力されていないと判定されると、コントローラ8は、ステップS43に戻る。
 ステップS41で、位置データが受信されていると判定されると、コントローラ8は、同じ値を示す位置データを連続して取得したか否かを判定する(ステップS46)。ステップS46の判定を行うにあたって、コントローラ8は、受信した位置データと、メモリ7に記憶された複数の位置データのうち、撮像時刻が最も新しい位置データとを比較する。
 ステップS46で、同じ値を示す位置データを連続して取得したと判定されると、コントローラ8は、連続して取得した2つ目の位置データを破棄し(ステップS47)、ステップS42に進む。
 ステップS46で、同じ値を示す位置データを連続して取得していないと判定されると、コントローラ8は、図9に示したフローチャートのステップS22に進む。
 以上説明したように、本実施形態の3次元表示装置2は、取得部3が位置データの取得に失敗した場合、メモリ7に記憶されている複数の位置データに基づいて、現在時刻の眼の予測位置を算出し、当該予測位置を現在時刻の位置データとして出力する。このため、3次元表示装置2は、検出装置1が眼の位置を検出できなかった場合に、現在時刻の眼の位置を精度よく予測することができる。
 3次元表示装置2は、現在時刻の予測位置を含む、複数の位置データに基づいて、未来時刻の眼の予測位置を出力し、当該予測位置に基づいて、表示パネル5の各サブピクセルに視差画像を表示させる。このため、3次元表示装置2は、検出装置1が眼の位置を検出できなかった場合であっても、未来時刻における眼の位置を精度よく予測することができる。3次元表示装置2は、未来時刻における眼の予測位置に基づいて画像を表示させることができるため、利用者が3次元画像を視認し難くなることを低減することができる。
 本実施形態では、コントローラ8は、検出装置1がカメラから取得した撮像画像および当該撮像画像の撮像時刻に基づいて、当該撮像時刻より後の時刻における眼の位置を予測する。したがって、3次元表示装置2は、コントローラ8と検出装置1とが互いに非同期で動作するように構成されてよい。言い換えれば、3次元表示装置2は、コントローラ8および検出装置1が互いに分離したシステムであるように構成されてよい。これにより、3次元表示装置2は、検出装置1およびコントローラ8に、それぞれが行う処理に適した周波数のクロック信号を供給することができるため、検出装置1およびコントローラ8を高速かつ正常に動作させることが可能となる。コントローラ8と検出装置1とは、同じクロック信号に基づいて非同期に動作してよいし、別個のクロック信号に基づいて非同期に動作してよい。コントローラ8および検出装置1は、一方が第1クロック信号に同期して動作し、他方が第1クロック信号を分周した第2クロック信号に同期して動作してよい。
 上述の実施形態は代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 図12に示すように、3次元表示システム10は、ヘッドアップディスプレイ100に搭載されうる。ヘッドアップディスプレイ100は、HUD(Head Up Display)100ともいう。HUD100は、3次元表示システム10と、光学部材110と、被投影面130を有する被投影部材120とを備える。HUD100は、3次元表示装置2から射出される画像光を、光学部材110を介して被投影部材120に到達させる。HUD100は、被投影部材120で反射させた画像光を、利用者の左眼および右眼に到達させる。つまり、HUD100は、破線で示される光路140に沿って、3次元表示装置2から利用者の左眼および右眼まで画像光を進行させる。利用者は、光路140に沿って到達した画像光を、虚像150として視認しうる。HUD100は、利用者の左眼および右眼の位置に応じて表示を制御することによって、利用者の動きに応じて立体視を提供しうる。
 図13に示すように、画像表示装置1およびHUD100は、移動体20に搭載されてよい。HUD100の構成の一部は、移動体20が備える他の装置または部品と兼用されてよい。例えば、移動体20は、ウインドシールドを被投影部材120として兼用してよい。HUD100の構成の一部として兼用される、該移動体20が備える他の装置または部品は、HUDモジュールと称されることがある。
 表示パネル5としては、透過型の表示パネルに限られず、自発光型の表示パネル等他の表示パネルを使用することもできる。透過型の表示パネルは、液晶パネルの他に、MEMS(Micro Electro Mechanical Systems)シャッター式の表示パネルを含む。自発光型の表示パネルは、有機EL(electro-luminescence)、および無機ELの表示パネルを含む。表示パネル5として、自発光型の表示パネルを使用した場合、照射器4は不要となる。表示パネル5として、自発光型の表示パネルを使用した場合、パララックスバリア6は、表示パネル5の画像光が射出される側に位置する。
 本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 本開示における「時刻」は、協定世界時(Coordinated Universal Time;UTC)等の時刻としうるがこれに限られず、内部クロック等に基づくデバイス内での独自の時間を採用しうる。独自の時間は、複数の構成が同期した時刻に限られず、各構成の独自時刻を含みうる。独自の時間は、一部の構成で共通する時刻を含みうる。
1    検出装置
2    3次元表示装置
3    取得部
4    照射器
5    表示パネル
6    パララックスバリア
7    メモリ
8    コントローラ
10   3次元表示システム
20   移動体
51a  可視領域
51aL 左可視領域
51aR 右可視領域
51bL 左減光領域
51bL 右減光領域
61   減光部
62   透光部
100  ヘッドアップディスプレイ
110  光学部材
120  被投影部材
130  被投影面
140  光路
150  虚像
A    アクティブエリア

Claims (11)

  1.  視差画像を表示して前記視差画像に対応する画像光を出射するように構成される表示パネルと、
     前記画像光の光線方向を規定するように構成される面を有するパララックスバリアと、
     撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される取得部と、
     前記取得部によって順次、取得された前記複数の位置データを記憶するように構成されるメモリと、
     前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成されるコントローラと、
    を備える3次元表示装置。
  2.  請求項1に記載の3次元表示装置であって、
     前記コントローラは、前記メモリに記憶された前記位置データに基づいて、現時点より後の時刻と、当該時刻での眼の位置との関係を示す予測関数を算出し、前記予測関数に基づいて、前記眼の予測位置を出力するように構成される、3次元表示装置。
  3.  請求項2に記載の3次元表示装置であって、
     前記コントローラは、前記撮像時間間隔より短い出力時間間隔で、前記予測関数に基づいて前記眼の予測位置を出力し、当該予測位置に基づいて、前記表示パネルの各サブピクセルに視差画像を表示させるように構成される、3次元表示装置。
  4.  請求項2または3に記載の3次元表示装置であって、
     前記コントローラは、前記表示パネルに表示させる画像を更新する表示時間間隔より短い出力時間間隔で、前記予測関数に基づいて、前記予測位置を出力するように構成される、3次元表示装置。
  5.  請求項2~4のいずれか1項に記載の3次元表示装置であって、
     前記コントローラは、前記予測位置に基づく画像を表示した表示時刻に前記カメラが前記眼を撮像した撮像画像に基づいて検出された眼の位置に基づいて、前記予測関数を修正するように構成される、3次元表示装置。
  6.  請求項1~5のいずれか1項に記載の3次元表示装置であって、
     前記コントローラは、
      前記取得部が前記位置データの取得に失敗すると、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻の眼の予測位置を前記位置データとして出力し、
      前記現在時刻の眼の予測位置を含む、複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、
      当該予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成される、3次元表示装置。
  7.  請求項1~6のいずれか1項に記載の3次元表示装置であって、
     前記コントローラは、
      前記取得部が同じ値を示す前記位置データを連続して取得すると、連続して取得した前記位置データのうちの2つ目の位置データを破棄し、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻の眼の予測位置を前記位置データとして出力し、
      前記現在時刻の眼の予測位置を含む、複数の位置データに基づいて、現在時刻より後の時刻の眼の予測位置を出力し、
      当該予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成される3次元表示装置。
  8.  請求項1~7のいずれか1項に記載の3次元表示装置であって、
     前記コントローラと前記検出装置とは、互いに非同期で動作する、3次元表示装置。
  9.  検出装置と、3次元表示装置とを備える3次元表示システムであって、
     前記検出装置は、撮像時間間隔で利用者の眼を撮像するカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出し、
     前記3次元表示装置は、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される表示パネルと、前記画像光の光線方向を規定するように構成される面を有するパララックスバリアと、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される取得部と、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成されるメモリと、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成されるコントローラと、を備える、3次元表示システム。
  10.  3次元表示システムと、被投影部材とを備えるヘッドアップティスプレイであって、
     前記3次元表示システムは、検出装置と、3次元表示装置とを含み、
      前記検出装置は、撮像時間間隔で利用者の眼を撮像するカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出し、
      前記3次元表示装置は、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される表示パネルと、前記画像光の光線方向を規定するように構成される面を有するパララックスバリアと、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される取得部と、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成されるメモリと、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成されるコントローラと、を有し、
     前記被投影部材は、前記3次元表示装置から射出された前記画像光を、利用者の眼の方向に反射させる、ヘッドアップディスプレイ。
  11.  3次元表示システムと、被投影部材とを含むヘッドアップティスプレイを備える移動体であって、
     前記3次元表示システムは、検出装置と、3次元表示装置とを含み、
      前記検出装置は、撮像時間間隔で利用者の眼を撮像するカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出し、
      前記3次元表示装置は、視差画像を表示して前記視差画像に対応する画像光を出射するように構成される表示パネルと、前記画像光の光線方向を規定するように構成される面を有するパララックスバリアと、撮像時間間隔で利用者の眼を撮像するように構成されるカメラから順次、取得した撮像画像に基づいて前記眼の位置を検出するように構成される検出装置から、前記眼の位置をそれぞれ示す複数の位置データを順次、取得するように構成される取得部と、前記取得部によって順次、取得された前記複数の位置データを記憶するように構成されるメモリと、前記メモリに記憶された前記複数の位置データに基づいて、現在時刻より後の時刻における眼の予測位置を出力し、前記予測位置に基づいて、前記表示パネルの各サブピクセルに前記視差画像を表示させるように構成されるコントローラと、を有し、
     前記被投影部材は、前記3次元表示装置から射出された前記画像光を、利用者の眼の方向に反射させる、移動体。
PCT/JP2020/036689 2019-09-30 2020-09-28 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体 WO2021065825A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080005295.5A CN112889273B (zh) 2019-09-30 2020-09-28 三维显示装置、三维显示系统、平视显示器以及移动体
EP20861989.0A EP3840373B1 (en) 2019-09-30 2020-09-28 Three-dimensional display device, three-dimensional display system, head-up display, and mobile body
JP2021551263A JP7325520B2 (ja) 2019-09-30 2020-09-28 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
US17/764,953 US20220295043A1 (en) 2019-09-30 2020-09-28 Three-dimensional display device, three-dimensional display system, head-up display, and mobile object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-178949 2019-09-30
JP2019178949 2019-09-30

Publications (1)

Publication Number Publication Date
WO2021065825A1 true WO2021065825A1 (ja) 2021-04-08

Family

ID=75336558

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2020/036690 WO2021065826A1 (ja) 2019-09-30 2020-09-28 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
PCT/JP2020/036689 WO2021065825A1 (ja) 2019-09-30 2020-09-28 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/036690 WO2021065826A1 (ja) 2019-09-30 2020-09-28 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Country Status (5)

Country Link
US (2) US20220295043A1 (ja)
EP (2) EP3840374B1 (ja)
JP (2) JP7325521B2 (ja)
CN (2) CN112956188B (ja)
WO (2) WO2021065826A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112929640A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示装置、显示方法、显示屏校正方法
KR20230046566A (ko) 2021-09-30 2023-04-06 삼성전자주식회사 룩 다운 앵글의 변화에 대한 시차 광학 소자의 캘리브레이션 장치 및 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02301798A (ja) * 1989-05-17 1990-12-13 Nippon Hoso Kyokai <Nhk> 画像表示装置
JP2001166259A (ja) 1999-09-24 2001-06-22 Sanyo Electric Co Ltd 眼鏡無し立体映像表示装置
JP2010039556A (ja) * 2008-07-31 2010-02-18 Canon Inc システム
JP2012080439A (ja) * 2010-10-05 2012-04-19 Casio Comput Co Ltd 撮像装置及び方法、並びにプログラム
JP2014195141A (ja) * 2013-03-28 2014-10-09 Japan Display Inc 表示装置
JP2015008394A (ja) * 2013-06-25 2015-01-15 Kddi株式会社 情報端末装置
JP2016116221A (ja) * 2014-12-10 2016-06-23 三星電子株式会社Samsung Electronics Co.,Ltd. 3d表示のための装置及び方法
JP2019082671A (ja) * 2017-10-31 2019-05-30 公立大学法人大阪市立大学 3次元表示装置、3次元表示システム、ヘッドアップディスプレイおよび3次元表示装置設計方法
WO2019171557A1 (ja) * 2018-03-08 2019-09-12 塁 佐藤 画像表示システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011132422A1 (ja) * 2010-04-21 2011-10-27 パナソニック株式会社 立体映像表示装置、立体映像表示方法
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
EP2990085B1 (en) * 2014-08-29 2022-08-10 Nintendo Co., Ltd. Method and apparatus for estimating the value of an input in presence of a perturbing factor
US10607417B2 (en) * 2016-06-08 2020-03-31 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
CN110073659B (zh) * 2016-12-07 2021-10-12 京瓷株式会社 图像投影装置
EP3554069B1 (en) * 2016-12-07 2021-09-15 Kyocera Corporation Image projection device, image display device, and moving body
KR102435614B1 (ko) * 2017-11-17 2022-08-24 삼성전자주식회사 카메라 모듈 내에서 이미지 센서를 위한 클럭 신호를 생성하기 위한 전자 장치 및 방법
US11222476B2 (en) * 2019-05-14 2022-01-11 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America System to add parallax to video for augmented reality head up display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02301798A (ja) * 1989-05-17 1990-12-13 Nippon Hoso Kyokai <Nhk> 画像表示装置
JP2001166259A (ja) 1999-09-24 2001-06-22 Sanyo Electric Co Ltd 眼鏡無し立体映像表示装置
JP2010039556A (ja) * 2008-07-31 2010-02-18 Canon Inc システム
JP2012080439A (ja) * 2010-10-05 2012-04-19 Casio Comput Co Ltd 撮像装置及び方法、並びにプログラム
JP2014195141A (ja) * 2013-03-28 2014-10-09 Japan Display Inc 表示装置
JP2015008394A (ja) * 2013-06-25 2015-01-15 Kddi株式会社 情報端末装置
JP2016116221A (ja) * 2014-12-10 2016-06-23 三星電子株式会社Samsung Electronics Co.,Ltd. 3d表示のための装置及び方法
JP2019082671A (ja) * 2017-10-31 2019-05-30 公立大学法人大阪市立大学 3次元表示装置、3次元表示システム、ヘッドアップディスプレイおよび3次元表示装置設計方法
WO2019171557A1 (ja) * 2018-03-08 2019-09-12 塁 佐藤 画像表示システム

Also Published As

Publication number Publication date
JPWO2021065826A1 (ja) 2021-04-08
EP3840374A4 (en) 2021-10-20
JP7325520B2 (ja) 2023-08-14
US20220295043A1 (en) 2022-09-15
US20230067565A1 (en) 2023-03-02
JPWO2021065825A1 (ja) 2021-04-08
EP3840373A1 (en) 2021-06-23
EP3840373B1 (en) 2023-03-15
CN112889273B (zh) 2023-06-20
EP3840373A4 (en) 2021-09-29
CN112956188B (zh) 2023-08-22
EP3840374B1 (en) 2023-07-19
CN112889273A (zh) 2021-06-01
WO2021065826A1 (ja) 2021-04-08
JP7325521B2 (ja) 2023-08-14
EP3840374A1 (en) 2021-06-23
CN112956188A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
JP6924637B2 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
WO2019160160A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2021065825A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP2020017935A (ja) 表示装置、表示システムおよび移動体
WO2020004275A1 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
WO2019163817A1 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
JP2020102772A (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2021106689A1 (ja) ヘッドアップディスプレイシステム及び移動体
WO2020090629A1 (ja) 画像表示装置、画像表示システム、及び移動体
WO2020130047A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2022131009A1 (ja) 立体表示用コントローラ
WO2020256154A1 (ja) 3次元表示装置、3次元表示システム、および移動体
JP2021056255A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
WO2021060011A1 (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
WO2021060012A1 (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP7346587B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2022149599A1 (ja) 3次元表示装置
WO2020241863A1 (ja) ヘッドアップディスプレイシステムおよび移動体
WO2021106664A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2023120603A1 (ja) 撮像装置および画像処理方法
JP2021085993A (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020861989

Country of ref document: EP

Effective date: 20210317

ENP Entry into the national phase

Ref document number: 2021551263

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE