WO2019235059A1 - 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法 - Google Patents

映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法 Download PDF

Info

Publication number
WO2019235059A1
WO2019235059A1 PCT/JP2019/015641 JP2019015641W WO2019235059A1 WO 2019235059 A1 WO2019235059 A1 WO 2019235059A1 JP 2019015641 W JP2019015641 W JP 2019015641W WO 2019235059 A1 WO2019235059 A1 WO 2019235059A1
Authority
WO
WIPO (PCT)
Prior art keywords
display light
video
image display
projection
image
Prior art date
Application number
PCT/JP2019/015641
Other languages
English (en)
French (fr)
Inventor
和彦 根本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN201980035977.8A priority Critical patent/CN112204453B/zh
Priority to JP2020523544A priority patent/JP7275124B2/ja
Priority to US17/059,623 priority patent/US11445166B2/en
Publication of WO2019235059A1 publication Critical patent/WO2019235059A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/32Holograms used as optical elements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3152Modulator illumination systems for shaping the light beam
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present technology relates to an image projection system, an image projection device, an optical element for image display light diffraction, an instrument, and an image projection method. More specifically, in the present technology, an image display light diffraction optical element disposed in front of both eyes and the image display light diffraction optical element are separated from each other, and an image is displayed toward the image display light diffraction optical element.
  • the present invention relates to a video projection system configured with a video projection device that projects display light, each element configuring the video projection system, and a video projection method in the video projection system.
  • AR augmented reality
  • One product that uses this technology is a head-mounted display.
  • the head mounted display is used by being mounted on the user's head.
  • a video display method using a head-mounted display for example, when light from the head-mounted display reaches the user's eyes in addition to light from the outside world, the video from the display is superimposed on the image of the outside world. As the user recognizes.
  • One type of head-mounted display is a glasses-type display, and various types of glasses-type displays have been proposed. Many glasses-type displays with built-in video projection devices have been proposed so far.
  • the glasses-type display has a configuration in which light projected from a video projection device built in glasses is guided to the eyes through an optical system in the glasses.
  • Patent Document 1 below discloses such a glasses-type display. Specifically, Patent Document 1 below describes a head-mounted display that displays an image to an observer in a head-mounted state mounted on the observer's head, and the head-mounted display displays the image as described above.
  • a monocular display unit that displays the image to the observer by projecting image light corresponding to the image signal to be displayed to one of the observer's eyes is included.
  • an eyeball projection display device described in Patent Literature 2 below forms a projection optical unit that emits a light beam emitted from an image generation unit, a light beam from the projection optical unit, and forms an exit pupil.
  • the projection optical unit and the eyepiece optical unit are configured to be separated from each other, and only the eyepiece optical unit is disposed in the vicinity of the user's eyeball.
  • the head mounting portion is small and / or lightweight in order to reduce the burden on the user. Miniaturization and / or weight reduction of the head mounting part is important from the viewpoint of cost reduction or design improvement of the head mounted display.
  • video display light that enables binocular vision is projected to the user.
  • the apparatus may be complicated. The more complex the device, the more difficult it is to reduce the size and / or weight of the device.
  • This technology aims to reduce the size and / or the weight of the head mounting part among the components of the head mounted display. Furthermore, an object of the present technology is to provide a technology that enables binocular vision.
  • the present technology is based on the position information acquisition unit that acquires the three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, the three-dimensional position information obtained by the position information acquisition unit, A video display light adjusting unit that adjusts the projected video display light, and a video display light that can be projected onto an area covering both eyes, and the video display light adjusted by the video display light adjusting unit is the video
  • An image projection apparatus including one projection optical system for projecting toward the display light diffraction optical element;
  • An image projection system comprising: an image display light diffraction optical element that is separated from the image projection device and disposed in front of the eyes.
  • the optical element for image display light diffraction functions as a lens with respect to light in the wavelength range of the image display light, and has an optical characteristic of transmitting light having a wavelength outside the wavelength range.
  • the projection optical system may be configured to irradiate the image display light on both eyes with an enlargement optical system.
  • the projection optical system may be configured such that image display light is collected near the pupil and irradiated on the retina to perform Maxwell's view.
  • the projection optical system may be configured such that a region where the image display light can be projected is divided into two, and the two regions cover the left and right eyes, respectively. sell.
  • the projection optical system may include a wedge plate, a dog-shaped mirror, or a diffraction element as the optical element for the division.
  • the projection optical system may be configured such that a region where the image display light can be projected is divided into two, and the two regions cover the left and right eyes, respectively.
  • the projection optical system may include a deflection control unit that deflects the projected image display light.
  • the image display light diffraction optical element may be provided in an instrument for holding the optical element in front of both eyes. According to one embodiment of the present technology, the instrument does not include projection optics.
  • the position information acquisition unit includes an image sensor, and the position information acquisition unit can acquire the three-dimensional position information based on information obtained by the image sensor.
  • the video display light adjusting unit may adjust the video display light so that different video display lights are projected to the eyes.
  • the video display light adjustment unit may adjust the video display light based on the parallax between the eyes.
  • different video display lights are projected onto each of the eyes, so that the user of the video projection system can recognize the three-dimensional position of the video to be presented.
  • the present technology provides a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, and the three-dimensional position information obtained by the position information acquisition unit. And a video display light adjusting unit that adjusts the projected video display light, and a video display light that can be projected onto an area covering both eyes, and the video display light adjusted by the video display light adjusting unit. There is also provided an image projection apparatus provided with one projection optical system for projecting toward the image display light diffraction optical element.
  • the present technology provides a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, and the three-dimensional position information obtained by the position information acquisition unit. And a video display light adjusting unit that adjusts the projected video display light, and a video display light that can be projected onto a region that covers both eyes and is adjusted by the video display light adjusting unit. Used to diffract the image display light projected from the image projection apparatus provided with one projection optical system that projects toward the display light diffraction optical element to reach both eyes, and is separated from the image projection apparatus. Also provided is an optical element for image display light diffraction that is disposed in front of both eyes.
  • the present technology provides a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, and the three-dimensional position information obtained by the position information acquisition unit. And a video display light adjusting unit that adjusts the projected video display light, and a video display light that can be projected onto a region that covers both eyes and is adjusted by the video display light adjusting unit.
  • An instrument for holding the optical element in front of both eyes, which is separated from the image projection apparatus, is also provided.
  • the present technology provides a position information acquisition step for acquiring three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, and the three-dimensional position information obtained in the position information acquisition step. Based on the image display light adjustment step for adjusting the projected image display light, and within the region covering both eyes, the image display light adjusted in the image display light adjustment step is displayed from the one projection optical system. A projection step of projecting toward the optical element for light diffraction, wherein the optical element for image display light diffraction is separated from the image projection device for projecting the image display light and is disposed in front of the eyes A video projection method is also provided.
  • a head mounted display in which the head mounting portion is reduced in size and / or weight and enables binocular vision. Therefore, it is possible to reduce the burden on the user by the head mounting portion of the head mounted display, and it is possible to present a natural video to the user.
  • played by this technique is not necessarily limited to the effect described here, and may be the any effect described in this specification.
  • First embodiment (video projection system) (1) Description of the first embodiment (2) First example of the first embodiment (video projection system) (3) Second Example of First Embodiment (Example of Projection Method of Video Display Light) (4) Third Example of First Embodiment (Example of Projection Method of Video Display Light) (5) Fourth Example of First Embodiment (Example of Projection Method of Video Display Light) (6) Fifth example of first embodiment (configuration example of video projection device) 2. Second embodiment (video projection apparatus) 3.
  • the video projection system includes a video projection device and a video display light diffraction optical element separated from the video projection device.
  • the image projection apparatus includes a projection optical system, and image display light is projected from the image projection apparatus toward the image display light diffraction optical element provided in front of both eyes. Therefore, a projection optical system may not be included in an instrument (for example, glasses and a helmet) attached to the head for holding the image display light diffraction optical element in front of both eyes. Elements required for projecting display light (for example, the projection optical system, a power source, and a device driven by power) may not be included. Thereby, the said instrument can be reduced in size and / or weight, and a user's burden can be eased. Further, with the downsizing and / or weight reduction of the instrument, the cost of the instrument can be reduced, and the degree of freedom in designing the instrument is increased.
  • the head-mounted display described in Patent Document 1 includes a monocular display unit that displays the image to an observer, and the display unit is attached to a frame that is attached to the head.
  • the display unit has a hollow housing, and an image light forming portion is accommodated in the housing. That is, the head mounted display described in Patent Document 1 has a configuration in which a component for forming video display light is mounted on a frame mounted on the head. Since the head mounted display includes the components, it is difficult to reduce the size or weight.
  • the elements necessary for projecting the video display light may not be included in the instrument attached to the head. Therefore, according to the present technology, it is possible to reduce the size and / or the weight of the device attached to the head.
  • the video projection device included in the video projection system of the present technology includes one projection optical system, and the projection optical system can project video display light to a region covering both eyes.
  • an area where image display light can be projected from one projection optical system is also referred to as an “image projectable area”.
  • the image display light is adjusted by the image display light adjustment unit based on the three-dimensional position information of the image display light diffraction optical element acquired by the position information acquisition unit.
  • the video display light adjusted as described above is projected by one projection optical system capable of projecting the video display light onto a region covering both eyes. Therefore, it is possible to project video display light that enables binocular vision from one projection optical system. Therefore, a natural video can be presented to the user by the video projection device having a simple configuration.
  • the eyeball projection display device described in Patent Document 2 includes a projection optical unit and an eyepiece optical unit, the projection optical unit and the eyepiece optical unit are configured to be separated from each other, and Only the eyepiece optical means is disposed in the vicinity of the user's eyeball.
  • Patent Document 2 does not describe a specific configuration for enabling binocular vision. It is conceivable to provide two systems of projection optical means for the display device for each of the right eye and the left eye, but in this case, the size and cost of the display device increase.
  • the image display light adjusted as described above is projected toward the optical element for image display light diffraction from one projection optical system capable of projecting the image display light to the area covering both eyes. Then, the image display light reaches both eyes. Therefore, it is possible to project video display light that enables binocular vision from one projection optical system.
  • FIG. 1 is an example of a block diagram of a video projection device constituting a video projection system according to the present technology.
  • FIG. 2 is a diagram illustrating an example of a state in which the user uses the video projection system according to the present technology.
  • the video projection device 110 includes a position information acquisition unit 111, a projection optical system 112, and a control unit 113.
  • the control unit 113 includes a video display light adjustment unit 114.
  • an image display light diffraction optical element 150 is disposed in front of both eyes of a user who uses the image projection system 100.
  • the image display light diffraction optical element 150 is disposed in front of both eyes of the user by the instrument 151.
  • the instrument 151 is, for example, glasses worn on the user's head. Below, each component is demonstrated.
  • the position information acquisition unit 111 acquires three-dimensional position information of the image display light diffraction optical element 150 provided in front of both eyes.
  • the three-dimensional position information may be, for example, the three-dimensional position information of the image display light diffraction optical element 150 with respect to the image projection apparatus 110, and preferably the third order of the image display light diffraction optical element 150 with respect to the projection optical system 112. It may be original location information. More preferably, the three-dimensional position information may be position information of the image display light diffraction optical element 150 provided in front of the left and right eyes with respect to the image projection apparatus 110 (particularly, the projection optical system 112). .
  • the three-dimensional position information may be position information regarding the image display light diffraction optical element in front of the left eye and the image display light diffraction optical element in front of the right eye.
  • the three-dimensional position information may include, for example, any one or more of the following information: The distance from the image projection device 110 (particularly the projection optical system 112) to the image display light diffraction optical element 150, in particular, the distance to each image display light diffraction optical element 150 in front of the left and right eyes; The direction of the image display light diffraction optical element 150 relative to the image projection device 110 (particularly the projection optical system 112), in particular, the direction of each image display light diffraction optical element 150 in front of the left and right eyes; The direction of the surface of the image display light diffraction optical element 150 relative to the image projection device 110 (particularly the projection optical system 112), the direction of the surface of each image display light diffraction optical element 150 in front of the left and right eyes); For example, the position of the image display light diffraction optical element 150 in front of the right eye or the position of the image display light diffraction optical element in front of the left eye with respect to the image display light diffraction optical element in front of the right
  • the position information acquisition unit 111 can preferably acquire the three-dimensional position information of both eyes, more preferably the three-dimensional position information of the pupils of both eyes.
  • the image display light adjusting unit 114 performs the three-dimensional measurement of both eyes with respect to the image display light diffraction optical element.
  • the image display light can be adjusted based on the position information. Thereby, the video display light can be adjusted to a more suitable one for the user.
  • the three-dimensional position information of both eyes (particularly the pupils of both eyes) can be for the optical element 150 for image display light diffraction, for example.
  • the three-dimensional position information of both eyes includes position information of the left eye with respect to the image display light diffraction optical element in front of the left eye and position information of the right eye with respect to the image display light diffraction optical element in front of the right eye. sell.
  • the three-dimensional position information of both eyes can include information on the positional relationship between the left and right eyes.
  • the positional relationship information of the left and right eyes may include, for example, a distance between the left and right eyes (particularly, a distance between the pupils of the left and right eyes) and / or position information of the left and right eyes with respect to each other.
  • the three-dimensional position information of both eyes may include information on the size of the pupils of the left and right eyes. Such information may include, for example, the diameter or radius of the pupil and / or the area of the pupil.
  • the position information acquisition unit 111 may include an optical detection device 115 such as an image sensor.
  • an optical detection device 115 such as an image sensor.
  • a CMOS or a CCD may be used as the image sensor.
  • the image of the image display light diffraction optical element 150 provided in front of both eyes can be acquired by the optical detection device 115. That is, in the present technology, the position information acquisition unit includes an image sensor, and based on information obtained by the image sensor, in particular, image information, the position information acquisition unit 111 performs the three-dimensional operation of the optical element 150 for image display light diffraction. Location information can be acquired. The acquisition of the three-dimensional position information can be performed by the image processing unit 116 included in the position information acquisition unit 111.
  • the images usually include images of both eyes.
  • the position information acquisition unit 111 (particularly the image processing unit 116) can acquire the three-dimensional position information of both eyes from the image.
  • the image processing unit 116 is described as a configuration different from the control unit 113, but the image processing unit 116 may be included in the control unit 113.
  • the image processing unit 116 can acquire the three-dimensional position information of the image display light diffraction optical element 150 by a technology using a mark.
  • a mark for the image processing unit 116 to acquire three-dimensional position information may be provided on a part or the periphery of the image display light diffraction optical element 150.
  • the image processing unit 116 can recognize the mark in the image and acquire three-dimensional position information of the optical element for image display light diffraction 150.
  • the image processing unit 116 can acquire the three-dimensional position information of both eyes by a pupil recognition technology.
  • a pupil recognition technique a technique known in the art may be used.
  • the image processing unit 116 also measures and / or learns the image display light diffraction optical element and / or both eyes three-dimensionally, thereby obtaining the three-dimensional position information of the image display light diffraction optical element and / or both eyes. May be obtained.
  • the position information acquisition unit 111 can acquire the image display light diffraction optical element and / or the three-dimensional position information of both eyes in real time. By using the three-dimensional position information acquired in real time, more accurate projection of video display light is possible.
  • the video projection device 110 includes a single projection optical system 112, and the projection optical system 112 is configured to be able to project video display light onto an area covering both eyes.
  • the fact that there is one projection optical system may mean that image display light that should reach each of the right eye and the left eye is projected from the same projection optical system.
  • the fact that there is one projection optical system may mean that there is one projection port used for projecting video display light that should reach each of the eyes.
  • the fact that there is one projection optical system may mean that the light sources for projecting the image display light that should reach each of the eyes are the same. Since the video projection device constituting the video projection system of the present technology includes only one projection optical system, the size and / or cost of the video projection device can be reduced.
  • the video display light projected from the projection optical system 112 may be light emitted from an LED or CRT.
  • the video display light can be laser light, for example.
  • the projection optical system 112 may preferably include an optical zoom adjustment unit. Thereby, the focus of the projected image can be adjusted.
  • the image projectable region of one projection optical system is more preferably within the region even if the three-dimensional position of the optical element for image display light diffraction changes due to, for example, face or hand shake.
  • the optical element can be set to exist.
  • the image display light adjustment unit adjusts the image display light, so that the image is displayed at the changed position. Display light can be projected.
  • the projection optical system 112 is configured to project the image display light adjusted by the image display light adjusting unit 114 toward the image display light diffraction optical element 150.
  • the type of the projection optical system employed in the present technology may be appropriately selected by those skilled in the art according to, for example, a product concept.
  • the projection optical system 112 may be configured to project image display light to both eyes by means of an enlargement optical system.
  • the magnifying optical system is an optical system employed in, for example, a microscope and a telescope.
  • the projection optical system 112 may be configured so that the image display light is condensed near the pupil and irradiated on the retina to perform Maxwell's view. Each of the magnifying optical system and the Maxwell viewing optical system will be described below with reference to FIGS.
  • a projection optical system for projecting image display light by the magnifying optical system can include a light source unit such as an LED and an image display unit such as a liquid crystal.
  • the video display light projected from the video projection device 41 reaches the pupil 43 through the hologram lens 42 as an optical element for video display light diffraction.
  • the image display light is collected near the pupil and irradiated on the retina.
  • one dot (minimum display unit) in the display image passes through one point on the crystalline lens, so that the one-dot image on the retina is not easily affected by the state of the crystalline lens. For example, even a user who has nearsightedness, farsightedness, or astigmatism can clearly recognize the video.
  • a virtual image that appears in space is focus-free and is in focus regardless of the distance from the eye.
  • the image display light may be collected near the pupil, for example, may be collected on the pupil, or about several mm to several tens of mm (for example, 1 mm to 20 mm from the pupil in the optical axis direction). In particular, it may be shifted by 2 to 15 mm. As in the latter case, Maxwellian vision can be realized even when the focal point is not on the pupil. By shifting the focal point in the optical axis direction, it is possible to make it difficult for the user to lose the video even if the video is shifted.
  • the projection optical system that projects the image display light by the Maxwell optical system can include, for example, a light source unit that outputs laser light and an optical scanning unit that scans the output laser light two-dimensionally.
  • the laser beam can be output as a single light beam composed of, for example, red, green, and blue laser beams.
  • the optical scanning unit can include, for example, a MEMS mirror. The optical scanning unit can move the direction of the laser light at high speed so that an image is formed on the retina.
  • the image display light adjustment unit 114 adjusts the image display light based on the three-dimensional position information obtained by the position information acquisition unit 111. By this adjustment, the video display light projected on each of the eyes becomes suitable for presenting a desired video to the user.
  • the image display light adjusting unit 114 can adjust any one or more of the wavelength, intensity, and direction of the image display light.
  • the video display light adjusting unit 114 can adjust the video display light so that, for example, the video is shifted or rotated, or the size or distortion of the video is adjusted.
  • the video display light adjustment unit 114 can adjust the video display light based on binocular parallax.
  • the video display light adjusting unit 114 can adjust the video display light so that different video display lights are projected to the eyes.
  • the video display light adjusting unit 114 adjusts the video display light based on the parallax of both eyes, and thereby different video display lights are projected on both eyes.
  • the user recognizes the three-dimensional position of the presented video, for example, by binocular vision. For example, an image appears to appear in an outside scene that the user is looking through glasses.
  • the image display light diffraction optical element 150 is separated from the image projection device 110 and disposed in front of both eyes.
  • the image display light diffraction optical element 150 is used for diffracting the image display light projected from the image projection device 110 to reach both eyes.
  • the video projector 110 may be positioned below the user's line-of-sight direction as shown in FIG. 2, or the video projector 110 is positioned above the user's line-of-sight direction. May be.
  • the traveling direction of the image display light projected from the image projection device 110 is changed by the image display light diffraction optical element 150 and guided to both eyes of the user.
  • the user can recognize the video by the video display light from the video projection device 110 in a state where the video projection device 110 is not present in the user's line-of-sight direction.
  • the video projection device 110 may be located near the same height as the user's line-of-sight direction. In this case, for example, by adjusting the brightness of the image and / or limiting the position where the image is displayed to a part of the field of view (for example, the upper half, the lower half, the left half, or the right half). It is possible to prevent the user from worrying about the overlap between the projection device and the outside scene.
  • the image display light diffraction optical element 150 bends the image display light in FIG. 2, but in the present technology, the image display light reaches the eyes without being bent by the image display light diffraction optical element 150. May be.
  • the image display light diffraction optical element 150 may have an optical characteristic that acts as a lens for light in the wavelength range of the image display light and transmits light having a wavelength outside the wavelength range. Based on the optical characteristics, the user can recognize, for example, the scenery in the direction of the line of sight through the image display light diffraction optical element 150 and can recognize the image by the image display light.
  • the image display light diffraction optical element 150 having the optical characteristics include a hologram lens, preferably a film-shaped hologram lens, and more preferably a transparent film-shaped hologram lens. Desired optical properties can be imparted to the hologram lens by techniques known in the art. As the hologram lens, a commercially available hologram lens may be used, or the hologram lens may be manufactured by a technique known in the art.
  • the optical element 150 for image display light diffraction may be provided in an instrument 151 for holding the optical element 150 in front of both eyes. That is, the optical element 150 can be held in front of both eyes by the instrument 151.
  • the appliance can be, for example, glasses, goggles, or a helmet.
  • a hologram lens 53 can be laminated as an image display light diffraction optical element on one surface of the lens 52 of the glasses 51 (a surface on the outside scene side or a surface on the eyeball side).
  • the instrument 151 is used for the purpose of the instrument itself (for example, as spectacles) when image projection is not performed. be able to.
  • the image projection system according to the present technology can be used by affixing the image display light diffraction optical element 150 to an instrument appropriately selected by a user or a person skilled in the art. Therefore, the range of selection of instruments that can be employed in the present technology is very wide.
  • the instrument 151 does not include a projection optical system. More preferably, the instrument 151 does not include elements necessary for projecting image display light (for example, the projection optical system, a power source, and a device driven by power). By configuring the instrument 151 in this way, the instrument 151 can be reduced in size and / or weight.
  • a mark for allowing the image processing unit 116 to acquire three-dimensional position information may be provided on a part of or around the image display light diffraction optical element 150.
  • the number of marks may be, for example, one, two, three, or four, or more.
  • the position of the mark can be selected so as not to be noticeable. Thereby, the design property of a head mounting part can be improved.
  • An example of the shape of the optical element for image display light diffraction and an example of the arrangement of marks are shown in FIG.
  • a hologram film lens 602 is attached to a part of the lens surface of the glasses 601.
  • the marks 603 are provided around the hologram film lens 602. As the marks 603 are recognized by the image processing unit 116, three-dimensional position information of the hologram film lens 602 that is an optical element for image display light diffraction is acquired.
  • the mark 603 may be formed by, for example, a hologram, a reflection film, or an infrared light reflection film, or may be a predetermined pattern.
  • the position information acquisition unit can include an infrared light projection device and an infrared light detection device.
  • a hologram film lens 612 may be attached to a part of the lens surface of the glasses 611. In FIG.
  • a mark 613 is provided in each of the squares in the hologram film lens 612.
  • a hologram lens 622 may be attached to the entire lens surface of the glasses 621. In this case, four marks 623 are provided in the hologram lens 622.
  • the three-dimensional position information of the image display light diffraction optical element and / or both eyes is measured and / or three-dimensionally measured by the image display light diffraction optical element and / or both eyes. It may be acquired by learning. In this case, the mark is not necessary. Therefore, for example, as shown in FIG. 7, glasses 701 simply attached with a hologram lens 702 as an optical element for image display light diffraction can constitute the system of the present technology.
  • the video projection device 110 may be a mobile device such as a smartphone, a mobile phone, and a watch type terminal.
  • a portable device such as a video projection device in the video projection system of the present technology
  • video projection according to the present technology can be performed by a small or ultra-small mobile device.
  • FIG. 8 shows an example of a state in which a user uses a video projection system according to the present technology including a video projection device that is a smartphone. Glasses 850 are attached to the user's head, and an optical element 851 for image display light diffraction is attached to the lens of the glasses 850.
  • the user carries the smart phone 810 in a hand, for example.
  • the smartphone 810 is provided with an image sensor (camera) 811.
  • the image sensor 811 acquires the three-dimensional position information of the image display light diffraction optical element 851 positioned in front of both eyes of the user and, if necessary, the three-dimensional position information of both eyes. Based on the three-dimensional position information, the position information acquisition unit in the smartphone 810 adjusts the video display light. The adjusted image display light is projected from the projection port 812 of the smartphone 810 toward the image display light diffraction optical element 851. The image display light is diffracted by the image display light diffraction optical element 851 and reaches both eyes of the user. Thereby, the user recognizes the video superimposed on the outside scene.
  • the image display light diffraction optical element 851 can function as a lens with respect to light in the wavelength range of the image display light, and can have optical characteristics of transmitting light having a wavelength outside the wavelength range. Thereby, the image
  • the video display light adjustment unit projects video display light on the right eye and left eyeballs (or pupils) in the video projectable region, and does not project video display light around it. Adjust the video display light as follows. Thereby, video display light is projected only to the area
  • the projection method of the image display light in this embodiment will be described below with reference to FIGS.
  • 9 and 10 are schematic views showing an example of a state in which video display light is projected according to the present embodiment.
  • the image display light is projected to the user by the Maxwell vision optical system.
  • Fig.9 (a) is a schematic diagram at the time of seeing the state in which the video display light is projected on the user from the video projection device from the user's head.
  • the horizontal width of the image projectable area of the projection optical system of the image projection apparatus 210 is indicated by W1.
  • the width of the video display light necessary for presenting the video to the right eye is W2
  • the width of the video display light necessary for presenting the video to the left eye is W3. Therefore, video display light is projected onto the areas W2 and W3 of the width W1 of the video projectable area, and no video display light is projected onto the surrounding area.
  • FIG. 9B is a schematic diagram when the state in which the video display light is projected from the video projection device to the user is viewed from the lateral direction of the user.
  • the vertical width (height) of the image projectable area of the projection optical system of the image projection apparatus 210 is indicated by H1.
  • the width of the image display light necessary for presenting the image to the left eye is H3. Therefore, the video display light is projected onto the area H3 in the width H1 of the video projectable area, and the video display light is not projected around the area.
  • the image display light is projected only to a necessary area in H1.
  • the projected image display light is diffracted by the image display light diffraction optical element 251, condensed on the pupil, and reaches the retina. Thereby, the video is presented to the user by Maxwell's view. In FIG. 9, the bending of the optical path by the image display light diffraction optical element 251 is omitted.
  • FIG. 10 shows a schematic diagram when the video display light is projected from the video projection device to the user when viewed from the user's head, and a schematic diagram of the video projectable area when viewed from the front of the user's face. Show. As shown in FIG. 10, when viewed from above, the video display light is projected onto the areas W2 and W3 of the width W1 of the video projectable area, and the video display light is not projected around the area. Furthermore, when viewed from the front of the user's face, the image display light is projected to the areas A2 and A3 in the glasses of the image projectable area A1 covering both eyes, and the image display light is projected to the other areas. Not.
  • the image display light diffraction optical element By providing the image display light diffraction optical element in the areas A2 and A3, the image display light is projected to each of both eyes of the user. Further, as shown in FIG. 10, the image display light diffraction optical element and the positions of both eyes can be acquired by the optical detection device 10 such as an image sensor.
  • the video display light is projected only on the areas necessary for presenting the video to the right eye and the left eye among the video projectable areas.
  • FIG. 21 is a diagram illustrating an example of a scanning method of video display light. It is assumed that video display light is projected onto the areas A2 and A3 in the video projectable area A1 shown in FIG. 21, and no video display light is projected onto the other areas. Scan lines by the projection optical system in the image projection possible area A1 are L 1 to R 1 , R 2 to L 2 ,... And L n to R n . In the above case, image display light is not projected on the scanning lines L 1 to R 1 , R 2 to L 2 ,... R i-1 to L i ⁇ 1 .
  • the video display light is projected on the portion overlapping A2 and A3, and the video display light is not projected on the other portions of the scanning lines L i to R i .
  • L i + 5 in the scanning lines from the scanning line of ⁇ R i + 5 L n ⁇ R n the image display light is not projected.
  • the video display light is projected in the areas A2 and A3 in the video projectable area A1, and the video display light is not projected in the other areas. In this way, video display light can be projected only on a specific area.
  • the video display light can be controlled by the video display light adjusting unit in order to project the video display light only to a specific area.
  • the interval between scanning lines is extremely wide for better understanding. Needless to say, scanning lines are set at narrower intervals in an actual video projection apparatus.
  • the video display light can be adjusted so that the video display light is projected to the areas A2 and A3 in the video projectable area A1, and the video display light is not projected to the other areas. it can.
  • the regions A2 and A3 are illustrated as rectangles for ease of understanding, but it goes without saying that these may be set in any shape (for example, the shape of a spectacle lens). .
  • the area around the area where the video display light is projected can be said to be a margin area. Even if the three-dimensional position of the optical element for image display light diffraction changes due to the movement of the user or the movement of the glasses, the image display light can be projected to the changed position by the margin area.
  • the margin area eliminates the need for providing the video projection apparatus with components for controlling the deflection of the video display light, thereby simplifying the configuration of the video projection apparatus. This can also reduce the size, weight, or cost of the image projection apparatus.
  • the three-dimensional position information of the image display light diffraction optical element after the change is acquired by the position information acquisition unit. Then, based on the three-dimensional position information, the video display light adjusting unit adjusts the video display light. Therefore, even if the three-dimensional position of the optical element for image display light diffraction changes due to the movement of the user or glasses, if the optical element exists in the image projectable area, the image display light adjustment unit emits the image display light. By adjusting, image display light can be projected toward the optical element. For example, as shown in FIG. 11A, it is based on the fact that the image display light diffraction optical element is located in the center of the image projectable region.
  • the image display light diffraction optical element is displaced in the vertical direction as shown in FIG. 11B, for example, in the horizontal direction as shown in FIG. ) Or a vertical and horizontal tilt and rotational deviation as shown in FIG. 11E. Even if such a three-dimensional position change occurs, the position information acquisition unit acquires the three-dimensional position of the optical element for image display light diffraction and displays the image at the acquired three-dimensional position.
  • the video display light adjusting unit adjusts the video display light so that the display light is projected, so that appropriate video display light is projected to both eyes of the user.
  • the margin area extends in the up and down direction by, for example, 4 to 7 cm, preferably 5 to 6 cm from the upper end when the image display light diffraction optical element is at the reference position of the image projectable area, and the lower end.
  • it may be a region extending from 4 to 7 cm, preferably from 5 to 6 cm, downward.
  • the margin region extends from the left end to the left when the image display light diffraction optical element is at the center of the image projectable region, for example, 4 to 7 cm, preferably 5 to 6 cm, and the right end.
  • it may be a region extending from 4 to 7 cm, preferably 5 to 6 cm, in the right direction.
  • the margin area corresponds to a change in the three-dimensional position of the optical element for image display light diffraction due to blurring of the human face.
  • a video projection device for example, a mobile device such as a smartphone
  • the video projection device may tilt by 7 to 8 degrees during use, and / or The hand holding the video projection device may be blurred.
  • the margin region can cope with a change in the relative three-dimensional position of the optical element for image display light diffraction due to the tilt of the apparatus or camera shake.
  • the video display light is projected onto each of both eyes by adjusting the area in the video projectable area where the video display light is projected. Therefore, the optical path of the image display light does not need to be deflected. Therefore, when the projection method is employed, the projection optical system may not include a deflection control unit that deflects the optical path.
  • the projection optical system is configured such that a region where video display light can be projected (video projectable region) is divided into two, and the two regions are respectively left and right. Cover your eyes.
  • video projectable region a region where video display light can be projected
  • the two regions are respectively left and right. Cover your eyes.
  • video projectable area increases. Therefore, it is easy to increase the resolution (resolution) of the video.
  • the ratio of the area where the video can be viewed to the video projectable area can be selected in consideration of the required margin area and the required resolution. Whether to divide the video projectable area may be selected according to the selected ratio.
  • a wedge plate, a dog-shaped mirror, or a diffraction element may be provided in front of the projection lens of the image projection apparatus.
  • the diffractive element may preferably be a volume hologram.
  • the volume hologram can be transmissive or reflective.
  • an optical system component for dividing the image projectable region into two may be appropriately selected by those skilled in the art. Therefore, there is a high degree of freedom in designing a video projection device according to the present technology.
  • a configuration for dividing the video projectable area into two will be described with reference to FIGS.
  • a transmissive wedge plate 302 is provided in front of the projection lens 301.
  • the image projectable area is divided into two areas (an area covering the right eye and an area covering the left eye).
  • a dog-shaped mirror 312 is provided in front of the projection lens 311. Accordingly, the video projectable area may be divided into two areas. In this case, the image display light that has passed through the projection lens 311 is reflected by the dog-shaped mirror 312 so that the division is performed.
  • a transmission type volume hologram element 322 is provided in front of the projection lens 321.
  • the video projectable area can be divided into two areas.
  • a reflective volume hologram element 332 is provided in front of the projection lens 331 in the projection optical system shown in FIG. Accordingly, the video projectable area may be divided into two areas. In this case, the image display light that has passed through the projection lens 331 is reflected by the reflective volume hologram element 332, so that the division is performed.
  • FIG. 16 shows a video projectable region when viewed from the front of the user and a region where video display light is projected in the video projectable region.
  • the image display light diffractive element is located at the center of the image projectable region that covers each of the right eye and the left eye.
  • the image display light diffractive element has a vertical displacement as shown in FIG. 16B, a horizontal displacement as shown in FIG. 16C, and a horizontal displacement as shown in FIG.
  • the position information acquisition unit can accurately acquire the three-dimensional position of the optical element for image display light diffraction, and after the acquired change
  • the video display light adjusting unit adjusts the video display light so that an appropriate video display light is projected to the three-dimensional position.
  • the video in the video projectable area is narrowed by making the video projectable area narrower than in the case where the video projectable area is not divided as described in the second example.
  • the ratio of the area where the display light is projected can be increased. For this reason, in this embodiment, the resolution can be further increased as compared with the case where the video projectable area is not divided.
  • the video display light is projected onto each of both eyes by adjusting the area in the video projectable area where the video display light is projected. Therefore, the optical path of the image display light does not need to be deflected. Therefore, when the projection method is employed, the projection optical system may not include a deflection control unit that deflects the optical path.
  • the projection optical system is configured such that a region where video display light can be projected (video projectable region) is divided into two, and the two regions are respectively left and right. And a deflection control unit that controls the deflection of the image display light.
  • video display light is projected only to the area
  • the image display light can be deflected by the deflection control unit so as to be projected into the two image projectable areas where the image display light is divided. Therefore, in the present embodiment, the video projectable area can be made narrower than in the case described in the third example. Thereby, the ratio of the area
  • the deflection control unit can include a movable mirror such as a galvanometer mirror.
  • the movable mirror may be configured to deflect the image display light in the X-axis direction and the Y-axis direction, for example.
  • two galvanometer mirrors can perform deflection in the X-axis direction and deflection in the Y-axis direction, respectively.
  • the image display light can be adjusted so as to be projected to an appropriate position of each eye (for example, in the pupil).
  • a wedge plate, a dog-shaped mirror, or a diffraction element may be provided in front of the projection lens of the image projection apparatus.
  • the diffractive element may preferably be a volume hologram.
  • the volume hologram can be transmissive or reflective.
  • a transmissive wedge plate 402 is provided in front of the projection lens 401.
  • a deflection control unit 403 is further provided in front of the wedge plate.
  • the wedge plate 402 divides the image projectable area into two areas (an area covering the right eye and an area covering the left eye). Further, the deflection control unit 403 deflects the image display light.
  • FIG. 18 shows a video projectable region when viewed from the front of the user and a region where video display light is projected in the video projectable region.
  • FIG. 18A it is based on the fact that the image display light diffraction element is located at the center of the image projectable area covering each of the right eye and the left eye.
  • the image display light diffraction element is displaced in the vertical direction as shown in FIG. 18B, the horizontal displacement as shown in FIG. 18C, and as shown in FIG. 18D.
  • the position information acquisition unit can accurately acquire the three-dimensional position of the optical element for image display light diffraction, and after the acquired change
  • the video display light adjusting unit adjusts the video display light so that an appropriate video display light is projected to the three-dimensional position.
  • the three-dimensional position of the image display light diffraction element is changed outside the image projectable region.
  • the video display light is deflected by the deflection control unit so that the video display light is projected to the three-dimensional position after the change.
  • FIG. 19 is a diagram illustrating an example of a schematic configuration of a video projection device according to the present technology.
  • the 19 includes a CPU (central processing unit) 1002 and a RAM 1003.
  • the CPU 1002 and the RAM 1003 are connected to each other via a bus 1005 and are also connected to other components of the video projection apparatus 1000 via the bus 1005.
  • the CPU 1002 performs control and calculation of the video projection apparatus 1000.
  • An arbitrary processor can be used as the CPU 1002, and examples thereof include a Xeon (registered trademark) series, a Core (trademark) series, and an Atom (trademark) series processor.
  • the functions of the control unit 113, the video display light adjustment unit 114, and the image processing unit 116 of the video projection device 110 described with reference to FIG. 1 can be realized by the CPU 1002, for example.
  • the RAM 1003 includes, for example, a cache memory and a main memory, and can temporarily store programs used by the CPU 1002.
  • the video projection apparatus 1000 may include a disk 1004, a communication apparatus 1006, a projection optical system 1007, and a drive 1008. Any of these components can be connected to the bus 1005.
  • the disc 1004 has an operating system (for example, WINDOWS (registered trademark), UNIX (registered trademark), LINUX (registered trademark), etc.), a program for realizing a video projection method according to the present technology, and position information acquisition processing.
  • a program for performing, a program for adjusting video display light, various other programs, and various data (for example, video data) can be stored.
  • the communication device 1006 connects the video projection device 1000 to the network 1010 in a wired or wireless manner.
  • the communication device 1006 can acquire various data (for example, video data) from the video projection device 1000 via the network 1010.
  • the acquired data can be stored in the disk 1004, for example.
  • the type of the communication device 1006 may be appropriately selected by those skilled in the art.
  • the disk 1004 may be a semiconductor recording medium such as a flash memory, for example, and is not particularly limited.
  • the projection optical system 1007 can project the image display light controlled according to the present technology toward the image display light diffraction element.
  • the drive 1008 can read information recorded on the recording medium and output the information to the RAM 1003.
  • the recording medium is, for example, a microSD memory card, an SD memory card, or a flash memory, but is not limited thereto.
  • the present technology also provides a video projection device constituting a video projection system according to the present technology.
  • the video projection device according to the present technology is the video projection device described in “1.
  • First embodiment (video projection system) and all of the contents described regarding the video projection device are This also applies to the video projection apparatus in the present embodiment. Therefore, the description regarding the apparatus is omitted.
  • the present technology also provides an optical element for image display light diffraction constituting the image projection system according to the present technology.
  • the image display light diffraction optical element is used for diffracting the image display light projected from the image projection device according to the present technology to reach both eyes, and is separated from the image projection device and is used for both eyes. It is arranged before.
  • the image display light diffraction optical element is the image display light diffraction optical element described in “1.
  • First embodiment (image projection system) and the contents described regarding the image display light diffraction optical element. All of these also apply to the optical element for image display light diffraction in the present embodiment. Therefore, the description regarding the optical element is omitted.
  • the present technology also provides an instrument (for example, glasses, goggles, or a helmet) including an optical element for image display light diffraction that constitutes an image projection system according to the present technology.
  • the instrument is separated from the video projection apparatus and is for holding the optical element in front of both eyes.
  • the instrument and the optical element for image display light diffraction included in the instrument are the instrument and the optical element for image display light diffraction described in “1.
  • First embodiment (image projection system)” All the contents described regarding the optical element for image display light diffraction also apply to the instrument and the optical element for image display light diffraction in this embodiment. Therefore, the description regarding the said instrument and the said optical element is abbreviate
  • the present technology is based on the three-dimensional position information obtained in the position information acquisition step, the position information acquisition step of acquiring three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, An image display light adjustment step for adjusting the image display light to be projected, and an image display light adjusted in the image display light adjustment step from one projection optical system within the region covering both eyes.
  • a projection process for projecting toward the optical element, and the image display light diffraction optical element is separated from the image projection device and disposed in front of the eyes. To do.
  • the effects described in “1. First embodiment (video projection system)” are achieved.
  • FIG. 20 is a diagram illustrating an example of a flow of a video projection method according to the present technology.
  • step S101 the video projection device 110 starts video projection processing according to the present technology.
  • the position information acquisition unit 111 acquires the three-dimensional position information of the optical element for image display light diffraction 150.
  • the control unit 113 drives the optical detection device 115 to acquire an image of the optical element for image display light diffraction 150 provided in front of both eyes, and the image
  • the image processing unit 116 may include an information processing step of acquiring the three-dimensional position information of the optical element 150 for image display light diffraction.
  • the three-dimensional position information of both eyes may be acquired.
  • the video display light adjustment unit 114 adjusts the video display light based on the three-dimensional position information acquired in step S102.
  • one projection optical system 112 projects the video display light adjusted in the video display light adjustment step toward the video display light diffraction optical element 150.
  • the projected image display light is diffracted by the image display light diffraction optical element 150 and reaches both eyes of the user, and the user recognizes the image.
  • step S102, step S103, and step S104 may be continuously repeated after step S104. Thereby, video projection according to the present technology can be performed in real time. Or step S102, step S103, and step S104 may be repeated when the three-dimensional position of the optical element 150 for image display light diffraction and / or both eyes changes. Thereby, the electric energy which a video projection device uses can be suppressed, for example.
  • step S105 the video projection device 110 ends the video projection processing according to the present technology.
  • the above processing can be performed by, for example, a video projection device according to the present technology.
  • a video projection device for more detailed operation of each component of the video projection apparatus in each of the above steps, see “1. First embodiment (video projection system)”.
  • a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes; Based on the three-dimensional position information obtained by the position information acquisition unit, a video display light adjusting unit that adjusts the projected video display light, and a video display light can be projected onto a region that covers both eyes; and
  • a video projection apparatus comprising one projection optical system for projecting the video display light adjusted by the video display light adjusting unit toward the optical element for image display light diffraction;
  • An image projection system comprising: an image display light diffracting optical element that is separated from the image projection device and disposed in front of the eyes.
  • the optical element for image display light diffraction has an optical characteristic that functions as a lens for light in the wavelength range of the image display light and transmits light having a wavelength outside the wavelength range.
  • the projection optical system is configured such that a region where image display light can be projected is divided into two, and the two regions cover the left and right eyes, respectively.
  • the video projection system as described in any one of. [6] The video projection system according to [5], wherein the projection optical system includes a wedge plate, a dog-shaped mirror, or a diffraction element as the optical element for the division. [7] The projection optical system is configured such that a region where the image display light can be projected is divided into two, each of the two regions covers the left and right eyes, and The projection optical system includes a deflection control unit that deflects the projected image display light. [1] The video projection system according to any one of [4]. [8] The image projection system according to any one of [1] to [7], wherein the optical element for image display light diffraction is provided in an instrument for holding the optical element in front of both eyes.
  • the position information acquisition unit includes an image sensor, and the position information acquisition unit acquires the three-dimensional position information based on information obtained by the image sensor. Any one of [1] to [9] A video projection system according to any one of the above.
  • the video display light adjusting unit adjusts the video display light based on the parallax between the eyes.
  • a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, Based on the three-dimensional position information obtained by the position information acquisition unit, a video display light adjusting unit that adjusts the projected video display light, and a video display light can be projected onto a region that covers both eyes; and
  • An image projection apparatus comprising: one projection optical system that projects the image display light adjusted by the image display light adjusting unit toward the image display light diffraction optical element.
  • a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, and a projection based on the three-dimensional position information obtained by the position information acquisition unit
  • An image display light adjusting unit that adjusts the image display light to be displayed, and image display light that can be projected onto an area that covers both eyes and is adjusted by the image display light adjusting unit. Used to diffract the image display light projected from the image projection apparatus provided with one projection optical system for projecting toward the optical element for reaching both eyes, An optical element for image display light diffraction, which is separated from the image projection device and disposed in front of both eyes.
  • a position information acquisition unit that acquires three-dimensional position information of the optical element for image display light diffraction provided in front of both eyes, and a projection based on the three-dimensional position information obtained by the position information acquisition unit
  • An image display light adjusting unit that adjusts the image display light to be displayed, and image display light that can be projected onto an area that covers both eyes and is adjusted by the image display light adjusting unit.
  • An image display light diffraction optical element used for diffracting the image display light projected from the image projection apparatus provided with one projection optical system that projects toward the optical element for use to reach both eyes, An instrument that is separated from the video projection device and holds the optical element in front of both eyes.
  • Video projection method

Abstract

頭部装着部が小型化及び/又は軽量化された、両眼視を可能とする映像投射システムを提供することを目的とする。 本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置と、前記映像投射装置と分離されており且つ前記両目の前に配置される映像表示光回折用光学素子とから構成されている映像投射システムを提供する。

Description

映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法
 本技術は、映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法に関する。より詳細には、本技術は、両目の前に配置される映像表示光回折用光学素子と当該映像表示光回折用光学素子から分離されており且つ当該映像表示光回折用光学素子に向けて映像表示光を投射する映像投射装置とから構成される映像投射システム、当該映像投射システムを構成する各要素、及び当該映像投射システムにおける映像投射方法に関する。
 近年、例えば現実の風景などの外界の光景に映像を重ねて表示する技術に注目が集まっている。当該技術は、拡張現実(AR)技術とも呼ばれる。この技術を利用した製品の一つとして、ヘッドマウントディスプレイが挙げられる。ヘッドマウントディスプレイは、ユーザの頭部に装着して使用される。ヘッドマウントディスプレイを用いた映像表示方法では、例えば外界からの光に加えてヘッドマウントディスプレイからの光がユーザの眼に到達することで、外界の像に当該ディスプレイからの光による映像が重畳されているようにユーザは認識する。
 ヘッドマウントディスプレイの一つにメガネ型ディスプレイがあり、種々のメガネ型ディスプレイが提案されている。
 映像投射装置が内蔵されているメガネ型ディスプレイがこれまでに多く提案されてきた。当該メガネ型ディスプレイは、メガネに内蔵された映像投射装置から投射された光がメガネ内の光学系を通じて目に導かれるという構成を有する。例えば、下記特許文献1には、そのようなメガネ型ディスプレイが開示されている。具体的には、下記特許文献1は、観察者の頭部に装着された頭部装着状態で観察者に画像を表示するヘッドマウントディスプレイが記載されており、当該ヘッドマウントディスプレイは、前記画像を表示するための画像信号に応じた画像光を観察者の両眼のうちの一方である観察眼に投射することにより、観察者に前記画像を表示する単眼式の表示ユニットを含む。
 また、映像投射装置が例えばメガネなどの頭部装着部から分離されているメガネ型ディスプレイも提案されている。例えば、下記特許文献2に記載の眼球投影型表示装置は、画像生成手段から発せられる光束を出射する投影光学手段と、当該投影光学手段からの光束を集光して射出瞳を形成し、当該射出瞳近傍に配された使用者眼球内の網膜上に像を形成させる接眼光学手段とを有している。当該投影光学手段と当該接眼光学手段とは離間して構成されており、且つ、当該接眼光学手段のみが使用者眼球近傍に配設されている。
特開2013-44833号公報 特開2006-98820号公報
 ヘッドマウントディスプレイの構成要素のうち、頭部装着部は、ユーザの負担を軽減するために、小型であり且つ/又は軽量であることが望ましい。頭部装着部の小型化及び/又は軽量化は、ヘッドマウントディスプレイの低コスト化又はデザイン性向上の観点からも重要である。
 また、ユーザが自然な映像、特には立体的な映像を認識するために、両眼視を可能とする映像表示光がユーザに投射されることが望ましい。しかしながら、両眼視を可能とする映像表示光をユーザに投射するためには、装置が複雑になってしまう場合がある。装置が複雑であればあるほど、装置の小型化及び/又は軽量化はより困難となる。
 本技術は、ヘッドマウントディスプレイの構成要素のうちの頭部装着部を小型化及び/又は軽量化することを目的とする。さらに、本技術は、両眼視を可能とする技術を提供することも目的とする。
 本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置と、
 前記映像投射装置と分離されており且つ前記両目の前に配置される映像表示光回折用光学素子と
 から構成されている映像投射システムを提供する。
 本技術の一つの実施態様に従い、前記映像表示光回折用光学素子が、前記映像表示光の波長範囲の光に対してはレンズとして働き、当該波長範囲外の波長の光は透過する光学特性を有しうる。
 本技術の一つの実施態様に従い、前記投射光学系は、拡大光学系により映像表示光を両目に照射するように構成されていてよい。
 本技術の他の実施態様に従い、前記投射光学系は、映像表示光が瞳孔付近に集光されそして網膜に照射されてマクスウェル視を行えるように構成されていてよい。
 本技術の一つの実施態様に従い、前記投射光学系が、映像表示光を投射可能な領域が2つに分割されるように構成されていてよく、当該2つの領域がそれぞれ左右の眼をカバーしうる。
 本技術の一つの実施態様に従い、前記投射光学系が、前記分割のための光学素子として、ウェッジプレート、くの字型ミラー、又は回折素子を含みうる。
 本技術の一つの実施態様に従い、前記投射光学系が、映像表示光を投射可能な領域が2つに分割されるように構成されていてよく、当該2つの領域がそれぞれ左右の眼をカバーし、且つ、前記投射光学系が、投射された映像表示光を偏向する偏向制御部を含みうる。
 本技術の一つの実施態様に従い、前記映像表示光回折用光学素子が、当該光学素子を両目の前で保持するための器具に備えられていてよい。
 本技術の一つの実施態様に従い、前記器具は投射光学系を含まない。
 本技術の一つの実施態様に従い、前記位置情報取得部はイメージセンサを含み、当該イメージセンサにより得られた情報に基づき、前記位置情報取得部は前記三次元的位置情報を取得しうる。
 本技術の一つの実施態様に従い、前記映像表示光調整部が、前記両目のそれぞれに異なる映像表示光が投射されるように映像表示光を調整するものであってよい。
 本技術の一つの実施態様に従い、前記映像表示光調整部が、前記両目の視差に基づき映像表示光を調整しうる。
 本技術の一つの実施態様に従い、前記両目のそれぞれに異なる映像表示光が投射されることによって、前記映像投射システムのユーザが、提示される映像の三次元的な位置を認識しうる。
 また、本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置も提供する。
 また、本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり且つ前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられる、前記映像投射装置から分離されており且つ両目の前に配置されるものである映像表示光回折用光学素子も提供する。
 また、本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり且つ前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられる映像表示光回折用光学素子を含む、前記映像投射装置から分離されており且つ当該光学素子を両目の前で保持するための器具も提供する。
 また、本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得工程、前記位置情報取得工程において得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整工程、及び両目をカバーする領域内で、1つの投射光学系から、前記映像表示光調整工程において調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する投射工程を含み、前記映像表示光回折用光学素子は、前記映像表示光を投射する映像投射装置と分離されており且つ前記両目の前に配置されるものである、映像投射方法も提供する。
 本技術により、頭部装着部が小型化及び/又は軽量化されており且つ両眼視を可能とするヘッドマウントディスプレイが提供される。そのため、ヘッドマウントディスプレイの頭部装着部がユーザに与える負担を軽減することができ、且つ、自然な映像をユーザに提示することができる。
 なお、本技術により奏される効果は、ここに記載された効果に必ずしも限定されるものではなく、本明細書中に記載されたいずれかの効果であってもよい。
本技術に従う映像投射システムを構成する映像投射装置のブロック図の一例である。 本技術に従う映像投射システムをユーザが利用している状態の一例を示す図である。 拡大光学系を示す図である。 マックスウェル視光学系を示す図である。 本技術に従う映像表示光回折用光学素子及び当該光学素子を両目の前で保持するための器具の一例を示す図である。 本技術に従う映像表示光回折用光学素子の形状の例及びマークの配置の例を示す図である。 本技術に従う映像表示光回折用光学素子の一例を示す図である。 本技術に従う映像投射システムをユーザが利用している状態の一例を示す図である。 本技術に従い映像表示光がユーザに投射されている状態の一例を示す模式図である。 本技術に従い映像表示光が投射されている状態の一例を示す模式図である。 映像投射可能領域内での映像表示光回折用光学素子の位置の変化を示す図である。 本技術に従い映像投射可能領域を2つに分割するための構成の一例を示す図である。 本技術に従い映像投射可能領域を2つに分割するための構成の一例を示す図である。 本技術に従い映像投射可能領域を2つに分割するための構成の一例を示す図である。 本技術に従い映像投射可能領域を2つに分割するための構成の一例を示す図である。 映像投射可能領域内での映像表示光回折用光学素子の位置の変化を示す図である。 本技術に従い映像投射可能領域を2つに分割するための構成の一例を示す図である。 映像投射可能領域内での映像表示光回折用光学素子の位置の変化を示す図である。 本技術に従う映像投射装置の構成例を示す図である。 本技術に従う映像投射方法のフローの一例を示す図である。 映像表示光の走査方式の例を示す図である。
 以下、本技術を実施するための好適な形態について説明する。なお、以下に説明する実施形態は、本技術の代表的な実施形態を示したものであり、本技術の範囲がこれらの実施形態に限定されることはない。なお、本技術の説明は以下の順序で行う。
1.第1の実施形態(映像投射システム)
(1)第1の実施形態の説明
(2)第1の実施形態の第1の例(映像投射システム)
(3)第1の実施形態の第2の例(映像表示光の投射方式の例)
(4)第1の実施形態の第3の例(映像表示光の投射方式の例)
(5)第1の実施形態の第4の例(映像表示光の投射方式の例)
(6)第1の実施形態の第5の例(映像投射装置の構成例)
2.第2の実施形態(映像投射装置)
3.第3の実施形態(映像表示光回折用光学素子)
4.第4の実施形態(映像表示光回折用光学素子を含む器具)
5.第5の実施形態(映像投射方法)
(1)第5の実施形態の説明
(2)第5の実施形態の例(映像投射方法)
1.第1の実施形態(映像投射システム)
(1)第1の実施形態の説明
 本技術に従う映像投射システムは、映像投射装置と、当該映像投射装置から分離された映像表示光回折用光学素子とから構成されている。当該映像投射装置に投射光学系が備えられており、当該映像投射装置から、両目の前に設けられた当該映像表示光回折用光学素子に向けて映像表示光が投射される。そのため、当該映像表示光回折用光学素子を両目の前に保持するための頭部に装着される器具(例えばメガネ及びヘルメットなど)には、投射光学系が含まれなくてよく、さらには、映像表示光を投射するために必要な要素(例えば前記投射光学系、電源、及び、電力により駆動する装置など)が含まれなくてよい。これにより、当該器具を小型化及び/又は軽量化することができ、ユーザの負担を軽減することができる。
 また、当該器具の小型化及び/又は軽量化に伴い、当該器具の低コスト化も可能となり、さらには当該器具のデザインの自由度も高まる。
 上記特許文献1に記載のヘッドマウントディスプレイは、観察者に前記画像を表示する単眼式の表示ユニットを含み、当該表示ユニットが、頭部に装着されるフレームに装着される。当該表示ユニットは中空のハウジングを有し、当該ハウジング内に画像光形成部が収容されている。すなわち、上記特許文献1に記載のヘッドマウントディスプレイは、頭部に装着されるフレームに、映像表示光を形成するための構成要素が装着されるという構成を有する。当該ヘッドマウントディスプレイは、当該構成要素を含むので、小型化又は軽量化することが難しい。
 本技術に従う映像投射システムでは、上記のとおり、映像表示光を投射するために必要な要素は、前記頭部に装着される器具に含まれなくてよい。そのため、本技術により、前記頭部に装着される器具を小型化及び/又は軽量化することができる。
 また、本技術の映像投射システムに含まれる映像投射装置は、1つの投射光学系を含み、当該投射光学系は両目をカバーする領域に映像表示光を投射可能である。本技術において、1つの投射光学系から映像表示光を投射可能な領域を「映像投射可能領域」ともいう。当該映像表示光は、位置情報取得部により取得された映像表示光回折用光学素子の三次元的位置情報に基づき、映像表示光調整部によって調整される。本技術の映像投射システムにおいて、上記のとおりに調整された映像表示光が、両目をカバーする領域に映像表示光を投射可能な1つの投射光学系により投射される。そのため、両眼視を可能とする映像表示光を1つの投射光学系から投射することができる。よって、シンプルな構成を有する映像投射装置によってユーザに自然な映像を提示することができる。
 上記特許文献2に記載の眼球投影型表示装置は、投影光学手段と接眼光学手段とを有しており、当該投影光学手段と当該接眼光学手段とは離間して構成されており、且つ、当該接眼光学手段のみが使用者眼球近傍に配設されている。しかしながら、上記特許文献2には、両眼視を可能とするための具体的な構成が記載されていない。当該表示装置の投影光学手段を右眼及び左眼のそれぞれのために2系統設けることが考えられるが、その場合は、当該表示装置のサイズ及びコストが大きくなる。
 本技術の映像投射システムにおいて、両目をカバーする領域に映像表示光を投射可能な1つの投射光学系から、上記のとおりに調整された映像表示光が映像表示光回折用光学素子に向けて投射され、そして、当該映像表示光が両目に到達する。そのため、両眼視を可能とする映像表示光を1つの投射光学系から投射することができる。
(2)第1の実施形態の第1の例(映像投射システム)
 以下で、本技術に従う映像投射システムの例を、図1及び2を参照しながら説明する。図1は、本技術に従う映像投射システムを構成する映像投射装置のブロック図の一例である。図2は、本技術に従う映像投射システムをユーザが利用している状態の一例を示す図である。
 図1に示されるとおり、映像投射装置110には、位置情報取得部111、投射光学系112、及び制御部113が備えられている。制御部113には、映像表示光調整部114が含まれている。図2に示されるとおり、映像投射システム100を利用するユーザの両目の前に映像表示光回折用光学素子150が配置されている。映像表示光回折用光学素子150は、器具151によってユーザの両目の前に配置されている。器具151は、例えばユーザの頭部に装着されるメガネである。以下で、各構成要素について説明する。
 位置情報取得部111は、両目の前に設けられた映像表示光回折用光学素子150の三次元的位置情報を取得する。当該三次元的位置情報は例えば、映像投射装置110に対する映像表示光回折用光学素子150の三次元的位置情報であってよく、好ましくは投射光学系112に対する映像表示光回折用光学素子150の三次元的位置情報であってよい。
 より好ましくは、当該三次元的位置情報は、左右の眼それぞれの前に設けられた映像表示光回折用光学素子150の、映像投射装置110(特には投射光学系112)に対する位置情報でありうる。すなわち、当該三次元的位置情報は、左目の前の映像表示光回折用光学素子及び右目の前の映像表示光回折用光学素子のそれぞれに関する位置情報でありうる。これにより、左右の眼の視差に基づく映像表示光の調整が可能となり、平面的な映像だけでなく、立体的又は三次元的な映像をユーザに提示することができる。
 当該三次元的位置情報は、より具体的には、例えば以下の情報のいずれか一つ又は二つ以上を含みうる:
 映像投射装置110(特には投射光学系112)から映像表示光回折用光学素子150までの距離、特には左右の眼それぞれの前の各映像表示光回折用光学素子150までの距離;
 映像投射装置110(特には投射光学系112)に対する映像表示光回折用光学素子150の方向、特には左右の眼それぞれの前の各映像表示光回折用光学素子150の方向;
 映像投射装置110(特には投射光学系112)に対する映像表示光回折用光学素子150の面の向き、左右の眼それぞれの前の各映像表示光回折用光学素子150の面の向き);及び
 左右の眼の前の2つの映像表示光回折用光学素子150の位置に関する関係性、例えば右目の前の映像表示光回折用光学素子に対する左目の前の映像表示光回折用光学素子の位置又は左目の前の映像表示光回折用光学素子に対する右目の前の映像表示光回折用光学素子の位置など。
 位置情報取得部111は好ましくは、両目の三次元的位置情報、より好ましくは両目の瞳孔の三次元的位置情報を取得しうる。映像表示光回折用光学素子の三次元的位置情報及び両目の三次元的位置情報の両方を利用することで、映像表示光調整部114が、映像表示光回折用光学素子に対する両目の三次元的位置情報に基づき映像表示光を調整することができる。これにより、映像表示光をユーザにより適したものに調整することができる。
 両目(特には両目の瞳孔)の三次元的位置情報は、例えば映像表示光回折用光学素子150に対するものでありうる。両目の三次元的位置情報は、より特には、左目の前の映像表示光回折用光学素子に対する左目の位置情報、及び、右目の前の映像表示光回折用光学素子に対する右目の位置情報を含みうる。
 また、両目(特には両目の瞳孔)の三次元的位置情報は、左右の眼の位置関係に関する情報を含みうる。左右の眼の位置関係情報は、例えば左右の眼の間の距離(特には左右の眼の瞳孔の間の距離)及び/又は左右の眼の互いに対する位置情報を含みうる。
 また、両目の三次元的位置情報は、左右の眼の瞳孔のサイズに関する情報を含みうる。当該情報は、例えば瞳孔の直径若しくは半径及び/又は瞳孔の面積を含みうる。
 位置情報取得部111は、例えばイメージセンサなどの光学検出装置115を含みうる。イメージセンサとして、例えばCMOS又はCCDが用いられてよい。光学検出装置115によって、両目の前に設けられた映像表示光回折用光学素子150の画像が取得されうる。すなわち、本技術において、位置情報取得部がイメージセンサを含み、当該イメージセンサにより得られた情報、特には画像情報に基づき、位置情報取得部111は、映像表示光回折用光学素子150の三次元的位置情報を取得しうる。当該三次元的位置情報を取得は、位置情報取得部111に含まれる画像処理部116により行われうる。
 また、当該画像には、通常は両目の画像も含まれる。そのため、位置情報取得部111(特には画像処理部116)は、当該画像から両目の三次元的位置情報を取得しうる。
 図1において、画像処理部116は、制御部113とは別の構成として記載されているが、画像処理部116は、制御部113内に含まれていてもよい。
 本技術の一つの実施態様に従い、画像処理部116は、映像表示光回折用光学素子150の三次元的位置情報を、マークを利用した技術により取得しうる。例えば、映像表示光回折用光学素子150の一部又は周囲に、画像処理部116が三次元的位置情報を取得するためのマークが設けられうる。画像処理部116は、画像中の当該マークを認識して、映像表示光回折用光学素子150の三次元的位置情報を取得しうる。
 本技術の他の実施態様に従い、画像処理部116は、両目の三次元的位置情報を、瞳認識技術により取得しうる。瞳認識技術として、当技術分野で既知の技術が用いられてよい。
 また、画像処理部116は、映像表示光回折用光学素子及び/又は両目を三次元的に計測及び/又は学習することによって、映像表示光回折用光学素子及び/又は両目の三次元的位置情報を取得してもよい。
 本技術の好ましい実施態様の一つに従い、位置情報取得部111は、リアルタイムで映像表示光回折用光学素子及び/又は両目の三次元的位置情報を取得しうる。リアルタイムで取得された三次元的位置情報を利用することで、映像表示光のより正確な投射が可能となる。
 映像投射装置110は、1つの投射光学系112を備えており、投射光学系112は、両目をカバーする領域に映像表示光を投射可能であるように構成されている。本技術において、投射光学系が1つであるとは、右目及び左目のそれぞれに到達されるべき映像表示光が、同じ投射光学系から投射されることを意味しうる。例えば、投射光学系が1つであるとは、両目のそれぞれに到達されるべき映像表示光を投射するために用いられる投射口が1つであることを意味してよい。例えば、投射光学系が1つであるとは、両目のそれぞれに到達されるべき映像表示光を投射するための光源が同じであることを意味してもよい。本技術の映像投射システムを構成する映像投射装置は1つの投射光学系のみを含むので、映像投射装置のサイズ及び/又はコストを低減することができる。
 投射光学系112から投射される映像表示光は、LED又はCRTにより照射される光であってよい。当該映像表示光は、例えばレーザ光でありうる。
 投射光学系112は、好ましくは光学的なズーム調整部を含みうる。これにより、投射される映像のピントを調節することができる。
 本技術において、1つの投射光学系の映像投射可能領域は、より好ましくは、映像表示光回折用光学素子の三次元的位置が、例えば顔又は手のブレなどにより変化しても当該領域内に当該光学素子が存在するように設定されうる。これにより、映像表示光回折用光学素子の三次元的位置が上下、左右、又は前後に変化しても、映像表示光調整部が映像表示光を調整することで、当該変化後の位置に映像表示光を投射することができる。
 投射光学系112は、映像表示光調整部114により調整された映像表示光を映像表示光回折用光学素子150に向けて投射することができるように構成されている。本技術において採用される投射光学系の種類は、例えば製品コンセプトなどに応じて、当業者により適宜選択されてよい。
 本技術の一つの実施態様に従い、投射光学系112は、拡大光学系により映像表示光を両目に投射するように構成されていてよい。拡大光学系は、例えば顕微鏡及び望遠鏡などにおいて採用される光学系である。本技術の他の実施態様に従い、投射光学系112は、映像表示光が瞳孔付近に集光されそして網膜に照射されてマクスウェル視を行えるように構成されていてもよい。拡大光学系及びマックスウェル視光学系のそれぞれについて、以下で図3及び4を参照して説明する。
 図3に示されるとおり、拡大光学系において、映像投射装置31から投射された映像表示光は、映像表示光回折用光学素子としてのホログラムレンズ32を通って瞳33に到達する。映像表示光の光速は、瞳(瞳孔)33の全体を通り、網膜上でフォーカスする。そのため、瞳33又はホログラムレンズ32がずれた場合であっても、視野を確保しやすく、画像が消えにくい。また、空間に浮かんで見える虚像34は、固定された距離でフォーカスが合うので、ユーザの視力に応じて、認識される映像が異なりうる。拡大光学系により映像表示光を投射する投射光学系は、例えばLEDなどの光源部と例えば液晶などの映像表示部とを含みうる。
 図4に示されるとおり、マックスウェル視光学系では、映像投射装置41から投射された映像表示光は、映像表示光回折用光学素子としてのホログラムレンズ42を通って瞳43に到達する。映像表示光は瞳孔付近で集光されそして網膜に照射される。マックスウェル視光学系において、表示映像中の1ドット(最小表示単位)が水晶体上の1点を通るので、網膜上の1ドットの像が水晶体の状態による影響を受けにくい。例えば近視、遠視、又は乱視などを有するユーザであっても、映像をはっきりを認識することができる。また、空間に浮かんで見える虚像は、フォーカスフリーであり、虚像が目からどの距離にあってもピントが合う。マックスウェル視光学系において、映像表示光は瞳孔付近で集光されてよく、例えば瞳孔上で集光されてもよく又は光軸方向に瞳孔から数mm~十数mm程度(例えば1mm~20mm、特には2mm~15mm)ずれてもよい。後者のとおり焦点が瞳孔上になくても、マックスウェル視を実現することができる。焦点を光軸方向にずらすことで、映像がずれても、ユーザが映像を失いにくくすることができる。マックスウェル視光学系により映像表示光を投射する投射光学系は、例えば、レーザ光を出力する光源部及び出力されたレーザ光を二次元的に走査する光走査部を含みうる。当該レーザ光は、例えば赤、緑、及び青のレーザ光からなる1本の光束として出力されうる。光走査部は、例えばMEMSミラーを含みうる。光走査部は、レーザ光の方向を、網膜上に映像が形成されるように高速に移動させうる。
 映像表示光調整部114は、位置情報取得部111により得られた前記三次元的位置情報に基づき、映像表示光を調整する。当該調整によって、両目のそれぞれに投射される映像表示光が、所望の映像をユーザに提示するために適したものとなる。例えば、映像表示光調整部114は、映像表示光の波長、強度、及び方向のいずれか一つ以上を調整しうる。映像表示光調整部114は、例えば、映像がシフトされ若しくは回転され、又は、映像のサイズ若しくは歪みが調整されるように、映像表示光を調整しうる。好ましくは、映像表示光調整部114は、両眼視差に基づき映像表示光を調整しうる。
 本技術の好ましい実施態様に従い、映像表示光調整部114は、両目のそれぞれに異なる映像表示光が投射されるように映像表示光を調整しうる。例えば、映像表示光調整部114は、両目の視差に基づき映像表示光を調整し、これにより両目のそれぞれに異なる映像表示光が投射される。両目のそれぞれに異なる映像表示光が投射されることによって、例えばユーザが、例えば両眼視によって、提示される映像の三次元的な位置を認識する。例えばユーザがメガネを介して見ている外界風景中に、映像が浮かび上がって見える。
 映像表示光回折用光学素子150は、図2に示されるとおり、映像投射装置110と分離されており且つ両目の前に配置される。映像表示光回折用光学素子150は、映像投射装置110から投射された映像表示光を回折して、両目に到達させるために用いられる。本技術の一つの実施態様に従い、図2に示されるようにユーザの視線方向よりも下方に映像投射装置110が位置されてよく、又は、ユーザの視線方向よりも上方に映像投射装置110が位置されてもよい。映像投射装置110から投射された映像表示光の進行方向が、映像表示光回折用光学素子150により変更されて、ユーザの両目に導かれる。これにより、ユーザの視線方向には映像投射装置110が無い状態で、映像投射装置110からの映像表示光による映像をユーザが認識することができる。本技術の他の実施態様に従い、映像投射装置110は、ユーザの視線方向と同じ高さ付近に位置されていてもよい。この場合、例えば映像の明るさを調整し及び/又は映像が表示される位置を視野内の一部(例えば上半分、下半分、左半分、又は右半分など)に限定することなどによって、映像投射装置と外界風景との重なりをユーザが気にならなくすることができる。映像表示光回折用光学素子150は、図2において映像表示光を屈曲させているが、本技術において映像表示光は、映像表示光回折用光学素子150により屈曲されることなく、両目に到達されてもよい。
 好ましくは、映像表示光回折用光学素子150は、映像表示光の波長範囲の光に対してはレンズとして働き且つ当該波長範囲外の波長の光は透過させる光学特性を有しうる。当該光学特性によって、ユーザは、映像表示光回折用光学素子150を介して例えば視線方向の先の風景を認識し、且つ、当該映像表示光による映像を認識することができる。前記光学特性を有する映像表示光回折用光学素子150として、例えばホログラムレンズ、好ましくはフィルム状のホログラムレンズ、より好ましくは透明なフィルム状ホログラムレンズを挙げることができる。当技術分野で既知の技法により、ホログラムレンズに所望の光学特性を付与することができる。ホログラムレンズとして、市販入手可能なホログラムレンズが用いられてよく、又は、ホログラムレンズは、当技術分野において公知の技法により製造されてもよい。
 映像表示光回折用光学素子150は、当該光学素子150を両目の前で保持するための器具151に備えられていてよい。すなわち、当該光学素子150は器具151によって、両目の前で保持されうる。当該器具は、例えばメガネ、ゴーグル、又はヘルメットでありうる。例えば、図5に示されるとおり、メガネ51のレンズ52の一方の面(外界風景側の面又は眼球側の面)に、映像表示光回折用光学素子としてホログラムレンズ53が積層されうる。また、前記光学特性を映像表示光回折用光学素子が有することで、器具151は、映像投射が行われていない場合は、当該器具自体の用途(例えばメガネとしての用途など)のために利用することができる。映像表示光回折用光学素子150を、ユーザ又は当業者により適宜選択された器具に貼り付けることで、本技術に従う映像投射システムを利用することができる。そのため、本技術において採用可能な器具の選択の幅は非常に広い。
 好ましくは、器具151は投射光学系を含まない。器具151は、より好ましくは映像表示光を投射するために必要な要素(例えば前記投射光学系、電源、及び、電力により駆動する装置など)が含まれなくてよい。器具151がこのように構成されることで、器具151を小型化及び/又は軽量化することができる。
 上記で画像処理部116に関して述べたとおり、映像表示光回折用光学素子150の一部又は周囲に、画像処理部116が三次元的位置情報を取得するためのマークが設けられてよい。マークの数は、例えば1つ、2つ、3つ、若しくは4つ、又はそれより多くてもよい。複数のマークを用いることで、より正確な三次元的位置情報を取得することができる。マークの位置は、目立たないように選択されうる。これにより、頭部装着部のデザイン性を高めることができる。
 映像表示光回折用光学素子の形状の例及びマークの配置の例を、図6に示す。
 図6(a)に示されるとおり、メガネ601のレンズ表面の一部にホログラムフィルムレンズ602が張り付けられる。ホログラムフィルムレンズ602の周囲に4つのマーク603が設けられている。これらのマーク603を、画像処理部116が認識することで、映像表示光回折用光学素子であるホログラムフィルムレンズ602の三次元的位置情報が取得される。マーク603は、例えばホログラム、反射フィルム、又は赤外光反射フィルムにより形成されてよく、又は、所定の模様などであってもよい。マーク603が赤外反射フィルムである場合、位置情報取得部は、赤外光投射装置及び赤外光検出装置を含みうる。
 図6(b)に示されるとおり、メガネ611のレンズ表面の一部にホログラムフィルムレンズ612が張り付けられてよい。図6(b)において、ホログラムフィルムレンズ612内の四角のそれぞれにマーク613が設けられている。
 図6(c)に示されるとおり、メガネ621のレンズ表面の全面にホログラムレンズ622が張り付けられてもよい。この場合は、ホログラムレンズ622内に4つのマーク623が設けられている。
 上記で画像処理部116に関して述べたとおり、映像表示光回折用光学素子及び/又は両目の三次元的位置情報は、映像表示光回折用光学素子及び/又は両目を三次元的に計測及び/又は学習することによって取得されてもよい。この場合は、前記マークは不要である。そのため、例えば図7に示されるとおり、映像表示光回折用光学素子としてのホログラムレンズ702を張り付けただけのメガネ701が、本技術のシステムを構成しうる。
 映像投射装置110は、例えばスマートフォン、携帯電話、及びウォッチ型端末などの携帯機器であってよい。このような携帯機器を、本技術の映像投射システムにおける映像投射装置として採用することで、本技術に従う映像投射が、小型又は超小型のモバイル装置により可能となる。図8に、スマートフォンである映像投射装置を含む本技術に従う映像投射システムをユーザが利用している状態の一例を示す。ユーザの頭部には、メガネ850が装着されており、メガネ850のレンズには、映像表示光回折用光学素子851が張り付けられている。また、ユーザは例えば手にスマートフォン810を携帯している。
 スマートフォン810には、イメージセンサ(カメラ)811が設けられている。イメージセンサ811によって、ユーザの両目の前に位置する映像表示光回折用光学素子851の三次元的位置情報及び、必要に応じて、両目の三次元的位置情報が取得される。当該三次元的位置情報に基づき、スマートフォン810内の位置情報取得部が、映像表示光を調整する。調整された映像表示光が、スマートフォン810の投射口812から映像表示光回折用光学素子851に向けて投射される。映像表示光は、映像表示光回折用光学素子851によって回折されてユーザの両目に到達する。それにより、ユーザは、外界風景に重畳された映像を認識する。
 また、映像表示光回折用光学素子851は、映像表示光の波長範囲の光に対してはレンズとして働き、当該波長範囲外の波長の光は透過する光学特性を有しうる。これにより、映像表示光による映像が、外界の風景に重畳される。
(3)第1の実施形態の第2の例(映像表示光の投射方式の例)
 本技術の一つの実施態様に従い、映像表示光調整部は、映像投射可能領域のうち、右目及び左目の眼球(又は瞳孔)に映像表示光が投射され且つその周囲には映像表示光が投射されないように、映像表示光を調整する。これにより、映像投射可能領域のうち、ユーザが映像を認識するために必要な領域のみに、映像表示光が投射される。当該実施態様における映像表示光の投射方式を、図9及び10を参照して以下で説明する。
 図9及び10は、本実施態様に従い映像表示光が投射されている状態の一例を示す模式図である。図9及び10において、映像表示光はマックスウェル視光学系によってユーザに投射されている。
 図9(a)は、映像投射装置から映像表示光がユーザに投射されている状態をユーザの頭上から見た場合の模式図である。映像投射装置210の投射光学系の映像投射可能領域の横方向の幅がW1で示されている。右目に映像を提示するために必要な映像表示光の幅はW2であり、左目に映像を提示するために必要な映像表示光の幅はW3である。そのため、映像投射可能領域の幅W1のうち、W2及びW3の領域に映像表示光が投射され、その周囲の領域には映像表示光は投射されない。
 図9(b)は、映像投射装置から映像表示光がユーザに投射されている状態をユーザの横方向から見た場合の模式図である。映像投射装置210の投射光学系の映像投射可能領域の縦方向の幅(高さ)がH1で示されている。左目に映像を提示するために必要な映像表示光の幅はH3である。そのため、映像投射可能領域の幅H1のうち、H3の領域に映像表示光が投射され、その周囲には映像表示光は投射されない。右目についても、同様にH1のうち必要な領域にのみ映像表示光が投射される。
 投射された映像表示光は、映像表示光回折用光学素子251によって回折され、瞳孔上で集光し、そして網膜に到達する。これによって、マックスウェル視によりユーザに映像が提示される。なお、図9において、映像表示光回折用光学素子251による光路の屈曲は省略されている。
 図10に、映像投射装置から映像表示光がユーザに投射されている状態をユーザの頭上から見た場合の模式図とユーザの顔の正面から見た場合の映像投射可能領域の模式図とを示す。図10に示されるとおり、頭上から見た場合、映像投射可能領域の幅W1のうち、W2及びW3の領域に映像表示光が投射され、その周囲には映像表示光は投射されない。さらに、ユーザの顔正面から見た場合は、両目をカバーする映像投射可能領域A1のうち、メガネ内のA2及びA3の領域に映像表示光が投射され、その他の領域には映像表示光は投射されない。A2及びA3の領域に、映像表示光回折用光学素子が設けられることによって、ユーザの両目のそれぞれに映像表示光が投射される。
 また、図10に示されるとおり、映像表示光回折用光学素子及び両目の位置は、例えばイメージセンサなどの光学検出装置10により取得されうる。
 以上図9及び10を参照して説明したとおり、本実施態様において、映像投射可能領域のうち、右目及び左目に映像を提示するために必要な領域にのみ、映像表示光が投射される。
 以上で説明した映像表示光の投射が走査により行われる場合の例を、図21を参照して説明する。図21は、映像表示光の走査方式の例を示す図である。
 図21に示される映像投射可能領域A1のうち、領域A2及びA3に映像表示光が投射され、その他の領域には映像表示光が投射されない場合を想定する。映像投射可能領域A1中の投射光学系による走査線は、L~R、R~L、・・・及びL~Rである。上記の場合、L~R、R~L、・・・Ri-1~Li-1の走査線においては、映像表示光は投射されない。L~Rの走査線のうち、A2及びA3と重なる部分において映像表示光が投射され、L~Rの走査線のうちその他の部分においては、映像表示光は投射されない。Li+1~Ri+1の走査線からLi+4~Ri+4の走査線においても同様である。Li+5~Ri+5の走査線からL~Rの走査線においては、映像表示光は投射されない。このように、映像投射可能領域A1のうち、領域A2及びA3において映像表示光が投射され、その他の領域には映像表示光は投射されない。このようにして、特定の領域にのみ映像表示光を投射することができる。また、特定の領域にのみ映像表示光を投射するために、映像表示光調整部により、映像表示光が制御されうる。
 なお、図21において、より良い理解ために走査線の間隔が極めて広い。実際の映像投射装置においては、より狭い間隔で走査線が設定されることは言うまでもない。
 また、拡大光学系においても、映像投射可能領域A1のうち、領域A2及びA3に映像表示光が投射され、その他の領域には映像表示光が投射されないように、映像表示光を調整することができる。
 なお、図21では理解し易さを考慮して、領域A2及びA3を長方形で図示しているが、これらは任意の形状(たとえばメガネレンズの形状等)で設定されてもよいことは言うまでもない。
 映像投射可能領域のうちの、映像表示光が投射される領域の周囲領域はマージン領域とも言える。ユーザの動き又はメガネの動きなどによる映像表示光回折用光学素子の三次元的位置が変化しても、当該マージン領域によって、変化後の位置に映像表示光を投射することができる。また、当該マージン領域によって、映像表示光を偏向制御するための構成要素を映像投射装置に設ける必要がなくなり、映像投射装置の構成をよりシンプルにすることができる。これは、映像投射装置の小型化、軽量化、又は低コスト化ももたらしうる。
 また、当該変化後の映像表示光回折用光学素子の三次元的位置情報は、前記位置情報取得部により取得される。そして、当該三次元的位置情報に基づき、前記映像表示光調整部が、映像表示光を調整する。そのため、ユーザ又はメガネの動きによって映像表示光回折用光学素子の三次元的位置が変化しても、映像投射可能領域内に当該光学素子が存在すれば、映像表示光調整部が映像表示光を調整することによって、当該光学素子に向けて映像表示光を投射することができる。
 例えば、図11(a)に示されるとおり、映像投射可能領域の中央部分に映像表示光回折用光学素子が位置していることを基準とする。前記変化によって、映像表示光回折用光学素子が、例えば図11(b)に示されるとおりの上下方向の位置ずれ、図11(c)に示されるとおりの左右方向の位置ずれ、図11(d)に示されるとおりの回転ずれ、又は、図11(e)に示されるとおりの上下左右のあおりずれ且つ回転ずれを起こしうる。このような三次元的位置の変化が起こったとしても、前記位置情報取得部が映像表示光回折用光学素子の三次元的位置を取得し且つ当該取得された変化後の三次元的位置に映像表示光が投射されるように映像表示光調整部が映像表示光を調整することで、適切な映像表示光がユーザの両目に投射される。
 前記マージン領域は、上下方向に関しては、映像表示光回折用光学素子が映像投射可能領域の基準位置にある場合の上端から上方向に例えば4~7cm、好ましくは5~6cmだけひろがり、且つ、下端から下方向に例えば4~7cm、好ましくは5~6cmでひろがる領域でありうる。マージン領域は、左右方向に関しても同様に、映像表示光回折用光学素子が映像投射可能領域の中心にある場合の左端から左方向に例えば4~7cm、好ましくは5~6cmだけひろがり、且つ、右端から右方向に例えば4~7cm、好ましくは5~6cmでひろがる領域でありうる。
 画像に注力するヒトの顔は1~2cm程度の範囲内でぶれることが多いので、上記マージン領域によって、ヒトの顔のブレによる映像表示光回折用光学素子の三次元的位置の変化に対応することができる。また、例えばユーザが映像投射装置(例えばスマートフォンなどの携帯機器)を手に持ちながら前方を注視している場合、映像投射装置は使用中に例えば7~8度だけ傾くことがあり、及び/又は、映像投射装置を持つ手がブレることもある。この場合においても、上記マージン領域によって、当該装置の傾き又は手ブレによる映像表示光回折用光学素子の相対的な三次元的位置の変化に対応することができる。
 以上で説明した投射方式において、映像投射可能領域内の映像表示光が投射される領域を調整することで、両目のそれぞれに映像表示光が投射される。そのため、映像表示光の光路は偏向される必要がない。従って、当該投射方式を採用する場合、投射光学系は光路を偏向する偏向制御部を含まなくてよい。
(4)第1の実施形態の第3の例(映像表示光の投射方式の例)
 本技術の一つの実施態様に従い、前記投射光学系が、映像表示光を投射可能な領域(映像投射可能領域)が2つに分割されるように構成されており、当該2つの領域がそれぞれ左右の眼をカバーする。これにより、映像投射可能領域に対する映像を見ることができる領域の割合が高まる。そのため、映像の解像度(分解能)を上げやすくなる。映像投射可能領域に対する映像を見ることができる領域の割合は、必要となる前記マージン領域及び必要となる解像度を考慮して選択されうる。当該選択された割合に応じて、映像投射可能領域を分割するかどうかが選択されてよい。
 映像投射可能領域を2つに分割するために、例えば、ウェッジプレート、くの字型ミラー、又は回折素子が、映像投射装置の投射レンズの前に設けられてよい。当該回折素子は、好ましくは体積ホログラムでありうる。体積ホログラムは、透過型又は反射型でありうる。本技術において、映像投射可能領域を2つに分割するための光学系構成要素は当業者により適宜選択されてよい。そのため、本技術に従う映像投射装置の設計の自由度が高い。
 以下で、映像投射可能領域を2つに分割するための構成について、図12~15を参照して説明する。
 図12に示される投射光学系において、投射レンズ301の前に、透過型のウェッジプレート302が設けられている。これにより、映像投射可能領域が2つの領域(右目をカバーする領域及び左目をカバーする領域)に分割される。
 図13に示される投射光学系において、投射レンズ311の前に、くの字型ミラー312が設けられている。これにより、映像投射可能領域が2つの領域に分割されてもよい。この場合、投射レンズ311を通過した映像表示光が、くの字型ミラー312によって反射されることで、当該分割が行われる。
 図14に示される投射光学系において、投射レンズ321の前に、透過型の体積ホログラム素子322が設けられている。これにより、映像投射可能領域が2つの領域に分割されうる。
 図15に示される投射光学系において、投射レンズ331の前に、反射型の体積ホログラム素子332が設けられている。これにより、映像投射可能領域が2つの領域に分割されてもよい。この場合、投射レンズ331を通過した映像表示光が、反射型の体積ホログラム素子332によって反射されることで、当該分割が行われる。
 以上図12~15を参照して説明した本実施態様の場合における、映像投射可能領域内での映像表示光回折用光学素子の三次元的位置の変化を、図16を参照しながら説明する。
 図16に、ユーザの正面から見た場合の映像投射可能領域及び当該映像投射可能領域内において映像表示光が投射される領域を示す。
 図16(a)に示されるとおり、右目及び左目のそれぞれをカバーする映像投射可能領域の中央部分に映像表示光回折素子が位置していることを基準とする。映像表示光回折素子が、例えば図16(b)に示されるとおりの上下方向の位置ずれ、図16(c)に示されるとおりの左右方向の位置ずれ、図16(d)に示されるとおりの回転ずれ、又は、図16(e)に示されるとおりの上下左右のあおりずれ且つ回転ずれを起こしうる。このような三次元的位置の変化が起こったとしても、前記位置情報取得部によって、映像表示光回折用光学素子の三次元的位置を正確に取得することができ、そして、取得された変化後の三次元的位置に適切な映像表示光が投射されるように、映像表示光調整部が映像表示光を調整する。
 また、前記第2の例において説明したとおりの映像投射可能領域が分割されていない場合と比べて、本実施態様では、映像投射可能領域をより狭くすることで、映像投射可能領域のうちの映像表示光が投射される領域の割合をより大きくすることができる。そのため、本実施態様では、映像投射可能領域が分割されていない場合と比べて、解像度をより上げることができる。
 以上で説明した投射方式において、映像投射可能領域内の映像表示光が投射される領域を調整することで、両目のそれぞれに映像表示光が投射される。そのため、映像表示光の光路は偏向される必要がない。従って、当該投射方式を採用する場合、投射光学系は光路を偏向する偏向制御部を含まなくてよい。
(5)第1の実施形態の第4の例(映像表示光の投射方式の例)
 本技術の一つの実施態様に従い、前記投射光学系が、映像表示光を投射可能な領域(映像投射可能領域)が2つに分割されるように構成されており、当該2つの領域がそれぞれ左右の眼をカバーし、且つ、映像表示光を偏向制御する偏向制御部を含みうる。これにより、映像投射可能領域のうち、ユーザが映像を認識するために必要な領域のみに、映像表示光が投射される。加えて、偏向制御部によって、映像表示光の分割された2つの映像投射可能領域内に投射するように、映像表示光を偏向することができる。そのため、本実施態様では、前記第3の例において説明したとおりの場合と比べて、映像投射可能領域をより狭くすることができる。これにより、映像投射可能領域のうちの映像表示光が投射される領域の割合をより大きくすることができる。そのため、本実施態様では、前記第3の例の場合と比べて、解像度をより上げることができる。
 偏向制御部は、例えばガルバノミラーなどの可動ミラーを含みうる。可動ミラーは、例えばそれぞれX軸方向及びY軸方向に映像表示光を偏向することができるように構成されていてよい。例えば2枚のガルバノミラーが、それぞれX軸方向の偏向及びY軸方向の偏向を行いうる。当該偏向によって、映像表示光が、両目のそれぞれの適切な位置(例えば瞳孔内)に投射されるように調整されうる。
 映像投射可能領域を2つに分割するために、例えば、ウェッジプレート、くの字型ミラー、又は回折素子が、映像投射装置の投射レンズの前に設けられてよい。当該回折素子は、好ましくは体積ホログラムでありうる。体積ホログラムは、透過型又は反射型でありうる。
 以下で、本実施態様における構成例を、図17を参照して説明する。
 図17に示される投射光学系において、投射レンズ401の前に、透過型のウェッジプレート402が設けられている。当該ウェッジプレートの前に、さらに偏向制御部403が設けられている。前記ウェッジプレート402によって、映像投射可能領域が2つの領域(右目をカバーする領域及び左目をカバーする領域)に分割される。また、前記偏向制御部403によって、映像表示光が偏向される。
 図18に、ユーザの正面から見た場合の映像投射可能領域及び当該映像投射可能領域内において映像表示光が投射される領域を示す。
 図18(a)に示されるとおり、右目及び左目のそれぞれをカバーする映像投射可能領域の中央部分に映像表示光回折素子が位置していることを基準とする。映像表示光回折素子が、例えば図18(b)に示されるとおりの上下方向の位置ずれ、図18(c)に示されるとおりの左右方向の位置ずれ、図18(d)に示されるとおりの回転ずれ、又は、図18(e)に示されるとおりの上下左右のあおりずれ且つ回転ずれを起こしうる。このような三次元的位置の変化が起こったとしても、前記位置情報取得部によって、映像表示光回折用光学素子の三次元的位置を正確に取得することができ、そして、取得された変化後の三次元的位置に適切な映像表示光が投射されるように、映像表示光調整部が映像表示光を調整する。図18(c)の場合、映像表示光回折素子の三次元的位置が、映像投射可能領域外に変化している。この場合、前記偏向制御部によって、映像表示光が当該変化後の三次元的位置に投射されるように、映像表示光が偏向される。
(6)第1の実施形態の第5の例(映像投射装置の構成例)
 以下で、図19を参照しながら、本技術の映像投射システムを構成する映像投射装置の構成の一例を説明する。図19は、本技術に従う映像投射装置の概略的な構成の一例を示す図である。
 図19に示される映像投射装置1000は、CPU(中央演算処理装置)1002及びRAM1003を備えている。CPU1002及びRAM1003は、バス1005を介して相互に接続されており、また、映像投射装置1000の他の構成要素ともバス1005を介して接続されている。
 CPU1002は、映像投射装置1000の制御及び演算を行う。CPU1002として、任意のプロセッサを用いることができ、その例としてXeon(登録商標)シリーズ、Core(商標)シリーズ、又はAtom(商標)シリーズのプロセッサを挙げることができる。図1を参照して説明した映像投射装置110の制御部113、映像表示光調整部114、及び画像処理部116の機能は例えばCPU1002により実現されうる。
 RAM1003は、例えばキャッシュ・メモリ及びメイン・メモリを含み、CPU1002により使用されるプログラムなどを一時記憶しうる。
 映像投射装置1000は、ディスク1004、通信装置1006、投射光学系1007、及びドライブ1008を備えていてもよい。これらの構成要素はいずれもバス1005に接続されうる。
 ディスク1004には、オペレーティング・システム(例えば、WINDOWS(登録商標)、UNIX(登録商標)、又はLINUX(登録商標)など)、本技術に従う映像投射方法を実現するためのプログラム、位置情報取得処理を行うためのプログラム、映像表示光を調整するためのプログラム、及び他の種々のプログラム、並びに各種データ(例えば映像データ)が格納されうる。
 通信装置1006は、映像投射装置1000をネットワーク1010に有線又は無線で接続する。通信装置1006は、映像投射装置1000を、ネットワーク1010を介して各種データ(例えば映像データなど)を取得することができる。取得したデータは、例えばディスク1004に格納されうる。通信装置1006の種類は当業者により適宜選択されてよい。ディスク1004は、例えばフラッシュメモリ等の半導体記録媒体等でもよく、特に限定されない。
 投射光学系1007は、本技術に従い制御された映像表示光を映像表示光回折素子に向けて投射しうる。
 ドライブ1008は、記録媒体に記録されている情報を読み出して、RAM1003に出力することができる。記録媒体は、例えば、microSDメモリカード、SDメモリカード、又はフラッシュメモリであるが、これらに限定されない。
2.第2の実施形態(映像投射装置)
 本技術は、本技術に従う映像投射システムを構成する映像投射装置も提供する。本技術に従う映像投射装置は、当該映像投射装置は、上記「1.第1の実施形態(映像投射システム)」において説明した映像投射装置であり、当該映像投射装置に関して説明した内容の全てが、本実施形態における映像投射装置にも当てはまる。そのため、当該装置に関する説明は省略する。
 当該映像投射装置を、上記「1.第1の実施形態(映像投射システム)」にて説明した映像表示光回折用光学素子と組み合わせて使用することで、上記で説明したとおりの効果が奏される。
3.第3の実施形態(映像表示光回折用光学素子)
 本技術は、本技術に従う映像投射システムを構成する映像表示光回折用光学素子も提供する。当該映像表示光回折用光学素子は、本技術に従う映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられ、且つ、当該映像投射装置から分離されており且つ両目の前に配置されるものである。
 当該映像表示光回折用光学素子は、上記「1.第1の実施形態(映像投射システム)」において説明した映像表示光回折用光学素子であり、当該映像表示光回折用光学素子に関して説明した内容の全てが、本実施形態における映像表示光回折用光学素子にも当てはまる。そのため、当該光学素子に関する説明は省略する。
 当該光学素子を、上記「1.第1の実施形態(映像投射システム)」にて説明した映像投射装置と組み合わせて使用することで、上記で説明したとおりの効果が奏される。
4.第4の実施形態(映像表示光回折用光学素子を含む器具)
 本技術は、本技術に従う映像投射システムを構成する映像表示光回折用光学素子を含む器具(例えばメガネ、ゴーグル、又はヘルメットなど)も提供する。当該器具は、当該映像投射装置から分離されており且つ当該光学素子を両目の前で保持するためのものである。
 当該器具及び当該器具に含まれる映像表示光回折用光学素子は、上記「1.第1の実施形態(映像投射システム)」において説明した器具及び映像表示光回折用光学素子であり、当該器具及び当該映像表示光回折用光学素子に関して説明した内容の全てが、本実施形態における器具及び映像表示光回折用光学素子にも当てはまる。そのため、当該器具及び当該光学素子に関する説明は省略する。
 当該器具を、上記「1.第1の実施形態(映像投射システム)」にて説明した映像投射装置と組み合わせて使用することで、上記で説明したとおりの効果が奏される。
5.第5の実施形態(映像投射方法)
(1)第5の実施形態の説明
 本技術は、両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得工程、前記位置情報取得工程において得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整工程、及び両目をカバーする領域内で、1つの投射光学系から、前記映像表示光調整工程において調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する投射工程を含み、前記映像表示光回折用光学素子は、前記映像投射装置と分離されており且つ前記両目の前に配置されるものである、映像投射方法を提供する。
 本技術に従う映像投射方法によって、上記「1.第1の実施形態(映像投射システム)」にて説明した効果が奏される。
(2)第5の実施形態の例(映像投射方法)
 以下で、本技術に従う映像投射方法の例を図1及び2並びに図20を参照しながら説明する。図20は、本技術に従う映像投射方法のフローの一例を示す図である。
 ステップS101において、映像投射装置110は、本技術に従う映像投射処理を開始する。
 ステップS102の位置情報取得工程において、位置情報取得部111が、映像表示光回折用光学素子150の三次元的位置情報を取得する。位置情報取得工程は、例えば、制御部113が、光学検出装置115を駆動して、両目の前に設けられた映像表示光回折用光学素子150の画像を取得させる画像取得工程、及び、当該画像から、画像処理部116が映像表示光回折用光学素子150の三次元的位置情報を取得する情報処理工程を含みうる。ステップS102の位置情報取得工程において、両目の三次元的位置情報が取得されてもよい。
 ステップS103の映像表示光調整工程において、映像表示光調整部114が、ステップS102において取得された三次元的位置情報に基づき、映像表示光を調整する。
 ステップS104の投射工程において、1つの投射光学系112が、映像表示光調整工程において調整された映像表示光を映像表示光回折用光学素子150に向けて投射する。投射された映像表示光は映像表示光回折用光学素子150によって回折されて、ユーザの両目に到達し、ユーザが映像を認識する。
 なお、ステップS104の後に、継続的にステップS102、ステップS103、及び、ステップS104が繰り返されてよい。これにより、リアルタイムで、本技術に従う映像投射が行われうる。又は、ステップS102、ステップS103、及び、ステップS104は、映像表示光回折用光学素子150及び/又は両目の三次元的位置が変化した場合に繰り返されてもよい。これにより、例えば映像投射装置が使用する電力量を抑制することができる。
 ステップS105において、映像投射装置110は、本技術に従う映像投射処理を終了する。
 以上の処理が、例えば本技術に従う映像投射装置により行われうる。上記の各ステップにおける当該映像投射装置の各構成要素のより詳細な動作については、上記「1.第1の実施形態(映像投射システム)」を参照されたい。
 なお、本技術は、以下のような構成をとることもできる。
〔1〕両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、
 前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び
 両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系
 を備えている映像投射装置と、
 前記映像投射装置と分離されており且つ前記両目の前に配置される映像表示光回折用光学素子と
 から構成されている映像投射システム。
〔2〕前記映像表示光回折用光学素子が、前記映像表示光の波長範囲の光に対してはレンズとして働き、当該波長範囲外の波長の光は透過する光学特性を有する、〔1〕に記載の映像投射システム。
〔3〕前記投射光学系が、拡大光学系により映像表示光を両目に照射するように構成されている、〔1〕又は〔2〕に記載の映像投射システム。
〔4〕前記投射光学系が、映像表示光が瞳孔付近に集光されそして網膜に照射されてマクスウェル視を行えるように構成されている、〔1〕又は〔2〕に記載の映像投射システム。
〔5〕前記投射光学系が、映像表示光を投射可能な領域が2つに分割されるように構成されており、当該2つの領域がそれぞれ左右の眼をカバーする、〔1〕~〔4〕のいずれか一つに記載の映像投射システム。
〔6〕前記投射光学系が、前記分割のための光学素子として、ウェッジプレート、くの字型ミラー、又は回折素子を含む、〔5〕に記載の映像投射システム。
〔7〕前記投射光学系が、映像表示光を投射可能な領域が2つに分割されるように構成されており、当該2つの領域がそれぞれ左右の眼をカバーし、且つ、
 前記投射光学系が、投射された映像表示光を偏向する偏向制御部を含む、
 〔1〕~〔4〕のいずれか一つに記載の映像投射システム。
〔8〕前記映像表示光回折用光学素子が、当該光学素子を両目の前で保持するための器具に備えられている、〔1〕~〔7〕のいずれか一つに記載の映像投射システム。
〔9〕前記器具が投射光学系を含まない、〔8〕に記載の映像投射システム。
〔10〕前記位置情報取得部がイメージセンサを含み、当該イメージセンサにより得られた情報に基づき、前記位置情報取得部は前記三次元的位置情報を取得する、〔1〕~〔9〕のいずれか一つに記載の映像投射システム。
〔11〕前記映像表示光調整部が、前記両目のそれぞれに異なる映像表示光が投射されるように映像表示光を調整する、〔1〕~〔10〕のいずれか一つに記載の映像投射システム。
〔12〕前記映像表示光調整部が、前記両目の視差に基づき映像表示光を調整する、〔1〕~〔11〕のいずれか一つに記載の映像投射システム。
〔13〕前記両目のそれぞれに異なる映像表示光が投射されることによって、前記映像投射システムのユーザが、提示される映像の三次元的な位置を認識する、〔1〕~〔12〕のいずれか一つに記載の映像投射システム。
〔14〕両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、
 前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び
 両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系
 を備えている映像投射装置。
〔15〕両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり且つ前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられる、
 前記映像投射装置から分離されており且つ両目の前に配置されるものである
 映像表示光回折用光学素子。
〔16〕両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり且つ前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられる映像表示光回折用光学素子を含む、
 前記映像投射装置から分離されており且つ当該光学素子を両目の前で保持するための器具。
〔17〕両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得工程、
 前記位置情報取得工程において得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整工程、及び
 両目をカバーする領域内で、1つの投射光学系から、前記映像表示光調整工程において調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する投射工程
 を含み、
 前記映像表示光回折用光学素子は、前記映像表示光を投射する映像投射装置と分離されており且つ前記両目の前に配置されるものである、
 映像投射方法。
100 映像投射システム
110 映像投射装置
111 位置情報取得部
112 投射光学系
113 制御部
114 映像表示光調整部
115 光学検出装置
116 画像処理部
150 映像表示光回折用光学素子
151 器具

Claims (17)

  1.  両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、
     前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び
     両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系
     を備えている映像投射装置と、
     前記映像投射装置と分離されており且つ前記両目の前に配置される映像表示光回折用光学素子と
     から構成されている映像投射システム。
  2.  前記映像表示光回折用光学素子が、前記映像表示光の波長範囲の光に対してはレンズとして働き、当該波長範囲外の波長の光は透過する光学特性を有する、請求項1に記載の映像投射システム。
  3.  前記投射光学系が、拡大光学系により映像表示光を両目に照射するように構成されている、請求項1に記載の映像投射システム。
  4.  前記投射光学系が、映像表示光が瞳孔付近に集光されそして網膜に照射されてマクスウェル視を行えるように構成されている、請求項1に記載の映像投射システム。
  5.  前記投射光学系が、映像表示光を投射可能な領域が2つに分割されるように構成されており、当該2つの領域がそれぞれ左右の眼をカバーする、請求項1に記載の映像投射システム。
  6.  前記投射光学系が、前記分割のための光学素子として、ウェッジプレート、くの字型ミラー、又は回折素子を含む、請求項5に記載の映像投射システム。
  7.  前記投射光学系が、映像表示光を投射可能な領域が2つに分割されるように構成されており、当該2つの領域がそれぞれ左右の眼をカバーし、且つ、
     前記投射光学系が、投射された映像表示光を偏向する偏向制御部を含む、
     請求項1に記載の映像投射システム。
  8.  前記映像表示光回折用光学素子が、当該光学素子を両目の前で保持するための器具に備えられている、請求項1に記載の映像投射システム。
  9.  前記器具が投射光学系を含まない、請求項8に記載の映像投射システム。
  10.  前記位置情報取得部がイメージセンサを含み、当該イメージセンサにより得られた情報に基づき、前記位置情報取得部は前記三次元的位置情報を取得する、請求項1に記載の映像投射システム。
  11.  前記映像表示光調整部が、前記両目のそれぞれに異なる映像表示光が投射されるように映像表示光を調整する、請求項1に記載の映像投射システム。
  12.  前記映像表示光調整部が、前記両目の視差に基づき映像表示光を調整する、請求項1に記載の映像投射システム。
  13.  前記両目のそれぞれに異なる映像表示光が投射されることによって、前記映像投射システムのユーザが、提示される映像の三次元的な位置を認識する、請求項1に記載の映像投射システム。
  14.  両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、
     前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び
     両目をカバーする領域に映像表示光を投射可能であり、且つ、前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系
     を備えている映像投射装置。
  15.  両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり且つ前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられる、
     前記映像投射装置から分離されており且つ両目の前に配置されるものである
     映像表示光回折用光学素子。
  16.  両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得部、前記位置情報取得部により得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整部、及び、両目をカバーする領域に映像表示光を投射可能であり且つ前記映像表示光調整部により調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する1つの投射光学系を備えている映像投射装置から投射された映像表示光を回折して両目に到達させるために用いられる映像表示光回折用光学素子を含む、
     前記映像投射装置から分離されており且つ当該光学素子を両目の前で保持するための器具。
  17.  両目の前に設けられた映像表示光回折用光学素子の三次元的位置情報を取得する位置情報取得工程、
     前記位置情報取得工程において得られた前記三次元的位置情報に基づき、投射される映像表示光を調整する映像表示光調整工程、及び
     両目をカバーする領域内で、1つの投射光学系から、前記映像表示光調整工程において調整された映像表示光を前記映像表示光回折用光学素子に向けて投射する投射工程
     を含み、
     前記映像表示光回折用光学素子は、前記映像表示光を投射する映像投射装置と分離されており且つ前記両目の前に配置されるものである、
     映像投射方法。
PCT/JP2019/015641 2018-06-05 2019-04-10 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法 WO2019235059A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980035977.8A CN112204453B (zh) 2018-06-05 2019-04-10 影像投射系统、影像投射装置、影像显示光衍射光学元件、器具以及影像投射方法
JP2020523544A JP7275124B2 (ja) 2018-06-05 2019-04-10 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法
US17/059,623 US11445166B2 (en) 2018-06-05 2019-04-10 Image projection system, image projection apparatus, image display light diffraction optical element, tool, and image projection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-107519 2018-06-05
JP2018107519 2018-06-05

Publications (1)

Publication Number Publication Date
WO2019235059A1 true WO2019235059A1 (ja) 2019-12-12

Family

ID=68769607

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015641 WO2019235059A1 (ja) 2018-06-05 2019-04-10 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法

Country Status (4)

Country Link
US (1) US11445166B2 (ja)
JP (1) JP7275124B2 (ja)
CN (1) CN112204453B (ja)
WO (1) WO2019235059A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020183887A1 (ja) * 2019-03-08 2020-09-17 ソニー株式会社 複合型回折素子、器具、及び映像投射システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11948043B2 (en) * 2021-06-02 2024-04-02 Apple Inc. Transparent insert identification
DE102022202085A1 (de) 2022-03-01 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Brillenvorrichtung, Datenbrille und Verfahren mit einem Brillenglas

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020060649A1 (en) * 2000-03-31 2002-05-23 Perlman Stephen G. Virtual display system and method
JP2006053321A (ja) * 2004-08-11 2006-02-23 Olympus Corp 投影観察装置
JP2006098820A (ja) * 2004-09-30 2006-04-13 Shimadzu Corp 表示装置
WO2009066446A1 (ja) * 2007-11-20 2009-05-28 Panasonic Corporation ビーム走査型表示装置、表示方法、及び自動車

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003065105A1 (fr) * 2002-02-01 2003-08-07 Mitsubishi Denki Kabushiki Kaisha Afficheur d'images destine a projeter des images directement sur la retine de la personne qui le porte
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
JP2012133087A (ja) * 2010-12-21 2012-07-12 Sony Corp 立体表示システム、眼鏡装置、表示装置、および撮像表示システム
JP5589992B2 (ja) 2011-08-23 2014-09-17 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
JP5761074B2 (ja) * 2012-02-24 2015-08-12 株式会社デンソー 撮像制御装置及びプログラム
US20140132787A1 (en) * 2012-11-14 2014-05-15 Chip Goal Electronics Corporation Motion Detection Device and Motion Detection Method Having Rotation Calibration Function
TWI486631B (zh) * 2014-01-24 2015-06-01 Quanta Comp Inc 頭戴式顯示裝置及其控制方法
DE102014217961A1 (de) * 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Pose eines HMD
US9870049B2 (en) * 2015-07-31 2018-01-16 Google Llc Reflective lenses to auto-calibrate a wearable system
CN105572877B (zh) * 2016-02-03 2018-11-09 上海群英软件有限公司 一种头戴式增强现实智能显示装置
US20190141264A1 (en) * 2016-05-25 2019-05-09 Mtekvision Co., Ltd. Driver's eye position detecting device and method, imaging device having image sensor with rolling shutter driving system, and illumination control method thereof
KR101919486B1 (ko) * 2017-08-23 2018-11-19 한국과학기술연구원 완전 시차 초점 조절 3차원 디스플레이 장치
JP6856017B2 (ja) * 2017-12-28 2021-04-07 株式会社Jvcケンウッド 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020060649A1 (en) * 2000-03-31 2002-05-23 Perlman Stephen G. Virtual display system and method
JP2006053321A (ja) * 2004-08-11 2006-02-23 Olympus Corp 投影観察装置
JP2006098820A (ja) * 2004-09-30 2006-04-13 Shimadzu Corp 表示装置
WO2009066446A1 (ja) * 2007-11-20 2009-05-28 Panasonic Corporation ビーム走査型表示装置、表示方法、及び自動車

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020183887A1 (ja) * 2019-03-08 2020-09-17 ソニー株式会社 複合型回折素子、器具、及び映像投射システム
WO2020184268A1 (ja) * 2019-03-08 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 複合型回折素子、器具、及び映像投射システム

Also Published As

Publication number Publication date
CN112204453B (zh) 2024-01-16
US11445166B2 (en) 2022-09-13
CN112204453A (zh) 2021-01-08
JP7275124B2 (ja) 2023-05-17
US20210227199A1 (en) 2021-07-22
JPWO2019235059A1 (ja) 2021-07-08

Similar Documents

Publication Publication Date Title
TWI666467B (zh) 眼睛投影系統
JP5237268B2 (ja) 表示装置
CN107407812B (zh) 图像显示装置
US8403490B2 (en) Beam scanning-type display device, method, program and integrated circuit
US20210003969A1 (en) Wide field of view hybrid holographic display
JP4155343B2 (ja) 二つの光景からの光を観察者の眼へ代替的に、あるいは同時に導くための光学系
JP5373892B2 (ja) ビーム走査型表示装置
JP2019091051A (ja) 表示装置、およびフォーカスディスプレイとコンテキストディスプレイを用いた表示方法
US10712576B1 (en) Pupil steering head-mounted display
TW201643506A (zh) 頭戴式顯示裝置
WO2020183887A1 (ja) 複合型回折素子、器具、及び映像投射システム
WO2019235059A1 (ja) 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法
CN114365027A (zh) 显示具有景深的物体的系统与方法
JP2004145367A (ja) 画像表示装置
KR20230003097A (ko) 빔 조향 부재를 사용한 아이박스 조향 및 시야 확장
JP3698582B2 (ja) 画像表示装置
JP7282437B2 (ja) ヘッドマウントディスプレイ
JP2017026885A (ja) 画像表示装置および画像表示装置の駆動方法
JP2019049724A (ja) 目用投影システム
CN117957479A (en) Compact imaging optics with distortion compensation and image sharpness enhancement using spatially positioned freeform optics
JP2016142864A (ja) 画像表示装置および画像表示装置の位置合わせ方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19814432

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020523544

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19814432

Country of ref document: EP

Kind code of ref document: A1