WO2016208266A1 - 画像投影装置 - Google Patents

画像投影装置 Download PDF

Info

Publication number
WO2016208266A1
WO2016208266A1 PCT/JP2016/063002 JP2016063002W WO2016208266A1 WO 2016208266 A1 WO2016208266 A1 WO 2016208266A1 JP 2016063002 W JP2016063002 W JP 2016063002W WO 2016208266 A1 WO2016208266 A1 WO 2016208266A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light beam
user
light
inspection
Prior art date
Application number
PCT/JP2016/063002
Other languages
English (en)
French (fr)
Inventor
荒川泰彦
菅原充
鈴木誠
新井道夫
Original Assignee
株式会社Qdレーザ
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015244557A external-priority patent/JP6231541B2/ja
Application filed by 株式会社Qdレーザ, 国立大学法人東京大学 filed Critical 株式会社Qdレーザ
Priority to US15/579,750 priority Critical patent/US10444519B2/en
Publication of WO2016208266A1 publication Critical patent/WO2016208266A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Definitions

  • the present invention relates to an image projecting apparatus, and more particularly to an image projecting apparatus that projects an image directly onto a user's retina.
  • an apparatus for example, a head-mounted display
  • an image projecting apparatus that directly projects an image on the user's retina using Maxwell's view.
  • personal authentication for example, Patent Document 1
  • pupil position detection for example, Patent Document 2
  • eyelid opening / closing detection for example, Patent Document 1 3 to 5
  • a head-mounted display having a function of performing line-of-sight detection for example, Patent Documents 6 and 7
  • the gaze detection apparatus using the light reflected with the user's eyes is also known (for example, patent document 8, 9).
  • a light source that emits the inspection light beam is provided in addition to the light source that emits the image light beam, which increases the size of the apparatus.
  • the present invention has been made in view of the above problems, and an object of the present invention is to downsize an image projection apparatus that can control a light source and an optical system when a user is viewing an image.
  • the present invention projects an image light beam forming an image and an inspection light beam, and projects the image light beam emitted from the one light source onto a first surface region of a user's eye. And an optical system that projects the inspection light beam emitted from the one light source onto a second surface region of the user's eye that is remote from the first surface region, and the inspection light beam. Detecting a reflected light reflected by the user's eyes, and a control unit for controlling at least one of the one light source and the optical system based on a detection result of the reflected light by the photodetector;
  • An image projection apparatus comprising:
  • the optical system has a positional relationship in which the inspection light beam is projected onto the user's iris when the image light beam passes through the user's pupil and is projected onto the user's retina.
  • the image light beam and the inspection light beam may be projected onto the user's eye.
  • control unit controls the optical system so that the photodetector detects the reflected light when the photodetector does not detect the reflected light, and controls the optical beam and the inspection. It can be set as the structure which moves the projection position to the said user's eyes of a working light interlockingly.
  • the optical system scans the image light beam emitted from the one light source and reflects the inspection light beam emitted from the one light source, and the mirror scanned by the mirror.
  • the image light beam passes through the user's pupil and is projected onto the user's retina
  • the inspection light beam reflected by the mirror is projected onto the user's iris
  • the image light beam and A projection unit that projects the inspection light beam onto the user's eyes and the control unit moves the position of the mirror to move the scanning origin, thereby moving the image light beam and the inspection. It can be set as the structure which moves the said projection position of the light beam for an interlocking movement.
  • the optical system scans the image light beam emitted from the one light source and reflects the inspection light beam emitted from the one light source, and the mirror scanned by the mirror.
  • the image light beam passes through the user's pupil and is projected onto the user's retina
  • the inspection light beam reflected by the mirror is projected onto the user's iris
  • the image light beam and A projection unit that projects the inspection light beam onto the user's eyes and the control unit moves the one light source, the mirror, and the projection unit integrally to thereby move the image light beam and
  • the projection position of the inspection light beam can be moved in conjunction with each other.
  • the optical system projects a plurality of the inspection light beams to different positions of the user's eye at different times
  • the control unit is configured so that the photodetector detects the plurality of inspection light beams at the different times.
  • the projection positions of the image light beam and the inspection light beam can be moved in conjunction with each other.
  • the optical system projects a plurality of the inspection light beams onto different positions of the user's eye
  • the control unit is configured so that the photodetector includes the reflected light of the plurality of inspection light beams.
  • the projection position of the image light beam and the inspection light beam are moved so as to move in the direction of the projection position of the inspection light beam corresponding to the reflected light that is not detected.
  • the projection position of the light beam can be moved in conjunction with each other.
  • the said structure WHEREIN Based on the detection result of the said reflected light by the said photodetector, the said control part can be set as the structure which controls the said one light source and controls the said image formed with the light ray for an image. .
  • the optical system projects a plurality of the inspection light beams to different positions of the user's eye
  • the control unit is configured to cause the photodetector to perform a first inspection among the plurality of inspection light beams.
  • the first control of the image is performed when the reflected light of the light beam is not detected, and the first control is performed when the light detector does not detect the reflected light of the second inspection light beam among the plurality of inspection light beams. It can be set as the structure which performs the 2nd control of the said image different from control.
  • the optical system projects a plurality of inspection light beams to different positions of the user
  • the control unit is configured such that the light detector is a part of the plurality of inspection light beams.
  • the first control of the image is performed when the reflected light is not detected, and the image is different from the first control when the photodetector does not detect all the reflected light of the plurality of inspection light beams. It can be set as the structure which performs 2nd control.
  • control unit controls the one light source to move the projection position of the image light beam and the inspection light beam in conjunction with each other, and then moves the image formed by the image light beam.
  • the image light beam and the inspection light beam can be configured to be different from the image formed by the image light beam before moving the projection position in conjunction with each other.
  • control unit may be configured to issue a warning to the user by controlling the one light source based on the detection result of the reflected light by the photodetector.
  • control unit controls the one light source to emit warning light to an integrated region including the first surface region and the second surface region of the user's eye. be able to.
  • the optical system scans the image light beam emitted from the one light source and reflects the inspection light beam emitted from the one light source, and the mirror scanned by the mirror.
  • the image light beam passes through the user's pupil and is projected onto the user's retina
  • the inspection light beam reflected by the mirror is projected onto the user's iris
  • the mirror is a range of an image projected onto the user's retina in a second direction that intersects the first direction and the first direction.
  • the one light source emits the image light beam to the mirror during a period corresponding to the range of the image in the vibration of the mirror, and the detection is performed at a time outside the range of the image.
  • the use beam can be configured to emit to the mirror.
  • the said structure WHEREIN has the 1st area
  • the present invention it is possible to reduce the size of the image projection apparatus that can control the light source and the optical system while the user is viewing the image.
  • FIG. 1 is a diagram of the image projection apparatus according to the first embodiment viewed from above.
  • FIG. 2 is an enlarged view of the vicinity of the projection unit in FIG. 3A illustrates the vibration of the first mirror, the image light beam, and the inspection light beam.
  • FIG. 3B illustrates the first mirror vibration from point A to point B in FIG. It is a figure explaining the emission timing from the light source of the light ray for an image and the light ray for an inspection in the case where it did.
  • FIG. 4 is a diagram for explaining the projection of the image light beam and the inspection light beam to the eyeball.
  • FIG. 5 is a diagram for explaining detection timing at which the control unit detects reflected light using a photodetector.
  • FIGS. 9A and 9B are diagrams (part 1) for explaining changes in the projection positions of the image light beam and the inspection light beam on the eyeball.
  • FIG. 10 is a diagram (part 2) for explaining a change in the projection position of the image light beam and the inspection light beam on the eyeball.
  • FIG. 11 is a flowchart illustrating an example of processing performed by the control unit of the image projection apparatus according to the second embodiment.
  • FIG. 12A to FIG. 12C are diagrams for explaining that image loss can be suppressed by the processing of FIG. 11.
  • FIG. 13 is a diagram of an image projection apparatus according to the first modification of the second embodiment viewed from above.
  • FIG. 14A and FIG. 14B are diagrams for explaining changes in the projection positions of the image light beam and the inspection light beam on the eyeball in the case of the image projection apparatus according to the first modification of the second embodiment.
  • FIG. 15 is a flowchart illustrating an example of processing of the control unit of the image projection apparatus according to the first modification of the second embodiment.
  • FIG. 16 is a diagram of the image projection apparatus according to the third embodiment as viewed from above.
  • FIG. 17 is a flowchart illustrating an example of processing of the control unit of the image projection apparatus according to the third embodiment.
  • FIG. 18A to FIG. 18C are flowcharts showing detection of whether or not the patient is in a dozing state.
  • FIG. 19A and FIG. 19B are diagrams illustrating an example of a warning.
  • FIG. 20 is a flowchart illustrating an example of processing of the control unit of the image projection apparatus according to the fourth embodiment.
  • FIG. 21A and FIG. 21B are diagrams for describing control of an image according to an inspection light beam that is not detected.
  • FIG. 22 is a flowchart illustrating an example of processing of the control unit of the image projection apparatus according to the fifth embodiment.
  • FIG. 1 is a diagram of the image projection apparatus 100 according to the first embodiment as viewed from above.
  • FIG. 2 is an enlarged view of the vicinity of the projection unit 16 of FIG.
  • the image projection apparatus 100 according to the first embodiment is a retinal projection head mounted display using Maxwell's view in which an image ray for allowing a user to visually recognize an image is directly projected onto the retina 38 of the user's eyeball 36. is there.
  • the image projection apparatus 100 of Example 1 is provided with the light source 12, the 1st mirror 14, the projection part 16, the photodetector 18, and the control part 20 like FIG.
  • the light source 12 is disposed on the temple 30 of the glasses-type frame.
  • the light source 12 emits, for example, a light beam 34 having a single wavelength or a plurality of wavelengths under the instruction of the control unit 20.
  • the light ray 34 includes an image light ray for projecting an image on the retina 38 of the user's eyeball 36, and an inspection light ray for detecting at least one of the position of the pupil 40 of the user's eyeball 36 and the opening / closing of the user's eyelid. And rays.
  • the inspection light beam is emitted from the same light source 12 as the image light beam, it is visible light like the image light beam.
  • the light source 12 emits red laser light (wavelength: about 610 nm to 660 nm), green laser light (wavelength: about 515 nm to 540 nm), and blue laser light (wavelength: about 440 nm to 480 nm), for example.
  • Examples of the light source 12 that emits red, green, and blue laser light include a light source in which RGB (red, green, and blue) laser diode chips, a three-color synthesis device, and a microcollimator lens are integrated.
  • the first mirror 14 is disposed on the temple 30 of the glasses-type frame.
  • the first mirror 14 scans the image light beam emitted from the light source 12 in the horizontal direction and the vertical direction.
  • the first mirror 14 reflects the inspection light beam emitted from the light source 12.
  • the first mirror 14 is, for example, a MEMS (Micro Electro Mechanical System) mirror.
  • the light beam 34 emitted from the light source 12 is reflected by, for example, the second mirror 15 and the third mirror 17 and enters the first mirror 14.
  • FIG. 3A illustrates the vibration of the first mirror 14, the image light beam, and the inspection light beam.
  • the first mirror 14 is larger than the range of the image projected on the retina 38 (the broken line range in FIG. 3A) in order to scan the image light ray 34a, and is in the horizontal direction ( It vibrates in the first direction) and in the vertical direction (second direction intersecting the first direction).
  • the vibration of the first mirror 14 is indicated by reference numeral 50.
  • the image light beam 34a When the image light beam 34a is scanned at a location where the first mirror 14 is greatly shaken and the image is projected onto the retina 38, the image light beam 34a has a small shake of the first mirror 14 because the image distortion becomes large. Scanned in place.
  • the inspection light beam 34 b is incident on the first mirror 14 at a timing when the image light beam 34 a is not scanned in the vibration 50 of the first mirror 14.
  • the light source 12 emits the image light beam 34a to the first mirror 14 during a period corresponding to the range of the image projected on the retina 38 in the vibration 50 of the first mirror 14, and inspects at a time outside the range of the image.
  • the light beam 34 b is emitted to the first mirror 14.
  • 3B is a diagram illustrating the emission timing of the image light beam 34a and the inspection light beam 34b from the light source 12 when the first mirror 14 vibrates from the point A to the point B in FIG. 3A.
  • the light intensity of the inspection light beam 34b may be the same as or different from that of the image light beam 34a.
  • the light intensity of the inspection light beam 34b may be any light intensity that allows the reflected light 46 to be detected by the photodetector 18 described later.
  • the one or more inspection light beams 34b are incident on the first mirror 14.
  • 3A and 3B show an example in which six inspection light beams 34b are incident on the first mirror 14.
  • the inspection light beam 34b may be a light beam having a single wavelength, or may be a light beam corresponding to one pixel or several pixels of an image projected on the retina 38.
  • FIG. 3A the case where the image light beam 34a is scanned in a rectangular shape is shown as an example.
  • the present invention is not limited to this, and other cases such as scanning in a trapezoidal shape may be used.
  • the image light beam 34 a scanned by the first mirror 14 and the inspection light beam 34 b reflected by the first mirror 14 are directed toward the lens 32 of the glasses frame by the fourth mirror 44. And reflected. Since the projection unit 16 is disposed on the surface of the lens 32 on the eyeball 36 side, the image light beam 34 a scanned by the first mirror 14 and the inspection light beam 34 b reflected by the first mirror 14 are transmitted to the projection unit 16. Is incident on.
  • the projection unit 16 is a half mirror having a free curved surface or a combined structure of a free curved surface and a diffractive surface in the first region 16a where the image light beam 34a is incident.
  • the image light ray 34 a incident on the projection unit 16 is projected on the retina 38 after being converged in the vicinity of the pupil 40 of the eyeball 36. Therefore, the user can recognize the image formed by the image light beam 34a and can visually recognize the outside world image with see-through.
  • the projection unit 16 is a half mirror that is optically discontinuous with the first region 16a in the second region 16b where the inspection light beam 34b is incident. Thereby, the inspection light beam 34 b is projected onto the iris 42 of the eyeball 36 when the image light beam 34 a passes through the pupil 40 and is projected onto the retina 38.
  • the inspection light ray 34b is the second surface area 36b away from the first surface area 36a of the eyeball 36. Projected on.
  • FIG. 4 is a diagram for explaining the projection of the image light beam 34a and the inspection light beam 34b onto the eyeball 36.
  • the inspection light beam 34 b is projected onto the iris 42 when the image light beam 34 a passes through the vicinity of the center of the pupil 40 and is projected onto the retina 38. Since the second region 16 b of the projection unit 16 is optically discontinuous with the first region 16 a, the image light beam 34 a passes through the pupil 40 and is projected onto the retina 38, while the test light beam 34 b is projected onto the iris 42. Can be projected. Further, the image light beam 34 a and the inspection light beam 34 b are emitted from the light source 12 at a predetermined timing with respect to the vibration of the first mirror 14.
  • the relative emission timings of the image light beam 34a and the inspection light beam 34b are fixed. For this reason, the relative positions of the image light beam 34 a and the inspection light beam 34 b are fixed and projected onto the eyeball 36. Further, as shown in FIG. 3A, since the plurality of inspection light beams 34b are light reflected at different positions of the vibration 50 of the first mirror 14, different times (different timings) at different positions of the iris 42 are obtained. ). That is, the plurality of inspection light beams 34 b are sequentially projected onto different positions of the iris 42.
  • the photodetector 18 is arranged on the frame of the lens 32.
  • the photodetector 18 is, for example, a photodetector.
  • the photodetector 18 detects the reflected light 46 reflected by the iris 42 from the inspection light beam 34b.
  • FIG. 5 is a diagram for explaining detection timing at which the control unit 20 detects the reflected light 46 using the photodetector 18.
  • the control unit 20 detects the reflected light 46 using the photodetector 18 at the timing when the inspection light beam 34 b is emitted from the light source 12.
  • the time for detecting the reflected light 46 may be widened in consideration of the performance of the photodetector 18 and the like.
  • 1 and 2 exemplify the case where the photodetector 18 is disposed in the vicinity of the center of the lens 32.
  • the reflected light 46 can be detected, for example, in the vicinity of the temple 30 of the lens 32. Or a nose pad (not shown) or the like.
  • the plurality of inspection light beams 34 b are projected onto the iris 42 in order, so that one photodetector is used. 18, the reflected light 46 of the plurality of inspection light beams 34 b can be detected.
  • the control unit 20 is provided in an external device (for example, a mobile terminal).
  • the control unit 20 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and controls the image projection apparatus 100 according to a program stored in the ROM.
  • the control unit 20 causes the light source 12 to emit an image light beam 34 a based on the input image data and an inspection light beam 34 b for detecting at least one of the position of the pupil 40 and the opening / closing of the eyelid. Further, the control unit 20 controls at least one of the optical system including the light source 12 and the first mirror 14 based on the detection result of the photodetector 18.
  • control unit 20 controls the emission of the light beam including the image light beam 34 a and / or the inspection light beam 34 b from the light source 12.
  • control unit 20 drives the position adjustment unit 22 to move the position of the first mirror 14 and controls to move the positions of the third mirror 17 and the fourth mirror 44 in accordance with the movement of the first mirror 14. I do.
  • FIG. 6A is a diagram illustrating a case where the image light beam 34 a passes through the pupil 40 and the inspection light beam 34 b is projected onto the iris 42.
  • FIG. 6B is a diagram illustrating a case where a part of the inspection light beam 34 b is projected onto the retina 38 through the pupil 40 due to the rotation of the eyeball 36.
  • FIG. 6C is a diagram illustrating a case where the inspection light beam 34 b is projected onto the eyelid 37 by closing the eyelid 37.
  • FIG. 6A when the inspection light beam 34b is projected onto the iris 42, a relatively large reflected light 46 is generated.
  • FIG. 6B when the eyeball 36 rotates and the inspection light beam 34b passes through the pupil 40 and is projected onto the retina 38, or when the eyelid 37 closes as shown in FIG. 6C.
  • the reflected light 46 is hardly generated. That is, in the case of FIG. 6A, the photodetector 18 detects a relatively large reflected light 46, but in the case of FIGS. 6B and 6C, the photodetector 18 reflects. It happens that the light 46 is not detected.
  • the photodetector 18 does not detect the reflected light 46 of some of the inspection light beams 34b among the plurality of inspection light beams 34b.
  • the photodetector 18 does not detect all the reflected light 46 of the plurality of inspection light beams 34b.
  • the fact that the photodetector 18 does not detect the reflected light 46 means that the reflected light 46 having a magnitude greater than or equal to a predetermined value is not detected.
  • FIG. 7 is a flowchart illustrating an example of processing of the control unit 20 of the image projection apparatus 100 according to the first embodiment.
  • the control unit 20 causes the image light beam 34a to be emitted from the light source 12 based on the input image data, and a plurality of inspection light beams 34b are emitted along with the emission of the image light beam 34a. Is emitted from the light source 12. As described with reference to FIG. 4, the plurality of inspection light beams 34 b are projected onto different positions of the iris 42 at different times.
  • step S12 the control unit 20 determines whether or not the photodetector 18 has detected the reflected light 46 at different times when the plurality of inspection light beams 34b are projected onto the iris 42. That is, as described with reference to FIG. 5, the control unit 20 determines whether or not the reflected light 46 of the plurality of inspection light beams 34 b is detected every time when the plurality of inspection light beams 34 b are emitted from the light source 12. To do. For example, when the user moves the eyeball 36 or closes the eyelid 37, the photodetector 18 does not detect the reflected light 46 of at least some of the plurality of inspection light beams 34b.
  • step S12 When the light detector 18 does not detect the reflected light 46 of at least some of the inspection light beams 34b among the plurality of inspection light beams 34b (step S12: No), the control unit 20 proceeds to step S14 and proceeds to step S14. 12 and at least one of the optical systems including the first mirror 14 is controlled.
  • Examples of the control of the light source 12 include control of the content of an image formed by the image light beam 34a (for example, reproduction, stop, pause, or switching to a different image), image light beam 34a in the vibration 50 of the first mirror 14, and Examples include changing the incident position of at least one of the inspection light beams 34b, changing the number of the inspection light beams 34b, and changing the color or brightness of at least one of the image light beam 34a and the inspection light beam 34b.
  • control of the optical system examples include movement of at least one position of the first mirror 14, the second mirror 15, the third mirror 17, the fourth mirror 44, and the projection unit 16. By moving the positions of these optical system parts, the positions where the image light beam 34a and the inspection light beam 34b are applied to the eyeball 36 are moved, and the focal positions of the image light beam 34a and the inspection light beam 34b are moved. May be. Thereafter, the process proceeds to step S16. On the other hand, when the photodetector 18 has detected all the reflected light 46 of the plurality of inspection light beams 34b (step S12: Yes), the control unit 20 proceeds to step S16 without performing step S14.
  • step S16 the control unit 20 determines whether or not the image projection has ended. If the image projection has not ended, that is, if the image light beam 34a and the inspection light beam 34b are emitted from the light source 12, the determination in step S16 is negative and the process returns to step S12. The control unit 20 repeats the processes from step S12 to step S16 until the image projection ends. On the other hand, when the projection of the image ends (step S16: Yes), the control unit 20 ends the process of FIG.
  • the image light beam 34 a and the inspection light beam 34 b are emitted from one light source 12.
  • the inspection light beam 34 b is projected onto the iris 42 when the image light beam 34 a passes through the pupil 40 and is projected onto the retina 38.
  • the control unit 20 controls at least one of the optical system including the light source 12 and the first mirror 14 based on the detection result of the reflected light 46 of the inspection light beam 34b by the photodetector 18.
  • the first mirror 14 is larger than the range of the image projected on the user's retina 38 in the horizontal direction and the vertical direction. Vibrate.
  • the light source 12 emits the image light beam 34a to the first mirror 14 during a period corresponding to the image range in the vibration of the first mirror 14, and emits the inspection light beam 34b to the first mirror 14 at a time outside the image range. To do. Thereby, the vibration of the first mirror 14 can be effectively used to scan the image light beam 34a and reflect the inspection light beam 34b.
  • the first region 16 a on which the image light beam 34 a enters and the first region 16 a are optically discontinuous, and the inspection light beam. 34b is incident on the second region 16b.
  • the inspection light beam 34 b is projected onto the iris 42 while the image light beam 34 a passes through the pupil 40 and is projected onto the retina 38.
  • the image light beam 34a and the test light beam 34b are in a positional relationship in which the inspection light beam 34b is projected onto the iris 42.
  • a case where is projected onto the eyeball 36 is shown, but the present invention is not limited to this case.
  • Other cases may be employed as long as the second surface region 36 b on which the inspection light beam 34 b is projected onto the eyeball 36 is separated from the first surface region 36 a on which the image light beam 34 a is projected onto the eyeball 36.
  • the inspection light beam 34b is projected onto the iris 42, a relatively large reflected light 46 is generated. Therefore, when the image light beam 34a passes through the pupil 40 and is projected onto the retina 38, the inspection light beam 34b. Is preferably projected onto the iris 42.
  • the present invention is not limited thereto, and one inspection light beam 34b may be projected onto the eyeball 36.
  • FIG. 8A to FIG. 8C are diagrams for explaining the projection of the image light ray 34 a on the retina 38 with respect to the movement of the eyeball 36.
  • 8A shows a case where the eyeball 36 faces the front
  • FIG. 8B shows a case where the eyeball 36 faces the left side from the front
  • FIG. 8C shows a case where the eyeball 36 further faces the left side. Shows the case.
  • the image light beam 34a converges near the center of the pupil 40 and is projected onto the retina 38.
  • the image light ray 34 a converges near the end of the pupil 40 and is projected onto the retina 38.
  • FIG. 8C when the eyeball 36 further faces to the left, the image light ray 34 a cannot pass through the pupil 40 and is not projected onto the retina 38.
  • the image light ray 34a does not pass through the pupil 40 due to the movement of the eyeball 36.
  • the image light beam 34a may not pass through the pupil 40 depending on the user.
  • an image projection apparatus that suppresses an image from being projected onto the user's retina by controlling the optical system based on the detection result of the reflected light 46 of the inspection light beam 34b by the photodetector 18. Will be explained.
  • the inspection light beam 34 b when the inspection light beam 34 b is projected onto the iris 42, a relatively large reflected light 46 is generated. However, the inspection light beam 34 b is caused by the rotation of the eyeball 36 or the like. Is projected onto the retina 38 through the pupil 40, the reflected light 46 is unlikely to occur.
  • the image light beam 34a may pass through the vicinity of the end of the pupil 40 or may not pass through the pupil 40. It is assumed that it is in the state to be done. Therefore, in the second embodiment, when the light detector 18 cannot detect the reflected light 46, it is assumed that there is a fear of image loss, and thus control for suppressing image loss is performed.
  • the image projection apparatus 200 is the same as or equivalent to FIG.
  • the control unit 20 drives the position adjustment unit 22 to move the position of the first mirror 14 based on the detection result of the reflected light 46 of the inspection light beam 34 b by the photodetector 18, and The positions of the third mirror 17 and the fourth mirror 44 are moved in accordance with the movement of the one mirror 14.
  • the scanning origin of the image light beam 34a can be moved.
  • the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36 can be moved. This will be described with reference to FIGS.
  • FIGS. 9A to 10 are diagrams for explaining changes in the projection positions of the image light beam 34a and the inspection light beam 34b onto the eyeball 36.
  • FIG. FIG. 10 shows a state where FIG. 9 (a) and FIG. 9 (b) are combined.
  • the state of FIG. 9 (a) is indicated by a dotted line
  • the state of FIG. 9 (b) is indicated by a solid line. Yes.
  • FIGS. 9A and 10 show the case where the image light ray 34 a passes near the center of the pupil 40.
  • the position adjustment unit 22 is driven to move the position of the first mirror 14 as shown by the solid line in FIGS. 9B and 10, and the first mirror 14 is moved.
  • the scanning origin of the image light beam 34 a moves from O to O ′.
  • the incident position of the image light beam 34a corresponding to the central portion of the image projected onto the retina 38 is hardly changed. This is to suppress deterioration in the quality of the image projected on the retina 38, changes in the incident position of the inspection light beam 34b on the projection unit 16, and the like.
  • the incident angles of the image light beam 34a and the inspection light beam 34b to the projection unit 16 change, and as a result, the eyeballs of the image light beam 34a and the inspection light beam 34b.
  • the projection position to 36 moves.
  • the image light beam 34a and the inspection light beam 34b move in conjunction with each other while the relative positional relationship between the projection positions on the eyeballs 36 is fixed. For example, from the state where the light ray 34a for image passes through the vicinity of the center of the pupil 40 as shown by the dotted lines in FIGS. 9A and 10, the image light as shown in FIG. 9B and the solid line in FIG. The state changes so that the light beam 34 a passes through the end side of the center of the pupil 40.
  • the position of the first mirror 14 is moved by the position adjusting unit 22, and the positions of the third mirror 17 and the fourth mirror 44 are moved in accordance with the movement of the first mirror 14.
  • the first mirror 14 and the like are preferably moved in an arc shape, but may be moved linearly in the direction of the arrow in FIG. 10 and in the direction perpendicular to the paper surface in FIG. 10 (the direction perpendicular to the arrow).
  • a biaxial actuator for example, an ultrasonic actuator
  • can move in the biaxial direction can be used as the position adjusting unit 22.
  • FIG. 11 is a flowchart illustrating an example of processing of the control unit 20 of the image projection apparatus 200 according to the second embodiment.
  • FIG. 12A to FIG. 12C are diagrams for explaining that image loss can be suppressed by the processing of FIG. 11.
  • the control unit 20 emits the image light beam 34a from the light source 12 based on the input image data, and a plurality of inspection light beams 34b as the image light beam 34a is emitted. Is emitted from the light source 12.
  • the plurality of inspection light beams 34 b are projected onto different positions of the iris 42 at different times.
  • step S22 the control unit 20 determines whether or not the photodetector 18 has detected the reflected light 46 at different times when the plurality of inspection light beams 34b are projected onto the iris 42. That is, as described with reference to FIG. 5, in the control unit 20, the photodetector 18 detects the reflected light 46 of the plurality of inspection beams 34 b at every time when the plurality of inspection beams 34 b are emitted from the light source 12. Determine whether or not. When the photodetector 18 detects all the reflected lights 46 of the plurality of inspection light beams 34b, all of the plurality of inspection light beams 34b enter the iris 42 as shown in FIG.
  • step S28 it is assumed that the light ray 34 a passes through the vicinity of the center of the pupil 40. Therefore, when the photodetector 18 detects all the reflected light 46 of the plurality of inspection light beams 34b, the projection position of the image light beam 34a on the eyeball 36 does not need to be adjusted. The determination is affirmed and the process proceeds to step S28.
  • step S22 when the photodetector 18 has not detected at least one reflected light 46 among the plurality of inspection light beams 34b, at least one inspection light beam 34b is incident on the iris 42 as shown in FIG. Without passing through the pupil 40, it is assumed that the image light ray 34a passes near the end of the pupil 40. In other words, it is assumed that there is a fear of image loss. Therefore, when the photodetector 18 has not detected at least one reflected light 46 among the plurality of inspection light beams 34b (step S22: No), the projection position of the image light beam 34a on the eyeball 36 is adjusted. To do so, go to step S24.
  • step S ⁇ b> 24 the control unit 20 drives the position adjustment unit 22 to move the position of the first mirror 14 and moves the positions of the third mirror 17 and the fourth mirror 44 in accordance with the movement of the first mirror 14. By doing so, the scanning origin of the image light beam 34a is moved. As described with reference to FIG. 9A to FIG. 10, by moving the origin of scanning of the image light beam 34a, the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36 are moved in conjunction with each other. be able to.
  • control unit 20 moves the image light beam 34 a so that the projection position of the image light beam 34 a moves in the direction of the projection position of the inspection light beam 34 b corresponding to the reflected light 46 not detected by the photodetector 18.
  • the origin of scanning of 34a is moved.
  • step S26 the control unit 20 determines whether or not the photodetector 18 detects all the reflected light 46 of the plurality of inspection light beams 34b. If the photodetector 18 has not yet detected at least one reflected light 46 among the plurality of inspection light beams 34b (step S26: No), the process returns to step S24. The control unit 20 repeats the processes of steps S24 and S26 until the photodetector 18 detects all the reflected light 46 of the plurality of inspection light beams 34b.
  • step S26 when the photodetector 18 detects all the reflected light 46 of the plurality of inspection light beams 34b (step S26: Yes), the adjustment of the projection position of the image light beam 34a onto the eyeball 36 is finished. Then, the process proceeds to step S28.
  • step S28 the control unit 20 performs the same or equivalent process as step S16 of FIG.
  • the control unit 20 causes the photodetector 18 to detect the reflected light 46 when the photodetector 18 does not detect the reflected light 46 of the inspection light beam 34b.
  • the optical system is controlled to move the image light beam 34a in conjunction with the projection position of the inspection light beam 34b onto the eyeball 36. Thereby, it can suppress that the light ray 34a for an image does not pass through the pupil 40, and can suppress that an image is not projected on the retina 38 as a result.
  • the control unit 20 fixes the relative positional relationship between the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36.
  • the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36 are preferably moved in conjunction with each other. Even when the relative positional relationship between the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36 is slightly shifted, the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36 are interlocked. What is necessary is just to move.
  • control unit 20 moves the position of the first mirror 14 to move the projection position of the image light beam 34a and the inspection light beam 34b onto the eyeball 36 in conjunction with each other. This is done by moving the scanning origin of the light beam 34a. Thereby, the projection positions of the image light beam 34a and the inspection light beam 34b can be easily moved in conjunction with each other.
  • the plurality of inspection light beams 34b are projected onto different positions of the iris 42 at different times.
  • the control unit 20 determines the projection positions of the imaging light beam 34a and the inspection light beam 34b on the eyeball 36 based on whether the light detector 18 detects the reflected light 46 of the plurality of inspection light beams 34b at different times. Move in conjunction. Thereby, it can suppress effectively that the light ray 34a for an image does not pass the pupil 40.
  • the control unit 20 projects the projection position of the image light beam 34a when the light detector 18 does not detect at least one reflected light 46 among the reflected light 46 of the plurality of inspection light beams 34b.
  • the projection positions of the image light beam 34a and the inspection light beam 34b on the eyeball 36 are moved in conjunction with each other so as to move in the direction of the projection position of the inspection light beam 34b corresponding to the reflected light 46 that is not detected. Thereby, the projection position of the image light beam 34a can be adjusted to the pupil 40 efficiently.
  • FIG. 13 is a diagram of the image projection apparatus 210 according to the first modification of the second embodiment viewed from above.
  • the image projection apparatus 210 according to the first modification of the second embodiment includes one light source 12, a first mirror 14, a second mirror 15, a third mirror 17, a fourth mirror 44, and a projection unit 16. It is provided in the housing 60.
  • the position adjusting unit 22 is provided on the lens 32 of the glasses-type frame, for example, and moves the position of the housing 60.
  • the position adjustment unit 22 moves the housing 60 in the left-right direction and the up-down direction with respect to the eyeball 36.
  • Other configurations are the same as or equivalent to those in FIG.
  • FIG. 14A and 14B illustrate changes in the projection positions of the image light beam 34a and the inspection light beam 34b onto the eyeball 36 in the case of the image projection apparatus 210 according to the first modification of the second embodiment. It is a figure to do.
  • FIG. 14A shows a case where the image light ray 34 a passes near the center of the pupil 40. From the state of FIG. 14A, as shown in FIG. 14B, the position adjusting unit 22 is driven to move the position of the housing 60, thereby moving the image light ray 34a and the inspection light ray 34b to the eyeball 36. The projection position can be moved.
  • the position adjustment unit 22 moves the position of the housing 60 (that is, the light source 12, the first mirror 14, and the projection unit 16 are moved together), so that the image light beam 34a and the inspection light beam 34b are moved.
  • the projection position on the eyeball 36 can be moved in conjunction.
  • FIG. 15 is a flowchart illustrating an example of processing of the control unit 20 of the image projection apparatus 210 according to the first modification of the second embodiment. As illustrated in FIG. 15, the control unit 20 performs the same or equivalent processing in steps S30 and S32 as in steps S20 and S22 of FIG.
  • step S34 the control unit 20 drives the position adjustment unit 22 to move the position of the housing 60.
  • the position adjustment unit 22 moves the position of the housing 60.
  • the control unit 20 performs the same or equivalent processing as steps S26 and S28 in FIG. 11 of the second embodiment.
  • the control unit 20 moves the light source 12, the first mirror 14, and the projection unit 16 together so that the image light beam 34 a and the inspection light beam 34 b are moved.
  • the projection position on the eyeball 36 is moved in conjunction with each other. Even in such a case, it is possible to prevent the image light beam 34 a from passing through the pupil 40. Further, in the first modification of the second embodiment, the image light beam 34a is prevented from entering the retina 38 obliquely.
  • the glasses-type frame lens 32 may move integrally.
  • the control unit 20 uses a plurality of inspection beams corresponding to the plurality of reflected lights 46 that are not detected. It is also possible to obtain an intermediate position at each of the projection positions 34b and move the projection positions of the image light beam 34a and the inspection light beam 34b in the direction of the intermediate position in conjunction with each other.
  • the case where a plurality of inspection light beams 34b are projected onto the eyeball 36 is shown as an example. However, the case where one inspection light beam 34b is projected onto the eyeball 36. But you can.
  • the image light beam 34a and the inspection light beam 34b pass through the pupil 40 without the inspection light beam 34b being incident on the iris 42 as shown in FIG.
  • the image light ray 34 a has a positional relationship such that it passes near the end of the pupil 40. Thereby, it can suppress that an image is missing.
  • Example 3 is an example of an image projection apparatus that issues a warning when a user is in a dozing state.
  • the dozing state in the third embodiment includes a case where there is a high possibility of becoming a dozing state in addition to a case where the dozing state is considered to be a dozing state.
  • FIG. 16 is a diagram of the image projection apparatus 300 according to the third embodiment as viewed from above. As illustrated in FIG. 16, the image projection apparatus 300 according to the third embodiment is different from the image projection apparatus 100 according to the first embodiment in that the position adjusting unit 22 is not provided. Other configurations are the same as or equivalent to those in FIG.
  • FIG. 17 is a flowchart illustrating an example of processing of the control unit 20 of the image projection apparatus 300 according to the third embodiment.
  • the control unit 20 emits the image light beam 34a from the light source 12 based on the input image data, and a plurality of inspection light beams 34b as the image light beam 34a is emitted. Is emitted from the light source 12.
  • step S42 the control unit 20 detects whether or not the user is asleep based on the detection result of the reflected light 46 of the inspection light beam 34b by the photodetector 18.
  • the control unit 20 detects whether or not the user is asleep based on the detection result of the reflected light 46 of the inspection light beam 34b by the photodetector 18.
  • step S50 the control unit 20 determines whether or not the photodetector 18 has detected all the reflected light 46 of the plurality of inspection light beams 34b for a predetermined time or more. As described with reference to FIG. 6C, when the ridge 37 is closed, the photodetector 18 does not detect all the reflected light 46 of the plurality of inspection light beams 34b. Therefore, when the photodetector 18 has not detected all the reflected light 46 for a predetermined time or longer (step S50: Yes), the control unit 20 proceeds to step S52 and detects that the user is in a dozing state. .
  • step S50 determines whether the bag 37 has been closed because the user has fallen asleep or whether the bag 37 has been temporarily closed for other reasons. .
  • step S60 the control unit 20 determines whether or not the light detector 18 repeats the detection / non-detection of all the reflected light 46 of the plurality of inspection light beams 34b a predetermined number of times per predetermined time. Determine whether. When falling into a dozing state, the number of times the jar 37 is opened and closed increases. Therefore, when the light detector 18 repeats the detection / non-detection of all the reflected light 46 more than a predetermined number of times per predetermined time (step S60: Yes), the control unit 20 proceeds to step S62, and the user falls asleep. Detect that it is in a state.
  • step S60 determines whether there is no.
  • step S64 Detects that there is no.
  • step S64 what is necessary is just to set time and the frequency
  • step S70 the control unit 20 determines whether or not the photodetector 18 continues to detect all the reflected light 46 of the plurality of inspection light beams 34b for a predetermined time or more.
  • the control unit 20 determines whether or not the photodetector 18 continues to detect all the reflected light 46 of the plurality of inspection light beams 34b for a predetermined time or more.
  • the eyeball 36 is not moving.
  • the control unit 20 proceeds to step S72 and detects that the user is in a dozing state. To do.
  • step S70 determines whether the user is not in a doze state. Detect that.
  • the detection of the dozing state in step S42 in FIG. 17 may be detected by any one of the methods from FIG. 18A to FIG. 18C, or may be detected by combining a plurality of methods. Further, the dozing state may be detected by other methods.
  • step S42 the control unit 20 proceeds to step S44, and controls the light source 12 to issue a warning for preventing the dozing.
  • the control unit 20 includes a first surface region 36 a in which the image light beam 34 a is projected onto the eyeball 36 and a plurality of second surface regions in which the plurality of inspection light beams 34 b are projected onto the eyeball 36.
  • Warning light may be emitted from the light source 12 to the integrated region 39 including 36b. By increasing the intensity of the warning light, the user can recognize the light through the eyelid 37.
  • the intensity of warning light may be the maximum light intensity used for the image light beam 34a. Further, the warning light may be continuously applied to the integrated region 39, or the irradiation and non-irradiation may be repeatedly blinked.
  • the control unit 20 may display a warning 72 such as “attention to fall asleep” on the image 70 formed by the image light beam 34a.
  • the display location of the warning 72 may be anywhere in the image 70, but is preferably displayed in the center of the image 70 in order to make the user notice.
  • the way of issuing the warning may be changed depending on which of FIGS. 18 (a) to 18 (c) is detected to be a doze.
  • the warning light is emitted to the region 39 as shown in FIG. It is preferable.
  • FIG. 18B and FIG. 18C when it is detected that the ridge 37 is open even a little and is in a dozing state, as shown in FIG. Warning light may be irradiated, or a warning 72 may be displayed as shown in FIG.
  • step S ⁇ b> 46 determines whether or not a warning canceling measure has been input by the user. If no warning cancellation measure has been input (step S46: No), the determination in step S46 is denied, and the control unit 20 returns to step S44 and continues to issue a warning. On the other hand, when the warning cancellation measure is input (step S46: Yes), the determination in step S46 is affirmed and the process proceeds to step S48.
  • the external apparatus for example, portable terminal etc.
  • step S48 the control unit 20 performs the same or equivalent process as step S16 of FIG.
  • control unit 20 controls the light source 12 and issues a warning to the user based on the detection result of the reflected light 46 by the photodetector 18. Thereby, it can suppress that a user takes a nap, for example.
  • the control unit 20 controls the light source 12 to integrate the first surface region 36 a and the second surface region 36 b of the eyeball 36.
  • the warning light is emitted.
  • warning light can be projected onto the retina 38 via the eyelid 37 regardless of the direction in which the pupil 40 faces.
  • the warning light is preferably white light from the viewpoint of waking up, but may be other cases as long as it is visible light.
  • the control unit 20 determines the time during which all the reflected light 46 is not detected in FIG. 18A, the number of times of detection / non-detection of all the reflected light 46 in FIG.
  • the time during which all the reflected light 46 in 18 (c) is continuously detected may be detected, and the intensity of the warning light may be changed accordingly.
  • all the time that the reflected light 46 is continuously time or detected not detected weaken the intensity of light for warning in less than 1 second t, and moderate in one second or more t less than 2 seconds t, t 2 seconds The above may be strengthened.
  • the intensity of warning light is weakened, it is moderate when n is 1 or more and less than 2 times, and is increased when n 2 or more. You may do it. That is, the intensity of the warning may be changed according to the state of dozing.
  • control unit 20 may issue a sound warning by controlling a sound source (not shown) in addition to controlling the light source 12 to issue an image warning. Even when a warning sound is emitted, the size of the warning sound may be changed according to the state of dozing, as in the case of the image.
  • the third embodiment may be combined with the movement control linked to the projection positions of the image light beam 34a and the inspection light beam 34b described in the second embodiment.
  • it is detected whether or not the user is in a dozing state based on the detection result of the reflected light 46 by the photodetector 18, but the present invention is not limited to this. Other cases in which a warning is issued based on the detection result of the reflected light 46 by the photodetector 18 may be used.
  • the case where a plurality of inspection light beams 34 b are projected onto the eyeball 36 is described as an example, but a case where one inspection light beam 34 b is projected onto the eyeball 36 may be used.
  • Example 4 is an example of an image projection device that controls a displayed image according to the movement of the user's eyeball 36 or eyelid 37.
  • the image projection apparatus 400 according to the fourth embodiment is the same as or equivalent to that of FIG.
  • FIG. 20 is a flowchart illustrating an example of processing of the control unit 20 of the image projection apparatus 400 according to the fourth embodiment.
  • the control unit 20 causes the image light beam 34a to be emitted from the light source 12 based on the input image data, and a plurality of inspection light beams 34b are emitted along with the emission of the image light beam 34a. Is emitted from the light source 12.
  • step S82 the control unit 20 determines whether or not the photodetector 18 has detected all the reflected light 46 of the plurality of inspection light beams 34b. If all the reflected light 46 has been detected, the determination in step S82 is affirmed, and the process proceeds to step S100.
  • step S84 the control unit 20 determines whether or not to detect only the reflected light 46 of some inspection light beams 34b among the plurality of inspection light beams 34b.
  • step S86 the control unit 20 proceeds to step S86, and the reflected light 46 that is not detected (that is, the inspection light beam 34b that is not detected). Accordingly, the image formed by the image light beam 34a is controlled. Thereafter, the process proceeds to step S100.
  • the control unit 20 stops, pauses, plays, or switches to a different image.
  • the image may be paused while being displayed, or the image display itself may be paused.
  • the control unit 20 may switch from an image that captures one of the front, back, left, and right of the user to an image that captures the other, or any other image that is different from the front, back, left, and right images.
  • the control unit 20 may switch from an image that captures one of the front, back, left, and right of the user to an image that indicates position information of the current position of the user, or vice versa.
  • the image projection apparatus includes an imaging unit (for example, a camera) that captures the front, back, left and right of the user and / or a position detection unit (for example, a GPS (Global Positioning System) sensor) that detects the position of the image projection apparatus. Good.
  • an imaging unit for example, a camera
  • a position detection unit for example, a GPS (Global Positioning System) sensor
  • FIGS. 21 (a) and 21 (b) the control of the image according to the inspection light beam 34b that is not detected will be described with reference to FIGS. 21 (a) and 21 (b).
  • the control unit 20 performs the first control on the image.
  • the control unit 20 performs a second control different from the first control on the image.
  • step S84 when only the reflected light 46 of a part of the inspection light beams 34b is not undetected (step S84: No), the control unit 20 proceeds to step S88, and the plurality of inspection light beams 34b. It is determined whether or not all the reflected light 46 has not been detected for a predetermined time or more. When all the reflected lights 46 have not been detected for a predetermined time or longer (step S88: Yes), the control unit 20 proceeds to step S90 and performs image control different from the control performed in step S86. Thereafter, the process proceeds to step S100. On the other hand, if all the reflected lights 46 are not detected for a predetermined time or longer (step S88: No), the process proceeds to step S100. The reason why it is determined whether or not all the reflected light 46 has not been detected for a predetermined time or more is to exclude a closure that is not intended for image control.
  • step S100 the control unit 20 performs the same or equivalent process as step S16 of FIG.
  • the control unit 20 controls the light source 12 to control the image formed by the image light beam 34a based on the detection result of the reflected light 46 by the photodetector 18. .
  • the user can control the image by moving the eyeball 36 and / or eyelid 37.
  • the fourth embodiment when the reflected light 46 of the first inspection light beam 34b-1 among the plurality of inspection light beams 34b is not detected, When the first control of the image is performed and the reflected light 46 of the second inspection light beam 34b-2 is not detected, the second control of the image different from the first control is performed. Thereby, the user can perform different controls on the image by moving the eyeball 36 in different directions.
  • the first control of the image is performed.
  • the second control of the image different from the first control is performed. Thereby, the user can perform different control on the image depending on whether the eyeball 36 or the eyelid 37 is moved.
  • control unit 20 may detect the length of time that the reflected light 46 is not detected and control different images according to the length of time. Good.
  • the fourth embodiment may be combined with the movement control linked to the projection positions of the image light beam 34a and the inspection light beam 34b described in the second embodiment, or the warning control described in the third embodiment. Also good.
  • the case where a plurality of inspection light beams 34 b are projected onto the eyeball 36 is described as an example. However, a case where one inspection light beam 34 b is projected onto the eyeball 36 may be used.
  • FIG. 22 is a flowchart illustrating an example of processing of the control unit 20 of the image projection apparatus 500 according to the fifth embodiment. As shown in FIG. 22, the control unit 20 performs steps S110 to S116 that are the same as or equivalent to steps S20 to S26 of FIG. 11 of the second embodiment.
  • step S118 the control unit 20 projects the image so that an image different from the image projected before moving the image light beam 34a and the inspection light beam 34b in conjunction with each other in steps S114 and S116 is projected.
  • Control An example of image control is the same as that in the fourth embodiment, and a description thereof will be omitted.
  • the control part 20 transfers to step S120, and performs the same or equivalent process as FIG.7 S16 of Example 1.
  • the control unit 20 controls the light source 12 to project an image projected after moving the image light beam 34a and the inspection light beam 34b in conjunction with each other before moving them in conjunction with each other. Different from the image that has been made. Thereby, the user can visually recognize an image corresponding to the direction in which the user faces. For example, the user can visually recognize different images among images captured in front, back, left, and right of the user according to the direction in which the user faces.
  • the warning control described in the third embodiment may be combined with the fifth embodiment. Further, in the fifth embodiment, the case where a plurality of inspection light beams 34b are projected onto the eyeball 36 has been described as an example, but one inspection light beam 34b may be projected onto the eyeball 36.
  • two or more inspection light beams 34b among the plurality of inspection light beams 34b may be simultaneously projected onto the iris 42.
  • a plurality of photodetectors 18 are provided.
  • the plurality of examination light beams 34 b are arranged on the iris 42 so as to surround the pupil 40 when the image light beam 34 a passes through the pupil 40.
  • the plurality of examination light beams 34 b are arranged so as to sandwich the pupil 40 when the image light beam 34 a passes through the pupil 40. Is preferably projected so as to be sandwiched between two or more locations.
  • the plurality of inspection light beams 34b are preferably projected onto the iris 42 so as to sandwich the pupil 40 vertically and horizontally when the image light beam 34a passes through the pupil 40.
  • the image light beam 34a and the inspection light beam 34b are used when the inspection light beam 34b passes through the pupil 40 without being incident on the iris 42 as shown in FIG. It is preferable that the image light beam 34a has a positional relationship such that it passes near the end of the pupil 40. Thereby, it can suppress that an image is missing.
  • the present invention is not limited to this case.
  • the light source 12 and the first mirror 14 may be provided outside the temple 30 of the eyeglass-type frame, or may be provided inside the temple 30 with the width of the temple 30 widened.
  • the light source 12 is not limited to being provided on the temple 30 of the glasses-type frame, and may be provided as a separate component from the glasses-type frame.
  • the light beam 34 emitted from the light source 12 may be incident on the first mirror 14 via an optical fiber or the like.
  • the image light 34 a and the inspection light beam 34 b are projected on one eyeball 36, and the image light beam 34 a and the inspection light beam 34 b may be projected on both eyeballs 36.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)

Abstract

本発明は、ユーザが画像を視認しているときに光源や光学系を制御できる画像投影装置を小型化することを目的とする 本発明の画像投影装置は、画像を形成する画像用光線(34a)と、検査用光線(34b)と、を出射する1つの光源(12)と、前記1つの光源から出射された前記画像用光線をユーザの眼球(36)の第1表面領域(36a)に投射してユーザの網膜(38)に投射し、前記1つの光源から出射された前記検査用光線を前記ユーザの眼球の前記第1表面領域から離れた第2表面領域(36b)に投射する光学系と、前記検査用光線が前記ユーザの眼球で反射した反射光(46)を検出する光検出器(18)と、前記光検出器による前記反射光の検出結果に基づき、前記1つの光源及び前記光学系の少なくとも一方を制御する制御部(20)とを備える。

Description

画像投影装置
 本発明は、画像投影装置に関し、例えばユーザの網膜に画像を直接投影する画像投影装置に関する。
 ユーザの身体(顔)に装着されて、ユーザに画像を表示する装置(例えばヘッドマウントディスプレイ)として、マクスウェル視を利用し、ユーザの網膜に画像を直接投影する画像投影装置が知られている。また、ユーザの眼に照射された光の反射光を利用して、個人認証や(例えば、特許文献1)、瞳孔の位置検出(例えば、特許文献2)、瞼の開閉検出(例えば、特許文献3から5)、視線検出(例えば、特許文献6、7)を行う機能を備えたヘッドマウントディスプレイも知られている。また、ヘッドマウントディスプレイではないが、ユーザの眼で反射された光を利用した視線検出装置も知られている(例えば、特許文献8、9)。
特開2008-241822号公報 特開2011-224213号公報 特開平11-249064号公報 特開2009-244869号公報 特開2009-81529号公報 特開2013-187794号公報 特開2000-258724号公報 特開2002-341239号公報 特開平6-269412号公報
 ユーザが画像を視認しているときに、ユーザの眼に投射された検査用光線の反射光に基づいて、画像用光線を出射する光源や画像用光線をユーザの眼に投射する光学系を制御する場合がある。この場合、検査用光線に赤外光などを用いると、画像用光線を出射する光源とは別に検査用光線を出射する光源を設けることになり、装置が大型化してしまう。
 本発明は、上記課題に鑑みなされたものであり、ユーザが画像を視認しているときに光源や光学系を制御できる画像投影装置を小型化することを目的とする。
 本発明は、画像を形成する画像用光線と、検査用光線と、を出射する1つの光源と、前記1つの光源から出射された前記画像用光線をユーザの眼の第1表面領域に投射して前記ユーザの網膜に投射し、前記1つの光源から出射された前記検査用光線を前記ユーザの眼の前記第1表面領域から離れた第2表面領域に投射する光学系と、前記検査用光線が前記ユーザの眼で反射した反射光を検出する光検出器と、前記光検出器による前記反射光の検出結果に基づき、前記1つの光源及び前記光学系の少なくとも一方を制御する制御部と、を備えることを特徴とする画像投影装置である。
 上記構成において、前記光学系は、前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する構成とすることができる。
 上記構成において、前記制御部は、前記光検出器が前記反射光を検出しない場合に前記光検出器が前記反射光を検出するように、前記光学系を制御して前記画像用光線と前記検査用光線の前記ユーザの眼への投射位置を連動して移動させる構成とすることができる。
 上記構成において、前記光学系は、前記1つの光源から出射された前記画像用光線を走査し且つ前記1つの光源から出射された前記検査用光線を反射するミラーと、前記ミラーで走査された前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記ミラーで反射された前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する投射部と、を備え、前記制御部は、前記ミラーの位置を移動させて前記走査の原点を移動させることで、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させる構成とすることができる。
 上記構成において、前記光学系は、前記1つの光源から出射された前記画像用光線を走査し且つ前記1つの光源から出射された前記検査用光線を反射するミラーと、前記ミラーで走査された前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記ミラーで反射された前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する投射部と、を備え、前記制御部は、前記1つの光源、前記ミラー、及び前記投射部を一体で移動させることで、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させる構成とすることができる。
 上記構成において、前記光学系は、複数の前記検査用光線を前記ユーザの眼の異なる位置に異なる時間で投射し、前記制御部は、前記光検出器が前記異なる時間に前記複数の検査用光線の前記反射光を検出したか否かに基づいて、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させる構成とすることができる。
 上記構成において、前記光学系は、複数の前記検査用光線を前記ユーザの眼の異なる位置に投射し、前記制御部は、前記光検出器が前記複数の検査用光線の前記反射光のうちの少なくとも1つの反射光を検出しない場合に、前記画像用光線の投射位置が検出されない前記反射光に対応する前記検査用光線の投射位置の方向に移動するように、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させる構成とすることができる。
 上記構成において、前記制御部は、前記光検出器による前記反射光の検出結果に基づき、前記1つの光源を制御して前記画像用光線で形成される前記画像を制御する構成とすることができる。
 上記構成において、前記光学系は、複数の前記検査用光線を前記ユーザの眼の異なる位置に投射し、前記制御部は、前記光検出器が前記複数の検査用光線のうちの第1検査用光線の前記反射光を検出しない場合に前記画像の第1制御を行い、前記光検出器が前記複数の検査用光線のうちの第2検査用光線の前記反射光を検出しない場合に前記第1制御とは異なる前記画像の第2制御を行う構成とすることができる。
 上記構成において、前記光学系は、複数の前記検査用光線を前記ユーザの異なる位置に投射し、前記制御部は、前記光検出器が前記複数の検査用光線のうちの一部の検査用光線の前記反射光を検出しない場合に前記画像の第1制御を行い、前記光検出器が前記複数の検査用光線の全ての前記反射光を検出しない場合に前記第1制御とは異なる前記画像の第2制御を行う構成とすることができる。
 上記構成において、前記制御部は、前記1つの光源を制御して、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させた後に前記画像用光線で形成される前記画像を、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させる前に前記画像用光線で形成された画像と異ならせる構成とすることができる。
 上記構成において、前記制御部は、前記光検出器による前記反射光の検出結果に基づき、前記1つの光源を制御して前記ユーザに警告を発する構成とすることができる。
 上記構成において、前記制御部は、前記1つの光源を制御して前記ユーザの眼の前記第1表面領域と前記第2表面領域とを含む一体の領域に警告用の光を出射させる構成とすることができる。
 上記構成において、前記光学系は、前記1つの光源から出射された前記画像用光線を走査し且つ前記1つの光源から出射された前記検査用光線を反射するミラーと、前記ミラーで走査された前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記ミラーで反射された前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する投射部と、を備え、前記ミラーは、第1方向と前記第1方向に交差する第2方向に、前記ユーザの網膜に投影する画像の範囲よりも大きく振動し、前記1つの光源は、前記ミラーの振動における前記画像の範囲に相当する期間において前記画像用光線を前記ミラーに出射し、前記画像の範囲外の時間において前記検査用光線を前記ミラーに出射する構成とすることができる。
 上記構成において、前記投射部は、前記画像用光線が入射する第1領域と、前記第1領域とは光学的に不連続であり、前記検査用光線が入射する第2領域と、を有する構成とすることができる。
 本発明によれば、ユーザが画像を視認しているときに光源や光学系を制御できる画像投影装置を小型化することができる。
図1は、実施例1に係る画像投影装置を上方から見た図である。 図2は、図1の投射部近傍を拡大した図である。 図3(a)は、第1ミラーの振動、画像用光線、及び検査用光線を説明する図、図3(b)は、第1ミラーが図3(a)の点Aから点Bまで振動した場合における画像用光線と検査用光線の光源からの出射タイミングを説明する図である。 図4は、画像用光線と検査用光線の眼球への投射について説明する図である。 図5は、制御部が光検出器を用いて反射光を検出する検出タイミングを説明する図である。 図6(a)から図6(c)は、光検出器を用いた反射光の検出について説明する図である。 図7は、実施例1に係る画像投影装置の制御部の処理の一例を示すフローチャートである。 図8(a)から図8(c)は、眼球の動きに対する画像用光線の網膜への投射を説明する図である。 図9(a)及び図9(b)は、画像用光線と検査用光線の眼球への投射位置の変化を説明する図(その1)である。 図10は、画像用光線と検査用光線の眼球への投射位置の変化を説明する図(その2)である。 図11は、実施例2に係る画像投影装置の制御部の処理の一例を示すフローチャートである。 図12(a)から図12(c)は、図11の処理によって画像の欠落を抑制できることを説明する図である。 図13は、実施例2の変形例1に係る画像投影装置を上方から見た図である。 図14(a)及び図14(b)は、実施例2の変形例1に係る画像投影装置の場合における、画像用光線と検査用光線の眼球への投射位置の変化を説明する図である。 図15は、実施例2の変形例1に係る画像投影装置の制御部の処理の一例を示すフローチャートである。 図16は、実施例3に係る画像投影装置を上方から見た図である。 図17は、実施例3に係る画像投影装置の制御部の処理の一例を示すフローチャートである。 図18(a)から図18(c)は、居眠り状態にあるか否かの検出を示すフローチャートである。 図19(a)及び図19(b)は、警告の一例を示す図である。 図20は、実施例4に係る画像投影装置の制御部の処理の一例を示すフローチャートである。 図21(a)及び図21(b)は、検出しない検査用光線に応じた画像の制御について説明する図である。 図22は、実施例5に係る画像投影装置の制御部の処理の一例を示すフローチャートである。
 以下、図面を参照しつつ、本発明の実施例について説明する。
 図1は、実施例1に係る画像投影装置100を上方から見た図である。図2は、図1の投射部16近傍を拡大した図である。なお、実施例1の画像投影装置100は、ユーザに画像を視認させるための画像用光線が当該ユーザの眼球36の網膜38に直接投射される、マクスウェル視を利用した網膜投影型ヘッドマウントディスプレイである。
 実施例1の画像投影装置100は、図1のように、光源12、第1ミラー14、投射部16、光検出器18、及び制御部20を備える。光源12は、メガネ型フレームのツル30に配置されている。光源12は、制御部20の指示の下、例えば単一又は複数の波長の光線34を出射する。この光線34には、ユーザの眼球36の網膜38に画像を投影するための画像用光線と、ユーザの眼球36の瞳孔40の位置及びユーザの瞼の開閉の少なくとも一方を検出するための検査用光線と、が含まれる。検査用光線は、画像用光線と同じ光源12から出射されることから、画像用光線と同じく可視光である。光源12は、例えば赤色レーザ光(波長:610nm~660nm程度)、緑色レーザ光(波長:515nm~540nm程度)、及び青色レーザ光(波長:440nm~480nm程度)を出射する。赤色、緑色、及び青色レーザ光を出射する光源12として、例えばRGB(赤・緑・青)それぞれのレーザダイオードチップと3色合成デバイスとマイクロコリメートレンズとが集積された光源が挙げられる。
 第1ミラー14は、メガネ型フレームのツル30に配置されている。第1ミラー14は、光源12から出射された画像用光線を、水平方向及び垂直方向に走査する。また、第1ミラー14は、光源12から出射された検査用光線を反射する。第1ミラー14は、例えばMEMS(Micro Electro Mechanical System)ミラーである。なお、光源12から出射された光線34は、例えば第2ミラー15及び第3ミラー17で反射されて、第1ミラー14に入射する。
 ここで、画像用光線と検査用光線とについて説明する。第1ミラー14によって画像用光線を走査して網膜38に画像を投影する方法として、画像の左上から右下まで光を高速に走査して画像を表示する方法(例えばラスタースキャン)がある。図3(a)は、第1ミラー14の振動、画像用光線、及び検査用光線を説明する図である。図3(a)のように、第1ミラー14は、画像用光線34aを走査するために、網膜38に投影する画像の範囲(図3(a)の破線範囲)よりも大きく、水平方向(第1方向)と垂直方向(第1方向に交差する第2方向)とに振動する。第1ミラー14の振動を符号50で示している。
 第1ミラー14が大きく振れた箇所で画像用光線34aを走査して網膜38に画像を投影する場合、画像の歪みが大きくなることから、画像用光線34aは、第1ミラー14の振れが小さい箇所で走査される。一方、検査用光線34bは、第1ミラー14の振動50のうち、画像用光線34aが走査されないタイミングで、第1ミラー14に入射する。言い換えると、光源12は、第1ミラー14の振動50において、網膜38に投影する画像の範囲に相当する期間では画像用光線34aを第1ミラー14に出射し、画像の範囲外の時間において検査用光線34bを第1ミラー14に出射する。図3(b)は、第1ミラー14が図3(a)の点Aから点Bまで振動した場合における画像用光線34aと検査用光線34bの光源12からの出射タイミングを説明する図である。なお、検査用光線34bの光強度は、画像用光線34aと同じであってもよいし、異なっていてもよい。検査用光線34bの光強度は、後述する光検出器18で反射光46が検出できる程度の光強度であればよい。
 第1ミラー14には、1又は複数の検査用光線34bが入射される。図3(a)及び図3(b)では、6つの検査用光線34bが第1ミラー14に入射される場合を例に示している。検査用光線34bは、単一波長の光線でよく、網膜38に投影する画像の1画素又は数画素相当の光線でよい。なお、図3(a)では、画像用光線34aは矩形状に走査される場合を例に示しているが、この場合に限られず、台形状に走査される場合など、その他の場合でもよい。
 図1及び図2のように、第1ミラー14で走査された画像用光線34a及び第1ミラー14で反射された検査用光線34bは、第4ミラー44によって、メガネ型フレームのレンズ32に向かって反射される。投射部16が、レンズ32の眼球36側の面に配置されているため、第1ミラー14で走査された画像用光線34a及び第1ミラー14で反射された検査用光線34bは、投射部16に入射する。投射部16は、画像用光線34aが入射される第1領域16aでは、自由曲面又は自由曲面と回折面の合成構造をしたハーフミラーとなっている。これにより、投射部16に入射された画像用光線34aは、眼球36の瞳孔40近傍で収束した後に網膜38に投射される。よって、ユーザは、画像用光線34aで形成される画像を認識することができると共に、外界像をシースルーで視認することができる。一方、投射部16は、検査用光線34bが入射される第2領域16bでは、第1領域16aと光学的に不連続な形状をしたハーフミラーとなっている。これにより、検査用光線34bは、画像用光線34aが瞳孔40を通過して網膜38に投射される場合に、眼球36の虹彩42に投射される。このように、画像用光線34aが投射される眼球36の表面領域を第1表面領域36aとした場合に、検査用光線34bは、眼球36の第1表面領域36aから離れた第2表面領域36bに投射される。
 図4は、画像用光線34aと検査用光線34bの眼球36への投射について説明する図である。図4のように、検査用光線34bは、画像用光線34aが瞳孔40の中心近傍を通過して網膜38に投射される場合に、虹彩42に投射される。投射部16の第2領域16bが第1領域16aに光学的に不連続となっているため、画像用光線34aが瞳孔40を通過して網膜38に投射されつつ、検査用光線34bが虹彩42に投射されることが可能となる。また、画像用光線34aと検査用光線34bは、第1ミラー14の振動に対して所定のタイミングで光源12から出射される。すなわち、画像用光線34aと検査用光線34bの相対的な出射タイミングは固定されている。このため、画像用光線34aと検査用光線34bは、相対的な位置関係が固定されて、眼球36に投射される。また、図3(a)のように、複数の検査用光線34bは、第1ミラー14の振動50の異なる位置で反射された光であることから、虹彩42の異なる位置に異なる時間(異なるタイミング)で投射される。すなわち、複数の検査用光線34bは、虹彩42の異なる位置に順々に投射される。
 図1及び図2のように、光検出器18が、レンズ32のフレームに配置されている。光検出器18は、例えばフォトディテクタである。光検出器18は、検査用光線34bが虹彩42で反射した反射光46を検出する。図5は、制御部20が光検出器18を用いて反射光46を検出する検出タイミングを説明する図である。図5のように、制御部20は、光源12から検査用光線34bを出射させたタイミングで、光検出器18を用いて反射光46の検出を行う。これにより、複数の検査用光線34bのうちのどの検査用光線34bの反射光46が検出されていないかが分かる。なお、光検出器18の性能などを考慮し、反射光46の検出の時間に幅を持たせてもよい。
 なお、図1及び図2では、光検出器18が、レンズ32の中央近傍に配置された場合を例に示したが、反射光46を検出できる場所であれば、例えばレンズ32のツル30近傍や鼻パッド(不図示)近傍などに配置されてもよい。なお、複数の検査用光線34bが虹彩42に投射される場合であっても、上述したように、複数の検査用光線34bは虹彩42に順々に投射されることから、1つの光検出器18で複数の検査用光線34bの反射光46を検出することができる。
 制御部20は、外部装置(例えば携帯端末など)に設けられている。制御部20は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)などを備え、ROMに記憶されたプログラムに従って、画像投影装置100を制御する。制御部20は、入力された画像データに基づく画像用光線34aと、瞳孔40の位置及び瞼の開閉の少なくとも一方を検出するための検査用光線34bと、を光源12から出射させる。また、制御部20は、光検出器18での検出結果に基づいて、光源12及び第1ミラー14などを含む光学系の少なくとも一方を制御する。例えば、制御部20は、光源12からの画像用光線34a及び/又は検査用光線34bを含む光線の出射を制御する。例えば、制御部20は、位置調整部22を駆動させて第1ミラー14の位置を移動させると共に、第1ミラー14の移動に合わせて第3ミラー17と第4ミラー44の位置を移動させる制御を行う。
 ここで、図6(a)から図6(c)を用いて、光検出器18を用いた反射光46の検出について説明する。図6(a)は、画像用光線34aが瞳孔40を通過し、検査用光線34bが虹彩42に投射される場合を示す図である。図6(b)は、眼球36が回転したことで、検査用光線34bの一部が瞳孔40を通過して網膜38に投射される場合を示す図である。図6(c)は、瞼37が閉じたことで、検査用光線34bが瞼37に投射される場合を示す図である。
 図6(a)のように、検査用光線34bが虹彩42に投射された場合は比較的大きな反射光46が生じる。一方、図6(b)のように、眼球36の回転によって検査用光線34bが瞳孔40を通過して網膜38に投射された場合や、図6(c)のように、瞼37が閉じることで検査用光線34bが瞼37に投射された場合は、反射光46が生じ難い。つまり、図6(a)の場合には、光検出器18は比較的大きな反射光46を検出するが、図6(b)及び図6(c)の場合には、光検出器18は反射光46を検出しないことが起こる。したがって、ユーザが眼球36を動かした場合には、光検出器18は複数の検査用光線34bのうちの一部の検査用光線34bの反射光46を検出しなくなる。ユーザが瞼37を閉じた場合には、光検出器18は、複数の検査用光線34bの全ての反射光46を検出しなくなる。なお、上述の記載から明らかなように、光検出器18が反射光46を検出しないとは、所定値以上の大きさの反射光46を検出しないことをいう。
 図7は、実施例1に係る画像投影装置100の制御部20の処理の一例を示すフローチャートである。図7のように、制御部20は、ステップS10において、入力された画像データに基づき、画像用光線34aを光源12から出射させ、且つ画像用光線34aの出射に伴い、複数の検査用光線34bを光源12から出射させる。図4で説明したように、複数の検査用光線34bは、虹彩42の異なる位置に異なる時間で投射される。
 次いで、ステップS12に移行し、制御部20は、光検出器18が複数の検査用光線34bが虹彩42に投射された互いに異なる時間において反射光46を検出したか否かを判断する。すなわち、図5で説明したように、制御部20は、光源12から複数の検査用光線34bを出射させた時間毎において、複数の検査用光線34bの反射光46を検出したか否かを判断する。例えば、ユーザが眼球36を動かした場合や瞼37を閉じた場合に、光検出器18は複数の検査用光線34bのうちの少なくとも一部の検査用光線34bの反射光46を検出しなくなる。
 光検出器18が複数の検査用光線34bのうちの少なくとも一部の検査用光線34bの反射光46を検出しない場合(ステップS12:No)、制御部20は、ステップS14に移行して、光源12及び第1ミラー14などを含む光学系の少なくとも一方を制御する。光源12の制御として、例えば、画像用光線34aにより形成される画像の内容の制御(例えば再生、停止、一時停止、又は異なる画像へ切り替え)、第1ミラー14の振動50における画像用光線34a及び検査用光線34bの少なくとも一方の入射位置の変更、検査用光線34bの個数の変更、画像用光線34a及び検査用光線34bの少なくとも一方の色や明るさの変更などが挙げられる。光学系の制御として、例えば、第1ミラー14、第2ミラー15、第3ミラー17、第4ミラー44、及び投射部16の少なくとも1つの位置の移動などが挙げられる。これら光学系部品の位置を移動させることで、画像用光線34a及び検査用光線34bが眼球36に照射される位置を移動させたり、画像用光線34a及び検査用光線34bの焦点位置を移動させたりしてもよい。その後、ステップS16に移行する。一方、光検出器18が複数の検査用光線34bの全ての反射光46を検出している場合(ステップS12:Yes)、制御部20は、ステップS14を行わずに、ステップS16に移行する。
 ステップS16では、制御部20は、画像の投影が終了したか否かを判断する。画像の投影が終了していない場合、すなわち、画像用光線34aと検査用光線34bが光源12から出射されている場合は、ステップS16の判断は否定されて、ステップS12に戻る。制御部20は、画像の投影が終了するまで、ステップS12からS16の処理を繰り返す。一方、画像の投影が終了した場合(ステップS16:Yes)、制御部20は、図7の処理を終了する。
 以上のように、実施例1によれば、1つの光源12から画像用光線34aと検査用光線34bが出射される。検査用光線34bは、画像用光線34aが瞳孔40を通過して網膜38に投射される場合に、虹彩42に投射される。そして、制御部20は、光検出器18による検査用光線34bの反射光46の検出結果に基づき、光源12及び第1ミラー14などを含む光学系の少なくとも一方を制御する。これにより、ユーザが画像を視認しているときに光源12や光学系を制御できる画像投影装置を小型化することができる。
 また、実施例1によれば、図3(a)及び図3(b)のように、第1ミラー14は、水平方向と垂直方向に、ユーザの網膜38に投影する画像の範囲よりも大きく振動する。光源12は、第1ミラー14の振動における画像の範囲に相当する期間において画像用光線34aを第1ミラー14に出射し、画像の範囲外の時間において検査用光線34bを第1ミラー14に出射する。これにより、第1ミラー14の振動を有効に利用して、画像用光線34aの走査と検査用光線34bの反射とを行うことができる。
 また、実施例1によれば、図2のように、投射部16は、画像用光線34aが入射する第1領域16aと、第1領域16aとは光学的に不連続であり、検査用光線34bが入射する第2領域16bと、を有する。これにより、画像用光線34aが瞳孔40を通過して網膜38に投射されつつ、検査用光線34bが虹彩42に投射されることを容易に実現できる。
 なお、実施例1では、画像用光線34aが瞳孔40を通過して網膜38に投射される場合に検査用光線34bが虹彩42に投射される位置関係で、画像用光線34aと検査用光線34bが眼球36に投射される場合を例に示したが、この場合に限られるわけではない。検査用光線34bが眼球36に投射される第2表面領域36bが、画像用光線34aが眼球36に投射される第1表面領域36aから離れた位置関係であればその他の場合でもよい。しかしながら、検査用光線34bが虹彩42に投射された場合は比較的大きな反射光46が生じることから、画像用光線34aが瞳孔40を通過して網膜38に投射される場合に、検査用光線34bは虹彩42に投射される場合が好ましい。
 なお、実施例1では、複数の検査用光線34bが眼球36に投射される場合を例に示したが、これに限られず、1つの検査用光線34bが眼球36に投射される場合でもよい。
 ユーザの網膜に画像を直接投影する画像投影装置では、画像用光線が瞳孔を通過しないと網膜に画像が投影されず、ユーザは画像を視ることができない。このことを、図8(a)から図8(c)を用いて説明する。図8(a)から図8(c)は、眼球36の動きに対する画像用光線34aの網膜38への投射を説明する図である。図8(a)は、眼球36が正面を向いている場合、図8(b)は、眼球36が正面から左側を向いた場合、図8(c)は、眼球36がさらに左側を向いた場合を示している。
 図8(a)のように、眼球36が正面を向いている場合に、画像用光線34aが瞳孔40の中心近傍で収束して網膜38に投射されるとする。この場合、図8(b)のように、眼球36が左側を向くと、画像用光線34aは瞳孔40の端近傍で収束して網膜38に投射されるようになる。図8(c)のように、眼球36がさらに左側を向くと、画像用光線34aは瞳孔40を通過できずに網膜38に投射されなくなる。
 このように、眼球36が動くことで、画像用光線34aが瞳孔40を通過しないことが起こり得る。例えば、瞳の位置や眼球の回転方向の動きなどは個人差があることから、ユーザによっては画像用光線34aが瞳孔40を通過しないことが起こり得る。そこで、実施例2では、光検出器18による検査用光線34bの反射光46の検出結果に基づいて光学系を制御することで、ユーザの網膜に画像が投影されないことが抑制される画像投影装置を説明する。
 図6(a)及び図6(b)で説明したように、検査用光線34bが虹彩42に投射された場合は比較的大きな反射光46が生じるが、眼球36の回転などによって検査用光線34bが瞳孔40を通過して網膜38に投射された場合は反射光46が生じ難い。検査用光線34bが瞳孔40を通過して網膜38に投射される場合は、画像用光線34aは、瞳孔40の端近傍を通過するか又は瞳孔40を通過できていないなど、画像の欠落が懸念される状態にあることが想定される。したがって、実施例2では、光検出器18が反射光46を検出できない場合は、画像の欠落が懸念される状態にあることが想定されるため、画像の欠落を抑える制御を行う。
 実施例2に係る画像投影装置200は、実施例1の図1と同一又は同等であるため説明を省略する。上述したように、制御部20は、光検出器18による検査用光線34bの反射光46の検出結果に基づいて、位置調整部22を駆動させて第1ミラー14の位置を移動させると共に、第1ミラー14の移動に合わせて第3ミラー17と第4ミラー44の位置を移動させる。これにより、画像用光線34aの走査の原点を移動させることができる。画像用光線34aの走査の原点が移動することで、画像用光線34a及び検査用光線34bの眼球36への投射位置を移動させることができる。このことについて、図9(a)から図10を用いて説明する。
 図9(a)から図10は、画像用光線34aと検査用光線34bの眼球36への投射位置の変化を説明する図である。なお、図10は、図9(a)と図9(b)を合わせた状態を図示していて、図9(a)の状態を点線で、図9(b)の状態を実線で示している。
 図9(a)及び図10の点線は、画像用光線34aが瞳孔40の中心近傍を通過する場合を示している。図9(a)及び図10の点線の状態から、図9(b)及び図10の実線のように、位置調整部22を駆動させて第1ミラー14の位置を移動させると共に、第1ミラー14の移動に合わせて第3ミラー17及び第4ミラー44の位置を移動させることで、画像用光線34aの走査の原点がOからO´に移動する。なお、走査の原点が移動しても、網膜38に投影される画像の中央部に対応する画像用光線34aの投射部16への入射位置はほとんど変化しないようにする。これは、網膜38に投影される画像の品質の劣化や、検査用光線34bの投射部16への入射位置の変化などを抑制するためである。
 このような画像用光線34aの走査の原点の移動によって、画像用光線34a及び検査用光線34bの投射部16への入射角度が変化し、その結果、画像用光線34a及び検査用光線34bの眼球36への投射位置が移動する。画像用光線34aと検査用光線34bは、互いの眼球36への投射位置の相対的な位置関係は固定されたまま連動して移動する。例えば、図9(a)及び図10の点線のように、画像用光線34aが瞳孔40の中心近傍を通過していた状態から、図9(b)及び図10の実線のように、画像用光線34aが瞳孔40の中心よりも端側を通過する状態に変化する。このように、位置調整部22によって第1ミラー14の位置を移動させると共に、第1ミラー14の移動に合わせて第3ミラー17及び第4ミラー44の位置を移動させて、画像用光線34aの走査の原点を移動させることで、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させることができる。なお、第1ミラー14などは円弧状に移動する場合が好ましいが、図10の矢印方向及び図10の紙面に垂直方向(前記矢印に垂直方向)に直線状に移動する場合でもよい。この場合、位置調整部22として、2軸方向への移動を可能とする2軸アクチュエータ(例えば超音波アクチュエータ)を用いることができる。
 図11は、実施例2に係る画像投影装置200の制御部20の処理の一例を示すフローチャートである。図12(a)から図12(c)は、図11の処理によって画像の欠落を抑制できることを説明する図である。図11のように、制御部20は、ステップS20において、入力された画像データに基づき、画像用光線34aを光源12から出射させ、且つ画像用光線34aの出射に伴い、複数の検査用光線34bを光源12から出射させる。図4で説明したように、複数の検査用光線34bは、虹彩42の異なる位置に異なる時間で投射される。
 次いで、ステップS22に移行し、制御部20は、光検出器18が複数の検査用光線34bが虹彩42に投射された互いに異なる時間において反射光46を検出したか否かを判断する。すなわち、図5で説明したように、制御部20は、光源12から複数の検査用光線34bを出射させた時間毎において、複数の検査用光線34bの反射光46を光検出器18が検出したか否かを判断する。光検出器18が複数の検査用光線34bの全ての反射光46を検出している場合、図12(a)のように、複数の検査用光線34bの全てが虹彩42に入射し、画像用光線34aが瞳孔40の中心近傍を通過していると想定される。したがって、光検出器18が複数の検査用光線34bの全ての反射光46を検出している場合は、画像用光線34aの眼球36への投射位置の調整は行わなくてよいため、ステップS22の判断は肯定されて、ステップS28に移行する。
 一方、光検出器18が複数の検査用光線34bのうちの少なくとも1つの反射光46を検出していない場合、図10(b)のように、少なくとも1つの検査用光線34bは虹彩42に入射せずに瞳孔40を通過し、画像用光線34aは瞳孔40の端近傍を通過していることなどが想定される。すなわち、画像の欠落が懸念される状態にあることが想定される。したがって、光検出器18が複数の検査用光線34bのうちの少なくとも1つの反射光46を検出していない場合は(ステップS22:No)、画像用光線34aの眼球36への投射位置の調整を行うために、ステップS24に移行する。
 ステップS24では、制御部20は、位置調整部22を駆動させて第1ミラー14の位置を移動させると共に、第1ミラー14の移動に合わせて第3ミラー17及び第4ミラー44の位置を移動させることで、画像用光線34aの走査の原点を移動させる。図9(a)から図10で説明したように、画像用光線34aの走査の原点を移動させることで、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させることができる。この際、制御部20は、画像用光線34aの投射位置が、光検出器18で検出されていない反射光46に対応する検査用光線34bの投射位置の方向に移動するように、画像用光線34aの走査の原点を移動させる。
 次いで、ステップS26では、制御部20は、光検出器18が複数の検査用光線34bの全ての反射光46を検出するようになったか否かを判断する。光検出器18が複数の検査用光線34bのうちの少なくとも1つの反射光46を未だ検出していない場合は(ステップS26:No)、ステップS24に戻る。制御部20は、光検出器18が複数の検査用光線34bの全ての反射光46を検出するまで、ステップS24とS26の処理を繰り返す。
 一方、光検出器18が複数の検査用光線34bの全ての反射光46を検出するようになった場合は、図12(c)のように、複数の検査用光線34bの全てが虹彩42に入射し、画像用光線34aが瞳孔40の中心近傍を通過していることが想定される。したがって、光検出器18が複数の検査用光線34bの全ての反射光46を検出するようになった場合は(ステップS26:Yes)、画像用光線34aの眼球36への投射位置の調整を終了して、ステップS28に移行する。
 ステップS28では、制御部20は、実施例1の図7のステップS16と同一又は同等の処理を行う。
 以上のように、実施例2によれば、制御部20は、光検出器18が検査用光線34bの反射光46を検出しない場合に、光検出器18が反射光46を検出するように、光学系を制御して画像用光線34aを検査用光線34bの眼球36への投射位置を連動して移動させる。これにより、画像用光線34aが瞳孔40を通過しないことを抑制でき、その結果、網膜38に画像が投影されないことを抑制できる。
 また、画像用光線34aが瞳孔40を通過しないことを抑制する観点から、制御部20は、画像用光線34aと検査用光線34bの眼球36への投射位置の相対的な位置関係は固定して、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させることが好ましい。なお、画像用光線34aと検査用光線34bの眼球36への投射位置の相対的な位置関係が多少ずれる場合でも、画像用光線34aと検査用光線34bの眼球36への投射位置が連動して移動する場合であればよい。
 また、実施例2によれば、制御部20は、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させることを、第1ミラー14の位置を移動させて画像用光線34aの走査の原点を移動させることで行っている。これにより、画像用光線34aと検査用光線34bの投射位置を容易に連動して移動させることができる。
 また、実施例2によれば、複数の検査用光線34bは、虹彩42の異なる位置に異なる時間で投射される。制御部20は、光検出器18が異なる時間に複数の検査用光線34bの反射光46を検出したか否かに基づいて、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させる。これにより、画像用光線34aが瞳孔40を通過しなくなることを効果的に抑制できる。
 また、実施例2によれば、制御部20は、光検出器18が複数の検査用光線34bの反射光46のうちの少なくとも1つの反射光46を検出しない場合、画像用光線34aの投射位置が、検出されない反射光46に対応する検査用光線34bの投射位置の方向に移動するように、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させる。これにより、画像用光線34aの投射位置を効率的に瞳孔40に合わせることができる。
 図13は、実施例2の変形例1に係る画像投影装置210を上方から見た図である。実施例2の変形例1の画像投影装置210は、図13のように、光源12、第1ミラー14、第2ミラー15、第3ミラー17、第4ミラー44、及び投射部16が1つの筐体60内に設けられている。位置調整部22は、例えばメガネ型フレームのレンズ32に設けられていて、筐体60の位置を移動させる。位置調整部22は、筐体60を眼球36に対して左右方向および上下方向に移動させる。その他の構成は、実施例1の図1と同一又は同等であるため説明を省略する。
 図14(a)及び図14(b)は、実施例2の変形例1に係る画像投影装置210の場合における、画像用光線34aと検査用光線34bの眼球36への投射位置の変化を説明する図である。図14(a)は、画像用光線34aが瞳孔40の中心近傍を通過する場合を示している。図14(a)の状態から、図14(b)のように、位置調整部22を駆動させて筐体60の位置を移動させることで、画像用光線34a及び検査用光線34bの眼球36への投射位置を移動させることができる。このように、位置調整部22によって筐体60の位置を移動(すなわち、光源12、第1ミラー14、及び投射部16を一体で移動)させることで、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させることができる。
 図15は、実施例2の変形例1に係る画像投影装置210の制御部20の処理の一例を示すフローチャートである。図15のように、制御部20は、ステップS30、S32において、実施例2の図11のステップS20、S22と同一又は同等の処理を行う。
 次いで、ステップS34では、制御部20は、位置調整部22を駆動させて筐体60の位置を移動させる。図14(a)及び図14(b)で説明したように、筐体60の位置を移動させることで、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させることができる。その後、ステップS36、S38において、制御部20は、実施例2の図11のステップS26、S28と同一又は同等の処理を行う。
 以上のように、実施例2の変形例1によれば、制御部20は、光源12、第1ミラー14、及び投射部16を一体で移動させることで、画像用光線34aと検査用光線34bの眼球36への投射位置を連動して移動させている。このような場合でも、画像用光線34aが瞳孔40を通過しなくなることを抑制できる。また、実施例2の変形例1では、網膜38に画像用光線34aが斜めに入射されることが抑制される。
 なお、実施例2の変形例1においては、光源12、第1ミラー14、及び投射部16に加えてメガネ型フレームのレンズ32が一体で移動する場合でもよい。
 なお、実施例2及び実施例2の変形例1において、光検出器18が複数の反射光46を検出しない場合、制御部20は、検出されない複数の反射光46に対応する複数の検査用光線34bそれぞれの投射位置における中間の位置を求め、当該中間の位置の方向に、画像用光線34aと検査用光線34bの投射位置を連動して移動させてもよい。
 なお、実施例2及び実施例2の変形例1では、複数の検査用光線34bが眼球36に投射される場合を例に示したが、1つの検査用光線34bが眼球36に投射される場合でもよい。
 なお、実施例2及び実施例2の変形例1において、画像用光線34aと検査用光線34bは、図12(b)のように、検査用光線34bが虹彩42に入射されずに瞳孔40を通過する場合に、画像用光線34aが瞳孔40の端近傍を通過するような位置関係にある場合が好ましい。これにより、画像が欠落することを抑制できる。
 実施例3は、ユーザが居眠り状態にある場合に警告を発する画像投影装置の例である。なお、実施例3における居眠り状態とは、居眠り状態にあると考えられる場合に加え、居眠り状態になる可能性が高い状態にある場合も含むものである。図16は、実施例3に係る画像投影装置300を上方から見た図である。図16のように、実施例3に係る画像投影装置300は、実施例1に係る画像投影装置100と比べて、位置調整部22が設けられていない点で異なる。その他の構成は、実施例1の図1と同一又は同等であるため説明を省略する。
 図17は、実施例3に係る画像投影装置300の制御部20の処理の一例を示すフローチャートである。図17のように、制御部20は、ステップS40において、入力された画像データに基づき、画像用光線34aを光源12から出射させ、且つ画像用光線34aの出射に伴い、複数の検査用光線34bを光源12から出射させる。
 次いで、ステップS42に移行し、制御部20は、光検出器18による検査用光線34bの反射光46の検出結果に基づいて、ユーザが居眠り状態にあるか否かを検出する。ここで、図18(a)から図18(c)のフローチャートを用いて、居眠り状態にあるか否かの検出について説明する。
 図18(a)のように、制御部20は、ステップS50において、光検出器18が複数の検査用光線34bの全ての反射光46を所定時間以上検出していないか否かを判断する。図6(c)で説明したように、瞼37が閉じられた場合は、光検出器18は複数の検査用光線34bの全ての反射光46を検出しなくなる。したがって、制御部20は、光検出器18が全ての反射光46を所定時間以上検出していない場合(ステップS50:Yes)、ステップS52に移行して、ユーザは居眠り状態にあることを検出する。一方、光検出器18が複数の検査用光線34bのいずれかの反射光46を所定時間以内に検出した場合、ステップS50の判断は否定されてステップS54に移行し、制御部20は、ユーザは居眠り状態にないことを検出する。なお、上記所定時間としては、ユーザが居眠り状態に陥ったために瞼37が閉じられたのか、又はその他の理由によって一時的に瞼37が閉じられたのかの判断が可能な時間を設定すればよい。
 図18(b)のように、制御部20は、ステップS60において、光検出器18が複数の検査用光線34bの全ての反射光46の検出・不検出を所定時間当たり所定回数以上繰り返したか否かを判断する。居眠り状態に陥る場合には、瞼37の開閉回数が多くなる。したがって、制御部20は、光検出器18が全ての反射光46の検出・不検出を所定時間当たり所定回数以上繰り返している場合(ステップS60:Yes)、ステップS62に移行して、ユーザは居眠り状態にあることを検出する。一方、光検出器18による全ての反射光46の検出・不検出が所定回数以上繰り返されていない場合、ステップS60の判断は否定されてステップS64に移行し、制御部20は、ユーザは居眠り状態にないことを検出する。なお、上記所定時間及び所定回数として、ユーザが居眠り状態に陥ることが判断できるような時間及び回数を設定すればよい。
 図18(c)のように、制御部20は、ステップS70において、光検出器18が複数の検査用光線34bの全ての反射光46を所定時間以上検出し続けているか否かを判断する。図6(a)及び図6(b)で説明したように、全ての反射光46が検出され続けている場合は、眼球36が動いていないことになる。眼球36が所定時間以上動いていない場合、ユーザは意識が遠のいて居眠りに近い状態になっている恐れがある。したがって、制御部20は、光検出器18が全ての反射光46を所定時間以上検出し続けている場合(ステップS70:Yes)、ステップS72に移行して、ユーザは居眠り状態にあることを検出する。一方、光検出器18が所定時間以内に反射光46の少なくとも1つを検出しなくなった場合、ステップS70の判断は否定されてステップS74に移行し、制御部20は、ユーザは居眠り状態にないことを検出する。
 図17のステップS42の居眠り状態の検出は、図18(a)から図18(c)のいずれか1つの方法で検出してもよいし、複数の方法を組み合わせて検出してもよい。また、その他の方法によって、居眠り状態を検出してもよい。
 居眠り状態が検出された場合(ステップS42:Yes)、制御部20は、ステップS44に移行して、光源12を制御してユーザに居眠り防止のための警告を発する。ここで、図19(a)及び図19(b)を用いて、警告の一例を説明する。図19(a)のように、制御部20は、画像用光線34aが眼球36に投射される第1表面領域36aと複数の検査用光線34bが眼球36に投射される複数の第2表面領域36bとを含む一体の領域39に警告用の光を光源12から出射させてもよい。警告用の光の強度を大きくすることで、ユーザは瞼37を介して光を認識できるが、光強度を大きくし過ぎると、ユーザが瞼37を開けたときに眼にダメージを与える恐れがある。したがって、これらのことを考慮して警告用の光の強度を設定することが好ましい。例えば、警告用の光の強度を、画像用光線34aに用いられる最大光強度としてもよい。また、警告用の光を一体の領域39に照射し続ける場合でもよいし、照射と非照射とを繰り返して点滅させる場合でもよい。
 図19(b)のように、制御部20は、画像用光線34aで形成される画像70に、“居眠り注意”などの警告72を表示するようにしてもよい。警告72の表示箇所は、画像70内のどこでもよいが、ユーザに気付かせる点から画像70の中央部に表示することが好ましい。
 なお、図18(a)から図18(c)のどれによって居眠り状態にあることが検出されたかで、警告の発し方を変えてもよい。例えば、図18(a)のように瞼37が閉じている状態で居眠り状態にあることが検出された場合には、図19(a)のように、領域39に警告用の光を照射させることが好ましい。図18(b)及び図18(c)のように、瞼37が少しでも開いている状態で居眠り状態にあることが検出された場合には、図19(a)のように、領域39に警告用の光を照射させてもよいし、図19(b)のように、警告72を表示してもよい。
 図17のように、制御部20は、警告を発した後、ステップS46に移行して、ユーザによって警告解除の措置が入力されたか否かを判断する。警告解除の措置が入力されていない場合(ステップS46:No)、ステップS46の判断は否定されて、制御部20は、ステップS44に戻り、警告を発しし続ける。一方、警告解除の措置が入力された場合(ステップS46:Yes)、ステップS46の判断は肯定されて、ステップS48に移行する。なお、ユーザは、例えば制御部20が設けられた外部装置(例えば携帯端末など)を操作することで、警告解除の措置を入力できるようにすればよい。
 ステップS48では、制御部20は、実施例1の図7のステップS16と同一又は同等の処理を行う。
 以上のように、実施例3によれば、制御部20は、光検出器18による反射光46の検出結果に基づき、光源12を制御してユーザに警告を発する。これにより、例えばユーザが居眠りをすることを抑制できる。
 また、実施例3によれば、図19(a)のように、制御部20は、光源12を制御して眼球36の第1表面領域36aと第2表面領域36bとを含む一体の領域39に警告用の光を出射する。これにより、瞳孔40がどこの方向を向いている場合でも、瞼37を介して網膜38に警告用の光を投射させることができる。なお、警告用の光は、目を覚まさせる点から白色光の場合が好ましいが、可視光であればその他の場合でもよい。
 なお、実施例3において、制御部20は、図18(a)での全ての反射光46が検出されない時間、図18(b)での全ての反射光46の検出・不検出の回数、図18(c)での全ての反射光46を検出し続けている時間を検出し、これに応じて警告用の光の強度を変えてもよい。例えば、全ての反射光46が検出されない時間又は検出され続けている時間がt秒未満では警告用の光の強度を弱くし、t秒以上t秒未満では中程度とし、t秒以上では強くするようにしてもよい。例えば、全ての反射光46の検出・不検出の回数がn回未満では警告用の光の強度を弱くし、n回以上n回未満では中程度とし、n回以上では強くするようにしてもよい。すなわち、居眠りの状態に応じて警告の強さを変えてもよい。
 なお、実施例3において、制御部20は、光源12を制御して画像による警告を発することに加え、不図示の音源を制御して音による警告を発してもよい。警告音を発する場合も、画像の場合と同様に、居眠りの状態に応じて警告音の大きさを変えてもよい。
 なお、実施例3に、実施例2で説明した画像用光線34aと検査用光線34bの投射位置の連動した移動の制御を組み合わせてもよい。また、実施例3では、光検出器18による反射光46の検出結果に基づいてユーザが居眠り状態にあるか否かを検出しているが、これに限られる訳ではない。光検出器18による反射光46の検出結果に基づいて警告を発するその他の場合でもよい。
 実施例3では、複数の検査用光線34bが眼球36に投射される場合を例に示したが、1つの検査用光線34bが眼球36に投射される場合でもよい。
 実施例4は、ユーザの眼球36や瞼37の動きに応じて、表示される画像を制御する画像投影装置の例である。実施例4に係る画像投影装置400は、実施例3の図16と同一又は同等であるため説明を省略する。
 図20は、実施例4に係る画像投影装置400の制御部20の処理の一例を示すフローチャートである。図20のように、制御部20は、ステップS80において、入力された画像データに基づき、画像用光線34aを光源12から出射させ、且つ画像用光線34aの出射に伴い、複数の検査用光線34bを光源12から出射させる。
 次いで、ステップS82に移行し、制御部20は、光検出器18が複数の検査用光線34bの全ての反射光46を検出しているか否かを判断する。全ての反射光46を検出している場合は、ステップS82の判断は肯定され、ステップS100に移行する。
 一方、複数の検査用光線34bのうちの少なくとも一部の検査用光線34bの反射光46を検出しない場合(ステップS82:No)、ステップS84に移行する。ステップS84では、制御部20は、複数の検査用光線34bのうちの一部の検査用光線34bの反射光46のみを検出しないか否かを判断する。一部の検査用光線34bの反射光46のみを検出しない場合(ステップS84:Yes)、制御部20は、ステップS86に移行して、検出しない反射光46(すなわち、検出しない検査用光線34b)に応じて、画像用光線34aで形成される画像の制御を行う。その後、ステップS100に移行する。
 画像の制御の例として、制御部20は、動画の停止、一時停止、再生、又は異なる画像への切り替えなどを行う。一時停止の場合、画像を表示したまま一時停止する場合でもよいし、画像の表示自体も一時停止する場合でもよい。また、制御部20は、ユーザの前後左右のいずれか一方を撮影する画像から他方を撮影する画像に切り替える場合でもよいし、前後左右の画像とは異なる別の画像から前後左右のいずれかの画像に切り替える場合やその逆の場合でもよい。例えば、制御部20は、ユーザの前後左右のいずれかを撮影する画像からユーザの現在位置の位置情報を示す画像に切り替える場合やその逆の場合でもよい。したがって、画像投影装置は、ユーザの前後左右を撮影する撮像部(例えばカメラ)及び/又は画像投影装置の位置を検出する位置検出部(例えばGPS(Global Positioning System)センサ)を備えている場合でもよい。
 ここで、検出しない検査用光線34bに応じた画像の制御について、図21(a)及び図21(b)を用いて説明する。図21(a)のように、複数の検査用光線34bのうちの第1検査用光線34b-1の反射光46を検出しない場合、制御部20は、画像に対して第1制御を行う。図21(b)のように、第2検査用光線34b-2の反射光46を検出しない場合、制御部20は、画像に対して上記第1制御とは異なる第2制御を行う。
 図20のように、一部の検査用光線34bの反射光46のみが不検出ではない場合(ステップS84:No)、制御部20は、ステップS88に移行して、複数の検査用光線34bの全ての反射光46が所定時間以上不検出か否かを判断する。全ての反射光46が所定時間以上不検出である場合(ステップS88:Yes)、制御部20は、ステップS90に移行し、ステップS86で行われる制御とは異なる画像の制御を行う。その後、ステップS100に移行する。一方、全ての反射光46が所定時間以上不検出ではない場合(ステップS88:No)、ステップS100に移行する。なお、全ての反射光46が所定時間以上不検出か否かを判断するのは、画像の制御を目的としない閉瞼を除外するためである。
 ステップS100では、制御部20は、実施例1の図7のステップS16と同一又は同等の処理を行う。
 以上のように、実施例4によれば、制御部20は、光検出器18による反射光46の検出結果に基づき、光源12を制御して画像用光線34aで形成される画像の制御を行う。これにより、ユーザは、眼球36及び/又は瞼37を動かすことによって、画像の制御を行うことができる。
 また、実施例4によれば、図21(a)及び図21(b)のように、複数の検査用光線34bのうちの第1検査用光線34b-1の反射光46を検出しない場合、画像の第1制御を行い、第2検査用光線34b-2の反射光46を検出しない場合、第1制御とは異なる画像の第2制御を行う。これにより、ユーザは、眼球36を異なる方向に動かすことによって、画像に対して異なる制御を行うことができる。
 また、実施例4によれば、図20のステップS86、S90のように、複数の検査用光線34bのうちの一部の検査用光線34bの反射光46を検出しない場合、画像の第1制御を行い、全ての検査用光線34bの反射光46を所定時間以上検出しない場合、第1制御とは異なる画像の第2制御を行う。これにより、ユーザは、眼球36を動かすか又は瞼37を動かすかによって、画像に対して異なる制御を行うことができる。
 なお、実施例4の図20のステップS90において、制御部20は、反射光46が不検出である時間の長さを検出し、当該時間の長さに応じて異なる画像の制御を行ってもよい。
 なお、実施例4に、実施例2で説明した画像用光線34aと検査用光線34bの投射位置の連動した移動の制御を組み合わせてもよいし、実施例3で説明した警告の制御を組み合わせてもよい。また、実施例4では、複数の検査用光線34bが眼球36に投射される場合を例に示したが、1つの検査用光線34bが眼球36に投射される場合でもよい。
 実施例5に係る画像投影装置500は、実施例1の図1と同一又は同等であるため説明を省略する。図22は、実施例5に係る画像投影装置500の制御部20の処理の一例を示すフローチャートである。図22のように、制御部20は、実施例2の図11のステップS20~ステップS26と同一又は同等の処理のステップS110~ステップS116を行う。
 次いで、ステップS118では、制御部20は、ステップS114、S116で画像用光線34aと検査用光線34bを連動して移動させる前に投影されていた画像とは異なる画像が投影されるように、画像の制御を行う。画像の制御の例は、実施例4と同じであるため説明を省略する。その後、制御部20は、ステップS120に移行して、実施例1の図7のステップS16と同一又は同等の処理を行う。
 実施例5によれば、制御部20は、光源12を制御して、画像用光線34aと検査用光線34bを連動して移動させた後に投影される画像を、連動して移動させる前に投影されていた画像とは異ならせる。これにより、ユーザは、向いた方向に応じた画像を視認することができる。例えば、ユーザは、向いた方向に応じて、ユーザの前後左右を撮像する画像のうちの異なる画像を視認することができる。
 なお、実施例5に、実施例3で説明した警告の制御を組み合わせてもよい。また、実施例5では、複数の検査用光線34bが眼球36に投射される場合を例に示したが、1つの検査用光線34bが眼球36に投射される場合でもよい。
 なお、実施例1から実施例5において、複数の検査用光線34bのうちの2つ以上の検査用光線34bが、虹彩42に同時に投射される場合でもよい。なお、この場合は、光検出器18を複数設けることとなる。
 なお、実施例1から実施例5では、図4のように、複数の検査用光線34bは、画像用光線34aが瞳孔40を通過する場合に、瞳孔40の周りを囲むように、虹彩42に6箇所で投射される場合を例に示したがこれに限られない。画像用光線34aが瞳孔40を通過しなくなることを効果的に抑制する点から、複数の検査用光線34bは、画像用光線34aが瞳孔40を通過する場合に、瞳孔40を挟むように虹彩42に投射されることが好ましく、2箇所以上で挟むように投射されることがより好ましい。また、複数の検査用光線34bは、画像用光線34aが瞳孔40を通過する場合に、瞳孔40を上下および左右で挟むように虹彩42に投射されることが好ましい。
 なお、実施例1から実施例5において、画像用光線34aと検査用光線34bは、図15(b)のように、検査用光線34bが虹彩42に入射されずに瞳孔40を通過する場合に、画像用光線34aが瞳孔40の端近傍を通過するような位置関係にある場合が好ましい。これにより、画像が欠落することを抑制できる。
 なお、実施例1から実施例5では、制御部20が外部装置に設けられている場合を例に示したが、この場合に限られず、例えばメガネ型フレームのツル30に設けられている場合でもよい。また、光源12と第1ミラー14は、メガネ型フレームのツル30の外側に設けられていてもよいし、ツル30の幅を広げて、ツル30の内側に設けられていてもよい。また、光源12は、メガネ型フレームのツル30に設けられている場合に限られず、メガネ型フレームとは別部品で設けられている場合でもよい。この場合、光源12から出射された光線34は、光ファイバなどを介して、第1ミラー14に入射されるようにすればよい。また、片方の眼球36に画像用光線34aと検査用光線34bが投射される場合に限られず、両方の眼球36に画像用光線34aと検査用光線34bが投射される場合でもよい。
 以上、本発明の実施例について詳述したが、本発明はかかる特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。

Claims (15)

  1.  画像を形成する画像用光線と、検査用光線と、を出射する1つの光源と、
     前記1つの光源から出射された前記画像用光線をユーザの眼の第1表面領域に投射して前記ユーザの網膜に投射し、前記1つの光源から出射された前記検査用光線を前記ユーザの眼の前記第1表面領域から離れた第2表面領域に投射する光学系と、
     前記検査用光線が前記ユーザの眼で反射した反射光を検出する光検出器と、
     前記光検出器による前記反射光の検出結果に基づき、前記1つの光源及び前記光学系の少なくとも一方を制御する制御部と、を備えることを特徴とする画像投影装置。
  2.  前記光学系は、前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射することを特徴とする請求項1記載の画像投影装置。
  3.  前記制御部は、前記光検出器が前記反射光を検出しない場合に前記光検出器が前記反射光を検出するように、前記光学系を制御して前記画像用光線と前記検査用光線の前記ユーザの眼への投射位置を連動して移動させることを特徴とする請求項1または2記載の画像投影装置。
  4.  前記光学系は、前記1つの光源から出射された前記画像用光線を走査し且つ前記1つの光源から出射された前記検査用光線を反射するミラーと、前記ミラーで走査された前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記ミラーで反射された前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する投射部と、を備え、
     前記制御部は、前記ミラーの位置を移動させて前記走査の原点を移動させることで、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させることを特徴とする請求項3記載の画像投影装置。
  5.  前記光学系は、前記1つの光源から出射された前記画像用光線を走査し且つ前記1つの光源から出射された前記検査用光線を反射するミラーと、前記ミラーで走査された前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記ミラーで反射された前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する投射部と、を備え、
     前記制御部は、前記1つの光源、前記ミラー、及び前記投射部を一体で移動させることで、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させることを特徴とする請求項3記載の画像投影装置。
  6.  前記光学系は、複数の前記検査用光線を前記ユーザの眼の異なる位置に異なる時間で投射し、
     前記制御部は、前記光検出器が前記異なる時間に前記複数の検査用光線の前記反射光を検出したか否かに基づいて、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させることを特徴とする請求項3から5のいずれか一項記載の画像投影装置。
  7.  前記光学系は、複数の前記検査用光線を前記ユーザの眼の異なる位置に投射し、
     前記制御部は、前記光検出器が前記複数の検査用光線の前記反射光のうちの少なくとも1つの反射光を検出しない場合に、前記画像用光線の投射位置が検出されない前記反射光に対応する前記検査用光線の投射位置の方向に移動するように、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させることを特徴とする請求項3から6のいずれか一項記載の画像投影装置。
  8.  前記制御部は、前記光検出器による前記反射光の検出結果に基づき、前記1つの光源を制御して前記画像用光線で形成される前記画像を制御することを特徴とする請求項1から7のいずれか一項記載の画像投影装置。
  9.  前記光学系は、複数の前記検査用光線を前記ユーザの眼の異なる位置に投射し、
     前記制御部は、前記光検出器が前記複数の検査用光線のうちの第1検査用光線の前記反射光を検出しない場合に前記画像の第1制御を行い、前記光検出器が前記複数の検査用光線のうちの第2検査用光線の前記反射光を検出しない場合に前記第1制御とは異なる前記画像の第2制御を行うことを特徴とする請求項8記載の画像投影装置。
  10.  前記光学系は、複数の前記検査用光線を前記ユーザの異なる位置に投射し、
     前記制御部は、前記光検出器が前記複数の検査用光線のうちの一部の検査用光線の前記反射光を検出しない場合に前記画像の第1制御を行い、前記光検出器が前記複数の検査用光線の全ての前記反射光を検出しない場合に前記第1制御とは異なる前記画像の第2制御を行うことを特徴とする請求項8または9記載の画像投影装置。
  11.  前記制御部は、前記1つの光源を制御して、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させた後に前記画像用光線で形成される前記画像を、前記画像用光線と前記検査用光線の前記投射位置を連動して移動させる前に前記画像用光線で形成された画像と異ならせることを特徴とする請求項3から7のいずれか一項記載の画像投影装置。
  12.  前記制御部は、前記光検出器による前記反射光の検出結果に基づき、前記1つの光源を制御して前記ユーザに警告を発することを特徴とする請求項1から11のいずれか一項記載の画像投影装置。
  13.  前記制御部は、前記1つの光源を制御して前記ユーザの眼の前記第1表面領域と前記第2表面領域とを含む一体の領域に警告用の光を出射させることを特徴とする請求項12記載の画像投影装置。
  14.  前記光学系は、前記1つの光源から出射された前記画像用光線を走査し且つ前記1つの光源から出射された前記検査用光線を反射するミラーと、前記ミラーで走査された前記画像用光線が前記ユーザの瞳孔を通過して前記ユーザの網膜に投射される場合に前記ミラーで反射された前記検査用光線が前記ユーザの虹彩に投射される位置関係で、前記画像用光線と前記検査用光線とを前記ユーザの眼に投射する投射部と、を備え、
     前記ミラーは、第1方向と前記第1方向に交差する第2方向に、前記ユーザの網膜に投影する画像の範囲よりも大きく振動し、
     前記1つの光源は、前記ミラーの振動における前記画像の範囲に相当する期間において前記画像用光線を前記ミラーに出射し、前記画像の範囲外の時間において前記検査用光線を前記ミラーに出射することを特徴とする請求項1から13のいずれか一項記載の画像投影装置。
  15.  前記投射部は、前記画像用光線が入射する第1領域と、前記第1領域とは光学的に不連続であり、前記検査用光線が入射する第2領域と、を有することを特徴とする請求項14記載の画像投影装置。
     
PCT/JP2016/063002 2015-06-25 2016-04-26 画像投影装置 WO2016208266A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/579,750 US10444519B2 (en) 2015-06-25 2016-04-26 Image projection device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015127868 2015-06-25
JP2015-127868 2015-06-25
JP2015-244557 2015-12-15
JP2015244557A JP6231541B2 (ja) 2015-06-25 2015-12-15 画像投影装置

Publications (1)

Publication Number Publication Date
WO2016208266A1 true WO2016208266A1 (ja) 2016-12-29

Family

ID=57585520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063002 WO2016208266A1 (ja) 2015-06-25 2016-04-26 画像投影装置

Country Status (1)

Country Link
WO (1) WO2016208266A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044710A1 (ja) * 2017-08-31 2019-03-07 株式会社ニコン 眼科機器、画像生成装置、プログラム、及び眼科システム
CN112955807A (zh) * 2018-11-06 2021-06-11 株式会社籁天那 用于增强现实的光学装置
CN113383220A (zh) * 2019-04-04 2021-09-10 Qd激光公司 图像检查装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163267A (ja) * 1995-12-06 1997-06-20 Sony Corp 光学視覚装置
JPH11249064A (ja) * 1998-03-04 1999-09-17 Omron Corp 頭部搭載型表示装置
JP2003029198A (ja) * 2001-07-16 2003-01-29 Denso Corp スキャン型ディスプレイ装置
JP2004233425A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp 画像表示装置
JP2006058505A (ja) * 2004-08-19 2006-03-02 Brother Ind Ltd 瞳孔検出装置およびそれを備えた画像表示装置
WO2009066475A1 (ja) * 2007-11-21 2009-05-28 Panasonic Corporation 表示装置
JP2011069978A (ja) * 2009-09-25 2011-04-07 Brother Industries Ltd 網膜走査型画像表示装置
JP2014038239A (ja) * 2012-08-17 2014-02-27 Seiko Epson Corp 画像表示装置および頭部装着型画像表示装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163267A (ja) * 1995-12-06 1997-06-20 Sony Corp 光学視覚装置
JPH11249064A (ja) * 1998-03-04 1999-09-17 Omron Corp 頭部搭載型表示装置
JP2003029198A (ja) * 2001-07-16 2003-01-29 Denso Corp スキャン型ディスプレイ装置
JP2004233425A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp 画像表示装置
JP2006058505A (ja) * 2004-08-19 2006-03-02 Brother Ind Ltd 瞳孔検出装置およびそれを備えた画像表示装置
WO2009066475A1 (ja) * 2007-11-21 2009-05-28 Panasonic Corporation 表示装置
JP2011069978A (ja) * 2009-09-25 2011-04-07 Brother Industries Ltd 網膜走査型画像表示装置
JP2014038239A (ja) * 2012-08-17 2014-02-27 Seiko Epson Corp 画像表示装置および頭部装着型画像表示装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044710A1 (ja) * 2017-08-31 2019-03-07 株式会社ニコン 眼科機器、画像生成装置、プログラム、及び眼科システム
CN112955807A (zh) * 2018-11-06 2021-06-11 株式会社籁天那 用于增强现实的光学装置
CN112955807B (zh) * 2018-11-06 2023-04-11 株式会社籁天那 用于增强现实的光学装置
CN113383220A (zh) * 2019-04-04 2021-09-10 Qd激光公司 图像检查装置
CN113383220B (zh) * 2019-04-04 2024-05-24 Qd激光公司 图像检查装置

Similar Documents

Publication Publication Date Title
JP6231541B2 (ja) 画像投影装置
US10634904B2 (en) Image projection device
US10761329B2 (en) Image projection device
JP5104679B2 (ja) ヘッドマウントディスプレイ
JP2019080354A (ja) ヘッドマウントディスプレイ
JP2008145701A (ja) 画像表示装置及び画像表示システム
JP2011075956A (ja) ヘッドマウントディスプレイ
US20060284813A1 (en) Scanning display
JP2014191386A (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
WO2016208266A1 (ja) 画像投影装置
JP2011075951A (ja) 画像表示装置
JP2011069978A (ja) 網膜走査型画像表示装置
US10284751B2 (en) Optical scanning head-mounted display and retinal scanning head-mounted display
JP2010091944A (ja) 画像表示装置及び画像表示システム
JP2002318365A (ja) 網膜投影型ディスプレイ
JP5163535B2 (ja) ヘッドマウントディスプレイ
JP5272813B2 (ja) ヘッドマウントディスプレイ
JP5267256B2 (ja) ヘッドマウントディスプレイ
JP2011065392A (ja) ヘッドマウントディスプレイ
JP2006350257A (ja) 走査型表示装置
US11895404B2 (en) Controlling a two-dimensional mirror gimbal for purposes of iris scanning
US20230080420A1 (en) Display apparatus
JP7163230B2 (ja) 視線検出装置、視線検出方法、及び表示装置
JP5163534B2 (ja) ヘッドマウントディスプレイ
JP2011069902A (ja) 画像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16814037

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15579750

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16814037

Country of ref document: EP

Kind code of ref document: A1