WO2018034181A1 - 画像検査装置、画像検査方法、及び画像検査装置用部品 - Google Patents

画像検査装置、画像検査方法、及び画像検査装置用部品 Download PDF

Info

Publication number
WO2018034181A1
WO2018034181A1 PCT/JP2017/028558 JP2017028558W WO2018034181A1 WO 2018034181 A1 WO2018034181 A1 WO 2018034181A1 JP 2017028558 W JP2017028558 W JP 2017028558W WO 2018034181 A1 WO2018034181 A1 WO 2018034181A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
inspection
resolution
projection
projected
Prior art date
Application number
PCT/JP2017/028558
Other languages
English (en)
French (fr)
Inventor
森野誠治
鈴木誠
石本学
Original Assignee
株式会社Qdレーザ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Qdレーザ filed Critical 株式会社Qdレーザ
Priority to EP17841406.6A priority Critical patent/EP3502647A4/en
Priority to CN201780050293.6A priority patent/CN109642848B/zh
Priority to JP2018534351A priority patent/JP6883869B2/ja
Priority to US16/318,263 priority patent/US11158034B2/en
Publication of WO2018034181A1 publication Critical patent/WO2018034181A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image inspection apparatus, an image inspection method, and a component for an image inspection apparatus.
  • An image projection apparatus such as a head mounted display (HMD) that directly projects an image on a user's retina using light emitted from a light source is known (for example, Patent Document 1).
  • HMD head mounted display
  • a method called Maxwell's view is used.
  • Maxwell's view scanning light composed of light rays forming an image is converged near the pupil and an image (retinal image) is projected onto the retina.
  • a distortion inspection apparatus that measures the amount of distortion of an inspection object is known (for example, Patent Document 2).
  • an image projection apparatus that directly projects an image on a user's retina
  • a method for inspecting an image projected on the retina a method for inspecting an image by a user actually wearing the image projection apparatus and viewing the projected image Can be considered.
  • the determination criterion becomes ambiguous, for example, the determination varies depending on the user.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to inspect an image projected by an image projection apparatus that directly projects an image on a user's retina in a retinal scanning laser display.
  • the present invention includes a mounting unit on which an image projection device that directly projects an image on a user's retina, a condensing lens that collects light rays emitted from the image projection device mounted on the mounting unit,
  • An image inspection apparatus comprising: a projection unit on which an inspection image is projected by being irradiated with the light beam condensed by a condenser lens; and an inspection unit that inspects the inspection image projected on the projection unit.
  • an imaging unit that captures the inspection image projected on the projection target having a substantially hemispherical shape having an opening on the condenser lens side, and the inspection image captured by the imaging unit
  • An image conversion unit that converts a polar coordinate system represented by a radius and angle from the center point of the substantially hemispherical surface into an orthogonal coordinate system, and the inspection unit is converted by the image conversion unit.
  • the inspection image can be inspected.
  • the projection target may transmit the inspection image
  • the imaging unit may capture the inspection image transmitted through the projection target.
  • a reflection system provided on an optical path of the light beam between the condensing lens and the projection unit, and the imaging unit is reflected by the projection unit and the reflection system. It can be set as the structure which images a test
  • the reflection system may include a polarizing plate, a polarizing beam splitter, and a quarter wavelength plate.
  • the projected part may have a planar shape.
  • the inspection unit may be configured to inspect at least one of distortion, resolution, luminance, pattern shape, gamma characteristic, contrast ratio, aspect ratio, and hue of the inspection image.
  • the inspection image projected on the projection target part is the first inspection image projected by the light beam collected by the condenser lens having the first focal length, and the first focal length.
  • a second inspection image projected by the light beam collected by the condenser lens having a different second focal length, and the inspection unit includes a first resolution of the first inspection image and the second inspection image. And measuring whether the ratio of the difference between the first resolution and the second resolution with respect to the difference between the first focal distance and the second focal distance is within a predetermined range. it can.
  • the inspection image projected on the projection target unit includes a plurality of the first inspection images having different spatial frequencies and a plurality of the second inspection images having different spatial frequencies
  • the spatial frequency with a contrast ratio of 0.5 is calculated as the first resolution using the plurality of first inspection images, and the contrast ratio is 0.5 with the plurality of second inspection images.
  • a configuration for calculating a spatial frequency as the second resolution and inspecting whether a ratio of a difference between the first resolution and the second resolution with respect to a difference between the first focal distance and the second focal distance is within a predetermined range; can do.
  • the inspection image projected on the projection part includes an inspection pattern having a pattern with different luminance, and the inspection part inspects the resolution of the inspection image based on a change in luminance of the inspection pattern. It can be configured.
  • the inspection projected onto the projection part includes an aperture plate that is movable in a plane direction perpendicular to the optical axis of the condenser lens and has a hole through which the light beam passes in the vicinity of the condenser lens.
  • the image includes a plurality of the inspection images projected on the projection target part when the aperture plate moves and the hole is at a different position, and the inspection part includes an average brightness and / or a plurality of inspection images. Or it can be set as the structure which test
  • the projection unit having a planar shape includes a detector that detects an image, the projection unit is movable in a vertical direction of the plane of the projection unit, and the inspection unit is the projection target By specifying the position of the detector and the size of the inspection image detected at that position as the part moves, the size of the convergence region of the light beam can be measured.
  • a light beam that forms an inspection image is emitted from an image projection device that directly projects an image onto a user's retina, and passes through a condenser lens to irradiate the projection unit with the light beam.
  • An image inspection method comprising: projecting the inspection image; and inspecting the inspection image projected on the projection target part.
  • the imaging step Converting a polar coordinate system represented by a radius vector and an angle from a center point of the substantially hemispherical surface to an orthogonal coordinate system, and the step of inspecting the step after the conversion in the converting step It can be set as the structure which test
  • the projected part may have a planar shape.
  • the inspecting step may be configured to inspect at least one of distortion, resolution, luminance, pattern shape, gamma characteristic, contrast ratio, aspect ratio, and hue of the inspection image.
  • the projecting step includes, as the inspection image, a first inspection image by the light beam that has passed through the condenser lens having a first focal length and the light beam that has passed through the condenser lens having a second focal length. And projecting a second inspection image by The inspecting step measures a first resolution of the first inspection image and a second resolution of the second inspection image, and the first resolution with respect to a difference between the first focal length and the second focal length, It can be set as the structure which test
  • the projecting step projects the plurality of first inspection images having different spatial frequencies and the plurality of second inspection images having different spatial frequencies
  • the inspecting step includes the plurality of second inspection images.
  • the spatial frequency at which the contrast ratio is 0.5 is calculated as the first resolution using one inspection image
  • the spatial frequency at which the contrast ratio is 0.5 is calculated using the plurality of second inspection images. It is calculated as two resolutions, and it is possible to inspect whether the ratio of the difference between the first resolution and the second resolution with respect to the difference between the first focal distance and the second focal distance is within a predetermined range.
  • the projecting step projects the inspection image including an inspection pattern having patterns with different luminances onto the projection target, and the inspecting step includes the inspection based on a change in luminance of the inspection pattern. It can be set as the structure which test
  • the projecting step includes the step of moving an aperture plate having a hole through which the light beam passes in the vicinity of the condenser lens in a plane direction perpendicular to the optical axis of the condenser lens so that the hole is at a different position. Projecting the plurality of inspection images by the light rays passing through the hole at a certain time and inspecting the inspection step, the difference in average luminance and / or pattern shape of the plurality of inspection images is inspected within a predetermined range It can be.
  • the projection target having a planar shape is movable in the vertical direction of the plane of the projection target, and is mounted on the projection target and detects an image as the projection target moves.
  • the step of specifying the position of the detector and the size of the inspection image detected at the position, and the step of measuring the size of the convergence region of the light beam based on the specified position of the detector and the size of the inspection image It can be set as the structure provided with these.
  • the present invention is a component for an image inspection apparatus that is a projection portion as described above, and is a component for an image inspection apparatus composed of a material having high light diffusibility and flat wavelength dispersion.
  • the material may be a material in which light is transmitted and mixed with quartz and barium sulfate, or a surface of a material that transmits light is coated with nanodiamonds. .
  • FIG. 1 is a diagram illustrating an image inspection apparatus according to the first embodiment.
  • FIG. 2 is a top view of the image projection apparatus.
  • FIG. 3 is a diagram for explaining irradiation of the light beam emitted from the image projection apparatus to the projection target part.
  • FIG. 4A to FIG. 4D are conceptual diagrams of pseudo eyes (dummy eyes).
  • FIG. 5 is a diagram illustrating an image region projected on a pseudo eye (dummy eye).
  • FIG. 6 is a top view of another example of the projection target part.
  • FIG. 7 is a flowchart illustrating an example of an inspection method for inspecting image distortion.
  • FIG. 8A to FIG. 8C are diagrams for explaining curved surface image conversion.
  • FIGS. 9C are diagrams (part 1) for explaining a specific example of distortion inspection.
  • FIG. 10A and FIG. 10B are diagrams (part 2) illustrating a specific example of distortion inspection.
  • FIG. 11 is a flowchart illustrating a first example of an inspection method for inspecting the resolution of an image.
  • FIGS. 12A and 12B are diagrams illustrating a first example of an image resolution inspection method.
  • FIG. 13 is a flowchart illustrating a second example of the inspection method for inspecting the resolution of an image.
  • FIGS. 14A and 14B are diagrams (part 1) for explaining a second example of an image resolution inspection method.
  • FIGS. 15A and 15B are diagrams (part 2) for explaining a second example of the image resolution inspection method.
  • FIG. 16 is a diagram illustrating an image inspection apparatus according to the first modification of the third embodiment.
  • FIG. 17 is a flowchart illustrating a third example of the inspection method for inspecting the resolution of an image.
  • FIG. 18A and FIG. 18B are diagrams (part 1) for explaining a third example of the image resolution inspection method.
  • FIG. 19 is a diagram (No. 2) for explaining a third example of the image resolution inspection method.
  • FIG. 20A to FIG. 20C are diagrams (part 3) for explaining a third example of the image resolution inspection method.
  • FIG. 21 is a diagram illustrating the image inspection apparatus according to the fourth embodiment.
  • FIG. 22 is a flowchart illustrating an example of an inspection method for inspecting the luminance and pattern shape of an image.
  • FIG. 23B are diagrams for explaining an inspection method of luminance and pattern shape of an image.
  • FIG. 24 is a diagram illustrating the image inspection apparatus according to the fifth embodiment.
  • FIG. 25 is a diagram illustrating the image inspection apparatus according to the sixth embodiment.
  • FIG. 26 is a diagram illustrating the image inspection apparatus according to the seventh embodiment.
  • FIG. 27 is a diagram illustrating the size of light rays projected on a planar projection target.
  • FIG. 28 is a diagram illustrating an example of a gamma characteristic inspection method.
  • FIG. 29 is a diagram illustrating an example of a contrast ratio inspection method.
  • FIG. 30A and FIG. 30B are diagrams illustrating an example of an aspect ratio inspection method.
  • FIG. 31 is a flowchart illustrating an example of an inspection method for inspecting a convergence region of scanning light.
  • FIG. 32A to FIG. 32C are diagrams illustrating a method for inspecting a convergence region of scanning light.
  • FIG. 1 is a diagram illustrating an image inspection apparatus 100 according to the first embodiment.
  • the image inspection apparatus 100 according to the first embodiment includes a mounting unit 10, a condenser lens 12, a projection target unit 14, an imaging unit 16, a control unit 18, and a display unit 24.
  • the mounting unit 10 is mounted with an image projecting device 30 as a test object that directly projects an image onto the retina of the user.
  • an example of the image projector 30 will be described with reference to FIG. FIG. 2 is a top view of the image projector 30.
  • the image projection device 30 is a retinal projection head-mounted display using Maxwell's view in which a light beam for allowing the user to visually recognize an image is directly irradiated on the retina of the user's eyeball.
  • the image projection device 30 includes a light source 32, a mirror 34, a mirror 36, a scanning unit 38, a mirror 40, a projection unit 42, and a control unit 44.
  • the light source 32 is disposed on the temple 46 of the glasses-type frame.
  • the light source 32 emits, for example, a light beam 50 having a single wavelength or a plurality of wavelengths under the instruction of the control unit 44.
  • the light beam 50 includes a light beam for projecting an image on the retina 92 of the user's eyeball 90.
  • a red laser beam (wavelength: about 610 nm to 660 nm), a green laser beam (wavelength: about 515 nm to 540 nm), and a blue laser It is visible light of light (wavelength: about 440 nm to 480 nm).
  • the light source 32 that emits red, green, and blue laser light include a light source in which RGB (red, green, and blue) laser diodes, a three-color synthesis device, and a microcollimator lens are integrated.
  • the scanning unit 38 is disposed on the temple 46 of the glasses-type frame.
  • the scanning unit 38 scans the light beam 50 emitted from the light source 32 in the horizontal direction and the vertical direction.
  • the scanning unit 38 is, for example, a MEMS (Micro Electro Mechanical System) mirror.
  • the light beam 50 emitted from the light source 32 is reflected by the mirror 34 and the mirror 36 and enters the scanning unit 38.
  • the scanning light composed of the light beam 50 scanned by the scanning unit 38 is reflected by the mirror 40 toward the lens 48 of the glasses-type frame.
  • the projection unit 42 is disposed on the surface of the lens 48 on the eyeball 90 side. Therefore, the light beam 50 scanned by the scanning unit 38 enters the projection unit 42.
  • the projection unit 42 is a half mirror having a free curved surface or a combined structure of a free curved surface and a diffractive surface. As a result, the scanning light composed of the light beam 50 incident on the projection unit 42 is converged in the vicinity of the pupil 94 of the eyeball 90 and then irradiated to the retina 92. Therefore, the user can recognize the image formed by the light beam 50 and can visually recognize the external image as see-through.
  • the control unit 44 includes a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the processor operates according to a program stored in the memory.
  • the entire image projection apparatus 30 is controlled such that the light source 32 is controlled to emit a light beam 50 based on the input image data.
  • the processor and the memory may be provided in the eyeglass-type frame, or may be provided in an external device such as a mobile terminal.
  • FIG. 3 is a diagram for explaining irradiation of the projection unit 14 with the light beam 50 emitted from the image projection device 30.
  • the central portion of the light beam 50 having a finite light beam diameter is illustrated, but in FIG. 3, the light beam 50 is illustrated with a finite light beam diameter, and the central portion is illustrated with a one-dot chain line.
  • the condenser lens 12 is provided on the optical path through which the light beam 50 reflected by the projection unit 42 passes, and at a position where the scanning light composed of the light beam 50 converges. The condensing lens 12 condenses the light beam 50 incident from the projection unit 42.
  • the projected portion 14 is disposed in the vicinity of the condensing point of the light beam 50 by the condensing lens 12.
  • the projection part 14 is formed of a hemispherical glass having an opening on the condenser lens 12 side, and a film that is translucent to the light beam 50 is provided on the inner surface.
  • the projected portion 14 may be formed of a material that is translucent to the light beam 50.
  • the condensing lens 12 that condenses the light beam 50 can be regarded as a crystalline lens of the eyeball, and the projection surface 14 having a hemispherical shape can be regarded as the retina of the eyeball. That is, a pseudo eye (which may be referred to as a dummy eye or an eyeball screen model, hereinafter referred to as a dummy eye) is configured by the condenser lens 12 corresponding to the crystalline lens and the projection target 14 corresponding to the retina. Yes.
  • the diameter of the projection target 14 preferably corresponds to the general size of the eyeball, and is preferably about 23 mm to 25 mm, for example.
  • the projection surface 14 having a hemispherical shape has a spherical shape so that the light beam 50 passes through the pupil of the eyeball, scanning light composed of the light beam 50 in a portion corresponding to the pupil. Is preferably within the range of the general size of the pupil (for example, about 5 mm to 7 mm).
  • FIG. 4A to FIG. 4D are conceptual diagrams of pseudo eyes (dummy eyes).
  • FIG. 5 is a diagram illustrating an image region projected on a pseudo eye (dummy eye).
  • 4A is a side view of the dummy eye 52
  • FIG. 4B is a top view of the dummy eye 52
  • FIG. 4C is a front view of the dummy eye 52
  • FIG. 4D is a perspective view of the dummy eye 52. is there.
  • the diameter DD of the dummy eye 52 (that is, the diameter of the projection target portion 14) is, for example, 24 mm.
  • the light ray 50 is incident on the dummy eye 52 through the pupil 51 (for example, an opening having a diameter ID of 7 mm).
  • the light beam 50 is incident at an angle ⁇ 1 in the y-axis direction (vertical direction) and an angle ⁇ 1 in the x-axis direction (lateral direction) with respect to the z-axis passing through the center of the dummy eye 52 and the convergence point 54 of the scanning light.
  • An image is projected by irradiating the dummy eye 52 with the light beam 50. That is, an image is projected onto the projection target part 14 constituting the dummy eye 52. Since the portion corresponding to the retina of the dummy eye 52 has a curved surface shape, the image area 53 projected onto the dummy eye 52 is as shown in FIG.
  • the material of the projection part 14 constituting the dummy eye 52 is thin, can be processed into a spherical shape, has a high light diffusibility, and preferably has a flat wavelength dispersion of the diffused light, such as a translucent ground glass shape, Glass or acrylic mixed with quartz, BaSO 4 (barium sulfate), or nanodiamond with a diamond crystal structure and a nano-sized diamond particle diameter is coated on the glass or acrylic surface.
  • a dummy eye 52 is useful, for example, for measuring the resolution and / or distortion of a wide field of view (FOV). Since optical design such as resolution is optimized on the surface of the retina, it is preferable that accurate measurement is performed at the position of the retina when the visual field is wide.
  • FOV wide field of view
  • the imaging unit 16 is provided on the side opposite to the condenser lens 12 with respect to the projection unit 14.
  • the imaging unit 16 captures an image projected on the projection unit 14 and transmitted through the projection unit 14.
  • the imaging unit 16 is, for example, a camera (such as a CCD camera or a CMOS camera).
  • the imaging unit 16 has a resolution that exceeds the scanning line of the image projected on the projection target 14.
  • the control unit 18 includes a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the processor operates according to a program stored in the memory.
  • the entire image inspection apparatus 100 is controlled.
  • the control unit 18 inputs inspection image data to the image projecting device 30 mounted on the mounting unit 10 or images the inspection image projected on the projection target unit 14 with the imaging unit 16.
  • the control unit 18 converts the polar coordinate system represented by the radius and angle from the center point of the shape of the hemispherical surface of the projection target unit 14 to the orthogonal coordinate system with respect to the inspection image captured by the imaging unit 16.
  • It functions as the image conversion unit 20 or functions as the inspection unit 22 that inspects the inspection image captured by the imaging unit 16 and converted by the image conversion unit 20.
  • the display unit 24 is a liquid crystal display, for example, and displays the inspection result of the inspection image.
  • the projected part 14 is not limited to a perfect hemispherical shape, but may be a substantially hemispherical shape.
  • the substantially hemispherical shape includes a spherical surface or a shape in which a part of the spherical surface is opened.
  • FIG. 6 is a top view of another example of the projection target 14.
  • the projection target 14 may be formed in a portion that is more than half of a spherical surface, and may have a shape in which an opening 56 that is at least the size of the pupil is provided.
  • the imaging unit 16 may be provided on the side surface side in addition to the back side of the projection unit 14.
  • FIG. 7 is a flowchart showing an example of an inspection method for inspecting image distortion. As shown in FIG. 7, the user first mounts the image projection device 30 to be subjected to image distortion inspection on the mounting unit 10 of the image inspection device 100 (step S10).
  • the control unit 18 of the image inspection apparatus 100 inputs inspection image data to the control unit 44 of the image projection apparatus 30, thereby causing the light projection 50 to form an inspection image to be emitted from the image projection apparatus 30.
  • the inspection image is projected onto (step S12).
  • the light beam 50 emitted from the image projection device 30 is irradiated onto the projection unit 14 via the condenser lens 12, and thereby the inspection image is projected onto the projection unit 14.
  • a lattice image can be used as the inspection image.
  • control unit 18 captures the inspection image projected on the projection target unit 14 with the imaging unit 16 (step S14).
  • the inspection image captured by the imaging unit 16 is sent to the control unit 18.
  • FIG. 8A to FIG. 8C are diagrams for explaining curved surface image conversion.
  • 8A is a diagram illustrating the imaging direction of the imaging unit 16
  • FIG. 8B is a diagram of the inspection image captured by the imaging unit 16
  • FIG. 8C is a diagram of the inspection image after the curved surface image conversion. is there.
  • the imaging of the inspection image by the imaging unit 16 is performed from the back side of the projection target unit 14.
  • the inspection image picked up by the image pickup part 16 is bent in a barrel shape as shown in FIG.
  • the axis parallel to the imaging direction of the imaging unit 16 and passing through the center point 58 of the hemispherical surface of the projection target unit 14 is defined as the z-axis
  • the lateral direction of the projected inspection image Is the x-axis and the vertical direction is the y-axis.
  • the position of the light beam 50 forming the inspection image picked up by the image pickup unit 16 uses the radius r from the center point 58 of the projection target part 14 and the inclination ⁇ 2 from the z axis and the inclination ⁇ 2 from the x axis. It can be expressed in a polar coordinate system.
  • the inspection image having a curved shape as shown in FIG. 8B is converted into an inspection image as shown in FIG. This conversion is called curved image conversion.
  • the control unit 18 inspects the distortion of the inspection image after the curved surface image conversion (hereinafter may be referred to as a conversion inspection image) (step S18).
  • the image after the curved surface image conversion is an image equivalent to an image visually recognized by the user wearing the image projection device 30. Therefore, by examining the distortion of the converted inspection image (the image of FIG. 8C), the distortion (geometric uniformity) of the image visually recognized by the user wearing the image projection device 30 can be inspected.
  • FIG. 9A to FIG. 10B are diagrams for explaining a specific example of distortion inspection.
  • the thick line indicates the converted inspection image
  • the thin line indicates the inspection image data input to the control unit 44 of the image projection device 30.
  • FIG. 9A is a diagram for explaining the inspection of the vertical strain.
  • the control unit 18 determines the length from the central horizontal line located at the center to the upper and lower sides of the horizontal lines of the converted inspection image at the left and right sides of the converted inspection image and the center between them. Measure V3L from V1U. The length is measured using the intersection coordinates of the grid frame.
  • Vbal1 (V1U ⁇ V1L) / (V1U + V1L) ⁇ 100 (%)
  • Vbal2 (V2U ⁇ V2L) / (V2U + V2L) ⁇ 100 (%)
  • FIG. 9B is a diagram for explaining the inspection of horizontal distortion.
  • the control unit 18 determines that the left side and the right side from the central vertical line located at the center of the vertical lines of the converted inspection image at the upper side, the lower side, and the center between them. Measure the length from H1U to H3L.
  • HbalU (H1U ⁇ H3U) / (H1U + H3U) ⁇ 100 (%)
  • HbalM (H1M ⁇ H3M) / (H1M + H3M) ⁇ 100 (%)
  • FIG. 9C is a diagram for explaining the inspection of the horizontal line inclination.
  • the control unit 18 measures the vertical interval (vertical direction) H between the point where the central horizontal line of the converted inspection image intersects the left side of the converted inspection image and the point where the right side intersects. Further, the control unit 18 measures a distance X in the horizontal direction (left-right direction) from the point where the central horizontal line of the converted inspection image intersects the right side of the converted inspection image to the left side.
  • inspects a horizontal line inclination by calculating HOLT ATAN (H / X) (rad).
  • FIG. 10A is a diagram for explaining the inspection of the vertical line inclination.
  • the control unit 18 measures a horizontal (horizontal) interval V between a point where the central vertical line of the converted inspection image intersects with the upper side and a lower side of the converted inspection image. Further, the control unit 18 measures a distance Y in the vertical direction (vertical direction) from the point where the central vertical line of the converted inspection image intersects the upper side of the converted inspection image to the lower side.
  • vertical line inclination by calculating VERT ATAN (V / Y) (rad).
  • FIG. 10B is a diagram for explaining the inspection of curvature.
  • the control unit 18 in the horizontal direction from the point where the center horizontal line of the converted inspection image intersects the left side and the right side and the upper end and the lower end on the left side and the right side of the converted inspection image.
  • the distances HS1 and HS3 between the remote ones are measured.
  • the control unit 18 measures the lengths H1M and H3M from the central vertical line of the conversion inspection image to the left side and the right side at the center between the upper side and the lower side of the conversion inspection image.
  • control unit 18 displays the inspection result of the image distortion (for example, the distortion described in FIG. 9A to FIG. 10B) on the display unit 24 (step S20).
  • the control unit 18 refers to the allowable distortion amount range stored in advance in the memory, determines whether the inspection result exceeds the allowable range, and displays the determination result on the display unit 24. Also good.
  • the image inspection apparatus 100 irradiates the condenser lens 12 that collects the light beam 50 emitted from the image projection device 30 mounted on the mounting unit 10 and the condensed light beam 50.
  • the projection unit 14 onto which the inspection image is projected and the inspection unit 22 that inspects the projected inspection image are provided. That is, a light beam 50 that forms an inspection image is emitted from the image projection device 30, passes through the condenser lens 12, and is irradiated with the light beam 50, thereby projecting the inspection image onto the projection unit 14 and projecting the projection image. Inspected inspection images. Thereby, the image projected by the image projection apparatus 30 which projects an image directly on a user's retina can be test
  • the projection unit 14 has a substantially hemispherical shape having an opening on the condenser lens 12 side, and the imaging unit 16 that captures the inspection image projected on the projection unit 14.
  • an image conversion unit 20 that converts a polar coordinate system represented by a radius and angle from a center point of a substantially hemispherical surface to an orthogonal coordinate system with respect to a captured inspection image.
  • the inspection unit 22 inspects the inspection image that has been converted by the image conversion unit 20.
  • the condensing lens 12 and the substantially hemispherical projection part 14 constitute a pseudo eye (dummy eye).
  • the inspection image projected on the projection unit 14 is imaged, and the polar coordinate system represented by the radius and angle from the center point of the substantially hemispherical surface is converted into an orthogonal coordinate system for the imaged inspection image.
  • the inspection image after conversion an image equivalent to the image visually recognized by the user wearing the image projection device 30 can be inspected.
  • the projection unit 14 transmits the inspection image
  • the imaging unit 16 captures the inspection image transmitted through the projection unit 14.
  • FIG. 11 is a flowchart showing a first example of an inspection method for inspecting the resolution of an image.
  • FIGS. 12A and 12B are diagrams illustrating a first example of an image resolution inspection method.
  • the user mounts the image projection apparatus 30 to be inspected for inspecting the resolution of the image on the mounting unit 10 of the image inspection apparatus 100 (step S30). Further, the user attaches the condensing lens 12a having the focal length f1 as the condensing lens of the image inspection apparatus 100 (step S32).
  • the control unit 18 of the image inspection apparatus 100 inputs inspection image data to the control unit 44 of the image projection apparatus 30, thereby causing the light projection 50 to form an inspection image to be emitted from the image projection apparatus 30.
  • the inspection image is projected onto (step S34).
  • a resolution chart image can be used as the inspection image. That is, as shown in FIG. 12A, for example, an inspection image 60 of a resolution chart is projected by the light beam 50 that has passed through the condenser lens 12a having the focal length f1 and has been irradiated onto the projection target section 14.
  • control unit 18 images the inspection image 60 projected on the projection target unit 14 with the imaging unit 16 (step S36).
  • control unit 18 performs curved surface image conversion on the captured inspection image 60 (step S38).
  • control unit 18 measures the resolution R1 of the inspection image 60 after the curved surface image conversion (step S40).
  • Step S42 the condensing lens 12a with the focal length f1 attached to the image inspection apparatus 100 to be different from the focal length f1, for example, the condensing lens 12b with a focal length f2 shorter than the focal length f1.
  • Step S42 an inspection image 60 of a resolution chart is projected by the light beam 50 that has passed through the condenser lens 12 b having the focal length f ⁇ b> 2 and is irradiated on the projection target 14.
  • control unit 18 images the inspection image 60 projected on the projection target unit 14 with the imaging unit 16 (step S44).
  • control unit 18 performs curved surface image conversion on the captured inspection image 60 (step S46).
  • control unit 18 measures the resolution R2 of the inspection image 60 after the curved surface image conversion (step S48).
  • the resolution R2 of the inspection image is measured.
  • the resolution R1 and the resolution R2 correspond to the retinal image resolution.
  • the condensing lens 12a with the focal length f1 has a condensing point on the near side of the projection unit 14, and the condensing lens 12b with the focal length f2 condenses on the back side of the projection unit 14. The case where there is a point is preferable.
  • Example 3 describes a second example of inspecting the resolution of an image. Also in the third embodiment, since the image inspection apparatus is the same as the image inspection apparatus 100 according to the first embodiment, the description thereof is omitted.
  • FIG. 13 is a flowchart showing a second example of an inspection method for inspecting the resolution of an image.
  • FIG. 14A to FIG. 15B are diagrams illustrating a second example of the image resolution inspection method.
  • the user mounts the image projection apparatus 30 to be inspected for inspecting the resolution of the image on the mounting unit 10 of the image inspection apparatus 100 (step S70). Further, the user wears the condensing lens 12a having the focal length f1 as the condensing lens of the image inspection apparatus 100 (step S72).
  • the control unit 18 of the image inspection apparatus 100 inputs a plurality of inspection image data having different spatial frequencies to the control unit 44 of the image projection apparatus 30, and emits light rays 50 that form an inspection image from the image projection apparatus 30.
  • a plurality of inspection images having different spatial frequencies are projected onto the projection target 14 (step S74).
  • the inspection image for example, an image in which a bright part and a dark part are repeated can be used.
  • the control unit 18 captures a plurality of inspection images projected on the projection target unit 14 with the imaging unit 16 (step S76). That is, as shown in FIG. 14A, a plurality of inspection images 60 having different spatial frequencies are projected by the light beam 50 that has passed through the condenser lens 12a having the focal length f1.
  • FIG. 14A also shows a graph of the output intensity of the imaging unit 16 that has captured a plurality of inspection images 60 having different spatial frequencies.
  • the control unit 18 measures the contrast ratio for each of the plurality of inspection images 60 taken (step S78).
  • the control unit 18 calculates a spatial frequency at which the contrast ratio is 0.5, and specifies the spatial frequency as the resolution R1 (step S80). That is, the relationship between the spatial frequency and the contrast ratio as shown in FIG. 14A is obtained by measuring the contrast ratio for each of the plurality of inspection images 60 having different spatial frequencies, and the contrast ratio is calculated based on this relationship.
  • a spatial frequency of 0.5 is specified as the resolution R1.
  • the user sets the condensing lens 12a with the focal length f1 attached to the image inspection apparatus 100 different from the focal length f1, for example, the condensing lens 12b with a focal length f2 shorter than the focal length f1.
  • the control unit 18 inputs a plurality of inspection image data having different spatial frequencies to the control unit 44 of the image projection device 30, and emits light rays 50 that form an inspection image from the image projection device 30 to the projection target unit 14.
  • a plurality of inspection images having different spatial frequencies are projected (step S84). Thereby, as shown in FIG. 14B, a plurality of inspection images 60 having different spatial frequencies are projected by the light beam 50 that has passed through the condenser lens 12b having the focal length f2.
  • control unit 18 images a plurality of inspection images 60 projected on the projection target unit 14 with the imaging unit 16 (step S86).
  • the control unit 18 measures the contrast ratio for each of the plurality of captured inspection images 60 (step S88).
  • the control unit 18 calculates a spatial frequency at which the contrast ratio is 0.5, and specifies the spatial frequency as the resolution R2 (step S90). That is, as shown in FIG. 15B, the relationship between the spatial frequency and the contrast ratio is obtained, and based on this relationship, the spatial frequency at which the contrast ratio is 0.5 is specified as the resolution R2.
  • the contrast ratio becomes 0.5 using a plurality of inspection images having different spatial frequencies formed by the light beam 50 collected by the condenser lens 12a having the focal length f1.
  • the spatial frequency is specified as the resolution R1.
  • the spatial frequency at which the contrast ratio is 0.5 is identified as the resolution R2 using a plurality of inspection images having different spatial frequencies formed by the light beam 50 collected by the condenser lens 12b having the focal length f2. Then, it is inspected whether the ratio of the difference between the resolution R1 and the resolution R2 with respect to the difference between the focal distance f1 and the focal distance f2 is within a predetermined range.
  • the resolution (focal length independent resolution) independent of the focal length of the image projected by the image projection device 30 that projects the image directly on the retina of the user can be measured. It is possible to inspect whether or not the image projection device 30 can provide a good image to the user regardless of the individual difference of the user.
  • FIG. 16 is a diagram illustrating an image inspection apparatus 310 according to the first modification of the third embodiment.
  • the projection target part 14 has a planar shape.
  • the imaging unit 16 captures an image transmitted through the projection target 14 having a planar shape. Since other configurations are the same as those of the image inspection apparatus 100 according to the first embodiment, description thereof is omitted.
  • FIG. 17 is a flowchart showing a third example of the inspection method for inspecting the resolution of an image.
  • FIGS. 18A to 20C are diagrams illustrating a third example of the image resolution inspection method. As shown in FIG. 17, the user mounts the image projection apparatus 30 to be inspected for inspecting the resolution of the image on the mounting unit 10 of the image inspection apparatus 100 (step S130).
  • the control unit 18 of the image inspection apparatus 100 inputs inspection image data to the control unit 44 of the image projection apparatus 30, thereby causing the light projection 50 to form an inspection image to be emitted from the image projection apparatus 30.
  • the inspection image 60 is projected onto (step S132).
  • FIG. 18A and FIG. 18B are examples of the inspection image 60 projected onto the projection target 14.
  • the inspection image 60 includes a plurality of inspection patterns 69 having striped white patterns 67 and black patterns 68.
  • a white pattern 67 and a black pattern 68 are formed by 50 pixels each.
  • the white pattern 67 and the black pattern 68 may be a vertical pattern or a horizontal pattern.
  • control unit 18 images the inspection image 60 projected on the projection target unit 14 with the imaging unit 16 (step S134). That is, as shown in FIG. 19, the control unit 18 images the inspection pattern 69 included in the inspection image 60 projected onto the projection target unit 14 using the imaging unit 16.
  • the control unit 18 acquires luminance data from the inspection pattern 69 imaged by the imaging unit 16 (step S136).
  • the luminance data of the test pattern 69 as shown in FIG. 20B is acquired from the test pattern 69 captured by the imaging unit 16 as shown in FIG.
  • FIG. 20B is an example of luminance data between AA in FIG. 20A, where the horizontal axis represents pixels and the vertical axis represents luminance.
  • the control unit 18 calculates a spatial frequency response (SFR) from the luminance data of the inspection pattern 69 (step S138).
  • SFR spatial frequency response
  • the spatial frequency response characteristic as shown in FIG. 20C is obtained from the luminance data of the inspection pattern 69.
  • the horizontal axis of FIG.20 (c) is the spatial frequency f (1 / pixel).
  • the vertical axis represents luminance, with pure white being 1 and jet black being 0.
  • control unit 18 specifies the resolution of the inspection pattern 69 from the spatial frequency response characteristics (step S140). For example, the control unit 18 calculates a spatial frequency at which the luminance is 0.5, and specifies the spatial frequency as the resolution.
  • control unit 18 determines whether or not the resolutions of all the inspection patterns 69 included in the inspection image 60 have been specified (step S142). When there is an inspection pattern 69 for which the resolution is not specified (step S142: No), the control unit 18 returns to step S136. When the specification of the resolution of all the inspection patterns 69 is completed (step S142: Yes), the control unit 18 specifies the resolution of the inspection image 60 (step S144). For example, the control unit 18 specifies the average resolution of the plurality of inspection patterns 69 as the resolution of the inspection image 60. Note that the control unit 18 may specify the maximum value of the resolution of the plurality of inspection patterns 69 as the resolution of the inspection image 60, or may specify the minimum value as the resolution of the inspection image 60. Next, the control unit 18 displays the inspection result of the resolution on the display unit 24 (step S146).
  • FIG. 21 is a diagram illustrating an image inspection apparatus 400 according to the fourth embodiment.
  • the image inspection apparatus 400 according to the fourth embodiment includes an aperture plate 70 that is inserted in the vicinity of the condenser lens 12 and between the condenser lens 12 and the projection unit 42 of the image projector 30.
  • the aperture plate 70 has a hole 72 that is, for example, a circular aperture through which the light beam 50 passes, in the vicinity of the condenser lens 12.
  • the aperture plate 70 does not have to be plate-shaped as long as it is configured to shield the light around the hole 72 and may be referred to as an eye box.
  • the opening 70 is movable in a two-dimensional direction on a plane perpendicular to the optical axis of the condenser lens 12.
  • the light beam 50 reflected by the projection unit 42 passes through the hole 72 of the aperture plate 70, is condensed by the condenser lens 12, and is irradiated onto the projection target unit 14.
  • the imaging unit 16 captures an image transmitted through the projection target unit 14. Since other configurations are the same as those of the image inspection apparatus 100 according to the first embodiment, illustration and description thereof are omitted.
  • FIG. 22 is a flowchart showing an example of an inspection method for inspecting the luminance and pattern shape of an image.
  • FIG. 23A and FIG. 23B are diagrams for explaining an inspection method of luminance and pattern shape of an image.
  • the user mounts the image projection device 30 to be inspected for inspecting the luminance and pattern shape of the image on the mounting unit 10 of the image inspection device 400 (step S100).
  • the user moves the position of the aperture plate 70 to the initial position (step S102). For example, as shown in FIG. 23A, the position of the aperture plate 70 is moved so that the scanning light composed of the light beam 50 passes near the lower end of the hole 72 provided in the aperture plate 70.
  • the control unit 18 of the image inspection apparatus 400 inputs inspection image data to the control unit 44 of the image projection apparatus 30, thereby emitting light rays 50 that form an inspection image from the image projection apparatus 30 and projecting part 14.
  • the inspection image is projected onto (step S104).
  • a region 66 in which the luminance is lowered due to the influence of the aperture plate 70 appears.
  • the inspection image for example, a lattice image as shown in the first embodiment can be used.
  • control unit 18 images the inspection image 60 projected on the projection target unit 14 with the imaging unit 16 (step S106).
  • control unit 18 performs curved surface image conversion on the captured inspection image 60 (step S108).
  • control unit 18 measures the average luminance and pattern shape (thickness, etc.) of the inspection image 60 after the curved surface image conversion (step S110).
  • step S112 the control unit 18 images the inspection image 60 projected on the projection target unit 14 with the imaging unit 16 (step S114).
  • step S116 the control unit 18 performs curved surface image conversion on the captured inspection image 60 (step S116).
  • step S118 the control unit 18 measures the average luminance and pattern shape (thickness, etc.) of the inspection image 60 after the curved surface image conversion (step S118). Steps S112 to S118 are repeated until the position of the aperture plate 70 reaches the final position (step S120).
  • the final position of the aperture plate 70 is a position where the scanning light composed of the light beam 50 passes near the upper end of the hole 72 provided in the aperture plate 70.
  • a region 66 whose luminance is reduced due to the influence of the aperture plate 70 appears.
  • the control unit 18 inspects whether or not the difference in the average luminance of the measured plurality of inspection images 60 is within a predetermined range and whether the difference in pattern shape is within the predetermined range (step S122).
  • the control unit 18 displays the inspection result on the display unit 24 (step S124).
  • the aperture plate 70 inserted in the vicinity of the condenser lens 12 moves in the plane direction perpendicular to the optical axis of the condenser lens 12 and the holes 72 are at different positions. It is inspected whether the average luminance and / or pattern shape difference of the plurality of images due to the light beam 50 passing through the hole 72 is within a predetermined range.
  • the hole 72 of the aperture plate 70 can be regarded as the pupil of the user wearing the image projection device 30. For this reason, when the average luminance and / or pattern shape difference is within a predetermined range, even if the user wearing the image projection device 30 faces in different directions, the luminance or pattern shape of the image visually recognized by the user is changed. Is considered small.
  • the image projection device 30 is capable of providing an image with a small change in luminance or pattern shape to the user even when the user wearing the image projection device 30 faces in a different direction. Can do. Since the hole 72 of the aperture plate 70 corresponds to a pupil, the aperture plate 70 is preferably provided in the vicinity of the condenser lens 12 so as to correspond to the positional relationship between the crystalline lens and the pupil.
  • the case where the user moves the position of the aperture plate 70 is shown as an example.
  • a drive unit such as an actuator that can move the position of the aperture plate 70 is provided, and the control unit 18 You may move the position of the aperture plate 70 using a drive part.
  • FIG. 24 is a diagram illustrating an image inspection apparatus 500 according to the fifth embodiment.
  • the image inspection apparatus 500 according to the fifth embodiment includes a reflection system including a half mirror 80 on the optical path of the light beam 50 between the condenser lens 12 and the projection target 14.
  • the imaging unit 16 captures an inspection image projected on the projection unit 14 and reflected by the projection unit 14 and the half mirror 80. Since other configurations are the same as those of the image inspection apparatus 100 according to the first embodiment, illustration and description thereof are omitted.
  • a reflection system including a half mirror 80 is provided on the optical path of the light beam 50 between the condenser lens 12 and the projection portion 14, and the projection portion 14 is made of a material having high light diffusibility.
  • FIG. 25 is a diagram illustrating an image inspection apparatus 600 according to the sixth embodiment.
  • the image inspection apparatus 600 according to the sixth embodiment includes a polarizing plate 82, a polarizing beam splitter 84, and a quarter wavelength on the optical path of the light beam 50 between the condenser lens 12 and the projection target 14.
  • a reflection system comprising a plate 86 is provided.
  • the imaging unit 16 captures an inspection image projected on the projection unit 14 and reflected by the projection unit 14 and the polarization beam splitter 84.
  • the arrow shown on the light beam 50 indicates P-polarized light
  • the black circle indicates S-polarized light. Since other configurations are the same as those of the image inspection apparatus 100 according to the first embodiment, illustration and description thereof are omitted.
  • the amount of light incident on the imaging unit 16 becomes small.
  • a reflection system including a polarizing plate 82, a polarizing beam splitter 84, and a quarter wavelength plate 86 is provided on the optical path of the light beam 50 between the condenser lens 12 and the projection target 14.
  • FIG. 26 is a diagram illustrating an image inspection apparatus 700 according to the seventh embodiment.
  • the imaging unit 16 is not provided, and the projection target part 14a is a planar detector.
  • the projection target part 14a is, for example, a CCD image sensor or a CMOS image sensor. Since other configurations are the same as those of the image inspection apparatus 100 according to the first embodiment, illustration and description thereof are omitted.
  • FIG. 27 is a diagram illustrating the size of the light beam 50 projected onto the planar projection target 14a.
  • the size (spot size) 61 of the light beam 50 projected onto the planar projection target 14 a is larger than the size (spot size) 63 of the light beam 50 projected onto the retina 92 of the eyeball 90. Become bigger.
  • Example 1 to Example 6 the case of a combination of the substantially hemispherical or flat projection target 14 formed of glass and the imaging unit 16 is shown as an example, but as in Example 7, A planar detector may be used as the projection target 14a.
  • the inspection image is inspected by detecting the inspection image projected onto the projection portion 14 a by the light beam 50 emitted from the image projection device 30 and condensed by the condenser lens 12 using the projection portion 14 a. be able to.
  • the case of inspecting the distortion, resolution, luminance, and pattern shape of the image is shown as an example of the image inspection.
  • the distortion, resolution, luminance, pattern shape, gamma characteristic It is also possible to inspect at least one of contrast ratio, aspect ratio, and hue.
  • the inspection method a conventionally known inspection method may be used. An example of the inspection method is shown below.
  • FIG. 28 is a diagram illustrating an example of a gamma characteristic inspection method.
  • a color inspection image 60 formed using red, green, and blue is projected onto the projection target 14.
  • red, green, and blue spectra are measured using the spectroscope 76.
  • the gamma characteristic is calculated using the chromaticity of each color measured and obtained from the spectrum.
  • Such inspection of the gamma characteristic may be performed by the control unit 18 or may be performed by both the control unit 18 and the user.
  • FIG. 29 is a diagram illustrating an example of a contrast ratio inspection method.
  • the inspection image 60 whose whole area is white is projected onto the projection target 14.
  • the white illuminance is measured using the illuminance meter 77 at a plurality of points of the projected inspection image 60.
  • the inspection image 60 whose entire area is black is projected onto the projection target 14.
  • the black illuminance is measured using the illuminometer 77.
  • the contrast ratio is calculated using the measured white illuminance and black illuminance.
  • Such an inspection of the contrast ratio may be performed by the control unit 18 or may be performed by both the control unit 18 and the user.
  • FIG. 30A and FIG. 30B are diagrams illustrating an example of an aspect ratio inspection method.
  • the inspection image 60 whose entire area is white is projected onto the projection target 14a.
  • the width H and height V of the projected inspection image 60 are measured.
  • the horizontal visual field FOV H and the vertical visual field FOV V are calculated.
  • L is the distance from the convergence point of the scanning light to the projection target 14.
  • the aspect ratio is calculated by calculating FOV H / FOV V.
  • Such an inspection of the aspect ratio may be performed by the control unit 18 or may be performed by both the control unit 18 and the user.
  • the aspect ratio inspection may be performed by using the lattice image shown in the first embodiment as an inspection image and measuring the aspect ratio of the lattice. Or you may test
  • FIG. 31 is a flowchart illustrating an example of an inspection method for inspecting a convergence region of scanning light.
  • FIG. 32A to FIG. 32C are diagrams illustrating a method for inspecting a convergence region of scanning light.
  • FIG. 32B shows the inspection image detected when the detector 110 for detecting the inspection image is at point A in FIG. 32A
  • FIG. 32C shows the detector 110 in FIG.
  • the inspection image detected when is at point B is shown.
  • the detector 110 may be installed in the non-projection unit 14a having the planar shape described in FIG. 16 of the third embodiment.
  • the user emits a light beam 50 that forms an inspection image from the image projection device 30 (step S150).
  • the light beam 50 is emitted from the image projection device 30, and an image is projected onto the detector 110 via the scanning unit 38 and the projection unit 42.
  • the condenser lens 12 may be provided between the projection unit 42 and the detector 110 in the same manner as in FIGS. 3 and 16.
  • the user projects the position of the detector 110 by the image projection device 30 until the width of the inspection image detected by the planar detector 110 arranged in the optical path of the light beam 50 at the subsequent stage of the projection unit 42 becomes equal to the width of the pupil. Move away from the unit 42 (step S152). That is, as shown in FIG.
  • the position of the detector 110 is moved until the detector 110 detects the inspection image 60 having the same width as the pupil 94.
  • the direction away from the projection unit 42 of the image projection device 30 is defined as the Z direction
  • the direction intersecting the Z direction is defined as the X direction.
  • the user specifies the position of the detector 110 in the Z direction when the width of the inspection image 60 is the same as the width of the pupil 94 as Z0 (step S154).
  • the user moves the position of the detector 110 in the Z direction until the width of the inspection image 60 detected by the detector 110 is minimized (step S156). That is, as shown in FIG. 32C, the position of the detector 110 is moved until the width of the inspection image 60 detected by the detector 110 is minimized.
  • the user specifies the position in the Z direction of the detector 110 when the width of the inspection image 60 is minimized as Z1 (step S158).
  • the user specifies the width in the X direction when the inspection image 60 is minimum (step S160). That is, as shown in FIG. 32C, the width Hi (Z1) in the X direction of the inspection image 60 is specified.
  • the user calculates the size of the convergence region using the values specified in steps S154, S158, and S160 (step S162). That is, the size of the convergence region in the X direction is calculated from the difference (ID ⁇ Hi (Z1)) between the size ID of the pupil 94 and the width Hi (Z1) in the X direction when the inspection image 60 is the minimum.
  • the size of the convergence region in the Y direction is set so that the detector 110 when the width of the inspection image 60 is minimized from the position Z0 in the Z direction of the detector 110 when the width of the scanned image 60 is the same as the width of the pupil 94. Is calculated from twice the distance to the position Z1 in the Z direction (2 (Z1-Z0)).
  • the case where the inspection of the convergence region of the scanning light is performed by the user is shown as an example, but it may be performed by the control unit (control unit 18 in FIG. 1) of the inspection apparatus.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Lenses (AREA)
  • Image Analysis (AREA)

Abstract

ユーザの網膜に画像を直接投影する画像投影装置30が搭載される搭載部10と、搭載部10に搭載された画像投影装置30から出射される光線50を集光させる集光レンズ12と、集光レンズ12で集光された光線50が照射されて検査画像が投影される被投影部14と、被投影部14に投影された前記検査画像を検査する検査部22と、を備える画像検査装置。

Description

画像検査装置、画像検査方法、及び画像検査装置用部品
 本発明は、画像検査装置、画像検査方法、及び画像検査装置用部品に関する。
 光源から出射された光線を用いユーザの網膜に画像を直接投影するヘッドマウントディスプレイ(HMD)などの画像投影装置が知られている(例えば、特許文献1)。このような画像投影装置では、マックスウェル視といわれる方法が用いられる。マックスウェル視では、画像を形成する光線からなる走査光を瞳孔近傍で収束させて網膜に画像(網膜画像)を投影する。また、検査対象物の歪量を測定する歪検査装置が知られている(例えば、特許文献2)。
特開2015-111231号公報 国際公開第2008/149712号
 ユーザの網膜に画像を直接投影する画像投影装置において、網膜に投影される画像を検査する方法として、ユーザが画像投影装置を実際に装着して投影される画像を見ることによって画像を検査する方法が考えられる。しかしながら、この方法では、画像投影装置を装着したユーザ以外の第3者は画像を把握できないため、ユーザによって判断がばらつくなど、判断基準が曖昧になってしまう。
 本発明は、上記課題に鑑みてなされたものであり、網膜走査型レーザディスプレイにおける、ユーザの網膜に画像を直接投影する画像投影装置によって投影される画像を検査することを目的とする。
 本発明は、ユーザの網膜に画像を直接投影する画像投影装置が搭載される搭載部と、前記搭載部に搭載された前記画像投影装置から出射される光線を集光させる集光レンズと、前記集光レンズで集光された前記光線が照射されて検査画像が投影される被投影部と、前記被投影部に投影された前記検査画像を検査する検査部と、を備える画像検査装置である。
 上記構成において、前記集光レンズ側に開口を有する略半球面の形状をした前記被投影部に投影された前記検査画像を撮像する撮像部と、前記撮像部で撮像された前記検査画像に対して前記略半球面の中心点からの動径及び角度で表される極座標系を直交座標系に変換する画像変換部と、を備え、前記検査部は、前記画像変換部で変換された後の前記検査画像を検査する構成とすることができる。
 上記構成において、前記被投影部は、前記検査画像を透過し、前記撮像部は、前記被投影部を透過した前記検査画像を撮像する構成とすることができる。
 上記構成において、前記集光レンズと前記被投影部との間の前記光線の光路上に設けられた反射系を備え、前記撮像部は、前記被投影部と前記反射系とで反射された前記検査画像を撮像する構成とすることができる。
 上記構成において、前記反射系は、偏光板と偏光ビームスプリッタと1/4波長板とを含む構成とすることができる。
 上記構成において、前記被投影部は平面形状をしている構成とすることができる。
 上記構成において、前記検査部は、前記検査画像の歪、解像度、輝度、パターン形状、ガンマ特性、コントラスト比、アスペクト比、及び色合いの少なくとも1つを検査する構成とすることができる。
 上記構成において、前記被投影部に投影された前記検査画像は、第1焦点距離の前記集光レンズで集光された前記光線によって投影された第1検査画像と、前記第1焦点距離とは異なる第2焦点距離の前記集光レンズで集光された前記光線によって投影された第2検査画像と、を含み、前記検査部は、前記第1検査画像の第1解像度及び前記第2検査画像の第2解像度を測定し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する構成とすることができる。
 上記構成において、前記被投影部に投影された前記検査画像は、空間周波数の異なる複数の前記第1検査画像と、空間周波数の異なる複数の前記第2検査画像と、を含み、前記検査部は、前記複数の第1検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第1解像度として算出し、前記複数の第2検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第2解像度として算出し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する構成とすることができる。
 上記構成において、前記被投影部に投影された前記検査画像は輝度の異なるパターンを有する検査パターンを含み、前記検査部は、前記検査パターンの輝度の変化に基づいて前記検査画像の解像度を検査する構成とすることができる。
 上記構成において、前記集光レンズの近傍に前記光線が通過する孔を有する前記集光レンズの光軸に垂直な面方向に移動可能な開口板を備え、前記被投影部に投影された前記検査画像は、前記開口板が移動して前記孔が異なる位置にあるときに前記被投影部に投影された複数の前記検査画像を含み、前記検査部は、前記複数の検査画像の平均輝度及び/又はパターン形状の差異が所定範囲内かを検査する構成とすることができる。
 上記構成において、平面形状をした前記被投影部に画像を検出するディテクタを備え、前記被投影部は、前記被投影部の平面の鉛直方向に移動可能であり、前記検査部は、前記被投影部の移動に伴って、前記ディテクタの位置と、その位置で検出した前記検査画像の大きさを特定することによって、前記光線の収束領域の大きさを計測する構成とすることができる。
 本発明は、ユーザの網膜に画像を直接投影する画像投影装置から検査画像を形成する光線を出射させ、集光レンズを通過させて被投影部に前記光線を照射させることで前記被投影部に前記検査画像を投影するステップと、前記被投影部に投影された前記検査画像を検査するステップと、を備える画像検査方法である。
 上記構成において、前記集光レンズ側に開口を有する略半球面の形状をした前記被投影部に投影された前記検査画像を撮像するステップと、前記撮像するステップで撮像された前記検査画像に対して前記略半球面の中心点からの動径及び角度で表される極座標系を直交座標系に変換するステップと、を備え、前記検査するステップは、前記変換するステップで変換された後の前記検査画像を検査する構成とすることができる。
 上記構成において、前記被投影部は平面形状をしている構成とすることができる。
 上記構成において、前記検査するステップは、前記検査画像の歪、解像度、輝度、パターン形状、ガンマ特性、コントラスト比、アスペクト比、及び色合いの少なくとも1つを検査する構成とすることができる。
 上記構成において、前記投影するステップは、前記検査画像として、第1焦点距離の前記集光レンズを通過した前記光線による第1検査画像と、第2焦点距離の前記集光レンズを通過した前記光線による第2検査画像と、を投影し、
 前記検査するステップは、前記第1検査画像の第1解像度及び前記第2検査画像の第2解像度を測定し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する構成とすることができる。
 上記構成において、前記投影するステップは、空間周波数の異なる複数の前記第1検査画像と、空間周波数の異なる複数の前記第2検査画像と、を投影し、前記検査するステップは、前記複数の第1検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第1解像度として算出し、前記複数の第2検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第2解像度として算出し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する構成とすることができる。
 上記構成において、前記投影するステップは、輝度の異なるパターンを有する検査パターンを含む前記検査画像を前記被投影部に投影し、前記検査するステップは、前記検査パターンの輝度の変化に基づいて前記検査画像の解像度を検査する構成とすることができる。
 上記構成において、前記投影するステップは、前記集光レンズの近傍に前記光線が通過する孔を有する開口板が前記集光レンズの光軸に垂直な面方向に移動して前記孔が異なる位置にあるときに前記孔を通過する前記光線による複数の前記検査画像を投影し、前記検査するステップは、前記複数の検査画像の平均輝度及び/又はパターン形状の差異が所定範囲内かを検査する構成とすることができる。
 上記構成において、平面形状をした前記被投影部は前記被投影部の平面の鉛直方向に移動可能であり、前記被投影部の移動に伴って、前記被投影部に搭載されて画像を検出するディテクタの位置と、その位置で検出した前記検査画像の大きさと、を特定するステップと、特定した前記ディテクタの位置と前記検査画像の大きさとによって、前記光線の収束領域の大きさを計測するステップと、を備える構成とすることができる。
 本発明は、上記記載の被投影部となる画像検査装置用部品であって、光拡散性が高く、波長分散がフラットである素材で構成された画像検査装置用部品である。
 上記構成において、前記素材は、光を透過させる材質のものに、石英および硫酸バリウムを混合させたもの、または光を透過させる材質の表面にナノダイヤモンドをコーティングしたものである構成とすることができる。
 本発明によれば、ユーザの網膜に画像を直接投影する画像投影装置によって投影される画像を検査することができる。
図1は、実施例1に係る画像検査装置を示す図である。 図2は、画像投影装置の上視図である。 図3は、画像投影装置から出射される光線の被投影部への照射を説明する図である。 図4(a)から図4(d)は、疑似的な眼(ダミーアイ)の概念図である。 図5は、疑似的な眼(ダミーアイ)に投影される画像領域を示す図である。 図6は、被投影部の他の例の上視図である。 図7は、画像の歪を検査する検査方法の一例を示すフローチャートである。 図8(a)から図8(c)は、曲面画像変換を説明する図である。 図9(a)から図9(c)は、歪の検査の具体例を説明する図(その1)である。 図10(a)及び図10(b)は、歪の検査の具体例を説明する図(その2)である。 図11は、画像の解像度を検査する検査方法の第1の例を示すフローチャートである。 図12(a)及び図12(b)は、画像の解像度の検査方法の第1の例を説明する図である。 図13は、画像の解像度を検査する検査方法の第2の例を示すフローチャートである。 図14(a)及び図14(b)は、画像の解像度の検査方法の第2の例を説明する図(その1)である。 図15(a)及び図15(b)は、画像の解像度の検査方法の第2の例を説明する図(その2)である。 図16は、実施例3の変形例1に係る画像検査装置を示す図である。 図17は、画像の解像度を検査する検査方法の第3の例を示すフローチャートである。 図18(a)及び図18(b)は、画像の解像度の検査方法の第3の例を説明する図(その1)である。 図19は、画像の解像度の検査方法の第3の例を説明する図(その2)である。 図20(a)から図20(c)は、画像の解像度の検査方法の第3の例を説明する図(その3)である。 図21は、実施例4に係る画像検査装置を示す図である。 図22は、画像の輝度及びパターン形状を検査する検査方法の例を示すフローチャートである。 図23(a)及び図23(b)は、画像の輝度及びパターン形状の検査方法を説明する図である。 図24は、実施例5に係る画像検査装置を示す図である。 図25は、実施例6に係る画像検査装置を示す図である。 図26は、実施例7に係る画像検査装置を示す図である。 図27は、平面形状の被投影部に投射される光線の大きさを示す図である。 図28は、ガンマ特性の検査方法の一例を示す図である。 図29は、コントラスト比の検査方法の一例を示す図である。 図30(a)及び図30(b)は、アスペクト比の検査方法の一例を示す図である。 図31は、走査光の収束領域を検査する検査方法の例を示すフローチャートである。 図32(a)から図32(c)は、走査光の収束領域の検査方法を説明する図である。
 以下、図面を参照しつつ、本発明の実施例について説明する。
 図1は、実施例1に係る画像検査装置100を示す図である。図1のように、実施例1の画像検査装置100は、搭載部10、集光レンズ12、被投影部14、撮像部16、制御部18、及び表示部24を備える。
 搭載部10は、ユーザの網膜に画像を直接投影する被試験体としての画像投影装置30が搭載される。ここで、図2を用いて画像投影装置30の一例を説明する。図2は、画像投影装置30の上視図である。画像投影装置30は、ユーザに画像を視認させるための光線がユーザの眼球の網膜に直接照射される、マックスウェル視を利用した網膜投影型ヘッドマウントディスプレイである。
 図2のように、画像投影装置30は、光源32、ミラー34、ミラー36、走査部38、ミラー40、投射部42、及び制御部44を備える。光源32は、メガネ型フレームのツル46に配置されている。光源32は、制御部44の指示の下、例えば単一又は複数の波長の光線50を出射する。光線50は、ユーザの眼球90の網膜92に画像を投影するための光線を含み、例えば赤色レーザ光(波長:610nm~660nm程度)、緑色レーザ光(波長:515nm~540nm程度)、及び青色レーザ光(波長:440nm~480nm程度)の可視光である。赤色、緑色、及び青色レーザ光を出射する光源32として、例えばRGB(赤・緑・青)それぞれのレーザダイオードと3色合成デバイスとマイクロコリメートレンズとが集積された光源が挙げられる。
 走査部38は、メガネ型フレームのツル46に配置されている。走査部38は、光源32から出射された光線50を、水平方向及び垂直方向に走査する。走査部38は、例えばMEMS(Micro Electro Mechanical System)ミラーである。光源32から出射された光線50は、ミラー34及びミラー36で反射されて走査部38に入射する。
 走査部38で走査された光線50からなる走査光は、ミラー40によってメガネ型フレームのレンズ48に向かって反射される。投射部42がレンズ48の眼球90側の面に配置されている。このため、走査部38で走査された光線50は投射部42に入射する。投射部42は自由曲面又は自由曲面と回折面の合成構造をしたハーフミラーとなっている。これにより、投射部42に入射された光線50からなる走査光は、眼球90の瞳孔94近傍で収束した後に網膜92に照射される。よって、ユーザは、光線50で形成される画像を認識することができると共に、外界像をシースルーで視認することができる。
 制御部44は、CPU(Central Processing Unit)などのプロセッサ、並びに、RAM(Random Access Memory)及びROM(Read Only Memory)などのメモリなどで構成され、プロセッサがメモリに記憶されたプログラムに従って動作し、光源32を制御して、入力された画像データに基づく光線50を光源32から出射させるなどの画像投影装置30全体の制御を行う。プロセッサ及びメモリは、メガネ型フレームに設けられていてもよいし、携帯端末などの外部装置に設けられていてもよい。
 図3は、画像投影装置30から出射される光線50の被投影部14への照射を説明する図である。なお、図2では有限の光束径を有する光線50の中心部分を図示していたが、図3では光線50を有限の光束径で図示し、その中心部分を一点鎖線で図示している。図1及び図3のように、集光レンズ12は、投射部42で反射された光線50が通過する光路上であって、光線50からなる走査光が収束する位置に設けられている。集光レンズ12は、投射部42から入射した光線50を集光させる。
 被投影部14は、集光レンズ12による光線50の集光点近傍に配置されている。被投影部14は、集光レンズ12側が開口した半球面の形状のガラスで形成されていて、内側表面に光線50に対して半透明な膜が設けられている。なお、被投影部14は光線50に対して半透明な材料によって形成されていてもよい。光線50が被投影部14に照射されることで、被投影部14に画像が投影される。被投影部14は、光線50に対して半透明であるため、光線50によって投影された画像を表示すると共に、画像を透過させる。
 このような構成により、光線50を集光する集光レンズ12は眼球の水晶体と見なすことができ、半球面形状の被投影部14は眼球の網膜と見なすことができる。すなわち、水晶体に相当する集光レンズ12と網膜に相当する被投影部14とで擬似的な眼(ダミーアイ、眼球スクリーンモデル、と称されることがあり、以下ダミーアイと記載する)が構成されている。このことから、被投影部14の直径は、眼球の一般的な大きさに対応することが好ましく、例えば23mm~25mm程度とすることが好ましい。また、光線50が眼球の瞳孔を通過することと同等になるように、半球面形状の被投影部14が球面形状であると仮定した場合で、瞳孔に相当する部分における光線50からなる走査光は瞳孔の一般的な大きさ(例えば5mm~7mm程度)の範囲に収まるようにすることが好ましい。
 図4(a)から図4(d)は、疑似的な眼(ダミーアイ)の概念図である。図5は、疑似的な眼(ダミーアイ)に投影される画像領域を示す図である。図4(a)はダミーアイ52の側視図、図4(b)はダミーアイ52の上視図、図4(c)はダミーアイ52の正視図、図4(d)はダミーアイ52の斜視図である。図4(a)から図4(d)のように、ダミーアイ52の直径DD(すなわち、被投影部14の直径)は例えば24mmである。ダミーアイ52には、瞳孔51(例えば直径IDが7mmの開口)を介して光線50が入射する。光線50は、ダミーアイ52の中心と走査光の収束点54とを通るz軸に対してy軸方向(縦方向)に角度θ1、x軸方向(横方向)に角度φ1で入射する。光線50がダミーアイ52に照射されることで画像が投影される。すなわち、ダミーアイ52を構成する被投影部14に画像が投影される。ダミーアイ52の網膜に相当する部分は曲面形状をしているため、ダミーアイ52に投影される画像領域53は図5のようになる。ダミーアイ52を構成する被投影部14の素材は、薄く、球形に加工可能で、光拡散性が高く、拡散する光の波長分散がフラットであるものが好ましく、半透明のすりガラス状のものや、光を透過させるガラスやアクリルに石英、BaSO(硫酸バリウム)などを混合させたもの、またはダイヤモンド結晶構造を持った、粒子径がナノサイズのダイヤモンドであるナノダイヤモンドをガラスやアクリルの表面にコーティングしたもの、などが例として挙げられる。このようなダミーアイ52は、例えば広範囲の視野(FOV:Field of view)の分解能及び/又は歪みを測定するのに有用である。分解能などの光学設計は網膜表面で最適化されることから、視野が広範囲である場合では網膜の位置で正確な測定が行われることが好ましい。
 図1のように、撮像部16は、被投影部14に対して集光レンズ12とは反対側に設けられている。撮像部16は、被投影部14に投影され、被投影部14を透過した画像を撮像する。撮像部16は、例えばカメラ(CCDカメラやCMOSカメラなど)である。撮像部16は、被投影部14に投影される画像の走査線を上回る解像度のものを用いる。
 制御部18は、CPU(Central Processing Unit)などのプロセッサ、並びに、RAM(Random Access Memory)及びROM(Read Only Memory)などのメモリなどで構成され、プロセッサがメモリに記憶されたプログラムに従って動作し、画像検査装置100全体を制御する。例えば、制御部18は、搭載部10に搭載される画像投影装置30に検査画像データを入力したり、被投影部14に投影された検査画像を撮像部16で撮像したりする。また、制御部18は、撮像部16で撮像された検査画像に対して被投影部14の半球面の形状の中心点からの動径及び角度で表される極座標系を直交座標系に変換する画像変換部20として機能したり、撮像部16で撮像された検査画像であって画像変換部20で変換された後の検査画像を検査する検査部22として機能したりする。表示部24は、例えば液晶ディスプレイであり、検査画像の検査結果などを表示する。
 なお、被投影部14は、完全な半球面の形状をしている場合に限られず、略半球面の形状であればよい。略半球面の形状には、球面又はほぼ球面の一部が開口したような形状が含まれる。図6は、被投影部14の他の例の上視図である。図6のように、被投影部14は、球面の半分以上の部分で形成され、少なくとも瞳孔の大きさ以上の開口56が設けられた形状をしていてもよい。この場合、被投影部14に投影される検査画像の投影領域を広くできることから、撮像部16は被投影部14の背面側に加えて側面側にも設けられていてもよい。
 図7は、画像の歪を検査する検査方法の一例を示すフローチャートである。図7のように、まずユーザは画像の歪検査の対象となる画像投影装置30を画像検査装置100の搭載部10に搭載する(ステップS10)。
 次いで、画像検査装置100の制御部18は、画像投影装置30の制御部44に検査画像データを入力することで、画像投影装置30から検査画像を形成する光線50を出射させて被投影部14に検査画像を投影する(ステップS12)。画像投影装置30から出射された光線50は集光レンズ12を介して被投影部14に照射され、これによって被投影部14に検査画像が投影される。検査画像として、例えば格子画像を用いることができる。
 次いで、制御部18は、被投影部14に投影された検査画像を撮像部16で撮像する(ステップS14)。撮像部16で撮像された検査画像は制御部18に送られる。
 次いで、制御部18は、撮像された検査画像に対して被投影部14の半球面形状の中心点からの動径及び角度で表される極座標系を直交座標系に変換する曲面画像変換を実施する(ステップS16)。ここで、曲面画像変換について説明する。図8(a)から図8(c)は、曲面画像変換を説明する図である。図8(a)は撮像部16の撮像方向を示す図、図8(b)は撮像部16で撮像された検査画像の図、図8(c)は曲面画像変換後の検査画像の図である。図8(a)のように、撮像部16による検査画像の撮像は、被投影部14の背面側から行われる。被投影部14は半球面の形状をしているため、図8(b)のように、撮像部16で撮像された検査画像は、樽型に曲がった形状となる。ここで、図8(a)のように、撮像部16の撮像方向に平行であって被投影部14の半球面の中心点58を通る軸をz軸とし、投影される検査画像の横方向をx軸、縦方向をy軸とする。この場合、撮像部16で撮像された検査画像を形成する光線50の位置は、被投影部14の中心点58から動径r及びz軸からの傾きθ2、x軸からの傾きφ2を用いた極座標系で表せる。この極座標系は、x=rsinθcosφ、y=rsinθsinφ、z=rcosθによって直交座標系に変換することができる。この直交座標系への変換によって、図8(b)のような樽型に曲がった形状の検査画像は、図8(c)のような検査画像に変換される。この変換を曲面画像変換と称する。
 次いで、制御部18は、曲面画像変換後の検査画像(以下、変換検査画像と称す場合がある)の歪を検査する(ステップS18)。曲面画像変換後の画像は、画像投影装置30を装着するユーザが視認する画像と同等の画像である。したがって、変換検査画像(図8(c)の画像)の歪を検査することで、画像投影装置30を装着するユーザが視認する画像の歪(幾何学的均一性)を検査することができる。
 図9(a)から図10(b)は、歪の検査の具体例を説明する図である。なお、図9(a)から図10(b)において、太線は変換検査画像を示し、細線は画像投影装置30の制御部44に入力した検査画像データを示している。
 図9(a)は垂直方向歪の検査を説明する図である。図9(a)のように、制御部18は、変換検査画像の左辺、右辺、及びそれらの間の中央において、変換検査画像の水平線のうち中央に位置する中央水平線から上辺及び下辺までの長さV1UからV3Lを測定する。長さの測定は格子枠の交点座標を用いて行われる。そして、制御部18は、Vbal1=(V1U-V1L)/(V1U+V1L)×100(%)、Vbal2=(V2U-V2L)/(V2U+V2L)×100(%)、Vbal3=(V3U-V3L)/(V3U+V3L)×100(%)を計算することで、垂直方向のバランスずれを検査する。また、制御部18は、Vsize=((V1U+V1L)-(V3U+V3L))/(V2U+V2L)×100(%)を計算することで、垂直方向サイズの左右差を検査する。
 図9(b)は水平方向歪の検査を説明する図である。図9(b)のように、制御部18は、変換検査画像の上辺、下辺、及びそれらの間の中央において、変換検査画像の垂直線のうちの中央に位置する中央垂直線から左辺及び右辺までの長さH1UからH3Lを測定する。そして、制御部18は、HbalU=(H1U-H3U)/(H1U+H3U)×100(%)、HbalM=(H1M-H3M)/(H1M+H3M)×100(%)、HbalL=(H1L-H3L)/(H1L+H3L)×100(%)を計算することで、水平方向のバランスずれを検査する。また、制御部18は、Hsize=((H1U+H3U)-(H1L+H3L))/(H1M+H3M)×100(%)を計算することで、水平方向サイズの上下差を検査する。
 図9(c)は水平線傾きの検査を説明する図である。図9(c)のように、制御部18は、変換検査画像の中央水平線が変換検査画像の左辺と交わる点及び右辺と交わる点の垂直方向(上下方向)の間隔Hを測定する。また、制御部18は、変換検査画像の中央水平線が変換検査画像の右辺と交わる点から左辺までの水平方向(左右方向)の距離Xを測定する。そして、制御部18は、HOLT=ATAN(H/X)(rad)を計算することで、水平線傾きを検査する。
 図10(a)は垂直線傾きの検査を説明する図である。図10(a)のように、制御部18は、変換検査画像の中央垂直線が変換検査画像の上辺と交わる点及び下辺と交わる点の水平方向(左右方向)の間隔Vを測定する。また、制御部18は、変換検査画像の中央垂直線が変換検査画像の上辺と交わる点から下辺までの垂直方向(上下方向)の距離Yを測定する。そして、制御部18は、VERT=ATAN(V/Y)(rad)を計算することで、垂直線傾きを検査する。
 図10(b)は湾曲の検査を説明する図である。図10(b)のように、制御部18は、変換検査画像の左辺及び右辺において、変換検査画像の中央水平線が左辺及び右辺に交わる点と、上端及び下端のうちの当該点から水平方向で離れた方と、の間の間隔HS1及びHS3を測定する。また、制御部18は、変換検査画像の上辺と下辺との間の中央において、変換検査画像の中央垂直線から左辺及び右辺までの長さH1M及びH3Mを測定する。そして、制御部18は、S1=HS1/H1M×100(%)。S3=HS3/H3M×100(%)を計算することで、湾曲を検査する。
 次いで、制御部18は、画像の歪(例えば図9(a)から図10(b)で説明した歪)の検査結果を表示部24に表示する(ステップS20)。なお、制御部18は、メモリに予め記憶された歪量の許容範囲を参照して、検査結果が許容範囲を超えているか否かの判断をし、その判断結果を表示部24に表示してもよい。
 以上のように、実施例1の画像検査装置100は、搭載部10に搭載された画像投影装置30から出射される光線50を集光する集光レンズ12と、集光された光線50が照射されて検査画像が投影される被投影部14と、投影された検査画像を検査する検査部22と、を備える。つまり、画像投影装置30から検査画像を形成する光線50を出射させ、集光レンズ12を通過させて被投影部14に光線50を照射させることで被投影部14に検査画像を投影し、投影された検査画像を検査する。これにより、ユーザの網膜に画像を直接投影する画像投影装置30によって投影される画像を検査することができる。
 また、実施例1によれば、被投影部14は集光レンズ12側に開口を有する略半球面の形状をしていて、被投影部14に投影された検査画像を撮像する撮像部16と、撮像された検査画像に対して略半球面の中心点からの動径及び角度で表される極座標系を直交座標系に変換する画像変換部20と、を備える。検査部22は、画像変換部20で変換された後の検査画像を検査する。上述したように、集光レンズ12と略半球面の被投影部14とによって擬似的な眼(ダミーアイ)が構成される。このため、被投影部14に投影された検査画像を撮像し、撮像された検査画像に対して略半球面の中心点からの動径及び角度で表される極座標系を直交座標系に変換し、変換した後の検査画像を検査することで、画像投影装置30を装着するユーザが視認する画像と同等な画像の検査を行うことができる。
 また、実施例1によれば、被投影部14は検査画像を透過し、撮像部16は被投影部14を透過した検査画像を撮像する。このような構成により、画像検査装置100の構成部品を少なくでき、簡易な構成によって画像の検査を行うことができる。
 実施例1では画像の歪を検査する例を示したが、実施例2では画像の解像度を検査する例について説明する。実施例2においても、画像検査装置は実施例1の画像検査装置100と同じであるため説明を省略する。
 図11は、画像の解像度を検査する検査方法の第1の例を示すフローチャートである。図12(a)及び図12(b)は、画像の解像度の検査方法の第1の例を説明する図である。図11のように、ユーザは画像の解像度を検査する検査対象の画像投影装置30を画像検査装置100の搭載部10に搭載する(ステップS30)。また、ユーザは画像検査装置100の集光レンズとして焦点距離f1の集光レンズ12aを装着する(ステップS32)。
 次いで、画像検査装置100の制御部18は、画像投影装置30の制御部44に検査画像データを入力することで、画像投影装置30から検査画像を形成する光線50を出射させて被投影部14に検査画像を投影する(ステップS34)。検査画像として、例えば解像度チャート画像を用いることができる。すなわち、図12(a)のように、焦点距離f1の集光レンズ12aを通過して被投影部14に照射された光線50によって例えば解像度チャートの検査画像60が投影される。
 次いで、制御部18は、被投影部14に投影された検査画像60を撮像部16で撮像する(ステップS36)。次いで、制御部18は、撮像された検査画像60に対して曲面画像変換を実施する(ステップS38)。次いで、制御部18は、曲面画像変換後の検査画像60の解像度R1を測定する(ステップS40)。
 解像度R1の測定が完了した後、ユーザは画像検査装置100に装着されている焦点距離f1の集光レンズ12aを焦点距離f1とは異なり例えば焦点距離f1よりも短い焦点距離f2の集光レンズ12bに交換する(ステップS42)。これにより、図12(b)のように、焦点距離f2の集光レンズ12bを通過して被投影部14に照射された光線50によって例えば解像度チャートの検査画像60が投影される。
 次いで、制御部18は、被投影部14に投影された検査画像60を撮像部16で撮像する(ステップS44)。次いで、制御部18は、撮像された検査画像60に対して曲面画像変換を実施する(ステップS46)。次いで、制御部18は、曲面画像変換後の検査画像60の解像度R2を測定する(ステップS48)。
 次いで、制御部18は、焦点距離f1と焦点距離f2との差(Δf=f1-f2)に対する解像度R1と解像度R2との差(ΔR=R1-R2)の比(ΔR/Δf)を算出し、それがメモリに予め記憶された所定範囲内か否かを検査する(ステップS50)。制御部18は、検査結果を表示部24に表示する(ステップS52)。
 以上のように、実施例2によれば、焦点距離f1の集光レンズ12aで集光された光線50による検査画像の解像度R1と焦点距離f2の集光レンズ12bで集光された光線50による検査画像の解像度R2とを測定する。この解像度R1及び解像度R2が網膜画像解像度に相当する。そして、焦点距離f1と焦点距離f2との差に対する解像度R1と解像度R2との差の比が所定範囲内かを検査する。この差が所定範囲内である場合は、焦点深度が深いために画像投影装置30を装着するユーザの個体差によらずにユーザに良好な画像を提供できると考えられる。これにより、ユーザの網膜に画像を直接投影する画像投影装置30によって投影される画像の、焦点に依存しない解像度(焦点非依存解像度)を測定することができ、実施例2によれば、ユーザの個体差によらずにユーザに良好な画像を提供可能な画像投影装置30か否かを検査することができる。このようなことから、焦点距離f1の集光レンズ12aは被投影部14よりも手前側に集光点があり、焦点距離f2の集光レンズ12bは被投影部14よりも奥側に集光点がある場合が好ましい。
 実施例3では画像の解像度を検査する第2の例について説明する。実施例3においても、画像検査装置は実施例1の画像検査装置100と同じであるため説明を省略する。
 図13は、画像の解像度を検査する検査方法の第2の例を示すフローチャートである。図14(a)から図15(b)は、画像の解像度の検査方法の第2の例を説明する図である。図13のように、ユーザは画像の解像度を検査する検査対象の画像投影装置30を画像検査装置100の搭載部10に搭載する(ステップS70)。また、ユーザは画像検査装置100の集光レンズとして焦点距離f1の集光レンズ12aを装着する(ステップS72)。
 次いで、画像検査装置100の制御部18は、画像投影装置30の制御部44に空間周波数の異なる複数の検査画像データを入力し、画像投影装置30から検査画像を形成する光線50を出射させて被投影部14に空間周波数の異なる複数の検査画像を投影する(ステップS74)。検査画像として、例えば明部と暗部とが繰り返された画像を用いることができる。次いで、制御部18は、被投影部14に投影された複数の検査画像を撮像部16で撮像する(ステップS76)。すなわち、図14(a)のように、焦点距離f1の集光レンズ12aを通過した光線50によって空間周波数が異なる複数の検査画像60が投影される。複数の検査画像60それぞれにおいて明部62と暗部64の大きさは同じであり、複数の検査画像60の間で明部62と暗部64の大きさは互いに異なっている。また、図14(a)では、空間周波数の異なる複数の検査画像60を撮像した撮像部16の出力強度のグラフも示している。
 次いで、制御部18は、撮像された複数の検査画像60毎にコントラスト比を測定する(ステップS78)。次いで、制御部18は、コントラスト比が0.5となる空間周波数を算出し、当該空間周波数を解像度R1と特定する(ステップS80)。すなわち、空間周波数の異なる複数の検査画像60毎のコントラスト比を測定することで、図14(a)のような、空間周波数とコントラスト比との関係を求め、この関係に基づいて、コントラスト比が0.5となる空間周波数を解像度R1と特定する。
 解像度R1の特定が完了した後、ユーザは画像検査装置100に装着されている焦点距離f1の集光レンズ12aを焦点距離f1とは異なり例えば焦点距離f1よりも短い焦点距離f2の集光レンズ12bに交換する(ステップS82)。次いで、制御部18は、画像投影装置30の制御部44に空間周波数の異なる複数の検査画像データを入力し、画像投影装置30から検査画像を形成する光線50を出射させて被投影部14に空間周波数の異なる複数の検査画像を投影する(ステップS84)。これにより、図14(b)のように、焦点距離f2の集光レンズ12bを通過した光線50によって空間周波数が異なる複数の検査画像60が投影される。
 次いで、制御部18は、被投影部14に投影された複数の検査画像60を撮像部16で撮像する(ステップS86)。次いで、制御部18は、撮像された複数の検査画像60毎にコントラスト比を測定する(ステップS88)。次いで、制御部18は、コントラスト比が0.5となる空間周波数を算出し、当該空間周波数を解像度R2と特定する(ステップS90)。すなわち、図15(b)のような、空間周波数とコントラスト比との関係を求め、この関係に基づいて、コントラスト比が0.5となる空間周波数を解像度R2と特定する。
 次いで、制御部18は、焦点距離f1と焦点距離f2との差(Δf=f1-f2)に対する解像度R1と解像度R2との差(ΔR=R1-R2)の比(ΔR/Δf)を算出し、それがメモリに予め記憶された所定範囲内か否かを検査する(ステップS92)。制御部18は、検査結果を表示部24に表示する(ステップS94)。
 以上のように、実施例3によれば、焦点距離f1の集光レンズ12aで集光された光線50によって形成された空間周波数の異なる複数の検査画像を用いてコントラスト比が0.5となる空間周波数を解像度R1と特定する。同様に、焦点距離f2の集光レンズ12bで集光された光線50によって形成された空間周波数の異なる複数の検査画像を用いてコントラスト比が0.5となる空間周波数を解像度R2と特定する。そして、焦点距離f1と焦点距離f2との差に対する解像度R1と解像度R2との差の比が所定範囲内かを検査する。これにより、実施例2と同様に、ユーザの網膜に画像を直接投影する画像投影装置30によって投影される画像の、焦点距離に依存しない解像度(焦点距離非依存解像度)を測定することができ、ユーザの個体差によらずにユーザに良好な画像を提供可能な画像投影装置30か否かを検査することができる。
 実施例3の変形例1では画像の解像度を検査する第3の例について説明する。図16は、実施例3の変形例1に係る画像検査装置310を示す図である。図16のように、実施例3の変形例1の画像検査装置310では、被投影部14が平面形状をしている。撮像部16は、平面形状をした被投影部14を透過した画像を撮像する。その他の構成は、実施例1の画像検査装置100と同じであるため説明を省略する。
 図17は、画像の解像度を検査する検査方法の第3の例を示すフローチャートである。図18(a)から図20(c)は、画像の解像度の検査方法の第3の例を説明する図である。図17のように、ユーザは画像の解像度を検査する検査対象の画像投影装置30を画像検査装置100の搭載部10に搭載する(ステップS130)。
 次いで、画像検査装置100の制御部18は、画像投影装置30の制御部44に検査画像データを入力することで、画像投影装置30から検査画像を形成する光線50を出射させて被投影部14に検査画像60を投影する(ステップS132)。図18(a)及び図18(b)は、被投影部14に投影される検査画像60の例である。検査画像60は、ストライプ状の白パターン67と黒パターン68とを有する複数の検査パターン69を含む。検査パターン69は、例えば白パターン67と黒パターン68がそれぞれ50ピクセルずつ形成されている。白パターン67及び黒パターン68は縦パターンであってもよいし横パターンであってもよい。
 次いで、制御部18は、被投影部14に投影された検査画像60を撮像部16で撮像する(ステップS134)。すなわち、図19のように、制御部18は、撮像部16を用いて被投影部14に投影された検査画像60に含まれる検査パターン69を撮像する。
 次いで、制御部18は、撮像部16で撮像された検査パターン69から輝度データを取得する(ステップS136)。例えば、図20(a)のような撮像部16で撮像された検査パターン69から、図20(b)のような検査パターン69の輝度データを取得する。なお、図20(b)は、図20(a)のA-A間での輝度データの一例であり、横軸はピクセル、縦軸は輝度である。
 次いで、制御部18は、検査パターン69の輝度データから空間周波数応答(SFR:spatial frequency response)を計算する(ステップS138)。例えば、検査パターン69の輝度データから図20(c)のような空間周波数応答特性が得られる。図20(c)の横軸は空間周波数f(1/ピクセル)である。縦軸は輝度であり、純白を1で、漆黒を0で示している。
 次いで、制御部18は、空間周波数応答特性から検査パターン69の解像度を特定する(ステップS140)。例えば、制御部18は、輝度が0.5となる空間周波数を算出し、当該空間周波数を解像度として特定する。
 次いで、制御部18は、検査画像60に含まれる全ての検査パターン69の解像度を特定したか否かを判断する(ステップS142)。解像度を特定していない検査パターン69がある場合(ステップS142:No)、制御部18は、ステップS136に戻る。全ての検査パターン69の解像度の特定が終了した場合(ステップS142:Yes)、制御部18は、検査画像60の解像度を特定する(ステップS144)。例えば、制御部18は、複数の検査パターン69の解像度の平均を検査画像60の解像度として特定する。なお、制御部18は、複数の検査パターン69の解像度の最大値を検査画像60の解像度と特定してもよいし、最小値を検査画像60の解像度と特定してもよい。次いで、制御部18は、解像度の検査結果を表示部24に表示する(ステップS146)。
 実施例4では画像の輝度及びパターン形状を検査する例について説明する。図21は、実施例4に係る画像検査装置400を示す図である。図21のように、実施例4の画像検査装置400は、集光レンズ12の近傍であって集光レンズ12と画像投影装置30の投射部42との間に挿入された開口板70を備える。開口板70は、光線50が通過する例えば円形の開口部である孔72を集光レンズ12の近傍に有する。開口板70は、孔72の周囲の光を遮光する構成であれば板状である必要はなく、アイボックスと称することもある。開口部70は、集光レンズ12の光軸に垂直な面で2次元方向に移動可能となっている。投射部42で反射された光線50は、開口板70の孔72を通過し、集光レンズ12で集光されて被投影部14に照射される。撮像部16は、被投影部14を透過した画像を撮像する。その他の構成は、実施例1の画像検査装置100と同じであるため図示及び説明を省略する。
 図22は、画像の輝度及びパターン形状を検査する検査方法の例を示すフローチャートである。図23(a)及び図23(b)は、画像の輝度及びパターン形状の検査方法を説明する図である。図22のように、ユーザは画像の輝度及びパターン形状を検査する検査対象の画像投影装置30を画像検査装置400の搭載部10に搭載する(ステップS100)。次いで、ユーザは開口板70の位置を初期位置に移動させる(ステップS102)。例えば、図23(a)のように、光線50からなる走査光が開口板70に設けられた孔72の下端近傍を通過するように、開口板70の位置を移動させる。
 次いで、画像検査装置400の制御部18は、画像投影装置30の制御部44に検査画像データを入力することで、画像投影装置30から検査画像を形成する光線50を出射させて被投影部14に検査画像を投影する(ステップS104)。被投影部14に投影された検査画像60は、図23(a)のように、開口板70の影響を受けて輝度が低下した領域66が現れる。検査画像としては、例えば実施例1で示したような格子画像を用いることができる。
 次いで、制御部18は、被投影部14に投影された検査画像60を撮像部16で撮像する(ステップS106)。次いで、制御部18は、撮像された検査画像60に対して曲面画像変換を実施する(ステップS108)。次いで、制御部18は、曲面画像変換後の検査画像60の平均輝度及びパターン形状(太さなど)を測定する(ステップS110)。
 次いで、ユーザは開口板70の位置を所定距離だけ移動させる(ステップS112)。次いで、制御部18は、被投影部14に投影された検査画像60を撮像部16で撮像する(ステップS114)。次いで、制御部18は、撮像された検査画像60に対して曲面画像変換を実施する(ステップS116)。次いで、制御部18は、曲面画像変換後の検査画像60の平均輝度及びパターン形状(太さなど)を測定する(ステップS118)。開口板70の位置が最終位置になるまでステップS112からステップS118を繰り返し行う(ステップS120)。例えば、図23(b)のように、光線50からなる走査光が開口板70に設けられた孔72の上端近傍を通過する位置を開口板70の最終位置であるとする。このとき、被投影部14に投影された検査画像60は、開口板70の影響を受けて輝度が低下した領域66が現れる。
 制御部18は、測定した複数の検査画像60の平均輝度の差異が所定範囲内か否か、パターン形状の差異が所定範囲内か否かを検査する(ステップS122)。制御部18は、検査結果を表示部24に表示する(ステップS124)。
 以上のように、実施例4によれば、集光レンズ12の近傍に挿入された開口板70が集光レンズ12の光軸に垂直な面方向に移動して孔72が異なる位置にあるときに孔72を通過する光線50による複数の画像の平均輝度及び/又はパターン形状の差異が所定範囲内かを検査する。開口板70の孔72は、画像投影装置30を装着するユーザの瞳孔と見なすことができる。このため、平均輝度及び/又はパターン形状の差異が所定範囲内である場合は、画像投影装置30を装着するユーザが様々な異なる方向を向いてもユーザが視認する画像の輝度やパターン形状の変化は小さいと考えられる。したがって、実施例4によれば、画像投影装置30を装着するユーザが異なる方向を向いてもユーザに輝度やパターン形状の変化が小さい画像を提供可能な画像投影装置30か否かを検査することができる。なお、開口板70の孔72は瞳孔に相当することから、開口板70は、水晶体と瞳孔の位置関係に対応するように、集光レンズ12の近傍に設けられていることが好ましい。
 なお、実施例4では、開口板70の位置をユーザが移動させる場合を例に示したが、開口板70の位置を移動させることが可能なアクチュエータなどの駆動部を設けて、制御部18が駆動部を用いて開口板70の位置を移動させてもよい。
 図24は、実施例5に係る画像検査装置500を示す図である。図24のように、実施例5の画像検査装置500は、集光レンズ12と被投影部14との間の光線50の光路上にハーフミラー80からなる反射系が設けられている。撮像部16は、被投影部14に投影され且つ被投影部14とハーフミラー80とで反射された検査画像を撮像する。その他の構成は、実施例1の画像検査装置100と同じであるため図示及び説明を省略する。
 実施例1のように、被投影部14を透過した検査画像を撮像部16で撮像する場合、不要な光の影響を受ける場合がある。一方、実施例5のように、集光レンズ12と被投影部14との間の光線50の光路上にハーフミラー80からなる反射系を設けるとともに、被投影部14を光拡散性の高い素材で構成することにより、被投影部14とハーフミラー80とで反射された検査画像を撮像することで、不要な光の影響を小さくすることができる。
 図25は、実施例6に係る画像検査装置600を示す図である。図25のように、実施例6の画像検査装置600は、集光レンズ12と被投影部14との間の光線50の光路上に、偏光板82、偏光ビームスプリッタ84、及び1/4波長板86からなる反射系が設けられている。撮像部16は、被投影部14に投影され且つ被投影部14と偏光ビームスプリッタ84とで反射された検査画像を撮像する。なお、図25では、光線50上に示した矢印はP偏光を示し、黒丸はS偏光を示している。その他の構成は、実施例1の画像検査装置100と同じであるため図示及び説明を省略する。
 実施例5のように、集光レンズ12と被投影部14との間にハーフミラー80を設けた場合では、撮像部16に入射する光量が小さくなってしまう。一方、実施例6のように、集光レンズ12と被投影部14との間の光線50の光路上に偏光板82、偏光ビームスプリッタ84、及び1/4波長板86からなる反射系を設け、被投影部14と偏光ビームスプリッタ84とで反射された検査画像を撮像することで、撮像部16に入射する光量が小さくなることを抑制できる。
 図26は、実施例7に係る画像検査装置700を示す図である。図26のように、実施例7の画像検査装置700は、撮像部16が設けられてなく、また、被投影部14aは、平面形状のディテクタとなっている。被投影部14aは、例えばCCD画像センサ又はCMOS画像センサである。その他の構成は、実施例1の画像検査装置100と同じであるため図示及び説明を省略する。
 図27は、平面形状の被投影部14aに投射される光線50の大きさを示す図である。図27のように、平面形状の被投影部14aに投射される光線50の大きさ(スポットサイズ)61は、眼球90の網膜92に投射される光線50の大きさ(スポットサイズ)63に比べて大きくなる。
 実施例1から実施例6では、ガラスで形成された略半球体の形状又は平坦形状の被投影部14と撮像部16との組み合わせの場合を例に示したが、実施例7のように、被投影部14aとして平面形状のディテクタを用いた場合でもよい。この場合、画像投影装置30から出射され集光レンズ12で集光された光線50によって被投影部14aに投影された検査画像を、被投影部14aを用いて検知することで検査画像を検査することができる。
 なお、実施例1から実施例7では、画像の検査として、画像の歪、解像度、輝度、及びパターン形状を検査する場合を例に示したが、歪、解像度、輝度、パターン形状、ガンマ特性、コントラスト比、アスペクト比、及び色合いの少なくとも1つを検査する場合でもよい。検査方法としては、従来から知られている検査方法を用いてもよい。以下に検査方法の一例を示す。
 図28は、ガンマ特性の検査方法の一例を示す図である。図28のように、被投影部14に赤色、緑色、及び青色を用いて形成されたカラーの検査画像60を投影する。そして、投影された検査画像60の複数の点において、分光器76を用いて赤色、緑色、及び青色のスペクトルを測定する。そして、測定してスペクトルから求めた各色の色度を用いてガンマ特性を算出する。このようなガンマ特性の検査は、制御部18で行われてもよいし、制御部18とユーザとの両方によって行われてもよい。
 図29は、コントラスト比の検査方法の一例を示す図である。図29のように、被投影部14に全領域が白色の検査画像60を投影する。そして、投影された検査画像60の複数の点において、照度計77を用いて白色の照度を測定する。次いで、被投影部14に全領域が黒色の検査画像60を投影する。そして、投影された検査画像60の複数の点において、照度計77を用いて黒色の照度を測定する。そして、測定した白色の照度と黒色の照度を用いてコントラスト比を算出する。このようなコントラスト比の検査は、制御部18で行われてもよいし、制御部18とユーザとの両方によって行われてもよい。
 図30(a)及び図30(b)は、アスペクト比の検査方法の一例を示す図である。図30(a)及び図30(b)のように、被投影部14aに全領域が白色の検査画像60を投影する。そして、投影された検査画像60の幅Hと高さVを測定する。そして、水平視野FOVと垂直視野FOVを算出する。水平視野FOVは、例えばFOV=2tan-1(H/2L)を計算することで算出し、垂直視野FOVは、例えばFOV=2tan-1(V/2L)を計算することで算出する。なお、Lは、走査光の収束点から被投影部14までの距離である。そして、FOV/FOVを計算することで、アスペクト比を算出する。このようなアスペクト比の検査は、制御部18で行われてもよいし、制御部18とユーザとの両方によって行われてもよい。また、例えばアスペクト比の検査は、実施例1に示した格子画像を検査画像として用い、格子の縦横比を測定することで検査してもよい。若しくは、図4(a)及び図4(b)に示した角度θ1に対する角度φ1の比(φ/θ)を測定することで検査してもよい。
 実施例8では画像投影装置30から投射される走査光の収束領域の検査の例について説明する。図31は、走査光の収束領域を検査する検査方法の例を示すフローチャートである。図32(a)から図32(c)は、走査光の収束領域の検査方法を説明する図である。図32(b)は、図32(a)において、検査画像を検出するディテクタ110が点Aにあるときに検出した検査画像を示し、図32(c)は、図32(a)においてディテクタ110が点Bにあるときに検出した検査画像を示している。ここで、ディテクタ110は、実施例3の図16で説明した平面形状をした非投影部14aに設置されていてもよい。
 図31のように、ユーザは画像投影装置30から検査画像を形成する光線50を出射させる(ステップS150)。これにより、図32(a)のように、画像投影装置30から光線50が出射され、走査部38、投射部42を経由してディテクタ110に画像が投影される。このとき、投射部42とディテクタ110との間には、図3や図16と同様に集光レンズ12があってもよい。次いで、ユーザは投射部42の後段で光線50の光路に配置した平面形状のディテクタ110で検出される検査画像の幅が瞳孔の幅と同じになるまでディテクタ110の位置を画像投影装置30の投射部42から離れる方向に移動させる(ステップS152)。すなわち、図32(b)のように、ディテクタ110で瞳孔94と同じ幅の検査画像60が検出されるまでディテクタ110の位置を移動させる。なお、以下において、画像投影装置30の投射部42から離れる方向をZ方向とし、Z方向に交差する方向をX方向として説明する。ディテクタ110が非投影部14aに設置されている場合、非投影部14aもディテクタ110とともに移動する。
 次いで、ユーザは検査画像60の幅が瞳孔94の幅と同じになったときのディテクタ110のZ方向の位置をZ0として特定する(ステップS154)。次いで、ユーザはディテクタ110で検出される検査画像60の幅が最小になるまでディテクタ110の位置をZ方向に移動させる(ステップS156)。すなわち、図32(c)のように、ディテクタ110で検出される検査画像60の幅が最小になるまでディテクタ110の位置を移動させる。
 次いで、ユーザは検査画像60の幅が最小になったときのディテクタ110のZ方向の位置をZ1として特定する(ステップS158)。次いで、ユーザは検査画像60が最小のときのX方向の幅を特定する(ステップS160)。すなわち、図32(c)のように、検査画像60のX方向の幅Hi(Z1)を特定する。
 次いで、ユーザはステップS154、S158、及びステップS160で特定した値を用いて収束領域の大きさを算出する(ステップS162)。すなわち、X方向の収束領域の大きさを、瞳孔94の大きさIDと検査画像60が最小のときのX方向の幅Hi(Z1)との差(ID-Hi(Z1))から算出する。Y方向の収束領域の大きさを、走査画像60の幅が瞳孔94の幅と同じになったときのディテクタ110のZ方向の位置Z0から検査画像60の幅が最小になったときのディテクタ110のZ方向の位置Z1までの距離の2倍(2(Z1-Z0))から算出する。
 実施例8では走査光の収束領域の検査がユーザによって行われる場合を例に示したが、検査装置の制御部(図1における制御部18)によって行われてもよい。
 以上、本発明の実施例について詳述したが、本発明はかかる特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 10 搭載部
 12~12b 集光レンズ
 14、14a 被投影部
 16 撮像部
 18 制御部
 20 画像変換部
 22 検査部
 24 表示部
 30 画像投影装置
 50 光線
 52 ダミーアイ
 54 収束点
 58 中心点
 60 検査画像
 70 開口板
 72 孔
 80 ハーフミラー
 82 偏光板
 84 偏光ビームスプリッタ
 86 1/4波長板
 100~700 画像検査装置
 110 ディテクタ

Claims (23)

  1.  ユーザの網膜に画像を直接投影する画像投影装置が搭載される搭載部と、
     前記搭載部に搭載された前記画像投影装置から出射される光線を集光させる集光レンズと、
     前記集光レンズで集光された前記光線が照射されて検査画像が投影される被投影部と、
     前記被投影部に投影された前記検査画像を検査する検査部と、を備える画像検査装置。
  2.  前記集光レンズ側に開口を有する略半球面の形状をした前記被投影部に投影された前記検査画像を撮像する撮像部と、
     前記撮像部で撮像された前記検査画像に対して前記略半球面の中心点からの動径及び角度で表される極座標系を直交座標系に変換する画像変換部と、を備え、
     前記検査部は、前記画像変換部で変換された後の前記検査画像を検査する、請求項1記載の画像検査装置。
  3.  前記被投影部は、前記検査画像を透過し、
     前記撮像部は、前記被投影部を透過した前記検査画像を撮像する、請求項2記載の画像検査装置。
  4.  前記集光レンズと前記被投影部との間の前記光線の光路上に設けられた反射系を備え、
     前記撮像部は、前記被投影部と前記反射系とで反射された前記検査画像を撮像する、請求項2記載の画像検査装置。
  5.  前記反射系は、偏光板と偏光ビームスプリッタと1/4波長板とを含む、請求項4記載の画像検査装置。
  6.  前記被投影部は平面形状をしている、請求項1記載の画像検査装置。
  7.  前記検査部は、前記検査画像の歪、解像度、輝度、パターン形状、ガンマ特性、コントラスト比、アスペクト比、及び色合いの少なくとも1つを検査する、請求項1から6のいずれか一項記載の画像検査装置。
  8.  前記被投影部に投影された前記検査画像は、第1焦点距離の前記集光レンズで集光された前記光線によって投影された第1検査画像と、前記第1焦点距離とは異なる第2焦点距離の前記集光レンズで集光された前記光線によって投影された第2検査画像と、を含み、
     前記検査部は、前記第1検査画像の第1解像度及び前記第2検査画像の第2解像度を測定し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する、請求項1から7のいずれか一項記載の画像検査装置。
  9.  前記被投影部に投影された前記検査画像は、空間周波数の異なる複数の前記第1検査画像と、空間周波数の異なる複数の前記第2検査画像と、を含み、
     前記検査部は、前記複数の第1検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第1解像度として算出し、前記複数の第2検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第2解像度として算出し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する、請求項8記載の画像検査装置。
  10.  前記被投影部に投影された前記検査画像は輝度の異なるパターンを有する検査パターンを含み、
     前記検査部は、前記検査パターンの輝度の変化に基づいて前記検査画像の解像度を検査する、請求項1から7のいずれか一項記載の画像検査装置。
  11.  前記集光レンズの近傍に前記光線が通過する孔を有する前記集光レンズの光軸に垂直な面方向に移動可能な開口板を備え、
     前記被投影部に投影された前記検査画像は、前記開口板が移動して前記孔が異なる位置にあるときに前記被投影部に投影された複数の前記検査画像を含み、
     前記検査部は、前記複数の検査画像の平均輝度及び/又はパターン形状の差異が所定範囲内かを検査する、請求項1から7のいずれか一項記載の画像検査装置。
  12.  平面形状をした前記被投影部に画像を検出するディテクタを備え、
     前記被投影部は、前記被投影部の平面の鉛直方向に移動可能であり、
     前記検査部は、前記被投影部の移動に伴って、前記ディテクタの位置と、その位置で検出した前記検査画像の大きさを特定することによって、前記光線の収束領域の大きさを計測する、請求項6記載の画像検査装置。
  13.  ユーザの網膜に画像を直接投影する画像投影装置から検査画像を形成する光線を出射させ、集光レンズを通過させて被投影部に前記光線を照射させることで前記被投影部に前記検査画像を投影するステップと、
     前記被投影部に投影された前記検査画像を検査するステップと、を備える画像検査方法。
  14.  前記集光レンズ側に開口を有する略半球面の形状をした前記被投影部に投影された前記検査画像を撮像するステップと、
     前記撮像するステップで撮像された前記検査画像に対して前記略半球面の中心点からの動径及び角度で表される極座標系を直交座標系に変換するステップと、を備え、
     前記検査するステップは、前記変換するステップで変換された後の前記検査画像を検査する、請求項13記載の画像検査方法。
  15.  前記被投影部は平面形状をしている、請求項13記載の画像検査方法。
  16.  前記検査するステップは、前記検査画像の歪、解像度、輝度、パターン形状、ガンマ特性、コントラスト比、アスペクト比、及び色合いの少なくとも1つを検査する、請求項13から15のいずれか一項記載の画像検査方法。
  17.  前記投影するステップは、前記検査画像として、第1焦点距離の前記集光レンズを通過した前記光線による第1検査画像と、第2焦点距離の前記集光レンズを通過した前記光線による第2検査画像と、を投影し、
     前記検査するステップは、前記第1検査画像の第1解像度及び前記第2検査画像の第2解像度を測定し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する、請求項13から16のいずれか一項記載の画像検査方法。
  18.  前記投影するステップは、空間周波数の異なる複数の前記第1検査画像と、空間周波数の異なる複数の前記第2検査画像と、を投影し、
     前記検査するステップは、前記複数の第1検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第1解像度として算出し、前記複数の第2検査画像を用いてコントラスト比が0.5となる前記空間周波数を前記第2解像度として算出し、前記第1焦点距離と前記第2焦点距離との差に対する前記第1解像度と前記第2解像度との差の比が所定範囲内かを検査する、請求項17記載の画像検査方法。
  19.  前記投影するステップは、輝度の異なるパターンを有する検査パターンを含む前記検査画像を前記被投影部に投影し、
     前記検査するステップは、前記検査パターンの輝度の変化に基づいて前記検査画像の解像度を検査する、請求項13から16のいずれか一項記載の画像検査方法。
  20.  前記投影するステップは、前記集光レンズの近傍に前記光線が通過する孔を有する開口板が前記集光レンズの光軸に垂直な面方向に移動して前記孔が異なる位置にあるときに前記孔を通過する前記光線による複数の前記検査画像を投影し、
     前記検査するステップは、前記複数の検査画像の平均輝度及び/又はパターン形状の差異が所定範囲内かを検査する、請求項13から16のいずれか一項記載の画像検査方法。
  21.  平面形状をした前記被投影部は前記被投影部の平面の鉛直方向に移動可能であり、前記被投影部の移動に伴って、前記被投影部に搭載されて画像を検出するディテクタの位置と、その位置で検出した前記検査画像の大きさと、を特定するステップと、
     特定した前記ディテクタの位置と前記検査画像の大きさとによって、前記光線の収束領域の大きさを計測するステップと、を備える、請求項15記載の画像検査方法。
  22.  請求項1または請求項13に記載の被投影部となる画像検査装置用部品であって、
     光拡散性が高く、波長分散がフラットである素材で構成された画像検査装置用部品。
  23.  前記素材は、光を透過させる材質のものに、石英および硫酸バリウムを混合させたもの、または光を透過させる材質の表面にナノダイヤモンドをコーティングしたものである、請求項22記載の画像検査装置用部品。
PCT/JP2017/028558 2016-08-18 2017-08-07 画像検査装置、画像検査方法、及び画像検査装置用部品 WO2018034181A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17841406.6A EP3502647A4 (en) 2016-08-18 2017-08-07 IMAGE INSPECTION DEVICE, IMAGE INSPECTION METHOD AND IMAGE INSPECTION DEVICE COMPONENT
CN201780050293.6A CN109642848B (zh) 2016-08-18 2017-08-07 图像检查装置以及图像检查方法
JP2018534351A JP6883869B2 (ja) 2016-08-18 2017-08-07 画像検査装置、画像検査方法、及び画像検査装置用部品
US16/318,263 US11158034B2 (en) 2016-08-18 2017-08-07 Image inspection device, image inspection method, and image inspection device component

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-160857 2016-08-18
JP2016160857 2016-08-18

Publications (1)

Publication Number Publication Date
WO2018034181A1 true WO2018034181A1 (ja) 2018-02-22

Family

ID=61196594

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028558 WO2018034181A1 (ja) 2016-08-18 2017-08-07 画像検査装置、画像検査方法、及び画像検査装置用部品

Country Status (5)

Country Link
US (1) US11158034B2 (ja)
EP (1) EP3502647A4 (ja)
JP (2) JP6883869B2 (ja)
CN (1) CN109642848B (ja)
WO (1) WO2018034181A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110456513A (zh) * 2019-08-19 2019-11-15 张玉琴 一种适用于b超影片和投影的设备
JP2020000472A (ja) * 2018-06-28 2020-01-09 眞 竹田 眼底画像球面投影システム
JP2020065252A (ja) * 2018-10-17 2020-04-23 東海光学株式会社 画像投影装置、展示装置、評価装置、評価方法及び評価システム
WO2020202877A1 (ja) * 2019-04-04 2020-10-08 株式会社Qdレーザ 画像検査装置
WO2022162953A1 (ja) * 2021-02-01 2022-08-04 リーダー電子株式会社 解像度測定方法、解像度測定システム、およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502647A4 (en) * 2016-08-18 2019-12-18 QD Laser, Inc. IMAGE INSPECTION DEVICE, IMAGE INSPECTION METHOD AND IMAGE INSPECTION DEVICE COMPONENT
US11263729B2 (en) * 2020-05-26 2022-03-01 Microsoft Technology Licensing, Llc Reprojection and wobulation at head-mounted display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889625A (en) * 1997-05-21 1999-03-30 Raytheon Company Chromatic aberration correction for display systems
JP2003279446A (ja) * 2002-03-25 2003-10-02 Seiko Epson Corp 撮像用レンズ検査装置、および撮像用レンズ検査方法
US20060232665A1 (en) * 2002-03-15 2006-10-19 7Tm Pharma A/S Materials and methods for simulating focal shifts in viewers using large depth of focus displays
WO2008149712A1 (ja) * 2007-06-01 2008-12-11 University Of Miyazaki 歪検査装置、及び歪検査方法
JP2009156992A (ja) * 2007-12-25 2009-07-16 Canon Inc 制御装置、表示装置及びそれらの制御方法、複合現実システム、及びコンピュータプログラム
JP2010522347A (ja) * 2007-03-22 2010-07-01 イーエーディーエス テスト アンド サービスィズ オプトエレクトロニクス情報を表示する様々なタイプの装置の動作に関連する複数のパラメータを制御するユニバーサルテストシステム
US20130258486A1 (en) * 2012-03-27 2013-10-03 Dumitru Mihai Ionescu Head-mount display

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998044479A1 (fr) 1997-03-31 1998-10-08 Matsushita Electric Industrial Co., Ltd. Procede de visualisation du premier plan d'images et dispositif connexe
US7734101B2 (en) * 2000-10-11 2010-06-08 The United States Of America As Represented By The Secretary Of The Army Apparatus and system for testing an image produced by a helmet-mounted display
CA2529813C (en) 2003-06-20 2015-11-17 Visx, Incorporated Systems and methods for prediction of objective visual acuity based on wavefront measurements
EP1641390A4 (en) 2003-06-26 2008-06-04 Given Imaging Ltd PROCESS, DEVICE AND SYSTEM FOR IN VIVO DETECTION
JP3735624B2 (ja) * 2003-09-26 2006-01-18 Necビューテクノロジー株式会社 投影表示装置
JP3882929B2 (ja) * 2004-03-29 2007-02-21 セイコーエプソン株式会社 画像処理システム、プロジェクタおよび画像処理方法
CN101991404A (zh) * 2009-08-17 2011-03-30 黄立平 接触式视网膜图像检查诊断系统
JP5606813B2 (ja) 2010-07-05 2014-10-15 株式会社ニデック 眼科装置
CN103458772B (zh) 2011-04-07 2017-10-31 香港中文大学 视网膜图像分析方法和装置
JP5728372B2 (ja) * 2011-11-30 2015-06-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
IL219907A (en) * 2012-05-21 2017-08-31 Lumus Ltd Integrated head display system with eye tracking
WO2014128657A1 (en) * 2013-02-25 2014-08-28 Forus Health Pvt. Ltd. Apparatus for observing eye and a method thereof
JP6209456B2 (ja) 2013-05-31 2017-10-04 株式会社Qdレーザ 画像投影装置及び投射装置
US9979956B1 (en) * 2016-06-09 2018-05-22 Oculus Vr, Llc Sharpness and blemish quality test subsystem for eyecup assemblies of head mounted displays
JP6255524B2 (ja) * 2016-06-09 2017-12-27 株式会社Qdレーザ 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
EP3502647A4 (en) * 2016-08-18 2019-12-18 QD Laser, Inc. IMAGE INSPECTION DEVICE, IMAGE INSPECTION METHOD AND IMAGE INSPECTION DEVICE COMPONENT

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889625A (en) * 1997-05-21 1999-03-30 Raytheon Company Chromatic aberration correction for display systems
US20060232665A1 (en) * 2002-03-15 2006-10-19 7Tm Pharma A/S Materials and methods for simulating focal shifts in viewers using large depth of focus displays
JP2003279446A (ja) * 2002-03-25 2003-10-02 Seiko Epson Corp 撮像用レンズ検査装置、および撮像用レンズ検査方法
JP2010522347A (ja) * 2007-03-22 2010-07-01 イーエーディーエス テスト アンド サービスィズ オプトエレクトロニクス情報を表示する様々なタイプの装置の動作に関連する複数のパラメータを制御するユニバーサルテストシステム
WO2008149712A1 (ja) * 2007-06-01 2008-12-11 University Of Miyazaki 歪検査装置、及び歪検査方法
JP2009156992A (ja) * 2007-12-25 2009-07-16 Canon Inc 制御装置、表示装置及びそれらの制御方法、複合現実システム、及びコンピュータプログラム
US20130258486A1 (en) * 2012-03-27 2013-10-03 Dumitru Mihai Ionescu Head-mount display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3502647A4 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020000472A (ja) * 2018-06-28 2020-01-09 眞 竹田 眼底画像球面投影システム
JP7396628B2 (ja) 2018-10-17 2023-12-12 東海光学株式会社 画像投影装置、展示装置、評価装置、評価方法及び評価システム
JP2020065252A (ja) * 2018-10-17 2020-04-23 東海光学株式会社 画像投影装置、展示装置、評価装置、評価方法及び評価システム
CN113383220A (zh) * 2019-04-04 2021-09-10 Qd激光公司 图像检查装置
JP2020170118A (ja) * 2019-04-04 2020-10-15 株式会社Qdレーザ 画像検査装置
JP7123403B2 (ja) 2019-04-04 2022-08-23 株式会社Qdレーザ 画像検査装置
TWI794590B (zh) * 2019-04-04 2023-03-01 日商Qd雷射股份有限公司 圖像檢查裝置
WO2020202877A1 (ja) * 2019-04-04 2020-10-08 株式会社Qdレーザ 画像検査装置
CN113383220B (zh) * 2019-04-04 2024-05-24 Qd激光公司 图像检查装置
CN110456513B (zh) * 2019-08-19 2021-05-04 高岩 一种适用于b超影片和投影的设备
CN110456513A (zh) * 2019-08-19 2019-11-15 张玉琴 一种适用于b超影片和投影的设备
WO2022162953A1 (ja) * 2021-02-01 2022-08-04 リーダー電子株式会社 解像度測定方法、解像度測定システム、およびプログラム
JP2022117666A (ja) * 2021-02-01 2022-08-12 リーダー電子株式会社 解像度測定方法、解像度測定システム、およびプログラム
JP7304641B2 (ja) 2021-02-01 2023-07-07 リーダー電子株式会社 チャート生成方法、解像度測定方法、解像度測定システム、およびプログラム

Also Published As

Publication number Publication date
EP3502647A1 (en) 2019-06-26
JP2021119508A (ja) 2021-08-12
JPWO2018034181A1 (ja) 2019-07-04
US20200342582A1 (en) 2020-10-29
CN109642848A (zh) 2019-04-16
EP3502647A4 (en) 2019-12-18
US11158034B2 (en) 2021-10-26
JP6883869B2 (ja) 2021-06-09
CN109642848B (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
WO2018034181A1 (ja) 画像検査装置、画像検査方法、及び画像検査装置用部品
KR101150755B1 (ko) 영상촬영장치
EP3355049B1 (en) Inspection illumination device and inspection system
US10883944B2 (en) Inspection system and method of inspection
CN103168272B (zh) 进深推定摄像装置以及摄像元件
US11002534B2 (en) Patterned light projection apparatus and method
JP6086362B2 (ja) 検査システム及び検査用照明装置
JP2022189938A (ja) 光学検査装置、方法及びプログラム
WO2012042943A1 (ja) 投光ビームの調整方法
US20150009315A1 (en) Microscope apparatus
WO2014122713A1 (ja) 情報取得装置および物体検出装置
US20190094106A1 (en) Lens characteristic evaluation device and method of operating lens characteristic evaluation device
US20200033595A1 (en) Method and system for calibrating a wearable heads-up display having multiple exit pupils
WO2020202877A1 (ja) 画像検査装置
TWI468771B (zh) 聚焦調整裝置、相機模組製造裝置、聚焦調整方法、相機模組之製造方法、聚焦調整程式及記錄媒體
US20230117589A1 (en) Optical device allowing the angular emission pattern of a light source of finite area to be rapidly measured
JP2021018081A (ja) 撮像装置、計測装置、及び、計測方法
JP5685961B2 (ja) スポット像位置検出装置
JP2012150079A (ja) 透明部材の欠陥検出装置及び欠陥検出方法
JP2021153710A (ja) 視機能検査装置
WO2018180808A1 (ja) 撮像装置及び画像処理装置
JP2019207175A (ja) 測定装置
JP2010133841A (ja) 周部検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17841406

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018534351

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017841406

Country of ref document: EP

Effective date: 20190318