WO2024162077A1 - 解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム - Google Patents

解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム Download PDF

Info

Publication number
WO2024162077A1
WO2024162077A1 PCT/JP2024/001722 JP2024001722W WO2024162077A1 WO 2024162077 A1 WO2024162077 A1 WO 2024162077A1 JP 2024001722 W JP2024001722 W JP 2024001722W WO 2024162077 A1 WO2024162077 A1 WO 2024162077A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical axis
aerial image
imaging
axis direction
image
Prior art date
Application number
PCT/JP2024/001722
Other languages
English (en)
French (fr)
Inventor
主揮 下瀬
達哉 玉村
諒 忠内
祥一 坪田
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2024162077A1 publication Critical patent/WO2024162077A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/322Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers

Definitions

  • This disclosure relates to a resolution measurement device, an optical axis direction measurement system, an optical axis direction measurement method, a program, an optical axis direction measurement device, and a pass/fail determination system.
  • an aerial image display device is known, for example, as described in Patent Document 1.
  • the resolution measuring device disclosed herein includes a measuring unit that measures the area obtained by integrating the modulation transfer function of an aerial image captured by an imaging device on the spatial frequency axis.
  • the optical axis direction measurement system includes the above-described resolution measurement device, The measurement unit measures the optical axis direction of the aerial image based on an area of the modulation transfer function of each of the captured images acquired by imaging a plurality of imaging locations within an imaging plane of the aerial image.
  • the optical axis direction measurement method disclosed herein is an optical axis direction measurement method for measuring the optical axis direction of an aerial image in an aerial image display device that forms an aerial image of a real image using image light emitted from an image display unit, Taking the aerial image;
  • the modulation transfer function of each captured image obtained by imaging multiple imaging locations of the aerial image is integrated on the spatial frequency axis to measure the area, and the optical axis direction of the aerial image is measured based on the areas of the multiple modulation transfer functions.
  • the program disclosed herein is a program executed by an optical axis direction measurement system including an aerial image display device that forms an image light emitted from an image display unit as a real aerial image, an imaging device that captures the aerial image, and a measurement unit,
  • the measurement unit measures the area obtained by integrating the modulation transfer function of each image obtained by imaging multiple imaging locations of the aerial image over the spatial frequency axis, and measures the optical axis direction of the aerial image based on the areas of the multiple modulation transfer functions.
  • the pass/fail judgment system of the present disclosure includes the optical axis direction measurement system described above,
  • the device is equipped with a judgment unit that measures the deviation between the optical axis direction of the aerial image measured by the measurement unit and a predetermined optical axis direction in an aerial image display device that forms the aerial image, and judges the aerial image display device to be an acceptable product if the deviation is less than a third predetermined value.
  • the optical axis measuring device includes: an acquisition unit that acquires each captured image of a plurality of imaging portions within an imaging plane of an aerial image; and a measurement unit that measures the optical axis direction of the aerial image based on an area obtained by integrating the modulation transfer function of each of the captured images on a spatial frequency axis.
  • the optical axis measuring device of the present disclosure includes an imaging unit that captures an aerial image of a real image formed in space, The device is equipped with a measurement unit that measures the optical axis direction of the aerial image based on the area obtained by integrating the modulation transfer functions of the multiple captured images on the spatial frequency axis, as the resolution of the captured images of the multiple imaging locations within the imaging plane of the aerial image.
  • FIG. 1 is a perspective view showing an optical axis measurement system according to an embodiment of the present disclosure.
  • 2 is a cross-sectional view showing a configuration of an aerial image display device in the optical axis direction measurement system of FIG. 1.
  • 1 is a partially enlarged view showing an example of a test pattern for measuring the direction of the optical axis of an aerial image formed by an aerial image display device.
  • FIG. 1 is a partially enlarged view showing an image of a test pattern captured by an imaging device.
  • FIG. 1 is a partially enlarged view showing an image of a test pattern captured by an imaging device.
  • FIG. 1 is a partially enlarged view showing an image of a test pattern captured by an imaging device.
  • FIG. 6 is a graph showing a line spread function of a luminance distribution waveform calculated from the captured image of FIG. 5 .
  • 7 is a graph showing the modulation transfer function (MTF) calculated from the line spread function of FIG. 6.
  • 13A to 13C are diagrams showing other examples of the test pattern for measuring the direction of the optical axis of an aerial image formed by the aerial image display device.
  • FIG. 2 is a diagram showing a captured image of a test pattern captured by an imaging device.
  • 11A and 11B are side views illustrating a defocus operation for the imaging apparatus.
  • 1 is a partial enlarged view showing an example of a captured image of a test pattern captured by an imaging device;
  • 1 is a partial enlarged view showing an example of a captured image of a test pattern captured by an imaging device;
  • FIG. 2 is a diagram showing an example of a captured image of a test pattern captured by an imaging device.
  • 1 is a graph showing the focal position of each imaging region.
  • FIG. 13 is a diagram for explaining the optical axis deviation corresponding to the graph in FIG. 12 .
  • 1 is a graph showing the focal position of each imaging region.
  • FIG. 15 is a diagram for explaining the optical axis deviation corresponding to the graph in FIG. 14 .
  • 1A and 1B are diagrams illustrating a rotation operation for the imaging device.
  • 1 is a perspective view showing a pass/fail determination system according to an embodiment of the present disclosure.
  • 11 is a flowchart illustrating an example of the operation of the pass/fail determination system.
  • 13 is a flowchart illustrating another example of the operation of the pass/fail determination system.
  • 13 is a graph showing a case where the line spread function of the luminance distribution waveform is corrected.
  • 13 is a graph showing a case where the line spread function of the luminance distribution waveform is corrected.
  • FIG. 13 is a plan view of a main part when correcting a line spread function of a luminance distribution waveform.
  • FIG. 13 is a plan view of a main part when correcting a line spread function of a luminance distribution waveform.
  • Patent Document 1 discloses an aerial image display device that is configured to adjust the pixel arrangement of the display panel or the input image signal input to the display panel based on the modulation transfer function (MTF) value for the spatial frequency of the imaging element in order to allow the user of the aerial image display device to view a good aerial image.
  • MTF modulation transfer function
  • Conventional aerial image display devices do not have a configuration for measuring whether the aerial image formed in space is accurately oriented toward the user, nor a configuration for controlling the optical axis direction of the aerial image.
  • the user may not be able to properly view the aerial image if the optical axis direction of the aerial image is not accurately oriented toward the user, or if the optical axis direction of the aerial image deviates from the optical axis direction designed for the aerial image display device.
  • There is a demand for an optical axis measurement system that can measure the optical axis direction of an aerial image formed by an aerial image display device and calibrate the optical axis direction of the aerial image.
  • the drawings referred to below are schematic. The dimensional ratios and the like in the drawings do not necessarily correspond to the actual ones.
  • a Cartesian coordinate system XYZ is defined in some of the drawings.
  • the X-axis direction is also referred to as the first direction or height direction.
  • the Y-axis direction is also referred to as the second direction or width direction (horizontal direction, lateral direction).
  • the Z-axis direction is also referred to as the third direction or depth direction.
  • FIGS. 1 to 23 are various diagrams and graphs for explaining embodiments of the present disclosure. Note that in FIGS. 3 to 5, 8, 9, 11A, 11B, and 11C, the second band image is shown at a brightness higher than the actual brightness for ease of illustration.
  • an optical axis direction measurement system 1 includes an aerial image display device 2, an imaging device 7 such as a camera, and a measurement unit 8.
  • the optical axis direction measurement system 1 may include an apparatus stand 10.
  • the aerial image display device 2 and the imaging device 7 may be positioned on the apparatus stand 10.
  • the aerial image display device 2 includes an image display unit 3, and forms the image light Lp emitted from the image display unit 3 into a real aerial image R.
  • the optical axis direction measurement system 1 of the present disclosure includes a resolution measurement device described later.
  • the resolution measurement device includes a measurement unit 8, which is configured to detect the optical axis direction Da of the aerial image R based on the area of the modulation transfer function of each captured image acquired by capturing multiple imaging sites within the imaging plane (also called the virtual imaging plane) Rp of the aerial image R.
  • the optical axis direction measurement system 1 may also include an aerial image display device 2 that captures the image light Lp emitted from at least one image display unit 3 (shown in FIG.
  • the optical axis direction measurement system 1 may have multiple image display units 3.
  • the aerial image display device 2 can form multiple aerial images R in space.
  • the optical axis direction measurement system 1 may be configured to include an imaging device 7 that captures multiple aerial images R, and a measurement unit 8 that measures the optical axis direction Da of each aerial image R based on each captured image acquired by capturing multiple imaging locations within the imaging plane Rp of each aerial image R.
  • the multiple image display units 3 may be two or more and five or less image display units 3, but are not limited to this range.
  • one of the multiple image display units 3 may be used for the purpose of measuring the optical axis direction Da of the aerial image R.
  • “measuring the optical axis direction Da of the aerial image R based on each captured image” means comparing the image characteristic values of the aerial image R, such as the brightness, resolution (e.g., contrast value), and distortion of each captured image, for each captured image, and more specifically, calculating for each captured image whether the values of those characteristics are above or below a predetermined threshold value, or whether the difference between the values of those characteristics is below a predetermined threshold value.
  • the resolution measuring device of the present disclosure is configured to include a measuring unit that measures the area obtained by integrating the modulation transfer function of the captured image of the aerial image R captured by the imaging device 7 on the spatial frequency axis.
  • the resolution measuring device of the present disclosure may also include an aerial image display device 2 that forms the image light Lp emitted from the image display unit 3 as a real aerial image R, an imaging device 7 that captures the aerial image R, and a measuring unit 8 that measures the area obtained by integrating the modulation transfer function MTF of the captured image on the spatial frequency axis (shown in FIG. 7) as the resolution of the captured image obtained by capturing the aerial image R.
  • This configuration provides the following effects.
  • the area of the MTF is numerically 10 to 20 times larger than the line spread function of the luminance distribution waveform (an example is shown in FIG. 6) and the value of the MTF (hereinafter, also simply referred to as the MTF value).
  • the spatial frequency is 6 and the MTF value is about 0.4, but the area of the MTF is about 8 (about 20 times the MTF value). Therefore, if the MTF area is used as an index for comparing high and low resolution, it is possible to compare high and low resolution with high accuracy.
  • the resolution measurement device disclosed herein does not need to include optical axis detection means such as the moving device 11, first rotating device 12, and second rotating device 13 described below for detecting the optical axis direction Da and the design optical axis direction Dad of the aerial image R.
  • bias in display quality such as brightness and resolution may occur on the imaging plane Rp of the aerial image R.
  • the optical axis direction measurement system 1 disclosed herein can suppress bias in display quality such as brightness and resolution on the imaging plane Rp of the aerial image R.
  • the aerial image display device 2 may have a housing 6, in which case, as shown in FIG. 2, components 2a of the aerial image display device 2, such as the image display unit 3 and the optical system 5, are housed in the housing 6.
  • the components 2a may include heat dissipation components such as a circuit board, wiring, cables, and a heat sink, a frame-shaped holding member that holds the first optical member 5a, a frame-shaped holding member that holds the second optical member 5b, adjustment members that adjust the angle and position of the first optical member 5a, and adjustment members that adjust the angle and position of the second optical member 5b.
  • the housing 6 may be made of resin, metal, or ceramic.
  • the image display unit 3 includes a display panel 4.
  • the display panel 4 has a display surface 4a, and displays an image that is formed as an aerial image R on the display surface 4a. That is, the display panel 4 emits image light Lp that is formed as an aerial image R from the display surface 4a.
  • a transmissive display panel or a self-luminous display panel may be used as the display panel 4.
  • the image display unit 3 may include an illuminator such as a backlight.
  • the image display unit 3 does not need to include an illuminator.
  • the transmissive display panel may include a liquid crystal panel.
  • the transmissive display panel may have a known liquid crystal panel configuration.
  • various liquid crystal panels such as IPS (In-Plane Switching) type, FFS (Fringe Field Switching) type, VA (Vertical Alignment) type, and ECB (Electrically Controlled Birefringence) type may be adopted.
  • the transmissive display panel includes MEMS (Micro Electro Mechanical Systems) shutter type display panels.
  • the self-luminous display panel may include a plurality of self-luminous elements.
  • various self-luminous elements such as LEDs (Light Emitting Diodes), organic EL (Organic Electro Luminescence), and inorganic EL (Inorganic Electro Luminescence) may be adopted.
  • the aerial image display device 2 may include an optical system 5.
  • the optical system 5 forms the image light Lp emitted from the display surface 4a of the display panel 4 as a real aerial image R.
  • the optical system 5 may be composed of a first optical member 5a and a second optical member 5b.
  • the first optical member 5a reflects the image light Lp emitted from the image display unit 3 in a direction different from the direction toward the image display unit 3.
  • the second optical member 5b reflects the image light Lp reflected by the first optical member 5a in a direction different from the direction toward the first optical member 5a, and forms the image in space as a real aerial image R.
  • the first optical member 5a and the second optical member 5b may be concave mirrors.
  • the first optical member 5a and the second optical member 5b may be spherical concave mirrors, aspherical concave mirrors, or free-form concave mirrors.
  • the optical system 5 may be composed of a first optical member 5a, a second optical member 5b, and a third optical member (not shown).
  • the first optical member 5a reflects the image light Lp emitted from the image display unit 3 in a direction different from the direction toward the image display unit 3.
  • the third optical member reflects the image light Lp reflected by the first optical member 5a in a direction different from the direction toward the first optical member 5a.
  • the second optical member 5b reflects the image light Lp reflected by the third optical member in a direction different from the direction toward the third optical member, and forms an image in space as a real aerial image R.
  • the third optical member may be a convex mirror.
  • the third optical member may be a spherical convex mirror, an aspherical convex mirror, or a free-form convex mirror.
  • At least a portion of the housing 6 facing the imaging device 7 is configured as an image light exit surface 6a.
  • Image light Lp that is focused as an aerial image R is emitted from inside the housing 6 to outside the housing 6 via the image light exit surface 6a.
  • the image light exit surface 6a may be configured to include, for example, a light-shielding film or light-shielding glass. In this case, when using the aerial image display device 2, it becomes difficult for the user 20 to see the components 2a of the aerial image display device 2, thereby improving the visibility of the aerial image R.
  • the aerial image display device 2 is designed so that the optical axis direction Da of the aerial image R coincides with the depth direction (Z-axis direction) as viewed from the user 20. However, due to manufacturing tolerances, positioning errors, etc. of each component 2a of the aerial image display device 2, a deviation (hereinafter also referred to as optical axis deviation) may occur between the actual optical axis direction Da of the aerial image R actually formed by the aerial image display device 2 and the predetermined optical axis direction Dad of the aerial image display device 2.
  • the predetermined optical axis direction Dad of the aerial image display device 2 is the designed optical axis direction of the aerial image R formed by the aerial image display device 2, and is also referred to as the designed optical axis direction Dad.
  • the designed optical axis direction (also referred to as the initial setting optical axis direction) may be, for example, a direction perpendicular to the width direction (lateral direction, horizontal direction) of the housing 6 as viewed from the user 20, or a direction perpendicular to the image light emission surface 6a.
  • the aerial image display device 2 is placed on the device stand 10 so that the designed optical axis direction Dad coincides with the depth direction.
  • the optical axis direction Da of the aerial image R may be a direction perpendicular to the virtual imaging plane Rp.
  • the virtual imaging plane Rp is a virtual plane on which the aerial image R is formed in space.
  • the imaging device 7 is located in the direction of the front of the aerial image display device 2. That is, the imaging device 7 is disposed so as to be located away from the aerial image display device 2 in the design optical axis direction (depth direction) Dad of the aerial image display device 2.
  • the imaging device 7 may capture the aerial image R in a predetermined imaging direction 7da.
  • the predetermined imaging direction 7da may coincide with the design optical axis direction Dad of the aerial image display device 2.
  • the imaging direction 7d of the imaging device 7 is not limited to the predetermined imaging direction 7da.
  • the measurement unit 8 may control the first rotation device 12 to rotate the imaging device 7 around a predetermined rotation axis. That is, the measurement unit 8 may control the imaging device 7 to capture the aerial image R in a direction different from the depth direction.
  • the imaging device 7 may be configured to include multiple imaging elements.
  • the imaging elements may be, for example, a CCD (Charge Coupled Device) imaging element or a CMOS (Complementary Metal Oxide Semiconductor) imaging element.
  • the imaging device 7 may be a camera (for example, a CCD camera) that includes an imaging element and an optical device such as an objective lens.
  • the imaging device 7 may be capable of changing the aperture value (also called the F-number). For example, the imaging device 7 may be capable of changing the aperture value within a range of 2 to 22.
  • the imaging device 7 shown in FIG. 1 may be positioned at an incline with respect to the upper surface 10a of the device stand 10. That is, the height direction of the imaging device 7 (e.g., a direction perpendicular to the upper surface of the imaging device 7) may be inclined by about 3° to 5° around a rotation axis parallel to the depth direction (Z-axis direction). This makes it possible to increase the number of samples when measuring the optical axis direction Da of the aerial image R, and to measure the optical axis direction Da of the aerial image R with high accuracy.
  • the optical axis direction measurement system 1 includes a measurement unit 8.
  • the measurement unit 8 may function as a control unit and a calculation processing unit of the optical axis direction measurement system 1, as described later.
  • the optical axis direction measurement system 1 may also include an acquisition unit 14.
  • the acquisition unit 14 may function as a storage device for image data, as described later.
  • the measurement unit 8 and the acquisition unit 14 may be included in the measurement device 18 (shown in FIG. 1).
  • the measurement device 18 may be included in a calculation device such as a personal computer (PC) device, or may be included in the imaging device 7.
  • the measurement device 18 may also be a circuit board device including a control circuit unit and a calculation processing circuit unit.
  • the method of transmitting and receiving signals between the measurement device 18 and the imaging device 7, the method of transmitting and receiving signals between the acquisition unit 14 and the imaging device 7, and the method of transmitting and receiving signals between the acquisition unit 14 and the measurement unit 8 may use at least one of a wired communication method, a wireless communication method, and an infrared communication method.
  • the imaging device 7 may have only an imaging function without including the measurement unit 8.
  • the imaging device 7 may be a portable communication device such as a smartphone, and the imaging unit may be a camera attached to the portable communication device.
  • the imaging device 7 may also be a portable communication device such as a smartphone, and the imaging device 7 may include the measurement unit 8.
  • the measurement unit 8 may be application software stored in the imaging device 7.
  • the measuring unit 8 can function as a control unit of the optical axis direction measurement system 1. That is, the measuring unit 8 can be connected to each component of the optical axis direction measurement system 1 and control each component.
  • the measuring unit 8 can include one or more processors.
  • the processor can include at least one of a general-purpose processor configured to load a specific program and execute a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor can include an ASIC (Application Specific Integrated Circuit).
  • the processor can include a PLD (Programmable Logic Device).
  • the PLD can include an FPGA (Field-Programmable Gate Array).
  • the measuring unit 8 can include at least one of a SoC (System-on-a-Chip) and a SiP (System In a Package) configured to cooperate with one or more processors.
  • the measurement unit 8 may have a calculation unit that performs calculation processing of characteristic values based on image data of a captured image such as a test pattern of the aerial image R in order for the aerial image display device 2 to measure the optical axis direction Da of the aerial image R. That is, when the imaging device 7 generates a plurality of captured images by capturing a plurality of imaging parts in the imaging plane of the test pattern, the measurement unit 8 acquires image data of each captured image. This acquisition control may be performed via the acquisition unit 14 (shown in FIG. 1).
  • the acquisition unit 14 may be a temporary storage device such as a buffer memory. For example, when the imaging device 7 generates a plurality of captured images, the image data of each captured image may be automatically output to the acquisition unit 14.
  • the image data may be output from the imaging device 7 to the acquisition unit 14.
  • the measurement unit 8 acquires image data of each captured image from the imaging device 7, performs calculation processing based on the image data, and measures the optical axis direction of the test pattern.
  • the optical axis direction measurement system 1 can systematically measure the optical axis direction Da of the aerial image R formed by the aerial image display device 2. That is, the sequence of operations is as follows: a test pattern of the aerial image R is captured by the imaging device 7, image data of the captured image captured by the imaging device 7 is output to the measurement unit 8, and the measurement unit 8 calculates and processes the characteristic values of the captured image based on the image data to detect the optical axis direction Da of the aerial image R. Therefore, this sequence of operations can be automated into a system. In addition, it is possible to calibrate the optical axis direction Da of the aerial image R formed by the aerial image display device 2 based on the detected optical axis direction Da of the aerial image R.
  • the aerial image display device 2 may be an aerial image display device capable of forming an aerial image R, and does not have to be an aerial image display device as shown in FIG. 2.
  • the aerial image display device 2 may be, for example, an aerial image display device configured to form an aerial image R using optical elements such as a retroreflector and a polarizing filter using the image light Lp emitted from the image display unit 3, or an aerial image display device having another configuration.
  • the test pattern 9 for detecting the optical axis direction Da of the aerial image R may be a repeated pattern of a first band-shaped image 9a and a second band-shaped image 9b, as shown in FIG. 3.
  • FIG. 3 shows an ideal test pattern 9 without blurring (resolution degradation) and optical axis misalignment.
  • the first band-shaped image 9a and the second band-shaped image 9b may be elongated images in a direction substantially perpendicular to the width direction (Y-axis direction) in the imaging plane.
  • the aerial image 9 may include at least three first band-shaped images 9a.
  • first band-shaped image 9a is a white image and the second band-shaped image 9b is a black image, but this is not limited to this.
  • the first band-shaped image 9a and the second band-shaped image 9b may differ in at least one of brightness and color.
  • Figure 4 shows an example of an overall image of the aerial image 9 captured by the imaging device 7.
  • the multiple imaging parts captured by the imaging device 7 include imaging parts F3, F4, and F5 shown in Figure 4.
  • the imaging part F4 may be located near the center of the imaging plane Rp (X-axis direction and Y-axis direction) of the aerial image 9.
  • the imaging parts F3, F4, and F5 may be arranged in a predetermined direction (e.g., Y-axis direction) in the imaging plane Rp of the aerial image 9.
  • the predetermined direction may be, but is not limited to, the Y-axis direction (width direction).
  • the predetermined direction may be the X-axis direction (up-down direction, height direction), or may be a direction inclined from the X-axis direction and Y-axis direction (diagonal direction).
  • the imaging parts F3, F4, and F5 are arranged in the Y-axis direction (width direction) in the imaging plane Rp of the aerial image 9.
  • the multiple imaging sites may include imaging sites F1, F2, F6, and F7 shown in FIG. 4 in addition to imaging sites F3, F4, and F5.
  • the aerial image 9 is configured so that each of the multiple captured images P1, ..., P7 includes at least one image of the first strip-shaped image 9a (white image portion in Figure 4).
  • the captured images P1, ..., P7 refer to images captured at the imaging locations F1, ..., F7, respectively.
  • the aerial image 9 may be configured so that each of the multiple captured images P1, ..., P7 includes an image of one first strip-shaped image 9a.
  • the processing of each captured image P3, P4, P5 is simplified, and the optical axis direction Da of the aerial image 9 can be measured with high accuracy.
  • Figure 5 shows the captured image P3, it is also shown that the captured images P4 and P5 are similar to the captured image P3.
  • the distance between the imaging device 7 and the aerial image 9 in the depth direction may be set to a predetermined imaging distance (also referred to as the initial setting distance).
  • the initial setting distance may be, for example, 300 mm to 700 mm, or 500 mm.
  • the distance between the imaging device 7 and the aerial image 9 may be the distance between the imaging device 7 and the vicinity of the center of the aerial image 9 (for example, the imaging part F4).
  • the focal length of the imaging device 7 is fixed to a predetermined focal length.
  • the predetermined focal length may be the same as the initial setting distance. In the following, unless otherwise specified, the distance between the imaging device 7 and the aerial image 9 is set to the initial setting distance.
  • the measurement unit 8 may control the moving device 11 to change the distance between the imaging device 7 and the aerial image 9 from the initial setting distance. That is, the measurement unit 8 may perform a defocus operation to make the distance between the imaging device 7 and the aerial image 9 and the focal length of the imaging device 7 different.
  • the measurement unit 8 may control the imaging device 7 to set the aperture value to 3 or less (e.g., 2.3).
  • the aperture value of the imaging device 7 By setting the aperture value of the imaging device 7 to a relatively small value, the depth of field (also called the focal depth of field) of the imaging device 7 can be made shallow (shortened). In other words, the range in which the subject is in focus in the depth direction can be made small (narrowed).
  • the position of the subject i.e., the multiple imaging portions F3, F4, F5 in the depth direction can be detected with high accuracy, and the optical axis direction Da of the aerial image 9 can be measured with high accuracy.
  • the aperture value When the aperture value is set to 3 or less, it may be set to 3 or less, exceeding the maximum aperture (e.g., 1.4 to 1.8).
  • the optical axis direction measurement system 1 may include a moving device 11 that moves the imaging device 7 along the depth direction (Z-axis direction).
  • the moving device 11 is configured to be able to move the imaging device 7 in units of a predetermined distance ⁇ Z.
  • the predetermined distance ⁇ Z may be, for example, about 1 mm to 5 mm, or about 1 mm to 2 mm.
  • the moving device 11 includes, for example, a rail 11r, a holding member (also called a support member) 11h, and a moving table (also called a slider) 11t on whose upper surface the holding member 11h is installed.
  • the rail 11r is located on the upper surface 10a of the device table 10 and extends along the depth direction.
  • the holding member 11h supports and holds the imaging device 7. With the holding member 11h holding the imaging device 7, the moving table 11t can move along the depth direction on the rail 11r.
  • the movement of the moving table 11t along the depth direction may be controlled by the measurement unit 8.
  • the optical axis direction measurement system 1 may include a first rotation device 12 that rotates the imaging device 7 around a first rotation axis A1.
  • the first rotation axis A1 may be parallel to a direction (e.g., X-axis direction) perpendicular to a predetermined direction (e.g., Y-axis direction) in which the multiple imaging portions F3, F4, and F5 are arranged in the imaging plane Rp.
  • the first rotation axis A1 may be a rotation axis passing through the imaging device 7.
  • the first rotation device 12 is configured to rotate the imaging device 7 in units of a predetermined angle ⁇ .
  • the predetermined angle ⁇ may be, for example, about 0.1° to 2.0°, or about 0.5° to 1°.
  • the first rotation device 12 may be provided in the moving device 11.
  • the first rotation device 12 may be installed between the moving table 11t and the holding member 11h.
  • the first rotation device 12 may rotate the holding member 11h of the moving device 11 and the imaging device 7 held by the holding member about the first rotation axis A1.
  • the first rotation device 12 may rotate only the imaging device 7 about the first rotation axis A1 without rotating the holding member 11h of the moving device 11.
  • the rotation of the imaging device 7 about the first rotation axis A1 is controlled by the measurement unit 8.
  • the first rotation device 12 may be a manual rotation device equipped with a stepping motor device, a linear motor device, an ultrasonic motor device, a manually rotated knob, a rotation adjustment device such as a screw, or the like.
  • the optical axis direction measurement system 1 may include a second rotation device 13 that rotates the aerial image display device 2 around the second rotation axis A2.
  • the second rotation axis A2 may be parallel to a direction (e.g., the X-axis direction) perpendicular to a predetermined direction in which the imaging portions F3, F4, and F5 are arranged in the image plane Rp.
  • the second rotation device 13 may rotate the entire component 2a (image display unit 3 and optical system 5) around the second rotation axis A2 within the housing 6. In other words, the second rotation device 13 may rotate only the entire component 2a around the second rotation axis A2 without rotating the housing 6.
  • the rotation of the aerial image display device 2 or the entire component 2a around the second rotation axis A2 is controlled by the measurement unit 8.
  • the imaging direction 7d of the imaging device 7 may be the optical axis direction (also called the central axis direction) of the objective lens of the camera, or may be a direction perpendicular to the imaging surface of a CCD imaging element or the like.
  • the imaging direction 7d of the imaging device 7 may also be assumed to be the line of sight of the eye 20e of the user 20 facing the aerial image display device 2.
  • the aerial image display device 2 faces the imaging device 7. Then, if the actual optical axis direction Da of the aerial image 9 does not coincide with the imaging direction 7d of the imaging device 7 (if the actual optical axis direction Da is misaligned with the imaging direction 7d), the amount of misalignment between the optical axis direction Da and the imaging direction 7d can be measured by a method (defocus method) of translating the imaging device 7 forward and backward in the depth direction, which will be described later, and the optical axis direction Da can be measured. In addition, by rotating the imaging device 7 around the first rotation axis A1 to align the imaging direction 7d with the optical axis direction Da, the optical axis direction Da can be measured and the aerial image display device 2 can be accurately faced toward the imaging device 7.
  • a method defocus method
  • the positional deviation between the actual optical axis direction Da and the imaging direction 7d may exist only in the height direction (X-axis direction), only in the width direction (Y-axis direction), or in both the height direction (X-axis direction) and the width direction (Y-axis direction). In each case, the positional deviation can be detected and adjustments can be made to eliminate the positional deviation.
  • the aerial image display device 2 When measuring whether the actual optical axis direction Da of the aerial image 9 coincides with the design optical axis direction Dad (shown in FIG. 2) of the aerial image display device 2, the aerial image display device 2 is accurately positioned at a predetermined position directly facing the imaging device 7.
  • the aerial image display device 2 may be positioned so that the image light emission surface 6a of the aerial image display device 2 is perpendicular to the imaging direction 7d of the imaging device 7.
  • the imaging direction 7d is a predetermined imaging direction 7da (imaging direction 7da that coincides with the design optical axis direction Dad).
  • the amount of deviation between the optical axis direction Da and the imaging direction 7da is not measured, and if there is a positional deviation between the actual optical axis direction Da and the design optical axis direction Dad, the amount of deviation between the optical axis direction Da and the imaging direction 7da is measured by a method (defocus method) of moving the imaging device 7 back and forth in the depth direction in parallel, which will be described later.
  • the optical axis direction Da and the design optical axis direction Dad may be aligned by adjusting the arrangement of the components 2a of the aerial image display device 2, replacing the components 2a, etc.
  • the positional deviation between the actual optical axis direction Da and the design optical axis direction Dad may exist only in the height direction (X-axis direction), only in the width direction (Y-axis direction), or in both the height direction (X-axis direction) and the width direction (Y-axis direction). In each case, the positional deviation can be detected and adjustments can be made to eliminate the positional deviation.
  • the optical axis direction measurement system 1 that detects whether the actual optical axis direction Da of the aerial image 9 matches or does not match the designed optical axis direction Dad in a plane perpendicular to the height direction (X-axis direction) based on the image data of the captured images P3, P4, and P5, but is not limited to this.
  • the measurement unit 8 acquires image data of a plurality of captured images P3, P4, and P5 arranged in the Y-axis direction in the imaging plane Rp of the aerial image 9 from the imaging device 7.
  • the measurement unit 8 scans the luminance values of the pixels arranged in the width direction (left and right direction in FIG. 5) for each captured image P3 to P5, performs binning processing, and calculates the luminance distribution waveforms LSF3, LSF4, and LSF5 as shown in FIG. 6.
  • the luminance distribution waveform is a pulse-like waveform that represents the change in luminance depending on the position in the Y-axis direction.
  • the horizontal axis of FIG. 6 represents the change in position in the Y-axis direction.
  • FIG. 6 shows the maximum value (peak value) of the luminance distribution waveform at the position of the 30th pixel among a plurality of pixels (for example, 60 pixels) in the Y-axis direction.
  • the luminance distribution waveforms LSF1, ..., LSF7 respectively refer to the luminance distribution waveforms calculated from the captured images P1, ..., and P7.
  • the luminance distribution waveform is also called a line spread function (LSF).
  • LSF line spread function
  • the line spread functions LSF3 to LSF5 have a substantially Gaussian shape as shown in Fig. 6.
  • the measurement method of the optical axis direction based on the characteristic values of the LSF is also referred to as the LSF method. Note that "to" means "through”, and the same applies below.
  • the measurement unit 8 calculates the characteristic values V3, V4, and V5 of the line spread functions LSF3 to LSF5.
  • the characteristic values V1, ..., V7 refer to the characteristic values of the line spread functions LSF1, ..., LSF7, respectively.
  • the characteristic value may be the peak value H of the line spread function or the half-width W of the line spread function.
  • the peak value H is the maximum value of the line spread function. For example, the larger the peak value H of the line spread function LSF4, the closer the distance between the imaging part F4 and the imaging device 7 is to the focal length of the imaging device 7. The same is true for the peak value H of the line spread functions LSF3 and LSF5.
  • the half-width W is the width of the line spread function having a brightness of approximately 50% of the peak value H, and is expressed in units of the number of pixels. For example, the smaller the half-width W of the line spread function LSF4, the closer the distance between the imaging part F4 and the imaging device 7 is to the focal length of the imaging device 7. The same applies to the half-width W of the line spread functions LSF3 and LSF5.
  • the characteristic value may be a combination value obtained from the peak value H and the half-width W.
  • the combination value may be a value obtained by dividing the peak value H by the half-width W, or may be some other value.
  • the characteristic value is a combination value obtained by dividing the peak value H by the half-width W, it can be determined that the greater the combination value of the line spread function LSF4, the closer the distance between the imaging portion F4 and the imaging device 7 is to the focal length of the imaging device 7. The same applies to the combination values of the line spread functions LSF3 and LSF5.
  • the half width of the line spread function LSF is an index that indicates the degree of spread of a pulse-like (mountain-shaped) function.
  • FWHM full width at half maximum
  • HWHM half width at half maximum
  • the half width refers to the full width at half maximum. Therefore, in this disclosure, unless otherwise specified, the half width means the full width at half maximum.
  • the half width is a numerical value that indicates the spread of the distribution that decreases monotonically around the peak value H in the luminance distribution waveform shown in FIG. 6, and is the distance between the positions indicated by half the value of the peak value H on both sides of the peak value H.
  • the measurement unit 8 may calculate multiple differences between the multiple characteristic values V3 to V5 (i.e., V3-V4, V3-V5, and V4-V5), and may determine that the actual optical axis direction Da of the aerial image 9 coincides with the depth direction (design optical axis direction Dad) if all of the absolute values of the multiple differences are equal to or less than a threshold value T1 (also called the first predetermined value T1 in the LSF method).
  • T1 also called the first predetermined value T1 in the LSF method.
  • the measurement unit 8 may determine that the optical axis direction Da of the aerial image 9 does not coincide with the depth direction if at least one of the absolute values of the multiple differences exceeds the threshold value T1.
  • the threshold value T1 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the characteristic value is the peak value H of the line spread function (a value in the range of 0 to 1.0 as shown in FIG. 6), and the absolute value of the difference between the multiple characteristic values is equal to or less than a threshold value T1 (e.g., 0.2), it may be determined that the optical axis direction Da of the aerial image 9 coincides with the depth direction.
  • a threshold value T1 e.g., 0.2
  • the threshold value T1 may be, but is not limited to, 0.15 (15%), 0.1 (10%), 0.05 (5%), or 0.03 (3%).
  • the measurement unit 8 may determine that the optical axis direction Da of the aerial image 9 coincides with the depth direction when all of the characteristic values V3 to V5 are equal to or greater than the threshold value T2 (also referred to as the second predetermined value T2 in the LSF method).
  • the threshold value T2 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the characteristic value is the peak value H of the line spread function (a value in the range of 0 to 1.0 as shown in FIG. 6), and all of the multiple characteristic values are equal to or greater than a threshold value T2 (e.g., 0.7), it may be determined that the optical axis direction Da of the aerial image 9 coincides with the depth direction.
  • a threshold value T2 e.g., 0.7
  • the threshold value T2 may be 0.8 (80%) or 0.9 (90%), but is not limited to these values.
  • the measurement unit 8 may determine that the optical axis direction Da of the aerial image 9 coincides with the depth direction when all of the characteristic values V3 to V5 are equal to or less than the threshold value T3 (also referred to as the second predetermined value T3 in the LSF method).
  • the threshold value T3 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the characteristic value is the half-width W
  • a threshold value T3 e.g., the number of pixels is 5
  • the number of pixels as the threshold value T3 may be 4, 3, 2, or 1, but is not limited to these values.
  • the optical axis direction measurement system 1 can systematically measure whether the actual optical axis direction Da of the aerial image 9 coincides with the design optical axis direction Dad based on the characteristic values V3 to V5 of the line spread functions LSF3 to LSF5. Therefore, the optical axis direction measurement system 1 makes it possible to calibrate the optical axis direction Da of the aerial image R formed by the aerial image display device 2. That is, in order to match the actual optical axis direction Da with the design optical axis direction Dad, measures such as adjusting the arrangement of at least some of the components 2a of the aerial image display device 2 or replacing at least some of the components 2a can be adopted.
  • the optical axis direction measurement system 1 can determine whether the actual optical axis direction Da of the aerial image 9 coincides with the imaging direction 7d and whether the actual optical axis direction Da of the aerial image 9 coincides with the design optical axis direction Dad based on the area of the modulation transfer function (MTF).
  • MTF modulation transfer function
  • the operation of the optical axis direction measurement system 1 that determines whether the actual optical axis direction Da of the aerial image 9 coincides with the design optical axis direction Dad based on the area of the MTF will be described.
  • the measurement method of the optical axis direction Da based on the area of the MTF is also called the MTF area method.
  • the area of the MTF is indicated by the area of the MTF represented by the solid line (hatched area) in the graph of FIG. 7.
  • the area of the MTF of the imaging part (the area of the MTF represented by the dashed line in the graph of FIG. 7) will be reduced from the upper limit value (the area of the MTF represented by the solid line in the graph of FIG. 7).
  • the area of the MTF changes depending on the aperture value of the imaging device 7, so it does not have a specific value in general, but for example, in the example of FIG. 7, the upper limit (ideal value) is about 6 to 7.
  • the measurement unit 8 calculates modulation transfer functions MTF3, MTF4, and MTF5 by Fourier transforming each of the line spread functions LSF3 to LSF5 calculated from the captured images P3 to P5, as shown in the following formula (1).
  • the Fourier transform is an operation for converting, for example, a function represented by a pulse-like waveform into a curve represented by continuous values in the frequency domain (a continuous curve represented by a sine waveform curve, a cosine waveform curve, or a composite curve of these).
  • LSF(x) collectively represents the line spread functions LSF3 to LSF5 as a function of the position x in the captured images P3 to P5
  • MTF( ⁇ ) collectively represents the modulation transfer functions MTF3 to MTF5 as a function of the spatial frequency ⁇
  • C is a constant for normalizing MTF(0) to "1".
  • FIG. 7 is a graph showing an example of MTF( ⁇ ). It can be said that MTF( ⁇ ) is an index representing the resolution based on the contrast of the captured images P3 to P5.
  • the upper and lower limits of the integral interval in formula (1) may be replaced with finite values (for example, spatial frequency 0 to 18 (1/mm)), in which case it is possible to reduce the processing load on the measurement unit 8.
  • a method such as discrete Fourier transform or fast Fourier transform may be used.
  • the measurement unit 8 measures areas S3 to S5 (hereinafter also referred to as MTF areas) obtained by integrating the modulation transfer functions MTF3 to MTF5 on the spatial frequency axis as expressed by the following formula (2).
  • MTF areas S1, ..., S7 refer to the MTF areas obtained by integrating the modulation transfer functions MTF1, ..., MTF7 with respect to the spatial frequency ⁇ , respectively.
  • the upper limit of the integral interval in formula (2) may be replaced with a finite value (for example, spatial frequency 0 to 18 (1/mm)), in which case the processing load on the measurement unit 8 can be reduced.
  • the modulation transfer functions MTF3 to MTF5 do not have to be calculated by calculating the line spread functions LSF3 to LSF5 from the captured images P3 to P5 and then Fourier transforming the line spread functions LSF3 to LSF5.
  • the modulation transfer functions MTF3 to MTF5 may be calculated directly from the captured images P3 to P5 by the chart method.
  • the measurement unit 8 controls the aerial image display device 2 to form an aerial image 9' (hereinafter also referred to simply as aerial image R) as shown in Figure 8.
  • aerial image R an aerial image 9'
  • Figure 8 shows an ideal aerial image 9' without blurring (resolution degradation) and optical axis misalignment.
  • the aerial image 9' is configured so that each of the imaging portions F3 to F5 includes multiple square wave charts 9c, 9d, 9e, and 9f with different spatial frequencies (pitch of the white image portion), and therefore each of the captured images P3 to P5 includes images of multiple square wave charts 9c to 9f with different spatial frequencies ⁇ , as shown in Figure 9.
  • the measurement unit 8 controls the imaging device 7 to capture the aerial image 9', generate captured images P3 to P5 by capturing the imaging portions F3 to F5, and output image data of the captured images P3 to P5.
  • the imaging device 7 does not need to be inclined with respect to the upper surface 10a of the device stand 10 when capturing the aerial image 9'.
  • the measurement unit 8 normalizes the contrast c ⁇ of each spatial frequency ⁇ with the contrast c ⁇ of the lowest spatial frequency ⁇ to calculate the square wave response function (Square Wave Response Function: SWRF).
  • SWRF Square Wave Response Function
  • the measurement unit 8 converts the square wave response function into a sine wave response function and calculates the modulation transfer functions MTF3 to MTF5.
  • the Coltman's formula may be used. The Coltman's formula may use up to the fourth term or up to the twelfth term.
  • the modulation transfer function MTF does not have to be calculated by calculating the line spread function LSF from the captured image and then performing a Fourier transform on the line spread function LSF.
  • the modulation transfer function MTF may be determined by analyzing the captured image using an image analysis program software that performs image analysis, and comparing the analysis image obtained by the analysis with a reference image stored in a reference table or the like. For example, each reference image corresponds to one MTF value (also called a reference MTF value), and when a certain analysis image matches a certain reference image or when a certain analysis image is most similar to a certain reference image, it may be determined that the MTF value of a certain analysis image is the reference MTF value corresponding to the certain reference image.
  • MTF value also called a reference MTF value
  • the image analysis program software may include artificial intelligence (AI) program software that performs image recognition to analyze captured images and detect and/or extract specific patterns.
  • AI program software may also perform image recognition to directly analyze image data and detect and/or extract specific patterns.
  • the MTF area does not have to be calculated by calculating the line spread function LSF from the captured image and then performing a Fourier transform on the line spread function LSF.
  • the MTF area may be determined by analyzing the captured image using an image analysis program software that performs image analysis, and comparing the analysis image obtained by the analysis with a reference image stored in a reference table or the like. For example, each reference image corresponds to one MTF area (also called a reference MTF value), and when a certain analysis image matches a certain reference image, or when a certain analysis image is most similar to a certain reference image, it may be determined that the MTF area of a certain analysis image is the reference MTF area corresponding to the certain reference image.
  • This determination may be performed, for example, in the measurement unit 8 (shown in Figs. 1 and 17) or the determination unit 15 (shown in Fig. 17). This execution may allow the process of determining the MTF area of a certain analysis image to be performed at high speed.
  • the image analysis program software may include the above-mentioned AI program software.
  • the measurement unit 8 may calculate multiple differences between the multiple MTF areas S3 to S5 (i.e., S3-S4, S3-S5, and S4-S5), and if all of the absolute values of the multiple differences are equal to or less than a threshold value T4 (also referred to as the first predetermined value T4 in the MTF area method), may determine that the actual optical axis direction Da of the aerial image 9' coincides with the depth direction (design optical axis direction Dad). If at least one of the absolute values of the multiple differences exceeds the threshold value T4, the measurement unit 8 may determine that the optical axis direction Da of the aerial image 9' does not coincide with the depth direction.
  • the threshold value T4 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the measurement unit 8 may determine that the actual optical axis direction Da of the aerial image 9' coincides with the depth direction when all of the MTF areas S3 to S5 are equal to or greater than the threshold value T5 (also referred to as the second predetermined value T5 in the MTF area method).
  • the measurement unit 8 may determine that the actual optical axis direction Da of the aerial image 9' does not coincide with the depth direction when at least one of the MTF areas S3 to S5 is less than the threshold value T5.
  • the threshold value T5 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the optical axis direction measurement system 1 can systematically detect whether the actual optical axis direction Da of the aerial image 9' matches the design optical axis direction Dad based on the MTF areas S3 to S5. Because the area of the modulation transfer function MTF is not easily affected by external light, etc., it is possible to accurately detect whether the actual optical axis direction Da of the aerial image 9' matches the design optical axis direction Dad by using the MTF areas S3 to S5. Therefore, the optical axis direction measurement system 1 makes it possible to accurately calibrate the actual optical axis direction Da of the aerial image R formed by the aerial image display device 2.
  • the measurement unit 8 determines that the actual optical axis direction Da of the aerial image 9 does not match the design optical axis direction (depth direction) Dad, it may measure the optical axis shift of the actual optical axis direction Da of the aerial image 9 from the design optical axis direction Dad.
  • the measurement unit 8 may measure the optical axis shift of the actual optical axis direction Da of the aerial image 9 from the design optical axis direction Dad without determining whether the actual optical axis direction Da of the aerial image 9 matches the design optical axis direction Dad.
  • the measurement unit 8 controls the moving device 11 to move the imaging device 7 along the imaging direction (Z-axis direction) 7d as shown in FIG. 10, and position the imaging device 7 at multiple positions with different coordinates (Z coordinates) in the imaging direction 7d.
  • Z0 is the initial coordinate of the imaging device 7 in the imaging direction 7d, and is the Z coordinate of the imaging device 7 when the distance between the imaging device 7 and the aerial image 9 becomes the initial setting distance.
  • ⁇ Z may be, for example, about 0.1 mm to 5 mm, or about 0.2 mm to 2 mm.
  • j is an integer in the range of -m1 ⁇ j ⁇ m2 (m1 and m2 are natural numbers).
  • m1 and m2 may be, for example, natural numbers from 1 to 20, but are not limited to natural numbers from 1 to 20.
  • the measurement unit 8 controls the imaging device 7 to capture an aerial image 9 in the imaging direction 7d from each position represented by Z coordinate Zj (-m1 ⁇ j ⁇ m2).
  • FIG. 11A shows an example of an aerial image 9 captured by the imaging device 7 located at a position where the Z coordinate is Z0
  • FIG. 11B shows an example of an aerial image 9 captured by the imaging device 7 located at a position where the Z coordinate is Zja (ja is a positive integer)
  • FIG. 11C shows an example of an aerial image 9 captured by the imaging device 7 located at a position where the Z coordinate is Zjb (jb is a negative integer). Since the focal length of the imaging device 7 is fixed to the initial setting distance, it can be seen that the blur of the imaging parts F3, F4, and F5 changes as the imaging device 7 moves.
  • the imaging device 7 outputs image data of (m1+m2+1) captured images P3 to P5 for each of the imaging parts F3 to F5 to the measurement unit 8.
  • the measurement unit 8 acquires image data of (m1+m2+1) captured images P3-P5 from the imaging device 7 for each of the imaging sites F3-F5.
  • the measurement unit 8 may acquire image data from the imaging device 7 via the acquisition unit 14.
  • the measurement unit 8 calculates (m1+m2+1) line spread functions LSF3, LSF4, and LSF5 for each of the imaging portions F3 to F5 based on the image data of (m1+m2+1) captured images P3 to P5, and calculates (m1+m2+1) characteristic values V3 to V5.
  • the characteristic values V3 to V5 are the peak values H of the line spread functions LSF3 to LSF5, or a combination value obtained by dividing the peak value H by the half-width W.
  • the measurement unit 8 detects the maximum value VMAX of the (m1+m2+1) characteristic values V3 to V5 for each of the imaging portions F3 to F5, and detects the Z coordinate (hereinafter also referred to as the focusing position) of the imaging device 7 when the characteristic values V3 to V5 become the maximum value VMAX .
  • FIG. 12 is a graph showing the focusing positions FP3 to FP5 of the imaging parts F3 to F5.
  • the focusing positions FP1, ..., FP7 respectively refer to the focusing positions when the characteristic values V1, ..., V7 are the maximum value VMAX .
  • FIG. 12 also shows the focusing positions FP1, FP2, FP6, and FP7 of the imaging parts F1, F2, F6, and F7.
  • the focusing positions FP1, FP2, FP6, and FP7 can be calculated in the same manner as the focusing positions FP3 to FP5.
  • the focusing positions FP3 to FP5 of the imaging parts F3 to F5 are shown with the focusing position FP4 of the imaging part F4 as the reference position (0 mm).
  • FIG. 12 shows the focusing positions FP3 to FP5 of the imaging parts F3 to F5 when the optical axis deviation occurs.
  • the sign of the focal position FP3 (+1.0 mm) of the imaging portion F3 is different from the sign of the focal position FP5 (-0.8 mm) of the imaging portion F5.
  • the measurement unit 8 determines that the optical axis of the aerial image 9 is shifted from the depth direction by an angle ⁇ that satisfies the following formula (3).
  • is the absolute value of the in-focus position FP3
  • is the absolute value of the in-focus position FP5 (see FIG. 12).
  • L is the design length of the aerial image 9 in the width direction (Y-axis direction).
  • the measurement unit 8 determines that the optical axis direction Da of the aerial image 9 is deviated from the design optical axis direction (depth direction) Dad by an angle ⁇
  • the measurement unit 8 controls the second rotation device 13 (shown in FIG. 2), which rotates the entire component 2a of the aerial image display device 2, to rotate the aerial image display device 2 by an angle ⁇ around the second rotation axis A2.
  • This makes it possible to calibrate the optical axis deviation of the aerial image R formed by the aerial image display device 2.
  • the measurement unit 8 controls the second rotation device 13 to rotate the aerial image display device 2 by an angle ⁇ clockwise or counterclockwise when viewed from above the device stand 10.
  • the measurement unit 8 may determine the direction in which to rotate the aerial image display device 2, based on the signs of the focus positions FP3 and FP5, so that the optical axis direction Da of the aerial image 9 is parallel to (i.e., coincides with) the design optical axis direction Dad.
  • the second rotation device 13 may be a manual rotation device equipped with a stepping motor device, a linear motor device, an ultrasonic motor device, a manually rotated knob, a rotation adjustment device such as a screw, etc.
  • Figure 14 shows focus positions FP3 to FP5 of imaging portions F3 to F5 when no optical axis misalignment occurs.
  • Figure 14 also shows focus positions FP1, FP2, FP6, and FP7 of imaging portions F1, F2, F6, and F7.
  • Focus positions FP1, FP2, FP6, and FP7 can be calculated in the same way as focus positions FP3 to FP5.
  • the sign of focus position FP3 (-0.6 mm) of imaging portion F3 and the sign of focus position FP5 (-0.6 mm) of imaging portion F5 are the same, which indicates that no optical axis misalignment occurs (or the optical axis misalignment is reduced), as shown in Figure 15.
  • the measurement unit 8 determines that the actual optical axis direction Da of the aerial image 9 does not deviate from the designed optical axis direction (depth direction) Dad, and there is no need to rotate the component 2a of the aerial image display device 2.
  • the above-described operation of the optical axis direction measurement system 1 is an operation in the case where the peak value H or a combination value obtained by dividing the peak value H by the half-width W is used as the characteristic values V3 to V5 of the line spread functions LSF3 to LSF5.
  • the measurement unit 8 detects the minimum value V MIN of the (m1+m2+1) characteristic values V3 to V5 for each of the imaging sites F3 to F5, and sets the Z coordinate of the imaging device 7 when the characteristic values V3 to V5 become the minimum value V MIN as the focusing positions FP3 to FP5.
  • the minimum value V MIN may be the same as the threshold value T1.
  • the optical axis direction measurement system 1 can systematically measure the optical axis deviation between the actual optical axis direction Da of the aerial image 9 and the design optical axis direction Dad based on the characteristic values V3 to V5 of the line spread functions LSF3 to LSF5 by performing a defocus operation on the imaging device 7. Therefore, the optical axis direction measurement system 1 makes it possible to calibrate the optical axis direction Da of the aerial image R formed by the aerial image display device 2.
  • the measurement unit 8 calculates (m1+m2+1) modulation transfer functions MTF3-MTF5 for each of the imaging portions F3-F5 based on the image data of (m1+m2+1) captured images P3-P5, and measures (m1+m2+1) MTF areas S3-S5.
  • the measurement unit 8 detects the maximum value S MAX of the (m1+m2+1) MTF areas S3-S5 for each of the imaging portions F3-F5, and detects the Z coordinate (focus position FP3-FP5) of the imaging device 7 where the MTF areas S3-S5 are the maximum value S MAX .
  • the measurement unit 8 can measure the optical axis shift (tilt angle ⁇ ) of the aerial image 9 based on the focusing positions FP3 to FP5 where the MTF areas S3 to S5 reach the maximum value S MAX , and calibrate the optical axis shift of the aerial image R formed by the aerial image display device 2.
  • the operation of the optical axis direction measurement system 1 that detects the optical axis shift of the aerial image 9 and calibrates the optical axis shift of the aerial image 9 based on the MTF areas S3 to S5 is similar to the operation of the optical axis direction measurement system 1 that measures the optical axis shift of the aerial image 9 based on the characteristic values V3 to V5 and calibrates the optical axis shift of the aerial image 9, and therefore a detailed description thereof will be omitted.
  • the measurement unit 8 may calculate (m1+m2+1) line spread functions LSF3-LSF5 for each imaging region F3-F5 based on the image data of the (m1+m2+1) captured images P3-P5, and calculate (m1+m2+1) modulation transfer functions MTF3-MTF5 by Fourier transforming the (m1+m2+1) line spread functions LSF3-LSF5.
  • the measurement unit 8 may calculate (m1+m2+1) modulation transfer functions MTF3-MTF5 for each imaging region F3-F5 based on the image data of the (m1+m2+1) captured images P3-P5 using the chart method.
  • the optical axis direction measurement system 1 can systematically measure the optical axis deviation between the optical axis direction Da of the aerial image 9 and the design optical axis direction Dad based on the change in the MTF areas S3 to S5 accompanying the movement of the imaging device 7 by performing a defocus operation on the imaging device 7.
  • the defocus operation is an operation that changes the degree of focus (degree of focus, degree of blur of the captured image) of each imaging part of the aerial image 9 by moving the imaging device 7 back and forth in the imaging direction 7d, as shown in FIG. 10.
  • the optical axis direction measurement system 1 makes it possible to accurately calibrate the actual optical axis direction Da of the aerial image R formed by the aerial image display device 2.
  • the measurement unit 8 controls the first rotation device 12 to rotate the imaging device 7 around the first rotation axis A1 as shown in FIG. 16, and captures the aerial image 9 in a plurality of imaging directions 7d that have different angles with the depth direction (Z-axis direction).
  • the plurality of imaging directions 7d are directions that form an angle collectively represented by ⁇ k with the depth direction (design optical axis direction Dad). ⁇ k is also referred to as the imaging angle.
  • may be, for example, about 0.1° to 2°, or about 0.5° to 1°.
  • k is an integer in the range of -n1 ⁇ k ⁇ n2 (n1, n2 are natural numbers).
  • n1 and n2 may be, for example, a natural number between 1 and 20, but is not limited to a natural number between 1 and 20.
  • Fig. 16 shows a case where the rotation angle of the imaging device 7 is ⁇ ka (ka is a positive integer) and a case where the rotation angle of the imaging device 7 is ⁇ kb (kb is a negative integer).
  • the measurement unit 8 controls the imaging device 7 to capture an aerial image 9 in each direction represented by an imaging angle ⁇ k (-n1 ⁇ k ⁇ n2).
  • the imaging device 7 outputs image data of (n1+n2+1) captured images P3-P5 for each imaging portion F3-F5 to the measurement unit 8.
  • the measurement unit 8 acquires image data of (n1+n2+1) captured images P3-P5 from the imaging device 7 for each imaging portion F3-F5.
  • the measurement unit 8 may acquire image data from the imaging device 7 via the acquisition unit 14.
  • the measurement unit 8 calculates (n1+n2+1) line spread functions LSF3 to LSF5 based on the image data of the (n1+n2+1) captured images P3 to P5, and calculates (n1+n2+1) characteristic values V3 to V5.
  • the characteristic values V3 to V5 may be the peak value H or the half width W of the line spread functions LSF3 to LSF5.
  • the characteristic values V3 to V5 may be a combination value obtained by dividing the peak value H by the half width W.
  • the measurement unit 8 calculates multiple differences (i.e., V3-V4, V3-V5, and V4-V5) between the multiple characteristic values V3 to V5 for each imaging angle ⁇ k, and if the absolute value of the multiple differences at a certain imaging angle ⁇ 1 is equal to or less than a threshold value (also called a first predetermined value in the LSF method) T4, it may determine that the actual optical axis direction Da of the aerial image 9 is inclined by the inclination angle ⁇ 1 with respect to the depth direction (design optical axis direction Dad).
  • the first predetermined value T4 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the measurement unit 8 may determine that the actual optical axis direction Da of the aerial image 9 is inclined at the inclination angle ⁇ 2 with respect to the design optical axis direction Dad when all of the characteristic values V3 to V5 are equal to or greater than a threshold value T5 (also called the second predetermined value in the LSF method) at a certain imaging angle ⁇ 2.
  • T5 also called the second predetermined value in the LSF method
  • the second predetermined value T5 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the measurement unit 8 may determine that the actual optical axis direction Da of the aerial image 9 is inclined at the inclination angle ⁇ 3 with respect to the design optical axis direction Dad when all of the characteristic values V3 to V5 are equal to or smaller than a threshold value T6 (also called the second predetermined value in the LSF method) at a certain imaging angle ⁇ 3.
  • the threshold value T6 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the second rotation device 13 controls the aerial image display device 2 to rotate by a rotation angle equal to the tilt angles ⁇ 1, ⁇ 2, and ⁇ 3 around the second rotation axis A2. This makes it possible to calibrate the optical axis shift of the aerial image R formed by the aerial image display device 2. As a result, it becomes possible for the user to view the aerial image R with a high display quality in which the optical axis shift is reduced.
  • the measuring unit 8 controls the second rotation device 13 to rotate the aerial image display device 2 clockwise or counterclockwise by a rotation angle equal to the tilt angles ⁇ 1, ⁇ 2, and ⁇ 3 when viewed from above the device stand 10.
  • the measuring unit 8 may determine the direction in which the aerial image display device 2 is rotated so that the optical axis shift of the aerial image 9 is eliminated.
  • the optical axis direction measurement system 1 can systematically measure the optical axis deviation between the actual optical axis direction Da of the aerial image 9 and the design optical axis direction Dad based on the change in the characteristic values V3 to V5 accompanying the rotation of the imaging device 7 by performing a rotational operation on the imaging device 7. Therefore, the optical axis direction measurement system 1 makes it possible to calibrate the optical axis direction Da of the aerial image R formed by the aerial image display device 2.
  • the measurement unit 8 calculates (n1+n2+1) modulation transfer functions MTF based on the image data of the (n1+n2+1) captured images P3 to P5, and measures (n1+n2+1) MTF areas S3 to S5.
  • the measurement unit 8 calculates multiple differences (i.e., S3-S4, S3-S5, and S4-S5) between the multiple MTF areas S3 to S5 for each imaging angle ⁇ k, and if the absolute value of the multiple differences at a certain imaging angle ⁇ 4 is equal to or less than a threshold value (also called a first predetermined value in the MTF area method) T7, it may determine that the actual optical axis direction Da of the aerial image 9 is inclined at an inclination angle ⁇ 4 with respect to the depth direction (design optical axis direction Dad).
  • the first predetermined value T7 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the measurement unit 8 may determine that the actual optical axis direction Da of the aerial image 9 is inclined at the inclination angle ⁇ 5 with respect to the design optical axis direction Dad when all of the MTF areas S3 to S5 are equal to or greater than a threshold value T8 (also called the second predetermined value in the MTF area method) at a certain imaging angle ⁇ 5.
  • T8 also called the second predetermined value in the MTF area method
  • the predetermined value T8 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the measurement unit 8 may calculate (n1+n2+1) line spread functions LSF3 to LSF5 for each of the imaging sites F3, F4, and F5 based on the image data of the (n1+n2+1) captured images P3 to P5, and may calculate (n1+n2+1) modulation transfer functions MTF3 to MTF5 by Fourier transforming the (n1+n2+1) line spread functions LSF3 to LSF5.
  • the measurement unit 8 may calculate (n1+n2+1) modulation transfer functions MTF3 to MTF5 for each of the imaging sites F3 to F5 based on the image data of the (n1+n2+1) captured images P3 to P5 using the chart method.
  • the optical axis direction measurement system 1 can systematically measure the optical axis deviation between the actual optical axis direction Da of the aerial image 9 and the design optical axis direction Dad based on the MTF areas S3 to S5. Since the area of the modulation transfer function MTF is not easily affected by external light, etc., it is possible to accurately measure whether the actual optical axis direction Da of the aerial image 9 matches the design optical axis direction Dad by using the MTF areas S3 to S5. Therefore, the optical axis direction measurement system 1 makes it possible to accurately calibrate the optical axis direction Da of the aerial image R formed by the aerial image display device 2.
  • the above describes the operation of the optical axis direction measurement system 1, which detects an optical axis shift about the height direction (X-axis direction) perpendicular to the width direction (Y-axis direction) based on multiple captured images P3 to P5 captured from multiple imaging parts F3 to F5 arranged in the width direction (Y-axis direction) in the imaging plane Rp of the aerial image 9, and calibrates the optical axis shift, but is not limited to this.
  • the optical axis direction measurement system 1 can also detect an optical axis shift about the width direction (Y-axis direction) perpendicular to the height direction (X-axis direction) based on multiple captured images (e.g., multiple captured images P1, P3, P6 or multiple captured images P2, P5, P7) captured from multiple imaging parts (e.g., multiple imaging parts F1, F3, F6 or multiple imaging parts F2, F5, F7) arranged in the height direction (X-axis direction) in the imaging plane Rp of the aerial image 9, and calibrate the optical axis shift.
  • multiple captured images e.g., multiple captured images P1, P3, P6 or multiple captured images P2, P5, P7
  • multiple imaging parts e.g., multiple imaging parts F1, F3, F6 or multiple imaging parts F2, F5, F7 arranged in the height direction (X-axis direction) in the imaging plane Rp of the aerial image 9, and calibrate the optical axis shift.
  • the optical axis direction measurement system 1 can detect the optical axis shift in the height direction (X-axis direction) and the optical axis shift in the width direction (Y-axis direction) based on a plurality of captured images of a plurality of captured portions F1, ..., F7 in the imaging plane Rp of the aerial image 9, and can also perform an operation of calibrating these optical axis shifts.
  • the line spread functions LSF1, LSF2, LSF6, and LSF7 can be calculated in the same manner as the line spread functions LSF3, LSF4, and LSF5.
  • the characteristic values V1, V2, V6, and V7 can be calculated in the same manner as the characteristic values V3, V4, and V5.
  • the modulation transfer functions MTF1, MTF2, MTF6, and MTF7 can be calculated in the same manner as the modulation transfer functions MTF3, MTF4, and MTF5.
  • the MTF areas S1, S2, S6, and S7 can be measured in the same manner as the MTF areas S3, S4, and S5.
  • the above-described embodiment is not limited to implementation as the optical axis direction measurement system 1.
  • the above-described embodiment may be implemented as a resolution measurement device that measures the resolution of the aerial image R formed by the aerial image display device 2.
  • the resolution measurement device is composed of the aerial image display device 2, the imaging device 7, and a measurement unit 8.
  • the measurement unit 8 of the resolution measurement device only needs to be configured to measure the MTF areas S1, ..., S7 based on the image data of the captured images P1, ..., P7, and does not need to have a function for detecting the optical axis shift of the aerial image R.
  • the measurement unit 8 of the resolution measurement device may also be referred to as a calculation unit.
  • the above-described embodiment may also be implemented as a resolution measurement method using the resolution measurement device, or as a program for controlling the resolution measurement device. Furthermore, for example, the above-described embodiment may also be implemented as an optical axis direction measurement method using the optical axis direction measurement system 1. Furthermore, for example, the above-described embodiment may also be implemented as a program for controlling the optical axis direction measurement system 1.
  • the optical axis direction measurement method using the LSF method is configured to capture an aerial image R, calculate a characteristic value of the luminance distribution of each captured image obtained by capturing multiple imaging portions of the aerial image R, and measure the optical axis direction Da of the aerial image R based on the multiple characteristic values.
  • the optical axis direction measurement method using the MTF area method is configured to capture an aerial image R, measure the area obtained by integrating the MTF of each captured image obtained by capturing multiple imaging portions of the aerial image R on the spatial frequency axis, and measure the optical axis direction Da of the aerial image R based on the areas of the multiple MTFs.
  • the optical axis direction measurement method using the LSF method may be configured to capture an aerial image R, calculate a characteristic value of the luminance distribution of the captured image obtained by capturing one captured portion of the aerial image R, and measure the optical axis direction Da of the aerial image R based on the characteristic value. For example, for an image obtained by capturing one captured portion of the aerial image R as shown in FIG. 5, changes in the characteristic value of the luminance distribution at multiple portions of the captured image, such as the upper end, center, and lower end, are calculated.
  • the optical axis direction Da of the aerial image R may be measured by analyzing the changes.
  • the analysis of the change in the characteristic value of the luminance distribution may be performed by analyzing one captured image using an image analysis program software that performs image analysis, and comparing the analysis image obtained by the analysis with a reference image stored in a separate reference table or the like.
  • each reference image corresponds to one optical axis direction Da (also referred to as a reference optical axis direction Da), and when a certain analysis image matches a certain reference image, or when a certain analysis image is most similar to a certain reference image, it may be determined that the optical axis direction Da of a certain analysis image is the reference optical axis direction Da corresponding to a certain reference image.
  • the image analysis program software may include artificial intelligence (AI) program software that performs image recognition to analyze the captured image and detect and/or extract a specific pattern.
  • AI program software may directly analyze image data and perform image recognition to detect and/or extract a specific pattern.
  • the optical axis direction measurement method using the MTF area method may be configured to capture an aerial image R, measure the area obtained by integrating the MTF of an image obtained by capturing one imaging portion of the aerial image R on the spatial frequency axis, and measure the optical axis direction Da of the aerial image R based on the MTF area. For example, for an image obtained by capturing one imaging portion of the aerial image R as shown in FIG. 5, changes in the MTF area are calculated at multiple portions of the captured image, such as the upper end, center, and lower end. The optical axis direction Da of the aerial image R may be measured by analyzing these changes.
  • Analysis of the change in the MTF area may be performed by analyzing one captured image using image analysis program software that performs image analysis, and comparing the analysis image obtained by the analysis with a reference image stored separately in a reference table or the like.
  • each reference image corresponds to one optical axis direction Da (also referred to as the reference optical axis direction Da), and when an analysis image matches a reference image, or when an analysis image is most similar to a reference image, it may be determined that the optical axis direction Da of the analysis image is the reference optical axis direction Da corresponding to the reference image.
  • This determination may be performed, for example, in the measurement unit 8 (shown in Figs. 1 and 17) or the determination unit 15 (shown in Fig. 17). This execution allows the process of measuring the optical axis direction Da of the aerial image R to be performed at high speed.
  • the image analysis program software may include the AI program software described above.
  • the program that controls the optical axis direction measurement system 1 using the LSF method controls the measurement unit 8 to calculate the characteristic value of the luminance distribution of each captured image obtained by capturing multiple imaging parts of the aerial image R, and to measure the optical axis direction Da of the aerial image R based on the multiple characteristic values.
  • This program may be a program software or a graphic controller stored in the RAM, ROM, etc. of a driving element such as an IC or LSI provided in a control unit included in the measurement unit 8.
  • the program may also be a program software or a graphic controller stored in the RAM, ROM, etc. of a driving element provided in an external control unit. In this case, the measurement unit 8 executes control via an external control unit.
  • the program that controls the optical axis direction measurement system 1 using the MTF area method controls the measurement unit 8 to measure the area obtained by integrating the MTF of each captured image obtained by capturing multiple imaging parts of the aerial image R on the spatial frequency axis, and to measure the optical axis direction Da of the aerial image R based on the areas of the multiple MTFs.
  • This program may be the same program software as above.
  • the measurement unit 8 may constitute a part of the optical axis direction measuring device.
  • the optical axis direction measuring device may be composed of an acquisition unit 14 and a measurement unit 8.
  • the acquisition unit 14 is configured to be able to input image data of the captured images P3 to P5 captured by the imaging device 7.
  • the acquisition unit 14 is configured to be able to output the image data of the captured images P3 to P5 to the measurement unit 8.
  • the acquisition unit 14 may acquire image data of each captured image P3 to P5 of the multiple imaging parts F3 to F5 in the imaging plane Rp of the aerial image R from the imaging device 7, and output the acquired image data to the measurement unit 8.
  • the acquisition unit 14 may be configured to include a storage unit for image data and an input/output control unit that controls the input/output of image data stored in the storage unit.
  • the optical axis direction measuring device may be composed of an imaging unit that captures the aerial image R of a real image formed in space, and the measurement unit 8.
  • the imaging unit may be the imaging device 7.
  • FIG. 17 is a perspective view showing a pass/fail determination system according to one embodiment of the present disclosure
  • FIG. 18 is a flowchart explaining an example of the operation of the pass/fail determination system of FIG. 17, and
  • FIG. 19 is a flowchart explaining another example of the operation of the pass/fail determination system of FIG. 17.
  • the pass/fail determination system 50 of one embodiment of the present disclosure determines whether the aerial image display device 2 is an acceptable product ready for shipment based on the deviation (optical axis deviation) between the actual optical axis direction Da of the aerial image R and a predetermined optical axis direction in the aerial image display device 2.
  • the predetermined optical axis direction in the aerial image display device 2 is the designed optical axis direction of the aerial image display device, and is also referred to as the design optical axis direction Dad. If the pass/fail determination system 50 determines that the aerial image display device 2 is an acceptable product, it calculates a modulation transfer function MTF used as a resolution index (performance index) of the aerial image display device 2. If the pass/fail determination system 50 does not determine that the aerial image display device 2 is an acceptable product, it can detect the optical axis deviation and calibrate the optical axis deviation.
  • the pass/fail judgment system 50 includes the optical axis direction measurement system 1 described above and a judgment unit 15.
  • the judgment unit 15 may be included in the measurement device 18.
  • the judgment unit 15 may function as a control unit in the pass/fail judgment system 50. That is, the judgment unit 15 may be connected to each component of the pass/fail judgment system 50 and control each component.
  • the judgment unit 15 may include one or more processors.
  • the processor may include at least one of a general-purpose processor configured to load a specific program and execute a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an ASIC (Application Specific Integrated Circuit).
  • the processor may include a PLD (Programmable Logic Device).
  • the PLD may include an FPGA (Field Programmable Gate Array).
  • the determination unit may include at least one of a System-on-a-Chip (SoC) and a System in a Package (SiP) in which one or more processors are configured to work together.
  • SoC System-on-a-Chip
  • SiP System in a Package
  • the determination unit 15 may control the measurement unit 8 to measure the optical axis deviation between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2. If the optical axis deviation is equal to or less than a third predetermined value T9, the determination unit 15 determines that the aerial image display device 2 is an acceptable product (i.e., an aerial image display device 2 that can be shipped).
  • the third predetermined value T9 may be set appropriately based on the required specifications of the aerial image display device 2, etc.
  • the judgment unit 15 judges the aerial image display device 2 to be an acceptable product
  • the judgment unit 15 controls the aerial image display device 2 to form a test pattern for evaluating the resolution of the aerial image R formed by the aerial image display device 2.
  • the test pattern may be an aerial image 9 as shown in FIG. 3, or an aerial image 9' as shown in FIG. 8.
  • the judgment unit 15 also controls the imaging device 7 to set the aperture value to a value greater than 3. That is, the judgment unit 15 controls the aperture value of the imaging device 7 to be set to a value greater than the aperture value (3 or less) when detecting the optical axis deviation. Furthermore, the judgment unit 15 controls the imaging device 7 to image multiple imaging parts of the test pattern.
  • the multiple imaging parts include at least the imaging parts F1, F4, F7 or the imaging parts F2, F4, F6 (see FIG. 4).
  • the multiple imaging parts may be the imaging parts F1, F2, F4, F6, F7.
  • the distance between the imaging device 7 and the test pattern in the depth direction may be set to an initial setting distance.
  • the imaging device 7 may capture the test pattern by changing the distance in the depth direction.
  • the determination unit 15 controls the imaging device 7 to generate multiple captured images capturing multiple imaging portions in the imaging plane Rp of the test pattern and output image data of each captured image.
  • the determination unit 15 calculates a characteristic value or MTF based on the LSF of each captured image based on the image data of each captured image.
  • the characteristic value or MTF based on the LSF can be used as a resolution index of the aerial image display device 2.
  • the determination unit 15 may control the imaging device 7 to set the aperture value to about 5 to 8. In this case, the resolution index of the aerial image display device 2 can be brought closer to the resolution index when the eye 20e of the user 20 actually views the test pattern.
  • the judgment unit 15 may judge the suitability of the aerial image display device 2 as a product (i.e., whether or not the specification standards are met) based on the MTF used as a resolution index of the aerial image display device 2. For example, when the spatial frequency is 3/mm, if the value of the MTF used as a resolution index is 0.6 or more, the judgment unit 15 may judge that the aerial image display device 2 meets the specification standards, and if it is less than 0.6, may judge that the aerial image display device 2 does not meet the specification standards. If the aerial image display device 2 does not meet the specification standards, the judgment unit 15 may control the optical axis direction measurement system 1 to calibrate the optical axis direction. If the aerial image display device 2 does not meet the specification standards, the judgment unit 15 may judge that the aerial image display device 2 is a rejected product.
  • the pass/fail determination system 50 can systematically measure the optical axis deviation between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2, and can calibrate the actual optical axis direction Da of the aerial image R formed by the aerial image display device 2.
  • the pass/fail determination system 50 can also systematically measure the resolution index of the aerial image display device 2, and can provide an aerial image display device 2 with excellent resolution.
  • imaging site F multiple imaging sites in the imaging plane Rp of the aerial image R.
  • the imaging site F may be multiple imaging sites F3 to F5, multiple imaging sites F1, F3, F6, multiple imaging sites F2, F5, F7, or multiple imaging sites F1, ..., F7.
  • the multiple captured images obtained by capturing the imaging portion F are described as captured images P, and the line spread function, characteristic value of the line spread function, and modulation transfer function and area of the modulation transfer function calculated from the captured image P are described as line spread function LSF, characteristic value V, modulation transfer function MTF, and MTF area S, respectively.
  • the multiple captured portions in the imaging plane Rp of the aerial image R are described as imaging portions F'.
  • the imaging portion F' may be multiple imaging portions F1, F4, F7 or multiple imaging portions F2, F4, F6, or multiple imaging portions F1, F2, F4, F6, F7.
  • the captured image obtained by capturing the imaging portion F' is described as captured image P', and the line spread function and modulation transfer function calculated from the captured image P' are described as line spread function LSF' and modulation transfer function MTF', respectively.
  • the pass/fail judgment system 50 that judges whether the aerial image display device 2 is acceptable as a product based on the characteristic value of the LSF.
  • the first step based on the characteristic value of the LSF, the deviation between the actual optical axis direction Da of the aerial image R detected by the measuring unit 8 and a predetermined optical axis direction (design optical axis direction Dad) in the aerial image display device 2 is measured, and if the deviation is equal to or less than a third predetermined value, the aerial image display device 2 is judged to be acceptable.
  • the aperture value of the imaging device 7 is set to a value greater than 3 (aperture value suitable for the focal depth of the eye 20e of the user 20), and the MTF of each captured image obtained by capturing images of multiple imaging parts of the aerial image R is calculated. Based on the MTF value or MTF area, the aerial image display device 2 is finally judged to be acceptable as a product.
  • the aperture value of the imaging device 7 is set to a value greater than 3, the aperture value may be 5 to 9, or may be 8.
  • the aerial image display device 2 forms an aerial image R as a real image in space.
  • the aerial image R may be an aerial image 9 as shown in FIG. 3.
  • the imaging device 7 sets the aperture value to 3 or less, images an imaging portion F within the imaging plane Rp of the aerial image R, and outputs an imaged image P.
  • the imaging device 7 may output the imaged image P by a defocus operation, or may output the imaged image P by a rotation operation.
  • the measurement unit 8 calculates the line spread function LSF and the characteristic value V of the line spread function LSF based on the imaged image P.
  • a pass/fail determination may be made as to whether the resolution of the aerial image R meets the product specification standards based on the line spread function LSF of the captured image P and the characteristic value V of the line spread function LSF.
  • the determination unit 15 measures the optical axis deviation between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2 based on the characteristic value V of the line spread function LSF.
  • the judgment unit 15 judges whether the optical axis shift is equal to or less than the third predetermined value. If the optical axis shift is equal to or less than the third predetermined value (if [Yes]), the process proceeds to [S14], and if the optical axis shift is greater than the third predetermined value (if [No]), the process proceeds to [S17].
  • a pass/fail determination may be made as to whether the resolution of the aerial image R meets the product specification standards.
  • the aerial image display device 2 forms an image of a test pattern for resolution evaluation, and the imaging device 7 sets the aperture value to a value greater than 3 and captures an image portion F' of the test pattern for resolution evaluation.
  • the measurement unit 8 calculates the MTF' based on the captured image P'.
  • the measurement unit 8 may calculate the MTF' by Fourier transforming the LSF', or may calculate the MTF' using the chart method.
  • the determination unit 15 determines whether or not the aerial image display device 2 meets the specification standard based on the MTF'. For example, when the spatial frequency ⁇ is 3/mm, if the MTF' value is 0.6 or more, the determination unit 15 may determine that the aerial image display device 2 meets the specification standard, and if the MTF' value is less than 0.6, the determination unit 15 may determine that the aerial image display device 2 does not meet the specification standard. If the aerial image display device 2 meets the specification standard (if [Yes]), the process proceeds to [S16], where the aerial image display device 2 is determined to be an acceptable product ready for shipment. If the aerial image display device 2 does not meet the specification standard (if [No]), the process proceeds to [S18].
  • the aerial image display device 2 forms an aerial image R.
  • the aerial image R may be an aerial image 9 as shown in FIG. 3, or an aerial image 9' as shown in FIG. 8.
  • the imaging device 7 sets the aperture value to 3 or less, images the imaging portion F in the imaging plane Rp of the aerial image R, and outputs the captured image P.
  • the imaging device 7 may output the captured image P by a defocus operation, or may output the captured image P by a rotation operation.
  • the measurement unit 8 measures the optical axis shift between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2 based on the captured image P, and calibrates the optical axis shift.
  • the measurement unit 8 may measure the MTF and the MTF area S, and measure the optical axis shift based on the MTF area S. In this case, the optical axis shift can be detected with high accuracy and can be calibrated with high accuracy.
  • the measuring unit 8 may calculate the MTF by Fourier transforming the LSF, or may calculate the MTF using the chart method. After calibrating the optical axis shift in [S17], the process returns to the judgment in [S13].
  • the process may proceed to [S17]. If the process proceeds from [S13] to [S17] a predetermined number of times (e.g., three times), the aerial image display device 2 may be determined to be a rejected product. In this case, it is also considered that the optical axis shift is caused by factors other than the component 2a of the aerial image display device 2 (e.g., the housing 6, the translucent substrate constituting the image light exit surface 6a, the translucent screen, etc.).
  • the aerial image display device 2 forms an aerial image R.
  • the aerial image R may be an aerial image 9 as shown in FIG. 3, or an aerial image 9' as shown in FIG. 8.
  • the imaging device 7 sets the aperture value to a value greater than 3 (e.g., 8), images the imaging portion F in the imaging plane Rp of the aerial image R, and outputs the captured image P.
  • the imaging device 7 may output the captured image P by a defocus operation, or may output the captured image P by a rotation operation.
  • the measurement unit 8 measures the optical axis shift between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2 based on the captured image P, and calibrates the optical axis shift.
  • the measurement unit 8 may measure the MTF and the MTF area S, and measure the optical axis shift based on the MTF area S. In this case, the optical axis shift can be measured with high accuracy and can be calibrated with high accuracy.
  • the measuring unit 8 may calculate the MTF by Fourier transforming the LSF, or may calculate the MTF using the chart method. After calibrating the optical axis shift in [S18], the process returns to [S14], and after calculating the MTF', the process proceeds to [S15].
  • the process may proceed to [S18].
  • the process proceeds from [S15] to [S18] a predetermined number of times (e.g., three times)
  • the aerial image display device 2 may be determined to be a rejected product.
  • the optical axis shift occurs due to the above-mentioned factors other than the component 2a of the aerial image display device 2.
  • FIG. 19 is a flow chart of the operation of the pass/fail judgment system 50 that judges whether the aerial image display device 2 is a product based on the MTF value or MTF area.
  • the first step based on the MTF value or MTF area, the deviation between the actual optical axis direction Da of the aerial image R detected by the measuring unit 8 and a predetermined optical axis direction (design optical axis direction Dad) in the aerial image display device 2 is measured, and if the deviation is equal to or less than a third predetermined value, the aerial image display device 2 is judged to be a pass product.
  • the aperture value of the imaging device 7 is set to a value greater than 3 (e.g., 8), and the MTF of each captured image obtained by capturing multiple imaging portions of the aerial image R is calculated. Based on the MTF value or MTF area, a final pass/fail judgment is made on the aerial image display device 2 as a product.
  • the aperture value may be 5 to 9, or may be 8.
  • the aerial image display device 2 forms an aerial image R as a real image in space.
  • the aerial image R may be an aerial image 9 as shown in FIG. 3, or an aerial image 9' as shown in FIG. 8.
  • the imaging device 7 sets the aperture value to 3 or less, images an imaging portion F in the imaging plane Rp of the aerial image R, and outputs an image P.
  • the imaging device 7 may output the image P by a defocus operation, or may output the image P by a rotation operation.
  • the measurement unit 8 calculates the MTF based on the image P and measures the MTF area S.
  • the measurement unit 8 may calculate the MTF by Fourier transforming the LSF, or may calculate the MTF using the chart method.
  • a pass/fail determination may be made as to whether the resolution of the aerial image R meets the product specification standards based on the MTF area S of the captured image P.
  • the determination unit 15 measures the optical axis deviation between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2 based on the MTF area S.
  • the judgment unit 15 judges whether the optical axis shift is equal to or less than the third predetermined value. If the optical axis shift is equal to or less than the third predetermined value (if [Yes]), the process proceeds to [S24], and if the optical axis shift is greater than the third predetermined value (if [No]), the process proceeds to [S27].
  • a pass/fail determination may be made as to whether the resolution of the aerial image R meets the product specification standards.
  • the aerial image display device 2 forms an image of a test pattern for resolution evaluation, and the imaging device 7 sets the aperture value to a value greater than 3 (e.g., 8), images an imaging portion F' of the test pattern for resolution evaluation, and outputs an imaged image P'.
  • the measurement unit 8 calculates the MTF' based on the imaged image P'.
  • the measurement unit 8 may calculate the MTF' by Fourier transforming the LSF', or may calculate the MTF' using the chart method.
  • the determination unit 15 determines whether or not the aerial image display device 2 meets the specification standard based on the MTF'. For example, when the spatial frequency ⁇ is 3/mm, if the MTF' value is 0.6 or more, the determination unit 15 may determine that the aerial image display device 2 meets the specification standard, and if the MTF' value is less than 0.6, the determination unit 15 may determine that the aerial image display device 2 does not meet the specification standard. If the aerial image display device 2 meets the specification standard (if [Yes]), the process proceeds to [S26], where the aerial image display device 2 is determined to be an acceptable product ready for shipment. If the aerial image display device 2 does not meet the specification standard (if [No]), the process proceeds to [S28].
  • the aerial image display device 2 forms an aerial image R.
  • the aerial image R may be an aerial image 9 as shown in FIG. 3, or an aerial image 9' as shown in FIG. 8.
  • the imaging device 7 sets the aperture value to 3 or less, images the imaging portion F in the imaging plane Rp of the aerial image R, and outputs the captured image P.
  • the imaging device 7 may output the captured image P by a defocus operation, or may output the captured image P by a rotation operation.
  • the measurement unit 8 measures the optical axis shift between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2 based on the captured image P, and calibrates the optical axis shift.
  • the measurement unit 8 may measure the optical axis shift based on the MTF area S of the MTF. In this case, the optical axis shift can be detected with high accuracy and the optical axis shift can be calibrated with high accuracy.
  • the measuring unit 8 may calculate the MTF by Fourier transforming the LSF, or may calculate the MTF using the chart method. After calibrating the optical axis shift in [S27], the process returns to the judgment in [S23].
  • the process may proceed to [S27]. If the process proceeds from [S23] to [S27] a predetermined number of times (e.g., three times), the aerial image display device 2 may be judged to be a rejected product. In this case, it is also considered that the optical axis shift is caused by the above-mentioned factors other than the component 2a of the aerial image display device 2.
  • the aerial image display device 2 forms an aerial image R.
  • the aerial image R may be an aerial image 9 as shown in FIG. 3, or an aerial image 9' as shown in FIG. 8.
  • the imaging device 7 sets the aperture value to a value greater than 3 (e.g., 8), images the imaging portion F in the imaging plane Rp of the aerial image R, and outputs the captured image P.
  • the imaging device 7 may output the captured image P by a defocus operation, or may output the captured image P by a rotation operation.
  • the measurement unit 8 measures the optical axis shift between the actual optical axis direction Da of the aerial image R and the design optical axis direction Dad of the aerial image display device 2 based on the captured image P, and calibrates the optical axis shift.
  • the measurement unit 8 may measure the MTF and the MTF area S, and measure the optical axis shift based on the MTF area S. In this case, the optical axis shift can be detected with high accuracy and can be calibrated with high accuracy.
  • the measuring unit 8 may calculate the MTF by Fourier transforming the LSF, or may calculate the MTF using the chart method. After calibrating the optical axis shift in [S28], the process returns to [S24], and after calculating the MTF', the process proceeds to [S25].
  • the process may proceed to [S28].
  • the process proceeds from [S25] to [S28] a predetermined number of times (e.g., three times)
  • the aerial image display device 2 may be determined to be a rejected product.
  • the optical axis shift occurs due to the above-mentioned factors other than the component 2a of the aerial image display device 2.
  • the above-described embodiment is not limited to being implemented only as a pass/fail determination system.
  • the above-described embodiment may be implemented as a pass/fail determination method using a pass/fail determination system.
  • the above-described embodiment may be implemented as a program that controls a pass/fail determination system.
  • FIG. 20 is a graph showing the case where the line spread function of the luminance distribution waveform shown in FIG. 6 is corrected by a correction process that removes background noise.
  • the optical axis direction measurement system 1 shown in FIG. 1 may be used in an environment where external environmental light such as indoor lighting and sunlight enters the imaging section of the imaging device 7. In that case, the external environmental light becomes background noise 26, which increases the overall signal strength (signal level) of the luminance distribution waveform 25. Therefore, a correction (also called a first correction) that removes the components of the background noise 26 may be performed.
  • the first correction may be performed in a signal processing section, a correction processing section, etc. provided in the imaging device 7, or may be performed in the measurement section 8.
  • the optical axis direction measurement system 1 shown in FIG. 1 may have degradation of resolution caused by the performance of the optical system of the imaging device 7, the performance of the imaging element (light receiving element) of the imaging section (light receiving section), the pixel density of the pixels including the light receiving section, etc.
  • the luminance distribution waveform 25 becomes a degraded luminance distribution waveform 27 with overall broadening and degraded sharpness.
  • a correction also called a second correction
  • the second correction may be performed in a signal processing section, a correction processing section, etc. provided in the imaging device 7, or may be performed in the measurement section 8.
  • the resolution degradation component 28 may be stored in advance in a data storage unit (data table) provided in the signal processing unit, correction processing unit, or measurement unit 8 of the imaging device 7.
  • a data storage unit data table
  • the data of the resolution degradation component 28 may be called from the data storage unit and the second correction may be performed.
  • the data of the resolution degradation component 28 may also be acquired as follows. First, for example, a test pattern shown in FIG. 3 is displayed on a liquid crystal panel as the display panel 4. At that time, data of an ideal luminance distribution waveform 25 (also called first data) is obtained based on image signal data input to a pixel group of the display panel 4 including the test pattern.
  • data of a degraded luminance distribution waveform 27 including the resolution degradation component 28 (also called second data) is obtained based on an image captured by the imaging device 7 of the test pattern imaged in space. Then, the data of the resolution degradation component 28 can be acquired by calculating the difference between the second data and the first data.
  • both the first correction and the second correction may be performed.
  • the luminance distribution waveform 25 may need to be corrected depending on the positional relationship between the imaging direction 7d of the imaging device 7 and the arrangement positions (Fp3, Fp4, Fp5) and arrangement direction Df of the imaging parts F3, F4, and F5 shown in FIG. 4.
  • the imaging direction 7d and the arrangement direction Df are orthogonal. In other words, the arrangement direction Df is not inclined with respect to the imaging direction 7d.
  • the imaging part F3 is in a position inclined at an angle ⁇ 1 with respect to the imaging direction 7d, when the width of the imaging part F3 in the arrangement direction Df is d3, the width (e.g., half-value width) of the luminance distribution waveform 25 of the captured image P3 is d3cos ⁇ 1 with respect to d3, and is captured so as to be small. Therefore, for the imaging part F3, the correction is performed by dividing the width of the luminance distribution waveform 25 of the captured image P3 by cos ⁇ 1 (multiplying by 1/cos ⁇ 1).
  • the width of the imaging portion F5 in the array direction Df is d5
  • the width of the brightness distribution waveform 25 of the captured image P5 is d5cos ⁇ 2 relative to d5, and is captured so as to be smaller. Therefore, for the imaging portion F5, correction is performed by dividing the width of the brightness distribution waveform 25 of the captured image P5 by cos ⁇ 2 (multiplying by 1/cos ⁇ 2). Note that since the imaging portion F4 faces the imaging device 7 directly, correction is not necessary. Furthermore, when the distance between the imaging portion F3 and the imaging portion F4 is the same as the distance between the imaging portion F4 and the imaging portion F5, the angle ⁇ 1 and the angle ⁇ 2 are the same.
  • the array direction Df is inclined at an angle ⁇ with respect to a plane perpendicular to the imaging direction 7d. Furthermore, since the imaging portion F3 is inclined at an angle ⁇ 1 with respect to the imaging direction 7d, the width (e.g., half-width) of the luminance distribution waveform 25 of the captured image P3 is d3cos ⁇ 1/cos ⁇ , and is captured so as to be greater than d3cos ⁇ 1 and smaller than d3. This is because the position of the imaging portion F3 changes so as to be closer to the imaging device 7 due to the influence of the angle ⁇ .
  • correction is performed by multiplying the width of the luminance distribution waveform 25 of the captured image P3 by cos ⁇ /cos ⁇ 1. Furthermore, the imaging portion F4 faces the imaging device 7 directly and is affected only by the angle ⁇ .
  • the width of the imaging portion F4 in the array direction Df is d4
  • the width of the luminance distribution waveform 25 of the captured image P4 is d4cos ⁇ , and is captured so as to be smaller than d4. Therefore, for the imaging portion F4, correction is performed by multiplying the width of the luminance distribution waveform 25 of the captured image P4 by 1/cos ⁇ .
  • the width of the luminance distribution waveform 25 of the captured image P5 is d5cos ⁇ 2cos ⁇ , which is captured so as to be even smaller than d5cos ⁇ 2. This is because the position of the imaging portion F5 changes so as to move away from the imaging device 7 due to the influence of the angle ⁇ . Therefore, for the imaging portion F5, correction is performed by multiplying the width of the luminance distribution waveform 25 of the captured image P5 by 1/(cos ⁇ 2cos ⁇ ).
  • FIGS. 22 and 23 show a case where correction is performed for the imaging parts F3, F4, and F5, whose array direction Df is the horizontal direction, but similar correction may be performed for the imaging parts F1, F3, and F6 or F2, F5, and F7, whose array direction Df is the vertical direction.
  • the aerial image display device 2 makes it possible to operate an aerial image without touching it, without the need to operate buttons or the like, and as a result, it can be used in various product fields such as, but not limited to, a communication device for conversation and/or communication with an aerial image, a medical interview device for a doctor to interview a patient through an aerial image, a navigation device and/or a driving control device for a vehicle such as an automobile, an order placement and reception device and/or a cash register device for a store, an operation panel for a building and/or an elevator, a learning device for teaching or taking a class with an aerial image, an office machine for business communication and/or instructions with an aerial image, a game machine for playing games with an aerial image, a projection device for projecting an image on the ground and/or a wall surface at an amusement park and/or amusement center, a simulator device for conducting simulation experiments with an aerial image at a university and/or a medical institution, a large display for displaying prices at a market and/or a stock exchange
  • the resolution of an aerial image can be systematically measured, and the optical axis direction of the aerial image can be systematically measured, so that the optical axis direction of the aerial image can be measured by an automated system. Also, according to the embodiments of the present disclosure, it is possible to calibrate the optical axis direction of the aerial image. Furthermore, according to the embodiments of the present disclosure, the resolution of an aerial image formed by an aerial image display device can be systematically evaluated.
  • This disclosure can be implemented in the following configurations (1) to (16).
  • a resolution measuring device having a measuring unit that measures the area obtained by integrating the modulation transfer function of an aerial image captured by an imaging device on the spatial frequency axis.
  • the measurement unit measures the optical axis direction of the aerial image based on the area of the modulation transfer function of each of the captured images acquired by imaging multiple imaging locations within the imaging plane of the aerial image.
  • a first rotation device that rotates the imaging device around a rotation axis parallel to a direction perpendicular to a direction in which the plurality of imaging portions are arranged in the image forming plane,
  • the optical axis direction measurement system according to the above-mentioned configuration (4), wherein the measurement unit measures the tilt angle based on a change in area of the plurality of modulation transfer functions accompanying rotation of the imaging device.
  • a first rotation device that rotates the imaging device around a rotation axis parallel to a direction perpendicular to a direction in which the plurality of imaging portions are arranged in the image forming plane,
  • the optical axis measurement system according to any one of the above configurations (2) to (4), wherein the measurement unit calculates the difference between the areas of the multiple modulation transfer functions while rotating the imaging device, and determines that the imaging direction of the imaging device when the absolute value of the multiple differences becomes equal to or less than a first predetermined value is the optical axis direction of the aerial image.
  • a first rotation device that rotates the imaging device around a rotation axis parallel to a direction perpendicular to a direction in which the plurality of imaging portions are arranged in the image forming plane
  • a second rotation device is provided to rotate the aerial image display device that forms the aerial image around a rotation axis parallel to a direction perpendicular to a direction in which the multiple imaging portions are arranged in the imaging plane,
  • the plurality of imaging regions are a repeated pattern of first band images and second band images, An optical axis direction measurement system according to any one of the above configurations (2) to (9), wherein the first band-shaped image and the second band-shaped image have at least one difference in brightness and color.
  • An optical axis direction measuring method for measuring an optical axis direction of an aerial image in an aerial image display device that forms an aerial image of a real image using image light emitted from an image display unit, comprising: Taking the aerial image; An optical axis measurement method, comprising: measuring an area obtained by integrating, on a spatial frequency axis, a modulation transfer function of each captured image obtained by imaging multiple imaging locations of the aerial image; and measuring the optical axis direction of the aerial image based on the areas of the multiple modulation transfer functions.
  • a program executed by an optical axis direction measurement system including an aerial image display device that forms an image light emitted from an image display unit as a real aerial image, an imaging device that captures the aerial image, and a measurement unit,
  • the measurement unit measures the area obtained by integrating the modulation transfer function of each image obtained by imaging multiple imaging locations of the aerial image over a spatial frequency axis, and measures the optical axis direction of the aerial image based on the areas of the multiple modulation transfer functions.
  • An optical axis direction measurement system according to any one of the above configurations (2) to (10);
  • a pass/fail judgment system comprising: a judgment unit that measures the deviation between the optical axis direction of the aerial image detected by the measurement unit and a predetermined optical axis direction in an aerial image display device that forms the aerial image, and judges the aerial image display device to be an acceptable product if the deviation is less than a third predetermined value.
  • the pass/fail judgment system described in the above configuration (13) sets the aperture value of the imaging device to a value greater than 3, and calculates the modulation transfer function of each captured image obtained by capturing multiple imaging portions of the aerial image.
  • An acquisition unit that acquires area data obtained by integrating a modulation transfer function of a plurality of captured images on a spatial frequency axis as a resolution of the captured images of a plurality of imaging portions in an imaging plane of an aerial image; and a measurement unit that measures the optical axis direction of the aerial image based on area data of the plurality of modulation transfer functions.
  • An imaging unit that captures an aerial image of a real image formed in space; and a measurement unit that measures the optical axis direction of the aerial image based on the area obtained by integrating the modulation transfer functions of multiple captured images on a spatial frequency axis as the resolution of the captured images of multiple imaging locations within the imaging plane of the aerial image.
  • Reference Signs List 1 Optical axis direction measurement system 2 Aerial image display device 2a Constituent members of aerial image display device 3 Image display unit 4 Display panel 4a Display surface 5 Optical system 5a First optical member 5b Second optical member 6 Housing 6a Image light exit surface 7 Imaging device 7d Imaging direction of imaging device 7da Predetermined imaging direction of imaging device 8 Measurement unit 9, 9' Test pattern (aerial image) 9a First band-shaped image 9b Second band-shaped image 9c, 9d, 9e, 9f Square wave chart 10 Device stand 10a Top surface 11 Moving device 11h Holding member 11r Rail 11t Moving table 12 First rotation device 13 Second rotation device 14 Acquisition unit 15 Determination unit 18 Measuring device 20 User 20e User's eye 50 Pass/fail determination system Da Optical axis direction of aerial image Dad Design optical axis direction F1 to F7 Imaging portion Lp Image light P1 to P7 Imaging image R Aerial image Rp Imaging plane

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)

Abstract

本開示の解像度測定装置は、測定部を備える。測定部は、撮像装置により撮像された空中像の撮像画像の変調伝達関数を空間周波数軸において積分して成る面積を測定する。

Description

解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム
 本開示は、解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システムに関する。
 従来、例えば特許文献1に記載された空中像表示装置が知られている。
特開2015-191051号公報
 本開示の解像度測定装置は、撮像装置により撮像された空中像の撮像画像の変調伝達関数を空間周波数軸において積分して成る面積を測定する測定部を備える。
 本開示の光軸方向測定システムは、上記の解像度測定装置を備え、
 前記測定部は、前記空中像の結像面内の複数の撮像部位を撮像して取得された前記各撮像画像の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する。
 本開示の光軸方向測定方法は、画像表示部から射出された画像光を実像の空中像として結像させる空中像表示装置における前記空中像の光軸方向を測定する光軸方向測定方法であって、
 前記空中像を撮像し、
 前記空中像の複数の撮像部位を撮像して得られた各撮像画像の変調伝達関数を、空間周波数軸において積分して成る面積を測定し、複数の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する。
 本開示のプログラムは、画像表示部から射出された画像光を実像の空中像として結像させる空中像表示装置と、前記空中像を撮像する撮像装置と、測定部と、を備える光軸方向測定システムが実行するプログラムであって、
 前記測定部は、前記空中像の複数の撮像部位を撮像して得られた各撮像画像の変調伝達関数を、空間周波数軸において積分して成る面積を測定し、複数の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する。
 本開示の合否判定システムは、上記の光軸方向測定システムと、
 前記測定部によって測定された前記空中像の前記光軸方向と前記空中像を結像する空中像表示装置における所定の光軸方向とのずれを測定し、前記ずれが第3所定値以下である場合、前記空中像表示装置を合格品と判定する判定部と、を備える。
 本開示の光軸方向測定装置は、空中像の結像面内における複数の撮像部位の各撮像画像を取得する取得部と、
 前記各撮像画像の変調伝達関数を空間周波数軸において積分して成る面積に基づいて、前記空中像の光軸方向を測定する測定部と、を備える。
 本開示の光軸方向測定装置は、空間に結像された実像の空中像を撮像する撮像部と、
 前記空中像の結像面内の複数の撮像部位の撮像画像の解像度としての、複数の前記撮像画像の変調伝達関数を空間周波数軸において積分して成る面積、に基づいて、前記空中像の光軸方向を測定する測定部と、を備える。
 本開示の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
本開示の一実施形態の光軸方向測定システムを示す斜視図である。 図1の光軸方向測定システムにおける空中像表示装置の構成を示す断面図である。 空中像表示装置が結像する空中像の光軸方向を測定するためのテストパターンの一例を示す部分拡大図である。 撮像装置によって撮像されたテストパターンの撮像画像を示す部分拡大図である。 撮像装置によって撮像されたテストパターンの撮像画像を示す部分拡大図である。 図5の撮像画像から算出された輝度分布波形の線広がり関数を示すグラフである。 図6の線広がり関数から算出された変調伝達関数(MTF)を示すグラフである。 空中像表示装置が結像する空中像の光軸方向を測定するためのテストパターンの他の例を示す図である。 撮像装置によって撮像されたテストパターンの撮像画像を示す図である。 撮像装置に対するデフォーカス操作を説明する側面図である。 撮像装置によって撮像されたテストパターンの撮像画像の一例を示す部分拡大図である。 撮像装置によって撮像されたテストパターンの撮像画像の一例を示す部分拡大図である。 撮像装置によって撮像されたテストパターンの撮像画像の一例を示す図である。 各撮像部位の合焦位置を示すグラフである。 図12のグラフに対応する光軸ずれを説明する図である。 各撮像部位の合焦位置を示すグラフである。 図14のグラフに対応する光軸ずれを説明する図である。 撮像装置に対する回転操作を説明する図である。 本開示の一実施形態の合否判定システムを示す斜視図である。 合否判定システムの動作の一例を説明するフローチャートである。 合否判定システムの動作の他の例を説明するフローチャートである。 輝度分布波形の線広がり関数を補正する場合のグラフである。 輝度分布波形の線広がり関数を補正する場合のグラフである。 輝度分布波形の線広がり関数を補正する場合の要部の平面図である。 輝度分布波形の線広がり関数を補正する場合の要部の平面図である。
 従来、表示パネルから射出された画像光を実像の空中像として結像させる空中像表示装置が種々提案されている。特許文献1は、空中像表示装置の利用者に良好な空中像を視認させるために、結像素子の空間周波数に対する変調伝達関数(Modulation Transfer Function:MTF)値に基づいて、表示パネルの画素配列または表示パネルに入力する入力画像信号を調整するように構成された空中像表示装置を開示している
 従来の空中像表示装置は、空間に結像した空中像が利用者の方向に正確に向いているかを測定する構成、また空中像の光軸方向を制御する構成を備えていない。そのため、従来の空中像表示装置では、空中像の光軸方向が利用者の方向に正確に向いていない場合、空中像の光軸方向が空中像表示装置の設計上の光軸方向からずれている場合等に、利用者が空中像を適切に視認できないことがあった。空中像表示装置が結像する空中像の光軸方向を測定し、空中像の光軸方向を較正しうる光軸方向測定システムが求められている。
 以下、本開示の実施形態について、図面を参照しながら説明する。以下で参照する各図は、模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。本明細書では、一部の図面において、便宜的に、直交座標系XYZを定義する。X軸方向は、第1方向または高さ方向とも称される。Y軸方向は、第2方向または幅方向(水平方向、横方向)とも称される。Z軸方向は、第3方向または奥行方向とも称される。
 図1~図23は、本開示の実施形態を説明するための各種図およびグラフである。尚、図3~5,8,9,11A,11B,11Cでは、図解を容易にするために、第2帯状画像を実際の輝度より高い輝度で示している。
 本開示の一実施形態の光軸方向測定システム1は、図1に示すように、空中像表示装置2と、カメラ等の撮像装置7と、測定部8とを含む。光軸方向測定システム1は、装置台10を含んでよい。空中像表示装置2および撮像装置7は、装置台10上に位置してよい。
 空中像表示装置2は、図2に示すように、画像表示部3を含み、画像表示部3から射出された画像光Lpを、実像の空中像Rとして結像させる。
 本開示の光軸方向測定システム1は、後述する解像度測定装置を備える。解像度測定装置は、測定部8を備え、測定部8は、空中像Rの結像面(仮想結像面ともいう)Rp内の複数の撮像部位を撮像して取得された各撮像画像の変調伝達関数の面積に基づいて、空中像Rの光軸方向Daを検出する構成である。また光軸方向測定システム1は、少なくとも1つの画像表示部3(図2に記載)から射出された画像光Lpを実像の空中像Rとして結像させる空中像表示装置2と、空中像Rを撮像する撮像装置7と、空中像Rの結像面Rp内の複数の撮像部位を撮像して取得された各撮像画像に基づいて、空中像Rの光軸方向Daを測定する測定部8と、を備える構成であってもよい。この構成により、空間に結像した空中像Rが利用者20の方向に正確に向いているかを検出することができる。また、空中像Rの光軸方向Daを制御し較正することができる。
 光軸方向測定システム1は、複数の画像表示部3を有していてもよい。この場合、空中像表示装置2は複数の空中像Rを空間に結像させることができる。そして、光軸方向測定システム1は、複数の空中像Rを撮像する撮像装置7と、各空中像Rの結像面Rp内の複数の撮像部位を撮像して取得された各撮像画像に基づいて、各空中像Rの光軸方向Daを測定する測定部8と、を備える構成であってもよい。複数の画像表示部3は、2つ以上5つ以下の画像表示部3であってもよいが、この範囲に限らない。
 光軸方向測定システム1が複数の画像表示部3を有する場合、複数の画像表示部3のうち1つを、空中像Rの光軸方向Daを測定する目的に用いてもよい。
 上記の測定部8について、「各撮像画像に基づいて、空中像Rの光軸方向Daを測定する」とは、各撮像画像の輝度、解像度(例えば、コントラスト値)、歪等の空中像Rの画像の特性の値を、各撮像画像について比較すること、より具体的には、それらの特性の値が所定の閾値以上または以下にあるか、またはそれらの特性の値の差分が所定の閾値以下にあるかを、各撮像画像について算出すること等を意味する。
 本開示の解像度測定装置は、撮像装置7により撮像された空中像Rの撮像画像の変調伝達関数を空間周波数軸において積分して成る面積を測定する測定部を備える構成である。また本開示の解像度測定装置は、画像表示部3から射出された画像光Lpを実像の空中像Rとして結像させる空中像表示装置2と、空中像Rを撮像する撮像装置7と、空中像Rを撮像して取得された撮像画像の解像度として、撮像画像の変調伝達関数MTFを空間周波数軸において積分して成る面積(図7に記載)を測定する測定部8と、を備える構成であってもよい。この構成により、以下の効果を奏する。MTFの面積は、輝度分布波形の線広がり関数(図6に一例を示す)およびMTFの値(以下、単に、MTF値ともいう)と比較して、数値的に10倍~20倍程度以上と大きくなる。例えば、図7のグラフにおいて、空間周波数が6でMTFの値は約0.4であるが、MTFの面積は約8(MTF値の約20倍)である。従って、MTFの面積を解像度の高低を比較する指標として用いると、精度の高い解像度の高低の比較をすることができる。本開示の解像度測定装置は、空中像Rの光軸方向Daおよび設計光軸方向Dadを検出するための、後述する移動装置11、第1回転装置12、および第2回転装置13等の光軸検出手段を、備えていなくてもよい。
 空間に結像した空中像Rが利用者20の方向に正確に向いていない場合、空中像Rの結像面Rp内において、輝度、解像度等の表示品位に偏りが発生する場合がある。本開示の光軸方向測定システム1は、空中像Rの結像面Rp内における輝度、解像度等の表示品位の偏りを抑えることができる。
 空中像表示装置2は筐体6を備えていてもよく、その場合、図2に示すように、空中像表示装置2の画像表示部3、光学系5等の構成部材2aは、筐体6に収容されている。構成部材2aは、回路基板、配線、ケーブル、ヒートシンク等の放熱部材、第1光学部材5aを保持する枠状の保持部材、第2光学部材5bを保持する枠状の保持部材、第1光学部材5aの角度及び位置を調整する調整部材、第2光学部材5bの角度及び位置を調整する調整部材等を含んでいてもよい。筐体6は、樹脂製、金属製、セラミック製のものであってもよい。
 画像表示部3は、表示パネル4を含む。表示パネル4は、表示面4aを有しており、表示面4aに空中像Rとして結像される画像を表示する。即ち、表示パネル4は、表示面4aから空中像Rとして結像される画像光Lpを射出する。表示パネル4としては、透過型の表示パネルまたは自発光型の表示パネルを採用しうる。表示パネル4として、透過型の表示パネルを採用した場合、画像表示部3はバックライト等の照射器を含んでよい。表示パネル4として、自発光型の表示パネルを採用した場合、画像表示部3は照射器を含まなくてよい。
 透過型の表示パネルは、液晶パネルを含みうる。透過型の表示パネルは、公知の液晶パネルの構成を有してよい。公知の液晶パネルとしては、IPS(In-Plane Switching)方式、FFS(Fringe Field Switching)方式、VA(Vertical Alignment)方式、および、ECB(Electrically Controlled Birefringence)方式等の種々の液晶パネルを採用しうる。透過型の表示パネルは、液晶パネルの他に、MEMS(Micro Electro Mechanical Systems)シャッタ式の表示パネルを含む。自発光型の表示パネルは、複数の自発光素子を含みうる。自発光素子としては、LED(Light Emitting Diode)、有機EL(Organic Electro Luminescence)、無機EL(Inorganic Electro Luminescence)等の種々の自発光素子を採用しうる。
 空中像表示装置2は、光学系5を含んでよい。光学系5は、表示パネル4の表示面4aから射出された画像光Lpを実像の空中像Rとして結像させる。光学系5は、図2に示すように、第1光学部材5aと、第2光学部材5bとで構成されてよい。第1光学部材5aは、画像表示部3から射出された画像光Lpを、画像表示部3に向かう方向とは異なる方向に反射する。第2光学部材5bは、第1光学部材5aによって反射された画像光Lpを、第1光学部材5aに向かう方向とは異なる方向に反射し、実像の空中像Rとして空間に結像する。第1光学部材5aおよび第2光学部材5bは、凹面鏡であってよい。第1光学部材5aおよび第2光学部材5bは、球面凹面鏡、非球面凹面鏡、または自由曲面凹面鏡であってよい。
 光学系5は、第1光学部材5aと、第2光学部材5bと、第3光学部材(図示せず)とで構成されてもよい。第1光学部材5aは、画像表示部3から射出された画像光Lpを、画像表示部3に向かう方向とは異なる方向に反射する。第3光学部材は、第1光学部材5aによって反射された画像光Lpを、第1光学部材5aに向かう方向とは異なる方向に反射する。第2光学部材5bは、第3光学部材によって反射された画像光Lpを、第3光学部材に向かう方向とは異なる方向に反射し、実像の空中像Rとして空間に結像する。第3光学部材は、凸面鏡であってよい。第3光学部材は、球面凸面鏡、非球面凸面鏡、または自由曲面凸面鏡であってよい。
 筐体6は、撮像装置7に臨む部位の少なくとも一部が画像光射出面6aで構成されている。空中像Rとして結像される画像光Lpは、画像光射出面6aを介して、筐体6内から筐体6外に射出される。画像光射出面6aは、例えば遮光フィルムまたは遮光ガラスを含んで構成されてよい。この場合、空中像表示装置2の使用時に、利用者20が空中像表示装置2の構成部材2aを視認しにくくなるため、空中像Rの視認性を向上させることができる。
 空中像表示装置2は、空中像Rの光軸方向Daが、利用者20から見て奥行方向(Z軸方向)に一致するように設計されているが、空中像表示装置2の各構成部材2aの製造公差、配置誤差等によって、空中像表示装置2が実際に結像する空中像Rの実際の光軸方向Daと、空中像表示装置2の所定の光軸方向Dadとの間にずれ(以下、光軸ずれともいう)が生じうる。空中像表示装置2の所定の光軸方向Dadとは、空中像表示装置2が結像する空中像Rの設計上の光軸方向であり、設計光軸方向Dadとも称される。設計光軸方向(初期設定光軸方向ともいう)は、例えば、利用者20から見て筐体6の幅方向(横方向、水平方向)に直交する方向であってもよいし、画像光射出面6aに直交する方向であってもよい。空中像表示装置2は、設計光軸方向Dadが奥行方向に一致するように、装置台10上に配置されている。
 空中像Rの光軸方向Daは、仮想結像面Rpに直交する方向であってよい。仮想結像面Rpは、空間における空中像Rが結像する仮想的な面である。
 図1等に示す撮像装置7は、例えば図2に示す利用者20の眼20eとして想定され、空中像表示装置2が結像する空中像Rを撮像する。撮像装置7は、空中像表示装置2の正面の方向に位置している。即ち、撮像装置7は、空中像表示装置2から、空中像表示装置2の設計光軸方向(奥行方向)Dadにおいて離隔して位置するように配置される。撮像装置7は、空中像Rを所定の撮像方向7daにおいて撮像してよい。所定の撮像方向7daは、空中像表示装置2の設計光軸方向Dadに一致してよい。尚、撮像装置7の撮像方向7dは、所定の撮像方向7daに限定されない。詳細は後述するが、測定部8は、第1回転装置12が、撮像装置7を所定の回転軸まわりに回転させるよう制御してよい。即ち、測定部8は、撮像装置7が、空中像Rを奥行方向と異なる方向に撮像するよう制御してよい。
 撮像装置7は、複数の撮像素子を含んで構成されてよい。撮像素子は、例えばCCD(Charge Coupled Device)撮像素子であってよいし、CMOS(Complementary Metal Oxide Semiconductor)撮像素子であってよい。撮像装置7は、撮像素子と、対物レンズ等の光学装置と、を含むカメラ(例えば、CCDカメラ)であってもよい。撮像装置7は、絞り値(F値ともいう)が変更可能であってよい。撮像装置7は、例えば、絞り値を2~22の範囲内において変更可能であってよい。
 図1に示す撮像装置7は、装置台10の上面10aに対して傾斜して位置していてもよい。即ち、撮像装置7は、撮像装置7の高さ方向(例えば、撮像装置7の上面に直交する方向)が奥行方向(Z軸方向)と平行な回転軸まわりに3°~5°程度傾斜していてよい。これにより、空中像Rの光軸方向Daを測定する際のサンプリング数を増加させることができ、空中像Rの光軸方向Daを精度よく測定することが可能となる。
 光軸方向測定システム1は、測定部8を備える。測定部8は、後述するように、光軸方向測定システム1の制御部および演算処理部としての機能を備えていてもよい。また、光軸方向測定システム1は、取得部14を備えていてもよい。取得部14は、後述するように、画像データの記憶装置としての機能を備えていてもよい。測定部8および取得部14は、測定装置18(図1に記載)に含まれていてもよい。測定装置18は、パーソナルコンピューター(Personal Computer:PC)装置等の計算装置に含まれるものであってもよく、撮像装置7に含まれるものであってもよい。また、測定装置18は、制御回路部および演算処理回路部を含む回路基板装置であってもよい。測定装置18と撮像装置7との信号の送受信の方式、取得部14と撮像装置7との信号の送受信の方式、取得部14と測定部8との信号の送受信の方式は、有線通信方式、無線通信方式、および赤外線通信方式等の少なくとも一種を用いたものであってもよい。
 撮像装置7は、測定部8を含まずに撮像機能のみを有するものであってもよく、例えば撮像装置7はスマートフォン等の携帯型通信機器であって、撮像部は携帯型通信機器に付属したカメラであってもよい。また、撮像装置7はスマートフォン等の携帯型通信機器であって、撮像装置7は測定部8を含んでいてもよい。その場合、例えば、測定部8は撮像装置7に格納されたアプリケーションソフトであってもよい。
 測定部8は、光軸方向測定システム1の制御部として機能しうる。即ち、測定部8は、光軸方向測定システム1の各構成要素に接続され、各構成要素を制御しうる。測定部8は、1つまたは複数のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行するように構成される汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくとも一方を含んでよい。専用のプロセッサは、ASIC(Application Specific Integrated Circuit)を含んでいてもよい。プロセッサは、PLD(Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでいてもよい。測定部8は、1つまたは複数のプロセッサが協働するように構成されるSoC(System-on-a-Chip)、およびSiP(System In a Package)の少なくとも一方を含んでよい。
 測定部8は、空中像表示装置2が、空中像Rの光軸方向Daを測定するために、空中像Rのテストパターン等の撮像画像の画像データに基づく特性値を演算処理する演算部を有していてもよい。即ち、撮像装置7が、テストパターンの結像面内の複数の撮像部位を撮像した複数の撮像画像を生成したときに、測定部8は、各撮像画像の画像データを取得する。この取得の制御は、取得部14(図1に記載)を介して実行してもよい。取得部14は、バッファメモリ等の一時記憶装置であってもよい。例えば、撮像装置7が複数の撮像画像を生成したら、各撮像画像の画像データを、取得部14に自動的に出力してもよい。また、取得部14の記憶領域が空いているか否か、取得部14から測定部8への前回の画像データの出力が終わっているか否かの確認を、確認信号のやり取りによって行った後に、撮像装置7から画像データを取得部14に出力してもよい。測定部8は、撮像装置7から各撮像画像の画像データを取得し、それらの画像データに基づいて演算処理し、テストパターンの光軸方向を測定する。
 光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの光軸方向Daを系統的に測定することができる。即ち、空中像Rのテストパターン等を撮像装置7によって撮像すること、撮像装置7によって撮像された撮像画像の画像データを測定部8に出力すること、測定部8によって画像データに基づく撮像画像の特性値を演算処理し空中像Rの光軸方向Daを検出すること、といった順序立った操作となっている。従って、この順序立った操作を自動化したシステムとすることができる。また、検出した空中像Rの光軸方向Daに基づいて、空中像表示装置2が結像する空中像Rの光軸方向Daを較正することが可能となる。尚、空中像表示装置2は、空中像Rを結像しうる空中像表示装置であればよく、図2に示したとおりの空中像表示装置でなくてよい。空中像表示装置2は、例えば、画像表示部3から射出された画像光Lpを、再帰反射板および偏光フィルタ等の光学素子を用いて空中像Rとして結像させるように構成された空中像表示装置であってよいし、その他の構成の空中像表示装置であってよい。
 空中像Rの光軸方向Daを検出するためのテストパターン9(以下、空中像9、または単に空中像Rともいう)は、図3に示すように、第1帯状画像9aおよび第2帯状画像9bの繰り返しパターンであってよい。尚、図3は、ぼけ(解像度劣化)および光軸ずれがない理想的なテストパターン9を示している。第1帯状画像9aおよび第2帯状画像9bは、結像面内の幅方向(Y軸方向)に略直交する方向に細長い画像であってよい。空中像9は、少なくとも3つの第1帯状画像9aを含んでよい。図3は、第1帯状画像9aが白画像であり、第2帯状画像9bが黒画像である例を示しているが、これに限定されない。第1帯状画像9aと第2帯状画像9bとは、輝度および色のうちの少なくとも一方が異なっていればよい。
 図4は、撮像装置7によって撮像された空中像9の全体像の一例を示す。撮像装置7が撮像する複数の撮像部位は、図4に示す撮像部位F3,F4,F5を含む。撮像部位F4は、空中像9の結像面Rp(X軸方向およびY軸方向)の中心付近に位置してよい。撮像部位F3,F4,F5は、空中像9の結像面Rp内における所定方向(例えば、Y軸方向)に並んでよい。所定方向は、Y軸方向(幅方向)であってよいが、これに限らない。所定方向は、X軸方向(上下方向、高さ方向)であってもよく、X軸方向およびY軸方向から傾いた方向(斜め方向)であってもよい。以下では、特に断らない限り、撮像部位F3,F4,F5が、空中像9の結像面Rp内におけるY軸方向(幅方向)に並んでいる場合について説明する。尚、複数の撮像部位は、撮像部位F3,F4,F5に加えて、図4に示す撮像部位F1,F2,F6,F7を含んでいてもよい。
 空中像9は、複数の撮像画像P1,…,P7のそれぞれが少なくとも1つの第1帯状画像9a(図4における白画像部分)の像を含むように構成される。尚、本明細書において、撮像画像P1,…,P7はそれぞれ、撮像部位F1,…,F7を撮像した像を指す。空中像9は、図5に示すように、複数の撮像画像P1,…,P7のそれぞれが一本の第1帯状画像9aの像を含むように構成されてよい。この場合、各撮像画像P3,P4,P5の処理が簡単になり、空中像9の光軸方向Daを精度よく測定することが可能となる。尚、図5は、撮像画像P3を示しているが、撮像画像P4,P5も撮像画像P3と同様であることを示す。
 奥行方向(Z軸方向)における撮像装置7と空中像9との距離は、所定の撮像距離(初期設定距離ともいう)に設定されていてよい。初期設定距離は、例えば300mm~700mmであってよいし、500mmであってよい。撮像装置7と空中像9との距離は、撮像装置7と空中像9の中心付近(例えば撮像部位F4)との距離であってよい。撮像装置7の焦点距離は、所定の焦点距離に固定されている。所定の焦点距離は、初期設定距離に一致してよい。以下では、特に断らない限り、撮像装置7と空中像9との距離は、初期設定距離に設定されているものとする。尚、奥行方向における撮像装置7と空中像9との距離は、初期設定距離に固定されなくてよい。詳細は後述するが、測定部8は、移動装置11が、撮像装置7と空中像9との距離を初期設定距離から変更するよう制御してよい。即ち、測定部8は、撮像装置7と空中像9との距離と、撮像装置7の焦点距離とを異ならせるデフォーカス操作を行ってよい。
 測定部8は、空中像9の光軸方向Daを測定する際、撮像装置7が、絞り値を3以下(例えば2.3)に設定するよう制御してよい。撮像装置7の絞り値を比較的小さい値に設定することで、撮像装置7の被写界深度(被写界焦点深度ともいう)を浅く(短く)することができる。即ち、奥行方向において被写体に焦点の合う範囲を小さく(狭く)することができる。その結果、奥行方向における被写体(即ち、複数の撮像部位F3,F4,F5)の位置を精度よく検出することができ、空中像9の光軸方向Daを精度よく測定することが可能となる。絞り値を3以下に設定する場合、開放絞り値(例えば、1.4~1.8)を超え3以下に設定してもよい。
 光軸方向測定システム1は、図1に示すように、撮像装置7を奥行方向(Z軸方向)に沿って移動させる移動装置11を含んでよい。移動装置11は、撮像装置7を所定距離ΔZ単位で移動させうるように構成される。所定距離ΔZは、例えば、1mm~5mm程度であってよいし、1mm~2mm程度であってよい。移動装置11は、例えば、レール11rと、保持部材(支持部材ともいう)11hと、保持部材11hを上面の側に設置した移動台(スライダーともいう)11tと、を含んで構成される。レール11rは、装置台10の上面10aに位置し、奥行方向に沿って延びている。保持部材11hは、撮像装置7を支持し保持している。保持部材11hが撮像装置7を保持した状態で、移動台11tがレール11r上を奥行方向に沿って移動することができる。奥行方向に沿った移動台11tの移動は、測定部8によって制御されてもよい。
 光軸方向測定システム1は、図1に示すように、撮像装置7を第1回転軸A1まわりに回転させる第1回転装置12を含んでよい。第1回転軸A1は、結像面Rp内において複数の撮像部位F3,F4,F5が並ぶ所定方向(例えば、Y軸方向)に直交する方向(例えば、X軸方向)と平行であってよい。第1回転軸A1は、撮像装置7を通る回転軸であってよい。第1回転装置12は、撮像装置7を所定角度ΔΘ単位で回転させうるように構成される。所定角度ΔΘは、例えば、0.1°~2.0°程度であってよいし、0.5°~1°程度であってよい。第1回転装置12は、移動装置11に備わっていてよい。例えば、第1回転装置12は、移動台11tと保持部材11hとの間に設置されていてもよい。第1回転装置12は、移動装置11の保持部材11hと、保持部材に保持された撮像装置7とを第1回転軸A1まわりに回転させてよい。第1回転装置12は、移動装置11の保持部材11hを回転させず、撮像装置7のみを第1回転軸A1まわりに回転させてもよい。第1回転軸A1まわりの撮像装置7の回転は、測定部8によって制御される。第1回転装置12は、ステッピングモーター装置、リニアモーター装置、超音波モーター装置、手動によって回転されるつまみ、ネジ等の回転調整装置等を備える手動式回転装置であってもよい。
 光軸方向測定システム1は、図2に示すように、空中像表示装置2を第2回転軸A2まわりに回転させる第2回転装置13を含んでよい。第2回転軸A2は、結像面Rp内において撮像部位F3,F4,F5が並ぶ所定方向に直交する方向(例えば、X軸方向)と平行であってよい。第2回転装置13は、筐体6内で構成部材2a(画像表示部3および光学系5)の全体を第2回転軸A2まわりに回転させてよい。即ち、第2回転装置13は、筐体6を回転させず、構成部材2aの全体のみを第2回転軸A2まわりに回転させてよい。第2回転軸A2まわりの空中像表示装置2の回転または構成部材2aの全体の回転は、測定部8によって制御される。
[空中像の光軸方向の測定]
 次に、空中像表示装置2が結像する空中像9の実際の光軸方向Daを測定する光軸方向測定システム1の動作について説明する。
 先ず、空中像9の実際の光軸方向Daが撮像装置7の撮像方向7dに一致するか否か、また空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを測定する光軸方向測定システム1の動作について説明する。撮像装置7の撮像方向7dは、カメラの対物レンズの光軸方向(中心軸方向ともいう)であってもよく、CCD撮像素子等の撮像面に直交する方向であってもよい。また撮像装置7の撮像方向7dは、空中像表示装置2に正対している利用者20の眼20eの視線方向であると想定してもよい。
 空中像9の実際の光軸方向Daが、撮像装置7の撮像方向7dに一致するか否かを検出する場合、まず、空中像表示装置2は撮像装置7に対して正対していると仮定する。そして、空中像9の実際の光軸方向Daが撮像装置7の撮像方向7dに一致していない場合(実際の光軸方向Daが撮像方向7dとずれている場合)、後述する撮像装置7を奥行方向の前後に平行移動させる方法(デフォーカス法)によって、光軸方向Daと撮像方向7dのずれ量を測定し、光軸方向Daを測定することができる。また、撮像装置7を第1回転軸A1の回りに回転移動させて、撮像方向7dを光軸方向Daに一致させることによって、光軸方向Daを測定することができるとともに、空中像表示装置2を撮像装置7の方に正確に正対させることもできる。
 尚、実際の光軸方向Daと撮像方向7dとの間の位置ずれは、高さ方向(X軸方向)においてのみ存在する場合、幅方向(Y軸方向)においてのみ存在する場合、高さ方向(X軸方向)及び幅方向(Y軸方向)において存在する場合がある。それぞれの場合について、位置ずれを検出し、位置ずれを解消するように調整することができる。
 空中像9の実際の光軸方向Daが、空中像表示装置2の設計光軸方向Dad(図2に記載)に一致するか否かを測定する場合、空中像表示装置2を撮像装置7に対して正対する所定の位置に、正確に配置する。例えば、空中像表示装置2の画像光射出面6aが撮像装置7の撮像方向7dに直交するように、空中像表示装置2を配置してもよい。このとき、撮像方向7dは所定の撮像方向7da(設計光軸方向Dadに一致する撮像方向7da)であると想定する。即ち、実際の光軸方向Daと設計光軸方向Dadとの間に位置ずれがなければ、光軸方向Daと撮像方向7daと間のずれ量は測定されず、実際の光軸方向Daと設計光軸方向Dadとの間に位置ずれがあれば、後述する撮像装置7を奥行方向の前後に平行移動させる方法(デフォーカス法)によって、光軸方向Daと撮像方向7daと間のずれ量が測定される。さらに、光軸方向Daと設計光軸方向Dadとのずれを解消するように、空中像表示装置2の構成部材2aの配置の調整、構成部材2aの交換等を行うことによって、光軸方向Daと設計光軸方向Dadとを一致させてもよい。
 尚、実際の光軸方向Daと設計光軸方向Dadとの間の位置ずれは、高さ方向(X軸方向)においてのみ存在する場合、幅方向(Y軸方向)においてのみ存在する場合、高さ方向(X軸方向)及び幅方向(Y軸方向)において存在する場合がある。それぞれの場合について、位置ずれを検出し、位置ずれを解消するように調整することができる。
 以下では、具体的な例として、撮像画像P3,P4,P5の画像データに基づいて、高さ方向(X軸方向)に直交する平面内における、空中像9の実際の光軸方向Daと設計光軸方向Dadとの一致または不一致を検出する光軸方向測定システム1の動作について説明するが、これに限られない。
<輝度分布波形の線広がり関数の特性値に基づく光軸方向の測定>
 測定部8は、上述のように、撮像装置7から、空中像9の結像面Rp内のY軸方向に並ぶ複数の撮像画像P3,P4,P5の画像データを取得する。測定部8は、各撮像画像P3~P5について、幅方向(図5における左右方向)に並ぶ各画素の輝度値をスキャンし、ビニング処理を行って、図6に示すような輝度分布波形LSF3,LSF4,LSF5を算出する。輝度分布波形は、Y軸方向の位置による輝度の変化を表すパルス状の波形である。図6の横軸は、Y軸方向の位置の変化を表したものである。図6は、Y軸方向における複数の画素(例えば、60個の画素)内において、30個目の画素の位置に輝度分布波形の最高値(ピーク値)が位置するように表示している。尚、本明細書において、輝度分布波形LSF1,…,LSF7はそれぞれ、撮像画像P1,…,P7から算出された輝度分布波形を指す。輝度分布波形は、線広がり関数(Line Spread Function:LSF)とも称される。各撮像画像P3~P5が図5に示すような撮像画像である場合、線広がり関数LSF3~LSF5は、図6に示すように、略ガウス型の形状を有する。以下、LSFの特性値に基づく光軸方向の測定方法をLSF法ともいう。尚、「~」は「乃至」を意味し、以下同様とする。
 測定部8は、線広がり関数LSF3~LSF5のそれぞれの特性値V3,V4,V5を算出する。尚、本明細書において、特性値V1,…,V7はそれぞれ、線広がり関数LSF1,…,LSF7の特性値を指す。特性値は、線広がり関数のピーク値Hであってよいし、線広がり関数の半値幅Wであってよい。ピーク値Hは、線広がり関数の最大値である。例えば、線広がり関数LSF4のピーク値Hが大きいほど、撮像部位F4と撮像装置7との距離が撮像装置7の焦点距離に近いと判断できる。線広がり関数LSF3,LSF5のピーク値Hについても同様である。半値幅Wは、ピーク値Hの略50%の輝度を有する線広がり関数の幅であり、画素数を単位として表される。例えば、線広がり関数LSF4の半値幅Wが小さいほど、撮像部位F4と撮像装置7との距離が撮像装置7の焦点距離に近いと判断できる。線広がり関数LSF3,LSF5の半値幅Wについても同様である。特性値は、ピーク値Hと半値幅Wとから得られる組み合わせ値であってもよい。組み合わせ値は、ピーク値Hを半値幅Wで除算して得られる値であってよいし、その他の値であってよい。特性値がピーク値Hを半値幅Wで除算して得られる組み合わせ値である場合、線広がり関数LSF4の組み合わせ値が大きいほど、撮像部位F4と撮像装置7との距離が撮像装置7の焦点距離に近いと判断できる。線広がり関数LSF3,LSF5の組み合わせ値についても同様である。
 尚、線広がり関数LSFの半値幅(half width)は、パルス状(山形状)の関数の広がりの程度を表す指標である。半値幅には、半値全幅(full width at half maximum:FWHM)と、半値全幅の半分の値の半値半幅(half width at half maximum:HWHM)とがあるが、一般に単に半値幅という場合、半値幅は半値全幅のことを指す。従って、本開示において、特にことわらない場合、半値幅は半値全幅のことを意味する。具体的には、半値幅(半値全幅)は、図6に示す輝度分布波形において、ピーク値Hの周囲で単調に減少する分布の広がりを示す数値で、ピーク値Hの両側でピーク値Hの半分の値が示す位置の間の距離である。
 測定部8は、複数の特性値V3~V5の間の複数の差分(即ち、V3-V4、V3-V5、およびV4-V5)を算出し、複数の差分の絶対値のすべてが閾値T1(LSF法における第1所定値T1ともいう)以下である場合、空中像9の実際の光軸方向Daが奥行方向(設計光軸方向Dad)に一致すると判定してよい。測定部8は、複数の差分の絶対値のうちの少なくとも1つが閾値T1を超える場合、空中像9の光軸方向Daが奥行方向に一致しないと判定してよい。閾値T1は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 例えば、特性値が線広がり関数のピーク値H(図6に示すように、0~1.0の範囲内の値である)である場合、複数の特性値の差分の絶対値が閾値T1(例えば、0.2)以下である場合、空中像9の光軸方向Daが奥行方向に一致すると判定してもよい。閾値T1が0.2のとき、最大ピーク値1.0の20%に相当する。閾値T1は、0.15(15%)、0.1(10%)、0.05(5%)、0.03(3%)であってもよいが、これらの値に限らない。
 測定部8は、複数の特性値V3~V5がピーク値Hである場合、複数の特性値V3~V5のすべてが閾値T2(LSF法における第2所定値T2ともいう)以上であるとき、空中像9の光軸方向Daが奥行方向に一致すると判定してよい。測定部8は、特性値V3~V5がピーク値Hである場合、特性値V3~V5のうちの少なくとも1つが閾値T2未満であるとき、空中像9の光軸方向Daが奥行方向に一致しないと判定してよい。閾値T2は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 例えば、特性値が線広がり関数のピーク値H(図6に示すように、0~1.0の範囲内の値である)である場合、複数の特性値のすべてが閾値T2(例えば、0.7)以上である場合、空中像9の光軸方向Daが奥行方向に一致すると判定してもよい。閾値T2が0.7のとき、最大ピーク値1.0の70%に相当する。閾値T2は、0.8(80%)、0.9(90%)であってもよいが、これらの値に限らない。
 測定部8は、特性値V3~V5が半値幅Wである場合、特性値V3~V5のすべてが閾値T3(LSF法における第2所定値T3ともいう)以下であるとき、空中像9の光軸方向Daが奥行方向に一致すると判定してよい。測定部8は、特性値V3~V5が半値幅Wである場合、特性値V3~V5のうちの少なくとも1つが閾値T3を超えるとき、空中像9の光軸方向Daが奥行方向に一致しないと判定してよい。閾値T3は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 例えば、特性値が半値幅Wである場合、複数の特性値のすべてが閾値T3(例えば、画素数5)以下であるとき、空中像9の光軸方向Daが奥行方向に一致すると判定してもよい。閾値T3としての画素数は、4、3、2、または1であってもよいが、これらの値に限らない。
 光軸方向測定システム1は、線広がり関数LSF3~LSF5の特性値V3~V5に基づいて、空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを系統的に測定することができる。従って、光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの光軸方向Daを較正することが可能となる。即ち、実際の光軸方向Daを設計光軸方向Dadに一致させるために、空中像表示装置2の構成部材2aの少なくとも一部の配置を調整すること、構成部材2aの少なくとも一部を交換すること等の手段を採用することができる。
<変調伝達関数の面積に基づく光軸方向の測定>
 光軸方向測定システム1は、変調伝達関数(Modulation Transfer Function:MTF)の面積に基づいて、空中像9の実際の光軸方向Daが撮像方向7dに一致するか否か、また空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを判定することができる。以下、MTFの面積に基づいて、空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを判定する光軸方向測定システム1の動作について説明する。また、MTFの面積に基づく光軸方向Daの測定方法をMTF面積法ともいう。尚、MTFの面積は、図7のグラフの実線で表したMTFの面積(斜線部)で示す。光軸方向Daが設計光軸方向Dadに一致しないことに基づいて、ある撮像部位の解像度が劣化した場合、その撮像部位のMTFの面積(図7のグラフの破線で表したMTFの面積)は上限値(図7のグラフの実線で表したMTFの面積)から低下することとなる。MTFの面積は撮像装置7の絞り値によって変化するため、一概に特定の値にはならないが、例えば図7の例では6~7程度が上限値(理想値)である。
 測定部8は、撮像画像P3~P5から算出された線拡がり関数LSF3~LSF5を用いて、次の式(1)に表されるように、線広がり関数LSF3~LSF5のそれぞれをフーリエ変換することによって、変調伝達関数MTF3,MTF4,MTF5を算出する。尚、フーリエ変換は、例えば、パルス状の波形で表される関数を、周波数領域で連続的な値で表される曲線(正弦波形曲線、余弦波形曲線、またはそれらの合成曲線で表される連続的な曲線)に変換する操作である。
式(1)において、LSF(x)は、撮像画像P3~P5内の位置xの関数としての線広がり関数LSF3~LSF5を総括的に表し、MTF(ν)は、空間周波数νの関数としての変調伝達関数MTF3~MTF5を総括的に表し、Cは、MTF(0)を「1」に正規化するための定数である。図7は、MTF(ν)の一例を示すグラフである。MTF(ν)は、撮像画像P3~P5のコントラストに基づく解像度を表す指標であると言える。例えば、空間周波数νが高い領域(6/mm~16/mm程度)における変調伝達関数MTF4の値が大きいほど、撮像部位F4と撮像装置7との距離が撮像装置7の焦点距離に近いと判断できる。変調伝達関数MTF3,MTF5についても同様である。式(1)における積分区間の上限および下限はそれぞれ、有限値(例えば、空間周波数0~18(1/mm))に置き換えてよく、この場合、測定部8の処理負担を軽減することができる。式(1)によって変調伝達関数MTF3~MTF5を算出する際、離散フーリエ変換または高速フーリエ変換等の手法を用いてよい。
 測定部8は、次の式(2)で表されるように、変調伝達関数MTF3~MTF5を空間周波数軸において積分して成る面積(以下、MTF面積ともいう)S3~S5を測定する。尚、本明細書において、MTF面積S1,…,S7はそれぞれ、変調伝達関数MTF1,…,MTF7を空間周波数νについて積分して成るMTF面積を指す。式(2)における積分区間の上限は、有限値(例えば、空間周波数0~18(1/mm))に置き換えてよく、この場合、測定部8の処理負担を軽減することができる。
 変調伝達関数MTF3~MTF5は、撮像画像P3~P5から線広がり関数LSF3~LSF5を算出した後、線広がり関数LSF3~LSF5をフーリエ変換することによって算出されなくてよい。変調伝達関数MTF3~MTF5はそれぞれ、撮像画像P3~P5から直接にチャート法によって算出されてよい。
 測定部8は、変調伝達関数MTF3~MTF5をチャート法によって算出する場合、空中像表示装置2が、図8に示すような空中像9’(以下、単に空中像Rともいう)を結像するよう制御する。尚、図8は、ぼけ(解像度劣化)および光軸ずれがない理想的な空中像9’を示している。空中像9’は、各撮像部位F3~F5が、空間周波数(白画像部分のピッチ)が互いに異なる複数の矩形波チャート9c,9d,9e,9fを含むように構成され、従って、各撮像画像P3~P5は、図9に示すように、空間周波数νが互いに異なる複数の矩形波チャート9c~9fの像を含む。測定部8は、撮像装置7が、空中像9’を撮像し、撮像部位F3~F5を撮像した撮像画像P3~P5を生成し、撮像画像P3~P5の画像データを出力するよう制御する。撮像装置7は、空中像9’を撮像する際、装置台10の上面10aに対して傾斜いなくてよい。測定部8は、各撮像画像P3~P5について、各矩形波チャート9c~9fを撮像した部分像の輝度の最大値aνおよび最小値bν、ならびにコントラストcν=(aν-bν)/(aν+bν)を算出する。さらに、測定部8は、各空間周波数νのコントラストcνを最も低い空間周波数νのコントラストcνで正規化し、矩形波レスポンス関数(Square Wave Response Function:SWRF)を算出する。測定部8は、矩形波レスポンス関数を正弦波レスポンス関数に変換し、変調伝達関数MTF3~MTF5を算出する。矩形波レスポンス関数を正弦波レスポンス関数に変換する際、コルトマンの式を用いてよい。コルトマンの式は、第4項まで用いてよいし、第12項まで用いてもよい。
 変調伝達関数MTFは、撮像画像から線広がり関数LSFを算出した後、線広がり関数LSFをフーリエ変換することによって算出されなくてもよい。変調伝達関数MTFは、撮像画像を画像解析する画像解析プログラムソフトによって解析し、解析して得られた解析画像と、別途参照テーブル等に記憶させた参照画像とを比較することによって、MTF値を特定してもよい。例えば、各参照画像は1つのMTF値(参照MTF値ともいう)に対応しており、或る解析画像が或る参照画像と一致している場合、または或る解析画像が或る参照画像に最も近似している場合に、或る解析画像のMTF値が、或る参照画像に対応する参照MTF値であると判定してもよい。この判定は、例えば測定部8(図1,17に示す)または判定部15(図17に示す)において実行してもよい。この実行により、或る解析画像のMTF値を特定する処理を高速に行うことができる可能性がある。画像解析プログラムソフトは、撮像画像を解析し特定のパターンを検出および/または抽出する画像認識を行う人工知能(Artificial Intelligence:AI)プログラムソフトを含んでいてもよい。AIプログラムソフトは、画像データを直接解析して特定のパターンを検出および/または抽出する画像認識を行うものであってもよい。
 同様に、MTF面積は、撮像画像から線広がり関数LSFを算出した後、線広がり関数LSFをフーリエ変換することによって算出されなくてもよい。MTF面積は、撮像画像を画像解析する画像解析プログラムソフトによって解析し、解析して得られた解析画像と、別途参照テーブル等に記憶させた参照画像とを比較することによって、MTF面積を特定してもよい。例えば、各参照画像は1つのMTF面積(参照MTF値ともいう)に対応しており、或る解析画像が或る参照画像と一致している場合、または或る解析画像が或る参照画像に最も近似している場合に、或る解析画像のMTF面積が、或る参照画像に対応する参照MTF面積であると判定してもよい。この判定は、例えば測定部8(図1,17に示す)または判定部15(図17に示す)において実行してもよい。この実行により、或る解析画像のMTF面積を特定する処理を高速に行うことができる可能性がある。画像解析プログラムソフトは、上記のAIプログラムソフトを含んでいてもよい。
 測定部8は、複数のMTF面積S3~S5の間の複数の差分(即ち、S3-S4、S3-S5、およびS4-S5)を算出し、複数の差分の絶対値のすべてが閾値T4(MTF面積法における第1所定値T4ともいう)以下である場合、空中像9’の実際の光軸方向Daが奥行方向(設計光軸方向Dad)に一致すると判定してよい。測定部8は、複数の差分の絶対値のうちの少なくとも1つが閾値T4を超える場合、空中像9’の光軸方向Daが奥行方向に一致しないと判定してよい。閾値T4は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 測定部8は、MTF面積S3~S5のすべてが閾値T5(MTF面積法における第2所定値T5ともいう)以上であるとき、空中像9’の実際の光軸方向Daが奥行方向に一致すると判定してよい。測定部8は、MTF面積S3~S5のうちの少なくとも1つが閾値T5未満であるとき、空中像9’の実際の光軸方向Daが奥行方向に一致しないと判定してよい。閾値T5は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 光軸方向測定システム1は、MTF面積S3~S5に基づいて、空中像9’の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを系統的に検出することができる。変調伝達関数MTFの面積は外光等の影響を受け難いため、MTF面積S3~S5を用いることによって、空中像9’の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを精度よく検出することができる。従って、光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの実際の光軸方向Daを精度よく較正することが可能となる。
 次に、空中像9の光軸ずれ(実際の光軸方向Daと設計光軸方向Dadとのずれ)を測定し、空中像表示装置2の光軸ずれを較正する光軸方向測定システム1の動作について説明する。測定部8は、空中像9の実際の光軸方向Daが設計光軸方向(奥行方向)Dadに一致しないと判定した場合、空中像9の実際の光軸方向Daの設計光軸方向Dadからの光軸ずれを測定してよい。測定部8は、空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを判定することなく、空中像9の実際の光軸方向Daの設計光軸方向Dadからの光軸ずれを測定してもよい。
[デフォーカス操作による光軸ずれの検出]
 先ず、撮像装置7を撮像方向7dに沿って移動させることによって、光軸ずれを測定する光軸方向測定システム1の動作について説明する。測定部8は、移動装置11が、図10に示すように、撮像装置7を撮像方向(Z軸方向)7dに沿って移動させ、撮像方向7dにおける座標(Z座標)が互いに異なる複数の位置に位置付けるよう制御する。複数の位置のZ座標は、総括的にZjで表され、Zjは、Zj=Z0+j×ΔZで表される。Z0は、撮像方向7dにおける撮像装置7の初期座標であり、撮像装置7と空中像9との距離が初期設定距離となるときの撮像装置7のZ座標である。ΔZは、例えば、0.1mm~5mm程度であってよいし、0.2mm~2mm程度であってよい。jは、-m1≦j≦m2(m1,m2は自然数)の範囲の整数である。m1,m2は、例えば1~20の自然数であってよいが、1~20の自然数に限定されない。
 測定部8は、撮像装置7が、Z座標がZj(-m1≦j≦m2)で表される各位置から、空中像9を撮像方向7dにおいて撮像するよう制御する。図11Aは、Z座標がZ0である位置に位置する撮像装置7によって撮像された空中像9の一例を示し、図11Bは、Z座標がZja(jaは正の整数)である位置に位置する撮像装置7によって撮像された空中像9の一例を示し、図11Cは、Z座標がZjb(jbは負の整数)である位置に位置する撮像装置7によって撮像された空中像9の一例を示す。撮像装置7の焦点距離が初期設定距離に固定されているため、撮像装置7の移動に伴って、撮像部位F3,F4,F5のぼけが変化することが分かる。撮像装置7は、各撮像部位F3~F5について、(m1+m2+1)枚の撮像画像P3~P5の画像データを測定部8に出力する。測定部8は、各撮像部位F3~F5について、撮像装置7から(m1+m2+1)枚の撮像画像P3~P5の画像データを取得する。測定部8は、撮像装置7から、取得部14を介して、画像データを取得してよい。
<輝度分布波形の線広がり関数の特性値に基づく光軸ずれの検出>
 先ず、線広がり関数の特性値に基づいて、空中像9の光軸ずれを検出する場合について説明する。測定部8は、各撮像部位F3~F5について、(m1+m2+1)枚の撮像画像P3~P5の画像データに基づいて、(m1+m2+1)個の線広がり関数LSF3,LSF4,LSF5を算出し、(m1+m2+1)個の特性値V3~V5を算出する。以下では、特性値V3~V5が、線広がり関数LSF3~LSF5のピーク値H、またはピーク値Hを半値幅Wで除算した組み合わせ値であるとする。測定部8は、各撮像部位F3~F5について、(m1+m2+1)個の特性値V3~V5のうちの最大値VMAXを検出するとともに、特性値V3~V5が最大値VMAXとなるときの撮像装置7のZ座標(以下、合焦位置ともいう)を検出する。
 図12は、各撮像部位F3~F5の合焦位置FP3~FP5を示すグラフである。尚、本明細書において、合焦位置FP1,…,FP7はそれぞれ、特性値V1,…,V7が最大値VMAXとなるときの合焦位置を指す。図12は、撮像部位F1,F2,F6,F7の合焦位置FP1,FP2,FP6,FP7を併せて示している。合焦位置FP1,FP2,FP6,FP7は、合焦位置FP3~FP5と同様に算出することができる。図12では、各撮像部位F3~F5の合焦位置FP3~FP5を、撮像部位F4の合焦位置FP4を基準位置(0mm)として示している。図12は、光軸ずれが発生している場合の撮像部位F3~F5の合焦位置FP3~FP5を示している。
 図12では、撮像部位F3の合焦位置FP3(+1.0mm)の符号と、撮像部位F5の合焦位置FP5(-0.8mm)の符号とが異なっている。このことは、図13に示すように、光軸ずれが発生していることを意味する。即ち、合焦位置FP3は、撮像装置7の焦点距離に対して撮像装置7の方に1.0mm近い位置にあり、合焦位置FP5は、撮像装置7の焦点距離に対して撮像装置7から0.8mm遠い位置にある。測定部8は、合焦位置FP3と合焦位置FP5とが異符号である場合、空中像9の光軸が、次の式(3)を満たす角度θだけ奥行方向からずれていると判定する。
式(3)において、|FP3|は、合焦位置FP3の絶対値であり、|FP5|は、合焦位置FP5の絶対値である(図12参照)。Lは、幅方向(Y軸方向)における空中像9の設計上の長さである。
 測定部8は、空中像9の光軸方向Daが角度θだけ設計光軸方向(奥行方向)Dadからずれていると判定した場合、空中像表示装置2の構成部材2a全体を回転させる第2回転装置13(図2に示す)が、空中像表示装置2を第2回転軸A2まわりに角度θだけ回転させるよう制御する。これにより、空中像表示装置2が結像する空中像Rの光軸ずれを較正することができる。その結果、光軸ずれが低減された高い表示品位の空中像Rを利用者に視認させることが可能となる。測定部8は、第2回転装置13が、装置台10の上方から見たときに、空中像表示装置2を時計回りまたは反時計回りに角度θだけ回転させるよう制御する。測定部8は、合焦位置FP3,FP5の符号に基づいて、空中像9の光軸方向Daが設計光軸方向Dadと平行となる(即ち、一致する)ように、空中像表示装置2を回転させる方向を判定してよい。第2回転装置13は、ステッピングモーター装置、リニアモーター装置、超音波モーター装置、手動によって回転されるつまみ、ネジ等の回転調整装置等を備える手動式回転装置であってもよい。
 図14は、光軸ずれが発生していない場合の撮像部位F3~F5の合焦位置FP3~FP5を示している。図14は、撮像部位F1,F2,F6,F7の合焦位置FP1,FP2,FP6,FP7を併せて示している。合焦位置FP1,FP2,FP6,FP7は、合焦位置FP3~FP5と同様に算出することができる。図14では、撮像部位F3の合焦位置FP3(-0.6mm)の符号と、撮像部位F5の合焦位置FP5(-0.6mm)の符号とが同符号であり、このことは、図15に示すように、光軸ずれが発生していない(または光軸ずれが低減されている)ことを指している。測定部8は、合焦位置FP3の符号と、合焦位置FP5の符号とが同符号である場合、空中像9の実際の光軸方向Daが設計光軸方向(奥行方向)Dadからずれていないと判定し、空中像表示装置2の構成部材2aを回転させなくてよい。
 光軸方向測定システム1の上述の動作は、線広がり関数LSF3~LSF5の特性値V3~V5として、ピーク値H、またはピーク値Hを半値幅Wで除算した組み合わせ値を用いる場合の動作である。線広がり関数LSF3~LSF5の特性値V3~V5として、半値幅Wを用いる場合、測定部8は、各撮像部位F3~F5について、(m1+m2+1)個の特性値V3~V5のうちの最小値VMINを検出し、特性値V3~V5が最小値VMINとなるときの撮像装置7のZ座標を合焦位置FP3~FP5とすればよい。最小値VMINは、閾値T1と同様であってもよい。
 光軸方向測定システム1は、撮像装置7に対してデフォーカス操作を行うことで、線広がり関数LSF3~LSF5の特性値V3~V5に基づいて、空中像9の実際の光軸方向Daと設計光軸方向Dadとの光軸ずれを系統的に測定することができる。従って、光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの光軸方向Daを較正することが可能となる。
<変調伝達関数MTFの面積に基づく光軸ずれの検出>
 次に、変調伝達関数MTFの面積に基づいて、空中像9(空中像9’であってもよい)の光軸ずれ(光軸方向Daと設計光軸方向Dadとのずれ)を測定する場合について説明する。測定部8は、各撮像部位F3~F5について、(m1+m2+1)枚の撮像画像P3~P5の画像データに基づいて、(m1+m2+1)個の変調伝達関数MTF3~MTF5を算出し、(m1+m2+1)個のMTF面積S3~S5を測定する。測定部8は、各撮像部位F3~F5について、(m1+m2+1)個のMTF面積S3~S5のうちの最大値SMAXを検出するとともに、MTF面積S3~S5が最大値SMAXとなる撮像装置7のZ座標(合焦位置FP3~FP5)を検出する。
 測定部8は、MTF面積S3~S5が最大値SMAXとなる合焦位置FP3~FP5に基づいて、空中像9の光軸ずれ(傾斜角θ)を測定し、空中像表示装置2が結像する空中像Rの光軸ずれを較正することができる。MTF面積S3~S5に基づいて、空中像9の光軸ずれを検出し、空中像9の光軸ずれを較正する光軸方向測定システム1の動作は、特性値V3~V5に基づいて、空中像9の光軸ずれを測定し、空中像9の光軸ずれを較正する光軸方向測定システム1の動作と同様であるので、詳細な説明については省略する。
 測定部8は、各撮像部位F3~F5について、(m1+m2+1)枚の撮像画像P3~P5の画像データに基づき、(m1+m2+1)個の線広がり関数LSF3~LSF5を算出し、(m1+m2+1)個の線広がり関数LSF3~LSF5をフーリエ変換することによって、(m1+m2+1)個の変調伝達関数MTF3~MTF5を算出してよい。あるいは、測定部8は、各撮像部位F3~F5について、(m1+m2+1)枚の撮像画像P3~P5の画像データに基づき、チャート法を用いて、(m1+m2+1)個の変調伝達関数MTF3~MTF5を算出してもよい。
 光軸方向測定システム1は、撮像装置7に対してデフォーカス操作を行うことで、撮像装置7の移動に伴うMTF面積S3~S5の変化に基づいて、空中像9の光軸方向Daと設計光軸方向Dadとの光軸ずれを系統的に測定することができる。デフォーカス操作は、図10に示すように、撮像装置7を撮像方向7dの前後に移動させることによって、空中像9の各撮像部位の合焦の程度(焦点が合っている程度、撮像画像のぼやけの程度)を変化させる操作である。変調伝達関数MTFの面積は外光等の影響を受け難いため、MTF面積S3~S5を用いることによって、空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを精度よく検出することができる。従って、光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの実際の光軸方向Daを精度よく較正することが可能となる。
[回転操作による光軸ずれの検出]
 次に、撮像装置7を第1回転軸A1まわりに回転させることによって、光軸ずれ(光軸方向Daと設計光軸方向Dadとのずれ)を測定する光軸方向測定システム1の動作について説明する。測定部8は、第1回転装置12が、図16に示すように、撮像装置7を第1回転軸A1まわりに回転させ、空中像9を奥行方向(Z軸方向)との間の角度が互いに異なる複数の撮像方向7dにおいて撮像するよう制御する。複数の撮像方向7dは、奥行方向(設計光軸方向Dad)との間に総括的にΘkで表される角度を成す方向である。Θkは、撮像角度とも称される。Θkは、Θk=k×ΔΘで表される。ΔΘは、例えば、0.1°~2°程度であってよいし、0.5°~1°程度であってよい。kは、-n1≦k≦n2(n1,n2は自然数)の範囲の整数である。n1,n2は、例えば1以上20以下の自然数であってよいが、1以上20以下の自然数に限定されない。図16は、撮像装置7の回転角度がΘka(kaは正の整数)である場合と、撮像装置7の回転角度がΘkb(kbは負の整数)である場合とを示している。
 測定部8は、撮像装置7が、撮像角度がΘk(-n1≦k≦n2)で表される各方向に空中像9を撮像するよう制御する。撮像装置7は、各撮像部位F3~F5について、(n1+n2+1)枚の撮像画像P3~P5の画像データを測定部8に出力する。測定部8は、各撮像部位F3~F5について、撮像装置7から(n1+n2+1)枚の撮像画像P3~P5の画像データを取得する。測定部8は、撮像装置7から、取得部14を介して、画像データを取得してよい。
<線広がり関数の特性値に基づく光軸ずれの検出>
 先ず、線広がり関数の特性値に基づいて、空中像9の光軸ずれを検出する場合について説明する。測定部8は、各撮像部位F3~F5について、(n1+n2+1)枚の撮像画像P3~P5の画像データに基づいて、(n1+n2+1)個の線広がり関数LSF3~LSF5を算出し、(n1+n2+1)個の特性値V3~V5を算出する。特性値V3~V5は、線広がり関数LSF3~LSF5のピーク値Hであってよいし、半値幅Wであってよい。特性値V3~V5は、ピーク値Hを半値幅Wで除算した組み合わせ値であってもよい。
 測定部8は、各撮像角度Θkについて、複数の特性値V3~V5の間の複数の差分(即ち、V3-V4、V3-V5、およびV4-V5)を算出し、或る撮像角度Θ1において、複数の差分の絶対値が閾値(LSF法における第1所定値ともいう)T4以下となる場合、空中像9の実際の光軸方向Daが奥行方向(設計光軸方向Dad)に対して傾斜角Θ1だけ傾斜していると判定してよい。第1所定値T4は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 測定部8は、特性値V3~V5がピーク値Hである場合、或る撮像角度Θ2において、特性値V3~V5のすべてが閾値(LSF法における第2所定値ともいう)T5以上となるとき、空中像9の実際の光軸方向Daが設計光軸方向Dadに対して傾斜角Θ2だけ傾斜していると判定してよい。第2所定値T5は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 測定部8は、特性値V3~V5が半値幅Wである場合、或る撮像角度Θ3において、特性値V3~V5のすべてが閾値(LSF法における第2所定値ともいう)T6以下となるとき、空中像9の実際の光軸方向Daが設計光軸方向Dadに対して傾斜角Θ3だけ傾斜していると判定してよい。閾値T6は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 測定部8は、空中像9の実際の光軸方向Daが傾斜角Θ1,Θ2,Θ3だけ設計光軸方向(奥行方向)Dadからずれていると判定した場合、第2回転装置13が、空中像表示装置2を第2回転軸A2まわりに傾斜角Θ1,Θ2,Θ3に等しい回転角度だけ回転させるよう制御する。これにより、空中像表示装置2が結像する空中像Rの光軸ずれを較正することができる。その結果、光軸ずれが低減された高い表示品位の空中像Rを利用者に視認させることが可能となる。測定部8は、第2回転装置13が、装置台10の上方から見たときに、空中像表示装置2を時計回りまたは反時計回りに傾斜角Θ1,Θ2,Θ3に等しい回転角度だけ回転させるよう制御する。測定部8は、空中像9の光軸ずれが解消されるように、空中像表示装置2を回転させる方向を判定してよい。
 光軸方向測定システム1は、撮像装置7に対して回転操作を行うことで、撮像装置7の回転に伴う特性値V3~V5の変化に基づいて、空中像9の実際の光軸方向Daと設計光軸方向Dadとの光軸ずれを系統的に測定することができる。従って、光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの光軸方向Daを較正することが可能となる。
<変調伝達関数MTFの面積に基づく光軸ずれの検出>
 次に、変調伝達関数MTFの面積に基づいて、空中像9の光軸ずれを検出する場合について説明する。測定部8は、各撮像部位F3~F5について、(n1+n2+1)枚の撮像画像P3~P5の画像データに基づき、(n1+n2+1)個の変調伝達関数MTFを算出し、(n1+n2+1)個のMTF面積S3~S5を測定する。
 測定部8は、各撮像角度Θkについて、複数のMTF面積S3~S5の間の複数の差分(即ち、S3-S4、S3-S5、およびS4-S5)を算出し、或る撮像角度Θ4において、複数の差分の絶対値が閾値(MTF面積法における第1所定値ともいう)T7以下となる場合、空中像9の実際の光軸方向Daが奥行方向(設計光軸方向Dad)に対して傾斜角Θ4だけ傾斜していると判定してよい。第1所定値T7は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 測定部8は、或る撮像角度Θ5において、MTF面積S3~S5のすべてが閾値(MTF面積法における第2所定値ともいう)T8以上となるとき、空中像9の実際の光軸方向Daが設計光軸方向Dadに対して傾斜角Θ5だけ傾斜していると判定してよい。所定値T8は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 測定部8は、各撮像部位F3,F4,F5について、(n1+n2+1)枚の撮像画像P3~P5の画像データに基づき、(n1+n2+1)個の線広がり関数LSF3~LSF5を算出し、(n1+n2+1)個の線広がり関数LSF3~LSF5をフーリエ変換することによって、(n1+n2+1)個の変調伝達関数MTF3~MTF5を算出してよい。あるいは、測定部8は、各撮像部位F3~F5について、(n1+n2+1)枚の撮像画像P3~P5の画像データに基づき、チャート法を用いて、(n1+n2+1)個の変調伝達関数MTF3~MTF5を算出してもよい。
 光軸方向測定システム1は、撮像装置7に対して回転操作を行うことで、MTF面積S3~S5に基づいて、空中像9の実際の光軸方向Daと設計光軸方向Dadとの光軸ずれを系統的に測定することができる。変調伝達関数MTFの面積は外光等の影響を受け難いため、MTF面積S3~S5を用いることによって、空中像9の実際の光軸方向Daが設計光軸方向Dadに一致するか否かを精度よく測定することができる。従って、光軸方向測定システム1によれば、空中像表示装置2が結像する空中像Rの光軸方向Daを精度よく較正することが可能となる。
 以上、空中像9の結像面Rp内における幅方向(Y軸方向)に並んだ複数の撮像部位F3~F5を撮像した複数の撮像画像P3~P5に基づいて、幅方向(Y軸方向)に直交する高さ方向(X軸方向)まわりの光軸ずれを検出し、該光軸ずれを較正する光軸方向測定システム1の動作について説明したが、これに限らない。光軸方向測定システム1は、空中像9の結像面Rp内における高さ方向(X軸方向)に並んだ複数の撮像部位(例えば、複数の撮像部位F1,F3,F6または複数の撮像部位F2,F5,F7)を撮像した複数の撮像画像(例えば、複数の撮像画像P1,P3,P6または複数の撮像画像P2,P5,P7)に基づいて、高さ方向(X軸方向)に直交する幅方向(Y軸方向)まわりの光軸ずれを検出し、該光軸ずれを較正する動作も可能である。あるいは、光軸方向測定システム1は、空中像9の結像面Rp内における複数の撮像部位F1,…,F7を撮像した複数の撮像画像に基づいて、高さ方向(X軸方向)まわりの光軸ずれ、および、幅方向(Y軸方向)まわりの光軸ずれを検出し、これらの光軸ずれを較正する動作も可能である。線広がり関数LSF1,LSF2,LSF6,LSF7は、線広がり関数LSF3,LSF4,LSF5と同様に算出することができる。特性値V1,V2,V6,V7は、特性値V3,V4,V5と同様に算出することができる。変調伝達関数MTF1,MTF2,MTF6,MTF7は、変調伝達関数MTF3,MTF4,MTF5と同様に算出することができる。MTF面積S1,S2,S6,S7は、MTF面積S3,S4,S5と同様に測定することができる。
 上述した実施形態は、光軸方向測定システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、空中像表示装置2が結像する空中像Rの解像度を測定する解像度測定装置として実施してもよい。解像度測定装置は、空中像表示装置2と、撮像装置7と、測定部8とで構成される。解像度測定装置の測定部8は、撮像画像P1,…,P7の画像データに基づいて、MTF面積S1,…,S7を測定するように構成されていればよく、空中像Rの光軸ずれを検出する機能を有さなくてよい。解像度測定装置の測定部8は、算出部とも称されうる。また、上述した実施形態は、解像度測定装置を用いた解像度測定方法として実施してもよいし、解像度測定装置を制御するプログラムとして実施してもよい。さらに、例えば、上述した実施形態は、光軸方向測定システム1を用いた光軸方向測定方法として実施してもよい。さらに、例えば、上述した実施形態は、光軸方向測定システム1を制御するプログラムとして実施してもよい。
 LSF法による光軸方向測定方法は、空中像Rを撮像し、空中像Rの複数の撮像部位を撮像して得られた各撮像画像の輝度分布の特性値を算出し、複数の特性値に基づいて、空中像Rの光軸方向Daを測定する構成である。MTF面積法による光軸方向測定方法は、空中像Rを撮像し、空中像Rの複数の撮像部位を撮像して得られた各撮像画像のMTFを、空間周波数軸において積分して成る面積を測定し、複数のMTFの面積に基づいて、空中像Rの光軸方向Daを測定する構成である。
 LSF法による光軸方向測定方法は、空中像Rを撮像し、空中像Rの1つの撮像部位を撮像して得られた撮像画像の輝度分布の特性値を算出し、その特性値に基づいて、空中像Rの光軸方向Daを測定する構成であってもよい。例えば、図5に示すような空中像Rの1つの撮像部位を撮像して得られた撮像画像について、その撮像画像の上端部、中央部、下端部等の複数の部位における、輝度分布の特性値の変化を算出する。その変化を解析することによって、空中像Rの光軸方向Daを測定してもよい。輝度分布の特性値の変化の解析は、1つの撮像画像を画像解析する画像解析プログラムソフトによって解析し、解析して得られた解析画像と、別途参照テーブル等に記憶させた参照画像とを比較することによって、実行してもよい。例えば、各参照画像は1つの光軸方向Da(参照光軸方向Daともいう)に対応しており、或る解析画像が或る参照画像と一致している場合、または或る解析画像が或る参照画像に最も近似している場合に、或る解析画像の光軸方向Daが、或る参照画像に対応する参照光軸方向Daであると判定してもよい。この判定は、例えば測定部8(図1,17に示す)または判定部15(図17に示す)において実行してもよい。この実行により、空中像Rの光軸方向Daを測定する処理を高速に行うことができる。画像解析プログラムソフトは、撮像画像を解析し特定のパターンを検出および/または抽出する画像認識を行う人工知能(Artificial Intelligence:AI)プログラムソフトを含んでいてもよい。AIプログラムソフトは、画像データを直接解析して特定のパターンを検出および/または抽出する画像認識を行うものであってもよい。
 MTF面積法による光軸方向測定方法は、空中像Rを撮像し、空中像Rの1つの撮像部位を撮像して得られた撮像画像のMTFを、空間周波数軸において積分して成る面積を測定し、MTFの面積に基づいて、空中像Rの光軸方向Daを測定する構成であってもよい。例えば、図5に示すような空中像Rの1つの撮像部位を撮像して得られた撮像画像について、その撮像画像の上端部、中央部、下端部等の複数の部位における、MTF面積の変化を算出する。その変化を解析することによって、空中像Rの光軸方向Daを測定してもよい。MTF面積の変化の解析は、1つの撮像画像を画像解析する画像解析プログラムソフトによって解析し、解析して得られた解析画像と、別途参照テーブル等に記憶させた参照画像とを比較することによって、実行してもよい。例えば、各参照画像は1つの光軸方向Da(参照光軸方向Daともいう)に対応しており、或る解析画像が或る参照画像と一致している場合、または或る解析画像が或る参照画像に最も近似している場合に、或る解析画像の光軸方向Daが、或る参照画像に対応する参照光軸方向Daであると判定してもよい。この判定は、例えば測定部8(図1,17に示す)または判定部15(図17に示す)において実行してもよい。この実行により、空中像Rの光軸方向Daを測定する処理を高速に行うことができる。画像解析プログラムソフトは、上記のAIプログラムソフトを含んでいてもよい。
 LSF法による光軸方向測定システム1を制御するプログラムは、測定部8が、空中像Rの複数の撮像部位を撮像して得られた各撮像画像の輝度分布の特性値を算出し、複数の特性値に基づいて、空中像Rの光軸方向Daを測定するように制御する。このプログラムは、測定部8に含まれる制御部に備わった、IC,LSI等の駆動素子のRAM,ROM等に格納されたプログラムソフト、グラフィックコントローラであってもよい。また、プログラムは、外部の制御部に備わった駆動素子のRAM,ROM等に格納されたプログラムソフト、グラフィックコントローラであってもよい。その場合、測定部8は外部の制御部を介して制御を実行する。MTF面積法による光軸方向測定システム1を制御するプログラムは、測定部8が、空中像Rの複数の撮像部位を撮像して得られた各撮像画像のMTFを、空間周波数軸において積分して成る面積を測定し、複数のMTFの面積に基づいて、空中像Rの光軸方向Daを測定するように制御する。このプログラムは、上記と同様のプログラムソフトであってもよい。
 測定部8は、光軸方向測定装置の一部を構成してよい。光軸方向測定装置は、取得部14と、測定部8とで構成されてよい。取得部14は、撮像装置7によって撮像された撮像画像P3~P5の画像データを入力可能に構成される。取得部14は、撮像画像P3~P5の画像データを測定部8に出力可能に構成される。取得部14は、空中像Rの結像面Rp内における複数の撮像部位F3~F5の各撮像画像P3~P5の画像データを撮像装置7から取得し、取得した画像データを測定部8に出力してよい。即ち、取得部14は、画像データの記憶部と、記憶部に格納される画像データの入出力を制御する入出力制御部を備える構成であってもよい。光軸方向測定装置は、空間に結像された実像の空中像Rを撮像する撮像部と、測定部8とで構成されてもよい。撮像部は、撮像装置7であってよい。
 次に、本開示の一実施形態の合否判定システムについて説明する。図17は、本開示の一実施形態の合否判定システムを示す斜視図であり、図18は、図17の合否判定システムの動作の一例を説明するフローチャートであり、図19は、図17の合否判定システムの動作の他の例を説明するフローチャートである。
 本開示の一実施形態の合否判定システム50は、空中像Rの実際の光軸方向Daと空中像表示装置2における所定の光軸方向とのずれ(光軸ずれ)に基づいて、空中像表示装置2が出荷可能な合格品であるか否かを判定する。空中像表示装置2における所定の光軸方向は、空中像表示装置の設計上の光軸方向であり、設計光軸方向Dadとも称される。合否判定システム50は、空中像表示装置2が合格品であると判定した場合、空中像表示装置2の解像度指標(性能指標)として用いられる変調伝達関数MTFを算出する。合否判定システム50は、空中像表示装置2が合格品であると判定しなかった場合、光軸ずれを検出し、光軸ずれを較正することができる。
 合否判定システム50は、図17に示すように、上述の光軸方向測定システム1と、判定部15とを含む。判定部15は、測定装置18に含まれていてもよい。判定部15は、合否判定システム50における制御部として機能しうる。即ち、判定部15は、合否判定システム50の各構成要素に接続され、各構成要素を制御しうる。判定部15は、1つまたは複数のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行するように構成される汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくとも一方を含んでよい。専用のプロセッサは、ASIC(Application Specific Integrated Circuit)を含んでいてもよい。プロセッサは、PLD(Programmable Logic Device)を含んでよい。PLDは、FPGA(Field Programmable Gate Array)を含んでいてもよい。判定部は、1つまたは複数のプロセッサが協働するように構成されるSoC(System-on-a-Chip)、およびSiP(System in a Package)の少なくとも一方を含んでよい。
 判定部15は、測定部8が、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定するよう制御してもよい。判定部15は、光軸ずれが第3所定値T9以下である場合、空中像表示装置2を合格品(即ち、出荷可能な空中像表示装置2)と判定する。第3所定値T9は、空中像表示装置2の要求仕様等に基づいて、適宜設定されてよい。
 判定部15は、空中像表示装置2を合格品と判定した場合、空中像表示装置2が、空中像表示装置2が結像する空中像Rの解像度評価のためのテストパターンを結像するよう制御する。テストパターンは、図3に示したような空中像9であってよいし、図8に示したような空中像9’であってもよい。また、判定部15は、撮像装置7が、絞り値を3よりも大きい値に設定するよう制御する。即ち、判定部15は、撮像装置7の絞り値を、光軸ずれを検出する際の絞り値(3以下)よりも大きい値に設定されるよう制御する。さらに、判定部15は、撮像装置7が、テストパターンの複数の撮像部位を撮像するよう制御する。複数の撮像部位は、撮像部位F1,F4,F7または撮像部位F2,F4,F6を少なくとも含む(図4参照)。複数の撮像部位は、撮像部位F1,F2,F4,F6,F7であってもよい。奥行方向(Z軸方向)における撮像装置7とテストパターンとの距離は、初期設定距離に設定されていてよい。撮像装置7は、テストパターンを奥行方向における距離を変化させて撮像してよい。判定部15は、撮像装置7が、テストパターンの結像面Rp内の複数の撮像部位を撮像した複数の撮像画像を生成し、各撮像画像の画像データを出力するよう制御する。判定部15は、各撮像画像の画像データに基づいて、各撮像画像のLSFに基づく特性値またはMTFを算出する。LSFに基づく特性値またはMTFは、空中像表示装置2の解像度指標として用いることができる。判定部15は、撮像装置7が、絞り値を5~8程度に設定するよう制御してよい。この場合、空中像表示装置2の解像度指標を、利用者20の眼20eがテストパターンを実際に視認するときの解像度指標に近づけることができる。
 判定部15は、空中像表示装置2の解像度指標として用いるMTFに基づいて、製品としての適否(即ち、仕様基準を満たしているか否か)を判定してよい。判定部15は、例えば、空間周波数が3/mmにおいて、解像度指標として用いるMTFの値が0.6以上である場合、空中像表示装置2が仕様基準を満たしていると判定し、0.6未満である場合、空中像表示装置2が仕様基準を満たしていないと判定してよい。判定部15は、空中像表示装置2が仕様基準を満たしていない場合、光軸方向測定システム1が、光軸方向を較正するよう制御してよい。判定部15は、空中像表示装置2が仕様基準を満たしていない場合、空中像表示装置2が不合格品であると判定してもよい。
 合否判定システム50によれば、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを系統的に測定し、空中像表示装置2が結像する空中像Rの実際の光軸方向Daを較正することができる。また、合否判定システム50によれば、空中像表示装置2の解像度指標を系統的に測定し、優れた解像度の空中像表示装置2を提供することができる。
 次に、図18,19のフローチャートを参照して、合否判定システム50の動作について説明する。フローチャートでは、「ステップ」を「S」と略称するとともに、チャート内においては、判断制御における「正」を[Yes]で表し、「否」を[No]で表している。以下では、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれの測定に関して、空中像Rの結像面Rp内における複数の撮像部位を、撮像部位Fと記載する。撮像部位Fは、複数の撮像部位F3~F5であってよいし、複数の撮像部位F1,F3,F6、複数の撮像部位F2,F5,F7、または複数の撮像部位F1,…,F7であってよい。さらに、撮像部位Fを撮像して取得される複数の撮像画像を、撮像画像Pと記載し、撮像画像Pから算出される線広がり関数、線広がり関数の特性値、および変調伝達関数、変調伝達関数の面積をそれぞれ、線広がり関数LSF、特性値V、変調伝達関数MTF、およびMTF面積Sと記載する。また、合格品と判定された空中像表示装置2の解像度の評価に関して、空中像Rの結像面Rp内における複数の撮像部位を、撮像部位F’と記載する。撮像部位F’は、複数の撮像部位F1,F4,F7または複数の撮像部位F2,F4,F6であってよいし、複数の撮像部位F1,F2,F4,F6,F7であってよい。さらに、撮像部位F’を撮像して取得される撮像画像を、撮像画像P’と記載し、撮像画像P’から算出される線広がり関数、および変調伝達関数をそれぞれ、線広がり関数LSF’、および変調伝達関数MTF’と記載する。
 図18は、LSFの特性値を基準として、空中像表示装置2の製品としての合否判定を行う合否判定システム50の動作のフローチャートである。まず、第1工程において、LSFの特性値に基づいて、測定部8によって検出された空中像Rの実際の光軸方向Daと空中像表示装置2における所定の光軸方向(設計光軸方向Dad)とのずれを測定し、そのずれが第3所定値以下である場合、空中像表示装置2を合格品と判定する。次に、第2工程において、第1工程で空中像表示装置2が合格品と判定された場合、撮像装置7の絞り値を3よりも大きい値(利用者20の眼20eの焦点深度に適合した絞り値)に設定し、空中像Rの複数の撮像部位を撮像して得られる各撮像画像のMTFを算出する。そのMTFの値またはMTF面積に基づいて、空中像表示装置2の製品としての最終的な合否判定を行う。撮像装置7の絞り値を3よりも大きい値に設定するときに、絞り値は5~9であってもよく、8であってもよい。
 図18のフローチャートが〔スタート〕すると、〔S11〕において、空中像表示装置2は、空中像Rを空間に実像として結像する。空中像Rは、図3に示したような空中像9であってよい。撮像装置7は、絞り値を3以下に設定するとともに、空中像Rの結像面Rp内における撮像部位Fを撮像し、撮像画像Pを出力する。撮像装置7は、デフォーカス操作によって撮像画像Pを出力してよいし、回転操作によって撮像画像Pを出力してもよい。測定部8は、撮像画像Pに基づいて、線広がり関数LSFおよび線広がり関数LSFの特性値Vを算出する。
 尚、〔S11〕において、撮像画像Pの線広がり関数LSFおよび線広がり関数LSFの特性値Vに基づいて、空中像Rの解像度が製品の仕様基準を満たしているかの合否判定を行ってもよい。
 〔S12〕において、判定部15は、線広がり関数LSFの特性値Vに基づいて、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定する。
 〔S13〕において、判定部15は、光軸ずれが第3所定値以下であるか否かを判定する。光軸ずれが第3所定値以下である場合([Yes]の場合)には〔S14〕に進み、光軸ずれが第3所定値より大きい場合([No]の場合)には〔S17〕に進む。
 尚、〔S13〕において、光軸ずれが第3所定値以下である場合、空中像Rの解像度が製品の仕様基準を満たしているかの合否判定を行ってもよい。
 〔S14〕において、空中像表示装置2は、解像度評価のためのテストパターンを結像し、撮像装置7は、絞り値を3より大きい値に設定し、解像度評価のためのテストパターンの撮像部位F’を撮像する。測定部8は、撮像画像P’に基づいて、MTF’を算出する。測定部8は、LSF’をフーリエ変換することによって、MTF’を算出してもよいし、チャート法を用いてMTF’を算出してもよい。
 〔S15〕において、判定部15は、MTF’に基づいて、空中像表示装置2が仕様基準を満たしているか否かを判定する。判定部15は、例えば、空間周波数νが3/mmのとき、MTF’の値が0.6以上であれば、空中像表示装置2が仕様基準を満たしていると判定し、MTF’の値が0.6未満であれば、空中像表示装置2が仕様基準を満たしていないと判定してよい。空中像表示装置2が仕様基準を満たしている場合([Yes]の場合)には〔S16〕に進み、空中像表示装置2が出荷可能な合格品であると判定する。空中像表示装置2が仕様基準を満たしていない場合([No]の場合)には〔S18〕に進む。
 〔S13〕において、光軸ずれが第3所定値より大きい場合([No]の場合)、〔S17〕において光軸ずれを較正する。〔S17〕において、空中像表示装置2は空中像Rを結像する。空中像Rは、図3に示したような空中像9であってよいし、図8に示したような空中像9’であってもよい。撮像装置7は、絞り値を3以下に設定するとともに、空中像Rの結像面Rp内における撮像部位Fを撮像し、撮像画像Pを出力する。撮像装置7は、デフォーカス操作によって撮像画像Pを出力してよいし、回転操作によって撮像画像Pを出力してもよい。測定部8は、撮像画像Pに基づいて、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定し、光軸ずれを較正する。測定部8は、MTFおよびMTF面積Sを測定し、MTF面積Sに基づいて、光軸ずれを測定してよい。この場合、光軸ずれを精度よく検出し、光軸ずれを精度よく較正することができる。測定部8は、LSFをフーリエ変換することによって、MTFを算出してよいし、チャート法を用いてMTFを算出してもよい。〔S17〕で光軸ずれを較正した後、〔S13〕の判定に戻る。尚、〔S13〕において、光軸ずれが第3所定値より大きいと再度判定された場合、〔S17〕に進んでよい。また、〔S13〕から〔S17〕へ進むことが所定の回数(例えば、3回)続いた場合、空中像表示装置2が不合格品であると判定してもよい。この場合、空中像表示装置2の構成部材2a以外の要因(例えば、筐体6、画像光射出面6aを構成する透光性基板、透光性スクリーン等)によって、光軸ずれが生じているとも考えられる。
 〔S15〕において、空中像表示装置2が仕様基準を満たしていない場合([No]の場合)、〔S18〕において、光軸ずれを較正する。〔S18〕において、空中像表示装置2は、空中像Rを結像する。空中像Rは、図3に示したような空中像9であってよいし、図8に示したような空中像9’であってもよい。撮像装置7は、絞り値を3より大きい値(例えば、8)に設定するとともに、空中像Rの結像面Rp内における撮像部位Fを撮像し、撮像画像Pを出力する。撮像装置7は、デフォーカス操作によって撮像画像Pを出力してよいし、回転操作によって撮像画像Pを出力してもよい。測定部8は、撮像画像Pに基づいて、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定し、光軸ずれを較正する。測定部8は、MTFおよびMTF面積Sを測定し、MTF面積Sに基づいて、光軸ずれを測定してよい。この場合、光軸ずれを精度よく測定し、光軸ずれを精度よく較正することができる。測定部8は、LSFをフーリエ変換することによってMTFを算出してよいし、チャート法を用いてMTFを算出してもよい。〔S18〕で光軸ずれを較正した後、〔S14〕に戻り、MTF’を算出した後、〔S15〕に進む。〔S15〕において、空中像表示装置2が仕様基準を満たしていないと再度判定された場合、〔S18〕に進んでよい。また、〔S15〕から〔S18〕へ進むことが所定の回数(例えば、3回)続いた場合、空中像表示装置2が不合格品であると判定してもよい。この場合、空中像表示装置2の構成部材2a以外の上記要因によって、光軸ずれが生じているとも考えられる。
 図19は、MTFの値またはMTF面積を基準として、空中像表示装置2の製品としての合否判定を行う合否判定システム50の動作のフローチャートである。まず、第1工程において、MTFの値またはMTF面積に基づいて、測定部8によって検出された空中像Rの実際の光軸方向Daと空中像表示装置2における所定の光軸方向(設計光軸方向Dad)とのずれを測定し、そのずれが第3所定値以下である場合、空中像表示装置2を合格品と判定する。次に、第2工程において、第1工程で空中像表示装置2が合格品と判定された場合、撮像装置7の絞り値を3よりも大きい値(例えば、8)に設定し、空中像Rの複数の撮像部位を撮像して得られる各撮像画像のMTFを算出する。そのMTFの値またはMTF面積に基づいて、空中像表示装置2の製品としての最終的な合否判定を行う。撮像装置7の絞り値を3よりも大きい値に設定するときに、絞り値は5~9であってもよく、8であってもよい。
 図19のフローチャートが〔スタート〕すると、〔S21〕において、空中像表示装置2は、空中像Rを空間に実像として結像する。空中像Rは、図3に示したような空中像9であってよいし、図8に示したような空中像9’であってもよい。撮像装置7は、絞り値を3以下に設定するとともに、空中像Rの結像面Rp内における撮像部位Fを撮像し、撮像画像Pを出力する。撮像装置7は、デフォーカス操作によって撮像画像Pを出力してよいし、回転操作によって撮像画像Pを出力してもよい。測定部8は、撮像画像Pに基づいて、MTFを算出し、MTF面積Sを測定する。測定部8は、LSFをフーリエ変換することによってMTFを算出してよいし、チャート法を用いてMTFを算出してもよい。
 尚、〔S21〕において、撮像画像PのMTF面積Sに基づいて、空中像Rの解像度が製品の仕様基準を満たしているかの合否判定を行ってもよい。
 〔S22〕において、判定部15は、MTF面積Sに基づいて、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定する。
 〔S23〕において、判定部15は、光軸ずれが第3所定値以下であるか否かを判定する。光軸ずれが第3所定値以下である場合([Yes]の場合)には〔S24〕に進み、光軸ずれが第3所定値より大きい場合([No]の場合)には〔S27〕に進む。
 尚、〔S23〕において、光軸ずれが第3所定値以下である場合、空中像Rの解像度が製品の仕様基準を満たしているかの合否判定を行ってもよい。
 〔S24〕において、空中像表示装置2は、解像度評価のためのテストパターンを結像し、撮像装置7は、絞り値を3より大きい値(例えば、8)に設定するとともに、解像度評価のためのテストパターンの撮像部位F’を撮像し、撮像画像P’を出力する。測定部8は、撮像画像P’に基づいて、MTF’を算出する。測定部8は、LSF’をフーリエ変換することによってMTF’を算出してよいし、チャート法を用いてMTF’を算出してもよい。
 〔S25〕において、判定部15は、MTF’に基づいて、空中像表示装置2が仕様基準を満たしているか否かを判定する。判定部15は、例えば、空間周波数νが3/mmのとき、MTF’の値が0.6以上であれば、空中像表示装置2が仕様基準を満たしていると判定し、MTF’の値が0.6未満であれば、空中像表示装置2が仕様基準を満たしていないと判定してよい。空中像表示装置2が仕様基準を満たしている場合([Yes]の場合)には〔S26〕に進み、空中像表示装置2が出荷可能な合格品であると判定する。空中像表示装置2が仕様基準を満たしていない場合([No]の場合)には〔S28〕に進む。
 〔S23〕において、光軸ずれが第3所定値より大きい[No]場合、〔S27〕において、光軸ずれを較正する。〔S27〕において、空中像表示装置2は、空中像Rを結像する。空中像Rは、図3に示したような空中像9であってよいし、図8に示したような空中像9’であってもよい。撮像装置7は、絞り値を3以下に設定するとともに、空中像Rの結像面Rp内における撮像部位Fを撮像し、撮像画像Pを出力する。撮像装置7は、デフォーカス操作によって撮像画像Pを出力してよいし、回転操作によって撮像画像Pを出力してもよい。測定部8は、撮像画像Pに基づいて、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定し、光軸ずれを較正する。測定部8は、MTFのMTF面積Sに基づいて、光軸ずれを測定してよい。この場合、光軸ずれを精度よく検出し、光軸ずれを精度よく較正することができる。測定部8は、LSFをフーリエ変換することによってMTFを算出してもよいし、チャート法を用いてMTFを算出してもよい。〔S27〕で光軸ずれを較正した後、〔S23〕の判定に戻る。尚、〔S23〕において、光軸ずれが第3所定値より大きいと再度判定された場合、〔S27〕に進んでもよい。また、〔S23〕から〔S27〕へ進むことが所定の回数(例えば、3回)続いた場合、空中像表示装置2が不合格品であると判定してもよい。この場合、空中像表示装置2の構成部材2a以外の上記要因によって、光軸ずれが生じているとも考えられる。
 〔S25〕において、空中像表示装置2が仕様基準を満たしていない場合([No]の場合)、〔S28〕において、光軸ずれを較正する。〔S28〕において、空中像表示装置2は、空中像Rを結像する。空中像Rは、図3に示したような空中像9であってよいし、図8に示したような空中像9’であってもよい。撮像装置7は、絞り値を3より大きい値(例えば、8)に設定するとともに、空中像Rの結像面Rp内における撮像部位Fを撮像し、撮像画像Pを出力する。撮像装置7は、デフォーカス操作によって撮像画像Pを出力してよいし、回転操作によって撮像画像Pを出力してもよい。測定部8は、撮像画像Pに基づいて、空中像Rの実際の光軸方向Daと空中像表示装置2の設計光軸方向Dadとの光軸ずれを測定し、光軸ずれを較正する。測定部8は、MTFおよびMTF面積Sを測定し、MTF面積Sに基づいて、光軸ずれを測定してよい。この場合、光軸ずれを精度よく検出し、光軸ずれを精度よく較正することができる。測定部8は、LSFをフーリエ変換することによってMTFを算出してよいし、チャート法を用いてMTFを算出してもよい。〔S28〕で光軸ずれを較正した後、〔S24〕に戻り、MTF’を算出した後、〔S25〕に進む。〔S25〕において、空中像表示装置2が仕様基準を満たしていないと再度判定された場合、〔S28〕に進んでもよい。また、〔S25〕から〔S28〕へ進むことが所定の回数(例えば、3回)続いた場合、空中像表示装置2が不合格品であると判定してもよい。この場合、空中像表示装置2の構成部材2a以外の上記要因によって、光軸ずれが生じているとも考えられる。
 上述した実施形態は、合否判定システムとしての実施のみに限定されるものではない。例えば、上述した実施形態は、合否判定システムを用いた合否判定方法として実施してもよい。さらに、例えば、上述した実施形態は、合否判定システムを制御するプログラムとして実施してもよい。
 図20は、図6に示した輝度分布波形の線広がり関数を、背景ノイズを除去する補正処理によって補正する場合のグラフである。図1に示す光軸方向測定システム1は、室内の照明光、太陽光等の外部環境光が撮像装置7の撮像部に入り込む環境で、使用される場合がある。その場合、外部環境光が背景ノイズ(バックグラウンドノイズ)26となって、輝度分布波形25の信号強度(信号レベル)を全体的に押し上げることとなる。従って、背景ノイズ26の成分を、除去する補正(第1補正ともいう)を行ってもよい。第1補正は、撮像装置7に備わった信号処理部、補正処理部等において実行してもよく、また測定部8において実行してもよい。
 図21は、図6に示した輝度分布波形の線広がり関数を、撮像装置の解像度の劣化に起因する解像度劣化成分を除去する補正処理によって補正する場合のグラフである。図1に示す光軸方向測定システム1は、撮像装置7の光学系の性能、撮像部(受光部)の撮像素子(受光素子)の性能、受光部を含む画素の画素密度などに起因する解像度(分解能)の劣化がある場合がある。その場合、輝度分布波形25が全体的に広がって尖鋭度が劣化した劣化輝度分布波形27となる。従って、撮像装置7の解像度の劣化に起因する解像度劣化成分28を、劣化輝度分布波形27から差し引く補正(第2補正ともいう)を行ってもよい。第2補正は、撮像装置7に備わった信号処理部、補正処理部等において実行してもよく、また測定部8において実行してもよい。
 解像度劣化成分28は、撮像装置7に備わった信号処理部、補正処理部、または測定部8にデータ記憶部(データテーブル)を設け、そのデータ記憶部に予め記憶させておいてもよい。そして、第2補正を実行する際に、解像度劣化成分28のデータをデータ記憶部から呼び出して第2補正を実行してもよい。また、解像度劣化成分28のデータは、以下のようにして取得してもよい。まず、例えば表示パネル4としての液晶パネルに、図3に示すテストパターンを表示させる。そのとき、テストパターンを含む表示パネル4の画素群に入力する画像信号データに基づいて、理想的な輝度分布波形25のデータ(第1データともいう)を求める。次に、空間に結像されたテストパターンを撮像装置7によって撮像した撮像画像に基づいて、解像度劣化成分28を含む劣化輝度分布波形27のデータ(第2データともいう)を求める。そして、第2データと第1データとの差分を求めることによって、解像度劣化成分28のデータを取得することができる。
 輝度分布波形25の線広がり関数を補正するときに、第1補正および第2補正の両方を実行してもよい。
 また、図22,23に示すように、輝度分布波形25は、撮像装置7の撮像方向7dと、図4に示す撮像部位F3,F4,F5の配列位置(Fp3,Fp4,Fp5)及び配列方向Dfとの、位置関係によって、補正が必要になる場合がある。図22の場合、撮像方向7dと配列方向Dfは、直交している。換言すると、配列方向Dfは、撮像方向7dに対し傾斜していない。ただし、撮像部位F3は、撮像方向7dに対し角度θ1で傾斜した位置にあることから、配列方向Dfにおける撮像部位F3の幅をd3としたとき、撮像画像P3の輝度分布波形25の幅(例えば、半値幅である)は、d3に対しd3cosθ1となり、小さくなるように撮像される。従って、撮像部位F3について、撮像された撮像画像P3の輝度分布波形25の幅をcosθ1で除す(1/cosθ1をかける)ことによって補正を行う。また、配列方向Dfにおける撮像部位F5の幅をd5としたとき、撮像画像P5の輝度分布波形25の幅は、d5に対しd5cosθ2となり、小さくなるように撮像される。従って、撮像部位F5について、撮像された撮像画像P5の輝度分布波形25の幅をcosθ2で除す(1/cosθ2をかける)ことによって補正を行う。なお、撮像部位F4は、撮像装置7に正対していることから、補正は不要である。また、撮像部位F3と撮像部位F4との間の間隔と、撮像部位F4と撮像部位F5との間の間隔と、が同じである場合、角度θ1と角度θ2は同じとなる。
 図23の場合、配列方向Dfは、撮像方向7dに直交する面に対し角度φで傾斜している。さらに撮像部位F3は、撮像方向7dに対し角度θ1で傾斜した位置にあることから、撮像画像P3の輝度分布波形25の幅(例えば、半値幅である)は、d3cosθ1/cosφとなり、d3cosθ1より大きくd3よりも小さくなるように撮像される。これは、撮像部位F3が、角度φの影響によって撮像装置7に近くなるように位置が変化するためである。従って、撮像部位F3について、撮像された撮像画像P3の輝度分布波形25の幅に、cosφ/cosθ1をかけることによって補正を行う。また、撮像部位F4は撮像装置7に正対しており、角度φのみの影響を受ける。配列方向Dfにおける撮像部位F4の幅をd4としたとき、撮像画像P4の輝度分布波形25の幅はd4cosφとなり、d4よりも小さくなるように撮像される。従って、撮像部位F4について、撮像された撮像画像P4の輝度分布波形25の幅に、1/cosφをかけることによって補正を行う。また、撮像画像P5の輝度分布波形25の幅は、d5cosθ2cosφとなり、d5cosθ2よりもさらに小さくなるように撮像される。これは、撮像部位F5が、角度φの影響によって撮像装置7から遠ざかるように位置が変化するためである。従って、撮像部位F5について、撮像された撮像画像P5の輝度分布波形25の幅に、1/(cosθ2cosφ)をかけることによって、補正を行う。
 図22,23は、配列方向Dfが横方向(水平方向)である撮像部位F3,F4,F5について補正を実施する場合を示したが、配列方向Dfが縦方向(鉛直方向)である撮像部位F1,F3,F6またはF2,F5,F7について同様の補正を実施してもよい。
 空中像表示装置2は、ボタン等をタッチ操作することを不要として、タッチレスで空中像を操作することを可能にし、その結果以下のような種々の製品分野において利用できるが、以下に限るものではない。例えば、空中像を伴って会話および/または通信等を行う通信装置、医師が患者に空中像を通して問診を行う医療用の問診装置、自動車等の乗り物用のナビゲーション装置および/または運転制御装置、店舗等用の注文発注受注装置および/またはレジスタ装置、建築物および/またはエレベーター等用の操作パネル、空中像を伴って授業をし、または授業を受ける学習装置、空中像を伴って業務連絡および/または指示等を行う事務機器、空中像を伴って遊戯を行う遊戯機、遊園地および/またはゲームセンター等で地面および/または壁面等に画像を投影する投影装置、大学および/または医療機関等において空中像によって模擬実験等を行うためのシミュレーター装置、市場および/または証券取引所等で価格等を表示する大型ディスプレイ、空中像の映像を鑑賞する映像鑑賞装置などである。
 本開示の実施形態によれば、空中像の解像度を系統的に測定し、空中像の光軸方向を系統的に測定することができることから、空中像の光軸方向を自動化されたシステムによって測定することができる。また、本開示の実施形態によれば、空中像の光軸方向を較正することが可能となる。さらに、本開示の実施形態によれば、空中像表示装置が結像する空中像の解像度を系統的に評価することができる。
 本開示は、以下の構成(1)~(16)の態様で実施可能である。
(1)撮像装置により撮像された空中像の撮像画像の変調伝達関数を空間周波数軸において積分して成る面積を測定する測定部を備える、解像度測定装置。
(2)上記構成(1)に記載の解像度測定装置を備え、
 前記測定部は、前記空中像の結像面内の複数の撮像部位を撮像して取得された前記各撮像画像の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する、光軸方向測定システム。
(3)前記変調伝達関数の面積は、前記撮像画像の輝度分布波形をフーリエ変換することによって得られた変調伝達関数を、空間周波数軸において積分して成る、上記構成(2)に記載の光軸方向測定システム。
(4)前記測定部は、複数の前記変調伝達関数の面積に基づいて、前記撮像装置の撮像方向に対する前記結像面の傾斜角を測定し、前記傾斜角から前記空中像の光軸方向を測定する、上記構成(2)または(3)に記載の光軸方向測定システム。
(5)前記撮像装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第1回転装置をさらに備え、
 前記測定部は、前記撮像装置の回転に伴う複数の前記変調伝達関数の面積の変化に基づいて、前記傾斜角を測定する、上記構成(4)に記載の光軸方向測定システム。
(6)前記撮像装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第1回転装置をさらに備え、
 前記測定部は、前記撮像装置を回転させつつ複数の前記変調伝達関数の面積の間の差分を算出し、複数の前記差分の絶対値が第1所定値以下となったときの前記撮像装置の撮像方向が、前記空中像の光軸方向であるとする、上記構成(2)~(4)のいずれかに記載の光軸方向測定システム。
(7)前記撮像装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第1回転装置をさらに備え、
 前記測定部は、前記撮像装置を回転させつつ複数の前記変調伝達関数の面積を測定し、複数の前記変調伝達関数の面積のすべてが第2所定値以上となったときの前記撮像装置の撮像方向が、前記空中像の光軸方向であるとする、上記構成(2)~(4)のいずれかに記載の光軸方向測定システム。
(8)前記空中像を結像する空中像表示装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第2回転装置をさらに備え、
 前記第2回転装置は、前記測定部によって検出された前記空中像の光軸方向が、前記空中像表示装置における所定の光軸方向と平行となるように、前記空中像表示装置を回転させる、上記構成(2)~(7)のいずれかに記載の光軸方向測定システム。
(9)複数の前記撮像部位は、少なくとも3つの撮像部位である、上記構成(2)~(8)のいずれかに記載の光軸方向測定システム。
(10)複数の前記撮像部位は、第1帯状画像および第2帯状画像の繰り返しパターンであり、
 前記第1帯状画像と前記第2帯状画像とは、輝度および色のうちの少なくとも一方が異なる、上記構成(2)~(9)のいずれかに記載の光軸方向測定システム。
(11)画像表示部から射出された画像光を実像の空中像として結像させる空中像表示装置における前記空中像の光軸方向を測定する光軸方向測定方法であって、
 前記空中像を撮像し、
 前記空中像の複数の撮像部位を撮像して得られた各撮像画像の変調伝達関数を、空間周波数軸において積分して成る面積を測定し、複数の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する、光軸方向測定方法。
(12)画像表示部から射出された画像光を実像の空中像として結像させる空中像表示装置と、前記空中像を撮像する撮像装置と、測定部と、を備える光軸方向測定システムが実行するプログラムであって、
 前記測定部は、前記空中像の複数の撮像部位を撮像して得られた各撮像画像の変調伝達関数を、空間周波数軸において積分して成る面積を測定し、複数の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する、プログラム。
(13)上記構成(2)~(10)のいずれかに記載の光軸方向測定システムと、
 前記測定部によって検出された前記空中像の前記光軸方向と前記空中像を結像する空中像表示装置における所定の光軸方向とのずれを測定し、前記ずれが第3所定値以下である場合、前記空中像表示装置を合格品と判定する判定部と、を備える、合否判定システム。
(14)前記空中像表示装置が合格品と判定された場合、前記撮像装置の絞り値を3よりも大きい値に設定し、前記空中像の複数の撮像部位を撮像して得られる各撮像画像の変調伝達関数を算出する、上記構成(13)に記載の合否判定システム。
(15)空中像の結像面内における複数の撮像部位の撮像画像の解像度として、複数の前記撮像画像の変調伝達関数を空間周波数軸において積分して成る面積のデータを取得する取得部と、
 複数の前記変調伝達関数の面積のデータに基づいて、前記空中像の光軸方向を測定する測定部と、を備える、光軸方向測定装置。
(16)空間に結像された実像の空中像を撮像する撮像部と、
 前記空中像の結像面内の複数の撮像部位の撮像画像の解像度としての、複数の前記撮像画像の変調伝達関数を空間周波数軸において積分して成る面積、に基づいて、前記空中像の光軸方向を測定する測定部と、を備える、光軸方向測定装置。
 以上、本開示の実施形態について詳細に説明したが、本開示は上述の実施の形態に限定されず、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。また、上述の種々の実施の形態の2種以上を組み合わせて成る構成も本開示に含まれる。
 1 光軸方向測定システム
 2 空中像表示装置
 2a 空中像表示装置の構成部材
 3 画像表示部
 4 表示パネル
 4a 表示面
 5 光学系
 5a 第1光学部材
 5b 第2光学部材
 6 筐体
 6a 画像光射出面
 7 撮像装置
 7d 撮像装置の撮像方向
 7da 撮像装置の所定の撮像方向
 8 測定部
 9,9’ テストパターン(空中像)
 9a 第1帯状画像
 9b 第2帯状画像
 9c,9d,9e,9f 矩形波チャート
 10 装置台
 10a 上面
 11 移動装置
 11h 保持部材
 11r レール
 11t 移動台
 12 第1回転装置
 13 第2回転装置
 14 取得部
 15 判定部
 18 測定装置
 20 利用者
 20e 利用者の眼
 50 合否判定システム
 Da 空中像の光軸方向
 Dad 設計光軸方向
 F1~F7 撮像部位
 Lp 画像光
 P1~P7 撮像画像
 R 空中像
 Rp 結像面

Claims (16)

  1.  撮像装置により撮像された空中像の撮像画像の変調伝達関数を空間周波数軸において積分して成る面積を測定する測定部を備える、解像度測定装置。
  2.  請求項1に記載の解像度測定装置を備え、
     前記測定部は、前記空中像の結像面内の複数の撮像部位を撮像して取得された前記各撮像画像の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する、光軸方向測定システム。
  3.  前記変調伝達関数の面積は、前記撮像画像の輝度分布波形をフーリエ変換することによって得られた変調伝達関数を、空間周波数軸において積分して成る、請求項2に記載の光軸方向測定システム。
  4.  前記測定部は、複数の前記変調伝達関数の面積に基づいて、前記撮像装置の撮像方向に対する前記結像面の傾斜角を測定し、前記傾斜角から前記空中像の光軸方向を測定する、請求項2または3に記載の光軸方向測定システム。
  5.  前記撮像装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第1回転装置をさらに備え、
     前記測定部は、前記撮像装置の回転に伴う複数の前記変調伝達関数の面積の変化に基づいて、前記傾斜角を測定する、請求項4に記載の光軸方向測定システム。
  6.  前記撮像装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第1回転装置をさらに備え、
     前記測定部は、前記撮像装置を回転させつつ複数の前記変調伝達関数の面積の間の差分を算出し、複数の前記差分の絶対値が第1所定値以下となったときの前記撮像装置の撮像方向が、前記空中像の光軸方向であるとする、請求項2~4のいずれか1項に記載の光軸方向測定システム。
  7.  前記撮像装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第1回転装置をさらに備え、
     前記測定部は、前記撮像装置を回転させつつ複数の前記変調伝達関数の面積を測定し、複数の前記変調伝達関数の面積のすべてが第2所定値以上となったときの前記撮像装置の撮像方向が、前記空中像の光軸方向であるとする、請求項2~4のいずれか1項に記載の光軸方向測定システム。
  8.  前記空中像を結像する空中像表示装置を、前記結像面内における複数の前記撮像部位が並ぶ方向に直交する方向と平行な回転軸周りに回転させる第2回転装置をさらに備え、
     前記第2回転装置は、前記測定部によって測定された前記空中像の光軸方向が、前記空中像表示装置における所定の光軸方向と平行となるように、前記空中像表示装置を回転させる、請求項2~7のいずれか1項に記載の光軸方向測定システム。
  9.  複数の前記撮像部位は、少なくとも3つの撮像部位である、請求項2~8のいずれか1項に記載の光軸方向測定システム。
  10.  複数の前記撮像部位は、第1帯状画像および第2帯状画像の繰り返しパターンであり、
     前記第1帯状画像と前記第2帯状画像とは、輝度および色のうちの少なくとも一方が異なる、請求項2~9のいずれか1項に記載の光軸方向測定システム。
  11.  画像表示部から射出された画像光を実像の空中像として結像させる空中像表示装置における前記空中像の光軸方向を測定する光軸方向測定方法であって、
     前記空中像を撮像し、
     前記空中像の複数の撮像部位を撮像して得られた各撮像画像の変調伝達関数を、空間周波数軸において積分して成る面積を測定し、複数の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する、光軸方向測定方法。
  12.  画像表示部から射出された画像光を実像の空中像として結像させる空中像表示装置と、前記空中像を撮像する撮像装置と、測定部と、を備える光軸方向測定システムが実行するプログラムであって、
     前記測定部は、前記空中像の複数の撮像部位を撮像して得られた各撮像画像の変調伝達関数を、空間周波数軸において積分して成る面積を測定し、複数の前記変調伝達関数の面積に基づいて、前記空中像の光軸方向を測定する、プログラム。
  13.  請求項2~10のいずれか1項に記載の光軸方向測定システムと、
     前記測定部によって測定された前記空中像の前記光軸方向と前記空中像を結像する空中像表示装置における所定の光軸方向とのずれを測定し、前記ずれが第3所定値以下である場合、前記空中像表示装置を合格品と判定する判定部と、を備える、合否判定システム。
  14.  前記空中像表示装置が合格品と判定された場合、前記撮像装置の絞り値を3よりも大きい値に設定し、前記空中像の複数の撮像部位を撮像して得られる各撮像画像の変調伝達関数を算出する、請求項13に記載の合否判定システム。
  15.  空中像の結像面内における複数の撮像部位の各撮像画像を取得する取得部と、
     前記各撮像画像の変調伝達関数を空間周波数軸において積分して成る面積に基づいて、前記空中像の光軸方向を測定する測定部と、を備える、光軸方向測定装置。
  16.  空間に結像された実像の空中像を撮像する撮像部と、
     前記空中像の結像面内の複数の撮像部位の撮像画像の解像度としての、複数の前記撮像画像の変調伝達関数を空間周波数軸において積分して成る面積、に基づいて、前記空中像の光軸方向を測定する測定部と、を備える、光軸方向測定装置。
PCT/JP2024/001722 2023-01-31 2024-01-22 解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム WO2024162077A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2023013625 2023-01-31
JP2023-013625 2023-01-31
JP2023084984 2023-05-23
JP2023-084984 2023-05-23

Publications (1)

Publication Number Publication Date
WO2024162077A1 true WO2024162077A1 (ja) 2024-08-08

Family

ID=92146497

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/001722 WO2024162077A1 (ja) 2023-01-31 2024-01-22 解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム

Country Status (1)

Country Link
WO (1) WO2024162077A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077956A (ja) * 2000-08-30 2002-03-15 Hitachi Ltd 液晶プロジェクタ並びに液晶プロジェクタのフォーカス計測方法及びその装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077956A (ja) * 2000-08-30 2002-03-15 Hitachi Ltd 液晶プロジェクタ並びに液晶プロジェクタのフォーカス計測方法及びその装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
INOUE SHINICHI, KOTORI YUKIO, TAKISHIRO MASAYUKI: "Paper Gloss Analysis by Specular Reflection Point Spread Function (PartⅡ) - Spatial Frequency Analysis for Paper Gloss", JAPAN TAPPI JOURNAL, vol. 66, no. 12, 1 January 2012 (2012-01-01), pages 1425 - 1434, XP093196698, DOI: 10.2524/jtappij.66.1425 *
YADA SHOMA, KOIKE TAKAFUMI, ONISHI YASUSHI: "MTF Measurement of Aerial Images Using Retroreflective Corner Reflector Array", VIRTUAL REALITY SOCIETY OF JAPAN, 27TH ANNUAL CONFERENCE PROCEEDINGS, pages 1D4 - 1, XP093196675, Retrieved from the Internet <URL:https://conference.vrsj.org/ac2022/program/doc/1D4-1.pdf> *

Similar Documents

Publication Publication Date Title
US10907955B2 (en) Three-dimensional imager
US10578724B2 (en) LIDAR optics alignment systems and methods
US20210270970A1 (en) LIDAR Optics Alignment System
JP6447055B2 (ja) 校正方法、校正装置、計測用具及びプログラム
US20170235140A1 (en) Image generation apparatus, vehicle, control method of image generation apparatus and storage medium that set an adjustment target value of emission light intensity
US8711275B2 (en) Estimating optical characteristics of a camera component using sharpness sweep data
US7124046B2 (en) Method and apparatus for calibration of camera system, and method of manufacturing camera system
US20090002574A1 (en) Method and a system for optical design and an imaging device using an optical element with optical aberrations
CN108089324A (zh) 具有光学跟踪器的nte显示系统和方法
US9990752B2 (en) Image processing device, imaging device, microscope system, image processing method, and computer-readable recording medium
US20190364267A1 (en) Optical test apparatus and optical test method
JP6791341B2 (ja) 校正方法、校正装置、及びプログラム
US20180240241A1 (en) Three-dimensional imager
EP4097681A1 (en) Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera
JP2006246502A (ja) 画像歪み補正機能を備えたプロジェクタ装置
US8699757B2 (en) Software embodied on a non-transitory storage media for distance measurement using speckle pattern
CN115494652A (zh) 一种对头显设备进行装配的方法、装置、设备及存储介质
US8817246B2 (en) Lens test device and method
JP2024099660A (ja) 空中像表示装置
WO2024162077A1 (ja) 解像度測定装置、光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム
WO2024162078A1 (ja) 光軸方向測定システム、光軸方向測定方法、プログラム、光軸方向測定装置、および合否判定システム
WO2024162079A1 (ja) 測定システム、合否判定システム、および測定装置
JP6312410B2 (ja) アライメント装置、顕微鏡システム、アライメント方法、及びアライメントプログラム
JP2020140018A (ja) カメラモジュール調整装置及びカメラモジュール調整方法
US20230154031A1 (en) Verification method of dynamic virtual image display distance of user interface and system thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24750028

Country of ref document: EP

Kind code of ref document: A1