WO2006129677A1 - 結像状態検出装置 - Google Patents

結像状態検出装置 Download PDF

Info

Publication number
WO2006129677A1
WO2006129677A1 PCT/JP2006/310811 JP2006310811W WO2006129677A1 WO 2006129677 A1 WO2006129677 A1 WO 2006129677A1 JP 2006310811 W JP2006310811 W JP 2006310811W WO 2006129677 A1 WO2006129677 A1 WO 2006129677A1
Authority
WO
WIPO (PCT)
Prior art keywords
light receiving
detection device
array
state detection
imaging state
Prior art date
Application number
PCT/JP2006/310811
Other languages
English (en)
French (fr)
Inventor
Ken Utagawa
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US11/920,839 priority Critical patent/US7745772B2/en
Priority to EP06756759A priority patent/EP1887399A4/en
Publication of WO2006129677A1 publication Critical patent/WO2006129677A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Definitions

  • the present invention relates to an imaging state detection device for an imaging optical system provided in a camera, a field scope, or the like.
  • the pupil division re-imaging method is the most common as a focus detection device for a single-lens reflex camera (eg, Patent Document 1).
  • the imaging light flux that has passed through different areas on the exit pupil of the camera's photographic lens is re-imaged individually by a pair of re-imaging lenses, and a pair of re-imaged secondary images.
  • This pattern is detected by a line sensor, and a defocus signal is generated according to the pattern shift between the pair of secondary images.
  • the detection pitch of the focus detection surface (scheduled focal plane) in this method is the projection magnification and the line sensor It depends on the pixel pitch. Therefore, if the pixel array of the line sensor is densified, highly accurate focus detection can be performed.
  • the focus detection surface is a surface to be focused on that surface, such as a film conjugate surface.
  • Patent Document 1 Japanese Patent Laid-Open No. 2002-174766
  • the length of the focus detection area on the focus detection surface is 3 to 7 mm, so this length is imaged on the sensor with one re-imaging lens. If this is the case, the distance from the focus detection surface force to the re-imaging lens must be secured by a certain amount (several times 3 to 7 mm), making it difficult to reduce the size. In addition, since the distance between the re-imaging lens and the sensor is also large, it is difficult to increase the accuracy of assembly adjustment for superimposing the two line sensor images. For example, a vertical line perpendicular to the extending direction of the focus detection area However, even if the accuracy is good, there is a problem that the accuracy is lowered in the oblique line. [0005]
  • the present invention provides a compact and highly accurate imaging state detection device and a camera using the same as a focus detection device.
  • the present invention also provides a focus detection unit for realizing a compact and highly accurate imaging state detection device.
  • An imaging state detection apparatus includes a microlens array having a plurality of microlenses provided at a predetermined distance from a planned focal plane of an imaging optical system and arranged at a predetermined pitch.
  • a light receiving section array for receiving an image on a predetermined focal plane via each microlens, and a light receiving output obtained by the plurality of light receiving sections.
  • the signal string extraction unit extracts a signal string pair by selecting a light reception output corresponding to a pupil region for each of a plurality of light receiving parts corresponding to each microlens. .
  • the pitch Pd of the images of the light receiving portions of the plurality of light receiving portions when back projected onto the planned focal plane is smaller than the pitch p of the microlenses.
  • the predetermined distance L is based on the arrangement pitch of the microlenses and the size of the pupil region.
  • the number of pupil regions when the arrangement pitch of the microlenses is P
  • the F value of the light beam from the pupil region incident on one of the light receiving units is F
  • the F value of the light beam of the pupil region force is 2.
  • the distance L is expressed by the following equation.
  • a plurality of light receiving portions corresponding to each microlens is defined as a light receiving portion group, and the signal extraction means includes a part of each microlens corresponding to each of the light receiving portion groups.
  • a second extraction method that selects a light receiving output of a light receiving unit group different from the selected light receiving unit group and sets it as a second signal sequence.
  • the light receiving unit array includes a first array group in which a plurality of light receiving units are arranged in a first direction, and a second direction different from the first direction.
  • a second array group arranged, and a pair of a light receiving portion arranged in the first direction and a microlens corresponding to the light receiving portion, and a light receiving portion arranged in the second direction and the light receiving portion Pairs with microlenses that are to be placed are arranged in a checkered pattern.
  • An imaging state detection apparatus including a first array group in which a plurality of light receiving units are arranged in a first direction and a second array group in a second direction different from the first direction is a first array group.
  • the array group and the second array group may be arranged in a pinecone pattern.
  • An imaging state detection device including a first array group in which a plurality of light receiving units are arranged in a first direction and a second array group arranged in a second direction different from the first direction is a first array
  • the pitch of the microphone lens array corresponding to the group and the pitch of the micro lens array corresponding to the second array group can be made different.
  • An imaging state detection device including a first array group in which a plurality of light receiving units are arranged in a first direction and a second array group arranged in a second direction different from the first direction is a first array
  • the length in the array direction of each light receiving section of the group can be made longer than the length in the array direction of each light receiving section in the second array group.
  • the light receiving unit array can include light receiving units having different spectral sensitivity characteristics.
  • the light receiving units having specific spectral sensitivity characteristics are arranged with higher density than the light receiving units having other spectral characteristics.
  • the first array includes a first array group in which a plurality of light receiving units are arrayed in a first direction and a second array group in a second direction different from the first direction.
  • the group includes a plurality of light receiving array groups having different spectral sensitivity characteristics, and each of the plurality of light receiving array groups includes a light receiving unit having a specific spectral sensitivity characteristic. Furthermore, the light receiving parts having different spectral characteristics are different in size.
  • the present invention also provides a camera incorporating the above-described various imaging state detection devices as a focus detection device.
  • Sarasuko uses the microlens array in the imaging state detection device described above.
  • a light receiving unit having a light receiving unit array is also provided.
  • a compact and highly accurate imaging state detection device can be realized. Further, it is possible to provide a camera incorporating such a miniaturized imaging state detection device as a focus detection device. Furthermore, it is possible to provide a focus detection unit for realizing a miniaturized imaging state detection device.
  • FIG. 1 is a configuration diagram of an electronic camera system according to a first embodiment.
  • FIG. 2 is a schematic optical path diagram of the focus detection unit 5 and its surroundings.
  • FIG. 3 is an enlarged view of the focus detection unit 5.
  • FIG. 4 is a diagram for explaining the relationship between individual line sensors 531 in the focus detection unit 5 and the photographing lens 100.
  • FIG. 5 is a diagram for explaining the size and positional relationship in the focus detection unit 5.
  • FIG. 6 is a diagram for explaining an imaging relationship (conjugate relationship) between a planned focal plane 5a and a line sensor 531 by a microlens 521.
  • FIG. 7 is a diagram for explaining the degree of blur suitable for the focus detection unit 5.
  • FIG. 8 is a diagram showing a specific example of the focus detection unit 5 (state when the F value power of the photographing lens 100 is “4”).
  • FIG. 9 is a diagram showing a specific example of the focus detection unit 5 (state when the F value of the photographing lens 100 is “8”).
  • FIG. 10 is a diagram for explaining a method of generating a defocus signal when the F value of the photographic lens 100 is “4”.
  • FIG. 11 is a diagram for explaining a method of generating a defocus signal when the F value of the photographing lens 100 is “8”.
  • FIG. 12 is a view showing a modification of the focus detection unit 5.
  • FIG. 13 is a diagram showing another modification of the focus detection unit 5.
  • FIG. 14 is a view showing still another modified example of the focus detection unit 5.
  • FIG. 15 is a view showing still another modification of the focus detection unit 5.
  • FIG. 16 is a view showing still another modified example of the focus detection unit 5.
  • FIG. 17 is a view showing still another modification of the focus detection unit 5.
  • FIG. 18 is a view showing still another modified example of the focus detection unit 5.
  • FIG. 19 is a diagram (optical system diagram) for explaining the principle of the imaging state detection device of the present invention.
  • FIG. 20 is a diagram for explaining the principle of the imaging state detection device of the present invention (a back-projected image).
  • FIG. 21 is a diagram (an example of a back projection image) for explaining an example of an imaging state detection device.
  • FIG. 22 is a diagram for explaining an example of an imaging state detection device (a diagram of an optical system).
  • FIG. 23 is a diagram for explaining a first sample method.
  • FIG. 24 is a diagram for explaining a shift of a signal sequence.
  • FIG. 25 is a diagram for explaining a second sample method.
  • FIG. 26 is a diagram for explaining a method of selecting a signal sequence in the second sampling method.
  • FIG. 27 is a flowchart illustrating an image shift detection operation.
  • FIGS. 19 to 22 An embodiment when an imaging state detection device according to an embodiment of the present invention is applied to a camera will be described. First, a conceptual explanation will be given with reference to FIGS. 19 to 22, followed by a concrete example.
  • the planned focal plane is an optically equivalent surface to an imaging surface of an imaging device that images a subject via an imaging optical system.
  • the focus detection apparatus in FIG. 19 includes a plurality of microlenses 182, 183 arranged at a predetermined distance from the planned focal plane 181 of the imaging optical system and arranged at a predetermined pitch, and a plurality of photoelectric conversion elements.
  • the focus detection apparatus is also based on the light reception outputs obtained by the pair of photoelectric conversion element arrays 184 and 185, and / or a signal sequence corresponding to an image by a light beam that has passed through different pupil regions of the imaging optical system.
  • the signal sequence extraction unit 191 that extracts the pair a (i) and b (i) and the phase shift of the signal sequence pair a (i) and b (i) extracted by the signal sequence extraction unit 191 (image)
  • a calculation unit 192 that calculates a defocus amount that is an imaging state of the imaging optical system.
  • each of the photoelectric conversion element arrays 184 and 185 has five photoelectric conversion elements 184-1 to 184-5 and 185-1 to 185-5.
  • five divided pupils (also referred to as partial pupils) 186-1 to 186-5 in the exit pupil of the imaging optical system and the photoelectric conversion elements 184-1 to 184-5 corresponds.
  • each photoelectric conversion element 185-1 to 185-5 corresponds.
  • the light beam incident on the microlenses 182, 183 is shifted by one element on the focus detection surface.
  • the microlens surface serves as a focus detection surface. It is limited to the arrangement pitch of the lenses.
  • the microlens also becomes smaller, which reduces the amount of light and decreases the detection capability. Therefore, in the focus detection apparatus according to the embodiment of the present invention, the planned focal plane (focus detection plane) 181 and the microlens are arranged so that the sampling pitch on the focus detection plane is more powerful than the arrangement pitch of the microlenses.
  • the positional relationship in the optical axis direction between the arrays 182, 183 and the photoelectric conversion element arrays 184, 185 is designed.
  • the pitch of the element back-projected image on the planned focal plane ie, the sample pitch is Pd
  • the microlens array pitch is P
  • PZPd> l For example, P / Pd ⁇ l. 1, preferably PZPd ⁇ l. 5, or more.
  • the light passing through one point on the focus detection surface 181 enters the five microlenses 1871-1 to 187-5. Since the spread of the incident light is in the range indicated by the dotted line, the light passing through one point on the focus detection surface 181 can enter all the microlenses shown in FIG.
  • the image shift amount can be calculated by using the signal outputs of the plurality of photoelectric conversion element arrays 188-1 to 188-5 corresponding to the microlenses 187-1 to 187-5. If focus detection is performed, the defocus amount can be calculated by this.
  • the force described with five partial pupils is a minimum example, preferably 6 or more, and practically 8 or more.
  • Fig. 8 which will be described later, is the case of the F-number power of the taking lens, and there are 12 partial pupils. If this is changed to one with an F value of 8, as shown in Fig. 9, there are 6 partial pupils.
  • the force with the number of partial pupils set to the above value is not limited to this.
  • the distance L between the microlens array and the planned focal plane is L and P X F.
  • the distance L is L ⁇ P X F Z (Q-4).
  • the present embodiment is an embodiment of an electronic camera system equipped with an imaging state detection device (for example, a focus detection device) according to an embodiment of the present invention.
  • an imaging state detection device for example, a focus detection device
  • FIG. 1 is a configuration diagram of the electronic camera system of the present embodiment.
  • the electronic camera system includes a camera body 200 and a photographing lens 100 that can be attached to and detached from the camera body 200.
  • a coupling part 10 for signal connection and driving force transmission is provided at the connection point between the two.
  • a lens group 1, an aperture stop 2, a drive mechanism 3, and the like that form a light beam from the subject (subject light beam) are provided.
  • the quick return mirror 13 is disposed on the optical axis of the photographing lens 100.
  • a shutter 11 and an image sensor 12 are sequentially arranged on the transmission side of the quick return mirror 13, and a pentaprism 6 constituting an optical viewfinder is disposed on the reflection side of the quick return mirror 13. Eyepieces 15 are arranged in order.
  • a sub mirror 14 is disposed between the quick return mirror 13 and the shutter 11, and the focus detection unit 5 is disposed on the reflection side of the sub mirror 14. If the electronic camera system is a camera system that uses a silver halide film, a film may be placed instead of the image sensor 12.
  • the camera body 200 is provided with various operation buttons 16. Through the operation buttons 16, the convertor can instruct the electronic camera system to adjust the focus, instruct to shoot, and specify the F value of the photographic lens 100.
  • the microprocessor 9 in the camera body 200 drives the focus detection unit 5 to perform focus detection.
  • the focus detection unit 5 acquires a signal including information on the defocus amount of the photographing lens 100 based on at least a part of the subject light flux from the photographing lens 100 and sends it to the microprocessor 9. Details of the focus detection unit 5 will be described later.
  • the microprocessor 9 generates a defocus signal based on the signal, and supplies the defocus signal to the drive mechanism 3 in the photographing lens 100.
  • the driving mechanism 3 performs focus adjustment by displacing a predetermined lens group in the photographic lens 100 based on the defocus signal.
  • the microprocessor 9 drives the quick return mirror 13, the shutter 11, and the aperture stop 2, and the aperture value and shot speed corresponding to the shooting conditions are driven.
  • the image sensor 12 is exposed with the subject luminous flux from the photographing lens 100 to obtain image data.
  • the aperture stop 2 is driven via a drive mechanism 3.
  • FIG. 2 is a schematic optical path diagram of the focus detection unit 5 and its surroundings.
  • reference numeral 14a is the reflecting surface of the submirror 14
  • reference numeral 12a is the imaging surface of the image sensor 12
  • reference numeral 5a is a planned focal plane optically equivalent to the imaging surface 12a with respect to the reflecting surface 14a.
  • the subject luminous flux from the photographing lens 100 forms an image in the vicinity of the planned focal plane 5a.
  • the focus detection plane 5 is the planned focal plane 5a.
  • a microlens array 52 is arranged on a plane that is a predetermined distance away from the planned focal plane 5a, and a line sensor array 53 is arranged on the rear side thereof. Light passing through the lens is received.
  • a field lens 51 is inserted in the optical path (between the vicinity of the planned focal plane 5a and the microlens), and a light beam with a high image height is detected. May be bent in the optical axis direction. In the following description, the field lens 51 is ignored.
  • FIG. 3 is an enlarged view of the focus detection unit 5.
  • FIG. 3 (A) is a schematic cross-sectional view of the focus detection unit 5 cut along a plane including the optical axis.
  • FIG. 3B is a schematic front view when the microlens array 52 and the line sensor array 53 are drawn in an overlapping manner.
  • the microlens array 52 has a plurality of positive powers of microlenses 521-1 to 521-12 in a predetermined direction (the left-right direction in the figure). Are arranged at a predetermined pitch.
  • the line sensor array 53 includes line sensors 531—1 to 531—12 corresponding to each of the microlenses 521—1 to 521—12, and the same number of line sensors 531—1 to 531—12 respectively. Having a photoelectric conversion element.
  • the back-projected images of the line sensors 531-1 to 531-12 by the microlens array 52 are formed on the planned focal plane 5a shown in FIG. 2, as will be described later with reference to FIGS.
  • the back projection images of a pair of adjacent line sensors are designed so that at least a part thereof overlaps.
  • the alignment direction of the photoelectric conversion elements 531A, 531B, ⁇ in each line sensor 531 is determined by the microlenses 521—1 to 521—12 and the line sensors 531—1 to 531— It is the same as the 12 arrangement directions (left and right direction in the figure).
  • force using 12 line sensors 531-1 to 531-12 12 using one continuous line sensor 1 2 microlenses 521-1 to 521- Photoelectric conversion elements existing in 12 ranges corresponding to 12 may be used.
  • the microlens 521 of the microlens array 52 is represented as a planoconvex lens, but may be a biconvex lens.
  • a stop may be provided instead of the light shielding wall 54.
  • the aperture pattern of this stop is a plurality of circles arranged in the same arrangement pattern as the microlens 521. Instead of placing a stop between the micro lens array 52 and the line sensor array 53 as in this modification, the stop is placed inside the taking lens 100, the reflective surface of the quick return mirror 13, the reflective surface of the sub mirror 14, etc. May be arranged. In the following description, the light shielding wall 54 and the diaphragm are ignored.
  • FIG. 4 is a diagram for explaining the relationship between the individual line sensors 531 in the focus detection unit 5 and the photographing lens 100.
  • the concept of the photographic lens 100 is represented by a single lens, and the optical path from the photographic lens 100 to the focus detection unit 5 is made straight by omitting the sub-mirror 14 and the like.
  • photoelectric conversion elements 531A, 531B, 531 in individual line sensors 531 are shown in FIG. 4, photoelectric conversion elements 531A, 531B, 531 in individual line sensors 531
  • each line sensor 531 detects the luminance distribution pattern of the detection region E on the planned focal plane 5a, that is, the luminance distribution pattern in the left-right direction in FIG. 4, via each corresponding microlens 521.
  • Each detection region E by each line sensor 531 is shifted by a distance corresponding to the arrangement pitch of the microlenses 521. In other words, at least a pair of detection areas by a pair of adjacent line sensors overlap.
  • FIG. 5 is a diagram for explaining the size and positional relationship of the main components in the focus detection unit 5.
  • FIG. 5 shows two detection areas E ⁇ n and E ⁇ (n + 1) adjacent to each other.
  • These detection areas E include line sensors 531—n and 531— (n + 1) corresponding to two microlenses 521—n and 521— (n + 1), which are adjacent to each other, and corresponding microphone aperture lenses. 521—n and 521— (n + 1) correspond to backprojected images that can be individually backprojected onto the planned focal plane 5a.
  • the two detection areas E are drawn while being shifted in the optical axis direction.
  • the symbols 531A, 531B ', 531C', ⁇ in the detection region E—n are the photoelectric conversion elements 531A, 531B, 531C, ⁇ in the line sensor 531—n and the corresponding microlens 521—n.
  • This is a back-projected image obtained by back-projecting onto the predetermined focal plane 5a.
  • the pitch Pd of these back-projected images 531A ′, 531B, 531C ′,... Corresponds to the sample bitch on the planned focal plane 5a by the line sensor 531.
  • the microlens array is arranged at a position away from the planned focal plane 5a, and the back projection image of the photoelectric conversion elements 531A, 531B, 531C, ... is formed on the planned focal plane by the microlens. By doing so, it is possible to extract the focus detection information with a finer pitch Pd than the pitch P of the microlenses 521-1 to 521-12.
  • optical power of the microlens 521 that is, the imaging relationship (conjugate relationship) between the planned focal plane 5a and the line sensor 531 will be described.
  • FIG. 6 is a diagram for explaining the imaging relationship (conjugate relationship) between the planned focal plane 5a and the line sensor 531 by the microlens 521.
  • FIG. 6 (A) it is not necessary that one point on the planned focal plane 5a is focused on one point on the line sensor 531 without blur. Rather, as shown in FIGS. 6 (B) and 6 (C), it is preferable that there is some blur.
  • FIGS. 6 (B) and 6 (C) it is preferable that there is some blur.
  • the degree of blur suitable for the focus detection unit 5 will be described.
  • FIG. 7 is a diagram for explaining the degree of blur suitable for the focus detection unit 5.
  • FIGS. 7A and 7B are diagrams showing output signals on the line sensor 531 when the point image of the subject is formed on the planned focal plane 5a.
  • Fig. 7 (A) shows the case where the blur is insufficient
  • Fig. 7 (B) shows the case where the degree of blur is appropriate.
  • a deviation of the conjugate relationship force is given by an appropriate amount so that such an appropriate blur occurs.
  • FIG. 8 is a diagram showing a specific example of the focus detection unit 5 when the F value (usually the open F value) that can be used for detection of the photographing lens 100 is “4”.
  • the same identification numbers i, (i + 1), (i + 2), (i + 3),... are assigned to the corresponding ones of the plurality of line sensors 531 and the plurality of detection regions E. It was attached.
  • the design values of each part of the focus detection unit 5 are as follows.
  • This deviation amount is a length corresponding to the arrangement pitch of the microlenses 521.
  • the focus detection unit 5 within the length P, there are three images of the photoelectric conversion element in the backprojected image. In other words, focus detection signals are obtained at a pitch of 1Z3 per microlens pitch (ie, with a resolution of 3 times).
  • the photoelectric conversion element there are nine statues. Therefore, when the calculation method using the first sampling method described later using line sensors 531—i, 531— (i + 1) that are adjacent to each other is used, a maximum of 9 pixels that overlap each other on the planned focal plane 5a are detected. It is possible to calculate the deviation using up to one.
  • focus detection can be performed using line sensor signals corresponding to four or more microlenses.
  • FIG. 9 is a diagram illustrating a specific example of the focus detection unit 5 when the F value of the photographing lens 100 is “8”.
  • the number of photoelectric conversion element images in the detection area E is six. That is, the output signals of the six photoelectric conversion elements in the center among the 12 photoelectric conversion elements of one line sensor 531 are used.
  • the line sensors 531-i and 531- (i + 1) adjacent to each other can have an overlapping region of 3 pixels on the planned focal plane 5a.
  • the first sampling method described below there are not enough pixels that can be correlated, and the accuracy may not be sufficient.
  • an effective focus detection calculation can be performed.
  • FIG. 10 is a diagram for explaining how the image on the line sensor shifts when the F value of the photographing lens 100 is “4”.
  • the four line sensors adjacent to each other 531— i, 531— (i + 1), 531— (i + 2), 531— (i + 3) Force Detects secondary image I of the same image I.
  • the secondary images on the four line sensors 531— i, 531— (i + 1), 531— (i + 2), 531— (i + 3) Are shifted laterally by a predetermined distance between the sensors.
  • the subject image I when the subject image I is formed on the surface deviated from the intended focal plane 5a in the direction indicated by the arrow at the top of FIG. 531—i, 531— (i + 1), 531- (i + 2), 531— (i + 3) detect the secondary image of image I.
  • the secondary image of the image I as indicated by the arrow at the bottom of FIG. 10, is laterally compared to when the image I is formed on the intended focal plane, that is, Shift in the direction of alignment.
  • the lateral shift amount is an amount corresponding to the defocus amount of the image I.
  • the defocus amount calculation procedure is as follows.
  • the microprocessor 9 outputs the four line sensors 531—i, 531- (i + 1), 531— (i + 2), 531— (i + 3) adjacent to each other.
  • an image shift amount is obtained using an arithmetic algorithm described later with reference to FIG. 24, and then the defocus amount is calculated.
  • the outer two line sensors 531—i, 531— (i + 1), 531— (i + 2), 531— (i + 3) the outer two line sensors 531—i, 531 — Between (i + 3), the displacement of the secondary image is large, so if the output signals of these two line sensors 531— i, 531— (i + 3) are used, the microprocessor 9
  • the defocus amount can be calculated with high accuracy.
  • the defocus amount is large, the lateral shift amount of the secondary image is too large, and the lateral shift amount of the secondary image is detected from the output signals of the two outer line sensors 531—i, 531— (i + 3). There are cases where it is not possible.
  • the microprocessor 9 can reliably calculate the defocus amount.
  • FIG. 11 is a diagram illustrating a calculation procedure of the defocus amount when the F value of the photographing lens 100 is “8”.
  • the two line sensors 531—i, 531— (i + 1) adjacent to each other are image I.
  • the secondary image of can be detected.
  • the secondary images are shifted in the lateral direction, that is, in the direction in which the elements are arranged, as compared with the case where the image I is formed on the planned focal plane.
  • the lateral shift amount is an amount corresponding to the defocus amount.
  • the microprocessor 9 is a diagram that will be described later based on the output signals of the two line sensors 531—i, 531— (i + 1) that are always adjacent to each other regardless of the amount of defocus. Use the calculation procedure in step 24 to obtain the image displacement amount, and then calculate the defocus amount.
  • the microprocessor 9 can reliably calculate the defocus amount by using the output signals of two line sensors 531—j, 531— (j + 1) having different arrangement locations. For example, in the case of FIG. 11, two line sensors 531— (i + 1) and 531— (i + 2) may be used.
  • the back-projected images of the photoelectric conversion elements al to a8 constituting the line sensor 531-1 on the focus detection surface 5a in Fig. 23 are indicated by al 'to a8, and similarly constitute the line sensor 531-2.
  • the back-projected images of the photoelectric conversion elements bl to b8 are denoted by bl ′ to b8 ′.
  • a (3) and b (5) correspond to a (4) and b (6), respectively. That is, an image in the vicinity of the minute region 5al2 indicated by the alternate long and short dash line on the focus detection surface 5a is detected. The image of the minute region 5a23 shown by the adjacent broken line is detected in the same manner using the output signals of the line sensors 531-2 and 531-3.
  • the method of selecting a pair of line sensors 531 for detecting an image is not limited to a pair of adjacent line sensors 531, and any pair of overlapping back-projected images of line sensors on the planned focal plane 5a can be used.
  • Line sensors 531-1 and 531-3 may be selected.
  • the coefficient for converting the image shift amount into the defocus amount varies depending on which line sensor 531 is selected.
  • the second sampling method in order to extract the first signal sequence ⁇ a (i) ⁇ and the second signal sequence ⁇ b (i) ⁇ , as shown in FIG. 25, it corresponds to the microlens 521-1.
  • the signal a (l) is extracted from the output signals of the multiple photoelectric conversion elements of the line sensor 531—1.
  • any combination as shown in FIGS. 26 (a) to (d) can be selected. It is. In the vicinity of the focus of a bright lens, it is efficient to select a signal sequence as shown in Fig. 26 (a), which can increase the detection opening angle and increase the defocus detection accuracy. When the defocus is large, it is efficient to select a signal sequence as shown in FIG. 26 (d) that can capture a large amount of deviation.
  • the coefficient for converting the image shift amount into the defocus amount is the method of selecting the signal sequence, that is, (a) to (d) in FIG. , Depending on whether to select the displacement.
  • the shift amount of the first signal sequence ⁇ a (i) ⁇ and the second signal sequence ⁇ b (i) ⁇ formed by the first and second sampling methods is determined by a known method described below. calculate.
  • the shift amount Na is obtained using the correlation amount C (N) discretely calculated by the equation (1).
  • the correlation amount giving the minimum value is CO
  • the correlation amount at the shift number (N—1) is Cr
  • the correlation amount at the shift number (N + 1) is Cf
  • the shift amount Na is Calculated using equations (2) to (4).
  • the image shift amount ⁇ n on the focus detection surface is calculated by the equation (5).
  • the defocus amount Df can be calculated using Equation (6).
  • Kf is a constant that depends on the detected opening angle.
  • step S1 charge accumulation of the line sensor 53 is started, and after a predetermined accumulation time has passed, an output signal (image data) is taken from each element of the line sensor 53, and the process proceeds to step S2.
  • step S2 the first sampling method or the second sampling method is selected according to the determination criterion. If the first sampling method is selected, the process proceeds to step S3. If the second sampling method is selected, the process proceeds to step S4.
  • the criterion is, for example, a criterion based on the defocus amount. When the defocus amount exceeds a predetermined value, the second sampling method is selected, and when the defocus amount is within the predetermined value, the first sampling is performed. Try to choose a method.
  • step S3 as described above, the first signal sequence ⁇ a
  • step S4 as described above, the first signal sequence ⁇ a (i) ⁇ and the second signal sequence ⁇ b (i) ⁇ are extracted by the second sampling method, and the process proceeds to step S5.
  • step S5 as described above, a deviation amount between the first signal sequence ⁇ a (i) ⁇ and the second signal sequence ⁇ b (i) ⁇ is calculated, and the process proceeds to step S6.
  • step S6 the defocus amount is calculated using equation (6), and the process proceeds to step S7.
  • step S7 the defocus amount calculated in step S6 is output to the drive mechanism 3, the predetermined lens group in the photographing lens 100 is driven, and the process returns to step S1.
  • the above processing procedure is executed for signals output from the plurality of line sensors 531 selected according to the F value of the photographing lens 100.
  • the microprocessor 9 can detect the focus with higher accuracy as the photographing lens 100 becomes brighter (F value is smaller).
  • the detection regions E shifted from each other on the planned focal plane 5a are detected by the large number of microlenses 521 and the line sensors 531. Even if the element pitch Pd in the backprojection image of the pupil division re-imaging method (such as Patent Document 1) is set to be the same, the distance L from the planned focal plane 5a to the microlens 521 is It can be shorter than that of the imaging method (Patent Document 1, etc.). That is, the focus detection unit 5 of the present embodiment can be easily downsized while being highly accurate.
  • a force using a line sensor array 53 in which a plurality of line sensors 531 are arranged in the line direction is used.
  • One line sensor formed by connecting line sensors 531 may be used.
  • the focus detection unit 5 of the present embodiment can be modified as follows. (1) Using the focus detection unit 5 described above, the electronic camera system can self-detect the amount of movement of the aperture image plane of the photographing lens 100.
  • the microprocessor 9 includes the four line sensors 531—i, 531— (i + 1), 531— (i + 2), 531— (i + 3) adjacent to each other in the focus detection unit 5. Defocus amount recognized using two line sensors 531— i, 531— (i + 3) and two line sensors adjacent in the center 531-(i + l), 531— The difference from the defocus amount recognized using (i + 2) is obtained. Due to this difference, the microprocessor 9 can recognize the change in the image plane due to the stop of the photographing lens 100. The amount of movement of the aperture image plane is the amount of shift of the focal plane of the taking lens 100 when the F value is changed from “4” to “8”. Using this information, the microprocessor 9 can perform more precise focus adjustment.
  • the microprocessor 9 of the present embodiment changes the line sensor 531 that is the reference source of the output signal according to the F value that is being set for the photographic lens 100, but the F that is scheduled to be set for the photographic lens 100.
  • the line sensor 531 that becomes the reference source of the output signal may be changed according to the value (control F value during exposure).
  • the microprocessor 9 of the present embodiment indicates the content of the calculation for generating the defocus signal according to the F value being set for the taking lens 100 and the Z value to be set to Z or the taking lens 100. You can change it.
  • an optical system including the microlens array 52 and the line sensor array 53 is arranged in two directions. It is desirable to do. In other words, a microlens array having line sensor arrays arranged in the first direction and a microlens array having line sensor arrays arranged in the second direction may be provided.
  • FIG. 12 is a front view of a modified example of the focus detection unit 5.
  • the first optical system 60X in which the microlens array 52 and the line sensor array 53 are arranged in the horizontal direction
  • the second optical system 60X in which the microlens array 52 and the line sensor array 53 are arranged in the vertical direction.
  • a plurality of optical systems 60Y are closely arranged.
  • the focus detection unit 5 in FIG. 12 has a light receiving unit group 601 composed of a plurality of photoelectric conversion elements (light receiving units) arranged in the first direction, and a light beam in one light receiving unit group 601.
  • a second detection optical system 60Y composed of a light receiving unit group 611 composed of a plurality of photoelectric conversion elements arranged in the second direction and a micro lens 612 that guides a light beam to one light receiving unit group 611 is provided.
  • the plurality of first and second detection optical systems 60X and 60Y are arranged in a staggered pine pattern. [0092] In this way, if both the first optical system 60X and the second optical system 60Y are arranged, the pattern at each position on the planned focal plane 5a is detected in two vertical and horizontal directions. (So-called “cross detection”) becomes possible.
  • the above-described cross detection is performed on each of the planned focal planes 5a. It is possible to do about the position. Since detection with a high surface density is possible, even if the subject moves a little, it is possible to take measures against skipping focus detection, so stable focus detection is possible.
  • the arrangement shown in FIG. 12 may be modified as shown in FIG.
  • the length of the line sensor array 53 in the second direction is longer than that of the line sensor array 53 in the first direction.
  • the arrangement shown in FIG. 12 can be modified as shown in FIG. In the focus detection unit 5 shown in FIG. 14, the arrangement pitch P1 in the first direction and the arrangement pitch P2 in the second direction are different. In this case, it is expected that the detection accuracy in the direction in which the microlens array pitch P1 is small and closely arranged will be improved.
  • FIG. 15 is a front view of the focus detection unit 5 having spectral sensitivity characteristics.
  • three types of optical systems 60XR, 60XG, and 60XB each having sensitivity to each of the three colors R (red), G (green), and B (blue) are arranged in the X direction.
  • Three types of optical systems 60YR, 60YG, and 60YB each with sensitivity in each of the three colors (red), G (green), and B (blue) are arranged in the X direction. That is, in the focus detection unit 5 of FIG.
  • the plurality of first detection optical systems 60XG, 60XB, 60XR include light receiving unit groups 601G, 601B, 601R having different spectral sensitivity characteristics, and a plurality of second detection optical systems.
  • 60YG, 60YB, 60YR also have different spectral sensitivity characteristics
  • Light receiving unit groups 611G, 611B, and 611R are also have different spectral sensitivity characteristics.
  • the line sensors in the optical systems 60XB and 60YB are painted black, but actually, a plurality of photoelectric conversion elements are also arranged in this line sensor.
  • the power of three types of optical systems 60XR, 60XG, 6 OXB and 60YR, 60YG, 60YB that are sensitive to three colors of visible light There are two types of systems, an optical system sensitive to visible light and infrared light, and they may be arranged.
  • the defocus amount can be detected with a plurality of different types of spectral sensitivities, so that it is possible to detect the magnitude of the chromatic aberration of the taking lens 100, and thus to correct the chromatic aberration, and to detect the focus. Can be further improved.
  • optical systems 60XR, 60XG, 60XB and 60YR, 60Y G, 60YB of the focus detection unit 5 shown in FIG. 15 each have one color (wavelength) and do not detect force. As shown in FIG. 17, one optical system may be configured to detect two or more colors (wavelengths).
  • FIG. 16 shows a focus detection unit 5 using an optical system capable of detecting two kinds of colors for one detection row.
  • reference numerals 60XGR and 60YGR denote optical systems that detect G color and R color.
  • Reference numerals 60XGB and 60YGB denote optical systems for detecting G and B colors.
  • a line sensor having sensitivity to G color and a line sensor having sensitivity to R color are arranged in parallel behind the same microlens.
  • G A line sensor having color sensitivity and a line sensor having B color sensitivity are arranged in parallel behind the same microlens. In either case, have a line sensor with G color sensitivity, Prevents decrease in detection density due to multi-coloring.
  • FIG. 17 shows a focus detection unit 5 using an optical system capable of detecting three types of colors for one detection row.
  • reference numerals 60XRGB and 60YRGB denote optical systems that detect R, G, and B colors.
  • line sensors 621G and 631G with sensitivity to G color line sensors 621R and 631R with sensitivity to R color
  • line sensors 621B and 631B with sensitivity to B color and power They are arranged in parallel on the rear side of the same microphone lens.
  • the width of the G color array which is the main detection array, is increased, and the width of the auxiliary R and B color arrays is reduced to maintain the normal detection capability while reducing the performance due to multiple colors. It prevents heels.
  • the G color is wider than the G sensitivity distribution of a normal image sensor. For example, taking a luminous intensity distribution level or wider than that is advantageous in terms of the amount of light.
  • FIG. 18 shows a focus detection unit in which blocks 70X in which the first optical systems are densely arranged and blocks 70Y in which the second optical systems are densely arranged are arranged alternately. 5 was shown.
  • the force provided with the photoelectric conversion element array for each microlens is arranged in one row.
  • These plural photoelectric conversion element arrays may be combined into one photoelectric conversion element array.
  • a plurality of photoelectric conversion element arrays may be configured to be realized by a two-dimensional image sensor. Further, the two-dimensional arrangements shown in FIGS. 12 to 18 may be arranged such that they are rotated at an arbitrary angle in the plane, for example, 45 °.
  • the imaging state detection device provides an imaging It can be similarly mounted on other optical devices having an optical system, for example, various imaging optical devices such as a field scope.
  • the imaging state detection device according to the embodiment of the present invention can also be applied to aberration measurement of an optical system. If the defocus amount depending on the pupil part of the test optical system or the defocus amount at each image height is measured by the imaging state detection device according to the embodiment of the present invention, the result of the test optical system is the result. This is because aberrations are obtained.
  • the aberration measuring device to which the imaging state detecting device according to the embodiment of the present invention is applied includes, for example, a mechanism for supporting the test optical system and illumination for projecting measurement light from the object side to the test optical system.
  • An optical system, an imaging state detection device according to an embodiment of the present invention disposed on the image side of the test optical system, and an arithmetic unit that calculates aberrations of the test optical system from the output of the imaging state detection device And are provided.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Studio Devices (AREA)

Abstract

 結像光学系の予定焦点面から所定距離だけ離れた位置に設けられ、所定ピッチで配列された複数のマイクロレンズを有するマイクロレンズアレイと、マイクロレンズアレイの各マイクロレンズに対応して複数の受光部を有するとともに、各マイクロレンズを介して予定焦点面上の像を受光する受光部アレイと、複数の受光部で得られる受光出力に基づいて、結像光学系の異なる瞳領域を通過した光束による像に対応する信号列対を抽出する信号列抽出手段と、信号列抽出手段により抽出された信号列対の位相のずれを検出することにより、結像光学系の結像状態を求める結像状態演算手段とを備える結像状態検出装置。

Description

明 細 書
結像状態検出装置
技術分野
[0001] 本発明は、カメラやフィールドスコープなどが備える結像光学系の結像状態検出装 置に関する。
背景技術
[0002] 従来、一眼レフカメラの焦点検出装置の方式としては、瞳分割再結像方式が最も一 般的である(特許文献 1など)。この方式は、カメラの撮影レンズの射出瞳上の異なる 領域を透過した結像光束を、 1対の再結像レンズによって個別に再結像し、再結像さ れた 1対の二次像のパターンをラインセンサで検出し、その 1対の二次像の間のパタ ーンずれに応じてデフォーカス信号を生成するものである。
[0003] この方式における焦点検出面(予定焦点面)の検出ピッチ、すなわち再結像レンズ でラインセンサを焦点検出面へ逆投影してできる仮想画素の画素ピッチは、投影倍 率とラインセンサの画素ピッチとに依存している。よって、ラインセンサの画素配列を 高密度化すれば、高精度な焦点検出が可能となる。
なお、焦点検出面とは、フィルム共役面のように、その面でピントを合わせようとする 面のことである。
特許文献 1 :特開 2002— 174766号公報
発明の開示
発明が解決しょうとする課題
[0004] しかし、一般的に、この方式の場合、焦点検出面上の焦点検出領域の長さは 3〜7 mmであるので、この長さを 1つの再結像レンズでセンサ上に結像しょうとすると、焦 点検出面力ゝら再結像レンズまでの距離を一定量(3〜7mmの数倍)確保しなければ ならないため、小型化が困難である。又、再結像レンズとセンサとの距離も離れてい るため、 2つのラインセンサ像を重ね合わせる組み立て調整の精度を上げることが難 しぐ例えば、焦点検出領域の延在方向と直交する縦線では精度が良くても斜線で は精度が低下する等の問題があった。 [0005] 本発明は、小型で高精度な結像状態検出装置、それを焦点検出装置として使用す るカメラを提供する。
また本発明は、小型で高精度な結像状態検出装置を実現するための焦点検出ュ ニットを提供する。
課題を解決するための手段
[0006] 本発明による結像状態検出装置は、結像光学系の予定焦点面から所定距離だけ 離れた位置に設けられ、所定ピッチで配列された複数のマイクロレンズを有するマイ クロレンズアレイと、マイクロレンズアレイの各マイクロレンズに対応して複数の受光部 を有するとともに、各マイクロレンズを介して予定焦点面上の像を受光する受光部ァ レイと、複数の受光部で得られる受光出力に基づいて、結像光学系の異なる瞳領域 を通過した光束による像に対応する信号列対を抽出する信号列抽出手段と、信号列 抽出手段により抽出された信号列対の位相のずれを検出することにより、結像光学 系の結像状態を求める結像状態演算手段とを備える。
[0007] このような結像状態検出装置において、信号列抽出手段は、各マイクロレンズに対 応する複数の受光部ごとに瞳領域に対応する受光出力を選択することにより信号列 対を抽出する。
[0008] 予定焦点面上に逆投影した場合の複数の受光部の各受光部の像のピッチ Pdは、 マイクロレンズのピッチ pよりも小さい。所定距離 Lは、マイクロレンズの配列ピッチと瞳 領域の大きさとに基づく。
[0009] マイクロレンズの配列ピッチを P、受光部の一つに入射する瞳領域からの光束の F 値を F、瞳領域力もの光束の F値が 2である場合の、瞳領域の数を Qとしたとき、所定
P
距離 Lは、次式で表される。
P X FP>L≥P X FP/ (Q-4)
[0010] 本発明の結像状態検出装置において、各マイクロレンズに対応する複数の受光部 を受光部群とし、信号抽出手段は、各マイクロレンズについて、受光部群のそれぞれ に対応する一部の受光出力を選択して第 1信号列とするとともに、該第 1信号列とし て選択した受光出力とは異なる受光出力を選択して第 2信号列とする第 1抽出方式と 、受光部群の受光出力を選択して第 1信号列とするとともに、該第 1信号列として選 択した受光部群とは異なる受光部群の受光出力を選択して第 2信号列とする第 2抽 出方式とを含む。
[0011] 本発明による結像状態検出装置の他の態様では、受光部アレイは、複数の受光部 が第 1方向に配列された第 1アレイ群と、第 1方向とは異なる第 2方向に配列された第 2アレイ群とを備え、第 1方向に配列された受光部と該受光部に対応するマイクロレン ズとの対と、第 2方向に配列された受光部と該受光部に対応するマイクロレンズとの 対とが、市松模様に配置される。
[0012] 複数の受光部が第 1方向に配列された第 1アレイ群と、第 1方向とは異なる第 2方向 に配列された第 2アレイ群とを備える結像状態検出装置は、第 1アレイ群と第 2アレイ 群とが巿松模様に配置されてもょ ヽ。
[0013] 複数の受光部が第 1方向に配列された第 1アレイ群と、第 1方向とは異なる第 2方向 に配列された第 2アレイ群と備える結像状態検出装置は、第 1アレイ群に対応するマ イク口レンズアレイのピッチと、第 2アレイ群に対応するマイクロレンズアレイのピッチを 異ならせることができる。
[0014] 複数の受光部が第 1方向に配列された第 1アレイ群と、第 1方向とは異なる第 2方向 に配列された第 2アレイ群と備える結像状態検出装置は、第 1アレイ群の各受光部の 配列方向の長さを第 2アレイ群の各受光部の配列方向の長さより長くすることができ る。
[0015] 受光部アレイは、異なる分光感度特性を有する受光部を含むことができる。また、 特定の分光感度特性を有する受光部は、他の分光特性を有する受光部よりも高密 度に配列される。
[0016] 複数の受光部が第 1方向に配列された第 1アレイ群と、第 1方向とは異なる第 2方向 に配列された第 2アレイ群と備える結像状態検出装置において、第 1アレイ群は異な る分光感度特性を有する複数の受光アレイ群を含み、複数の受光アレイ群のそれぞ れは、特定の分光感度特性を有する受光部を含む。さらに、分光特性の異なる受光 部は、互いに大きさが異なっている。
[0017] 本発明は、上述した種々の結像状態検出装置を焦点検出装置として内蔵するカメ ラも提供する。さら〖こは、上述した結像状態検出装置におけるマイクロレンズアレイと 受光部アレイとを有する受光ユニットも提供する。
発明の効果
[0018] 本発明によれば、小型で高精度な結像状態検出装置を実現できる。また、このよう な小型化した結像状態検出装置を焦点検出装置として内蔵するカメラを提供できる 。さらには、小型化した結像状態検出装置を実現するための焦点検出ユニットを提供 できる。
図面の簡単な説明
[0019] [図 1]第 1実施形態の電子カメラシステムの構成図である。
[図 2]焦点検出ユニット 5及びその周辺の概略的な光路図である。
[図 3]焦点検出ユニット 5の拡大図である。
[図 4]焦点検出ユニット 5内の個々のラインセンサ 531と撮影レンズ 100との関係を説 明する図である。
[図 5]焦点検出ユニット 5内のサイズ及び位置関係を説明する図である。
[図 6]マイクロレンズ 521による予定焦点面 5aとラインセンサ 531との結像関係(共役 関係)を説明する図である。
[図 7]本焦点検出ユニット 5に適したボケの程度を説明する図である。
[図 8]焦点検出ユニット 5の具体例 (撮影レンズ 100の F値力「4」であるときの様子)を 示す図である。
[図 9]焦点検出ユニット 5の具体例 (撮影レンズ 100の F値が「8」であるときの様子)を 示す図である。
[図 10]撮影レンズ 100の F値が「4」であるときのデフォーカス信号の生成方法を説明 する図である。
[図 11]撮影レンズ 100の F値が「8」であるときのデフォーカス信号の生成方法を説明 する図である。
[図 12]焦点検出ユニット 5の変形例を示す図である。
[図 13]焦点検出ユニット 5の別の変形例を示す図である。
[図 14]焦点検出ユニット 5のさらに別の変形例を示す図である。
[図 15]焦点検出ユニット 5のさらに別の変形例を示す図である。 [図 16]焦点検出ユニット 5のさらに別の変形例を示す図である。
[図 17]焦点検出ユニット 5のさらに別の変形例を示す図である。
[図 18]焦点検出ユニット 5のさらに別の変形例を示す図である。
[図 19]本発明の結像状態検出装置の原理を説明する図 (光学系の図)である。
[図 20]本発明の結像状態検出装置の原理を説明する図 (逆投影像の図)である。
[図 21]結像状態検出装置の一例を説明する図 (逆投影像の図)である。
[図 22]結像状態検出装置の一例を説明する図 (光学系の図)である。
[図 23]第 1のサンプル方法を説明する図である。
[図 24]信号列のずれを説明する図である。
[図 25]第 2のサンプル方法を説明する図である。
[図 26]第 2のサンプル方法における信号列の選択方法を説明する図である。
[図 27]像ずれ検出動作を説明するフローチャートである。
発明を実施するための最良の形態
[0020] 本発明の一実施の形態による結像状態検出装置をカメラに適用した場合の実施の 形態を説明する。初めに図 19〜22を参照して、概念的な説明を行い、その後に具 体例を説明する。
[0021] 結像状態検出装置をカメラの焦点検出装置として使用する場合、上記予定焦点面 は、結像光学系を介して被写体を撮像する撮像装置の撮像面と光学的に等価な面 である。図 19の焦点検出装置は、結像光学系の予定焦点面 181から所定距離だけ 離れた位置に設けられ、所定ピッチで配列された複数のマイクロレンズ 182, 183と、 複数の光電変換素子を有するとともに、この複数の光電変換素子をマイクロレンズ 18 2, 183のそれぞれに対応して配置した一対の光電変換素子アレイ 184, 185を有す る。
[0022] 焦点検出装置はまた、一対の光電変換素子アレイ 184, 185で得られる受光出力 に基づ!/、て、結像光学系の異なる瞳領域を通過した光束による像に対応する信号列 対 a (i) , b (i)を抽出する信号列抽出部 191と、信号列抽出部 191により抽出された 信号列対 a (i) , b (i)の位相のずれを検出する (像の相関を演算する)ことにより、結 像光学系の結像状態であるデフォーカス量を求める演算部 192とを備える。 [0023] 一対の像の相関演算を行うためには、最低でも 4つ画素から信号を抽出する必要 がある。換言すると、一対の光電変換素子アレイの焦点検出面上での逆投影像にお いて、最低でも 4つの素子の逆投影像が重複する必要がある。したがって、図 20に 示すように、光電変換素子アレイ 184、 185の各々は、 5つの光電変換素子 184— 1 〜184— 5および 185— 1〜185— 5を有する。この場合、図 19に示すように、結像 光学系の射出瞳における 5つの分割瞳 (部分瞳とも呼ぶ) 186— 1〜186— 5と、各光 電変換素子 184— 1〜184— 5が対応し、同様に各光電変換素子 185— 1〜185— 5が対応する。 5つの光電変換素子 184— 1〜184— 5および 185— 1〜185— 5を 用いて、 4つの画素が重複するためには、図 20に示すように、ほぼ同じ瞳部分を通 過してマイクロレンズ 182, 183に入射する光束が、焦点検出面上で 1素子ずれる。
[0024] マイクロレンズ面を結像光学系の予定焦点面に配置する従来の所謂 TCL方式と呼 ばれる焦点検出装置では、マイクロレンズ面が焦点検出面となるため、焦点検出像 のサンプリングピッチはマイクロレンズの配列ピッチに制限される。 TCL方式では、検 出精度を向上するにはマイクロレンズの並びピッチを細力べする必要がある力 そうす るとマイクロレンズも小さくなるため、光量が低下して検出能力が低下してしまう。そこ で、本発明の一実施の形態による焦点検出装置では、焦点検出面でのサンプリング ピッチがマイクロレンズの配列ピッチより細力べなるように、予定焦点面 (焦点検出面) 181と、マイクロレンズアレイ 182, 183と、光電変換素子アレイ 184, 185との光軸方 向の位置関係を設計して 、る。
[0025] 予定焦点面上の素子逆投影像のピッチ、すなわち、サンプルピッチを Pd、マイクロ レンズの配列ピッチを Pで表し、 PZPd> lとすれば、この条件を満たすことになる。 例えば、 P/Pd≥l. 1とすることができ、好ましくは、 PZPd≥l. 5,或いはそれ以上 にする。例えば、図 21は、 PZPd=2の場合である。光電変換素子数は 10、重複す る画素は 8、ずれ量は 2である。
[0026] 一般に、間隔の離れた部分瞳の光束を利用して焦点検出すると精度が良いことが 知られている。したがって、図 19のように隣接する 2つのマイクロレンズ 182, 183と、 それに対応する 2つの光電変換素子アレイ 184, 185だけで構成すると検出精度が 制約される。そこで、図 22に示すように複数のマイクロレンズ 187— 1〜187— 5に入 射した光束を同数の光電変換素子アレイ 188— 1〜188— 5で受光する。
[0027] 図 22に示すように、焦点検出面 181上の一点を通った光は、 5つのマイクロレンズ 1 87— 1〜187— 5に入射する。入射光の広がりは、点線で示した範囲になっているの で、焦点検出面 181上の一点を通った光は、図 22に示した全てのマイクロレンズに 入射することができる。これらマイクロレンズ 187— 1〜187— 5に対応する複数の光 電変換素子アレイ 188— 1〜188— 5の信号出力を利用して像ずれ量を演算するこ とができる。また、焦点検出を行うのであれば、これによりデフォーカス量を算出する ことができる。
[0028] 図 19、 20の例では、部分瞳を 5つとして説明した力 この 5は最低限の例であり、好 ましくは 6以上であり、実用的には 8以上とする。後述する図 8は撮影レンズの F値力 の場合で、部分瞳は 12個である。これを F値が 8のものに変更すると、図 9のように部 分瞳は 6個である。
なお、図を簡潔にするため、部分瞳の数を上述の値としている力 これに限るもの ではない。
[0029] 部分瞳の広がり(大きさ) 1S F値相当で Fの光束が、マイクロレンズ下の受光部の
P
配列ピッチに相当する広がりの範囲に入射(幾何学的に)するとし、マイクロレンズの 配列ピッチを P、マイクロレンズアレイと予定焦点面との距離を Lとすると、焦点検出面 におけるサンプリングピッチ Pdは、 Pd=L/Fである。したがって、サンプリングピッ
P
チ Pdがマイクロレンズの配列ピッチ Pよりも小さく(P>Pd)なる条件は、 P>LZFで
P
ある。すなわち、マイクロレンズアレイと予定焦点面との距離 Lは、 Lく P X Fである。
P
また、瞳の分割数を Q (≥ 5)とした時に、焦点検出面における受光部の像 (逆投影 像)が相関を取るのに十分な 4つ以上重なるためには、(Q— 4) X LZF≥Pとなるた
P
め、上記距離 Lは、 L≥P X F Z(Q— 4)となる。
P
[0030] [第 1実施形態]
次に、図 1、図 2、図 3、図 4、図 5、図 6、図 7、図 8、図 9、図 10、図 11、図 23、図 24 、図 25、図 26、図 27を参照して本発明の第 1実施形態を説明する。本実施形態は、 本発明の一実施の形態による結像状態検出装置 (たとえば焦点検出装置)を搭載し た電子カメラシステムの実施形態である。先ず、電子カメラシステムの構成を説明す る。
[0031] 図 1は、本実施形態の電子カメラシステムの構成図である。図 1に示すように、電子 カメラシステムは、カメラ本体 200と、カメラ本体 200に対し着脱可能な撮影レンズ 10 0とを備えている。両者の接続箇所には、信号接続や駆動力伝達のためのカップリン グ部 10が設けられている。
[0032] 撮影レンズ 100内には、被写体からの光束 (被写体光束)を結像するレンズ群 1、開 口絞り 2、駆動機構 3などが備えられる。カメラ本体 200内には、撮影レンズ 100の光 軸上に、クイックリターンミラー 13が配置される。
[0033] カメラ本体 200内において、クイックリターンミラー 13の透過側には、シャッター 11、 撮像素子 12が順に配置され、クイックリターンミラー 13の反射側には、光学ファイン ダを構成するペンタプリズム 6、接眼レンズ 15が順に配置されている。
[0034] クイックリターンミラー 13とシャッター 11との間には、サブミラー 14が配置され、その サブミラー 14の反射側に、焦点検出ユニット 5が配置されている。なお、電子カメラシ ステムを銀塩フィルムを使用するカメラシステムにする場合は、撮像素子 12の代わり にフィルムを配置すればよ 、。
[0035] カメラ本体 200には、各種の操作釦 16が設けられている。換作者は、その操作釦 1 6を介して電子カメラシステムに対し焦点調節の指示、撮影の指示、撮影レンズ 100 の F値の指定などをすることができる。
[0036] 焦点調節の指示が入力されると、カメラ本体 200内のマイクロプロセッサ 9は、焦点 検出ユニット 5を駆動して焦点検出を行う。このとき、焦点検出ユニット 5は、撮影レン ズ 100からの被写体光束の少なくとも 1部に基づき、撮影レンズ 100のデフォーカス 量の情報を含む信号を取得し、マイクロプロセッサ 9に送出する。焦点検出ユニット 5 の詳細は後述する。マイクロプロセッサ 9は、その信号に基づきデフォーカス信号を 生成し、そのデフォーカス信号を撮影レンズ 100内の駆動機構 3に与える。駆動機 構 3は、そのデフォーカス信号に基づいて、撮影レンズ 100内の所定のレンズ群を変 位させて焦点調節を行う。
[0037] 撮影の指示が入力されると、マイクロプロセッサ 9は、クイックリターンミラー 13、シャ ッター 11および開口絞り 2を駆動し、撮影条件に見合った絞り値およびシャツタ速度 により、撮影レンズ 100からの被写体光束で撮像素子 12を露光し、画像データを取 得する。開口絞り 2は駆動機構 3を介して駆動される。
[0038] 次に、焦点検出ユニット 5の構成を詳しく説明する。
図 2は、焦点検出ユニット 5及びその周辺の概略的な光路図である。図 2において、 符号 14aはサブミラー 14の反射面、符号 12aは撮像素子 12の撮像面であり、符号 5 aは反射面 14aに関し撮像面 12aと光学的に等価な予定焦点面である。この予定焦 点面 5aの近傍に、撮影レンズ 100からの被写体光束が結像する。焦点検出ユニット
5の焦点検出面は、この予定焦点面 5aである。
[0039] 図 2に示すように、焦点検出ユニット 5には、予定焦点面 5aから所定距離だけ離れ た面にマイクロレンズアレイ 52が配置され、さらにその後側にラインセンサアレイ 53が 配置され、マイクロレンズを通過した光が受光される。
[0040] 像高の高い部分の光線を用いて焦点検出する場合には、光路中(予定焦点面 5a 近傍からマイクロレンズの間)にフィールドレンズ 51を挿入し、像高の高い部分の光 線を光軸方向へ曲げるようにしてもよい。以下では、フィールドレンズ 51を無視して説 明する。
[0041] 図 3は、焦点検出ユニット 5の拡大図である。図 3 (A)は、焦点検出ユニット 5を光軸 を含む面で切断した概略断面図である。図 3 (B)は、マイクロレンズアレイ 52とライン センサアレイ 53とを重ねて描 、た場合の概略正面図である。
[0042] 図 3 (A) , (B)に示すように、マイクロレンズアレイ 52には、複数の正のパワーを持 つマイクロレンズ 521— 1〜521— 12力 所定方向(図では左右方向)に所定ピッチ で配置される。ラインセンサアレイ 53は、マイクロレンズ 521— 1〜521— 12のそれぞ れに対応してラインセンサ 531— 1〜531— 12を備えており、各ラインセンサ 531— 1 〜531— 12はそれぞれ同数の光電変換素子を有する。
[0043] マイクロレンズアレイ 52による、ラインセンサ 531— 1〜531— 12の逆投影像を、図 2に示す予定焦点面 5a上に形成した場合、図 4および図 5で後述するように、少なく とも隣り合う一対のラインセンサの逆投影像は、少なくとも一部が互いに重複するよう に設計されている。個々のラインセンサ 531内の光電変換素子 531A, 531B, · · ·の 並び方向は、マイクロレンズ 521— 1〜521— 12及びラインセンサ 531— 1〜531— 12の並び方向と同じ(図では左右方向)である。図 3 (A)、(B)においては、 12個の ラインセンサ 531— 1〜531— 12を用いた力 連続した 1本のラインセンサを用い、 1 2個のマイクロレンズ 521— 1〜521— 12に対応する 12の範囲に存在する光電変換 素子を使用してもよい。
[0044] 図 3 (A)では、マイクロレンズアレイ 52のマイクロレンズ 521を平凸レンズのごとく表 現したが、両凸レンズであってもよい。
この焦点検出ユニット 5においては、互いに隣接するマイクロレンズ 521の間のクロ ストーク (漏れ光の入射)を防ぐために、図 3 (A)に符号 54で示したような遮光壁が設 けられてもよい。
[0045] 遮光壁 54の代わりに絞りが設けられてもよい。この絞りの開口パターンは、複数の 円をマイクロレンズ 521と同じ配列パターンで並べたものである。この変形例のように 、マイクロレンズアレイ 52とラインセンサアレイ 53との間に絞りを配置する代わりに、撮 影レンズ 100内や、クイックリターンミラー 13の反射面、サブミラー 14の反射面などに 絞りを配置してもよい。以下では、遮光壁 54や絞りを無視して説明する。
[0046] 図 4は、焦点検出ユニット 5内の個々のラインセンサ 531と撮影レンズ 100との関係 を説明する図である。図 4では、撮影レンズ 100の概念を 1枚のレンズで表し、撮影レ ンズ 100から焦点検出ユニット 5までの光路を、サブミラー 14等を省略して直線的に し 7こ。
[0047] 図 4に示すように、個々のラインセンサ 531内の光電変換素子 531A, 531B, 531
D, …は、撮影レンズ 100の瞳上の互いに異なる部分瞳 A, B, C, D, · · ·を個別に 通過した光束を個別に受ける。これは、全てのラインセンサ 531内の光電変換素子 について当てはまる。
そして、各ラインセンサ 531は、対応する各マイクロレンズ 521を介して、予定焦点 面 5a上の検出領域 Eの輝度分布パターン、すなわち、図 4の左右方向の輝度分布 パターンを検出する。各ラインセンサ 531による各検出領域 Eは、概略マイクロレンズ 521の配置ピッチに相当する距離ずつずれている。換言すると、少なくとも、隣り合う 一対のラインセンサによる一対の検出領域は重複する。図 5を参照してさらに検出領 域 Eを詳細に説明する。 [0048] 図 5は、焦点検出ユニット 5内の主要構成のサイズ及び位置関係を説明する図であ る。図 5には、互いに隣接する 2つの検出領域 E—nおよび E— (n+ 1)を示した。これ らの検出領域 Eは、互いに隣接する 2つのマイクロレンズ 521— nおよび 521— (n+ 1)のそれぞれに対応するラインセンサ 531— nおよび 531— (n+ 1)を、対応するマ イク口レンズ 521— nおよび 521— (n+ 1)で予定焦点面 5a上に個別に逆投影してで きる逆投影像に対応する領域である。
[0049] なお、図 5では、説明の都合上、 2つの検出領域 Eを光軸方向にずらして描いた。
検出領域 E— n内の符号 531A,, 531B' , 531C' , · · ·は、ラインセンサ 531— n内 の光電変換素子 531A, 531B, 531C, · · ·を、対応するマイクロレンズ 521— nで予 定焦点面 5a上に逆投影してできる逆投影像である。これらの逆投影像 531A' , 53 1B,, 531C' , · · ·のピッチ Pdは、ラインセンサ 531による予定焦点面 5a上のサンプ ルビッチに相当する。このように、予定焦点面 5aから離れた位置にマイクロレンズァレ ィを配置し、マイクロレンズによって予定焦点面上に光電変換素子 531A, 531B, 5 31C, · · ·の逆投影像を形成するようにしたことにより、マイクロレンズ 521— 1〜521 —12のピッチ Pよりも細力 、ピッチ Pdで焦点検出情報を抽出することができる。
[0050] 次に、マイクロレンズ 521の光学的パワー、つまり予定焦点面 5aとラインセンサ 531 との結像関係 (共役関係)の詳細を説明する。
図 6は、マイクロレンズ 521による予定焦点面 5aとラインセンサ 531との結像関係( 共役関係)を説明する図である。本焦点検出ユニット 5では、図 6 (A)に示すように、 予定焦点面 5a上の 1点がラインセンサ 531上の 1点にボケ無く結像される必要は無 い。むしろ、図 6 (B)、 (C)に示すように、若干のボケのある方が好ましい。以下、本焦 点検出ユニット 5に適したボケの程度について説明する。
[0051] 図 7は、本焦点検出ユニット 5に適したボケの程度を説明する図である。図 7 (A) , ( B)は、予定焦点面 5a上に被写体の点像が形成されているときのラインセンサ 531上 の出力信号を示す図である。図 7 (A)にはボケが不足している場合を、図 7 (B)はボ ケの程度が適当である場合を示した。
[0052] 図 7 (A)に示すように、ボケていないと、 1つの光電変換素子でしか点像を検出しな いので、点像の位置が僅か(1画素の幅寸法以下)にずれただけでは、光電変換素 子の出力信号には変化が生じ無い。
一方、図 7 (B)に示すように、ボケの程度が複数画素に広がる程度だと、複数の光 電変換素子で点像を検出するので、点像の位置が僅か(1画素の幅寸法以下)にず れただけでも、複数の光電変換素子の出力信号に変化が生じる。よって、ボケていな い場合に比べ高精度な検出が可能である。
[0053] 以上説明した理由により、本焦点検出ユニット 5においては、個々のマイクロレンズ
521、予定焦点面 5a、及びラインセンサ 531の関係は、このような適当なボケが生じ るように、適当な量だけ共役関係力 のずれが与えられる。
[0054] 但し、実際のボケは、マイクロレンズ 521における回折、マイクロレンズ 521の収差( 球面収差)によっても生じるので、それらを総合したボケが適当なボケとなるように各 部は設計される。
[0055] 次に、上述した焦点検出ユニット 5の具体例を説明する。
図 8は、撮影レンズ 100の検出につかえる F値 (通常は開放 F値)が「4」であるときの 焦点検出ユニット 5の具体例を示す図である。なお、図 8では、複数のラインセンサ 5 31及び複数の検出領域 Eの互いに対応するもの同士に、互いに同じ識別番号 i, (i + 1) , (i+ 2) , (i+ 3) , …を付した。
この焦点検出ユニット 5の各部の設計値は、以下のとおりである。
•マイクロレンズ 521の径(有効径) A: 50 /z m
'マイクロレンズ 521の配置ピッチ P : 75 μ m
'予定焦点面 5aからマイクロレンズアレイ 52までの距離 L : 1200 μ m
'ラインセンサ 531内の光電変換素子数 Tn: 12
•光電変換素子像の画素ピッチ P d: 25 m
[0056] 図 8では、互いに隣接する検出領域 E— i, E- (i+ 1)のずれ量を Pで表している。
このずれ量は、マイクロレンズ 521の配置ピッチに相当する長さである。焦点検出ュ ニット 5では、長さ P内に、逆投影像における光電変換素子の像が 3個存在している。 言い換えると、マイクロレンズ 1ピッチあたりに 1Z3のピッチで(すなわち、 3倍の分解 能で)焦点検出信号が得られる。
[0057] また、互いに隣接する検出領域 E—i, E- (i+ 1)の重複幅 D内に、光電変換素子 像が 9個存在している。したがって、互いに隣接するラインセンサ 531— i, 531—(i + 1)を用いて後述の第 1のサンプリング方法を用いる計算法を用いる場合は、予定 焦点面 5a上で互いに重複する画素を最大 9個まで用いてずれの計算を行なうことが できる。
[0058] さらに、予定焦点面 5a上では、最大で 4つの検出領域 E— i, E—(i+ 1) , E— (i+ 2) , E— (i+ 3)が重複する。つまり、予定焦点面 5a上の 1点に入射した F値 =4の被 写体光束は、 4つのマイクロレンズ 521に入射する。したがって、後述の第 1のサンプ リング方法を用いる場合は、図 10で説明するように、 F値 =4の撮影レンズ 100では、 4つのマイクロレンズ 521に対応する 4つのラインセンサ 531からの信号を用いて焦点 検出演算を行うことができる。
またさらに、後述の第 2のサンプリング方法を用いる場合は、 4つ以上のマイクロレン ズに対応するラインセンサの信号を用いて焦点検出を行うことができる。
[0059] 次に、この焦点検出ユニット 5を用いたカメラにおいて、撮影レンズ 100を交換する ことにより、撮影レンズ 100の F値が「4」から「8」に変更された場合を説明する。
図 9は、撮影レンズ 100の F値が「8」であるときの焦点検出ユニット 5の具体例を示 す図である。
図 9に示すように、撮影レンズ 100の F値が「8」に設定されると、検出領域 E内の光 電変換素子像の数は 6になる。すなわち、 1つのラインセンサ 531の 12個の光電変 換素子のうち中央部の 6個の光電変換素子の出力信号を用いる。
[0060] このとき、互いに隣接する検出領域 E— i, E—(i+ 1)の重複幅 D内には、光電変換 素子の逆投影像が 3つ存在する。したがって、互いに隣接するラインセンサ 531— i, 531—(i+ 1)は、予定焦点面 5a上で互いに 3画素分の重複する領域を持つことが できる。この場合、後述の第 1のサンプリング方法を用いる計算では、相関の取れる 画素が 4画素に足りず、精度が十分でない場合もある。し力しながら、この場合でも後 述の第 2のサンプリング方法を用いた計算を行なえば、有効な焦点検出演算ができ る。
[0061] 次に、図 8および図 9で説明した焦点検出ユニット 5から出力されるラインセンサ出 力信号に基づいて、図 1のマイクロプロセッサ 9による像ずれの演算方法について説 明する。撮影レンズ 100の F値が「4」であるときと、 F値が「8」であるときとでは、像ず れの演算手順 (使用可能範囲)が異なるので、順に説明する。
[0062] 図 10は、撮影レンズ 100の F値が「4」であるときのラインセンサ上の像のずれる様 子を説明する図である。
撮影レンズ 100により、予定焦点面 5a上に被写体の像 Iが形成されると、互いに隣 接する 4つのラインセンサ 531— i, 531— (i+1), 531— (i+2), 531— (i+3)力 互いに同じ像 Iの二次像 I,を検出する。図 10の下部に示すように、 4つのラインセン サ 531— i, 531— (i+1), 531— (i+2), 531— (i+3)上の二次像は、 4つのライ ンセンサの間で所定距離ずつ横方向にずれている。これら 4つのラインセンサ 531— i, 531— (i+1), 531— (i+2), 531— (i+3)のうち、或る 2つのラインセンサ 531 -i, 531—jの間の二次像の横方向のずれ量は、それら 2つのラインセンサ 531— i, 531— jの間隔が離れているほど、大きい。
[0063] 一方、撮影レンズ 100により、図 10の上部に矢印で示す方向の、予定焦点面 5aか らずれた面に被写体の像 Iが形成されたときにも、互いに隣接する 4つのラインセンサ 531— i, 531—(i+1), 531- (i+2), 531— (i+3)は像 Iの二次像を検出する。こ の場合は、像 Iの二次像は、図 10の下部に矢印で示すように、予定焦点面上に像 Iが 形成されているときと比較してそれぞれ横方向に、すなわち、素子の並び方向へず れる。その横ずれ量は、像 Iのデフォーカス量に応じた量である。
[0064] このような状況にぉ 、て、デフォーカス量の演算手順は次のようになる。 F値が「4」 のときには、マイクロプロセッサ 9は、互いに隣接する 4つのラインセンサ 531— i, 531 -(i+1), 531—(i+2), 531—(i+3)の出力信号のいずれか一対のラインセンサ に対応する出力信号に基づいて、後で図 24で説明する演算アルゴリズムを用いて像 ずれ量を求め、続いてデフォーカス量を算出する。
[0065] たとえば、 4つのラインセンサ 531— i, 531—(i+1), 531—(i+2), 531—(i+3 )のうち、外側の 2つのラインセンサ 531— i, 531— (i+3)の間では、二次像の横ず れ量が大きいので、それら 2つのラインセンサ 531— i, 531— (i+3)の出力信号を 利用すれば、マイクロプロセッサ 9は、高精度にデフォーカス量を演算することができ る。 [0066] 一方、デフォーカス量が大きいときには、二次像の横ずれ量が大き過ぎて外側の 2 つのラインセンサ 531— i, 531— (i+ 3)の出力信号から二次像の横ずれ量を検出 できない場合がある。その場合には、互いに隣接する 2つのラインセンサ 531— i, 53 1— (i+ 1)、もしく ίま 531— (i+ 1) , 531— (i+ 2)、ある!/、 ίま 531— (i+ 2) , 531— (i + 3)の出力信号を利用すれば、マイクロプロセッサ 9は確実にデフォーカス量を演 算することができる。
[0067] なお、被写体の像によっては、特定の位置に配置された 4つのラインセンサ 531—i , 531—(i+ 1) , 531—(i+ 2) , 531— (i+ 3)の出力信号から二次像の横ずれ量を 検出できない場合もある。その場合には、配置箇所の異なる 4つのラインセンサ 531 -j, 531 - 0 + 1) , 531 - 0 + 2) , 531— (j + 3)の出力信号を利用すれば、マイク 口プロセッサ 9は確実にデフォーカス量を計算することができる。
[0068] 図 11は、撮影レンズ 100の F値が「8」であるときのデフォーカス量の計算手順を説 明する図である。撮影レンズ 100により予定焦点面 5a上に被写体の像 Iが形成される と、互いに隣接する 2つのラインセンサ 531— i, 531— (i+ 1)力 互いに同じ像 Iの 二次像 I,を検出することができる。
[0069] 一方、撮影レンズ 100により予定焦点面 5aからずれた面に被写体の像 Iが形成され たときにも、互いに隣接する 2つのラインセンサ 531— i, 531— (i+ 1)は像 Iの二次 像を検出することができる。その二次像は、図 11の下部に矢印で示すように、予定焦 点面上に像 Iが形成されているときと比較してそれぞれ横方向に、すなわち、素子の 並び方向へずれる。その横ずれ量は、デフォーカス量に応じた量である。
[0070] この場合、マイクロプロセッサ 9は、デフォーカス量の大小によらず、常に互いに隣 接する 2つのラインセンサ 531— i, 531— (i+ 1)の出力信号に基づいて、後で説明 する図 24による演算手順を用 V、て像ずれ量を求め、続 、てデフォーカス量を計算す る。
[0071] なお、被写体の像によっては、特定の位置に配置された 2つのラインセンサ 531— i , 531— (i+ 1)の出力信号から二次像の横ずれを検出できない場合もある。その場 合には、配置箇所の異なる 2つのラインセンサ 531— j, 531— (j + 1)の出力信号を 利用すれば、マイクロプロセッサ 9は確実にデフォーカス量を計算することができる。 たとえば、図 11の場合、 2つのラインセンサ 531— (i+ 1) , 531— (i+ 2)を用いても よい。
[0072] 上記の構成を有する焦点検出ユニット 5における 2種類の検出信号サンプリング方 法について図 23〜図 26参照して説明する。
一第 1のサンプリング方法一
第 1のサンプリング方法では、マイクロレンズ 521のピッチ Pよりも細かいピッチにて 第 1信号列 {a (iMと第 2信号列 {b (i) }を抽出することが可能である。すなわち、図 23 に示すように、マイクロレンズ 521— 1に対応するラインセンサ 531— 1の複数の光電 変換素子から第 1信号列 {a (i) } = {a (1)、 a (2)、 · · ·、 a (8)、 · · · }を形成し、マイクロ レンズ 521— 2に対応するラインセンサ 531— 2の複数の光電変換素子力も第 2信号 列 {b (i) } = {b (l)、b (2)、…ゝ b (8)、 · · · }を形成する。
[0073] 図 23の焦点検出面 5aにおけるラインセンサ 531— 1を構成する光電変換素子 al 〜a8の逆投影像は、 al '〜a8,で示され、同様にラインセンサ 531—2を構成する光 電変換素子 bl〜b8の逆投影像は bl '〜b8 'で示される。そして、予定焦点面上で は、 al,と b3,、 a2,と b4,、 a3,と b5,、 a4,と b6,、 · · ·とがそれぞれ対応する。したが つて、第 1信号列 {a (i) }および第 2信号列 {b (i) }にお 、て、 a ( 1)と b (3)、 a (2)と b (4 )、 a (3)と b (5)、 a (4)と b (6)、…がそれぞれ対応する。すなわち、焦点検出面 5a上 の一点鎖線で示す微小領域 5al2近傍の像が検出される。隣接する破線で示す微 小領域 5a23の像は、同様にしてラインセンサ 531—2および 531—3の出力信号を 用いて検出される。像を検出するラインセンサ 531のペアの選択方法は、隣接するラ インセンサ 531をペアとするものに限らず、予定焦点面 5a上でラインセンサの逆投影 像が重複するペアであればよぐたとえば、ラインセンサ 531— 1と 531— 3を選択し てもよい。いずれのラインセンサ 531を選択するかにより、像ずれ量をデフォーカス量 に換算する係数は異なる。
[0074] 一第 2のサンプリング方法一
第 2のサンプリング方法では、第 1信号列 {a (i) }と第 2信号列 {b (i) }とを抽出するた めに、図 25に示すように、マイクロレンズ 521— 1に対応するラインセンサ 531— 1の 複数の光電変換素子の出力信号の中から信号 a (l)を抽出し、以下マイクロレンズ 5 21- 2-521- 6のそれぞれに対して、信号 a (1)に対応する信号 a (2)〜a (6)を抽 出して、第1信号列{^)} = {&(1)、&(2)、 · ··、&½)}を形成する。同様にして、ライ ンセンサ 531—1〜531—6の光電変換素子の出カ信号の中で第1信号列{&(1)}と して抽出されな力つた出力信号力も第 2信号列 {b (i) } = {b (1)、 b (2)、…、 b (6) } を形成する。図 25の焦点検出面 5aにおける同一の像による信号出力を表す第 1信 号列 {a(i)}および第 2信号列 {b(i)}の対応関係は、 a(l)=b(3)、a(2)=b(4)、a( 3)=b(5)、 a(4)=b(6)、 ···である。
[0075] 第 1信号列 {a(i)}と第 2信号列 {b(i)}は、たとえば、図 26(a)〜(d)に示すようない ずれかの組み合わせを選ぶことが可能である。明るいレンズの合焦近傍では、検出 開角が大きくてデフォーカス検出精度を高くできる図 26 (a)のような信号列の選択が 効率的である。また、デフォーカスの大きい場合は、大きなずれ量を捕捉できる図 26 (d)のような信号列の選択が効率的である。 V、ずれの方式で信号列を選択するかに より検出開角は異なるので、像ずれ量をデフォーカス量に換算する係数は信号列の 選び方、すなわち図 26の(a)〜(d)の 、ずれかを選択するかにより異なる。
[0076] 第 1および第 2のサンプリング方法により形成された第 1信号列 {a(i)}および第 2信 号列 {b(i) }のずれ量を、以下で説明する公知の方法により算出する。
図 24に示す第 1信号列 {a(i)}と第 2信号列 {b(i)}(i=l, 2, …;)の組み合わせか ら、一対の像 (信号列)の相関量 C(N)を以下の式(1)より求める。
C (N) = a(i)- b( j )\ ; j— i=N · · · (1) なお、 Nがシフト数、∑の上底が qL、 ∑の下底が pLである。図 25に示す場合の∑ の加算数は 4である力 この加算数は 4以上であることが好まし 、。
[0077] 式(1)により離散的に算出された相関量 C(N)を用いてシフト量 Naを求める。シフト 数 Nのときに極小値を与える相関量を CO、シフト数 (N— 1)における相関量を Cr、シ フト数 (N+1)における相関量を Cfとして、シフト量 Naは、以下の式(2)〜(4)により 算出される。
DL = 0.5X (Cr-Cf) · · · (2)
E = MAX{Cf—CO、 Cr—CO} …(3) Na = N + DL/E …(4)
[0078] 式 (4)に焦点検出面の位置に応じた補正量 Constを加えることにより、焦点検出面 上での像ずれ量 Δ nを式 (5)により算出する。
A n=Na+ Const …(5)
[0079] この像ずれ量 Δ ηを利用して、デフォーカス量 Dfを式(6)を用いて算出できる。
Df=Kf X Δ η · · · (6)
なお、 Kfは検出開角に依存した定数である。
さら〖こ、 Kfは、 Δ ηに依存して変化する場合もあるので、実際には実験的に Κί ( Δ η )を決めるのが望ましい。
[0080] 図 27に示すフローチャートを用いて、焦点検出ユニット 5による像ずれ検出動作を 説明する。なお、このフローチャートに示す各処理は、マイクロプロセッサ 9によりプロ グラムを実行して行われる。また、このフローチャートは操作釦 16を操作することによ り開始される。
[0081] ステップ S1において、ラインセンサ 53の電荷蓄積を開始して、所定の蓄積時間経 過後にラインセンサ 53の各素子から出力信号 (画像データ)を取り込んでステップ S2 へ進む。
[0082] ステップ S2においては、判定基準に応じて第 1のサンプリング方法または第 2のサ ンプリング方法を選択する。第 1のサンプリング方法が選択された場合はステップ S3 へ進み、第 2のサンプリング方法が選択された場合はステップ S4へ進む。なお、判定 基準は、たとえばデフォーカス量に基づく基準であり、デフォーカス量が所定値を越 える場合は第 2のサンプリング方法を選択し、デフォーカス量が所定値以内の場合 は第 1のサンプリング方法を選択するようにする。
[0083] ステップ S3においては、前述したように第 1のサンプリング方法により第 1信号列 {a
(i) }および第 2信号列 {b (i) }を抽出してステップ S5へ進む。ステップ S4においては 、前述したように第 2のサンプリング方法により第 1信号列 {a (i) }および第 2信号列 {b (i) }を抽出してステップ S5へ進む。ステップ S5では、前述したように第 1信号列 {a (i) }と第 2信号列 {b (i) }のずれ量を算出してステップ S6へ進む。
[0084] ステップ S6において、式(6)を用いてデフォーカス量を算出してステップ S7へ進む 。ステップ S7においては、ステップ S6で算出されたデフォーカス量を駆動機構 3に 出力し、撮影レンズ 100内の所定のレンズ群を駆動させて、ステップ S1へ戻る。 なお、以上の処理手順は、撮影レンズ 100の F値に応じて選択された複数のライン センサ 531から出力される信号に対して実行される。
[0085] 以上、本実施形態の焦点検出ユニット 5によれば次の作用効果を奏する。
(1)マイクロプロセッサ 9は、撮影レンズ 100が明るい (F値が小さい)ときほど、高精度 に焦点検出をすることができる。
[0086] (2)本実施形態の焦点検出ユニット 5は、予定焦点面 5a上の互いにずれた検出領域 Eを、多数のマイクロレンズ 521及びラインセンサ 531が分担して検出するので、仮に 、従来の瞳分割再結像方式 (特許文献 1など)の逆投影像における素子のピッチ Pd を同じに設定したとしても、予定焦点面 5aからマイクロレンズ 521までの距離 Lを、従 来の瞳分割再結像方式 (特許文献 1など)のそれよりも短縮することができる。つまり、 本実施形態の焦点検出ユニット 5は、高精度でありながら小型化が容易である。 (3)本実施形態の焦点検出ユニット 5においては、マイクロレンズアレイ 52の形成さ れた光学部材とラインセンサアレイ 53とが近接するので、両者の位置合わせが容易 かつ高精度であり、その結果、誤差によるバラつきが減って、焦点検出精度が高精 度であるという利点もある。
[0087] (4)本実施形態の焦点検出ユニット 5には、複数のラインセンサ 531をライン方向に 配列してなるラインセンサアレイ 53が用いられた力 ラインセンサアレイ 53の代わりに 、それら複数のラインセンサ 531を連結してできる 1本のラインセンサが用いられても よい。
[第 1実施形態の変形例]
なお、本実施形態の焦点検出ユニット 5を次のように変形することができる。 (1)上述した焦点検出ユニット 5を利用して、撮影レンズ 100の絞り込み像面移動量 を、電子カメラシステムが自己検出することも可能になる。すなわち、マイクロプロセッ サ 9は、焦点検出ユニット 5の互いに隣接する 4つのラインセンサ 531— i, 531—(i+ 1) , 531— (i+ 2) , 531— (i+ 3)のうち、外側の 2つのラインセンサ 531— i, 531— (i+ 3)を利用して認識したデフォーカス量と、中央部で隣接する 2つのラインセンサ 531 - (i+ l) , 531— (i+ 2)を利用して認識したデフォーカス量との差異を求める。 この差異によって、マイクロプロセッサ 9は、撮影レンズ 100の絞りによる像面の変化 を認識することができる。絞り込み像面移動量とは、 F値を「4」から「8」へと変化させ たときの撮影レンズ 100の焦点面のずれ量である。その情報を利用すれば、マイクロ プロセッサ 9は、より高精度な焦点調節を行うことができる。
[0088] (2)本実施形態のマイクロプロセッサ 9は、撮影レンズ 100に設定中の F値に応じて 出力信号の参照元となるラインセンサ 531を変更したが、撮影レンズ 100に設定予定 の F値 (露光時の制御 F値)に応じて出力信号の参照元となるラインセンサ 531を変 更してちよい。
(3)本実施形態のマイクロプロセッサ 9は、撮影レンズ 100に設定中の F値、及び Z 又は撮影レンズ 100に設定予定の F値に応じて、デフォーカス信号を生成するため の演算の内容を変更してもよ 、。
[0089] (4)第 1実施形態の焦点検出ユニット 5においては、焦点検出の精度を向上させるた めに、マイクロレンズアレイ 52及びラインセンサアレイ 53からなる光学系を、 2方向に 亘つて配列することが望ましい。つまり、第 1方向に配列されたラインセンサアレイを 持つマイクロレンズアレイと、第 2方向に配列されたラインセンサアレイを持つマイクロ レンズアレイとを備えてもよ ヽ。
[0090] 図 12は、焦点検出ユニット 5の変形例の正面図である。この焦点検出ユニット 5にお いては、横方向にマイクロレンズアレイ 52及びラインセンサアレイ 53を並べた第 1の 光学系 60Xと、縦方向にマイクロレンズアレイ 52及びラインセンサアレイ 53を並べた 第 2の光学系 60Yとを、複数個ずっ密に並べてなる。
[0091] すなわち、図 12の焦点検出ユニット 5は、第 1方向に配列された複数の光電変換素 子 (受光部)で構成される受光部群 601、および、ひとつの受光部群 601に光束を導 くマイクロレンズ 602で構成される第 1検出光学系 60Xを複数備える。また、第 2方向 に配列された複数の光電変換素子で構成される受光部群 611、および、ひとつの受 光部群 611に光束を導くマイクロレンズ 612で構成される第 2検出光学系 60Yを複 数備える。そして、これら複数の第 1および第 2検出光学系 60X, 60Yを互い違いの 巿松状に配置して構成される。 [0092] このように、第 1の光学系 60Xと第 2の光学系 60Yとの双方が配置されれば、予定 焦点面 5a上の各位置のパターンを、縦横の 2方向につ 、て検出(所謂「十字検出」 ) することが可能になる。
[0093] また、第 1の光学系 60X及び第 2の光学系 60Yが複数個ずっ密に配置されれば、 予定焦点面 5a上の検出領域の配置密度は高まり、被写体のいろいろな部分で焦点 検出が可能となる。
[0094] 特に、複数の第 1の光学系 60Xと複数の第 2の光学系 60Yとが互い違いに(巿松 状に)配置されれば、前述した十字検出を、予定焦点面 5a上の各位置について行う ことが可能になる。高い面密度で検出が可能なことで、被写体が少し動いても、焦点 検出のとび対策が可能なので、安定した焦点検出が可能となる。
[0095] (5)図 12に示す配列を、図 13に示すように変形することもできる。図 13に示す焦点 検出ユニット 5においては、第 1方向のラインセンサアレイ 53よりも第 2方向のラインセ ンサアレイ 53の長さが長くなるように設けられて 、る。二方向に配列されたラインセン サ 53にお 、て、双方のラインセンサ 53が干渉しな 、ように一方向の長さを長くするこ とにより、 F値の小さい明るいレンズに対する検出能力を増大させることができる。
[0096] (6)さらに、図 12に示す配列を、図 14に示すように変形することもできる。図 14に示 す焦点検出ユニット 5においては、第 1方向の配列ピッチ P1と第 2方向の配列ピッチ P2とが異なるように設けられている。この場合、マイクロレンズの配列ピッチ P1が小さ ぐ密に並んだ方向の検出精度の向上が期待できる。
(7)上述した実施形態では、焦点検出ユニット 5の分光感度については特に言及し なかったが、焦点検出ユニット 5に分光感度特性を付与してもよい。図 15は、分光感 度特性を持つ焦点検出ユニット 5の正面図である。図 15においては、 R (赤), G (緑) , B (青)の 3色の各々に感度を持つ 3種類の光学系 60XR, 60XG, 60XBが複数個 ずつ X方向に並べられるとともに、 R (赤), G (緑), B (青)の 3色の各々に感度を持つ 3種類の光学系 60YR, 60YG, 60YBが複数個ずつ X方向に並べられている。 すなわち、図 15の焦点検出ユニット 5においては、複数の第 1検出光学系 60XG、 60XB、 60XRは、異なる分光感度特性を有する受光部群 601G、 601B、 601Rを 含み、複数の第 2検出光学系 60YG、 60YB、 60YRも、異なる分光感度特性を有す る受光部群 611G、 611B、 611Rを含む。
なお、図では、光学系 60XB、 60YB内のラインセンサが黒く塗りつぶされているが 、実際には、このラインセンサにも複数の光電変換素子が配列されている。
[0097] これらの 3種類の光学系 60XR, 60XG, 60XBと 60YR, 60YG, 60YBを配列す る場合、 G色に感度を持つ光学系 60XGと 60YGの配置密度を、他の 2種類の光学 系 60XRおよび 60YRと、 60XBおよび 60XBのそれよりも高くすると、焦点検出ュ- ット 5の全体の分光感度特性を、 G色に敏感な人間の眼の分光感度特性に近づける ことができるので、好ましい。
また、通常主に検出に用いる G色の配列の密度が高いので、効果的である。
[0098] (8)図 15においては、可視光の 3色に感度を持つ 3種類の光学系 60XR, 60XG, 6 OXBと 60YR, 60YG, 60YBが配列されている力 可視光に感度を持つ光学系と、 可視光及び赤外光に感度を持つ光学系との 2種類を用意し、それらを配列してもよ い。
[0099] 何れの場合も、互いに異なる複数種類の分光感度でデフォーカス量を検出するこ とができるので、撮影レンズ 100の色収差の大きさの検出、ひいては色収差の補正 が可能となり、焦点検出精度のさらなる向上を図ることができる。
[0100] (9)図 15に示した焦点検出ユニット 5の光学系 60XR, 60XG, 60XBと 60YR, 60Y G, 60YBは、それぞれ 1種類の色(波長)し力検出しないが、図 16又は図 17に示す ように、 1種類の光学系が 2種類以上の色 (波長)を検出できるように構成されてもよ い。
[0101] 図 16には、 1つの検出列に対して 2種類の色を検出可能な光学系を利用した焦点 検出ユニット 5を示した。図 16において符号 60XGRと 60YGRで示すのは、 G色及 び R色を検出する光学系である。また、符号 60XGBと 60YGBで示すのは、 G色及 び B色を検出する光学系である。光学系 60XGRと 60YGRにおいては、 G色に感度 を有するラインセンサと R色に感度を有するラインセンサとが同一のマイクロレンズの 後側に並列配置されており、光学系 60XGBと 60YGBにおいては、 G色に感度を有 するラインセンサと B色に感度を有するラインセンサとが同一のマイクロレンズの後側 に並列配置されている。いずれの場合も、 G色感度のラインセンサを持つようにして、 多色化による検出密度の低下を防 、で 、る。
[0102] 図 17には、 1つの検出列に対して 3種類の色を検出可能な光学系を利用した焦点 検出ユニット 5を示した。図 17において符号 60XRGBと 60YRGBで示すのは、 R色 及び G色及び B色を検出する光学系である。光学系 60XRGB、 60YRGB〖こおいて は、 G色に感度を有するラインセンサ 621G、 631Gと、 R色に感度を有するラインセ ンサ 621R、 631Rと、 B色に感度を有するラインセンサ 621B、 631Bと力 同一のマ イク口レンズの後側に並列配置されて 、る。
また、主要な検出アレイである G色アレイの幅を広くするとともに、補助的に用いる R 色、 B色アレイの幅を狭くして、通常の検出能力を保ちながら、多色化による性能劣 ィ匕を防いでいる。
なお、 G色としては、通常のイメージセンサの G感度分布より広くとる。たとえば、視 感度分布程度あるいはそれよりもさらに広い程度に取ると、光量の点で有利となり、 好ましい。
[0103] (10)以上の焦点検出ユニット 5においては、横方向にマイクロレンズアレイ 52及びラ インセンサアレイ 53を並べた第 1の光学系と、縦方向にマイクロレンズアレイ 52及び ラインセンサアレイ 53を並べた第 2の光学系とが交互に配置された力 必ずしも交互 でなくてよい。
[0104] (11)図 18には、第 1の光学系を密に配列したブロック 70Xと、第 2の光学系を密に 配列したブロック 70Yとを、ブロック交互に配置してなる焦点検出ユニット 5を示した。
[0105] (12)上記説明ではマイクロレンズ毎に光電変換素子アレイを設けた力 1列に並ぶ これらの複数の光電変換素子アレイをまとめて、 1本の光電変換素子アレイとしてもよ Vヽし、複数の光電変換素子アレイを 2次元撮像素子で実現するように構成してもよ ヽ 。又、図 12〜図 18の二次元配置は、これを面内に任意角度、例えば 45° 回転した 配置にしてもよい。
[0106] (13)上述した実施形態では、結像状態検出装置 (焦点検出装置)を搭載した電子力 メラシステムを説明したが、本発明の実施の形態による結像状態検出装置は、結像 光学系を有した他の光学機器、例えばフィールドスコープなどの各種結像光学装置 にも同様に搭載可能である。 (14)本発明の実施の形態による結像状態検出装置は、光学系の収差測定に適用 することもできる。本発明の実施の形態による結像状態検出装置で被検光学系の瞳 部分に依存したデフォーカス量や各像高におけるデフォーカス量をそれぞれ測定す れば、結果的にその被検光学系の収差が求まるからである。本発明の実施の形態に よる結像状態検出装置を適用した収差測定装置には、例えば、被検光学系を支持 する機構と、被検光学系に対し物体側から測定光を投光する照明光学系と、被検光 学系の像側に配置された本発明の実施の形態による結像状態検出装置と、結像状 態検出装置の出力から被検光学系の収差を算出する演算装置とが備えられる。
[0107] 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容 に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態 様も本発明の範囲内に含まれる。
[0108] 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願 2005年第 157314号(2005年 5月 30日出願)

Claims

請求の範囲
[1] 結像光学系の予定焦点面から所定距離だけ離れた位置に設けられ、所定ピッチで 前記マイクロレンズアレイの各マイクロレンズに対応して複数の受光部を有するとと もに、前記各マイクロレンズを介して前記予定焦点面上の像を受光する受光部アレイ と、
前記複数の受光部で得られる受光出力に基づいて、前記結像光学系の異なる瞳 領域を通過した光束による像に対応する信号列対を抽出する信号列抽出手段と、 前記信号列抽出手段により抽出された信号列対の位相のずれを検出することによ り、前記結像光学系の結像状態を求める結像状態演算手段とを備える結像状態検 出装置。
[2] 請求項 1の結像状態検出装置において、
前記信号列抽出手段は、前記各マイクロレンズに対応する複数の受光部ごとに前 記瞳領域に対応する受光出力を選択することにより前記信号列対を抽出する。
[3] 請求項 1の結像状態検出装置において、
前記予定焦点面上に逆投影した場合の前記複数の受光部の各受光部の像のピッ チ Pdは、前記マイクロレンズのピッチ Pよりも小さい。
[4] 請求項 1乃至請求項 3のいずれか一項に記載の結像状態検出装置において、 前記所定距離 Lは、前記マイクロレンズの配列ピッチと前記瞳領域の大きさとに基 づく。
[5] 請求項 4に記載の結像状態検出装置において、
前記マイクロレンズの配列ピッチを P、前記受光部の一つに入射する前記瞳領域か らの光束の F値を F、前記瞳領域からの光束の F値が 2である場合の、前記瞳領域
P
の数を Qとしたとき、前記所定距離 Lは、次式で表される。
P X FP>L≥P X FP/ (Q-4)
[6] 請求項 1乃至請求項 5のいずれか一項に記載の結像状態検出装置において、 前記各マイクロレンズに対応する複数の受光部を受光部群とし、
前記信号抽出手段は、 前記各マイクロレンズにっ 、て、前記受光部群のそれぞれに対応する一部の受光 出力を選択して第 1信号列とするとともに、該第 1信号列として選択した受光出力とは 異なる受光出力を選択して第 2信号列とする第 1抽出方式と、
前記受光部群の受光出力を選択して第 1信号列とするとともに、該第 1信号列とし て選択した受光部群とは異なる受光部群の受光出力を選択して第 2信号列とする第 2抽出方式とを含む。
[7] 請求項 1乃至請求項 6のいずれか一項に記載の結像状態検出装置において、 前記受光部アレイは、前記複数の受光部が第 1方向に配列された第 1アレイ群と、 前記第 1方向とは異なる第 2方向に配列された第 2アレイ群とを備える。
[8] 請求項 7に記載の結像状態検出装置において、
前記第 1方向に配列された受光部と該受光部に対応するマイクロレンズとの対と、 前記第 2方向に配列された受光部と該受光部に対応するマイクロレンズとの対とが、 市松模様に配置される。
[9] 請求項 7に記載の結像状態検出装置において、
前記第 1アレイ群と前記第 2アレイ群とが市松模様に配置される。
[10] 請求項 7に記載の結像状態検出装置において、
前記第 1アレイ群に対応するマイクロレンズアレイのピッチと、前記第 2アレイ群に対 応するマイクロレンズアレイのピッチとを異ならせる。
[11] 請求項 7に記載の結像状態検出装置において、
前記第 1アレイ群の各受光部の配列方向の長さは、前記第 2アレイ群の各受光部 の配列方向の長さよりも長い。
[12] 請求項 1乃至請求項 11のいずれか一項に記載の結像状態検出装置において、 前記受光部アレイは、異なる分光感度特性を有する受光部を含む。
[13] 請求項 7に記載の結像状態検出装置において、
前記第 1アレイ群は、異なる分光感度特性を有する複数の受光アレイ群を含む。
[14] 請求項 12に記載の結像状態検出装置において、
特定の前記分光感度特性を有する前記受光部は、他の分光特性を有する受光部 よりも高密度に配列する。
[15] 請求項 13に記載の結像状態検出装置において、
前記複数の受光アレイ群のそれぞれは、特定の分光感度特性を有する受光部を 含む。
[16] 請求項 14または請求項 15に記載の結像状態検出装置において、
分光特性の異なる受光部は、互いに大きさが異なる。
[17] 請求項 1乃至請求項 16のいずれか一項に記載の結像状態検出装置を焦点検出 装置として内蔵するカメラ。
[18] 請求項 1乃至請求項 16のいずれか一項に記載の結像状態検出装置における前記 マイクロレンズのアレイと前記受光部アレイとを有する受光ユニット。
PCT/JP2006/310811 2005-05-30 2006-05-30 結像状態検出装置 WO2006129677A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/920,839 US7745772B2 (en) 2005-05-30 2006-05-30 Image forming state detection device
EP06756759A EP1887399A4 (en) 2005-05-30 2006-05-30 IMAGE GENERATION CONDITION DETECTION DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-157314 2005-05-30
JP2005157314 2005-05-30

Publications (1)

Publication Number Publication Date
WO2006129677A1 true WO2006129677A1 (ja) 2006-12-07

Family

ID=37481606

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/310811 WO2006129677A1 (ja) 2005-05-30 2006-05-30 結像状態検出装置

Country Status (3)

Country Link
US (1) US7745772B2 (ja)
EP (1) EP1887399A4 (ja)
WO (1) WO2006129677A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1972980A1 (en) * 2007-02-27 2008-09-24 Nikon Corporation Focus detection device for image forming optical system, imaging apparatus, and focus detection method for image forming optical system
US8173949B2 (en) * 2007-11-19 2012-05-08 Samsung Electronics Co., Ltd. Image sensing apparatus with artificial ommatidia and manufacturing method for artificial ommatidia unit
US20120327222A1 (en) * 2008-12-08 2012-12-27 Lytro, Inc. Light Field Data Acquisition
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US9456141B2 (en) 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus
US9530195B2 (en) 2006-12-01 2016-12-27 Lytro, Inc. Interactive refocusing of electronic images
CN108407116A (zh) * 2018-03-30 2018-08-17 青岛高测科技股份有限公司 并线检测装置、方法及包括该并线检测装置的金刚线切片机
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1887399A4 (en) 2005-05-30 2011-03-23 Nikon Corp IMAGE GENERATION CONDITION DETECTION DEVICE
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
EP2180362A4 (en) 2007-10-02 2011-03-30 Nikon Corp LIGHT RECEIVING DEVICE, FOCUS DETECTION DEVICE AND IMAGING APPARATUS
JP5061858B2 (ja) * 2007-11-12 2012-10-31 株式会社ニコン 焦点検出装置および撮像装置
JP5050928B2 (ja) * 2008-02-28 2012-10-17 ソニー株式会社 撮像装置および撮像素子
JP5451111B2 (ja) * 2008-03-11 2014-03-26 キヤノン株式会社 焦点検出装置およびそれを有する撮像装置
JP5552214B2 (ja) * 2008-03-11 2014-07-16 キヤノン株式会社 焦点検出装置
JP5161702B2 (ja) * 2008-08-25 2013-03-13 キヤノン株式会社 撮像装置、撮像システム、及び焦点検出方法
JP5097077B2 (ja) * 2008-10-10 2012-12-12 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP2010128122A (ja) * 2008-11-27 2010-06-10 Olympus Corp 撮像装置
JP5246424B2 (ja) * 2009-05-11 2013-07-24 ソニー株式会社 撮像装置
JP5273033B2 (ja) * 2009-12-25 2013-08-28 株式会社ニコン 撮像装置および画像再生装置
CN102985786A (zh) * 2010-07-16 2013-03-20 皇家飞利浦电子股份有限公司 投光器和用于距离测定的视觉系统
JP5699609B2 (ja) * 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
US9270948B2 (en) 2011-04-27 2016-02-23 Panasonic Intellectual Property Management Co., Ltd. Image pick-up device, method, and system utilizing a lens having plural regions each with different focal characteristics
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
JP5942697B2 (ja) 2012-08-21 2016-06-29 株式会社ニコン 焦点検出装置および撮像装置
JP6335434B2 (ja) * 2013-04-19 2018-05-30 キヤノン株式会社 撮像装置、その制御方法およびプログラム
US10701287B1 (en) * 2013-05-23 2020-06-30 Rockwell Collins, Inc. Passive clear air turbulence detection system and method
US9742980B2 (en) * 2013-11-01 2017-08-22 Canon Kabushiki Kaisha Focus control apparatus and control method therefor
JP6476547B2 (ja) * 2014-01-28 2019-03-06 株式会社ニコン 焦点検出装置および撮像装置
US9305375B2 (en) 2014-03-25 2016-04-05 Lytro, Inc. High-quality post-rendering depth blur
US9635332B2 (en) 2014-09-08 2017-04-25 Lytro, Inc. Saturated pixel recovery in light-field images
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
GB2548462B (en) * 2016-01-29 2020-06-17 Canon Kk Image sensor and image capturing apparatus
JP6690354B2 (ja) * 2016-03-28 2020-04-28 富士ゼロックス株式会社 光学装置、画像読取装置
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
KR20170139798A (ko) * 2016-06-10 2017-12-20 삼성전자주식회사 전자 장치 및 그 제어 방법
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5887512A (ja) * 1981-11-19 1983-05-25 Nippon Kogaku Kk <Nikon> 焦点検出装置
JPS59160109A (ja) * 1983-03-03 1984-09-10 Nippon Kogaku Kk <Nikon> 光像検出装置
JPS59208515A (ja) * 1983-05-12 1984-11-26 Minolta Camera Co Ltd 焦点検出装置
JPH07199052A (ja) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd 焦点検出方法および距離測定方法
JPH1096852A (ja) * 1996-09-20 1998-04-14 Kyocera Corp 2次元撮像素子を用いた焦点検出装置
JP2001330769A (ja) * 2000-05-24 2001-11-30 Canon Inc 撮像装置及びその制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5928886B2 (ja) * 1979-02-28 1984-07-17 株式会社リコー 自動焦点検出装置
JPS57108810A (en) 1980-12-26 1982-07-07 Nippon Kogaku Kk <Nikon> Focus detector
US4410804A (en) * 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
JPS58211721A (ja) * 1982-06-04 1983-12-09 Olympus Optical Co Ltd 合焦検出方法
US4561749A (en) * 1983-02-02 1985-12-31 Nippon Kogaku K.K. Focus detection apparatus
US4766302A (en) * 1984-05-17 1988-08-23 Minolta Camera Kabushiki Kaisha Focus detecting device including means for determining a priority of correlation calculations
JPH0772762B2 (ja) * 1985-10-30 1995-08-02 ミノルタ株式会社 焦点検出装置
US5422701A (en) * 1990-01-30 1995-06-06 Nikon Corporation Focus detection apparatus
US6819360B1 (en) * 1999-04-01 2004-11-16 Olympus Corporation Image pickup element and apparatus for focusing
JP4686853B2 (ja) 2000-12-07 2011-05-25 株式会社ニコン 再結像レンズの製造方法
JP4788481B2 (ja) 2005-05-30 2011-10-05 株式会社ニコン 結像状態検出装置、カメラ、及び受光ユニット
EP1887399A4 (en) 2005-05-30 2011-03-23 Nikon Corp IMAGE GENERATION CONDITION DETECTION DEVICE
JP4578334B2 (ja) 2005-06-22 2010-11-10 富士フイルム株式会社 撮像レンズの合焦位置決定装置およびその方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5887512A (ja) * 1981-11-19 1983-05-25 Nippon Kogaku Kk <Nikon> 焦点検出装置
JPS59160109A (ja) * 1983-03-03 1984-09-10 Nippon Kogaku Kk <Nikon> 光像検出装置
JPS59208515A (ja) * 1983-05-12 1984-11-26 Minolta Camera Co Ltd 焦点検出装置
JPH07199052A (ja) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd 焦点検出方法および距離測定方法
JPH1096852A (ja) * 1996-09-20 1998-04-14 Kyocera Corp 2次元撮像素子を用いた焦点検出装置
JP2001330769A (ja) * 2000-05-24 2001-11-30 Canon Inc 撮像装置及びその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1887399A4 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9530195B2 (en) 2006-12-01 2016-12-27 Lytro, Inc. Interactive refocusing of electronic images
EP1972980A1 (en) * 2007-02-27 2008-09-24 Nikon Corporation Focus detection device for image forming optical system, imaging apparatus, and focus detection method for image forming optical system
US7805067B2 (en) 2007-02-27 2010-09-28 Nikon Corporation Focus detection device for image forming optical system, imaging apparatus, and focus detection method for image forming optical system
US8173949B2 (en) * 2007-11-19 2012-05-08 Samsung Electronics Co., Ltd. Image sensing apparatus with artificial ommatidia and manufacturing method for artificial ommatidia unit
US20120327222A1 (en) * 2008-12-08 2012-12-27 Lytro, Inc. Light Field Data Acquisition
US8724014B2 (en) * 2008-12-08 2014-05-13 Lytro, Inc. Light field data acquisition
US9467607B2 (en) 2008-12-08 2016-10-11 Lytro, Inc. Light field data acquisition
US8976288B2 (en) 2008-12-08 2015-03-10 Lytro, Inc. Light field data acquisition
US8971625B2 (en) 2012-02-28 2015-03-03 Lytro, Inc. Generating dolly zoom effect using light field image data
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US9172853B2 (en) 2012-02-28 2015-10-27 Lytro, Inc. Microlens array architecture for avoiding ghosting in projected images
US9386288B2 (en) 2012-02-28 2016-07-05 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
US9456141B2 (en) 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
CN108407116A (zh) * 2018-03-30 2018-08-17 青岛高测科技股份有限公司 并线检测装置、方法及包括该并线检测装置的金刚线切片机

Also Published As

Publication number Publication date
EP1887399A1 (en) 2008-02-13
US7745772B2 (en) 2010-06-29
EP1887399A4 (en) 2011-03-23
US20080277566A1 (en) 2008-11-13

Similar Documents

Publication Publication Date Title
JP4788481B2 (ja) 結像状態検出装置、カメラ、及び受光ユニット
WO2006129677A1 (ja) 結像状態検出装置
US7767946B2 (en) Focus detection device and image pick-up device
EP2811340B1 (en) Image sensing apparatus, image sensing system and focus detection method
US6768867B2 (en) Auto focusing system
JP5168797B2 (ja) 撮像装置
JP4972960B2 (ja) 焦点調節装置および撮像装置
JP4054422B2 (ja) カメラ及び交換レンズ装置
JP5641771B2 (ja) 焦点検出装置
JP2009141791A (ja) 撮像装置の製造方法
JP2005195786A (ja) 焦点検出装置及びそれを用いた光学機器
JP2009151154A (ja) 受光素子、焦点検出装置および撮像装置
JP2007316521A (ja) 光電検出装置、光学特性検出装置、および撮像装置
US7582854B2 (en) Focus detection apparatus for detecting a relative positional relationship between a pair of object images
JP2007233033A (ja) 焦点調節装置および撮像装置
JP2006071950A (ja) 光学機器
JP4208536B2 (ja) 焦点検出装置、それを有する撮像装置、及び撮影レンズ
JP2009294301A (ja) 受光装置および焦点検出装置
JP2009128438A (ja) カメラの焦点検出装置
JP7387265B2 (ja) 撮像素子、撮像装置、及び制御方法、並びにプログラム
JP2013122494A (ja) 焦点検出装置およびカメラ
JP5493640B2 (ja) 焦点検出装置、および、撮像装置
JP2009128843A (ja) 焦点検出装置及びそれを有する撮像装置
JP2009192882A (ja) 焦点検出装置および撮像装置
JP2018026604A (ja) 撮像装置および撮像装置システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006756759

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11920839

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006756759

Country of ref document: EP