WO2005098500A1 - 合焦情報取得用検出装置及びそれを用いた撮像装置 - Google Patents

合焦情報取得用検出装置及びそれを用いた撮像装置 Download PDF

Info

Publication number
WO2005098500A1
WO2005098500A1 PCT/JP2005/004999 JP2005004999W WO2005098500A1 WO 2005098500 A1 WO2005098500 A1 WO 2005098500A1 JP 2005004999 W JP2005004999 W JP 2005004999W WO 2005098500 A1 WO2005098500 A1 WO 2005098500A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
luminance information
plane
information acquisition
equivalent
Prior art date
Application number
PCT/JP2005/004999
Other languages
English (en)
French (fr)
Inventor
Kazuhiko Arai
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Publication of WO2005098500A1 publication Critical patent/WO2005098500A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Definitions

  • the present invention relates to a focus information acquisition detecting device that forms an image of a subject via an optical element, and acquires focus information from a plurality of pieces of luminance information obtained in different blur states, and such focus information.
  • the present invention relates to an imaging device using an acquisition detection device.
  • Japanese Patent Publication No. 3-52607 discloses that an object image is projected onto a pair of light receiving elements arranged with a predetermined optical path difference before and after a plane to be focused, and obtained image information is obtained.
  • a method of detecting a focused state of an object based on a predetermined evaluation function As a basic method of using this method, there is a camera equipped with a focus determination device. In this method, a so-called front focus and a rear focus are determined by obtaining object information on two surfaces separated by the same distance with respect to a plane to be focused. The result of the judgment is useful for driving, for example, a focusing lens of the focusing optical system in a correct adjustment direction.
  • USP 4,965,840 image information is obtained at two locations having different optical path lengths in order to calculate a spread parameter by performing arithmetic processing on a plurality of images having different blur states and determine focus.
  • the spread parameter is a representative value indicating the blur state of the image information, which is related to the point spread function of the optical system, and the point on the image plane passes through a number of paths of the optical system.
  • the variance in the case where the image is formed as a region instead of as a region is represented as follows.
  • the present invention has been made in view of the above points, and it is easy to obtain a true value of a spread parameter, and it is a fast and inexpensive focus information acquisition detection device, and an imaging device using the same.
  • the purpose is to provide.
  • light that has passed through at least a part of an optical system that forms light from a target object on a plane to be focused at a predetermined position is transmitted to the plane to be focused by the optical system.
  • Light-guiding means for guiding light so as to form an image on an equivalently-focused surface which is substantially equivalent to the light, and at least two of a plurality of images having different blurs formed by the light guided by the light-guiding means.
  • Brightness information obtaining means for obtaining brightness information of mutually corresponding regions in the image, wherein the optical information is obtained on the same optical axis defined in the optical system with the object as a base point.
  • an optical system for forming an image of light having an object power on the surface to be focused such as the focus information acquiring detection device according to one aspect of the present invention
  • an imaging device including: a focus information acquisition detection device; and an imaging device arranged on the surface to be focused.
  • FIG. 1 is a schematic diagram showing a configuration of a single-lens reflex digital camera as an imaging device using a focus information acquiring detection device according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing a configuration of a focus information acquiring detection device according to a first embodiment.
  • FIG. 3 is a diagram showing schematic steps of a focus determination method for calculating a spread parameter and determining focus.
  • FIG. 4 illustrates a positional relationship between a focusing lens and an imaging position, and two focus determination image luminance information and two captured images for the same portion P of the same subject based on the positional relationship.
  • FIG. 5A is a conceptual diagram illustrating a relationship between a focusing point when a focusing lens is at a first position and a spread parameter calculated by a focusing determination method disclosed in USP 4,965,840. It is.
  • FIG. 5B illustrates the relationship between the focusing point when the focusing lens is at the second position and the spread parameter calculated by the focusing determination method disclosed in USP 4,965,840.
  • FIG. 5B illustrates the relationship between the focusing point when the focusing lens is at the second position and the spread parameter calculated by the focusing determination method disclosed in USP 4,965,840.
  • FIG. 5C is a conceptual diagram illustrating the relationship between the focusing point when the focusing lens is at the third position and the spread parameter calculated by the focusing determination method disclosed in USP 4,965,840. It is.
  • FIG. 5D is a conceptual diagram illustrating a change in a spread parameter value calculated by the focus determination method disclosed in US Pat. No. 4,965,840.
  • FIG. 6A is a diagram showing an example in which the first and second luminance information acquisition sensors are arranged on the optical path on the optical path on the non-subject side with respect to the plane to be equivalently focused.
  • FIG. 3 is a conceptual diagram illustrating a relationship between a focus point when the object is closer to a subject than a fixed surface and spread parameters calculated in the first embodiment.
  • FIG. 6B is a diagram illustrating an example in which the first and second brightness information acquisition sensors are arranged on the optical path on the optical path closer to the non-subject side than the equivalent focusing target plane.
  • FIG. 3 is a conceptual diagram illustrating a relationship between a focus point when the image is on a fixed surface and a spread parameter calculated in the first embodiment.
  • FIG. 6C is a diagram illustrating an example in which the first and second luminance information acquisition sensors are arranged on the optical path on the optical path closer to the non-subject side than the plane to be equivalently focused.
  • FIG. 4 is a conceptual diagram illustrating a relationship between a focus point when the object is on a non-subject side from a fixed surface and a spread parameter calculated in the first embodiment.
  • FIG. 6D is calculated in the first embodiment when the first and second luminance information acquisition sensors are arranged on the optical path on the non-subject side from the equivalent focusing expected plane in the first embodiment. It is a conceptual diagram explaining the change of a spread parameter value.
  • FIG. 7A is a diagram illustrating a focus point when the first and second luminance information acquisition sensors are arranged on the optical path on the optical path closer to the subject than the equivalent focusing planned surface in the first embodiment.
  • FIG. 3 is a conceptual diagram illustrating a relationship between a focus point when the subject is closer to the non-subject side and spread parameters calculated in the first embodiment.
  • FIG. 7B is a diagram illustrating a focus point when the first and second luminance information acquisition sensors are arranged on the optical path closer to the subject than the equivalent focusing plane in the first embodiment.
  • FIG. 4 is a conceptual diagram illustrating a relationship with the data.
  • FIG. 7C is a view showing an example in which the first and second luminance information acquisition sensors are arranged on the optical path closer to the subject than the equivalent focusing plane in the first embodiment.
  • FIG. 4 is a conceptual diagram illustrating the relationship between the focus point when the subject is further on the subject side and spread parameters calculated in the first embodiment.
  • FIG. 7D is a view showing a spray calculated in the first embodiment when the first and second luminance information acquisition sensors are arranged on the optical path on the side closer to the subject than the plane to be equivalently focused.
  • FIG. 5 is a conceptual diagram illustrating a change in a read parameter value.
  • FIG. 8 is a diagram showing a configuration of a focus information acquiring detection device according to a first embodiment when the system shown in FIGS. 7A to 7D is actually applied to a camera.
  • FIG. 9 is a diagram showing a configuration of a first modification of the focus information acquiring detection device according to the first embodiment.
  • FIG. 10 is a diagram showing a configuration of a focus information acquiring detection device according to a second embodiment of the present invention.
  • FIG. 11A is a diagram showing a relationship between an equivalent focusing expected plane and a first luminance information acquisition sensor when a focusing lens is at a first position.
  • FIG. 11B is a view showing a relationship between an equivalent focusing expected plane and a first luminance information acquisition sensor when the focusing lens is at a second position.
  • FIG. 11C is a diagram showing a relationship between an equivalent focusing expected plane and a first luminance information acquisition sensor when the focusing lens is at a third position.
  • FIG. 12A is a diagram showing a relationship between an equivalent focusing expected plane and a first luminance information acquisition sensor when a focusing lens is at a first position.
  • FIG. 12B is a diagram showing the relationship between the equivalent focusing expected plane and the first luminance information acquisition sensor when the focusing lens is at the fourth position.
  • FIG. 12C is a diagram showing a relationship between the equivalent focusing expected plane and the first luminance information acquisition sensor when the focusing lens is at the fifth position.
  • FIG. 13 is a diagram showing a configuration of a focus information acquiring detection device according to a third embodiment of the present invention.
  • FIG. 14 is a diagram showing a configuration of a focus information acquiring detection device according to a fourth embodiment of the present invention.
  • FIG. 15 is a diagram showing an optical configuration for describing a focus information acquisition configuration system of a general phase difference detection method.
  • FIG. 16 is a diagram showing a configuration of a first modification of the focus information acquiring detection device according to the fourth embodiment.
  • FIG. 17 is a diagram showing a configuration of a focus information acquiring detection device according to a fifth embodiment of the present invention.
  • FIG. 18A is a diagram showing the relationship between the image sensor and the plane to be focused when the image sensor is at the first position.
  • FIG. 18B is a diagram showing a relationship between the image sensor and the plane to be focused when the image sensor is at the second position.
  • FIG. 18C is a diagram showing a relationship between the image sensor and the plane to be focused when the image sensor is at the third position.
  • FIG. 19A is a diagram showing a relationship between an image sensor and a plane to be focused when the image sensor is at a first position.
  • FIG. 19B is a diagram showing a relationship between the image sensor and the plane to be focused when the image sensor is at the fourth position.
  • FIG. 19C is a diagram showing the relationship between the image sensor and the plane to be focused when the image sensor is at the fifth position.
  • the term "planned focusing plane” is used to determine the position of the light receiving surface of the image pickup device from the reference position on the image pickup device when the image pickup device is constructed. Is also assumed to be located at a predetermined position from the imaging device reference point. In consideration of the optical characteristics including various aberrations of the imaging optical system, and errors in manufacturing and assembly, the “planned in-focus position” is perpendicular to the optical axis set in the optical system with a width within the existing range. Surface Is determined.
  • the “equivalent focusing surface” is an optically equivalent position to such a focusing surface, and takes into account optical characteristics including aberrations of all optical elements interposed in the middle, manufacturing and assembly errors.
  • the optical axis is determined to be a plane perpendicular to the optical axis equivalent to the optical axis that can also be predetermined with respect to the plane to be focused, at an optically equidistant position corresponding to the existence range of the plane to be focused.
  • the "luminance information" indicates the obtained sensor signal information itself.
  • signal information for each color band obtained by each color filter for example, signal information for each of R, G, and B may be used! It may be single signal information obtained by combining.
  • the signal information itself is also area-type sensor force.General image information that has acquired two-dimensional arrangement, one-dimensional rearrangement of this two-dimensional image information, and line-type sensor force There is no restriction on the format of the signal information, such as the acquired one-dimensional thing, the image sensor itself is one segment and the information of one point.
  • a single-lens reflex digital camera as an imaging device using a focus information acquisition detection device has an interchangeable lens 12 detachably attached to a camera body 10.
  • the interchangeable lens 12 includes a plurality of lenses, a lens group, a diaphragm, a lens barrel, and the like, and is capable of adjusting a focal length, a focusing lens position, a light amount, and the like.
  • such a configuration of the interchangeable lens 12 is represented by only the focusing lens 14 for simplicity, and other illustrations are omitted.
  • a part of the quick return mirror 18 is a transmission mirror.
  • Part of the subject light that passes through is reflected by the total reflection type sub-mirror 24 and enters the transmission type mirror 26.
  • the light beam transmitted through the transmission mirror 26 is imaged on the first luminance information acquisition sensor 30 via the first equivalent focusing surface 28-1.
  • the light beam reflected by the transmission mirror 26 passes through the second equivalent in-focus plane 28-2, and acquires the second luminance information arranged on the optical path from the non-subject side to the equivalent in-focus plane. It is imaged on the sensor 32 for use. Then, based on the sensor information acquired by these sensors 30 and 32, an appropriate operation is performed by an operation unit (not shown) to move the focusing lens position of the focusing lens 14 to the in-focus position. Is generated.
  • At least two pieces of focus determination image luminance information 100 of the same part P of the same subject are captured by an imaging pattern that affects the blurred state of the captured image 102. Obtained by changing at least one parameter.
  • the photographing parameters include a focusing lens position, an aperture amount, a focal length, and the like.
  • the description will be limited to a case where only the optical path length between the plane to be focused and the object is changed.
  • the focusing lens 14 is moved to prescribed first and second locations in order to change the optical path length between the plane to be focused and the subject (step).
  • S10A, step S10B and obtain the first and second image luminance information, respectively (step S12A, step S12B).
  • Each of the acquired images is subjected to normalization processing such as image magnification and luminance distribution (steps S14A and S14B), and if necessary, selects an area in the acquired image information for which focus determination is to be performed (step S14A).
  • S16A, step S16B The selection is made for one of the image information, and the corresponding area is selected for the other image information.
  • a preprocessing operation such as smoothing for calculating a spread parameter is performed on the focus determination area of the selected first and second image information (steps S18A and S18B).
  • the spread parameter of the captured image in the present method is calculated by integrating the two preprocessing calculation results (step S20).
  • Spread parameters obtained corresponding to the first and second image information are ⁇ 1 and ⁇ 2, respectively.
  • a database corresponding to one of these spread parameters ⁇ 1 and ⁇ 2 and a focusing lens position from which the focusing state should be obtained for the spread parameter is obtained in advance. Therefore, if the obtained spread parameters are referred to in this correspondence database, a movement command value of the focus cinder lens driving actuator which is not shown to obtain the in-focus state is generated (step S22).
  • FIGS. 5A to 5D are conceptual diagrams illustrating the focus point P ′ and spread parameters ⁇ 1 and ⁇ 2 calculated by the focus determination method disclosed in US Pat. Nos. 4,965,840. It should be noted that reference numerals are common to FIGS. 5A to 5C, and therefore, are attached only to FIG. 5A to 5C and FIG. 5D have the same position in the horizontal axis direction, and the vertical axis direction in FIG. 5D shows an outline of the calculated spread parameter value.
  • the focusing state on the equivalent focusing surface 28 is the force obtained in FIG. 5 ⁇ . Both ⁇ 1 and ⁇ 2 before and after this change from increasing calorie to decreasing or decreasing to increasing. This is because the spread parameter calculated as a value representing blur is basically a positive value. However, in this state, correct values of ⁇ 1 and ⁇ 2 cannot be obtained, and the movement command value of the focusing lens 14 cannot be uniquely associated from the database! Therefore, in USP 4,965,840, the true value of the spread parameter is determined by comparing the contrast of ⁇ 1, ⁇ 2 or the contrast of the first and second image luminance information, and uniquely determine ⁇ 1, ⁇ 2. 2 had been decided.
  • the first and second luminance information acquiring sensors 30 and 32 are arranged on the optical path on the non-subject side from the plane to be equivalently focused. Are placed.
  • FIGS. 6A to 6C virtually remove the optical path bending in the transmission mirror 32 of FIG.
  • FIG. 3 is a diagram illustrating a first luminance information acquiring sensor 30, a second luminance information acquiring sensor 32, and an equivalent in-focus plane 28 on a straight line.
  • Spread parameters obtained corresponding to the first luminance information acquisition sensor 30 and the second luminance information acquisition sensor 32 are ⁇ 1 and ⁇ 2, respectively.
  • FIGS. 6A to 6D are conceptual diagrams illustrating the focus point P ′ and the spread parameters ⁇ 1 and ⁇ 2 calculated by the present method in association with each other, similarly to FIGS. 5A to 5D.
  • the reference numbers are common to FIGS. 6A to 6C, and therefore are attached only to FIG. 6A for simplification of the drawing. 6D are the same in the horizontal direction in FIG. 6D and FIG. 6D, and the vertical direction in FIG. 6D shows an outline of the calculated spread parameter value.
  • the focused state on the equivalent focusing expected plane 28 is obtained in FIG.
  • the equivalent focusing expected plane 28 and the luminance information acquisition sensors 30 and 32 are arranged in this order on the side closest to the subject side.
  • the difference between FIG. 5D and FIG. 6D is the area between the equivalent focusing expected surface 28 and the first luminance information acquisition sensor 30 marked with an arrow in FIG. 6D.
  • Both ⁇ 1 and ⁇ 2 decrease monotonically as long as the focus point P ′ moves toward the back focus with respect to the predetermined plane 28.
  • the focusing point P ′ moves back and forth as a servo adjustment characteristic before and after the equivalent focusing surface 28 by the adjustment driving of the focusing lens 14. Even if the in-focus point P 'passes through the equivalent in-focus expected plane 28 from the rear focus side, the spread parameter is monotonically decreasing until the position of the first luminance information acquisition sensor 30, so the calculation processing is true.
  • the drive control of the focusing lens 14 can be stably performed without switching the processing for determining the value.
  • This tendency of monotonous decrease has the property of having both the spread parameters ⁇ 1 and ⁇ 2, so that the spread parameters ⁇ 1 and ⁇ 2 can be appropriately selected and used according to the purpose and necessity.
  • a stepping motor is often used for driving a lens.
  • stepping motors return the motor to the initial position as necessary to eliminate the adverse effects such as the effects of knock lash and errors in the motor step position due to step-out. If the initial position of the focusing lens 14 is on the rear focus side as shown in Fig. 6 ⁇ , the spread parameter calculation for focusing from that point is always monotonically reduced. It is easy to adapt to the system sequence because it can be performed by using the low tendency part.
  • FIG. 1 shows an example in which the system shown in FIGS. 6A to 6D is actually applied to a camera.
  • FIGS. 7A to 7D are also similar to FIGS. 6A to 6D.
  • the monotonically decreasing spread parameter of the back focus side is described.
  • the brightness information acquisition sensors 30, 32, and the equivalent focusing expected plane 28 are arranged in that order on the side, and the front pin On the side, the monotonicity of the spread parameter becomes available. Therefore, as described above, if the initial position return of the focus cinder lens 14 is on the front focus side as shown in FIG. 7A, the spread parameter calculation for focus determination from that point always increases monotonically. Since the drive control of the focusing lens 14 for focusing can be performed using the tendency part, it is easy to adapt to the system sequence.
  • FIG. 8 shows an example in which the system shown in FIGS. 7A to 7D is actually applied to a camera.
  • the transmittance may be any value such as 33% or 66% depending on the algorithm or processing. Good transmittance. No restrictions are placed on the transmittance.
  • the reflection optical system is provided on the optical path for acquiring the focus information
  • an arbitrary optical element such as a concave lens, a convex lens, and an ND filter may be interposed.
  • the luminance information acquisition sensors 30, 32 may be in various forms, for example, an area type CCD of about 640 x 480 pixels or an area readable CMOS sensor, or a dedicated sensor in which a plurality of line sensors are arranged in an island shape. Is possible. Further, color, black and white, infrared wavelengths, and ultraviolet wavelengths may be used. No restrictions are placed on the type of sensor. In the case of a monochrome sensor, the acquired sensor information is used directly as luminance information. In the case of a color sensor, for example, of the R, G, and B luminance information, only the G component is used. Brightness information may be used, or brightness information may be obtained by combining R, G, and B at a fixed ratio.
  • the luminance information acquisition sensors 30, 32 are respectively inclined with respect to the respective equivalent in-focus scheduled surfaces 28-1 and 28-2 in such a manner that the normal direction set on each surface is oblique. To be It is desirable to arrange them so that they face in the same direction from the viewpoint of uniform light reception.
  • the inclinations of the equivalent focusing expected surfaces 28-1 and 28-2 can be adjusted according to the sensor arrangement space. If the equivalent focal planes 28-1 and 28-2 are designed to be perpendicular to each other, the positional relationship between the luminance information acquisition sensors 30 and 32 is determined easily and with high accuracy and further easy to assemble. Is feasible.
  • the spread parameter is monotonically increased or decreased in the normal driving range of the focusing lens, and the true value of the spread parameter is decreased. It is not necessary to add extra judgment processing to the judgment, and the calculation cost is reduced and the calculation processing speed is improved.
  • the reference force can also set a monotonically decreasing spread parameter curve to match the system sequence.
  • luminance information of a plurality of images having different blurs can be easily acquired due to different optical path lengths.
  • only one second brightness information acquisition sensor 32 is provided.
  • the number of the second brightness information acquisition sensor 32 may be two or more.
  • a part of the light transmitted through the transmission mirror 32 through the sub-mirror 24 passes through the first equivalent focusing surface 28-1, and the first luminance information acquisition sensor 30 It is imaged in.
  • the subject side force on the optical path is also directed backward from the second equivalent in-focus target plane 28-2.
  • a transmission type mirror 34 is arranged, and among the light reflected by the transmission type mirror 32, the light transmitted by the transmission type mirror 34 is received by one second luminance information acquisition sensor 32-1.
  • the other second brightness information acquisition sensor 32-2 is arranged at an optical path length position different from that of the one second brightness information acquisition sensor 32-1 so that the light reflected by the transmission mirror 34 is reflected.
  • the other second luminance information acquisition sensor 32-2 receives light.
  • the brightness information acquisition sensors 30, 32-1 and 32-2 are all arranged on the optical path on the non-subject side with respect to the equivalent focusing expected planes 28-1, 28-2. However, depending on the design, it is possible to lay out all of the equivalent focusing surfaces 28-1 and 28-2 on the optical path on the subject side.
  • a plurality of transmission mirrors may be installed with the same idea.
  • the position of the focusing lens 14 can be determined. For example, when the luminance information difference is large, a small combination can be selected, and when the luminance information difference is small, a large combination can be selected. Therefore, even in the case where the spread parameter cannot be calculated well in the past, robust focus determination can be performed.
  • the spread parameter can be monotonously adjusted. It goes without saying that it has decreasing and monotonically increasing characteristics!
  • the focusing lens 14 is moved back and forth to change the optical path length in order to obtain a plurality of pieces of image luminance information having different blur states.
  • the focusing information can be acquired by installing one sensor specially developed for acquiring the focusing information, which is useful for space saving at low cost.
  • a light transmitting mirror is used as the sub mirror 24 ′ used in the present configuration.
  • the light beam reflected by the submirror 24 ' is guided to a second luminance information acquisition sensor 32 installed on the subject side with respect to the equivalent focusing surface 28 on the optical path. Further, the light beam transmitted through the submirror 24 'is guided to the first image sensor 16 which also serves as a luminance information acquisition sensor.
  • the second luminance information acquisition sensor 32 and the imaging sensor 16 can acquire luminance information having different blur states at the same time, and the addition of one luminance information acquisition sensor to the camera can be performed. It becomes possible to acquire focus information.
  • the second brightness information acquisition sensor 32 is disposed on the subject side with respect to the equivalent focusing expected plane 28.
  • the focusing lens 14 is moved back and forth along the optical axis of the allowable range, and consequently, both the second luminance information acquisition sensor 32 and the imaging sensor 16 acquire luminance information on the subject side with respect to the equivalent focusing target plane 28.
  • the image sensor 16 will be conversely positioned on the non-subject side with respect to the equivalent focusing plane. Try to get the luminance information.
  • a shutter (not shown) needs to be opened at least for an imaging area during acquisition of luminance information by the imaging sensor 16.
  • the second luminance information acquisition sensor 32 moves the equivalent focusing expected plane 28 along the optical path. It may be installed on the non-subject side.
  • the focus information acquiring detection device since the imaging element of the imaging device is used, it is not necessary to separately provide a focus determination image acquisition sensor. Space saving and low cost can be realized. In addition, since the focus is determined just at the position where the image is taken, the accuracy is high and the focused state is obtained.
  • the focus information acquiring detection device includes a focus sensor optical system 36 and a focus sensor 38. And usually, they are used to determine the focus of the conventional phase difference detection method! / Puru.
  • the focus determination of the conventional phase difference detection method is disclosed in the above-mentioned Japanese Patent Publication No. 3-52607. That is, as shown in FIG. 15, the light beam emitted from the subject passes through the focusing lens 14, the equivalent focusing surface 28, the condenser lens 36 A, the pupil dividing lenses 36 B, 36 C arranged with parallax, An image is finally formed on a focus sensor 38 which also has a force such as a plurality of line CCDs via a focus sensor optical system 36 which also has a force such as a field mask (not shown).
  • the expected value of the phase difference information at the time of focusing of the subject image signal obtained by the focusing sensor 38 via the pupil dividing lenses 36B and 36C, and the phase difference information actually acquired The movement command value of the focusing lens 14 until the image picked up by the image sensor 16 is brought into the focused state is calculated from the difference.
  • the focus information is acquired as in the third embodiment by switching the mode. . That is, the quick return mirror 18 is flipped up and the position of the focusing lens 14 is moved back and forth in parallel with the optical axis, so that the image sensor 16 acquires luminance information in different blur states. As a result, the initial position of the imaging sensor 16, which is the plane to be focused, moves back and forth to the subject side and the non-subject side along the optical path with respect to the imaging sensor 16.
  • the method of moving the focusing lens 14 back and forth and acquiring the monotonically increasing or decreasing spread parameter with the image sensor 16 is the same as in the third embodiment.
  • a fixed light-transmissive fixed mirror 18 ' may be used instead of the quick return mirror 18 as shown in FIG.
  • the imaging sensor 16 itself in parallel with the imaging surface for the camera shake prevention function.
  • the degree of freedom to move in the direction parallel to the optical axis of the image sensor 16 is provided.
  • an electrostatic actuated actuator disclosed in JP-A-2001-9796 and JP-A-2001-9797 is used. can do. That is, if a large number of such electrostatic actuators are arranged on the surface and the imaging sensor 16 is supported, the imaging sensor 16 is moved substantially horizontally in the plane from the initial position plane of the imaging sensor 16 and is moved relative to the plane. It is also possible to move back and forth in the vertical direction
  • the imaging sensor 16 is moved toward the subject as shown in FIGS. 18A to 18C with respect to the equivalent in-focus expected plane and the expected in-focus plane which are the initial positions of the imaging sensor 16, and As shown in FIGS. 19A to 19C, it is possible to move to the non-subject side.
  • the imaging sensor 16 By moving the imaging sensor 16 along the optical axis with respect to the plane to be equivalently focused, it is possible to acquire multiple pieces of luminance information only on the subject side or acquire multiple pieces of luminance information only on the non-subject side. It goes without saying that a monotonically increasing or monotonically decreasing spread parameter can be obtained. [0066] According to the focus information acquisition detection device according to the present embodiment, a plurality of pieces of luminance information having different blur states can be acquired without disposing a plurality of sensors, and the device can be reduced in cost and size. become.
  • the first brightness information acquisition sensor 30 in FIG. 10 uses the same concept as the force for acquiring the brightness information having different blur states by moving the imaging sensor 16. By providing a cutuator, it is possible to realize the same function by moving back and forth along the optical path.
  • the moving sensor is not limited.
  • the present invention is not limited to the application to the digital single-lens reflex camera as described in the above embodiments, a non-digital camera, a compact digital camera without an interchangeable lens, a quick return mirror, etc., a microscope It can be diverted to a focus information acquisition detection device of any type of imaging device such as an endoscope and a telescope.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 対象物からの光を所定の位置にある合焦予定面に結像する光学系の少なくとも一部を通過した光を、クイックリターンミラー(18)、サブミラー(24)及び透過型ミラー(26)により上記合焦予定面と光学的に等価である等価合焦予定面(28,28−1,28−2)に結像させるように導光し、その導光した光が形成するボケの異なる複数の画像のうち、少なくとも二つの画像における互いに対応する領域の輝度情報を主輝度情報取得用センサ(30)と副輝度情報取得用センサ(32)で取得する。この際、上記対象物を基点として上記光学系に定義される同一光軸上に光学的に等価になるように、輝度情報取得位置と等価合焦予定面位置とを光路長順に並べた場合に、上記等価合焦予定面が全ての輝度情報取得位置のどちらか一方の端となるようにする。

Description

明 細 書
合焦情報取得用検出装置及びそれを用いた撮像装置
技術分野
[0001] 本発明は、光学素子を経て被写体の像を結像し、取得したボケ状態の異なる複数 の輝度情報から合焦情報を取得する合焦情報取得用検出装置及びそのような合焦 情報取得用検出装置を用いた撮像装置に関する。
背景技術
[0002] 例えば、特公平 3— 52607号公報には、合焦予定面の前後に所定の光路差を持つ て配置された一対の受光素子上に物体像を投影し、得られた像情報を用いて所定 の評価関数に基づき、物体の合焦状態を検出する手法が提案されている。この手法 の基本的な利用方法としては、合焦判定装置付カメラがある。これは、合焦予定面を 挟み同距離離れた二面で物体情報を得ることで、いわゆる前ピン、後ピンを判断する 。その判断結果は、合焦用光学系の例えばフォーカシングレンズを、正しい調整方 向へ駆動することに役立つ。
[0003] また、 USP4, 965, 840では、ボケ状態の異なる複数の画像を演算処理すること によりスプレッドパラメータを算出し合焦判定するために、光路長の異なる 2箇所で画 像情報を取得する方法が記載されている。ここで、スプレッドパラメータとは、画像情 報のボケ状態を示す代表値であり、光学系のポイントスプレッドファンクションに関連 し、被写体の一点力 光学系の数多の経路を経て像面に点が点としてではなく領域 として結像した場合の分散値を代表して 、る。
[0004] 上記 USP4, 965, 840に開示されているような合焦判定手法においては、複数解 として算出される現在のスプレッドパラメータの真値を判別するために、余分に画像 輝度情報力 コントラスト値を利用して演算する必要があり、これは合焦判定の処理 速度を低下させ、また、合焦判定用の演算素子のコストを増大させていた。
発明の開示
[0005] 本発明は、上記の点に鑑みてなされたもので、スプレッドパラメータの真値を求め易 くし、処理が高速で安価な合焦情報取得用検出装置、及び、それを用いた撮像装置 を提供することを目的とする。
[0006] 本発明の一態様によれば、対象物からの光を所定の位置にある合焦予定面に結 像する光学系の少なくとも一部を通過した光を、上記合焦予定面と光学的に等価で ある等価合焦予定面に結像させるように導光するための導光手段と、上記導光手段 で導光した光が形成するボケの異なる複数の画像のうち、少なくとも二つの画像にお ける互いに対応する領域の輝度情報を取得するための輝度情報取得手段と、を具 備し、上記対象物を基点として上記光学系に定義される同一光軸上に光学的に等 価になるように、輝度情報取得位置と等価合焦予定面位置とを光路長順に並べた場 合に、上記等価合焦予定面が全ての輝度情報取得位置のどちらか一方の端である ことを特徴とする合焦情報取得用検出装置が提供される。
[0007] 本発明の別の態様によれば、対象物力 の光を上記合焦予定面に結像するため の光学系と、上記本発明の一態様による合焦情報取得用検出装置のような合焦情 報取得用検出装置と、上記合焦予定面に配された撮像素子と、を具備する撮像装 置が提供される。
図面の簡単な説明
[0008] [図 1]図 1は、本発明の第 1実施例に係る合焦情報取得用検出装置を用いた撮像装 置としての一眼レフ型デジタルカメラの構成を示す模式図である。
[図 2]図 2は、第 1実施例に係る合焦情報取得用検出装置の構成を示す図である。
[図 3]図 3は、スプレッドパラメータを算出し合焦判定する合焦判定方法の概略ステツ プを示す図である。
[図 4]図 4は、フォーカシングレンズと撮像位置との位置関係、及び、その位置関係に よる同一被写体の同一部位 Pに対する 2枚の合焦判定用画像輝度情報及び二つの 撮像画像を説明するための図である。
[図 5A]図 5Aは、フォーカシングレンズが第 1の位置にあるときの合焦ポイントと USP4 , 965, 840に開示の合焦判定手法で算出されるスプレッドパラメータとの関係を説 明する概念図である。
[図 5B]図 5Bは、フォーカシングレンズが第 2の位置にあるときの合焦ポイントと USP4 , 965, 840に開示の合焦判定手法で算出されるスプレッドパラメータとの関係を説 明する概念図である。
[図 5C]図 5Cは、フォーカシングレンズが第 3の位置にあるときの合焦ポイントと USP4 , 965, 840に開示の合焦判定手法で算出されるスプレッドパラメータとの関係を説 明する概念図である。
[図 5D]図 5Dは、 USP4, 965, 840に開示の合焦判定手法で算出されるスプレッド パラメータ値の変化を説明する概念図である。
[図 6A]図 6Aは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より非被写体側に配置した場合の合焦ポイントが等価合焦予 定面より被写体側にあるときの合焦ポイントと第 1実施例で算出されるスプレッドパラメ ータとの関係を説明する概念図である。
[図 6B]図 6Bは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より非被写体側に配置した場合の合焦ポイントが等価合焦予 定面にあるときの合焦ポイントと第 1実施例で算出されるスプレッドパラメータとの関係 を説明する概念図である。
[図 6C]図 6Cは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より非被写体側に配置した場合の合焦ポイントが等価合焦予 定面より非被写体側にあるときの合焦ポイントと第 1実施例で算出されるスプレッドパ ラメータとの関係を説明する概念図である。
[図 6D]図 6Dは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より非被写体側に配置した場合の第 1実施例で算出されるスプ レッドパラメータ値の変化を説明する概念図である。
[図 7A]図 7Aは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より被写体側に配置した場合の合焦ポイントが等価合焦予定 面より非被写体側にあるときの合焦ポイントと第 1実施例で算出されるスプレッドパラメ ータとの関係を説明する概念図である。
[図 7B]図 7Bは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より被写体側に配置した場合の合焦ポイントが等価合焦予定 面より被写体側にあるときの合焦ポイントと第 1実施例で算出されるスプレッドパラメ一 タとの関係を説明する概念図である。
[図 7C]図 7Cは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より被写体側に配置した場合の合焦ポイントが等価合焦予定 面より更に被写体側にあるときの合焦ポイントと第 1実施例で算出されるスプレッドパ ラメータとの関係を説明する概念図である。
[図 7D]図 7Dは、第 1実施例において第 1及び第 2の輝度情報取得用センサを光路 上で等価合焦予定面より被写体側に配置した場合の第 1実施例で算出されるスプレ ッドパラメータ値の変化を説明する概念図である。
[図 8]図 8は、図 7A乃至図 7Dの系を実際にカメラに当てはめた場合の第 1実施例に 係る合焦情報取得用検出装置の構成を示す図である。
圆 9]図 9は、第 1実施例に係る合焦情報取得用検出装置の第 1の変形例の構成を 示す図である。
[図 10]図 10は、本発明の第 2実施例に係る合焦情報取得用検出装置の構成を示す 図である。
[図 11 A]図 11 Aは、フォーカシングレンズが第 1の位置にあるときの等価合焦予定面 と第 1の輝度情報取得用センサとの関係を示す図である。
[図 11B]図 11Bは、フォーカシングレンズが第 2の位置にあるときの等価合焦予定面と 第 1の輝度情報取得用センサとの関係を示す図である。
[図 11C]図 11Cは、フォーカシングレンズが第 3の位置にあるときの等価合焦予定面 と第 1の輝度情報取得用センサとの関係を示す図である。
[図 12A]図 12Aは、フォーカシングレンズが第 1の位置にあるときの等価合焦予定面 と第 1の輝度情報取得用センサとの関係を示す図である。
[図 12B]図 12Bは、フォーカシングレンズが第 4の位置にあるときの等価合焦予定面と 第 1の輝度情報取得用センサとの関係を示す図である。
[図 12C]図 12Cは、フォーカシングレンズが第 5の位置にあるときの等価合焦予定面 と第 1の輝度情報取得用センサとの関係を示す図である。
圆 13]図 13は、本発明の第 3実施例に係る合焦情報取得用検出装置の構成を示す 図である。 [図 14]図 14は、本発明の第 4実施例に係る合焦情報取得用検出装置の構成を示す 図である。
[図 15]図 15は、一般的な位相差検出方式の合焦情報取得構成系を説明するための 光学構成を示す図である。
[図 16]図 16は、第 4実施例に係る合焦情報取得用検出装置の第 1の変形例の構成 を示す図である。
[図 17]図 17は、本発明の第 5実施例に係る合焦情報取得用検出装置の構成を示す 図である。
[図 18A]図 18Aは、撮像センサが第 1の位置にあるときの撮像センサと合焦予定面と の関係を示す図である。
[図 18B]図 18Bは、撮像センサが第 2の位置にあるときの撮像センサと合焦予定面と の関係を示す図である。
[図 18C]図 18Cは、撮像センサが第 3の位置にあるときの撮像センサと合焦予定面と の関係を示す図である。
[図 19A]図 19Aは、撮像センサが第 1の位置にあるときの撮像センサと合焦予定面と の関係を示す図である。
[図 19B]図 19Bは、撮像センサが第 4の位置にあるときの撮像センサと合焦予定面と の関係を示す図である。
[図 19C]図 19Cは、撮像センサが第 5の位置にあるときの撮像センサと合焦予定面と の関係を示す図である。
発明を実施するための最良の形態
[0009] 本発明の実施例を詳細に説明する前に、まず、本明細書において使用する用語を 説明する。
[0010] 即ち、用語「合焦予定面」とは、撮像装置が構成される際、撮像装置上の基準位置 力ゝら撮像素子受光面の位置を決定付けるものであって、同時に撮像光学系も撮像装 置基準点から所定の位置にあることが想定された上で規定されている。「合焦予定面 位置」は、撮像光学系の様々な収差を含む光学特性、及び、製造上及び組み立て 上の誤差を鑑みて、存在範囲に幅をもって光学系に設定された光軸に垂直な面とし て決定されているとする。「等価合焦予定面」は、このような合焦予定面と光学的に等 価な位置で、途中に介在するあらゆる光学素子の収差等を含む光学特性、製造上、 組み立て上の誤差を鑑みて、合焦予定面の存在範囲に対応して光学的に等距離な 位置にやはり合焦予定面に対して既定できる光軸と等価な光軸に垂直な面として決 定付けられる。
[0011] また、「輝度情報」とは、モノクロ撮像素子の場合には、得られたセンサ信号情報そ のものを示す。また、カラー撮像素子の場合には、カラーフィルタそれぞれで取得さ れた各カラーバンド毎の信号情報、例えば R, G, Bそれぞれの信号情報であっても 良!、し、これらの信号情報を合成することによって得られた単一の信号情報であって も構わな 、。信号情報自体もエリア型のセンサ力 取得された 2次元的な配置を有す る一般的画像情報や、この 2次元的画像情報が 1次元的に並べ替えられたもの、また ライン型のセンサ力も取得された 1次元的なもの、撮像素子自体が 1セグメントでその 1点の情報など、信号情報の形式に制限を加えない。
[0012] 以下、本発明を実施するための最良の形態を図面を参照して説明する。
[0013] [第 1実施例]
図 1に示すように、本発明の第 1実施例に係る合焦情報取得用検出装置を用いた 撮像装置としての一眼レフ型デジタルカメラは、カメラ本体 10に交換レンズ 12が脱着 可能に取り付けられている。交換レンズ 12は、複数のレンズ、レンズ群、絞り、鏡筒な どによって構成され、焦点距離、フォーカシングレンズ位置、光量などが調整可能な ものである。このような交換レンズ 12の構成は、図では簡略化のためにフォーカシン グレンズ 14のみを代表して記載し、その他の図示は省略する。フォーカシングレンズ 14を経て入射する図示せぬ対象物体からの光は、同図及び図 2に示すように、撮像 時には図示せぬシャツタが開くことでカメラ本体 10内に設置された撮像センサ (撮像 素子) 16上に結像される。図示せぬビューファインダで被写体を観察する時には、フ オーカシングレンズ 14を経て入射する一部の光がクイックリターンミラー 18によって 反射され、マット面 20上に結像し、この像をペンタブリズム 22を経てビューファインダ に導いている。
[0014] また、上記クイックリターンミラー 18は一部が透過ミラーになっており、この光透過部 を透過する一部の被写体光は、全反射型のサブミラー 24で反射され、透過型ミラー 26に入射される。そして、この透過型ミラー 26を透過した光線は、第 1の等価合焦予 定面 28-1を経て、第 1の輝度情報取得用センサ 30に結像されている。また、透過型 ミラー 26で反射された光線は、第 2の等価合焦予定面 28- 2を経て、光路上で等価 合焦予定面より非被写体側に配置されている第 2の輝度情報取得用センサ 32に結 像されている。そして、これらのセンサ 30, 32にて取得されたセンサ情報に基づき、 図示せぬ演算部で適切な演算を行うことによって、フォーカシングレンズ 14のフォー カシングレンズ位置を合焦位置にまで移動するための指令値が生成される。
[0015] この場合、 USP4, 965, 840に開示された合焦判定方法を利用する。 USP4, 96 5, 840に記載されている合焦判定方法の概略ステップを説明すると、図 3に示すよう になる。これら概略ステップで行われる演算処理の詳細は、上記 USP4, 965, 840 に記載されて 、るので、ここでは説明を省略する。
[0016] この合焦判定方法では、図 4に示すように、同一被写体の同一部位 Pの最低 2枚の 合焦判定用画像輝度情報 100を、撮像画像 102のボケ状態に影響を与える撮影パ ラメータを最低 1つ変更することによって、取得する。撮影パラメータとしては、フォー カシングレンズ位置、絞り量、焦点距離などがあるが、本説明では合焦予定面と被写 体間の光路長のみを変更する場合に限定して説明を行う。
[0017] 本合焦判定方法によるとまず、例えば等価合焦予定面と被写体間の光路長を変更 するためにフォーカシングレンズ 14を規定の第 1の場所及び第 2の場所に移動し (ス テツプ S10A、ステップ S10B)、それぞれ第 1及び第 2の画像輝度情報を取得する( ステップ S12A、ステップ S12B)。それぞれ取得された画像は、像倍率、輝度分布な どの正規化処理が行われ (ステップ S14A、ステップ S14B)、必要であれば取得画 像情報中の合焦判定をすべき領域を選択する (ステップ S16A、ステップ S16B)。選 択はどちらか一方の画像情報に対して行い、もう一方の画像情報に対しては対応領 域が選定される。続いて、選択された第 1及び第 2の画像情報の合焦判定領域に対 しスプレッドパラメータを演算するための平滑ィ匕などの前処理演算が行われ (ステップ S18A、ステップ S18B)、それら二つの前処理演算結果を統合することによって、本 手法における撮像画像のスプレッドパラメータが算出される (ステップ S20)。ここで、 第 1及び第 2の画像情報に対応して求められたスプレッドパラメータをそれぞれ σ 1、 σ 2とする。予め、これらのスプレッドパラメータ σ 1, σ 2のどちらか一方と、そのスプ レッドパラメータに対して合焦状況が取得できるはずのフォーカシングレンズ位置との 対応データベースが取得されている。従って、今得られたスプレッドパラメータをこの 対応データベースで参照すれば、合焦状態を得るべき図示しな 、フォーカシンダレ ンズ駆動用ァクチユエータの移動指令値が生成されるようになっている (ステップ S22
) ο
[0018] 図 5Α乃至図 5Dは、合焦ポイント P'と USP4, 965, 840に開示の合焦判定手法で 算出されるスプレッドパラメータ σ 1, σ 2を対応付けて説明する概念図である。なお 、参照番号は図 5Α乃至図 5Cに共通なものであるので、図面の簡略化のために、図 5Αにのみ付している。また、図 5Α乃至図 5Cと図 5Dの横軸方向の位置は同一で、 図 5Dの縦軸方向は算出されるスプレッドパラメータ値の概略を示している。
[0019] 等価合焦予定面 28に対する合焦状態は図 5Βで得られている力 この前後での σ 1, σ 2両方とも増カロから減少または減少から増加と変化している。これは、ボケを代 表する値として算出されるスプレッドパラメータが基本的には正の値であることに起因 している。しかしながら、このままでは、正しい σ 1, σ 2の値を求め、一意にデータべ ースからフォーカシングレンズ 14の移動指令値を対応させることができな!/、。そのた め、 USP4, 965, 840では、 σ 1, σ 2または第 1及び第 2の画像輝度情報のコントラ ストを比較することにより、スプレッドパラメータの真値を判別し、一意に σ 1, σ 2を決 定していた。
[0020] 従って、この USP4, 965, 840に開示されているような合焦判定手法手法におい ては、複数解として算出される現在のスプレッドパラメータの真値を判別するために、 余分に画像輝度情報力 コントラスト値を利用して演算する必要があり、これは合焦 判定の処理速度を低下させ、また、合焦判定用の演算素子のコストを増大させてい た。
[0021] そこで、本実施例では、図 1及び図 2に示したように、第 1及び第 2の輝度情報取得 用センサ 30, 32を、光路上で等価合焦予定面より非被写体側に配置している。
[0022] 図 6Α乃至図 6Cは、図 1の透過型ミラー 32での光路折り曲げを仮想的に取り除き、 一直線上に第 1の輝度情報取得用センサ 30及び第 2の輝度情報取得用センサ 32と 、等価合焦予定面 28を記載している図である。第 1の輝度情報取得用センサ 30及 び第 2の輝度情報取得用センサ 32に対応して求められたスプレッドパラメータをそれ ぞれ σ 1及び σ 2とする。図 6Α乃至図 6Dは、図 5Α乃至図 5Dと同様に、合焦ポイン ト P'と本手法で算出されるスプレッドパラメータ σ 1, σ 2を対応付けて説明する概念 図である。参照番号は、図 6Α乃至図 6Cに共通なものであるので、図面の簡略化の ために、図 6Αにのみ付している。また、図 6Α乃至図 6Cと図 6Dの横軸方向の位置 は同一で、図 6Dの縦軸方向は算出されるスプレッドパラメータ値の概略を示している
[0023] 等価合焦予定面 28に対する合焦状態は、図 6Βで得られている。図 6Α乃至図 6C の場合には、光線追跡上、被写体側から最も近い側に等価合焦予定面 28、輝度情 報取得用センサ 30、 32の順に並んでいる。図 5Dと図 6Dの異なる点は、図 6Dの矢 印を付した等価合焦予定面 28と第 1の輝度情報取得用センサ 30との間の領域であ り、この領域では、等価合焦予定面 28に対して合焦ポイント P'が後ピン力 合焦に 向かう限りは σ 1, σ 2両方とも単調減少となる。
[0024] 更にこの領域を詳細に説明する。合焦操作の過程では、フォーカシングレンズ 14 の調整駆動によって合焦ポイント P'が等価合焦予定面 28の前後をサーボ調整特性 として行きつ戻りつする。後ピン側から合焦ポイント P'が仮に等価合焦予定面 28を 通り過ぎたとしても、第 1の輝度情報取得用センサ 30の位置まではスプレッドパラメ一 タは単調減少特性なので、演算処理上真値判断のために処理切り替えなどすること 無く安定にフォーカシングレンズ 14の駆動制御をすることが可能になる。この単調減 少の傾向は、スプレッドパラメータ σ 1, σ 2とも有する性質なので、 目的、必要に応じ て、適宜スプレッドパラメータ σ 1, σ 2を選定して使用することが可能である。
[0025] 実際の撮像装置などにおいては、レンズ駆動用にステッピングモータを利用するこ とが多い。ステッピングモータは、ノ ックラッシュの影響や脱調によるモータステップ位 置のエラーなどの悪影響を取り除くため、モータの初期位置への復帰を必要に応じ て行う。仮にフォーカシングレンズ 14の初期位置復帰が図 6Αのように後ピン側であ るとすれば、その点からの合焦判定のためのスプレッドパラメータ算出は常に単調減 少傾向部分を利用して行えるため、システムシーケンスに適合し易 、。
[0026] 図 6A乃至図 6Dの系を実際にカメラに当てはめた一例が図 1である。
[0027] 図 7A乃至図 7Dも、図 6A乃至図 6Dと同様の図である。図 6A乃至図 6Dの場合に は後ピン側のスプレッドパラメータの単調減少性を述べた。逆に図 7A乃至図 7Dで 示すように光線追跡上被写体側から最も近!、側に輝度情報取得用センサ 30、 32、 等価合焦予定面 28の順に並んで 、る場合には、前ピン側でスプレッドパラメータの 単調増加性が利用可能となる。従って、上記同様に今度は、仮にフォーカシンダレン ズ 14の初期位置復帰が図 7Aのように前ピン側であるとすれば、その点からの合焦 判定のためのスプレッドパラメータ算出は常に単調増加傾向部分を利用して、合焦 のためのフォーカシングレンズ 14の駆動制御が行えるため、システムシーケンスに適 合し易くなる。
[0028] 図 7A乃至図 7Dの系を実際にカメラに当てはめた一例として、図 8を示す。
[0029] なお、上記透過型ミラー 32としては、透過率 50%のハーフミラーを用いるのが演算 処理上適当であるが、アルゴリズムや処理の都合によっては透過率が 33%、 66%な ど任意の透過率でも良 、。透過率に関しては制限を与えな 、。
[0030] また、本実施例では、合焦情報取得のために光路上に反射光学系のみを設けたが
、必要に応じて凹レンズ、凸レンズ、 NDフィルタなどの任意の光学素子を介在させて も構わない。
[0031] 輝度情報取得用センサ 30, 32は、例えば、 640 X 480画素程度のエリア型 CCD またはエリア読み出し可能な CMOSセンサや、複数のラインセンサがアイランド状に 配置された専用センサなど様々な形態が可能である。また、カラー、白黒、赤外波長 、紫外波長に特化されたものでも良い。センサの形式に関しては制限を与えない。ま た、白黒型センサの場合には、取得されたセンサ情報をそのまま輝度情報として用い る力 カラー型の場合には、例えば R, G, Bの各輝度情報のうち、 G成分のみを用い て輝度情報とするなどでも良いし、 R, G, Bを一定の比率で合成することによって輝 度情報を獲得しても構わな ヽ。
[0032] 配置スペースの制限のために、各等価合焦予定面 28— 1及び 28— 2に対してそれ ぞれ輝度情報取得用センサ 30, 32は各々の面に立てた法線方向が斜めになるよう に配置することも可能である力 均一な光線受光という観点で同一方向を向くように 配置することが望ましい。
[0033] また、フォーカシングレンズ 14で定義され、透過型ミラー 32を通過する光軸と透過 型ミラー 32との傾きの設定の仕方によっては、等価合焦予定面 28-1及び 28— 2の 傾きをセンサ配置スペースにあわせて調整することも可能である。等価合焦予定面 2 8—1及び 28— 2が直交するように設計した場合には、輝度情報取得用センサ 30, 32 の位置関係の既定が、製作容易かつ高い精度で、更に組み立てが容易に実現可能 である。
[0034] 以上のような、本第 1実施例に係る合焦情報取得用検出装置及び撮像装置によれ ば、スプレッドパラメータがフォーカシングレンズの常用駆動域で単調増加または単 調減少となり、真値の判定に余分な判断処理を加える必要がなくなり、演算コスト低 減、演算処理スピードも向上する。
[0035] また、上記等価合焦予定面が光路に沿って最も被写体側になるようにすることで、 マクロ撮影側でフォーカシングレンズ駆動用ァクチユエータのオフセットキャンセルを する、または、位置の基準出しをしているカメラに対して、そのゼロ点を基準力も単調 減少のスプレッドパラメータ曲線を設定可能としシステムシーケンスにマッチする。
[0036] 逆に、上記等価合焦予定面が光路に沿って最も非被写体側になるようにすることで 、無限遠撮影側でフォーカシングレンズ駆動用ァクチユエータのオフセットキャンセル をする、または、位置の基準出しをしているカメラに対して、そのゼロ点を基準から単 調減少のスプレッドパラメータ曲線を設定可能としシステムシーケンスにマッチする。
[0037] また、光路長が異なることで容易にボケの異なる複数の画像の輝度情報を取得で きる。
[0038] [第 1実施例の第 1の変形例]
上記第 1実施例では、第 2の輝度情報取得用センサ 32を 1個のみとしているが、そ の設置数は 2個以上でも構わな 、。
[0039] 即ち、図 9に示すように、サブミラー 24を経て透過型ミラー 32を透過した光の一部 が第 1の等価合焦予定面 28— 1を経て第 1の輝度情報取得用センサ 30に結像されて いる。また、光路上被写体側力も向力つて第 2の等価合焦予定面 28— 2から後方に 更に透過型ミラー 34を配置し、上記透過型ミラー 32での反射光のうち、該透過型ミラ 一 34での透過光を一方の第 2の輝度情報取得用センサ 32— 1で受光する。また、上 記一方の第 2の輝度情報取得用センサ 32— 1とは異なる光路長位置に他方の第 2の 輝度情報取得用センサ 32— 2を配置し、透過型ミラー 34での反射光をこの他方の第 2の輝度情報取得用センサ 32— 2で受光して 、る。
[0040] なお、図 9においては、輝度情報取得用センサ 30, 32— 1及び 32— 2は全て光路上 で等価合焦予定面 28-1, 28— 2より非被写体側に配置しているが、設計によっては 光路上で等価合焦予定面 28— 1, 28— 2に対して全て被写体側にレイアウトすること が可能である。
[0041] 3個以上の輝度情報取得用センサを配置するためには、同様の発想で透過型ミラ 一を複数設置すれば良い。
[0042] 上記のように、二つ以上の輝度情報を取得すれば、合焦判定上適切な二つずつの 輝度情報の組み合わせを抽出し、それぞれで得られたスプレッドパラメータを総合的 に判断し、最終的にフォーカシングレンズ 14の位置を決定することが可能になる。例 えば、輝度情報差が大きい時には小さい組み合わせ、小さい時には大きい組み合わ せを、取得された輝度情報力も選定できる。従って、従来良好にスプレッドパラメータ が算出できないような場合にも、ロバストな合焦判定ができるようになる。
[0043] このように、複数の輝度情報取得用センサを配置しても、全て透過合焦予定面より も光路に沿って被写体側、または非被写体側にしておくことによって、スプレッドパラ メータの単調減少、単調増加特性を持つことは言うまでも無!、。
[0044] [第 2実施例]
本発明の第 2実施例においても上記第 1実施例と同様、図 10に示すように、被写 体光の一部がサブミラー 24を経て等価合焦予定面 28上に設置された輝度情報取 得用センサ 30に導かれている。
[0045] そして、本実施例の場合には、異なるボケ状態を有する複数の画像輝度情報を取 得するために、フォーカシングレンズ 14を前後に移動して光路長を変化させるように している。この操作によって、光路に沿って等価合焦予定面 28が輝度情報取得用セ ンサ 30に対して、図 11A乃至図 11Cに示すように非被写体側に、及び、図 12A乃 至図 12Cに示すように被写体側に、前後する。従って、フォーカシングレンズ 14の前 後移動に合わせ、等価合焦予定面 28に対して常に前ピン側の複数位置で輝度情 報取得を行うか、逆に常に後ピン側の複数位置で輝度情報取得を行えば、上記第 1 実施例と同様にスプレッドパラメータの単調増カロ、または減少特性を利用できるように なる。
[0046] 本構成によると、合焦情報取得用に専用開発されたセンサを 1つ設置することで合 焦情報を取得できるので、低コストに済むほ力省スペースにも役立つ。
[0047] [第 3実施例]
第 1の輝度取得用センサとして撮像センサ 16を用いても、上記第 2実施例と同様に 単調増加または減少特性を有するスプレッドパラメータを利用することが可能である。
[0048] この場合、図 13に示すように、本構成で用いるサブミラー 24'は、光透過性のミラー を用いる。このサブミラー 24'で反射された光線は、光路上の等価合焦予定面 28に 対して被写体側に設置された第 2の輝度情報取得用センサ 32に導かれる。また、サ ブミラー 24'を透過した光線は、第 1の輝度情報取得用センサ兼用の撮像センサ 16 に導かれている。
[0049] これにより、第 2の輝度情報取得用センサ 32と撮像センサ 16で同時刻にボケ状態 の異なる輝度情報を取得できるとともに、輝度情報取得用センサ 1個をカメラに追カロ することによって合焦情報を取得することが可能になる。
[0050] 図 13では、等価合焦予定面 28に対して第 2の輝度情報取得用センサ 32が被写体 側に配置されて 、る。例えばフォーカシングレンズ 14を許容範囲光軸に沿って前後 させ、結果的に第 2の輝度情報取得用センサ 32でも撮像センサ 16でも、等価合焦 予定面 28に対して被写体側の輝度情報を取得するようにする。第 2の輝度情報取得 用センサ 32の配置を等価合焦予定面 28に対して非被写体側に配置した場合には、 その逆に撮像センサ 16でも等価合焦予定面に対して非被写体側の輝度情報を取得 するよう〖こする。
[0051] なお、本実施例においては、撮像センサ 16で輝度情報を取得中には、図示せぬシ ャッタは最低限撮像領域分開放しておく必要がある。
[0052] また、第 2の輝度情報取得用センサ 32は、光路に沿って等価合焦予定面 28に対し て非被写体側に設置しても構わな 、。
[0053] このような第 3実施例に係る合焦情報取得用検出装置によれば、撮像装置の撮像 素子を利用するため、別途に合焦判定用画像取得センサを設ける必要が無い。省ス ペース、低コストが実現可能となる。また、まさに撮像する位置での合焦判定なので 精度が高 、合焦状態が得られる。
[0054] [第 4実施例]
本発明の第 4実施例に係る合焦情報取得用検出装置は、図 14に示すように、合焦 センサ用光学系 36と合焦センサ 38を備えている。そして、通常は、それらを用いて 従来の位相差検知方式の合焦判定を行って!/ヽる。
[0055] なお、従来の位相差検知方式の合焦判定については、上述した特公平 3— 52607 号公報に開示されている。即ち、図 15に示すように、被写体から出た光線は、フォー カシングレンズ 14を経て等価合焦予定面 28と、コンデンサレンズ 36A、視差を持つ て配置された瞳分割用レンズ 36B, 36C、図示せぬ視野マスクなど力も構成される合 焦センサ用光学系 36とを経て、最終的に、複数のライン CCD等力も構成される合焦 センサ 38に結像される。この位相差検出方式においては、瞳分割用レンズ 36B, 36 Cを経て合焦センサ 38で得られる被写体像信号の合焦時の位相差情報の予定値と 、実際に取得された位相差情報との差から、撮像センサ 16で撮像される画像を合焦 状態に至らしめるまでのフォーカシングレンズ 14の移動指令値を演算している。
[0056] そして、本変形例にお!、ては、スプレッドパラメータ取得による合焦判定が必要なと きには、モードの切り替えによって、上記第 3実施例のような合焦情報の取得を行う。 即ち、クイックリターンミラー 18を跳ね上げ、フォーカシングレンズ 14の位置を光軸と 平行に前後に移動することによって撮像センサ 16で異なるボケ状態の輝度情報を取 得する。これによつて、合焦予定面である撮像センサ 16の初期位置が撮像センサ 16 に対して光路に沿って被写体側及び非被写体側に前後に移動することになる。
[0057] フォーカシングレンズ 14を前後させ、撮像センサ 16で単調増加または減少のスプ レッドパラメータを取得する方法は、上記第 3実施例と同様である。
[0058] 本構成によって、従来の位相差方式デジタル一眼レフカメラの基本構成に変更を 加えることなぐ低コストにスプレッドパラメータ算出を利用した合焦判定を付与でき、 システム全体の合焦性能を向上させることが可能になる。
[0059] [第 4実施例の第 1の変形例]
また、第 4実施例の第 1の変形例として、図 16に示すように、クイックリターンミラー 1 8の代わりに、固定された光透過性の固定ミラー 18'を用いても良い。
[0060] このように固定ミラー 18'を用いれば、撮像時にミラーを跳ね上げる機構が不要に なり、小型なカメラが製作可能となる。
[0061] フォーカシングレンズ 14を前後させ、撮像センサ 16で単調増加または減少のスプ レッドパラメータを取得する方法は、上記第 3実施例と同様である。
[0062] [第 5実施例]
手ブレ防止機能のために撮像センサ 16自体を撮像面と平行に移動することが実用 ィ匕されている。本発明の第 5実施例は、図 17に示すように、この手ブレ防止機能のァ クチユエータ 40を利用して、撮像センサ 16の光軸と平行な方向に移動させる自由度 を持たせることを特徴とする。これにより、フォーカシングレンズ 14を移動させること無 ぐ手ブレ防止機能用ァクチユエータ 40及びドライブ回路のわず力な改変で、ボケ状 態の異なる複数の画像が撮像可能になる。
[0063] なお、そのようなァクチユエータ 40の一例としては、例えば、特開 2001— 9796号公 報及び特開 2001— 9797号公報に開示されているような静電駆動型のァクチユエ一 タを利用することができる。即ち、面上にそのような静電駆動型ァクチユエータを多数 配置し、撮像センサ 16を支持すれば、撮像センサ 16の初期位置面から面内にほぼ 水平に面内運動させると共に、面に対して垂直な方向に前後させることも可能となる
[0064] これによつて、撮像センサ 16の初期位置たる等価合焦予定面かつ合焦予定面に 対して、撮像センサ 16を、図 18A乃至図 18Cに示すように被写体側に、及び、図 19 A乃至図 19Cに示すように非被写体側に、移動させることが可能になる。
[0065] 等価合焦予定面に対して光軸に沿って撮像センサ 16を移動することで、被写体側 のみの複数輝度情報を取得するか、非被写体側のみの複数輝度情報を取得するか で、単調増加または単調減少のスプレッドパラメータが取得できるのは言うまでも無 い。 [0066] 本実施例に係る合焦情報取得用検出装置によれば、複数のセンサを配置すること なくボケ状態の異なる複数の輝度情報が取得でき、装置の低価格、小型化を実現可 會 になる。
[0067] なお、本実施例では、撮像センサ 16を移動することによりボケ状態の異なる輝度情 報を取得している力 同様の考え方で、図 10の第 1の輝度情報取得用センサ 30にァ クチユエータを付与することにより、光路に沿って前後に移動することで同様の機能 を実現することも可能である。このように、移動するセンサは制限しない。
[0068] 以上実施例に基づいて本発明を説明したが、本発明は上述した実施例に限定され るものではなぐ本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論で ある。
[0069] 例えば、本発明は、上記実施例で説明したようなデジタル一眼レフカメラへの応用 に制限されるものではなぐ非デジタルカメラ、交換レンズやクイックリターンミラー等 を有しないコンパクトデジタルカメラ、顕微鏡、内視鏡、望遠鏡など、あらゆるタイプの 撮像装置の合焦情報取得用検出装置に転用可能である。

Claims

請求の範囲
[1] 対象物からの光を所定の位置にある合焦予定面に結像する光学系の少なくとも一 部を通過した光を、上記合焦予定面と光学的に等価である等価合焦予定面(28, 2 8-1, 28— 2)に結像させるように導光するための導光手段(18, 18' , 24, 24' , 26 , 34)と、
上記導光手段で導光した光が形成するボケの異なる複数の画像のうち、少なくとも 二つの画像における互いに対応する領域の輝度情報を取得するための輝度情報取 得手段と、
を具備し、
上記対象物を基点として上記光学系に定義される同一光軸上に光学的に等価に なるように、輝度情報取得位置と等価合焦予定面位置とを光路長順に並べた場合に
、上記等価合焦予定面が全ての輝度情報取得位置のどちらか一方の端であることを 特徴とする合焦情報取得用検出装置。
[2] 上記等価合焦予定面が光路に沿って最も被写体側であることを特徴とする請求項
1に記載の合焦情報取得用検出装置。
[3] 上記等価合焦予定面が光路に沿って最も非被写体側であることを特徴とする請求 項 1に記載の合焦情報取得用検出装置。
[4] 上記輝度情報取得手段は、輝度情報取得用のセンサ(16, 30, 32, 32-1, 32— 2
)によって輝度情報を取得することを特徴とする請求項 1乃至 3の何れかに記載の合 焦情報取得用検出装置。
[5] 上記センサの一つは、当該合焦情報取得用検出装置を用いた撮像装置における 撮像素子(16)と兼用されることを特徴とする請求項 4に記載の合焦情報取得用検出 装置。
[6] 上記センサの位置を変位駆動するァクチユエータ (40)を更に具備し、
上記ァクチユエータによって、上記センサの少なくとも一つを、上記輝度情報取得 位置に移動することを特徴とする請求項 4または 5に記載の合焦情報取得用検出装 置。
[7] 上記輝度情報取得位置はそれぞれ上記合焦予定面からの光路長が異なることを 特徴とする請求項 1乃至 6の何れかに記載の合焦情報取得用検出装置。 対象物からの光を上記合焦予定面に結像するための光学系(14)と、 請求項 1乃至 7の何れかに記載の合焦情報取得用検出装置と、 上記合焦予定面に配された撮像素子(16)と、
を具備することを特徴とする撮像装置。
PCT/JP2005/004999 2004-03-30 2005-03-18 合焦情報取得用検出装置及びそれを用いた撮像装置 WO2005098500A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-100437 2004-03-30
JP2004100437A JP2005284135A (ja) 2004-03-30 2004-03-30 合焦情報取得用検出装置及びそれを用いた撮像装置

Publications (1)

Publication Number Publication Date
WO2005098500A1 true WO2005098500A1 (ja) 2005-10-20

Family

ID=35125220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/004999 WO2005098500A1 (ja) 2004-03-30 2005-03-18 合焦情報取得用検出装置及びそれを用いた撮像装置

Country Status (2)

Country Link
JP (1) JP2005284135A (ja)
WO (1) WO2005098500A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5025302B2 (ja) * 2007-03-29 2012-09-12 富士フイルム株式会社 撮像装置
KR101415872B1 (ko) * 2007-09-14 2014-07-11 삼성전기주식회사 영상 획득 장치의 자동초점조절 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10122813A (ja) * 1996-10-23 1998-05-15 Ricoh Co Ltd 光学式変位センサ
JP2002296493A (ja) * 2001-03-30 2002-10-09 Fuji Photo Optical Co Ltd ピント状態検出装置
JP2003174413A (ja) * 2001-12-05 2003-06-20 Mitsubishi Electric Corp レベル調整波長多重光伝送装置
JP2003279846A (ja) * 2002-03-25 2003-10-02 Fuji Photo Optical Co Ltd 撮影レンズのピント状態検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10122813A (ja) * 1996-10-23 1998-05-15 Ricoh Co Ltd 光学式変位センサ
JP2002296493A (ja) * 2001-03-30 2002-10-09 Fuji Photo Optical Co Ltd ピント状態検出装置
JP2003174413A (ja) * 2001-12-05 2003-06-20 Mitsubishi Electric Corp レベル調整波長多重光伝送装置
JP2003279846A (ja) * 2002-03-25 2003-10-02 Fuji Photo Optical Co Ltd 撮影レンズのピント状態検出装置

Also Published As

Publication number Publication date
JP2005284135A (ja) 2005-10-13

Similar Documents

Publication Publication Date Title
JP5168798B2 (ja) 焦点調節装置および撮像装置
JP5169499B2 (ja) 撮像素子および撮像装置
KR101395015B1 (ko) 카메라, 초점 검출방법, 및 제어방법
JP4972960B2 (ja) 焦点調節装置および撮像装置
JP5168797B2 (ja) 撮像装置
US7792420B2 (en) Focus adjustment device, imaging device and focus adjustment method
US7767946B2 (en) Focus detection device and image pick-up device
JP2007248782A (ja) 焦点調節装置およびカメラ
CN102713713B (zh) 焦点调节设备和焦点调节方法
US20080095523A1 (en) Lens array assisted focus detection
US20110008031A1 (en) Focus adjustment device, imaging device and focus adjustment method
WO2010041721A1 (en) Image capturing apparatus and method and program for controlling same
US7162151B2 (en) Camera
JP5206292B2 (ja) 撮像装置および画像記録方法
JP5157073B2 (ja) 焦点調節装置および撮像装置
JP6271911B2 (ja) 撮像装置及びその制御方法、デフォーカス量算出方法
WO2005098500A1 (ja) 合焦情報取得用検出装置及びそれを用いた撮像装置
JP2006215398A (ja) 撮像装置
JP2017219791A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
WO2005098502A1 (ja) 合焦情報取得用検出装置及びそれを用いた撮像装置
JP4536893B2 (ja) カメラ
JP4887570B2 (ja) 交換式撮影レンズ
WO2005098503A1 (ja) 合焦情報取得用検出装置及びそれを用いた撮像装置
JP3674975B2 (ja) 焦点検出装置
KR100573578B1 (ko) 이안 반사식 카메라의 초점 확인 장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase