WO2013047241A1 - レンズシステム及びカメラシステム - Google Patents

レンズシステム及びカメラシステム Download PDF

Info

Publication number
WO2013047241A1
WO2013047241A1 PCT/JP2012/073658 JP2012073658W WO2013047241A1 WO 2013047241 A1 WO2013047241 A1 WO 2013047241A1 JP 2012073658 W JP2012073658 W JP 2012073658W WO 2013047241 A1 WO2013047241 A1 WO 2013047241A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens group
image
correction lens
unit
camera
Prior art date
Application number
PCT/JP2012/073658
Other languages
English (en)
French (fr)
Inventor
佐々木 正
三沢 充史
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP12835712.6A priority Critical patent/EP2762939B1/en
Priority to JP2013536173A priority patent/JP5919288B2/ja
Publication of WO2013047241A1 publication Critical patent/WO2013047241A1/ja
Priority to US14/229,382 priority patent/US9176296B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/023Mountings, adjusting means, or light-tight connections, for optical elements for lenses permitting adjustment
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B5/06Swinging lens about normal to the optical axis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • G02B7/102Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • G03B2205/0015Movement of one or more optical elements for control of motion blur by displacing one or more optical elements normal to the optical axis
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • G03B2205/0023Movement of one or more optical elements for control of motion blur by tilting or inclining one or more optical elements with respect to the optical axis
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming

Definitions

  • the present invention relates to a lens system and a camera system.
  • a high-resolution camera such as 4k (horizontal 4096 ⁇ vertical 2160 pixels) or 8k (horizontal 8192 ⁇ vertical 4320 pixels) is used.
  • ⁇ High-resolution cameras are required to have few assembly errors in each lens group in order to cope with high image quality.
  • the lens group is adjusted so that an error of each lens group is adjusted after assembly to prevent image deterioration due to variations in each lens group and between each lens group.
  • eccentricity which is one of assembly errors in each lens group, may occur. This is because the influence of the aberration on the decentering of each lens group changes depending on the conditions of the optical system.
  • Patent Document 1 As an imaging apparatus that adjusts the image quality by driving the eccentric lens group to be decentered with respect to the optical axis of the movable lens group based on the condition of the movable lens group at the time of imaging, there is one disclosed in Patent Document 1. .
  • a screen corresponding to a camera with a resolution of 2k (horizontal 2048 ⁇ vertical 1080 pixels), for example, is partially displayed on a screen that displays an image acquired by imaging.
  • Application to trimming, electronic zooming, etc. is being studied.
  • the center of the captured image has high optical performance, and the optical performance tends to be lower at the periphery of the image than the center. For this reason, when an image of a predetermined area is used for the purpose of trimming, electronic zoom, or the like in an image acquired by imaging, the optical performance of the area may be lower than the optical performance of other areas of the image.
  • Patent Document 1 does not describe how to use a part of the entire screen and how to improve the optical performance of the area.
  • the present invention has been made in view of the above circumstances, and a lens capable of adjusting the image quality of an image of a part of the entire screen based on the conditions of an optical system such as a movable lens group at the time of shooting.
  • an optical system such as a movable lens group at the time of shooting.
  • a lens system for a camera including a movable lens group, and a correction lens group that corrects the optical performance of each part of the image by changing the position with respect to the optical axis, and the correction lens A driving unit for driving the group, a lens position acquisition unit for acquiring the lens position of the movable lens group, a designation unit for designating a partial image of a part of the image, the movable lens group, and the correction lens A storage unit storing a data table in which the position information of each group and the optical performance of each part of the image are associated; and the data table according to the lens position of the movable lens group acquired by the lens position acquisition unit The position of the correction lens group that enhances the optical performance of the partial image designated by the designation unit is obtained based on and the correction lens group is moved to the obtained position.
  • a control unit that controls the drive unit.
  • a camera system including a lens device and a camera body, wherein the lens device corrects the optical performance of each part of the image by changing the position with respect to the movable lens group and the optical axis.
  • An imaging optical system, a drive unit that drives the correction lens group, and a lens position acquisition unit that acquires a lens position of the movable lens group, and the camera body is connected by the imaging optical system.
  • An image pickup device that picks up the imaged image, a designation unit that specifies a partial image of a part of the image picked up by the image pickup device, and a position of each of the movable lens group and the correction lens group
  • the lens position of the movable lens group acquired by the storage unit storing the data table in which the information and the optical performance of each part of the image are associated with each other, and acquired by the lens position acquisition unit
  • the position of the correction lens group that enhances the optical performance of the partial image designated by the designation unit is obtained, and the drive unit is moved to move the correction lens group to the obtained position.
  • a control unit that controls the camera system.
  • the present invention it is possible to provide a lens system and a camera system that can adjust the image quality of an image in a part of the entire screen based on the conditions of an optical system such as a movable lens group during shooting.
  • 2 is a flowchart illustrating a procedure for adjusting image quality using a correction lens group in the camera system of FIG. 1.
  • 7 is a flowchart illustrating a procedure for adjusting image quality using a correction lens group in the camera system of FIG. 6.
  • FIG. 10 is a flowchart illustrating a procedure for adjusting image quality using a correction lens group in the camera system of FIG. 9. It is a block diagram which shows the structure of a camera system provided with a lens apparatus. It is a figure which shows typically the optical system of the camera system of FIG. It is a figure explaining the method of focus adjustment with the camera system of FIG. It is a flowchart which shows the procedure which performs eccentricity adjustment in the lens apparatus of FIG. It is a figure which shows the image acquired with CCD of the lens apparatus, and the contrast for every area of an image.
  • FIG. 13 is a diagram illustrating a method for setting a tilt angle of a tilt correction lens group based on a chart image in the lens device of FIG. 12. It is a block diagram which shows the other structural example of a camera system provided with a lens apparatus. It is a figure which shows typically the optical system of the camera system of FIG. It is a flowchart which shows the procedure which aligns in the lens apparatus of FIG.
  • FIG. 19 is a diagram illustrating a method for setting the tilt angle of the tilt correction lens group based on the chart image in the lens device of FIG. 18. It is a block diagram which shows the main structures of the other example of the camera system for describing embodiment of this invention. It is a figure which shows typically the optical system of the camera system of FIG.
  • FIG. 23 is a flowchart illustrating a procedure for driving the second correction lens group of the lens apparatus of FIG. 22 to correct the displacement of the image center.
  • 24 is a flowchart illustrating another example of a procedure for correcting the displacement of the image center by driving the second correction lens group of the lens device of FIG. 22.
  • It is a block diagram which shows the main structures of the other example of the camera system for describing embodiment of this invention. It is a figure which shows typically the optical system of the camera system of FIG. It is a figure which shows typically the structure of an example of the holding
  • FIG. 1 is a block diagram showing the main configuration of the camera system.
  • FIG. 2 is a diagram schematically illustrating an optical system of a lens device used in the camera system.
  • the camera system 1 includes a lens device 10 and a camera body 40.
  • the lens device 10 is, for example, a lens device such as an EFP lens or an ENG lens used for broadcasting.
  • the lens device 10 includes a photographing lens (optical system) mounted on the camera body 40 by a mount, and a control system that controls the optical system.
  • the optical system of the lens apparatus 10 is an imaging optical system that connects an image of a subject to the imaging surface of the imaging element 42 of the camera body 40.
  • a focus lens group FL, a zoom lens group ZL, a stop I, an eccentricity correction lens group 12, a tilt correction lens group 14, and a master lens group ML are provided in this order from the subject side. Yes.
  • the focus lens group FL changes the subject distance by moving in the optical axis direction.
  • the zoom lens group ZL changes the focal length by moving in the optical axis direction.
  • Aperture I changes its aperture value when it is driven to open and close and the aperture opening changes.
  • lens groups that can move the position of each lens group based on the photographing conditions are collectively referred to as a movable lens group.
  • the decentration correction lens group 12 moves to a plane perpendicular to the optical axis direction (a plane parallel to the XY plane in FIG. 2).
  • the tilt correction lens group 14 moves in parallel to the optical axis direction (Z direction in FIG. 2).
  • the eccentricity correction lens group 12 is driven and controlled in order to adjust the center position of the image formed on the imaging surface of the imaging element 42.
  • the tilt correction lens group 14 is driven and controlled to improve the optical performance such as resolution with respect to the entire image formed on the imaging surface.
  • the decentering correction lens group 12 and the tilt correction lens group 14 are collectively referred to as a correction lens group.
  • the control system of the lens apparatus 10 is CPU 20, EEPROM 28, amplifier FA, ZA, IA, HA, VA, 14A, motor FM, ZM, IM, HM, VM, 14M, potentiometer FP, ZP, IP, HP, VP, 14P. Is provided.
  • the lens operation unit 50, the camera body 40, the camera control unit (CCU) 60, the cut-out operation unit 70, and the monitor 80 connected to the lens apparatus 10 as external devices also constitute a control system as a whole lens system.
  • the camera body 40 comprehensively controls an imaging element 42 on which an image is formed by the optical system of the lens apparatus 10 and a processing unit inside the camera body 40 such as driving of the imaging element 42 and communication with the lens apparatus 10.
  • the camera CPU 44 is provided.
  • the image sensor 42 is a CCD.
  • the CPU 20 of the lens apparatus 10 is a control unit that performs overall lens control of the focus lens group FL, the zoom lens group ZL, and the like.
  • the EEPROM 28 is a storage unit that stores various data related to the operation of the lens device 10.
  • CPU 20 outputs a drive signal to each amplifier FA, ZA, IA via D / A converter 22.
  • the motors FM, ZM, IM connected to the amplifiers FA, ZA, IA are driven at a rotational speed corresponding to the value (voltage) of the drive signal.
  • the motors FM, ZM, and IM are connected to the focus lens group FL, the zoom lens group ZL, and the aperture I of the photographing lens.
  • Each of the motors FM, ZM, and IM is a drive unit that drives the focus lens group FL, the zoom lens group ZL, and the diaphragm I by driving the motor.
  • Potentiometers FP, ZP, and IP are connected to the focus lens group FL, the zoom lens group ZL, and the stop I as position sensors for detecting their positions.
  • the potentiometers FP, ZP, and IP may be provided so as to be linked to the focus lens group FL, the zoom lens group ZL, and the diaphragm I on the output shafts of the motors FM, ZM, and IM.
  • Each potentiometer FP, ZP is installed as a lens position acquisition unit, and from the potentiometer FP, a voltage signal having a value corresponding to the position of the focus lens group FL (a value indicating an absolute position) is output from the potentiometer ZP.
  • a voltage signal having a value corresponding to the position of the zoom lens group ZL (a value indicating an absolute position) is output and supplied to the CPU 20 via the A / D converter 24.
  • the potentiometer IP outputs a voltage signal having a value corresponding to the diaphragm position of the diaphragm I (a value indicating an absolute position), and the output voltage signal is given to the CPU 20 via the A / D converter 24.
  • the CPU 20 refers to the lens positions of the focus lens group FL and zoom lens group ZL detected by the potentiometers FP and ZP, and changes the values of the drive signals output to the amplifiers FA and ZA, thereby changing the focus lens group FL and zoom lens.
  • the position or operation speed of the lens group ZL is controlled to a desired state.
  • the lens operation unit 50 is a controller including a manual operation member for manually specifying a target position and moving speed of the focus (focus lens group FL) and zoom (zoom lens group ZL) of the photographing lens.
  • the lens operation unit 50 includes a focus demand and a zoom demand (not shown), and is connected to the CPU 20 via the A / D converter 24.
  • a manual operation member is provided for each of the focus demand and the zoom demand.
  • a focus command signal for designating a focus target position corresponding to the position of the operation member is given to the CPU 20.
  • the CPU 20 controls the motor FM with a drive signal output to the amplifier FA so that the position of the focus lens group FL detected by the potentiometer FP becomes a target position specified by the focus command signal. Control the position.
  • the position control of the focus lens group FL is performed according to the target position given from the focus demand, but the target moving speed is given from the focus demand, and the speed control of the focus lens group FL is performed accordingly. Is also possible.
  • a zoom command signal for designating a zoom target moving speed corresponding to the position of the operation member is given to the CPU 20.
  • the CPU 20 controls the motor ZM with the drive signal output to the amplifier ZA so that the moving speed of the zoom lens group ZL is equal to the target moving speed specified by the zoom command signal.
  • information on the position of the zoom lens group ZL obtained from the potentiometer ZP is used for deceleration control near the end.
  • the speed control of the zoom lens group ZL is performed according to the target moving speed given from the zoom demand, but the target position is given from the zoom demand, and the position control of the zoom lens group ZL can be performed accordingly. It is.
  • the CPU 20 performs communication control with an external device.
  • the CPU 20 can perform serial communication with the camera CPU 44 of the camera body 40 through the serial communication interfaces (SCI) 26 and 46, or can perform parallel communication with the camera body 40.
  • the CPU 20 of the lens device 10 transmits lens information such as a zoom position and a focus position detected by the potentiometers FP and ZP to the camera CPU 44 of the camera body 40, for example.
  • the camera CPU 44 gives an iris command signal or the like for designating the target position of the diaphragm to the CPU 20.
  • the CPU 20 controls the motor IM by a drive signal output to the amplifier IA so that the aperture position (opening / closing degree) of the aperture I detected by the potentiometer IP becomes a target position specified by the iris command signal given by the camera CPU 44. To control the aperture position of the aperture I.
  • the CCU 60 is connected to the camera body 40.
  • the CCU 60 has a function of inputting an image signal acquired by the CCD 42 of the camera body 40 and adjusting the image quality of the image signal by various functions.
  • the monitor 80 receives an image signal from the camera body 40 through the CCU 60, and displays an image created based on the image signal on the screen of the monitor.
  • the cutout operation unit 70 includes a manual operation unit such as a joystick. By operating this manual operation unit, the position of a cutout screen formed by cutting out a partial area of an image displayed on the screen of the monitor 80 can be set. Changes can be made.
  • a data table in which the positional information of the movable lens group and the correction lens group and the optical performance are associated in advance is stored in the EEPROM 28.
  • the CPU 20 of the lens apparatus 10 reads this data table from the EEPROM 28, and controls the correction lens group based on this data table so as to improve the optical performance of the cut-out image.
  • the CPU 20 outputs drive signals to the amplifiers HA, VA, and 14A via the D / A converter 22 when controlling the correction lens group.
  • the motors HM, VM, 14M connected to the amplifiers HA, VA, 14A are driven at a rotational speed corresponding to the value (voltage) of the drive signal.
  • the motors HM and VM are connected to the decentration correction lens group 12.
  • the motor HM drives the decentration correction lens group 12 in the X direction on a plane perpendicular to the optical axis
  • the motor VM drives the decentration correction lens group 12 in the Y direction on a plane perpendicular to the optical axis.
  • the motor 14M is connected to the tilt correction lens group 14, and drives the tilt correction lens group 14 in parallel (Z direction) to the optical axis.
  • Each potentiometer HP, VP, 14P is installed as a position acquisition unit of the correction lens group. From the potentiometer HP, a voltage signal having a value corresponding to the position of the decentering correction lens group 12 in the X direction (a value indicating an absolute position) is output. The potentiometer VP outputs a voltage signal having a value corresponding to the position of the decentering correction lens group 12 in the Y direction (value indicating an absolute position). From the potentiometer 14P, a voltage signal having a value (a value indicating an absolute position) corresponding to the position of the tilt correction lens group 14 in the optical axis direction (Z direction) is output. Voltage signals output from the potentiometers HP, VP, 14P are given to the CPU 20 via the A / D converter 24.
  • the CPU 20 refers to each of the amplifiers HA, VA while referring to the lens position of the decentering correction lens group 12, the tilt correction lens group 14, the lens position of the movable lens group, and the data table detected by the potentiometers HP, VP, 14P.
  • the positions of the eccentricity correction lens group 12 and the tilt correction lens group 14 are controlled by changing the value of the drive signal output to 14A.
  • FIG. 3 shows the data structure of the data table.
  • the table shown in FIG. 3A associates the positions of the movable lens group and the stop, the position of the decentering correction lens group 12, and the resolution of each part of the image at that time.
  • the table shown in FIG. 3B associates the positions of the movable lens group and the stop, the position of the tilt correction lens group 14, and the resolution of each part of the image at that time.
  • the parameter indicating the position information of the focus lens group FL (“a01”, “a02”, “a03”%) Is given a value indicating the absolute position of the focus lens group FL.
  • a parameter indicating the position information of the zoom lens group ZL (“b01”, “b02”, “b03”%) Is given a value indicating the absolute position of the zoom lens group ZL.
  • a parameter indicating the diaphragm position of the diaphragm (“c01”, “c02”, “c03”) Is given a value indicating the diaphragm position of the diaphragm I. For example, numerical values such as “0”, “ ⁇ 1”, and “+1” are given to the above-described parameters.
  • Indicating the position information of the decentration correction lens group 12 indicate the position of the decentering correction lens group 12 on a plane perpendicular to the optical axis. A value is given. These values are coordinates indicating the X-direction position and the Y-direction position of the decentering correction lens group 12.
  • a parameter indicating the position information of the tilt correction lens group 14 (“e01”, “e02”, “e03”%) Is given a value indicating the position of the tilt correction lens group 14 in the optical axis direction. These values are numerical values such as “ ⁇ 1” and “+1” indicating the position in the Z direction, where the reference position in the optical axis direction is “0”.
  • the resolution is a value indicating the resolution of each part of the image captured based on the parameters of the corresponding movable lens group and correction lens group. The higher the resolution value, the higher the optical performance, and the lower the resolution value, the lower the optical performance.
  • the resolution is used as an index indicating the optical performance.
  • MTF Modulation Transfer Function
  • the above-described data table associates the table that associates the position of the movable lens group and the diaphragm with the position of the decentering correction lens group 12, and associates the position of the movable lens group and the diaphragm and the position of the tilt correction lens group 14.
  • a data structure with separate tables is not limited to this, and is a data structure in which the positions of the movable lens group and the stop are associated with the respective positions of the decentering correction lens group 12 and the tilt correction lens group 14 to form one table. May be.
  • FIG. 4 is a diagram showing an entire image and a cutout image.
  • the image quality of the cut-out image becomes lower than the image quality of the entire image.
  • image processing such as the above-described trimming and electronic zoom, it is important to improve the image quality of the cut image than the image quality of the entire image.
  • the camera system 1 controls the decentering correction lens group 12 so as to enhance the optical performance of the center C of the cut-out image and controls the tilt correction lens group 14 during shooting.
  • control is performed so as to improve the optical performance of the entire cut-out image.
  • the direction in which the decentering correction lens group 12 and the tilt correction lens group 14 are driven is uniquely determined by the configuration of each lens including the movable lens group of the focus lens group FL and the zoom lens group ZL.
  • the driving directions and driving amounts of the decentering correction lens group 12 and the tilt correction lens group 14 were obtained by actual measurement in accordance with the configuration of the lens of the optical system actually mounted. It is only necessary to create data in which values are associated with the positions of the movable lens group and the aperture and the optical performance (here, resolution) of each part of the image at that time.
  • FIG. 5 is a flowchart showing a procedure for adjusting the image quality of the cut-out image by the correction lens group in the camera system of FIG. In the following description, the configuration of the camera system 1 in FIG.
  • the movable lens group, the diaphragm, and the correction lens group are set to predetermined initial positions.
  • step S10 Execute focus operation and zoom operation.
  • operations other than driving the correction lens group are appropriately executed.
  • step S12 it is detected from the entire image acquired by the camera body 40 whether or not an operation for cutting out an image has been performed.
  • the presence / absence of the cutting operation is determined by the camera CPU 44 of the camera body 40 based on an input signal from the cutting operation unit 70.
  • a flow for adjusting the image quality of the cropped image by controlling the correction lens group is executed as shown in the steps described later. If the clipping operation is not detected, the flow of adjusting the image quality of the clipped image by controlling the correction lens group is not executed, and the state of the lens device 10 in step S10 is maintained.
  • the CPU 20 reads the diagonal coordinates of the cut-out image from the camera body 40 (step S14). Subsequently, the CPU 20 calculates the center coordinates of the cut-out image based on the diagonal coordinates (step S16). In this way, the CPU 20 can specify the position of the cut image in the entire image.
  • the CPU 20 detects the current position of the zoom lens group ZL by reading the output value of the potentiometer ZP (step S18), and detects the current position of the focus lens group FL by reading the output value of the potentiometer FP. Then, the current aperture position of the aperture I is detected by reading the output value of the potentiometer IP (step S22).
  • the order in which steps S18, S20, and S22 are executed is not limited to this order, and may be changed as appropriate, or may be executed simultaneously.
  • the CPU 20 refers to a data table stored in advance in the storage unit 28, and based on the positions of the focus lens group FL, the zoom lens group ZL, and the diaphragm I, the optical performance (here, resolution) of the cut-out image.
  • the position of the decentration correction lens group 12 that maximizes is obtained (step S24).
  • the CPU 20 drives and controls the decentration correction lens group 12 according to the obtained position of the decentration correction lens group 12 (step S26).
  • the CPU 20 refers to a data table stored in advance in the storage unit 28, and based on the positions of the focus lens group FL, zoom lens group ZL, and aperture I, the optical performance (here, resolution) of the entire cut-out image is determined.
  • the position of the maximum tilt correction lens group 14 is obtained (step S28).
  • the CPU 20 drives and controls the tilt correction lens group 14 in accordance with the obtained position of the tilt correction lens group 14 (step S30).
  • the camera system 1 can improve the image quality of the cut-out image by driving and controlling the decentration correction lens group 12 and the tilt correction lens group 14 of the lens device 10.
  • This camera system can adjust the image quality of the image in the face frame by driving and controlling the correction lens group described above when the face frame is set for the subject person image by face recognition in the entire image.
  • the camera system 1 in FIG. 6 is basically the same as that shown in FIG. Hereinafter, differences from the configuration of FIG. 1 will be described.
  • the AF unit 29 is provided in the lens device 10.
  • the AF unit 29 is connected to the CPU 20 by the SCI 26.
  • the camera system 1 includes a face detection unit 52.
  • the face detection unit 52 is controlled by the camera CPU 44. Note that the camera system 1 does not include a cutting operation unit.
  • the AF unit 29 includes an AF processing unit, an AF imaging circuit, and the like.
  • the AF imaging circuit is disposed in the lens device 10 to acquire an AF processing video signal, and an output signal from an imaging device such as a CCD (referred to as an AF imaging device) or an AF imaging device is output in a predetermined format.
  • a processing circuit for outputting as a signal is provided.
  • the video signal output from the AF imaging circuit is a luminance signal.
  • the subject light branched from the subject light incident on the image sensor of the camera body 40 is imaged on the imaging surface of the AF image sensor by a half mirror or the like disposed on the optical path of the optical system.
  • the shooting range and subject distance (distance of the subject in focus) with respect to the imaging area of the AF imaging element are configured to match the shooting range and subject distance with respect to the imaging area of the imaging element of the camera body 40, and are used for AF.
  • the subject image captured by the image sensor matches the subject image captured by the image sensor of the camera body 40. Note that the shooting ranges of the two do not need to be completely coincident.
  • the shooting range of the AF imaging element may be a larger range including the shooting range of the imaging element of the camera body 40.
  • the AF processing unit acquires a video signal from the AF imaging circuit, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, after extracting a high-frequency component signal of a video signal obtained from an AF image sensor with a high-pass filter, a signal in a range corresponding to the AF area targeted for AF is extracted from the high-frequency component signal. Accumulate one screen (one frame) at a time. The integrated value obtained for each screen in this way indicates the level of contrast of the subject image and is given to the CPU as a focus evaluation value.
  • the CPU 20 acquires AF frame information (AF frame information) indicating the range (contour) of the AF area via the camera CPU 44, and performs AF processing using the range in the AF frame specified by the AF frame information as the AF area. Specify the part. Then, the focus evaluation value obtained from the image (video signal) in the AF area is acquired from the AF processing unit.
  • AF frame information indicating the range (contour) of the AF area via the camera CPU 44
  • the focus evaluation value is acquired from the AF processing unit, and the acquired focus is obtained.
  • the focus lens group FL is controlled so that the evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF area is maximum.
  • a hill-climbing method is generally known as a control method for the focus lens group FL based on the focus evaluation value, and the focus evaluation value decreases as the focus lens group FL is moved in the direction in which the focus evaluation value increases.
  • the focus lens group FL is set at that position. Thereby, the subject in the AF frame is automatically focused.
  • the face detection unit 52 performs face authentication on the subject person in the captured subject image, and the subject person is recognized as a subject (focus target) that has been set in advance so as to track, for example, with autofocus.
  • the lens apparatus 10 is subjected to autofocus control through the AF unit 29.
  • the camera CPU 44 causes the monitor 80 to display the face frame 84 through the CCU 60 according to the subject person in the subject image.
  • a data table in which position information of each of the movable lens group and the correction lens group is associated with the optical performance of each part of the image is stored in the EEPROM 28 in advance.
  • the CPU 20 of the lens apparatus 10 reads this data table from the EEPROM 28, and controls the correction lens group based on this data table so that the optical performance of the image in the face frame 84 is improved.
  • FIG. 7 is a diagram showing the entire image and the image in the face frame.
  • the image in the face frame 84 is a subject to be photographed, the image in the face frame 84 is often enlarged and displayed on the monitor 80. At this time, if the image quality of the image in the face frame 84 is not sufficiently good even if the image quality of the whole image is good, the visibility by the user is reduced by executing these processes.
  • the optical performance at the center of the entire image is high, and the optical performance becomes lower as compared to the center as it goes to the periphery. Then, when the face frame 84 is set in the peripheral portion of the entire image, the image quality of the image in the face frame 84 is lower than the image quality of the entire image. In face recognition, there may be a case where it is important to make the image quality in the face frame 84 higher than the image quality of the entire image.
  • the camera system 1 controls the decentering correction lens group 12 to drive so as to increase the optical performance of the center C of the image in the face frame 84 during photographing, and the tilt correction lens.
  • the optical performance of the entire image in the face frame 84 is controlled to be high.
  • FIG. 8 is a flowchart showing a procedure for adjusting the image quality of the image in the face frame by the correction lens group in the camera system of FIG.
  • the configuration of the camera system 1 in FIG. 6 will be referred to as appropriate.
  • the movable lens group, the diaphragm, and the correction lens group are set to predetermined initial positions.
  • step S42 it is detected whether or not it is in a mode for correcting the image in the face frame set by the face recognition (step S42).
  • the setting of the mode for correcting the image in the face frame can be selected, for example, on or off in the lens operation unit 50 or the camera body 40.
  • the camera CPU 44 determines the detection of the mode for correcting the image in the face frame.
  • a flow for adjusting the image quality of the image in the face frame 84 by controlling the correction lens group is executed, as shown in the steps described later.
  • the mode for correcting the image in the face frame is off, the shooting state of the lens apparatus 10 in step S40 is not executed without executing the flow for adjusting the image quality of the image in the face frame 84 by controlling the correction lens group. maintain.
  • the CPU 20 reads the diagonal coordinates of the face frame 84 in the entire image from the camera body 40 (step S44). Subsequently, the CPU 20 calculates the center coordinates of the image in the face frame 84 based on the diagonal coordinates (step S46). In this way, the CPU 20 can specify the position of the image in the face frame 84 in the entire image.
  • the CPU 20 detects the current position of the zoom lens group ZL by reading the output value of the potentiometer ZP (step S48), and detects the current position of the focus lens group FL by reading the output value of the potentiometer FP. Then, the current aperture position of the aperture I is detected by reading the output value of the potentiometer IP (step S52).
  • the order in which steps S48, S50, and S52 are executed is not limited to this order, and may be changed as appropriate, or may be executed simultaneously.
  • the CPU 20 refers to a data table stored in advance in the EEPROM 28, and based on the positions of the focus lens group FL, the zoom lens group ZL, and the aperture I, the optical performance (here, the center of the image in the face frame 84).
  • the position of the decentration correction lens group 12 that maximizes (resolution) is obtained (step S54).
  • the CPU 20 drives and controls the decentration correction lens group 12 according to the obtained position of the decentration correction lens group 12 (step S56).
  • the CPU 20 refers to a data table stored in advance in the EEPROM 28, and based on the positions of the focus lens group FL, the zoom lens group ZL, and the aperture I, the optical performance of the entire image in the face frame 84 (here, resolution) ) Is determined to obtain the position of the tilt correction lens group 14 (step S58). Then, the CPU 20 drives and controls the tilt correction lens group 14 in accordance with the obtained position of the tilt correction lens group 14 (step S60).
  • the camera system 1 can improve the image quality of the image in the face frame 84 by driving and controlling the decentration correction lens group 12 and the tilt correction lens group 14 of the lens device 10.
  • the camera system 1 divides the entire image into a plurality of areas, obtains an area with the maximum contrast among the plurality of areas, and drives and controls the correction lens group described above to thereby determine the area with the maximum contrast.
  • the image quality can be adjusted.
  • the camera system 1 in FIG. 9 is basically the same as that shown in FIG. Hereinafter, differences from the configuration of FIG. 1 will be described.
  • the camera system 1 includes a contrast detection unit 54.
  • the contrast detection unit 54 is controlled by the camera CPU 44. Note that the camera system 1 does not include a cutting operation unit.
  • the camera system 1 includes an AF unit 29. Since the AF unit 29 is the same as already described, description thereof is omitted here.
  • FIG. 10 is a diagram illustrating an entire image and an image of an area having the highest contrast among a plurality of areas obtained by dividing the entire image.
  • the contrast detection unit 54 includes an image processing unit (not shown), divides an image obtained by imaging from the camera body 40 into a plurality of areas, and calculates a contrast value for each of the plurality of areas.
  • the contrast detection unit 54 generates coordinate information for each of the plurality of divided areas, and manages information in which each area is associated with the coordinate information and the contrast value.
  • the optical performance be maximized in increasing the number of subjects in order to focus on the subject image that the photographer wants to shoot in the entire image.
  • the contrast of the region including the subject image tends to increase in the entire image.
  • the camera system 1 controls the decentering correction lens group 12 to drive so as to increase the optical performance of the center C of the image in the area where the contrast is maximum, and to correct the tilt.
  • the optical performance of the entire image in the area is controlled to be high.
  • FIG. 11 is a flowchart showing a procedure for adjusting the image quality of the image in the area where the contrast is maximum by the correction lens group in the camera system of FIG.
  • the configuration of the camera system 1 in FIG. 9 will be referred to as appropriate.
  • the movable lens group, the diaphragm, and the correction lens group are set to predetermined initial positions.
  • step S70 Execute focus operation and zoom operation.
  • operations other than driving the correction lens group are appropriately executed.
  • step S72 it is detected whether or not the mode is set to perform image quality adjustment based on contrast by dividing the image.
  • the setting of this mode can be selected, for example, on or off in the lens operation unit 50 or the camera body 40.
  • the camera CPU 44 determines the detection of this mode.
  • this mode is on, a flow for dividing the image and adjusting the image quality based on the contrast is executed as shown in the steps described later.
  • the mode is off, the photographing state of the lens apparatus 10 in step S70 is maintained without executing the flow of dividing the image and adjusting the image quality based on the contrast.
  • the camera CPU 44 controls the contrast detection unit, and the contrast detection unit 54 divides the image acquired by the camera body 40 into a plurality of divided images. A contrast value is calculated for each of a plurality of areas. Then, the contrast detection unit 54 identifies an area having the maximum contrast value among the plurality of areas.
  • the lens apparatus 10 receives the coordinate information of the area where the contrast value is maximized from the contrast detection unit 54 through the camera CPU 44 (step S74). Subsequently, the CPU 20 calculates the center coordinates of the area having the maximum contrast value based on the coordinate information (step S76).
  • the CPU 20 detects the current position of the zoom lens group ZL by reading the output value of the potentiometer ZP (step S78), and detects the current position of the focus lens group FL by reading the output value of the potentiometer FP. Then, the current aperture position of the diaphragm I is detected by reading the output value of the potentiometer IP (step S82).
  • the order in which steps S78, S80, and S82 are executed is not limited to this order, and may be changed as appropriate, or may be executed simultaneously.
  • the CPU 20 refers to a data table stored in advance in the EEPROM 28, and based on the positions of the focus lens group FL, the zoom lens group ZL, and the aperture I, the optical center of the image in the area where the contrast value is maximum.
  • the position of the decentration correction lens group 12 that maximizes the performance (here, resolution) is obtained (step S84).
  • the CPU 20 drives and controls the decentration correction lens group 12 according to the obtained position of the decentration correction lens group 12 (step S86).
  • the CPU 20 refers to a data table stored in advance in the EEPROM 28, and based on the positions of the focus lens group FL, the zoom lens group ZL, and the aperture I, the optical performance of the entire image in the area where the contrast value is maximum.
  • the position of the tilt correction lens group 14 having the maximum (here, resolution) is obtained (step S88).
  • the CPU 20 drives and controls the tilt correction lens group 14 in accordance with the obtained position of the tilt correction lens group 14 (step S90).
  • the camera system 1 can improve the image quality of the image in the area where the contrast value is maximized by driving and controlling the decentration correction lens group 12 and the tilt correction lens group 14 of the lens device 10.
  • the resolution or MTF is exemplified, but the present invention is not limited to this.
  • the correction lens group may be controlled by substituting characteristics other than resolution or MTF.
  • the contrast evaluation value of the image is measured, and the correction lens group is driven so that the contrast evaluation value is maximized.
  • the data table only needs to include information that associates the position of the movable lens group, the position of the correction lens group, and the contrast evaluation value in advance.
  • Example 3 of characteristics other than resolution or MTF The image is divided into a plurality of regions, a region with the highest luminance value is detected, and the lens is driven so that the luminance of the region with the highest luminance becomes the maximum luminance value on the screen.
  • Image analysis is performed on the shape of the image, and the lens is driven so that the analysis result of the shape is closest to a predetermined image analysis value (individual depending on what image is).
  • a predetermined image analysis value (individual depending on what image is).
  • the lens is controlled so that it looks like the face most by moving the lens so that it matches the analysis value of the face.
  • the lens is controlled so that various parameter values representing optical performance (contrast values and values that can be replaced with MTF) are maximized.
  • Example 7 of characteristics other than resolution or MTF
  • the lens is controlled so that the values of various parameters (contrast values and values that can be replaced with MTF) representing the optical performance of the subdivision of the area are maximized.
  • the camera system 1 divides the entire image into a plurality of areas, obtains an area with the maximum contrast among the plurality of areas, and drives and controls the correction lens group described above to thereby determine the area with the maximum contrast.
  • the image quality can be adjusted.
  • FIG. 12 is a block diagram showing a main configuration of a camera system provided with the lens device of the present invention.
  • FIG. 13 is a diagram schematically illustrating an optical system of the lens device.
  • the optical system of the lens device 10 is a photographing optical system that connects an image of a subject to the imaging surface of the imaging element 42 of the camera body 40.
  • the focus lens group FL, the zoom lens group ZL, the stop I, the tilt correction lens group 34, the beam splitter 31, and the master lens group ML are arranged in this order from the subject side toward the imaging surface. Is provided.
  • the beam splitter 31 is a half mirror that splits the light beam that has passed through the decentration correction lens group into a first optical path toward the imaging surface and a second optical path that reflects in a direction substantially perpendicular to the first optical path.
  • a condensing lens 33 for condensing the light reflected by the beam splitter 31 and a beam splitter 35 for further branching the light condensed by the condensing lens 33 are provided.
  • the beam splitter 35 is a cube-type half mirror that splits a light beam incident along the second optical path into two light beams.
  • the beam splitter is formed with two light exit surfaces, and CCDs 32A and 32B are provided on each of the two light exit surfaces.
  • the CCDs 32A and 32B are arranged in a conjugate relationship with each other at the imaging position of the light beam passing through the second optical path.
  • CCDs 32A and 32B are used to detect the in-focus state.
  • the CCDs 32A and 32B are also used for eccentricity correction as will be described later.
  • the tilt correction lens group 34 rotates about a direction orthogonal to the optical axis direction, and the tilt angle changes.
  • the tilt correction lens group 34 is driven and controlled as will be described later, and changes the tilt angle with respect to the optical axis of the optical system to adjust the position of the center line of the light beam transmitted through the optical system, thereby deviating from the polarization existing in each lens.
  • This is a correction lens group that suppresses deterioration in image quality depending on the core.
  • the control system of the lens apparatus 10 includes a CPU 20, EEPROM 28, amplifiers FA, ZA, IA, 34A, motors FM, ZM, IM, 34M, potentiometers FP, ZP, IP, 34P.
  • the motor 34M is connected to the eccentricity correction lens group 12.
  • the motor 34M is connected to the tilt correction lens group 34, and tilts the tilt correction lens group 34 with respect to a plane (XY plane) orthogonal to the optical axis, and sets the tilt angle of the tilt correction lens group 34. Drive to change.
  • the potentiometer 34P is installed as means for acquiring the position of the correction lens group.
  • a voltage signal having a value corresponding to the tilt angle of the tilt correction lens group 34 is output from the potentiometer 34P.
  • the voltage signal output from the potentiometer 34P is given to the CPU 20 via the A / D converter 24.
  • the CPU 20 tilts by changing the tilt angle of the tilt correction lens group 34 detected by the potentiometer 34P, the lens position of the movable lens group, and the value of the drive signal output to the amplifier 34A while referring to the data table.
  • the tilt angle of the correction lens group 34 is controlled.
  • the lens device 10 has a function of detecting the focus position of the contrast method using the CCD 32A and the CCD 32B. Next, in-focus position detection of this method will be described.
  • the CCD 32A and the CCD 32B are disposed at the image forming position of the second optical path of the optical system, with the positions shifted at equal intervals from the image forming position in the center line direction of the light beam. By doing so, the in-focus state can be detected simultaneously by the CCDs 32A and 32B, and the speed of specifying the in-focus position is improved compared to wobbling.
  • FIG. 4 is a diagram for explaining a method of adjusting the focus by the lens device 10.
  • FIG. 14 shows the relationship between the position of the focus lens group FL and the contrast detected from each of the CCDs 32A and 32B.
  • the CCD 32 ⁇ / b> A has a maximum focus evaluation value (hereinafter referred to as an evaluation value) representing the contrast on the imaging surface of the CCD 42 on the camera body 40 side.
  • the focus lens group FL is controlled to a position where the evaluation value is equal to the evaluation value of the CCD 32B.
  • the focus lens group FL should be moved to either the FAR end or the NEAR end.
  • the focus speed can be set according to the ratio. For this reason, unlike the general hill-climbing AF, the AF method of the lens apparatus 10 does not require an operation that goes too far in focus.
  • the lens device 10 uses the above-described CCD 32A and CCD 32B, and corrects the eccentricity of the optical system of the lens device 10 without using the CCD 42 of the camera body 40.
  • the lens device 10 performs eccentricity correction with the lens device 10 alone when assembling at a manufacturing factory or during maintenance.
  • the optical system in the first optical path and the optical system in the second optical path are equivalent.
  • the eccentricity correction is performed using the CCD 32A and the CCD 32B, so that the eccentricity correction is performed using the CCD 42 of the camera body 40 on which the light flux in the first optical path is imaged. Can be performed.
  • FIG. 15 is a flowchart showing a procedure for performing eccentricity correction in the lens apparatus of FIG.
  • the lens apparatus 10 captures an image quality evaluation chart CH with the CCDs 32A and 32B as shown in FIG. At this time, a total of five images of the center area and the four corner areas are acquired from the chart images acquired by the CCD 32A (step S110). Then, the CPU 20 calculates a contrast value between the image in the central area and the images in the four corner areas. In this example, the contrast value is used as the evaluation value.
  • FIG. 16 is a diagram schematically illustrating the contrast of each area of the chart image.
  • FIG. 16 schematically shows a chart image acquired by one CCD, but in this example, chart images are acquired from each of the CCD 32A and the CCD 32B. Comparisons are made with images in each area.
  • the image in the upper left area has the highest contrast
  • the images in the center area, the upper right area, and the lower left area have the next highest contrast
  • the image in the lower right area has the lowest contrast.
  • the contrast of the image in the upper left area is higher than the contrast of the image in the center area and the difference is larger than in other areas
  • it is determined that the image quality of the image in the upper left area is good.
  • the contrast of the image in the lower right area is lower than the contrast of the image in the central area, it is determined that the image quality of the image in the lower right area is poor and is indicated by “x”.
  • the comparison of images in each area may be performed based on a preset threshold value.
  • “ ⁇ ” can be set, and when the contrast value is smaller than the threshold value, “X” can be set. Further, “ ⁇ ” may be used when the contrast value is larger than the threshold value and the difference is a certain value or more.
  • the method of comparing the images in each area is not limited to the method using the threshold as described above.
  • an average contrast value may be calculated from the contrast values in each area, and the image quality of the image in each area may be evaluated based on this average value.
  • the CPU 20 identifies the area where the image quality of each of the images of the CCD 32A and the CCD 32B is the lowest by comparing the image quality of each area as described above (S114). Subsequently, the CPU 20 drives the tilt correction lens group 34 and adjusts the tilt angle so that the images in the respective areas have substantially the same image quality so that the evaluation value of the image in the low image quality area becomes high. (Step S116).
  • FIG. 17 is a diagram for explaining a method of setting the tilt angle of the tilt correction lens group 34 based on the chart image.
  • the evaluation values of the respective areas of the chart images obtained from the CCD 32A and the CCD 32B show symmetry. As shown in FIG. 17, the evaluation value of the image in the upper left area of the CCD 32A is the highest, but in the CCD 32B, the evaluation value of the image in the lower right area is the highest. Further, the evaluation value of the image in the lower right area of the CD 32A is the lowest, but in the CCD 32B, the evaluation value of the image in the upper left area is the lowest.
  • the lens device 10 sets the tilt angle of the tilt correction lens group 34 by the drive control of the CPU 20 based on the symmetry of the chart images obtained from the CCD 32A and the CCD 32B.
  • the direction in which the tilt angle of the tilt correction lens group 34 is changed is determined according to the design of the optical system of the lens device 10.
  • the tilt correction lens group 34 is schematically described as a single lens, but actually, other lens groups are arranged on the subject side and the image plane side of the tilt correction lens group 34.
  • the direction in which the image shifts when the tilt correction lens group 34 is tilted changes according to the shape and number of the other lens groups. For this reason, in consideration of the design of the optical system of the lens apparatus 10, it is determined in which direction the image is shifted when the tilt angle of the tilt correction lens group 34 is moved.
  • the CPU 20 may drive and control the tilt correction lens group 34 in a predetermined direction in accordance with the design of the optical system.
  • the CPU 20 determines that the image quality of each area has become uniform when the tilt value of the tilt correction lens group 34 is changed and the contrast value of the image in each area becomes equal to or greater than the threshold value.
  • the CPU 20 may determine that the image quality of the image in each area is uniform when the difference between the maximum value and the minimum value of the contrast of the image in each area falls within a predetermined range.
  • the CPU 20 sets the image of each area when the contrast value of the image of each area is equal to or greater than the threshold and the difference between the maximum value and the minimum value of the contrast of the image of each area falls within a predetermined range. You may judge that the image quality is uniform
  • the CPU 20 sets the focus lens group FL, the zoom lens group ZL,
  • the correction position information such as the stop I and the correction position information of the tilt correction lens group 34 are written in the EEPROM 28 (step S118).
  • the correction position information is determined by the CPU 20 based on the output values of the potentiometers FP, ZP, IP, and 34P of the optical system.
  • the eccentricity correction procedure in the lens device 20 is completed.
  • the CPU 20 reads the correction position information from the EEPROM 28 (step S120).
  • the CPU 20 drives each motor FM, ZM, IM, 34M based on the read correction position information (step S122). In this way, the lens device 20 is set in a state where photographing is possible.
  • the eccentricity can be adjusted by a single lens device without being attached to the camera body 40. Also, when maintenance is performed with the lens apparatus 10 removed from the camera body 40, the alignment correction can be performed with the lens apparatus 10 alone, which is convenient.
  • FIG. 18 shows another configuration example of the lens device 10.
  • the camera system 1 in FIG. 18 is basically the same as that shown in FIG.
  • differences from the configuration of FIG. 1 will be described, and description of configurations and members common to the above-described lens device 10 will be simplified or omitted as appropriate.
  • the lens device 10 includes one CCD 32 for focus detection.
  • FIG. 19 shows an optical system of the lens apparatus 10 of FIG.
  • the focus lens group FL, the zoom lens group ZL, the stop I, the tilt correction lens group 34, the beam splitter 31, and the master lens group ML are arranged in this order from the subject side toward the imaging surface. It is common to the lens device 10 described above in that it is provided.
  • a condensing lens 33 that condenses the light reflected by the beam splitter 31 is provided, and a CCD 32 is provided at an imaging position of a light beam that passes through the condensing lens 33.
  • the CCD 32 is used for eccentricity correction.
  • FIG. 20 is a flowchart showing a procedure for performing eccentricity correction by the lens apparatus of FIG.
  • FIG. 21 is a diagram for explaining a method of setting the tilt angle of the tilt correction lens group 34 based on the chart image acquired from the CCD 32.
  • the image quality evaluation chart CH is imaged by the CCD 32 to obtain a chart image.
  • a total of five images of the central area and the four corner areas are acquired (step S130).
  • the CPU 20 calculates a contrast value between the image in the central area and the images in the four corner areas.
  • the contrast value is used as the evaluation value.
  • the CPU 20 compares the image in the central area with the image in each other area (step S132).
  • the image in the central area has the highest contrast
  • the images in the upper right, lower right, and lower left areas have the highest contrast
  • the image in the upper right area has the lowest contrast.
  • the contrast of the image in the upper left area is lower than the contrast of the image in the center area and the difference is outside the predetermined range, it is determined that the image quality of the image in the upper left area is poor. It is indicated by “x”.
  • the contrast of the images in the upper right, lower right, and lower left areas is lower than the contrast of the image in the central area, but the difference is within a predetermined range, so the image quality of the images in the upper right, lower right, and lower left areas was determined to be within the allowable range, and “ ⁇ ” was assigned.
  • the comparison of the images in each area is performed based on a preset threshold value as described above.
  • the method for comparing the images in the respective areas is not limited to the method using the threshold as described above.
  • an average contrast value may be calculated from the contrast values in each area, and the image quality of the image in each area may be evaluated based on this average value.
  • the CPU 20 identifies the area where the image quality of the image of the CCD 32 is the lowest by comparing the image quality of the image of each area as described above (S134). Subsequently, the CPU 20 drives the tilt correction lens group 34 and adjusts the tilt angle so that the images in the respective areas have substantially the same image quality so that the evaluation value of the image in the low image quality area becomes high. (Step S136).
  • the CPU 20 sets the focus lens group FL, the zoom lens group ZL,
  • the correction position information such as the stop I and the correction position information of the tilt correction lens group 34 are written in the EEPROM 28 (step S138).
  • the correction position information is determined by the CPU 20 based on the output values of the potentiometers FP, ZP, IP, and 34P of the optical system.
  • the eccentricity correction procedure in the lens device 20 is completed.
  • the CPU 20 reads the correction position information from the EEPROM 28 (step S140).
  • the CPU 20 drives the motors FM, ZM, IM, and 34M based on the read correction position information (step S142). In this way, the lens device 20 is set in a state where photographing is possible.
  • the eccentricity can be adjusted by the lens device alone without being mounted on the camera body 40. Also, when maintenance is performed with the lens apparatus 10 removed from the camera body 40, the alignment correction can be performed with the lens apparatus 10 alone, which is convenient.
  • the above-described tilt correction lens group is not limited to one that is driven and controlled to be inclined with respect to the optical axis, and may be one that moves parallel to the optical axis as will be described later.
  • the image quality is adjusted by controlling the correction lens group (the eccentricity correction lens group 12 and the tilt correction lens group 14) based on the shooting conditions has been described above, but the image is formed by the movement of the correction lens group.
  • the center of the image may be displaced.
  • a lens apparatus configured to correct the displacement of the image center will be described.
  • FIG. 22 is a block diagram showing a main configuration of another example of the camera system for explaining the embodiment of the present invention
  • FIG. 23 is a diagram schematically showing an optical system of the camera system of FIG. . Note that elements common to the camera system illustrated in FIG. 11 are denoted by common reference numerals, and description thereof is omitted.
  • the camera system 101 includes a lens device 110 and a camera body 40, and the lens device 110 corrects the displacement of the image center accompanying the movement of the correction lens group including the decentering correction lens group 12 and the tilt correction lens group 14.
  • a second correction lens group 111 is provided, and in this example, the second correction lens group 111 is configured as a camera shake correction lens group.
  • the camera shake correction lens group 111 is provided so as to be movable in a plane perpendicular to the optical axis of the optical system (a plane parallel to the XY plane in FIG. 23).
  • the lens device 110 includes a camera shake correction lens group.
  • Motors HM2 and VM2 for driving 111, amplifiers HA2 and VA2 for inputting drive signals to these motors HM2 and VM2, potentiometers HP2 and VP2 for acquiring the position of the camera shake correction lens group 111, and a sensor for detecting tobble (Not shown).
  • the CPU 20 outputs drive signals to the amplifiers HA2 and VA2 via the D / A converter 22 when controlling the camera shake correction lens group.
  • the motors HM2 and VM2 connected to the amplifiers HA2 and VA2 are driven at a rotational speed corresponding to the value (voltage) of the drive signal.
  • the motor HM2 drives the camera shake correction lens group 111 in the X direction on a plane perpendicular to the optical axis
  • the motor VM2 drives the camera shake correction lens group 111 in the Y direction on a plane perpendicular to the optical axis.
  • a voltage signal having a value corresponding to the position in the X direction of the camera shake correction lens group 111 (a value indicating an absolute position) is output.
  • the potentiometer VP2 outputs a voltage signal having a value corresponding to the position of the camera shake correction lens group 111 in the Y direction (a value indicating an absolute position).
  • the voltage signals output from the potentiometers HP2 and VP2 are applied to the CPU 20 via the A / D converter 24, and feedback control is performed by the CPU 20 so that the camera shake correction lens group 111 is at the target position.
  • the target position of the camera shake correction lens group 111 is set so as to cancel the displacement of the image center accompanying the movement of the correction lens group, and the position of the correction lens group (the eccentricity correction lens group 12 and the tilt correction lens group 14) is set in advance. It is stored in the EEPROM 28 as an associated data table.
  • the CPU 20 refers to this data table to determine the target position of the camera shake correction lens group 111 according to the position of the correction lens group (the eccentricity correction lens group 12 and the tilt correction lens group 14), and the camera shake correction lens group 111.
  • the above feedback control is performed so that becomes the target position.
  • FIG. 24 shows the data structure of the data table.
  • the parameter indicating the position information of the decentration correction lens group 12 (“d01”, “d02”, “d03”%) Is given a value indicating the absolute position of the decentration correction lens group 12.
  • a parameter indicating the position information of the tilt correction lens group 14 (“e01”, “e02”, “e03”%) Is given a value indicating the absolute position of the tilt correction lens group 14.
  • a parameter indicating position information of the camera shake correction lens group 111 (“f01”, “f02”, “f03”%) Has a value indicating a position on a plane perpendicular to the optical axis of the camera shake correction lens group 111. Is given. These values are coordinates indicating the X-direction position and the Y-direction position of the camera shake correction lens group 111.
  • FIG. 25 is a flowchart showing a procedure for correcting the displacement of the image center by driving the camera shake correction lens group 111.
  • the configuration of the camera system 101 in FIG. 22 will be referred to as appropriate.
  • the movable lens group, the diaphragm, and the correction lens group are set to predetermined initial positions.
  • step S101 Execute focus operation and zoom operation.
  • operations other than driving the correction lens group and the camera shake correction lens group are appropriately executed.
  • the CPU 20 detects the current position of the zoom lens group ZL by reading the output value of the potentiometer ZP (step S102), and detects the current position of the focus lens group FL by reading the output value of the potentiometer FP. Then, the current aperture position of the aperture I is detected by reading the output value of the potentiometer IP (step S104).
  • the order in which steps S102, S103, and S104 are executed is not limited to this order, and may be changed as appropriate, or may be executed simultaneously.
  • the CPU 20 associates the positions of the zoom lens group ZL and the focus lens group FL and the diaphragm I stored in advance in the EEPROM 28 with the positions of the eccentricity correction lens group 12 and the tilt correction lens group 14 (see FIG. 13), the positions of the decentering correction lens group 12 and the tilt correction lens group 14 are obtained based on the detected positions of the focus lens group FL, the zoom lens group ZL, and the stop I (step S105).
  • the CPU 20 refers to a data table in which the positions of the decentration correction lens group 12 and the tilt correction lens group 14 stored in advance in the EEPROM 28 and the positions of the camera shake correction lens group 111 are associated, and the obtained decentration correction is obtained. Based on the positions of the lens group 12 and the tilt correction lens group 14, the position of the camera shake correction lens group 111 is obtained (step S106).
  • the CPU 20 drives and controls the decentration correction lens group 12 and the tilt correction lens group 14 according to the obtained positions of the decentration correction lens group 12 and the tilt correction lens group 14 (step S107), and the obtained camera shake correction.
  • the camera shake correction lens group 111 is driven and controlled according to the position of the lens group 111 (step S108).
  • steps S105, S106, S107, and S108 is not limited to the above order, and the positions of the decentration correction lens group 12 and the tilt correction lens group 14 are obtained (step S105), and the obtained decentration correction lens group 12 is obtained. Then, the decentering correction lens group 12 and the tilt correction lens group 14 are driven and controlled based on the position of the tilt correction lens group 14 (step S107), and then the position of the camera shake correction lens group 111 is determined (step S106). The camera shake correction lens group 111 may be driven and controlled in accordance with the position of the camera shake correction lens group 111 (step S108).
  • the optical performance of the optical system is adjusted according to the photographing conditions by the movement of the decentration correction lens group 12 and the tilt correction lens group 14, and further, the decentering correction lens by the movement of the camera shake correction lens group 111.
  • the displacement of the image center accompanying the movement of the group 12 and the tilt correction lens group 14 is corrected.
  • the camera shake correction by the camera shake correction lens group 111 is based on the camera shake detected by the camera shake detection sensor centered on the position of the camera shake correction lens group 111 determined by the above-described procedure for correcting the displacement of the image center. This is done by moving the camera shake correction lens group 111 appropriately.
  • FIG. 26 is a flowchart showing another example of a procedure for correcting the displacement of the image center by driving the camera shake correction lens group 111.
  • the position of the camera shake correction lens group 111 is obtained by referring to a data table in which the positions of the decentering correction lens group 12 and the tilt correction lens group 14 are associated with the positions of the camera shake correction lens group 111.
  • the positions of the decentering correction lens group 12 and the tilt correction lens group 14 obtained based on the positions of the focus lens group FL, the zoom lens group ZL, and the stop I are used.
  • the positions of the decentering correction lens group 12 and the tilt correction lens group 14 detected by HP, VP, and 14P are used.
  • the CPU 20 refers to a data table in which the positions of the eccentricity correction lens group 12 and the tilt correction lens group 14 and the position of the camera shake correction lens group 111 stored in advance in the EEPROM 28 are associated with each other, and the detected focus lens group FL, Based on the positions of the zoom lens group ZL and the stop I, the eccentricity correction lens group 12 and the tilt correction lens group 14 are driven and controlled (step S107).
  • the CPU 20 detects the current position of the eccentricity correction lens group 12 by reading the output values of the potentiometers HP and VP, and the potentiometer 14P. By reading the output value, the current position of the tilt correction lens group 14 is detected (step S109).
  • the CPU 20 refers to a data table in which the positions of the decentration correction lens group 12 and the tilt correction lens group 14 stored in advance in the EEPROM 28 are associated with the positions of the camera shake correction lens group 111, and the detected decentration is detected. Based on the positions of the correction lens group 12 and the tilt correction lens group 14, the position of the camera shake correction lens group 111 is obtained (step S110), and the camera shake correction lens group 111 is driven according to the obtained position of the camera shake correction lens group 111. Control (step S111).
  • the eccentricity correction is performed.
  • a control error in the drive control of these lens groups 12 and 14 is obtained. Therefore, the displacement of the image center can be corrected more accurately.
  • the displacement of the image center due to the movement of the decentering correction lens group 12 and the tilt correction lens group 14 is corrected using the camera shake correction lens group 111.
  • the correction can also be made by using a lens group that is movably provided in a plane perpendicular to the optical axis.
  • the zoom lens group ZL, the focus lens group FL, the data table in which the position of the stop I is associated with the positions of the decentering correction lens group 12 and the tilt correction lens group 14, and the decentering correction lens group 12 and the tilt correction lens group. 14 is associated with the position of the camera shake correction lens group 111 and is stored in the EEPROM 28 of the lens apparatus 110.
  • the CPU 20 of the lens apparatus 110 refers to these data tables to determine the eccentricity.
  • the positions of the correction lens group 12, the tilt correction lens group 14, and the camera shake correction lens group 111 are obtained and the drive of these lens groups is controlled.
  • the storage of the data table and the control of the drive of the lens group are controlled. It can also be configured to perform in the camera body 40.
  • FIG. 27 is a block diagram showing a main configuration of another example of the camera system for explaining the embodiment of the present invention
  • FIG. 28 is a diagram schematically showing an optical system of the camera system of FIG. .
  • description is abbreviate
  • the correction lens group is moved in a plane perpendicular to the optical axis (a plane parallel to the XY plane in FIG. 28).
  • the tilt correction lens group 14 that constitutes the correction lens group together with the decentering correction lens group 12 is omitted.
  • an alignment mode for adjusting the image quality by driving and controlling the decentration correction lens group 12 in relation to shooting conditions such as a movable lens group and an aperture position, and eccentricity correction regardless of the shooting conditions.
  • a non-alignment mode for holding the lens group 12 in a predetermined position, and the lens operation unit 50 or the camera body 40 is configured to be able to select the alignment mode and the non-alignment mode.
  • a data table (for example, see FIG. 13) in which the photographing conditions and the positional information of the eccentricity correction lens group 12 are associated in advance is stored.
  • the EEPROM 28 stores initial position information of the eccentricity correcting lens group 12 when the optical performance is adjusted so that the image quality in each area of the CCD 42 is uniform when the lens device 210 is assembled.
  • the CPU 20 When the alignment mode is selected, the CPU 20 performs drive control of the motors HM and VM that move the eccentricity correction lens group 12 based on the data table stored in the EEPROM 28. When the non-alignment mode is selected, the CPU 20 performs drive control of the motors HM and VM that move the decentration correction lens group 12 based on the initial position information stored in the EEPROM 28.
  • the lens device 210 is provided with a holding unit that holds the eccentricity correction lens group 12.
  • the holding unit mechanically engages the lens frame 12a that supports the decentration correction lens group 12, and moves the decentration correction lens group 12 moved by the motors HM and VM under the drive control by the CPU 20 to the position thereof. Hold on.
  • FIG. 29 shows an exemplary configuration of the holding unit.
  • the friction member 220 is biased in the optical axis direction by the spring 221 to be in contact with the lens frame 12a and corrects eccentricity with respect to the lens frame 12a.
  • a frictional force is always applied in the moving direction (X direction and Y direction) of the lens group 12, and the decentering correction lens group 12 is held at that position.
  • the motors HM and VM move the decentering correction lens group 12 against this frictional force.
  • FIG. 30 shows a configuration of another example of the holding unit.
  • the holding unit 213 illustrated in FIG. 30 includes guide mechanisms 222 each including a feed screw 223 and a nut 224 in the X direction and the Y direction, and the nut 224x of the guide mechanism 222x in the X direction includes the lens frame 12a.
  • the nut 224y of the guide mechanism 222y in the Y direction is configured to restrict only the Y direction with respect to the lens frame 12a.
  • FIG. 31 is a flowchart showing a control process for moving the decentering correction lens group 12.
  • the CPU 20 determines which of the alignment mode and the non-alignment mode is selected (Step S201).
  • the CPU 20 detects the current position of the zoom lens group ZL by reading the output value of the potentiometer ZP (step S202), and reads the current output value of the potentiometer FP.
  • the position of the focus lens group FL is detected (step S203), and the current aperture position of the diaphragm I is detected by reading the output value of the potentiometer IP (step S204).
  • the CPU 20 refers to a zoom lens group ZL and a focus lens group FL stored in advance in the EEPROM 28, and a data table (for example, see FIG. 13) in which the position of the diaphragm I is associated with the eccentricity correction lens group 12. Based on the detected positions of the focus lens group FL, the zoom lens group ZL, and the stop I, the target position of the decentration correction lens group 12 is obtained (step S205).
  • the CPU 20 drives and controls the motors HM and VM that move the decentration correction lens group 12 according to the obtained target position of the decentration correction lens group 12 (step S206).
  • the CPU 20 reads the output values of the potentiometers HP and VP to detect the current position of the decentering correction lens group 12 (step S207).
  • the CPU 20 refers to the initial position information of the eccentricity correction lens group 12 stored in advance in the EEPROM 28, and moves the eccentricity correction lens group 12 according to the detected position of the eccentricity correction lens group 12.
  • the motors HM and VM are driven and controlled, and the decentration correction lens group 12 is moved to the initial position (step S208).
  • the CPU 20 stops the drive control of the motors HM and VM that move the eccentricity correction lens group 12 (the motors HM and VM and the amplifiers HA and VA). In addition, the power supply to the potentiometers HP and VP is stopped) (step S209).
  • the decentering correction lens group 12 is mechanically locked by the holding portions 212 and 213 and held at that position.
  • the lens device 210 of the camera system 201 by moving the decentering correction lens group 12 and adjusting the optical performance of the optical system, high image quality can be achieved regardless of changes over time or photographing conditions. Shooting is possible.
  • the holding unit 212 that holds the decentration correction lens group 12 in its position holds the decentration correction lens group 12 in that position by mechanically engaging with the lens frame 12a that supports the decentration correction lens group 12. Therefore, power is not consumed in holding the decentering correction lens group 12 at that position, and the power consumption in the lens device 210 can be reduced.
  • the shooting conditions change every moment. Therefore, in the alignment mode, the drive control of the motors HM and VM by the CPU 20 is continued. (The power supply to the motors HM and VM, and the amplifiers HA and VA, and the potentiometers HP and VP is continued), but the CPU 20 monitors changes in the output values of the potentiometers ZP, FP, and IP.
  • the drive control of the motors HM and VM can be performed only in the case, and the drive control of the motors HM and VM can be stopped while there is no change. According to this, the power consumption in the lens device 210 can be further reduced. Can be planned.
  • FIG. 32 shows a main configuration of a modified example of the camera system 201
  • FIG. 33 schematically shows an optical system of the camera system of FIG.
  • a camera shake correction lens group 211 is provided in the optical system of the lens device 210, and the lens device 210 is provided with a sensor (not shown) that detects camera shake.
  • the image stabilization lens group 211 is movably provided in a plane perpendicular to the optical axis of the optical system (a plane parallel to the XY plane in FIG. 33).
  • the CPU 20 acquires camera shake information detected by the above-described sensor that detects camera shake, and controls a drive unit that moves the camera shake correction lens group 211 so as to correct image blur caused by camera shake.
  • the decentration correction lens group 12 can be held at a fixed position by the holding unit 212. Therefore, a drive unit (motors HM, VM, and these motors HM, 12) for moving the decentration correction lens group 12 is used.
  • the amplifiers HA and VA) for inputting a drive signal to the VM are used for moving the decentering correction lens group 12 to the initial position in the non-alignment mode, and also in the above-described alignment mode (shooting condition (focus lens)). It is only necessary to operate when the group FL, the zoom lens group ZL, and the position of the aperture I are changed.
  • the driving unit that moves the camera shake correction lens group 211 is the same as the camera shake correction lens group 211 provided in a movable manner in a plane perpendicular to the optical axis of the optical system.
  • the motor HM, VM for moving the center correction lens group 12 and the amplifiers HA, VA for inputting drive signals to these motors HM, VM are constituted by an eccentricity correction lens group 12 and a camera shake correction lens group 211.
  • the drive unit is shared.
  • the drive target by the drive unit is configured to be switched between the decentering correction lens group 12 and the camera shake correction lens group 211.
  • the eccentricity correction lens group 12 and the camera shake correction lens group 211 to be moved are each provided with a coil, and the magnet is shared.
  • the correction lens group 12 and the camera shake correction lens group 211 can share a drive unit, and by selectively energizing each coil, the drive target by the drive unit is decentered and the camera shake correction lens. Switching between the groups 211 is possible.
  • the decentering correction lens group 12 and the camera shake correction lens group 211 share the drive unit, the decentering correction lens group 12 is driven by the drive unit, and the camera shake correction lens group 211 is released from the drive unit.
  • the holding unit returns the camera shake correction lens group 211 to a center position (a position where the optical axis of the camera shake correction lens group coincides with the optical axis of the optical system) using a plurality of springs, and the springs return the center position to the center position. It can be configured to hold.
  • an alignment mode for driving and controlling only the decentration correction lens group 12 and a camera shake correction mode for driving and controlling at least the camera shake correction lens group 211 are provided.
  • the first mode in which only the camera shake correction lens group 211 is driven and controlled, and the second mode in which this cycle is repeated with the drive of the decentering correction lens group 12 and the drive of the camera shake correction lens group 211 as one cycle are provided.
  • the lens operation unit 50 or the camera body 40 is configured so that the alignment mode, the first mode, and the second mode can be selected.
  • the alignment mode is selected when camera shake correction is unnecessary, for example, when using a tripod.
  • 34 and 35 are flowcharts showing a control process for moving the decentering correction lens group 12.
  • the CPU 20 determines whether or not the selected mode is the alignment mode (step S211).
  • the CPU 20 switches the object to be driven by the drive unit to the decentering correction lens group 12 (step S212).
  • the CPU 20 executes steps S202 to S206 shown in FIG. 31 to drive and control the decentering correction lens group 12 to the target position in relation to the photographing conditions (step S213).
  • the drive control of the decentering correction lens group 12 may be stopped as described above.
  • the CPU 20 subsequently determines whether or not the selected mode is the first mode (a mode in which only the camera shake correction lens group 211 is driven to perform camera shake correction) (step S1). S214).
  • the CPU 20 switches the object to be driven by the drive unit to the decentration correction lens group 12 (step S215), and executes steps S207 and S208 shown in FIG.
  • the group 12 is moved to the initial position (step S216).
  • the CPU 20 switches and fixes the object to be driven by the drive unit to the camera shake correction lens group 211 (step S217).
  • the CPU 20 acquires camera shake information detected by the above-described sensor for detecting camera shake, and drives and controls the camera shake correction lens group 211 so as to correct image blur caused by the camera shake (step S218).
  • the CPU 20 sets a time ratio (duty ratio) for driving the decentering correction lens group 12 per cycle (step S221). A method for setting the duty ratio will be described later.
  • the CPU 20 determines whether or not the drive control of the decentration correction lens group 12 is necessary in relation to the shooting conditions (step S222).
  • the CPU 20 switches the object to be driven by the drive unit to the camera shake correction lens group 211 (step S223). ).
  • the CPU 20 acquires camera shake information detected by the above-described sensor for detecting camera shake until the time for driving the camera shake correction lens group 211 per cycle determined by the above-described duty ratio elapses.
  • the camera shake correction lens group 211 is drive-controlled so as to correct the image blur caused by (step S224).
  • the CPU 20 switches the drive target by the drive unit to the decentration correction lens group 12 (step S225).
  • the CPU 20 executes steps S202 to S206 shown in FIG. 31 to drive and control the decentering correction lens group 12 to the target position in relation to the photographing conditions (step S226).
  • the CPU 20 waits for the time for driving the decentering correction lens group 12 per cycle determined by the above-described duty ratio to elapse (step S227), and after that time has elapsed, the drive by the drive unit The target is switched to the camera shake correction lens group 211 (step S223).
  • the CPU 20 acquires camera shake information detected by the above-described sensor for detecting camera shake until the time for driving the camera shake correction lens group 211 per cycle determined by the duty ratio elapses.
  • the camera shake correction lens group 211 is driven and controlled so as to correct image blur caused by camera shake (step S224).
  • step S227) instead of waiting for the time for driving the decentration correction lens group 12 per cycle to pass (step S227), after the decentration correction lens group 12 reaches the target position, the object to be driven by the drive unit Can be configured to switch to the camera shake correction lens group 211.
  • FIG. 36 is a diagram for explaining an example of a duty ratio setting method.
  • the duty ratio (time ratio for driving the eccentricity correction lens group 12 per cycle) may be fixed to, for example, 50% regardless of the shooting conditions. In the camera system 201 of this example, the duty ratio depends on the shooting conditions. Changed.
  • FIG. 36 shows an example in which the duty ratio is set in relation to the position of the zoom lens group ZL.
  • the duty ratio is set to 50% at the wide end and 0% at the tele end, and the interval is appropriately interpolated.
  • the interpolation is performed by a straight line, but may be performed by a curve.
  • the duty ratio can be set in relation to the position of the focus lens group FL.
  • the effect of camera shake increases as the focus position moves from the closest end to the ⁇ end, so the duty ratio is set to, for example, 50% at the close end and 0% at the ⁇ end, interpolating between them appropriately.
  • the duty ratio can be set in relation to the position of the diaphragm I.
  • the influence of camera shake increases as the aperture position moves from the fully open position to the minimum stop position. Therefore, for example, the duty ratio can be set to 50% at the fully open position and 0% at the minimum stop, and appropriately interpolating between them. .
  • the EEPROM 28 of the lens device 210 stores in advance a data table in which the position of the zoom lens group ZL, the position of the focus lens group FL, the position of the aperture I and the duty ratio are associated, and the CPU 20 is stored in the EEPROM 28.
  • the duty ratio is set based on the detected positions of the zoom lens group ZL, the focus lens group FL, and the stop I.
  • the lens device 210 can be reduced in size and weight, and the power consumption in the lens device 210 is further increased. Can be reduced.
  • the lens operation unit 50 or the camera body 40 uses the centering mode in which only the drive control of the decentering correction lens group 12 is performed and the camera shake correction mode in which the drive control of at least the camera shake correction lens group 211 is performed (first mode or second mode). However, for example, it is set in advance in the lens operation unit 50 or the camera body 40 to perform the camera shake correction in either the first mode or the second mode.
  • the CPU 20 may be configured to switch between the alignment mode and the camera shake correction mode in accordance with the detection result of the sensor to be detected.
  • a lens system for a camera including a movable lens group, and a correction lens group that corrects the optical performance of each part of the image by changing the position with respect to the optical axis, and the correction lens A driving unit for driving the group, a lens position acquisition unit for acquiring the lens position of the movable lens group, a designation unit for designating a partial image of a part of the image, the movable lens group, and the correction lens A storage unit storing a data table in which the position information of each group and the optical performance of each part of the image are associated; and the data table according to the lens position of the movable lens group acquired by the lens position acquisition unit The position of the correction lens group that enhances the optical performance of the partial image designated by the designation unit is obtained based on and the correction lens group is moved to the obtained position.
  • the correction lens group includes an eccentricity correction lens group whose position is changed in a plane perpendicular to the optical axis, and the control unit includes the part A lens system that obtains a position of the decentration correction lens group that enhances optical performance at the center of an image and controls the drive unit to move the decentration correction lens group to the obtained position.
  • the correction lens group includes a tilt correction lens group whose position in the optical axis direction is changed, and the control unit A lens system that obtains the position of the tilt correction lens group that enhances the overall optical performance and controls the drive unit to move the tilt correction lens group to the determined position.
  • the designation unit includes an image processing unit that cuts out and outputs a partial image of a predetermined area of the image, A lens system for designating a partial image in the area cut out by the image processing unit.
  • the designation unit sets a face frame including a face recognized by recognizing a human face from the image.
  • the designation unit divides the image into a plurality of areas, and the contrast is maximized among the plurality of areas.
  • a lens system including a contrast detection unit for detecting an area, and designating a partial image in the area detected by the contrast detection unit.
  • a camera system including a lens device and a camera body, wherein the lens device corrects the optical performance of each part of the image by changing the position with respect to the movable lens group and the optical axis.
  • An imaging optical system, a drive unit that drives the correction lens group, and a lens position acquisition unit that acquires a lens position of the movable lens group, and the camera body is connected by the imaging optical system.
  • An image pickup device that picks up the imaged image, a designation unit that specifies a partial image of a part of the image picked up by the image pickup device, and a position of each of the movable lens group and the correction lens group
  • a storage unit storing a data table in which information is associated with the optical performance of each unit of the image, and a lens position of the movable lens group acquired by the lens position acquisition unit. Then, based on the data table, the position of the correction lens group that enhances the optical performance of the partial image designated by the designation unit is obtained, and the drive unit is configured to move the correction lens group to the obtained position.
  • a control unit for controlling the camera system.
  • the correction lens group includes an eccentricity correction lens group whose position is changed in a plane perpendicular to the optical axis
  • the control unit includes the part A camera system that obtains a position of the decentration correction lens group that enhances optical performance at the center of an image and controls the drive unit to move the decentration correction lens group to the obtained position.
  • the correction lens group includes a tilt correction lens group whose position in the optical axis direction is changed, and the control unit A camera system that obtains a position of the tilt correction lens group that enhances the overall optical performance and controls the drive unit to move the tilt correction lens group to the determined position.
  • the optical system further includes an aperture, and the data table includes an aperture of the aperture in addition to the position information.
  • the optical performance is MTF or resolution.
  • the specifying unit includes an image processing unit that cuts out and outputs a partial image of a predetermined area of the image, A camera system for designating a partial image in the area cut out by the image processing unit.
  • the camera body includes a display unit that displays the image and the partial image, an operation unit that changes a position of the predetermined area in the image, A camera system comprising: (18) The camera system according to any one of (10) to (15), wherein the designation unit sets a face frame including a face recognized by recognizing a human face from the image.
  • a camera system that includes a detection unit and designates a partial image within a face frame set by the face detection unit.
  • the designation unit divides the image into a plurality of areas, and the contrast is maximized among the plurality of areas.
  • a camera system that includes a contrast detection unit that detects an area and designates a partial image in the area detected by the contrast detection unit.
  • the present invention it is possible to provide a lens system and a camera system that can adjust the image quality of an image in a part of the entire screen based on the conditions of an optical system such as a movable lens group during shooting.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 カメラシステム1は、レンズ装置10に、可動レンズ群12、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群12,14を含む結像光学系を備え、カメラ本体40に、撮像素子42によって撮像された画像のうち一部の領域の部分画像を指定する指定部70と、可動レンズ群及び補正レンズ群のそれぞれの位置情報と画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部28と、可動レンズ群のレンズ位置に応じて、データテーブルに基づいて、指定部によって指定された部分画像の光学性能を高める補正レンズ群の位置を求め、求めた位置に補正レンズ群を移動させるように制御する制御部と、を備える。

Description

レンズシステム及びカメラシステム
 本発明は、レンズシステム及びカメラシステムに関する。
 現在、スーパーハイビジョン等の高精細映像システムの研究が進められている。そして、高精細映像システムを用いた撮像では、4k(横4096×縦2160の画素数)や8k(横8192×縦4320の画素数)などの高解像度のカメラが用いられる。
 高解像度のカメラは、高画質化に対応するために各レンズ群の組立て誤差の少ないことが要望されている。一般に、レンズ群は、組立後に各レンズ群の誤差を調整し、各レンズ群内と各レンズ群間のバラツキによる画像の劣化を防止するように調整が行われる。しかし、組立て後のカメラにおいて、撮像の際に可動レンズ群の位置などの光学系の条件が変化すると、各レンズ群における組立て誤差の一つである偏芯が生じることがある。これは、各レンズ群の偏芯に対する収差の影響度が光学系の条件によって変化するためである。
 そこで、撮像時に、可動レンズ群の条件に基づいて可動レンズ群の光軸に対して偏芯レンズ群を偏芯駆動させて、画質を調整する撮像装置としては、特許文献1に示すものがある。
日本国特開2010-237250号公報
 ところで、現在、高解像度のカメラを用いたカメラシステムにおいて、撮像で取得した画像を表示する画面上で、例えば2k(横2048×縦1080の画素数)の解像度のカメラに相当する画面を部分的に切り出すことによって、トリミングや電子ズームなどに応用することが検討されている。
 しかし、一般的に、撮像された画像の中心は光学性能が高く、画像の周辺では光学性能が中心に比べて低くなる傾向がある。このため、撮像で取得した画像において所定のエリアの画像をトリミングや電子ズーム等の目的で使用する際に、そのエリアの光学性能が画像の他のエリアの光学性能よりも低くなる虞がある。
 特許文献1には、全体画面における一部のエリアを利用すること、そして、そのエリアの光学性能をどのように向上させるかということは何ら記載されていない。
 本発明は、上記事情を鑑みてなされたものであり、撮影の際に可動レンズ群等の光学系の条件に基づいて全体画面のうち一部のエリアの画像の画質を調整することができるレンズシステム及びカメラシステムを提供することにある。
(1) カメラ用のレンズシステムであって、可動レンズ群、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群を含む結像光学系と、上記補正レンズ群を駆動する駆動部と、上記可動レンズ群のレンズ位置を取得するレンズ位置取得部と、上記画像のうち一部の領域の部分画像を指定する指定部と、上記可動レンズ群及び上記補正レンズ群のそれぞれの位置情報と上記画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部と、上記レンズ位置取得部によって取得された上記可動レンズ群のレンズ位置に応じて、上記データテーブルに基づいて、上記指定部によって指定された上記部分画像の光学性能を高める上記補正レンズ群の位置を求め、求めた位置に上記補正レンズ群を移動させるように上記駆動部を制御する制御部と、を備えるレンズシステム。
(2) レンズ装置と、カメラ本体とを備えるカメラシステムであって、上記レンズ装置は、可動レンズ群、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群を含む結像光学系と、上記補正レンズ群を駆動する駆動部と、上記可動レンズ群のレンズ位置を取得するレンズ位置取得部と、を備え、上記カメラ本体は、上記結像光学系によって結像された上記画像を撮像する撮像素子と、上記撮像素子によって撮像された上記画像のうち一部の領域の部分画像を指定する指定部と、上記可動レンズ群及び上記補正レンズ群のそれぞれの位置情報と上記画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部と、上記レンズ位置取得部によって取得された上記可動レンズ群のレンズ位置に応じて、上記データテーブルに基づいて、上記指定部によって指定された上記部分画像の光学性能を高める上記補正レンズ群の位置を求め、求めた位置に上記補正レンズ群を移動させるように上記駆動部を制御する制御部と、を備えるカメラシステム。
 本発明によれば、撮影の際に、可動レンズ群等の光学系の条件に基づいて全体画面のうち一部のエリアの画像の画質を調整することができるレンズシステム及びカメラシステムを提供できる。
カメラシステムの主要の構成を示すブロック図である。 カメラシステムの光学系を模式的に示す図である。 レンズ装置の記憶部に記憶されるデータテーブルのデータ構造を示す図である。 全体画像、及び切出し画像を示す図である。 図1のカメラシステムにおいて、補正レンズ群を用いて画質を調整する手順を示すフローチャートである。 カメラシステムの他の構成例を示すブロック図である。 全体画像、及び顔枠内の画像を示す図である。 図6のカメラシステムにおいて、補正レンズ群を用いて画質を調整する手順を示すフローチャートである。 カメラシステムの他の構成例を示す図である。 全体画像、及びこの全体画像を分割した複数のエリアのうちコントラストが最も大きいエリアの画像を示す図である。 図9のカメラシステムにおいて、補正レンズ群を用いて画質を調整する手順を示すフローチャートである。 レンズ装置を備えるカメラシステムの構成を示すブロック図である。 図12のカメラシステムの光学系を模式的に示す図である。 図12のカメラシステムによって焦点調整の方法を説明する図である。 図12のレンズ装置において偏芯調整を行なう手順を示すフローチャートである。 レンズ装置のCCDで取得した画像と、画像のエリアごとのコントラストとを示す図である。 図12のレンズ装置において、チャート画像に基づいて倒れ補正レンズ群の倒れ角を設定する方法を説明する図である。 レンズ装置を備えるカメラシステムの他の構成例を示すブロック図である。 図18のカメラシステムの光学系を模式的に示す図である。 図18のレンズ装置において調芯を行なう手順を示すフローチャートである。 図18のレンズ装置において、チャート画像に基づいて倒れ補正レンズ群の倒れ角を設定する方法を説明する図である。 本発明の実施形態を説明するためのカメラシステムの他の例の主要な構成を示すブロック図である。 図22のカメラシステムの光学系を模式的に示す図である。 図22のレンズ装置の記憶部に記憶されるデータテーブルのデータ構造を示す図である。 図22のレンズ装置の第2補正レンズ群を駆動して像中心の変位を補正する手順を示すフローチャートである。 図22のレンズ装置の第2補正レンズ群を駆動して像中心の変位を補正する手順の他の例を示すフローチャートである。 本発明の実施形態を説明するためのカメラシステムの他の例の主要な構成を示すブロック図である。 図27のカメラシステムの光学系を模式的に示す図である。 図28の光学系の補正レンズ群を保持する保持部の一例の構成を模式的に示す図である。 保持部の他の例の構成を模式的に示す図である。 図28の光学系の補正レンズ群を移動させる制御プロセスを示すフローチャートである。 本発明の実施形態を説明するためのカメラシステムの他の例の主要な構成を示すブロック図である。 図32のカメラシステムの光学系を模式的に示す図である。 補正レンズ群を移動させる制御プロセスを示すフローチャートである。 補正レンズ群を移動させる制御プロセスを示すフローチャート 図35の制御プロセスにおけるデューティー比を設定する方法を説明するための図である。
 図1は、カメラシステムの主要の構成を示すブロック図である。図2は、カメラシステムに用いられるレンズ装置の光学系を模式的に示す図である。
 図1に示すように、カメラシステム1は、レンズ装置10と、カメラ本体40とを備える。
 レンズ装置10は、例えば、放送用に使用されるEFPレンズ又はENGレンズ等のレンズ装置である。レンズ装置10は、カメラ本体40にマウントによって装着される撮影レンズ(光学系)と、光学系を制御する制御系とを備える。
 レンズ装置10の光学系は、被写体の像をカメラ本体40の撮像素子42の撮像面に結ぶ結像光学系である。光学系において、フォーカスレンズ群FLと、ズームレンズ群ZLと、絞りIと、偏芯補正レンズ群12と、倒れ補正レンズ群14と、マスターレンズ群MLとが、被写体側からこの順に設けられている。
 フォーカスレンズ群FLは、光軸方向に移動することによって、被写体距離を変更する。ズームレンズ群ZLは、光軸方向に移動することによって、焦点距離を変更する。絞りIは、開閉駆動されて絞り開口が変化することにより、絞り値を変更する。ここで、フォーカスレンズ群FL及びズームレンズ群ZLのように、撮影条件に基づいて各レンズ群の位置を移動させることができるレンズ群を総称して可動レンズ群という。
 偏芯補正レンズ群12は、光軸方向に対して垂直な面(図2のX-Y平面に平行な面)に移動する。倒れ補正レンズ群14は、光軸方向に対して平行に(図2のZ方向)に移動する。偏芯補正レンズ群12は、撮像素子42の撮像面に結像される画像の中心位置を調整するために駆動制御される。倒れ補正レンズ群14は、撮像面に結像される画像全体に対して解像度等の光学性能を向上させるために駆動制御される。偏芯補正レンズ群12及び倒れ補正レンズ群14を総称して補正レンズ群ともいう。
 レンズ装置10の制御系は、CPU20、EEPROM28、アンプFA、ZA、IA、HA、VA、14A、モータFM、ZM、IM、HM、VM、14M、ポテンショメータFP、ZP、IP、HP、VP、14Pを備える。
 また、レンズ装置10に外部機器として接続されるレンズ操作部50、カメラ本体40、カメラコントロールユニット(CCU)60、切出し操作部70、モニタ80もレンズシステム全体として制御系を構成する。
 カメラ本体40は、レンズ装置10の光学系によって画像が結像される撮像素子42と、撮像素子42の駆動や、レンズ装置10との通信などのカメラ本体40内部の処理部を統括的に制御するカメラCPU44とを備えている。撮像素子42はCCDである。
 レンズ装置10のCPU20は、フォーカスレンズ群FLやズームレンズ群ZL等のレンズ制御を統括的に行う制御部である。
 EEPROM28は、レンズ装置10の動作に関する各種データを格納する記憶部である。
 CPU20は、D/A変換器22を介して各アンプFA、ZA、IAに駆動信号を出力する。これにより、各アンプFA、ZA、IAに接続された各モータFM、ZM、IMがその駆動信号の値(電圧)に応じた回転速度で駆動される。
 各モータFM、ZM、IMは、撮影レンズのフォーカスレンズ群FL、ズームレンズ群ZL、絞りIに連結されている。各モータFM、ZM、IMは、モータの駆動によってフォーカスレンズ群FL、ズームレンズ群ZL、絞りIを駆動する駆動部である。
 フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの各々には、それらの位置を検出するための位置センサとしてポテンショメータFP、ZP、IPが連結されている。なお、ポテンショメータFP、ZP、IPは、各モータFM、ZM、IMの出力軸等にフォーカスレンズ群FL、ズームレンズ群ZL、絞りIと連動するように設けられていればよい。
 各ポテンショメータFP、ZPは、レンズ位置取得部として設置されたもので、ポテンショメータFPからは、フォーカスレンズ群FLの位置に対応した値(絶対位置を示す値)の電圧信号が、ポテンショメータZPからは、ズームレンズ群ZLの位置に対応した値(絶対位置を示す値)の電圧信号がそれぞれ出力され、A/D変換器24を介してCPU20に与えられる。ポテンショメータIPは、絞りIの絞り位置に対応した値(絶対位置を示す値)の電圧信号を出力し、出力された電圧信号がA/D変換器24を介してCPU20に与えられる。
 CPU20は、ポテンショメータFP、ZPによって検出されたフォーカスレンズ群FL、ズームレンズ群ZLのレンズ位置を参照しながら各アンプFA、ZAに出力する駆動信号の値を変更することによってフォーカスレンズ群FL、ズームレンズ群ZLの位置又は動作速度を所望の状態に制御する。
 レンズ操作部50は、撮影レンズのフォーカス(フォーカスレンズ群FL)やズーム(ズームレンズ群ZL)の目標となる位置や移動速度をマニュアル操作で指定するマニュアル操作部材を備えたコントローラである。レンズ操作部50は、図示しないフォーカスデマンドとズームデマンドを含み、A/D変換器24を介してCPU20と接続される。フォーカスデマンド及びズームデマンドにはそれぞれ、マニュアル操作部材が設けられている。
 レンズ操作部50のフォーカスデマンドのマニュアル操作部材を操作すると、その操作部材の位置に対応したフォーカスの目標位置を指定するフォーカス指令信号がCPU20に与えられる。CPU20は、ポテンショメータFPにより検出されるフォーカスレンズ群FLの位置がそのフォーカス指令信号により指定された目標位置となるように、アンプFAに出力する駆動信号によりモータFMを制御してフォーカスレンズ群FLの位置を制御する。なお、一般に、マニュアルフォーカスではフォーカスデマンドから与えられる目標位置に従ってフォーカスレンズ群FLの位置制御が行われるが、フォーカスデマンドから目標の移動速度が与えられ、それに従ってフォーカスレンズ群FLの速度制御を行うことも可能である。
 レンズ操作部50のズームデマンドのマニュアル操作部材を操作すると、その操作部材の位置に対応したズームの目標の移動速度を指定するズーム指令信号がCPU20に与えられる。CPU20は、ズームレンズ群ZLの移動速度がそのズーム指令信号により指定された目標の移動速度となるように、アンプZAに出力する駆動信号によりモータZMを制御してズームレンズ群ZLの移動速度を制御する。なお、速度制御において、ポテンショメータZPから得られたズームレンズ群ZLの位置の情報は端近傍での減速制御等に使用される。また、ズーム制御ではズームデマンドから与えられる目標の移動速度に従ってズームレンズ群ZLの速度制御が行われるが、ズームデマンドから目標位置が与えられ、それに従ってズームレンズ群ZLの位置制御を行うことも可能である。
 また、CPU20は、外部機器との通信制御を行う。CPU20は、シリアルコミュニケーションインターフェース(SCI)26、46を通じてカメラ本体40のカメラCPU44とシリアル通信を行い、又は、カメラ本体40とパラレル通信を行えるようになっている。レンズ装置10のCPU20は、例えば、上記ポテンショメータFP、ZPによって検出されたズーム位置やフォーカス位置等のレンズ情報をカメラ本体40のカメラCPU44に送信する。カメラCPU44は、CPU20に絞りの目標位置を指定するアイリス指令信号等を与える。CPU20は、ポテンショメータIPにより検出される絞りIの絞り位置(開閉度)がカメラCPU44により与えられたアイリス指令信号により指定された目標位置となるように、アンプIAに出力する駆動信号によりモータIMを制御して絞りIの絞り位置を制御する。
 CCU60は、カメラ本体40に接続されている。CCU60は、カメラ本体40のCCD42で取得した画像信号が入力され、この画像信号に各種機能によって画質を調整する機能を有している。
 モニタ80は、カメラ本体40からCCU60を通じて画像信号が与えられ、画像信号に基づいて作成された画像をモニタの画面に表示する。
 切出し操作部70は、ジョイスティック等のマニュアル操作部を含み、このマニュアル操作部を操作することによって、モニタ80の画面に表示された画像の一部の領域を切出してなる切出し画面の位置の設定や変更を行なうことができる。
 このカメラシステム1は、予め可動レンズ群と補正レンズ群とのそれぞれの位置情報と光学性能とを関連付けたデータテーブルがEEPROM28に記憶されている。そして、レンズ装置10のCPU20は、EEPROM28からこのデータテーブルを読み出し、このデータテーブルに基づいて、切出し画像の光学性能を高めるように補正レンズ群を制御する。
 CPU20は、補正レンズ群を制御する際には、D/A変換器22を介して各アンプHA、VA、14Aに駆動信号を出力する。これにより、各アンプHA、VA、14Aに接続された各モータHM、VM、14Mがその駆動信号の値(電圧)に応じた回転速度で駆動される。
 各モータHM、VMは、偏芯補正レンズ群12に連結されている。モータHMは、偏芯補正レンズ群12を光軸に対して垂直な面におけるX方向に駆動し、モータVMは、偏芯補正レンズ群12を光軸に対して垂直な面におけるY方向に駆動する。モータ14Mは、倒れ補正レンズ群14に連結されており、倒れ補正レンズ群14を光軸に対して平行(Z方向)に駆動する。
 各ポテンショメータHP、VP、14Pは、補正レンズ群の位置取得部として設置されている。ポテンショメータHPからは、偏芯補正レンズ群12のX方向の位置に対応した値(絶対位置を示す値)の電圧信号が出力される。ポテンショメータVPからは、偏芯補正レンズ群12のY方向の位置に対応した値(絶対位置を示す値)の電圧信号が出力される。ポテンショメータ14Pからは、倒れ補正レンズ群14の光軸方向(Z方向)の位置に対応した値(絶対位置を示す値)の電圧信号が出力される。各ポテンショメータHP、VP、14Pから出力された電圧信号がA/D変換器24を介してCPU20に与えられる。
 CPU20は、ポテンショメータHP、VP、14Pによって検出された偏芯補正レンズ群12、倒れ補正レンズ群14のレンズ位置と、可動レンズ群のレンズ位置と、データテーブルを参照しながら、各アンプHA、VA、14Aに出力する駆動信号の値を変更することによって偏芯補正レンズ群12、倒れ補正レンズ群14の位置を制御する。
 次に、データテーブルのデータ構造について説明する。
 図3は、データテーブルのデータ構造を示す図である。図3(a)に示すテーブルは、可動レンズ群及び絞りそれぞれの位置と、偏芯補正レンズ群12の位置と、そのときの画像の各部の解像度とを関連付けたものである。図3(b)に示すテーブルは、可動レンズ群及び絞りそれぞれの位置と、倒れ補正レンズ群14の位置と、そのときの画像の各部の解像度とを関連付けたものである。
 フォーカスレンズ群FLの位置情報を示すパラメータ(「a01」、「a02」、「a03」・・・)には、フォーカスレンズ群FLの絶対位置を示す値が与えられている。ズームレンズ群ZLの位置情報を示すパラメータ(「b01」、「b02」、「b03」・・・)には、ズームレンズ群ZLの絶対位置を示す値が与えられている。絞りの絞り位置を示すパラメータ(「c01」、「c02」、「c03」・・・)には絞りIの絞り位置を示す値が与えられている。上述の各パラメータには、例えば「0」、「-1」、「+1」等の数値が与えられている。
 偏芯補正レンズ群12の位置情報を示すパラメータ(「d01」、「d02」、「d03」・・・)には、偏芯補正レンズ群12の光軸に対して垂直な面における位置を示す値が与えられている。これら値は、偏芯補正レンズ群12のX方向位置とY方向位置を示す座標である。
 倒れ補正レンズ群14の位置情報を示すパラメータ(「e01」「e02」「e03」・・・)には、倒れ補正レンズ群14の光軸方向における位置を示す値が与えられている。これら値は、光軸方向の基準位置を「0」として、Z方向の位置を示す「-1」、「+1」等の数値である。
 解像度は、対応する可動レンズ群及び補正レンズ群のパラメータに基づいて撮像される画像の各部の解像度を示す値である。解像度の値が高いほど光学性能が高く、解像度の値が低いほど光学性能が低い。
 上述したデータテーブルでは、光学性能を示す指標として解像度を用いたが、これに限定されず、MTF(Modulation Transfer Function)であっても良い。
 また、上述したデータテーブルは、可動レンズ群及び絞りの位置と偏芯補正レンズ群12の位置とを関連付けたテーブルと、可動レンズ群及び絞りの位置と倒れ補正レンズ群14の位置とを関連付けたテーブルを別々にしたデータ構造とした。しかし、データテーブルのデータ構造はこれに限定されず、可動レンズ群及び絞りの位置と偏芯補正レンズ群12及び倒れ補正レンズ群14それぞれの位置とを関連付けて1つのテーブルとしたデータ構造であっても良い。
 次に、全体画像から切出した切出し画像の画質を調整することの意義を説明する。
 図4は、全体画像と切出し画像を示す図である。
 トリミングや電子ズームでは、カメラ本体40のCCD42で取得した画像情報に基づき生成された画像を全体画像としたとき、全体画像の一部の領域の画像を切出し、この切出し画像を全体画像の一部に表示させる処理や、この切出し画像のみを拡大してモニタ80の画面全体に表示させる処理が行なわれる。このとき、全体画像の画質が良くても切出し画像の画質が十分に良くない場合には、これらの処理を実行することでユーザによる視認性が低下してしまう。一般に、撮像レンズを含む光学系では、全体画像の中央の光学性能が高く、周辺に行くほど光学性能が中央に比べて低くなる。すると、全体画像において周辺部分で画像を切出した場合には、切出し画像の画質が、全体画像の画質より低くなる。上述のトリミングや電子ズームのような画像処理においては、全体画像の画質よりもこの切出し画像の画質を高くすることが重要である。
 そこで、このカメラシステム1は、撮影の際に、偏芯補正レンズ群12を駆動制御することによって切出し画像の中心Cの光学性能を高めるように制御し、また、倒れ補正レンズ群14を駆動制御することによって切出し画像全体の光学性能を高めるように制御する。
 なお、偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動する方向は、フォーカスレンズ群FLやズームレンズ群ZLの可動レンズ群を含む、各レンズの構成によって一義的に決まる。データテーブルを作成する際に、実際に搭載される光学系のレンズの構成に合わせて、偏芯補正レンズ群12及び倒れ補正レンズ群14の駆動方向及び駆動量を実測的に求め、求められた値を可動レンズ群及び絞りの位置とそのときの画像の各部の光学性能(ここでは解像度)とを関連付けたデータを作成すれば良い。
 次に、切出し画像の画質を調整する手順を説明する。
 図5は、図1のカメラシステムにおいて、補正レンズ群によって切出し画像の画質を調整する手順を示すフローチャートである。以下の説明では、図1のカメラシステム1の構成を適宜参照する。
 最初に、可動レンズ群及び絞りと、補正レンズ群とを所定の初期位置に設定する。
 フォーカス操作やズーム操作を実行する(ステップS10)。ここでは、補正レンズ群を駆動する以外の操作が適宜実行される。
 続いて、カメラ本体40で取得した全体画像から画像の切出しを実行する操作が行なわれたか否かを検出する(ステップS12)。切出しの操作の有無は、切出し操作部70からの入力信号に基づいて、カメラ本体40のカメラCPU44が判別する。切出しの操作が検出された場合には、後述するステップに示すように、補正レンズ群の制御による切出し画像の画質を調整するフローを実行する。切出しの操作が検出されなかった場合には、補正レンズ群の制御による切出し画像の画質を調整するフローを実行せずに、ステップS10におけるレンズ装置10の状態を維持する。
 切出し画像の画質を調整するフローでは、レンズ装置10は、CPU20がカメラ本体40から切出し画像の対角座標を読み出す(ステップS14)。続いて、CPU20は、対角座標に基づいて切出し画像の中心座標を算出する(ステップS16)。こうして、CPU20は、全体画像において切出し画像の位置を特定することができる。
 続いて、CPU20は、ポテンショメータZPの出力値を読み込むことによって現時点のズームレンズ群ZLの位置を検出し(ステップS18)、ポテンショメータFPの出力値を読み込むことによって現時点のフォーカスレンズ群FLの位置を検出し(ステップS20)、ポテンショメータIPの出力値を読み込むことによって現時点の絞りIの絞り位置を検出する(ステップS22)。ステップS18、S20、S22を実行する順番はこの順に限られずに適宜変更しても良く、又は、同時に実行されても良い。
 その後、CPU20は、記憶部28に予め記憶されているデータテーブルを参照し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、切出し画像の中心の光学性能(ここでは解像度)が最大となる偏芯補正レンズ群12の位置を求める(ステップS24)。そして、CPU20は、求めた偏芯補正レンズ群12の位置に応じて、偏芯補正レンズ群12を駆動制御する(ステップS26)。
 また、CPU20は、記憶部28に予め記憶されているデータテーブルを参照し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、切出し画像全体の光学性能(ここでは解像度)が最大となる倒れ補正レンズ群14の位置を求める(ステップS28)。そして、CPU20は、求めた倒れ補正レンズ群14の位置に応じて、倒れ補正レンズ群14を駆動制御する(ステップS30)。
 こうして、カメラシステム1は、レンズ装置10の偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動制御することによって、切出し画像の画質を向上することができる。
 次に、図6に基づいて、カメラシステムの他の構成例を説明する。このカメラシステムは、全体画像において顔認識によって被写体人物像に顔枠を設定した場合に、上述した補正レンズ群を駆動制御することによって顔枠内の画像の画質を調整することができる。
 図6のカメラシステム1は、基本的に、図1に示すものと同じである。以下では、図1の構成と相違している点を説明する。
 レンズ装置10にAFユニット29が設けられている。AFユニット29は、SCI26によってCPU20に接続されている。
 また、カメラシステム1は、顔検出部52を備えている。顔検出部52は、カメラCPU44によって制御される。なお、カメラシステム1は、切出し操作部を備えていない。
 AFユニット29は、図示を省略するが、AF処理部、AF用撮像回路等から構成されている。AF用撮像回路はAF処理用の映像信号を取得するためにレンズ装置10に配置されており、CCD等の撮像素子(AF用撮像素子という)やAF用撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。なお、AF用撮像回路から出力される映像信号は輝度信号である。
 AF用撮像素子の撮像面には、光学系の光路上に配置されたハーフミラー等によってカメラ本体40の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラ本体40の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる被写体画像は、カメラ本体40の撮像素子により取り込まれる被写体画像と一致している。なお、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラ本体40の撮像素子の撮影範囲を包含する大きな範囲であってもよい。
 AF処理部は、AF用撮像回路から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象とするAFエリアに対応する範囲の信号を1画面(1フレーム)分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてCPUに与えられる。
 CPU20は、AFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を、カメラCPU44を介して取得し、そのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部から取得する。
 このようにしてAF用撮像回路から1画面分の映像信号が取得されるごとに(AF処理部で焦点評価値が求められるごとに)AF処理部から焦点評価値を取得すると共に、取得した焦点評価値が最大(極大)、即ち、AFエリアの被写体画像のコントラストが最大となるようにフォーカスレンズ群FLを制御する。例えば、焦点評価値に基づくフォーカスレンズ群FLの制御方式として山登り方式が一般的に知られており、フォーカスレンズ群FLを焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群FLを設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。
 顔検出部52は、撮像された被写体画像中の被写体人物について顔認証を行い、その被写体人物が例えばオートフォーカスをかけて追尾するように予め設定されていた被写体(フォーカス対象)であると認定された場合には、AFユニット29を通じてレンズ装置10をオートフォーカス制御するものである。
 また、顔検出部52によって顔認証を行なった結果、特定の人物を認定した場合には、カメラCPU44は、モニタ80に被写体画像中の被写体人物に合わせて顔枠84を、CCU60を通じて表示させる。
 このカメラシステム1は、予め可動レンズ群と補正レンズ群とのそれぞれの位置情報と画像の各部の光学性能とを関連付けたデータテーブルがEEPROM28に記憶されている。そして、レンズ装置10のCPU20は、EEPROM28からこのデータテーブルを読み出し、このデータテーブルに基づいて、顔枠84内の画像の光学性能が高くなるように補正レンズ群を制御する。
 なお、データテーブルのデータ構造は、上述したものと同じである。
 次に、全体画像において顔枠84内の画像の画質を調整することの意義を説明する。
 図7は、全体画像と顔枠内の画像を示す図である。
 顔枠84内の画像は、撮影者が撮影対象としているため、この顔枠84内の画像を拡大してモニタ80に表示させる処理を行なうことが多い。このとき、全体画像の画質が良くても顔枠84内の画像の画質が十分に良くない場合には、これらの処理を実行することでユーザによる視認性が低下してしまう。一般に、撮像レンズを含む光学系では、全体画像の中央の光学性能が高く、周辺に行くほど光学性能が中央に比べて低くなる。すると、全体画像において周辺部分で顔枠84が設定された場合には、顔枠84内の画像の画質が、全体画像の画質より低くなる。顔認識においては、全体画像の画質よりもこの顔枠84内の画像の画質を高くすることが重要である場合が考えられる。
 そこで、このカメラシステム1は、撮影の際に、偏芯補正レンズ群12を駆動制御することによって顔枠84内の画像の中心Cの光学性能が高くなるように制御し、また、倒れ補正レンズ群14を駆動制御することによって顔枠84内の画像全体の光学性能が高くなるように制御する。
 次に、顔枠内の画像の画質を調整する手順を説明する。
 図8は、図6のカメラシステムにおいて、補正レンズ群によって顔枠内の画像の画質を調整する手順を示すフローチャートである。以下の説明では、図6のカメラシステム1の構成を適宜参照する。
 最初に、可動レンズ群及び絞りと、補正レンズ群とを所定の初期位置に設定する。
 フォーカス操作やズーム操作を実行する(ステップS40)。ここでは、補正レンズ群を駆動する操作以外の操作が適宜実行される。
 続いて、顔認識によって設定された顔枠内の画像を補正するモードになっているか否か検出する(ステップS42)。顔枠内の画像を補正するモードの設定は、例えば、レンズ操作部50やカメラ本体40においてオン、オフを選択可能である。また、顔枠内の画像を補正するモードの検出は、カメラCPU44が判別する。顔枠内の画像を補正するモードがオンの場合には、後述するステップに示すように、補正レンズ群の制御による顔枠84内の画像の画質を調整するフローを実行する。顔枠内の画像を補正するモードがオフの場合には、補正レンズ群の制御による顔枠84内の画像の画質を調整するフローを実行せずに、ステップS40におけるレンズ装置10の撮影状態を維持する。
 顔枠84内の画像の画質を調整するフローでは、レンズ装置10は、CPU20がカメラ本体40から全体画像における顔枠84の対角座標を読み出す(ステップS44)。続いて、CPU20は、対角座標に基づいて顔枠84内の画像の中心座標を算出する(ステップS46)。こうして、CPU20は、全体画像において顔枠84内の画像の位置を特定することができる。
 続いて、CPU20は、ポテンショメータZPの出力値を読み込むことによって現時点のズームレンズ群ZLの位置を検出し(ステップS48)、ポテンショメータFPの出力値を読み込むことによって現時点のフォーカスレンズ群FLの位置を検出し(ステップS50)、ポテンショメータIPの出力値を読み込むことによって現時点の絞りIの絞り位置を検出する(ステップS52)。ステップS48、S50、S52を実行する順番はこの順に限られずに適宜変更しても良く、又は、同時に実行されても良い。
 その後、CPU20は、EEPROM28に予め記憶されているデータテーブルを参照し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、顔枠84内の画像の中心の光学性能(ここでは解像度)が最大となる偏芯補正レンズ群12の位置を求める(ステップS54)。そして、CPU20は、求めた偏芯補正レンズ群12の位置に応じて、偏芯補正レンズ群12を駆動制御する(ステップS56)。
 また、CPU20は、EEPROM28に予め記憶されているデータテーブルを参照し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、顔枠84内の画像全体の光学性能(ここでは解像度)が最大となる倒れ補正レンズ群14の位置を求める(ステップS58)。そして、CPU20は、求めた倒れ補正レンズ群14の位置に応じて、倒れ補正レンズ群14を駆動制御する(ステップS60)。
 こうして、カメラシステム1は、レンズ装置10の偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動制御することによって、顔枠84内の画像の画質を向上することができる。
 次に、図9に基づいて、カメラシステムの他の構成例を説明する。このカメラシステム1は、全体画像を複数のエリアに分割し、この複数のエリアのうちコントラストが最大となるエリアを求め、上述した補正レンズ群を駆動制御することによって、コントラストが最大となるエリアの画像の画質を調整することができる。
 図9のカメラシステム1は、基本的に、図1に示すものと同じである。以下では、図1の構成と相違している点を説明する。
 カメラシステム1は、コントラスト検出部54を備えている。コントラスト検出部54は、カメラCPU44によって制御される。なお、カメラシステム1は、切出し操作部を備えていない。
 また、カメラシステム1は、AFユニット29を備えている。AFユニット29は、既に説明したものと同じであるため、ここでは説明を省略する。
 図10は、全体画像、及びこの全体画像を分割した複数のエリアのうちコントラストが最も大きいエリアの画像を示す図である。
 コントラスト検出部54は、図示しない画像処理部を備えており、カメラ本体40から撮像によって得られた画像を複数のエリアに分割し、複数のエリアそれぞれのコントラストの値を算出する。また、コントラスト検出部54は、分割された複数のエリアごとに座標情報を生成し、各エリアと座標情報とコントラストの値とを関連付けた情報を管理する。
 次に、全体画像を分割した複数のエリアのうちコントラストが最も大きいエリアの画像の画質を調整することの意義を説明する。
 例えば、オートフォーカスでは、全体画像のうち、撮影者が撮影したい被写体像に焦点を合わせるため、被写体増において光学性能が最大となることが望ましい。被写体像に焦点をあわせると、全体画像において被写体像を含む領域のコントラストが高くなる傾向がある。このカメラシステム1は、撮影の際に、偏芯補正レンズ群12を駆動制御することによって、コントラストが最大となるエリアの画像の中心Cの光学性能が高くなるように制御し、また、倒れ補正レンズ群14を駆動制御することによって上記エリアの画像全体の光学性能が高くなるように制御する。
 次に、コントラストが最大となるエリアの画像の画質を調整する手順を説明する。
 図11は、図9のカメラシステムにおいて、補正レンズ群により、コントラストが最大となるエリアの画像の画質を調整する手順を示すフローチャートである。以下の説明では、図9のカメラシステム1の構成を適宜参照する。
 最初に、可動レンズ群及び絞りと、補正レンズ群とを所定の初期位置に設定する。
 フォーカス操作やズーム操作を実行する(ステップS70)。ここでは、補正レンズ群を駆動する以外の操作が適宜実行される。
 続いて、画像を分割してコントラストに基づく画質の調整を行うモードに設定されているか否か検出する(ステップS72)。このモードの設定は、例えば、レンズ操作部50やカメラ本体40においてオン、オフを選択可能である。また、このモードの検出は、カメラCPU44が判別する。このモードがオンの場合には、後述するステップに示すように、画像を分割してコントラストに基づいて画質を調整するフローを実行する。モードがオフの場合には、画像を分割してコントラストに基づいて画質を調整するフローを実行せずに、ステップS70におけるレンズ装置10の撮影状態を維持する。
 画像を分割してコントラストに基づいて画質を調整するフローでは、カメラCPU44が、コントラスト検出部を制御し、コントラスト検出部54が、カメラ本体40で取得された画像を複数に分割し、分割された複数のエリアごとにコントラストの値を算出する。そして、コントラスト検出部54は、複数のエリアのうちコントラストの値が最大となるエリアを特定する。レンズ装置10は、コントラスト検出部54から、コントラストの値が最大となるエリアの座標情報を、カメラCPU44を通じて受信する(ステップS74)。続いて、CPU20は、座標情報に基づいてコントラストの値が最大となるエリアの中心座標を算出する(ステップS76)。
 続いて、CPU20は、ポテンショメータZPの出力値を読み込むことによって現時点のズームレンズ群ZLの位置を検出し(ステップS78)、ポテンショメータFPの出力値を読み込むことによって現時点のフォーカスレンズ群FLの位置を検出し(ステップS80)、ポテンショメータIPの出力値を読み込むことによって現時点の絞りIの絞り位置を検出する(ステップS82)。ステップS78、S80、S82を実行する順番はこの順に限られずに適宜変更しても良く、又は、同時に実行されても良い。
 その後、CPU20は、EEPROM28に予め記憶されているデータテーブルを参照し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、コントラストの値が最大となるエリアの画像の中心の光学性能(ここでは解像度)が最大となる偏芯補正レンズ群12の位置を求める(ステップS84)。そして、CPU20は、求めた偏芯補正レンズ群12の位置に応じて、偏芯補正レンズ群12を駆動制御する(ステップS86)。
 また、CPU20は、EEPROM28に予め記憶されているデータテーブルを参照し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、コントラストの値が最大となるエリアの画像全体の光学性能(ここでは解像度)が最大となる倒れ補正レンズ群14の位置を求める(ステップS88)。そして、CPU20は、求めた倒れ補正レンズ群14の位置に応じて、倒れ補正レンズ群14を駆動制御する(ステップS90)。
 こうして、カメラシステム1は、レンズ装置10の偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動制御することによって、コントラストの値が最大となるエリアの画像の画質を向上することができる。
 上述の光学性能が最大となるように補正する例では、解像度又はMTFを例示したが、これに限定されない。例えば、以下に示すように解像度又はMTF以外の特性を代用して補正レンズ群を制御しても良い。
 (解像度又はMTF以外の特性の例1)
 画像のコントラスト評価値を測定し、コントラスト評価値が最大となるように補正レンズ群を駆動する。この場合には、データテーブルには、予め可動レンズ群の位置と、補正レンズ群の位置と、コントラスト評価値とを関連付けた情報が含まれていれば良い。
 (解像度又はMTF以外の特性の例2)
 画像における所定のエリア内の高輝度部分の面積を測定し、面積が最小となるようにレンズを駆動する。
 (解像度又はMTF以外の特性の例3)
 画像を複数の領域に分割して、最も輝度値が高くなる領域を検出し、最も高輝度な領域の輝度が、画面において、最大の輝度値となるようにレンズを駆動する。
 (解像度又はMTF以外の特性の例4)
 画像の被写体像の輪郭を画像解析し、輪郭の境界が最も細くなるようにレンズを駆動する。
 (解像度又はMTF以外の特性の例5)
 画像の形状を画像解析し、形状の解析結果が(何の画像かによって個別の)所定の画像解析値に最も近くなるように、レンズを駆動する。(例えば画像が顔であると判断すれば、顔の解析値に一致するようにレンズを動かすことで、最も顔らしく見えるようにレンズを制御する。
 (解像度又はMTF以外の特性の例6)
 その他の評価値を使い、光学性能を表す様々なパラメータの値(コントラスト値やMTFに置換できる値)が最大となるようにレンズを制御する
 (解像度又はMTF以外の特性の例7)
 その他の評価値を使い、エリア内を細分化した区画の光学性能を表す様々なパラメータの値(コントラスト値やMTFに置換できる値)が最大となるようにレンズを制御する。
 上述のレンズシステム及びカメラシステムにおいて、偏芯補正レンズ群と倒れ補正レンズ群の両方を使用した例を説明したが、いずれか一方を用いて画像の光学性能を調整しても良い。
 次に、図12に基づいて、カメラシステムの他の構成例を説明する。このカメラシステム1は、全体画像を複数のエリアに分割し、この複数のエリアのうちコントラストが最大となるエリアを求め、上述した補正レンズ群を駆動制御することによって、コントラストが最大となるエリアの画像の画質を調整することができる。
 図12は、本発明のレンズ装置を備えたカメラシステムの主要の構成を示すブロック図である。図13は、レンズ装置の光学系を模式的に示す図である。
 レンズ装置10の光学系は、被写体の像をカメラ本体40の撮像素子42の撮像面に結ぶ撮影光学系である。光学系において、フォーカスレンズ群FLと、ズームレンズ群ZLと、絞りIと、倒れ補正レンズ群34と、ビームスプリッタ31と、マスターレンズ群MLとが、被写体側から撮像面に向かって、この順に設けられている。
 ビームスプリッタ31は、偏芯補正レンズ群を透過した光束を、撮像面に向かう第1光路と、この第1光路に対して略垂直方向に反射する第2光路とに分岐するハーフミラーである。
 第2光路において、ビームスプリッタ31によって反射された光を集光する集光レンズ33と、この集光レンズ33によって集光された光を更に分岐させるビームスプリッタ35とが設けられている。
 ビームスプリッタ35は、第2光路に沿って入射した光束を2つの光束に分岐するキューブ型のハーフミラーである。ビームスプリッタには2つの光出射面が形成され、2つの光出射面それぞれには、CCD32A、32Bが設けられている。また、CCD32A、32Bは、第2光路を通る光束の結像位置に、互いに共役となる位置関係で配置されている。
 CCD32A、32Bは、合焦状態を検出するのに用いられる。また、CCD32A、32Bは、後述するように偏芯補正にも用いられる。
 倒れ補正レンズ群34は、光軸方向に直交する方向を軸に回動し、倒れ角が変化する。倒れ補正レンズ群34は、後述のように駆動制御されて光学系の光軸に対する倒れ角を変えて光学系を透過する光束の中心線の位置を調整することにより、個々のレンズに存在する偏芯に依存する画質の低下を抑制する補正レンズ群である。
 レンズ装置10の制御系は、CPU20、EEPROM28、アンプFA、ZA、IA、34A、モータFM、ZM、IM、34M、ポテンショメータFP、ZP、IP、34Pを備える。
 モータ34Mは、偏芯補正レンズ群12に連結されている。モータ34Mは、倒れ補正レンズ群34に連結されており、倒れ補正レンズ群34を光軸に直交する面(X-Y平面)に対して傾斜させて、この倒れ補正レンズ群34の倒れ角を変えるように駆動する。
 ポテンショメータ34Pは、補正レンズ群の位置取得手段として設置されている。ポテンショメータ34Pからは、倒れ補正レンズ群34の倒れ角に対応した値の電圧信号が出力される。ポテンショメータ34Pから出力された電圧信号がA/D変換器24を介してCPU20に与えられる。
 CPU20は、ポテンショメータ34Pによって検出された倒れ補正レンズ群34の倒れ角と、可動レンズ群のレンズ位置と、データテーブルを参照しながら、アンプ34Aに出力する駆動信号の値を変更することによって、倒れ補正レンズ群34の倒れ角を制御する。
 レンズ装置10は、CCD32A、CCD32Bを用いてコントラスト方式の合焦位置を検出する機能を有する。次に、この方式の合焦位置検出について説明する。
 レンズ装置10において、光学系の第2光路の結像位置には、光束の中心線方向において結像位置から前後等間隔に位置をずらしてCCD32A、CCD32Bそれぞれが配置されている。こうすることで、CCD32A、32Bによって同時に合焦状態を検知することができ、ワブリングに比較して合焦位置を特定する速度が向上する。
 レンズ装置10によって焦点調整の方法を説明する図である。図14は、フォーカスレンズ群FLの位置と、CCD32A、32Bそれぞれから検出されるコントラストとの関係を示している。
 図14に示すように、レンズ装置10の合焦位置検出では、カメラ本体40側のCCD42の結像面でのコントラストを表す焦点評価値(以下、評価値)が最大となるように、CCD32Aの評価値とCCD32Bの評価値とが等しくなる位置に、フォーカスレンズ群FLを制御する。
 2つのCCD32A、32Bそれぞれの評価値の大小を比較することで、フォーカスレンズ群FLをFAR端及びNEAR端のうちどちらかに移動させれば良いかを判別でき、それぞれの評価値の差(又は比)に応じてフォーカス速度を設定することができる。このため、一般的な山登り方式AFとは異なり、レンズ装置10のAF方式は、合焦点を行き過ぎる動作が必要なくなる。
 レンズ装置10は、上述のCCD32A、CCD32Bを利用し、カメラ本体40のCCD42を利用せずに、レンズ装置10の光学系の偏芯補正を行う。
 レンズ装置10は、製造工場での組立て時やメンテナンス時において、レンズ装置10単体で偏芯補正を行う。
 ここで、第1光路における光学系と、第2光路における光学系とは、等価である。つまり、第2光路において、CCD32A、CCD32Bを利用して偏芯補正を行うことで、第1光路の光束が結像されるカメラ本体40のCCD42を用いて偏芯補正を用いたことと等しい調整を行なうことができる。
 図15は、図12のレンズ装置において偏芯補正を行なう手順を示すフローチャートである。
 先ず、レンズ装置10は、CPU20の制御によって、偏芯補正を行う場合には、図13に示すように画質評価用チャートCHをCCD32A、32Bのそれぞれで撮像し、チャート画像を取得する。このとき、CCD32Aで取得したチャート画像のうち、中心エリアと、4隅エリアとの計5つの画像を取得する(ステップS110)。そして、CPU20は、中心エリアの画像と、4隅エリアそれぞれの画像のコントラストの値を算出する。この例では、コントラストの値を評価値として用いることとする。
 その後、CPU20は、各エリアにおいて算出された評価値に基づいて、中心エリアの画像のコントラスト値と4隅エリアの各画像のコントラスト値とを比較する(ステップS112)。図16は、チャート画像の各エリアのコントラストを模式的に示す図である。図16では、一つのCCDで取得されたチャート画像を模式的に示しているが、この例ではCCD32A、CCD32Bそれぞれからチャート画像を取得し、2つのチャート画像それぞれにおいて、中心エリアの画像と他の各エリアの画像との比較を行なっている。
 図16では、左上のエリアの画像が最もコントラストが高く、中心エリア、右上のエリア、左下のエリアそれぞれの画像が次いでコントラストが高く、右下のエリアの画像が最もコントラストが低い。図16では、中心エリアの画像のコントラストに比べて、左上のエリアの画像のコントラストが高く、その差分が他のエリアよりも大きいため、左上エリアの画像の画質が良好であると判定して「◎」とした。一方で、右下エリアの画像のコントラストは、中心エリアの画像のコントラストに比べて低いため、右下エリアの画像の画質が不良であると判定して「×」で示している。
 ここで、各エリアの画像の比較は、予め設定した閾値を基準に行なっても良い。閾値よりもコントラストの値が大きい場合には、「○」とし、閾値よりもコントラストの値が小さい場合には、「×」とすることができる。また、閾値よりもコントラストの値が大きく、その差分が一定値以上の場合に「◎」としても良い。
 なお、各エリアの画像を比較する方法は、上述のように閾値を用いる方法に限定されない。例えば、各エリアのコントラストの値のうち、コントラストの平均値を算出し、この平均値を基準に、各エリアの画像の画質を評価しても良い。
 CPU20は、上述のように各エリアの画像の画質を比較することによって、CCD32Aと、CCD32Bそれぞれの画像の画質が最も低いエリアを特定する(S114)。続いて、この画質の低いエリアの画像の評価値が高くなるように、CPU20は倒れ補正レンズ群34を駆動し、倒れ角を変更することで各エリアの画像がほぼ等しい画質となるように調整する(ステップS116)。
 図17は、チャート画像に基づいて倒れ補正レンズ群34の倒れ角を設定する方法を説明する図である。
 CCD32A、CCD32Bは、第2光路の結像位置において互いに共役となる位置関係で配置されているため、CCD32A、CCD32Bそれぞれから得られるチャート画像は、各エリアの評価値が対称性を示す。図17に示すように、CCD32Aの左上エリアの画像の評価値が最も高いが、CCD32Bでは、右下エリアの画像の評価値が最も高くなる。また、CD32Aの右下エリアの画像の評価値が最も低いが、CCD32Bでは、左上エリアの画像の評価値が最も低くなる。このように、CCD32A、CCD32Bそれぞれから得られるチャート画像は、各エリアの評価値の関係が互いに共役となる。レンズ装置10は、CCD32A、CCD32Bそれぞれから得られるチャート画像の対称性に基づき、CPU20の駆動制御によって、倒れ補正レンズ群34の倒れ角を設定する。
 ここで、倒れ補正レンズ群34の倒れ角を変化させるときの方向は、レンズ装置10の光学系の設計に応じて決定される。図17では、模式的に、倒れ補正レンズ群34を単一レンズとして表記して説明しているが、実際には、倒れ補正レンズ群34の被写体側及び像面側に他のレンズ群が配置されており、これら他のレンズ群のレンズ形状やその数に応じて、倒れ補正レンズ群34を傾斜させたときの画像がシフトする方向が変化する。このため、レンズ装置10の光学系の設計を考慮して倒れ補正レンズ群34の倒れ角をどの方向に移動させたときに画像がどの方向にシフトするか決定するため、偏芯補正の際にCPU20が光学系のその設計に合わせて、倒れ補正レンズ群34を所定の方向に駆動制御すれば良い。
 CPU20は、倒れ補正レンズ群34の倒れ角を変化させることによって、各エリアの画像のコントラストの値が閾値以上となった場合には、各エリアの画像の画質が均質となったと判断する。又は、CPU20は、各エリアの画像のコントラストの最大値と最小値との差分が所定の範囲になったときに各エリアの画像の画質が均質となったと判断してもよい。又は、CPU20は、各エリアの画像のコントラストの値が閾値以上であり、かつ、各エリアの画像のコントラストの最大値と最小値との差分が所定の範囲になったときに各エリアの画像の画質が均質となったと判断してもよい
 図15のフローチャートにおいて、各エリアの画像の画質が均質となるように調整した後、CPU20は、各エリアの画像の画質が均質に設定された状態における、フォーカスレンズ群FL、ズームレンズ群ZL、絞りI等の補正位置情報と、倒れ補正レンズ群34の補正位置情報をEEPROM28に書き込む(ステップS118)。補正位置情報は、光学系の各ポテンショメータFP、ZP、IP、34Pの出力値に基づいてCPU20によって決定される。こうして、レンズ装置20において偏芯補正の手順が終了する。
 次に、レンズ装置20をカメラ本体40に装着し、実際に撮影を行う場合の手順を説明する。
 レンズ装置20は、電源が起動されると、CPU20がEEPROM28から補正位置情報を読み出す(ステップS120)。
 続いて、CPU20は、読み出した補正位置情報に基づいて、各モータFM、ZM、IM、34Mを駆動する(ステップS122)。こうして、レンズ装置20は、撮影の可能な状態に設定される。
 本発明のレンズ装置10によれば、カメラ本体40に装着しなくても、レンズ装置単体で偏芯を調整することができる。また、レンズ装置10をカメラ本体40から取り外した状態でメンテナンスを行なう際にも、レンズ装置10単体で調芯補正を行なうことができ、使い勝手が良い。
 次に、レンズ装置10の構成の変形例を説明する。
 図18は、レンズ装置10の他の構成例を示している。図18のカメラシステム1は、基本的に、図12に示すものと同じである。以下では、図1の構成と相違している点を説明し、上述のレンズ装置10と共通する構成や部材については、説明を適宜簡略又は省略する。
 レンズ装置10は、焦点検出用として1つのCCD32を備えている。
 図19は、図18のレンズ装置10の光学系を示している。光学系において、フォーカスレンズ群FLと、ズームレンズ群ZLと、絞りIと、倒れ補正レンズ群34と、ビームスプリッタ31と、マスターレンズ群MLとが、被写体側から撮像面に向かって、この順に設けられている点で、上述したレンズ装置10と共通する。
 第2光路において、ビームスプリッタ31によって反射された光を集光する集光レンズ33が設けられ、この集光レンズ33を透過する光束の結像位置にCCD32が設けられている。このCCD32は、偏芯補正に用いられる。
 図20は、図18のレンズ装置によって偏芯補正を行う手順を示すフローチャートである。図21は、CCD32から取得されるチャート画像に基づいて倒れ補正レンズ群34の倒れ角を設定する方法を説明する図である。
 先ず、レンズ装置10は、CPU20の制御によって、偏芯補正を行う場合には、図19に示すように画質評価用チャートCHをCCD32で撮像し、チャート画像を取得する。このとき、CCD32で取得したチャート画像のうち、中心エリアと、4隅エリアとの計5つの画像を取得する(ステップS130)。そして、CPU20は、中心エリアの画像と、4隅エリアそれぞれの画像のコントラストの値を算出する。この例では、コントラストの値を評価値として用いる。
 その後、CPU20は、各エリアにおいて算出された評価値に基づいて、中心エリアの画像と他の各エリアの画像との比較を行なう(ステップS132)。
 図21を参照すると、中心エリアの画像が最もコントラストが高く、次いで、右上、右下、左下のエリアの画像がコントラストが高く、右上のエリアの画像が最もコントラストが低い。図10では、中心エリアの画像のコントラストに比べて、左上のエリアの画像のコントラストが低く、その差分が所定の範囲外であるため、左上のエリアの画像の画質が不良であると判定して「×」で示している。一方、右上、右下、左下のエリアの画像のコントラストが、中心エリアの画像のコントラストよりも低いが、その差分が所定の範囲内であるため、右上、右下、左下のエリアの画像の画質は許容範囲であると判定して「○」とした。
 ここでは、各エリアの画像の比較は、既に説明したように、予め設定した閾値を基準に行なう。また、各エリアの画像を比較する方法は、上述のように閾値を用いる方法に限定されない。例えば、各エリアのコントラストの値のうち、コントラストの平均値を算出し、この平均値を基準に、各エリアの画像の画質を評価しても良い。
 CPU20は、上述のように各エリアの画像の画質を比較することによって、CCD32の画像の画質が最も低いエリアを特定する(S134)。続いて、この画質の低いエリアの画像の評価値が高くなるように、CPU20は倒れ補正レンズ群34を駆動し、倒れ角を変更することで各エリアの画像がほぼ等しい画質となるように調整する(ステップS136)。
 図20のフローチャートにおいて、各エリアの画像の画質が均質となるように調整した後、CPU20は、各エリアの画像の画質が均質に設定された状態における、フォーカスレンズ群FL、ズームレンズ群ZL、絞りI等の補正位置情報と、倒れ補正レンズ群34の補正位置情報をEEPROM28に書き込む(ステップS138)。補正位置情報は、光学系の各ポテンショメータFP、ZP、IP、34Pの出力値に基づいてCPU20によって決定される。こうして、レンズ装置20において偏芯補正の手順が終了する。
 次に、レンズ装置10をカメラ本体40に装着し、実際に撮影を行う場合の手順を説明する。
 レンズ装置10は、電源が起動されると、CPU20がEEPROM28から補正位置情報を読み出す(ステップS140)。
 続いて、CPU20は、読み出した補正位置情報に基づいて、各モータFM、ZM、IM、34Mを駆動する(ステップS142)。こうして、レンズ装置20は、撮影の可能な状態に設定される。
 本発明のレンズ装置10によれば、CCD32が一つ設けられていれば、カメラ本体40に装着しなくても、レンズ装置単体で偏芯を調整することができる。また、レンズ装置10をカメラ本体40から取り外した状態でメンテナンスを行なう際にも、レンズ装置10単体で調芯補正を行なうことができ、使い勝手が良い。
 上述した倒れ補正レンズ群は、光軸に対して傾斜するように駆動制御されるものに限定されず、後述するように光軸に対して平行移動するものであっても良い。
 以上、撮影条件に基づいて補正レンズ群(偏芯補正レンズ群12及び倒れ補正レンズ群14)を駆動制御して画質を調整する例を説明したが、補正レンズ群の移動によって、結像される像の中心が変位する場合がある。以下に、像中心の変位を補正するように構成されたレンズ装置について説明する。
 図22は、本発明の実施形態を説明するためのカメラシステムの他の例の主要な構成を示すブロック図であり、図23は図22のカメラシステムの光学系を模式的に示す図である。なお、図11に示すカメラシステムと共通する要素には、共通の符号を付することにより説明を省略する。
 カメラシステム101は、レンズ装置110と、カメラ本体40とを備え、レンズ装置110は、偏芯補正レンズ群12及び倒れ補正レンズ群14からなる補正レンズ群の移動に伴う像中心の変位を補正する第2補正レンズ群111を備えており、本例においては、この第2補正レンズ群111は、手ぶれ補正レンズ群として構成されている。
 手ぶれ補正レンズ群111は、光学系の光軸に対して垂直な面(図23のX-Y平面に平行な面)内において移動可能に設けられており、レンズ装置110は、手ぶれ補正レンズ群111を駆動するモータHM2,VM2、これらのモータHM2,VM2に駆動信号を入力するアンプHA2,VA2、手ぶれ補正レンズ群111の位置を取得するためのポテンショメータHP2,VP2、及びテブレを検出するセンサ(図示せず)を備えている。
 CPU20は、手ぶれ補正レンズ群を制御する際には、D/A変換器22を介して各アンプHA2,VA2に駆動信号を出力する。これにより、各アンプHA2,VA2に接続された各モータHM2,VM2がその駆動信号の値(電圧)に応じた回転速度で駆動される。
 モータHM2は、手ぶれ補正レンズ群111を光軸に対して垂直な面におけるX方向に駆動し、モータVM2は、手ぶれ補正レンズ群111を光軸に対して垂直な面におけるY方向に駆動する。
 ポテンショメータHP2からは、手ぶれ補正レンズ群111のX方向の位置に対応した値(絶対位置を示す値)の電圧信号が出力される。ポテンショメータVP2からは、手ぶれ補正レンズ群111のY方向の位置に対応した値(絶対位置を示す値)の電圧信号が出力される。ポテンショメータHP2,VP2の各々から出力された電圧信号はA/D変換器24を介してCPU20に与えられ、手ぶれ補正レンズ群111が目標位置となるようにCPU20によってフィードバック制御される。
 手ぶれ補正レンズ群111の目標位置は、補正レンズ群の移動に伴う像中心の変位を相殺するように設定され、予め補正レンズ群(偏芯補正レンズ群12及び倒れ補正レンズ群14)の位置と関連付けられたデータテーブルとしてEEPROM28に記憶されている。CPU20は、このデータテーブルを参照して、補正レンズ群(偏芯補正レンズ群12及び倒れ補正レンズ群14)の位置に応じた手ぶれ補正レンズ群111の目標位置を決定し、手ぶれ補正レンズ群111が目標位置となるように上記のフィードバック制御を行う。
 次に、データテーブルのデータ構造について説明する。
 図24は、データテーブルのデータ構造を示す図である。
 偏芯補正レンズ群12の位置情報を示すパラメータ(「d01」、「d02」、「d03」・・・)には、偏芯補正レンズ群12の絶対位置を示す値が与えられている。倒れ補正レンズ群14の位置情報を示すパラメータ(「e01」、「e02」、「e03」・・・)には、倒れ補正レンズ群14の絶対位置を示す値が与えられている。
 手ぶれ補正レンズ群111の位置情報を示すパラメータ(「f01」、「f02」、「f03」・・・)には、手ぶれ補正レンズ群111の光軸に対して垂直な面における位置を示す値が与えられている。これら値は、手ぶれ補正レンズ群111のX方向位置とY方向位置を示す座標である。
 図25は、手ぶれ補正レンズ群111を駆動して像中心の変位を補正する手順を示すフローチャートである。以下の説明では、図22のカメラシステム101の構成を適宜参照する。
 最初に、可動レンズ群及び絞りと、補正レンズ群とを所定の初期位置に設定する。
 フォーカス操作やズーム操作を実行する(ステップS101)。ここでは、補正レンズ群及び手ぶれ補正レンズ群を駆動する以外の操作が適宜実行される。
 続いて、CPU20は、ポテンショメータZPの出力値を読み込むことによって現時点のズームレンズ群ZLの位置を検出し(ステップS102)、ポテンショメータFPの出力値を読み込むことによって現時点のフォーカスレンズ群FLの位置を検出し(ステップS103)、ポテンショメータIPの出力値を読み込むことによって現時点の絞りIの絞り位置を検出する(ステップS104)。ステップS102、S103、S104を実行する順番はこの順に限られずに適宜変更しても良く、又は、同時に実行されても良い。
 続いて、CPU20は、EEPROM28に予め記憶されているズームレンズ群ZL及びフォーカスレンズ群FL並びに絞りIの位置と偏芯補正レンズ群12及び倒れ補正レンズ群14の位置とを関連付けたデータテーブル(図13参照)を参照し、検出されたフォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、偏芯補正レンズ群12及び倒れ補正レンズ群14の位置を求める(ステップS105)。
 続いて、CPU20は、EEPROM28に予め記憶されている偏芯補正レンズ群12及び倒れ補正レンズ群14の位置と手ぶれ補正レンズ群111の位置とを関連付けたデータテーブルを参照し、求めた偏芯補正レンズ群12及び倒れ補正レンズ群14の位置に基づいて、手ぶれ補正レンズ群111の位置を求める(ステップS106)。
 そして、CPU20は、求めた偏芯補正レンズ群12及び倒れ補正レンズ群14の位置に応じて、偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動制御し(ステップS107)、求めた手ぶれ補正レンズ群111の位置に応じて、手ぶれ補正レンズ群111を駆動制御する(ステップS108)。
 なお、ステップS105、S106、S107、S108を実行する順番は上記の順に限られず、偏芯補正レンズ群12及び倒れ補正レンズ群14の位置を求め(ステップS105)、求めた偏芯補正レンズ群12及び倒れ補正レンズ群14の位置基づいて偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動制御し(ステップS107)、その後に、手ぶれ補正レンズ群111の位置を求め(ステップS106)、求めた手ぶれ補正レンズ群111の位置に応じて、手ぶれ補正レンズ群111を駆動制御する(ステップS108)ように実行されても良い。
 以上の手順により、偏芯補正レンズ群12及び倒れ補正レンズ群14の移動によって、光学系の光学性能が撮影条件に応じて調整され、更に、手ぶれ補正レンズ群111の移動によって、偏芯補正レンズ群12及び倒れ補正レンズ群14の移動に伴う像中心の変位が補正される。
 手ぶれ補正レンズ群111による手ぶれ補正は、上述した像中心の変位を補正する手順によって定められた手ぶれ補正レンズ群111の位置を中心にして、手ぶれを検出するセンサによって検出される手ぶれに基づいて、手ぶれ補正レンズ群111を適宜移動させることによってなされる。
 図26は、手ぶれ補正レンズ群111を駆動して像中心の変位を補正する手順の他の例を示すフローチャートである。
 図25に示す例においては、偏芯補正レンズ群12及び倒れ補正レンズ群14の位置と手ぶれ補正レンズ群111の位置とを関連付けたデータテーブルを参照して手ぶれ補正レンズ群111の位置を求めるに際し、フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて求めた偏芯補正レンズ群12及び倒れ補正レンズ群14の位置が用いられているが、図26に示す例においては、ポテンショメータHP,VP,14Pによって検出された偏芯補正レンズ群12及び倒れ補正レンズ群14の位置が用いられる。
 CPU20は、EEPROM28に予め記憶されている偏芯補正レンズ群12及び倒れ補正レンズ群14の位置と手ぶれ補正レンズ群111の位置とを関連付けたデータテーブルを参照し、検出されたフォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、偏芯補正レンズ群12及び倒れ補正レンズ群14を駆動制御する(ステップS107)。
 偏芯補正レンズ群12及び倒れ補正レンズ群14の移動が完了した後、CPU20は、ポテンショメータHP及びVPの出力値を読み込むことによって現時点の偏芯補正レンズ群12の位置を検出し、ポテンショメータ14Pの出力値を読み込むことによって現時点の倒れ補正レンズ群14の位置を検出する(ステップS109)。
 続いて、CPU20は、EEPROM28に予め記憶されている偏芯補正レンズ群12及び倒れ補正レンズ群14の位置と手ぶれ補正レンズ群111の位置とを関連付けたデータテーブルを参照し、検出された偏芯補正レンズ群12及び倒れ補正レンズ群14の位置に基づいて、手ぶれ補正レンズ群111の位置を求め(ステップS110)、求めた手ぶれ補正レンズ群111の位置に応じて、手ぶれ補正レンズ群111を駆動制御する(ステップS111)。
 このように、偏芯補正レンズ群12及び倒れ補正レンズ群14の位置と手ぶれ補正レンズ群111の位置とを関連付けたデータテーブルを参照して手ぶれ補正レンズ群111の位置を求めるに際し、偏芯補正レンズ群12及び倒れ補正レンズ群14の実際の位置を検出して、これらのレンズ群12,14の検出された位置情報を用いることにより、これらのレンズ群12,14の駆動制御における制御誤差を排し、より正確に像中心の変位を補正することができる。
 以上の例は、偏芯補正レンズ群12及び倒れ補正レンズ群14の移動に伴う像中心の変位を、手ぶれ補正レンズ群111を用いて補正するものであるが、手ぶれ補正レンズ群111とは別に、光軸に対して垂直な面内において移動可能に設けられるレンズ群を用いて補正するように構成することもできる。
 また、ズームレンズ群ZL及びフォーカスレンズ群FL並びに絞りIの位置と偏芯補正レンズ群12及び倒れ補正レンズ群14の位置とを関連付けたデータテーブル、及び偏芯補正レンズ群12及び倒れ補正レンズ群14の位置と手ぶれ補正レンズ群111の位置とを関連付けたデータテーブルが、いずれもレンズ装置110のEEPROM28に記憶され、また、レンズ装置110のCPU20によって、これらのデータテーブルを参照して、偏芯補正レンズ群12及び倒れ補正レンズ群14並びに手ぶれ補正レンズ群111の位置を求め、これらのレンズ群の駆動を制御するものとして説明したが、上記のデータテーブルの記憶及びレンズ群の駆動の制御をカメラ本体40において行うように構成することもできる。
 図27は、本発明の実施形態を説明するためのカメラシステムの他の例の主要な構成を示すブロック図であり、図28は図27のカメラシステムの光学系を模式的に示す図である。なお、図11に示すカメラシステム1と共通する要素には、共通の符号を付することにより説明を省略する。
 図27に示すカメラシステム201のレンズ装置210において、補正レンズ群は、光軸に対して垂直な面(図28のX-Y平面に平行な面)内において移動される偏芯補正レンズ群12によって構成されており、図11に示すカメラシステムのレンズ装置10において偏芯補正レンズ群12と共に補正レンズ群を構成する倒れ補正レンズ群14は省略されている。
 本カメラシステム201においては、可動レンズ群や絞りの位置などの撮影条件との関係において偏芯補正レンズ群12を駆動制御して画質を調整する調芯モードと、撮影条件によらず偏芯補正レンズ群12を所定の位置に保持する非調芯モードとを備えており、レンズ操作部50又はカメラ本体40にて調芯モードと非調芯モードとを選択可能に構成されている。
 レンズ装置210のEEPROM28には、予め撮影条件と偏芯補正レンズ群12の位置情報とを関連付けたデータテーブル(例えば図13参照)が記憶されている。また、EEPROM28には、レンズ装置210の組み立て時において、CCD42の各エリアにおける画質が均質となるように光学性能が調整された際の偏芯補正レンズ群12の初期位置情報が記憶されている。
 調芯モードが選択されている場合に、CPU20は、EEPROM28に記憶されたデータテーブルに基づき、偏芯補正レンズ群12を移動させるモータHM,VMの駆動制御を行う。非調芯モードが選択されている場合に、CPU20は、EEPROM28に記憶された初期位置情報に基づき、偏芯補正レンズ群12を移動させるモータHM,VMの駆動制御を行う。
 レンズ装置210には、偏芯補正レンズ群12を保持する保持部が設けられている。保持部は、偏芯補正レンズ群12を支持するレンズ枠12aに機械的に係合して、CPU20による駆動制御の下でモータHM及びVMによって移動された偏芯補正レンズ群12を、その位置に保持する。
 図29は、保持部の一例の構成を示す。
 図29に示す保持部212は、摩擦部材220を有し、摩擦部材220は、ばね221によって光軸方向に付勢されてレンズ枠12aに接触しており、レンズ枠12aに対して偏芯補正レンズ群12の移動方向(X方向及びY方向)に摩擦力を常に作用させ、偏芯補正レンズ群12をその位置に保持する。モータHM及びVMは、この摩擦力に抗して偏芯補正レンズ群12を移動させる。
 図30は、保持部の他の例の構成を示す。
 図30に示す保持部213は、送りネジ223とナット224とで構成されるガイド機構222を、X方向及びY方向にそれぞれ備えており、X方向のガイド機構222xのナット224xは、レンズ枠12aに対してX方向のみ規制し、Y方向のガイド機構222yのナット224yは、レンズ枠12aに対してY方向のみ規制するよう構成されている。
 図31は、偏芯補正レンズ群12を移動させる制御プロセスを示すフローチャートである。
 CPU20は、調芯モード及び非調芯モードのいずれのモードが選択されているかを判定する(ステップS201)。
 調芯モードが選択されている場合に、CPU20は、ポテンショメータZPの出力値を読み込むことによって現時点のズームレンズ群ZLの位置を検出し(ステップS202)、ポテンショメータFPの出力値を読み込むことによって現時点のフォーカスレンズ群FLの位置を検出し(ステップS203)、ポテンショメータIPの出力値を読み込むことによって現時点の絞りIの絞り位置を検出する(ステップS204)。
 続いて、CPU20は、EEPROM28に予め記憶されているズームレンズ群ZL及びフォーカスレンズ群FL並びに絞りIの位置と偏芯補正レンズ群12とを関連付けたデータテーブル(例えば図13参照)を参照し、検出されたフォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置に基づいて、偏芯補正レンズ群12の目標位置を求める(ステップS205)。
 そして、CPU20は、求めた偏芯補正レンズ群12の目標位置に応じて、偏芯補正レンズ群12を移動させるモータHM,VMを駆動制御する(ステップS206)。
 非調芯モードが選択されている場合に、CPU20は、ポテンショメータHP,VPの出力値を読み込むことによって現時点での偏芯補正レンズ群12の位置を検出する(ステップS207)。
 続いて、CPU20は、EEPROM28に予め記憶されている偏芯補正レンズ群12の初期位置情報を参照し、検出された偏芯補正レンズ群12の位置に応じて偏芯補正レンズ群12を移動させるモータHM,VMを駆動制御し、偏芯補正レンズ群12を初期位置に移動させる(ステップS208)。
 そして、偏芯補正レンズ群12が初期位置に移動された後、CPU20は、偏芯補正レンズ群12を移動させるモータHM,VMの駆動制御を停止する(モータHM,VM、及びアンプHA,VA、並びにポテンショメータHP,VPへの電力供給を停止)する(ステップS209)。偏芯補正レンズ群12は、保持部212,213によってメカニカルにロックされ、その位置に保持される。
 このように、本カメラシステム201のレンズ装置210によれば、偏芯補正レンズ群12を移動させて光学系の光学性能を調整することにより、経年変化や撮影条件の変化によらず高画質な撮影が可能となる。そして、偏芯補正レンズ群12をその位置に保持する保持部212は、偏芯補正レンズ群12を支持するレンズ枠12aとの機械的に係合によって偏芯補正レンズ群12をその位置に保持するので、偏芯補正レンズ群12をその位置に保持するにあたって電力を消費せず、レンズ装置210における消費電力量を低減することができる。
 なお、上記のプロセスにおいて、撮影条件(フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置)は時々刻々と変化するため、調芯モードにおいては、CPU20によるモータHM,VMの駆動制御が継続される(モータHM,VM、及びアンプHA,VA、並びにポテンショメータHP,VPへの電力供給が継続される)が、CPU20においてポテンショメータZP,FP,IPの出力値の変化をモニタし、変化がある場合にのみモータHM,VMの駆動制御を行い、変化がない間はモータHM,VMの駆動制御を停止するよう構成することもでき、それによれば、レンズ装置210における消費電力量のさらなる低減を図ることができる。
 図32はカメラシステム201の変形例の主要な構成を示し、図33は図32のカメラシステムの光学系を模式的に示す。
 図32に示すカメラシステム201においては、レンズ装置210の光学系に手ぶれ補正レンズ群211が設けられており、レンズ装置210には、手ぶれを検出するセンサ(図示せず)が設けられている。
 手ぶれ補正レンズ群211は、光学系の光軸に対して垂直な面(図33のX-Y平面に平行な面)内において移動可能に設けられている。
 CPU20は、手ぶれを検出する上記のセンサによって検出された手ブレ情報を取得し、手ぶれに起因する像ぶれを補正するように、手ぶれ補正レンズ群211を移動させる駆動部を制御する。
 ここで、偏芯補正レンズ群12は、保持部212によって定位置に保持可能であり、よって、偏芯補正レンズ群12を移動させるための駆動部(モータHM,VM、及びこれらのモータHM,VMに駆動信号を入力するアンプHA,VA)は、上記の非調芯モードにおいては偏芯補正レンズ群12を初期位置に移動させる際に、また上記の調芯モードにおいても撮影条件(フォーカスレンズ群FL、ズームレンズ群ZL、絞りIの位置)が変化した際に動作すれば足りる。
 そこで、本例のカメラシステム201において、手ぶれ補正レンズ群211を移動させる駆動部は、この手ぶれ補正レンズ群211と同じく光学系の光軸に対して垂直な面内において移動可能に設けられた偏芯補正レンズ群12を移動させるモータHM,VM、及びこれらのモータHM,VMに駆動信号を入力するアンプHA,VAによって構成されており、偏芯補正レンズ群12と手ぶれ補正レンズ群211とで駆動部が共用されている。
 偏芯補正レンズ群12と手ぶれ補正レンズ群211とで駆動部を共用するにあたり、この駆動部による駆動対象を偏芯補正レンズ群12と手ぶれ補正レンズ群211とで切り替えられるように構成されている。例えば、モータHM,VMとしてムービングコイル型のボイスコイルモータを用いる場合に、移動される偏芯補正レンズ群12及び手ぶれ補正レンズ群211の各々にコイルを設け、マグネットを共用することにより、偏芯補正レンズ群12と手ぶれ補正レンズ群211とで駆動部を共用することができ、各々のコイルへの通電を選択的に行うことによって駆動部による駆動対象を偏芯補正レンズ群12と手ぶれ補正レンズ群211とで切り替えることができる。
 また、偏芯補正レンズ群12と手ぶれ補正レンズ群211とで駆動部を共用するにあたり、駆動部によって偏芯補正レンズ群12が駆動され、手ぶれ補正レンズ群211が駆動部から解放されている際に、手ぶれ補正レンズ群211を定位置に保持しておく必要があり、そのための保持部が設けられている。保持部は、例えば、複数のバネを用いて手ぶれ補正レンズ群211をセンター位置(手ぶれ補正レンズ群の光軸が光学系の光軸に一致する位置)に復帰させ、これらのバネによってセンター位置に保持するように構成することができる。
 そして、本例のカメラシステム201においては、偏芯補正レンズ群12のみを駆動制御する調芯モードと、少なくとも手ぶれ補正レンズ群211を駆動制御する手ぶれ補正モードとが設けられ、更に、手ぶれ補正モードにおいて、手ぶれ補正レンズ群211のみを駆動制御する第1モードと、偏芯補正レンズ群12の駆動と手ぶれ補正レンズ群211の駆動とを1サイクルとしてこのサイクルを繰り返し行う第2モードとが設けられており、レンズ操作部50又はカメラ本体40にて調芯モード、第1モード、第2モードを選択可能に構成されている。調芯モードは、例えば、三脚使用時など、手ぶれ補正が不要な場合などに選択される。
 図34及び図35は、偏芯補正レンズ群12を移動させる制御プロセスを示すフローチャートである。
 まず、CPU20は、選択されているモードが調芯モードか否かを判定する(ステップS211)。
 調芯モードが選択されている場合に、CPU20は、駆動部による駆動対象を偏芯補正レンズ群12に切り替える(ステップS212)。
 そして、CPU20は、図31に示すステップS202~S206を実行して撮影条件との関係において目標位置に偏芯補正レンズ群12を駆動制御する(ステップS213)。なお、撮影条件に変化がない間は、上述の通り偏芯補正レンズ群12の駆動制御を停止するよう構成してもよい。
 調芯モードが選択されていない場合に、続いてCPU20は、選択されているモードが第1モード(手ぶれ補正レンズ群211のみを駆動して手ぶれ補正を行うモード)か否かを判定する(ステップS214)。
 第1モードが選択されている場合に、CPU20は、駆動部による駆動対象を偏芯補正レンズ群12に切り替えて(ステップS215)、図31に示すステップS207,S208を実行し、偏芯補正レンズ群12を初期位置に移動させる(ステップS216)。
 続いて、CPU20は、偏芯補正レンズ群12が初期位置に移動された後、駆動部による駆動対象を手ぶれ補正レンズ群211に切り替えて固定する(ステップS217)。
 そして、CPU20は、手ぶれを検出する上記のセンサによって検出された手ぶれ情報を取得し、手ぶれに起因する像ぶれを補正するように、手ぶれ補正レンズ群211を駆動制御する(ステップS218)。
 第1モードが選択されていない場合に、即ち、第2モード(偏芯補正レンズ群12の駆動と手ぶれ補正レンズ群211の駆動とを1サイクルとしてこのサイクルを繰り返し行うモード)が選択されている場合に、CPU20は、1サイクル当たりにおける偏芯補正レンズ群12を駆動する時間割合(デューティー比)を設定する(ステップS221)。デューティー比の設定方法については、後述する。
 続いて、CPU20は、撮影条件との関係において偏芯補正レンズ群12の駆動制御の要否を判定する(ステップS222)。
 撮影条件との関係において偏芯補正レンズ群12の駆動制御は不要、すなわち撮影条件に変化がないと判定した場合に、CPU20は、駆動部による駆動対象を手ぶれ補正レンズ群211に切り替える(ステップS223)。
 そして、CPU20は、上記のデューティー比によって定められる1サイクル当たりにおける手ぶれ補正レンズ群211を駆動する時間が経過するまでの間、手ぶれを検出する上記のセンサによって検出された手ぶれ情報を取得し、手ぶれに起因する像ぶれを補正するように、手ぶれ補正レンズ群211を駆動制御する(ステップS224)。
 撮影条件との関係において偏芯補正レンズ群12の駆動制御が必要、すなわち撮影条件に変化があると判定した場合に、CPU20は、駆動部による駆動対象を偏芯補正レンズ群12に切り替える(ステップS225)。
 続いて、CPU20は、図31に示すステップS202~S206を実行して撮影条件との関係において目標位置に偏芯補正レンズ群12を駆動制御する(ステップS226)。
 続いて、CPU20は、上記のデューティー比によって定められる1サイクル当たりにおける偏芯補正レンズ群12を駆動する時間が経過するのを待って(ステップS227)、その時間が経過した後に、駆動部による駆動対象を手ぶれ補正レンズ群211に切り替える(ステップS223)。
 そして、CPU20は、上記のデューティー比によって定められる1サイクル当たりにおける手ぶれ補正レンズ群211を駆動する時間が経過するまでの間、手ぶれを検出する上記のセンサによって検出された手ブレ情報を取得し、手ぶれに起因する像ぶれを補正するように、手ぶれ補正レンズ群211を駆動制御する(ステップS224)。
 なお、1サイクル当たりにおける偏芯補正レンズ群12を駆動する時間が経過するのを待つこと(ステップS227)に替えて、偏芯補正レンズ群12が目標位置に達した後に、駆動部による駆動対象を手ぶれ補正レンズ群211に切り替えるように構成することもできる。
 図36は、デューティー比の設定方法の一例を説明するための図である。
 デューティー比(1サイクル当たりの偏芯補正レンズ群12を駆動する時間割合)は、撮影条件によらず例えば50%に固定されてもよいが、本例のカメラシステム201においては、撮影条件に応じて変更される。
 図36は、ズームレンズ群ZLの位置との関係においてデューティー比を設定する例を示しており、一般に、手ぶれの影響は、ズーム位置がワイド端からテレ端に向かうにしたがって大きくなるため、図36に示す例では、デューティー比を、ワイド端において50%、テレ端において0%とし、その間を適宜補間している。なお、図示の例においては、直線により補間されているが、曲線により補間されていてもよい。
 また、デューティー比の設定は、フォーカスレンズ群FLの位置との関係において設定することもできる。一般に、手ぶれの影響は、フォーカス位置が至近端から∞端に向かうにしたがって大きくなるため、デューティー比を、例えば至近端において50%、∞端において0%とし、その間を適宜補間して設定することもできる。
 また、デューティー比の設定は、絞りIの位置との関係において設定することもできる。一般に、手ぶれの影響は、絞り位置が開放から最小絞りに向かうにしたがって大きくなるため、デューティー比を、例えば開放において50%、最小絞りにおいて0%とし、その間を適宜補間して設定することもできる。
 レンズ装置210のEEPROM28には、予めズームレンズ群ZLの位置やフォーカスレンズ群FLの位置や絞りIの位置とデューティー比とが関連付けられたデータテーブルが記憶されており、CPU20は、EEPROM28に記憶されたデータテーブルを参照して、検出されたズームレンズ群ZLやフォーカスレンズ群FLや絞りIの位置に基づいて、デューティー比を設定する。
 このように、偏芯補正レンズ群12と手ぶれ補正レンズ群211とで駆動部を共用することにより、レンズ装置210を小型化・軽量化することができ、更にレンズ装置210における電力消費量を一層低減することができる。
 なお、レンズ操作部50又はカメラ本体40にて、偏芯補正レンズ群12の駆動制御のみ行う調芯モードと少なくとも手ぶれ補正レンズ群211の駆動制御を行う手ぶれ補正モード(第1モード又は第2モード)の選択を行うものとして説明したが、例えば、第1モード及び第2モードのいずれのモードで手ぶれ補正をおこなうかを、予めレンズ操作部50又はカメラ本体40にて設定しておき、手ぶれを検出する上記のセンサの検出結果に応じて、CPU20において調芯モードと手ぶれ補正モードとを切り替えるように構成してもよい。
 本明細書は次の事項を開示する。
(1) カメラ用のレンズシステムであって、可動レンズ群、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群を含む結像光学系と、上記補正レンズ群を駆動する駆動部と、上記可動レンズ群のレンズ位置を取得するレンズ位置取得部と、上記画像のうち一部の領域の部分画像を指定する指定部と、上記可動レンズ群及び上記補正レンズ群のそれぞれの位置情報と上記画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部と、上記レンズ位置取得部によって取得された上記可動レンズ群のレンズ位置に応じて、上記データテーブルに基づいて、上記指定部によって指定された上記部分画像の光学性能を高める上記補正レンズ群の位置を求め、求めた位置に上記補正レンズ群を移動させるように上記駆動部を制御する制御部と、を備えるレンズシステム。
(2) (1)に記載のレンズシステムであって、上記補正レンズ群は、光軸に対して垂直な面で位置が変更される偏芯補正レンズ群を含み、上記制御部は、上記部分画像の中心の光学性能を高める上記偏芯補正レンズ群の位置を求め、求めた位置に上記偏芯補正レンズ群を移動させるように上記駆動部を制御するレンズシステム。
(3) (1)又は(2)に記載のレンズシステムであって、上記補正レンズ群は、光軸方向の位置が変更される倒れ補正レンズ群を含み、上記制御部は、上記部分画像の全体の光学性能を高める上記倒れ補正レンズ群の位置を求め、求めた位置に上記倒れ補正レンズ群を移動させるように上記駆動部を制御するレンズシステム。
(4) (1)から(3)のいずれか1つに記載のレンズシステムであって、上記制御部は、上記指定部によって指定された上記部分画像の光学性能を最大とする上記補正レンズ群の位置を求め、求めた位置に上記補正レンズ群を移動させるように上記駆動部を制御するレンズシステム。
(5) (1)から(4)のいずれか1つに記載のレンズシステムであって、上記光学系は、更に、絞りを有し、上記データテーブルは、上記位置情報に加えて上記絞りの開口位置情報を含むレンズシステム。
(6) (1)から(5)のいずれか1つに記載のレンズシステムであって、上記光学性能は、MTF又は解像度であるレンズシステム。
(7) (1)から(6)のいずれか1つに記載のレンズシステムであって、上記指定部は、上記画像のうち所定のエリアの部分画像を切り出して出力する画像処理部を含み、この画像処理部によって切り出される上記エリア内の部分画像を指定するレンズシステム。
(8) (1)から(6)のいずれか1つに記載のレンズシステムであって、上記指定部は、上記画像から人物の顔を認識して認識した顔を含む顔枠を設定する顔検出部を含み、この顔検出部によって設定された顔枠内の部分画像を指定するレンズシステム。
(9) (1)から(6)のいずれか1つに記載のレンズシステムであって、上記指定部は、上記画像を複数のエリアに分割してこの複数のエリアのうちコントラストが最大となるエリアを検出するコントラスト検出部を含み、このコントラスト検出部によって検出されたエリア内の部分画像を指定するレンズシステム。
(10) レンズ装置と、カメラ本体とを備えるカメラシステムであって、上記レンズ装置は、可動レンズ群、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群を含む結像光学系と、上記補正レンズ群を駆動する駆動部と、上記可動レンズ群のレンズ位置を取得するレンズ位置取得部と、を備え、上記カメラ本体は、上記結像光学系によって結像された上記画像を撮像する撮像素子と、上記撮像素子によって撮像された上記画像のうち一部の領域の部分画像を指定する指定部と、上記可動レンズ群及び上記補正レンズ群のそれぞれの位置情報と上記画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部と、上記レンズ位置取得部によって取得された上記可動レンズ群のレンズ位置に応じて、上記データテーブルに基づいて、上記指定部によって指定された上記部分画像の光学性能を高める上記補正レンズ群の位置を求め、求めた位置に上記補正レンズ群を移動させるように上記駆動部を制御する制御部と、を備えるカメラシステム。
(11) (10)に記載のカメラシステムであって、上記補正レンズ群は、光軸に対して垂直な面で位置が変更される偏芯補正レンズ群を含み、上記制御部は、上記部分画像の中心の光学性能を高める上記偏芯補正レンズ群の位置を求め、求めた位置に上記偏芯補正レンズ群を移動させるように上記駆動部を制御するカメラシステム。
(12) (10)又は(11)に記載のカメラシステムであって、上記補正レンズ群は、光軸方向の位置が変更される倒れ補正レンズ群を含み、上記制御部は、上記部分画像の全体の光学性能を高める上記倒れ補正レンズ群の位置を求め、求めた位置に上記倒れ補正レンズ群を移動させるように上記駆動部を制御するカメラシステム。
(13) (10)から(12)のいずれか1つに記載のカメラシステムであって、上記制御部は、上記指定部によって指定された上記部分画像の光学性能を最大とする上記補正レンズ群の位置を求め、求めた位置に上記補正レンズ群を移動させるように上記駆動部を制御するカメラシステム。
(14) (10)から(13)のいずれか1つに記載のカメラシステムであって、上記光学系は、更に、絞りを有し、上記データテーブルは上記位置情報に加えて上記絞りの開口位置の情報を含むカメラシステム。
(15) (10)から(14)のいずれか1つに記載のカメラシステムであって、上記光学性能は、MTF又は解像度であるカメラシステム。
(16) (10)から(15)のいずれか1つに記載のカメラシステムであって、上記指定部は、上記画像のうち所定のエリアの部分画像を切り出して出力する画像処理部を含み、この画像処理部によって切り出される上記エリア内の部分画像を指定するカメラシステム。
(17) (16)に記載のカメラシステムであって、上記カメラ本体は、上記画像と上記部分画像とを表示する表示部と、上記画像における上記所定のエリアの位置を変更する操作部と、を備えるカメラシステム。
(18) (10)から(15)のいずれか1つに記載のカメラシステムであって、上記指定部は、上記画像から人物の顔を認識して認識した顔を含む顔枠を設定する顔検出部を含み、この顔検出部によって設定された顔枠内の部分画像を指定するカメラシステム。
(19) (10)から(15)のいずれか1つに記載のカメラシステムであって、上記指定部は、上記画像を複数のエリアに分割してこの複数のエリアのうちコントラストが最大となるエリアを検出するコントラスト検出部を含み、このコントラスト検出部によって検出されたエリア内の部分画像を指定するカメラシステム。
 本発明によれば、撮影の際に、可動レンズ群等の光学系の条件に基づいて全体画面のうち一部のエリアの画像の画質を調整することができるレンズシステム及びカメラシステムを提供できる。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2011年9月29日出願の日本特許出願(特願2011-215637)、2011年9月29日出願の日本特許出願(特願2011-215638)、2011年9月29日出願の日本特許出願(特願2011-215639)に基づくものであり、その内容はここに参照として取り込まれる。
1  カメラシステム
10 レンズ装置
12 偏芯補正レンズ群
14 倒れ補正レンズ群
20 CPU
40 カメラ本体
42 CD
44 カメラCPU
50 レンズ操作部
52 顔検出部
54 コントラスト検出部
70 切出し操作部
FL フォーカスレンズ群
ZL ズームレンズ群
I  絞り

Claims (19)

  1.  カメラ用のレンズシステムであって、
     可動レンズ群、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群を含む結像光学系と、
     前記補正レンズ群を駆動する駆動部と、
     前記可動レンズ群のレンズ位置を取得するレンズ位置取得部と、
     前記画像のうち一部の領域の部分画像を指定する指定部と、
     前記可動レンズ群及び前記補正レンズ群のそれぞれの位置情報と前記画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部と、
     前記レンズ位置取得部によって取得された前記可動レンズ群のレンズ位置に応じて、前記データテーブルに基づいて、前記指定部によって指定された前記部分画像の光学性能を高める前記補正レンズ群の位置を求め、求めた位置に前記補正レンズ群を移動させるように前記駆動部を制御する制御部と、を備えるレンズシステム。
  2.  請求項1に記載のレンズシステムであって、
     前記補正レンズ群は、光軸に対して垂直な面で位置が変更される偏芯補正レンズ群を含み、
     前記制御部は、前記部分画像の中心の光学性能を高める前記偏芯補正レンズ群の位置を求め、求めた位置に前記偏芯補正レンズ群を移動させるように前記駆動部を制御するレンズシステム。
  3.  請求項1又は2に記載のレンズシステムであって、
     前記補正レンズ群は、光軸方向の位置が変更される倒れ補正レンズ群を含み、
     前記制御部は、前記部分画像の全体の光学性能を高める前記倒れ補正レンズ群の位置を求め、求めた位置に前記倒れ補正レンズ群を移動させるように前記駆動部を制御するレンズシステム。
  4.  請求項1から3のいずれか1項に記載のレンズシステムであって、
     前記制御部は、前記指定部によって指定された前記部分画像の光学性能を最大とする前記補正レンズ群の位置を求め、求めた位置に前記補正レンズ群を移動させるように前記駆動部を制御するレンズシステム。
  5.  請求項1から4のいずれか1項に記載のレンズシステムであって、
     前記光学系は、更に、絞りを有し、
     前記データテーブルは、前記位置情報に加えて前記絞りの開口位置情報を含むレンズシステム。
  6.  請求項1から5のいずれか1項に記載のレンズシステムであって、
     前記光学性能は、MTF又は解像度であるレンズシステム。
  7.  請求項1から6のいずれか1項に記載のレンズシステムであって、
     前記指定部は、前記画像のうち所定のエリアの部分画像を切り出して出力する画像処理部を含み、該画像処理部によって切り出される前記エリア内の部分画像を指定するレンズシステム。
  8.  請求項1から6のいずれか1項に記載のレンズシステムであって、
     前記指定部は、前記画像から人物の顔を認識して認識した顔を含む顔枠を設定する顔検出部を含み、該顔検出部によって設定された顔枠内の部分画像を指定するレンズシステム。
  9.  請求項1から6のいずれか1項に記載のレンズシステムであって、
     前記指定部は、前記画像を複数のエリアに分割して該複数のエリアのうちコントラストが最大となるエリアを検出するコントラスト検出部を含み、該コントラスト検出部によって検出されたエリア内の部分画像を指定するレンズシステム。
  10.  レンズ装置と、カメラ本体とを備えるカメラシステムであって、
     前記レンズ装置は、
     可動レンズ群、及び光軸に対して位置を変えることによって画像の各部の光学性能を補正する補正レンズ群を含む結像光学系と、
     前記補正レンズ群を駆動する駆動部と、
     前記可動レンズ群のレンズ位置を取得するレンズ位置取得部と、を備え、
     前記カメラ本体は、
     前記結像光学系によって結像された前記画像を撮像する撮像素子と、
     前記撮像素子によって撮像された前記画像のうち一部の領域の部分画像を指定する指定部と、
     前記可動レンズ群及び前記補正レンズ群のそれぞれの位置情報と前記画像の各部の光学性能とを関連付けたデータテーブルを記憶した記憶部と、
     前記レンズ位置取得部によって取得された前記可動レンズ群のレンズ位置に応じて、前記データテーブルに基づいて、前記指定部によって指定された前記部分画像の光学性能を高める前記補正レンズ群の位置を求め、求めた位置に前記補正レンズ群を移動させるように前記駆動部を制御する制御部と、を備えるカメラシステム。
  11.  請求項10に記載のカメラシステムであって、
     前記補正レンズ群は、光軸に対して垂直な面で位置が変更される偏芯補正レンズ群を含み、
     前記制御部は、前記部分画像の中心の光学性能を高める前記偏芯補正レンズ群の位置を求め、求めた位置に前記偏芯補正レンズ群を移動させるように前記駆動部を制御するカメラシステム。
  12.  請求項10又は11に記載のカメラシステムであって、
     前記補正レンズ群は、光軸方向の位置が変更される倒れ補正レンズ群を含み、
     前記制御部は、前記部分画像の全体の光学性能を高める前記倒れ補正レンズ群の位置を求め、求めた位置に前記倒れ補正レンズ群を移動させるように前記駆動部を制御するカメラシステム。
  13.  請求項10から12のいずれか1項に記載のカメラシステムであって、
     前記制御部は、前記指定部によって指定された前記部分画像の光学性能を最大とする前記補正レンズ群の位置を求め、求めた位置に前記補正レンズ群を移動させるように前記駆動部を制御するカメラシステム。
  14.  請求項10から13のいずれか1項に記載のカメラシステムであって、
     前記光学系は、更に、絞りを有し、
     前記データテーブルは前記位置情報に加えて前記絞りの開口位置の情報を含むカメラシステム。
  15.  請求項10から14のいずれか1項に記載のカメラシステムであって、
     前記光学性能は、MTF又は解像度であるカメラシステム。
  16.  請求項10から15のいずれか1項に記載のカメラシステムであって、
     前記指定部は、前記画像のうち所定のエリアの部分画像を切り出して出力する画像処理部を含み、該画像処理部によって切り出される前記エリア内の部分画像を指定するカメラシステム。
  17.  請求項16に記載のカメラシステムであって、
     前記カメラ本体は、
     前記画像と前記部分画像とを表示する表示部と、
     前記画像における前記所定のエリアの位置を変更する操作部と、を備えるカメラシステム。
  18.  請求項10から15のいずれか1項に記載のカメラシステムであって、
     前記指定部は、前記画像から人物の顔を認識して認識した顔を含む顔枠を設定する顔検出部を含み、該顔検出部によって設定された顔枠内の部分画像を指定するカメラシステム。
  19.  請求項10から15のいずれか1項に記載のカメラシステムであって、
     前記指定部は、前記画像を複数のエリアに分割して該複数のエリアのうちコントラストが最大となるエリアを検出するコントラスト検出部を含み、該コントラスト検出部によって検出されたエリア内の部分画像を指定するカメラシステム。
PCT/JP2012/073658 2011-09-29 2012-09-14 レンズシステム及びカメラシステム WO2013047241A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12835712.6A EP2762939B1 (en) 2011-09-29 2012-09-14 Lens system and camera system
JP2013536173A JP5919288B2 (ja) 2011-09-29 2012-09-14 レンズシステム及びカメラシステム
US14/229,382 US9176296B2 (en) 2011-09-29 2014-03-28 Lens system and camera system

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011-215638 2011-09-29
JP2011215639 2011-09-29
JP2011215637 2011-09-29
JP2011215638 2011-09-29
JP2011-215639 2011-09-29
JP2011-215637 2011-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/229,382 Continuation US9176296B2 (en) 2011-09-29 2014-03-28 Lens system and camera system

Publications (1)

Publication Number Publication Date
WO2013047241A1 true WO2013047241A1 (ja) 2013-04-04

Family

ID=47995274

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073658 WO2013047241A1 (ja) 2011-09-29 2012-09-14 レンズシステム及びカメラシステム

Country Status (4)

Country Link
US (1) US9176296B2 (ja)
EP (1) EP2762939B1 (ja)
JP (1) JP5919288B2 (ja)
WO (1) WO2013047241A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014171304A1 (ja) * 2013-04-17 2014-10-23 富士フイルム株式会社 撮像装置、撮像装置駆動方法、撮像装置制御プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6284408B2 (ja) * 2014-04-03 2018-02-28 オリンパス株式会社 画像処理装置、撮像装置、判定方法、駆動方法、撮像方法およびプログラム
JP6468744B2 (ja) * 2014-07-23 2019-02-13 キヤノン株式会社 撮像装置、画像処理装置、撮像装置の画像処理方法、並びにプログラム
JP6808424B2 (ja) * 2016-04-12 2021-01-06 キヤノン株式会社 画像記録装置およびその制御方法
US10349002B2 (en) * 2016-04-12 2019-07-09 Canon Kabushiki Kaisha Image recording apparatus and method for controlling the same
WO2020105348A1 (ja) * 2018-11-21 2020-05-28 富士フイルム株式会社 像ブレ補正装置、レンズ装置、撮像装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0497325A (ja) * 1990-08-14 1992-03-30 Canon Inc トリミング撮影機構を有した撮影装置
JPH0695195A (ja) * 1992-09-10 1994-04-08 Olympus Optical Co Ltd トリミングカメラ
JPH0694958A (ja) * 1992-09-10 1994-04-08 Olympus Optical Co Ltd トリミング撮影可能な撮影光学系
JP2004247947A (ja) * 2003-02-13 2004-09-02 Olympus Corp 光学装置
JP2005328393A (ja) * 2004-05-14 2005-11-24 Matsushita Electric Ind Co Ltd カメラモジュール
JP2010072092A (ja) * 2008-09-16 2010-04-02 Sanyo Electric Co Ltd 画像表示装置及び撮像装置
JP2010237250A (ja) 2009-03-30 2010-10-21 Canon Inc 撮像装置
JP2011050038A (ja) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd 画像再生装置及び撮像装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5392082A (en) 1990-04-14 1995-02-21 Canon Kabushiki Kaisha Photographing apparatus having a trimming photographic mode
US5406344A (en) 1992-09-10 1995-04-11 Olympus Optical Co., Ltd. Taking optical system capable of trimming photography
US5781808A (en) * 1996-03-27 1998-07-14 Fuji Photo Optical Co., Ltd. Zoom-lens drive control apparatus
JP4594004B2 (ja) * 2004-08-26 2010-12-08 キヤノン株式会社 撮像装置、その制御方法、並びにプログラム及び記憶媒体
JP2007033879A (ja) * 2005-07-27 2007-02-08 Sony Corp 撮像レンズ装置及び撮像装置
JP2008170599A (ja) 2007-01-10 2008-07-24 Konica Minolta Opto Inc 撮像装置
JP5245320B2 (ja) * 2007-08-13 2013-07-24 株式会社ニコン ズームレンズ、これを用いた光学機器及び結像方法
WO2009093635A1 (ja) * 2008-01-22 2009-07-30 Nikon Corporation レンズ鏡筒、レンズ鏡筒の調整方法、レンズ鏡筒の製造方法及び撮像装置
CN101895677A (zh) * 2009-05-18 2010-11-24 鸿富锦精密工业(深圳)有限公司 相机模组
JP2011090032A (ja) * 2009-10-20 2011-05-06 Canon Inc レンズ鏡筒および撮像装置
US8743218B2 (en) * 2010-02-09 2014-06-03 Panasonic Corporation Imaging apparatus including a shake correction function
TWI448802B (zh) * 2011-12-30 2014-08-11 Altek Corp 攝像裝置及其自動背隙校正方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0497325A (ja) * 1990-08-14 1992-03-30 Canon Inc トリミング撮影機構を有した撮影装置
JPH0695195A (ja) * 1992-09-10 1994-04-08 Olympus Optical Co Ltd トリミングカメラ
JPH0694958A (ja) * 1992-09-10 1994-04-08 Olympus Optical Co Ltd トリミング撮影可能な撮影光学系
JP2004247947A (ja) * 2003-02-13 2004-09-02 Olympus Corp 光学装置
JP2005328393A (ja) * 2004-05-14 2005-11-24 Matsushita Electric Ind Co Ltd カメラモジュール
JP2010072092A (ja) * 2008-09-16 2010-04-02 Sanyo Electric Co Ltd 画像表示装置及び撮像装置
JP2010237250A (ja) 2009-03-30 2010-10-21 Canon Inc 撮像装置
JP2011050038A (ja) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd 画像再生装置及び撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2762939A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014171304A1 (ja) * 2013-04-17 2014-10-23 富士フイルム株式会社 撮像装置、撮像装置駆動方法、撮像装置制御プログラム
JP5887465B2 (ja) * 2013-04-17 2016-03-16 富士フイルム株式会社 撮像装置、撮像装置駆動方法、撮像装置制御プログラム

Also Published As

Publication number Publication date
EP2762939A1 (en) 2014-08-06
JP5919288B2 (ja) 2016-05-18
JPWO2013047241A1 (ja) 2015-03-26
US20140211064A1 (en) 2014-07-31
EP2762939B1 (en) 2017-06-14
US9176296B2 (en) 2015-11-03
EP2762939A4 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
JP5847186B2 (ja) レンズ装置及び撮像装置
JP5919288B2 (ja) レンズシステム及びカメラシステム
JP6486656B2 (ja) 撮像装置
JP5553472B2 (ja) 焦点調節装置、撮像装置、及びその制御方法
EP1703723A2 (en) Autofocus system
US20080297648A1 (en) Focus detection apparatus
US7860387B2 (en) Imaging apparatus and control method therefor
US20110304749A1 (en) Image pickup apparatus and method for controlling image pickup apparatus
JP5935918B2 (ja) ズームレンズ装置
JP2007264396A (ja) カメラシステム
JP2012042724A (ja) 光学機器
JP2007199195A (ja) レンズ制御装置
JPH1123949A (ja) 撮影レンズの画角補正装置
JP2021067710A (ja) レンズ制御装置、光学機器およびレンズ制御方法
US12025852B2 (en) Image pickup apparatus, lens apparatus, control method, and non-transitory computer-readable storage medium
JP2012133041A (ja) 撮像装置、レンズシステム及びその制御方法
JP2013076784A (ja) レンズ装置
KR20100085728A (ko) 촬영장치 및 이를 이용한 초점 검출 방법
JP4981758B2 (ja) 焦点調節装置及び方法
WO2016038917A1 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、および撮像装置
JP2006215285A (ja) オートフォーカスシステム
JP2011253134A (ja) 撮像装置
JP6257288B2 (ja) 撮像装置およびその制御方法
WO2024116922A1 (ja) 光学機器
JP5610929B2 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12835712

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013536173

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2012835712

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012835712

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE