WO2019187646A1 - 撮像装置及びその制御方法 - Google Patents

撮像装置及びその制御方法 Download PDF

Info

Publication number
WO2019187646A1
WO2019187646A1 PCT/JP2019/003956 JP2019003956W WO2019187646A1 WO 2019187646 A1 WO2019187646 A1 WO 2019187646A1 JP 2019003956 W JP2019003956 W JP 2019003956W WO 2019187646 A1 WO2019187646 A1 WO 2019187646A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
amount
lens
focus position
image sensor
Prior art date
Application number
PCT/JP2019/003956
Other languages
English (en)
French (fr)
Inventor
智之 江守
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/040,637 priority Critical patent/US11467371B2/en
Priority to CN201980021548.5A priority patent/CN111902770B/zh
Priority to JP2020510347A priority patent/JP7276321B2/ja
Publication of WO2019187646A1 publication Critical patent/WO2019187646A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Definitions

  • the technology disclosed in the present specification relates to an imaging apparatus that presents a user with a tilt or flange back shift state of an image sensor and a control method thereof.
  • Digital imaging devices using imaging elements such as CCDs and CMOSs are widely used for general users and for business such as movie and drama shooting.
  • the image pickup surface of the image pickup element needs to be arranged perpendicular to the optical axis of the lens barrel, but there is a concern that an “tilt” phenomenon that is inclined with respect to the optical axis may occur.
  • it is necessary to form the subject image collected by the imaging lens on the imaging surface of the imaging device but there is a concern that the imaging may not be performed correctly due to the deviation of the flange back (distance from the lens mounting surface to the imaging surface). Is done.
  • the displacement of the tilt and the flange back is a phenomenon that is likely to occur due to deterioration over time, particularly in an interchangeable lens camera.
  • An object of the technology disclosed in the present specification is to provide an imaging apparatus that presents to a user a state of tilting or flange back of an image sensor and a control method thereof.
  • the first aspect of the technology disclosed in this specification is: A measurement unit that acquires data of a lens focus position and a degree of focus for each of a plurality of small areas in an imaging region of the image sensor; Based on the correlation between the focus position and the degree of focus data between the plurality of small areas, the arithmetic unit for calculating the tilt amount of the image sensor or the deviation amount of the flange back of the lens, It is an imaging device which comprises.
  • the measurement unit follows the movement of the focus position manually operated by the user and performs AF detection to measure the focus degree data for each focus position.
  • the measurement unit acquires the data using a captured image obtained by capturing the image sensor at high speed so as not to be missed.
  • the imaging device further includes an output unit that outputs the tilt amount calculated by the arithmetic unit or the flange back deviation amount.
  • the output unit superimposes and displays an image in which the amount of tilt is expressed in shades or shades of color on the captured image.
  • the output unit outputs numerical information of the tilt amount or the flange back shift amount when the tilt amount or the flange back shift amount is not within an allowable range.
  • the second aspect of the technology disclosed in this specification is: A measurement step for acquiring lens focus position and focus degree data for each of a plurality of small areas in the imaging region of the image sensor; A calculation step for calculating a tilt amount of the image sensor or a deviation amount of a flange back of the lens based on a correlation between focus position and focus degree data between the plurality of small areas. An output step for outputting the amount of tilt or the amount of deviation of the flange back calculated by the arithmetic unit;
  • the control method of the imaging device having
  • an imaging apparatus and a control method thereof that can present to the user the state of the tilt or flange back deviation of the image sensor following the focus operation by the user. it can.
  • FIG. 1 is a diagram illustrating a configuration of the imaging apparatus 100.
  • FIG. 2 is a diagram schematically illustrating the configuration of the detection system 1.
  • FIG. 3 is a diagram illustrating the relationship of the degree of focus with respect to the focus position for each cut-out position.
  • FIG. 4 is a flowchart showing a processing procedure for detecting the tilt amount and the flange back deviation amount of the imaging apparatus 100 in the detection system 1.
  • FIG. 5 is a diagram illustrating waveform data of the relationship of the degree of focus with respect to the focus position.
  • FIG. 6 is a diagram for explaining a mechanism for associating the focus position of the lens 101 with the degree of focus in the detection system 1.
  • FIG. 7 is a diagram illustrating manual operation examples 1 to 3 of the focus position of the lens 101.
  • FIG. 8 is a diagram illustrating a state in which the imaging speed is adaptively changed according to the operation example 1.
  • FIG. 9 is a diagram showing an example of a measurement chart.
  • FIG. 10 is a diagram showing a screen configuration example that displays the tilt amount of the lens 101 and the deviation amount of the flange back.
  • FIG. 11 is a diagram illustrating a display example of the target position of focus.
  • FIG. 12 is a diagram illustrating a configuration example of a monitor screen in which the target position of focus is displayed.
  • FIG. 13 is a diagram showing a display example of the focus target position (when the target focus position and the current focus position are greatly deviated).
  • FIG. 14 is a diagram illustrating an example of the movement of the focus position.
  • FIG. 1 schematically shows a cross section of the imaging apparatus 100 main body along the optical axis direction 110. Further, in the figure, only a part of the components is drawn for convenience of explanation.
  • a display unit 113 is disposed on the back surface of the main body of the imaging apparatus 100.
  • the image sensor 102 includes an image sensor that generates an electrical signal corresponding to the amount of received light, such as a CMOS or a CCD.
  • the display unit 113 is configured by, for example, a liquid crystal panel or an organic EL element (OLED). Further, a touch panel is superimposed on the surface of the display unit 113, and the display unit 113 can be used as a user interface.
  • the lens 101 is actually composed of one or a plurality of lenses supported in a lens barrel.
  • a focus ring 114 for manually operating the focus position is disposed on the outer periphery of the lens 101 (or lens barrel).
  • the focus ring 114 can be rotated in the circumferential direction of the lens 101, and the focus position of the lens 101 moves approximately linearly with respect to the rotation amount of the focus ring 114 with respect to the optical axis. It is assumed that the user can move the focus ring 114 from end to end of the focus position.
  • the means for the user to manually operate the focus position may be in a form other than the focus ring 114.
  • the lens 101 is an interchangeable lens.
  • the distance from the mount surface of the interchangeable lens 101 to the imaging surface of the image sensor 102 indicated by reference numeral 115 is “flange back”.
  • the length of the flange back is strictly determined by the lens mount standard.
  • the imaging surface of the image sensor 102 must be perpendicular to the optical axis 110 of the lens 101.
  • the length of the flange back may change due to repeated attachment / detachment of the lens 101 from the main body of the imaging apparatus 100, deterioration over time, or relative to the optical axis 110 of the lens 101. Therefore, there is a concern that the imaging surface of the image sensor 102 may be tilted from the vertical.
  • the change in the length of the flange back is called flange back displacement.
  • the tilting of the imaging surface of the image sensor 102 with respect to the optical axis 110 of the lens 101 is referred to as tilting.
  • FIG. 2 schematically shows the configuration of the detection system 1 for detecting the amount of deviation of the tilt and flange back of the imaging apparatus 100.
  • the imaging apparatus 100 to be detected includes a lens 101, an image sensor 102, a front-end camera signal processing unit 103, and a video signal processing unit 104.
  • the imaging device 100 is a so-called digital camera that can capture a moving image or a still image.
  • the imaging apparatus 100 includes a control unit that performs control of shutter operation and exposure, display control of a captured image on a display unit, recording control of a captured image on a recording medium, a display unit disposed on the back of the main body, a recording medium, and the like. Although components may be further provided, the illustration is omitted for simplification of description.
  • the front-end camera signal processing unit 103 performs noise removal processing such as CDS (Correlated Double Sampling) on the image signal output from the image sensor 102, or AGC (Automatic Gain Control) that sets the image signal to a desired signal level. ) Processing, and AD conversion of analog image signals into digital signals.
  • CDS Correlated Double Sampling
  • AGC Automatic Gain Control
  • the video signal processing unit 104 performs correction processing such as defect correction and shading correction, camera signal processing such as white balance adjustment, luminance correction, and demosaicing, resolution conversion, and compression / decompression processing on the image signal after AD conversion.
  • correction processing such as defect correction and shading correction
  • camera signal processing such as white balance adjustment, luminance correction, and demosaicing
  • resolution conversion such as demosaicing
  • compression / decompression processing on the image signal after AD conversion.
  • the video signal processing unit 104 also includes an AF detection circuit that performs AF detection processing for detecting a focus state.
  • the front-end camera signal processing unit 103 and the video signal processing unit 104 are each configured by an LSI (Large Scale Integration). Alternatively, the front end camera signal processing unit 103 and the video signal processing unit 104 may be combined into a single LSI.
  • LSI Large Scale Integration
  • the optical axis of the lens 101 becomes perpendicular to the imaging surface of the image sensor 102, and the subject image condensed by the lens 101 is correctly displayed on the imaging surface of the image sensor 102. It is necessary to attach so that an image can be formed.
  • a phenomenon such as a change in the distance between the surfaces (flange back) may occur (described above).
  • the flange back is strictly determined by the lens mount standard. High accuracy is required for the flange back, and the lens 101 cannot exhibit a predetermined performance unless the flange back is accurate. Further, when tilting occurs, the lens 101 cannot exhibit a predetermined performance, for example, the in-focus position of the imaging surface of the image sensor 102 becomes non-uniform.
  • the detection system 1 is configured to detect the deviation amount between the tilt amount and the flange back by the imaging device 100 itself.
  • the measurement chart 2 is installed in front of the lens 101.
  • the measurement chart 2 here is composed of, for example, paper on which a graphic pattern having a high spatial frequency is formed (described later).
  • the measurement chart 2 is installed parallel to the imaging surface of the image sensor 102 of the imaging device 100 (or perpendicular to the optical axis of the lens 101).
  • the image sensor 102 has an imaging area with an image size larger than 6K or 4K.
  • 6K or 4K an image size larger than 6K or 4K.
  • the front-end camera signal processing unit 103 moves the cutout position from one captured image of 6K size, and displays 4K images at a plurality of locations. A captured image of a small area having a size is cut out. Then, the camera signal processing unit 103 performs AF detection for each 4K image size area cut out by the front-end camera signal processing unit 103, and obtains data on the relationship of the focus degree with respect to the focus position. When performing AF detection, the camera signal processing unit 103 increases the accuracy of measurement by providing a plurality of AF detection frames in a 4K cut-out image.
  • a small area having a 4K image size is cut out from the four corners of a 6K-size captured image by sequentially moving the cutout positions in the order of A ⁇ B ⁇ C ⁇ D.
  • the degree of focus on the focus position for each area as shown in FIG. Data on the relationship can be obtained.
  • the focus can be manually operated by turning the focus ring 114 on the outer periphery of the interchangeable lens 101.
  • the two-dimensional tilt amount of the image sensor 102 with respect to the optical axis of the lens 101 is quantified by quantifying the correlation between the focus positions at which the in-focus degree peaks between the areas A, B, C, and D. Can be calculated automatically. Further, when the calculated tilt amount is within the allowable range, it is possible to further calculate the flange back deviation amount of the lens 101.
  • the predetermined relational expression 1 is a function for converting, for example, a change amount (distance) of the focus position into a change amount (shift amount) of the flange back.
  • the amount obtained by performing the conversion according to the predetermined relational expression 2 with respect to the relative distance between the focus positions where the degree of focus reaches a peak is relatively increased. It corresponds to the amount.
  • the predetermined relational expression 2 is a function for converting, for example, a change amount (distance) of the focus position into a relative tilt amount (deviation amount between two different areas).
  • relational expression 1 and relational expression 2 may be different functions, or the same function may be used.
  • the tilt amount can be calculated as an absolute amount based on, for example, one of the areas based on the relative tilt amount calculated above.
  • the shift amount of the flange back of the lens 101 is further calculated.
  • the shift amount between the tilt amount and the flange back is calculated.
  • Each can be calculated, or can be calculated as a single amount including the tilt amount and the deviation amount of the flange back.
  • it may be calculated as an absolute amount with respect to the reference position based on the relative amount of tilt and the amount of deviation of the flange back.
  • the process flow chart 4 for detecting a shift amount of tilt amount and the flange back shows a processing procedure for detecting a shift amount of tilt amount and the flange back of the imaging device 100 in the form of a flowchart in the detecting system 1 Yes. This processing procedure is started in response to the user instructing the imaging apparatus 100 to perform the detection process after the measurement chart 2 is installed in front of the lens 101 as a preliminary preparation.
  • the imaging apparatus 100 turns on the cutout function of sequentially cutting out 4K image sizes from 6K image size images captured by the image sensor 102 in the front-end camera signal processing unit 103 (step S401).
  • the user turns on the cut-out function by selecting a menu screen displayed on the display unit 113 (described above) on the back of the main body of the imaging apparatus 100 or operating a mechanical switch included in the imaging apparatus 100. Can do.
  • the front-end camera signal processing unit 103 sets a cutout position at which a 4K image size area is cut out from a 6K image initially picked up by the image sensor 102 to a position A (see FIG. 1 above). Step S402). Then, the user manually operates the focus with respect to the cutout position A by turning the focus ring 114. While the user manually operates the focus, the video signal processing unit 104 continuously performs AF detection (step S403) while reading the focus position of the lens 101, and achieves the degree of focus for each focus position. Next record. In this way, waveform data (for example, see FIG. 3) representing the relationship of the degree of focus with respect to the focus position at the cutout position A is obtained.
  • waveform data for example, see FIG. 3 representing the relationship of the degree of focus with respect to the focus position at the cutout position A is obtained.
  • step S403 the user rotates the focus ring 114 on the outer periphery of the interchangeable lens 101, for example, to move the focus position from end to end (the same applies to the manual focus operation at each subsequent clipping position). And). Further, by displaying an AF detection frame corresponding to the cutout position A on the display unit 113 or the like, the user can be notified of the position of AF detection. When the user finishes moving the focus position, the user confirms the waveform data acquired in the area of the cutout position A, for example, through a UI operation on the display unit 113 or the like.
  • the front-end camera signal processing unit 103 moves the cutout position for cutting out a small area having a 4K image size from the 6K captured image to the B position (see FIG. 1 and FIG. 1) (step S404).
  • the user manually operates the focus with respect to the cutout position B by turning the focus ring 114.
  • the video signal processing unit 104 continuously performs AF detection while reading the focus position of the lens 101 (step S405), and achieves the degree of focus for each focus position.
  • waveform data (for example, see FIG. 3) representing the relationship of the degree of focus with respect to the focus position at the cutout position B is obtained.
  • the user confirms the waveform data acquired in the area of the cutout position B, for example, via a UI operation on the display unit 113.
  • the front-end camera signal processing unit 103 moves the cutout position for cutting out a small area having a 4K image size from the 6K captured image to a C position (see FIG. 1 and FIG. 1) (step S406).
  • the user manually operates the focus with respect to the cutout position C by turning the focus ring 114.
  • the video signal processing unit 104 continuously performs AF detection while reading the focus position of the lens 101 (step S407), and achieves the degree of focus for each focus position.
  • waveform data (for example, see FIG. 3) representing the relationship of the degree of focus with respect to the focus position at the cutout position C is obtained.
  • the user confirms the waveform data acquired in the area of the cutout position C through, for example, a UI operation on the display unit 113.
  • the front-end camera signal processing unit 103 moves the cutout position for cutting out a small area having a 4K image size from the 6K captured image to the D position (see FIG. 1 and FIG. 1) (step S408).
  • the user manually operates the focus with respect to the cutout position D by turning the focus ring 114. While the user manually operates the focus, the video signal processing unit 104 continuously performs AF detection while reading the focus position of the lens 101 (step S409), and achieves the degree of focus for each focus position. Next record. In this way, waveform data (for example, see FIG. 3) representing the relationship of the degree of focus with respect to the focus position at the cutout position D is obtained.
  • the user confirms the waveform data acquired in the area of the cutout position D, for example, through a UI operation on the display unit 113.
  • the camera signal processing unit 103 compares the waveform data representing the relationship of the focus degree with respect to the focus position acquired in each of the 4K image size small areas cut out at the cut-out positions A, B, C, and D.
  • An image of the lens 101 with respect to the optical axis is obtained by quantifying the correlation of the focus position at which the degree of focus reaches a peak between small areas of 4K image size cut out at the cutout positions A, B, C, and D.
  • a two-dimensional tilt amount of the sensor 102 and a deviation amount of the flange back are calculated (step S410).
  • the imaging apparatus 100 turns off the cut-out function of the front-end camera signal processing unit 103 (step S411).
  • the imaging apparatus 100 notifies the user of the deviation amount of the image sensor 102 and the flange back calculated in step S410 (step S412).
  • the displacement amount between the tilt amount and the flange back may be displayed on the display unit 113 on the back surface of the main body of the imaging apparatus 100.
  • the shift amount between the tilt amount and the flange back may be displayed on a monitor display externally connected to the imaging apparatus 100 via an HDMI (registered trademark) interface or the like.
  • step S413 it is checked whether or not the tilt amount of the image sensor 102 calculated in step S410 and the deviation amount of the flange back are within an allowable range.
  • the user himself / herself who has received the notification of the calculation result may determine whether or not it is within the allowable range. If the allowable range is exceeded (No in step S413), mechanical adjustment of the tilt or flange back is performed (step S414).
  • the mechanical adjustment in step S414 is performed by the user himself.
  • the imaging apparatus 100 prompts the user to perform mechanical adjustment by displaying image information related to mechanical adjustment on the display unit on the back of the main body, or by generating a voice message or a warning sound. At that time, by presenting quantitative information regarding the tilt amount of the image sensor 102 and the deviation amount of the flange back, the user can complete the mechanical adjustment in one operation.
  • FIG. 6 illustrates a mechanism for associating the focus position of the lens 101 with the degree of focus in the detection system 1.
  • Lens meta information including focus position information is transmitted from the lens 101 side using the lens communication 117. Therefore, the control unit 116 in the imaging apparatus 100 can read the focus position when the user manually rotates the focus ring 114 via the lens communication 117.
  • the video signal processing unit 104 can receive information on the current focus position of the lens 101 from the control unit 116, and outputs the information in association with the degree of focus obtained by AF detection.
  • FIG. 7 shows manual operation examples 1 to 3 of the focus position of the lens 101 by the user.
  • the horizontal axis is the time axis
  • the vertical axis is the focus position.
  • the moving speed of the focus position is not constant, and changes with time and the focus position. For example, a portion having a steep slope in each curve indicating the operation example 1 indicates that the moving speed of the focus position is steep.
  • the image sensor 102 is switched to high-speed imaging while calculating the deviation amount between the tilt amount and the flange back or when the focus operation speed is steep. For example, when the control unit 116 detects that the focus operation speed has become steep based on the information on the focus position that is sent every moment by the lens communication 117, the control unit 116 instructs the front end camera signal processing unit 103 to The high-speed imaging of the image sensor 102 is instructed.
  • FIG. 8 shows a state in which the imaging speed (or the image update cycle) is adaptively changed corresponding to the manual operation example 1 of the focus position shown in FIG.
  • the length of one square in the lower part of the figure represents the image update cycle.
  • the image update cycle is shortened in the time region where the slope of the curve indicating the operation example 1 is steep.
  • the operation period of AF detection in the video signal processing unit 104 can be shortened according to the high-speed image update period of the image sensor 102.
  • the operation period of AF detection is constant due to hardware restrictions and the like. It is also assumed that the above cannot be shortened.
  • the front-end camera signal processing unit 103 may temporarily store the processed video in the internal buffer 103A over a plurality of frame periods. After that, the image stored in the internal buffer 103A is sent to the video signal processing unit 104 in accordance with the AF detection operation cycle and passed through the AF detection, so that the lens 101 is lost while moving from end to end.
  • the degree of focus can be calculated without any problem.
  • the lens meta received by the lens communication 117 includes information on the focus position of the lens 101 and can be read by the control unit 116 (described above).
  • the control unit 116 stores information on the focus position of the lens 101 in the internal memory 116A.
  • the period of acquiring the focus position information of the lens 101 by the lens communication 117 is different from the imaging period of the video, but the acquisition of the focus position and the imaging of the video are performed under the control of the control unit 116.
  • the focus position can be linked to the video frame. In this way, it is possible to obtain the relationship of the degree of focus with respect to the focus position in the small area at each cutout position.
  • FIG. 9 shows an example of the measurement chart 2.
  • the aspect ratio of the measurement chart 2 is preferably the same as or close to the imaging area of the image sensor 102.
  • the graphic pattern formed on the surface of the measurement chart 2 is not limited to the illustrated example. However, it is preferable that the graphic pattern is symmetrical so that there is no difference in characteristics for each cut-out position of a 4K image size small area.
  • step S410 of the flowchart shown in FIG. 4 the focus position at which the degree of focus reaches a peak between small areas of 4K image size cut out at the cutout positions A, B, C, and D of the image pickup region of the image sensor 102 is obtained.
  • the two-dimensional tilt amount of the image sensor 102 with respect to the optical axis of the lens 101 and the deviation amount of the flange back are calculated.
  • step S412 the user is notified of the tilt amount of the image sensor 102 and the deviation amount of the flange back.
  • the tilt amount and the deviation amount of the flange back are displayed on the display unit 113 on the back surface of the main body of the imaging apparatus 100 or displayed on a monitor screen (not shown) externally connected to the imaging apparatus 100.
  • the image sensor 102 is calculated based on the assumption that the image sensor 102 is a rigid body (no deformation due to distortion or the like).
  • FIG. 10 shows a screen configuration example that displays the tilt amount of the lens 101 and the deviation amount of the flange back, which is used for notification to the user in step S412.
  • the tilt amount is expressed in shades or shades of color
  • the measurement chart 2 (see FIG. 9) is superimposed and displayed on the captured image.
  • the user can determine which angle of 360 degrees the image sensor 102 is centered on the optical axis of the lens 101, that is, a two-dimensional distribution of the amount of tilt. It becomes easy for the user to grasp quantitatively and visually.
  • the shift amount may be displayed not only in color shading and hue but also in numerical values. This facilitates the user to carry out mechanical adjustment of the tilt or flange back in step S414.
  • the displacement of the tilt or the flange back can be corrected by replacing a shim inserted between the lens 101 and the lens mounting portion of the imaging apparatus 100 main body.
  • the numerical value of the deviation amount is known, the user can easily change the shim.
  • the amount of tilt and the amount of deviation of the flange back is not limited to a numerical display, and may be anything that indicates the state of deviation of the tilt or flange back, for example, divided into predetermined levels (numerical value ranges) The display at this level (for example, large, medium, small, etc.) may be used.
  • Target display of focus operation When the focus operation of the imaging apparatus 100 is performed, the target position of focus is displayed on the display unit 113 of the imaging apparatus 100 or an externally connected monitor screen.
  • FIG. 11 shows a display example of the target position of focus.
  • the horizontal axis direction indicates the distance in the optical axis direction of the imaging apparatus 100 (or the lens 101), and the focus 1 is displayed in the form of an indicator 1100 that displays the target focus position 1101 and the current focus position 1102 together.
  • the target position is displayed.
  • FIG. 12 shows an example in which the focus target position display indicator shown in FIG. 11 is displayed on the display unit 113 or an externally connected monitor screen during the focus operation.
  • an indicator is preferably arranged near the lower edge of the screen so as not to cover the image of the measurement chart 2. The user can perform the focus operation while simultaneously viewing the image of the measurement chart 2 and the display of the indicator.
  • FIG. 13 shows a display example of the indicator 1300 when the target focus position and the current focus position are greatly deviated.
  • the target focus position 1301 and the current focus position 1302 are greatly deviated. If the difference between the target focus position 1301 and the current focus position 1302 is too large, there is a possibility that the calculation accuracy of the tilt amount and the deviation amount of the flange back may decrease. Therefore, as shown in FIG. 12 and the like, the user is guided so that the user can perform the focus operation according to the target position by showing the user the focus target position.
  • the target position of the focus operation is displayed so that the user can perform the focus operation while viewing the target position.
  • FIG. 14 shows an example of the movement of the focus position together with the relationship between the focus degree and the focus position.
  • the movement of the focus position two examples of a focus operation guide indicated by reference numeral 1401 and a focus operation by a user indicated by reference numerals 1402 and 1403 are shown.
  • the user operation example 1402 shows the movement of the focus position that approximates the focus operation guideline 1401, and therefore it is possible to acquire the focus degree data with high accuracy.
  • the other user operation example 1403 shows the movement of the focus position that is greatly deviated from the focus operation guideline 1401, so that the accuracy of the focus degree data that can be acquired decreases.
  • the imaging apparatus 100 is connected to an interchangeable lens 101 whose focus position can be manually operated. It has a function of automatically calculating with high accuracy while following and a function of presenting the calculation result to the user in an easy-to-understand manner. The characteristics of the imaging device 100 will be listed.
  • the imaging apparatus 100 is connected to a lens 101 capable of manually operating a focus position, and includes an image sensor 102, a front-end camera signal processing unit 103, and a video signal processing unit 104.
  • the image sensor 102 has a 6K (or larger than 4K) image size.
  • the front-end camera signal processing unit 103 converts a small area of 4K image size that can be AF detected by the AF detection circuit in the video signal processing unit 104 in the subsequent stage into a plurality of cutout positions A, B, Partially cut from C and D. Then, the video signal processing unit 104 acquires the degree of focus for each cut out small area using an internal AF detection circuit.
  • the target position of the focus position which is a guideline
  • the current position of the focus position when the user performs the four operation are displayed. As shown in FIG. 12, the target position and the current position may be displayed superimposed on the captured image of the measurement chart.
  • the image sensor 102 is set to high-speed imaging so that the user can measure the degree of focus without losing focus at each focus position following the focus operation. Further, in order to absorb the difference between the image update cycle of the image sensor 102 and the AF detection cycle, the captured image of the image sensor 102 is temporarily stored in the internal buffer 103A of the front-end camera signal processing unit 103. Then, AF detection can be performed in accordance with the operation cycle of the AF detection circuit in the video signal processing unit 104. Further, the control unit 116 temporarily maintains the focus position information acquired via the lens communication 117 in the internal memory 116A, and then the focus obtained by the AF detection circuit in the video signal processing unit 104 is obtained. Link with the degree data.
  • the imaging apparatus 100 is used for measuring an image in which the amount of tilt is expressed in shades or shades of color so that the user can visually understand the amount of tilt of the image sensor 102 and the flange back of the lens 101.
  • the image is superimposed on the captured image of the chart and displayed on the display unit 113 on the back of the main body of the imaging apparatus 100 or an externally connected monitor screen (see FIG. 10). If the calculated tilt amount and flange back deviation amount are within the allowable range, only visual display as shown in FIG. 10 is performed. In addition, when the calculated amount of tilt or flange back deviation is not within the allowable range, in addition to the visual display as shown in FIG. Also displays useful information. When the user knows the numerical value of the deviation amount, the user can easily perform mechanical adjustment such as shim replacement.
  • the user can see the video showing the two-dimensional distribution of the tilt amount as shown in FIG. Whether it is within the range, and if it is not within the allowable range, the deviation amount can be quantitatively easily understood. Further, even if there is a deviation amount, the user only needs to make one adjustment, and can correct the amount and the amount of deviation of the flange back, thereby improving the efficiency of the adjustment work.
  • the degree-of-focus amount data is obtained by measuring the degree-of-focus data for the focus position for each small area cut out at a plurality of cut-out positions in the imaging region of the image sensor.
  • a mechanism in which AF can shorten the detection cycle even when the manual operation speed is not constant see FIG. 8
  • a mechanism for quantitatively and easily displaying whether the tilt amount calculated by the camera body and the deviation amount of the flange back are within the allowable range and their values see FIG. 10).
  • the technology disclosed in this specification can be applied to digital cameras mainly for interchangeable lenses for business use and general users. According to the technology disclosed in this specification, even when a digital camera is shipped after the tilt amount and the flange back are appropriately adjusted, when the tilt and the flange back are displaced due to deterioration over time, or the lens By performing the detection processing procedure as shown in FIG. 4 at the time when the is replaced, the user can confirm the amount of displacement and the amount of deviation of the flange back and perform mechanical adjustment.
  • a measurement unit that acquires data of a lens focus position and a degree of focus for each of a plurality of small areas in an imaging region of the image sensor; Based on the correlation between the focus position and the degree of focus data between the plurality of small areas, the arithmetic unit for calculating the tilt amount of the image sensor or the deviation amount of the flange back of the lens,
  • An imaging apparatus comprising: (2) The measurement unit performs AF detection following the movement of the focus position by a user's manual operation, and measures focus degree data for each focus position. The imaging device according to (1) above. (3) The measurement unit acquires the data using a captured image obtained by imaging the image sensor at high speed.
  • the imaging device according to any one of (1) and (2) above.
  • (4) a buffer for temporarily storing a captured image of the image sensor;
  • the measurement unit performs AF detection using a captured image read from the buffer in accordance with an AF detection operation cycle.
  • the imaging device according to any one of (1) to (3) above.
  • (5) a control unit that communicates with the lens;
  • the control unit temporarily stores the focus position of the lens acquired by the communication in an internal memory,
  • the measurement unit associates the focus degree data obtained by AF detection with the focus position stored in the internal memory;
  • the imaging device according to any one of (1) to (4) above.
  • (6) The measurement unit acquires the data using a captured image of a predetermined measurement chart.
  • the imaging device according to any one of (1) to (5) above.
  • the apparatus further includes an output unit that outputs the tilt amount calculated by the calculation unit or the deviation amount of the flange back.
  • the imaging device according to any one of (1) to (6) above.
  • the output unit displays the distribution of the tilt amount superimposed on the captured image.
  • the imaging device according to (7) above. (9)
  • the output unit superimposes and displays an image in which the tilt amount is expressed in shades or shades of color on the captured image.
  • the imaging device according to (8) above. (10) When the tilt amount or the flange back shift amount is not within an allowable range, the output unit outputs numerical information of the tilt amount or the flange back shift amount.
  • the imaging device (11) It further includes a presentation unit that presents a relationship between a target position of a focus position serving as a guide for manual operation of the user and a current position of the focus position operated by the user.
  • the imaging device (12)
  • the presenting unit superimposes and displays image information indicating a relationship between the target position of the focus position and the current position on the captured image.
  • the imaging device (11) above.
  • (13) a measurement step for acquiring lens focus position and focus degree data for each of a plurality of small areas in the imaging region of the image sensor; A calculation step for calculating a tilt amount of the image sensor or a deviation amount of a flange back of the lens based on a correlation between focus position and focus degree data between the plurality of small areas.
  • An output step for outputting the amount of tilt or the amount of deviation of the flange back calculated by the arithmetic unit;

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

イメージセンサのあおり量とフランジバックのずれ量を算出しユーザーに提示する撮像装置及びその制御方法を提供する。 撮像装置は、イメージセンサの撮像領域中の複数箇所の小エリア毎に、ユーザーのマニュアル操作によるフォーカスポジションの移動に追従してAF検波してレンズのフォーカスポジションと合焦度のデータを取得し、前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相互相関に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する。

Description

撮像装置及びその制御方法
 本明細書で開示する技術は、イメージセンサのあおり又はフランジバックのずれの状態をユーザーに提示する撮像装置及びその制御方法に関する。
 CCDやCMOSなどの撮像素子を利用したデジタル式の撮像装置が、一般ユーザー向け、及び、映画やドラマ撮影などの業務向けに、広く普及している。
 撮像素子の撮像面は、レンズの鏡筒の光軸に対して垂直に配置する必要があるが、光軸に対して傾斜する「あおり」現象が発生することが懸念される。また、撮像レンズで集光した被写体像を撮像素子の撮像面に結像させる必要があるが、フランジバック(レンズのマウント面から撮像面までの距離)のずれにより正しく結像されなくなることが懸念される。上記のあおりやフランジバックのずれは、とりわけレンズ交換式のカメラにおいて、経年劣化により発生し易い現象である。
 例えば、光学系及び撮像手段を有する装置において、光学系あるいは撮像手段の光軸に対する撮像対象面の垂直度を検査する技術について提案がなされている(例えば、特許文献1を参照のこと)。しかしながら、当該技術において、画像を取得する装置や演算装置はカメラなどの撮像装置とは別にあり、あらかじめ測定環境が用意されている場所での検査を想定したものである。
 また、デジタルカメラの製造工程における撮像素子の傾き検査において、定量的な傾きを検出するとともに撮像素子の取り付け位置の微調整を行う測定装置について提案がなされている(例えば、特許文献2を参照のこと)。当該測定装置による測定は、測定用チャートを駆動機構に取り付けることを想定しているが、ユーザーが撮像装置を使用する環境でこのような駆動機構を必ずしも用意できるとは限らない。
 また、光軸方向に対する撮像素子の傾きを補正する撮像装置のあおり補正方法及びあおり補正装置について提案がなされている(例えば、特許文献3を参照のこと)。当該補正方法において撮像素子区の傾きを補正するには、複数のあおり補正素子を光軸周囲に離散的に配置してそれらを駆動させる必要がある。
特開平10-197226号公報 特開2006-319544号公報 特開2010-11042号公報
 本明細書で開示する技術の目的は、イメージセンサのあおり又はフランジバックのずれの状態をユーザーに提示する撮像装置及びその制御方法を提供することにある。
 本明細書で開示する技術の第1の側面は、
 イメージセンサの撮像領域中の複数箇所の小エリア毎に、レンズのフォーカスポジションと合焦度のデータを取得する測定部と、
 前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相関関係に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する演算部と、
を具備する撮像装置である。
 前記測定部は、ユーザーのマニュアル操作によるフォーカスポジションの移動に追従してAF検波してフォーカスポジション毎の合焦度データを測定する。また、前記測定部は、前記イメージセンサを高速撮像にした撮像画像を用いて、取りこぼしがないように前記データの取得を行う。
 前記撮像装置は、前記演算部が算出した前記あおり量又は前記フランジバックのずれ量を出力する出力部をさらに備える。前記出力部は、前記あおり量を色の濃淡又は色合いで表現した画像を前記撮像画像に重畳して表示する。また、前記出力部は、前記あおり量又は前記フランジバックのずれ量が許容範囲以内でない場合には、前記あおり量又は前記フランジバックのずれ量の数値情報を出力する。
 また、本明細書で開示する技術の第2の側面は、
 イメージセンサの撮像領域中の複数箇所の小エリア毎に、レンズのフォーカスポジションと合焦度のデータを取得する測定ステップと、
 前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相関関係に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する演算ステップと、
 前記演算部で算出した前記あおり量又は前記フランジバックのずれ量を出力する出力ステップと、
を有する撮像装置の制御方法である。
 本明細書で開示する技術によれば、ユーザーによるフォーカス操作に追従してイメージセンサのあおり又はフランジバックのずれの状態をユーザーに提示することができる、撮像装置及びその制御方法を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、撮像装置100の構成を示した図である。 図2は、検出システム1の構成を模式的に示した図である。 図3は、切り出し位置毎のフォーカスポジションに対する合焦度の関係を例示した図である。 図4は、検出システム1において撮像装置100のあおり量及びフランジバックのずれ量を検出するための処理手順を示したフローチャートである。 図5は、フォーカスポジションに対する合焦度の関係の波形データを例示した図である。 図6は、検出システム1においてレンズ101のフォーカスポジションと合焦度を対応付ける仕組みを説明するための図である。 図7は、レンズ101のフォーカスポジションのマニュアル操作例1~3を示した図である。 図8は、操作例1に対応して、撮像速度を適応的に変化させる様子を示した図である。 図9は、測定用チャートの一例を示した図である。 図10は、レンズ101のあおり量とフランジバックのずれ量を表示する画面構成例を示した図である。 図11は、フォーカスの目標位置の表示例を示した図である。 図12は、フォーカスの目標位置を表示した例をモニタ画面の構成例を示した図である。 図13は、フォーカスの目標位置の表示例(目標フォーカスポジションと現在のフォーカスポジションが大きくずれている場合)を示した図である。 図14は、フォーカスポジションの動きの例を示した図である。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成
 図1には、撮像装置100本体の光軸方向110に沿った断面を概略的に示している。また、同図では、説明の便宜上、一部の部品しか描いていない。
 光軸方向110に従って、レンズ101、絞り111、シャッター112、イメージセンサ102の順に配置される。また、撮像装置100本体の背面には表示部113が配設されている。イメージセンサ102は、例えばCMOSやCCDなどの、受光量に応じた電気信号を発生させる撮像素子からなる。表示部113は、例えば液晶パネル又は有機EL素子(OLED)などで構成される。また、表示部113の表面にはタッチパネルが重畳され、表示部113をユーザーインターフェースとしても利用することができる。
 なお、絞り111やシャッター112の動作制御(すなわち、露光やシャッタータイミング制御)、並びにイメージセンサ102で捕捉した画像信号の処理などを行う回路モジュールは、図1では省略している。
 レンズ101は、実際にはレンズ鏡筒内に支持された1又は複数のレンズからなる。また、レンズ101(若しくは、レンズ鏡筒)の外周には、フォーカスポジションをマニュアルで操作するためのフォーカスリング114が配設されている。フォーカスリング114はレンズ101の円周方向に回転操作が可能であり、フォーカスリング114の光軸に対する回転量に対してほぼ線形的にレンズ101のフォーカスポジションが移動する。ユーザーは、フォーカスリング114を回して、フォーカスポジションの端から端まで移動させることができるものとする。なお、ユーザーがフォーカスポジションをマニュアル操作するための手段は、フォーカスリング114以外の形態であってもよい。
 本実施形態では、レンズ101は交換式レンズであることを想定している。参照番号115で示す、交換式のレンズ101のマウント面からイメージセンサ102の撮像面までの距離は「フランジバック」である。一般に、フランジバックの長さはレンズマウントの規格によって厳密に定められている。また、レンズ101の光軸110に対してイメージセンサ102の撮像面は垂直でなければならない。
 ところが、レンズ101が交換式の場合、撮像装置100本体からレンズの101の着脱を繰り返すことや、経年劣化に起因して、フランジバックの長さが変化したり、レンズ101の光軸110に対してイメージセンサ102の撮像面が垂直から傾いたりする現象が発生することが懸念される。フランジバックの長さが変化することを、フランジバックのずれという。また、レンズ101の光軸110に対してイメージセンサ102の撮像面がレンズ101の光軸から傾くことを、あおりという。
 図2には、撮像装置100のあおりやフランジバックのずれ量を検出するための検出システム1の構成を模式的に示している。
 検出対象となる撮像装置100は、レンズ101と、イメージセンサ102と、フロントエンドカメラ信号処理部103と、映像信号処理部104を備えている。撮像装置100は、動画像や静止画像を撮影可能ないわゆるデジタルカメラである。撮像装置100は、シャッター動作や露光の制御、撮像画像を表示部への表示制御、撮像画像の記録媒体への記録制御などを行う制御部、本体背面などに配置された表示部、記録媒体といった構成部品をさらに備えていてもよいが、説明の簡素化のため、図示を省略している。
 フロントエンドカメラ信号処理部103は、イメージセンサ102から出力された画像信号に対して、例えばCDS(Correlated Double Sampling)などのノイズ除去処理や、画像信号を所望の信号レベルとするAGC(Automatic Gain Control)処理、アナログ画像信号のデジタル信号へのAD変換といった処理を実施する。
 映像信号処理部104は、AD変換後の画像信号に対して、欠陥補正やシェーディング補正などの補正処理、ホワイトバランス調整や輝度補正、デモザイクといったカメラ信号処理、解像度変換、圧縮伸長処理などを行う。本実施形態では、映像信号処理部104は、フォーカス状態を検出するAF検波処理を行うAF検波回路も備えているものとする。
 フロントエンドカメラ信号処理部103並びに映像信号処理部104は、それぞれLSI(Large Scale Integration)で構成される。あるいは、フロントエンドカメラ信号処理部103と映像信号処理部104を合わせて1つのLSIで構成されてもよい。
 撮像装置100本体からレンズ101を交換する度に、レンズ101の光軸がイメージセンサ102の撮像面に対して垂直となり、且つ、レンズ101で集光した被写体像をイメージセンサ102の撮像面に正しく結像できるように、取り付ける必要がある。しかしながら、レンズ101の交換を継続的に行うと、経年劣化により、レンズ101の光軸に対してイメージセンサ102の撮像面が傾斜する「あおり」や、レンズ101のマウント面とイメージセンサ102の撮像面間の距離(フランジバック)が変化するといった現象が発生することが懸念される(前述)。
 通常、フランジバックはレンズマウントの規格によって厳密に決められている。フランジバックには高い精度が求められており、フランジバックが正確でないとレンズ101が所定の性能を発揮できない。また、あおりが発生すると、イメージセンサ102の撮像面の合焦位置が不均一になるなど、レンズ101が所定の性能を発揮できない。
 本実施形態に係る検出システム1は、あおり量とフランジバックのずれ量を、撮像装置100自体で検出するように構成されている。検出のための事前処理として、レンズ101の前方に、測定用チャート2を設置する。ここで言う測定用チャート2は、例えば空間周波数が高い図形パターンが形成された紙などで構成される(後述)。測定用チャート2は、撮像装置100のイメージセンサ102の撮像面に対して平行(若しくは、レンズ101の光軸に対して垂直)に設置される。
 イメージセンサ102は、6K、若しくは4Kよりも大きな画サイズの撮像領域を持つ。以下では、説明の便宜上、イメージセンサ102からは6Kサイズの撮像画像が出力されるものとする。
 レンズ101のあおり量やフランジバックのずれ量を検出するために、フロントエンドカメラ信号処理部103は、6Kサイズの1枚の撮像画像から、切り出し位置を移動させて、複数の場所で4Kの画サイズからなる小エリアの撮像画像を切り出す。そして、カメラ信号処理部103は、フロントエンドカメラ信号処理部103が切り出した4K画サイズのエリア毎にAF検波を行って、フォーカスポジションに対する合焦度の関係に関するデータを得る。カメラ信号処理部103は、AF検波を行う際に、4Kの切り出し画の中に複数のAF検波枠を設けることによって、測定の精度を高める。
 以下では、説明の便宜上、6Kサイズの撮像画像の四隅から、A⇒B⇒C⇒Dのように切り出し位置を順番に移動させて4Kの画サイズからなる小エリアを切り出すものとする。A、B、C、Dの各エリアに対してユーザーがフォーカスをマニュアル操作して、映像信号処理部104がAF検波を行うことで、図3に示すようにエリア毎のフォーカスポジションに対する合焦度の関係に関するデータを得ることができる。例えば、交換式のレンズ101の外周のフォーカスリング114を回すことで、フォーカスをマニュアル操作することができる。そして、各エリアA、B、C、D間で合焦度がピークとなるフォーカスポジションの相関関係を定量化することにより、レンズ101の光軸に対するイメージセンサ102の2次元的なあおり量を定量的に算出することができる。また、算出されたあおり量が許容範囲以内である場合には、さらにレンズ101のフランジバックのずれ量を算出することができる。
 具体的には、レンズマウントの規格により定められているフランジバックの長さに対応するフォーカスポジションを基準位置として、各エリアA、B、C、Dにおいて合焦度がピークとなるフォーカスポジションと上記の基準位置との間の距離に対して、所定の関係式1による変換を施した量がフランジバックのずれ量に相当する。ここで、所定の関係式1とは、例えばフォーカスポジションの変化量(距離)からフランジバックの変化量(ずれ量)に変換するための関数である。また、各エリアA、B、C、Dにおいて、それぞれ合焦度がピークとなるフォーカスポジション間の相対的な距離に対して、所定の関係式2による変換を施した量が、相対的なあおり量に相当する。ここで、所定の関係式2とは、例えばフォーカスポジションの変化量(距離)から相対的なあおり量(異なる2つのエリア間でのずれ量)に変換するための関数である。なお、関係式1と関係式2は、それぞれ別の関数であってもよいし、同じ関数を用いてもよい。なお、あおり量としては、上記で算出した相対的なあおり量に基づいて、例えばいずれかのエリアを基準とした絶対的な量として算出することもできる。また、上記においては、算出されたあおり量が許容範囲以内である場合に、さらにレンズ101のフランジバックのずれ量を算出することとして説明をしているが、あおり量とフランジバックのずれ量をそれぞれ算出することもできるし、あおり量とフランジバックのずれ量を含めた1つの量として算出することもできる。1つの量として算出する場合には、相対的なあおり量とフランジバックのずれ量に基づき、例えば上記の基準位置に対する絶対的な量として算出すればよい。
 なお、ここでは小エリアとして、イメージセンサ102の水平方向及び垂直方向のあおりの状態を把握するために、少なくとも水平方向2×垂直方向2の4つのエリアに切り出すことを例に説明したが、例えばイメージセンサ102における水平方向のあおりの状態を把握すればよい場合には、水平方向に沿って少なくとも2つのエリアを設ければよいし、垂直方向のあおりの状況を把握すればよい場合には、垂直方向に沿って少なくとも2つのエリアを設ければよい。
B.あおり量及びフランジバックのずれ量を検出するための処理フロー
 図4には、検出システム1において撮像装置100のあおり量及びフランジバックのずれ量を検出するための処理手順をフローチャートの形式で示している。この処理手順は、事前準備としてレンズ101の前方に測定用チャート2を設置した上で、ユーザーが撮像装置100に対して当該検出処理を指示したことに応じて開始される。
 まず、撮像装置100は、フロントエンドカメラ信号処理部103における、イメージセンサ102が撮像した6K画サイズの画像から4K画サイズを順次切り出す切り出し機能をオンにする(ステップS401)。例えば撮像装置100本体の背面の表示部113(前述)に表示されたメニュー画面を選択したり、撮像装置100が備える機械式スイッチを操作したりすることで、ユーザーは切り出し機能をオンにすることができる。
 フロントエンドカメラ信号処理部103は、最初にイメージセンサ102によって理撮像した6Kの画像から4Kの画サイズのエリアを切り出す切り出し位置をAの位置(前述並びに図1を参照のこと)に設定する(ステップS402)。そして、ユーザーは、フォーカスリング114を回して、切り出し位置Aに対するフォーカスをマニュアル操作する。ユーザーがフォーカスをマニュアル操作している間に、レンズ101のフォーカスポジションを読み取りながら、映像信号処理部104がAF検波を継続的に実施して(ステップS403)、フォーカスポジション毎の合焦度を遂次記録していく。このようにして、切り出し位置Aにおけるフォーカスポジションに対する合焦度の関係を表す波形データ(例えば、図3を参照のこと)を得る。
 ステップS403では、ユーザーは、例えば交換式のレンズ101の外周のフォーカスリング114を回して、フォーカスポジションの端から端まで移動させるものとする(後続の各切り出し位置におけるフォーカスのマニュアル操作についても、同様とする)。また、表示部113などに切り出し位置Aに相当するAF検波枠を表示することで、ユーザーにAF検波の位置を知らせることができる。そして、ユーザーは、フォーカスポジションの移動を終了すると、例えば表示部113のUI操作など介して、切り出し位置Aのエリアで取得した波形データを確定する。
 続いて、フロントエンドカメラ信号処理部103は、6Kの撮像画像から4Kの画サイズの小エリアを切り出す切り出し位置をBの位置(前述並びに図1を参照のこと)に移動する(ステップS404)。ユーザーは、フォーカスリング114を回して、切り出し位置Bに対するフォーカスをマニュアル操作する。ユーザーがフォーカスをマニュアル操作している間に、レンズ101のフォーカスポジションを読み取りながら、映像信号処理部104がAF検波を継続的に実施して(ステップS405)、フォーカスポジション毎の合焦度を遂次記録していく。このようにして、切り出し位置Bにおけるフォーカスポジションに対する合焦度の関係を表す波形データ(例えば、図3を参照のこと)を得る。そして、ユーザーは、フォーカスポジションの移動を終了すると、例えば表示部113のUI操作など介して、切り出し位置Bのエリアで取得した波形データを確定する。
 さらに続いて、フロントエンドカメラ信号処理部103は、6Kの撮像画像から4Kの画サイズの小エリアを切り出す切り出し位置をCの位置(前述並びに図1を参照のこと)に移動する(ステップS406)。ユーザーは、フォーカスリング114を回して、切り出し位置Cに対するフォーカスをマニュアル操作する。ユーザーがフォーカスをマニュアル操作している間に、レンズ101のフォーカスポジションを読み取りながら、映像信号処理部104がAF検波を継続的に実施して(ステップS407)、フォーカスポジション毎の合焦度を遂次記録していく。このようにして、切り出し位置Cにおけるフォーカスポジションに対する合焦度の関係を表す波形データ(例えば、図3を参照のこと)を得る。そして、ユーザーは、フォーカスポジションの移動を終了すると、例えば表示部113のUI操作など介して、切り出し位置Cのエリアで取得した波形データを確定する。
 さらに続いて、フロントエンドカメラ信号処理部103は、6Kの撮像画像から4Kの画サイズの小エリアを切り出す切り出し位置をDの位置(前述並びに図1を参照のこと)に移動する(ステップS408)。ユーザーは、フォーカスリング114を回して、切り出し位置Dに対するフォーカスをマニュアル操作する。ユーザーがフォーカスをマニュアル操作している間に、レンズ101のフォーカスポジションを読み取りながら、映像信号処理部104がAF検波を継続的に実施して(ステップS409)、フォーカスポジション毎の合焦度を遂次記録していく。このようにして、切り出し位置Dにおけるフォーカスポジションに対する合焦度の関係を表す波形データ(例えば、図3を参照のこと)を得る。そして、ユーザーは、フォーカスポジションの移動を終了すると、例えば表示部113のUI操作など介して、切り出し位置Dのエリアで取得した波形データを確定する。
 カメラ信号処理部103は、各切り出し位置A、B、C、Dで切り出した4K画サイズの小エリアでそれぞれ取得したフォーカスポジションに対する合焦度の関係を表す波形データを比較する。そして、各切り出し位置A、B、C、Dで切り出した4K画サイズの小エリア間で、合焦度がピークとなるフォーカスポジションの相関関係を定量化することにより、レンズ101の光軸に対するイメージセンサ102の2次元的なあおり量と、フランジバックのずれ量を算出する(ステップS410)。
 その後、撮像装置100は、フロントエンドカメラ信号処理部103の切り出し機能をオフにする(ステップS411)。
 そして、撮像装置100は、ステップS410で算出したイメージセンサ102のあおり量とフランジバックのずれ量を、ユーザーに通知する(ステップS412)。例えば、撮像装置100の本体の背面の表示部113にあおり量とフランジバックのずれ量を表示するようにしてもよい。あるいは、撮像装置100にHDMI(登録商標)インターフェースなどを介して外部接続されるモニタディスプレイに、あおり量とフランジバックのずれ量を表示するようにしてもよい。
 次いで、ステップS410で算出したイメージセンサ102のあおり量とフランジバックのずれ量が許容範囲以内か否かをチェックする(ステップS413)。許容範囲以内か否かは、算出結果の通知を受けたユーザー自身が判断するようにしてもよい。そして、許容範囲を超える場合には(ステップS413のNo)、あおり又はフランジバックのメカ調整を実施する(ステップS414)。
 ステップS414のメカ調整は、ユーザー自身が実施する。撮像装置100は、本体背面の表示部にメカ調整に関する画像情報を表示したり、音声メッセージや警告音を発したりすることで、ユーザーにメカ調整を促すようにする。その際、イメージセンサ102のあおり量とフランジバックのずれ量に関する定量的な情報を提示することで、ユーザーは1回の作業でメカ調整を済ませることができる。
C.ユーザーのフォーカス操作に追従させるための機構
 図3に示した処理フロー中の各処理ステップS403、S405、S407、S409では、各々の4K画サイズのエリアにおいて、例えば図5に示すような、フォーカスポジションの推移に対して合焦度が緩やかに変化し、合焦度のピークとなるフォーカスポジションを正確に判別することができる波形データを得ることが好ましい。このためには、レンズ101のフォーカスポジションを高精度に取得して、AF検波して得られる合焦度をフォーカスポジションと対応付けて記録する必要がある。
 図6には、検出システム1において、レンズ101のフォーカスポジションと合焦度を対応付ける仕組みを図解している。レンズ101側からは、フォーカスポジションの情報を含むレンズメタ情報が、レンズ通信117を利用して送信される。したがって、撮像装置100内の制御部116は、ユーザーがフォーカスリング114を手動により回転操作させたときのフォーカスポジションを、レンズ通信117を介して読み取ることができる。映像信号処理部104は、制御部116から、レンズ101の現在のフォーカスポジションの情報を受け取ることができ、AF検波して得られた合焦度と対応付けて出力する。
 ここで、ユーザーがレンズ101のフォーカスリング114を回すなどのマニュアル操作によってフォーカスポジションを移動させる場合、フォーカスポジションを移動させる速度は一定ではないという問題がある。
 図7には、ユーザーによるレンズ101のフォーカスポジションのマニュアル操作例1~3を示している。同図の横軸は時間軸であり、縦軸はフォーカスポジションである。フォーカスポジションの移動速度は一定ではなく、時間やフォーカスポジションに応じて変化している。例えば、操作例1を示す各曲線のうち、勾配が急な箇所は、フォーカスポジションの移動速度が急峻であることを示している。
 フォーカスポジションの移動速度は一定でないにも拘らず、イメージセンサ102の撮像速度(若しくは、画像の更新周期)を一定のままにすると、フォーカスポジションの移動速度が急峻となる箇所では、合焦度の算出が間に合わず、合焦度の変化を取りこぼしてしまい、図5に示したような理想的な波形データを取得できなくなる。
 このため、レンズ101側でのフォーカス操作が素早く行なわれることを考慮して、撮像装置100本体側では画像の更新周期をあらかじめ上げておく必要がある。また、あおり量とフランジバックのずれ量を算出中、又はフォーカス操作速度が急峻なときには、イメージセンサ102を高速撮像に切り替えるようにする。例えば、制御部116は、レンズ通信117により時々刻々と送られてくるフォーカスポジションの情報に基づいて、フォーカス操作速度が急峻になったことを検出すると、フロントエンドカメラ信号処理部103に対して、イメージセンサ102の高速撮像を指示する。
 図8には、図7に示したフォーカスポジションのマニュアル操作例1に対応して、撮像速度(若しくは、画像の更新周期)を適応的に変化させる様子を示している。同図下段の1つの四角の長さが画像の更新周期を表している。図示の通り、操作例1を示す曲線の勾配が急峻となる時間領域で、画像の更新周期を短縮している。
 また、映像信号処理部104におけるAF検波の動作周期を、イメージセンサ102の高速な画像更新周期に合わせて短縮することができればよいが、ハードウェアの制約などのためにAF検波の動作周期を一定以上に短縮できないことも想定される。
 このため、フロントエンドカメラ信号処理部103が、処理した映像を複数フレーム期間にわたり内部バッファ103Aに一時的に保存しておくようにしてもよい。その後、AF検波の動作周期に合わせて内部バッファ103Aに保存された映像を映像信号処理部104に送出してAF検波に通すことで、レンズ101のフォーカスポジションの端から端まで移動させる間、取りこぼしなく合焦度を算出することができる。
 一方、レンズ通信117により受信するレンズメタの中にはレンズ101のフォーカスポジションの情報が含まれており、制御部116で読み取ることが可能である(前述)。制御部116は、レンズ101のフォーカスポジションの情報を、内部メモリ116Aに保存しておく。レンズ通信117によりレンズ101のフォーカスポジションの情報を取得する周期は映像の撮像周期とは異なるが、フォーカスポジションの取得も映像の撮像も制御部116の制御下で行われるので、内部バッファ103A内の映像フレームに対してフォーカスポジションの紐付けを行うことができる。このようにして、各切り出し位置の小エリアにおけるフォーカスポジションに対する合焦度の関係を求めることが可能である。
D.あおり量とフランジバックのずれ量の視覚的な表示
 上記A項でも説明したように、撮像装置100のあおり量及びフランジバックのずれ量を検出する際には、空間周波数が高い図形パターンが表面に形成された測定用チャート2が使用される。
 図9には、測定用チャート2の一例を示している。測定用チャート2のアスペクト比は、イメージセンサ102の撮像領域と同じ若しくは近似していることが好ましい。測定用チャート2の表面に形成される図形パターンは、図示の例には限定されない。但し、4K画サイズの小エリアの切り出し位置毎に特性に差異が生じないように、対称的な図形パターンであることが好ましい。
 図4に示したフローチャートのステップS410では、イメージセンサ102の撮像領域の各切り出し位置A、B、C、Dで切り出した4K画サイズの小エリア間で、合焦度がピークとなるフォーカスポジションの相関関係を定量化して、レンズ101の光軸に対するイメージセンサ102の2次元的なあおり量と、フランジバックのずれ量が算出される。そして、ステップS412では、イメージセンサ102のあおり量とフランジバックのずれ量がユーザーに通知される。例えば、あおり量とフランジバックのずれ量を、撮像装置100の本体の背面の表示部113に表示したり、撮像装置100に外部接続されるモニタ画面(図示しない)に表示したりする。なお、イメージセンサ102の2次元的なあおり量と、フランジバックのずれ量の算出に際しては、例えばイメージセンサ102が剛体(歪などによる変形がない)との仮定に基づいて算出される。
 図10には、ステップS412でユーザーへの通知に利用される、レンズ101のあおり量とフランジバックのずれ量を表示する画面構成例を示している。図示の例では、あおり量を色の濃淡又は色合いで表現して、測定用チャート2(図9を参照のこと)を撮像している映像に重畳して表示している。図10に示すような表示画面を通じて、ユーザーは、イメージセンサ102がレンズ101の光軸を中心に360度のどの角度に対してあおりが生じているか、すなわちあおり量の2次元的な分布を、定量的且つ視覚的にユーザーに把握し易くなる。
 なお、あおりがなく、フランジバックのずれのみの場合には、画面全面が均一な濃淡又は均一な色で表示されることになる。
 また、ステップS410で算出されたあおり量やフランジバックのずれ量が許容範囲以内でない場合には、ずれ量を色の濃淡や色合いだけでなく数値でも表示するようにしてもよい。これによって、ステップS414でユーザーがあおり又はフランジバックのメカ調整を実施し易くする。例えば、レンズ101と撮像装置100本体のレンズ取り付け部分の間に挿設されるシムを交換することで、あおり又はフランジバックのずれを補正することができる。ずれ量の数値が分かると、ユーザーはシムを交換し易くなる。また、あおり量やフランジバックのずれ量としては、数値での表示に限らず、あおり又はフランジバックのずれの状態を示すものであればよく、例えば所定のレベル(数値の範囲)に分割し、このレベル(例えば大、中、小など)による表示であってもよい。
E.フォーカス操作の目標表示
 撮像装置100のフォーカス操作を行うときに、撮像装置100の表示部113、又は外部接続されたモニタ画面に、フォーカスの目標位置が表示される。
 図11には、フォーカスの目標位置の表示例を示している。図示の例では、横軸方向が撮像装置100(若しくは、レンズ101)の光軸方向の距離を示し、目標フォーカスポジション1101とフォーカスの現在ポジション1102を併せて表示するインジケータ1100の形態で、フォーカスの目標位置が表示されている。
 図12には、図11に示したフォーカス目標位置表示のインジケータを、フォーカス操作中に、表示部113又は外部接続されたモニタ画面に表示した例を示している。同図に示すように、測定用チャート2の画像に被らないように、例えば画面の下端縁付近にインジケータを配置することが好ましい。ユーザーは、測定用チャート2の映像とインジケータの表示を同時に見ながら、フォーカス操作を行うことができる。
 また、図13には、目標フォーカスポジションとフォーカスの現在ポジションが大きくずれた場合のインジケータ1300の表示例を示している。図13に示す例では、目標フォーカスポジション1301とフォーカスの現在ポジション1302が大きくずれている。目標フォーカスポジション1301とフォーカスの現在ポジション1302の差が大き過ぎるときは、あおり量及びフランジバックのずれ量の算出精度が落ちてしまう可能性がある。そこで、図12などに示すように、フォーカス目標位置をユーザーに示すことによって、ユーザーがその目標位置に合わせてフォーカス操作でできるように誘導する。
 図8に示したようにイメージセンサ102を高速撮像していたとしても、ユーザーのフォーカス操作が非常に速いときには、高速撮像が追い付かずに、高精度の合焦度データが得られない、若しくは合焦度データを取りこぼしてしまう可能性がある。そこで、図12に示したように、フォーカス操作の目標位置を表示して、ユーザーがその目標位置を見ながらフォーカス操作できるようにする。
 図14には、フォーカスポジションの動きの例を、フォーカスポジションに対する合焦度の関係と併せて示している。同図では、フォーカスポジションの動きとして、参照番号1401で示すフォーカス操作用目安と、参照番号1402及び1403でそれぞれ示すユーザーによるフォーカス操作の2例を示している。一方のユーザー操作例1402は、フォーカス操作用目安1401に近似するフォーカスポジションの動きを示すことから、高精度で合焦度データを取得することが可能である。他方のユーザー操作例1403は、フォーカス操作用目安1401から大きく外れたフォーカスポジションの動きを示すことから、取得できる合焦度データの精度は低下する。
F.まとめ
 本実施形態に係る撮像装置100は、フォーカスポジションをマニュアル操作可能な交換式のレンズ101を接続するが、イメージセンサ102のあおり量とレンズ101のフランジバックのずれ量を、ユーザーによるフォーカス操作に追従しながら自動的に高精度で算出する機能と、その算出結果をユーザーに分かり易く提示する機能を備えている。撮像装置100の特徴を挙げる。
(1)撮像装置100は、フォーカスポジションをマニュアル操作可能なレンズ101を接続するとともに、イメージセンサ102と、フロントエンドカメラ信号処理部103と、映像信号処理部104を備えている。イメージセンサ102は、6K(若しくは、4Kよりも大きい)画サイズを持つ。フロントエンドカメラ信号処理部103は、後段の映像信号処理部104内のAF検波回路でAF検波可能な4Kの画サイズの小エリアを、イメージセンサ102の撮像画像の複数の切り出し位置A、B、C、Dから部分的に切り出す。そして、映像信号処理部104では、内部のAF検波回路を使って、切り出した各小エリアに対して合焦度を取得する。
(2)イメージセンサ102のあおりが存在する場合、イメージセンサ102の部分的な切り出しエリア毎に合焦度が最も高くなるフォーカスポジション値に差異が生じる。このため、各部分的な切り出しエリアの合焦度の相互相関をとることにより、各切り出しエリアにおいて定量的に合焦度のピーク位置のずれを求めることができる。そして、各切り出しエリアの合焦度のピーク位置の相関関係を定量化することにより、イメージセンサ102のあおり方向及びあおり量と、レンズ101のフランジバックのずれ量を算出することができる。
(3)フォーカスポジションをマニュアル操作可能なレンズ101の場合、ユーザーがフォーカスポジションを自由に変えるマニュアル操作を通じてあおり量とフランジバックのずれ量を高精度に算出できるように、ユーザーがフォーカス操作を行うときに目安となるフォーカスポジションの目標位置と、ユーザーがフォー操作したことによるフォーカスポジションの現在位置とを表示する。図12に示したように、これら目標位置及び現在位置を測定用チャートの撮像画像に重畳して表示するようにしてもよい。 
(4)ユーザーがフォーカス操作に追従して各フォーカスポジションで取りこぼしなく合焦度を測定できるように、イメージセンサ102を高速撮像にする。また、イメージセンサ102の画像更新の周期とAF検波の動作周期の相違を吸収するために、イメージセンサ102の撮像画像をフロントエンドカメラ信号処理部103の内部バッファ103Aに一時的に保存しておき、映像信号処理部104内のAF検波回路の動作周期に合わせてAF検波を行えるようにする。また、制御部116は、レンズ通信117を介して取得したフォーカスポジションの情報を内部メモリ116Aに一時的に保続しておき、その後に映像信号処理部104内のAF検波回路が求めた合焦度データとの紐付けを行うようにする。
(5)撮像装置100は、イメージセンサ102のあおり量とレンズ101のフランジバックのずれ量をユーザーが視覚的に理解できるように、あおり量を色の濃淡又は色合いで表現した画像を、測定用チャートの撮像画像に重畳して、撮像装置100本体背面の表示部113、又は外部接続されたモニタ画面に表示する(図10を参照のこと)。算出されたあおり量やフランジバックのずれ量が許容範囲以内であれば、図10に示したような視覚的な表示だけを行う。また、算出されたあおり量やフランジバックのずれ量が許容範囲以内でないときには、図10に示したような視覚的な表示に加えて、あおり量並びにフランジバックのずれ量の数値などを示す定量的な情報も表示する。ユーザーは、ずれ量の数値が分かると、シム交換などのメカ調整を行い易くなる。
G.効果
 映画やドラマの制作及び放送で使用する高価格のビデオカメラの場合、レンズ仕様の異なる交換式レンズを使用する頻度が高く、撮影シーンに応じてレンズの付け外しは頻繁に行われる。撮影によっては、高温、低温、砂塵が舞う環境等、過酷な環境での使用及びビデオカメラやレンズに対する衝撃が多い環境での使用などもある。このため、カメラの製品出荷時点で調整されていたメカ的な取り付けも、経年的な劣化で精度が甘くなり、許容値を超えるケースが存在する。また近年、高価格のビデオカメラではイメージセンサのサイズが大判化してきており、イメージセンサのあおりのずれ量が従来と比べて目立ち易くなってきている。
 このような背景もあり、高価格のビデオカメラを使用するユーザー(映画の場合は主にレンタルハウスのカメラ技術担当、放送の場合は放送局のカメラ技術担当)は、使用するレンズを取り付けた上でイメージセンサのあおり量が許容範囲以内に入っていることと、レンズのフランジバックのずれ量がないことの確認を行うケースが増えてきている。
 従来は経験のあるユーザーが時間をかけて、測定用チャートを撮影しずれ量をモニタで目視確認し、そのずれ量が小さくなるように、レンズとレンズマウント部分の間にシム(スペーサー)を入れるなどして調整を行っていた。この作業は目視による確認であり定量的なずれ量ではないので、経験があり技術力があるユーザーが時間をかけて調整を行っていた。
 これに対し、本明細書で開示する技術によれば、ユーザーは、図10に示したようなあおり量の2次元的な分布を示す映像を見て、あおり量とフランジバックのずれ量が許容範囲以内にあるかどうか、並びに、許容範囲に入っていない場合はそのずれ量を定量的に分かり易く知ることができる。また、ずれ量が存在していたとしても、ユーザーは1度の調整だけであおり量やフランジバックのズレ量の補正を済ませることができ、調整作業の効率化を行うことが可能である。
 あおり量の調整は、カメラ製造工程において高価な測定治具を使って行うことが一般的である。これに対し、本明細書で開示する技術によれば、イメージセンサの撮像領域中の複数個所の切り出し位置で切り出した小エリア毎にフォーカスポジションに対する合焦度データを測定して、あおり量の2次元的な分布を算出して維持する機能をカメラ本体に搭載しておくことで、製品出荷後においても、調整知識を十分に持たないユーザーであっても、調整を簡単に行うことができるようになる。
 主に下記3点が調整知識を十分に持たないユーザーでも実行できるようにするための仕組みである。
(1)ユーザーがレンズのフォーカスを手動で操作するときに、目標位置を表示し(図12を参照のこと)、それに合わせるように操作することで高精度の合焦度を取得できる仕組み。
(2)手動操作のスピードが一定しない場合でも、AFも検波周期を短くできる仕組み(図8を参照のこと)。
(3)カメラ本体で算出されたあおり量、並びにフランジバックのずれ量が許容範囲以内に入っているかとその値を、定量的に分かりやすく表示する仕組み(図10を参照のこと)。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書で開示する技術は、業務向け及び一般ユーザー向けの、主に交換式レンズを用いるデジタルカメラに適用することができる。本明細書で開示する技術によれば、あおり量やフランジバックが適切に調整された後に出荷されたデジタルカメラであっても、経年劣化によりあおりやフランジバックのずれが発生したとき、若しくは、レンズを交換したタイミングで、図4に示したような検出処理手順を実施することで、ユーザーがあおり量やフランジバックのずれ量を確認して、メカ調整を行うことができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)イメージセンサの撮像領域中の複数箇所の小エリア毎に、レンズのフォーカスポジションと合焦度のデータを取得する測定部と、
 前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相関関係に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する演算部と、
を具備する撮像装置。
(2)前記測定部は、ユーザーのマニュアル操作によるフォーカスポジションの移動に追従してAF検波してフォーカスポジション毎の合焦度データを測定する、
上記(1)に記載の撮像装置。
(3)前記測定部は、前記イメージセンサを高速撮像にした撮像画像を用いて前記データの取得を行う、
上記(1)又は(2)のいずれかに記載の撮像装置。
(4)前記イメージセンサの撮像画像を一時的に保存するバッファをさらに備え、
 前記測定部は、AF検波の動作周期に合わせて前記バッファから読み出した撮像画像を用いてAF検波を行う、
上記(1)乃至(3)のいずれかに記載の撮像装置。
(5)前記レンズと通信する制御部をさらに備え、
 前記制御部は、前記通信により取得した前記レンズのフォーカスポジションを内部メモリに一時的に保存し、
 前記測定部は、AF検波して得られた合焦度データと前記内部メモリに保存されたフォーカスポジションとを対応付けする、
上記(1)乃至(4)のいずれかに記載の撮像装置。
(6)前記測定部は、所定の測定用チャートの撮像画像を用いて前記データの取得を行う、
上記(1)乃至(5)のいずれかに記載の撮像装置。
(7)前記演算部が算出した前記あおり量又は前記フランジバックのずれ量を出力する出力部をさらに備える、
上記(1)乃至(6)のいずれかに記載の撮像装置。
(8)前記出力部は、撮像画像に重畳して前記あおり量の分布を表示する、
上記(7)に記載の撮像装置。
(9)前記出力部は、前記あおり量を色の濃淡又は色合いで表現した画像を前記撮像画像に重畳して表示する、
上記(8)に記載の撮像装置。
(10)前記出力部は、前記あおり量又は前記フランジバックのずれ量が許容範囲以内でない場合には、前記あおり量又は前記フランジバックのずれ量の数値情報を出力する、
上記(8)又は(9)のいずれかに記載の撮像装置。
(11)前記ユーザーのマニュアル操作の目安となるフォーカスポジションの目標位置と前記ユーザーが操作したフォーカスポジションの現在位置との関係を提示する提示部をさらに備える、
上記(2)に記載の撮像装置。
(12)前記提示部は、フォーカスポジションの前記目標位置及び前記現在位置との関係を示す画像情報を、撮像画像に重畳して表示する、
上記(11)に記載の撮像装置。
(13)イメージセンサの撮像領域中の複数箇所の小エリア毎に、レンズのフォーカスポジションと合焦度のデータを取得する測定ステップと、
 前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相関関係に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する演算ステップと、
 前記演算部で算出した前記あおり量又は前記フランジバックのずれ量を出力する出力ステップと、
を有する撮像装置の制御方法。
 1…検出システム、2…測定用チャート
 100…撮像装置、101…レンズ、102…イメージセンサ
 103…フロントエンドカメラ信号処理部、103A…内部バッファ
 104…映像信号処理部
 111…絞り、112…シャッター、113…表示部
 114…フォーカスリング、116…制御部、116A…内部メモリ

Claims (13)

  1.  イメージセンサの撮像領域中の複数箇所の小エリア毎に、レンズのフォーカスポジションと合焦度のデータを取得する測定部と、
     前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相関関係に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する演算部と、
    を具備する撮像装置。
  2.  前記測定部は、ユーザーのマニュアル操作によるフォーカスポジションの移動に追従してAF検波してフォーカスポジション毎の合焦度データを測定する、
    請求項1に記載の撮像装置。
  3.  前記測定部は、前記イメージセンサを高速撮像にした撮像画像を用いて前記データの取得を行う、
    請求項1に記載の撮像装置。
  4.  前記イメージセンサの撮像画像を一時的に保存するバッファをさらに備え、
     前記測定部は、AF検波の動作周期に合わせて前記バッファから読み出した撮像画像を用いてAF検波を行う、
    請求項1に記載の撮像装置。
  5.  前記レンズと通信する制御部をさらに備え、
     前記制御部は、前記通信により取得した前記レンズのフォーカスポジションを内部メモリに一時的に保存し、
     前記測定部は、AF検波して得られた合焦度データと前記内部メモリに保存されたフォーカスポジションとを対応付けする、
    請求項1に記載の撮像装置。
  6.  前記測定部は、所定の測定用チャートの撮像画像を用いて前記データの取得を行う、
    請求項1に記載の撮像装置。
  7.  前記演算部が算出した前記あおり量又は前記フランジバックのずれ量を出力する出力部をさらに備える、
    請求項1に記載の撮像装置。
  8.  前記出力部は、撮像画像に重畳して前記あおり量の分布を表示する、
    請求項7に記載の撮像装置。
  9.  前記出力部は、前記あおり量を色の濃淡又は色合いで表現した画像を前記撮像画像に重畳して表示する、
    請求項8に記載の撮像装置。
  10.  前記出力部は、前記あおり量又は前記フランジバックのずれ量が許容範囲以内でない場合には、前記あおり量又は前記フランジバックのずれ量の数値情報を出力する、
    請求項8に記載の撮像装置。
  11.  前記ユーザーのマニュアル操作の目安となるフォーカスポジションの目標位置と前記ユーザーが操作したフォーカスポジションの現在位置との関係を提示する提示部をさらに備える、
    請求項2に記載の撮像装置。
  12.  前記提示部は、フォーカスポジションの前記目標位置及び前記現在位置との関係を示す画像情報を、撮像画像に重畳して表示する、
    請求項11に記載の撮像装置。
  13.  イメージセンサの撮像領域中の複数箇所の小エリア毎に、レンズのフォーカスポジションと合焦度のデータを取得する測定ステップと、
     前記複数箇所の小エリア間におけるフォーカスポジションと合焦度のデータの相関関係に基づいて、前記イメージセンサのあおり量又は前記レンズのフランジバックのずれ量を算出する演算ステップと、
     前記演算部で算出した前記あおり量又は前記フランジバックのずれ量を出力する出力ステップと、
    を有する撮像装置の制御方法。
PCT/JP2019/003956 2018-03-30 2019-02-05 撮像装置及びその制御方法 WO2019187646A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/040,637 US11467371B2 (en) 2018-03-30 2019-02-05 Imaging device and control method thereof
CN201980021548.5A CN111902770B (zh) 2018-03-30 2019-02-05 成像设备及其控制方法
JP2020510347A JP7276321B2 (ja) 2018-03-30 2019-02-05 撮像装置及びその制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-070274 2018-03-30
JP2018070274 2018-03-30

Publications (1)

Publication Number Publication Date
WO2019187646A1 true WO2019187646A1 (ja) 2019-10-03

Family

ID=68058761

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003956 WO2019187646A1 (ja) 2018-03-30 2019-02-05 撮像装置及びその制御方法

Country Status (4)

Country Link
US (1) US11467371B2 (ja)
JP (1) JP7276321B2 (ja)
CN (1) CN111902770B (ja)
WO (1) WO2019187646A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10197226A (ja) * 1997-01-16 1998-07-31 Matsushita Electric Ind Co Ltd 光学系および撮像手段を有する装置における検査方法
JP2007295240A (ja) * 2006-04-25 2007-11-08 Canon Inc 撮像装置
JP2010011042A (ja) * 2008-06-26 2010-01-14 Acutelogic Corp 撮像装置のあおり補正方法及びあおり補正装置
JP2013037246A (ja) * 2011-08-09 2013-02-21 Ricoh Co Ltd 撮像装置および撮像方法
JP2013187883A (ja) * 2012-03-12 2013-09-19 Ricoh Co Ltd 撮像装置及び撮像方法
JP2016197177A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 表示制御装置及びその制御方法、及び撮像装置
JP2017191144A (ja) * 2016-04-11 2017-10-19 キヤノン株式会社 表示制御装置、その制御方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319544A (ja) 2005-05-11 2006-11-24 Olympus Imaging Corp 撮像素子の傾き測定装置及びその測定方法
JP4678053B2 (ja) * 2008-12-08 2011-04-27 ソニー株式会社 撮像装置
CN105025290B (zh) 2014-04-23 2017-07-04 宁波舜宇光电信息有限公司 一种自动调整摄像模组传感器与镜头之间倾斜的方法
CN106060373B (zh) 2015-04-03 2019-12-20 佳能株式会社 焦点检测装置及其控制方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10197226A (ja) * 1997-01-16 1998-07-31 Matsushita Electric Ind Co Ltd 光学系および撮像手段を有する装置における検査方法
JP2007295240A (ja) * 2006-04-25 2007-11-08 Canon Inc 撮像装置
JP2010011042A (ja) * 2008-06-26 2010-01-14 Acutelogic Corp 撮像装置のあおり補正方法及びあおり補正装置
JP2013037246A (ja) * 2011-08-09 2013-02-21 Ricoh Co Ltd 撮像装置および撮像方法
JP2013187883A (ja) * 2012-03-12 2013-09-19 Ricoh Co Ltd 撮像装置及び撮像方法
JP2016197177A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 表示制御装置及びその制御方法、及び撮像装置
JP2017191144A (ja) * 2016-04-11 2017-10-19 キヤノン株式会社 表示制御装置、その制御方法およびプログラム

Also Published As

Publication number Publication date
CN111902770A (zh) 2020-11-06
JP7276321B2 (ja) 2023-05-18
US20210011255A1 (en) 2021-01-14
CN111902770B (zh) 2022-04-15
US11467371B2 (en) 2022-10-11
JPWO2019187646A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
US6940550B2 (en) Digital camera and a method for correcting dust images in the camera
US20120268621A1 (en) Imaging apparatus, azimuth recording method, and program
US20090231445A1 (en) Imaging apparatus
JP2014029353A (ja) 焦点調整装置および焦点調整方法
JP5185424B1 (ja) キャリブレーション方法および映像表示装置
JPH0481178A (ja) Irccd検知器の直流オフセット補正方法
JP2011146936A (ja) 色特性補正装置およびカメラ
JP2010258669A (ja) 全方位撮像装置
JP2009089138A (ja) 赤外線カメラ
JP2005269130A (ja) 手振れ補正機能を有する撮像装置
KR20080061629A (ko) 이미지센서의 중심점 최적화를 위한 촬영장치 및 그촬영제어방법
WO2019187646A1 (ja) 撮像装置及びその制御方法
JP4810292B2 (ja) 撮像装置
JP2009069740A (ja) 撮像装置
JP2007071891A (ja) 3次元計測装置
JP2007049266A (ja) 画像撮像装置
US10003736B2 (en) Image pickup device
WO2018221034A1 (ja) フォーカス制御装置、フォーカス制御方法、プログラムおよび撮像装置
JP5451333B2 (ja) 監視用テレビカメラ装置
JP2005252680A (ja) レンズシステム
JP2012244243A (ja) 撮像装置および撮像装置の制御方法
JP6547742B2 (ja) 撮像制御装置、撮像装置および撮像制御方法
JP6904560B2 (ja) 信号処理装置
JP2006352434A (ja) 撮影装置
JP2008301521A (ja) 顕微鏡用撮像装置及び撮像素子の画素欠陥検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19776300

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020510347

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19776300

Country of ref document: EP

Kind code of ref document: A1