WO2019065554A1 - 撮像装置、情報取得方法及び情報取得プログラム - Google Patents

撮像装置、情報取得方法及び情報取得プログラム Download PDF

Info

Publication number
WO2019065554A1
WO2019065554A1 PCT/JP2018/035258 JP2018035258W WO2019065554A1 WO 2019065554 A1 WO2019065554 A1 WO 2019065554A1 JP 2018035258 W JP2018035258 W JP 2018035258W WO 2019065554 A1 WO2019065554 A1 WO 2019065554A1
Authority
WO
WIPO (PCT)
Prior art keywords
image sensor
phase difference
difference pixel
unit
interchangeable lens
Prior art date
Application number
PCT/JP2018/035258
Other languages
English (en)
French (fr)
Inventor
貴嗣 青木
岩崎 洋一
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019545090A priority Critical patent/JP6856762B2/ja
Priority to CN201880062135.7A priority patent/CN111316161B/zh
Publication of WO2019065554A1 publication Critical patent/WO2019065554A1/ja
Priority to US16/832,075 priority patent/US10791260B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably

Definitions

  • the present invention relates to an imaging device, an information acquisition method, and an information acquisition program, and more particularly to a technique for acquiring information of an interchangeable lens mounted on an imaging device.
  • An imaging apparatus (camera) using an interchangeable lens can be roughly classified into two types of interchangeable lenses.
  • One of the interchangeable lenses is manufactured according to the communication standard of the camera body, and is an interchangeable lens capable of communicating with the camera body.
  • this type of interchangeable lens is attached to the camera body, the camera body communicates with the attached interchangeable lens, and lens information of the interchangeable lens (for example, the aperture value (F value of the diaphragm in the interchangeable lens) ), The lens position of the focus lens, the focal length of the interchangeable lens, etc.) can be completely acquired.
  • the other interchangeable lens is an interchangeable lens (not compatible interchangeable lens) that is not manufactured in accordance with the communication standard of the camera body and can not perform full communication with the camera body, and is made by a third party This is the case with the interchangeable lens or old lens.
  • the communication protocol etc. between the interchangeable lens and the camera body are different, some lens information can be acquired by the camera body, but at least the lens which can not acquire the F value is compatible in this example. It corresponds to the other interchangeable lens without.
  • an on-chip microlens for dividing one pixel of an image sensor into a plurality of regions and forming a pupil image of a photographing optical system on a plurality of regions, and a plurality of divided The current aperture of the interchangeable lens is provided based on the signals of a plurality of divided areas, provided with an image sensor having a reading unit for reading out the photoelectrically converted signal for each divided area and information on the aperture value can not be obtained from the interchangeable lens. The value has been detected.
  • the current diaphragm of the interchangeable lens is detected by the signals of the plurality of divided areas. The value can be detected.
  • the imaging device described in Patent Document 2 can not acquire information on the aperture value from the interchangeable lens, it captures a flash emission image and a flash non-emission image, and captures a shutter speed at the time of capturing the flash emission image and the flash non-emission image.
  • the aperture value at the time of imaging is estimated based on the subject distance, the guide number of the flash light at the time of imaging of the flash emission image, and the arrival amount of the flash light.
  • the camera described in Patent Document 3 includes an internal illuminance meter that measures the illuminance of the first light that has passed through the interchangeable lens, and an external illuminance meter that measures the illuminance of external light that has not passed through the interchangeable lens.
  • the aperture value of the interchangeable lens is estimated based on the illuminance of the first light and the illuminance of the second light measured by the illuminometer.
  • Patent Document 1 needs to include a special image sensor to estimate the aperture value. That is, one pixel of the image sensor is divided into a plurality of regions, and an on-chip microlens for focusing the pupil image of the imaging optical system into the plurality of regions and photoelectric conversion are performed for each of the plurality of divided regions. It is necessary to provide a special image sensor having a reading unit for reading out the signals respectively.
  • the camera described in Patent Document 3 needs to have an internal illuminance meter that measures the illuminance of the first light that has passed through the interchangeable lens and an external illuminance meter that measures the illuminance of external light that has not passed through the interchangeable lens. As in the invention of Patent Document 2, it is necessary to provide a special means (external illuminometer) for acquiring the F value.
  • An object of the present invention is to provide an imaging device, an information acquisition method, and an information acquisition program capable of acquiring information related to a ray angle easily and accurately.
  • an imaging device is an image having a first phase difference pixel and a second phase difference pixel having different incident angle characteristics from the first phase difference pixel.
  • a sensor drive unit for moving an image sensor in the direction of the optical axis of the sensor, the mounting unit to which the interchangeable lens can be detached, and the interchangeable lens mounted on the mounting unit, the image sensor having a first position and a second position And an output of the first phase difference pixel and the second phase difference pixel of the image sensor when the image sensor is moved to the first position by the sensor drive unit, and the image sensor is the second image sensor.
  • a phase difference pixel information acquisition unit for acquiring an output of the first phase difference pixel and the second phase difference pixel of the image sensor when moving to the position; and a first position in the first position and the second position Phase difference pixels and Provided on the basis of the output of the second phase difference pixel, when the subject light is incident on the image sensor through the interchangeable lens, an information acquisition section that acquires information related to the ray angle with respect to the image sensor.
  • the amount of phase shift detected by the first phase difference pixel and the second phase difference pixel on the image sensor according to the ray angle with respect to the image sensor even with the same defocus amount The image sensor is moved between a first position and a second position in the direction of the optical axis of the interchangeable lens.
  • the information related to the ray angle with respect to the image sensor when subject light is incident on the image sensor through the interchangeable lens is acquired based on the output of the phase difference pixel. In this way, even when an incompatible interchangeable lens is mounted for imaging, information related to the light beam angle with respect to the image sensor can be obtained only by moving the image sensor having phase difference pixels in the optical axis direction. Can.
  • the sensor drive unit is a position where the image sensor is moved from the first position by a specified amount in the direction of the in-focus position where the subject is in focus with respect to the first position.
  • the image sensor is moved to the second position. This is in order to favorably acquire the phase shift amount based on the outputs of the first phase difference pixel and the second phase difference pixel at the first position and the second position, respectively.
  • the imaging device preferably includes a focus area information acquisition unit that acquires focus area information indicating a focus adjustment area of the entire area of the image sensor. This is because the phase shift amount can not be accurately detected from the focusing area where the contrast is low.
  • the focus area information acquisition unit focuses the preset focus adjustment area, the area in which the main subject is present, or the area with high contrast in the entire area of the image sensor. Preferably, it is acquired as focal area information indicating the adjustment area.
  • the sensor driving unit detects the phase difference based on the outputs of the first phase difference pixel and the second phase difference pixel corresponding to the acquired focusing area. Assuming that the possible position is the first position, an image is generated with the position obtained by moving the image sensor from the first position by the specified amount in the direction of the in-focus position where the object in the focusing area is in focus. It is preferable to move the sensor.
  • the phase difference may not be detected well at the second position. It is from.
  • the information related to the ray angle with respect to the image sensor is the ray angle with respect to the image sensor, the aperture value of the interchangeable lens or the numerical aperture of the interchangeable lens.
  • the information acquiring unit is configured to output a first phase shift at a first position based on outputs of the first phase difference pixel and the second phase difference pixel of the image sensor.
  • a first phase shift amount detection unit that detects an amount and a second phase shift amount at a second position; and a first phase shift amount at a first position detected by the first phase shift amount detection unit
  • a second calculation unit that calculates the difference between the second phase shift amount at the second position and the calculated difference, and the movement amount between the first position and the second position at which the image sensor moves It is preferable that a second calculation unit that calculates a light ray angle with respect to the image sensor based on the equation (4) and that the light ray angle calculated by the second calculation unit be acquired as information related to the light ray angle with respect to the image sensor.
  • the ray angle with respect to the image sensor can be calculated.
  • the second computing unit is configured to perform the first operation based on the calculated difference and the amount of movement between the first position and the second position where the image sensor has moved. It is preferable to calculate an angle smaller than the light beam angle, which is defined by the phase shift amount of and the second phase shift amount, and multiply the calculated angle by a correction coefficient.
  • the angle defined by the first phase shift amount and the second phase shift amount calculated based on the calculated difference and the movement amount of the image sensor corresponds to the first phase difference pixel and the second position of the image sensor. It is an angle reflecting the incident angle characteristic of the phase difference pixel, and is an angle smaller than the ray angle. Therefore, the ray angle can be determined by multiplying the calculated angle by a correction coefficient that indicates the relationship between the calculated angle and the ray angle.
  • the information acquisition unit further includes a conversion unit that converts the light beam angle calculated by the second calculation unit into a diaphragm value or numerical aperture, and the diaphragm converted by the conversion unit.
  • the value or numerical aperture is obtained as information related to the ray angle with respect to the image sensor.
  • the f-number, numerical aperture and ray angle of the interchangeable lens are mutually related, and if the ray angle is obtained, the f-number and the numerical aperture can be converted from the ray angle.
  • the difference between the first phase shift amount at the first position and the second phase shift amount at the second position, and the aperture value or numerical aperture of the interchangeable lens is configured to store the relationship of each of the aperture values of the interchangeable lens or the numerical aperture, and the information acquisition unit is configured to output the first phase difference pixel of the image sensor and the second phase difference pixel based on the output of the second phase difference pixel.
  • a first phase shift amount detection unit that detects a first phase shift amount at a first position and a second phase shift amount at a second position; and a first phase shift amount detection unit that detects the first phase shift amount detection unit From the storage unit based on the difference calculated by the first calculation unit, which calculates the difference between the first phase difference amount at the second position and the second phase difference amount at the second position;
  • a reading unit for reading an aperture value or a numerical aperture corresponding to the difference; Read aperture or numerical aperture, it is preferable to obtain as information relating to the ray angle with respect to the image sensor.
  • the relationship between the difference between the first phase shift amount at the first position and the second phase shift amount at the second position, and the aperture value or numerical aperture of the interchangeable lens is the first position and the second position. If the amount of movement between and is a fixed specified value, it has a fixed relationship. Therefore, the relationship between the first and second phase shift amounts and the aperture value or numerical aperture of the interchangeable lens is stored in the storage unit for each aperture value or numerical aperture of the interchangeable lens. Then, when acquiring the current aperture value or numerical aperture of the interchangeable lens, the image sensor is moved by a specified amount, and the difference between the first and second phase shift amounts is calculated.
  • the current f-number or numerical aperture of the interchangeable lens can be obtained by reading out the f-number or numerical aperture corresponding to the difference from the storage unit based on the calculated difference.
  • the difference calculated by the first calculation unit is not stored in the storage unit, among the differences stored in the storage unit, the difference closest to the difference calculated by the first calculation unit It is also possible to read out the f-number or numerical aperture corresponding to the current f-number or numerical aperture of the interchangeable lens, or to calculate the difference calculated by the first calculation unit and the value before and after being stored in the storage unit
  • the corresponding f-number or numerical aperture may be interpolated based on the difference between before and after the difference to obtain the current f-number or numerical aperture of the interchangeable lens.
  • the communication unit performing communication with the interchangeable lens, and the sensor driving unit when the diaphragm value of the interchangeable lens can not be acquired from the mounted interchangeable lens via the communication unit. It is preferable to include a control unit that operates the phase difference pixel information acquisition unit and the information acquisition unit.
  • a control unit that operates the phase difference pixel information acquisition unit and the information acquisition unit.
  • the sensor drive unit, the phase difference pixel information acquisition unit, and the information acquisition unit are operated only when the diaphragm value or the numerical aperture of the interchangeable lens can not be acquired from the mounted interchangeable lens via the communication unit. An aperture value or numerical aperture is acquired.
  • the brightness of the object is obtained using the aperture value or numerical aperture of the interchangeable lens acquired via the communication unit or the aperture value or numerical aperture of the interchangeable lens acquired by the information acquiring unit. It is preferable to include a photometry unit that calculates the height. Once the f-number or numerical aperture of the interchangeable lens is known, the brightness of the subject based on the information of “f-number or f-number converted from N-number”, “shutter speed”, and “image brightness (brightness)” (The brightness of the true subject rather than the brightness of the image) can be calculated. Further, the brightness of the true subject is used for scene recognition (outside determination, indoor determination, etc.), and can be used for automatic white balance adjustment and the like.
  • a second phase shift amount detection unit that detects a phase shift amount based on the outputs of the first phase difference pixel and the second phase difference pixel of the image sensor;
  • a defocus amount calculation unit that calculates a defocus amount based on information related to a ray angle with respect to the image sensor and a phase shift amount; and a focus adjustment unit that moves the image sensor based on the calculated defocus amount. It is preferable to have.
  • phase difference AF Autofocus
  • An imaging apparatus includes a mode setting unit that sets an information acquisition mode, and the sensor drive unit, the phase difference pixel information acquisition unit, and the information acquisition unit respectively obtain information acquisition modes by the mode setting unit. It is preferable to operate when an imaging instruction is input from the imaging instruction unit in a state in which is set.
  • the information acquisition mode In order to acquire information related to the ray angle with respect to the image sensor, it is necessary for the user to pick up an image of the subject.
  • the user By setting the information acquisition mode, the user is aware of imaging in order to acquire information related to a favorable ray angle, and for example, imaging a subject (for example, a subject with high contrast, a subject without saturation, etc.) Can.
  • the information acquisition mode is set by the user for each adjustment when the diaphragm of the incompatible interchangeable lens is adjusted, but when the incompatible interchangeable lens is mounted, May be detected and set automatically.
  • an image acquisition unit acquiring image data via an image sensor when an imaging instruction is input from the imaging instruction unit, and an image file storing the acquired image data
  • the recording unit records information related to the light beam angle with respect to the image sensor acquired by the information acquiring unit in the header of the image file.
  • the sensor drive unit moves the image sensor to three or more positions including the first position and the second position
  • the phase difference pixel information acquisition unit The output of the first phase difference pixel and the second phase difference pixel of the image sensor when the sensor moves to each of three or more positions is acquired, and the information acquisition unit determines the first of the three or more positions. It is preferable to obtain information related to the ray angle with respect to the image sensor when subject light enters the image sensor through the interchangeable lens based on the output of the phase difference pixel and the second phase difference pixel. This makes it possible to obtain information related to a more accurate ray angle.
  • the invention according to still another aspect is the information in an image pickup apparatus including an image sensor having on an image sensor, a first phase difference pixel and a second phase difference pixel having different incident angle characteristics from the first phase difference pixel.
  • an acquisition method an output of a first phase difference pixel and a second phase difference pixel from an image sensor when the image sensor is positioned at a first position in an optical axis direction of an interchangeable lens mounted on an imaging device.
  • the step of moving the image sensor includes, from the first position, a predetermined amount of the image sensor from the first position in the direction of the in-focus position where the subject is in focus. It is preferable to move the image sensor with the position moved as the second position.
  • the information related to the ray angle with respect to the image sensor is the ray angle with respect to the image sensor, the aperture value of the interchangeable lens or the numerical aperture of the interchangeable lens.
  • the step of acquiring information related to the ray angle with respect to the image sensor may be performed based on outputs of the first phase difference pixel and the second phase difference pixel of the image sensor. Detecting the first phase shift amount at the first position and the second phase shift amount at the second position; and detecting the first phase shift amount at the detected first position and the second position Calculating the difference between the second phase shift amount at the second position, and the ray angle with respect to the image sensor based on the calculated difference and the movement amount between the first position and the second position at which the image sensor has moved. It is preferable to obtain the calculated ray angle as information related to the ray angle with respect to the image sensor.
  • an imaging device includes: a difference between a first phase shift amount at a first position and a second phase shift amount at a second position; Providing a storage unit for storing the relationship with the value or the numerical aperture for each aperture value or numerical aperture of the interchangeable lens, and the step of acquiring information related to the light beam angle with respect to the image sensor is a first phase difference of the image sensor Detecting a first phase shift amount at a first position and a second phase shift amount at a second position based on outputs of the pixel and the second phase difference pixel; Calculating a difference between the first phase shift amount at the position and the second phase shift amount at the second position, and reading out an aperture value or numerical aperture corresponding to the difference from the storage unit based on the calculated difference Including the steps Values or numerical aperture, it is preferable to obtain as information relating to the ray angle with respect to the image sensor.
  • the invention according to still another aspect is applied to an imaging device including an image sensor having on an image sensor, a first phase difference pixel and a second phase difference pixel having different incident angle characteristics from the first phase difference pixel.
  • Image acquisition program wherein the first phase difference pixel and the second phase difference from the image sensor when the image sensor is positioned at a first position in the optical axis direction of the interchangeable lens mounted on the imaging device
  • the function of acquiring the output of each pixel the function of moving the image sensor from the first position to the second position in the optical axis direction of the interchangeable lens by the sensor driver, Of the first phase difference pixel and the second phase difference pixel at the first position and the second position, and the function of acquiring the outputs of the first phase difference pixel and the second phase difference pixel from the image sensor of
  • subject light when incident on the image sensor, thereby realizing the function of acquiring information related to the ray angle with respect to the image sensor, to the imaging device through the interchangeable lens.
  • FIG. 1 is a perspective view of an imaging device according to the present invention as viewed obliquely from the front
  • Figure 2 is a back view of the imaging device
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus, showing a state in which an incompatible interchangeable lens is mounted.
  • FIG. 4 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus, showing a state in which a compatible interchangeable lens is mounted.
  • Fig. 5 shows an example of the configuration of an image sensor.
  • FIG. 6 is a schematic view showing a cross section of a part of the phase difference pixel row of the image sensor
  • FIG. 7 is a main part enlarged view showing the configuration of the first phase difference pixel PA and the second phase difference pixel PB.
  • FIG. 1 is a perspective view of an imaging device according to the present invention as viewed obliquely from the front
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus, showing a state in which
  • FIG. 8 is a view showing an example of an area where the first phase difference pixel PA and the second phase difference pixel PB are arranged in the imaging area of the image sensor.
  • FIG. 9 is a view showing another example of the area in which the first phase difference pixel and the second phase difference pixel are arranged in the imaging area of the image sensor.
  • FIG. 10 is a diagram showing still another example of the area in which the first phase difference pixel PA and the second phase difference pixel PB are arranged in the imaging area of the image sensor.
  • FIG. 11 is a diagram showing an example of the configuration of an AF control unit.
  • 12 is a graph showing the incident angle characteristics of the normal pixel (G pixel), the first phase difference pixel, and the second phase difference pixel of the image sensor.
  • FIG. 13 is a graph showing incident angle characteristics of the G pixel of the image sensor, the first phase difference pixel PA, and the second phase difference pixel PB, and the light is incident on the central pixel of the image sensor when the F value is F2.
  • FIG. 14 is a graph showing the incident angle characteristics of the G pixel of the image sensor, the first phase difference pixel PA, and the second phase difference pixel PB, and the light is incident on the central pixel of the image sensor when the F value is F4. Showing the angular range of the luminous flux FIG.
  • FIG. 15 moves the image sensor to the first position P1 and the second position P2, and the first phase shift amount at the first position P1 and the second phase shift amount at the second position P2
  • Diagram showing how to acquire FIG. 16 is a block diagram showing the function of the main body side of the camera body for acquiring information related to the ray angle with respect to the image sensor
  • FIG. 17 is a functional block diagram showing a first embodiment of the process of the information acquisition unit shown in FIG.
  • FIG. 18 shows the relationship between the aperture diameter D of the lens, the radius r of the aperture diameter, the focal length f, and the ray angle ⁇ , and the first phase shift amount d1 at the first position P1 and the second at the second position P2. Showing the phase shift amount d2 of FIG.
  • FIG. 19 is an enlarged view of an essential part of FIG. 18
  • FIG. 20 is a functional block diagram showing a second embodiment of the process of the information acquisition unit shown in FIG.
  • FIG. 21 is a functional block diagram showing a third embodiment of the processing of the information acquisition unit shown in FIG.
  • FIG. 22 is a flowchart showing a first embodiment of the information acquiring method according to the present invention.
  • FIG. 23 is a flowchart showing details of step S20 shown in FIG.
  • FIG. 24 is a flowchart showing another processing method corresponding to step S20 shown in FIG.
  • FIG. 1 is a perspective view of the imaging apparatus as viewed obliquely from the front
  • FIG. 2 is a rear view of the imaging apparatus.
  • the imaging device 10 is a mirrorless digital single-lens camera configured of an interchangeable lens 100 and a camera body 200 to which the interchangeable lens 100 can be attached and detached.
  • a main body mount 260 (mounting portion) to which the interchangeable lens 100 can be attached and removed, a finder window 20 of an optical finder, etc. is provided on the front of the camera main body 200.
  • a monitor 216 mainly comprising a liquid crystal display, an eyepiece 26 of an optical finder, a MENU / OK key 27, a cross key 28, a reproduction button 29 and the like are provided on the back of the camera body 200. ing.
  • the monitor 216 functions as a display unit that displays various menu screens in addition to displaying a live view image in the shooting mode and reproducing and displaying an image captured in the playback mode.
  • the MENU / OK key 27 is an operation key having a function as a menu button for instructing to display a menu on the screen of the monitor 216 and a function as an OK button for instructing confirmation and execution of selection contents, etc. It is.
  • the cross key 28 is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button for selecting an item from the menu screen or instructing selection of various setting items from each menu.
  • the up and down keys of the cross key 28 function as a zoom switch during imaging or as a playback zoom switch during playback mode
  • the left key and right key are frame advance (forward and backward) buttons in playback mode Act as.
  • the menu screen displayed on the MENU / OK key 27, the cross key 28, and the monitor 216 in addition to the normal shooting mode for capturing a single still image, continuous shooting for capturing still images continuously It is possible to set various shooting modes including the mode. When setting the continuous shooting mode, it is possible to set the continuous shooting speed (for example, about 8 frames / second, about 3 frames / second).
  • the playback button 29 is a button for switching to a playback mode in which the still image or the moving image captured and recorded is displayed on the monitor 216.
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging device 10. As shown in FIG.
  • the interchangeable lens 100 shown in FIG. 3 includes the lens mount 160 attachable to the main body mount 260 of the camera body 200, but is an interchangeable lens incompatible with the camera body 200. It also includes an interchangeable lens mountable to the camera body 200 via a mount adapter (not shown).
  • the imaging optical system 102 of the interchangeable lens 100 includes a lens group 104 including a focus lens and a stop 108.
  • the focus lens of the lens group 104 can be moved within a range corresponding to near distance to infinity by manually operating a focus ring (not shown).
  • the aperture 108 can change the size of the aperture opening from the maximum aperture to the minimum aperture, one step at a time, one step at a time, or continuously by manually operating an aperture ring (not shown).
  • FIG. 4 is a block diagram showing a second embodiment of the internal configuration of the imaging device 10. As shown in FIG.
  • the interchangeable lens 300 shown in FIG. 4 is manufactured according to the communication standard of the camera body 200, and is a compatible interchangeable lens that can communicate with the camera body 200 as described later. is there.
  • the interchangeable lens 300 includes an imaging optical system 302, a focus lens control unit 316, an aperture control unit 318, a lens side central processing unit (CPU) 320, a flash read only memory (ROM) 326, a lens side communication unit 350, and a lens mount. It has 360.
  • the imaging optical system 302 of the interchangeable lens 300 includes a lens group 304 including a focus lens and a stop 308.
  • the focus lens control unit 316 controls the focus position of the focus lens in accordance with a command from the lens CPU 320.
  • the aperture control unit 318 controls the aperture 308 in accordance with a command from the lens CPU 320.
  • the lens side CPU 320 is to centrally control the interchangeable lens 300, and incorporates a ROM 324 and a RAM (Random Access Memory) 322.
  • the flash ROM 326 is a non-volatile memory that stores programs and the like downloaded from the camera body 200.
  • the lens CPU 320 performs overall control of each part of the interchangeable lens 300 using the RAM 322 as a work area in accordance with a control program stored in the ROM 324 or the flash ROM 326.
  • the lens side communication unit 350 communicates with the camera main body 200 via a plurality of signal terminals (lens side signal terminals) provided on the lens mount 360. Communicate. That is, the lens communication unit 350 transmits / receives a request signal and an answer signal to / from the main unit communication unit 250 of the camera body 200 connected via the lens mount 360 and the main unit mount 260 according to the command of the lens CPU 320 (Bidirectional communication) is performed to notify the camera body 200 of lens information (focus position information of a focus lens, focal distance information, aperture information, and the like) of each optical member of the imaging optical system 302.
  • lens information focus position information of a focus lens, focal distance information, aperture information, and the like
  • the interchangeable lens 300 also includes a detection unit (not shown) that detects focus position information of the focus lens and diaphragm information.
  • the aperture information is information indicating the aperture value (F value) of the aperture 308, the aperture diameter of the aperture 308, and the like.
  • the F value is used as aperture information.
  • the lens CPU 320 In order to respond to a request for lens information from the camera body 200, the lens CPU 320 preferably holds various types of lens information including detected focus position information and aperture information in the RAM 322. In addition, lens information is detected when there is a request for lens information from the camera body 200, or is detected when the optical member is driven, or at a constant period (period sufficiently shorter than the frame period of a moving image) It can be detected and hold the detection result.
  • the camera body 200 constituting the imaging device 10 shown in FIG. 3 or 4 includes an image sensor 201 (image acquisition unit), an image sensor control unit 202, an analog signal processing unit 203, and an A / D (Analog / Digital) converter 204.
  • image sensor 201 image acquisition unit
  • image sensor control unit 202 image sensor control unit
  • analog signal processing unit 203 analog signal processing unit
  • a / D Analog / Digital
  • Image input controller 205 digital signal processing unit 206, RAM 207, compression / expansion processing unit 208, focusing unit 209, media control unit 210 (recording unit), memory card 212 (recording medium), display control unit 214, monitor 216, Body side CPU 220, operation unit 222, clock unit 224, flash ROM 226, ROM 228, AF control unit 230, brightness detection unit 232 (photometry unit), white balance correction unit 234, wireless communication unit 236, GPS (Global Positioning System) reception Unit 238, power supply control unit 240, battery 242, main unit communication unit 250, main unit Comprises: (focal-plane shutter FPS) 280 and the FPS control unit 296, DOO 260, built-in flash light emitting section 270 constituting the flash 30 (FIG. 1), the flash control unit 272, a focal plane shutter.
  • FPS field-plane shutter
  • the image sensor 201 is configured by a complementary metal-oxide semiconductor (CMOS) type color image sensor.
  • CMOS complementary metal-oxide semiconductor
  • the image sensor 201 is not limited to the CMOS type, and may be an XY address type or a CCD (Charge Coupled Device) type image sensor.
  • CCD Charge Coupled Device
  • the image sensor 201 has a plurality of red pixels on photoelectric conversion elements (photodiodes) two-dimensionally arranged in the x direction (horizontal direction) and the y direction (vertical direction).
  • red pixels on photoelectric conversion elements (photodiodes) two-dimensionally arranged in the x direction (horizontal direction) and the y direction (vertical direction).
  • RGB red
  • G green
  • B blue
  • a microlens is provided on each photodiode. It is arranged.
  • phase difference pixels first phase difference pixels PA, second phase difference pixels PB
  • normal pixels for imaging pixels other than phase difference pixels
  • a normal pixel row in which only normal pixels are arranged in the horizontal direction (row direction) is a row of pixels having R filters (R pixels) and pixels having G filters (G pixels).
  • R pixels pixels having R filters
  • G pixels pixels having G filters
  • RG rows alternately arranged in the direction
  • GB rows in which G pixels and pixels having B filters (B pixels) are alternately arranged in the row direction.
  • the RG rows and the GB rows are alternately arranged in the vertical direction (column direction).
  • the image sensor 201 has a phase difference pixel row in which the first phase difference pixel PA and the second phase difference pixel PB are provided, and a normal pixel row in which only the normal pixels are provided.
  • the phase difference pixel row of the image sensor 201 is periodic with one pixel of one pair of the first phase difference pixel PA and the second phase difference pixel PB and one normal pixel as one cycle in a specific GB row of the Bayer array. Are arranged in the row direction. Therefore, in the phase difference pixel row, G pixels and B pixels are alternately arranged in every two pixels (a pair of first phase difference pixels PA and second phase difference pixels PB) in the row direction.
  • the phase difference pixel row of this example is provided in the GB row of the Bayer arrangement, the present invention is not limited to this, and may be provided in the RG row.
  • the periodic color arrangement is not limited to the Bayer arrangement, but may be another color filter arrangement such as an X-Trans® arrangement.
  • FIG. 6 is a schematic view showing a cross section of a part of the phase difference pixel row of the image sensor 201. As shown in FIG. FIG. 6 shows a pair of first phase difference pixels PA and second phase difference pixels PB, and four pixels of B pixels and G pixels which are normal pixels adjacent to these pixels.
  • the first phase difference pixels PA and the second phase difference pixels PB are provided with light shielding films MA and MB for limiting incident light, respectively.
  • FIG. 7 is an enlarged view of an essential part showing the configuration of the first phase difference pixel PA and the second phase difference pixel PB.
  • the light shielding film MA is disposed on the front side (microlens ML side) of the photodiode PD of the first phase difference pixel PA, while the photodiode PD of the second phase difference pixel PB is A light shielding film MB is disposed on the front side of The microlens ML and the light shielding films MA and MB have a pupil division function, and the light shielding film MA shields the left half of the light receiving surface of the photodiode PD in FIG. 7. Therefore, in the first phase difference pixel PA, only the light flux passing the left side of the optical axis of the light flux passing through the exit pupil of the imaging optical system 102 is selectively received. Also, as the color filter CF, a G filter is disposed below the microlens ML.
  • the light shielding film MB shields the right half of the light receiving surface of the photodiode PD of the second phase difference pixel PB. Therefore, only the light beam passing through the right side of the optical axis of the light beams passing through the exit pupil of the imaging optical system 102 is selectively received by the second phase difference pixel PB.
  • the light beam passing through the exit pupil is divided left and right by the microlens ML having the pupil division function and the light shielding films MA and MB, and the light beam enters the first phase difference pixel PA and the second phase difference pixel PB, respectively.
  • FIGS. 8 to 10 each show an example of an area in which the first phase difference pixel PA and the second phase difference pixel PB are arranged in the imaging area of the image sensor 201.
  • regions in which the first phase difference pixels PA and the second phase difference pixels PB are arranged are indicated by oblique lines.
  • the image sensor 201 of this example is provided so as to be movable in the optical axis direction, and the position of the image sensor 201 can be adjusted by the focusing unit 209. Therefore, by controlling the position of the image sensor 201 in the optical axis direction, the subject image can be focused on the imaging surface of the image sensor 201.
  • An optical image of an object formed on the light receiving surface of the image sensor 201 by the imaging optical system 102 of the interchangeable lens 100 is converted by the image sensor 201 into an electrical signal.
  • a charge corresponding to the amount of incident light is accumulated in each pixel of the image sensor 201, and an electric signal corresponding to the amount of charge accumulated in each pixel is read out from the image sensor 201 as an image signal.
  • the image sensor control unit 202 performs readout control of an image signal from the image sensor 201 in accordance with an instruction from the main body CPU 220. In addition, the image sensor control unit 202 simultaneously discharges the electric charges accumulated in each pixel of the image sensor 201 (resetting all at once) by the electronic shutter control signal from the main body side CPU 220 to simultaneously start the exposure. It has a shutter function.
  • An analog signal processing unit 203 performs various analog signal processing on an analog image signal obtained by capturing an image of a subject with the image sensor 201.
  • the analog signal processing unit 203 includes a sampling and holding circuit, a color separation circuit, an AGC (Automatic Gain Control) circuit, and the like.
  • the AGC circuit functions as a sensitivity adjustment unit that adjusts sensitivity (ISO: International Organization for Standardization) at the time of imaging, adjusts the gain of an amplifier that amplifies an input image signal, and the signal level of the image signal is Be in the appropriate range.
  • the A / D converter 204 converts an analog image signal output from the analog signal processing unit 203 into a digital image signal.
  • the image data (mosaic image data) of each pixel of RGB output through the image sensor 201, the analog signal processing unit 203, and the A / D converter 204 at the time of capturing a still image or a moving image is transmitted from the image input controller 205 to the RAM 207. And are temporarily stored.
  • the image sensor 201 is a CMOS image sensor
  • the analog signal processing unit 203 and the A / D converter 204 are often incorporated in the image sensor 201.
  • the digital signal processing unit 206 subjects the image data stored in the RAM 207 to various digital signal processing.
  • the digital signal processing unit 206 appropriately reads the image data stored in the RAM 207, performs offset processing, gain control processing including sensitivity correction, gamma correction processing, demosaicing processing (demosaicing processing, etc.) on the read image data.
  • digital signal processing such as RGB / YCrCb conversion processing, and the image data after digital signal processing is stored in the RAM 207 again.
  • the demosaicing process is, for example, a process of calculating color information of all RGB for each pixel from a mosaic image consisting of RGB in the case of an image sensor consisting of color filters of RGB three colors, and mosaic data (dot sequential RGB data The image data of RGB 3 planes synchronized from) is generated.
  • the RGB / YCrCb conversion process is a process of converting the synchronized RGB data into luminance data (Y) and color difference data (Cr, Cb).
  • the compression / decompression processing unit 208 performs compression processing on the non-compressed luminance data Y and color difference data Cb and Cr temporarily stored in the RAM 207 when recording a still image or a moving image.
  • compression is performed in JPEG (Joint Photographic coding Experts Group) format
  • H. Compress in H.264 format.
  • the image data compressed by the compression / decompression processing unit 208 is recorded on the memory card 212 via the media control unit 210.
  • the compression / decompression processing unit 208 performs decompression processing on the compressed image data obtained from the memory card 212 via the media control unit 210 in the reproduction mode, and generates non-compressed image data.
  • the media control unit 210 performs control of recording the image data compressed by the compression / decompression processing unit 208 in the memory card 212. Also, the media control unit 210 performs control of reading out compressed image data from the memory card 212.
  • the display control unit 214 controls the monitor 216 to display uncompressed image data stored in the RAM 207.
  • the monitor 216 is configured by, for example, a display device such as a liquid crystal display device or organic electroluminescence.
  • the digital image signal continuously generated by the digital signal processing unit 206 is temporarily stored in the RAM 207.
  • the display control unit 214 converts the digital image signal temporarily stored in the RAM 207 into a signal format for display, and sequentially outputs the converted signal to the monitor 216.
  • the captured image is displayed on the monitor 216 in real time, and the monitor 216 can be used as an electronic viewfinder.
  • the shutter release switch 22 is an imaging instruction unit for inputting an imaging instruction, and is configured of a two-stage stroke switch including so-called "half press” and "full press”.
  • the S1 on signal is output when the shutter release switch 22 is pressed halfway, and the S2 on signal is output when the shutter release switch 22 is pressed further down.
  • the main unit CPU 220 executes imaging preparation processing such as autofocus (AF) control and automatic exposure control (AE (Auto Exposure) control), and when the S2 ON signal is output, the still image pickup processing And execute the recording process.
  • AF control and AE control are automatically performed when the auto mode is set by the operation unit 222, and when the manual mode is set, AF control and AE control are not performed. Needless to say.
  • the camera body 200 In the moving image shooting mode, when the S2 ON signal is output when the shutter release switch 22 is fully pressed, the camera body 200 enters a moving image recording mode for starting recording of the moving image, and the image processing of the moving image is performed.
  • the S2 ON signal is output by the shutter release switch 22 being fully pressed again, the camera body 200 is in the standby state, and the moving image recording process is paused.
  • the shutter release switch 22 is not limited to a two-step stroke type switch consisting of a half press and a full press, and an S1 ON signal and an S2 ON signal may be output by one operation, each individually The switch of (1) may be provided to output the S1 on signal and the S2 on signal.
  • the operation instruction may be output by touching the area corresponding to the operation instruction displayed on the screen of the touch panel as the operation means.
  • the form of the operation means is not limited to these as long as the preparation process and the imaging process are instructed.
  • the still image or moving image acquired by imaging is compressed by the compression / decompression processing unit 208, and the compressed image data is attached as required for imaging date, GPS information, imaging conditions (F value, shutter speed, ISO sensitivity, etc.)
  • the information is stored in the memory card 212 via the media control unit 210 after being converted into an image file added to the header.
  • the main body side CPU 220 performs overall control of the operation of the entire camera main body 200 and the drive of the optical member of the interchangeable lens 100, etc., based on the input from the operation unit 222 including the shutter release switch 22
  • the interchangeable lens 300 is controlled.
  • the clock unit 224 measures time based on a command from the main CPU 220 as a timer. In addition, the clock unit 224 measures the current date and time as a calendar.
  • the flash ROM 226 is a readable and writable nonvolatile memory, and stores setting information.
  • the ROM 228 stores a camera control program executed by the main body side CPU 220, defect information of the image sensor 201, various parameters and tables used for image processing and the like.
  • the main body CPU 220 controls the respective units of the camera main body 200 and the interchangeable lens 300 while using the RAM 207 as a work area in accordance with the camera control program stored in the ROM 228.
  • the AF control unit 230 calculates the defocus amount necessary to control the phase difference AF, and controls the position of the image sensor 201 via the focus adjustment unit 209 based on the calculated defocus amount.
  • the AF control unit 230 includes a phase shift amount detection unit 230A and a defocus amount calculation unit 230B as shown in FIG.
  • the phase shift amount detection unit 230A detects the phase shift based on the output of the first phase difference pixel PA and the output of the second phase difference pixel PB in the AF area of the image sensor 201. Detect the quantity.
  • the phase shift amount is obtained when the correlation between each output data of the first phase difference pixel PA and each output data of the second phase difference pixel PB is maximized (the first phase difference pixel PA and the second phase difference pixel It can calculate from the shift amount between each output data of when the integrated value of the difference absolute value of each output data of PB becomes the minimum.
  • the defocus amount calculation unit 230B calculates the defocus amount by multiplying the phase shift amount detected by the phase shift amount detection unit 230A by a coefficient corresponding to the current F value (light ray angle) of the interchangeable lens 100. Do.
  • the interchangeable lens 100 can not be controlled by the camera body 200, but it is automatically moved by moving the image sensor 201 in the optical axis direction by the focusing unit 209. Focus adjustment can be performed.
  • the AF control unit 230 drives and controls the focus adjustment unit 209 based on the defocus amount calculated by the defocus amount calculation unit 230B, and only the defocus amount calculated for the image sensor 201. Move it. As a result, the image sensor 201 can be moved to a position where the defocus amount is zero (position where the phase difference is minimum), and phase difference AF is performed to focus the object image on the imaging surface of the image sensor 201. be able to.
  • AF is not limited to phase difference AF,
  • contrast AF may be sufficient.
  • the AF control unit 230 extracts the high frequency component from the G signal of the G pixel (pixel having the G color filter) in the AF area, and integrates the absolute value of the extracted high frequency component (focus evaluation value Is calculated, and the image sensor 201 is moved via the focus adjustment unit 209 to a position where the calculated focus evaluation value is maximum (ie, a position where the contrast is maximum).
  • the brightness detection unit 232 (photometry unit) is a part that detects the brightness of a subject (subject brightness), and a numerical value (exposure value (EV) necessary for AE control and AWB (Auto White Balance) control corresponding to the subject brightness. Calculate the value (exposure value))).
  • the brightness detection unit 232 calculates an EV value based on the brightness of the image acquired via the image sensor 201, the shutter speed at the time of acquiring the brightness of the image, and the F value.
  • the main body CPU 220 determines an F value, a shutter speed and an ISO sensitivity from a predetermined program chart based on the EV value obtained from the brightness detection unit 232, and performs AE control. be able to.
  • the main body CPU 220 determines the shutter speed and the ISO sensitivity so that the brightness of the image acquired via the image sensor 201 becomes appropriate brightness, and performs AE control. be able to.
  • the white balance correction unit 234 calculates white balance gains (WB (White Balance) gains) Gr, Gg, Gb for each color data of RGB data (R data, G data and B data), and calculates R data, G data and White balance correction is performed by multiplying the B data by the calculated WB gains Gr, Gg, and Gb.
  • WB gains Gr, Gg, Gb the subject is illuminated based on scene recognition (judgment of outdoors, indoor etc.) by the brightness (EV value) of the subject, color temperature of ambient light, etc.
  • EV value brightness
  • Other known methods for determining Gr, Gg, Gb are conceivable.
  • the wireless communication unit 236 is a portion that performs near field wireless communication according to a standard such as Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (registered trademark), etc., and peripheral digital devices (mobile terminals such as smartphones) Send and receive necessary information between a standard such as Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (registered trademark), etc., and peripheral digital devices (mobile terminals such as smartphones) Send and receive necessary information between a standard such as Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (registered trademark), etc., and peripheral digital devices (mobile terminals such as smartphones) Send and receive necessary information between
  • Wi-Fi Wireless Fidelity
  • Bluetooth registered trademark
  • peripheral digital devices mobile terminals such as smartphones
  • the GPS receiving unit 238 receives GPS signals transmitted from a plurality of GPS satellites in accordance with an instruction from the main unit CPU 220, and executes positioning operation processing based on the received plurality of GPS signals. And GPS information consisting of altitude.
  • the acquired GPS information can be recorded in the header of the image file as attached information indicating the imaging position of the imaged image.
  • the power supply control unit 240 applies the power supply voltage supplied from the battery 242 to each unit of the camera body 200 according to an instruction of the main body side CPU 220. Further, the power supply control unit 240 applies the power supply voltage supplied from the battery 242 to each part of the compatible interchangeable lens 300 via the main body mount 260 and the lens mount 160 according to the command of the main body side CPU 220.
  • the lens power switch 244 switches on and off the power supply voltage applied to the interchangeable lens 300 via the main body mount 260 and the lens mount 360 and switches the level according to an instruction from the main body CPU 220.
  • the main unit communication unit 250 transmits / receives a request signal and an answer signal to / from the lens side communication unit 350 of the interchangeable lens 300 connected via the main body mount 260 and the lens mount 360 according to a command from the main body CPU 220 Communication).
  • the main body mount 260 is provided with a plurality of terminals 260A as shown in FIG. 1, and when the interchangeable lens 300 is mounted on the camera main body 200 (the lens mount 360 and the main body mount 260 are connected), the main body A plurality of terminals 260A (FIG. 1) provided on the mount 260 and a plurality of terminals (not shown) provided on the lens mount 360 are electrically connected, and the main body side communication unit 250 and the lens side communication unit 350 Bi-directional communication is possible.
  • the built-in flash 30 (FIG. 1) is, for example, a flash with TTL (Through The Lens) automatic light control method, and includes a flash light emitting unit 270 and a flash control unit 272.
  • the flash control unit 272 has a function of adjusting the light emission amount (guide number) of the flash light emitted from the flash light emitting unit 270. That is, the flash control unit 272 causes the flash light emitting unit 270 to emit light in synchronization with a flash imaging instruction from the main body side CPU 220, and reflected light (ambient light incident through the imaging optical system 102 or 302 of the interchangeable lens 100 or 300). And the light emission value of the flash light from the flash light emitting unit 270 is stopped when the light measurement value reaches the standard exposure value.
  • a focal-plane shutter (FPS) 280 constitutes a mechanical shutter of the imaging device 10 and is disposed immediately in front of the image sensor 201.
  • the FPS control unit 296 controls the exposure time (shutter speed) of the image sensor 201 by controlling the opening and closing of the front and rear curtains of the FPS 280 based on input information (S2 ON signal, shutter speed, etc.) from the main unit CPU 220. Do.
  • FIG. 12 is a graph showing incident angle characteristics of the normal pixel (G pixel), the first phase difference pixel PA, and the second phase difference pixel PB of the image sensor 201, and in the x direction (horizontal direction) of the image sensor 201.
  • the sensitivity Gc of the G pixel is the highest, and the sensitivities PAc and PBc of the first phase difference pixel PA and the second phase difference pixel PB are lower than the G pixel. Further, since the left half and the right half of the aperture of the first phase difference pixel PA and the second phase difference pixel PB are shielded by the light shielding films MA and MB, the sensitivity of the first phase difference pixel PA is The PAc and the sensitivity PBc of the second phase difference pixel PB are symmetrical about the incident angle zero, and the peak position of the sensitivity is shifted.
  • FIG. 13 is a graph showing the incident angle characteristics of the G pixel of the image sensor 201, the first phase difference pixel PA, and the second phase difference pixel PB (graph shown in FIG. 12), and the F value of the interchangeable lens 100
  • FIG. 14 is a diagram showing an angular range of a light beam incident on a pixel (G pixel, the first phase difference pixel PA, and the second phase difference pixel PB) in the center of the image sensor 201 in the case of F2.
  • the first position P1 is obtained.
  • the phase shift amount (second phase shift amount) detected by the phase difference pixel PB of 2 is different.
  • the first phase shift amount and the second phase shift amount also differ depending on the size of the F value (the size of the ray angle) of the interchangeable lens 100.
  • the first phase shift amount when the image sensor 201 is positioned at the first position P1, and the second position when the image sensor 201 is moved from the first position P1 and positioned at the second position By detecting the displacement amount, it is possible to acquire information related to the ray angle with respect to the image sensor 201 when subject light enters the image sensor 201 through the interchangeable lens 100.
  • FIG. 16 is a block diagram showing the function of the main body side CPU 220 of the camera body 200 for acquiring information related to the light beam angle with respect to the image sensor 201 when subject light enters the image sensor 201 through the interchangeable lens 100.
  • the main CPU 220 functions as various processing units by executing the information acquisition program stored in the flash ROM 226 or the ROM 228, and in this embodiment, the sensor drive unit 220 A, the focus It has functions as a region information acquisition unit 220B, a phase difference pixel information acquisition unit 220C, and an information acquisition unit 220D.
  • the medium in which the information acquisition program is stored may be a non-transitory computer-readable recording medium such as a hard disk, a CD (Compact Disk), a DVD (Digital Versatile Disk), and various semiconductor memories.
  • the operation unit 222 of the imaging device 10 is provided with a mode setting unit that sets an information acquisition mode (F value acquisition mode).
  • F value acquisition mode When the user operates the diaphragm ring of the interchangeable lens 100 to switch the F value of the diaphragm 108, the user operates the mode setting unit to set the F value acquisition mode, and performs imaging for F value acquisition. In addition, it is preferable that the imaging for acquisition of F value takes an object with high contrast.
  • F value acquisition is performed, the first phase difference pixel is generated based on each output data of the first phase difference pixel PA and the second phase difference pixel PB in the focus adjustment area of the entire area of the image sensor 201. This is to enable accurate detection of the phase shift amount (first phase shift amount, second phase shift amount) between each output data of PA and each output data of the second phase difference pixel PB.
  • the sensor drive unit 220A of the main CPU 220 and the focus area information acquisition unit 220B The phase difference pixel information acquisition unit 220C and the information acquisition unit 220D each perform an operation for acquiring an F value as described below.
  • the sensor drive unit 220A is a part that moves the interchangeable lens 100 in the optical axis direction via the focusing unit 209, and moves the image sensor 201 to the first position P1 and the second position P2 (see FIG. 15). .
  • the first position P1 may be the home position of the image sensor 201, or may be any position at which the phase shift amount can be detected with high accuracy when the blur is large and the phase shift amount can not be detected with high accuracy.
  • the sensor drive unit 220A move the image sensor 201 from the first position P1 by the specified amount z via the focus adjustment unit 209 in the direction of the in-focus position where the subject is in focus.
  • the position moved from the first position P1 by the specified amount z is the second position P2. If the image sensor 201 is moved in the direction opposite to the direction of the in-focus position where the focus is on from the first position P1 where the phase difference can be detected, the phase difference can not be detected well at the second position P2. It is because there is a case.
  • the focus area information acquisition unit 220B is a part that acquires focus area information indicating the focus adjustment area of the entire area of the image sensor 201, and includes a preset focus adjustment area such as a sensor central area, a face area of a person, etc. An area where the main subject of the above exists or an area where the contrast is high is acquired as focus area information indicating a focus adjustment area.
  • the phase difference pixel information acquisition unit 220C is the first one of the first phase difference pixels PA and the second phase difference pixels PB provided in the image sensor 201 in the focus adjustment area acquired by the focus area information acquisition unit 220B.
  • the first phase difference pixel PA and the second phase difference when the image sensor 201 is located at the first position P1 are obtained by acquiring each output data of the phase difference pixel PA and the second phase difference pixel PB.
  • the respective output data of the pixel PB and the respective output data of the first phase difference pixel PA and the second phase difference pixel PB when the image sensor 201 is positioned at the second position P2 are acquired.
  • the information acquiring unit 220D is configured to convert the object light into an image sensor through the interchangeable lens 100 based on the output data of the first phase difference pixel PA and the second phase difference pixel PB at the first position P1 and the second position P2. Information related to the ray angle with respect to the image sensor 201 when entering the light source 201 is acquired.
  • the information acquisition unit 220D determines the first position P1 and the second position based on the output data of the first phase difference pixel PA and the second phase difference pixel PB at the first position P1 and the second position P2, respectively.
  • Each phase shift amount in P2 can be detected.
  • the amount of change in the amount of phase shift detected at the first position P1 and the second position P2 differs depending on the amount of movement of the image sensor 201 and the size of the F value (size of the ray angle) of the interchangeable lens 100. However, if the movement amount of the image sensor 201 is known, the ray angle can be calculated from the movement amount of the image sensor 201 and the change amount of the phase shift amount.
  • FIG. 17 is a functional block diagram showing a first embodiment of the process of the information acquisition unit 220D shown in FIG. 16, and particularly shows the case of calculating the ray angle as information related to the ray angle with respect to the image sensor 201. ing.
  • the information acquisition unit 220D-1 shown in FIG. 17 mainly includes a first phase shift amount detection unit 221A, a first arithmetic unit 221B, and a second arithmetic unit 221C.
  • the first phase shift amount detection unit 221A is based on the outputs of the first phase difference pixel PA and the second phase difference pixel PB of the image sensor 201 when the image sensor 201 is positioned at the first position P1. , And detects the first phase shift amount at the first position P1, and detects the first phase difference pixel PA and the second phase difference pixel PA of the image sensor 201 when the image sensor 201 is positioned at the second position P2.
  • the second phase shift amount at the second position P2 is detected based on the output of the phase difference pixel PB.
  • FIG. 18 shows the first phase shift amount d1 at the first position P1 detected by the first phase shift amount detection unit 221A and the second phase shift amount d2 at the second position P2. ing.
  • the detection of the phase shift amount based on the outputs of the first phase difference pixel PA and the second phase difference pixel PB of the image sensor 201 is the same as that of the phase shift amount detector 230A (second phase shift amount detector). Therefore, detailed description will be omitted here.
  • the first calculation unit 221B is configured to calculate the first phase shift amount d1 at the first position P1 detected by the first phase shift amount detection unit 221A and the second phase shift amount d2 at the second position P2.
  • the second calculation unit 221C calculates the amount of movement (a specified amount z) between the difference ⁇ d calculated by the first calculation unit 221B and the first position P1 and the second position P2 at which the image sensor 201 has moved.
  • the ray angle ⁇ at the sensor center of the image sensor 201 is calculated based on
  • FIG. 19 is an enlarged view of an essential part of FIG.
  • the angle (angle ⁇ g shown in FIG. 19) defined by the first phase shift amount d1 and the second position P2 phase shift amount d1 at the sensor center of the image sensor 201 is a first operation unit
  • the second arithmetic unit 221C can calculate the angle ⁇ g by the equation [1] from the difference ⁇ d calculated by the first arithmetic unit 221B and the prescribed amount z.
  • the ray angle ⁇ at the sensor center of the image sensor 201 is the chief ray (in this case, the optical axis L) of the light beam incident on the sensor center of the image sensor 201 and the upper line (exit pupil or entrance pupil) Angle with the ray passing through the upper edge of
  • the angle ⁇ g calculated by the equation [1] is an angle reflecting the incident angle characteristics (see FIG. 12) of the first phase difference pixel PA and the second phase difference pixel PB of the image sensor 201, and the light ray angle The angle is smaller than ⁇ .
  • the incident angle characteristic of the first phase difference pixel PA or the second phase difference pixel PB is I ( ⁇ )
  • the angle ⁇ g and the ray angle ⁇ are in the relationship of the following equation.
  • the second calculator 221C can obtain the ray angle ⁇ based on the calculated angle ⁇ g. For example, by multiplying the angle ⁇ g by a correction coefficient indicating the relationship between the angle ⁇ g and the ray angle ⁇ , it is possible to obtain the ray angle ⁇ (convert the angle ⁇ g into the ray angle ⁇ ).
  • a correction table (a correction table storing correction coefficients for each image height) is prepared in advance for the relationship between the angle ⁇ g and the ray angle ⁇ .
  • a correction factor corresponding to the image height is used.
  • FIG. 20 is a functional block diagram showing a second embodiment of the process of the information acquisition unit 220D shown in FIG.
  • parts common to the first embodiment shown in FIG. 17 are assigned the same reference numerals and detailed explanations thereof will be omitted.
  • the information acquisition unit 220D-2 of the second embodiment shown in FIG. 20 is different from the first embodiment shown in FIG. 17 in that a conversion unit 221D is added.
  • the conversion unit 221D converts the light ray angle ⁇ calculated by the second calculation unit 221C into an F value or numerical aperture by a predetermined conversion formula.
  • the aperture diameter of the imaging optical system 102 is D
  • the radius of the aperture diameter D is r
  • the focal length is f
  • the ray angle is ⁇ .
  • the F value can be expressed by the following equation according to the definition of the F value.
  • F f / D
  • the radius r of the aperture diameter D, the focal length f, and the ray angle ⁇ shown in FIG. 18, sin ⁇ can be expressed by the following equation.
  • the F value can be expressed by the following equation.
  • F 1 / (2 sin ⁇ )
  • the numerical aperture NA in air can be expressed by the following equation.
  • the conversion unit 221D of this example uses the above [Equation 5] equation or [Equation 6] equation to convert the light beam angle ⁇ calculated by the second operation unit 221C into the F value or the numerical aperture. It can be converted to F number or numerical aperture.
  • FIG. 21 is a functional block diagram showing a third embodiment of the process of the information acquisition unit 220D shown in FIG. Note that, in FIG. 21, portions common to the first embodiment shown in FIG. 17 will be assigned the same reference numerals, and detailed descriptions thereof will be omitted.
  • the information acquisition unit 220D-3 of the third embodiment shown in FIG. 21 is shown in FIG. 17 in that it includes a readout unit 221E instead of the second calculation unit 221C that mainly calculates the ray angle ⁇ . It differs from the first embodiment.
  • the reading unit 221E acquires the current F-number of the interchangeable lens 100 based on the difference ⁇ d calculated by the first calculation unit 221B.
  • the imaging device 10 includes a storage unit such as a flash ROM 226 or ROM 228 which stores the difference ⁇ d calculated by the first calculation unit 221B in association with each F value of the interchangeable lens 100 in advance.
  • a table indicating the relationship between the difference ⁇ d and the F value may be stored in the ROM 228, or a table indicating the relationship between the difference ⁇ d and the F value may be downloaded from a server on the network. It may be stored in the flash ROM 226.
  • the reading unit 221E reads the F value corresponding to the difference ⁇ d from the flash ROM 226 or ROM 228 based on the difference ⁇ d calculated by the first calculation unit 221B, and the read F value is the current F value of the interchangeable lens 100 Get as.
  • the F value may be read out by adopting a difference ⁇ d closer to the calculated difference ⁇ d of the two F values corresponding to the two stored differences ⁇ d, or the calculated difference ⁇ d, The F value may be calculated by interpolating the two F values corresponding to the stored two differences ⁇ d based on the two differences ⁇ d stored across the calculated difference ⁇ d.
  • the storage unit such as the flash ROM 226 or the ROM 228 may store the difference ⁇ d calculated by the first calculation unit 221B in association with each numerical aperture of the interchangeable lens 100.
  • the first difference The current numerical aperture of the interchangeable lens 100 can be read out based on the difference ⁇ d calculated by the calculation unit 221B.
  • a value obtained by dividing the difference ⁇ d by the movement amount (prescribed amount z) of the image sensor 201 may be used.
  • the current ray angle, F value or numerical aperture of the interchangeable lens 100 can be easily and accurately obtained.
  • the current of the interchangeable lens 100 is not required to add special hardware. It is possible to obtain a light beam angle, an f-number or a numerical aperture, and to provide an inexpensive apparatus.
  • the interchangeable lens 300 compatible with the camera body 200 is mounted, communication can be performed between the interchangeable lens 300 and the camera body 200, and the camera body 200 communicates with the F lens by communication from the interchangeable lens 300. There is no need to acquire the ray angle, the F number, or the numerical aperture according to this embodiment, since it is possible to acquire lens information that includes the information.
  • the brightness of the subject (not the brightness of the image but the true subject based on the information of “shutter speed” and “brightness of the image”) Brightness) can be calculated. Further, the brightness of the true subject is used for scene recognition (outside determination, indoor determination, etc.), and can be used for automatic white balance adjustment and the like.
  • the F number or the numerical aperture can be recorded in the header of the image file as attached information of the captured image.
  • FIG. 22 is a flowchart showing a first embodiment of the information acquisition method according to the present invention.
  • the main body CPU 220 determines whether the F value acquisition mode (information acquisition mode) is set by the operation unit 222 (step S10). When the F value acquisition mode is set, it is further determined whether an instruction for imaging (signal of S2 on) is output from the shutter release switch 22 (step S12).
  • the main CPU 220 When the F value acquisition mode is set and the S2 on signal is output, the main CPU 220 performs imaging for F value acquisition.
  • phase difference pixel information acquisition unit 220C is each output data of the first phase difference pixel PA and the second phase difference pixel PB when the image sensor 201 is positioned at the first position P1, and is focused.
  • Each output data of the first phase difference pixel PA and the second phase difference pixel PB in the region is acquired (step S14).
  • the sensor drive unit 220A moves the image sensor 201 from the first position P1 by the specified amount z in the direction of the in-focus position where the subject is in focus (step S16).
  • the position moved from the first position P1 by the specified amount z is the second position P2.
  • the phase difference pixel information acquisition unit 220C acquires each output data of the first phase difference pixel PA and the second phase difference pixel PB when the image sensor 201 is located at the second position P2, as in step S14. (Step S18).
  • the information acquiring unit 220D is configured to convert the object light into an image sensor through the interchangeable lens 100 based on the output data of the first phase difference pixel PA and the second phase difference pixel PB at the first position P1 and the second position P2. Information relating to the light beam angle with respect to the image sensor or the light beam angle when entering the light source 201 is acquired (step S20).
  • FIG. 23 is a flowchart showing details of step S20 shown in FIG.
  • the first phase shift amount detection unit 221A corresponds to the first phase difference pixel PA and the second phase difference pixel PA of the image sensor 201 when the image sensor 201 is positioned at the first position P1.
  • the first phase shift amount at the first position P1 is detected based on the output of the phase difference pixel PB, and the first of the image sensor 201 when the image sensor 201 is positioned at the second position P2.
  • the second phase shift amount at the second position P2 is calculated based on the outputs of the phase difference pixel PA and the second phase difference pixel PB (step S21).
  • the first calculation unit 221B calculates a difference ⁇ d between the first phase shift amount d1 at the first position P1 detected in step S21 and the second phase shift amount d2 at the second position P2. (Step S22).
  • the second computing unit 221C determines the difference ⁇ d calculated in step S22 and the movement amount (prescribed amount z) between the first position P1 and the second position P2 at which the image sensor 201 has moved.
  • the ray angle ⁇ at the center of the sensor of the image sensor 201 is calculated (see step S23, [Equation 1] formula).
  • FIG. 24 is a flowchart showing another processing method corresponding to step S20 shown in FIG.
  • the same steps as those in FIG. 23 carry the same step numbers, and the detailed description thereof will be omitted.
  • the flowchart shown in FIG. 24 differs from the flowchart shown in FIG. 23 in that it has a step S24 of reading an F value instead of the step S23 of calculating the light beam angle ⁇ .
  • the imaging device 10 includes a storage unit such as a flash ROM 226 or ROM 228 that stores the difference ⁇ d calculated by the first calculation unit 221B in advance for each F value of the interchangeable lens 100.
  • a storage unit such as a flash ROM 226 or ROM 228 that stores the difference ⁇ d calculated by the first calculation unit 221B in advance for each F value of the interchangeable lens 100.
  • step S24 shown in FIG. 24 the reading unit 221E (FIG. 21) reads the F value corresponding to the difference ⁇ d from the storage unit such as the flash ROM 226 or ROM 228 based on the difference ⁇ d calculated in step S22.
  • the read F value is obtained as the current F value of the interchangeable lens 100.
  • the storage unit such as the flash ROM 226 or the ROM 228 may store the difference ⁇ d in association with each numerical aperture of the interchangeable lens 100.
  • the interchangeable lens 100 based on the difference ⁇ d calculated in step S22.
  • the current numerical aperture of can be read out.
  • the sensor drive unit 220A moves the image sensor 201 to the first position P1 and the second position P2 via the focus adjustment unit 209.
  • the present invention is not limited to this, and the first position It may be made to move to three or more positions including P1 and the second position P2.
  • the phase difference pixel information acquisition unit 220C respectively outputs the first phase difference pixel PA and the second phase difference pixel PB of the image sensor 201 when the image sensor 201 moves to three or more positions.
  • the information acquiring unit 220D acquires object light on the image sensor 201 through the interchangeable lens 100 based on the outputs of the first phase difference pixel PA and the second phase difference pixel PB at three or more positions.
  • information related to the ray angle with respect to the image sensor 201 is acquired. This makes it possible to obtain information related to a more accurate ray angle.
  • the image sensor applied to the present invention is composed of only the phase difference pixels which usually have both the phase difference pixels (first and second phase difference pixels) but not the normal pixels. It may be an image sensor.
  • an output equivalent to that of a normal pixel can be obtained by adding the outputs of a pair of adjacent first and second phase difference pixels.
  • a processing unit that executes various processes such as the sensor drive unit 220A, the focus area information acquisition unit 220B, the phase difference pixel information acquisition unit 220C, and the information acquisition unit 220D.
  • the hardware structure is various processors as shown below.
  • the circuit configuration can be changed after manufacturing a central processing unit (CPU), an FPGA (field programmable gate array) that is a general-purpose processor that functions as various processing units by executing software (programs) for various processors.
  • Logic circuits Programmable Logic Devices: PLDs
  • ASICs Application Specific Integrated Circuits
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be In addition, a plurality of processing units may be configured by one processor. As an example in which a plurality of processing units are configured by one processor, first, one processor is configured by a combination of one or more CPUs and software as represented by computers such as clients and servers. There is a form in which a processor functions as a plurality of processing units.
  • SoC system on chip
  • IC integrated circuit
  • circuitry circuitry

Abstract

互換性のない交換レンズが撮像装着された場合であっても、その交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を簡単かつ精度よく取得することができる撮像装置、情報取得方法及び情報取得プログラムを提供する。第1の位相差画素及び第2の位相差画素を有するイメージセンサ(201)を交換レンズの光軸方向の第1の位置(P1)と第2の位置(P2)との間で移動させる。イメージセンサ(201)が第1の位置(P1)に移動したときの第1の位相差画素及び第2の位相差画素の出力と、イメージセンサ(201)が第2の位置(P2)に移動したときの第1の位相差画素及び第2の位相差画素の出力とに基づいて交換レンズを通じて被写体光がイメージセンサ(201)に入射する際の、イメージセンサ(201)に対する光線角度に関連する情報を取得する。

Description

撮像装置、情報取得方法及び情報取得プログラム
 本発明は撮像装置、情報取得方法及び情報取得プログラムに係り、特に撮像装置に装着された交換レンズの情報を取得する技術に関する。
 交換レンズを使用する撮像装置(カメラ)は、大別して2種類の交換レンズを装着することができる。
 一方の交換レンズは、カメラ本体の通信規格に沿って製造され、カメラ本体との間で通信を行うことができる交換レンズである。この種の交換レンズがカメラ本体に装着された場合、カメラ本体は、装着された交換レンズとの間で通信を行い、交換レンズのレンズ情報(例えば、交換レンズ内の絞りの絞り値(F値)、フォーカスレンズのレンズ位置、交換レンズの焦点距離等)を完全に取得することができる。
 他方の交換レンズは、カメラ本体の通信規格に沿って製造されておらず、カメラ本体との間で完全な通信を行うことができない交換レンズ(互換性のない交換レンズ)であり、サードパーティ製の交換レンズ、又はオールドレンズが該当する。尚、交換レンズとカメラ本体との間の通信プロトコル等が異なり、カメラ本体により一部のレンズ情報を取得することができるが、少なくともF値を取得することができないレンズは、本例では互換性のない他方の交換レンズに該当する。
 特許文献1に記載の撮像装置は、イメージセンサの1つの画素が複数の領域に分割され、かつ撮影光学系の瞳像を複数の領域に結像させるオンチップマイクロレンズと、分割された複数の分割領域ごとに光電変換された信号をそれぞれ読み出す読出部とを有するイメージセンサを備え、交換レンズから絞り値に関する情報を取得できない場合に、複数の分割領域の信号に基づいて交換レンズの現在の絞り値を検出している。
 即ち、イメージセンサの1つの画素を構成する複数の分割領域には、交換レンズの絞り値に対応する分割領域のみに被写体光が入射するため、複数の分割領域の信号により交換レンズの現在の絞り値を検出することができる。
 特許文献2に記載の撮像装置は、交換レンズから絞り値に関する情報を取得できない場合、フラッシュ発光画像とフラッシュ非発光画像とを撮像し、フラッシュ発光画像とフラッシュ非発光画像の撮像時のシャッタースピード、被写体距離、フラッシュ発光画像の撮像時のフラッシュ光のガイドナンバー、及びフラッシュ光の到達量に基づいて撮像時の絞り値を推定している。
 特許文献3に記載のカメラは、交換レンズを通過した第一の光の照度を計測する内部照度計と、交換レンズを通過していない外光の照度を計測する外部照度計とを備え、これらの照度計により計測した第一の光の照度と第二の光の照度とに基づいて交換レンズの絞り値を推定している。
国際公開第2015-045829号公報 特開2016-143951号公報 特開2006-259055号公報
 特許文献1に記載の発明は、絞り値を推定するために特殊なイメージセンサを備える必要がある。即ち、イメージセンサの1つの画素が複数の領域に分割され、かつ撮影光学系の瞳像を複数の領域に結像させるオンチップマイクロレンズと、分割された複数の分割領域ごとに光電変換された信号をそれぞれ読み出す読出部とを有する、特殊なイメージセンサを備える必要がある。
 特許文献2に記載の発明は、フラッシュ発光画像とフラッシュ非発光画像とを撮像する必要があり、特に互換性のない交換レンズからはレンズ情報を取得することがでないため、被写体距離を取得するための特別な手段を具備する必要がある。尚、被写体の大きさが既知の場合(例えば、人物の顔の大きさ)、イメージセンサ上での被写体の大きさから被写体距離を予想する記載があるが、この場合でも交換レンズの焦点距離を必要とし、更に撮影範囲内に大きさが既知の被写体が存在しない場合には、被写体距離を推定することはできない。
 特許文献3に記載のカメラは、交換レンズを通過した第一の光の照度を計測する内部照度計と、交換レンズを通過していない外光の照度を計測する外部照度計とを設ける必要があり、特許文献2の発明と同様にF値を取得するための特別な手段(外部照度計)を設ける必要がある。
 本発明はこのような事情に鑑みてなされたもので、互換性のない交換レンズが撮像装着された場合であっても、その交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を簡単かつ精度よく取得することができる撮像装置、情報取得方法及び情報取得プログラムを提供することを目的とする。
 上記目的を達成するために本発明の一の態様に係る撮像装置は、第1の位相差画素と、第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有するイメージセンサと、交換レンズが脱着可能な装着部と、装着部に装着された交換レンズの光軸方向にイメージセンサを移動させるセンサ駆動部であって、イメージセンサを第1の位置及び第2の位置に移動させるセンサ駆動部と、センサ駆動部によりイメージセンサが第1の位置に移動したときのイメージセンサの第1の位相差画素及び第2の位相差画素の出力、及びイメージセンサが第2の位置に移動したときのイメージセンサの第1の位相差画素及び第2の位相差画素の出力をそれぞれ取得する位相差画素情報取得部と、第1の位置及び第2の位置における第1の位相差画素及び第2の位相差画素の出力に基づいて、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得する情報取得部と、を備える。
 本発明の一の態様によれば、同じデフォーカス量であってもイメージセンサに対する光線角度に応じてイメージセンサ上の第1の位相差画素及び第2の位相差画素により検出される位相ずれ量が異なることに着目し、イメージセンサを交換レンズの光軸方向の第1の位置と第2の位置との間で移動させる。イメージセンサが第1の位置に移動したときの第1の位相差画素及び第2の位相差画素の出力と、イメージセンサが第2の位置に移動したときの第1の位相差画素及び第2の位相差画素の出力とに基づいて、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得している。これにより、互換性のない交換レンズが撮像装着された場合であっても、位相差画素を有するイメージセンサを光軸方向に移動させるだけで、イメージセンサに対する光線角度に関連する情報を取得することができる。
 本発明の他の態様に係る撮像装置において、センサ駆動部は、第1の位置に対し、被写体に焦点が合う合焦位置の方向に第1の位置からイメージセンサを規定量だけ移動させた位置を第2の位置としてイメージセンサを移動させることが好ましい。第1の位置及び第2の位置において、それぞれ第1の位相差画素及び第2の位相差画素の出力に基づいて位相ずれ量を良好に取得するためである。
 本発明の更に他の態様に係る撮像装置において、イメージセンサの全領域のうちの焦点調節領域を示す焦点領域情報を取得する焦点領域情報取得部を備えることが好ましい。コントラストが低い焦点調節領域からは、位相ずれ量を精度よく検出することができないからである。
 本発明の更に他の態様に係る撮像装置において、焦点領域情報取得部は、イメージセンサの全領域のうちの予め設定された焦点調節領域、主要被写体が存在する領域又はコントラストが高い領域を、焦点調節領域を示す焦点領域情報として取得することが好ましい。
 本発明の更に他の態様に係る撮像装置において、センサ駆動部は、取得された焦点調節領域に対応する第1の位相差画素及び第2の位相差画素の出力に基づいて位相差の検出が可能な位置を第1の位置とすると、焦点調節領域内の被写体に焦点が合う合焦位置の方向に、第1の位置からイメージセンサを規定量だけ移動させた位置を第2の位置としてイメージセンサを移動させることが好ましい。
 位相差の検出が可能な第1の位置から、焦点が合う合焦位置の方向と逆方向にイメージセンサを移動させると、第2の位置において、位相差の検出が良好にできなくなる場合があるからである。
 本発明の更に他の態様に係る撮像装置において、イメージセンサに対する光線角度に関連する情報は、イメージセンサに対する光線角度、交換レンズの絞り値又は交換レンズの開口数である。
 本発明の更に他の態様に係る撮像装置において、情報取得部は、イメージセンサの第1の位相差画素及び第2の位相差画素の出力に基づいて、第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量とを検出する第1の位相ずれ量検出部と、第1の位相ずれ量検出部により検出された第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量との差を算出する第1の演算部と、算出した差とイメージセンサが移動した第1の位置と第2の位置との間の移動量とに基づいてイメージセンサに対する光線角度を算出する第2の演算部と、を有し、第2の演算部により演算した光線角度を、イメージセンサに対する光線角度に関連する情報として取得することが好ましい。
 第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量との差と、イメージセンサが移動した第1の位置と第2の位置との間の移動量とから、イメージセンサに対する光線角度を算出することができる。
 本発明の更に他の態様に係る撮像装置において、第2の演算部は、算出した差とイメージセンサが移動した第1の位置と第2の位置との間の移動量とに基づいて第1の位相ずれ量及び第2の位相ずれ量で規定される、光線角度よりも小さい角度を算出し、算出した角度に補正係数を乗算して光線角度を算出することが好ましい。
 算出した差とイメージセンサの移動量とに基づいて算出される第1の位相ずれ量及び第2の位相ずれ量で規定される角度は、イメージセンサの第1の位相差画素及び第2の位相差画素の入射角特性を反映した角度であり、光線角度よりも小さい角度である。したがって、この算出した角度に、算出した角度と光線角度との関係を示す補正係数を乗算することで光線角度を求めることができる。
 本発明の更に他の態様に係る撮像装置において、情報取得部は、第2の演算部により演算した光線角度を絞り値又は開口数に換算する換算部を更に含み、換算部により換算された絞り値又は開口数を、イメージセンサに対する光線角度に関連する情報として取得することが好ましい。交換レンズの絞り値、開口数及び光線角度は、相互に関係しており、光線角度が得られれば、光線角度から絞り値及び開口数は換算可能である。
 本発明の更に他の態様に係る撮像装置において、第1の位置の第1の位相ずれ量と第2の位置の第2の位相ずれ量との差と、交換レンズの絞り値又は開口数との関係を、交換レンズの絞り値毎又は開口数毎に記憶する記憶部を備え、情報取得部は、イメージセンサの第1の位相差画素及び第2の位相差画素の出力に基づいて、第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量とを検出する第1の位相ずれ量検出部と、第1の位相ずれ量検出部により検出された第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量との差を算出する第1の演算部と、第1の演算部により算出された差に基づいて記憶部から差に対応する絞り値又は開口数を読み出す読み出し部と、を有し、読み出し部により読み出した絞り値又は開口数を、イメージセンサに対する光線角度に関連する情報として取得することが好ましい。
 第1の位置の第1の位相ずれ量と第2の位置の第2の位相ずれ量との差と、交換レンズの絞り値又は開口数との関係は、第1の位置と第2の位置との間の移動量が一定の規定値であれば、一定の関係にある。したがって、第1、第2の位相ずれ量の差と、交換レンズの絞り値又は開口数との関係を、交換レンズの絞り値毎又は開口数毎に記憶部に記憶させておく。そして、交換レンズの現在の絞り値又は開口数を取得する場合、イメージセンサを規定量だけ移動させ、第1、第2の位相ずれ量の差を算出する。算出された差に基づいて記憶部から差に対応する絞り値又は開口数を読み出すことにより、交換レンズの現在の絞り値又は開口数を取得することができる。
 尚、第1の演算部により算出された差が記憶部に記憶されていない場合には、記憶部に記憶されている差のうちで、第1の演算部により算出された差に最も近い差に対応する絞り値又は開口数を読み出して、交換レンズの現在の絞り値又は開口数としてもよいし、第1の演算部により算出された差と、記憶部に記憶されている前後(算出された差の前後)の差とに基づいて対応する絞り値又は開口数を補間し、交換レンズの現在の絞り値又は開口数としてもよい。
 本発明の更に他の態様に係る撮像装置において、交換レンズとの間で通信を行う通信部と、装着された交換レンズから通信部を介して交換レンズの絞り値を取得できない場合にセンサ駆動部、位相差画素情報取得部及び情報取得部をそれぞれ動作させる制御部と、を備えることが好ましい。自社の交換レンズ又は互換性のある交換レンズで、交換レンズと撮像装置本体との間で通信により情報をやり取りできる場合、通信により交換レンズの情報(交換レンズの絞り値又は開口数)を取得する方が簡便だからである。したがって、装着された交換レンズから通信部を介して交換レンズの絞り値又は開口数を取得できない場合に限り、センサ駆動部、位相差画素情報取得部及び情報取得部をそれぞれ動作させ、交換レンズの絞り値又は開口数を取得するようにしている。
 本発明の更に他の態様に係る撮像装置において、通信部を介して取得した交換レンズの絞り値又は開口数若しくは情報取得部により取得した交換レンズの絞り値又は開口数を使用して被写体の明るさを算出する測光部を備えることが好ましい。交換レンズの絞り値又は開口数が分かると、「絞り値又は開口数から換算される絞り値」、「シャッタースピード」、及び「画像の輝度(明るさ)」の情報を元に、被写体の明るさ(画像の輝度ではなく真の被写体の明るさ)を算出することができる。また、真の被写体の明るさは、シーン認識(屋外、屋内の判定等)に利用され、オートホワイトバランス調整等に利用することができる。
 本発明の更に他の態様に係る撮像装置において、イメージセンサの第1の位相差画素及び第2の位相差画素の出力に基づいて位相ずれ量を検出する第2の位相ずれ量検出部と、イメージセンサに対する光線角度に関連する情報と位相ずれ量とに基づいてデフォーカス量を算出するデフォーカス量算出部と、算出されたデフォーカス量に基づいてイメージセンサを移動させる焦点調節部と、を備えることが好ましい。
 これによれば、イメージセンサを移動させることで、交換レンズを駆動することなく位相差AF(Autofocus)を行うことができ、特に互換性のない交換レンズが装着された場合でも位相差AFを行うことができる。
 本発明の更に他の態様に係る撮像装置において、情報取得モードを設定するモード設定部を備え、センサ駆動部、位相差画素情報取得部、及び情報取得部は、それぞれモード設定部により情報取得モードが設定された状態で撮像指示部から撮像の指示が入力された場合に動作することが好ましい。
 情報取得モードが設定された場合、イメージセンサに対する光線角度に関連する情報を取得するために、ユーザに被写体を撮像して貰う必要がある。情報取得モードが設定されることで、ユーザは、良好な光線角度に関連する情報を取得するため撮像を意識して被写体(例えば、コントラストが高い被写体、飽和が発生しない被写体等)を撮像することができる。尚、情報取得モードは、互換性のない交換レンズの絞りを調整した場合には、その調整毎にユーザが設定することになるが、互換性のない交換レンズが装着された場合には、それを検出して自動的に設定してもよい。
 本発明の更に他の態様に係る撮像装置において、撮像指示部から撮像の指令が入力されると、イメージセンサを介して画像データを取得する画像取得部と、取得した画像データを格納する画像ファイルを作成し、画像ファイルを記録媒体に記録する記録部と、を備え、記録部は、画像ファイルのヘッダに、情報取得部が取得したイメージセンサに対する光線角度に関連する情報を記録することが好ましい。
 本発明の更に他の態様に係る撮像装置において、センサ駆動部は、イメージセンサを第1の位置及び第2の位置を含む3箇所以上の位置に移動させ、位相差画素情報取得部は、イメージセンサが3箇所以上の各位置に移動したときのイメージセンサの第1の位相差画素及び第2の位相差画素の出力をそれぞれ取得し、情報取得部は、3箇所以上の各位置における第1の位相差画素及び第2の位相差画素の出力に基づいて、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得することが好ましい。これにより、より精度の高い光線角度に関連する情報を取得することができる。
 更に他の態様に係る発明は、イメージセンサ上に第1の位相差画素と第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有するイメージセンサを備える撮像装置における情報取得方法であって、イメージセンサが、撮像装置に装着された交換レンズの光軸方向の第1の位置に位置するときのイメージセンサから第1の位相差画素及び第2の位相差画素の出力をそれぞれ取得するステップと、センサ駆動部により第1の位置から交換レンズの光軸方向の第2の位置にイメージセンサを移動させるステップと、イメージセンサが第2の位置に位置するときのイメージセンサから第1の位相差画素及び第2の位相差画素の出力をそれぞれ取得するステップと、第1の位置及び第2の位置における第1の位相差画素及び第2の位相差画素の出力に基づいて、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得するステップと、を含む。
 本発明の更に他の態様に係る情報取得方法において、イメージセンサを移動させるステップは、第1の位置に対し、被写体に焦点が合う合焦位置の方向に第1の位置からイメージセンサを規定量だけ移動させた位置を第2の位置としてイメージセンサを移動させることが好ましい。
 本発明の更に他の態様に係る情報取得方法において、イメージセンサに対する光線角度に関連する情報は、イメージセンサに対する光線角度、交換レンズの絞り値又は交換レンズの開口数である。
 本発明の更に他の態様に係る情報取得方法において、イメージセンサに対する光線角度に関連する情報を取得するステップは、イメージセンサの第1の位相差画素及び第2の位相差画素の出力に基づいて、第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量とを検出するステップと、検出された第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量との差を算出するステップと、算出した差とイメージセンサが移動した第1の位置と第2の位置との間の移動量とに基づいてイメージセンサに対する光線角度を算出するステップと、を含み、算出した光線角度を、イメージセンサに対する光線角度に関連する情報として取得することが好ましい。
 本発明の更に他の態様に係る情報取得方法において、撮像装置は、第1の位置の第1の位相ずれ量と第2の位置の第2の位相ずれ量との差と、交換レンズの絞り値又は開口数との関係を、交換レンズの絞り値毎又は開口数毎に記憶する記憶部を備え、イメージセンサに対する光線角度に関連する情報を取得するステップは、イメージセンサの第1の位相差画素及び第2の位相差画素の出力に基づいて、第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量とを検出するステップと、検出された第1の位置における第1の位相ずれ量と第2の位置における第2の位相ずれ量との差を算出するステップと、算出された差に基づいて記憶部から差に対応する絞り値又は開口数を読み出すステップと、を含み、読み出した絞り値又は開口数を、イメージセンサに対する光線角度に関連する情報として取得することが好ましい。
 更に他の態様に係る発明は、イメージセンサ上に第1の位相差画素と第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有するイメージセンサを備える撮像装置に適用される情報取得プログラムであって、イメージセンサが、撮像装置に装着された交換レンズの光軸方向の第1の位置に位置するときのイメージセンサから第1の位相差画素及び第2の位相差画素の出力をそれぞれ取得する機能と、センサ駆動部により第1の位置から交換レンズの光軸方向の第2の位置にイメージセンサを移動させる機能と、イメージセンサが第2の位置に位置するときのイメージセンサから第1の位相差画素及び第2の位相差画素の出力をそれぞれ取得する機能と、第1の位置及び第2の位置における第1の位相差画素及び第2の位相差画素の出力に基づいて、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得する機能と、を撮像装置に実現させる。
 本発明によれば、互換性のない交換レンズが撮像装置に装着された場合であっても、その交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を簡単かつ精度よく取得することができる。
図1は本発明に係る撮像装置を斜め前方から見た斜視図 図2は撮像装置の背面図 図3は撮像装置の内部構成の実施形態を示すブロック図であり、互換性のない交換レンズが装着された状態を示す図 図4は撮像装置の内部構成の実施形態を示すブロック図であり、互換性のある交換レンズが装着された状態を示す図 図5はイメージセンサの構成例を示す図 図6はイメージセンサの位相差画素行の一部の断面を示す概略図 図7は第1の位相差画素PA及び第2の位相差画素PBの構成を示す要部拡大図 図8はイメージセンサの撮像領域における、第1の位相差画素PA及び第2の位相差画素PBが配置される領域の一例を示す図 図9はイメージセンサの撮像領域における、第1の位相差画素及び第2の位相差画素が配置される領域の他の例を示す図 図10はイメージセンサの撮像領域における、第1の位相差画素PA及び第2の位相差画素PBが配置される領域の更に他の例を示す図 図11はAF制御部の構成例を示す図 図12イメージセンサの通常画素(G画素)、第1の位相差画素及び第2の位相差画素の入射角特性を示すグラフ 図13はイメージセンサのG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフと、F値がF2の場合における、イメージセンサの中心部の画素に入射する光束の角度範囲とを示す図 図14はイメージセンサのG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフと、F値がF4の場合における、イメージセンサの中心部の画素に入射する光束の角度範囲とを示す図 図15はイメージセンサを第1の位置P1と第2の位置P2とに移動させ、第1の位置P1での第1の位相ずれ量と第2の位置P2での第2の位相ずれ量とを取得する態様を示す図 図16はイメージセンサに対する光線角度に関連する情報を取得する、カメラ本体の本体側の機能を示すブロック図 図17は図16に示した情報取得部の処理の第1の実施形態を示す機能ブロック図 図18はレンズの開口径D、開口径の半径r、焦点距離f及び光線角度θの関係、及び第1の位置P1での第1の位相ずれ量d1、第2の位置P2での第2の位相ずれ量d2等を示す図 図19は図18の要部拡大図 図20は図16に示した情報取得部の処理の第2の実施形態を示す機能ブロック図 図21は図16に示した情報取得部の処理の第3の実施形態を示す機能ブロック図 図22は本発明に係る情報取得方法の第1の実施形態を示すフローチャート 図23は図22に示したステップS20の詳細を示すフローチャート 図24は図22に示したステップS20に対応する他の処理方法を示すフローチャート
 以下、添付図面に従って本発明に係る撮像装置、情報取得方法及び情報取得プログラムの好ましい実施の形態について説明する。
 <撮像装置の外観>
 図1は撮像装置を斜め前方から見た斜視図であり、図2は撮像装置の背面図である。
 図1に示すように撮像装置10は、交換レンズ100と、交換レンズ100が着脱可能なカメラ本体200とから構成されたミラーレスのデジタル一眼カメラである。
 図1において、カメラ本体200の前面には、交換レンズ100が着脱可能な本体マウント260(装着部)と、光学ファインダのファインダ窓20等が設けられ、カメラ本体200の上面には、主としてシャッタレリーズスイッチ22、シャッタースピードダイヤル23、露出補正ダイヤル24、電源レバー25、及び内蔵フラッシュ30が設けられている。
 また、図2に示すようにカメラ本体200の背面には、主として液晶ディスプレイ等からなるモニタ216、光学ファインダの接眼部26、MENU/OKキー27、十字キー28、再生ボタン29等が設けられている。
 モニタ216は、撮影モード時にライブビュー画像を表示したり、再生モード時に撮像した画像を再生表示する他、各種のメニュー画面を表示する表示部として機能する。MENU/OKキー27は、モニタ216の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キー28は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタンとして機能する。また、十字キー28の上キー及び下キーは撮像時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左キー及び右キーは再生モード時のコマ送り(順方向及び逆方向送り)ボタンとして機能する。 また、MENU/OKキー27、十字キー28、及びモニタ216に表示されるメニュー画面を使用することで、1枚の静止画を撮像する通常撮影モードの他に、静止画を連続撮影する連写モードを含む各種の撮影モードの設定を行うことができる。尚、連写モードを設定する場合、連写速度(例えば、約8コマ/秒、約3コマ/秒)の設定が可能である。
 再生ボタン29は、撮像記録した静止画又は動画をモニタ216に表示させる再生モードに切り替えるためのボタンである。
 <撮像装置の内部構成>
 [交換レンズ]
 <互換性のない交換レンズ>
 図3は、撮像装置10の内部構成の実施形態を示すブロック図である。
 図3に示す交換レンズ100は、カメラ本体200の本体マウント260に装着可能なレンズマウント160を備えているが、カメラ本体200に対して互換性のない交換レンズである。尚、図示しないマウントアダプタを介してカメラ本体200に装着可能な交換レンズも含む。
 交換レンズ100の撮像光学系102は、フォーカスレンズを含むレンズ群104及び絞り108を含む。
 レンズ群104のフォーカスレンズは、図示しないフォーカスリングを手動操作することにより、至近から無限遠に対応する範囲内で移動することができる。
 絞り108は、図示しない絞りリングを手動操作することにより、最大絞りから最小絞りまで、1ステップずつ、又は1/3ステップずつ、又は連続的に絞り開口の大きさを変更することができる。これにより、最大絞り(例えば、絞り値(F値)=F1.2)から最小絞り(例えば、F値=F22)の範囲内でF値を設定することができる。
 <互換性のある交換レンズ>
 図4は、撮像装置10の内部構成の第2の実施形態を示すブロック図である。
 図4に示す交換レンズ300は、カメラ本体200の通信規格に沿って製造されたものであり、後述するようにカメラ本体200との間で通信を行うことができる、互換性のある交換レンズである。
 この交換レンズ300は、撮像光学系302、フォーカスレンズ制御部316、絞り制御部318、レンズ側CPU(Central Processing Unit)320、フラッシュROM(Read Only Memory)326、レンズ側通信部350、及びレンズマウント360を備える。
 交換レンズ300の撮像光学系302は、フォーカスレンズを含むレンズ群304及び絞り308を含む。
 フォーカスレンズ制御部316は、レンズ側CPU320からの指令に従って、フォーカスレンズのフォーカス位置を制御する。絞り制御部318は、レンズ側CPU320からの指令に従って絞り308を制御する。
 レンズ側CPU320は、交換レンズ300を統括制御するもので、ROM324及びRAM(Random Access Memory)322を内蔵している。
 フラッシュROM326は、カメラ本体200からダウンロードされたプログラム等を格納する不揮発性のメモリである。
 レンズ側CPU320は、ROM324又はフラッシュROM326に格納された制御プログラムに従い、RAM322を作業領域として、交換レンズ300の各部を統括制御する。
 レンズ側通信部350は、レンズマウント360がカメラ本体200の本体マウント260に装着されている状態で、レンズマウント360に設けられた複数の信号端子(レンズ側信号端子)を介してカメラ本体200との通信を行う。即ち、レンズ側通信部350は、レンズ側CPU320の指令に従って、レンズマウント360及び本体マウント260を介して接続されたカメラ本体200の本体側通信部250との間で、リクエスト信号、回答信号の送受信(双方向通信)を行い、撮像光学系302の各光学部材のレンズ情報(フォーカスレンズのフォーカス位置情報、焦点距離情報及び絞り情報等)を、カメラ本体200に通知する。
 また、交換レンズ300は、フォーカスレンズのフォーカス位置情報、及び絞り情報を検出する検出部(図示せず)を備えている。ここで、絞り情報とは、絞り308の絞り値(F値)、絞り308の開口径等を示す情報である。以下、本例では、絞り情報としてF値を使用する。
 レンズ側CPU320は、カメラ本体200からのレンズ情報のリクエストに応えるために、検出されたフォーカス位置情報及び絞り情報を含む各種のレンズ情報をRAM322に保持することが好ましい。また、レンズ情報は、カメラ本体200からのレンズ情報の要求があると検出され、又は光学部材が駆動されるときに検出され、又は一定の周期(動画のフレーム周期よりも十分に短い周期)で検出され、検出結果を保持することができる。
 [カメラ本体]
 図3又は図4に示す撮像装置10を構成するカメラ本体200は、イメージセンサ201(画像取得部)、イメージセンサ制御部202、アナログ信号処理部203、A/D(Analog/Digital)変換器204、画像入力コントローラ205、デジタル信号処理部206、RAM207、圧縮伸張処理部208、焦点調節部209、メディア制御部210(記録部)、メモリカード212(記録媒体)、表示制御部214、モニタ216、本体側CPU220、操作部222、時計部224、フラッシュROM226、ROM228、AF制御部230、明るさ検出部232(測光部)、ホワイトバランス補正部234、無線通信部236、GPS(Global Positioning System)受信部238、電源制御部240、バッテリ242、本体側通信部250、本体マウント260、内蔵フラッシュ30(図1)を構成するフラッシュ発光部270、フラッシュ制御部272、フォーカルプレーンシャッタ(FPS:focal-plane shutter)280、及びFPS制御部296を備える。
 <イメージセンサの構成>
 イメージセンサ201は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成されている。尚、イメージセンサ201は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。
 イメージセンサ201は、図5に示すようにx方向(水平方向)及びy方向(垂直方向)に二次元的に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、赤(R)、緑(G)及び青(B)のカラーフィルタが、周期的色配列(図5に示す例では、一般的なベイヤ配列)で配設され、各フォトダイオード上にはマイクロレンズが配置されている。
 また、イメージセンサ201は、位相差画素(第1の位相差画素PA,第2の位相差画素PB)と撮像用の通常画素(位相差画素以外の画素)が配置されている。
 ベイヤ配列を有するイメージセンサ201において、通常画素のみが水平方向(行方向)に配置された通常画素行は、Rフィルタを有する画素(R画素)とGフィルタを有する画素(G画素)とが行方向に交互に配置されたRG行と、G画素とBフィルタを有する画素(B画素)とが行方向に交互に配置されたGB行とがある。また、RG行とGB行とは、垂直方向(列方向)に交互に配置されている。
 また、イメージセンサ201は、第1の位相差画素PA及び第2の位相差画素PBが設けられた位相差画素行と、通常画素のみが設けられている通常画素行とを有している。
 イメージセンサ201の位相差画素行は、ベイヤ配列の特定のGB行において、一対の第1の位相差画素PA及び第2の位相差画素PBと1つの通常画素の3画素を1周期として周期的に行方向に配置されて構成されている。したがって、位相差画素行には、G画素とB画素とが行方向に2画素(一対の第1の位相差画素PA及び第2の位相差画素PB)置きに交互に配置されている。尚、本例の位相差画素行は、ベイヤ配列のGB行に設けられているが、これに限らず、RG行に設けるようにしてもよい。
 周期的色配列は、ベイヤ配列に限らず、X-Trans(登録商標)配列等の他のカラーフィルタ配列でもよい。
 図6は、イメージセンサ201の位相差画素行の一部の断面を示す概略図である。図6には、一対の第1の位相差画素PA及び第2の位相差画素PBと、これらの画素に隣接する通常画素であるB画素とG画素との4つの画素が示されている。第1の位相差画素PA及び第2の位相差画素PBには、それぞれ入射光を制限する遮光膜MA,MBが設けられている。
 図7は第1の位相差画素PA及び第2の位相差画素PBの構成を示す要部拡大図である。
 図7に示すように第1の位相差画素PAのフォトダイオードPDの前面側(マイクロレンズML側)には、遮光膜MAが配設され、一方、第2の位相差画素PBのフォトダイオードPDの前面側には、遮光膜MBが配設される。マイクロレンズML及び遮光膜MA、MBは瞳分割機能を有し、図7上で、遮光膜MAは、フォトダイオードPDの受光面の左半分を遮光する。そのため、第1の位相差画素PAは、撮像光学系102の射出瞳を通過する光束のうちの光軸の左側を通過する光束のみが選択的に受光される。また、カラーフィルタCFとして、GフィルタがマイクロレンズMLの下方に配置されている。
 一方、遮光膜MBは、第2の位相差画素PBのフォトダイオードPDの受光面の右半分を遮光する。そのため、第2の位相差画素PBには、撮像光学系102の射出瞳を通過する光束のうちの光軸の右側を通過する光束のみが選択的に受光される。このように、瞳分割機能を有するマイクロレンズML及び遮光膜MA、MBにより、射出瞳を通過する光束が左右に分割され、それぞれ第1の位相差画素PA及び第2の位相差画素PBに入射する。
 図8から図10は、それぞれイメージセンサ201の撮像領域における、第1の位相差画素PA及び第2の位相差画素PBが配置される領域の例を示している。図8から図10において、第1の位相差画素PA及び第2の位相差画素PBが配置される領域は、斜線で示されている。
 図3に戻って、本例のイメージセンサ201は、光軸方向に移動可能に設けられており、焦点調節部209によりイメージセンサ201の位置が調節可能になっている。したがって、イメージセンサ201の光軸方向の位置を制御することで、イメージセンサ201の結像面に被写体像を合焦させることができる。
 交換レンズ100の撮像光学系102によってイメージセンサ201の受光面に結像された被写体の光学像は、イメージセンサ201によって電気信号に変換される。イメージセンサ201の各画素には、入射する光量に応じた電荷が蓄積され、イメージセンサ201からは各画素に蓄積された電荷量に応じた電気信号が画像信号として読み出される。
 イメージセンサ制御部202は、本体側CPU220の指令に従って、イメージセンサ201から画像信号の読み出し制御を行う。また、イメージセンサ制御部202は、本体側CPU220からの電子シャッタ制御信号により、イメージセンサ201の各画素に蓄積にされた電荷を同時に排出させて(一斉にリセットして)、露光を開始させる電子シャッタ機能を有する。
 アナログ信号処理部203は、イメージセンサ201で被写体を撮像して得られたアナログの画像信号に対して、各種のアナログ信号処理を施す。アナログ信号処理部203は、サンプリングホールド回路、色分離回路、AGC(Automatic Gain Control)回路等を含んで構成されている。AGC回路は、撮像時の感度(ISO感度(ISO:International Organization for Standardization))を調整する感度調整部として機能し、入力する画像信号を増幅する増幅器のゲインを調整し、画像信号の信号レベルが適切な範囲に入るようにする。A/D変換器204は、アナログ信号処理部203から出力されたアナログの画像信号をデジタルの画像信号に変換する。
 静止画又は動画の撮像時にイメージセンサ201、アナログ信号処理部203、及びA/D変換器204を介して出力されるRGBの画素毎の画像データ(モザイク画像データ)は、画像入力コントローラ205からRAM207に入力され、一時的に記憶される。尚、イメージセンサ201がCMOS型イメージセンサである場合、アナログ信号処理部203及びA/D変換器204は、イメージセンサ201内に内蔵されていることが多い。
 デジタル信号処理部206は、RAM207に格納されている画像データに対して、各種のデジタル信号処理を施す。デジタル信号処理部206は、RAM207に記憶されている画像データを適宜読み出し、読み出した画像データに対してオフセット処理、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理、同時化処理とも言う)、RGB/YCrCb変換処理等のデジタル信号処理を行い、デジタル信号処理後の画像データを再びRAM207に記憶させる。尚、デモザイク処理とは、例えば、RGB3色のカラーフィルタからなるイメージセンサの場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理であり、モザイクデータ(点順次のRGBデータ)から同時化されたRGB3面の画像データを生成する。
 RGB/YCrCb変換処理は、同時化されたRGBデータを輝度データ(Y)及び色差データ(Cr、Cb)に変換する処理である。
 圧縮伸張処理部208は、静止画又は動画の記録時に、一旦RAM207に格納された非圧縮の輝度データY及び色差データCb,Crに対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮伸張処理部208により圧縮された画像データは、メディア制御部210を介してメモリカード212に記録される。また、圧縮伸張処理部208は、再生モード時にメディア制御部210を介してメモリカード212から得た圧縮された画像データに対して伸張処理を施し、非圧縮の画像データを生成する。
 メディア制御部210は、圧縮伸張処理部208で圧縮された画像データを、メモリカード212に記録する制御を行う。また、メディア制御部210は、メモリカード212から、圧縮された画像データを読み出す制御を行う。
 表示制御部214は、RAM207に格納されている非圧縮の画像データを、モニタ216に表示させる制御を行う。モニタ216は、例えば液晶表示デバイス、有機エレクトロルミネッセンスなどの表示デバイスによって構成されている。
 モニタ216にライブビュー画像を表示させる場合には、デジタル信号処理部206で連続的に生成されたデジタルの画像信号が、RAM207に一時的に記憶される。表示制御部214は、このRAM207に一時記憶されたデジタルの画像信号を表示用の信号形式に変換して、モニタ216に順次出力する。これにより、モニタ216に撮像画像がリアルタイムに表示され、モニタ216を電子ビューファインダとして使用することができる。
 シャッタレリーズスイッチ22は、撮像の指示を入力するための撮像指示部であり、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。
 静止画撮影モードの場合、シャッタレリーズスイッチ22が半押しされることによってS1オンの信号、半押しから更に押し込む全押しがされることによってS2オンの信号が出力され、S1オン信号が出力されると、本体側CPU220は、オートフォーカス(AF:Autofocus)制御及び自動露出制御(AE(Auto Exposure)制御)などの撮像準備処理を実行し、S2オン信号が出力されると、静止画の撮像処理及び記録処理を実行する。尚、AF制御及びAE制御は、それぞれ操作部222によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。
 また、動画撮影モードの場合、シャッタレリーズスイッチ22が全押しされることによってS2オンの信号が出力されると、カメラ本体200は、動画の記録を開始する動画記録モードになり、動画の画像処理及び記録処理を実行し、その後、シャッタレリーズスイッチ22が再び全押しされることによってS2オンの信号が出力されると、カメラ本体200は、スタンバイ状態になり、動画の記録処理を一時停止する。
 尚、シャッタレリーズスイッチ22は半押しと全押しとからなる2段ストローク式のスイッチの形態に限られず、1回の操作でS1オンの信号、S2オンの信号を出力しても良く、それぞれ個別のスイッチを設けてS1オンの信号、S2オンの信号を出力しても良い。
 また、タッチ式パネル等により操作指示を行う形態では、これら操作手段としてタッチ式パネルの画面に表示される操作指示に対応する領域をタッチすることで操作指示を出力するようにしても良く、撮像準備処理や撮像処理を指示するものであれば操作手段の形態はこれらに限られない。
 撮像により取得された静止画又は動画は、圧縮伸張処理部208により圧縮され、圧縮された画像データは、撮像日時、GPS情報、撮像条件(F値、シャッタースピード、ISO感度等)の所要の付属情報が、ヘッダに付加された画像ファイルとされた後、メディア制御部210を介してメモリカード212に格納される。
 本体側CPU220は、カメラ本体200全体の動作及び交換レンズ100の光学部材の駆動等を統括制御するもので、シャッタレリーズスイッチ22を含む操作部222等からの入力に基づき、カメラ本体200の各部及び交換レンズ300を制御する。
 時計部224は、タイマとして、本体側CPU220からの指令に基づいて時間を計測する。また、時計部224は、カレンダとして、現在の年月日及び時刻を計測する。
 フラッシュROM226は、読み取り及び書き込みが可能な不揮発性メモリであり、設定情報を記憶する。
 ROM228には、本体側CPU220が実行するカメラ制御プログラム、イメージセンサ201の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されている。本体側CPU220は、ROM228に格納されたカメラ制御プログラムに従い、RAM207を作業領域としながらカメラ本体200の各部、及び交換レンズ300を制御する。
 AF制御部230は、位相差AFの制御に必要なデフォーカス量を算出し、算出したデフォーカス量に基づいて焦点調節部209を介してイメージセンサ201の位置を制御する。
 AF制御部230は、図11に示すように位相ずれ量検出部230A及びデフォーカス量算出部230Bを含む。
 位相ずれ量検出部230A(第2の位相ずれ量検出部)は、イメージセンサ201のAF領域内の第1の位相差画素PAの出力及び第2の位相差画素PBの出力に基づいて位相ずれ量を検出する。位相ずれ量は、第1の位相差画素PAの各出力データと第2の位相差画素PBの各出力データの相関が最大になるとき(第1の位相差画素PAと第2の位相差画素PBの各出力データの差分絶対値の積算値が最小になるとき)の各出力データ間のシフト量から算出することができる。
 デフォーカス量算出部230Bは、位相ずれ量検出部230Aにより検出された位相ずれ量と、交換レンズ100の現在のF値(光線角度)に対応する係数とを乗算することによりデフォーカス量を算出する。
 本例のように互換性のない交換レンズ100の場合、カメラ本体200により交換レンズ100を制御することができないが、焦点調節部209によりイメージセンサ201を光軸方向に移動させることにより自動的に焦点調節を行うことができる。
 即ち、AF制御部230は、AF制御を行う場合にデフォーカス量算出部230Bにより算出されたデフォーカス量に基づいて焦点調節部209を駆動制御し、イメージセンサ201を算出されたデフォーカス量だけ移動させる。これにより、デフォーカス量がゼロとなる位置(位相差が最小となる位置)にイメージセンサ201を移動させることができ、イメージセンサ201の結像面に被写体像を合焦させる位相差AFを行うことができる。
 尚、AFは、位相差AFに限定されず、例えば、コントラストAFでもよい。コントラストAFの場合、AF制御部230は、AF領域内におけるG画素(Gのカラーフィルタを有する画素)のG信号から高周波成分を抽出し、抽出した高周波成分の絶対値の積分値(焦点評価値)を算出し、算出した焦点評価値が最大となる位置(即ち、コントラストが最大になる位置)に焦点調節部209を介してイメージセンサ201を移動させる。
 明るさ検出部232(測光部)は、被写体の明るさ(被写体輝度)を検出する部分であり、被写体輝度に対応するAE制御及びAWB(Auto White Balance)制御に必要な数値(露出値(EV値(exposure value)))を算出する。明るさ検出部232は、イメージセンサ201を介して取得した画像の輝度、画像の輝度の取得時のシャッタースピード及びF値によりEV値を算出する。
 本体側CPU220は、互換性のある交換レンズ300の場合、明るさ検出部232から得たEV値に基づいて所定のプログラム線図からF値、シャッタースピード及びISO感度を決定し、AE制御を行うことができる。
 また、本体側CPU220は、互換性のない交換レンズ100の場合、イメージセンサ201を介して取得した画像の輝度が、適正な輝度になるようにシャッタースピード及びISO感度を決定し、AE制御を行うことができる。
 ホワイトバランス補正部234は、RGBデータ(Rデータ、Gデータ及びBデータ)の色データ毎のホワイトバランスゲイン(WB(White Balance)ゲイン)Gr,Gg,Gbを算出し、Rデータ、Gデータ及びBデータに、それぞれ算出したWBゲインGr,Gg,Gbを乗算することによりホワイトバランス補正を行う。ここで、WBゲインGr,Gg,Gbの算出方法としては、被写体の明るさ(EV値)によるシーン認識(屋外、屋内の判定等)及び周囲光の色温度等に基づいて被写体を照明している光源種を特定し、予め光源種毎に適切なWBゲインが記憶されている記憶部から特定した光源種に対応するWBゲインを読み出す方法が考えられるが、少なくともEV値を使用してWBゲインGr,Gg,Gbを求める他の公知の方法が考えられる。
 無線通信部236は、Wi-Fi(Wireless Fidelity)(登録商標)、Bluetooth(登録商標)等の規格の近距離無線通信を行う部分であり、周辺のデジタル機器(スマートフォン、等の携帯端末)との間で必要な情報の送受信を行う。
 GPS受信部238は、本体側CPU220の指示に従って、複数のGPS衛星から送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、カメラ本体200の緯度、経度、及び高度からなるGPS情報を取得する。取得されたGPS情報は、撮像された画像の撮像位置を示す付属情報として画像ファイルのヘッダに記録することができる。
 電源制御部240は、本体側CPU220の指令に従って、バッテリ242から供給される電源電圧をカメラ本体200の各部に与える。また、電源制御部240は、本体側CPU220の指令に従って、本体マウント260及びレンズマウント160を介して、バッテリ242から供給される電源電圧を、互換性のある交換レンズ300の各部に与える。
 レンズ電源スイッチ244は、本体側CPU220の指令に従って、本体マウント260及びレンズマウント360を介して交換レンズ300に与える電源電圧のオン及びオフの切り替えとレベルの切り替えを行う。
 本体側通信部250は、本体側CPU220の指令に従って、本体マウント260及びレンズマウント360を介して接続された交換レンズ300のレンズ側通信部350との間で、リクエスト信号、回答信号の送受信(双方向通信)を行う。尚、本体マウント260には、図1に示すように複数の端子260Aが設けられており、交換レンズ300がカメラ本体200に装着(レンズマウント360と本体マウント260とが接続)されると、本体マウント260に設けられた複数の端子260A(図1)と、レンズマウント360に設けられた複数の端子(図示せず)とが電気的に接続され、本体側通信部250とレンズ側通信部350との間で双方向通信が可能になる。
 内蔵フラッシュ30(図1)は、例えば、TTL(Through The Lens)自動調光方式のフラッシュであり、フラッシュ発光部270と、フラッシュ制御部272とから構成されている。
 フラッシュ制御部272は、フラッシュ発光部270から発光するフラッシュ光の発光量(ガイドナンバー)を調整する機能を有する。即ち、フラッシュ制御部272は、本体側CPU220からのフラッシュ撮像指示に同期してフラッシュ発光部270を発光させ、交換レンズ100又は300の撮像光学系102又は302を介して入射する反射光(周囲光を含む)の測光を開始し、測光値が標準露出値に達すると、フラッシュ発光部270からのフラッシュ光の発光を停止させる。
 フォーカルプレーンシャッタ(FPS:focal-plane shutter)280は、撮像装置10のメカシャッタを構成し、イメージセンサ201の直前に配置される。FPS制御部296は、本体側CPU220からの入力情報(S2オン信号、シャッタスピード等)に基づいてFPS280の先幕、後幕の開閉を制御し、イメージセンサ201における露光時間(シャッタスピード)を制御する。
 [情報取得方法の原理]
 次に、互換性のない交換レンズ100がカメラ本体200に装着された場合に、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報を取得する方法を、原理的に説明する。以下、イメージセンサ201に対する光線角度に関連する情報として、イメージセンサ201のセンサ中心における光線角度を取得する場合について説明する。
 図12は、イメージセンサ201の通常画素(G画素)、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフであり、イメージセンサ201のx方向(水平方向)の角度に対する通常画素(G画素)の感度Gc,第1の位相差画素PAの感度PAc,及び第2の位相差画素PBの感度PBcを示している。
 図12に示すようにG画素の感度Gcが一番高く、第1の位相差画素PA及び第2の位相差画素PBの感度PAc,PBcは、G画素よりも低い。また、第1の位相差画素PAと第2の位相差画素PBとは、開口の左半分及び右半分が遮光膜MA,MBで遮光されていることから、第1の位相差画素PAの感度PAcと第2の位相差画素PBの感度PBcとは、入射角ゼロを中心にして対称性を有するとともに、感度のピーク位置がずれる。
 図13は、イメージセンサ201のG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフ(図12に示したグラフ)と、交換レンズ100のF値がF2の場合における、イメージセンサ201の中心部の画素(G画素、第1の位相差画素PA及び第2の位相差画素PB)に入射する光束の角度範囲とを示す図であり、図14は、イメージセンサ201のG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフと、交換レンズ100のF値がF4の場合における、イメージセンサ201の中心部の画素に入射する光束の角度範囲とを示す図である。
 図13及び図14からも明らかなように、交換レンズ100のF値が小さい程、イメージセンサ201の中心部の画素に入射する光束の角度範囲(即ち、イメージセンサ201に対する光線角度)が大きくなる。
 いま、図15に示すように、イメージセンサ201を、交換レンズ100の撮像光学系102の光軸Lの方向に第1の位置P1から第2の位置P2に移動させると、第1の位置P1における、第1の位相差画素PA及び第2の位相差画素PBにより検出される位相ずれ量(第1の位相ずれ量)と、第2の位置P2における、第1の位相差画素PA及び第2の位相差画素PBにより検出される位相ずれ量(第2の位相ずれ量)とが異なることが分かる。また、第1の位相ずれ量と第2の位相ずれ量は、交換レンズ100のF値の大きさ(光線角度の大きさ)によっても異なる。
 したがって、イメージセンサ201が第1の位置P1に位置する場合の第1の位相ずれ量と、イメージセンサ201が第1の位置P1から移動して第2の位置に位置する場合の第2の位置ずれ量とを検出することで、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報を取得することができる。
 図16は、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報を取得する、カメラ本体200の本体側CPU220の機能を示すブロック図である。
 図16に示すように本体側CPU220(撮像装置)は、フラッシュROM226又はROM228に格納された情報取得プログラムを実行することより各種の処理部として機能し、この実施形態では、センサ駆動部220A、焦点領域情報取得部220B、位相差画素情報取得部220C、及び情報取得部220Dとしての機能を有する。上記情報取得プログラムが格納される媒体は、ハードディスク、CD(Compact Disk)、DVD(Digital Versatile Disk)、各種半導体メモリ等の、非一時的かつコンピュータ読取可能な記録媒体であってもよい。
 撮像装置10の操作部222には、情報取得モード(F値取得モード)を設定するモード設定部が設けられている。ユーザが交換レンズ100の絞りリングを操作し、絞り108のF値を切り換える場合、ユーザは、モード設定部を操作してF値取得モードの設定を行い、F値取得用の撮像を行う。尚、F値取得用の撮像は、コントラストの高い被写体を撮像することが好ましい。F値取得を行う場合、イメージセンサ201の全領域のうちの焦点調節領域内における、第1の位相差画素PA及び第2の位相差画素PBの各出力データに基づいて第1の位相差画素PAの各出力データと、第2の位相差画素PBの各出力データとの位相ずれ量(第1の位相ずれ量、第2の位相ずれ量)を精度よく検出できるようにするためである。
 モード設定部によりF値取得モードが設定された状態で、撮像指示部として機能するシャッタレリーズスイッチ22から撮像の指示が入力されると、本体側CPU220のセンサ駆動部220A、焦点領域情報取得部220B、位相差画素情報取得部220C、及び情報取得部220Dは、それぞれ以下に示すF値取得用の動作を行う。
 センサ駆動部220Aは、焦点調節部209を介して交換レンズ100の光軸方向に移動させる部分であり、イメージセンサ201を第1の位置P1及び第2の位置P2に移動させる(図15参照)。
 第1の位置P1は、イメージセンサ201のホームポジション位置でもよいし、ボケが大きくて位相ずれ量を精度よく検出できない場合には、位相ずれ量を精度よく検出できる任意の位置でもよい。
 センサ駆動部220Aは、被写体に焦点が合う合焦位置の方向に第1の位置P1からイメージセンサ201を規定量zだけ焦点調節部209を介して移動させることが好ましい。第1の位置P1から規定量zだけ移動した位置が、第2の位置P2である。位相差の検出が可能な第1の位置P1から、焦点が合う合焦位置の方向と逆方向にイメージセンサ201を移動せると、第2の位置P2において、位相差の検出が良好にできなくなる場合があるからである。
 焦点領域情報取得部220Bは、イメージセンサ201の全領域のうちの焦点調節領域を示す焦点領域情報を取得する部分であり、センサ中心領域等の予め設定された焦点調節領域、人物の顔領域等の主要被写体が存在する領域又はコントラストが高い領域を、焦点調節領域を示す焦点領域情報として取得する。
 位相差画素情報取得部220Cは、イメージセンサ201に設けられた第1の位相差画素PA及び第2の位相差画素PBのうち、焦点領域情報取得部220Bが取得した焦点調節領域内の第1の位相差画素PA及び第2の位相差画素PBの各出力データを取得するもので、イメージセンサ201が第1の位置P1に位置するときの第1の位相差画素PA及び第2の位相差画素PBの各出力データと、イメージセンサ201が第2の位置P2に位置するときの第1の位相差画素PA及び第2の位相差画素PBの各出力データを取得する。
 情報取得部220Dは、第1の位置P1及び第2の位置P2における第1の位相差画素PA及び第2の位相差画素PBの各出力データに基づいて、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報を取得する。
 情報取得部220Dは、第1の位置P1及び第2の位置P2における第1の位相差画素PA及び第2の位相差画素PBの各出力データに基づいて第1の位置P1及び第2の位置P2における各々の位相ずれ量を検出することができる。第1の位置P1及び第2の位置P2にて検出される位相ずれ量の変化量は、イメージセンサ201の移動量と、交換レンズ100のF値の大きさ(光線角度の大きさ)によって異なるが、イメージセンサ201の移動量が既知であれば、イメージセンサ201の移動量と位相ずれ量の変化量とから光線角度を算出することができる。
 図17は、図16に示した情報取得部220Dの処理の第1の実施形態を示す機能ブロック図であり、特にイメージセンサ201に対する光線角度に関連する情報として、光線角度を算出する場合に関して示している。
 図17に示す情報取得部220D-1は、主として第1の位相ずれ量検出部221A、第1の演算部221B、及び第2の演算部221Cから構成されている。
 第1の位相ずれ量検出部221Aは、イメージセンサ201が第1の位置P1に位置しているときのイメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの出力に基づいて、第1の位置P1における第1の位相ずれ量を検出するとともに、イメージセンサ201が第2の位置P2に位置しているときのイメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの出力に基づいて、第2の位置P2における第2の位相ずれ量を検出する。
 図18は、第1の位相ずれ量検出部221Aにより検出される第1の位置P1での第1の位相ずれ量d1と、第2の位置P2での第2の位相ずれ量d2とを示している。尚、イメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの出力に基づく位相ずれ量の検出は、位相ずれ量検出部230A(第2の位相ずれ量検出部)と同様に行われるため、ここでは詳細な説明は省略する。
 第1の演算部221Bは、第1の位相ずれ量検出部221Aにより検出された第1の位置P1における第1の位相ずれ量d1と第2の位置P2における第2の位相ずれ量d2との差Δd(=d1-d2)を算出する。
 第2の演算部221Cは、第1の演算部221Bにより算出された差Δdと、イメージセンサ201が移動した第1の位置P1と第2の位置P2との間の移動量(規定量z)とに基づいてイメージセンサ201のセンサ中心における光線角度θを算出する。
 図19は、図18の要部拡大図である。
 図19に示すようにイメージセンサ201のセンサ中心における第1の位相ずれ量d1及び第2の位置P2位相ずれ量d1で規定される角度(図19に示す角度θg)は、第1の演算部221Bにより算出された差Δdと規定量zとから、次式で表すことができる。
[数1]
 tanθg=(Δd/2)/z
 θg=tan-1(Δd/2z)
 第2の演算部221Cは、第1の演算部221Bにより算出された差Δdと規定量zとから、[数1]式により角度θgを算出することができる。
 一方、図18に示すようにイメージセンサ201のセンサ中心における光線角度θは、イメージセンサ201のセンサ中心に入射する光束の主光線(この場合、光軸L)と、上線(射出瞳又は入射瞳の上の縁を通る光線)とのなす角度である。
 [数1]式により算出される角度θgは、イメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの入射角特性(図12参照)を反映した角度であり、光線角度θよりも小さい角度になる。
 ここで、第1の位相差画素PA又は第2の位相差画素PB入射角特性を、I(θ)とすると、角度θgと光線角度θとは、次式の関係にある。
 [数2]
 θg=Σ(θ×I(θ))/Σθ
 したがって、第2の演算部221Cは、算出した角度θgに基づいて光線角度θを求めることができる。例えば、角度θgに、角度θgと光線角度θとの関係を示す補正係数を乗算することで、光線角度θを求めること(角度θgを光線角度θに換算すること)ができる。
 尚、角度θgと光線角度θとの関係は、入射角特性に依存するため、予め角度θgと光線角度θとの関係について、補正テーブル(像高毎に補正係数を記憶した補正テーブル)を用意し、像高に対応する補正係数を使用することが好ましい。
 図20は、図16に示した情報取得部220Dの処理の第2の実施形態を示す機能ブロック図である。尚、図20において、図17に示した第1の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図20に示す第2の実施形態の情報取得部220D-2は、換算部221Dが追加されている点で、図17に示した第1の実施形態と相違する。
 換算部221Dは、第2の演算部221Cにより算出された光線角度θを、所定の換算式によりF値又は開口数に換算する。
 以下、図18を参照しながら、光線角度θからF値又は開口数を換算する換算式について説明する。
 図18において、撮像光学系102の開口径をD,開口径Dの半径をr,焦点距離をf及び光線角度をθとする。
 F値は、F値の定義により次式で表すことができる。
[数3]
 F=f/D
 また、図18に示した撮像光学系102の開口径D,開口径Dの半径r,焦点距離f及び光線角度θにおいて正弦条件を満たす場合、sinθは、次式で表すことができる。
[数4]
 sinθ=r/f=D/(2f)
 [数3]式及び[数4]から、F値は、次式で表すことができる。
[数5]
 F=1/(2sinθ)
 また、空気中の開口数NAは、次式で表すことができる。
[数6]
 NA=sinθ
 また、F値と開口数とは、次式で関係付けられている。
[数7]
 F=1/(2NA)
 上記のようにF値、開口数、及び光線角度は、相互に関係しており、これらのいずれか1つが分かると、他の2つを換算することができる。
 本例の換算部221Dは、第2の演算部221Cにより算出された光線角度θを、F値又は開口数に換算するため、上記[数5]式又は[数6]式を使用することによりF値又は開口数に換算することができる。
 また、[数4]式に示したように、光線角度θに対応する値(sinθ)が算出されるため、この値(sinθ)を、[数5]式に代入することで、F値を算出することができる。また、F値が算出されると、[数7]式から開口数NAを算出することができる。
 図21は、図16に示した情報取得部220Dの処理の第3の実施形態を示す機能ブロック図である。尚、図21において、図17に示した第1の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図21に示す第3の実施形態の情報取得部220D-3は、主として光線角度θを算出する第2の演算部221Cの代わりに、読み出し部221Eを備えている点で、図17に示した第1の実施形態と相違する。
 読み出し部221Eは、第1の演算部221Bにより算出された差Δdに基づいて、交換レンズ100の現在のF値を取得する。
 具体的には、撮像装置10は、予め交換レンズ100のF値毎に、第1の演算部221Bにより算出される差Δdを関連付けて記憶するフラッシュROM226又はROM228等の記憶部を備える。製品出荷前に、上記の差ΔdとF値との関係を示すテーブルをROM228に記憶させてもよいし、ネットワーク上のサーバから上記の差ΔdとF値との関係を示すテーブルをダウンロードし、フラッシュROM226に記憶させてもよい。
 読み出し部221Eは、第1の演算部221Bにより算出された差Δdに基づいてフラッシュROM226又はROM228からその差Δdに対応するF値を読み出し、読み出したF値を、交換レンズ100の現在のF値として取得する。
 フラッシュROM226又はROM228に、算出された差Δd及びそれに対応するF値が記憶されていない場合には、算出された差Δdと、その差Δdの前後の2つの記憶された差Δdとに基づいて、記憶された2つの差Δdに対応する2つのF値のうちの、算出された差Δdに近い方の差Δdを採用してF値を読み出してもよいし、算出された差Δdと、算出された差Δdを挟んで記憶された2つの差Δdとに基づいて、記憶された2つの差Δdに対応する2つのF値を補間してF値を算出するようにしてもよい。
 尚、フラッシュROM226又はROM228等の記憶部が、交換レンズ100の開口数毎に、第1の演算部221Bにより算出される差Δdを関連付けて記憶してもよく、この場合には、第1の演算部221Bにより算出される差Δdに基づいて交換レンズ100の現在の開口数を読み出すことができる。
 また、上記の差Δdの代わりに、イメージセンサ201の移動量(規定量z)で、差Δdを除算した値を使用してもよい。
 これらの本実施形態によれば、互換性のない交換レンズ100がカメラ本体200に装着された場合でも、交換レンズ100の現在の光線角度、F値又は開口数を簡単かつ精度よく取得することができ、また、位相差画素を有するイメージセンサ201を光軸方向に移動させて位相差AFを行う機能を備えた撮像装置10の場合、特別なハードウェアを追加することなく、交換レンズ100の現在の光線角度、F値又は開口数を取得することができ、安価な装置とすることができる。尚、互換性のある交換レンズ300がカメラ本体200に装着された場合、交換レンズ300とカメラ本体200との間で通信することができ、カメラ本体200は、交換レンズ300から通信によりF値を含むレンズ情報を取得することができるため、本実施形態により光線角度、F値又は開口数を取得する必要はない。
 また、交換レンズ100の「F値」を取得することにより、「シャッタースピード」、及び「画像の輝度(明るさ)」の情報を元に、被写体の明るさ(画像の輝度ではなく真の被写体の明るさ)を算出することができる。また、真の被写体の明るさは、シーン認識(屋外、屋内の判定等)に利用され、オートホワイトバランス調整等に利用することができる。
 更に、互換性のない交換レンズ100がカメラ本体200に装着された場合でも、撮像された画像の付属情報として画像ファイルのヘッダにF値又は開口数を記録することができる。
 [情報取得方法]
 図22は、本発明に係る情報取得方法の第1の実施形態を示すフローチャートである。
 図22において、本体側CPU220は、操作部222によりF値取得モード(情報取得モード)が設定されているか否かを判別する(ステップS10)。F値取得モードが設定されている場合には、更にシャッタレリーズスイッチ22から撮像の指示(S2オンの信号)が出力されたか否かを判別する(ステップS12)。
 F値取得モードが設定され、かつS2オンの信号が出力されると、本体側CPU220は、F値取得用の撮像を行う。
 即ち、位相差画素情報取得部220Cは、イメージセンサ201が第1の位置P1に位置するときの第1の位相差画素PA及び第2の位相差画素PBの各出力データであって、焦点調節領域内の第1の位相差画素PA及び第2の位相差画素PBの各出力データを取得する(ステップS14)。
 続いて、センサ駆動部220Aは、被写体に焦点が合う合焦位置の方向に第1の位置P1からイメージセンサ201を規定量zだけ移動させる(ステップS16)。第1の位置P1から規定量zだけ移動した位置が、第2の位置P2である。
 位相差画素情報取得部220Cは、ステップS14と同様に、イメージセンサ201が第2の位置P2に位置するときの第1の位相差画素PA及び第2の位相差画素PBの各出力データを取得する(ステップS18)。
 情報取得部220Dは、第1の位置P1及び第2の位置P2における第1の位相差画素PA及び第2の位相差画素PBの各出力データに基づいて、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサに対する光線角度、又は光線角度に関連する情報を取得する(ステップS20)。
 図23は、図22に示したステップS20の詳細を示すフローチャートである。
 図23において、第1の位相ずれ量検出部221A(図17)は、イメージセンサ201が第1の位置P1に位置しているときのイメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの出力に基づいて、第1の位置P1における第1の位相ずれ量を検出するとともに、イメージセンサ201が第2の位置P2に位置しているときのイメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの出力に基づいて、第2の位置P2における第2の位相ずれ量を算出する(ステップS21)。
 続いて、第1の演算部221Bは、ステップS21で検出された第1の位置P1における第1の位相ずれ量d1と第2の位置P2における第2の位相ずれ量d2との差Δdを算出する(ステップS22)。
 第2の演算部221Cは、ステップS22で算出された差Δdと、イメージセンサ201が移動した第1の位置P1と第2の位置P2との間の移動量(規定量z)とに基づいてイメージセンサ201のセンサ中心における光線角度θを算出する(ステップS23、[数1]式参照)。
 図24は、図22に示したステップS20に対応する他の処理方法を示すフローチャートである。尚、図24において、図23と共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 図24に示すフローチャートでは、光線角度θを算出するステップS23の代わりに、F値を読み出すステップS24を有する点で、図23に示したフローチャートと相違する。
 撮像装置10は、予め交換レンズ100のF値毎に、第1の演算部221Bにより算出される差Δdを関連付けて記憶するフラッシュROM226又はROM228等の記憶部を備える。
 図24に示すステップS24において、読み出し部221E(図21)は、ステップS22で算出された差Δdに基づいてフラッシュROM226又はROM228等の記憶部からその差Δdに対応するF値を読み出す。この読み出したF値を、交換レンズ100の現在のF値として取得する。
 尚、フラッシュROM226又はROM228等の記憶部が、交換レンズ100の開口数毎に差Δdを関連付けて記憶してもよく、この場合には、ステップS22で算出された差Δdに基づいて交換レンズ100の現在の開口数を読み出すことができる。
 [その他]
 本実施形態では、センサ駆動部220Aは、焦点調節部209を介してイメージセンサ201を第1の位置P1及び第2の位置P2に移動させるようにしたが、これに限らず、第1の位置P1及び第2の位置P2を含む3箇所以上の位置に移動させるようにしてもよい。この場合、位相差画素情報取得部220Cは、イメージセンサ201が3箇所以上の各位置に移動したときのイメージセンサ201の第1の位相差画素PA及び第2の位相差画素PBの出力をそれぞれ取得し、情報取得部220Dは、3箇所以上の各位置における第1の位相差画素PA及び第2の位相差画素PBの出力に基づいて、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報を取得することが好ましい。これにより、より精度の高い光線角度に関連する情報を取得することができる。
 また、本発明に適用されるイメージセンサは、通常画素と位相差画素(第1、第2の位相差画素)とが混在しているが、通常画素を有さない位相差画素のみで構成されたイメージセンサでもよい。位相差画素のみで構成されたイメージセンサの場合、隣接する一対の第1、第2の位相差画素の出力を加算することで、通常画素と同等の出力を得ることできる。
 また、本実施形態において、例えば、センサ駆動部220A、焦点領域情報取得部220B、位相差画素情報取得部220C、及び情報取得部220D等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 また、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10 撮像装置
20 ファインダ窓
22 シャッタレリーズスイッチ
23 シャッタースピードダイヤル
24 露出補正ダイヤル
25 電源レバー
26 接眼部
27 MENU/OKキー
28 十字キー
29 再生ボタン
30 内蔵フラッシュ
100、300 交換レンズ
102、302 撮像光学系
104、304 レンズ群
108、308 絞り
160、360 レンズマウント
200 カメラ本体
201 イメージセンサ
202 イメージセンサ制御部
203 アナログ信号処理部
204 A/D変換器
205 画像入力コントローラ
206 デジタル信号処理部
207 RAM
208 圧縮伸張処理部
209 焦点調節部
210 メディア制御部
212 メモリカード
214 表示制御部
216 モニタ
220 本体側CPU
220A センサ駆動部
220B 焦点領域情報取得部
220C 位相差画素情報取得部
220D、220D-1、220D-2、220D-3 情報取得部
221A 第1の位相ずれ量検出部
221B 第1の演算部
221C 第2の演算部
221D 換算部
221E 読み出し部
222 操作部
224 時計部
226 フラッシュROM
228 ROM
230 AF制御部
230A 位相ずれ量検出部
230B デフォーカス量算出部
232 明るさ検出部
234 ホワイトバランス補正部
236 無線通信部
238 GPS受信部
240 電源制御部
242 バッテリ
244 レンズ電源スイッチ
250 本体側通信部
260 本体マウント
270 フラッシュ発光部
272 フラッシュ制御部
296 FPS制御部
316 フォーカスレンズ制御部
318 絞り制御部
320 レンズ側CPU
322 RAM
324 ROM
326 フラッシュROM
350 レンズ側通信部
D 開口径
Gc、PAc、PBc 感度
L 光軸
MA、MB 遮光膜
ML マイクロレンズ
NA 開口数
P1 第1の位置
P2 第2の位置
PA 第1の位相差画素
PB 第2の位相差画素
PD フォトダイオード
S10~S24 ステップ
Y 輝度データ
d1 第1の位相ずれ量
d2 第2の位相ずれ量
f 焦点距離
r 半径
z 規定量
θ 光線角度

Claims (23)

  1.  第1の位相差画素と、前記第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有するイメージセンサと、
     交換レンズが脱着可能な装着部と、
     前記装着部に装着された前記交換レンズの光軸方向に前記イメージセンサを移動させるセンサ駆動部であって、前記イメージセンサを第1の位置及び第2の位置に移動させる前記センサ駆動部と、
     前記センサ駆動部により前記イメージセンサが前記第1の位置に移動したときの前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力、及び前記イメージセンサが前記第2の位置に移動したときの前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得する位相差画素情報取得部と、
     前記第1の位置及び前記第2の位置における前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する情報取得部と、
     を備えた撮像装置。
  2.  前記センサ駆動部は、前記第1の位置に対し、被写体に焦点が合う合焦位置の方向に前記第1の位置から前記イメージセンサを規定量だけ移動させた位置を前記第2の位置として前記イメージセンサを移動させる請求項1に記載の撮像装置。
  3.  前記イメージセンサの全領域のうちの焦点調節領域を示す焦点領域情報を取得する焦点領域情報取得部を備えた請求項1に記載の撮像装置。
  4.  前記焦点領域情報取得部は、前記イメージセンサの全領域のうちの予め設定された焦点調節領域、主要被写体が存在する領域又はコントラストが高い領域を、前記焦点調節領域を示す焦点領域情報として取得する請求項3に記載の撮像装置。
  5.  前記センサ駆動部は、前記取得された前記焦点調節領域に対応する前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて位相差の検出が可能な位置を前記第1の位置とすると、前記焦点調節領域内の被写体に焦点が合う合焦位置の方向に、前記第1の位置から前記イメージセンサを規定量だけ移動させた位置を前記第2の位置として前記イメージセンサを移動させる請求項3又は4に記載の撮像装置。
  6.  前記イメージセンサに対する光線角度に関連する情報は、前記イメージセンサに対する光線角度、前記交換レンズの絞り値又は前記交換レンズの開口数である請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記情報取得部は、
     前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量とを検出する第1の位相ずれ量検出部と、
     前記第1の位相ずれ量検出部により検出された前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量との差を算出する第1の演算部と、
     前記算出した差と前記イメージセンサが移動した前記第1の位置と前記第2の位置との間の移動量とに基づいて前記イメージセンサに対する光線角度を算出する第2の演算部と、を有し、
     前記第2の演算部により演算した前記光線角度を、前記イメージセンサに対する光線角度に関連する情報として取得する請求項1から6のいずれか1項に記載の撮像装置。
  8.  前記第2の演算部は、前記算出した差と前記イメージセンサが移動した前記第1の位置と前記第2の位置との間の移動量とに基づいて前記第1の位相ずれ量及び前記第2の位相ずれ量で規定される、前記光線角度よりも小さい角度を算出し、前記算出した角度に補正係数を乗算して前記光線角度を算出する請求項7に記載の撮像装置。
  9.  前記情報取得部は、前記第2の演算部により演算した前記光線角度を絞り値又は開口数に換算する換算部を更に含み、
     前記換算部により換算された前記絞り値又は前記開口数を、前記イメージセンサに対する光線角度に関連する情報として取得する請求項7又は8に記載の撮像装置。
  10.  前記第1の位置の第1の位相ずれ量と前記第2の位置の第2の位相ずれ量との差と、交換レンズの絞り値又は開口数との関係を、交換レンズの絞り値毎又は開口数毎に記憶する記憶部を備え、
     前記情報取得部は、
     前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量とを検出する第1の位相ずれ量検出部と、
     前記第1の位相ずれ量検出部により検出された前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量との差を算出する第1の演算部と、
     前記第1の演算部により算出された差に基づいて前記記憶部から前記差に対応する絞り値又は開口数を読み出す読み出し部と、を有し、
     前記読み出し部により読み出した前記絞り値又は開口数を、前記イメージセンサに対する光線角度に関連する情報として取得する請求項1から6のいずれか1項に記載の撮像装置。
  11.  交換レンズとの間で通信を行う通信部と、
     装着された交換レンズから前記通信部を介して前記交換レンズの絞り値を取得できない場合に前記センサ駆動部、前記位相差画素情報取得部及び前記情報取得部をそれぞれ動作させる制御部と、
     を備えた請求項1から10のいずれか1項に記載の撮像装置。
  12.  前記通信部を介して取得した交換レンズの絞り値又は開口数若しくは前記情報取得部により取得した交換レンズの絞り値又は開口数を使用して被写体の明るさを算出する測光部を備えた請求項11に記載の撮像装置。
  13.  前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて位相ずれ量を検出する第2の位相ずれ量検出部と、
     前記イメージセンサに対する光線角度に関連する情報と前記位相ずれ量とに基づいてデフォーカス量を算出するデフォーカス量算出部と、
     前記算出された前記デフォーカス量に基づいて前記イメージセンサを移動させる焦点調節部と、
     を備えた請求項1から12のいずれか1項に記載の撮像装置。
  14.  情報取得モードを設定するモード設定部を備え、
     前記センサ駆動部、前記位相差画素情報取得部、及び前記情報取得部は、それぞれ前記モード設定部により前記情報取得モードが設定された状態で撮像指示部から撮像の指示が入力された場合に動作する請求項1から13のいずれか1項に記載の撮像装置。
  15.  撮像指示部から撮像の指令が入力されると、前記イメージセンサを介して画像データを取得する画像取得部と、
     前記取得した画像データを格納する画像ファイルを作成し、前記画像ファイルを記録媒体に記録する記録部と、を備え、
     前記記録部は、前記画像ファイルのヘッダに、前記情報取得部が取得した前記イメージセンサに対する光線角度に関連する情報を記録する請求項1から14のいずれか1項に記載の撮像装置。
  16.  前記センサ駆動部は、前記イメージセンサを前記第1の位置及び前記第2の位置を含む3箇所以上の位置に移動させ、
     前記位相差画素情報取得部は、前記イメージセンサが前記3箇所以上の各位置に移動したときの前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得し、
     前記情報取得部は、前記3箇所以上の各位置における前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する請求項1から15のいずれか1項に記載の撮像装置。
  17.  イメージセンサ上に第1の位相差画素と前記第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有する前記イメージセンサを備える撮像装置における情報取得方法であって、
     前記イメージセンサが、前記撮像装置に装着された交換レンズの光軸方向の第1の位置に位置するときの前記イメージセンサから前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得するステップと、
     センサ駆動部により前記第1の位置から前記交換レンズの光軸方向の第2の位置に前記イメージセンサを移動させるステップと、
     前記イメージセンサが前記第2の位置に位置するときの前記イメージセンサから前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得するステップと、
     前記第1の位置及び前記第2の位置における前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得するステップと、
     を含む情報取得方法。
  18.  前記イメージセンサを移動させるステップは、前記第1の位置に対し、被写体に焦点が合う合焦位置の方向に前記第1の位置から前記イメージセンサを規定量だけ移動させた位置を前記第2の位置として前記イメージセンサを移動させる請求項17に記載の情報取得方法。
  19.  前記イメージセンサに対する光線角度に関連する情報は、前記イメージセンサに対する光線角度、前記交換レンズの絞り値又は前記交換レンズの開口数である請求項17又は18に記載の情報取得方法。
  20.  前記イメージセンサに対する光線角度に関連する情報を取得するステップは、
     前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量とを検出するステップと、
     前記検出された前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量との差を算出するステップと、
     前記算出した差と前記イメージセンサが移動した前記第1の位置と前記第2の位置との間の移動量とに基づいて前記イメージセンサに対する光線角度を算出するステップと、を含み、
     前記算出した前記光線角度を、前記イメージセンサに対する光線角度に関連する情報として取得する請求項17から19のいずれか1項に記載の情報取得方法。
  21.  前記撮像装置は、前記第1の位置の第1の位相ずれ量と前記第2の位置の第2の位相ずれ量との差と、前記交換レンズの絞り値又は開口数との関係を、前記交換レンズの絞り値毎又は開口数毎に記憶する記憶部を備え、
     前記イメージセンサに対する光線角度に関連する情報を取得するステップは、
     前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量とを検出するステップと、
     前記検出された前記第1の位置における第1の位相ずれ量と前記第2の位置における第2の位相ずれ量との差を算出するステップと、
     前記算出された差に基づいて前記記憶部から前記差に対応する絞り値又は開口数を読み出すステップと、を含み、
     前記読み出した前記絞り値又は開口数を、前記イメージセンサに対する光線角度に関連する情報として取得する請求項17から19のいずれか1項に記載の情報取得方法。
  22.  イメージセンサ上に第1の位相差画素と前記第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有する前記イメージセンサを備える撮像装置に適用される情報取得プログラムであって、
     前記イメージセンサが、前記撮像装置に装着された交換レンズの光軸方向の第1の位置に位置するときの前記イメージセンサから前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得する機能と、
     センサ駆動部により前記第1の位置から前記交換レンズの光軸方向の第2の位置に前記イメージセンサを移動させる機能と、
     前記イメージセンサが前記第2の位置に位置するときの前記イメージセンサから前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得する機能と、
     前記第1の位置及び前記第2の位置における前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する機能と、
     を前記撮像装置に実現させる情報取得プログラム。
  23.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
     イメージセンサ上に第1の位相差画素と前記第1の位相差画素とは入射角特性が異なる第2の位相差画素とを有する前記イメージセンサを備える撮像装置における情報取得機能であって、
     前記イメージセンサが、前記撮像装置に装着された交換レンズの光軸方向の第1の位置に位置するときの前記イメージセンサから前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得する機能と、
     センサ駆動部により前記第1の位置から前記交換レンズの光軸方向の第2の位置に前記イメージセンサを移動させる機能と、
     前記イメージセンサが前記第2の位置に位置するときの前記イメージセンサから前記第1の位相差画素及び前記第2の位相差画素の出力をそれぞれ取得する機能と、
     前記第1の位置及び前記第2の位置における前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて、前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する機能と、
     を含む情報取得機能をコンピュータに実現させる記録媒体。
PCT/JP2018/035258 2017-09-28 2018-09-25 撮像装置、情報取得方法及び情報取得プログラム WO2019065554A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019545090A JP6856762B2 (ja) 2017-09-28 2018-09-25 撮像装置、情報取得方法及び情報取得プログラム
CN201880062135.7A CN111316161B (zh) 2017-09-28 2018-09-25 摄像装置、信息获取方法及信息获取程序
US16/832,075 US10791260B2 (en) 2017-09-28 2020-03-27 Imaging device, information acquisition method, and information acquisition program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-188867 2017-09-28
JP2017188867 2017-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/832,075 Continuation US10791260B2 (en) 2017-09-28 2020-03-27 Imaging device, information acquisition method, and information acquisition program

Publications (1)

Publication Number Publication Date
WO2019065554A1 true WO2019065554A1 (ja) 2019-04-04

Family

ID=65903328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035258 WO2019065554A1 (ja) 2017-09-28 2018-09-25 撮像装置、情報取得方法及び情報取得プログラム

Country Status (4)

Country Link
US (1) US10791260B2 (ja)
JP (1) JP6856762B2 (ja)
CN (1) CN111316161B (ja)
WO (1) WO2019065554A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019065555A1 (ja) * 2017-09-28 2019-04-04 富士フイルム株式会社 撮像装置、情報取得方法及び情報取得プログラム
KR20210105056A (ko) * 2020-02-18 2021-08-26 에스케이하이닉스 주식회사 이미지 센서 및 이를 포함하는 촬영 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351925A (ja) * 2004-06-08 2005-12-22 Fuji Photo Film Co Ltd 撮像装置及び合焦制御方法
JP2006251033A (ja) * 2005-03-08 2006-09-21 Nikon Corp 一眼レフ電子カメラ
JP2012222602A (ja) * 2011-04-08 2012-11-12 Sony Corp 撮像装置及び撮像システム
JP2015129846A (ja) * 2014-01-07 2015-07-16 キヤノン株式会社 撮像装置およびその制御方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX339524B (es) * 2001-10-11 2016-05-30 Wyeth Corp Composiciones inmunogenicas novedosas para la prevencion y tratamiento de enfermedad meningococica.
JP2006259055A (ja) 2005-03-16 2006-09-28 Seiko Epson Corp カメラ
JP2007041046A (ja) * 2005-07-29 2007-02-15 Eastman Kodak Co 撮像装置
JP5191168B2 (ja) * 2007-06-11 2013-04-24 株式会社ニコン 焦点検出装置および撮像装置
JP5043626B2 (ja) * 2007-12-13 2012-10-10 キヤノン株式会社 撮像装置
JP5219865B2 (ja) * 2008-02-13 2013-06-26 キヤノン株式会社 撮像装置及び焦点制御方法
JP2011039499A (ja) * 2009-07-14 2011-02-24 Hoya Corp 自動焦点検出装置
JP2011059337A (ja) * 2009-09-09 2011-03-24 Fujifilm Corp 撮像装置
JP2012182332A (ja) * 2011-03-02 2012-09-20 Sony Corp 撮像素子および撮像装置
JP5808124B2 (ja) * 2011-03-24 2015-11-10 キヤノン株式会社 焦点検出装置及びその制御方法並びに焦点検出装置を有する撮像装置
JP5979849B2 (ja) * 2011-11-21 2016-08-31 キヤノン株式会社 撮像素子及び撮像装置
JP5914055B2 (ja) * 2012-03-06 2016-05-11 キヤノン株式会社 撮像装置
JP5753321B2 (ja) * 2012-09-19 2015-07-22 富士フイルム株式会社 撮像装置及び合焦確認表示方法
JP5635584B2 (ja) * 2012-12-20 2014-12-03 オリンパスイメージング株式会社 撮影機器、カメラシステム及びフォーカス制御のための情報を算出する方法
WO2014106916A1 (ja) * 2013-01-04 2014-07-10 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
DE112013006817B4 (de) * 2013-03-13 2022-07-14 Fujifilm Corporation Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm
JP6186900B2 (ja) * 2013-06-04 2017-08-30 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法、および撮像モジュール
JP5946970B2 (ja) 2013-09-27 2016-07-06 富士フイルム株式会社 撮像装置及び撮像方法
CN105580349B (zh) * 2013-09-27 2018-08-14 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
WO2015045785A1 (ja) * 2013-09-30 2015-04-02 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2015133594A (ja) * 2014-01-10 2015-07-23 株式会社リコー 撮像モジュール及び撮像装置
CN106415348B (zh) * 2014-02-07 2018-12-14 富士胶片株式会社 摄像装置及对焦控制方法
WO2015146380A1 (ja) * 2014-03-28 2015-10-01 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2016143951A (ja) 2015-01-30 2016-08-08 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
US10313579B2 (en) * 2017-08-31 2019-06-04 Qualcomm Incorporated Dual phase detection auto focus camera sensor data processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351925A (ja) * 2004-06-08 2005-12-22 Fuji Photo Film Co Ltd 撮像装置及び合焦制御方法
JP2006251033A (ja) * 2005-03-08 2006-09-21 Nikon Corp 一眼レフ電子カメラ
JP2012222602A (ja) * 2011-04-08 2012-11-12 Sony Corp 撮像装置及び撮像システム
JP2015129846A (ja) * 2014-01-07 2015-07-16 キヤノン株式会社 撮像装置およびその制御方法

Also Published As

Publication number Publication date
US10791260B2 (en) 2020-09-29
CN111316161A (zh) 2020-06-19
JP6856762B2 (ja) 2021-04-14
US20200228722A1 (en) 2020-07-16
CN111316161B (zh) 2021-11-23
JPWO2019065554A1 (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
JP6780745B2 (ja) 電子機器
JP4414486B2 (ja) 撮像装置およびカメラ
US11201999B2 (en) Imaging device, information acquisition method, and information acquisition program
WO2019087928A1 (ja) 撮像装置、ファインダ装置、撮像装置の制御方法、ファインダ装置の制御方法、撮像装置の制御プログラム及びファインダ装置の制御プログラム
US10791260B2 (en) Imaging device, information acquisition method, and information acquisition program
JP2009033410A (ja) 撮像装置
JP2017194558A (ja) 撮像装置および撮像方法
JP6998454B2 (ja) 撮像装置、撮像方法、プログラム及び記録媒体
JP2016143951A (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
US11483488B2 (en) Imaging apparatus, inter-exposure zoom imaging method, program, and recording medium
JP4281199B2 (ja) 電子カメラ
WO2019065553A1 (ja) 撮像装置、撮像方法及び撮像プログラム
JP5311993B2 (ja) 外部表示装置を備える撮像装置
JP6089390B2 (ja) 撮像装置および信号読み出し方法
JP2015204579A (ja) 撮像装置
JP2014127770A (ja) 撮像装置
JP2012199858A (ja) 撮像装置
JP2010232909A (ja) 撮像装置及びその駆動制御方法
JP2007053481A (ja) 撮像装置
JP2011146961A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18862712

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019545090

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18862712

Country of ref document: EP

Kind code of ref document: A1