WO2019065555A1 - 撮像装置、情報取得方法及び情報取得プログラム - Google Patents

撮像装置、情報取得方法及び情報取得プログラム Download PDF

Info

Publication number
WO2019065555A1
WO2019065555A1 PCT/JP2018/035259 JP2018035259W WO2019065555A1 WO 2019065555 A1 WO2019065555 A1 WO 2019065555A1 JP 2018035259 W JP2018035259 W JP 2018035259W WO 2019065555 A1 WO2019065555 A1 WO 2019065555A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
interchangeable lens
image sensor
unit
output
Prior art date
Application number
PCT/JP2018/035259
Other languages
English (en)
French (fr)
Inventor
貴嗣 青木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019545091A priority Critical patent/JP6911136B2/ja
Priority to CN201880062129.1A priority patent/CN111133378B/zh
Publication of WO2019065555A1 publication Critical patent/WO2019065555A1/ja
Priority to US16/832,354 priority patent/US11201999B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably

Definitions

  • the present invention relates to an imaging device, an information acquisition method, and an information acquisition program, and more particularly to a technique for acquiring information of an interchangeable lens mounted on an imaging device.
  • An imaging apparatus (camera) using an interchangeable lens can be roughly classified into two types of interchangeable lenses.
  • One of the interchangeable lenses is manufactured according to the communication standard of the camera body, and is an interchangeable lens capable of communicating with the camera body.
  • this type of interchangeable lens is attached to the camera body, the camera body communicates with the attached interchangeable lens, and lens information of the interchangeable lens (for example, the aperture value (F value of the diaphragm in the interchangeable lens) ), The lens position of the focus lens, the focal length of the interchangeable lens, etc.) can be completely acquired.
  • the other interchangeable lens is an interchangeable lens (not compatible interchangeable lens) that is not manufactured in accordance with the communication standard of the camera body and can not perform full communication with the camera body, and is made by a third party This is the case with the interchangeable lens or old lens.
  • the communication protocol etc. between the interchangeable lens and the camera body are different, some lens information can be acquired by the camera body, but at least the lens which can not acquire the F value is compatible in this example. It corresponds to the other interchangeable lens without.
  • an on-chip microlens for dividing one pixel of an image sensor into a plurality of regions and forming a pupil image of a photographing optical system on a plurality of regions, and a plurality of divided The current aperture of the interchangeable lens is provided based on the signals of a plurality of divided areas, provided with an image sensor having a reading unit for reading out the photoelectrically converted signal for each divided area and information on the aperture value can not be obtained from the interchangeable lens. The value has been detected.
  • the current diaphragm of the interchangeable lens is detected by the signals of the plurality of divided areas. The value can be detected.
  • Patent Document 2 in a camera capable of replacing a shooting lens, a difference between a TTL (through-the-lens) photometric value obtained by measuring light passing through the shooting lens and an external light photometric value obtained by direct photometry of external light.
  • the camera which obtains the aperture value set to the photographing lens based on the above is disclosed. That is, a table for determining the aperture value based on the difference between the TTL photometric value and the external light photometric value is prepared in accordance with the type of photographing lens, and the table is selected by inputting the type of photographing lens. Then, the aperture value corresponding to the difference between the TTL photometric value and the ambient light photometric value is read out from the selected table.
  • Patent Document 3 discloses a technique for estimating the aperture value of a lens barrel from the change in contrast value according to the position of the image sensor in the optical axis direction.
  • the contrast detection unit determines the contrast shape. Based on the table, the aperture value having the corresponding contrast shape is read out.
  • Patent Document 1 needs to include a special image sensor to estimate the aperture value. That is, one pixel of the image sensor is divided into a plurality of regions, and an on-chip microlens for focusing the pupil image of the imaging optical system into the plurality of regions and photoelectric conversion are performed for each of the plurality of divided regions. It is necessary to provide a special image sensor having a reading unit for reading out the signals respectively.
  • the invention described in Patent Document 3 estimates the aperture value of the lens barrel from the change of the contrast value according to the position in the optical axis direction of the image sensor.
  • the contrast (height of contrast) influences the change of the contrast value according to the position in the optical axis direction of the image sensor, and the aperture value can not be estimated correctly from the contrast shape.
  • An object of the present invention is to provide an imaging device, an information acquisition method, and an information acquisition program capable of acquiring information related to a ray angle easily and accurately.
  • an imaging device includes an image sensor having a first pixel and a second pixel having different incident angle characteristics from the first pixel, and an interchangeable lens.
  • a removable mounting unit a pixel information acquisition unit for acquiring an output of a first pixel and an output of a second pixel of an image sensor to which subject light is incident through an interchangeable lens mounted on the mounting unit, and pixel information acquisition When subject light enters the image sensor through the interchangeable lens based on the calculation unit that calculates the ratio between the output of the first pixel and the output of the second pixel acquired by the unit, and the ratio calculated by the calculation unit
  • an information acquisition unit for acquiring information related to a ray angle with respect to the image sensor.
  • the ratio of each output of the first pixel to the second pixel on the image sensor having different incident angle characteristics, and the time when subject light enters the image sensor through the interchangeable lens Focusing on the correspondence with the information related to the ray angle for the image sensor, the ratio of the output of the first pixel to the output of the second pixel is calculated, and the ray for the image sensor is calculated based on the calculated ratio. It is made to acquire information related to the angle.
  • the image sensor is configured to selectively receive the subject light passing through different regions of the interchangeable lens by pupil division, and the first phase difference pixel and the second phase difference pixel
  • the first pixel is a first phase difference pixel
  • the second pixel is a second phase difference pixel.
  • An image sensor for image plane phase difference AF Autofocus
  • the image sensor is configured to selectively receive the subject light passing through different regions of the interchangeable lens by pupil division, and the first phase difference pixel and the second phase difference A pixel and a normal pixel for receiving light of each subject, the first pixel being a first phase difference pixel or a second phase difference pixel, and the second pixel being a normal pixel Is preferred.
  • the ratio of the two does not change even if the ray angle to the image sensor changes, but the first phase difference pixel or Since the incident angle characteristics of the second phase difference pixel and the normal pixel are not symmetrical, the ratio of the two changes as the ray angle with respect to the image sensor changes. Therefore, it is preferable to determine the ratio of the first phase difference pixel or the second phase difference pixel to the normal pixel.
  • the information related to the ray angle with respect to the image sensor is the aperture value of the interchangeable lens, the numerical aperture of the interchangeable lens, or the ray angle with respect to the image sensor.
  • the aperture value, the numerical aperture, and the ray angle are mutually related, and if any one piece of information is obtained, other pieces of information can be calculated (converted) from the information.
  • the information related to the ray angle with respect to the image sensor is the aperture value of the interchangeable lens or the numerical aperture of the interchangeable lens, and the information of the first pixel and the second pixel.
  • the storage unit stores the ratio to the output for each diaphragm value of the interchangeable lens or for each numerical aperture of the interchangeable lens
  • the information acquisition unit is a diaphragm corresponding to the ratio from the storage unit based on the ratio calculated by the arithmetic unit.
  • the value or the numerical aperture is read out, and the read out aperture value or numerical aperture is obtained as the current aperture value or numerical aperture of the interchangeable lens.
  • an aperture value corresponding to the ratio closest to the ratio calculated by the calculation unit among the ratios stored in the storage unit or The numerical aperture may be read out and used as the current aperture value or numerical aperture of the interchangeable lens, or the ratio calculated by the calculation unit and the ratio before and after stored in the storage unit (before and after the calculated ratio).
  • the corresponding f-number or numerical aperture may be interpolated based on the current f-number or numerical aperture of the interchangeable lens.
  • the information related to the ray angle with respect to the image sensor is the aperture value of the interchangeable lens or the numerical aperture of the interchangeable lens, and the information of the first pixel and the second pixel.
  • the image processing apparatus further includes a storage unit that stores a first table indicating the ratio to the output and the ratio for each image height for each aperture value of the interchangeable lens or the numerical aperture of the interchangeable lens, and the pixel information acquisition unit
  • the calculation unit obtains the output of the first pixel and the output of the second pixel at a plurality of image heights
  • the operation unit calculates the ratio of the output of the first pixel to the output of the second pixel for each of the plurality of acquired image heights.
  • the information acquisition unit is configured to match or most closely match the second table from the storage unit based on the acquired second table. Read out the aperture value or numerical aperture corresponding to the table of It was it is preferable to obtain the aperture value or the numerical aperture as the current aperture value or the numerical aperture of the interchangeable lens.
  • a first table (a plurality of first tables) indicating a ratio for each image height and a second table indicating a ratio for each image height calculated by the calculation unit
  • the first phase difference pixel and the second phase difference pixel are used as the first pixel and the second pixel, the first phase difference pixel and the Even if the incident angle characteristics of the phase difference pixels 2 are completely symmetrical, if the image heights are different, the incident angle characteristics of the first phase difference pixels and the second phase difference pixels are not symmetrical. That is, even if the first phase difference pixel and the second phase difference pixel are used as the first pixel and the second pixel, the current aperture value or numerical aperture of the interchangeable lens can be obtained.
  • the computing unit further comprises: outputting an output of the first pixel which is not saturated among the first pixel and the second pixel for each of the plurality of acquired image heights; Preferably, the ratio to the output of the pixel is calculated to obtain a second table indicating the ratio for each image height.
  • the ratio of the output of the first pixel to the output of the second pixel can not be calculated correctly.
  • the imaging apparatus includes a contrast detection unit that detects the contrast of the subject, and the calculation unit determines that the subject's contrast is higher according to the subject contrast detected by the contrast detection unit. It is preferable to increase the number of first pixels and second pixels used to calculate the ratio. When the contrast of the subject is high, the ratio of the output of the first pixel to the output of the second pixel is affected by the contrast of the subject. Therefore, in this case, the calculated ratios are averaged by increasing the number of first pixels and second pixels used to calculate the ratio.
  • the method of expanding the area for extracting the first pixel and the second pixel from the image sensor is the same as the method for extracting the area of the first pixel and the second pixel. It is conceivable to change the interval for extracting two pixels (decimation ratio).
  • the imaging apparatus when it is not possible to obtain the aperture value or the numerical aperture of the interchangeable lens from the communication unit that communicates with the interchangeable lens and the mounted interchangeable lens via the communication unit. It is preferable to include a control unit that operates the pixel information acquisition unit, the calculation unit, and the information acquisition unit.
  • a control unit that operates the pixel information acquisition unit, the calculation unit, and the information acquisition unit.
  • the pixel information acquisition unit, the calculation unit, and the information acquisition unit are operated only when the diaphragm value or the numerical aperture of the interchangeable lens can not be acquired from the mounted interchangeable lens through the communication unit, and the diaphragm value or the diaphragm of the interchangeable lens I try to get the numerical aperture.
  • the brightness of the object is obtained using the aperture value or numerical aperture of the interchangeable lens acquired via the communication unit or the aperture value or numerical aperture of the interchangeable lens acquired by the information acquiring unit. It is preferable to include a photometry unit that calculates the height. Once the f-number or numerical aperture of the interchangeable lens is known, the brightness of the subject based on the information of “f-number or f-number converted from N-number”, “shutter speed”, and “image brightness (brightness)” (The brightness of the true subject rather than the brightness of the image) can be calculated. Further, the brightness of the true subject is used for scene recognition (outside determination, indoor determination, etc.), and can be used for automatic white balance adjustment and the like.
  • a phase shift amount detection unit that detects a phase shift amount based on outputs of first phase difference pixels and second phase difference pixels of an image sensor;
  • a defocus amount calculation unit that calculates a defocus amount based on information related to a ray angle and a phase shift amount, and a focus adjustment unit that moves an image sensor based on the calculated defocus amount preferable.
  • phase difference AF can be performed without driving the interchangeable lens, and phase difference AF can be performed even when an incompatible interchangeable lens is mounted.
  • the imaging apparatus includes a mode setting unit that sets an information acquisition mode, and the pixel information acquisition unit, the arithmetic unit, and the information acquisition unit each have an information acquisition mode set by the mode setting unit. It is preferable that the operation is performed when an imaging instruction is input from the imaging instruction unit in the off state.
  • the information acquisition mode in order to acquire information related to the light beam angle with respect to the image sensor, it is necessary to capture an image of a subject by the user in advance before main imaging.
  • the user is aware of imaging in order to acquire information related to a good ray angle, and for example, imaging a subject (for example, a subject with low contrast, a subject without saturation, etc.) Can.
  • the information acquisition mode is set by the user for each adjustment when the diaphragm of the incompatible interchangeable lens is adjusted, but when the incompatible interchangeable lens is mounted, May be detected and set automatically.
  • an image acquisition unit acquiring image data via an image sensor when an imaging instruction is input from the imaging instruction unit, and an image file storing the acquired image data
  • the recording unit records information related to the light beam angle with respect to the image sensor acquired by the information acquiring unit in the header of the image file.
  • the invention according to still another aspect is an image sensor having a first pixel on the image sensor and a second pixel on the image sensor, wherein the second pixel has a different incident angle characteristic from the first pixel.
  • Pixel information acquiring step of acquiring an output of a first pixel and an output of a second pixel of an image sensor on which subject light is incident through an interchangeable lens mounted on the imaging device.
  • an operation step of calculating a ratio between the acquired output of the first pixel and an output of the second pixel, and the image sensor when subject light enters the image sensor through the interchangeable lens based on the calculated ratio.
  • the imaging device stores the ratio of the output of the first pixel to the output of the second pixel for each diaphragm value of the interchangeable lens or for each numerical aperture of the interchangeable lens.
  • the information acquisition step reads out the f-number or numerical aperture corresponding to the ratio from the storage part on the basis of the calculated ratio, and the read-out f-number or numerical aperture corresponds to the current f-number or aperture of the interchangeable lens. It is preferable to obtain as a number.
  • an imaging device is a first table indicating a ratio between an output of a first pixel and an output of a second pixel and showing an image height ratio.
  • a storage unit for storing data for each diaphragm value of the interchangeable lens or for each numerical aperture of the interchangeable lens, and the pixel information acquiring step outputs the output of the first pixel and the output of the second pixel at a plurality of image heights of the image sensor.
  • the calculating step calculates the ratio between the output of the first pixel and the output of the second pixel for each of a plurality of acquired image heights, and acquires a second table indicating the ratio for each image height
  • the information acquisition step reads the aperture value or the numerical aperture corresponding to the first table that matches or most closely matches the second table from the storage unit based on the acquired second table, and reads the aperture value or the numerical aperture read out As the current f-number or numerical aperture of the interchangeable lens It is preferred that Tokusuru.
  • the imaging apparatus includes a communication unit that communicates with the interchangeable lens, and the aperture value or aperture of the interchangeable lens from the mounted interchangeable lens through the communication unit.
  • the present aperture value of the interchangeable lens or the step of acquiring the number, and the pixel information acquiring step, the operation step and the information acquiring step when the diaphragm value or the numerical aperture of the interchangeable lens can not be acquired through the communication unit Preferably, the numerical aperture is obtained.
  • the invention according to still another aspect is an image sensor having a first pixel on the image sensor and a second pixel on the image sensor, wherein the second pixel has a different incident angle characteristic from the first pixel.
  • An image acquisition program applied to an image pickup apparatus comprising: a function of acquiring an output of a first pixel and an output of a second pixel of an image sensor on which subject light is incident through an interchangeable lens attached to the image pickup apparatus; , The function of calculating the ratio between the acquired output of the first pixel and the output of the second pixel, and the object light to the image sensor through the interchangeable lens based on the calculated ratio. And a function of acquiring information related to a ray angle in an imaging device.
  • FIG. 1 is a perspective view of an imaging device according to the present invention as viewed obliquely from the front
  • Figure 2 is a back view of the imaging device
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus, showing a state in which an incompatible interchangeable lens is mounted.
  • FIG. 4 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus, showing a state in which a compatible interchangeable lens is mounted.
  • Fig. 5 shows an example of the configuration of an image sensor.
  • FIG. 6 is a schematic view showing a cross section of a part of the phase difference pixel row of the image sensor
  • FIG. 7 is a main part enlarged view showing the configuration of the first phase difference pixel PA and the second phase difference pixel PB.
  • FIG. 1 is a perspective view of an imaging device according to the present invention as viewed obliquely from the front
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus, showing a state in which
  • FIG. 8 is a view showing an example of an area where the first phase difference pixel PA and the second phase difference pixel PB are arranged in the imaging area of the image sensor.
  • FIG. 9 is a view showing another example of the area in which the first phase difference pixel and the second phase difference pixel are arranged in the imaging area of the image sensor.
  • FIG. 10 is a diagram showing still another example of the area in which the first phase difference pixel PA and the second phase difference pixel PB are arranged in the imaging area of the image sensor.
  • FIG. 11 is a diagram showing an example of the configuration of an AF control unit.
  • 12 is a graph showing the incident angle characteristics of the normal pixel (G pixel), the first phase difference pixel, and the second phase difference pixel of the image sensor.
  • FIG. 13 is a view showing a state in which light fluxes having different F-numbers having principal rays parallel to the optical axis of the imaging optical system are incident on the image sensor.
  • FIG. 14 is a graph showing the incident angle characteristics of the G pixel of the image sensor, the first phase difference pixel PA, and the second phase difference pixel PB, and the pixel at the center of the image sensor when the F value is F2 or F4. Showing the angle range of luminous flux incident on FIG. 15 is a block diagram showing the function of the main body side CPU for acquiring the current f-number of the interchangeable lens.
  • FIG. 16 is a diagram showing the image heights on the image sensor of the first phase difference pixel PA and the second phase difference pixel PB used for F value acquisition FIG.
  • FIG. 17 is a graph showing the incident angle characteristics of the G pixel of the image sensor, the first phase difference pixel PA, and the second phase difference pixel PB, and the image height of the image sensor is high when the F value is F2 or F4.
  • FIG. 18 is a diagram showing an example of acquiring the outputs of two pixels having different incident angle characteristics for each sensor position at which the image height of the image sensor is different.
  • FIG. 19 is a graph showing the change in the ratio for each sensor position when the stop of the interchangeable lens is on the open side
  • FIG. 20 is a graph showing the change in ratio for each sensor position when the stop of the interchangeable lens is on the small stop side FIG.
  • FIG. 21 shows the relationship between the aperture diameter D of the lens, the radius r of the aperture diameter, the focal length f and the ray angle ⁇
  • FIG. 22 is a flowchart showing a first embodiment of the information acquiring method according to the present invention.
  • FIG. 23 is a flowchart showing a second embodiment of the information acquisition method according to the present invention.
  • FIG. 1 is a perspective view of the imaging apparatus as viewed obliquely from the front
  • FIG. 2 is a rear view of the imaging apparatus.
  • the imaging device 10 is a mirrorless digital single-lens camera configured of an interchangeable lens 100 and a camera body 200 to which the interchangeable lens 100 can be attached and detached.
  • a main body mount 260 (mounting portion) to which the interchangeable lens 100 can be attached and removed, a finder window 20 of an optical finder, etc. is provided on the front of the camera main body 200.
  • a monitor 216 mainly comprising a liquid crystal display, an eyepiece 26 of an optical finder, a MENU / OK key 27, a cross key 28, a reproduction button 29 and the like are provided on the back of the camera body 200. ing.
  • the monitor 216 functions as a display unit that displays various menu screens in addition to displaying a live view image in the shooting mode and reproducing and displaying an image captured in the playback mode.
  • the MENU / OK key 27 is an operation key having a function as a menu button for instructing to display a menu on the screen of the monitor 216 and a function as an OK button for instructing confirmation and execution of selection contents, etc. It is.
  • the cross key 28 is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button for selecting an item from the menu screen or instructing selection of various setting items from each menu.
  • the up and down keys of the cross key 28 function as a zoom switch during imaging or as a playback zoom switch during playback mode
  • the left key and right key are frame advance (forward and backward) buttons in playback mode Act as.
  • the menu screen displayed on the MENU / OK key 27, the cross key 28, and the monitor 216 in addition to the normal shooting mode for capturing a single still image, continuous shooting for capturing still images continuously It is possible to set various shooting modes including the mode. When setting the continuous shooting mode, it is possible to set the continuous shooting speed (for example, about 8 frames / second, about 3 frames / second).
  • the playback button 29 is a button for switching to a playback mode in which the still image or the moving image captured and recorded is displayed on the monitor 216.
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging device 10. As shown in FIG.
  • the interchangeable lens 100 shown in FIG. 3 includes the lens mount 160 attachable to the main body mount 260 of the camera body 200, but is an interchangeable lens incompatible with the camera body 200. It also includes an interchangeable lens mountable to the camera body 200 via a mount adapter (not shown).
  • the imaging optical system 102 of the interchangeable lens 100 includes a lens group 104 including a focus lens and a stop 108.
  • the focus lens of the lens group 104 can be moved within a range corresponding to near distance to infinity by manually operating a focus ring (not shown).
  • the aperture 108 can change the size of the aperture opening from the maximum aperture to the minimum aperture, one step at a time, one step at a time, or continuously by manually operating an aperture ring (not shown).
  • FIG. 4 is a block diagram showing a second embodiment of the internal configuration of the imaging device 10. As shown in FIG.
  • the interchangeable lens 300 shown in FIG. 4 is manufactured according to the communication standard of the camera body 200, and is a compatible interchangeable lens that can communicate with the camera body 200 as described later. is there.
  • the interchangeable lens 300 includes an imaging optical system 302, a focus lens control unit 316, an aperture control unit 318, a lens side central processing unit (CPU) 320, a flash read only memory (ROM) 326, a lens side communication unit 350, and a lens mount. It has 360.
  • the imaging optical system 302 of the interchangeable lens 300 includes a lens group 304 including a focus lens and a stop 308.
  • the focus lens control unit 316 controls the focus position of the focus lens in accordance with a command from the lens CPU 320.
  • the aperture control unit 318 controls the aperture 308 in accordance with a command from the lens CPU 320.
  • the lens side CPU 320 is to centrally control the interchangeable lens 300, and incorporates a ROM 324 and a RAM (Random Access Memory) 322.
  • the flash ROM 326 is a non-volatile memory that stores programs and the like downloaded from the camera body 200.
  • the lens CPU 320 performs overall control of each part of the interchangeable lens 300 using the RAM 322 as a work area in accordance with a control program stored in the ROM 324 or the flash ROM 326.
  • the lens side communication unit 350 communicates with the camera main body 200 via a plurality of signal terminals (lens side signal terminals) provided on the lens mount 360. Communicate. That is, the lens communication unit 350 transmits / receives a request signal and an answer signal to / from the main unit communication unit 250 of the camera body 200 connected via the lens mount 360 and the main unit mount 260 according to the command of the lens CPU 320 (Bidirectional communication) is performed to notify the camera body 200 of lens information (focus position information of a focus lens, focal distance information, aperture information, and the like) of each optical member of the imaging optical system 302.
  • lens information focus position information of a focus lens, focal distance information, aperture information, and the like
  • the interchangeable lens 300 also includes a detection unit (not shown) that detects focus position information of the focus lens and diaphragm information.
  • the aperture information is information indicating the aperture value (F value) of the aperture 308, the aperture diameter of the aperture 308, and the like.
  • the F value is used as aperture information.
  • the lens CPU 320 In order to respond to a request for lens information from the camera body 200, the lens CPU 320 preferably holds various types of lens information including detected focus position information and aperture information in the RAM 322. In addition, lens information is detected when there is a request for lens information from the camera body 200, or is detected when the optical member is driven, or at a constant period (period sufficiently shorter than the frame period of a moving image) It can be detected and hold the detection result.
  • the camera body 200 constituting the imaging device 10 shown in FIG. 3 or 4 includes an image sensor 201 (image acquisition unit), an image sensor control unit 202, an analog signal processing unit 203, and an A / D (Analog / Digital) converter 204.
  • image sensor 201 image acquisition unit
  • image sensor control unit 202 image sensor control unit
  • analog signal processing unit 203 analog signal processing unit
  • a / D Analog / Digital
  • Image input controller 205 digital signal processing unit 206, RAM 207, compression / expansion processing unit 208, focusing unit 209, media control unit 210 (recording unit), memory card 212 (recording medium), display control unit 214, monitor 216, Body side CPU 220, operation unit 222, clock unit 224, flash ROM 226, ROM 228, AF control unit 230, brightness detection unit 232 (photometry unit), white balance correction unit 234, wireless communication unit 236, GPS (Global Positioning System) reception Unit 238, power supply control unit 240, battery 242, main unit communication unit 250, main unit And a flash light emitting unit 270 constituting the built-in flash 30 (FIG. 1), a flash control unit 272, a focal plane shutter (FPS) 280, and an FPS control unit 296.
  • FPS focal plane shutter
  • the image sensor 201 is configured by a complementary metal-oxide semiconductor (CMOS) type color image sensor.
  • CMOS complementary metal-oxide semiconductor
  • the image sensor 201 is not limited to the CMOS type, and may be an XY address type or a CCD (Charge Coupled Device) type image sensor.
  • CCD Charge Coupled Device
  • the image sensor 201 has a plurality of red pixels on photoelectric conversion elements (photodiodes) two-dimensionally arranged in the x direction (horizontal direction) and the y direction (vertical direction).
  • red pixels on photoelectric conversion elements (photodiodes) two-dimensionally arranged in the x direction (horizontal direction) and the y direction (vertical direction).
  • RGB red
  • G green
  • B blue
  • a microlens is provided on each photodiode. It is arranged.
  • phase difference pixels first phase difference pixels PA, second phase difference pixels PB
  • normal pixels for imaging pixels other than phase difference pixels
  • a normal pixel row in which only normal pixels are arranged in the horizontal direction (row direction) is a row of pixels having R filters (R pixels) and pixels having G filters (G pixels).
  • R pixels pixels having R filters
  • G pixels pixels having G filters
  • RG rows alternately arranged in the direction
  • GB rows in which G pixels and pixels having B filters (B pixels) are alternately arranged in the row direction.
  • the RG rows and the GB rows are alternately arranged in the vertical direction (column direction).
  • the image sensor 201 has a phase difference pixel row in which the first phase difference pixel PA and the second phase difference pixel PB are provided, and a normal pixel row in which only the normal pixels are provided.
  • the phase difference pixel row of the image sensor 201 is periodic with one pixel of one pair of the first phase difference pixel PA and the second phase difference pixel PB and one normal pixel as one cycle in a specific GB row of the Bayer array. Are arranged in the row direction. Therefore, in the phase difference pixel row, G pixels and B pixels are alternately arranged in every two pixels (a pair of first phase difference pixels PA and second phase difference pixels PB) in the row direction.
  • the phase difference pixel row of this example is provided in the GB row of the Bayer arrangement, the present invention is not limited to this, and may be provided in the RG row.
  • the periodic color arrangement is not limited to the Bayer arrangement, but may be another color filter arrangement such as an X-Trans® arrangement.
  • FIG. 6 is a schematic view showing a cross section of a part of the phase difference pixel row of the image sensor 201. As shown in FIG. FIG. 6 shows a pair of first phase difference pixels PA and second phase difference pixels PB, and four pixels of B pixels and G pixels which are normal pixels adjacent to these pixels.
  • the first phase difference pixels PA and the second phase difference pixels PB are provided with light shielding films MA and MB for limiting incident light, respectively.
  • FIG. 7 is an enlarged view of an essential part showing the configuration of the first phase difference pixel PA and the second phase difference pixel PB.
  • the light shielding film MA is disposed on the front side (microlens ML side) of the photodiode PD of the first phase difference pixel PA, while the photodiode PD of the second phase difference pixel PB is A light shielding film MB is disposed on the front side of The microlens ML and the light shielding films MA and MB have a pupil division function, and the light shielding film MA shields the left half of the light receiving surface of the photodiode PD in FIG. 7. Therefore, only the light beam passing through the left side of the optical axis of the light beams passing through the exit pupil of the imaging optical system 102 is selectively received by the first phase difference pixel PA. Also, as the color filter CF, a G filter is disposed below the microlens ML.
  • the light shielding film MB shields the right half of the light receiving surface of the photodiode PD of the second phase difference pixel PB. Therefore, only the light beam passing through the right side of the optical axis of the light beams passing through the exit pupil of the imaging optical system 102 is selectively received by the second phase difference pixel PB.
  • the light beam passing through the exit pupil is divided left and right by the microlens ML having the pupil division function and the light shielding films MA and MB, and the light beam enters the first phase difference pixel PA and the second phase difference pixel PB, respectively.
  • FIGS. 8 to 10 each show an example of an area in which the first phase difference pixel PA and the second phase difference pixel PB are arranged in the imaging area of the image sensor 201.
  • regions in which the first phase difference pixels PA and the second phase difference pixels PB are arranged are indicated by oblique lines.
  • the image sensor 201 of this example is provided so as to be movable in the optical axis direction, and the position of the image sensor 201 can be adjusted by the focusing unit 209. Therefore, by controlling the position of the image sensor 201 in the optical axis direction, the subject image can be focused on the imaging surface of the image sensor 201.
  • An optical image of an object formed on the light receiving surface of the image sensor 201 by the imaging optical system 102 of the interchangeable lens 100 is converted by the image sensor 201 into an electrical signal.
  • a charge corresponding to the amount of incident light is accumulated in each pixel of the image sensor 201, and an electric signal corresponding to the amount of charge accumulated in each pixel is read out from the image sensor 201 as an image signal.
  • the image sensor control unit 202 performs readout control of an image signal from the image sensor 201 in accordance with an instruction from the main body CPU 220. In addition, the image sensor control unit 202 simultaneously discharges the electric charges accumulated in each pixel of the image sensor 201 (resetting all at once) by the electronic shutter control signal from the main body side CPU 220 to simultaneously start the exposure. It has a shutter function.
  • An analog signal processing unit 203 performs various analog signal processing on an analog image signal obtained by capturing an image of a subject with the image sensor 201.
  • the analog signal processing unit 203 includes a sampling and holding circuit, a color separation circuit, an AGC (Automatic Gain Control) circuit, and the like.
  • the AGC circuit functions as a sensitivity adjustment unit that adjusts sensitivity (ISO: International Organization for Standardization) at the time of imaging, adjusts the gain of an amplifier that amplifies an input image signal, and the signal level of the image signal is Be in the appropriate range.
  • the A / D converter 204 converts an analog image signal output from the analog signal processing unit 203 into a digital image signal.
  • the image data (mosaic image data) of each pixel of RGB output through the image sensor 201, the analog signal processing unit 203, and the A / D converter 204 at the time of capturing a still image or a moving image is transmitted from the image input controller 205 to the RAM 207. And are temporarily stored.
  • the image sensor 201 is a CMOS image sensor
  • the analog signal processing unit 203 and the A / D converter 204 are often incorporated in the image sensor 201.
  • the digital signal processing unit 206 subjects the image data stored in the RAM 207 to various digital signal processing.
  • the digital signal processing unit 206 appropriately reads the image data stored in the RAM 207, performs offset processing, gain control processing including sensitivity correction, gamma correction processing, demosaicing processing (demosaicing processing, etc.) on the read image data.
  • digital signal processing such as RGB / YCrCb conversion processing, and the image data after digital signal processing is stored in the RAM 207 again.
  • the demosaicing process is, for example, a process of calculating color information of all RGB for each pixel from a mosaic image consisting of RGB in the case of an image sensor consisting of color filters of RGB three colors, and mosaic data (dot sequential RGB data The image data of RGB 3 planes synchronized from) is generated.
  • the RGB / YCrCb conversion process is a process of converting the synchronized RGB data into luminance data (Y) and color difference data (Cr, Cb).
  • the compression / decompression processing unit 208 performs compression processing on the non-compressed luminance data Y and color difference data Cb and Cr temporarily stored in the RAM 207 when recording a still image or a moving image.
  • compression is performed in JPEG (Joint Photographic coding Experts Group) format
  • H. Compress in H.264 format.
  • the image data compressed by the compression / decompression processing unit 208 is recorded on the memory card 212 via the media control unit 210.
  • the compression / decompression processing unit 208 performs decompression processing on the compressed image data obtained from the memory card 212 via the media control unit 210 in the reproduction mode, and generates non-compressed image data.
  • the media control unit 210 performs control of recording the image data compressed by the compression / decompression processing unit 208 in the memory card 212. Also, the media control unit 210 performs control of reading out compressed image data from the memory card 212.
  • the display control unit 214 controls the monitor 216 to display uncompressed image data stored in the RAM 207.
  • the monitor 216 is configured by, for example, a display device such as a liquid crystal display device or organic electroluminescence.
  • the digital image signal continuously generated by the digital signal processing unit 206 is temporarily stored in the RAM 207.
  • the display control unit 214 converts the digital image signal temporarily stored in the RAM 207 into a signal format for display, and sequentially outputs the converted signal to the monitor 216.
  • the captured image is displayed on the monitor 216 in real time, and the monitor 216 can be used as an electronic viewfinder.
  • the shutter release switch 22 is an imaging instruction unit for inputting an imaging instruction, and is configured of a two-stage stroke switch including so-called "half press” and "full press”.
  • the S1 on signal is output when the shutter release switch 22 is pressed halfway, and the S2 on signal is output when the shutter release switch 22 is pressed further down.
  • the main unit CPU 220 executes imaging preparation processing such as autofocus (AF) control and automatic exposure control (AE (Auto Exposure) control), and when the S2 ON signal is output, the still image pickup processing And execute the recording process.
  • AF control and AE control are automatically performed when the auto mode is set by the operation unit 222, and when the manual mode is set, AF control and AE control are not performed. Needless to say.
  • the camera body 200 In the moving image shooting mode, when the S2 ON signal is output when the shutter release switch 22 is fully pressed, the camera body 200 enters a moving image recording mode for starting recording of the moving image, and the image processing of the moving image is performed.
  • the S2 ON signal is output by the shutter release switch 22 being fully pressed again, the camera body 200 is in the standby state, and the moving image recording process is paused.
  • the shutter release switch 22 is not limited to a two-step stroke type switch consisting of a half press and a full press, and an S1 ON signal and an S2 ON signal may be output by one operation, each individually The switch of (1) may be provided to output the S1 on signal and the S2 on signal.
  • the operation instruction may be output by touching the area corresponding to the operation instruction displayed on the screen of the touch panel as the operation means.
  • the form of the operation means is not limited to these as long as the preparation process and the imaging process are instructed.
  • the still image or moving image acquired by imaging is compressed by the compression / decompression processing unit 208, and the compressed image data is attached as required for imaging date, GPS information, imaging conditions (F value, shutter speed, ISO sensitivity, etc.)
  • the information is stored in the memory card 212 via the media control unit 210 after being converted into an image file added to the header.
  • the main body side CPU 220 performs overall control of the operation of the entire camera main body 200 and the drive of the optical member of the interchangeable lens 100, etc., based on the input from the operation unit 222 including the shutter release switch 22
  • the interchangeable lens 300 is controlled.
  • the clock unit 224 measures time based on a command from the main CPU 220 as a timer. In addition, the clock unit 224 measures the current date and time as a calendar.
  • the flash ROM 226 is a readable and writable nonvolatile memory, and stores setting information.
  • the ROM 228 stores a camera control program executed by the main body side CPU 220, defect information of the image sensor 201, various parameters and tables used for image processing and the like.
  • the main body CPU 220 controls the respective units of the camera main body 200 and the interchangeable lens 300 while using the RAM 207 as a work area in accordance with the camera control program stored in the ROM 228.
  • the AF control unit 230 calculates the defocus amount necessary to control the phase difference AF, and controls the position of the image sensor 201 via the focus adjustment unit 209 based on the calculated defocus amount.
  • the AF control unit 230 includes a phase shift amount detection unit 230A and a defocus amount calculation unit 230B as shown in FIG.
  • the phase shift amount detection unit 230A detects the phase shift amount based on the output of the first phase difference pixel PA and the output of the second phase difference pixel PB in the AF area of the image sensor 201.
  • the phase shift amount is obtained when the correlation between each output data of the first phase difference pixel PA and each output data of the second phase difference pixel PB is maximized (the first phase difference pixel PA and the second phase difference pixel It can calculate from the shift amount between each output data of when the integrated value of the difference absolute value of each output data of PB becomes the minimum.
  • the defocus amount calculation unit 230B calculates the defocus amount by multiplying the phase shift amount detected by the phase shift amount detection unit 230A by a coefficient corresponding to the current F value (light ray angle) of the interchangeable lens 100. Do.
  • the interchangeable lens 100 can not be controlled by the camera body 200, but it is automatically moved by moving the image sensor 201 in the optical axis direction by the focusing unit 209. Focus adjustment can be performed.
  • the AF control unit 230 drives and controls the focus adjustment unit 209 based on the defocus amount calculated by the defocus amount calculation unit 230B, and only the defocus amount calculated for the image sensor 201. Move it. As a result, the image sensor 201 can be moved to a position where the defocus amount is zero (position where the phase difference is minimum), and phase difference AF is performed to focus the object image on the imaging surface of the image sensor 201. be able to.
  • AF is not limited to phase difference AF,
  • contrast AF may be sufficient.
  • the AF control unit 230 extracts the high frequency component from the G signal of the G pixel (pixel having the G color filter) in the AF area, and integrates the absolute value of the extracted high frequency component (focus evaluation value Is calculated, and the image sensor 201 is moved via the focus adjustment unit 209 to a position where the calculated focus evaluation value is maximum (ie, a position where the contrast is maximum).
  • the brightness detection unit 232 (photometry unit) is a part that detects the brightness of a subject (subject brightness), and a numerical value (exposure value (EV) necessary for AE control and AWB (Auto White Balance) control corresponding to the subject brightness. Calculate the value (exposure value))).
  • the brightness detection unit 232 calculates an EV value based on the brightness of the image acquired via the image sensor 201, the shutter speed at the time of acquiring the brightness of the image, and the F value.
  • the main body CPU 220 determines an F value, a shutter speed and an ISO sensitivity from a predetermined program chart based on the EV value obtained from the brightness detection unit 232, and performs AE control. be able to.
  • the main body CPU 220 determines the shutter speed and the ISO sensitivity so that the brightness of the image acquired via the image sensor 201 becomes appropriate brightness, and performs AE control. be able to.
  • the white balance correction unit 234 calculates white balance gains (WB (White Balance) gains) Gr, Gg, Gb for each color data of RGB data (R data, G data and B data), and calculates R data, G data and White balance correction is performed by multiplying the B data by the calculated WB gains Gr, Gg, and Gb.
  • WB gains Gr, Gg, Gb the subject is illuminated based on scene recognition (judgment of outdoors, indoor etc.) by the brightness (EV value) of the subject, color temperature of ambient light, etc.
  • EV value brightness
  • Other known methods for determining Gr, Gg, Gb are conceivable.
  • the wireless communication unit 236 is a portion that performs near field wireless communication according to a standard such as Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (registered trademark), etc., and peripheral digital devices (mobile terminals such as smartphones) Send and receive necessary information between a standard such as Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (registered trademark), etc., and peripheral digital devices (mobile terminals such as smartphones) Send and receive necessary information between a standard such as Wi-Fi (Wireless Fidelity) (registered trademark), Bluetooth (registered trademark), etc., and peripheral digital devices (mobile terminals such as smartphones) Send and receive necessary information between
  • Wi-Fi Wireless Fidelity
  • Bluetooth registered trademark
  • peripheral digital devices mobile terminals such as smartphones
  • the GPS receiving unit 238 receives GPS signals transmitted from a plurality of GPS satellites in accordance with an instruction from the main unit CPU 220, and executes positioning operation processing based on the received plurality of GPS signals. And GPS information consisting of altitude.
  • the acquired GPS information can be recorded in the header of the image file as attached information indicating the imaging position of the imaged image.
  • the power supply control unit 240 applies the power supply voltage supplied from the battery 242 to each unit of the camera body 200 according to an instruction of the main body side CPU 220. Further, the power supply control unit 240 applies the power supply voltage supplied from the battery 242 to each part of the compatible interchangeable lens 300 via the main body mount 260 and the lens mount 160 according to the command of the main body side CPU 220.
  • the lens power switch 244 switches on and off the power supply voltage applied to the interchangeable lens 300 via the main body mount 260 and the lens mount 360 and switches the level according to an instruction from the main body CPU 220.
  • the main unit communication unit 250 transmits / receives a request signal and an answer signal to / from the lens side communication unit 350 of the interchangeable lens 300 connected via the main body mount 260 and the lens mount 360 according to a command from the main body CPU 220 Communication).
  • the main body mount 260 is provided with a plurality of terminals 260A as shown in FIG. 1, and when the interchangeable lens 300 is mounted on the camera main body 200 (the lens mount 360 and the main body mount 260 are connected), the main body A plurality of terminals 260A (FIG. 1) provided on the mount 260 and a plurality of terminals (not shown) provided on the lens mount 360 are electrically connected, and the main body side communication unit 250 and the lens side communication unit 350 Bi-directional communication is possible.
  • the built-in flash 30 (FIG. 1) is, for example, a flash with TTL (Through The Lens) automatic light control method, and includes a flash light emitting unit 270 and a flash control unit 272.
  • the flash control unit 272 has a function of adjusting the light emission amount (guide number) of the flash light emitted from the flash light emitting unit 270. That is, the flash control unit 272 causes the flash light emitting unit 270 to emit light in synchronization with a flash imaging instruction from the main body side CPU 220, and reflected light (ambient light incident through the imaging optical system 102 or 302 of the interchangeable lens 100 or 300). And the light emission value of the flash light from the flash light emitting unit 270 is stopped when the light measurement value reaches the standard exposure value.
  • a focal-plane shutter (FPS) 280 constitutes a mechanical shutter of the imaging device 10 and is disposed immediately in front of the image sensor 201.
  • the FPS control unit 296 controls the exposure time (shutter speed) of the image sensor 201 by controlling the opening and closing of the front and rear curtains of the FPS 280 based on input information (S2 ON signal, shutter speed, etc.) from the main unit CPU 220. Do.
  • FIG. 12 is a graph showing incident angle characteristics of the normal pixel (G pixel), the first phase difference pixel PA, and the second phase difference pixel PB of the image sensor 201, and in the x direction (horizontal direction) of the image sensor 201.
  • the sensitivity Gc of the G pixel is the highest, and the sensitivities PAc and PBc of the first phase difference pixel PA and the second phase difference pixel PB are lower than the G pixel. Further, since the left half and the right half of the aperture of the first phase difference pixel PA and the second phase difference pixel PB are shielded by the light shielding films MA and MB, the sensitivity of the first phase difference pixel PA is The PAc and the sensitivity PBc of the second phase difference pixel PB are symmetrical about the incident angle zero, and the peak position of the sensitivity is shifted.
  • FIG. 13 shows the case where a light beam having a principal ray parallel to the optical axis L of the imaging optical system 102 is incident on the image sensor 201, and the case where the F value is small and the case where the F value is large.
  • ⁇ 1 represents the angle (ray angle) between the chief ray (in this case, the optical axis L) and the upper line (ray passing through the edge above the exit pupil or entrance pupil) when the F value is small.
  • ⁇ 2 indicate the ray angles formed by the chief ray when the F value is large and the upper line.
  • FIG. 14 is a graph showing the incident angle characteristics of the G pixel of the image sensor 201, the first phase difference pixel PA, and the second phase difference pixel PB (the graph shown in FIG. 12), and F values of F2 and F4. It is a figure which shows the angle range of the light beam which injects into the pixel (G pixel, 1st phase difference pixel PA, and 2nd phase difference pixel PB) of the center part of the image sensor 201 in a case.
  • the ratio between the output of the G pixel at the center of the image sensor 201 and the output of the first phase difference pixel PA (or the second phase difference pixel PB) at the center differs depending on the F value.
  • the ratio is obtained. For example, when the ratio of the output of the first phase difference pixel PA in the center to the output of the G pixel in the center of the image sensor 201 is calculated, the smaller the F value, the smaller the calculated ratio.
  • This is a characteristic in which the peak position of the sensitivity PAc of the first phase difference pixel PA deviates from the incident angle zero, and the sensitivity in the direction opposite to the direction in which the peak position deviates sharply decreases compared to the sensitivity of the G pixel. It is because it has.
  • a storage unit such as a flash ROM 226 or ROM 228 is prepared in advance, which stores the ratio of the output of the G pixel to the output of the first phase difference pixel PA (or the second phase difference pixel PB) for each F value. Every time when acquiring the current F value of the interchangeable lens 100, imaging for F value acquisition is performed. Then, the ratio between the output of the G pixel acquired by imaging for acquiring the F value and the output of the first phase difference pixel PA (or the second phase difference pixel PB) is calculated, and the storage unit is calculated based on the calculated ratio. The F value can be obtained by reading out the corresponding F value from.
  • FIG. 15 is a block diagram showing the function of the main body side CPU 220 of the camera main body 200 for acquiring (estimating) the current F-number of the interchangeable lens 100.
  • the main body CPU 220 functions as various processing units by executing a program for F value estimation (information acquisition program) stored in the flash ROM 226 or ROM 228, and this embodiment In this case, it has functions as a pixel information acquisition unit 220A, an arithmetic unit 220B, and an information acquisition unit 220C.
  • the medium in which the information acquisition program is stored may be a non-transitory computer-readable recording medium such as a hard disk, a CD (Compact Disk), a DVD (Digital Versatile Disk), and various semiconductor memories.
  • the operation unit 222 of the imaging device 10 is provided with a mode setting unit that sets an information acquisition mode (F value acquisition mode).
  • F value acquisition mode an information acquisition mode
  • the user operates the diaphragm ring of the interchangeable lens 100 to switch the F value of the diaphragm 108
  • the user operates the mode setting unit to set the F value acquisition mode, and performs imaging for F value acquisition.
  • the imaging for acquiring the F value is performed in a state where an object with low contrast is imaged or blurred. This is because it is preferable that the amount of light incident on each pixel of the G pixel used for F value acquisition and the first phase difference pixel PA (or the second phase difference pixel PB) is uniform.
  • the pixel information acquisition unit 220A, the arithmetic unit 220B and information of the main unit CPU 220 The acquiring unit 220C performs the following operations for acquiring an F value.
  • the pixel information acquiring unit 220A is a first phase difference pixel PA (or the first phase difference pixel PA used for acquiring the F value among the image data acquired through the interchangeable lens 100 and the image sensor 201 etc. by imaging for acquiring the F value).
  • the respective output data (pixel information) of the phase difference pixel PB2 of 2 and the G pixel are acquired.
  • each output data of the first phase difference pixel PA (first pixel) and the G pixel (second pixel) in the central portion of the image sensor 201 is acquired.
  • the calculation unit 220B calculates the ratio of the output data of the first phase difference pixel PA (output of the 21st pixel) acquired by the pixel information acquisition unit 220A to the output data of the G pixel (output of the second pixel). .
  • the number of pixels used to calculate the ratio of the output data of the first phase difference pixel PA to the output data of the G pixel according to the contrast of the subject when imaging for acquiring the F value is performed may be changed.
  • the imaging device 10 is provided with a contrast detection unit that detects the contrast of the subject.
  • the contrast detection unit can use the existing contrast detection unit included in the AF control unit 230.
  • the AF control unit 230 does not include the contrast detection unit It is conceivable to add a contrast detection function to the main CPU 220.
  • the contrast detection unit detects the contrast of the subject when performing imaging for obtaining an F value. That is, the high frequency component is selected from the output data of G pixels in the entire imaging area of the image sensor 201 acquired by imaging for acquiring the F value or the area (contrast detection area) including the central portion of the image sensor 201 narrower than the entire imaging area.
  • the integrated value of the extracted and extracted absolute value of the high frequency component is calculated as a contrast evaluation value. The higher the contrast of the subject in the contrast detection area, the larger the contrast evaluation value calculated by the contrast detection unit.
  • the calculation unit 220B increases the number of first phase difference pixels PA and G pixels used for calculating the ratio as the contrast of the subject is higher according to the contrast of the subject detected by the contrast detection unit.
  • the contrast (the degree of blurring) is known from the phase shift amount detected by the phase shift amount detection unit 230A of the AF control unit 230, the number of first phase difference pixels PA and G pixels used according to the phase shift amount May be changed.
  • the calculation unit 220B uses the output data of the plurality of first phase difference pixels PA and the output data of the plurality of G pixels and calculates the ratio of the two, the pixel being saturated (the output data is In the case of 8-bit data, it is preferable to calculate the ratio excluding (or a value close to 255).
  • the information acquiring unit 220C is information related to a light beam angle with respect to the image sensor 201 when subject light enters the image sensor 201 through the interchangeable lens 100 based on the ratio calculated by the computing unit 220B (in this example, the F value) Get).
  • the imaging device 10 stores a storage unit such as the flash ROM 226 or the ROM 228 which stores the ratio of the output data of the first phase difference pixel PA to the output data of the G pixel for each F value of the interchangeable lens 100.
  • a storage unit such as the flash ROM 226 or the ROM 228 which stores the ratio of the output data of the first phase difference pixel PA to the output data of the G pixel for each F value of the interchangeable lens 100.
  • a table showing the relationship between the above ratio and the F value may be stored in the ROM 228, or a table showing the relationship between the above ratio and the F value is downloaded from a server on the network. May be stored.
  • the information acquisition unit 220C reads the F value corresponding to the ratio from the flash ROM 226 or the ROM 228 based on the ratio calculated by the calculation unit 220B, and acquires the read F value as the current F value of the interchangeable lens 100. If the calculated ratio and the corresponding F value are not stored in the flash ROM 226 or the ROM 228, storage is performed based on the calculated ratio and the two stored ratios before and after the ratio. Of the two F values corresponding to the two ratios, the ratio closer to the calculated ratio may be adopted to read the F value, or the calculated ratio may be separated from the calculated ratio. The two F values corresponding to the two stored ratios may be interpolated to calculate the F value based on the two stored ratios.
  • the current F-number of the interchangeable lens 100 can be easily and accurately obtained.
  • the imaging device 10 provided with the image sensor 201 the current F-number of the interchangeable lens 100 can be acquired without adding special hardware, and the device can be made inexpensive.
  • the interchangeable lens 300 compatible with the camera body 200 is mounted, communication can be performed between the interchangeable lens 300 and the camera body 200, and the camera body 200 communicates with the F lens by communication from the interchangeable lens 300. There is no need to estimate the F-number according to the present embodiment, since it is possible to obtain the lens information that includes it.
  • the brightness of the subject (not the brightness of the image but the true subject based on the information of “shutter speed” and “brightness of the image”) Brightness) can be calculated. Further, the brightness of the true subject is used for scene recognition (outside determination, indoor determination, etc.), and can be used for automatic white balance adjustment and the like.
  • the ratio between the output data of the first phase difference pixel PA and the output data of the normal pixel (G pixel) is calculated.
  • the present invention is not limited to this, and the second phase difference pixel PB
  • the ratio of the output data to the output data of the normal pixel (G pixel) may be calculated, and the F value may be obtained based on the calculated ratio.
  • first phase difference pixel PA and the second phase difference pixel PB are used as the first pixel and the second pixel used for obtaining the F value, as shown in FIG.
  • the first phase difference pixel PA and the second phase difference pixel PB are used at a high position of the image height.
  • FIG. 17 is a graph showing the incident angle characteristics of the G pixel of the image sensor 201, the first phase difference pixel PA, and the second phase difference pixel PB (the graph shown in FIG. 12), and F values of F2 and F4. It is a figure which shows the angle range of the light beam which injects into a certain high pixel (G pixel, 1st phase difference pixel PA, and 2nd phase difference pixel PB) of the image height of the image sensor 201 in a case.
  • the sensitivity PAc of the first phase difference pixel PA and the second phase difference pixel PB is not symmetrical with respect to the chief ray.
  • the ratio of the output of the first phase difference pixel PA (or the second phase difference pixel PB) to the output of the G pixel at a position where the image height of the image sensor 201 is high may be calculated.
  • the image sensor 201 of the present example since three types of pixels having different incident angle characteristics (a first phase difference pixel, a second phase difference pixel, and a normal pixel) are present, There are three combinations of two pixels, and a maximum of three ratios can be obtained.
  • the ratio of the output of two pixels having different incident angle characteristics at the central portion of the image sensor 201 and at the position where the image height is high is calculated.
  • the ratio of the output of two pixels having different incident angle characteristics is calculated at each sensor position where the image height of the image sensor 201 is different, and the current F value of the interchangeable lens 100 is estimated from the change of the calculated ratio. Good.
  • FIG. 19 and FIG. 20 are graphs showing changes in the ratio for each sensor position when the stop 108 of the interchangeable lens 100 is on the open side and the small stop side, respectively.
  • PAr is the ratio of the output of the first phase difference pixel PA to the output of the G pixel
  • PBr is the ratio of the output of the second phase difference pixel PB to the output of the G pixel .
  • the ratio PAr on the open side of the aperture 108 at each sensor position or the change in the ratio PBr is small (the inclination is small), and the ratio PAr at the aperture side on each small sensor position is small. Or the change in PBr is large (the slope is large).
  • the change in the ratio PAr or the ratio PBr varies depending on whether the stop 108 of the interchangeable lens 100 is the open side or the small stop side (that is, the F value).
  • the F value can be estimated depending on how the ratio PBr changes.
  • the imaging device 10 is a first table indicating the ratio PAr between the output data of the first phase difference pixel PA and the output data of the G pixel and showing the ratio PAr for each image height (sensor position).
  • a storage unit such as a flash ROM 226 or ROM 228 for storing each F value of the interchangeable lens 100.
  • the above first table may be stored in the ROM 228 for each F value of the interchangeable lens 100 or downloaded from the server on the network for each F value of the interchangeable lens 100 And may be stored in the flash ROM 226.
  • the pixel information acquisition unit 220A acquires the output data of the first phase difference pixel PA and the output data of the G pixel at a plurality of image heights of the image sensor 201, and the operation unit 220B acquires the acquired plurality of image heights for each image height.
  • the ratio between the output data of the first phase difference pixel PA and the output data of the G pixel is calculated, and a second table indicating the ratio for each image height is acquired.
  • the information acquisition unit 220C reads the F value corresponding to the first table that matches or most closely matches the second table from the flash ROM 226 or the ROM 228 based on the second table calculated by the calculation unit 220B.
  • the f-number is obtained as the current f-number of the interchangeable lens 100.
  • the first and second tables are not limited to those created based on the ratio between the output of the first phase difference pixel PA and the output of the G pixel (ratio for each sensor position), and the second phase difference It may be created based on the ratio of the output of the pixel PB to the output of the G pixel and the ratio of the output of the first phase difference pixel PA to the output of the second phase difference pixel PB. Further, although the ratio PAr or the ratio PBr for each sensor position shown in FIG. 19 and FIG. 20 changes linearly, it is not limited thereto.
  • the F value of the interchangeable lens 100 is acquired as information related to the light beam angle with respect to the image sensor 201 when subject light is incident on the image sensor 201 through the interchangeable lens 100.
  • the numerical aperture of the interchangeable lens 100 or the ray angle at the center of the sensor may be acquired.
  • the information related to the ray angle with respect to the image sensor 201 includes not only the ray angle at the sensor center but also, for example, the ray angle with respect to pixels at different positions of the image sensor 201.
  • FIG. 21 is a diagram showing the relationship between the aperture diameter D of the imaging optical system 102, the radius r of the aperture diameter D, the focal length f, and the ray angle ⁇ .
  • the F value can be expressed by the following equation according to the definition of the F value.
  • F f / D
  • the radius r of the aperture diameter D, the focal length f and the light beam angle ⁇ shown in FIG. 21, sin ⁇ can be expressed by the following equation.
  • the F value can be expressed by the following equation.
  • F 1 / (2 sin ⁇ )
  • the numerical aperture NA in air can be expressed by the following equation.
  • the F value of the interchangeable lens 100 is estimated, but the numerical aperture or the light beam angle can be obtained by conversion from the estimated F value.
  • the first pixel and the second pixel can be obtained.
  • the corresponding numerical aperture can be read (acquired) from the storage unit from the ratio of the output of.
  • the present F-number and the like of the interchangeable lens 100 can be estimated, whereby the brightness of the subject and the brightness of the subject can be estimated. Scene recognition is possible. Further, even when the incompatible interchangeable lens 100 is attached to the camera body 200, the F-number or the numerical aperture can be recorded in the header of the image file as attached information of the captured image.
  • FIG. 22 is a flowchart showing a first embodiment of the information acquisition method according to the present invention.
  • the main body CPU 220 determines whether the F value acquisition mode (information acquisition mode) is set by the operation unit 222 (step S10). When the F value acquisition mode is set, it is further determined whether an instruction for imaging (signal of S2 on) is output from the shutter release switch 22 (step S12).
  • the main CPU 220 When the F value acquisition mode is set and the S2 on signal is output, the main CPU 220 performs imaging for F value acquisition, and the pixel information acquisition unit 220A of the main CPU 220 performs imaging for F value acquisition.
  • the pixel information acquisition unit 220A of the main CPU 220 performs imaging for F value acquisition.
  • pixel information acquisition step Of the first pixel (G pixel) and the second pixel (first phase difference pixel PA) having different incident angle characteristics in the central portion of the image sensor 201 among the image data acquired by Step S14, pixel information acquisition step).
  • the calculation unit 220B of the main body side CPU 220 calculates the ratio of the output data of the first and second pixels (first phase difference pixels PA, G pixels) acquired in step S14 (step S16, calculation step).
  • the information acquisition unit 220C of the main CPU 220 acquires an F value based on the ratio calculated in step S16 (step S18, information acquisition step).
  • the acquisition of the F value in this step S18 corresponds to the ratio calculated from the flash ROM 226 or ROM 228 storing a table showing the relationship between the ratio of the first and second pixels having different incident angle characteristics and the F value. It is done by reading the value.
  • FIG. 23 is a flow chart showing a second embodiment of the information acquisition method according to the present invention.
  • the same steps as those in the first embodiment shown in FIG. 22 carry the same step numbers, and the detailed description thereof will be omitted.
  • the main CPU 220 when the F value acquisition mode is set and the S2 on signal is output, the main CPU 220 performs imaging for F value acquisition, and the pixel information acquisition unit 220A of the main CPU 220 executes the F value Output data of a plurality of sets of first and second pixels (first phase difference pixels PA and G pixels) at a plurality of sensor positions having different image heights among image data acquired by imaging for acquisition is acquired (Step S20, pixel information acquisition step).
  • the calculation unit 220B of the main CPU 220 calculates the ratio of the output data of the first and second pixels (first phase difference pixels PA and G pixels) of the plurality of sets (for each image height) acquired in step S20 Step S22) A second table indicating the ratio for each image height is generated (step S24).
  • the information acquisition unit 220C of the main body CPU 220 acquires the current F-number of the interchangeable lens 100 based on the second table generated in step S24 (step S26).
  • a first table indicating ratios of output data of the first and second pixels in advance in the flash ROM 226 or ROM 228 and showing ratios for each image height (sensor position) is stored for each F value of the interchangeable lens 100 It is done.
  • the acquisition of the F value in step S26 reads the F value corresponding to the first table that matches or most closely matches the second table generated in step S24 from the flash ROM 226 or ROM 228, and exchanges the read F value Obtained as the current f-number of the lens 100.
  • the image sensor applied to the present invention is an image composed of only phase difference pixels, which usually have both pixels and phase difference pixels (first and second phase difference pixels) mixed, but not having normal pixels. It may be a sensor. In the case of an image sensor composed only of phase difference pixels, an output equivalent to that of a normal pixel can be obtained by adding the outputs of a pair of adjacent first and second phase difference pixels.
  • the hardware-like structure of a processing unit that executes various processes such as the pixel information acquisition unit 220A, the operation unit 220B, and the information acquisition unit 220C is as follows.
  • the circuit configuration can be changed after manufacturing a central processing unit (CPU), an FPGA (field programmable gate array) that is a general-purpose processor that functions as various processing units by executing software (programs) for various processors.
  • Logic circuits Programmable Logic Devices: PLDs
  • ASICs Application Specific Integrated Circuits
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be In addition, a plurality of processing units may be configured by one processor. As an example in which a plurality of processing units are configured by one processor, first, one processor is configured by a combination of one or more CPUs and software as represented by computers such as clients and servers. There is a form in which a processor functions as a plurality of processing units.
  • SoC system on chip
  • IC integrated circuit
  • circuitry circuitry

Abstract

互換性のない交換レンズが撮像装着された場合であっても、その交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を簡単かつ精度よく取得することができる撮像装置、情報取得方法及び情報取得プログラムを提供する。入射角特性が異なるイメージセンサ上の第1の位相差画素(PA)と通常画素であるG画素との各出力の比と、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報(F値)とが対応関係を有することに着目し、第1の位相差画素(PA)とG画素との各出力の比を算出し、算出した比に基づいてF値を取得するようにしている。

Description

撮像装置、情報取得方法及び情報取得プログラム
 本発明は撮像装置、情報取得方法及び情報取得プログラムに係り、特に撮像装置に装着された交換レンズの情報を取得する技術に関する。
 交換レンズを使用する撮像装置(カメラ)は、大別して2種類の交換レンズを装着することができる。
 一方の交換レンズは、カメラ本体の通信規格に沿って製造され、カメラ本体との間で通信を行うことができる交換レンズである。この種の交換レンズがカメラ本体に装着された場合、カメラ本体は、装着された交換レンズとの間で通信を行い、交換レンズのレンズ情報(例えば、交換レンズ内の絞りの絞り値(F値)、フォーカスレンズのレンズ位置、交換レンズの焦点距離等)を完全に取得することができる。
 他方の交換レンズは、カメラ本体の通信規格に沿って製造されておらず、カメラ本体との間で完全な通信を行うことができない交換レンズ(互換性のない交換レンズ)であり、サードパーティ製の交換レンズ、又はオールドレンズが該当する。尚、交換レンズとカメラ本体との間の通信プロトコル等が異なり、カメラ本体により一部のレンズ情報を取得することができるが、少なくともF値を取得することができないレンズは、本例では互換性のない他方の交換レンズに該当する。
 特許文献1に記載の撮像装置は、イメージセンサの1つの画素が複数の領域に分割され、かつ撮影光学系の瞳像を複数の領域に結像させるオンチップマイクロレンズと、分割された複数の分割領域ごとに光電変換された信号をそれぞれ読み出す読出部とを有するイメージセンサを備え、交換レンズから絞り値に関する情報を取得できない場合に、複数の分割領域の信号に基づいて交換レンズの現在の絞り値を検出している。
 即ち、イメージセンサの1つの画素を構成する複数の分割領域には、交換レンズの絞り値に対応する分割領域のみに被写体光が入射するため、複数の分割領域の信号により交換レンズの現在の絞り値を検出することができる。
 また、特許文献2には、撮影レンズを交換可能なカメラにおいて、撮影レンズを通過した光を測定したTTL(through-the-lens)測光値と外光を直接測光した外光測光値との差に基づいて、撮影レンズに設定されている絞り値を得るカメラが開示されている。即ち、撮影レンズの種類に応じて、TTL測光値と外光測光値との差により絞り値を決定するテーブルを準備しておき、撮影レンズの種類を入力することでテーブルを選択する。そして、選択したテーブルからTTL測光値と外光測光値との差に対応する絞り値を読み出すようにしている。
 更に、特許文献3には、イメージセンサの光軸方向における位置に応じたコントラスト値の変化からレンズ鏡筒の絞り値を推定する技術が開示されている。
 即ち、予め絞り値に対応するコントラスト形状(イメージセンサの光軸方向における位置の変化に対するコントラスト値の変化)を決めたテーブルを有し、コントラスト検出部がコントラスト形状を判定し、判定したコントラスト形状に基づいてテーブルから対応するコントラスト形状を有する絞り値を読み出すようにしている。
国際公開第2015-045829号公報 特開2001-147477号公報 特開2016-145958号公報
 特許文献1に記載の発明は、絞り値を推定するために特殊なイメージセンサを備える必要がある。即ち、イメージセンサの1つの画素が複数の領域に分割され、かつ撮影光学系の瞳像を複数の領域に結像させるオンチップマイクロレンズと、分割された複数の分割領域ごとに光電変換された信号をそれぞれ読み出す読出部とを有する、特殊なイメージセンサを備える必要がある。
 また、特許文献2に記載の発明は、TTL(through-the-lens)測光値と外光測光値とを取得する必要があり、更にTTL測光値と外光測光値との差により絞り値を決定するためのテーブルを撮影レンズの種類毎に準備する必要がある。したがって、テーブルが不明な未知の交換レンズに対しては、特許文献2に記載の発明は適用できない。
 特許文献3に記載の発明は、イメージセンサの光軸方向における位置に応じたコントラスト値の変化からレンズ鏡筒の絞り値を推定しているが、絞り値を推定する場合に撮像される被写体のコントラスト(コントラストの高低)が、イメージセンサの光軸方向における位置に応じたコントラスト値の変化に影響し、コントラスト形状からは絞り値を正しく推定することができないという問題がある。
 本発明はこのような事情に鑑みてなされたもので、互換性のない交換レンズが撮像装着された場合であっても、その交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を簡単かつ精度よく取得することができる撮像装置、情報取得方法及び情報取得プログラムを提供することを目的とする。
 上記目的を達成するために本発明の一の態様に係る撮像装置は、第1の画素と、第1の画素とは入射角特性が異なる第2の画素とを有するイメージセンサと、交換レンズが脱着可能な装着部と、装着部に装着された交換レンズを通じて被写体光が入射するイメージセンサの第1の画素の出力及び第2の画素の出力をそれぞれ取得する画素情報取得部と、画素情報取得部により取得した第1の画素の出力と第2の画素の出力との比を算出する演算部と、演算部により算出された比に基づいて交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得する情報取得部と、を備える。
 本発明の一の態様によれば、入射角特性が異なるイメージセンサ上の第1の画素と第2の画素との各出力の比と、交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報とが対応関係を有することに着目し、第1の画素の出力と第2の画素の出力との比を算出し、算出した比に基づいてイメージセンサに対する光線角度に関連する情報を取得するようにしている。
 本発明の他の態様に係る撮像装置において、イメージセンサは、交換レンズのそれぞれ異なる領域を通過した各被写体光を瞳分割により選択的に受光する第1の位相差画素及び第2の位相差画素を有し、第1の画素は、第1の位相差画素であり、第2の画素は、第2の位相差画素であることが好ましい。像面位相差AF(Autofocus)用のイメージセンサは、第1の位相差画素及び第2の位相差画素を有しており、既存のイメージセンサを適用することができる。
 本発明の更に他の態様に係る撮像装置において、イメージセンサは、交換レンズのそれぞれ異なる領域を通過した各被写体光を瞳分割により選択的に受光する第1の位相差画素及び第2の位相差画素と、各被写体光をそれぞれ受光する通常画素とを有し、第1の画素は、第1の位相差画素又は第2の位相差画素であり、第2の画素は、通常画素であることが好ましい。
 第1の位相差画素と第2の位相差画素との入射角特性が完全に対称の場合、イメージセンサに対する光線角度が変化しても両者の比が変化しないが、第1の位相差画素又は第2の位相差画素と通常画素とは、入射角特性が対称にならないため、イメージセンサに対する光線角度が変化すると、両者の比が変化する。したがって、第1の位相差画素又は第2の位相差画素と通常画素との比を求めることが好ましい。
 本発明の更に他の態様に係る撮像装置において、イメージセンサに対する光線角度に関連する情報は、交換レンズの絞り値、交換レンズの開口数、又はイメージセンサに対する光線角度である。尚、絞り値、開口数及び光線角度は、相互に関係しており、いずれか1つの情報が得られれば、その情報から他の情報は算出(換算)することができる。
 本発明の更に他の態様に係る撮像装置において、イメージセンサに対する光線角度に関連する情報は、交換レンズの絞り値又は交換レンズの開口数であり、第1の画素の出力と第2の画素の出力との比を、交換レンズの絞り値毎又は交換レンズの開口数毎に記憶する記憶部を備え、情報取得部は、演算部により算出された比に基づいて記憶部から比に対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を交換レンズの現在の絞り値又は開口数として取得することが好ましい。
 尚、演算部により算出された比が記憶部に記憶されていない場合には、記憶部に記憶されている比のうちで、演算部により算出された比に最も近い比に対応する絞り値又は開口数を読み出して、交換レンズの現在の絞り値又は開口数としてもよいし、演算部により算出された比と、記憶部に記憶されている前後(算出された比の前後)の比とに基づいて対応する絞り値又は開口数を補間し、交換レンズの現在の絞り値又は開口数としてもよい。
 本発明の更に他の態様に係る撮像装置において、イメージセンサに対する光線角度に関連する情報は、交換レンズの絞り値又は交換レンズの開口数であり、第1の画素の出力と第2の画素の出力との比であって、像高毎の比を示す第1のテーブルを、交換レンズの絞り値又は交換レンズの開口数毎に記憶する記憶部を備え、画素情報取得部は、イメージセンサの複数の像高における第1の画素の出力及び第2の画素の出力を取得し、演算部は、取得した複数の像高毎の第1の画素の出力と第2の画素の出力との比を算出し、像高毎の比を示す第2のテーブルを取得し、情報取得部は、取得した第2のテーブルに基づいて、記憶部から第2のテーブルと一致し又は最も近似する第1のテーブルに対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を交換レンズの現在の絞り値又は開口数として取得することが好ましい。
 本発明の更に他の態様によれば、像高毎の比を示す第1のテーブル(複数の第1のテーブル)と、演算部により算出した像高毎の比を示す第2のテーブルとを比較し、第2のテーブルと一致し又は最も近似する第1のテーブルを抽出し、抽出した第1のテーブルに対応付けられている絞り値又は開口数を取得するため、より精度の高い交換レンズの絞り値又は開口数を取得することができる。また、この場合、第1の画素及び第2の画素として、第1の位相差画素及び第2の位相差画素を使用しても、イメージセンサの中心部では、第1の位相差画素と第2の位相差画素とは入射角特性が完全に対称になっても、像高が異なると、第1の位相差画素と第2の位相差画素とは入射角特性が対称にならなくなる。即ち、第1の画素及び第2の画素として、第1の位相差画素及び第2の位相差画素を使用しても、交換レンズの現在の絞り値又は開口数を取得することができる。
 本発明の更に他の態様に係る撮像装置において、演算部は、取得した複数の像高毎の第1の画素及び第2の画素のうちの飽和していない第1の画素の出力と第2の画素の出力との比を算出し、像高毎の比を示す第2のテーブルを取得することが好ましい。第1の画素又は第2の画素が飽和していると、第1の画素の出力と第2の画素の出力との比を正しく算出することができないからである。
 本発明の更に他の態様に係る撮像装置において、被写体のコントラストを検出するコントラスト検出部を備え、演算部は、コントラスト検出部により検出された被写体のコントラストに応じて、被写体のコントラストが高い程、比の算出に使用する第1の画素及び第2の画素の数を多くすることが好ましい。被写体のコントラストが高い場合、第1の画素の出力と第2の画素の出力との比が、被写体のコントラストの影響を受ける。したがって、この場合には、比の算出に使用する第1の画素及び第2の画素の数を多くすることで、算出される比を平均化している。第1の画素及び第2の画素の数を増減する場合、イメージセンサから第1の画素及び第2の画素を抽出する領域を拡縮する方法と、抽出する領域は同じで第1の画素及び第2の画素を抽出する間隔(間引き率)を変える方法とが考えられる。
 本発明の更に他の態様に係る撮像装置において、交換レンズとの間で通信を行う通信部と、装着された交換レンズから通信部を介して交換レンズの絞り値又は開口数を取得できない場合に画素情報取得部、演算部及び情報取得部をそれぞれ動作させる制御部と、を備えることが好ましい。自社の交換レンズ又は互換性のある交換レンズで、交換レンズと撮像装置本体との間で通信により情報をやり取りできる場合、通信により交換レンズの情報(交換レンズの絞り値又は開口数)を取得する方が簡便だからである。したがって、装着された交換レンズから通信部を介して交換レンズの絞り値又は開口数を取得できない場合に限り、画素情報取得部、演算部及び情報取得部をそれぞれ動作させ、交換レンズの絞り値又は開口数を取得するようにしている。
 本発明の更に他の態様に係る撮像装置において、通信部を介して取得した交換レンズの絞り値又は開口数若しくは情報取得部により取得した交換レンズの絞り値又は開口数を使用して被写体の明るさを算出する測光部を備えることが好ましい。交換レンズの絞り値又は開口数が分かると、「絞り値又は開口数から換算される絞り値」、「シャッタースピード」、及び「画像の輝度(明るさ)」の情報を元に、被写体の明るさ(画像の輝度ではなく真の被写体の明るさ)を算出することができる。また、真の被写体の明るさは、シーン認識(屋外、屋内の判定等)に利用され、オートホワイトバランス調整等に利用することができる。
 本発明の更に他の態様に係る撮像装置において、イメージセンサの第1の位相差画素及び第2の位相差画素の出力に基づいて位相ずれ量を検出する位相ずれ量検出部と、イメージセンサに対する光線角度に関連する情報と位相ずれ量とに基づいてデフォーカス量を算出するデフォーカス量算出部と、算出されたデフォーカス量に基づいてイメージセンサを移動させる焦点調節部と、を備えることが好ましい。
 これによれば、イメージセンサを移動させることで、交換レンズを駆動することなく位相差AFを行うことができ、特に互換性のない交換レンズが装着された場合でも位相差AFを行うことができる。
 本発明の更に他の態様に係る撮像装置において、情報取得モードを設定するモード設定部を備え、画素情報取得部、演算部、及び情報取得部は、それぞれモード設定部により情報取得モードが設定された状態で撮像指示部から撮像の指示が入力された場合に動作することが好ましい。
 情報取得モードが設定された場合、イメージセンサに対する光線角度に関連する情報を取得するために、本撮像前に予めユーザに被写体を撮像して貰う必要がある。情報取得モードが設定されることで、ユーザは、良好な光線角度に関連する情報を取得するため撮像を意識して被写体(例えば、コントラストが低い被写体、飽和が発生しない被写体等)を撮像することができる。尚、情報取得モードは、互換性のない交換レンズの絞りを調整した場合には、その調整毎にユーザが設定することになるが、互換性のない交換レンズが装着された場合には、それを検出して自動的に設定してもよい。
 本発明の更に他の態様に係る撮像装置において、撮像指示部から撮像の指令が入力されると、イメージセンサを介して画像データを取得する画像取得部と、取得した画像データを格納する画像ファイルを作成し、画像ファイルを記録媒体に記録する記録部と、を備え、記録部は、画像ファイルのヘッダに、情報取得部が取得したイメージセンサに対する光線角度に関連する情報を記録することが好ましい。
 更に他の態様に係る発明は、イメージセンサ上の第1の画素とイメージセンサ上の第2の画素であって、第1の画素とは入射角特性が異なる第2の画素とを有するイメージセンサを備える撮像装置における情報取得方法であって、撮像装置に装着された交換レンズを通じて被写体光が入射するイメージセンサの第1の画素の出力及び第2の画素の出力をそれぞれ取得する画素情報取得ステップと、取得した第1の画素の出力と第2の画素の出力との比を算出する演算ステップと、算出された比に基づいて交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得する情報取得ステップと、を含む。
 本発明の他の態様に係る情報取得方法において、撮像装置は、第1の画素の出力と第2の画素の出力との比を、交換レンズの絞り値毎又は交換レンズの開口数毎に記憶する記憶部を備え、情報取得ステップは、算出された比に基づいて記憶部から比に対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を交換レンズの現在の絞り値又は開口数として取得することが好ましい。
 本発明の更に他の態様に係る情報取得方法において、撮像装置は、第1の画素の出力と第2の画素の出力との比であって、像高毎の比を示す第1のテーブルを、交換レンズの絞り値毎又は交換レンズの開口数毎に記憶する記憶部を備え、画素情報取得ステップは、イメージセンサの複数の像高における第1の画素の出力及び第2の画素の出力を取得し、演算ステップは、取得した複数の像高毎の第1の画素の出力と第2の画素の出力との比を算出し、像高毎の比を示す第2のテーブルを取得し、情報取得ステップは、取得した第2のテーブルに基づいて記憶部から第2のテーブルと一致し又は最も近似する第1のテーブルに対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を交換レンズの現在の絞り値又は開口数として取得することが好ましい。
 本発明の更に他の態様に係る情報取得方法において、撮像装置は、交換レンズとの間で通信を行う通信部を備え、装着された交換レンズから通信部を介して交換レンズの絞り値又は開口数を取得するステップと、通信部を介して交換レンズの絞り値又は開口数を取得できない場合に画素情報取得ステップ、演算ステップ及び情報取得ステップの処理を実行して交換レンズの現在の絞り値又は開口数を取得することが好ましい。
 更に他の態様に係る発明は、イメージセンサ上の第1の画素とイメージセンサ上の第2の画素であって、第1の画素とは入射角特性が異なる第2の画素とを有するイメージセンサを備える撮像装置に適用される情報取得プログラムであって、撮像装置に装着された交換レンズを通じて被写体光が入射するイメージセンサの第1の画素の出力及び第2の画素の出力をそれぞれ取得する機能と、取得した第1の画素の出力と第2の画素の出力との比を算出する機能と、算出された比に基づいて交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を取得する機能と、を撮像装置に実現させる。
 本発明によれば、互換性のない交換レンズが撮像装置に装着された場合であっても、その交換レンズを通じて被写体光がイメージセンサに入射する際の、イメージセンサに対する光線角度に関連する情報を簡単かつ精度よく取得することができる。
図1は本発明に係る撮像装置を斜め前方から見た斜視図 図2は撮像装置の背面図 図3は撮像装置の内部構成の実施形態を示すブロック図であり、互換性のない交換レンズが装着された状態を示す図 図4は撮像装置の内部構成の実施形態を示すブロック図であり、互換性のある交換レンズが装着された状態を示す図 図5はイメージセンサの構成例を示す図 図6はイメージセンサの位相差画素行の一部の断面を示す概略図 図7は第1の位相差画素PA及び第2の位相差画素PBの構成を示す要部拡大図 図8はイメージセンサの撮像領域における、第1の位相差画素PA及び第2の位相差画素PBが配置される領域の一例を示す図 図9はイメージセンサの撮像領域における、第1の位相差画素及び第2の位相差画素が配置される領域の他の例を示す図 図10はイメージセンサの撮像領域における、第1の位相差画素PA及び第2の位相差画素PBが配置される領域の更に他の例を示す図 図11はAF制御部の構成例を示す図 図12イメージセンサの通常画素(G画素)、第1の位相差画素及び第2の位相差画素の入射角特性を示すグラフ 図13は撮像光学系の光軸と平行な主光線を有するF値の異なる光束が、イメージセンサに入射する状態を示す図 図14はイメージセンサのG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフと、F値がF2、F4の場合における、イメージセンサの中心部の画素に入射する光束の角度範囲とを示す図 図15は交換レンズの現在のF値を取得する本体側CPUの機能を示すブロック図 図16はF値取得に使用する第1の位相差画素PA及び第2の位相差画素PBのイメージセンサ上の像高を示す図 図17はイメージセンサのG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフと、F値がF2、F4の場合における、イメージセンサの像高の高い或る画素に入射する光束の角度範囲とを示す図 図18はイメージセンサの像高の異なるセンサ位置毎に入射角特性が異なる2つの画素の出力を取得する例を示す図 図19は交換レンズの絞りが開放側にある場合のセンサ位置毎の比の変化を示すグラフ 図20は交換レンズの絞りが小絞り側にある場合のセンサ位置毎の比の変化を示すグラフ 図21はレンズの開口径D、開口径の半径r、焦点距離f及び光線角度θの関係を示す図 図22は本発明に係る情報取得方法の第1の実施形態を示すフローチャート 図23は本発明に係る情報取得方法の第2の実施形態を示すフローチャート
 以下、添付図面に従って本発明に係る撮像装置、情報取得方法及び情報取得プログラムの好ましい実施の形態について説明する。
 <撮像装置の外観>
 図1は撮像装置を斜め前方から見た斜視図であり、図2は撮像装置の背面図である。
 図1に示すように撮像装置10は、交換レンズ100と、交換レンズ100が着脱可能なカメラ本体200とから構成されたミラーレスのデジタル一眼カメラである。
 図1において、カメラ本体200の前面には、交換レンズ100が着脱可能な本体マウント260(装着部)と、光学ファインダのファインダ窓20等が設けられ、カメラ本体200の上面には、主としてシャッタレリーズスイッチ22、シャッタースピードダイヤル23、露出補正ダイヤル24、電源レバー25、及び内蔵フラッシュ30が設けられている。
 また、図2に示すようにカメラ本体200の背面には、主として液晶ディスプレイ等からなるモニタ216、光学ファインダの接眼部26、MENU/OKキー27、十字キー28、再生ボタン29等が設けられている。
 モニタ216は、撮影モード時にライブビュー画像を表示したり、再生モード時に撮像した画像を再生表示する他、各種のメニュー画面を表示する表示部として機能する。MENU/OKキー27は、モニタ216の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キー28は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタンとして機能する。また、十字キー28の上キー及び下キーは撮像時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左キー及び右キーは再生モード時のコマ送り(順方向及び逆方向送り)ボタンとして機能する。 また、MENU/OKキー27、十字キー28、及びモニタ216に表示されるメニュー画面を使用することで、1枚の静止画を撮像する通常撮影モードの他に、静止画を連続撮影する連写モードを含む各種の撮影モードの設定を行うことができる。尚、連写モードを設定する場合、連写速度(例えば、約8コマ/秒、約3コマ/秒)の設定が可能である。
 再生ボタン29は、撮像記録した静止画又は動画をモニタ216に表示させる再生モードに切り替えるためのボタンである。
 <撮像装置の内部構成>
 [交換レンズ]
 <互換性のない交換レンズ>
 図3は、撮像装置10の内部構成の実施形態を示すブロック図である。
 図3に示す交換レンズ100は、カメラ本体200の本体マウント260に装着可能なレンズマウント160を備えているが、カメラ本体200に対して互換性のない交換レンズである。尚、図示しないマウントアダプタを介してカメラ本体200に装着可能な交換レンズも含む。
 交換レンズ100の撮像光学系102は、フォーカスレンズを含むレンズ群104及び絞り108を含む。
 レンズ群104のフォーカスレンズは、図示しないフォーカスリングを手動操作することにより、至近から無限遠に対応する範囲内で移動することができる。
 絞り108は、図示しない絞りリングを手動操作することにより、最大絞りから最小絞りまで、1ステップずつ、又は1/3ステップずつ、又は連続的に絞り開口の大きさを変更することができる。これにより、最大絞り(例えば、絞り値(F値)=F1.2)から最小絞り(例えば、F値=F22)の範囲内でF値を設定することができる。
 <互換性のある交換レンズ>
 図4は、撮像装置10の内部構成の第2の実施形態を示すブロック図である。
 図4に示す交換レンズ300は、カメラ本体200の通信規格に沿って製造されたものであり、後述するようにカメラ本体200との間で通信を行うことができる、互換性のある交換レンズである。
 この交換レンズ300は、撮像光学系302、フォーカスレンズ制御部316、絞り制御部318、レンズ側CPU(Central Processing Unit)320、フラッシュROM(Read Only Memory)326、レンズ側通信部350、及びレンズマウント360を備える。
 交換レンズ300の撮像光学系302は、フォーカスレンズを含むレンズ群304及び絞り308を含む。
 フォーカスレンズ制御部316は、レンズ側CPU320からの指令に従って、フォーカスレンズのフォーカス位置を制御する。絞り制御部318は、レンズ側CPU320からの指令に従って絞り308を制御する。
 レンズ側CPU320は、交換レンズ300を統括制御するもので、ROM324及びRAM(Random Access Memory)322を内蔵している。
 フラッシュROM326は、カメラ本体200からダウンロードされたプログラム等を格納する不揮発性のメモリである。
 レンズ側CPU320は、ROM324又はフラッシュROM326に格納された制御プログラムに従い、RAM322を作業領域として、交換レンズ300の各部を統括制御する。
 レンズ側通信部350は、レンズマウント360がカメラ本体200の本体マウント260に装着されている状態で、レンズマウント360に設けられた複数の信号端子(レンズ側信号端子)を介してカメラ本体200との通信を行う。即ち、レンズ側通信部350は、レンズ側CPU320の指令に従って、レンズマウント360及び本体マウント260を介して接続されたカメラ本体200の本体側通信部250との間で、リクエスト信号、回答信号の送受信(双方向通信)を行い、撮像光学系302の各光学部材のレンズ情報(フォーカスレンズのフォーカス位置情報、焦点距離情報及び絞り情報等)を、カメラ本体200に通知する。
 また、交換レンズ300は、フォーカスレンズのフォーカス位置情報、及び絞り情報を検出する検出部(図示せず)を備えている。ここで、絞り情報とは、絞り308の絞り値(F値)、絞り308の開口径等を示す情報である。以下、本例では、絞り情報としてF値を使用する。
 レンズ側CPU320は、カメラ本体200からのレンズ情報のリクエストに応えるために、検出されたフォーカス位置情報及び絞り情報を含む各種のレンズ情報をRAM322に保持することが好ましい。また、レンズ情報は、カメラ本体200からのレンズ情報の要求があると検出され、又は光学部材が駆動されるときに検出され、又は一定の周期(動画のフレーム周期よりも十分に短い周期)で検出され、検出結果を保持することができる。
 [カメラ本体]
 図3又は図4に示す撮像装置10を構成するカメラ本体200は、イメージセンサ201(画像取得部)、イメージセンサ制御部202、アナログ信号処理部203、A/D(Analog/Digital)変換器204、画像入力コントローラ205、デジタル信号処理部206、RAM207、圧縮伸張処理部208、焦点調節部209、メディア制御部210(記録部)、メモリカード212(記録媒体)、表示制御部214、モニタ216、本体側CPU220、操作部222、時計部224、フラッシュROM226、ROM228、AF制御部230、明るさ検出部232(測光部)、ホワイトバランス補正部234、無線通信部236、GPS(Global Positioning System)受信部238、電源制御部240、バッテリ242、本体側通信部250、本体マウント260、内蔵フラッシュ30(図1)を構成するフラッシュ発光部270、フラッシュ制御部272、フォーカルプレーンシャッタ(FPS:focal-plane shutter)280、及びFPS制御部296を備える。
 <イメージセンサの構成>
 イメージセンサ201は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成されている。尚、イメージセンサ201は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。
 イメージセンサ201は、図5に示すようにx方向(水平方向)及びy方向(垂直方向)に二次元的に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、赤(R)、緑(G)及び青(B)のカラーフィルタが、周期的色配列(図5に示す例では、一般的なベイヤ配列)で配設され、各フォトダイオード上にはマイクロレンズが配置されている。
 また、イメージセンサ201は、位相差画素(第1の位相差画素PA,第2の位相差画素PB)と撮像用の通常画素(位相差画素以外の画素)が配置されている。
 ベイヤ配列を有するイメージセンサ201において、通常画素のみが水平方向(行方向)に配置された通常画素行は、Rフィルタを有する画素(R画素)とGフィルタを有する画素(G画素)とが行方向に交互に配置されたRG行と、G画素とBフィルタを有する画素(B画素)とが行方向に交互に配置されたGB行とがある。また、RG行とGB行とは、垂直方向(列方向)に交互に配置されている。
 また、イメージセンサ201は、第1の位相差画素PA及び第2の位相差画素PBが設けられた位相差画素行と、通常画素のみが設けられている通常画素行とを有している。
 イメージセンサ201の位相差画素行は、ベイヤ配列の特定のGB行において、一対の第1の位相差画素PA及び第2の位相差画素PBと1つの通常画素の3画素を1周期として周期的に行方向に配置されて構成されている。したがって、位相差画素行には、G画素とB画素とが行方向に2画素(一対の第1の位相差画素PA及び第2の位相差画素PB)置きに交互に配置されている。尚、本例の位相差画素行は、ベイヤ配列のGB行に設けられているが、これに限らず、RG行に設けるようにしてもよい。
 周期的色配列は、ベイヤ配列に限らず、X-Trans(登録商標)配列等の他のカラーフィルタ配列でもよい。
 図6は、イメージセンサ201の位相差画素行の一部の断面を示す概略図である。図6には、一対の第1の位相差画素PA及び第2の位相差画素PBと、これらの画素に隣接する通常画素であるB画素とG画素との4つの画素が示されている。第1の位相差画素PA及び第2の位相差画素PBには、それぞれ入射光を制限する遮光膜MA,MBが設けられている。
 図7は第1の位相差画素PA及び第2の位相差画素PBの構成を示す要部拡大図である。
 図7に示すように第1の位相差画素PAのフォトダイオードPDの前面側(マイクロレンズML側)には、遮光膜MAが配設され、一方、第2の位相差画素PBのフォトダイオードPDの前面側には、遮光膜MBが配設される。マイクロレンズML及び遮光膜MA、MBは瞳分割機能を有し、図7上で、遮光膜MAは、フォトダイオードPDの受光面の左半分を遮光する。そのため、第1の位相差画素PAには、撮像光学系102の射出瞳を通過する光束のうちの光軸の左側を通過する光束のみが選択的に受光される。また、カラーフィルタCFとして、GフィルタがマイクロレンズMLの下方に配置されている。
 一方、遮光膜MBは、第2の位相差画素PBのフォトダイオードPDの受光面の右半分を遮光する。そのため、第2の位相差画素PBには、撮像光学系102の射出瞳を通過する光束のうちの光軸の右側を通過する光束のみが選択的に受光される。このように、瞳分割機能を有するマイクロレンズML及び遮光膜MA、MBにより、射出瞳を通過する光束が左右に分割され、それぞれ第1の位相差画素PA及び第2の位相差画素PBに入射する。
 図8から図10は、それぞれイメージセンサ201の撮像領域における、第1の位相差画素PA及び第2の位相差画素PBが配置される領域の例を示している。図8から図10において、第1の位相差画素PA及び第2の位相差画素PBが配置される領域は、斜線で示されている。
 図3に戻って、本例のイメージセンサ201は、光軸方向に移動可能に設けられており、焦点調節部209によりイメージセンサ201の位置が調節可能になっている。したがって、イメージセンサ201の光軸方向の位置を制御することで、イメージセンサ201の結像面に被写体像を合焦させることができる。
 交換レンズ100の撮像光学系102によってイメージセンサ201の受光面に結像された被写体の光学像は、イメージセンサ201によって電気信号に変換される。イメージセンサ201の各画素には、入射する光量に応じた電荷が蓄積され、イメージセンサ201からは各画素に蓄積された電荷量に応じた電気信号が画像信号として読み出される。
 イメージセンサ制御部202は、本体側CPU220の指令に従って、イメージセンサ201から画像信号の読み出し制御を行う。また、イメージセンサ制御部202は、本体側CPU220からの電子シャッタ制御信号により、イメージセンサ201の各画素に蓄積にされた電荷を同時に排出させて(一斉にリセットして)、露光を開始させる電子シャッタ機能を有する。
 アナログ信号処理部203は、イメージセンサ201で被写体を撮像して得られたアナログの画像信号に対して、各種のアナログ信号処理を施す。アナログ信号処理部203は、サンプリングホールド回路、色分離回路、AGC(Automatic Gain Control)回路等を含んで構成されている。AGC回路は、撮像時の感度(ISO感度(ISO:International Organization for Standardization))を調整する感度調整部として機能し、入力する画像信号を増幅する増幅器のゲインを調整し、画像信号の信号レベルが適切な範囲に入るようにする。A/D変換器204は、アナログ信号処理部203から出力されたアナログの画像信号をデジタルの画像信号に変換する。
 静止画又は動画の撮像時にイメージセンサ201、アナログ信号処理部203、及びA/D変換器204を介して出力されるRGBの画素毎の画像データ(モザイク画像データ)は、画像入力コントローラ205からRAM207に入力され、一時的に記憶される。尚、イメージセンサ201がCMOS型イメージセンサである場合、アナログ信号処理部203及びA/D変換器204は、イメージセンサ201内に内蔵されていることが多い。
 デジタル信号処理部206は、RAM207に格納されている画像データに対して、各種のデジタル信号処理を施す。デジタル信号処理部206は、RAM207に記憶されている画像データを適宜読み出し、読み出した画像データに対してオフセット処理、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理、同時化処理とも言う)、RGB/YCrCb変換処理等のデジタル信号処理を行い、デジタル信号処理後の画像データを再びRAM207に記憶させる。尚、デモザイク処理とは、例えば、RGB3色のカラーフィルタからなるイメージセンサの場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理であり、モザイクデータ(点順次のRGBデータ)から同時化されたRGB3面の画像データを生成する。
 RGB/YCrCb変換処理は、同時化されたRGBデータを輝度データ(Y)及び色差データ(Cr、Cb)に変換する処理である。
 圧縮伸張処理部208は、静止画又は動画の記録時に、一旦RAM207に格納された非圧縮の輝度データY及び色差データCb,Crに対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮伸張処理部208により圧縮された画像データは、メディア制御部210を介してメモリカード212に記録される。また、圧縮伸張処理部208は、再生モード時にメディア制御部210を介してメモリカード212から得た圧縮された画像データに対して伸張処理を施し、非圧縮の画像データを生成する。
 メディア制御部210は、圧縮伸張処理部208で圧縮された画像データを、メモリカード212に記録する制御を行う。また、メディア制御部210は、メモリカード212から、圧縮された画像データを読み出す制御を行う。
 表示制御部214は、RAM207に格納されている非圧縮の画像データを、モニタ216に表示させる制御を行う。モニタ216は、例えば液晶表示デバイス、有機エレクトロルミネッセンスなどの表示デバイスによって構成されている。
 モニタ216にライブビュー画像を表示させる場合には、デジタル信号処理部206で連続的に生成されたデジタルの画像信号が、RAM207に一時的に記憶される。表示制御部214は、このRAM207に一時記憶されたデジタルの画像信号を表示用の信号形式に変換して、モニタ216に順次出力する。これにより、モニタ216に撮像画像がリアルタイムに表示され、モニタ216を電子ビューファインダとして使用することができる。
 シャッタレリーズスイッチ22は、撮像の指示を入力するための撮像指示部であり、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。
 静止画撮影モードの場合、シャッタレリーズスイッチ22が半押しされることによってS1オンの信号、半押しから更に押し込む全押しがされることによってS2オンの信号が出力され、S1オン信号が出力されると、本体側CPU220は、オートフォーカス(AF:Autofocus)制御及び自動露出制御(AE(Auto Exposure)制御)などの撮像準備処理を実行し、S2オン信号が出力されると、静止画の撮像処理及び記録処理を実行する。尚、AF制御及びAE制御は、それぞれ操作部222によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。
 また、動画撮影モードの場合、シャッタレリーズスイッチ22が全押しされることによってS2オンの信号が出力されると、カメラ本体200は、動画の記録を開始する動画記録モードになり、動画の画像処理及び記録処理を実行し、その後、シャッタレリーズスイッチ22が再び全押しされることによってS2オンの信号が出力されると、カメラ本体200は、スタンバイ状態になり、動画の記録処理を一時停止する。
 尚、シャッタレリーズスイッチ22は半押しと全押しとからなる2段ストローク式のスイッチの形態に限られず、1回の操作でS1オンの信号、S2オンの信号を出力しても良く、それぞれ個別のスイッチを設けてS1オンの信号、S2オンの信号を出力しても良い。
 また、タッチ式パネル等により操作指示を行う形態では、これら操作手段としてタッチ式パネルの画面に表示される操作指示に対応する領域をタッチすることで操作指示を出力するようにしても良く、撮像準備処理や撮像処理を指示するものであれば操作手段の形態はこれらに限られない。
 撮像により取得された静止画又は動画は、圧縮伸張処理部208により圧縮され、圧縮された画像データは、撮像日時、GPS情報、撮像条件(F値、シャッタースピード、ISO感度等)の所要の付属情報が、ヘッダに付加された画像ファイルとされた後、メディア制御部210を介してメモリカード212に格納される。
 本体側CPU220は、カメラ本体200全体の動作及び交換レンズ100の光学部材の駆動等を統括制御するもので、シャッタレリーズスイッチ22を含む操作部222等からの入力に基づき、カメラ本体200の各部及び交換レンズ300を制御する。
 時計部224は、タイマとして、本体側CPU220からの指令に基づいて時間を計測する。また、時計部224は、カレンダとして、現在の年月日及び時刻を計測する。
 フラッシュROM226は、読み取り及び書き込みが可能な不揮発性メモリであり、設定情報を記憶する。
 ROM228には、本体側CPU220が実行するカメラ制御プログラム、イメージセンサ201の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されている。本体側CPU220は、ROM228に格納されたカメラ制御プログラムに従い、RAM207を作業領域としながらカメラ本体200の各部、及び交換レンズ300を制御する。
 AF制御部230は、位相差AFの制御に必要なデフォーカス量を算出し、算出したデフォーカス量に基づいて焦点調節部209を介してイメージセンサ201の位置を制御する。
 AF制御部230は、図11に示すように位相ずれ量検出部230A及びデフォーカス量算出部230Bを含む。
 位相ずれ量検出部230Aは、イメージセンサ201のAF領域内の第1の位相差画素PAの出力及び第2の位相差画素PBの出力に基づいて位相ずれ量を検出する。位相ずれ量は、第1の位相差画素PAの各出力データと第2の位相差画素PBの各出力データの相関が最大になるとき(第1の位相差画素PAと第2の位相差画素PBの各出力データの差分絶対値の積算値が最小になるとき)の各出力データ間のシフト量から算出することができる。
 デフォーカス量算出部230Bは、位相ずれ量検出部230Aにより検出された位相ずれ量と、交換レンズ100の現在のF値(光線角度)に対応する係数とを乗算することによりデフォーカス量を算出する。
 本例のように互換性のない交換レンズ100の場合、カメラ本体200により交換レンズ100を制御することができないが、焦点調節部209によりイメージセンサ201を光軸方向に移動させることにより自動的に焦点調節を行うことができる。
 即ち、AF制御部230は、AF制御を行う場合にデフォーカス量算出部230Bにより算出されたデフォーカス量に基づいて焦点調節部209を駆動制御し、イメージセンサ201を算出されたデフォーカス量だけ移動させる。これにより、デフォーカス量がゼロとなる位置(位相差が最小となる位置)にイメージセンサ201を移動させることができ、イメージセンサ201の結像面に被写体像を合焦させる位相差AFを行うことができる。
 尚、AFは、位相差AFに限定されず、例えば、コントラストAFでもよい。コントラストAFの場合、AF制御部230は、AF領域内におけるG画素(Gのカラーフィルタを有する画素)のG信号から高周波成分を抽出し、抽出した高周波成分の絶対値の積分値(焦点評価値)を算出し、算出した焦点評価値が最大となる位置(即ち、コントラストが最大になる位置)に焦点調節部209を介してイメージセンサ201を移動させる。
 明るさ検出部232(測光部)は、被写体の明るさ(被写体輝度)を検出する部分であり、被写体輝度に対応するAE制御及びAWB(Auto White Balance)制御に必要な数値(露出値(EV値(exposure value)))を算出する。明るさ検出部232は、イメージセンサ201を介して取得した画像の輝度、画像の輝度の取得時のシャッタースピード及びF値によりEV値を算出する。
 本体側CPU220は、互換性のある交換レンズ300の場合、明るさ検出部232から得たEV値に基づいて所定のプログラム線図からF値、シャッタースピード及びISO感度を決定し、AE制御を行うことができる。
 また、本体側CPU220は、互換性のない交換レンズ100の場合、イメージセンサ201を介して取得した画像の輝度が、適正な輝度になるようにシャッタースピード及びISO感度を決定し、AE制御を行うことができる。
 ホワイトバランス補正部234は、RGBデータ(Rデータ、Gデータ及びBデータ)の色データ毎のホワイトバランスゲイン(WB(White Balance)ゲイン)Gr,Gg,Gbを算出し、Rデータ、Gデータ及びBデータに、それぞれ算出したWBゲインGr,Gg,Gbを乗算することによりホワイトバランス補正を行う。ここで、WBゲインGr,Gg,Gbの算出方法としては、被写体の明るさ(EV値)によるシーン認識(屋外、屋内の判定等)及び周囲光の色温度等に基づいて被写体を照明している光源種を特定し、予め光源種毎に適切なWBゲインが記憶されている記憶部から特定した光源種に対応するWBゲインを読み出す方法が考えられるが、少なくともEV値を使用してWBゲインGr,Gg,Gbを求める他の公知の方法が考えられる。
 無線通信部236は、Wi-Fi(Wireless Fidelity)(登録商標)、Bluetooth(登録商標)等の規格の近距離無線通信を行う部分であり、周辺のデジタル機器(スマートフォン、等の携帯端末)との間で必要な情報の送受信を行う。
 GPS受信部238は、本体側CPU220の指示に従って、複数のGPS衛星から送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、カメラ本体200の緯度、経度、及び高度からなるGPS情報を取得する。取得されたGPS情報は、撮像された画像の撮像位置を示す付属情報として画像ファイルのヘッダに記録することができる。
 電源制御部240は、本体側CPU220の指令に従って、バッテリ242から供給される電源電圧をカメラ本体200の各部に与える。また、電源制御部240は、本体側CPU220の指令に従って、本体マウント260及びレンズマウント160を介して、バッテリ242から供給される電源電圧を、互換性のある交換レンズ300の各部に与える。
 レンズ電源スイッチ244は、本体側CPU220の指令に従って、本体マウント260及びレンズマウント360を介して交換レンズ300に与える電源電圧のオン及びオフの切り替えとレベルの切り替えを行う。
 本体側通信部250は、本体側CPU220の指令に従って、本体マウント260及びレンズマウント360を介して接続された交換レンズ300のレンズ側通信部350との間で、リクエスト信号、回答信号の送受信(双方向通信)を行う。尚、本体マウント260には、図1に示すように複数の端子260Aが設けられており、交換レンズ300がカメラ本体200に装着(レンズマウント360と本体マウント260とが接続)されると、本体マウント260に設けられた複数の端子260A(図1)と、レンズマウント360に設けられた複数の端子(図示せず)とが電気的に接続され、本体側通信部250とレンズ側通信部350との間で双方向通信が可能になる。
 内蔵フラッシュ30(図1)は、例えば、TTL(Through The Lens)自動調光方式のフラッシュであり、フラッシュ発光部270と、フラッシュ制御部272とから構成されている。
 フラッシュ制御部272は、フラッシュ発光部270から発光するフラッシュ光の発光量(ガイドナンバー)を調整する機能を有する。即ち、フラッシュ制御部272は、本体側CPU220からのフラッシュ撮像指示に同期してフラッシュ発光部270を発光させ、交換レンズ100又は300の撮像光学系102又は302を介して入射する反射光(周囲光を含む)の測光を開始し、測光値が標準露出値に達すると、フラッシュ発光部270からのフラッシュ光の発光を停止させる。
 フォーカルプレーンシャッタ(FPS:focal-plane shutter)280は、撮像装置10のメカシャッタを構成し、イメージセンサ201の直前に配置される。FPS制御部296は、本体側CPU220からの入力情報(S2オン信号、シャッタスピード等)に基づいてFPS280の先幕、後幕の開閉を制御し、イメージセンサ201における露光時間(シャッタスピード)を制御する。
 [情報取得方法の原理]
 次に、互換性のない交換レンズ100がカメラ本体200に装着された場合に、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報を取得する方法を、原理的に説明する。以下、イメージセンサ201に対する光線角度に関連する情報として、交換レンズ100の「F値」を例に説明する。
 図12は、イメージセンサ201の通常画素(G画素)、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフであり、イメージセンサ201のx方向(水平方向)の角度に対する通常画素(G画素)の感度Gc,第1の位相差画素PAの感度PAc,及び第2の位相差画素PBの感度PBcを示している。
 図12に示すようにG画素の感度Gcが一番高く、第1の位相差画素PA及び第2の位相差画素PBの感度PAc,PBcは、G画素よりも低い。また、第1の位相差画素PAと第2の位相差画素PBとは、開口の左半分及び右半分が遮光膜MA,MBで遮光されていることから、第1の位相差画素PAの感度PAcと第2の位相差画素PBの感度PBcとは、入射角ゼロを中心にして対称性を有するとともに、感度のピーク位置がずれる。
 図13は、撮像光学系102の光軸Lと平行な主光線を有する光束が、イメージセンサ201に入射する場合であって、F値が小さい場合と大きい場合とに関して示している。
 図13において、θ1は、F値が小さい場合の主光線(この場合、光軸L)と、上線(射出瞳又は入射瞳の上の縁を通る光線)とのなす角度(光線角度)を示し、θ2は、F値が大きい場合の主光線と、上線とのなす光線角度を示している。
 図14は、イメージセンサ201のG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフ(図12に示したグラフ)と、F値がF2、F4の場合における、イメージセンサ201の中心部の画素(G画素、第1の位相差画素PA及び第2の位相差画素PB)に入射する光束の角度範囲とを示す図である。
 図14に示すように、F値が小さい場合(F2)には、入射する光束の角度範囲は大きくなり(図13の光線角度θ1は大きくなり)、F値が大きい場合(F4)には、入射する光束の角度範囲は小さくなる(図13の光線角度θ2は小さくなる)。
 いま、イメージセンサ201の中心部のG画素の出力と、中心部の第1の位相差画素PA(又は第2の位相差画素PB)の出力との比を算出すると、F値に応じて異なる比が得られる。例えば、イメージセンサ201の中心部のG画素の出力に対する、中心部の第1の位相差画素PAの出力の比を算出すると、F値が小さい程、算出される比が小さくなる。これは、第1の位相差画素PAの感度PAcのピーク位置が入射角ゼロからずれ、かつピーク位置がずれた方向と逆方向の感度が、G画素の感度に比べて急峻に低下する特性を有するからである。
 したがって、G画素の出力と第1の位相差画素PA(又は第2の位相差画素PB)の出力との比を、F値毎に記憶したフラッシュROM226又はROM228等の記憶部を予め準備しておき、交換レンズ100の現在のF値を取得する際にF値取得用の撮像を行う。そして、F値取得用の撮像によって取得したG画素の出力と第1の位相差画素PA(又は第2の位相差画素PB)の出力との比を算出し、算出した比に基づいて記憶部から対応するF値を読み出すことで、F値を取得することができる。
 図15は、交換レンズ100の現在のF値を取得(推定)するカメラ本体200の本体側CPU220の機能を示すブロック図である。
 図15に示すように本体側CPU220(撮像装置)は、フラッシュROM226又はROM228に格納されたF値推定用のプログラム(情報取得プログラム)を実行することより各種の処理部として機能し、この実施形態では、画素情報取得部220A、演算部220B、及び情報取得部220Cとしての機能を有する。上記情報取得プログラムが格納される媒体は、ハードディスク、CD(Compact Disk)、DVD(Digital Versatile Disk)、各種半導体メモリ等の、非一時的かつコンピュータ読取可能な記録媒体であってもよい。
 撮像装置10の操作部222には、情報取得モード(F値取得モード)を設定するモード設定部が設けられている。ユーザが交換レンズ100の絞りリングを操作し、絞り108のF値を切り換える場合、ユーザは、モード設定部を操作してF値取得モードの設定を行い、F値取得用の撮像を行う。尚、F値取得用の撮像は、コントラストの低い被写体を撮像し、又はボケた状態で撮像することが好ましい。F値取得に使用するG画素、第1の位相差画素PA(又は第2の位相差画素PB)の各画素に入射する光量が均一であることが好ましいからである。
 モード設定部によりF値取得モードが設定された状態で、撮像指示部として機能するシャッタレリーズスイッチ22から撮像の指示が入力されると、本体側CPU220の画素情報取得部220A、演算部220B及び情報取得部220Cは、それぞれ以下に示すF値取得用の動作を行う。
 画素情報取得部220Aは、F値取得用の撮像により交換レンズ100及びイメージセンサ201等を介して得られた画像データのうちの、F値取得に使用する第1の位相差画素PA(又は第2の位相差画素PB)及びG画素の各出力データ(画素情報)を取得する。
 本例では、イメージセンサ201の中心部の第1の位相差画素PA(第1の画素)及びG画素(第2の画素)の各出力データを取得する。
 演算部220Bは、画素情報取得部220Aにより取得した第1の位相差画素PAの出力データ(第21の画素の出力)とG画素の出力データ(第2の画素の出力)の比を算出する。
 演算部220Bによる第1の位相差画素PAの出力データとG画素の出力データとの比を算出する場合、比の算出に使用する第1の位相差画素PA及びG画素の数を多くすることが好ましい。被写体のコントラストが高い場合、第1の位相差画素PAの出力データとG画素の出力データとの比が、被写体のコントラストの影響を受けて変動するからである。
 また、F値取得用の撮像を行う場合の被写体のコントラストに応じて、第1の位相差画素PAの出力データとG画素の出力データとの比の算出に使用する画素数(画素情報を取得する領域の大きさ)を変化させるようにしてもよい。
 具体的には、撮像装置10に被写体のコントラストを検出するコントラスト検出部を設ける。コントラスト検出部は、AF制御部230がコントラスト検出部を含む場合には、AF制御部230に含まれる既存のコントラスト検出部を使用することができ、AF制御部230がコントラスト検出部を含まない場合には、本体側CPU220にコントラスト検出機能を追加することが考えられる。
 そして、F値取得用の撮像を行う場合の被写体のコントラストを、コントラスト検出部により検出する。即ち、F値取得用の撮像により取得したイメージセンサ201の全撮像領域、又は全撮像領域よりも狭いイメージセンサ201の中心部を含む領域(コントラスト検出領域)のG画素の出力データから高周波成分を抽出し、抽出した高周波成分の絶対値の積分値を、コントラスト評価値として算出する。コントラスト検出領域における被写体のコントラストが高い程、コントラスト検出部により算出されるコントラスト評価値が大きくなる。
 演算部220Bは、コントラスト検出部により検出された被写体のコントラストに応じて、被写体のコントラストが高い程、比の算出に使用する第1の位相差画素PAとG画素の数を多くする。
 また、AF制御部230の位相ずれ量検出部230Aにより検出される位相ずれ量からコントラスト(ボケ具合)が分かるため、位相ずれ量に応じて使用する第1の位相差画素PAとG画素の数を変更してもよい。
 更に、演算部220Bは、複数の第1の位相差画素PAの各出力データ及び複数のG画素の各出力データを使用し、両者の比を算出する場合、飽和している画素(出力データが8ビットのデータの場合、255又はそれに近い値)を除いて比を算出することが好ましい。
 情報取得部220Cは、演算部220Bにより算出された比に基づいて交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報(本例では、F値)を取得する。
 具体的には、撮像装置10は、第1の位相差画素PAの出力データとG画素の出力データとの比を、交換レンズ100のF値毎に記憶するフラッシュROM226又はROM228等の記憶部を備える。製品出荷前に、上記の比とF値との関係を示すテーブルをROM228に記憶させてもよいし、ネットワーク上のサーバから上記の比とF値との関係を示すテーブルをダウンロードし、フラッシュROM226に記憶させてもよい。
 情報取得部220Cは、演算部220Bにより算出された比に基づいてフラッシュROM226又はROM228からその比に対応するF値を読み出し、読み出したF値を、交換レンズ100の現在のF値として取得する。尚、フラッシュROM226又はROM228に、算出された比及びそれに対応するF値が記憶されていない場合には、算出された比と、その比の前後の2つの記憶された比とに基づいて、記憶された2つの比に対応する2つのF値のうちの、算出された比に近い方の比を採用してF値を読み出してもよいし、算出された比と、算出された比を挟んで記憶された2つの比とに基づいて、記憶された2つの比に対応する2つのF値を補間してF値を算出するようにしてもよい。
 本実施形態によれば、互換性のない交換レンズ100がカメラ本体200に装着された場合でも、交換レンズ100の現在のF値を簡単かつ精度よく取得することができ、また、位相差画素を有するイメージセンサ201を備えた撮像装置10の場合、特別なハードウェアを追加することなく、交換レンズ100の現在のF値を取得することができ、安価な装置とすることができる。尚、互換性のある交換レンズ300がカメラ本体200に装着された場合、交換レンズ300とカメラ本体200との間で通信することができ、カメラ本体200は、交換レンズ300から通信によりF値を含むレンズ情報を取得することができるため、本実施形態によりF値を推定する必要はない。
 また、交換レンズ100の「F値」を取得することにより、「シャッタースピード」、及び「画像の輝度(明るさ)」の情報を元に、被写体の明るさ(画像の輝度ではなく真の被写体の明るさ)を算出することができる。また、真の被写体の明るさは、シーン認識(屋外、屋内の判定等)に利用され、オートホワイトバランス調整等に利用することができる。
 上記の実施形態では、第1の位相差画素PAの出力データと通常画素(G画素)の出力データとの比を算出するようにしたが、これに限らず、第2の位相差画素PBの出力データと通常画素(G画素)の出力データとの比を算出し、算出した比に基づいてF値を取得するようにしてもよい。
 一方、イメージセンサ201の中心部の第1の位相差画素PAの出力データと第2の位相差画素PBの出力データとの比を算出する場合、図14に示すように第1の位相差画素PAの感度PAcと第2の位相差画素PBの感度PBcとは、入射角ゼロを中心にして対称性を有するため、両者の比は、F値によって変化しない。
 そこで、第1の位相差画素PA及び第2の位相差画素PBを、F値取得に使用する第1の画素及び第2の画素とする場合には、図16に示すように、イメージセンサ201の像高の高い位置における、第1の位相差画素PAと第2の位相差画素PBを使用する。
 図17は、イメージセンサ201のG画素、第1の位相差画素PA及び第2の位相差画素PBの入射角特性を示すグラフ(図12に示したグラフ)と、F値がF2、F4の場合における、イメージセンサ201の像高の高い或る画素(G画素、第1の位相差画素PA及び第2の位相差画素PB)に入射する光束の角度範囲とを示す図である。
 図17に示すように、イメージセンサ201の像高の高い位置における第1の位相差画素PA及び第2の位相差画素PBでは、第1の位相差画素PAの感度PAcと第2の位相差画素PBの感度PBcとは、それぞれ主光線に対して対称にならない。
 したがって、イメージセンサ201の像高の高い位置における第1の位相差画素PAと第2の位相差画素PBの出力との比を算出すると、F値(例えば、F2,F4)に応じて異なる比が得られる。
 イメージセンサ201の像高の高い位置における第1の位相差画素PA(又は第2の位相差画素PB)の出力とG画素の出力との比を算出してもよいことは言うまでもない。
 また、本例のイメージセンサ201には、入射角特性が異なる3種類の画素(第1の位相差画素、第2の位相差画素及び通常画素)が存在するため、これらの3種類の画素の2つの画素の組合せは3通りあり、最大3つの比を求めることができる。
 このように入射角特性が異なる3種類以上の画素が存在する場合には、複数の比を求めることができる。複数の比を使用して交換レンズ100のF値を推定すると、より精度の高いF値の推定が可能になる。
 図13及び図16に示した例では、イメージセンサ201の中央部及び像高の高い位置での入射角特性が異なる2つの画素の出力の比を算出するようにしたが、図18に示すようにイメージセンサ201の像高の異なるセンサ位置毎に入射角特性が異なる2つの画素の出力の比を算出し、算出した比の変化から交換レンズ100の現在のF値を推定するようにしてもよい。
 ここで、イメージセンサ201の像高の異なるセンサ位置とは、図18に示すように光軸Lに対応するイメージセンサ201のセンサ中心(x=0)から、第1の位相差画素PAと第2の位相差画素PBの瞳分割方向であるイメージセンサ201のx方向の異なる位置である。
 図19及び図20は、それぞれ交換レンズ100の絞り108が、開放側及び小絞り側にある場合のセンサ位置毎の比の変化を示すグラフである。
 図19及び図20において、PArは、G画素の出力に対する第1の位相差画素PAの出力の比であり、PBrは、G画素の出力に対する第2の位相差画素PBの出力の比である。
 図19及び図20に示すように、センサ位置毎の絞り108が開放側の比PAr、又は比PBrの変化は小さく(傾きは小さく)、センサ位置毎の絞り108が小絞り側の比PAr、又はPBrの変化は大きい(傾きは大きい)。
 このように、交換レンズ100の絞り108が開放側か小絞り側かに応じて(即ち、F値に応じて)、比PAr又は比PBrの変化が異なるため、センサ位置に応じて比PAr又は比PBrがどのように変化するかに応じてF値を推定することができる。
 具体的には、撮像装置10は、第1の位相差画素PAの出力データとG画素の出力データとの比PArであって、像高(センサ位置)毎の比PArを示す第1のテーブルを、交換レンズ100のF値毎に記憶するフラッシュROM226又はROM228等の記憶部を備える。製品出荷前に、交換レンズ100のF値毎に上記の第1のテーブルをROM228に記憶させてもよいし、ネットワーク上のサーバから交換レンズ100のF値毎に上記の第1のテーブルをダウンロードし、フラッシュROM226に記憶させてもよい。
 画素情報取得部220Aは、イメージセンサ201の複数の像高における第1の位相差画素PAの出力データとG画素の出力データとを取得し、演算部220Bは、取得した複数の像高毎の第1の位相差画素PAの出力データとG画素の出力データと比を算出し、像高毎の比を示す第2のテーブルを取得する。
 情報取得部220Cは、演算部220Bにより算出された第2のテーブルに基づいて、フラッシュROM226又はROM228から第2のテーブルと一致し又は最も近似する第1のテーブルに対応するF値を読み出し、読み出したF値を交換レンズ100の現在のF値として取得する。
 尚、第1、第2のテーブルは、第1の位相差画素PAの出力とG画素の出力と比(センサ位置毎の比)に基づいて作成されるものに限らず、第2の位相差画素PBの出力とG画素の出力との比、第1の位相差画素PAの出力と第2の位相差画素PBの出力との比に基づいて作成されるものでもよい。また、図19及び図20に示したセンサ位置毎の比PAr又は比PBrは、リニアに変化しているが、これに限らない。
 本実施形態では、交換レンズ100を通じて被写体光がイメージセンサ201に入射する際の、イメージセンサ201に対する光線角度に関連する情報として、交換レンズ100のF値を取得しているが、これに限らず、交換レンズ100の開口数、又はセンサ中心の光線角度を取得するようにしてもよい。更に、イメージセンサ201に対する光線角度に関連する情報は、センサ中心の光線角度だけでなく、例えば、イメージセンサ201の異なる位置の画素に対する光線角度も含む。
 図21は、撮像光学系102の開口径D,開口径Dの半径r,焦点距離f及び光線角度θの関係を示す図である。
 F値は、F値の定義により次式で表すことができる。
[数1]
 F=f/D
 また、図21に示した撮像光学系102の開口径D,開口径Dの半径r,焦点距離f及び光線角度θにおいて正弦条件を満たす場合、sinθは、次式で表すことができる。
[数2]
 sinθ=r/f=D/(2f)
 [数1]式及び[数2]から、F値は、次式で表すことができる。
[数3]
 F=1/(2sinθ)
 また、空気中の開口数NAは、次式で表すことができる。
[数4]
 NA=sinθ
 また、F値と開口数とは、次式で関係付けられている。
[数5]
 F=1/(2NA)
 上記のようにF値、開口数、及び光線角度は、相互に関係しており、これらのいずれか1つが分かると、他の2つを換算することができる。
 本例は、交換レンズ100のF値を推定しているが、推定したF値から開口数又は光線角度を換算により取得することができる。
 また、入射角特性が異なる第1の画素と第2の画素の出力の比を、互換性のない交換レンズの開口数毎に記憶部に記憶させることにより、第1の画素と第2の画素の出力の比から記憶部から対応する開口数を読み出す(取得する)ことができる。更に、取得した開口数からF値又は光線角度を換算することもできる。
 上記のように互換性のない交換レンズ100がカメラ本体200に装着された場合でも、交換レンズ100の現在のF値等を推定することでき、これにより被写体の明るさの算出や、被写体の明るさによるシーン認識が可能になる。また、互換性のない交換レンズ100がカメラ本体200に装着された場合でも、撮像された画像の付属情報として画像ファイルのヘッダにF値又は開口数を記録することができる。
 [情報取得方法]
 図22は、本発明に係る情報取得方法の第1の実施形態を示すフローチャートである。
 図22において、本体側CPU220は、操作部222によりF値取得モード(情報取得モード)が設定されているか否かを判別する(ステップS10)。F値取得モードが設定されている場合には、更にシャッタレリーズスイッチ22から撮像の指示(S2オンの信号)が出力されたか否かを判別する(ステップS12)。
 F値取得モードが設定され、かつS2オンの信号が出力されると、本体側CPU220は、F値取得用の撮像を行い、本体側CPU220の画素情報取得部220Aは、F値取得用の撮像により取得した画像データのうち、イメージセンサ201の中心部の入射角特性が異なる第1の画素(G画素)及び第2の画素(第1の位相差画素PA)の各出力データを取得する(ステップS14、画素情報取得ステップ)。
 本体側CPU220の演算部220Bは、ステップS14で取得した第1、第2の画素(第1の位相差画素PA、G画素)の出力データの比を算出する(ステップS16、演算ステップ)。
 本体側CPU220の情報取得部220Cは、ステップS16で算出された比に基づいてF値を取得する(ステップS18、情報取得ステップ)。このステップS18によるF値の取得は、入射角特性が異なる第1、第2の画素の比とF値との関係を示すテーブルを記憶するフラッシュROM226又はROM228から、算出された比に対応するF値を読み出すことにより行われる。
 図23は、本発明に係る情報取得方法の第2の実施形態を示すフローチャートである。尚、図22に示した第1の実施形態と共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 図23において、F値取得モードが設定され、かつS2オンの信号が出力されると、本体側CPU220は、F値取得用の撮像を行い、本体側CPU220の画素情報取得部220Aは、F値取得用の撮像により取得した画像データのうち、像高の異なる複数のセンサ位置における複数組の第1、第2の画素(第1の位相差画素PA、G画素)の各出力データを取得する(ステップS20、画素情報取得ステップ)。
 本体側CPU220の演算部220Bは、ステップS20で取得した複数組(像高毎)の第1、第2の画素(第1の位相差画素PA、G画素)の出力データの比を算出し(ステップS22)、像高毎の比を示す第2のテーブルを生成する(ステップS24)。
 本体側CPU220の情報取得部220Cは、ステップS24により生成された第2のテーブルに基づいて交換レンズ100の現在のF値を取得する(ステップS26)。フラッシュROM226又はROM228には、予め第1、第2の画素の出力データの比であって、像高(センサ位置)毎の比を示す第1のテーブルが、交換レンズ100のF値毎に記憶されている。ステップS26によるF値の取得は、フラッシュROM226又はROM228から、ステップS24で生成された第2のテーブルと一致し又は最も近似する第1のテーブルに対応するF値を読み出し、読み出したF値を交換レンズ100の現在のF値として取得する。
 [その他]
 本発明に適用されるイメージセンサは、通常画素と位相差画素(第1、第2の位相差画素)とが混在しているが、通常画素を有さない位相差画素のみで構成されたイメージセンサでもよい。位相差画素のみで構成されたイメージセンサの場合、隣接する一対の第1、第2の位相差画素の出力を加算することで、通常画素と同等の出力を得ることができる。
 また、本実施形態において、例えば、画素情報取得部220A、演算部220B、及び情報取得部220C等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 また、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10 撮像装置
20 ファインダ窓
22 シャッタレリーズスイッチ
23 シャッタースピードダイヤル
24 露出補正ダイヤル
25 電源レバー
26 接眼部
27 MENU/OKキー
28 十字キー
29 再生ボタン
30 内蔵フラッシュ
100、300 交換レンズ
102、302 撮像光学系
104、304 レンズ群
108、308 絞り
160、360 レンズマウント
200 カメラ本体
201 イメージセンサ
202 イメージセンサ制御部
203 アナログ信号処理部
204 A/D変換器
205 画像入力コントローラ
206 デジタル信号処理部
207 RAM
208 圧縮伸張処理部
209 焦点調節部
210 メディア制御部
212 メモリカード
214 表示制御部
216 モニタ
220 本体側CPU
220A 画素情報取得部
220B 演算部
220C 情報取得部
222 操作部
224 時計部
226 フラッシュROM
228 ROM
230 AF制御部
230A 位相ずれ量検出部
230B デフォーカス量算出部
232 明るさ検出部
234 ホワイトバランス補正部
236 無線通信部
238 GPS受信部
240 電源制御部
242 バッテリ
244 レンズ電源スイッチ
250 本体側通信部
260 本体マウント
270 フラッシュ発光部
272 フラッシュ制御部
296 FPS制御部
316 フォーカスレンズ制御部
318 絞り制御部
320 レンズ側CPU
322 RAM
324 ROM
326 フラッシュROM
350 レンズ側通信部
D 開口径
Gc、PAc、PBc 感度
L 光軸
MA、MB 遮光膜
ML マイクロレンズ
NA 開口数
PA 第1の位相差画素
PAr、PBr 比
PB 第2の位相差画素
PD フォトダイオード
S10~S26 ステップ
f 焦点距離
r 半径
θ、θ1、θ2 光線角度

Claims (19)

  1.  第1の画素と、前記第1の画素とは入射角特性が異なる第2の画素とを有するイメージセンサと、
     交換レンズが脱着可能な装着部と、
     前記装着部に装着された前記交換レンズを通じて被写体光が入射する前記イメージセンサの前記第1の画素の出力及び前記第2の画素の出力をそれぞれ取得する画素情報取得部と、
     前記画素情報取得部により取得した前記第1の画素の出力と前記第2の画素の出力との比を算出する演算部と、
     前記演算部により算出された比に基づいて前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する情報取得部と、
     を備えた撮像装置。
  2.  前記イメージセンサは、前記交換レンズのそれぞれ異なる領域を通過した各被写体光を瞳分割により選択的に受光する第1の位相差画素及び第2の位相差画素を有し、
     前記第1の画素は、前記第1の位相差画素であり、前記第2の画素は、前記第2の位相差画素である請求項1に記載の撮像装置。
  3.  前記イメージセンサは、前記交換レンズのそれぞれ異なる領域を通過した各被写体光を瞳分割により選択的に受光する第1の位相差画素及び第2の位相差画素と、前記各被写体光をそれぞれ受光する通常画素とを有し、
     前記第1の画素は、前記第1の位相差画素又は前記第2の位相差画素であり、前記第2の画素は、前記通常画素である請求項1に記載の撮像装置。
  4.  前記イメージセンサに対する光線角度に関連する情報は、前記交換レンズの絞り値、前記交換レンズの開口数、又は前記イメージセンサに対する光線角度である請求項1から3のいずれか1項に記載の撮像装置。
  5.  前記イメージセンサに対する光線角度に関連する情報は、前記交換レンズの絞り値又は前記交換レンズの開口数であり、
     前記第1の画素の出力と前記第2の画素の出力との比を、前記交換レンズの絞り値毎又は前記交換レンズの開口数毎に記憶する記憶部を備え、
     前記情報取得部は、前記演算部により算出された比に基づいて前記記憶部から前記比に対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を前記交換レンズの現在の絞り値又は開口数として取得する請求項1から3のいずれか1項に記載の撮像装置。
  6.  前記イメージセンサに対する光線角度に関連する情報は、前記交換レンズの絞り値又は前記交換レンズの開口数であり、
     前記第1の画素の出力と前記第2の画素の出力との比であって、像高毎の比を示す第1のテーブルを、前記交換レンズの絞り値又は前記交換レンズの開口数毎に記憶する記憶部を備え、
     前記画素情報取得部は、前記イメージセンサの複数の像高における前記第1の画素の出力及び前記第2の画素の出力を取得し、
     前記演算部は、前記取得した複数の像高毎の前記第1の画素の出力と前記第2の画素の出力との比を算出し、像高毎の比を示す第2のテーブルを取得し、
     前記情報取得部は、前記取得した第2のテーブルに基づいて前記記憶部から前記第2のテーブルと一致し又は最も近似する第1のテーブルに対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を前記交換レンズの現在の絞り値又は開口数として取得する請求項1から3のいずれか1項に記載の撮像装置。
  7.  前記演算部は、前記取得した複数の像高毎の前記第1の画素及び前記第2の画素のうちの飽和していない前記第1の画素の出力と前記第2の画素の出力との比を算出し、像高毎の比を示す前記第2のテーブルを取得する請求項6に記載の撮像装置。
  8.  被写体のコントラストを検出するコントラスト検出部を備え、
     前記演算部は、前記コントラスト検出部により検出された被写体のコントラストに応じて、被写体のコントラストが高い程、前記比の算出に使用する前記第1の画素及び前記第2の画素の数を多くする請求項1から7のいずれか1項に記載の撮像装置。
  9.  交換レンズとの間で通信を行う通信部と、
     装着された交換レンズから前記通信部を介して前記交換レンズの絞り値又は開口数を取得できない場合に前記画素情報取得部、前記演算部及び前記情報取得部をそれぞれ動作させる制御部と、
     を備えた請求項1から6のいずれか1項に記載の撮像装置。
  10.  前記通信部を介して取得した交換レンズの絞り値又は開口数若しくは前記情報取得部により取得した交換レンズの絞り値又は開口数を使用して被写体の明るさを算出する測光部を備えた請求項9に記載の撮像装置。
  11.  前記イメージセンサの前記第1の位相差画素及び前記第2の位相差画素の出力に基づいて位相ずれ量を検出する位相ずれ量検出部と、
     前記イメージセンサに対する光線角度に関連する情報と前記位相ずれ量とに基づいてデフォーカス量を算出するデフォーカス量算出部と、
     前記算出された前記デフォーカス量に基づいて前記イメージセンサを移動させる焦点調節部と、
     を備えた請求項2又は3に記載の撮像装置。
  12.  情報取得モードを設定するモード設定部を備え、
     前記画素情報取得部、前記演算部、及び前記情報取得部は、それぞれ前記モード設定部により前記情報取得モードが設定された状態で撮像指示部から撮像の指示が入力された場合に動作する請求項1から11のいずれか1項に記載の撮像装置。
  13.  撮像指示部から撮像の指示が入力されると、前記イメージセンサを介して画像データを取得する画像取得部と、
     前記取得した画像データを格納する画像ファイルを作成し、前記画像ファイルを記録媒体に記録する記録部と、を備え、
     前記記録部は、前記画像ファイルのヘッダに、前記情報取得部が取得した前記イメージセンサに対する光線角度に関連する情報を記録する請求項1から12のいずれか1項に記載の撮像装置。
  14.  イメージセンサ上の第1の画素と前記イメージセンサ上の第2の画素であって、前記第1の画素とは入射角特性が異なる第2の画素とを有する前記イメージセンサを備える撮像装置における情報取得方法であって、
     前記撮像装置に装着された交換レンズを通じて被写体光が入射する前記イメージセンサの前記第1の画素の出力及び前記第2の画素の出力をそれぞれ取得する画素情報取得ステップと、
     前記取得した前記第1の画素の出力と前記第2の画素の出力との比を算出する演算ステップと、
     前記算出された比に基づいて前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する情報取得ステップと、
     を含む情報取得方法。
  15.  前記撮像装置は、前記第1の画素の出力と前記第2の画素の出力との比を、前記交換レンズの絞り値毎又は前記交換レンズの開口数毎に記憶する記憶部を備え、
     前記情報取得ステップは、前記算出された比に基づいて前記記憶部から前記比に対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を前記交換レンズの現在の絞り値又は開口数として取得する請求項14に記載の情報取得方法。
  16.  前記撮像装置は、前記第1の画素の出力と前記第2の画素の出力との比であって、像高毎の比を示す第1のテーブルを、前記交換レンズの絞り値毎又は前記交換レンズの開口数毎に記憶する記憶部を備え、
     前記画素情報取得ステップは、前記イメージセンサの複数の像高における前記第1の画素の出力及び前記第2の画素の出力を取得し、
     前記演算ステップは、前記取得した複数の像高毎の前記第1の画素の出力と前記第2の画素の出力との比を算出し、像高毎の比を示す第2のテーブルを取得し、
     前記情報取得ステップは、前記取得した第2のテーブルに基づいて前記記憶部から前記第2のテーブルと一致し又は最も近似する第1のテーブルに対応する絞り値又は開口数を読み出し、読み出した絞り値又は開口数を前記交換レンズの現在の絞り値又は開口数として取得する請求項14に記載の情報取得方法。
  17.  前記撮像装置は、交換レンズとの間で通信を行う通信部を備え、
     装着された交換レンズから前記通信部を介して前記交換レンズの絞り値又は開口数を取得するステップと、
     前記通信部を介して交換レンズの絞り値又は開口数を取得できない場合に前記画素情報取得ステップ、前記演算ステップ及び前記情報取得ステップの処理を実行して前記交換レンズの現在の絞り値又は開口数を取得する請求項14から16のいずれか1項に記載の情報取得方法。
  18.  イメージセンサ上の第1の画素と前記イメージセンサ上の第2の画素であって、前記第1の画素とは入射角特性が異なる第2の画素とを有する前記イメージセンサを備える撮像装置に適用される情報取得プログラムであって、
     前記撮像装置に装着された交換レンズを通じて被写体光が入射する前記イメージセンサの前記第1の画素の出力及び前記第2の画素の出力をそれぞれ取得する機能と、
     前記取得した前記第1の画素の出力と前記第2の画素の出力との比を算出する機能と、
     前記算出された比に基づいて前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する機能と、
     を前記撮像装置に実現させる情報取得プログラム。
  19.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
     イメージセンサ上の第1の画素と前記イメージセンサ上の第2の画素であって、前記第1の画素とは入射角特性が異なる第2の画素とを有する前記イメージセンサを備える撮像装置における情報取得機能であって、
     前記撮像装置に装着された交換レンズを通じて被写体光が入射する前記イメージセンサの前記第1の画素の出力及び前記第2の画素の出力をそれぞれ取得する機能と、
     前記取得した前記第1の画素の出力と前記第2の画素の出力との比を算出する機能と、
     前記算出された比に基づいて前記交換レンズを通じて被写体光が前記イメージセンサに入射する際の、前記イメージセンサに対する光線角度に関連する情報を取得する機能と、
     を含む情報取得機能をコンピュータに実現させる記録媒体。
PCT/JP2018/035259 2017-09-28 2018-09-25 撮像装置、情報取得方法及び情報取得プログラム WO2019065555A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019545091A JP6911136B2 (ja) 2017-09-28 2018-09-25 撮像装置、情報取得方法及び情報取得プログラム
CN201880062129.1A CN111133378B (zh) 2017-09-28 2018-09-25 摄像装置、信息获取方法及记录介质
US16/832,354 US11201999B2 (en) 2017-09-28 2020-03-27 Imaging device, information acquisition method, and information acquisition program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-188868 2017-09-28
JP2017188868 2017-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/832,354 Continuation US11201999B2 (en) 2017-09-28 2020-03-27 Imaging device, information acquisition method, and information acquisition program

Publications (1)

Publication Number Publication Date
WO2019065555A1 true WO2019065555A1 (ja) 2019-04-04

Family

ID=65901826

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035259 WO2019065555A1 (ja) 2017-09-28 2018-09-25 撮像装置、情報取得方法及び情報取得プログラム

Country Status (4)

Country Link
US (1) US11201999B2 (ja)
JP (1) JP6911136B2 (ja)
CN (1) CN111133378B (ja)
WO (1) WO2019065555A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866544A (zh) * 2019-11-12 2021-05-28 Oppo广东移动通信有限公司 相位差的获取方法、装置、设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6997295B2 (ja) * 2018-03-30 2022-01-17 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
CN111832433B (zh) * 2020-06-24 2023-12-29 奇点微(上海)光电科技有限公司 一种由图像提取物体特性的装置及其工作方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141561A1 (ja) * 2013-03-13 2014-09-18 富士フイルム株式会社 撮像装置、信号処理方法、信号処理プログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001147477A (ja) 1999-11-19 2001-05-29 Konica Corp カメラ
US7092950B2 (en) 2001-06-29 2006-08-15 Microsoft Corporation Method for generic object oriented description of structured data (GDL)
MX339524B (es) 2001-10-11 2016-05-30 Wyeth Corp Composiciones inmunogenicas novedosas para la prevencion y tratamiento de enfermedad meningococica.
JP2005351825A (ja) 2004-06-14 2005-12-22 Nitto Denko Corp 欠陥検査装置
KR100794527B1 (ko) 2006-07-05 2008-01-17 연세대학교 산학협력단 광활성 방향족 중합체 및 이의 제조방법
JP5067841B2 (ja) 2007-04-06 2012-11-07 キヤノン株式会社 撮像装置、印刷装置、制御方法、プログラム、及び記憶媒体
JP5219865B2 (ja) 2008-02-13 2013-06-26 キヤノン株式会社 撮像装置及び焦点制御方法
JP2011059337A (ja) 2009-09-09 2011-03-24 Fujifilm Corp 撮像装置
JP2012222602A (ja) 2011-04-08 2012-11-12 Sony Corp 撮像装置及び撮像システム
EP3182187B1 (en) * 2011-09-30 2020-12-23 FUJIFILM Corporation Image capturing apparatus and method for calculating sensitivity ratio of phase difference pixel
JP5979849B2 (ja) 2011-11-21 2016-08-31 キヤノン株式会社 撮像素子及び撮像装置
JP5914055B2 (ja) 2012-03-06 2016-05-11 キヤノン株式会社 撮像装置
CN108401113A (zh) * 2012-05-07 2018-08-14 株式会社尼康 焦点检测装置
JP5775976B2 (ja) 2012-11-22 2015-09-09 富士フイルム株式会社 撮像装置、デフォーカス量演算方法、及び撮像光学系
JP5635584B2 (ja) * 2012-12-20 2014-12-03 オリンパスイメージング株式会社 撮影機器、カメラシステム及びフォーカス制御のための情報を算出する方法
WO2014106916A1 (ja) 2013-01-04 2014-07-10 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP6186900B2 (ja) * 2013-06-04 2017-08-30 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法、および撮像モジュール
JP6124720B2 (ja) * 2013-07-22 2017-05-10 オリンパス株式会社 撮像装置、画像処理方法及び画像処理プログラム
DE112014004092B4 (de) * 2013-09-05 2022-08-11 Fujifilm Corporation Bildaufnahmevorrichtung und Fokussiersteuerverfahren
CN105580349B (zh) 2013-09-27 2018-08-14 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
JP5946970B2 (ja) 2013-09-27 2016-07-06 富士フイルム株式会社 撮像装置及び撮像方法
WO2015045785A1 (ja) 2013-09-30 2015-04-02 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2015129846A (ja) 2014-01-07 2015-07-16 キヤノン株式会社 撮像装置およびその制御方法
WO2015146380A1 (ja) * 2014-03-28 2015-10-01 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2016145958A (ja) 2015-01-28 2016-08-12 パナソニックIpマネジメント株式会社 自動合焦装置、撮像装置及び自動合焦方法
JP2016143951A (ja) 2015-01-30 2016-08-08 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6712506B2 (ja) * 2016-06-23 2020-06-24 オリンパス株式会社 焦点検出装置および焦点検出方法
US10313579B2 (en) 2017-08-31 2019-06-04 Qualcomm Incorporated Dual phase detection auto focus camera sensor data processing
CN111316161B (zh) * 2017-09-28 2021-11-23 富士胶片株式会社 摄像装置、信息获取方法及信息获取程序

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141561A1 (ja) * 2013-03-13 2014-09-18 富士フイルム株式会社 撮像装置、信号処理方法、信号処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866544A (zh) * 2019-11-12 2021-05-28 Oppo广东移动通信有限公司 相位差的获取方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JPWO2019065555A1 (ja) 2020-11-05
CN111133378A (zh) 2020-05-08
CN111133378B (zh) 2021-04-23
JP6911136B2 (ja) 2021-07-28
US11201999B2 (en) 2021-12-14
US20200228723A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
JP6780745B2 (ja) 電子機器
US20070139548A1 (en) Image capturing apparatus, image capturing method, and computer-readable medium storing program
US11201999B2 (en) Imaging device, information acquisition method, and information acquisition program
JP2010044422A (ja) 撮像装置
WO2019087928A1 (ja) 撮像装置、ファインダ装置、撮像装置の制御方法、ファインダ装置の制御方法、撮像装置の制御プログラム及びファインダ装置の制御プログラム
US10791260B2 (en) Imaging device, information acquisition method, and information acquisition program
JP2006108759A (ja) 撮像装置
JP2009033410A (ja) 撮像装置
JP2017194558A (ja) 撮像装置および撮像方法
JP2016143951A (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6998454B2 (ja) 撮像装置、撮像方法、プログラム及び記録媒体
JP2014222899A (ja) 撮像装置及びその制御方法
US11483488B2 (en) Imaging apparatus, inter-exposure zoom imaging method, program, and recording medium
JP2001230966A (ja) 電子カメラ
WO2019065553A1 (ja) 撮像装置、撮像方法及び撮像プログラム
JP2017009815A (ja) 焦点検出装置、焦点検出方法、およびカメラシステム
JP2010107900A (ja) 撮像装置、複眼撮像装置、撮像方法及びプログラム
JP6089390B2 (ja) 撮像装置および信号読み出し方法
JP2015204579A (ja) 撮像装置
JP2010232909A (ja) 撮像装置及びその駆動制御方法
JP2012199858A (ja) 撮像装置
JP2014127770A (ja) 撮像装置
JP2007053481A (ja) 撮像装置
JP2011146961A (ja) 撮像装置
JP2009020175A (ja) カメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18862116

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2019545091

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18862116

Country of ref document: EP

Kind code of ref document: A1