WO2014080673A1 - 撮像装置及び露出決定方法 - Google Patents

撮像装置及び露出決定方法 Download PDF

Info

Publication number
WO2014080673A1
WO2014080673A1 PCT/JP2013/073390 JP2013073390W WO2014080673A1 WO 2014080673 A1 WO2014080673 A1 WO 2014080673A1 JP 2013073390 W JP2013073390 W JP 2013073390W WO 2014080673 A1 WO2014080673 A1 WO 2014080673A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase difference
difference detection
pixel
imaging
sensitivity
Prior art date
Application number
PCT/JP2013/073390
Other languages
English (en)
French (fr)
Inventor
和紀 井上
岩崎 洋一
貴嗣 青木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014548480A priority Critical patent/JP5779726B2/ja
Priority to CN201380060687.1A priority patent/CN104813212B/zh
Publication of WO2014080673A1 publication Critical patent/WO2014080673A1/ja
Priority to US14/716,536 priority patent/US9485408B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/048Picture signal generators using solid-state devices having several pick-up sensors
    • H04N2209/049Picture signal generators using solid-state devices having several pick-up sensors having three pick-up sensors

Definitions

  • the present invention relates to an imaging apparatus and an exposure determination method.
  • an imaging device In recent years, with the increase in the resolution of solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, mobile phones such as digital still cameras, digital video cameras, and smartphones, PDA (Personal Digital). Demand for information equipment having a photographing function such as an assistant (mobile information terminal) is rapidly increasing. Note that an information device having the above imaging function is referred to as an imaging device.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • imaging apparatuses employ a contrast AF (Auto Focus) method or a phase difference AF method as a focus control method for detecting a distance to a main subject and focusing on the subject. Since the phase difference AF method can detect the in-focus position at a higher speed than the contrast AF method, it is often used in various imaging apparatuses.
  • a contrast AF Auto Focus
  • a phase difference AF method can detect the in-focus position at a higher speed than the contrast AF method, it is often used in various imaging apparatuses.
  • Patent Document 1 discloses an imaging device that performs phase difference AF using a signal read from a pixel for phase difference detection, with a part of the pixels of the image sensor as pixels for phase difference detection.
  • Patent Document 2 describes an imaging apparatus that determines exposure using an output signal of a phase difference AF sensor.
  • the phase difference detection pixel includes a right pixel that detects light that has passed through, for example, the right half of the pupil region of the photographing optical system, and a left pixel that detects light that has passed through, for example, the left half of the pupil region of the photographing optical system. At least two types are used. Even if the right pixel and the left pixel have the same image height (distance from the point of intersection with the optical axis of the imaging optical system in the area where the pixel is located) due to the difference in incident angle sensitivity characteristics, Depending on the location, the sensitivity will vary.
  • the present invention has been made in view of the above circumstances, and provides an imaging apparatus and an exposure determination method capable of performing phase difference AF with high accuracy by appropriately exposing pixels for phase difference detection. Objective.
  • the imaging device of the present invention is an imaging device having an imaging element including a light receiving surface on which a plurality of imaging pixels and a plurality of phase difference detection pixels are arranged, and the plurality of imaging pixels are included in an imaging optical system.
  • An image formed by a light beam that has passed through the pupil region is captured, and the plurality of phase difference detection pixels are formed by a pair of light beams that have passed through different portions of the pupil region of the imaging optical system.
  • a plurality of phase difference detection areas in which a plurality of pairs of the first phase difference detection pixels and the second phase difference detection pixels are arranged side by side in the direction in which the pair of images are shifted are selected and selected.
  • the phase difference detection pixels in the phase difference detection area An exposure determination unit that determines an exposure condition based on a force signal; and the selected phase difference detection area among the captured image signals obtained by performing imaging with the imaging element under the exposure condition determined by the exposure determination unit
  • a defocus amount calculation unit that calculates a defocus amount using output signals of the first phase difference detection pixel and the second phase difference detection pixel in the first phase difference detection pixel, and the exposure determination unit includes: Sensitivity difference between the phase difference detection pixel having the highest sensitivity and the phase difference detection pixel having the lowest sensitivity in the selected phase difference detection area, or the direction of deviation in the light receiving surface of the selected phase difference detection area
  • a phase difference detection pixel corresponding to the position at is selected from the selected phase difference detection area, and an exposure condition is determined based on the output
  • An exposure determination method of the present invention is an exposure determination method using an imaging device having an imaging element including a light receiving surface on which a plurality of imaging pixels and a plurality of phase difference detection pixels are arranged.
  • the pixels capture an image formed by a light beam that has passed through the pupil region of the imaging optical system, and the plurality of phase difference detection pixels are a pair of pixels that have passed through different parts of the pupil region of the imaging optical system.
  • On the light receiving surface of the element a plurality of phase difference detection areas in which a plurality of pairs of the first phase difference detection pixels and the second phase difference detection pixels are arranged are arranged in a direction in which the pair of images are shifted.
  • An exposure determination step for determining an exposure condition based on the output signal of the phase difference detection pixel, and the selected phase difference among the captured image signals obtained by performing imaging with the imaging element under the determined exposure condition.
  • the phase difference detection pixel corresponding to the selected phase difference detection area is selected from the selected phase difference detection area, and the exposure condition is determined based on the output signal of the selected phase difference detection pixel.
  • an imaging apparatus and an exposure determination method capable of performing phase difference AF with high accuracy by appropriately exposing pixels for phase difference detection.
  • FIG. 1 The figure which shows schematic structure of the digital camera as an example of the imaging device for describing one Embodiment of this invention
  • the elements on larger scale which show the plane structure of the solid-state image sensor 5 mounted in the digital camera shown in FIG. 1 is a schematic plan view showing the overall configuration of a solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • FIG. The figure for demonstrating that it becomes a sensitivity ratio as shown in FIG.
  • FIG. 1 The figure which shows the modification of AF area provided in the solid-state image sensor 5 mounted in the digital camera shown in FIG.
  • the figure which shows the modification of the shape of sensitivity ratio The figure which shows the modification of the shape of sensitivity ratio
  • the figure explaining a smart phone as an imaging device Internal block diagram of the smartphone of FIG.
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
  • the imaging system of the digital camera shown in FIG. 1 includes a lens device (including a photographing lens 1 and a diaphragm 2) as an imaging optical system, and a solid-state imaging device 5 such as a CCD type or a CMOS type.
  • a lens device including a photographing lens 1 and a diaphragm 2
  • a solid-state imaging device 5 such as a CCD type or a CMOS type.
  • the lens device including the taking lens 1 and the aperture 2 is detachable or fixed to the camera body.
  • the system control unit 11 that controls the entire electric control system of the digital camera controls the flash light emitting unit 12 and the light receiving unit 13. Further, the system control unit 11 controls the lens driving unit 8 to adjust the position of the focus lens included in the photographing lens 1 or adjust the position of the zoom lens included in the photographing lens 1. Further, the system control unit 11 adjusts the exposure amount by controlling the aperture amount of the aperture 2 via the aperture drive unit 9.
  • system control unit 11 drives the solid-state imaging device 5 via the imaging device driving unit 10 and outputs a subject image captured through the photographing lens 1 as a captured image signal.
  • An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
  • the electric control system of the digital camera further includes an analog signal processing unit 6 that performs analog signal processing such as correlated double sampling processing connected to the output of the solid-state imaging device 5, and an analog output from the analog signal processing unit 6. And an A / D conversion circuit 7 for converting the signal into a digital signal.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 are controlled by the system control unit 11.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 may be built in the solid-state imaging device 5.
  • the electric control system of the digital camera includes an interpolation calculation and a gamma correction for the main memory 16, the memory control unit 15 connected to the main memory 16, and the captured image signal output from the A / D conversion circuit 7.
  • a digital signal processing unit 17 that performs calculation, RGB / YC conversion processing, and the like to generate captured image data, and the captured image data generated by the digital signal processing unit 17 is compressed into a JPEG format or the compressed image data is expanded.
  • the memory control unit 15, digital signal processing unit 17, compression / decompression processing unit 18, defocus amount calculation unit 19, external memory control unit 20, and display control unit 22 are mutually connected by a control bus 24 and a data bus 25. It is controlled by a command from the system control unit 11.
  • FIG. 2 is a partially enlarged view showing a planar configuration of the solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • the solid-state imaging device 5 includes a large number of pixels 51 (each square block in the figure) arranged two-dimensionally in a row direction X and a column direction Y orthogonal thereto. Although all the pixels 51 are not shown in FIG. 2, in reality, about several million to several tens of thousands of pixels 51 are two-dimensionally arranged.
  • an output signal is obtained from each of the large number of pixels 51. This set of output signals is referred to as a captured image signal in this specification.
  • Each pixel 51 includes a photoelectric conversion unit such as a photodiode and a color filter formed above the photoelectric conversion unit.
  • a pixel “R” is attached to the pixel 51 including a color filter that transmits red light
  • a letter “G” is attached to the pixel 51 that includes a color filter that transmits green light.
  • the pixel 51 including the color filter that passes through is marked with the letter “B”.
  • the large number of pixels 51 is an array in which a plurality of pixel rows including a plurality of pixels 51 arranged in the row direction X are arranged in the column direction Y. Then, the odd-numbered pixel rows and the even-numbered pixel rows are shifted in the row direction X by about 1 ⁇ 2 of the arrangement pitch of the pixels 51 of each pixel row.
  • the array of color filters included in each pixel 51 of the odd-numbered pixel row is a Bayer array as a whole. Further, the color filter array included in each pixel 51 of the even-numbered pixel row is also a Bayer array as a whole.
  • the pixels 51 in the odd-numbered rows and the pixels 51 adjacent to the lower right of the pixels 51 and detecting the same color light as the pixels 51 form a pair pixel.
  • the solid-state imaging device 5 having such a pixel arrangement, it is possible to increase the sensitivity of the camera by adding the output signals of the two pixels 51 that constitute the paired pixels, or the two pixels 51 that constitute the paired pixels. By changing the exposure time and adding the output signals of the two pixels 51, the camera can have a wide dynamic range.
  • some of the large number of pixels 51 are phase difference detection pixels.
  • the phase difference detection pixels include a plurality of phase difference detection pixels 51R and a plurality of phase difference detection pixels 51L.
  • the plurality of phase difference detection pixels 51R receive one of a pair of light beams that have passed through different portions of the pupil region of the photographing lens 1 (for example, a light beam that has passed through the right half of the pupil region) and output a signal corresponding to the amount of light received. To do. That is, the plurality of phase difference detection pixels 51 ⁇ / b> R provided in the solid-state imaging device 5 capture an image formed by one of a pair of light beams that have passed through different portions of the pupil region of the photographing lens 1.
  • the plurality of phase difference detection pixels 51L receive the other of the pair of light beams (for example, a light beam that has passed through the left half of the pupil region) and output a signal corresponding to the amount of light received. That is, the plurality of phase difference detection pixels 51 ⁇ / b> L provided in the solid-state imaging device 5 capture an image formed by the other of the pair of light beams that have passed through different portions of the pupil region of the photographing lens 1.
  • the right and left indicate directions for the photographer when photographing with the image sensor.
  • a plurality of pixels 51 (hereinafter referred to as imaging pixels) other than the phase difference detection pixels 51R and 51L capture an image formed by a light beam that has passed through almost all of the pupil region of the photographing lens 1. It becomes.
  • a light shielding film is provided above the photoelectric conversion unit of the pixel 51, and an opening that defines a light receiving area of the photoelectric conversion unit is formed in the light shielding film.
  • the center of the aperture of the imaging pixel 51 coincides with the center of the photoelectric conversion unit of the imaging pixel 51 (the center of the square block).
  • the center of the photoelectric conversion unit of the imaging pixel 51 the center of the square block.
  • FIG. 2 in order to simplify the drawing, only a part of the imaging pixel 51 is illustrated with an opening a.
  • the center of the opening (indicated by symbol c in FIG. 2) of the phase difference detection pixel 51R is eccentric to the right with respect to the center of the photoelectric conversion unit of the phase difference detection pixel 51R.
  • the center of the opening (indicated by symbol b in FIG. 2) of the phase difference detection pixel 51L is eccentric to the left with respect to the center of the photoelectric conversion unit of the phase difference detection pixel 51L.
  • a part of the pixel 51 on which the green color filter is mounted is the phase difference detection pixel 51R or the phase difference detection pixel 51L.
  • a pixel on which a color filter of another color is mounted may be used as a phase difference detection pixel.
  • phase difference detection pixels 51R and the phase difference detection pixels 51L are discretely and periodically arranged in the region where the pixels 51 are arranged.
  • the phase difference detection pixels 51 ⁇ / b> R are arranged at intervals of three pixels in the row direction X in a part of even-numbered pixel rows (four pixel rows arranged every three pixel rows in the example of FIG. 2). Is arranged.
  • the phase difference detection pixel 51 ⁇ / b> L detects the phase difference in the row direction X in a part of the odd-numbered pixel rows (the pixel row adjacent to the pixel row including the phase difference detection pixels 51 ⁇ / b> R).
  • the pixels 51R are arranged in the same cycle.
  • the light received by the pixel 51L through the opening b of the light shielding film is light from the left side when viewed from the subject of the photographing lens 1 provided above the paper surface of FIG.
  • the light mainly coming from the viewing direction and received by the pixel 51R through the opening c of the light shielding film is the light from the right side when viewed from the subject of the photographing lens 1, that is, the direction when the subject is viewed by the left eye.
  • a captured image signal obtained by viewing the subject with the left eye can be obtained by all the phase difference detection pixels 51R, and a captured image signal obtained by viewing the subject by the right eye can be obtained by all the phase difference detection pixels 51L. be able to. For this reason, it is possible to generate stereoscopic image data of a subject by combining the both, or to generate phase difference information by performing a correlation calculation between the two.
  • the phase difference detection pixel 51R and the phase difference detection pixel 51L can receive light beams that have passed through different parts of the pupil region of the photographing lens 1 by decentering the opening of the light shielding film in the opposite direction. Phase difference information can be obtained.
  • the structure for obtaining the phase difference information is not limited to this, and a well-known structure can be adopted.
  • FIG. 3 is a schematic plan view showing the overall configuration of the solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • the solid-state imaging device 5 has a light receiving surface 50 on which all the pixels 51 are arranged.
  • a light receiving surface 50 on which all the pixels 51 are arranged.
  • nine phase difference detection areas (AF areas) 52 from which phase difference information is acquired are provided in the example of FIG.
  • the AF area 52 is an area including a plurality of pairs of the phase difference detection pixels 51R and the phase difference detection pixels 51L that are positioned close to each other as shown in FIG. Only the imaging pixels 51 are arranged in a portion of the light receiving surface 50 excluding the AF area 52.
  • the three AF areas 52 in the middle in the row direction X each pass through the intersection with the optical axis of the imaging optical system on the light receiving surface 50 in plan view and in the column direction. This is an area having a width in the row direction X across the straight line extending in the Y direction.
  • the three AF areas 52 in the middle in the row direction X are areas arranged across the center (optical axis position) in the row direction X of the light receiving surface 50.
  • the defocus amount calculation unit 19 shown in FIG. 1 reads out from the phase difference detection pixel 51L and the phase difference detection pixel 51R in one AF area 52 selected from among the nine AF areas 52 by a user operation or the like. Using the output signal group, a phase difference amount that is a relative positional shift amount between the two images formed by the pair of light beams is calculated. Then, based on this phase difference amount, the focus adjustment state of the taking lens 1, here, the amount away from the in-focus state and its direction, that is, the defocus amount, are obtained.
  • the system control unit 11 illustrated in FIG. 1 moves the focus lens included in the imaging lens 1 to the in-focus position based on the defocus amount calculated by the defocus amount calculation unit 19, and focuses the imaging lens 1. Control the state.
  • phase difference detection pixel 51R and the phase difference detection pixel 51L have an opening decentered in the opposite direction. Therefore, even if the positions of the openings in the eccentric direction (row direction X in FIG. 2) are substantially the same, a difference in sensitivity occurs between the phase difference detection pixel 51R and the phase difference detection pixel 51L.
  • FIG. 4 is a diagram showing the sensitivity ratio of the phase difference detection pixels 51R and 51L at the position in the row direction X (horizontal pixel position) in the solid-state imaging device 5.
  • a straight line indicated by reference numeral 51R indicates the sensitivity ratio of the phase difference detection pixel 51R
  • a straight line indicated by reference numeral 51L indicates the sensitivity ratio of the phase difference detection pixel 51L.
  • the range of horizontal pixel positions of the three AF areas 52 at the left end in FIG. 3 is indicated by reference numeral 52L
  • the range of horizontal pixel positions of the three AF areas 52 at the center in FIG. 3 is indicated by reference numeral 52C.
  • the range of the horizontal pixel positions of the three AF areas 52 at the right end is indicated by reference numeral 52R.
  • the sensitivity ratio of an arbitrary phase difference detection pixel is the output signal of an arbitrary phase difference detection pixel and an imaging pixel adjacent thereto (however, that detects light of the same color as the arbitrary phase difference detection pixel).
  • a and B respectively, it means a value represented by A / B or B / A.
  • the two adjacent pixels mean two pixels that are close enough to be regarded as receiving light from substantially the same subject portion.
  • the sensitivity ratio is A / B.
  • phase difference detection pixels 51R and 51L are also periodically arranged in the column direction Y. However, since the openings of the phase difference detection pixel 51R and the phase difference detection pixel 51L are not decentered in the column direction Y, the sensitivity ratio is as shown in FIG.
  • the phase difference detection pixels 51R and the output signals of the plurality of phase difference detection pixels 51L each have different levels depending on the position in the row direction X depending on the subject. It is not known what the sensitivity distribution of the pixels is. However, as shown in FIG. 4, the sensitivity distribution of the phase difference detection pixels can be known by obtaining the sensitivity ratio, which is the ratio between the phase difference detection pixels and the output signals of the imaging pixels adjacent thereto.
  • phase difference detection pixel 51R and the phase difference detection pixel 51L are not exactly the same in the row direction X. However, in FIG. The phase difference detection pixels 51L are treated as having the same position in the row direction X.
  • the opening c is eccentric to the right side in FIG.
  • half of the light that has passed through the left side of the photographing lens 1 enters the opening c of the phase difference detection pixel 51 ⁇ / b> R at the left end of the light receiving surface 50, and the right side of the photographing lens 1.
  • Light that has passed through will not enter.
  • half of the light that has passed through the right side of the photographic lens 1 enters the opening c of the phase difference detection pixel 51R at the right end of the light receiving surface 50, and all the light that has passed through the left side of the photographic lens 1 enters. .
  • the light that has passed through the left side of the photographing lens 1 enters the opening c of the phase difference detection pixel 51R in the center of the solid-state imaging device 5, and the light that has passed through the right side of the photographing lens 1 cannot enter. .
  • the sensitivity ratio characteristic of the phase difference detection pixel 51L is opposite to that of the phase difference detection pixel 51R.
  • the sensitivity ratio of the phase difference detection pixel 51 ⁇ / b> L decreases as it goes from the left end to the right end of the solid-state imaging device 5.
  • the sensitivity ratio of the phase difference detection pixel 51 ⁇ / b> R increases as it goes from the left end portion to the right end portion of the solid-state imaging element 5.
  • the sensitivity ratio of the phase difference detection pixel 51L and the sensitivity ratio of the phase difference detection pixel 51R are substantially the same.
  • the system control unit 11 determines the exposure conditions (aperture, shutter speed, etc.) so that the exposure amount of the phase difference detection pixels in the selected AF area 52 becomes an appropriate value.
  • the system control unit 11 changes the exposure condition determination algorithm according to the position of the selected AF area 52 in the row direction X.
  • the sensitivity of the phase difference detection pixel 51L at the left end is the highest.
  • the system control unit 11 selects the phase difference detection pixel 51L having the maximum sensitivity in the AF area 52 and selects the selected phase difference. Based on the output signal of the detection pixel L, the exposure condition is determined so that the exposure amount of the selected phase difference detection pixel 51L is appropriate.
  • the sensitivity of the phase difference detection pixel 51L at the left end is the highest. Therefore, by determining the exposure condition so that the phase difference detection pixel 51L with the maximum sensitivity has an appropriate exposure amount, the output signals of all the phase difference detection pixels in the range 52L are prevented from reaching the saturation level. be able to. As a result, it is possible to accurately calculate the phase difference amount using the output signal from the selected AF area 52.
  • the system control unit 11 selects and selects the phase difference detection pixel 51R having the maximum sensitivity in the AF area 52. Based on the output signal of the phase difference detection pixel 51R, the exposure condition is determined so that the exposure amount of the selected phase difference detection pixel 51R is appropriate.
  • the system control unit 11 has a sensitivity that matches the average of the sensitivities of all the phase difference detection pixels in the AF area 52.
  • the phase difference detection pixel 51R or the phase difference detection pixel cell 51L that is, the phase difference detection pixel 51R or the phase difference detection pixel 51L having a sensitivity ratio at the point where two straight lines intersect in FIG. 4 is selected.
  • the system control unit 11 determines the exposure condition based on the output signal of the selected phase difference detection pixel so that the exposure amount of the selected phase difference detection pixel becomes appropriate.
  • the exposure condition in this case is mainly the exposure time, but the F value may be changed.
  • the system control unit 11 adjusts the exposure time and, in some cases, the F value so that the output of the selected phase difference detection pixel falls within a predetermined range.
  • the sensitivity difference between the phase difference detection pixel having the maximum sensitivity and the phase difference detection pixel having the minimum sensitivity is small compared to the ranges 52L and 52R.
  • the sensitivity difference varies depending on the optical conditions of the imaging optical system, but the sensitivity difference in the range 52C is still smaller than the ranges 52L and 52R.
  • a small sensitivity difference in a certain range means that the difference between the average sensitivity of all phase difference detection pixels corresponding to that range and the maximum sensitivity of the phase difference detection pixels in that range is small. .
  • the phase difference detection having a sensitivity equal to the average of the sensitivities of all the phase difference detection pixels in the AF area 52. Even if the exposure condition is determined so that the target pixel has an appropriate exposure amount, it is unlikely that the phase difference detection pixel having the maximum sensitivity in the AF area 52 will be saturated.
  • the system control unit 11 has a phase difference detection pixel having a sensitivity equal to the average of the sensitivities of all the phase difference detection pixels in the AF area 52. And the exposure condition is determined so that the selected phase difference detection pixel has an appropriate exposure amount.
  • the exposure amount of the phase difference detection pixel can be increased as compared with the case where the AF area 52 corresponding to the ranges 52R and 52L is selected, the S / N is improved and the phase difference is increased.
  • the amount calculation accuracy can be increased.
  • the main subject is often imaged in accordance with the center of the imaging range. For this reason, when the AF area 52 in the range 52C is selected, the exposure condition is determined by the above-described method, so that saturation is prevented while increasing the exposure amount of the phase difference detection pixel in almost all photographing, and the phase difference AF. Accuracy can be improved.
  • the exposure amount of the phase difference detection pixels cannot be increased much.
  • the saturation of the phase difference detection pixels can be reliably prevented, the accuracy of the phase difference AF can be prevented from being lowered.
  • FIG. 6 is a flowchart for explaining the operation after the AF instruction of the digital camera shown in FIG. 1 is given.
  • the system control unit 11 determines the position of the AF area 52 selected in advance (step S1).
  • step S2 When the position of the selected AF area 52 is the right end or the left end in the row direction X (step S1: YES), the system control unit 11 detects the phase difference that maximizes the sensitivity in the selected AF area 52. A pixel is selected (step S2).
  • the phase difference detection pixel having the maximum sensitivity is the leftmost phase difference detection pixel 51L among the phase difference detection pixels 51L in the solid-state imaging device 5. If the selected AF area 52 is the right end portion, the phase difference detection pixel 51R at the right end of the phase difference detection pixels 51R in the solid-state imaging device 5 is used. The position of the phase difference detection pixel having the maximum sensitivity in each AF area 52 is determined in advance by the position of the AF area 52 set for the solid-state imaging device 5 and the arrangement of the phase difference detection pixels. You can remember it.
  • step S7 When the position of the selected AF area 52 is the center in the row direction X (step S1: NO), the system control unit 11 selects all the phase difference detection pixels in the area in the selected AF area 52. A phase difference detection pixel having a sensitivity equal to the average sensitivity is selected (step S7).
  • the position in the row direction X of the phase difference detection pixels having a sensitivity equal to the average of the sensitivities of all the phase difference detection pixels in the area is the sensitivity ratio in the data shown in FIG. This is the position corresponding to the intersection of the straight lines. For this reason, the coordinates of this position may be obtained from the data shown in FIG. 4 and stored in advance.
  • step S3 the system control unit 11 acquires the output signal of the selected phase difference detection pixel, and determines the exposure condition based on this output signal (step S3).
  • the system control unit 11 causes the solid-state imaging device 5 to perform imaging under the determined exposure condition (step S4).
  • the captured image signal output from the solid-state imaging device 5 by this imaging is stored in the main memory 16.
  • the defocus amount calculation unit 19 performs correlation calculation using the output signals of the phase difference detection pixels 51R and 51L in the selected AF area 52 among the captured image signals stored in the main memory 16.
  • the phase difference amount is calculated, and the defocus amount is calculated based on the phase difference amount (step S5).
  • generation and display of a live view image may be performed using the output signal of the imaging pixel 51 among the captured image signals obtained by imaging in step S4.
  • step S5 the system control unit 11 performs focusing control for moving the focus lens to the in-focus position based on the defocus amount calculated in step S5 (step S6). Thereafter, the imaging standby state is set. Become.
  • the phase difference detection pixel serving as a reference when determining the exposure condition is the phase difference detection pixel determined according to the position of the selected AF area 52. For this reason, for example, the amount of phase difference can be calculated more accurately than in the case where the exposure condition is determined based on the output signals of all the phase difference detection pixels in the selected AF area 52.
  • phase difference detection pixel having a sensitivity equal to the in-area average sensitivity is selected in step S7 of FIG. 5 and an exposure condition is determined based on the output signal of the phase difference detection pixel, imaging is performed.
  • the slope of the straight line of the sensitivity ratio may become steep, and the output signal of the phase difference detection pixel at the end of the range 52C may be saturated. .
  • the calculation accuracy of the phase difference amount decreases.
  • FIG. 7 shows a flow for preventing such a decrease in the calculation accuracy of the phase difference amount.
  • FIG. 7 is a flowchart for explaining a modified example of the operation after the AF instruction of the digital camera shown in FIG. 1 is given.
  • the same processes as those in FIG. 6 are denoted by the same reference numerals.
  • step S8 determines the exposure condition based on the output signal of the phase difference detection pixel selected in step S7 (step S8).
  • the system control unit 11 causes the solid-state imaging device 5 to perform imaging under the determined exposure condition (step S9).
  • the captured image signal output from the solid-state imaging device 5 by this imaging is stored in the main memory 16.
  • the system control unit 11 detects the phase difference detection pixel having the maximum sensitivity in the selected AF area 52 among the captured image signals stored in the main memory 16 (the phase difference detection at the left end of the range 52C).
  • the output signal of the pixel 51L for phase difference and the pixel cell 51R for phase difference detection at the right end is acquired.
  • the system control unit 11 compares the average value of the level of the output signal acquired from the phase difference detection pixel 51L at the left end of the range 52C and the output signal acquired from the phase difference detection pixel 51R at the right end of the range 52C. It is determined whether any of the average values of the levels is equal to or higher than a threshold value TH (step S10).
  • step S10 determines in step S2 that the phase difference detection pixel 51L at the left end of the range 52C and the range 52C The phase difference detection pixel 51R at the right end is selected, and in step S3, an exposure condition is determined based on the output signal of the selected phase difference detection pixel. After that, the process after step S4 is performed and imaging is performed again.
  • step S10 NO
  • the system control unit 11 outputs the phase difference detection pixels included in the captured image signal obtained by the imaging in step S9.
  • the defocus amount calculation unit 19 calculates the defocus amount using the signal (step S5).
  • the threshold TH may be set to the saturation level of the phase difference detection pixel or a value close thereto.
  • step S10 in FIG. 7 when the determination in step S10 in FIG. 7 is YES, the exposure condition is determined again and imaging is performed to calculate the defocus amount.
  • the defocus amount calculation unit 19 uses the output signals of the phase difference detection pixels excluding the phase difference detection pixels whose output signal level is equal to or higher than the threshold value TH.
  • the defocus amount may be calculated.
  • FIG. 3 shows an example in which three AF areas 52 are arranged in the row direction X
  • the number of AF areas 52 when viewed in the row direction X may be plural.
  • the shape of the sensitivity ratio is different in each AF area 52. Therefore, the phase difference detection pixel corresponding to the position of the selected AF area 52 is selected and selected.
  • the phase difference AF can be performed with high accuracy.
  • the middle AF area 52 of the five AF areas 52 passes through the intersection of the light receiving surface 50 and the optical axis.
  • the exposure condition is determined by the same method as the AF area 52 in the middle of FIG.
  • the exposure conditions are determined in the same manner as the AF area 52 at the left end in FIG.
  • the exposure condition is determined in the same manner as the AF area 52 at the right end of FIG.
  • the second AF area 52 from the left and the second from the right can determine the exposure condition based on the output signal of the phase difference detection pixel having the maximum sensitivity in the area. That's fine.
  • the AF area 52 is provided on a part of the light receiving surface 50.
  • the AF area 52 may be set on the entire light receiving surface 50 without a gap.
  • the pixels 51 are arranged in a so-called honeycomb arrangement, but the present invention can also be applied to a solid-state imaging device in which the pixels 51 are arranged in a square lattice.
  • the solid-state image pickup device 5 is mounted with a plurality of color filters to perform color image pickup so far.
  • the solid-state image pickup device 5 may be monochrome by omitting the color filter to be a single color of green or omitted.
  • An imaging element for imaging may be used.
  • a digital camera has been taken as an example of the imaging device, but the technology of the present embodiment can also be applied to a smartphone with a camera.
  • the shape of the sensitivity ratio shown in FIG. 4 varies depending on the type of lens device. If the lens apparatus is fixed to the digital camera, it is possible to determine which phase difference detection pixel in the AF area 52 should be used for exposure according to the position of the selected AF area 52. it can.
  • the exposure condition is determined based on the output signal of the phase difference detection pixel determined in accordance with the position of the selected AF area 52, proper exposure is achieved. It may not be obtained.
  • the shape of the sensitivity ratio is as shown in FIG. 9 as a result of replacing the imaging optical system with another one.
  • the sensitivity difference between the phase difference detection pixel having the maximum sensitivity and the phase difference detection pixel having the minimum sensitivity is larger than that in the example of FIG. Therefore, when the AF area 52 in the range 52C is selected, the phase difference detection pixels having a sensitivity equal to the average of the sensitivities of all the phase difference detection pixels in the AF area 52 have the appropriate exposure amount. Even if the exposure condition is determined, there is a high possibility that the phase difference detection pixel having the maximum sensitivity in the AF area 52 will be saturated.
  • the sensitivity difference between the phase difference detection pixel having the maximum sensitivity and the phase difference detection pixel having the minimum sensitivity is smaller than that in the example of FIG. Therefore, when the AF area 52 in the ranges 52L and 52R is selected, the phase difference detection pixel having a sensitivity equal to the average of the sensitivities of all the phase difference detection pixels in the AF area 52 is determined as the appropriate exposure amount. Even if the exposure condition is determined as described above, there is a low possibility that the phase difference detection pixel having the maximum sensitivity in the AF area 52 is saturated.
  • the system control unit 11 obtains the sensitivity difference between the phase difference detection pixel having the maximum sensitivity and the phase difference detection pixel having the minimum sensitivity in the selected AF area 52. Then, even if the sensitivity difference is a value that does not saturate the phase difference detection pixel even if the exposure condition is determined by performing the process of step S7 in FIG. 6, the process of step S7 is performed, and this sensitivity is determined. If the difference is such that the phase difference detection pixel is saturated when the exposure condition is determined by performing the process of step S7 in FIG. 6, the process of step S2 of FIG. 6 is performed.
  • the sensitivity ratio data shown in FIGS. 4, 9, and 10 is generated in advance for each lens device that can be attached to the digital camera and stored in a memory in the digital camera.
  • the system control unit 11 may generate the live view image when the lens device is attached and store the generated image in the memory.
  • the system control unit 11 selects the phase difference detection pixel corresponding to the sensitivity difference in the selected AF area 52 from the selected phase difference detection area, and the output signal of the selected phase difference detection pixel.
  • the exposure condition is determined based on the above.
  • FIG. 11 shows an appearance of a smartphone 200 that is an embodiment of the photographing apparatus of the present invention.
  • a smartphone 200 shown in FIG. 11 has a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
  • Such a housing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 12 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 204 displays images (still images and moving images), character information, and the like, visually transmits information to the user under the control of the main control unit 220, and detects user operations on the displayed information.
  • a so-called touch panel which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 is visible and detects one or more coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the photographing apparatus of the present invention integrally form a display input unit 204.
  • the arrangement 203 covers the display panel 202 completely.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
  • the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. You can also
  • the call unit 211 includes a speaker 205 and a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the display input unit 204, and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 212 includes a control program and control data of the main control unit 220, application software, address data that associates the name and telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
  • Each of the internal storage unit 217 and the external storage unit 218 constituting the storage unit 212 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a flash memory type hard memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • an external device connected to the smartphone 200 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
  • Identity Module Card / UIM (User Identity Module Card) card external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. Can do.
  • the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 200 Detect the position consisting of longitude and altitude.
  • the GPS reception unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS reception unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction and acceleration of the smartphone 200 are detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program and control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function that controls each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
  • Examples of the application processing function include an infrared communication function for controlling the external input / output unit 213 to perform data communication with the opposite device, an e-mail function for transmitting / receiving e-mails, and a web browsing function for browsing web pages. .
  • the main control unit 220 has an image processing function such as displaying video on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
  • the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207 or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
  • the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
  • a touch panel control function for controlling the sensitive area of the operation panel 203 and the display position of the software key.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 208 includes configurations other than the external memory control unit 20, the recording medium 21, the display control unit 22, the display unit 23, and the operation unit 14 in the digital camera shown in FIG.
  • the captured image data generated by the camera unit 208 can be recorded in the storage unit 212 or output through the input / output unit 213 or the wireless communication unit 210.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this, and the camera unit 208 may be mounted on the back surface of the display input unit 204. Good.
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • an image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of operation inputs of the operation panel 203.
  • the GPS receiving unit 214 detects a position
  • the position can be detected with reference to an image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 208 can also be used in the application software.
  • the position information acquired by the GPS receiver 214 to the image data of the still image or the moving image, the voice information acquired by the microphone 206 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 215 can be added and recorded in the recording unit 212, or output through the input / output unit 213 and the wireless communication unit 210.
  • the solid-state imaging device 5 is used as the imaging device of the camera unit 208, and the camera unit 208 performs the processing shown in FIGS. Quality shooting is possible.
  • the disclosed imaging apparatus is an imaging apparatus having an imaging element including a light receiving surface on which a plurality of imaging pixels and a plurality of phase difference detection pixels are arranged, and the plurality of imaging pixels are included in an imaging optical system.
  • An image formed by a light beam that has passed through the pupil region is captured, and the plurality of phase difference detection pixels are formed by a pair of light beams that have passed through different portions of the pupil region of the imaging optical system.
  • a plurality of phase difference detection areas in which a plurality of pairs of the first phase difference detection pixels and the second phase difference detection pixels are arranged side by side in the direction in which the pair of images are shifted are selected and selected.
  • Phase difference detection pixels in the phase difference detection area An exposure determination unit that determines an exposure condition based on an output signal, and the selected phase difference detection area among the captured image signals obtained by imaging with the imaging element under the exposure condition determined by the exposure determination unit
  • a defocus amount calculation unit that calculates a defocus amount using output signals of the first phase difference detection pixel and the second phase difference detection pixel in the first phase difference detection pixel, and the exposure determination unit includes: Sensitivity difference between the phase difference detection pixel having the highest sensitivity and the phase difference detection pixel having the lowest sensitivity in the selected phase difference detection area, or the direction of deviation in the light receiving surface of the selected phase difference detection area
  • the phase difference detection pixel corresponding to the position at the position is selected from the selected phase difference detection area, and the exposure condition is determined based on the output signal
  • the exposure determination unit selects the phase difference detection area in which the sensitivity difference exceeds a predetermined value, the maximum sensitivity in the selected phase difference detection area is selected.
  • the exposure condition is determined based on the output signal of the phase difference detection pixel.
  • the exposure determination unit selects the phase difference detection area in which the sensitivity difference is equal to or less than a predetermined value, all of the above in the selected phase difference detection area is selected.
  • the exposure condition is determined based on the output signal of the average sensitivity pixel which is a phase difference detection pixel having a sensitivity equal to the average sensitivity of the phase difference detection pixels.
  • the exposure determining unit when the exposure determining unit is an end in the direction in which the position of the selected phase difference detection area is shifted, the position with the maximum sensitivity in the selected phase difference detection area is selected.
  • the exposure conditions are determined based on the phase difference detection pixels.
  • the exposure determining unit has a straight line in which the selected phase difference detection area passes through an intersection with the optical axis of the imaging optical system on the light receiving surface and extends in a direction orthogonal to the deviation direction.
  • the phase difference detection pixel having a sensitivity equal to the average of the sensitivities of all the phase difference detection pixels in the selected phase difference detection area.
  • the exposure condition is determined based on the average sensitivity pixel.
  • the imaging device when the average sensitivity pixel is selected by the exposure determination unit and an exposure condition is determined based on an output signal of the average sensitivity pixel, the imaging device performs imaging with the exposure condition.
  • An output signal level determination unit that determines the level of the output signal of the phase difference detection pixel having the maximum sensitivity in the selected phase difference detection area from the captured image signal obtained by performing the determination, and the level is determined to be less than the threshold value
  • the defocus amount calculation unit calculates the defocus amount using the captured image signal, and when the level is determined to be greater than or equal to the threshold value, the exposure determination unit is selected.
  • the phase difference detection pixel with the highest sensitivity in the detected phase difference detection area is selected, the exposure condition is determined again based on the output signal of the selected phase difference detection pixel, and the above defocus amount Calculation unit is intended for calculating a defocus amount by using the captured image signal obtained by imaging according to exposure conditions which are the re-determined.
  • the exposure determination unit when an exposure condition is determined by the exposure determination unit based on an output signal of the average sensitivity pixel, a captured image signal obtained by imaging with the imaging element under the exposure condition
  • An output signal level determination unit that determines the level of the output signal of the phase difference detection pixel having the maximum sensitivity in the selected phase difference detection area, and when the level is determined to be less than the threshold value, the defocusing is performed.
  • the amount calculation unit calculates a defocus amount using the captured image signal, and when the level is determined to be equal to or greater than the threshold value, the defocus amount calculation unit includes the threshold value of the captured image signal.
  • the defocus amount is calculated using a signal excluding the output signal of the phase difference detection pixel having the above level.
  • the disclosed exposure determination method is an exposure determination method using an imaging device having an imaging element including a light receiving surface on which a plurality of imaging pixels and a plurality of phase difference detection pixels are arranged.
  • the pixels capture an image formed by a light beam that has passed through the pupil region of the imaging optical system, and the plurality of phase difference detection pixels are a pair of pixels that have passed through different parts of the pupil region of the imaging optical system.
  • An exposure determination step for determining an exposure condition based on the output signal of the phase difference detection pixel, and the selected position of the captured image signal obtained by imaging with the image sensor under the determined exposure condition.
  • a phase difference detection pixel is selected from the selected phase difference detection area in accordance with the position in the direction of deviation, and exposure is performed based on the output signal of the selected phase difference detection pixel. It is intended to determine the conditions.
  • the present invention is useful when applied to a digital camera.
  • Solid-state image sensor 11 System control unit 19 Defocus amount calculation unit 50 Light receiving surface 51 Pixel 52 AF area (phase difference detection area) 51R, 51L Phase difference detection pixel X Row direction (shift direction of a pair of images) Y column direction

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

 位相差検出用の画素を適正に露光して位相差AFを高精度に行う撮像装置を提供する。システム制御部11は、選択されたAFエリア52にある位相差検出用画素51R,51Lの中から、選択されたAFエリア51の行方向Xでの位置に応じた位相差検出用画素を選択し、選択した画素の出力信号に基づいて露出条件を決定する。デフォーカス量演算部19は、システム制御部11によって決定された露出条件で撮像素子5により撮像を行って得られる撮像画像信号のうち、選択されたAFエリア52にある位相差検出用画素51R,51Lの出力信号を利用してデフォーカス量を演算する。

Description

撮像装置及び露出決定方法
 本発明は、撮像装置及び露出決定方法に関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
 これら撮像装置では、主要な被写体までの距離を検出してその被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式が採用されている。位相差AF方式は、コントラストAF方式に比べて合焦位置の検出を高速に行うことができるため、様々な撮像装置で多く採用されている。
 例えば、特許文献1には、撮像素子の画素の一部を位相差検出用の画素とし、位相差検出用の画素から読み出した信号を用いて位相差AFを行う撮像装置が開示されている。
 また、特許文献2には、位相差AFセンサの出力信号を利用して露出を決定する撮像装置が記載されている。
日本国特開2010-286826号公報 日本国特開2004-264451号公報
 特許文献1のように、位相差検出用の画素から読み出した信号を用いて位相差AFを行う撮像装置では、位相差検出用の画素の感度が、通常の画素の感度よりも大幅に低くなっている。そのため、位相差AFを高精度に行うには、通常の画素ではなく、位相差検出用の画素が適正露出となるように露出条件を決める必要がある。
 位相差検出用の画素は、撮影光学系の瞳領域の例えば右半分を通過した光を検出する右画素と、撮影光学系の瞳領域の例えば左半分を通過した光を検出する左画素との少なくとも2種類が用いられる。右画素と左画素は、入射角感度特性の違いから、撮像素子の像高(画素が配置されるエリアにおける撮影光学系の光軸と交わる点からの距離)が同じであっても、それらが配置される場所によっては感度に差が生じてしまう。
 したがって、位相差検出用の画素が適正露出となるように露出条件を決めるには、撮像素子の像高による感度の違いを考慮する必要がある。
 本発明は、上記事情に鑑みてなされたものであり、位相差検出用の画素を適正に露光して位相差AFを高精度に行うことが可能な撮像装置及び露出決定方法を提供することを目的とする。
 本発明の撮像装置は、複数の撮像用画素と複数の位相差検出用画素が配置される受光面を含む撮像素子を有する撮像装置であって、上記複数の撮像用画素は、撮像光学系の瞳領域を通過した光束により形成された像を撮像するものであり、上記複数の位相差検出用画素は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素、及び、上記一対の像の他方を撮像する複数の第二の位相差検出用画素を含み、上記撮像素子の受光面には、上記第一の位相差検出用画素と上記第二の位相差検出用画素のペアが複数配置される位相差検出エリアが上記一対の像のずれる方向に複数個並べて設けられ、選択された上記位相差検出エリアにある上記位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定部と、上記露出決定部により決定された露出条件で上記撮像素子により撮像を行って得られる撮像画像信号のうち、上記選択された位相差検出エリアにある上記第一の位相差検出用画素及び上記第二の位相差検出用画素の出力信号を利用してデフォーカス量を演算するデフォーカス量演算部とを備え、上記露出決定部は、上記選択された位相差検出エリアにおいて感度最大の上記位相差検出用画素と感度最小の上記位相差検出用画素との感度差、又は、上記選択された位相差検出エリアの上記受光面における上記ずれる方向での位置、に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定するものである。
 本発明の露出決定方法は、複数の撮像用画素と複数の位相差検出用画素が配置される受光面を含む撮像素子を有する撮像装置を用いた露出決定方法であって、上記複数の撮像用画素は、撮像光学系の瞳領域を通過した光束により形成された像を撮像するものであり、上記複数の位相差検出用画素は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素、及び、上記一対の像の他方を撮像する複数の第二の位相差検出用画素を含み、上記撮像素子の受光面には、上記第一の位相差検出用画素と上記第二の位相差検出用画素のペアが複数配置される位相差検出エリアが上記一対の像のずれる方向に複数個並べて設けられ、選択された上記位相差検出エリアにある上記位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定ステップと、上記決定した露出条件で上記撮像素子により撮像を行って得られる撮像画像信号のうち、上記選択された位相差検出エリアにある上記第一の位相差検出用画素及び上記第二の位相差検出用画素の出力信号を利用してデフォーカス量を演算するデフォーカス量演算ステップとを備え、上記選択された位相差検出エリアにおいて感度最大の上記位相差検出用画素と感度最小の上記位相差検出用画素との感度差、又は、上記選択された位相差検出エリアの上記受光面における上記ずれる方向での位置、に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定するものである。
 本発明によれば、位相差検出用の画素を適正に露光して位相差AFを高精度に行うことが可能な撮像装置及び露出決定方法を提供することができる。
本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図 図1に示すデジタルカメラに搭載される固体撮像素子5の平面構成を示す部分拡大図 図1に示すデジタルカメラに搭載される固体撮像素子5の全体構成を示す平面模式図 固体撮像素子5における行方向Xの位置(水平画素位置)での位相差検出用画素51R,51Lの感度比を示す図 図4に示すような感度比となることを説明するための図 図1に示すデジタルカメラの動作を説明するためのフローチャート 図1に示すデジタルカメラの動作の変形例を説明するためのフローチャート 図1に示すデジタルカメラに搭載される固体撮像素子5に設けるAFエリアの変形例を示す図 感度比の形状の変形例を示す図 感度比の形状の変形例を示す図 撮像装置としてスマートフォンを説明する図 図11のスマートフォンの内部ブロック図
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
 図1に示すデジタルカメラの撮像系は、撮像光学系としてのレンズ装置(撮影レンズ1と絞り2とを含む)と、CCD型やCMOS型等の固体撮像素子5とを備えている。
 撮影レンズ1及び絞り2を含むレンズ装置は、カメラ本体に着脱可能又は固定となっている。
 デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、フラッシュ発光部12及び受光部13を制御する。また、システム制御部11は、レンズ駆動部8を制御して撮影レンズ1に含まれるフォーカスレンズの位置を調整したり、撮影レンズ1に含まれるズームレンズの位置の調整を行ったりする。更に、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。
 また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5を駆動し、撮影レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
 デジタルカメラの電気制御系は、更に、固体撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、このアナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するA/D変換回路7とを備える。アナログ信号処理部6及びA/D変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びA/D変換回路7は固体撮像素子5に内蔵されることもある。
 更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、A/D変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB/YC変換処理等を行って撮影画像データを生成するデジタル信号処理部17と、デジタル信号処理部17で生成された撮影画像データをJPEG形式に圧縮したり圧縮画像データを伸張したりする圧縮伸張処理部18と、デフォーカス量を演算するデフォーカス量演算部19と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22とを備えている。メモリ制御部15、デジタル信号処理部17、圧縮伸張処理部18、デフォーカス量演算部19、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
 図2は、図1に示すデジタルカメラに搭載される固体撮像素子5の平面構成を示す部分拡大図である。
 固体撮像素子5は、行方向X及びこれに直交する列方向Yに二次元状に配列された多数の画素51(図中の各正方形のブロック)を備えている。図2では全ての画素51は図示していないが、実際には、数百万~1千数万個程度の画素51が二次元状に配列される。固体撮像素子5により撮像を行うと、この多数の画素51の各々から出力信号が得られる。この多数の出力信号の集合を本明細書では撮像画像信号という。
 各画素51は、フォトダイオード等の光電変換部と、この光電変換部上方に形成されたカラーフィルタとを含む。
 図2では、赤色光を透過するカラーフィルタを含む画素51には“R”の文字を付し、緑色光を透過するカラーフィルタを含む画素51には“G”の文字を付し、青色光を透過するカラーフィルタを含む画素51には“B”の文字を付している。
 多数の画素51は、行方向Xに並ぶ複数の画素51からなる画素行を、列方向Yに複数個並べた配列となっている。そして、奇数行の画素行と偶数行の画素行は、各画素行の画素51の配列ピッチの略1/2、行方向Xにずれている。
 奇数行の画素行の各画素51に含まれるカラーフィルタの配列は全体としてベイヤ配列となっている。また、偶数行の画素行の各画素51に含まれるカラーフィルタの配列も全体としてベイヤ配列となっている。奇数行にある画素51と、この画素51に対して右下に隣接する、この画素51と同色光を検出する画素51とがペア画素を構成する。
 このような画素配列の固体撮像素子5によれば、ペア画素を構成する2つの画素51の出力信号を加算することでカメラの高感度化を図ったり、ペア画素を構成する2つの画素51の露光時間を変え、かつ、この2つの画素51の出力信号を加算することでカメラの広ダイナミックレンジ化を図ったりすることができる。
 固体撮像素子5では、多数の画素51のうちの一部が位相差検出用画素となっている。
 位相差検出用画素は、複数の位相差検出用画素51Rと複数の位相差検出用画素51Lとを含む。
 複数の位相差検出用画素51Rは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の一方(例えば瞳領域の右半分を通過した光束)を受光し受光量に応じた信号を出力する。つまり、固体撮像素子5に設けられた複数の位相差検出用画素51Rは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の一方によって形成される像を撮像するものとなる。
 複数の位相差検出用画素51Lは、上記一対の光束の他方(例えば瞳領域の左半分を通過した光束)を受光し受光量に応じた信号を出力する。つまり、固体撮像素子5に設けられた複数の位相差検出用画素51Lは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の他方によって形成される像を撮像するものとなる。なお、右、左は、撮像素子で撮影するときの撮影者にとっての方向を示すものとする。
 なお、位相差検出用画素51R,51L以外の複数の画素51(以下、撮像用画素という)は、撮影レンズ1の瞳領域のほぼ全ての部分を通過した光束によって形成される像を撮像するものとなる。
 画素51の光電変換部上方には、遮光膜が設けられ、この遮光膜には、光電変換部の受光面積を規定する開口が形成されている。
 撮像用画素51の開口(図2において符号aで示す)の中心は、撮像用画素51の光電変換部の中心(正方形のブロックの中心)と一致している。なお、図2では、図を簡略化するために、撮像用画素51については一部のみに開口aを図示している。
 これに対し、位相差検出用画素51Rの開口(図2において符号cで示す)の中心は、位相差検出用画素51Rの光電変換部の中心に対し右側に偏心している。
 位相差検出用画素51Lの開口(図2において符号bで示す)の中心は、位相差検出用画素51Lの光電変換部の中心に対して左側に偏心している。
 固体撮像素子5では、緑色のカラーフィルタが搭載される画素51の一部が位相差検出用画素51R又は位相差検出用画素51Lとなっている。勿論、他の色のカラーフィルタが搭載される画素を位相差検出用画素としてもよい。
 位相差検出用画素51Rと位相差検出用画素51Lは、それぞれ、画素51が配置される領域において離散的及び周期的に配置されている。
 位相差検出用画素51Rは、図2の例では、偶数行の画素行の一部(図2の例では、3画素行おきに並ぶ4つの画素行)において、行方向Xに3つの画素おきに配置されている。
 位相差検出用画素51Lは、図2の例では、奇数行の画素行の一部(位相差検出用画素51Rを含む画素行の隣にある画素行)において、行方向Xに、位相差検出用画素51Rと同じ周期で配置されている。
 このような構成により、遮光膜の開口bを通って画素51Lに受光される光は、図2の紙面上方に設けられる撮影レンズ1の被写体から見て左側からの光、すなわち被写体を右眼で見た方向から来た光が主となり、遮光膜の開口cを通って画素51Rに受光される光は、撮影レンズ1の被写体から見て右側からの光、すなわち被写体を左眼で見た方向から来た光が主となる。
 即ち、全ての位相差検出用画素51Rによって、被写体を左眼で見た撮像画像信号を得ることができ、全ての位相差検出用画素51Lによって、被写体を右眼で見た撮像画像信号を得ることができる。このため、両者を組み合わせることで、被写体の立体画像データを生成したり、両者を相関演算することで位相差情報を生成したりすることが可能になる。
 なお、位相差検出用画素51Rと位相差検出用画素51Lは、遮光膜の開口を逆方向に偏心させることで、撮影レンズ1の瞳領域の異なる部分を通過した光束をそれぞれ受光できるようにして位相差情報を得られるようにしている。しかし、位相差情報を得るための構造はこれに限らず、よく知られているものを採用することができる。
 図3は、図1に示すデジタルカメラに搭載される固体撮像素子5の全体構成を示す平面模式図である。
 固体撮像素子5は、全ての画素51が配置される受光面50を有する。そして、この受光面50に、位相差情報を取得する対象となる位相差検出エリア(AFエリア)52が図2の例では9つ設けられている。
 AFエリア52は、図2に示した互いに近接位置される位相差検出用画素51Rと位相差検出用画素51Lのペアを複数含むエリアである。受光面50のうちAFエリア52を除く部分には、撮像用画素51だけが配置される。
 図2に示した9つのAFエリア52のうち、行方向Xにおいて真ん中にある3つのAFエリア52は、それぞれ、平面視において受光面50における撮像光学系の光軸との交点を通りかつ列方向Yに延びる直線を跨いで行方向Xに幅を持つエリアである。言い換えると、行方向Xにおいて真ん中にある3つのAFエリア52は、受光面50の行方向Xにおける中央(光軸位置)を跨いで配置されるエリアである。
 図1に示すデフォーカス量演算部19は、9つのAFエリア52の中からユーザ操作等により選択された1つのAFエリア52にある位相差検出用画素51L及び位相差検出用画素51Rから読み出される出力信号群を用いて、上記一対の光束によって形成される2つの像の相対的な位置ずれ量である位相差量を演算する。そして、この位相差量に基づいて、撮影レンズ1の焦点調節状態、ここでは合焦状態から離れている量とその方向、すなわちデフォーカス量を求める。
 図1に示すシステム制御部11は、デフォーカス量演算部19によって演算されたデフォーカス量に基づいて、撮像レンズ1に含まれるフォーカスレンズを合焦位置に移動させて、撮像レンズ1の合焦状態を制御する。
 位相差検出用画素51Rと位相差検出用画素51Lは、開口が逆方向に偏心しているものである。このため、この開口の偏心方向(図2の行方向X)における位置がほぼ同じであっても、位相差検出用画素51Rと位相差検出用画素51Lには感度差が発生する。
 図4は、固体撮像素子5における行方向Xの位置(水平画素位置)での位相差検出用画素51R,51Lの感度比を示す図である。符号51Rで示した直線が位相差検出用画素51Rの感度比を示し、符号51Lで示した直線が位相差検出用画素51Lの感度比を示している。
 図4では、図3において左端部にある3つのAFエリア52の水平画素位置の範囲を符号52Lで示し、図3において中央部にある3つのAFエリア52の水平画素位置の範囲を符号52Cで示し、図3において右端部にある3つのAFエリア52の水平画素位置の範囲を符号52Rで示している。
 任意の位相差検出用画素の感度比とは、任意の位相差検出用画素とこれに近接する撮像用画素(ただし当該任意の位相差検出用画素と同色光を検出するもの)の出力信号をそれぞれA,Bとしたとき、A/B、又は、B/Aで表される値のことをいう。また、本明細書において、近接する2つの画素とは、実質的に同じ被写体部分からの光を受光していると見なすことのできる程度に近接している2つの画素のことを言う。なお、図4では、感度比をA/Bとしたときのものを示している。
 位相差検出用画素51R,51Lは列方向Yにも周期的に配置されている。ただし、位相差検出用画素51Rと位相差検出用画素51Lは列方向Yには開口が偏心していないため、列方向Yのどの位置においても、感度比は図4に示すようになる。
 複数の位相差検出用画素51Rの出力信号と、複数の位相差検出用画素51Lの出力信号は、それぞれ、それ単独では、被写体によって行方向Xでの位置毎にレベルが異なるため、位相差検出用画素の感度分布がどのようになっているかは分からない。しかし、図4に示すように、位相差検出用画素とこれに近接する撮像用画素の出力信号との比である感度比を求めれば、位相差検出用画素の感度分布を知ることができる。
 なお、固体撮像素子5では、位相差検出用画素51Rと位相差検出用画素51Lの行方向Xにおける位置が厳密には同じではないが、図4では、近接する位相差検出用画素51Rと位相差検出用画素51Lは、行方向Xにおける位置が同じものとして扱っている。
 位相差検出用画素51Rは、開口cが図2において右側に偏心している。このため、図5に示すように、受光面50の左側端部にある位相差検出用画素51Rの開口cには、撮影レンズ1の左側を通ってきた光は半分入り、撮影レンズ1の右側を通ってきた光は入らなくなる。一方、受光面50の右側端部にある位相差検出用画素51Rの開口cには、撮影レンズ1の右側を通ってきた光は半分入り、撮影レンズ1の左側を通ってきた光は全て入る。また、固体撮像素子5の中心部にある位相差検出用画素51Rの開口cには、撮影レンズ1の左側を通ってきた光だけが入り、撮影レンズ1の右側を通ってきた光は入らなくなる。
 また、位相差検出用画素51Lは、開口bが位相差検出用画素51Rと行方向Xにおいて逆方向に偏心しているため、その感度比の特性は位相差検出用画素51Rと逆になる。
 したがって、図4に示したように、位相差検出用画素51Lの感度比は、固体撮像素子5の左端部から右端部に向かうほど低くなる。また、位相差検出用画素51Rの感度比は、固体撮像素子5の左端部から右端部に向かうほど高くなる。
 なお、受光面50の行方向Xにおける中央部分(受光面50において、撮像光学系の光軸と交わる部分を通りかつ列方向Yに延びる直線と重なる部分)の近傍では、行方向Xの光成分がほぼ垂直に入射するため、位相差検出用画素51Lの感度比と位相差検出用画素51Rの感度比はほぼ同じになる。
 図1に示すデジタルカメラでは、位相差量の算出に用いる位相差検出用画素の出力信号レベルを、デフォーカス量演算部19において正確なデフォーカス量を求められるような適度な値にするために、システム制御部11が、選択されたAFエリア52にある位相差検出用画素の露光量が適正な値となるように、露出条件(絞り、シャッター速度等)を決める。
 図4に示すように、AFエリア52は、行方向Xにおける位置によって、そのエリア内における感度比の形状が異なる。そのため、システム制御部11は、選択されたAFエリア52の行方向Xにおける位置によって、露出条件の決定アルゴリズムを変更する。
 例えば、図3において左端部にある3つのAFエリア52においては、これら各AFエリア52にある位相差検出用画素のうち、左端部にある位相差検出用画素51Lの感度が最も高くなる。
 したがって、システム制御部11は、図3において左端部にある3つのAFエリア52が選択された場合には、当該AFエリア52において感度最大の位相差検出用画素51Lを選択し、選択した位相差検出用画素Lの出力信号に基づいて、選択した位相差検出用画素51Lの露光量が適正となるように、露出条件を決定する。
 図4に示す範囲52Lに対応する位相差検出用画素の中では、左端部にある位相差検出用画素51Lの感度が最も高い。そのため、感度最大の位相差検出用画素51Lが適正露光量となるように露出条件を決めることで、範囲52Lにある全ての位相差検出用画素の出力信号が飽和レベルに達してしまうのを防ぐことができる。この結果、選択したAFエリア52からの出力信号を用いた位相差量の算出を正確に行うことが可能になる。
 同様に、システム制御部11は、図3において右端部にある3つのAFエリア52が選択された場合には、当該AFエリア52において感度最大となる位相差検出用画素51Rを選択し、選択した位相差検出用画素51Rの出力信号に基づいて、選択した位相差検出用画素51Rの露光量が適正となるように、露出条件を決定する。
 一方、システム制御部11は、図3において真ん中にある3つのAFエリア52が選択された場合には、当該AFエリア52にある全ての位相差検出用画素の感度の平均に一致する感度を持つ位相差検出用画素51R又は位相差検出用画素セル51L、つまり、図4において2つの直線が交わる点における感度比を持つ位相差検出用画素51R又は位相差検出用画素51Lを選択する。
 そして、システム制御部11は、選択した位相差検出用画素の出力信号に基づいて、選択した位相差検出用画素の露光量が適正となるように、露出条件を決定する。この場合の露出条件とは、主に露光時間であるが、F値を変える場合もある。システム制御部11は、選択した位相差検出用画素の出力が予め決められた範囲に入るように露光時間、場合によっては、F値を調整する。
 撮像光学系の光学条件(F値、焦点距離、及びフォーカスレンズ位置の組み合わせ)が変わると、固体撮像素子5に入射する光の入射角が変わる。このため、図4に示す位相差検出用画素51R,51Lの各々の感度比の直線の傾きは、撮像光学系の光学条件によって変化する。
 範囲52Cでは、感度最大となる位相差検出用画素と、感度最小となる位相差検出用画素との感度差が、範囲52L,52Rと比べて小さい。上述したように、撮像光学系の光学条件によってこの感度差は上下するが、それでも、範囲52L,52Rに比べれば、範囲52Cにおける感度差は小さい。
 ある範囲における感度差が小さいということは、その範囲に対応する全ての位相差検出用画素の感度の平均値と、その範囲における位相差検出用画素の最大感度との差が小さいことを意味する。
 このため、感度差が小さい範囲(図4の例では範囲52C)にあるAFエリア52においては、そのAFエリア52内の全ての位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素が適正露光量となるように露出条件を決めても、そのAFエリア52内において感度最大となる位相差検出用画素が飽和する可能性は低い。
 したがって、システム制御部11は、範囲52CにあるAFエリア52が選択された場合には、そのAFエリア52内の全ての位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素を選択し、選択した位相差検出用画素が適正露光量となるように露出条件を決める。
 このようにすることで、範囲52R,52Lに対応するAFエリア52が選択された場合よりも、位相差検出用画素の露光量を多くすることができるため、S/Nを良好にして位相差量の算出精度を上げることができる。
 一般的には、主要被写体を撮像範囲の中心に合わせて撮像することが多い。このため、範囲52CにあるAFエリア52が選択された場合に上記方法で露出条件を決めることで、ほとんどの撮影において、位相差検出用画素の露光量を増やしつつ飽和を防いで、位相差AFの精度を向上させることができる。
 また、撮像範囲の端部にある被写体に焦点を合わせて撮像する場合には、位相差検出用画素の露光量をあまり増やせなくなる。しかし、位相差検出用画素の飽和を確実に防ぐことができるため、位相差AFの精度が低下するのを防ぐことができる。
 以上のように構成されたデジタルカメラの動作について説明する。
 図6は、図1に示すデジタルカメラのAF指示がなされてからの動作を説明するためのフローチャートである。
 撮影モードに設定され、シャッタボタンの半押し操作等によってAF指示がなされると、システム制御部11は、事前に選択されたAFエリア52の位置を判定する(ステップS1)。
 選択されたAFエリア52の位置が、行方向Xにおける右端部又は左端部であった場合(ステップS1:YES)、システム制御部11は、選択されたAFエリア52において感度最大となる位相差検出用画素を選択する(ステップS2)。
 この感度最大となる位相差検出用画素は、選択されたAFエリア52が左端部であれば、固体撮像素子5にある位相差検出用画素51Lのうち最も左端にある位相差検出用画素51Lとなり、選択されたAFエリア52が右端部であれば、固体撮像素子5にある位相差検出用画素51Rのうち最も右端にある位相差検出用画素51Rとなる。各AFエリア52において感度最大となる位相差検出用画素の位置は、固体撮像素子5に対して設定するAFエリア52の位置と、位相差検出用画素の配置とによって予め決まるため、予めメモリに記憶しておくことができる。
 選択されたAFエリア52の位置が行方向Xにおける中央であった場合(ステップS1:NO)、システム制御部11は、選択されたAFエリア52において、エリア内の全ての位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素を選択する(ステップS7)。
 中央にあるAFエリア52において、エリア内の全ての位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素の行方向Xでの位置は、図4に示すデータにおいて感度比の直線の交点に対応する位置である。このため、この位置の座標を、図4に示すデータから求めて予め記憶しておけばよい。
 ステップS2及びステップS7の後、システム制御部11は、選択した位相差検出用画素の出力信号を取得し、この出力信号に基づいて、露出条件を決定する(ステップS3)。
 露出条件を決定すると、システム制御部11は、決定した露出条件で固体撮像素子5により撮像を行わせる(ステップS4)。この撮像によって固体撮像素子5から出力された撮像画像信号はメインメモリ16に記憶される。
 そして、デフォーカス量演算部19が、メインメモリ16に記憶された上記撮像画像信号のうち、選択されたAFエリア52にある位相差検出用画素51R,51Lの出力信号を用いて相関演算を行って位相差量を算出し、この位相差量に基づいてデフォーカス量を算出する(ステップS5)。このとき、ステップS4の撮像によって得られた撮像画像信号のうち、撮像用画素51の出力信号を用いて、ライブビュー画像の生成及び表示を行ってもよい。
 ステップS5の後は、システム制御部11が、ステップS5で算出されたデフォーカス量に基づいてフォーカスレンズを合焦位置に移動させる合焦制御を行い(ステップS6)、その後は、撮像待機状態となる。
 以上のように、図1に示すデジタルカメラは、露出条件を決めるときの基準となる位相差検出用画素を、選択されたAFエリア52の位置に応じて決めた位相差検出用画素とする。このため、例えば、選択されたAFエリア52内の全ての位相差検出用画素の出力信号に基づいて露出条件を決める場合と比較すると、位相差量をより正確に算出することができる。
 なお、図5のステップS7においてエリア内平均感度に等しい感度をもつ位相差検出用画素を選択し、その位相差検出用画素の出力信号に基づいて露出条件を決めて撮像を行った場合でも、撮像光学系の性能や撮像光学系の光学条件によっては、感度比の直線の傾きが急になり、範囲52Cの端部にある位相差検出用画素の出力信号が飽和してしまうことも考えられる。範囲52Cの端部にある位相差検出用画素の出力信号が飽和した状態では、位相差量の算出精度が低下する。
 そこで、このような位相差量の算出精度低下を防ぐためのフローを図7に示す。
 図7は、図1に示すデジタルカメラのAF指示がなされてからの動作の変形例を説明するためのフローチャートである。図7において図6と同じ処理には同一符号を付してある。
 ステップS1の判定がYESのときのフローは図6と同じである。ステップS1の判定がNOのときにステップS7の処理を行った後、システム制御部11は、ステップS7で選択した位相差検出用画素の出力信号に基づいて露出条件を決定する(ステップS8)。
 露出条件を決定すると、システム制御部11は、決定した露出条件で固体撮像素子5により撮像を行わせる(ステップS9)。この撮像によって固体撮像素子5から出力された撮像画像信号はメインメモリ16に記憶される。
 ステップS9の後、システム制御部11は、メインメモリ16に記憶された撮像画像信号のうち、選択されたAFエリア52において感度最大の位相差検出用画素(範囲52Cの左端部にある位相差検出用画素51Lと右端部にある位相差検出用画素セル51R)の出力信号を取得する。システム制御部11は、範囲52Cの左端部にある位相差検出用画素51Lから取得した出力信号のレベルの平均値と、範囲52Cの右端部にある位相差検出用画素51Rから取得した出力信号のレベルの平均値とのいずれかが、閾値TH以上か否かを判定する(ステップS10)。
 システム制御部11は、上記2つの平均値のいずれかが閾値TH以上であれば(ステップS10:YES)、ステップS2において、範囲52Cの左端部にある位相差検出用画素51Lと、範囲52Cの右端部にある位相差検出用画素51Rとを選択し、ステップS3において、当該選択した位相差検出用画素の出力信号に基づいて露出条件を決定する。その後はステップS4以降の処理を行って撮像を再度行う。
 一方、システム制御部11は、上記2つの平均値の両方が閾値TH未満であれば(ステップS10:NO)、ステップS9の撮像で得られた撮像画像信号に含まれる位相差検出用画素の出力信号を用いたデフォーカス量の算出をデフォーカス量演算部19に行わせる(ステップS5)。
 上記閾値THは、位相差検出用画素の飽和レベルかそれに近い値としておけばよい。
 以上のように、図7に示す変形例によれば、図3において中央のAFエリア52が選択されたときの位相差AFの精度低下を更に防ぐことができる。
 上記説明では、図7のステップS10の判定がYESのときに、露出条件を再び決定して撮像を行い、デフォーカス量を算出するものとした。
 しかし、ステップS10の判定がYESのときには、デフォーカス量算出部19が、出力信号のレベルが閾値TH以上となっている位相差検出用画素を除く位相差検出用画素の出力信号を用いて、デフォーカス量の算出を行うようにしてもよい。このように、飽和している位相差検出用画素の出力信号を用いずにデフォーカス量を算出することで、位相差AFの精度低下を防ぐことができる。
 なお、図3では、行方向XにおいてAFエリア52が3つ並ぶ例を示したが、行方向Xに見たときのAFエリア52の数は複数個であればよい。AFエリア52が行方向Xに複数個並ぶ場合には、各AFエリア52において感度比の形状が異なるため、選択されたAFエリア52の位置に応じた位相差検出用画素を選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決めることで、位相差AFを高精度に行うことができる。
 例えば、図8に示すように、行方向Xに5個のAFエリア52を設けた場合、5個のAFエリア52のうちの真ん中のAFエリア52(受光面50と光軸との交点を通り列方向Yに延びる直線を跨ぐエリア)については、図3の真ん中にあるAFエリア52と同様の方法で露出条件を決定する。
 また、5個のAFエリア52のうちの左端部のAFエリア52については、図3の左端部にあるAFエリア52と同様の方法で露出条件を決定する。5個のAFエリア52のうちの右端部のAFエリア52については、図3の右端部にあるAFエリア52と同様の方法で露出条件を決定する。
 また、5個のAFエリア52のうちの左から2番目と右から2番目にあるAFエリア52については、そのエリア内で感度最大の位相差検出用画素の出力信号に基づいて露出条件を決めればよい。
 なお、図3,8では、AFエリア52を受光面50の一部に設けるものとしたが、受光面50全体にAFエリア52を隙間なく設定してもよい。
 ここまでは、画素51がいわゆるハニカム配列されたものを例にしたが、画素51が正方格子状に配列された固体撮像素子にも本発明は適用可能である。
 また、ここまでは、固体撮像素子5が複数色のカラーフィルタを搭載してカラー撮像を行うものとしたが、固体撮像素子5は、カラーフィルタを緑色の単色にするか又は省略して、モノクロ撮像用の撮像素子としてもよい。
 また、ここまでは、撮像装置としてデジタルカメラを例にしたが、カメラ付のスマートフォンでも本実施形態の技術を適用することができる。
 なお、図4に示した感度比の形状は、レンズ装置の種類によって変化する。レンズ装置がデジタルカメラに固定であれば、選択されたAFエリア52の位置に応じて、そのAFエリア52内のどの位相差検出用画素を基準に露出を決めればよいかを決めておくことができる。
 しかし、レンズ装置を交換可能なデジタルカメラの場合は、選択されたAFエリア52の位置に応じて決めた位相差検出用画素の出力信号に基づいて露出条件を決めてしまうと、適正な露出が得られない場合がある。
 例えば、図1に示すデジタルカメラにおいて、撮像光学系が別のものに交換された結果、感度比の形状が図9に示すようになったとする。
 この場合、範囲52Cにおいて、感度最大となる位相差検出用画素と、感度最小となる位相差検出用画素との感度差は、図4の例と比較して大きくなる。したがって、範囲52CにあるAFエリア52が選択された場合に、そのAFエリア52内の全ての位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素が適正露光量となるように露出条件を決めても、そのAFエリア52内において感度最大となる位相差検出用画素が飽和する可能性は高くなってしまう。
 また、図1に示すデジタルカメラにおいて、撮像光学系が別のものに交換された結果、感度比の形状が図10に示すようになったとする。
 この場合、範囲52L,52Rにおいて、感度最大となる位相差検出用画素と、感度最小となる位相差検出用画素との感度差は、図4の例と比較して小さくなる。したがって、範囲52L,52RにあるAFエリア52が選択された場合に、そのAFエリア52内の全ての位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素が適正露光量となるように露出条件を決めても、そのAFエリア52内において感度最大となる位相差検出用画素が飽和する可能性は低い。
 そこで、システム制御部11は、選択されたAFエリア52について、そのAFエリア52内にある感度最大の位相差検出用画素と感度最小の位相差検出用画素の感度差を求める。そして、この感度差が、図6のステップS7の処理を行って露出条件を決めても、位相差検出用画素が飽和しない程度の値になっていれば、ステップS7の処理を行い、この感度差が、図6におけるステップS7の処理を行って露出条件を決めた場合に、位相差検出用画素が飽和するほど大きな値になっていれば、図6のステップS2の処理を行う。
 なお、図4、図9、図10に示す感度比のデータは、デジタルカメラに装着可能なレンズ装置毎に、予め生成しておき、デジタルカメラ内のメモリに記憶しておく。又は、システム制御部11が、レンズ装置が装着されたときのライブビュー画像等から生成してメモリに記憶するようにしてもよい。
 このように、システム制御部11は、選択されたAFエリア52における感度差に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定する。このようにすることで、レンズ装置が交換可能であっても、適正な露出を行って、位相差AFの精度低下を防ぐことができる。また、レンズ装置が固定の場合でも、撮像条件によって感度比は変化するため、上記のようにすることで、レンズ装置固定のデジタルカメラにおいても位相差AFの精度低下を防ぐことができる。
 次に、カメラ付のスマートフォンの構成について説明する。
 図11は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図11に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図12は、図11に示すスマートフォン200の構成を示すブロック図である。図12に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図11に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図11に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記録媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることができる。図11に示すにスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記録部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることもできる。
 以上のような構成のスマートフォン200においても、カメラ部208の撮像素子として固体撮像素子5を用い、カメラ部208が図6,7に示した処理を行うことで、高精度の位相差AF,高品質の撮影が可能になる。
 以上説明してきたように、本明細書には以下の事項が開示されている。
 開示された撮像装置は、複数の撮像用画素と複数の位相差検出用画素が配置される受光面を含む撮像素子を有する撮像装置であって、上記複数の撮像用画素は、撮像光学系の瞳領域を通過した光束により形成された像を撮像するものであり、上記複数の位相差検出用画素は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素、及び、上記一対の像の他方を撮像する複数の第二の位相差検出用画素を含み、上記撮像素子の受光面には、上記第一の位相差検出用画素と上記第二の位相差検出用画素のペアが複数配置される位相差検出エリアが上記一対の像のずれる方向に複数個並べて設けられ、選択された上記位相差検出エリアにある上記位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定部と、上記露出決定部により決定された露出条件で上記撮像素子により撮像を行って得られる撮像画像信号のうち、上記選択された位相差検出エリアにある上記第一の位相差検出用画素及び上記第二の位相差検出用画素の出力信号を利用してデフォーカス量を演算するデフォーカス量演算部とを備え、上記露出決定部は、上記選択された位相差検出エリアにおいて感度最大の上記位相差検出用画素と感度最小の上記位相差検出用画素との感度差、又は、上記選択された位相差検出エリアの上記受光面における上記ずれる方向での位置、に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定するものである。
 開示された撮像装置は、上記露出決定部が、上記感度差が予め決められた値を超える上記位相差検出エリアが選択された場合には、上記選択された位相差検出エリアにおける感度最大の上記位相差検出用画素の出力信号に基づいて露出条件を決定するものである。
 開示された撮像装置は、上記露出決定部が、上記感度差が予め決められた値以下となる上記位相差検出エリアが選択された場合には、上記選択された位相差検出エリアにおける全ての上記位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素である平均感度画素の出力信号に基づいて露出条件を決定するものである。
 開示された撮像装置は、上記露出決定部が、上記選択された位相差検出エリアの位置が上記ずれる方向における端部である場合には、上記選択された位相差検出エリアにおける感度最大の上記位相差検出用画素に基づいて露出条件を決定するものである。
 開示された撮像装置は、上記露出決定部が、上記選択された位相差検出エリアが、上記受光面において上記撮像光学系の光軸との交点を通りかつ上記ずれる方向に直交する方向に延びる直線と重なるエリアである場合には、上記選択された位相差検出エリアにおいて、上記選択された位相差検出エリアにおける全ての上記位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素である平均感度画素に基づいて露出条件を決定するものである。
 開示された撮像装置は、上記露出決定部により、上記平均感度画素が選択され、上記平均感度画素の出力信号に基づいて露出条件が決定された場合に、上記露出条件で上記撮像素子により撮像を行って得られる撮像画像信号のうち、上記選択された位相差検出エリアにおける感度最大の位相差検出用画素の出力信号のレベルを判定する出力信号レベル判定部を備え、上記レベルが閾値未満と判定された場合に、上記デフォーカス量演算部は、上記撮像画像信号を利用してデフォーカス量を算出し、上記レベルが上記閾値以上と判定された場合に、上記露出決定部が、上記選択された位相差検出エリアにおける感度最大の位相差検出用画素を選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を再決定し、上記デフォーカス量演算部が、上記再決定された露出条件にしたがって撮像して得られた撮像画像信号を利用してデフォーカス量を演算するものである。
 開示された撮像装置は、上記露出決定部により、上記平均感度画素の出力信号に基づいて露出条件が決定された場合に、当該露出条件で上記撮像素子により撮像を行って得られる撮像画像信号のうち、上記選択された位相差検出エリアにおける感度最大の位相差検出用画素の出力信号のレベルを判定する出力信号レベル判定部を備え、上記レベルが閾値未満と判定された場合に、上記デフォーカス量演算部は、上記撮像画像信号を利用してデフォーカス量を算出し、上記レベルが上記閾値以上と判定された場合に、上記デフォーカス量演算部は、上記撮像画像信号のうち、上記閾値以上のレベルとなっている上記位相差検出用画素の出力信号を除く信号を利用してデフォーカス量を演算するものである。
 開示された露出決定方法は、複数の撮像用画素と複数の位相差検出用画素が配置される受光面を含む撮像素子を有する撮像装置を用いた露出決定方法であって、上記複数の撮像用画素は、撮像光学系の瞳領域を通過した光束により形成された像を撮像するものであり、上記複数の位相差検出用画素は、上記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素、及び、上記一対の像の他方を撮像する複数の第二の位相差検出用画素を含み、上記撮像素子の受光面には、上記第一の位相差検出用画素と上記第二の位相差検出用画素のペアが複数配置される位相差検出エリアが上記一対の像のずれる方向に複数個並べて設けられ、選択された上記位相差検出エリアにある上記位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定ステップと、上記決定した露出条件で上記撮像素子により撮像を行って得られる撮像画像信号のうち、上記選択された位相差検出エリアにある上記第一の位相差検出用画素及び上記第二の位相差検出用画素の出力信号を利用してデフォーカス量を演算するデフォーカス量演算ステップとを備え、上記露出決定ステップでは、上記選択された位相差検出エリアにおいて感度最大の上記位相差検出用画素と感度最小の上記位相差検出用画素との感度差、又は、上記選択された位相差検出エリアの上記受光面における上記ずれる方向での位置、に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定するものである。
 本発明は、デジタルカメラに適用して有用である。
 以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
 本出願は、2012年11月20日出願の日本特許出願(特願2012-254317)に基づくものであり、その内容はここに取り込まれる。
5 固体撮像素子
11 システム制御部
19 デフォーカス量演算部
50 受光面
51 画素
52 AFエリア(位相差検出エリア)
51R,51L 位相差検出用画素
X 行方向(一対の像のずれ方向)
Y 列方向

Claims (8)

  1.  複数の撮像用画素と複数の位相差検出用画素が配置される受光面を含む撮像素子を有する撮像装置であって、
     前記複数の撮像用画素は、撮像光学系の瞳領域を通過した光束により形成された像を撮像するものであり、
     前記複数の位相差検出用画素は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素、及び、前記一対の像の他方を撮像する複数の第二の位相差検出用画素を含み、
     前記撮像素子の受光面には、前記第一の位相差検出用画素と前記第二の位相差検出用画素のペアが複数配置される位相差検出エリアが前記一対の像のずれる方向に複数個並べて設けられ、
     選択された前記位相差検出エリアにある前記位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定部と、
     前記露出決定部により決定された露出条件で前記撮像素子により撮像を行って得られる撮像画像信号のうち、前記選択された位相差検出エリアにある前記第一の位相差検出用画素及び前記第二の位相差検出用画素の出力信号を利用してデフォーカス量を演算するデフォーカス量演算部とを備え、
     前記露出決定部は、前記選択された位相差検出エリアにおいて感度最大の前記位相差検出用画素と感度最小の前記位相差検出用画素との感度差、又は、前記選択された位相差検出エリアの前記受光面における前記ずれる方向での位置、に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定する撮像装置。
  2.  請求項1記載の撮像装置であって、
     前記露出決定部は、前記感度差が予め決められた値を超える前記位相差検出エリアが選択された場合には、前記選択された位相差検出エリアにおける感度最大の前記位相差検出用画素の出力信号に基づいて露出条件を決定する撮像装置。
  3.  請求項1又は2記載の撮像装置であって、
     前記露出決定部は、前記感度差が予め決められた値以下となる前記位相差検出エリアが選択された場合には、前記選択された位相差検出エリアにおける全ての前記位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素である平均感度画素の出力信号に基づいて露出条件を決定する撮像装置。
  4.  請求項1記載の撮像装置であって、
     前記露出決定部は、前記選択された位相差検出エリアの位置が前記ずれる方向における端部である場合には、前記選択された位相差検出エリアにおける感度最大の前記位相差検出用画素に基づいて露出条件を決定する撮像装置。
  5.  請求項1又は4記載の撮像装置であって、
     前記露出決定部は、前記選択された位相差検出エリアが、前記受光面において前記撮像光学系の光軸との交点を通りかつ前記ずれる方向に直交する方向に延びる直線と重なるエリアである場合には、前記選択された位相差検出エリアにおいて、前記選択された位相差検出エリアにおける全ての前記位相差検出用画素の感度の平均に等しい感度を持つ位相差検出用画素である平均感度画素に基づいて露出条件を決定する撮像装置。
  6.  請求項3又は5記載の撮像装置であって、
     前記露出決定部により、前記平均感度画素の出力信号に基づいて露出条件が決定された場合に、当該露出条件で前記撮像素子により撮像を行って得られる撮像画像信号のうち、前記選択された位相差検出エリアにおける感度最大の位相差検出用画素の出力信号のレベルを判定する出力信号レベル判定部を備え、
     前記レベルが閾値未満と判定された場合に、前記デフォーカス量演算部は、前記撮像画像信号を利用してデフォーカス量を算出し、
     前記レベルが前記閾値以上と判定された場合に、前記露出決定部が、前記選択された位相差検出エリアにおける感度最大の位相差検出用画素を選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を再決定し、前記デフォーカス量演算部が、前記再決定された露出条件にしたがって撮像して得られた撮像画像信号を利用してデフォーカス量を演算する撮像装置。
  7.  請求項3又は5記載の撮像装置であって、
     前記露出決定部により、前記平均感度画素の出力信号に基づいて露出条件が決定された場合に、当該露出条件で前記撮像素子により撮像を行って得られる撮像画像信号のうち、前記選択された位相差検出エリアにおける感度最大の位相差検出用画素の出力信号のレベルを判定する出力信号レベル判定部を備え、
     前記レベルが閾値未満と判定された場合に、前記デフォーカス量演算部は、前記撮像画像信号を利用してデフォーカス量を算出し、
     前記レベルが前記閾値以上と判定された場合に、前記デフォーカス量演算部は、前記撮像画像信号のうち、前記閾値以上のレベルとなっている前記位相差検出用画素の出力信号を除く信号を利用してデフォーカス量を演算する撮像装置。
  8.  複数の撮像用画素と複数の位相差検出用画素が配置される受光面を含む撮像素子を有する撮像装置を用いた露出決定方法であって、
     前記複数の撮像用画素は、撮像光学系の瞳領域を通過した光束により形成された像を撮像するものであり、
     前記複数の位相差検出用画素は、前記撮像光学系の瞳領域の異なる部分を通過した一対の光束により形成された一対の像の一方を撮像する複数の第一の位相差検出用画素、及び、前記一対の像の他方を撮像する複数の第二の位相差検出用画素を含み、
     前記撮像素子の受光面には、前記第一の位相差検出用画素と前記第二の位相差検出用画素のペアが複数配置される位相差検出エリアが前記一対の像のずれる方向に複数個並べて設けられ、
     選択された前記位相差検出エリアにある前記位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定ステップと、
     前記決定した露出条件で前記撮像素子により撮像を行って得られる撮像画像信号のうち、前記選択された位相差検出エリアにある前記第一の位相差検出用画素及び前記第二の位相差検出用画素の出力信号を利用してデフォーカス量を演算するデフォーカス量演算ステップとを備え、
     前記露出決定ステップでは、前記選択された位相差検出エリアにおいて感度最大の前記位相差検出用画素と感度最小の前記位相差検出用画素との感度差、又は、前記選択された位相差検出エリアの前記受光面における前記ずれる方向での位置、に応じた位相差検出用画素を当該選択された位相差検出エリアから選択し、選択した位相差検出用画素の出力信号に基づいて露出条件を決定する露出決定方法。
PCT/JP2013/073390 2012-11-20 2013-08-30 撮像装置及び露出決定方法 WO2014080673A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014548480A JP5779726B2 (ja) 2012-11-20 2013-08-30 撮像装置及び露出決定方法
CN201380060687.1A CN104813212B (zh) 2012-11-20 2013-08-30 摄像装置及曝光确定方法
US14/716,536 US9485408B2 (en) 2012-11-20 2015-05-19 Imaging apparatus and exposure determining method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012254317 2012-11-20
JP2012-254317 2012-11-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/716,536 Continuation US9485408B2 (en) 2012-11-20 2015-05-19 Imaging apparatus and exposure determining method

Publications (1)

Publication Number Publication Date
WO2014080673A1 true WO2014080673A1 (ja) 2014-05-30

Family

ID=50775864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/073390 WO2014080673A1 (ja) 2012-11-20 2013-08-30 撮像装置及び露出決定方法

Country Status (4)

Country Link
US (1) US9485408B2 (ja)
JP (1) JP5779726B2 (ja)
CN (1) CN104813212B (ja)
WO (1) WO2014080673A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9554029B2 (en) * 2012-09-11 2017-01-24 Sony Corporation Imaging apparatus and focus control method
JP6234058B2 (ja) * 2013-05-09 2017-11-22 キヤノン株式会社 焦点調節装置およびその制御方法
JP2016038414A (ja) * 2014-08-05 2016-03-22 キヤノン株式会社 焦点検出装置およびその制御方法、並びに撮像装置
US10068078B2 (en) * 2015-10-15 2018-09-04 Microsoft Technology Licensing, Llc Electronic devices with improved iris recognition and methods thereof
JP6806473B2 (ja) * 2016-06-17 2021-01-06 キヤノン株式会社 撮像装置およびその制御方法
CN109937382B (zh) * 2016-08-26 2020-12-18 华为技术有限公司 成像装置和成像方法
JP7086551B2 (ja) * 2017-09-21 2022-06-20 キヤノン株式会社 撮像装置及びその制御方法
US10447951B1 (en) 2018-04-11 2019-10-15 Qualcomm Incorporated Dynamic range estimation with fast and slow sensor pixels
CN114520854B (zh) * 2020-11-18 2024-01-12 格科微电子(上海)有限公司 一种多摄像头信号同步方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012026292A1 (ja) * 2010-08-24 2012-03-01 富士フイルム株式会社 固体撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4072450B2 (ja) 2003-02-28 2008-04-09 キヤノン株式会社 Aeaf用固体撮像装置
JP2005107518A (ja) * 2003-09-11 2005-04-21 Fuji Xerox Co Ltd 画像形成方法及び画像形成装置
JP5675157B2 (ja) 2009-05-12 2015-02-25 キヤノン株式会社 焦点検出装置
JP2011059337A (ja) * 2009-09-09 2011-03-24 Fujifilm Corp 撮像装置
JP5198551B2 (ja) * 2010-12-23 2013-05-15 日本特殊陶業株式会社 配線基板の非接触搬送装置、配線基板の製造方法
WO2012147515A1 (ja) * 2011-04-28 2012-11-01 富士フイルム株式会社 撮像装置及び撮像方法
CN104041009B (zh) * 2011-12-28 2016-02-03 富士胶片株式会社 摄像元件及摄像装置
WO2013099637A1 (ja) * 2011-12-28 2013-07-04 富士フイルム株式会社 カラー撮像素子及び撮像装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012026292A1 (ja) * 2010-08-24 2012-03-01 富士フイルム株式会社 固体撮像装置

Also Published As

Publication number Publication date
JPWO2014080673A1 (ja) 2017-01-05
US9485408B2 (en) 2016-11-01
CN104813212B (zh) 2017-02-22
CN104813212A (zh) 2015-07-29
US20150256738A1 (en) 2015-09-10
JP5779726B2 (ja) 2015-09-16

Similar Documents

Publication Publication Date Title
JP5775976B2 (ja) 撮像装置、デフォーカス量演算方法、及び撮像光学系
JP5779726B2 (ja) 撮像装置及び露出決定方法
JP5542249B2 (ja) 撮像素子及びこれを用いた撮像装置及び撮像方法
JP6031587B2 (ja) 撮像装置、信号処理方法、信号処理プログラム
JP5690974B2 (ja) 撮像装置及び合焦制御方法
JP5799178B2 (ja) 撮像装置及び合焦制御方法
JP5948492B2 (ja) 撮像装置及び合焦制御方法
WO2013168505A1 (ja) 撮像装置及び信号補正方法
JP5982601B2 (ja) 撮像装置及び合焦制御方法
JP5750550B2 (ja) 撮像装置及び合焦制御方法
JP5934843B2 (ja) 撮像装置及び合焦制御方法
JP6307526B2 (ja) 撮像装置及び合焦制御方法
JP5978411B2 (ja) 撮像装置及び合焦制御方法
WO2013168493A1 (ja) 信号処理装置、撮像装置、信号補正方法
JP5982600B2 (ja) 撮像装置及び合焦制御方法
JP5542248B2 (ja) 撮像素子及び撮像装置
JP5990665B2 (ja) 撮像装置及び合焦制御方法
JP5807125B2 (ja) 撮像装置及びその合焦制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856526

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014548480

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13856526

Country of ref document: EP

Kind code of ref document: A1