WO2013183381A1 - 撮像装置及び撮像方法 - Google Patents

撮像装置及び撮像方法 Download PDF

Info

Publication number
WO2013183381A1
WO2013183381A1 PCT/JP2013/062254 JP2013062254W WO2013183381A1 WO 2013183381 A1 WO2013183381 A1 WO 2013183381A1 JP 2013062254 W JP2013062254 W JP 2013062254W WO 2013183381 A1 WO2013183381 A1 WO 2013183381A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel cell
row
group
unit
phase difference
Prior art date
Application number
PCT/JP2013/062254
Other languages
English (en)
French (fr)
Inventor
小柴 賢明
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014519880A priority Critical patent/JP5677628B2/ja
Priority to CN201380029918.2A priority patent/CN104380712B/zh
Publication of WO2013183381A1 publication Critical patent/WO2013183381A1/ja
Priority to US14/562,009 priority patent/US9344646B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present invention relates to an imaging apparatus and an imaging method.
  • an imaging device In recent years, with the increase in the resolution of solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, mobile phones such as digital still cameras, digital video cameras, and smartphones, PDA (Personal Digital). Demand for information equipment having a photographing function such as an assistant (mobile information terminal) is rapidly increasing. Note that an information device having the above imaging function is referred to as an imaging device.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • imaging apparatuses employ a contrast AF (Auto Focus) method or a phase difference AF method as a focusing control method for focusing on a main subject. Since the phase difference AF method can detect the in-focus position at a higher speed and with higher accuracy than the contrast AF method, it is widely used in various imaging apparatuses.
  • a contrast AF Auto Focus
  • a phase difference AF method can detect the in-focus position at a higher speed and with higher accuracy than the contrast AF method, it is widely used in various imaging apparatuses.
  • Patent Document 1 discloses an imaging apparatus that performs phase difference AF using a signal read from a pixel cell for pupil division, with some of the pixel cells included in the CMOS image sensor as pixel cells for pupil division. Has been.
  • a CMOS image sensor is generally driven by a rolling shutter system that sequentially reads out signals corresponding to each exposure period while shifting the exposure period for each pixel cell line. Therefore, a signal group obtained from an arbitrary line including a pixel cell for pupil division and a signal group obtained from a line including a pixel cell for pupil division arranged next to the line are acquired, and each signal group is obtained.
  • the defocus amount is calculated by performing correlation calculation of the output signals of the pixel cells for pupil division included in the image, the defocus amount includes an error caused by a shift in the exposure period of the two signal groups. Become. As a result, the phase difference AF cannot be accurately performed.
  • the imaging apparatus described in Patent Document 1 starts exposure of all pixel cells simultaneously in a frame in which phase difference AF is performed, so that an exposure period shift does not occur between two signal groups that perform correlation calculation. I have to. According to this imaging apparatus, phase difference AF can be performed with high accuracy.
  • the present invention has been made in view of the above circumstances, and provides an imaging apparatus and an imaging method capable of calculating a defocus amount without error caused by rolling shutter driving without greatly affecting a captured image.
  • the purpose is to do.
  • the imaging apparatus of the present invention includes a plurality of first pixel cells that receive one of a pair of light beams that have passed through different pupil regions of the photographing optical system and output a signal corresponding to the amount of received light.
  • a plurality of first pixel cell rows arranged in a cycle determined in the row direction, and a plurality of second pixel cells that receive the other of the pair of light beams and output a signal corresponding to the amount of received light.
  • a second pixel cell including a plurality of second pixel cell rows arranged in the row direction at the cycle, wherein the first pixel cell row and the second pixel cell row are orthogonal to the row direction.
  • the imaging elements arranged alternately in the direction and the exposure period are shifted for each pixel cell row, and the received light amount during the exposure period is changed from the first pixel cell or the second pixel cell included in each pixel cell row.
  • a drive unit for driving to read out a corresponding signal, and the first pixel cell A defocus amount calculation unit that calculates a defocus amount using the output signal and the output signal of the second pixel cell, and a combination of the imaging optical system based on the defocus amount calculated by the defocus amount calculation unit.
  • a focus control unit that controls a focus state, and a group of n (n is an even number) of pixel cell rows arranged successively in the column direction, the pixel cell rows arranged in the column direction,
  • the first pixel cell row and the second pixel cell row are divided into groups each including the same number, and the driving unit is configured so that one of two pixel cell rows adjacent to each other in one of two groups arranged in the column direction continues.
  • Driving in which the exposure start order in the group is opposite to the exposure start order in the other group of the two pixel cell rows at the position corresponding to the two pixel cell rows in the other of the two groups.
  • the imaging method of the present invention includes a plurality of first pixel cells that receive one of a pair of light beams that have passed through different pupil regions of an imaging optical system and output a signal corresponding to the amount of received light.
  • a plurality of first pixel cell rows arranged in a cycle determined in the row direction, and a plurality of second pixel cells that receive the other of the pair of light beams and output a signal corresponding to the amount of received light.
  • a second pixel cell including a plurality of second pixel cell rows arranged in the row direction at the cycle, wherein the first pixel cell row and the second pixel cell row are orthogonal to the row direction.
  • the exposure period is shifted for each pixel cell row, and the amount of light received during the exposure period from the first pixel cell or the second pixel cell included in each pixel cell row
  • a driving step for reading out a signal corresponding to the
  • a defocus amount calculating step for calculating a defocus amount using the output signal of the pixel cell and the output signal of the second pixel cell, and controlling a focusing state of the imaging optical system based on the calculated defocus amount
  • a focusing control step wherein the pixel cell rows arranged in the column direction are groups of even-numbered pixel cell rows arranged in succession in the column direction, the first pixel cell row and the first The two pixel cell rows are divided into groups including the same number, and in the driving step, the exposure start order in the one group of two adjacent pixel cell rows in one of the two groups arranged in the column direction is determined as 2 In the other of the two groups, the driving is performed in the opposite direction to the exposure start order in the other group of the two pixel cell rows
  • an imaging apparatus and an imaging method capable of calculating a defocus amount without an error caused by driving a rolling shutter without greatly affecting a captured image.
  • FIG. 1 is a schematic plan view showing a configuration of a solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • the figure which shows the solid-state image sensor 5a which is a modification of the solid-state image sensor 5 shown in FIG.
  • the figure which shows the solid-state image sensor 5b which is a modification of the solid-state image sensor 5 shown in FIG.
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
  • the imaging system of the digital camera shown in FIG. 1 includes a photographic lens 1 as a photographic optical system, a MOS solid-state imaging device 5 such as a CMOS image sensor, and a diaphragm 2 provided therebetween. .
  • the system control unit 11 that controls the entire electric control system of the digital camera controls the flash light emitting unit 12 and the light receiving unit 13. Further, the system control unit 11 controls the lens driving unit 8 to adjust the position of the focus lens included in the photographing lens 1 or adjust the position of the zoom lens included in the photographing lens 1. Further, the system control unit 11 adjusts the exposure amount by controlling the aperture amount of the aperture 2 via the aperture drive unit 9.
  • system control unit 11 drives the solid-state imaging device 5 via the imaging device driving unit 10 and outputs a subject image captured through the photographing lens 1 as a captured image signal.
  • An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
  • the electric control system of the digital camera further includes an analog signal processing unit 6 that performs analog signal processing such as correlated double sampling processing connected to the output of the solid-state imaging device 5, and an analog output from the analog signal processing unit 6. And an A / D conversion circuit 7 for converting the signal into a digital signal.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 are controlled by the system control unit 11.
  • the analog signal processing unit 6 and the A / D conversion circuit 7 may be built in the solid-state imaging device 5.
  • the electric control system of the digital camera includes an interpolation calculation and a gamma correction for the main memory 16, the memory control unit 15 connected to the main memory 16, and the captured image signal output from the A / D conversion circuit 7.
  • a digital signal processing unit 17 that performs calculation, RGB / YC conversion processing, and the like to generate captured image data, and the captured image data generated by the digital signal processing unit 17 is compressed into a JPEG format or the compressed image data is expanded.
  • a compression / decompression processing unit 18, a defocus amount calculation unit 19 that calculates a defocus amount, an external memory control unit 20 to which a detachable recording medium 21 is connected, and a display unit 23 mounted on the back of the camera or the like. Is connected to the display control unit 22.
  • the memory control unit 15, digital signal processing unit 17, compression / decompression processing unit 18, defocus amount calculation unit 19, external memory control unit 20, and display control unit 22 are connected to each other by a control bus 24 and a data bus 25. It is controlled by a command from the system control unit 11.
  • FIG. 2 is a schematic plan view showing the configuration of the solid-state imaging device 5 mounted on the digital camera shown in FIG.
  • the solid-state imaging device 5 includes a large number of pixel cells 51 (each square block in the drawing) arranged two-dimensionally in a row direction X and a column direction Y orthogonal thereto.
  • Each pixel cell 51 includes a photoelectric conversion unit such as a photodiode, a color filter formed above the photoelectric conversion unit, and a signal output circuit that outputs a signal corresponding to the signal charge accumulated in the photoelectric conversion unit. .
  • the signal output circuit is a well-known MOS circuit, for example, a charge storage unit to which charges accumulated in the photoelectric conversion unit are transferred, and a transfer transistor for transferring the charges of the photoelectric conversion unit to the charge storage unit
  • a reset transistor for resetting the potential of the charge storage unit
  • an output transistor for outputting a signal corresponding to the potential of the charge storage unit
  • a row selection transistor for selectively outputting a signal from the output transistor to the output signal line
  • a pixel cell 51 including a color filter that transmits red light is given a letter “R”
  • a pixel cell 51 that contains a color filter that transmits green light is given a letter “G”.
  • the pixel cell 51 including a color filter that transmits blue light is marked with a letter “B”.
  • the large number of pixel cells 51 has an array in which a plurality of pixel cell rows including a plurality of pixel cells 51 arranged in the row direction X are arranged in the column direction Y.
  • the odd-numbered pixel cell rows and the even-numbered pixel cell rows are shifted in the row direction X by about 1 ⁇ 2 of the arrangement pitch of the pixel cells 51 of each pixel cell row.
  • the array of color filters included in each pixel cell 51 in the odd-numbered pixel cell row is a Bayer array as a whole.
  • the arrangement of the color filters included in each pixel cell 51 in the even pixel cell row is also a Bayer arrangement as a whole.
  • a pixel cell 51 in an odd-numbered row and a pixel cell 51 that detects the same color light as the pixel cell 51 adjacent to the pixel cell 51 in the lower right form a pair pixel.
  • the output of the two pixel cells 51 constituting the pair pixel is added to increase the sensitivity of the camera, or the two pixels constituting the pair pixel.
  • the camera can have a wide dynamic range by changing the exposure time of the cell 51 and adding the output signals of the two pixel cells 51.
  • phase difference detection pixel cells 51 receives one of a pair of light beams that have passed through different parts of the pupil region of the photographing lens 1 (for example, a light beam that has passed through the right half of the pupil region) and outputs a signal corresponding to the amount of light received.
  • a phase difference detection pixel cell (indicated by reference numeral 51R) and a phase difference detection pixel cell that receives the other of the pair of light beams (for example, a light beam that has passed through the left half of the pupil region) and outputs a signal corresponding to the amount of received light ( Indicated by reference numeral 51L).
  • a light shielding film is provided above the photoelectric conversion unit of the pixel cell 51, and an opening that defines a light receiving area of the photoelectric conversion unit is formed in the light shielding film.
  • the center of the opening (indicated by symbol “a” in FIG. 2) of the normal pixel cell 51 other than the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L is the center (square) of the photoelectric conversion unit of the normal pixel cell 51.
  • the center of the block in FIG. 2, in order to simplify the drawing, only a part of the normal pixel cell 51 is shown with an opening a.
  • the center of the opening (indicated by symbol c in FIG. 2) of the phase difference detection pixel cell 51R is eccentric to the right with respect to the center of the photoelectric conversion unit of the phase difference detection pixel cell 51R.
  • the center of the opening (indicated by symbol b in FIG. 2) of the phase difference detection pixel cell 51L is eccentric to the left with respect to the center of the photoelectric conversion unit of the phase difference detection pixel cell 51L.
  • a part of the pixel cell 51 on which the green color filter is mounted is a phase difference detection pixel cell 51R and a phase difference detection pixel cell 51L.
  • a pixel cell in which a color filter of another color is mounted may be used as a phase difference detection pixel cell.
  • the phase difference detection pixel cell 51R has a predetermined cycle (in the row direction X) in a part of the even-numbered pixel cell rows (four pixel cell rows arranged every three pixel cell rows in the example of FIG. 2). In the example of FIG. 2, the pixel cells are arranged every three pixel cells).
  • the phase difference detection pixel cell 51L is configured to detect a phase difference in the row direction X in a part of the odd number of pixel cell rows (the pixel cell row adjacent to the pixel cell row including the phase difference detection pixel cell 51R).
  • the pixel cells 51R are arranged at the same cycle.
  • the light received by the pixel cell 51L through the opening b of the light shielding film is mainly light from the left side of the photographing lens 1, that is, light coming from the direction of viewing the subject with the left eye
  • the light received by the pixel cell 51R through the opening c of the light shielding film is mainly light from the right side of the photographing lens 1, that is, light coming from the direction of viewing the subject with the right eye.
  • a captured image signal obtained by viewing the subject with the right eye can be obtained by all the phase difference detection pixel cells 51R, and a captured image signal obtained by viewing the subject by the left eye by all the phase difference detection pixel cells 51L. Can be obtained. For this reason, it is possible to generate stereoscopic image data of a subject by combining the both, or to generate phase difference information by performing a correlation calculation between the two.
  • the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L can receive light beams that have passed through different pupil regions of the photographing lens 1 by decentering the opening of the light shielding film in the opposite direction.
  • the phase difference information can be obtained, the structure for obtaining the phase difference information is not limited to this, and a well-known one can be adopted.
  • the solid-state imaging device 5 further includes a vertical scanning circuit 52 and a horizontal scanning circuit 53.
  • the vertical scanning circuit 52 performs on / off control of the transfer transistor, the reset transistor, and the row selection transistor of the signal output circuit included in each pixel cell 51.
  • the horizontal scanning circuit 53 is connected to an output signal line provided for each pixel cell column including the pixel cells 51 arranged in the column direction Y, and outputs an output signal output from each pixel cell 51 in the pixel cell row to the output signal line. Sequentially output to the outside of the solid-state imaging device 5.
  • the vertical scanning circuit 52 and the horizontal scanning circuit 53 operate according to instructions from the image sensor driving unit 10 shown in FIG.
  • the image sensor driving unit 10 drives the solid-state image sensor 5 by a so-called rolling shutter system in which the exposure period is shifted by a certain time for each pixel cell row.
  • the exposure period of each pixel cell 51 in the pixel cell row is started when the reset transistor of each pixel cell 51 is turned on and the potential of the charge storage unit included in each pixel cell 51 is reset.
  • the transfer transistor included in the cell 51 is turned on and the transfer of the charge accumulated in the photoelectric conversion unit of each pixel cell 51 to the charge accumulation unit is completed, the process is finished.
  • the image sensor driving unit 10 controls the vertical scanning circuit 52 so as to shift the start timing of the exposure period for each pixel cell row.
  • the defocus amount calculation unit 19 shown in FIG. 1 uses the output signal group read from the phase difference detection pixel cell 51L and the phase difference detection pixel cell 51R to adjust the focus of the photographing lens 1, in this case, the focus state. The amount and the direction away from the distance, that is, the defocus amount is calculated.
  • the system control unit 11 illustrated in FIG. 1 controls the focus lens included in the imaging lens 1 to the in-focus position based on the defocus amount calculated by the defocus amount calculation unit 19, and focuses the imaging lens 1. It functions as a focus control unit that controls the state.
  • the defocus amount calculation unit 19 refers to a pixel cell row including the phase difference detection pixel cell 51R as a first pixel cell row, and a pixel cell row including the phase difference detection pixel cell 51L as a second pixel cell row. Then, a group of two first pixel cell rows and two second pixel cell rows alternately arranged in the column direction Y is set as a unit group, and the defocus amount is calculated for each unit group. Then, the final defocus amount is calculated using the defocus amounts calculated for all unit groups. For example, the average value of the defocus amounts calculated for all unit groups is set as the final defocus amount.
  • FIG. 3 is a diagram showing four pixel cell rows including pixel cells for phase difference detection belonging to a unit group.
  • the pixel cell row L1 illustrated in FIG. 3 is the first pixel cell row from the top in FIG. 2, and the pixel cell row L2 illustrated in FIG. 3 is the second pixel cell row from the top in FIG.
  • the pixel cell row L1A shown in FIG. 3 is the ninth pixel cell row from the top in FIG. 2, and the pixel cell row L2A shown in FIG. 3 is the tenth pixel cell row from the top in FIG.
  • a group including the pixel cell row L1 and the pixel cell row L2 is referred to as a divided group BG1
  • a group including the pixel cell row L1A and the pixel cell row L2A is referred to as a divided group BG2.
  • the defocus amount calculation unit 19 calculates the phase difference ⁇ a of the output signal group of the phase difference detection pixel cell 51R included in the division group BG1 with respect to the output signal group of the phase difference detection pixel cell 51L included in the division group BG1. It is calculated by correlation calculation of these two output signal groups.
  • the defocus amount calculation unit 19 outputs the phase difference ⁇ b of the output signal group of the phase difference detection pixel cell 51L included in the division group BG2 with respect to the output signal group of the phase difference detection pixel cell 51R included in the division group BG2. Is calculated by correlation calculation of these two output signal groups.
  • the phase difference ⁇ a includes the phase difference component ⁇ 1 of the output signal group of the phase difference detection pixel cell 51R in the pixel cell row L1 and the pixel cell row with respect to the output signal group of the phase difference detection pixel cell 51L in the pixel cell row L1.
  • This includes an error component ⁇ 1 of a phase difference caused by a difference in exposure period between L1 and the pixel cell row L2.
  • the phase difference ⁇ b includes the phase difference component ⁇ 2 of the output signal group of the phase difference detection pixel cell 51L of the pixel cell row L1A with respect to the output signal group of the phase difference detection pixel cell 51R of the pixel cell row L2A, and the pixel cell row This includes an error component ⁇ 2 of a phase difference caused by a difference in exposure period between L1A and the pixel cell row L2A.
  • phase difference component ⁇ 1 and the phase difference component ⁇ 2 are close to each other in the four pixel cell rows included in the unit group, the absolute values ignoring the respective signs can be regarded as the same.
  • the phase difference component ⁇ 1 and the phase difference component ⁇ 2 have opposite signs because the output signal group used as a reference for the correlation calculation is opposite.
  • the deviation time of the exposure period of the pixel cell row L1 and the pixel cell row L2 is the same as the deviation time of the exposure period of the pixel cell row L1A and the pixel cell row L2A.
  • ⁇ 1 and error component ⁇ 2 have the same absolute value with the sign ignored, but the signs are reversed.
  • the error component ⁇ 1 can be canceled. However, in this case, since the phase difference component ⁇ 1 is also canceled out, accurate phase difference information cannot be obtained. On the other hand, when the difference between ⁇ a and ⁇ b is obtained, the phase difference component can be left, but the error component cannot be canceled.
  • the phase difference information is obtained by canceling.
  • the defocus amount calculation unit 19 can calculate ⁇ a ⁇ b or ⁇ b ⁇ a to cancel the error component and obtain only information corresponding to the phase difference component.
  • the defocus amount calculator 19 calculates the defocus amount in the unit group based on this information.
  • the defocus amount calculation unit 19 calculates the phase difference for one of the two divided groups constituting the unit group with reference to the output signal group of the phase difference detection pixel cell 51R, and the other. Calculates the phase difference based on the output signal group of the phase difference detection pixel cell 51L, and calculates the defocus amount based on the difference between the two phase differences.
  • the imaging device driving unit 10 matches the start order of the exposure periods of the two pixel cell rows in each division group with the arrangement order in the column direction Y of the pixel cell rows for one division group, and the other division. With respect to the group, driving is performed so that the order of arrangement of the pixel cell rows in the column direction Y is reversed. Thereby, it is possible to prevent the difference between the two phase differences from including an error component due to the shift of the exposure period, and it is possible to accurately calculate the defocus amount.
  • this digital camera changes the driving of the solid-state imaging device 5 between the imaging frame for calculating the defocus amount and the other imaging frames at the time of moving image shooting for live view image display.
  • the imaging frame for calculating the defocus amount matches the other imaging frame in that the exposure period of each pixel cell row is shifted, so that the driving method is greatly changed during movie shooting as in the prior art. No, it is possible to prevent the deterioration of the image quality of the moving image.
  • the solid-state imaging device 5 has two unit groups. However, if one or more unit groups are provided, in principle, phase difference AF is possible.
  • the defocus amount calculation unit 19 uses a group of four first pixel cell rows and four second pixel cell rows alternately arranged in the column direction Y as a unit group. The defocus amount is calculated for each group.
  • FIG. 4 is a diagram illustrating eight pixel cell rows including pixel cells for phase difference detection belonging to a unit group.
  • the pixel cell row L1 illustrated in FIG. 4 is the first pixel cell row from the top in FIG. 2, and the pixel cell row L2 illustrated in FIG. 4 is the second pixel cell row from the top in FIG.
  • the pixel cell row L3 shown in FIG. 4 is the ninth pixel cell row from the top in FIG. 2, and the pixel cell row L4 shown in FIG. 4 is the tenth pixel cell row from the top in FIG.
  • the pixel cell row L1A shown in FIG. 4 is the 17th pixel cell row from the top in FIG. 2, and the pixel cell row L2A shown in FIG. 4 is the 18th pixel cell row from the top in FIG.
  • the pixel cell row L3A shown in FIG. 4 is the 25th pixel cell row from the top in FIG. 2, and the pixel cell row L4A shown in FIG. 4 is the 26th pixel cell row from the top in FIG. is there.
  • a group including pixel cell rows L1 to L4 is referred to as a divided group BG1A
  • a group including pixel cell rows L1A to L4A is referred to as a divided group BG2A.
  • the defocus amount calculation unit 19 includes two phase difference detection pixel cells 51L connected by arrows in FIG. 4 whose positions in the column direction Y are the same among the phase difference detection pixel cells 51L included in the divided group BG1A. An output signal group obtained by adding the output signals is used as an output signal group of the phase difference detection pixel cell 51L in the divided group BG1A.
  • the defocus amount calculation unit 19 includes two phase difference detection pixels connected by arrows in FIG. 4 having the same position in the column direction Y among the phase difference detection pixel cells 51R included in the divided group BG1A.
  • An output signal group obtained by adding the output signals of the cell 51R is defined as an output signal group of the phase difference detection pixel cell 51R in the divided group BG1A.
  • the defocus amount calculation unit 19 calculates the phase difference ⁇ aA of the output signal group of the phase difference detection pixel cell 51R with respect to the output signal group of the phase difference detection pixel cell 51L in the divided group BG1A as the two output signal groups. It is calculated by the correlation calculation.
  • the defocus amount calculation unit 19 outputs the output signal of the phase difference detection pixel cell 51L having the same position in the column direction Y among the phase difference detection pixel cells 51L included in the division group BG2A.
  • the output signals of the phase difference detection pixel cells 51R having the same position in the column direction Y among the phase difference detection pixel cells 51R included in the divided group BG2A are added.
  • the defocus amount calculation unit 19 calculates the phase difference ⁇ bA of the output signal group generated by the addition for the phase difference detection pixel cell 51L with respect to the output signal group generated by the addition for the phase difference detection pixel cell 51R. It is calculated by correlation calculation of two output signal groups.
  • the image sensor driving unit 10 starts the exposure period of each pixel cell row in the same order as the arrangement order of the pixel cell rows.
  • the imaging device driving unit 10 differs from the arrangement order of the pixel cell rows in the order in which the exposure periods of the pixel cell rows differ from the pixel cell row L2A ⁇ the pixel cell row L1A ⁇ the pixel cell.
  • the order is row L4A ⁇ pixel cell row L3A.
  • the defocus amount calculation unit 19 calculates the defocus amount in the unit group based on information obtained by calculating ⁇ aA ⁇ bA or ⁇ bA ⁇ aA.
  • the start order of the exposure periods of the pixel cell rows in the unit group is determined, and further, by calculating ⁇ aA- ⁇ bA or ⁇ bA- ⁇ aA, the error component due to the shift of the exposure period is canceled out. Therefore, the defocus amount calculation accuracy can be increased.
  • the correlation calculation is performed on the signals obtained by adding the output signals of the two phase difference detection pixel cells, so the sensitivity is increased and the accuracy of the correlation calculation result is increased. Can be improved.
  • a signal obtained by adding the output signals of the two phase difference detection pixel cells connected by arrows in FIG. 4 mixes the accumulated charges of the two phase difference detection pixel cells in the solid-state imaging device 5 or 2 It may be obtained by adding the output signals of two phase difference detection pixel cells. Alternatively, output signals may be acquired independently from the two phase difference detection pixel cells, and the analog signal processing unit 6 may add the two output signals.
  • the imaging element driving unit 10 sets the start order of the exposure period of each pixel cell row in the order of the pixel cell row L1, the pixel cell row L3, the pixel cell row L2, and the pixel cell row L4.
  • the same effect can be obtained even if the exposure period start order of each pixel cell row is the order of the pixel cell row L2A ⁇ the pixel cell row L4A ⁇ the pixel cell row L1A ⁇ the pixel cell row L3A.
  • the number of output signal additions is two, but the number of additions may be three or more.
  • An example where the number of additions is 3 will be described in the following second modification.
  • the defocus amount calculation unit 19 uses a group of six first pixel cell rows and six second pixel cell rows alternately arranged in the column direction Y as a unit group. The defocus amount is calculated for each group.
  • FIG. 5 is a diagram showing twelve pixel cell rows including pixel cells for phase difference detection belonging to a unit group.
  • the group of six pixel cell rows (pixel cell rows L1 to L6) in the upper half in FIG. 5 is referred to as a divided group BG1AA, and the remaining six pixel cell rows (pixel cell rows L1A to L6A).
  • This group is called divided group BG2AA.
  • the defocus amount calculation unit 19 includes three phase difference detection pixel cells 51L surrounded by a broken line in FIG. 5 and having the same position in the column direction Y among the phase difference detection pixel cells 51L included in the divided group BG1AA. Are added together.
  • the defocus amount calculation unit 19 includes three phase difference detection pixels surrounded by a broken line in FIG. 5 that have the same position in the column direction Y among the phase difference detection pixel cells 51R included in the divided group BG1AA. The output signals of the cell 51R are added.
  • the defocus amount calculation unit 19 calculates the phase difference ⁇ aAA of the output signal group generated by addition for the phase difference detection pixel cell 51R with respect to the output signal group generated by addition for the phase difference detection pixel cell 51L. It is calculated by correlation calculation of two output signal groups.
  • the defocus amount calculation unit 19 adds the output signals of the phase difference detection pixel cells 51L surrounded by a broken line in FIG. 5 and detects the phase difference surrounded by the broken line in FIG. The output signals of the pixel cell 51R are added.
  • the defocus amount calculation unit 19 calculates the phase difference ⁇ bAA of the output signal group generated by the addition for the phase difference detection pixel cell 51L with respect to the output signal group generated by the addition for the phase difference detection pixel cell 51R. It is calculated by correlation calculation of two output signal groups.
  • the image sensor driving unit 10 has the same pixel cell row L1 ⁇ pixel cell row L2 ⁇ pixel cell row in the order in which the exposure period of each pixel cell row starts.
  • the order is L3 ⁇ pixel cell row L4 ⁇ pixel cell row L5 ⁇ pixel cell row L6.
  • the imaging device driving unit 10 differs from the arrangement order of the pixel cell rows in the order of exposure period of each pixel cell row, which is different from the pixel cell row L2A ⁇ pixel cell row L1A ⁇ pixel cell.
  • the order is row L4A ⁇ pixel cell row L3A ⁇ pixel cell row L6A ⁇ pixel cell row L5A.
  • the imaging element driving unit 10 determines the start order of the exposure period of each pixel cell row as follows: pixel cell row L1 ⁇ pixel cell row L3 ⁇ pixel cell row L5 ⁇ pixel cell row L2 ⁇ pixel cell row.
  • the order of the exposure period of each pixel cell row is set in the order of L4 ⁇ pixel cell row L6, and for the divided group BG2AA, the pixel cell row L2A ⁇ pixel cell row L4A ⁇ pixel cell row L6A ⁇ pixel cell row L1A ⁇ pixel cell
  • the order is row L3A ⁇ pixel cell row L5A.
  • the defocus amount calculation unit 19 calculates the defocus amount in the unit group based on information obtained by calculating ⁇ aAA ⁇ bAA or ⁇ bAA ⁇ aAA.
  • the image sensor driving unit 10 does not include an error component due to a shift in the exposure period in the calculation result of ⁇ aAA ⁇ bAA or ⁇ bAA ⁇ aAA.
  • one first pixel cell row and one second pixel cell row may be added to each divided group every time the number of additions is increased by one.
  • the defocus amount calculation unit 19 includes ⁇ 2 (n + 1) ⁇ (n is a positive integer) first pixel cell rows and ⁇ 2 (n + 1) ⁇ pieces alternately arranged in the column direction Y.
  • the defocus amount is calculated for each unit group composed of the second pixel cell row.
  • the defocus amount calculation unit 19 divides unit groups into ⁇ 2 (n + 1) ⁇ pixel cell rows arranged in the column direction Y and ⁇ 2 (n + 1) ⁇ arranged in the column direction Y. It is divided into two divided groups, that is, a divided group consisting of pixel cell rows.
  • the phase difference of the output signal group of the phase difference detection pixel cell 51L with respect to the output signal group of the phase difference detection pixel cell 51R is calculated, and for the other divided group, the phase difference detection The phase difference of the output signal group of the phase difference detection pixel cell 51R with respect to the output signal group of the pixel cell 51L is calculated, and the defocus amount is calculated based on the difference between the two calculated phase differences.
  • the image sensor drive unit 10 includes two pixels at corresponding positions in each divided group so as to prevent the difference between the two phase differences from including an error component due to a shift in the exposure period of the pixel cell row. This is caused by a difference in exposure period for each pixel cell row by performing driving in which the start order of exposure periods in each divided group of cell rows (two pixel cell rows having the same arrangement position in the divided group) is changed. It is possible to calculate the defocus amount without error.
  • n 1 or more
  • first pixel cell row and the second pixel cell row arranged adjacent to the first pixel cell row are paired, a plurality of pairs belonging to one division group have the first in each pair.
  • the number of pixel cell rows between one pixel cell row and the second pixel cell row must be the same, and the number of pixel cell rows between the pairs must be the same.
  • FIG. 6 is a diagram showing a solid-state imaging device 5a which is a modification of the solid-state imaging device 5 shown in FIG.
  • the solid-state imaging device 5a has the same configuration as the solid-state imaging device 5 except that the arrangement of the phase difference detection pixel cell 51R and the phase difference detection pixel cell 51L is changed.
  • the pixel cell row L1 and the pixel cell row L2 are arranged without interposing a pixel cell row, and the pixel cell row L3 and the pixel cell row L4 are arranged without interposing a pixel cell row.
  • the pixel cell row L5 and the pixel cell row L6 are arranged with two pixel cell rows in between, and the pixel cell row L7 and the pixel cell row L8 are arranged with two pixel cell rows in between.
  • the arrangement interval (arrangement density) in the column direction Y of the pixel cell row including the pixel cell for phase difference detection between the unit group including the pixel cell rows L1 to L4 and the unit group including the pixel cell rows L5 to L8. ) Is changing.
  • the arrangement density in the central portion in the region where the pixel cells 51 are arranged, it is possible to increase the arrangement density in the central portion and reduce the arrangement density in the peripheral portion, thereby realizing an imaging device with a wide application range. be able to.
  • the pixel cells 51 are arranged in a so-called honeycomb pattern, but the present invention can also be applied to a solid-state imaging device in which the pixel cells 51 are arranged in a square lattice pattern.
  • FIG. 7 is a diagram showing a solid-state imaging device 5b which is a modification of the solid-state imaging device 5 shown in FIG.
  • the solid-state imaging device 5b includes a large number of pixel cells 51A arranged in a square lattice pattern in the row direction X and the column direction Y, a vertical scanning circuit 52, and a horizontal scanning circuit 53.
  • the configuration of the pixel cell 51A is the same as that of the pixel cell 51, and the color filter array is a Bayer array.
  • the large number of pixel cells 51A include a normal pixel cell 51A in which the opening a of the light shielding film is not decentered and a phase difference detection pixel cell having decentered openings d and e.
  • the pixel cell 51A having the opening d corresponds to the phase difference detection pixel cell 51L
  • the pixel cell 51A having the opening e corresponds to the phase difference detection pixel cell 51R.
  • an accurate defocus amount can be calculated by combining the above-described defocus amount calculation method and the solid-state image pickup device 5 driving method.
  • the solid-state image sensor has been described in which some of the many pixel cells are phase difference detection pixel cells. However, the solid-state image sensor has all of the many pixel cells as phase difference detection pixel cells. Also good. For example, in FIG. 2, each pixel cell in the odd-numbered pixel cell row is used as the phase difference detection pixel cell 51L, and each pixel cell in the even-numbered pixel cell row is used as the phase difference detection pixel cell 51R. Also good.
  • stereoscopic image data that can be stereoscopically viewed by combining the captured image signal obtained from the even-numbered phase difference detection pixel cells 51R and the captured image signal obtained from the odd-numbered phase difference detection pixel cells 51L. Can be generated. Further, when performing phase difference AF, a plurality of unit groups may be set in advance, and the defocus amount may be calculated for each unit group to perform focus control.
  • FIG. 8 shows an appearance of a smartphone 200 that is an embodiment of the photographing apparatus of the present invention.
  • a smartphone 200 shown in FIG. 8 includes a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
  • Such a housing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 9 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 204 displays images (still images and moving images), character information, and the like, visually transmits information to the user under the control of the main control unit 220, and detects user operations on the displayed information.
  • a so-called touch panel which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 is visible and detects one or more coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the photographing apparatus of the present invention integrally constitute a display input unit 204.
  • the arrangement 203 covers the display panel 202 completely.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
  • the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. You can also
  • the call unit 211 includes a speaker 205 and a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205. Further, as shown in FIG. 8, for example, the speaker 205 can be mounted on the same surface as the display input unit 204 and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and turns on when pressed with a finger or the like, and turns off when a finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 212 includes a control program and control data of the main control unit 220, application software, address data that associates the name and telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
  • Each of the internal storage unit 217 and the external storage unit 218 constituting the storage unit 212 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a flash memory type hard memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • an external device connected to the smartphone 200 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
  • Identity Module Card / UIM (User Identity Module Card) card external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. Can do.
  • the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 200 Detect the position consisting of longitude and altitude.
  • the GPS reception unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS reception unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction and acceleration of the smartphone 200 are detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program and control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function that controls each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
  • Examples of the application processing function include an infrared communication function for controlling the external input / output unit 213 to perform data communication with the opposite device, an e-mail function for transmitting / receiving e-mails, and a web browsing function for browsing web pages. .
  • the main control unit 220 has an image processing function such as displaying video on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
  • the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207 or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
  • the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
  • a touch panel control function for controlling the sensitive area of the operation panel 203 and the display position of the software key.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 208 includes configurations other than the external memory control unit 20, the recording medium 21, the display control unit 22, the display unit 23, and the operation unit 14 in the digital camera shown in FIG.
  • the captured image data generated by the camera unit 208 can be recorded in the storage unit 212 or output through the input / output unit 213 or the wireless communication unit 210.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this, and the camera unit 208 may be mounted on the back surface of the display input unit 204. Good.
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • an image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of operation inputs of the operation panel 203.
  • the GPS receiving unit 214 detects a position
  • the position can be detected with reference to an image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 208 can also be used in the application software.
  • the position information acquired by the GPS receiving unit 214 to the image data of the still image or the moving image, the voice information acquired by the microphone 206 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 215 can be added and recorded in the recording unit 212, or can be output through the input / output unit 213 and the wireless communication unit 210.
  • the smartphone 200 configured as described above can perform highly accurate phase difference AF.
  • the disclosed imaging device includes a plurality of first pixel cells including a plurality of first pixel cells that receive one of a pair of light beams that have passed through different portions of the pupil region of the photographing optical system and output a signal corresponding to the amount of received light.
  • a plurality of first pixel cell rows in which cells are arranged in a cycle determined in the row direction, and a plurality of second pixel cells that receive the other of the pair of light beams and output a signal corresponding to the amount of received light.
  • the light receiving device during the exposure period from the first pixel cell or the second pixel cell included in each pixel cell row by shifting the exposure period for each of the pixel cell rows and the imaging elements arranged alternately in the column direction.
  • a driving unit for driving to read a signal according to the amount, and the first A defocus amount calculation unit that calculates a defocus amount using the output signal of the element cell and the output signal of the second pixel cell; and the imaging optical device based on the defocus amount calculated by the defocus amount calculation unit
  • An in-focus control unit for controlling the in-focus state of the system, wherein the pixel cell rows arranged in the column direction are groups of n pixel cells rows (n is an even number) arranged successively in the column direction.
  • the first pixel cell row and the second pixel cell row are divided into groups each including the same number, and the driving unit includes two adjacent pixel cell rows in one of the two groups arranged in the column direction. Driving in which the exposure start order in the one group is opposite to the exposure start order in the other group of the two pixel cell rows at the position corresponding to the two pixel cell rows in the other of the two groups. Is Umono.
  • the output signal of the first pixel cell included in the first pixel cell row for one group of the two groups arranged in the column direction by the defocus amount calculation unit.
  • the driving unit starts the exposure period of the two pixel cell rows in the one group in the column direction of the two pixel cell rows.
  • the order of the exposure periods of the two pixel cell rows in the other group is the same as the arrangement order, and the order in which the two pixel cell rows are arranged in the column direction is reversed.
  • the defocus amount calculation unit adds the output signals of the first pixel cells at the same position in the column direction of each of the two groups.
  • Two output signal groups obtained by adding the output signals of the second pixel cells located at the same position in the column direction of each of the two groups. The phase difference for each group is calculated.
  • a pair is configured by the first pixel cell row and the second pixel cell row adjacent to the first pixel cell row, and the imaging element is a unit composed of the two groups.
  • the plurality of unit groups include a plurality of types of unit groups having different distances between two pixel cell rows constituting the pair.
  • the disclosed imaging method includes a plurality of first pixel cells including a plurality of first pixel cells that receive one of a pair of light beams that have passed through different portions of the pupil region of the photographing optical system and output a signal corresponding to the amount of received light.
  • a plurality of first pixel cell rows in which cells are arranged in a cycle determined in the row direction, and a plurality of second pixel cells that receive the other of the pair of light beams and output a signal corresponding to the amount of received light.
  • the exposure period is shifted for each pixel cell row, and from the first pixel cell or the second pixel cell included in each pixel cell row, during the exposure period Drive step for driving to read out signals according to the amount of received light
  • a focus control step for controlling a focus state wherein the pixel cell rows arranged in the column direction are groups of even-numbered pixel cell rows arranged successively in the column direction, and the first pixel cell
  • the row and the second pixel cell row are divided into groups each including the same number, and in the driving step, the exposure start order in one group of two adjacent pixel cell rows in one of the two groups arranged in the column direction is continued. Is driven to reverse the exposure start order in the other group of the two pixel cell rows at the position corresponding to the two pixel cell rows in the other of the two groups. It is intended.
  • the output signal of the first pixel cell included in the first pixel cell row for one of the two groups arranged in succession in the column direction. Calculating the phase difference of the output signal group of the second pixel cell included in the second pixel cell row with respect to the group, and for the other group, the second pixel cell included in the second pixel cell row. Calculating the phase difference of the output signal group of the first pixel cell included in the first pixel cell row with respect to the output signal group, and calculating the defocus amount based on the difference between the two calculated phase differences It is.
  • an imaging apparatus and an imaging method capable of calculating a defocus amount without error caused by rolling shutter driving without greatly affecting a captured image.

Abstract

 列方向Yに交互に並ぶ画素セル行L1,L2,L1A,L2Aからなる単位グループを、グループBG1,BG2に分ける。デフォーカス量算出部19は、BG1については位相差検出用画素セル51Lの出力信号群に対する位相差検出用画素セル51Rの出力信号群の位相差を算出し、BG2については位相差検出用画素セル51Rの出力信号群に対する位相差検出用画素セル51Lの出力信号群の位相差を算出し、算出した2つの位相差の差分に基づいてデフォーカス量を算出する。駆動部10は、BG1については画素セル行L1,L2の順に露光を行い、BG2については画素セル行L2A,L1Aの順に露光を行う。

Description

撮像装置及び撮像方法
 本発明は、撮像装置及び撮像方法に関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン等の携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
 これら撮像装置では、主要な被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式が採用されている。位相差AF方式は、コントラストAF方式に比べて合焦位置の検出を高速,高精度に行うことができるため、様々な撮像装置で多く採用されている。
 例えば、特許文献1には、CMOSイメージセンサに含まれる画素セルの一部を瞳分割用の画素セルとし、瞳分割用の画素セルから読み出した信号を用いて位相差AFを行う撮像装置が開示されている。
日本国特開2010-288083号公報
 CMOSイメージセンサは、一般的に、画素セルのライン毎に露光期間をずらしながら各露光期間に対応する信号を順次読み出すローリングシャッタ方式で駆動される。このため、瞳分割用の画素セルを含む任意のラインから得られる信号群と、そのラインの次に並ぶ瞳分割用の画素セルを含むラインから得られる信号群とを取得し、それぞれの信号群に含まれる瞳分割用の画素セルの出力信号の相関演算を行ってデフォーカス量を算出すると、このデフォーカス量には、2つの信号群の露光期間のずれに起因する誤差が含まれることになる。この結果、位相差AFを精度良く行うことができない。
 特許文献1に記載の撮像装置は、位相差AFを行うフレームでは、全ての画素セルを同時に露光開始することで、相関演算を行う2つの信号群の間に、露光期間のずれが生じないようにしている。この撮像装置によれば、位相差AFを精度良く行うことができる。
 しかしながら、特許文献1に記載の撮像装置では、動画のフレームにおいて、全ての画素セルで同時に露光を開始するフレームと、画素セルのライン毎に露光開始をずらすフレームとが混在するため、撮影される動画に連続性がなくなり、ユーザに違和感を与えてしまう。
 本発明は、上記事情に鑑みてなされたものであり、撮影画像に大きな影響を与えることなく、ローリングシャッタ駆動に起因する誤差のないデフォーカス量を算出することのできる撮像装置及び撮像方法を提供することを目的とする。
 本発明の撮像装置は、撮影光学系の異なる瞳領域を通過した一対の光束の一方を受光し受光量に応じた信号を出力する複数の第一画素セルを含みその複数の第一画素セルが行方向に決められた周期で配置される複数の第一の画素セル行と、上記一対の光束の他方を受光し受光量に応じた信号を出力する複数の第二画素セルを含みその複数の第二画素セルが上記行方向に上記周期で配置される複数の第二の画素セル行とを含み、上記第一の画素セル行及び上記第二の画素セル行が上記行方向に直交する列方向に交互に配列される撮像素子と、上記画素セル行毎に露光期間をずらし、各画素セル行に含まれる上記第一画素セル又は上記第二画素セルから、上記露光期間中の受光量に応じた信号を読み出す駆動を行う駆動部と、上記第一画素セルの出力信号と上記第二画素セルの出力信号とを用いてデフォーカス量を算出するデフォーカス量算出部と、上記デフォーカス量算出部で算出されたデフォーカス量に基づいて上記撮像光学系の合焦状態を制御する合焦制御部と、を備え、上記列方向に並ぶ画素セル行を、上記列方向に続けて並ぶn個(nは偶数)の画素セル行ずつのグループであって、上記第一の画素セル行と上記第二の画素セル行を同数含むグループに分け、上記駆動部は、上記列方向に続けて並ぶ2つのグループの一方において隣り合う2つの画素セル行のその一方のグループにおける露光開始順を、上記2つのグループの他方においてその2つの画素セル行と対応する位置にある2つの画素セル行のその他方のグループにおける露光開始順とは逆にする駆動を行うものである。
 本発明の撮像方法は、撮影光学系の異なる瞳領域を通過した一対の光束の一方を受光し受光量に応じた信号を出力する複数の第一画素セルを含みその複数の第一画素セルが行方向に決められた周期で配置される複数の第一の画素セル行と、上記一対の光束の他方を受光し受光量に応じた信号を出力する複数の第二画素セルを含みその複数の第二画素セルが上記行方向に上記周期で配置される複数の第二の画素セル行とを含み、上記第一の画素セル行及び上記第二の画素セル行が上記行方向に直交する列方向に交互に配列される撮像素子に対し、上記画素セル行毎に露光期間をずらし、各画素セル行に含まれる上記第一画素セル又は上記第二画素セルから、上記露光期間中の受光量に応じた信号を読み出す駆動を行う駆動ステップと、上記第一画素セルの出力信号と上記第二画素セルの出力信号とを用いてデフォーカス量を算出するデフォーカス量算出ステップと、算出した上記デフォーカス量に基づいて上記撮像光学系の合焦状態を制御する合焦制御ステップと、を備え、上記列方向に並ぶ画素セル行を、上記列方向に続けて並ぶ偶数個の画素セル行ずつのグループであって、上記第一の画素セル行と上記第二の画素セル行を同数含むグループに分け、上記駆動ステップでは、上記列方向に続けて並ぶ2つのグループの一方において隣り合う2つの画素セル行のその一方のグループにおける露光開始順を、上記2つのグループの他方においてその2つの画素セル行と対応する位置にある2つの画素セル行のその他方のグループにおける露光開始順とは逆にする駆動を行うものである。
 本発明によれば、撮影画像に大きな影響を与えることなく、ローリングシャッタ駆動に起因する誤差のないデフォーカス量を算出することのできる撮像装置及び撮像方法を提供することができる。
本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図 図1に示すデジタルカメラに搭載される固体撮像素子5の構成を示す平面模式図 単位グループに属する位相差検出用画素セルを含む4つの画素セル行を示す図 単位グループに属する位相差検出用画素セルを含む8つの画素セル行を示す図 単位グループに属する位相差検出用画素セルを含む12個の画素セル行を示す図 図2に示す固体撮像素子5の変形例である固体撮像素子5aを示す図 図2に示す固体撮像素子5の変形例である固体撮像素子5bを示す図 撮像装置としてのスマートフォンの構成を示す図 図8に示すスマートフォンの内部構成を示すブロック図
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
 図1に示すデジタルカメラの撮像系は、撮影光学系としての撮影レンズ1と、CMOSイメージセンサ等のMOS型の固体撮像素子5と、この両者の間に設けられた絞り2とを備えている。
 デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、フラッシュ発光部12及び受光部13を制御する。また、システム制御部11は、レンズ駆動部8を制御して撮影レンズ1に含まれるフォーカスレンズの位置を調整したり、撮影レンズ1に含まれるズームレンズの位置の調整を行ったりする。更に、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。
 また、システム制御部11は、撮像素子駆動部10を介して固体撮像素子5を駆動し、撮影レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
 デジタルカメラの電気制御系は、更に、固体撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、このアナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するA/D変換回路7とを備える。アナログ信号処理部6及びA/D変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びA/D変換回路7は固体撮像素子5に内蔵されることもある。
 更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、A/D変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB/YC変換処理等を行って撮影画像データを生成するデジタル信号処理部17と、デジタル信号処理部17で生成された撮影画像データをJPEG形式に圧縮したり圧縮画像データを伸張したりする圧縮伸張処理部18と、デフォーカス量を算出するデフォーカス量算出部19と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22とを備えている。メモリ制御部15、デジタル信号処理部17、圧縮伸張処理部18、デフォーカス量算出部19、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
 図2は、図1に示すデジタルカメラに搭載される固体撮像素子5の構成を示す平面模式図である。
 固体撮像素子5は、行方向X及びこれに直交する列方向Yに二次元状に配列された多数の画素セル51(図中の各正方形のブロック)を備えている。
 各画素セル51は、フォトダイオード等の光電変換部と、この光電変換部上方に形成されたカラーフィルタと、光電変換部に蓄積された信号電荷に応じた信号を出力する信号出力回路とを含む。
 信号出力回路は、良く知られているMOS回路であり、例えば、光電変換部に蓄積された電荷が転送される電荷蓄積部と、光電変換部の電荷を電荷蓄積部に転送するための転送トランジスタと、電荷蓄積部の電位をリセットするリセットトランジスタと、電荷蓄積部の電位に応じた信号を出力する出力トランジスタと、出力トランジスタから出力信号線に信号を選択的に出力させるための行選択トランジスタとを含んで構成される。
 図2では、赤色光を透過するカラーフィルタを含む画素セル51には“R”の文字を付し、緑色光を透過するカラーフィルタを含む画素セル51には“G”の文字を付し、青色光を透過するカラーフィルタを含む画素セル51には“B”の文字を付している。
 多数の画素セル51は、行方向Xに並ぶ複数の画素セル51からなる画素セル行を、列方向Yに複数個並べた配列となっている。そして、奇数行の画素セル行と偶数行の画素セル行は、各画素セル行の画素セル51の配列ピッチの略1/2、行方向Xにずれている。
 奇数行の画素セル行の各画素セル51に含まれるカラーフィルタの配列は全体としてベイヤ配列となっている。また、偶数行の画素セル行の各画素セル51に含まれるカラーフィルタの配列も全体としてベイヤ配列となっている。奇数行にある画素セル51と、この画素セル51に対して右下に隣接する、この画素セル51と同色光を検出する画素セル51とがペア画素を構成する。
 このような画素セル配列の固体撮像素子5によれば、ペア画素を構成する2つの画素セル51の出力信号を加算することでカメラの高感度化を図ったり、ペア画素を構成する2つの画素セル51の露光時間を変え、かつ、この2つの画素セル51の出力信号を加算することでカメラの広ダイナミックレンジ化を図ったりすることができる。
 固体撮像素子5では、多数の画素セル51のうちの一部が位相差検出用画素セルとなっている。位相差検出用画素セルは、撮影レンズ1の瞳領域の異なる部分を通過した一対の光束の一方(例えば瞳領域の右半分を通過した光束)を受光し受光量に応じた信号を出力する位相差検出用画素セル(符号51Rで示す)と、当該一対の光束の他方(例えば瞳領域の左半分を通過した光束)を受光し受光量に応じた信号を出力する位相差検出用画素セル(符号51Lで示す)とを含む。
 画素セル51の光電変換部上方には、遮光膜が設けられ、この遮光膜には、光電変換部の受光面積を規定する開口が形成されている。位相差検出用画素セル51R及び位相差検出用画素セル51L以外の通常の画素セル51の開口(図2において符号aで示す)の中心は、通常の画素セル51の光電変換部の中心(正方形のブロックの中心)と一致している。なお、図2では、図を簡略化するために、通常の画素セル51については一部のみに開口aを図示している。
 これに対し、位相差検出用画素セル51Rの開口(図2において符号cで示す)の中心は、位相差検出用画素セル51Rの光電変換部の中心に対し右側に偏心している。
 位相差検出用画素セル51Lの開口(図2において符号bで示す)の中心は、位相差検出用画素セル51Lの光電変換部の中心に対して左側に偏心している。
 固体撮像素子5では、緑色のカラーフィルタが搭載される画素セル51の一部が位相差検出用画素セル51R及び位相差検出用画素セル51Lとなっている。勿論、他の色のカラーフィルタが搭載される画素セルを位相差検出用画素セルとしてもよい。
 位相差検出用画素セル51Rは、偶数行の画素セル行の一部(図2の例では、3画素セル行おきに並ぶ4つの画素セル行)において、行方向Xに予め決められた周期(図2の例では3つの画素セルおき)で配置されている。
 位相差検出用画素セル51Lは、奇数行の画素セル行の一部(位相差検出用画素セル51Rを含む画素セル行の隣にある画素セル行)において、行方向Xに、位相差検出用画素セル51Rと同じ周期で配置されている。
 このような構成により、遮光膜の開口bを通って画素セル51Lに受光される光は、撮影レンズ1の左側からの光、すなわち被写体を左眼で見た方向から来た光が主となり、遮光膜の開口cを通って画素セル51Rに受光される光は、撮影レンズ1の右側からの光、すなわち被写体を右眼で見た方向から来た光が主となる。
 即ち、全ての位相差検出用画素セル51Rによって、被写体を右眼で見た撮像画像信号を得ることができ、全ての位相差検出用画素セル51Lによって、被写体を左眼で見た撮像画像信号を得ることができる。このため、両者を組み合わせることで、被写体の立体画像データを生成したり、両者を相関演算することで位相差情報を生成したりすることが可能になる。
 なお、位相差検出用画素セル51Rと位相差検出用画素セル51Lは、遮光膜の開口を逆方向に偏心させることで、撮影レンズ1の異なる瞳領域を通過した光束をそれぞれ受光できるようにして位相差情報を得られるようにしているが、位相差情報を得るための構造はこれに限らず、よく知られているものを採用することができる。
 固体撮像素子5は、更に、垂直走査回路52と水平走査回路53を備える。
 垂直走査回路52は、各画素セル51に含まれる信号出力回路の転送トランジスタ、リセットトランジスタ、及び行選択トランジスタのオンオフ制御を行う。
 水平走査回路53は、列方向Yに並ぶ画素セル51からなる画素セル列毎に設けられる出力信号線に接続され、画素セル行にある各画素セル51から出力信号線に出力された出力信号を順次、固体撮像素子5外部に出力する。
 垂直走査回路52及び水平走査回路53は、図1に示した撮像素子駆動部10の指示にしたがって動作する。撮像素子駆動部10は、画素セル行毎に露光期間を一定時間ずらす、所謂ローリングシャッタ方式で固体撮像素子5を駆動する。
 画素セル行の各画素セル51の露光期間は、当該各画素セル51のリセットトランジスタをオンにして、当該各画素セル51に含まれる電荷蓄積部の電位をリセットした時点で開始され、当該各画素セル51に含まれる転送トランジスタをオンにして、当該各画素セル51の光電変換部に蓄積された電荷の電荷蓄積部への転送が完了した時点で終了される。撮像素子駆動部10は、この露光期間の開始タイミングを画素セル行毎にずらすように垂直走査回路52を制御する。
 図1に示すデフォーカス量算出部19は、位相差検出用画素セル51L及び位相差検出用画素セル51Rから読み出される出力信号群を用いて、撮影レンズ1の焦点調節状態、ここでは合焦状態から離れている量とその方向、すなわちデフォーカス量を算出する。
 図1に示すシステム制御部11は、デフォーカス量算出部19によって算出されたデフォーカス量に基づいて、撮像レンズ1に含まれるフォーカスレンズを合焦位置に制御して、撮像レンズ1の合焦状態を制御する合焦制御部としての機能を果たす。
 デフォーカス量算出部19は、位相差検出用画素セル51Rを含む画素セル行を第一の画素セル行といい、位相差検出用画素セル51Lを含む画素セル行を第二の画素セル行というと、列方向Yに交互に並ぶ2個の第一の画素セル行及び2個の第二の画素セル行からなるグループを単位グループとして、単位グループ毎にデフォーカス量の算出を行う。そして、全ての単位グループについて算出したデフォーカス量を用いて、最終的なデフォーカス量を算出する。例えば、全ての単位グループについて算出したデフォーカス量の平均値を最終的なデフォーカス量とする。
 図3は、単位グループに属する位相差検出用画素セルを含む4つの画素セル行を示す図である。図3に示す画素セル行L1は、図2において上から1番目にある画素セル行であり、図3に示す画素セル行L2は、図2において上から2番目にある画素セル行であり、図3に示す画素セル行L1Aは、図2において上から9番目にある画素セル行であり、図3に示す画素セル行L2Aは、図2において上から10番目にある画素セル行である。
 以下では、画素セル行L1と画素セル行L2からなるグループを分割グループBG1といい、画素セル行L1Aと画素セル行L2Aからなるグループを分割グループBG2という。
 デフォーカス量算出部19は、分割グループBG1に含まれる位相差検出用画素セル51Lの出力信号群に対する、分割グループBG1に含まれる位相差検出用画素セル51Rの出力信号群の位相差θaを、これら2つの出力信号群の相関演算により算出する。
 また、デフォーカス量算出部19は、分割グループBG2に含まれる位相差検出用画素セル51Rの出力信号群に対する、分割グループBG2に含まれる位相差検出用画素セル51Lの出力信号群の位相差θbを、これら2つの出力信号群の相関演算により算出する。
 位相差θaには、画素セル行L1の位相差検出用画素セル51Lの出力信号群に対する、画素セル行L1の位相差検出用画素セル51Rの出力信号群の位相差成分α1と、画素セル行L1と画素セル行L2の露光期間のずれに起因する位相差の誤差成分β1とが含まれる。
 位相差θbには、画素セル行L2Aの位相差検出用画素セル51Rの出力信号群に対する、画素セル行L1Aの位相差検出用画素セル51Lの出力信号群の位相差成分α2と、画素セル行L1Aと画素セル行L2Aの露光期間のずれに起因する位相差の誤差成分β2とが含まれる。
 ここで、位相差成分α1と位相差成分α2は、単位グループに含まれる4つの画素セル行が近い位置にあるために、それぞれの符号を無視した絶対値は同じと見なすことができる。一方、位相差成分α1と位相差成分α2は、相関演算の基準とする出力信号群が逆であるため、その符号は逆となる。
 また、一般的なローリングシャッタ方式では、図2において上にある画素セル行から、画素セル行の並び順にしたがって、露光期間を一定時間ずつずらしていく駆動が行われる。このため、図3に示す単位グループにおいて、画素セル行L1と画素セル行L2の露光期間のずれ時間と、画素セル行L1Aと画素セル行L2Aの露光期間のずれ時間とは同じとなり、誤差成分β1と誤差成分β2は、符号を無視した絶対値は同じとなるが、符号が逆になる。
 つまり、一般的なローリングシャッタ方式で固体撮像素子5の各画素セルから出力信号を読み出した場合においては、上記算出される位相差θa,θbは以下のように表される。
 θa=α1+β1
 θb=-α2-β2=-α1-β1
 θaとθbを加算すれば、誤差成分β1を相殺することができる。しかし、この場合には、位相差成分α1も相殺されてしまうため、正確な位相差情報を得ることができない。一方、θaとθbの差分を求めると、位相差成分は残すことはできるが、誤差成分を相殺することはできない。
 そこで、本実施形態では、θb=-α1+β1となるように固体撮像素子5を駆動し、更に、デフォーカス量算出部19において位相差θaと位相差θbの差分を演算することにより、誤差成分を打消して、位相差情報を得るようにしている。
 具体的には、撮像素子駆動部10は、図3に示す単位グループにおける各画素セル行の露光期間の開始順を、画素セル行L1→画素セル行L2→画素セル行L2A→画素セル行L1Aとする駆動を行う。このような駆動により、θb=-α1+β1とすることができる。
 このため、デフォーカス量算出部19において、θa-θb、又は、θb-θaの演算を行うことで、誤差成分を相殺して、位相差成分に対応する情報のみを得ることができる。デフォーカス量算出部19は、この情報に基づいて、単位グループにおけるデフォーカス量を算出する。
 なお、θa=α1-β1とし、θb=-α1-β1となるように固体撮像素子5を駆動することでも、位相差θaと位相差θbの差分の演算により、誤差成分を相殺することができる。つまり、図3に示す単位グループにおける各画素セル行の露光期間の開始順は、画素セル行L2→画素セル行L1→画素セル行L1A→画素セル行L2Aとしてもよい。
 以上のように、デフォーカス量算出部19は、単位グループを構成する2つの分割グループの一方については、位相差検出用画素セル51Rの出力信号群を基準にして位相差を算出し、他方については、位相差検出用画素セル51Lの出力信号群を基準にして位相差を算出し、これら2つの位相差の差分に基づいてデフォーカス量を算出する。
 また、撮像素子駆動部10は、各分割グループにおける2つの画素セル行の露光期間の開始順を、一方の分割グループについては画素セル行の列方向Yへの並び順と一致させ、他方の分割グループについては画素セル行の列方向Yへの並び順とは逆順とする駆動を行う。これにより、上記2つの位相差の差分に、露光期間のずれに起因する誤差成分が含まれるのを防ぐことができ、正確なデフォーカス量の算出が可能になる。
 また、このデジタルカメラは、ライブビュー画像表示のための動画撮影時において、デフォーカス量を算出するための撮像フレームと、その他の撮像フレームとで固体撮像素子5の駆動を変更する。デフォーカス量を算出するための撮像フレームは、各画素セル行の露光期間をずらす点では、他の撮像フレームと一致するため、従来技術のように、動画撮影の途中で駆動方法が大きく変わることはなく、動画の画質劣化を防止することができる。
 図2の例では、固体撮像素子5が2つの単位グループ有しているが、単位グループは1つ以上有していれば、原理的には位相差AFが可能である。
 次に、デフォーカス量算出部19によるデフォーカス量の算出方法の変形例を説明する。
 (第一の変形例)
 第一の変形例では、デフォーカス量算出部19は、列方向Yに交互に並ぶ4個の第一の画素セル行及び4個の第二の画素セル行からなるグループを単位グループとして、単位グループ毎にデフォーカス量の算出を行う。
 図4は、単位グループに属する位相差検出用画素セルを含む8つの画素セル行を示す図である。図4に示す画素セル行L1は、図2において上から1番目にある画素セル行であり、図4に示す画素セル行L2は、図2において上から2番目にある画素セル行であり、図4に示す画素セル行L3は、図2において上から9番目にある画素セル行であり、図4に示す画素セル行L4は、図2において上から10番目にある画素セル行である。
 また、図4に示す画素セル行L1Aは、図2において上から17番目にある画素セル行であり、図4に示す画素セル行L2Aは、図2において上から18番目にある画素セル行であり、図4に示す画素セル行L3Aは、図2において上から25番目にある画素セル行であり、図4に示す画素セル行L4Aは、図2において上から26番目にある画素セル行である。
 以下では、画素セル行L1~L4からなるグループを分割グループBG1Aといい、画素セル行L1A~L4Aからなるグループを分割グループBG2Aという。
 デフォーカス量算出部19は、分割グループBG1Aに含まれる位相差検出用画素セル51Lのうち、列方向Yにおける位置が同じである図4中の矢印で結んだ2つの位相差検出用画素セル51Lの出力信号を加算して得られる出力信号群を、分割グループBG1Aにおける位相差検出用画素セル51Lの出力信号群とする。
 また、デフォーカス量算出部19は、分割グループBG1Aに含まれる位相差検出用画素セル51Rのうち、列方向Yにおける位置が同じである図4中の矢印で結んだ2つの位相差検出用画素セル51Rの出力信号を加算して得られる出力信号群を、分割グループBG1Aにおける位相差検出用画素セル51Rの出力信号群とする。
 そして、デフォーカス量算出部19は、分割グループBG1Aにおける位相差検出用画素セル51Lの出力信号群に対する、位相差検出用画素セル51Rの出力信号群の位相差θaAを、これら2つの出力信号群の相関演算により算出する。
 分割グループBG2Aについても同様に、デフォーカス量算出部19は、分割グループBG2Aに含まれる位相差検出用画素セル51Lのうち、列方向Yにおける位置が同じ位相差検出用画素セル51Lの出力信号を加算し、分割グループBG2Aに含まれる位相差検出用画素セル51Rのうち、列方向Yにおける位置が同じ位相差検出用画素セル51Rの出力信号を加算する。
 そして、デフォーカス量算出部19は、位相差検出用画素セル51Rについて加算により生成した出力信号群に対する、位相差検出用画素セル51Lについて加算により生成した出力信号群の位相差θbAを、これら2つの出力信号群の相関演算により算出する。
 撮像素子駆動部10は、分割グループBG1Aについては、各画素セル行の露光期間の開始順を、各画素セル行の並び順と同じである、画素セル行L1→画素セル行L2→画素セル行L3→画素セル行L4の順とする。
 一方、撮像素子駆動部10は、分割グループBG2Aについては、各画素セル行の露光期間の開始順を、各画素セル行の並び順とは異なる、画素セル行L2A→画素セル行L1A→画素セル行L4A→画素セル行L3Aの順とする。
 そして、デフォーカス量算出部19は、θaA-θbA、又は、θbA-θaAの演算を行って得られる情報に基づいて、単位グループにおけるデフォーカス量を算出する。
 上述したように単位グループ内での画素セル行の露光期間の開始順を決め、更に、θaA-θbA、又は、θbA-θaAの演算を行うことで、露光期間のずれによる誤差成分を相殺することができるため、デフォーカス量の算出精度を高めることができる。
 第一の変形例によれば、被写体が暗い場合であっても、2つの位相差検出用画素セルの出力信号を加算した信号同士で相関演算を行うため、感度を上げて相関演算結果の精度を向上させることができる。
 なお、図4において矢印で結んだ2つの位相差検出用画素セルの出力信号を加算した信号は、固体撮像素子5内で2つの位相差検出用画素セルの蓄積電荷同士を混合したり、2つの位相差検出用画素セルの出力信号同士を加算したりして得てもよい。また、2つの位相差検出用画素セルからは独立に出力信号を取得し、アナログ信号処理部6において、2つの出力信号を加算するようにしてもよい。
 また、撮像素子駆動部10は、分割グループBG1Aについては、各画素セル行の露光期間の開始順を、画素セル行L1→画素セル行L3→画素セル行L2→画素セル行L4の順とし、分割グループBG2Aについては、各画素セル行の露光期間の開始順を、画素セル行L2A→画素セル行L4A→画素セル行L1A→画素セル行L3Aの順としても、同様の効果を得ることができる。
 ここでは、出力信号の加算数を2つとしたが、加算数は3つ以上とすることもできる。加算数を3とするときの例を以下の第二の変形例で説明する。
 (第二の変形例)
 第二の変形例では、デフォーカス量算出部19は、列方向Yに交互に並ぶ6個の第一の画素セル行及び6個の第二の画素セル行からなるグループを単位グループとして、単位グループ毎にデフォーカス量の算出を行う。
 図5は、単位グループに属する位相差検出用画素セルを含む12個の画素セル行を示す図である。以下では、図5における上半分の6個の画素セル行(画素セル行L1~L6)からなるグループを分割グループBG1AAといい、残りの6個の画素セル行(画素セル行L1A~L6A)からなるグループを分割グループBG2AAという。
 デフォーカス量算出部19は、分割グループBG1AAに含まれる位相差検出用画素セル51Lのうち、列方向Yにおける位置が同じである図5中の破線で囲んだ3つの位相差検出用画素セル51Lの出力信号を加算する。
 また、デフォーカス量算出部19は、分割グループBG1AAに含まれる位相差検出用画素セル51Rのうち、列方向Yにおける位置が同じである図5中の破線で囲んだ3つの位相差検出用画素セル51Rの出力信号を加算する。
 そして、デフォーカス量算出部19は、位相差検出用画素セル51Lについて加算により生成した出力信号群に対する、位相差検出用画素セル51Rについて加算により生成した出力信号群の位相差θaAAを、これら2つの出力信号群の相関演算により算出する。
 分割グループBG2AAについても同様に、デフォーカス量算出部19は、図5中の破線で囲んだ位相差検出用画素セル51Lの出力信号を加算し、図5中の破線で囲んだ位相差検出用画素セル51Rの出力信号を加算する。
 そして、デフォーカス量算出部19は、位相差検出用画素セル51Rについて加算により生成した出力信号群に対する、位相差検出用画素セル51Lについて加算により生成した出力信号群の位相差θbAAを、これら2つの出力信号群の相関演算により算出する。
 撮像素子駆動部10は、分割グループBG1AAについては、各画素セル行の露光期間の開始順を、各画素セル行の並び順と同じである、画素セル行L1→画素セル行L2→画素セル行L3→画素セル行L4→画素セル行L5→画素セル行L6の順とする。一方、撮像素子駆動部10は、分割グループBG2AAについては、各画素セル行の露光期間の開始順を、各画素セル行の並び順とは異なる、画素セル行L2A→画素セル行L1A→画素セル行L4A→画素セル行L3A→画素セル行L6A→画素セル行L5Aの順とする。
 又は、撮像素子駆動部10は、分割グループBG1AAについては、各画素セル行の露光期間の開始順を、画素セル行L1→画素セル行L3→画素セル行L5→画素セル行L2→画素セル行L4→画素セル行L6の順とし、分割グループBG2AAについては、各画素セル行の露光期間の開始順を、画素セル行L2A→画素セル行L4A→画素セル行L6A→画素セル行L1A→画素セル行L3A→画素セル行L5Aの順とする。
 そして、デフォーカス量算出部19は、θaAA-θbAA、又は、θbAA-θaAAの演算を行って得られる情報に基づいて、単位グループにおけるデフォーカス量を算出する。
 この変形例においても、撮像素子駆動部10が、θaAA-θbAA、又は、θbAA-θaAAの演算の結果に、露光期間のずれに起因する誤差成分が含まれないように、上述したように分割グループBG1AAと分割グループBG2AAとで画素セル行の露光期間の開始順を異ならせることで、正確なデフォーカス量の算出が可能となる。
 なお、更に加算数を増やす場合は、加算数を1つ増やす毎に、各分割グループに1つの第一の画素セル行及び1つの第二の画素セル行を追加すればよい。
 以上のように、デフォーカス量算出部19は、列方向Yに交互に並ぶ{2(n+1)}(nは正の整数)個の第一の画素セル行及び{2(n+1)}個の第二の画素セル行からなる単位グループ毎にデフォーカス量の算出を行う。デフォーカス量算出部19は、単位グループを、列方向Yに続けて並ぶ{2(n+1)}個の画素セル行からなる分割グループと、列方向Yに続けて並ぶ{2(n+1)}の画素セル行からなる分割グループとの2つの分割グループに分ける。そして、一方の分割グループについては、位相差検出用画素セル51Rの出力信号群に対する位相差検出用画素セル51Lの出力信号群の位相差を算出し、他方の分割グループについては、位相差検出用画素セル51Lの出力信号群に対する位相差検出用画素セル51Rの出力信号群の位相差を算出し、算出した2つの位相差の差分に基づいてデフォーカス量を算出する。
 撮像素子駆動部10は、この2つの位相差の差分に、画素セル行の露光期間のずれに起因する誤差成分が含まれるのを防ぐように、各分割グループにおいて対応する位置にある2つの画素セル行(分割グループ内における並び位置が同じである2つの画素セル行)の各分割グループにおける露光期間の開始順を異ならせる駆動を行うことで、画素セル行毎の露光期間のずれに起因する誤差のないデフォーカス量の算出が可能になる。
 なお、出力信号の加算を行わない場合、即ち、上記nが0のときは、一方の分割グループに属する2つの画素セル行の間にある画素セル行の数と、他方の分割グループに属する2つの画素セル行の間にある画素セル行の数とを同じにする必要がある。
 また、上記nが1以上のときは、第一の画素セル行とこの隣に並ぶ第二の画素セル行とをペアとしたとき、一方の分割グループに属する複数のペアにおいて、各ペアにおける第一の画素セル行と第二の画素セル行との間にある画素セル行の数を同じにし、ペア間にある画素セル行の数を同じにする必要がある。
 上記条件を満たしていれば、全ての単位グループにおいて、第一の画素セル行と第二の画素セル行の配列間隔を同じにする必要はない。
 図6は、図2に示す固体撮像素子5の変形例である固体撮像素子5aを示す図である。固体撮像素子5aは、位相差検出用画素セル51Rと位相差検出用画素セル51Lの配置を変更した点を除いては固体撮像素子5と同じ構成である。
 図6では、画素セル行L1と画素セル行L2を間に画素セル行を挟まずに配置し、画素セル行L3と画素セル行L4を間に画素セル行を挟まずに配置している。一方、画素セル行L5と画素セル行L6は間に画素セル行を2つ挟んで配置し、画素セル行L7と画素セル行L8は間に画素セル行を2つ挟んで配置している。
 このように、画素セル行L1~L4からなる単位グループと、画素セル行L5~L8からなる単位グループとで、位相差検出用画素セルを含む画素セル行の列方向Yにおける配置間隔(配置密度)を変えている。このようにすることで、例えば、画素セル51が配置される領域において中央部分は配置密度を大きくし、周辺部分は配置密度を小さくするといった構成が可能となり、応用範囲の広い撮像素子を実現することができる。なお、配置密度の異なる3種類以上の単位グループを設ける構成としてもよい。
 ここまでは、画素セル51がいわゆるハニカム配列されたものを例にしたが、画素セル51が正方格子状に配列された固体撮像素子にも本発明は適用可能である。
 図7は、図2に示す固体撮像素子5の変形例である固体撮像素子5bを示す図である。
 固体撮像素子5bは、行方向Xと列方向Yに正方格子状に配列された多数の画素セル51Aと、垂直走査回路52と、水平走査回路53とを備える。画素セル51Aの構成は画素セル51と同じであり、カラーフィルタの配列はベイヤ配列となっている。
 多数の画素セル51Aは、遮光膜の開口aが偏心していない通常の画素セル51Aと、偏心した開口d,eを有する位相差検出用画素セルとを含む。開口dを有する画素セル51Aが位相差検出用画素セル51Lに対応し、開口eを有する画素セル51Aが位相差検出用画素セル51Rに対応している。
 このような構成の固体撮像素子5bでも、上述してきたデフォーカス量の算出方法と固体撮像素子5の駆動方法を組み合わせることで、正確なデフォーカス量を算出することができる。
 ここまでは、多数の画素セルの一部を位相差検出用画素セルとした固体撮像素子を例にしたが、多数の画素セルの全てを位相差検出用画素セルとした固体撮像素子であってもよい。例えば、図2において、奇数行の画素セル行の各画素セルを位相差検出用画素セル51Lとし、偶数行の画素セル行の各画素セルを位相差検出用画素セル51Rとしたものを用いてもよい。
 この場合は、偶数行の位相差検出用画素セル51Rから得られる撮像画像信号と、奇数行の位相差検出用画素セル51Lから得られる撮像画像信号とを組み合わせて立体視可能な立体画像データを生成することが可能になる。また、位相差AFを行うときは、複数の単位グループを予め設定しておき、単位グループ毎にデフォーカス量を算出して合焦制御すればよい。
 次に、撮像装置としてスマートフォンの構成について説明する。
 図8は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図8に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図9は、図8に示すスマートフォン200の構成を示すブロック図である。図9に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図8に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図8に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図8に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記録媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることができる。図8に示すにスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記録部212に記録したり、入出力部213や無線通信部210を通じて出力したりすることもできる。
 以上のような構成のスマートフォン200においても、同様に、高精度の位相差AFを行うことができる。
 以上説明してきたように、本明細書には以下の事項が開示されている。
 開示された撮像装置は、撮影光学系の瞳領域の異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を出力する複数の第一画素セルを含みその複数の第一画素セルが行方向に決められた周期で配置される複数の第一の画素セル行と、上記一対の光束の他方を受光し受光量に応じた信号を出力する複数の第二画素セルを含みその複数の第二画素セルが上記行方向に上記周期で配置される複数の第二の画素セル行とを含み、上記第一の画素セル行及び上記第二の画素セル行が上記行方向に直交する列方向に交互に配列される撮像素子と、上記画素セル行毎に露光期間をずらし、各画素セル行に含まれる上記第一画素セル又は上記第二画素セルから、上記露光期間中の受光量に応じた信号を読み出す駆動を行う駆動部と、上記第一画素セルの出力信号と上記第二画素セルの出力信号とを用いてデフォーカス量を算出するデフォーカス量算出部と、上記デフォーカス量算出部で算出されたデフォーカス量に基づいて上記撮像光学系の合焦状態を制御する合焦制御部と、を備え、上記列方向に並ぶ画素セル行を、上記列方向に続けて並ぶn個(nは偶数)の画素セル行ずつのグループであって、上記第一の画素セル行と上記第二の画素セル行を同数含むグループに分け、上記駆動部は、上記列方向に続けて並ぶ2つのグループの一方において隣り合う2つの画素セル行のその一方のグループにおける露光開始順を、上記2つのグループの他方においてその2つの画素セル行と対応する位置にある2つの画素セル行のその他方のグループにおける露光開始順とは逆にする駆動を行うものである。
 開示された撮像装置は、上記デフォーカス量算出部が、上記列方向に続けて並ぶ2つのグループの一方のグループについては、上記第一の画素セル行に含まれる上記第一画素セルの出力信号群に対する、上記第二の画素セル行に含まれる上記第二画素セルの出力信号群の位相差を算出し、他方のグループについては、上記第二の画素セル行に含まれる上記第二画素セルの出力信号群に対する、上記第一の画素セル行に含まれる上記第一画素セルの出力信号群の位相差を算出し、算出した2つの位相差の差分に基づいてデフォーカス量を算出するものである。
 開示された撮像装置は、上記nを2とした場合に、上記駆動部は、上記一方のグループにおける2つの画素セル行の露光期間の開始順はその2つの画素セル行の上記列方向への並び順と同じにし、上記他方のグループにおける2つの画素セル行の露光期間の開始順はその2つの画素セル行の上記列方向への並び順と逆順にするものである。
 開示された撮像装置は、上記nを4以上とし、上記デフォーカス量算出部は、上記2つのグループの各々の上記列方向において同一位置にある上記第一の画素セルの出力信号同士を加算して得られる出力信号群と、その2つのグループの各々の上記列方向において同一位置にある上記第二の画素セルの出力信号同士を加算して得られる出力信号群とを用いて、その2つのグループの各々についての上記位相差を算出するものである。
 開示された撮像装置は、上記第一の画素セル行と上記第一の画素セル行に近接する上記第二の画素セル行とによりペアが構成され、上記撮像素子は上記2つのグループからなる単位グループを複数有し、上記複数の単位グループは、上記ペアを構成する2つの画素セル行間の距離が異なる複数種類の単位グループを含むものである。
 開示された撮像方法は、撮影光学系の瞳領域の異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を出力する複数の第一画素セルを含みその複数の第一画素セルが行方向に決められた周期で配置される複数の第一の画素セル行と、上記一対の光束の他方を受光し受光量に応じた信号を出力する複数の第二画素セルを含みその複数の第二画素セル行が上記行方向に上記周期で配置される複数の第二の画素セル行とを含み、上記第一の画素セル行及び上記第二の画素セル行が上記行方向に直交する列方向に交互に配列される撮像素子に対し、上記画素セル行毎に露光期間をずらし、各画素セル行に含まれる上記第一画素セル又は上記第二画素セルから、上記露光期間中の受光量に応じた信号を読み出す駆動を行う駆動ステップと、上記第一画素セルの出力信号と上記第二画素セルの出力信号とを用いてデフォーカス量を算出するデフォーカス量算出ステップと、算出した上記デフォーカス量に基づいて上記撮像光学系の合焦状態を制御する合焦制御ステップと、を備え、上記列方向に並ぶ画素セル行を、上記列方向に続けて並ぶ偶数個の画素セル行ずつのグループであって、上記第一の画素セル行と上記第二の画素セル行を同数含むグループに分け、上記駆動ステップでは、上記列方向に続けて並ぶ2つのグループの一方において隣り合う2つの画素セル行のその一方のグループにおける露光開始順を、上記2つのグループの他方においてその2つの画素セル行と対応する位置にある2つの画素セル行のその他方のグループにおける露光開始順とは逆にする駆動を行うものである。
 開示された撮像方法は、上記デフォーカス量算出ステップでは、上記列方向に続けて並ぶ2つのグループの一方のグループについては、上記第一の画素セル行に含まれる上記第一画素セルの出力信号群に対する、上記第二の画素セル行に含まれる上記第二画素セルの出力信号群の位相差を算出し、他方のグループについては、上記第二の画素セル行に含まれる上記第二画素セルの出力信号群に対する、上記第一の画素セル行に含まれる上記第一画素セルの出力信号群の位相差を算出し、算出した2つの位相差の差分に基づいてデフォーカス量を算出するものである。
 本発明によれば、撮影画像に大きな影響を与えることなく、ローリングシャッタ駆動に起因する誤差のないデフォーカス量を算出することができる撮像装置及び撮像方法を提供することができる。
 以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
 本出願は、2012年6月7日出願の日本特許出願(特願2012-129815)に基づくものであり、その内容はここに取り込まれる。
5 固体撮像素子
10 撮像素子駆動部
19 デフォーカス量算出部
51L,51R 位相差検出用画素セル
51 通常の画素セル

Claims (7)

  1.  撮影光学系の瞳領域の異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を出力する複数の第一画素セルを含み当該複数の第一画素セルが行方向に決められた周期で配置される複数の第一の画素セル行と、前記一対の光束の他方を受光し受光量に応じた信号を出力する複数の第二画素セルを含み当該複数の第二画素セルが前記行方向に前記周期で配置される複数の第二の画素セル行とを含み、前記第一の画素セル行及び前記第二の画素セル行が前記行方向に直交する列方向に交互に配列される撮像素子と、
     前記画素セル行毎に露光期間をずらし、各画素セル行に含まれる前記第一画素セル又は前記第二画素セルから、前記露光期間中の受光量に応じた信号を読み出す駆動を行う駆動部と、
     前記第一画素セルの出力信号と前記第二画素セルの出力信号とを用いてデフォーカス量を算出するデフォーカス量算出部と、
     前記デフォーカス量算出部で算出されたデフォーカス量に基づいて前記撮像光学系の合焦状態を制御する合焦制御部と、を備え、
     前記列方向に並ぶ画素セル行を、前記列方向に続けて並ぶn個(nは偶数)の画素セル行ずつのグループであって、前記第一の画素セル行と前記第二の画素セル行を同数含むグループに分け、
     前記駆動部は、前記列方向に続けて並ぶ2つのグループの一方において隣り合う2つの画素セル行の当該一方のグループにおける露光開始順を、前記2つのグループの他方において当該2つの画素セル行と対応する位置にある2つの画素セル行の当該他方のグループにおける露光開始順とは逆にする駆動を行う撮像装置。
  2.  請求項1記載の撮像装置であって、
     前記デフォーカス量算出部は、前記2つのグループの一方のグループについては、前記第一の画素セル行に含まれる前記第一画素セルの出力信号群に対する、前記第二の画素セル行に含まれる前記第二画素セルの出力信号群の位相差を算出し、他方のグループについては、前記第二の画素セル行に含まれる前記第二画素セルの出力信号群に対する、前記第一の画素セル行に含まれる前記第一画素セルの出力信号群の位相差を算出し、算出した2つの位相差の差分に基づいてデフォーカス量を算出する撮像装置。
  3.  請求項1又は2記載の撮像装置であって、
     前記nを2とした場合に、前記駆動部は、前記一方のグループにおける2つの画素セル行の露光期間の開始順は当該2つの画素セル行の前記列方向への並び順と同じにし、前記他方のグループにおける2つの画素セル行の露光期間の開始順は当該2つの画素セル行の前記列方向への並び順と逆順にする撮像装置。
  4.  請求項2記載の撮像装置であって、
     前記nを4以上とし、前記デフォーカス量算出部は、前記2つのグループの各々の前記列方向において同一位置にある前記第一の画素セルの出力信号同士を加算して得られる出力信号群と、当該2つのグループの各々の前記列方向において同一位置にある前記第二の画素セルの出力信号同士を加算して得られる出力信号群とを用いて、当該2つのグループの各々についての前記位相差を算出する撮像装置。
  5.  請求項1~4のいずれか1項記載の撮像装置であって、
     前記第一の画素セル行と前記第一の画素セル行に近接する前記第二の画素セル行とによりペアが構成され、
     前記撮像素子は前記2つのグループからなる単位グループを複数有し、
     前記複数の単位グループは、前記ペアを構成する2つの画素セル行間の距離が異なる複数種類の単位グループを含む撮像装置。
  6.  撮影光学系の瞳領域の異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を出力する複数の第一画素セルを含み当該複数の第一画素セルが行方向に決められた周期で配置される複数の第一の画素セル行と、前記一対の光束の他方を受光し受光量に応じた信号を出力する複数の第二画素セルを含み当該複数の第二画素セルが前記行方向に前記周期で配置される複数の第二の画素セル行とを含み、前記第一の画素セル行及び前記第二の画素セル行が前記行方向に直交する列方向に交互に配列される撮像素子に対し、前記画素セル行毎に露光期間をずらし、各画素セル行に含まれる前記第一画素セル又は前記第二画素セルから、前記露光期間中の受光量に応じた信号を読み出す駆動を行う駆動ステップと、
     前記第一画素セルの出力信号と前記第二画素セルの出力信号とを用いてデフォーカス量を算出するデフォーカス量算出ステップと、
     算出した前記デフォーカス量に基づいて前記撮像光学系の合焦状態を制御する合焦制御ステップと、を備え、
     前記列方向に並ぶ画素セル行を、前記列方向に続けて並ぶ偶数個の画素セル行ずつのグループであって、前記第一の画素セル行と前記第二の画素セル行を同数含むグループに分け、
     前記駆動ステップでは、前記列方向に続けて並ぶ2つのグループの一方において隣り合う2つの画素セル行の当該一方のグループにおける露光開始順を、前記2つのグループの他方において当該2つの画素セル行と対応する位置にある2つの画素セル行の当該他方のグループにおける露光開始順とは逆にする駆動を行う撮像方法。
  7.  請求項6記載の撮像方法であって、
     前記デフォーカス量算出ステップでは、前記列方向に続けて並ぶ2つのグループの一方のグループについては、前記第一の画素セル行に含まれる前記第一画素セルの出力信号群に対する、前記第二の画素セル行に含まれる前記第二画素セルの出力信号群の位相差を算出し、他方のグループについては、前記第二の画素セル行に含まれる前記第二画素セルの出力信号群に対する、前記第一の画素セル行に含まれる前記第一画素セルの出力信号群の位相差を算出し、算出した2つの位相差の差分に基づいてデフォーカス量を算出する撮像方法。
PCT/JP2013/062254 2012-06-07 2013-04-25 撮像装置及び撮像方法 WO2013183381A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014519880A JP5677628B2 (ja) 2012-06-07 2013-04-25 撮像装置及び撮像方法
CN201380029918.2A CN104380712B (zh) 2012-06-07 2013-04-25 摄像装置及摄像方法
US14/562,009 US9344646B2 (en) 2012-06-07 2014-12-05 Imaging device and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012129815 2012-06-07
JP2012-129815 2012-06-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/562,009 Continuation US9344646B2 (en) 2012-06-07 2014-12-05 Imaging device and imaging method

Publications (1)

Publication Number Publication Date
WO2013183381A1 true WO2013183381A1 (ja) 2013-12-12

Family

ID=49711782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062254 WO2013183381A1 (ja) 2012-06-07 2013-04-25 撮像装置及び撮像方法

Country Status (4)

Country Link
US (1) US9344646B2 (ja)
JP (1) JP5677628B2 (ja)
CN (1) CN104380712B (ja)
WO (1) WO2013183381A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5319347B2 (ja) * 2009-03-17 2013-10-16 キヤノン株式会社 撮像装置及びその制御方法
CN108648238B (zh) * 2018-04-25 2021-09-14 深圳市商汤科技有限公司 虚拟角色驱动方法及装置、电子设备和存储介质
CN114257752B (zh) * 2021-12-23 2024-02-02 深圳市先地图像科技有限公司 一种激光直接成像设备曝光图像的方法及相关设备
CN114257746A (zh) * 2021-12-23 2022-03-29 深圳市先地图像科技有限公司 一种激光直接成像设备曝光图像的方法及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128579A (ja) * 2007-11-22 2009-06-11 Nikon Corp 焦点検出装置および撮像装置
JP2010054968A (ja) * 2008-08-29 2010-03-11 Canon Inc 撮像装置、自動焦点検出装置及びその制御方法
JP2012238951A (ja) * 2011-05-10 2012-12-06 Nikon Corp 撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592147B2 (ja) * 1998-08-20 2004-11-24 キヤノン株式会社 固体撮像装置
JP4434797B2 (ja) * 2004-03-19 2010-03-17 オリンパス株式会社 撮像素子および撮像装置
JP5040458B2 (ja) * 2007-06-16 2012-10-03 株式会社ニコン 固体撮像素子及びこれを用いた撮像装置
JP5219865B2 (ja) * 2008-02-13 2013-06-26 キヤノン株式会社 撮像装置及び焦点制御方法
JP2010279016A (ja) * 2009-04-30 2010-12-09 Sony Corp 固体撮像素子とその駆動方法および撮像装置
JP5249136B2 (ja) * 2009-06-11 2013-07-31 キヤノン株式会社 撮像装置
JP2011059337A (ja) * 2009-09-09 2011-03-24 Fujifilm Corp 撮像装置
KR102126505B1 (ko) * 2013-11-07 2020-06-24 삼성전자주식회사 디지털 촬영 장치 및 그 제어방법
JP2015122706A (ja) * 2013-12-25 2015-07-02 ソニー株式会社 制御装置、制御方法および制御システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128579A (ja) * 2007-11-22 2009-06-11 Nikon Corp 焦点検出装置および撮像装置
JP2010054968A (ja) * 2008-08-29 2010-03-11 Canon Inc 撮像装置、自動焦点検出装置及びその制御方法
JP2012238951A (ja) * 2011-05-10 2012-12-06 Nikon Corp 撮像装置

Also Published As

Publication number Publication date
JPWO2013183381A1 (ja) 2016-01-28
US20150092093A1 (en) 2015-04-02
CN104380712B (zh) 2016-06-22
US9344646B2 (en) 2016-05-17
CN104380712A (zh) 2015-02-25
JP5677628B2 (ja) 2015-02-25

Similar Documents

Publication Publication Date Title
JP5690974B2 (ja) 撮像装置及び合焦制御方法
JP5542249B2 (ja) 撮像素子及びこれを用いた撮像装置及び撮像方法
JP5775976B2 (ja) 撮像装置、デフォーカス量演算方法、及び撮像光学系
JP5690977B2 (ja) 撮像素子及び撮像装置
JP5750550B2 (ja) 撮像装置及び合焦制御方法
JP5948492B2 (ja) 撮像装置及び合焦制御方法
JP5799178B2 (ja) 撮像装置及び合焦制御方法
JPWO2014087807A1 (ja) 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
WO2014091854A1 (ja) 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム
JP5677625B2 (ja) 信号処理装置、撮像装置、信号補正方法
JP5872122B2 (ja) 撮像装置及び合焦制御方法
WO2015122061A1 (ja) 撮像装置及び合焦制御方法
JP5542248B2 (ja) 撮像素子及び撮像装置
WO2015141081A1 (ja) 撮像装置及び合焦制御方法
JP5677628B2 (ja) 撮像装置及び撮像方法
WO2014065004A1 (ja) 撮像装置及びその合焦制御方法
JP2016029750A (ja) 撮像装置、信号処理方法、信号処理プログラム
WO2014185239A1 (ja) 画像データのオプティカル・ブラック補正装置およびその動作制御方法
WO2013145887A1 (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13801318

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014519880

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13801318

Country of ref document: EP

Kind code of ref document: A1