JP6459183B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6459183B2
JP6459183B2 JP2014033994A JP2014033994A JP6459183B2 JP 6459183 B2 JP6459183 B2 JP 6459183B2 JP 2014033994 A JP2014033994 A JP 2014033994A JP 2014033994 A JP2014033994 A JP 2014033994A JP 6459183 B2 JP6459183 B2 JP 6459183B2
Authority
JP
Japan
Prior art keywords
pixel
photoelectric conversion
color component
signal
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014033994A
Other languages
Japanese (ja)
Other versions
JP2015159472A (en
Inventor
宣孝 平間
宣孝 平間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014033994A priority Critical patent/JP6459183B2/en
Publication of JP2015159472A publication Critical patent/JP2015159472A/en
Application granted granted Critical
Publication of JP6459183B2 publication Critical patent/JP6459183B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Solid State Image Pick-Up Elements (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

ベイヤー配列の規則にしたがう色フィルタを通して撮像された画像データに対し、各画素位置において不足する色成分のデータを補間する技術が知られている(特許文献1参照)。   There is known a technique for interpolating deficient color component data at each pixel position with respect to image data captured through a color filter according to a Bayer array rule (see Patent Document 1).

日本国特許第5147577号公報Japanese Patent No. 5147777

従来技術は、1画素につき1つの光電変換部(フォトダイオード)が設けられた場合のもので、1画素につき複数の光電変換部が設けられた場合の検討がなされていなかった。   The prior art is a case where one photoelectric conversion unit (photodiode) is provided for each pixel, and has not been studied when a plurality of photoelectric conversion units are provided for each pixel.

本発明による撮像素子は、被写体光の第1の色成分を画素内の複数の光電変換部でそれぞれ受光して第1の色成分に対応する複数の光電変換信号をそれぞれ出力する複数の第1画素と、被写体光の第2の色成分を画素内の複数の光電変換部でそれぞれ受光して第2の色成分に対応する複数の光電変換信号をそれぞれ出力する複数の第2画素と、を有する撮像素子と、第1画素による複数の光電変換信号を第1画素ごとに加算するとともに、第2画素による複数の光電変換信号を第2画素ごとに加算する加算部と、加算部による加算後の第1の色成分の信号および第2の色成分の信号で構成される対象画像に対し、各画素位置において不足する色成分の信号を周辺の画素位置における信号を用いて補間する補間処理部と、加算部による加算前の、第1位置の第1画素の複数の光電変換部のうちの一つの光電変換信号と、加算部による加算前の、第1位置と異なる第2位置の第1画素の複数の光電変換部のうちの一つの光電変換信号と、に基づいて画像構造の方向を検出し、対象画像の各画素位置において不足する色成分の信号を検出した方向の周辺の画素位置の信号を用いて補間するように、補間処理部を制御する制御部と、を備える。 The image sensor according to the present invention receives a first color component of subject light by a plurality of photoelectric conversion units in a pixel and outputs a plurality of first photoelectric conversion signals corresponding to the first color component. A plurality of second pixels that respectively receive a second color component of subject light by a plurality of photoelectric conversion units in the pixel and output a plurality of photoelectric conversion signals corresponding to the second color component; An image pickup device having an image sensor, a plurality of photoelectric conversion signals from the first pixel added for each first pixel, a plurality of photoelectric conversion signals from the second pixel added to each second pixel, and an addition by the adder An interpolation processing unit that interpolates a signal of a color component that is insufficient at each pixel position using a signal at a peripheral pixel position with respect to a target image composed of the first color component signal and the second color component signal If, before the addition by the addition section Among the photoelectric conversion signals of one of the plurality of photoelectric conversion units of the first pixel at the first position and the plurality of photoelectric conversion units of the first pixel at the second position different from the first position before addition by the addition unit The direction of the image structure is detected on the basis of the one photoelectric conversion signal, and the color component signal that is deficient at each pixel position of the target image is interpolated using the signals of the pixel positions around the detected direction. And a control unit for controlling the interpolation processing unit.

本発明によれば、1画素に複数の光電変換部を有する場合において適切に補間できる。   According to the present invention, it is possible to appropriately interpolate when one pixel has a plurality of photoelectric conversion units.

本発明の一実施の形態によるデジタルカメラを例示するブロック図である。1 is a block diagram illustrating a digital camera according to an embodiment of the present invention. 撮像素子に設けられた通常画素を説明する図である。It is a figure explaining the normal pixel provided in the image sensor. 図3(a)は通常画素から出力された光電変換信号の並びを例示する図、図3(b)はG色成分の信号の補間を説明する図、図3(c)は補間後のG色成分の信号を例示する図である。3A is a diagram illustrating the arrangement of photoelectric conversion signals output from normal pixels, FIG. 3B is a diagram illustrating interpolation of G color component signals, and FIG. 3C is a diagram illustrating G after interpolation. It is a figure which illustrates the signal of a color component. 図4(a)は図3(a)からR色成分の信号を抽出した図、図4(b)は色差成分Crの補間を説明する図、図4(c)は色差成分Crの信号の補間を説明する図である。4A is a diagram obtained by extracting the R color component signal from FIG. 3A, FIG. 4B is a diagram illustrating interpolation of the color difference component Cr, and FIG. 4C is a diagram illustrating the signal of the color difference component Cr. It is a figure explaining interpolation. 図5(a)は図3(a)からB色成分の信号を抽出した図、図5(b)は色差成分Cbの補間を説明する図、図5(c)は色差成分Cbの信号の補間を説明する図である。5A is a diagram obtained by extracting the B color component signal from FIG. 3A, FIG. 5B is a diagram illustrating interpolation of the color difference component Cb, and FIG. 5C is a diagram illustrating the signal of the color difference component Cb. It is a figure explaining interpolation. 撮像素子に設けられた焦点検出用画素を説明する図である。It is a figure explaining the pixel for focus detection provided in the image sensor. 焦点検出用画素から出力された光電変換信号に基づく画像用の信号を説明する図である。It is a figure explaining the signal for an image based on the photoelectric conversion signal output from the pixel for focus detection. 方向判定を説明する図である。It is a figure explaining direction determination. 補間対象とする注目画素および周辺画素の位置を示す図である。It is a figure which shows the position of the attention pixel and surrounding pixel made into interpolation object.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態によるデジタルカメラ1を例示するブロック図である。デジタルカメラ1には、撮像光学系として撮影レンズ2が装着される。撮影レンズ2は、マイクロプロセッサ9から指示を受けたレンズ制御部2aによって、フォーカシングレンズや絞りが駆動制御される。撮影レンズ2は、撮像素子3の撮像面に被写体像を結像させる。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a digital camera 1 according to an embodiment of the present invention. The digital camera 1 is equipped with a photographing lens 2 as an imaging optical system. In the photographic lens 2, the focusing lens and the diaphragm are driven and controlled by the lens control unit 2 a that receives an instruction from the microprocessor 9. The photographing lens 2 forms a subject image on the imaging surface of the image sensor 3.

撮像素子3は、マイクロプロセッサ9から指示を受けた撮像制御部4からの駆動信号に基づいて、被写体像を光電変換する。撮像素子3から出力される光電変換信号は、信号処理部5、およびA/D変換部6を介して処理された後、メモリ7に一旦蓄積される。なお、信号処理部5やA/D変換部6を撮像素子3に含める構成にしてもよい。バス8には、レンズ制御部2a、撮像制御部4、メモリ7、マイクロプロセッサ9、焦点演算部(検出処理部)10、記録部11、画像圧縮部12および画像処理部13などが接続される。   The image pickup device 3 photoelectrically converts the subject image based on the drive signal from the image pickup control unit 4 that has received an instruction from the microprocessor 9. The photoelectric conversion signal output from the image sensor 3 is processed through the signal processing unit 5 and the A / D conversion unit 6 and then temporarily stored in the memory 7. Note that the image sensor 3 may include the signal processing unit 5 and the A / D conversion unit 6. Connected to the bus 8 are a lens control unit 2a, an imaging control unit 4, a memory 7, a microprocessor 9, a focus calculation unit (detection processing unit) 10, a recording unit 11, an image compression unit 12, an image processing unit 13, and the like. .

マイクロプロセッサ9には、レリーズボタンなどを含む操作部9aから操作信号が入力される。マイクロプロセッサ9は、操作部9aからの操作信号に基づいて各ブロックへ指示を送り、デジタルカメラ1の撮影動作を制御する。焦点演算部10は、撮像素子3から出力された光電変換信号であって焦点検出用の信号を用いて公知の位相差検出演算を行うことにより、撮像レンズ2による焦点調節状態(具体的にはデフォーカス量)を検出する。焦点検出用の信号は、後述する焦点検出用画素32(図4)から出力された光電変換信号である。マイクロプロセッサ9は、デフォーカス量に応じてレンズ制御部2aへフォーカシングレンズの駆動を指示する。   An operation signal is input to the microprocessor 9 from an operation unit 9a including a release button. The microprocessor 9 sends an instruction to each block based on the operation signal from the operation unit 9a, and controls the photographing operation of the digital camera 1. The focus calculation unit 10 performs a known phase difference detection calculation using a photoelectric conversion signal output from the image sensor 3 and a focus detection signal, thereby adjusting the focus adjustment state (specifically, the imaging lens 2). Defocus amount) is detected. The focus detection signal is a photoelectric conversion signal output from a focus detection pixel 32 (FIG. 4) described later. The microprocessor 9 instructs the lens control unit 2a to drive the focusing lens according to the defocus amount.

画像処理部13は、撮像素子3から出力された光電変換信号であって画像用の信号に対して後述する補間処理を含む所定の画像処理を行う。本実施形態では、後述する通常画素31(図2)の光電変換部から出力された光電変換信号と、焦点検出用画素32(図4)から出力された光電変換信号であって同じ画素内の複数の光電変換部から出力された信号を加算した光電変換信号と、を画像用の信号とする。   The image processing unit 13 performs predetermined image processing including interpolation processing, which will be described later, on the photoelectric conversion signal output from the image sensor 3 and the image signal. In the present embodiment, a photoelectric conversion signal output from a photoelectric conversion unit of a normal pixel 31 (FIG. 2), which will be described later, and a photoelectric conversion signal output from a focus detection pixel 32 (FIG. 4) within the same pixel. A photoelectric conversion signal obtained by adding signals output from a plurality of photoelectric conversion units is used as an image signal.

画像圧縮部12は、画像処理後の画像データを所定形式でデータ圧縮する。記録部11は、圧縮後の画像データを所定のファイル形式で記録媒体11aに記録する。記録媒体11aは、記録部11に対して着脱自在のメモリカードなどで構成される。   The image compression unit 12 compresses the image data after image processing in a predetermined format. The recording unit 11 records the compressed image data on the recording medium 11a in a predetermined file format. The recording medium 11 a is configured by a memory card that is detachable from the recording unit 11.

<通常画素>
図2は、撮像素子3に設けられた通常画素31を説明する図である。図2において、通常画素31が行方向(水平)および列方向(垂直)に二次元正方格子状に配列されている。1つの通常画素31は、1つのマイクロレンズ(不図示)の下に設けられた1つの光電変換部(フォトダイオード:PD)によって構成される。各画素位置には、ベイヤー配列の規則にしたがって色フィルタ(R:赤色フィルタ、G:緑色フィルタ、B:青色フィルタ)が配置される。
<Normal pixel>
FIG. 2 is a diagram illustrating the normal pixel 31 provided in the image sensor 3. In FIG. 2, normal pixels 31 are arranged in a two-dimensional square lattice pattern in the row direction (horizontal) and the column direction (vertical). One normal pixel 31 is configured by one photoelectric conversion unit (photodiode: PD) provided under one microlens (not shown). Color filters (R: red filter, G: green filter, B: blue filter) are arranged at each pixel position according to the rules of the Bayer array.

各画素位置において、配置された色フィルタの色成分と異なる色成分の信号が不足するので、画像処理部13は、周辺の画素位置における信号を用いて不足する色成分の信号を生成する色フィルタ配列補間(デモザイク)を行う。具体的には、G色成分の画素の位置の場合、R色成分の信号およびB色成分の信号が存在しないので、G色成分の画素周辺の画素位置におけるR色成分の信号を用いてR色成分の信号を生成し、G色成分の画素周辺の画素位置におけるB色成分の信号を用いてB色成分の信号を生成する。   Since the signal of the color component different from the color component of the arranged color filter is insufficient at each pixel position, the image processing unit 13 generates a signal of the insufficient color component using the signal at the peripheral pixel position. Perform array interpolation (demosaic). Specifically, in the case of the position of the G color component pixel, there is no R color component signal and no B color component signal, so that the R color component signal at the pixel position around the G color component pixel is used for R. A color component signal is generated, and a B color component signal is generated using a B color component signal at pixel positions around the G color component pixel.

同様に、R色成分の画素位置の場合は、G色成分の信号およびB色成分の信号が存在しないので、R色成分の画素周辺の画素位置におけるG色成分の信号を用いてG色成分の信号を生成し、R色成分の画素周辺の画素位置におけるB色成分の信号を用いてB色成分の信号を生成する。   Similarly, since there is no G color component signal and B color component signal in the case of the R color component pixel position, the G color component signal is used by using the G color component signal at the pixel positions around the R color component pixel. The B color component signal is generated using the B color component signal at the pixel positions around the R color component pixel.

さらに、B色成分の画素位置の場合は、G色成分の信号およびR色成分の信号が存在しないので、B色成分の画素周辺の画素位置におけるG色成分の信号を用いてG色成分の信号を生成し、B色成分の画素周辺の画素位置におけるR色成分の信号を用いてR色成分の信号を生成する。このような通常画素31の場合の補間処理は公知であるが、以下に一例を説明する。   Further, in the case of the pixel position of the B color component, since the signal of the G color component and the signal of the R color component do not exist, the G color component signal at the pixel position around the B color component pixel is used. A signal is generated, and an R color component signal is generated using an R color component signal at a pixel position around the B color component pixel. The interpolation processing in the case of such a normal pixel 31 is known, but an example will be described below.

<G色補間>
図3(a)は、通常画素31から出力された光電変換信号の並びを例示する図である。各画素位置に対応して、ベイヤー配列の規則にしたがってR、G、Bのいずれかの色成分を有する。G色補間を行う画像処理部13は、R色成分およびB色成分の位置を順番に注目位置として、注目位置の周囲に位置する4つのG色成分の光電変換信号を用いて注目位置におけるG色成分の信号を補間処理によって生成する。例えば、図3(b)の太枠で示す注目位置においてG色成分の信号を補間する場合、注目位置の近傍に位置する4つのG色成分の光電変換信号を用いる。画像処理部13は、例えば(aG1+bG2+cG3+dG4)/4を、注目位置におけるG色成分の信号とする。なお、a〜dは近傍の位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。
<G color interpolation>
FIG. 3A is a diagram illustrating the arrangement of photoelectric conversion signals output from the normal pixels 31. Corresponding to each pixel position, it has one of R, G, and B color components according to the rules of the Bayer array. The image processing unit 13 that performs G color interpolation sets the positions of the R color component and the B color component as the target position in order, and uses the photoelectric conversion signals of the four G color components positioned around the target position to perform G at the target position. A color component signal is generated by interpolation processing. For example, when a G color component signal is interpolated at a target position indicated by a thick frame in FIG. 3B, four G color component photoelectric conversion signals located in the vicinity of the target position are used. The image processing unit 13 uses, for example, (aG1 + bG2 + cG3 + dG4) / 4 as a G color component signal at the target position. Note that a to d are weighting coefficients provided according to the distance between the position in the vicinity and the target position and the image structure.

画像処理部13は、B色成分の位置およびR色成分の位置においてそれぞれG色成分の信号を補間する処理を行うことで、図3(c)に示すように、通常画素31の各位置においてG色成分の信号を得ることができる。   The image processing unit 13 performs a process of interpolating the G color component signal at each of the B color component position and the R color component position, so that the image processing unit 13 performs the process at each position of the normal pixel 31 as shown in FIG. A signal of G color component can be obtained.

<R色補間>
図4(a)は、図3(a)からR色成分の信号を抽出した図である。R色補間を行う画像処理部13は、図3(a)におけるB色成分およびG色成分の位置を順番に注目位置として、注目位置の周囲に位置する4つのR色成分の光電変換信号を用いて注目位置におけるR色成分の信号を補間処理によって生成する。画像処理部13は、図3(c)に示すG色成分の信号と図4(a)に示すR色成分の信号とに基づいて図4(b)に示す色差成分Crの信号を算出する。
<R color interpolation>
FIG. 4A is a diagram obtained by extracting R color component signals from FIG. The image processing unit 13 that performs R color interpolation uses the positions of the B color component and the G color component in FIG. 3A as the target position in order, and outputs photoelectric conversion signals of four R color components positioned around the target position. The R color component signal at the target position is generated by interpolation processing. The image processing unit 13 calculates a color difference component Cr signal shown in FIG. 4B based on the G color component signal shown in FIG. 3C and the R color component signal shown in FIG. .

画像処理部13はさらに、図4(b)の太枠で示す注目位置において色差成分Crの信号を補間する場合、注目位置の近傍に位置する4つの色差成分Crの信号を用いる。画像処理部13は、例えば(eCr1+fCr2+gCr3+hCr4)/4を、注目位置における色差成分Crの信号とする。なお、e〜hは近傍の位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。   Further, when the color difference component Cr signal is interpolated at the target position indicated by the thick frame in FIG. 4B, the image processing unit 13 uses four color difference component Cr signals located in the vicinity of the target position. For example, the image processing unit 13 sets (eCr1 + fCr2 + gCr3 + hCr4) / 4 as a signal of the color difference component Cr at the target position. Note that e to h are weighting coefficients provided according to the distance between the position in the vicinity and the target position and the image structure.

同様に、画像処理部13は図4(c)の太枠で示す注目位置において色差成分Crの信号を補間する場合、注目位置の近傍に位置する4つの色差成分Crの信号を用いる。画像処理部13は、例えば(qCr2+rCr4+sCr5+tCr6)/4を、注目位置における色差成分Crの信号とする。なお、q〜tは近傍の位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。   Similarly, when the color difference component Cr signal is interpolated at the target position indicated by the thick frame in FIG. 4C, the image processing unit 13 uses four color difference component Cr signals located in the vicinity of the target position. For example, the image processing unit 13 sets (qCr2 + rCr4 + sCr5 + tCr6) / 4 as a signal of the color difference component Cr at the target position. Note that q to t are weighting coefficients provided according to the distance between the position in the vicinity and the position of interest and the image structure.

画像処理部13は、通常画素31の各位置において色差成分Crの信号を得たのち、各画素位置に対応させて図3(c)に示すG色成分の信号を加算することにより、通常画素31の各位置においてR色成分の信号を得ることができる。   The image processing unit 13 obtains the color difference component Cr signal at each position of the normal pixel 31, and then adds the G color component signal shown in FIG. An R color component signal can be obtained at each of the 31 positions.

<B色補間>
図5(a)は、図3(a)からB色成分の信号を抽出した図である。B色補間を行う画像処理部13は、図3(a)におけるR色成分およびG色成分の位置を注目位置として、注目位置の周囲に位置する4つのB色成分の光電変換信号を用いて注目位置におけるB色成分の信号を補間処理によって生成する。画像処理部13は、図3(c)に示すG色成分の信号と図5(a)に示すB色成分の信号とに基づいて図5(b)に示す色差成分Cbの信号を算出する。
<B color interpolation>
FIG. 5A is a diagram obtained by extracting the B color component signal from FIG. The image processing unit 13 that performs B color interpolation uses the positions of the R color component and the G color component in FIG. 3A as the target position, and uses the photoelectric conversion signals of the four B color components positioned around the target position. A B color component signal at the position of interest is generated by interpolation processing. The image processing unit 13 calculates a color difference component Cb signal shown in FIG. 5B based on the G color component signal shown in FIG. 3C and the B color component signal shown in FIG. .

画像処理部13はさらに、図5(b)の太枠で示す注目位置において色差成分Cbの信号を補間する場合、注目位置の近傍に位置する4つの色差成分Cbの信号を用いる。画像処理部13は、例えば(uCb1+vCb2+wCb3+xCb4)/4を、注目位置における色差成分Cbの信号とする。なお、u〜xは近傍の位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。   Further, when the signal of the color difference component Cb is interpolated at the target position indicated by the thick frame in FIG. 5B, the image processing unit 13 uses the signals of the four color difference components Cb located in the vicinity of the target position. For example, the image processing unit 13 sets (uCb1 + vCb2 + wCb3 + xCb4) / 4 as a signal of the color difference component Cb at the target position. Note that u to x are weighting coefficients provided according to the distance between the position in the vicinity and the target position and the image structure.

同様に、画像処理部13は図5(c)の太枠で示す注目位置において色差成分Cbの信号を補間する場合、注目位置の近傍に位置する4つの色差成分Cbの信号を用いる。画像処理部13は、例えば(yCb2+zCb4+αCb5+βCb6)/4を、注目位置における色差成分Cbの信号とする。なお、y、z、α、βは近傍の位置と注目位置との間の距離や画像構造に応じて設けられる重み係数である。   Similarly, when the signal of the color difference component Cb is interpolated at the target position indicated by the thick frame in FIG. 5C, the image processing unit 13 uses the signals of the four color difference components Cb located in the vicinity of the target position. For example, the image processing unit 13 uses (yCb2 + zCb4 + αCb5 + βCb6) / 4 as a signal of the color difference component Cb at the target position. Note that y, z, α, and β are weighting coefficients provided in accordance with the distance between the nearby position and the target position and the image structure.

画像処理部13は、通常画素31の各位置において色差成分Cbの信号を得たのち、各画素位置に対応させて図3(c)に示すG色成分の信号を加算することにより、通常画素31の各位置においてB色成分の信号を得ることができる。   The image processing unit 13 obtains the color difference component Cb signal at each position of the normal pixel 31, and then adds the G color component signal shown in FIG. B color component signals can be obtained at the 31 positions.

<焦点検出用画素>
図6は、撮像素子3に設けられた焦点検出用画素32を説明する図である。撮像素子3の撮像面のうち、焦点演算部10が焦点調節状態の検出に用いるAFエリアに対応する位置には、通常画素31の代わりに焦点検出用画素32が配置される。図6において、焦点検出用画素32は、1つのマイクロレンズ(不図示)の下に設けられた2つの光電変換部(フォトダイオード:PD)によって構成される。1画素当たり2つの光電変換部を有する2PD構成の場合、2つの光電変換部が水平方向に並ぶ場合(水平分割と呼ぶ)と、2つの光電変換部が垂直方向に並ぶ場合(垂直分割と呼ぶ)とが存在する。図6は、水平分割の場合を例示した図である。垂直分割の場合は、行方向および列方向を入れ替えて考えればよい。
<Focus detection pixel>
FIG. 6 is a diagram illustrating the focus detection pixels 32 provided in the image sensor 3. A focus detection pixel 32 is disposed instead of the normal pixel 31 at a position corresponding to the AF area used by the focus calculation unit 10 to detect the focus adjustment state on the image pickup surface of the image pickup device 3. In FIG. 6, the focus detection pixel 32 includes two photoelectric conversion units (photodiodes: PD) provided under one microlens (not shown). In the case of a 2PD configuration having two photoelectric conversion units per pixel, two photoelectric conversion units are arranged in a horizontal direction (referred to as horizontal division), and two photoelectric conversion units are arranged in a vertical direction (referred to as vertical division). ) And exist. FIG. 6 is a diagram illustrating the case of horizontal division. In the case of vertical division, the row direction and the column direction may be interchanged.

焦点検出用画素32における2つの光電変換部には、それぞれ撮影レンズ2の異なる領域を介して入射された光が入射される。すなわち、焦点演算部10が位相差検出演算に用いる一対の被写体光束が入射される。   Light that has entered through the different regions of the photographic lens 2 is incident on the two photoelectric conversion units in the focus detection pixel 32. That is, a pair of subject light beams used by the focus calculation unit 10 for phase difference detection calculation are incident.

上述したように、本実施形態では通常画素31の光電変換部から出力された光電変換信号と、焦点検出用画素32から出力された光電変換信号であって同じ画素における複数の光電変換部から出力された信号を加算した光電変換信号とを、画像用の信号として扱う。このため、焦点検出用画素32と通常画素31とに同じ強さの光が入射された場合において、焦点検出用画素32における2つの光電変換部から出力された光電変換信号の和が通常画素31から出力された光電変換信号と同等レベルになるように、焦点検出用画素32に設けられる2つの光電変換部のサイズと、通常画素31に設けられる1つの光電変換部のサイズとが最適化されている。   As described above, in the present embodiment, the photoelectric conversion signal output from the photoelectric conversion unit of the normal pixel 31 and the photoelectric conversion signal output from the focus detection pixel 32 and output from a plurality of photoelectric conversion units in the same pixel. The photoelectric conversion signal obtained by adding the obtained signals is handled as an image signal. For this reason, when light of the same intensity is incident on the focus detection pixel 32 and the normal pixel 31, the sum of the photoelectric conversion signals output from the two photoelectric conversion units in the focus detection pixel 32 is the normal pixel 31. The size of the two photoelectric conversion units provided in the focus detection pixel 32 and the size of one photoelectric conversion unit provided in the normal pixel 31 are optimized so that the level is equivalent to the photoelectric conversion signal output from ing.

図7は、焦点検出用画素32の2つの光電変換部から出力された光電変換信号に基づく画像用の信号を説明する図である。1つの画素位置における2つの光電変換部が同色の色フィルタを通して受光するので、2つの光電変換信号を加算して当該画素を代表する画像用信号を生成する。焦点検出用画素32にも、通常画素31の場合と同様にベイヤー配列の規則にしたがって色フィルタが配置される。このため、画像処理部13は図7のような加算後の光電変換信号に対し、各画素位置において不足する色成分の信号を周辺の画素位置における信号を用いて生成する色フィルタ配列補間を行う。   FIG. 7 is a diagram illustrating an image signal based on the photoelectric conversion signals output from the two photoelectric conversion units of the focus detection pixel 32. Since the two photoelectric conversion units at one pixel position receive light through the same color filter, the two photoelectric conversion signals are added to generate an image signal representing the pixel. Similarly to the normal pixel 31, color filters are arranged also on the focus detection pixel 32 according to the Bayer array rules. For this reason, the image processing unit 13 performs color filter array interpolation on the photoelectric conversion signal after addition as shown in FIG. 7 to generate a signal of a color component that is insufficient at each pixel position by using a signal at a surrounding pixel position. .

すなわち、補間処理の手順は、
1.加算前の光電変換信号に基づく方向判定
2.加算後の光電変換信号に基づく補間
の順に行う。
In other words, the procedure of the interpolation process is
1. 1. Direction determination based on photoelectric conversion signal before addition Interpolation is performed in the order based on the photoelectric conversion signal after the addition.

<方向判定>
図8は、方向判定を説明する図であり、図6の焦点検出用画素32から出力された光電変換信号の並びの一部を拡大した図である。図8において、補間対象とする画素位置における2つの光電変換部に対応する位置(以下注目位置と呼ぶ)(i,j)および(i+1,j)を、それぞれ斜線および横線で示す。画像処理部13は、注目位置(i,j)および(i+1,j)のそれぞれにおいて、不足する色成分(例えばG成分)に関して画像構造の方向判定を行う。画像処理部13は、注目位置(i,j)および(i+1,j)の周囲の6つの位置(i-1,j)、(i+2,j)、(i,j-1)、(i,j+1)、(i+1,j-1)、および(i+1,j+1)の光電変換信号を用いて次式(1)〜(8)により方向判定を行う。なお、図8では上記6つの位置を丸印で示す。
<Direction determination>
FIG. 8 is a diagram for explaining the direction determination, and is an enlarged view of a part of the array of photoelectric conversion signals output from the focus detection pixels 32 of FIG. In FIG. 8, positions (i, j) and (i + 1, j) corresponding to two photoelectric conversion units (hereinafter referred to as attention positions) at pixel positions to be interpolated are indicated by diagonal lines and horizontal lines, respectively. The image processing unit 13 determines the direction of the image structure with respect to an insufficient color component (eg, G component) at each of the positions of interest (i, j) and (i + 1, j). The image processing unit 13 includes six positions (i−1, j), (i + 2, j), (i, j−1) around the positions of interest (i, j) and (i + 1, j). , (I, j + 1), (i + 1, j-1), and (i + 1, j + 1) are used to determine the direction by the following equations (1) to (8). . In FIG. 8, the above six positions are indicated by circles.

Figure 0006459183
ただし、閾値th_1およびth_2 は所定値であり、ノイズによる光電変換信号の揺らぎ幅の数倍程度に設定する。
Figure 0006459183
However, the thresholds th_1 and th_2 are predetermined values, and are set to about several times the fluctuation width of the photoelectric conversion signal due to noise.

画像処理部13は、上式(1)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造は横(行)方向と判定する。   When the above equation (1) is established, the image processing unit 13 determines that the image structure is the horizontal (row) direction with respect to the G color component at the target position (i, j).

画像処理部13は、上式(2)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造は横(行)方向と判定する。   When the above equation (2) is established, the image processing unit 13 determines that the image structure is the horizontal (row) direction with respect to the G color component at the target position (i + 1, j).

画像処理部13は、上式(3)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造は縦(列)方向と判定する。   When the above equation (3) is established, the image processing unit 13 determines that the image structure is the vertical (column) direction with respect to the G color component at the target position (i, j).

画像処理部13は、上式(4)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造は縦(列)方向と判定する。   When the above equation (4) is established, the image processing unit 13 determines that the image structure is the vertical (column) direction with respect to the G color component at the target position (i + 1, j).

画像処理部13は、上式(5)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造の角がある(エッジの角がある)と判定する。   When the above equation (5) is established, the image processing unit 13 determines that there is a corner of the image structure (there is an edge corner) for the G color component at the target position (i, j).

画像処理部13は、上式(6)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造がない(エッジ上にない)と判定する。   When the above equation (6) is established, the image processing unit 13 determines that there is no image structure (not on the edge) for the G color component at the target position (i, j).

画像処理部13は、上式(7)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造の角がある(エッジの角がある)と判定する。   When the above equation (7) is established, the image processing unit 13 determines that there is a corner of the image structure (there is an edge corner) for the G color component at the target position (i + 1, j).

画像処理部13は、上式(8)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造がない(エッジ上にない)と判定する。   When the above equation (8) is established, the image processing unit 13 determines that there is no image structure (not on the edge) regarding the G color component at the target position (i + 1, j).

<2つの注目位置において判定結果が同じ場合>
画像処理部13は、注目位置(i,j)における判定結果と、注目位置(i+1,j)における判定結果とが同じ場合、当該判定結果を、補間対象とする画素位置における画像構造を示す情報として採用する。
<When determination results are the same at two positions of interest>
When the determination result at the target position (i, j) and the determination result at the target position (i + 1, j) are the same, the image processing unit 13 uses the determination result as the image structure at the pixel position to be interpolated. Adopt as information to show.

<2つの注目位置において判定結果が異なる場合>
(A)画像処理部13は、注目位置(i,j)における判定結果と、注目位置(i+1,j)における判定結果とが異なる場合、方向性を強く示す方を採用する。具体的には、一方の注目位置で横(行)方向または縦(列)方向と判定し、他方の注目位置で画像構造の角がある、または画像構造がないと判定した場合は、横(行)方向または縦(列)方向と判定した判定結果を、補間対象とする画素位置における画像構造を示す情報として採用する。
<When the determination results are different at the two positions of interest>
(A) The image processing unit 13 employs a method that strongly indicates directionality when the determination result at the target position (i, j) is different from the determination result at the target position (i + 1, j). Specifically, when it is determined that one of the attention positions is in the horizontal (row) direction or the vertical (column) direction, and the other attention position is determined to have a corner of the image structure or no image structure, the horizontal (row) The determination result determined as the (row) direction or the vertical (column) direction is employed as information indicating the image structure at the pixel position to be interpolated.

(B)画像処理部13は、一方の注目位置で横(行)方向と判定し、他方の注目位置で縦(列)方向と判定した場合、方向性を強く示す方を採用する。具体的には、上式(1)〜(4)において差の絶対値がより大きい判定結果を、補間対象とする画素位置における画像構造を示す情報として採用する。例えば式の前段における差の絶対値の方が後段における差の絶対値より大きい場合は縦(列)方向と判定し、式の後段における差の絶対値の方が前段における差の絶対値より大きい場合は横(行)方向と判定する。 (B) When the image processing unit 13 determines the horizontal (row) direction at one target position and determines the vertical (column) direction at the other target position, the image processing unit 13 employs a method that strongly indicates directionality. Specifically, a determination result having a larger absolute value of the difference in the above formulas (1) to (4) is adopted as information indicating the image structure at the pixel position to be interpolated. For example, if the absolute value of the difference in the previous stage of the expression is greater than the absolute value of the difference in the subsequent stage, it is determined as the vertical (column) direction, and the absolute value of the difference in the subsequent stage of the expression is greater than the absolute value of the difference in the previous stage. In this case, the horizontal (row) direction is determined.

<加算>
画像処理部13は、図9に示すように、焦点検出用画素32の各画素位置において2つの光電変換部による光電変換信号を加算する。図9は、補間対象とする注目画素(I,J)と、注目画素(I,J)の周辺画素の位置を示す図であり、図7の一部を拡大した図に相当する。図9において、図8における注目位置(i,j)および(i+1,j)に対応する画素を、改めて注目画素(I,J)とする。すなわち、注目画素(I,J)における加算後の光電変換信号は、R(I,J)=R(i,j)+R(i+1,j)である。
なお、撮像素子3において加算機能を備える場合には、加算後の光電変換信号を撮像素子3から出力させてもよい。
<Addition>
As shown in FIG. 9, the image processing unit 13 adds the photoelectric conversion signals from the two photoelectric conversion units at each pixel position of the focus detection pixel 32. FIG. 9 is a diagram illustrating the pixel of interest (I, J) to be interpolated and the positions of the peripheral pixels of the pixel of interest (I, J), and corresponds to an enlarged view of a part of FIG. In FIG. 9, the pixel corresponding to the positions of interest (i, j) and (i + 1, j) in FIG. 8 is designated as the pixel of interest (I, J). That is, the photoelectric conversion signal after addition at the target pixel (I, J) is R (I, J) = R (i, j) + R (i + 1, j).
When the image pickup device 3 has an addition function, the photoelectric conversion signal after the addition may be output from the image pickup device 3.

<G色補間>
図9において、画像処理部13は、注目画素(I,J)について不足する色成分を補間する。G成分の補間は、図3(b)を参照して説明した通常画素31の場合の算出式に代えて、注目画素(I,J)および注目画素の周囲の4つの画素位置(I-1,J)、(I,J-1)、(I,J+1)、および(I+1,J)の光電変換信号を用いて次式(9)により行う。なお、図9では上記4つの位置を丸印で示す。
<G color interpolation>
In FIG. 9, the image processing unit 13 interpolates insufficient color components for the pixel of interest (I, J). In the interpolation of the G component, instead of the calculation formula for the normal pixel 31 described with reference to FIG. 3B, the pixel of interest (I, J) and the four pixel positions around the pixel of interest (I-1 , J), (I, J-1), (I, J + 1), and (I + 1, J) photoelectric conversion signals are used according to the following equation (9). In FIG. 9, the four positions are indicated by circles.

Figure 0006459183
ただし、mは縦(列)方向の重み係数であり、nは横(行)方向の重み係数である。
Figure 0006459183
Here, m is a weighting factor in the vertical (column) direction, and n is a weighting factor in the horizontal (row) direction.

画像処理部13は、上記方向判定において横(行)方向を判定した場合は、式(9)の重み係数mを小さくして重み係数nを大きくする。   When the image processing unit 13 determines the horizontal (row) direction in the direction determination, the image processing unit 13 decreases the weighting coefficient m in Expression (9) and increases the weighting coefficient n.

画像処理部13は、上記方向判定において縦(列)方向と判定した場合は、式(9)の重み係数nを小さくして重み係数mを大きくする。   When the image processing unit 13 determines the vertical (column) direction in the direction determination, the image processing unit 13 decreases the weighting factor n in Expression (9) and increases the weighting factor m.

画像処理部13は、上記方向判定において画像構造の角がある、または画像構造がないと判定した場合は、それぞれ式(9)の重み係数m=nとする。以上の補間処理により、焦点検出用画素32の各位置においてG色成分の信号を得ることができる。   When the image processing unit 13 determines that there is a corner of the image structure or no image structure in the direction determination, the image processing unit 13 sets the weighting coefficient m = n in Expression (9), respectively. Through the above interpolation processing, a G color component signal can be obtained at each position of the focus detection pixel 32.

<R色、B色補間>
R色補間およびB色補間は、上述した焦点検出用画素32の各位置におけるG色成分の信号を用いて、通常画素31の場合と同様に行う。重み係数の決定の際に、上記方向判定の結果を用いることができる。例えば、画像構造の判定方向が横(行)方向の場合は図4、図5における注目位置の左右の信号に対する重み係数を大きくし、注目位置の上下の信号に対する重み係数を小さくする。また、画像構造の判定方向が縦(列)方向の場合は図4、図5における注目位置の上下の信号に対する重み係数を大きくし、注目位置の左右の信号に対する重み係数を小さくする。
<R color and B color interpolation>
The R color interpolation and the B color interpolation are performed in the same manner as in the case of the normal pixel 31 using the signal of the G color component at each position of the focus detection pixel 32 described above. When determining the weighting factor, the result of the direction determination can be used. For example, when the determination direction of the image structure is the horizontal (row) direction, the weighting factors for the signals on the left and right of the target position in FIGS. 4 and 5 are increased, and the weighting factors for the signals above and below the target position are decreased. When the image structure determination direction is the vertical (column) direction, the weighting factors for the signals above and below the target position in FIGS. 4 and 5 are increased, and the weighting factors for the signals at the left and right of the target position are decreased.

上述した実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1は、被写体光の第1の色成分(G)を画素内の複数の光電変換部でそれぞれ受光して第1の色成分に対応する複数の光電変換信号をそれぞれ出力する複数の第1画素と、被写体光の第2の色成分(B,R)を画素内の複数の光電変換部でそれぞれ受光して第2の色成分に対応する複数の光電変換信号をそれぞれ出力する複数の第2画素と、を有する撮像素子3と、第1画素による複数の光電変換信号を第1画素ごとに加算するとともに、第2画素による複数の光電変換信号を第2画素ごとに加算する画像処理部13と、画像処理部13による加算後の第1の色成分の信号および第2の色成分の信号で構成される対象画像に対し、各画素位置において不足する色成分の信号を周辺の画素位置における信号を用いて補間する画像処理部13と、画像処理部13による加算前の複数の光電変換信号に基づいて画像構造の方向を検出し、対象画像の各画素位置において不足する色成分の信号を検出した方向の周辺の画素位置の信号を用いて補間するように、画像処理部13を制御するマイクロプロセッサ9と、を備える。画素内に複数の光電変換部を有することで、画素内の1つの光電変換部で受光する場合に比べて画像構造の方向を精細に判定できるから、画像構造を維持して適切な補間を行うことができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The digital camera 1 receives the first color component (G) of the subject light by a plurality of photoelectric conversion units in the pixel, and outputs a plurality of photoelectric conversion signals corresponding to the first color component, respectively. The plurality of first pixels and the second color component (B, R) of the subject light are respectively received by the plurality of photoelectric conversion units in the pixel, and a plurality of photoelectric conversion signals corresponding to the second color component are respectively output. The image sensor 3 having a plurality of second pixels, and a plurality of photoelectric conversion signals by the first pixel are added for each first pixel, and a plurality of photoelectric conversion signals by the second pixel are added for each second pixel And a color component signal that is insufficient at each pixel position with respect to a target image composed of the first color component signal and the second color component signal after addition by the image processing unit 13. Interpolate using signals at surrounding pixel locations Based on the image processing unit 13 and a plurality of photoelectric conversion signals before addition by the image processing unit 13, the direction of the image structure is detected, and the color component signal that is insufficient at each pixel position of the target image is detected in the vicinity of the direction of the detected direction. And a microprocessor 9 that controls the image processing unit 13 so as to interpolate using the signal of the pixel position. By having a plurality of photoelectric conversion units in the pixel, the direction of the image structure can be determined more finely than in the case where light is received by one photoelectric conversion unit in the pixel, so that appropriate interpolation is performed while maintaining the image structure. be able to.

(2)画像処理部13は、補間対象画素の周辺の画素位置のうち検出した方向に沿った画素位置の信号を用いて補間対象画素における加算後の信号を補間するので、精細に判定した方向に沿った周辺の画素位置の信号を用いて適切に補間できる。 (2) Since the image processing unit 13 interpolates the signal after the addition in the interpolation target pixel using the signal of the pixel position along the detected direction among the pixel positions around the interpolation target pixel, the direction determined with high precision Can be appropriately interpolated using the signals of the surrounding pixel positions along the line.

(3)第1画素はそれぞれ、第1の色成分の光を2つの光電変換部でそれぞれ受光して2つの光電変換信号を出力し、第2画素はそれぞれ、第2の色成分の光を2つの光電変換部でそれぞれ受光して2つの光電変換信号を出力するので、いわゆる2PD構造において、画像構造を維持して適切な補間を行うことができる。 (3) Each of the first pixels receives the light of the first color component by the two photoelectric conversion units and outputs two photoelectric conversion signals, and each of the second pixels receives the light of the second color component. Since the two photoelectric conversion units respectively receive light and output two photoelectric conversion signals, it is possible to perform appropriate interpolation while maintaining the image structure in the so-called 2PD structure.

(4)マイクロプロセッサ9は、対象とする画素位置において検出した方向が2つの場合に、2つのうち強く検出した方向を採用するように画像処理部13を制御するので、画像構造に応じた適切な補間を行うことができる。 (4) When there are two directions detected at the target pixel position, the microprocessor 9 controls the image processing unit 13 so as to adopt the direction detected strongly among the two, so that it is appropriate according to the image structure. Interpolation can be performed.

(5)第1画素および第2画素は焦点検出用画素32であり、画素内の複数の光電変換部は、それぞれ撮影レンズ2の異なる領域を通過した光束を受光して複数の光電変換信号を出力するようにした。これにより、焦点検出用画素32における画素内の光電変換信号を加算して画像用信号を得る場合において、画像構造を維持して適切な補間を行うことができる。 (5) The first pixel and the second pixel are focus detection pixels 32, and the plurality of photoelectric conversion units in the pixels receive light beams that have passed through different areas of the photographic lens 2 and receive a plurality of photoelectric conversion signals. Output it. Thereby, when the photoelectric conversion signal in the pixel in the focus detection pixel 32 is added to obtain the image signal, it is possible to perform appropriate interpolation while maintaining the image structure.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
上述した実施形態では、方向判定において2つの注目位置で判定結果が異なる場合(上記(B))の場合に、方向性を強く示す方を代表として採用する例を説明したが、判定された2つの方向を合成した方向を採用してもよい。合成の結果、横(行)方向に対して斜め45度、または横(行)方向に対して斜め135度の場合には、画像処理部13は、以下のように補間算出に反映させる。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
In the above-described embodiment, an example has been described in which the direction that strongly indicates directionality is employed as a representative when the determination result is different at two attention positions in the direction determination (above (B)). A direction in which two directions are combined may be adopted. As a result of the synthesis, in the case of 45 degrees oblique to the horizontal (row) direction or 135 degrees oblique to the horizontal (row) direction, the image processing unit 13 reflects in the interpolation calculation as follows.

例えば、図4、図5を参照して説明したR色補間およびB色補間において重み係数を決定する際に、上記斜め45度または斜め135度の判定結果を用いることができる。画像処理部13は、画像構造の判定方向が斜め45度の場合は図4(b)、図5(b)における注目位置の左下と右上の信号に対する重み係数を大きくし、注目位置の左上と右下の信号に対する重み係数を小さくする。また、画像構造の判定方向が斜め135度の場合は図4(b)、図5(b)における注目位置の左上と右下の信号に対する重み係数を大きくし、注目位置の左下と右上の信号に対する重み係数を小さくする。   For example, when determining the weight coefficient in the R color interpolation and the B color interpolation described with reference to FIGS. 4 and 5, the determination result of 45 degrees or 135 degrees can be used. When the image structure determination direction is 45 degrees diagonally, the image processing unit 13 increases the weighting coefficients for the signals at the lower left and upper right of the target position in FIGS. 4B and 5B, and sets the upper left of the target position. Decrease the weighting factor for the lower right signal. Further, when the image structure determination direction is oblique 135 degrees, the weighting factors for the signals at the upper left and lower right of the target position in FIGS. 4B and 5B are increased, and the signals at the lower left and upper right of the target position are displayed. Reduce the weighting factor for.

変形例1によれば、判定された2つの方向をそれぞれ活かして補間処理を行うことができる。   According to the first modification, the interpolation process can be performed by utilizing the determined two directions.

(変形例2)
上記実施形態では、焦点検出用画素32の2つの光電変換部による加算前の光電変換信号に基づいて画像構造の方向を判定し、判定した方向に応じて、加算後の光電変換信号に対して補間処理を行う例を説明した。これに対し、判定した画像構造の方向に応じて、加算前の光電変換信号に対して補間処理を行うようにしてもよい。
(Modification 2)
In the above embodiment, the direction of the image structure is determined based on the photoelectric conversion signals before the addition by the two photoelectric conversion units of the focus detection pixels 32, and the photoelectric conversion signals after the addition are determined according to the determined directions. An example of performing interpolation processing has been described. On the other hand, interpolation processing may be performed on the photoelectric conversion signal before addition in accordance with the determined direction of the image structure.

<G色補間>
変形例2による画像処理部13は、図8の注目位置(i,j)および(i+1,j)のそれぞれにおいて、不足する色成分を補間する。G成分の補間は、注目位置(i,j)および(i+1,j)の周囲の6つの位置(i-1,j)、(i+2,j)、(i,j-1)、(i,j+1)、(i+1,j-1)、および(i+1,j+1)の光電変換信号を用いて次式(10)および(11)により行う。
<G color interpolation>
The image processing unit 13 according to Modification 2 interpolates the insufficient color components at each of the target positions (i, j) and (i + 1, j) in FIG. The G component interpolation is performed at six positions (i-1, j), (i + 2, j), (i, j-1) around the positions of interest (i, j) and (i + 1, j). , (I, j + 1), (i + 1, j-1), and (i + 1, j + 1) photoelectric conversion signals are used according to the following equations (10) and (11).

Figure 0006459183
ただし、mおよびoは縦(列)方向の重み係数であり、nおよびpは横(行)方向の重み係数である。
Figure 0006459183
However, m and o are weighting factors in the vertical (column) direction, and n and p are weighting factors in the horizontal (row) direction.

画像処理部13は、上式(1)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造は横(行)方向と判定し、式(10)の重み係数mを小さくして重み係数nを大きくする。   When the above equation (1) is established, the image processing unit 13 determines that the image structure is in the horizontal (row) direction with respect to the G color component at the position of interest (i, j), and sets the weighting coefficient m in the equation (10). Decrease and increase weighting factor n.

画像処理部13は、上式(2)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造は横(行)方向と判定し、式(11)の重み係数oを小さくして重み係数pを大きくする。   When the above equation (2) is established, the image processing unit 13 determines that the image structure is in the horizontal (row) direction with respect to the G color component at the target position (i + 1, j), and the weighting coefficient of the equation (11) Decrease o and increase weighting factor p.

画像処理部13は、上式(3)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造は縦(列)方向と判定し、式(10)の重み係数mを大きくして重み係数nを小さくする。   When the above equation (3) is established, the image processing unit 13 determines that the image structure is the vertical (column) direction with respect to the G color component at the target position (i, j), and sets the weighting coefficient m of the equation (10) to Increase to decrease weighting factor n.

画像処理部13は、上式(4)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造は縦(列)方向と判定し、式(11)の重み係数oを大きくして重み係数pを小さくする。   When the above equation (4) is established, the image processing unit 13 determines that the image structure is the vertical (column) direction with respect to the G color component at the target position (i + 1, j), and the weighting coefficient of the equation (11) Increase o to decrease weighting factor p.

画像処理部13は、上式(5)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造の角がある(エッジの角がある)と判定し、式(10)の重み係数m=nとする。   When the above equation (5) holds, the image processing unit 13 determines that there is a corner of the image structure (there is an edge corner) with respect to the G color component at the target position (i, j), and the equation (10) The weighting coefficient m = n.

画像処理部13は、上式(6)が成立する場合は、注目位置(i,j)におけるG色成分に関して画像構造がない(エッジ上にない)と判定し、式(10)の重み係数m=nとする。   When the above equation (6) is established, the image processing unit 13 determines that there is no image structure (not on the edge) for the G color component at the target position (i, j), and the weighting coefficient of the equation (10) Let m = n.

画像処理部13は、上式(7)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造の角がある(エッジの角がある)と判定し、式(10)の重み係数o=pとする。   When the above expression (7) is established, the image processing unit 13 determines that there is a corner of the image structure (there is an edge corner) with respect to the G color component at the target position (i + 1, j), and the expression ( 10) The weighting factor o = p.

画像処理部13は、上式(8)が成立する場合は、注目位置(i+1,j)におけるG色成分に関して画像構造がない(エッジ上にない)と判定し、式(11)の重み係数o=pとする。以上の補間処理により、焦点検出用画素32の2つの光電変換部による加算前の光電変換信号の各位置においてG色成分の信号を得ることができる。   When the above equation (8) holds, the image processing unit 13 determines that there is no image structure (not on the edge) for the G color component at the target position (i + 1, j), and the equation (11) The weighting factor o = p. Through the above interpolation processing, a G color component signal can be obtained at each position of the photoelectric conversion signal before addition by the two photoelectric conversion units of the focus detection pixel 32.

<R色、B色補間>
R色補間およびB色補間は、上述したG色成分の信号を用いて行う。重み係数の決定の際に、上記方向判定の結果を用いることができる。例えば、画像構造の判定方向が横(行)方向の場合は図8の注目位置の左右の信号に対する重み係数を大きくし、注目位置の上下の信号に対する重み係数を小さくする。また、画像構造の判定方向が縦(列)方向の場合は図8における注目位置の上下の信号に対する重み係数を大きくし、注目位置の左右の信号に対する重み係数を小さくする。
<R color and B color interpolation>
The R color interpolation and the B color interpolation are performed using the G color component signal described above. When determining the weighting factor, the result of the direction determination can be used. For example, when the determination direction of the image structure is the horizontal (row) direction, the weighting factors for the signals on the left and right of the target position in FIG. When the image structure determination direction is the vertical (column) direction, the weighting factors for the signals above and below the target position in FIG. 8 are increased, and the weighting factors for the left and right signals at the target position are decreased.

以上の補間処理により、焦点検出用画素32の2つの光電変換部による加算前の光電変換信号の各位置において、R色およびB色成分の信号を得ることができる。変形例2によれば、焦点検出用画素32の2つの光電変換部の位置にそれぞれ対応させた補間画像を得ることができる。   Through the above interpolation processing, R color and B color component signals can be obtained at each position of the photoelectric conversion signal before addition by the two photoelectric conversion units of the focus detection pixel 32. According to Modification 2, it is possible to obtain interpolated images corresponding to the positions of the two photoelectric conversion units of the focus detection pixel 32, respectively.

(変形例3)
焦点検出用画素32の例として、1画素当たり2つの光電変換部を有する2PD構成を例に説明したが、複数の光電変換部の数は2つに限らず、4PDでも16PDでも構わない。
(Modification 3)
As an example of the focus detection pixel 32, a 2PD configuration having two photoelectric conversion units per pixel has been described as an example. However, the number of the plurality of photoelectric conversion units is not limited to two, and may be 4PD or 16PD.

(変形例4)
撮像素子3の例として、AFエリアに対応する位置にのみ焦点検出用画素32が配置される例を説明したが、撮像面の全域に焦点検出用画素32が配置されるように構成してもよい。
(Modification 4)
As an example of the image sensor 3, the example in which the focus detection pixels 32 are arranged only at positions corresponding to the AF areas has been described. However, the focus detection pixels 32 may be arranged over the entire imaging surface. Good.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1…デジタルカメラ
2…撮影レンズ
3…撮像素子
9…マイクロプロセッサ
13…画像処理部
31…通常画素
32…焦点検出用画素
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Shooting lens 3 ... Imaging device 9 ... Microprocessor 13 ... Image processing part 31 ... Normal pixel 32 ... Pixel for focus detection

Claims (8)

被写体光の第1の色成分を画素内の複数の光電変換部でそれぞれ受光して前記第1の色成分に対応する複数の光電変換信号をそれぞれ出力する複数の第1画素と、前記被写体光の第2の色成分を画素内の複数の光電変換部でそれぞれ受光して前記第2の色成分に対応する複数の光電変換信号をそれぞれ出力する複数の第2画素と、を有する撮像素子と、
前記第1画素による前記複数の光電変換信号を前記第1画素ごとに加算するとともに、前記第2画素による前記複数の光電変換信号を前記第2画素ごとに加算する加算部と、
前記加算部による加算後の前記第1の色成分の信号および前記第2の色成分の信号で構成される対象画像に対し、各画素位置において不足する色成分の信号を周辺の画素位置における信号を用いて補間する補間処理部と、
前記加算部による加算前の、第1位置の前記第1画素の複数の光電変換部のうちの一つの光電変換信号と、前記加算部による加算前の、前記第1位置と異なる第2位置の前記第1画素の複数の光電変換部のうちの一つの光電変換信号と、に基づいて画像構造の方向を検出し、前記対象画像の各画素位置において不足する色成分の信号を前記検出した方向の前記周辺の画素位置の信号を用いて補間するように、前記補間処理部を制御する制御部と、
を備える撮像装置。
A plurality of first pixels each receiving a first color component of subject light by a plurality of photoelectric conversion units in the pixel and outputting a plurality of photoelectric conversion signals corresponding to the first color component; and the subject light A plurality of second pixels that respectively receive a second color component of the first color component by a plurality of photoelectric conversion units in the pixel and output a plurality of photoelectric conversion signals corresponding to the second color component; ,
An adder that adds the plurality of photoelectric conversion signals by the first pixel for each of the first pixels and adds the plurality of photoelectric conversion signals by the second pixel for each of the second pixels;
For the target image composed of the signal of the first color component and the signal of the second color component after the addition by the adding unit, the signal of the color component that is insufficient at each pixel position is signaled at the surrounding pixel positions. An interpolation processing unit that performs interpolation using
One photoelectric conversion signal of the plurality of photoelectric conversion units of the first pixel at the first position before addition by the addition unit, and a second position different from the first position before addition by the addition unit The direction of the image structure is detected based on one photoelectric conversion signal among the plurality of photoelectric conversion units of the first pixel, and the direction of the color component signal that is insufficient at each pixel position of the target image is detected. A control unit that controls the interpolation processing unit to perform interpolation using signals of the peripheral pixel positions of
That includes a imaging device.
請求項1に記載の撮像装置において、The imaging device according to claim 1,
前記制御部は、前記加算部による加算前の、第1位置の前記第1画素の複数の光電変換部のうちの一つの光電変換信号と、前記加算部による加算前の、前記第1位置と異なる第2位置の前記第1画素の複数の光電変換部のうちの一つの光電変換信号と、に基づいて、前記第1の色成分と異なる色成分に関する画像構造の方向を検出する撮像装置。The control unit includes one photoelectric conversion signal among the plurality of photoelectric conversion units of the first pixel at the first position before addition by the addition unit, and the first position before addition by the addition unit. An imaging apparatus that detects a direction of an image structure related to a color component different from the first color component based on one photoelectric conversion signal among a plurality of photoelectric conversion units of the first pixel at different second positions.
請求項2に記載の撮像装置において、The imaging device according to claim 2,
前記制御部は、前記加算部による加算前の、第3位置の前記第2画素の複数の光電変換部のうちの一つの光電変換信号と、前記加算部による加算前の、前記第3位置と異なる第4位置の前記第2画素の複数の光電変換部のうちの一つの光電変換信号と、に基づいて、前記第2の色成分と異なる色成分に関する画像構造の方向を検出する撮像装置。The control unit includes one photoelectric conversion signal of the plurality of photoelectric conversion units of the second pixel at the third position before addition by the addition unit, and the third position before addition by the addition unit. An imaging device that detects a direction of an image structure related to a color component different from the second color component based on one photoelectric conversion signal of the plurality of photoelectric conversion units of the second pixel at a different fourth position.
請求項1から3までのいずれか一項に記載の撮像装置において、
前記補間処理部は、補間対象画素の周辺の画素位置のうち前記検出した方向に沿った画素位置の信号を用いて、前記補間対象画素における前記加算後の信号を補間する撮像装置。
In the imaging device according to any one of claims 1 to 3 ,
The interpolation processing section, the interpolation of pixel positions around the target pixel using the signal of the pixel position along the detected direction, wherein the interpolation target you interpolate the signal after the addition of the pixel imaging device.
請求項1から4までのいずれか一項に記載の撮像装置において、
前記第1画素はそれぞれ、前記第1の色成分の光を2つの光電変換部でそれぞれ受光して2つの前記光電変換信号を出力し、
前記第2画素はそれぞれ、前記第2の色成分の光を2つの光電変換部でそれぞれ受光して2つの前記光電変換信号を出力する撮像装置。
In the imaging device according to any one of claims 1 to 4 ,
Each of the first pixels receives light of the first color component by two photoelectric conversion units, and outputs the two photoelectric conversion signals.
The second pixel, respectively, the second light to the two photoelectric conversion portions each received to two of the photoelectric conversion signal you output imaging device of a color component.
請求項に記載の撮像装置において、
前記制御部は、対象とする画素位置において前記検出した方向が2つの場合に、前記2つのうち強く検出した方向を採用するように前記補間処理部を制御する撮像装置。
The imaging apparatus according to claim 5 ,
Wherein, when a direction where the detected at a pixel location of interest is two, that controls the interpolation processing unit to adopt a direction detected strongly among the two imaging device.
請求項に記載の撮像装置において、
前記制御部は、対象とする画素位置において前記検出した方向が2つの場合に、前記2つの方向を合成した方向を採用するように前記補間処理部を制御する撮像装置。
The imaging apparatus according to claim 5 ,
Wherein, when a direction where the detected at a pixel location of interest is two, that controls the interpolation processing unit to adopt a direction combining the two directions imaging device.
請求項1から7までのいずれか一項に記載の撮像装置において、
前記第1画素および前記第2画素は焦点検出用画素であり、
前記第1画素および前記第2画素内の複数の光電変換部は、それぞれ撮影レンズの異なる領域を通過した光束を受光して複数の光電変換信号を出力する撮像装置。
In the imaging device according to any one of claims 1 to 7 ,
The first pixel and the second pixel are focus detection pixels,
The plurality of photoelectric conversion units of the first pixel and the second in the pixel, a plurality of photoelectric conversion signal to that imaging device outputs by receiving the light beams passing through different regions of each imaging lens.
JP2014033994A 2014-02-25 2014-02-25 Imaging device Active JP6459183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014033994A JP6459183B2 (en) 2014-02-25 2014-02-25 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014033994A JP6459183B2 (en) 2014-02-25 2014-02-25 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018246859A Division JP2019057948A (en) 2018-12-28 2018-12-28 Imaging device

Publications (2)

Publication Number Publication Date
JP2015159472A JP2015159472A (en) 2015-09-03
JP6459183B2 true JP6459183B2 (en) 2019-01-30

Family

ID=54183163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014033994A Active JP6459183B2 (en) 2014-02-25 2014-02-25 Imaging device

Country Status (1)

Country Link
JP (1) JP6459183B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057948A (en) * 2018-12-28 2019-04-11 株式会社ニコン Imaging device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6610227B2 (en) * 2015-12-09 2019-11-27 株式会社ニコン Imaging device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172273A (en) * 2002-11-19 2004-06-17 Canon Inc Imaging element
JP4298446B2 (en) * 2003-09-12 2009-07-22 キヤノン株式会社 Image processing device
JP4952060B2 (en) * 2006-05-26 2012-06-13 株式会社ニコン Imaging device
JP5817154B2 (en) * 2011-03-10 2015-11-18 株式会社ニコン Imaging device
WO2013099638A1 (en) * 2011-12-28 2013-07-04 富士フイルム株式会社 Image pickup element and image pickup apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057948A (en) * 2018-12-28 2019-04-11 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2015159472A (en) 2015-09-03

Similar Documents

Publication Publication Date Title
JP6040594B2 (en) Imaging apparatus, image processing apparatus, and image processing program
JP6173156B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4084402B2 (en) Imaging device
US8723991B2 (en) Color imaging element, imaging device, and storage medium storing an imaging program
JP5470458B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2012215785A5 (en)
JP5526287B2 (en) Imaging apparatus and imaging method
US9813687B1 (en) Image-capturing device, image-processing device, image-processing method, and image-processing program
JP5826901B2 (en) Imaging apparatus and optical axis position calculation method
JP2014032214A (en) Imaging apparatus and focus position detection method
JP6459183B2 (en) Imaging device
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP4993670B2 (en) Imaging apparatus and control method thereof
JP5634614B2 (en) Imaging device and imaging apparatus
JP2019057948A (en) Imaging device
JP2010074826A (en) Imaging apparatus and image processing program
JP7250428B2 (en) Imaging device and its control method
JP6105960B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6976789B2 (en) Imaging device and imaging method
JP6741549B2 (en) Imaging device and control method thereof
JP6727973B2 (en) Image processing apparatus and control method thereof
US11496665B2 (en) Image capturing apparatus and control method thereof
JP6442824B2 (en) Focus detection device
JP7235068B2 (en) Imaging device
JP6579859B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R150 Certificate of patent or registration of utility model

Ref document number: 6459183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250