JP2019154039A - Imaging device and imaging apparatus - Google Patents

Imaging device and imaging apparatus Download PDF

Info

Publication number
JP2019154039A
JP2019154039A JP2019072349A JP2019072349A JP2019154039A JP 2019154039 A JP2019154039 A JP 2019154039A JP 2019072349 A JP2019072349 A JP 2019072349A JP 2019072349 A JP2019072349 A JP 2019072349A JP 2019154039 A JP2019154039 A JP 2019154039A
Authority
JP
Japan
Prior art keywords
equation
signal processing
processing unit
photoelectric conversion
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019072349A
Other languages
Japanese (ja)
Inventor
寛信 村田
Hironobu Murata
寛信 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019072349A priority Critical patent/JP2019154039A/en
Publication of JP2019154039A publication Critical patent/JP2019154039A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

To provide an interpolation method with improved resolution in ranging pixels.SOLUTION: The imaging device includes: a plurality of pixels arranged two-dimensionally; and a signal processing unit for calculating each pixel value in an image by applying smoothing and sharpening filters to outputs of a plurality of pixels. The plurality of pixels includes: a plurality of first pixels, provided continuously in a first direction, for photoelectrically converting incident light of a first wavelength; and a plurality of second pixels, provided continuously in the first direction with a half-pitch shift with respect to the plurality of first pixels, for photoelectrically converting incident light having a second wavelength.SELECTED DRAWING: Figure 4

Description

本発明は、撮像素子および撮像装置に関する。   The present invention relates to an imaging element and an imaging apparatus.

従来、非ベイヤ配列を有する撮像素子の出力信号を、ベイヤ配列の信号に変換する技術が知られている。(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1] 特開2013−254076号公報
Conventionally, a technique for converting an output signal of an image sensor having a non-Bayer array into a signal of a Bayer array is known. (For example, refer to Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP2013-254076A

しかしながら、近接する2つの画素の出力信号を加算して、ベイヤ配列における1つの画素信号を生成するので解像度が低下する。   However, since the output signals of two adjacent pixels are added to generate one pixel signal in the Bayer array, the resolution decreases.

本発明の第1の態様においては、2次元に配列された複数の画素と、複数の画素の出力に対して平滑化フィルタおよび先鋭化フィルタを適用して、画像における各々の画素値を算出する信号処理部とを備え、複数の画素は、第1方向において連続して設けられ、第1の波長の入射光を光電変換する複数の第1の画素と、第1方向において連続して、複数の第1の画素に対して半ピッチずれて設けられる、第2の波長の入射光を光電変換する複数の第2の画素とを有する、撮像素子を提供する。   In the first aspect of the present invention, each pixel value in an image is calculated by applying a smoothing filter and a sharpening filter to a plurality of pixels arranged in two dimensions and the output of the plurality of pixels. A plurality of pixels provided continuously in the first direction, and a plurality of first pixels that photoelectrically convert incident light having the first wavelength, and a plurality of pixels that are continuous in the first direction. There is provided an imaging device having a plurality of second pixels that are photoelectrically converted from incident light having a second wavelength, which is provided with a half-pitch shift relative to the first pixel.

本発明の第2の態様においては、上記記載の撮像素子を備える、撮像装置を提供する。   According to a second aspect of the present invention, there is provided an imaging device comprising the above-described imaging device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一眼レフカメラ400の断面図である。2 is a cross-sectional view of a single-lens reflex camera 400. FIG. 撮像素子200の構成例を示すブロック図である。2 is a block diagram illustrating a configuration example of an image sensor 200. FIG. 第1の実施形態における撮像チップ10の一部の領域を拡大した図である。It is the figure which expanded the one part area | region of the imaging chip 10 in 1st Embodiment. 判定・補間領域40において、第1方向に連続性がある場合を示す図である。FIG. 6 is a diagram showing a case where there is continuity in a first direction in a determination / interpolation region 40; 判定・補間領域40において、第2方向に連続性がある場合を示す図である。FIG. 10 is a diagram showing a case where there is continuity in the second direction in the determination / interpolation region 40; 判定・補間領域41を示す図である。FIG. 6 is a diagram showing a determination / interpolation area 41. 判定・補間領域40における各画素と補間生成される画素値の位置との対応関係を示す図である。It is a figure which shows the correspondence of each pixel in the determination and interpolation area | region 40, and the position of the pixel value produced | generated by interpolation. 判定・補間領域40に対応する位置において補間生成された画素値を示す模式図である。4 is a schematic diagram showing pixel values interpolated and generated at a position corresponding to a determination / interpolation region 40. FIG. 第2の実施形態における加算モードとフィルタ処理モードとを切り替える処理を説明するフローチャート70である。It is a flowchart 70 explaining the process which switches the addition mode and filter processing mode in 2nd Embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一眼レフカメラ400の断面図である。撮像装置の一例としての一眼レフカメラ400は、撮像素子200、レンズユニット500およびカメラボディ600を備える。カメラボディ600には、レンズユニット500が装着される。レンズユニット500は、その鏡筒内に、光軸410に沿って配列された光学系を備え、入射する被写体光束をカメラボディ600の撮像素子200へ導く。   FIG. 1 is a cross-sectional view of a single-lens reflex camera 400. A single-lens reflex camera 400 as an example of an imaging apparatus includes an imaging device 200, a lens unit 500, and a camera body 600. A lens unit 500 is attached to the camera body 600. The lens unit 500 includes an optical system arranged along the optical axis 410 in the lens barrel, and guides an incident subject light flux to the image sensor 200 of the camera body 600.

本例においては、撮像装置として一眼レフカメラ400を例に説明するが、カメラボディ600を撮像装置と捉えてもよい。また、撮像装置は、ミラーユニットを備えるレンズ交換式カメラに限らず、ミラーユニットを持たないレンズ交換式カメラ、ミラーユニットの有無に関わらずレンズ一体式カメラであってもよい。また、本例において光軸410に沿って被写体光束が進む方向を第3方向とする。第3方向に対して垂直であって、かつ、互いに垂直な方向を、第1方向および第2方向とする。   In this example, a single-lens reflex camera 400 will be described as an example of an imaging apparatus, but the camera body 600 may be regarded as an imaging apparatus. Further, the imaging device is not limited to an interchangeable lens camera provided with a mirror unit, but may be an interchangeable lens camera without a mirror unit, or a lens integrated camera regardless of the presence or absence of the mirror unit. In this example, the direction in which the subject luminous flux travels along the optical axis 410 is defined as the third direction. The directions perpendicular to the third direction and perpendicular to each other are defined as a first direction and a second direction.

カメラボディ600には、レンズマウント550が結合される。カメラボディ600は、ボディマウント660よりも第3方向の側にミラー672を備える。ミラー672は、レンズユニット500から第3方向に入射する被写体光束に対して傾けて設けられる斜設位置と、被写体光束から退避する退避位置との間で回転可能であるように軸に固定される。   A lens mount 550 is coupled to the camera body 600. The camera body 600 includes a mirror 672 on the third direction side of the body mount 660. The mirror 672 is fixed to the shaft so as to be rotatable between an oblique position provided to be inclined with respect to the subject light beam incident in the third direction from the lens unit 500 and a retracted position for retreating from the subject light beam. .

ミラー672が斜設位置にある場合、レンズユニット500を通じて入射した被写体光束の多くはミラー672に反射されてピント板652に導かれる。ピント板652は、撮像素子200の受光面と共役な位置に配されて、レンズユニット500の光学系が形成した被写体像を可視化する。ピント板652に形成された被写体像は、ペンタプリズム654およびファインダ光学系656を通じてファインダ650から観察される。   When the mirror 672 is in the oblique position, most of the subject light beam incident through the lens unit 500 is reflected by the mirror 672 and guided to the focus plate 652. The focus plate 652 is arranged at a position conjugate with the light receiving surface of the image sensor 200 and visualizes the subject image formed by the optical system of the lens unit 500. The subject image formed on the focus plate 652 is observed from the viewfinder 650 through the pentaprism 654 and the viewfinder optical system 656.

ピント板652、ペンタプリズム654、ミラー672は、構造体としてのミラーボックス670に支持される。撮像素子200は、ミラーボックス670に取り付けられる。ミラー672が退避位置に退避し、シャッタユニット340の先幕および後幕が開状態となれば、レンズユニット500を透過する被写体光束は、撮像素子200の受光面に到達する。   The focus plate 652, the pentaprism 654, and the mirror 672 are supported by a mirror box 670 as a structure. The image sensor 200 is attached to the mirror box 670. When the mirror 672 is retracted to the retracted position and the front curtain and rear curtain of the shutter unit 340 are in the open state, the subject luminous flux that passes through the lens unit 500 reaches the light receiving surface of the image sensor 200.

撮像素子200に対してシャッタユニット340とは逆側には、ボディ基板620および背面表示部634が順次配置される。液晶パネル等が採用される背面表示部634は、カメラボディ600の背面に位置する。ボディ基板620には、CPU622、画像処理部624等の電子回路が実装される。撮像素子200の出力は、画像処理部624へ引き渡される。   On the side opposite to the shutter unit 340 with respect to the image sensor 200, a body substrate 620 and a rear display unit 634 are sequentially arranged. A rear display unit 634 employing a liquid crystal panel or the like is located on the rear surface of the camera body 600. Electronic circuits such as a CPU 622 and an image processing unit 624 are mounted on the body substrate 620. The output of the image sensor 200 is delivered to the image processing unit 624.

図2は、撮像素子200の構成例を示すブロック図である。撮像素子200は、撮像チップ10および信号処理チップ30を備える。撮像チップ10には、第3方向から光束が入射する。撮像チップ10は、第3方向において信号処理チップ30に積層される。撮像チップ10は、バンプ15を通じて、信号処理チップ30に電気的に接続される。撮像チップ10は、第1方向および第2方向において2次元に配列された複数の光電変換部を有する。複数の光電変換部の各々は入射光を光電変換する。つまり、複数の光電変換部の各々は、第3方向から入射する光束の光量に応じて電荷を生成する。なお、光電変換部は画素の一部として機能する。当該画素は、光電変換部の出力を処理してよい。撮像チップ10は、変換したアナログの画像信号を信号処理チップ30の信号処理部32へ出力する。   FIG. 2 is a block diagram illustrating a configuration example of the image sensor 200. The imaging element 200 includes an imaging chip 10 and a signal processing chip 30. A light beam enters the imaging chip 10 from the third direction. The imaging chip 10 is stacked on the signal processing chip 30 in the third direction. The imaging chip 10 is electrically connected to the signal processing chip 30 through the bumps 15. The imaging chip 10 has a plurality of photoelectric conversion units arranged two-dimensionally in the first direction and the second direction. Each of the plurality of photoelectric conversion units photoelectrically converts incident light. That is, each of the plurality of photoelectric conversion units generates an electric charge according to the amount of light flux incident from the third direction. Note that the photoelectric conversion unit functions as a part of the pixel. The pixel may process the output of the photoelectric conversion unit. The imaging chip 10 outputs the converted analog image signal to the signal processing unit 32 of the signal processing chip 30.

信号処理チップ30は、信号処理部32、AD変換部34、および、焦点検出部36を有する。信号処理部32は、撮像チップ10から出力されるアナログの画像信号に所定のアナログ信号処理をする。信号処理部32は、増幅回路およびCDS(相関二重サンプリング)回路などを有する。増幅回路は、アナログの画像信号の信号電圧値を増幅する。また、CDS回路は、ノイズによる当該信号電圧値のばらつきを補正する。   The signal processing chip 30 includes a signal processing unit 32, an AD conversion unit 34, and a focus detection unit 36. The signal processing unit 32 performs predetermined analog signal processing on the analog image signal output from the imaging chip 10. The signal processing unit 32 includes an amplifier circuit and a CDS (correlated double sampling) circuit. The amplifier circuit amplifies the signal voltage value of the analog image signal. In addition, the CDS circuit corrects variations in the signal voltage value due to noise.

AD変換部34は、信号処理部32から出力されたアナログの画像信号をデジタルの画像信号に変換する。AD変換部34は、デジタルの画像信号を信号処理部32および焦点検出部36に出力する。   The AD converter 34 converts the analog image signal output from the signal processor 32 into a digital image signal. The AD conversion unit 34 outputs the digital image signal to the signal processing unit 32 and the focus detection unit 36.

信号処理部32は、AD変換部34から出力されるデジタルの画像信号に対して、特定の演算を行う。信号処理部32は、フィルタ処理モードと加算処理モードとを有する。信号処理部32は、フィルタ処理モードのときは、デジタルの画像信号に対して方向性判定ならびに平滑化フィルタおよび先鋭化フィルタを適用する。信号処理部32は、当該フィルタを適用して画像における各々の画素値を算出する。また、信号処理部32は、加算処理モードのときは、デジタルの画像信号を加算して画像における各々の画素値を算出する。信号処理部32は、フィルタ処理モードおよび加算処理モードのいずれか一方を選択してよい。信号処理部32において算出された画素値の情報は、画像処理部624に出力される。つまり、信号処理部32は、画像を画像処理部624に出力する前に、画像を前処理する。   The signal processing unit 32 performs a specific calculation on the digital image signal output from the AD conversion unit 34. The signal processing unit 32 has a filter processing mode and an addition processing mode. In the filter processing mode, the signal processing unit 32 applies directionality determination, a smoothing filter, and a sharpening filter to a digital image signal. The signal processing unit 32 applies the filter to calculate each pixel value in the image. Further, in the addition processing mode, the signal processing unit 32 adds digital image signals to calculate each pixel value in the image. The signal processing unit 32 may select one of the filter processing mode and the addition processing mode. Information on the pixel value calculated by the signal processing unit 32 is output to the image processing unit 624. That is, the signal processing unit 32 preprocesses the image before outputting the image to the image processing unit 624.

焦点検出部36は、入射光が通過した光学系の焦点位置を検出する。具体的には、焦点検出部36は、デジタルの画像信号に基づいて、一対の像の像ズレ量を検出する。さらに、焦点検出部36は、像ズレ量に応じた演算を行い、予定結像面に対する現在の結像面の偏差であるデフォーカス量を算出する。当該デフォーカス量を調整するべく、一眼レフカメラ400のレンズユニット500の位置が調整される。   The focus detection unit 36 detects the focus position of the optical system through which the incident light has passed. Specifically, the focus detection unit 36 detects the image shift amount of the pair of images based on the digital image signal. Further, the focus detection unit 36 performs a calculation according to the image shift amount, and calculates a defocus amount that is a deviation of the current image plane from the planned image plane. In order to adjust the defocus amount, the position of the lens unit 500 of the single-lens reflex camera 400 is adjusted.

画像処理部624は、画像処理ASIC625および記録部60を有する。画像処理ASIC625は、記録部60をワークスペースとして種々の画像処理を施し、画像データを生成する。画像処理ASIC625は、JPEGファイル形式の画像データを生成する場合は、ホワイトバランス処理、ガンマ処理等を施した後に圧縮処理を実行する。生成された画像データは、記録部60に記録される。また、背面表示部634は、当該記録部60に記録された画像データに応じた画像を予め設定された時間の間表示する。   The image processing unit 624 includes an image processing ASIC 625 and a recording unit 60. The image processing ASIC 625 performs various image processing using the recording unit 60 as a work space, and generates image data. When generating image data in the JPEG file format, the image processing ASIC 625 executes compression processing after performing white balance processing, gamma processing, and the like. The generated image data is recorded in the recording unit 60. The rear display unit 634 displays an image corresponding to the image data recorded in the recording unit 60 for a preset time.

図3は、第1の実施形態における撮像チップ10の一部の領域を拡大した図である。本例において複数の光電変換部17の各々は、第1および第2方向に平行な対角線を有する正方形である。各光電変換部17は、各画素の一部として機能する。一の画素の一部として機能する一の光電変換部17は、第1方向および第2方向において行列状に配置される。なお、一の画素は光電変換部17の出力を処理する信号処理機能も有してよい。光電変換部17には、第3方向において、マイクロレンズ12が重ねて設けられる。図3において、マイクロレンズ12を円で示す。1つのマイクロレンズ12は、レンズユニット500を通じて入射する光を、対応して設けられた光電変換部17に導く。本例の光電変換部17は、マイクロレンズ12と重なる位置において設けられた、フォトダイオードであってよい。   FIG. 3 is an enlarged view of a partial region of the imaging chip 10 according to the first embodiment. In this example, each of the plurality of photoelectric conversion units 17 is a square having diagonal lines parallel to the first and second directions. Each photoelectric conversion unit 17 functions as a part of each pixel. One photoelectric conversion unit 17 that functions as a part of one pixel is arranged in a matrix in the first direction and the second direction. Note that one pixel may also have a signal processing function for processing the output of the photoelectric conversion unit 17. The photoelectric conversion unit 17 is provided with the microlens 12 so as to overlap in the third direction. In FIG. 3, the microlens 12 is indicated by a circle. One microlens 12 guides light incident through the lens unit 500 to the photoelectric conversion unit 17 provided correspondingly. The photoelectric conversion unit 17 of this example may be a photodiode provided at a position overlapping the microlens 12.

複数の光電変換部17には、赤色(R)、緑色(G)または青色(B)の波長の光をそれぞれ透過させるフィルタが設けられる。緑色(G)の波長の入射光を透過させるフィルタが設けられた光電変換部17‐Gは、第1方向および第2方向において連続して設けられる。赤色(R)の波長の入射光を透過させるフィルタが設けられた光電変換部17‐Rは、第1方向において連続して設けられる。青色(B)の波長の入射光を透過させるフィルタが設けられた光電変換部17‐Bも、第1方向において連続して設けられる。複数の光電変換部17‐Rおよび17‐Bは、複数の光電変換部17‐Gに対して半ピッチずれて設けられる。なお、本例においては、第1の光電変換部を光電変換部17‐Gとし、第2の光電変換部を光電変換部17‐Bとし、第3の光電変換部を光電変換部17‐Rとして説明する。しかしながら、他の例においては、第2の光電変換部を光電変換部17‐Rとし、第3の光電変換部を光電変換部17‐Bとしてもよい。   The plurality of photoelectric conversion units 17 are provided with filters that transmit red (R), green (G), and blue (B) wavelengths, respectively. The photoelectric conversion unit 17-G provided with a filter that transmits incident light having a green (G) wavelength is continuously provided in the first direction and the second direction. The photoelectric conversion unit 17-R provided with a filter that transmits incident light having a red (R) wavelength is continuously provided in the first direction. A photoelectric conversion unit 17-B provided with a filter that transmits incident light having a blue (B) wavelength is also provided continuously in the first direction. The plurality of photoelectric conversion units 17-R and 17-B are provided with a half-pitch shift with respect to the plurality of photoelectric conversion units 17-G. In this example, the first photoelectric conversion unit is the photoelectric conversion unit 17-G, the second photoelectric conversion unit is the photoelectric conversion unit 17-B, and the third photoelectric conversion unit is the photoelectric conversion unit 17-R. Will be described. However, in another example, the second photoelectric conversion unit may be the photoelectric conversion unit 17-R, and the third photoelectric conversion unit may be the photoelectric conversion unit 17-B.

本例において半ピッチとは、光電変換部17における第1方向に平行な対角線の長さの半分の長さ、および、光電変換部17における第2方向に平行な対角線の長さの半分の長さを意味する。また、半ピッチとは、第1方向における光電変換部17の繰り返し長さの半分、および、第2方向における光電変換部17の繰り返し長さの半分を意味してもよい。複数の光電変換部17‐Rおよび17‐Bが複数の光電変換部17‐Gに対して半ピッチずれて設けられるので、第1および第2方向に設けられた複数の光電変換部17‐G間における複数の隙間には、複数の光電変換部17‐Rおよび17‐Bが設けられる。   In this example, the half pitch means half the length of the diagonal line parallel to the first direction in the photoelectric conversion unit 17 and half the length of the diagonal line parallel to the second direction in the photoelectric conversion unit 17. Means. Further, the half pitch may mean half of the repetition length of the photoelectric conversion unit 17 in the first direction and half of the repetition length of the photoelectric conversion unit 17 in the second direction. Since the plurality of photoelectric conversion units 17-R and 17-B are provided with a half-pitch shift with respect to the plurality of photoelectric conversion units 17-G, the plurality of photoelectric conversion units 17-G provided in the first and second directions are provided. A plurality of photoelectric conversion units 17-R and 17-B are provided in a plurality of gaps therebetween.

複数の光電変換部17‐Gは、第1方向に連続して設けられて直線形状を構成する。複数の光電変換部17‐Bおよび17‐Rも同様に、第1方向に連続して設けられて直線形状を構成する。そして、当該直線形状は、複数の光電変換部17‐G、17‐R、17‐G、および、17‐Bの順に第2方向に設けられる。直線形状の当該17‐G、17‐R、17‐G、および、17‐Bのセットからなるパターンは、第2方向において繰り返して設けられる。   The plurality of photoelectric conversion units 17-G are continuously provided in the first direction to form a linear shape. Similarly, the plurality of photoelectric conversion units 17-B and 17-R are continuously provided in the first direction to form a linear shape. The linear shape is provided in the second direction in the order of the plurality of photoelectric conversion units 17-G, 17-R, 17-G, and 17-B. A pattern composed of the set of the linear shapes 17-G, 17-R, 17-G, and 17-B is repeatedly provided in the second direction.

各々の光電変換部17は、開口領域を有する。また各々の光電変換部17は、開口領域および遮光領域を有してもよい。本例においては、複数の光電変換部17の各々が、開口領域および遮光領域を有する。また、本例では、各々の光電変換部17における開口領域および遮光領域の面積が略等しい。図3において遮光領域を斜線により示す。遮光領域においては、入射光が光電変換に用いられない。一方、開口領域においては、入射光が光電変換に用いられる。   Each photoelectric conversion unit 17 has an opening region. Each photoelectric conversion unit 17 may have an opening region and a light shielding region. In this example, each of the plurality of photoelectric conversion units 17 has an opening region and a light shielding region. Moreover, in this example, the area of the opening area | region and light-shielding area | region in each photoelectric conversion part 17 is substantially equal. In FIG. 3, the light shielding region is indicated by hatching. In the light shielding region, incident light is not used for photoelectric conversion. On the other hand, in the opening region, incident light is used for photoelectric conversion.

本例の撮像素子200は、光電変換部17において、フォトダイオードが配線層よりもマイクロレンズ12側に設けられる裏面照射型の撮像素子200である。しかし、光電変換部17において、配線層がフォトダイオードよりもマイクロレンズ12側に設けられる表面照射型の撮像素子200としてもよい。表面照射型では、入射光が部分的に配線層により遮られる。裏面照射型では、表面照射型のように入射光が部分的に配線層により遮られないので、入射光の変換効率を表面照射型よりも高くすることができる。   The imaging element 200 of this example is a back-illuminated imaging element 200 in which a photodiode is provided on the microlens 12 side of the wiring layer in the photoelectric conversion unit 17. However, in the photoelectric conversion unit 17, the surface irradiation type imaging device 200 in which the wiring layer is provided closer to the microlens 12 than the photodiode may be used. In the surface irradiation type, incident light is partially blocked by the wiring layer. In the back-illuminated type, incident light is not partially blocked by the wiring layer unlike the front-illuminated type, so that the incident light conversion efficiency can be made higher than that of the front-illuminated type.

本例では、光電変換部17‐Gは、第2方向において領域が二分割される。二分割されたうちの一方が開口領域であり、他方が遮光領域である。第1方向において隣接する光電変換部17‐Gは、開口領域と遮光領域とが交互に入れ替わる。   In this example, the photoelectric conversion unit 17-G is divided into two regions in the second direction. One of the two parts is an opening area, and the other is a light shielding area. In the photoelectric conversion units 17-G adjacent in the first direction, the opening regions and the light shielding regions are alternately switched.

また本例では、光電変換部17‐Bおよび17‐Rは、第1方向において領域が二分割される。二分割されたうちの一方が開口領域であり、他方が遮光領域である。第2方向において隣接する光電変換部17‐Bおよび17‐Rは、開口領域と遮光領域とが交互に入れ替わる。   In this example, the photoelectric conversion units 17-B and 17-R are divided into two regions in the first direction. One of the two parts is an opening area, and the other is a light shielding area. In the photoelectric conversion units 17-B and 17-R adjacent in the second direction, the opening region and the light shielding region are alternately switched.

第2方向に隣接する2つの光電変換部17‐Gの遮光領域と、第1方向に隣接する2つの光電変換部17‐Rの遮光領域とは、互いに隣接して正方形の遮光領域を形成する。当該正方形の遮光領域は、第1方向および第2方向に平行な辺を有する正方形である。   The light shielding regions of the two photoelectric conversion units 17-G adjacent in the second direction and the light shielding regions of the two photoelectric conversion units 17-R adjacent in the first direction form a square light shielding region adjacent to each other. . The square light-shielding region is a square having sides parallel to the first direction and the second direction.

さらに、第2方向に隣接する2つの光電変換部17‐Gの遮光領域と、第1方向に隣接する2つの光電変換部17‐Bの遮光領域とは、互いに隣接して遮光領域を形成する。当該正方形の遮光領域は、第1方向および第2方向に平行な辺を有する正方形である。   Further, the light shielding regions of the two photoelectric conversion units 17-G adjacent in the second direction and the light shielding regions of the two photoelectric conversion units 17-B adjacent in the first direction form a light shielding region adjacent to each other. . The square light-shielding region is a square having sides parallel to the first direction and the second direction.

光電変換部17の開口領域は焦点検出に用いられる。第1方向に隣接する複数の光電変換部17‐Gにおいて、第2方向に開口領域を有する複数の光電変換部17‐Gと第2方向の逆方向に開口領域を有する複数の光電変換部17‐Gとは、焦点検出に用いられる。本例において、複数の光電変換部17‐Gは、第1方向および第1方向の逆方向において交互に遮光領域を有し、かつ、第2方向および第2方向の逆方向において交互に遮光領域を有する。それゆえ、複数の光電変換部17‐Gは、第1方向および第2方向において焦点検出に用いることができる。これにより、遮光領域を有する光電変換部17が第1方向または第2方向のいずれか一方だけに連続して設けられる場合と比較して、焦点検出精度を向上させることができる。   The opening area of the photoelectric conversion unit 17 is used for focus detection. In a plurality of photoelectric conversion units 17-G adjacent in the first direction, a plurality of photoelectric conversion units 17-G having an opening region in the second direction and a plurality of photoelectric conversion units 17 having an opening region in the opposite direction to the second direction. -G is used for focus detection. In this example, the plurality of photoelectric conversion units 17-G have light shielding regions alternately in the first direction and the reverse direction of the first direction, and alternately light shielding regions in the reverse direction of the second direction and the second direction. Have Therefore, the plurality of photoelectric conversion units 17-G can be used for focus detection in the first direction and the second direction. Thereby, compared with the case where the photoelectric conversion part 17 which has a light-shielding area | region is provided continuously only in any one of a 1st direction or a 2nd direction, a focus detection precision can be improved.

また、複数の光電変換部17‐Bおよび17‐Rは、第1方向において焦点検出に用いることができる。なお、変形例として、撮像素子200は、1つの光電変換部17が第1方向および第2方向のいずれかにおいて一対の開口領域を有する画素分割方式を採用してもよい。当該一対の開口領域は、互いに分離して設けられる。また、当該一対の開口領域に対応して設けられたフォトダイオードから、互いに独立して電荷を読み出すことが可能である。複数の光電変換部17を画素分割方式とすることによっても、焦点検出をすることができる。   The plurality of photoelectric conversion units 17-B and 17-R can be used for focus detection in the first direction. As a modification, the image sensor 200 may employ a pixel division method in which one photoelectric conversion unit 17 has a pair of opening regions in either the first direction or the second direction. The pair of opening regions are provided separately from each other. In addition, charges can be read independently from each other from photodiodes provided corresponding to the pair of opening regions. Focus detection can also be performed by using a plurality of photoelectric conversion units 17 as a pixel division method.

フィルタ処理モードにおける信号処理部32は最初に、判定・補間領域40において方向性判定を行う。方向性判定とは、複数の光電変換部17における出力信号に基づいて、第1方向および第2方向の少なくとも一つの方向における出力信号の連続性を判定することである。判定・補間領域40において、第1方向または第2方向において連続して設けられる複数の光電変換部17の出力信号の差分値が予め定められた閾値以下である場合に、信号処理部32は第1方向または第2方向に連続性があると判断する。例えば、判定・補間領域40において、第1方向で隣接する4つの光電変換部17−Rの出力信号の差分値が予め定められた閾値以下である場合に、信号処理部32は第1方向に連続性があると判断する。   The signal processing unit 32 in the filter processing mode first performs directionality determination in the determination / interpolation region 40. The directionality determination is to determine the continuity of output signals in at least one direction of the first direction and the second direction based on output signals from the plurality of photoelectric conversion units 17. In the determination / interpolation region 40, when the difference value of the output signals of the plurality of photoelectric conversion units 17 provided continuously in the first direction or the second direction is equal to or less than a predetermined threshold value, the signal processing unit 32 It is determined that there is continuity in one direction or the second direction. For example, in the determination / interpolation region 40, when the difference value between the output signals of four photoelectric conversion units 17-R adjacent in the first direction is equal to or less than a predetermined threshold value, the signal processing unit 32 moves in the first direction. Judge that there is continuity.

フィルタ処理モードにおける信号処理部32は、方向性判定の後に、判定・補間領域40において補間処理を行う。補間処理は、方向性判定に基づいて、フィルタを画素毎に調整して適用する。フィルタを適用することにより画素値が算出される。なお、フィルタを画素に適用するとは、光電変換部17の出力信号に対してフィルタ処理することを意味する。フィルタ処理後の出力信号を画素値と称する。各々の画素値は、最終的に出力される画像における複数の画素の各々に対応する。   The signal processing unit 32 in the filter processing mode performs interpolation processing in the determination / interpolation region 40 after the directionality determination. The interpolation processing is applied by adjusting the filter for each pixel based on the directionality determination. A pixel value is calculated by applying a filter. Note that applying a filter to a pixel means that the output signal of the photoelectric conversion unit 17 is filtered. The output signal after the filter processing is referred to as a pixel value. Each pixel value corresponds to each of a plurality of pixels in the finally output image.

例えば信号処理部32は、第1方向に連続性があると判断した場合に、第1方向連続性用のフィルタを適用する。同様に、第2方向に連続性があると判断した場合には、第2方向連続性用のフィルタを適用する。本例において、第1方向連続性用のフィルタは、図4から図6における垂直方向に連続性がある場合のフィルタである。また、第2方向連続性用のフィルタは、図4から図6における第2方向に連続性がある場合のフィルタである。   For example, when the signal processing unit 32 determines that there is continuity in the first direction, the signal processing unit 32 applies a filter for continuity in the first direction. Similarly, when it is determined that there is continuity in the second direction, a filter for continuity in the second direction is applied. In this example, the first direction continuity filter is a filter in the case where there is continuity in the vertical direction in FIGS. Moreover, the filter for 2nd direction continuity is a filter in case there exists continuity in the 2nd direction in FIGS.

フィルタ処理モードにおけるフィルタとは、出力される画像の1つの画素値を算出するための、複数の光電変換部17の出力信号に対する演算を指す。本例のフィルタは、平滑化フィルタおよび先鋭化フィルタを有する。平滑化フィルタは、出力される画像において隣接する画素値を滑らかに連続的にする演算である。本例では、平滑化フィルタとして特定の位置に重みを付けて出力するガウシアンフィルタを用いる。先鋭化フィルタは、出力される画像において明暗を強調するまたはエッジを強調する演算である。本例では、先鋭化フィルタとしてラプラシアンフィルタを用いる。なお、IIR(Infinite Impulse Response)フィルタ等で実現されるバターワース(Butterworth)型のフィルタを用いてもよい。   The filter in the filter processing mode refers to an operation on the output signals of the plurality of photoelectric conversion units 17 for calculating one pixel value of the output image. The filter of this example has a smoothing filter and a sharpening filter. The smoothing filter is an operation that smoothly and continuously makes adjacent pixel values in the output image. In this example, a Gaussian filter that outputs a weighted specific position is used as a smoothing filter. The sharpening filter is an operation that emphasizes light and darkness or edges in an output image. In this example, a Laplacian filter is used as the sharpening filter. Note that a Butterworth type filter realized by an IIR (Infinite Impulse Response) filter or the like may be used.

判定・補間領域40の形状は、予め定められる。本例の判定・補間領域40は、少なくとも、第2方向に平行な3行かつ第1方向に平行な4列の光電変換部17‐Gと、第2方向に平行な2行かつ第1方向に平行な3列の光電変換部17‐Bと、第2方向に平行な4行かつ第1方向に平行な2列の光電変換部17‐Rとを含む。判定・補間領域40は、互いに隣接する2つの光電変換部17‐Gおよび2つの光電変換部17‐Bの境界の位置を中心42とする。中心42は、第2方向に平行な3行の光電変換部17‐Gのうち、第2行目にある2つの光電変換部17‐Gの境界に位置する。中心42は、円に囲まれた数字で示されている。判定・補間領域40に設けられる複数の光電変換部17は、中心42を通る第1方向に平行な直線および第2方向に平行な直線に対して線対称である。なお、判定・補間領域40の形状は、上記の形態に限定されない。判定・補間領域40の形状は、方向性判定および補間処理を適用できる限りにおいて、任意の形状とすることができる。   The shape of the determination / interpolation area 40 is determined in advance. The determination / interpolation area 40 of this example includes at least three rows parallel to the second direction and four columns of photoelectric conversion units 17-G parallel to the first direction, and two rows parallel to the second direction and the first direction. 3 columns of photoelectric conversion units 17-B, and 4 rows parallel to the second direction and 2 columns of photoelectric conversion units 17-R parallel to the first direction. The determination / interpolation area 40 is centered on the position of the boundary between the two photoelectric conversion units 17-G and the two photoelectric conversion units 17-B adjacent to each other. The center 42 is located at the boundary between the two photoelectric conversion units 17-G in the second row among the three rows of photoelectric conversion units 17-G parallel to the second direction. The center 42 is indicated by a number surrounded by a circle. The plurality of photoelectric conversion units 17 provided in the determination / interpolation region 40 are symmetrical with respect to a straight line passing through the center 42 and parallel to the first direction and a straight line parallel to the second direction. The shape of the determination / interpolation area 40 is not limited to the above-described form. The shape of the determination / interpolation region 40 can be any shape as long as the directionality determination and the interpolation processing can be applied.

特許文献1に記載の従来方式では、2つの光電変換部17−Gの出力信号の値を加算することにより、1画素分に相当する緑色(G)用の出力信号を得ていた。しかし、2つの光電変換部17‐Gを用いて1画素分に相当する緑色(G)用の出力信号を得るので、画像における画素密度は半分に低下する。これに対して本例では、2つの光電変換部17‐Gと2つの光電変換部17‐Bとの境界の位置、および、2つの光電変換部17‐Bと2つの光電変換部17‐Rとの境界の位置に、周辺の画素の出力信号を用いて緑色(G)、青色(B)および赤色(R)の画素値をそれぞれ生成する。これにより、従来方式と比較して、画像における画素密度を向上させることができる。   In the conventional method described in Patent Document 1, the output signal for green (G) corresponding to one pixel is obtained by adding the values of the output signals of the two photoelectric conversion units 17-G. However, since the output signal for green (G) corresponding to one pixel is obtained using the two photoelectric conversion units 17-G, the pixel density in the image is reduced to half. On the other hand, in this example, the position of the boundary between the two photoelectric conversion units 17-G and the two photoelectric conversion units 17-B, and the two photoelectric conversion units 17-B and the two photoelectric conversion units 17-R. The pixel values of green (G), blue (B), and red (R) are respectively generated using the output signals of neighboring pixels at the position of the boundary. Thereby, the pixel density in the image can be improved as compared with the conventional method.

図4は、判定・補間領域40において、第1方向に連続性がある場合を示す図である。なお、図4においては図面を見易くするために、図3で記載したマイクロレンズ12、開口領域および遮光領域の記載を省略する。なお、Gは緑色用の光電変換部17‐Gを簡易的に示す。また、Gに続く数字は説明のために記載した座標番号である。以降においては、アルファベット1文字および座標番号により光電変換部17の種類および位置を特定する。Bは光電変換部17−Bを示し、Rは光電変換部17‐Rを示す。   FIG. 4 is a diagram illustrating a case where there is continuity in the first direction in the determination / interpolation region 40. In FIG. 4, in order to make the drawing easy to see, the description of the microlens 12, the aperture region, and the light shielding region described in FIG. 3 is omitted. In addition, G shows the photoelectric conversion part 17-G for green simply. The number following G is a coordinate number described for explanation. Thereafter, the type and position of the photoelectric conversion unit 17 are specified by one alphabetic character and the coordinate number. B represents the photoelectric conversion unit 17-B, and R represents the photoelectric conversion unit 17-R.

(第1方向性判定)信号処理部32は、判定・補間領域40内において第1方向で互いに隣接する光電変換部17の出力信号の差分を計算してよい。これにより信号処理部32は、第1方向の連続性を判定する。本例では、信号処理部32は、第1方向で互いに隣接するRの出力信号の差分を計算する。つまり、信号処理部32は、R11、R21、R31およびR41を含む領域46−1、ならびに、R12、R22、R32およびR42を含む領域46−2の少なくとも一方について、互いに隣接するRの出力信号の差分を計算する。   (First Directionality Determination) The signal processing unit 32 may calculate the difference between the output signals of the photoelectric conversion units 17 adjacent to each other in the first direction in the determination / interpolation region 40. Thereby, the signal processing unit 32 determines continuity in the first direction. In this example, the signal processing unit 32 calculates a difference between R output signals adjacent to each other in the first direction. That is, the signal processing unit 32 outputs R output signals adjacent to each other for at least one of the region 46-1 including R11, R21, R31, and R41 and the region 46-2 including R12, R22, R32, and R42. Calculate the difference.

仮に領域46−1において、[R11,R21,R31,R41]の出力信号が[90,90,91,91]であったとする。この場合、互いに隣接するRの出力信号の差分ベクトル[R11−R21,R21−R31,R31−R41]は、[0,−1,0]となる。また仮に、領域46−1において、[R11,R21,R31,R41]の出力信号が[90,10,91,10]であったとする。この場合、互いに隣接するRの出力信号の差分ベクトルは、[80,−81,81]となる。信号処理部32は、例えば、差分値ベクトルの各成分の絶対値が10以下である場合に連続性があると判断してよい。この例では、信号処理部32は、差分ベクトル[0,−1,0]については第1方向に連続性があると判定し、差分ベクトル[80,−81,81]については第1方向に連続性がないと判定する。なお、連続性があると判定する差分ベクトルの成分の閾値は、プログラム修正により適宜定められてよい。   Assume that the output signal of [R11, R21, R31, R41] is [90, 90, 91, 91] in the region 46-1. In this case, the difference vectors [R11-R21, R21-R31, R31-R41] of the R output signals adjacent to each other are [0, -1, 0]. Further, it is assumed that the output signal of [R11, R21, R31, R41] is [90, 10, 91, 10] in the region 46-1. In this case, the difference vector of the R output signals adjacent to each other is [80, −81, 81]. For example, the signal processing unit 32 may determine that there is continuity when the absolute value of each component of the difference value vector is 10 or less. In this example, the signal processing unit 32 determines that the difference vector [0, −1, 0] is continuous in the first direction, and the difference vector [80, −81, 81] in the first direction. It is determined that there is no continuity. Note that the threshold value of the component of the difference vector that is determined to have continuity may be appropriately determined by program correction.

(第1方向性がある場合の補間処理:g33)信号処理部32は方向性判定の後に、判定・補間領域40において補間処理を行う。信号処理部32は、第1方向において方向性があると判定する場合、判定・補間領域40におけるa行×b列個のGの出力信号に平滑化フィルタを適用する。なお、aはbよりも大きな自然数であり、本例ではa=3、b=2である。 (Interpolation processing when there is first directionality: g 33 ) The signal processing unit 32 performs interpolation processing in the determination / interpolation region 40 after the directionality determination. When the signal processing unit 32 determines that there is directionality in the first direction, the signal processing unit 32 applies a smoothing filter to a row × b column G output signals in the determination / interpolation region 40. Note that a is a natural number larger than b, and in this example, a = 3 and b = 2.

本例の信号処理部32は、判定・補間領域40における3行×2列個のGの出力信号(数1)に対してガウシアンフィルタを適用する。(数2)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 of this example applies a Gaussian filter to 3 rows × 2 columns of G output signals (Equation 1) in the determination / interpolation region 40. (Equation 2) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数1)および(数2)の畳み込み(コンボリューション)の値を算出する。畳み込みの演算は、M行N列の行列について、下記の(数3)により算出される。なお、M、N、mおよびnは自然数である。ただし(数3)において、Mが偶数のとき、m=−m/2,m=m/2であり、Σの演算においてm=0は除く。また、Mが奇数のとき、m=−(m−1)/2,m=(m−1)/2である。さらに、(数3)において、Nが偶数のとき、n=−n/2,n=n/2であり、Σの演算においてn=0は除く。また、Nが奇数のとき、n=−(n−1)/2,n=(n−1)/2である。

Figure 2019154039
Then, the signal processing unit 32 calculates the convolution values of (Equation 1) and (Equation 2). The convolution operation is calculated by the following (Equation 3) for a matrix of M rows and N columns. M, N, m, and n are natural numbers. However, in (Equation 3), when M is an even number, m 1 = −m / 2, m 2 = m / 2, and m = 0 is excluded in the calculation of Σ. When M is an odd number, m 1 = − (m−1) / 2 and m 2 = (m−1) / 2. Further, in (Equation 3), when N is an even number, n 1 = −n / 2 and n 2 = n / 2, and n = 0 is excluded in the calculation of Σ. When N is an odd number, n 1 = − (n−1) / 2 and n 2 = (n−1) / 2.
Figure 2019154039

本例では、(数3)において、関数h=(数2),関数f=(数1),M=3,N=2である。また、m=−1,m=1である。n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数1)および(数2)の第1行を指定し、mが(数1)および(数2)の第3行を指定し、nが(数1)および(数2)の第1列を指定し、nが(数1)および(数2)の第2列を指定するとする。これにより、ガウシアンフィルタを適用したg33‐Gは、g33‐G=(1×G12+2×G22+1×G32+1×G13+2×G23+1×G33)/8となる。 In this example, in (Equation 3), the function h = (Equation 2), the function f = (Equation 1), M = 3, and N = 2. In addition, m 1 = −1 and m 2 = 1. n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 1) and (Equation 2), m 1 designates the third row of (Equation 1) and (Equation 2), and n 2 represents (Equation 1). And the first column of (Equation 2) is designated, and n 1 designates the second column of (Equation 1) and (Equation 2). As a result, g 33-G to which the Gaussian filter is applied becomes g 33-G = (1 × G 12 + 2 × G 22 + 1 × G 32 + 1 × G 13 + 2 × G 23 + 1 × G 33 ) / 8.

また信号処理部32は、判定・補間領域40におけるc行×d列個のRの出力信号に先鋭化フィルタを適用する。なお、cはdよりも大きな自然数であり、本例ではc=4、d=2である。本例の信号処理部32は、判定・補間領域40における4行×2列個のRの出力信号(数4)に対してラプラシアンフィルタを適用する。(数5)は、ラプラシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 applies a sharpening filter to c rows × d columns of R output signals in the determination / interpolation region 40. Note that c is a natural number larger than d, and in this example, c = 4 and d = 2. The signal processing unit 32 in this example applies a Laplacian filter to 4 rows × 2 columns of R output signals (Equation 4) in the determination / interpolation region 40. (Equation 5) is an example of a Laplacian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数4)および(数5)の畳み込み(コンボリューション)の値を算出する。畳み込みの演算は(数3)と同様である。本例では、(数3)において、関数h=(数5),関数f=(数4),M=4,N=2である。また、m=−2,m=2であり、Σの演算においてn=0は除く。n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数4)および(数5)の第1行を指定し、mが(数4)および(数5)の第4行を指定し、nが(数4)および(数5)の第1列を指定し、nが(数4)および(数5)の第2列を指定するとする。これにより、ラプラシアンフィルタを適用したg33‐Lは、g33‐L=(−1×R11+1×R21+1×R31−1×R41−1×R12+1×R22+1×R32−1×R42)/8となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 4) and (Equation 5). The convolution operation is the same as in (Equation 3). In this example, in (Equation 3), the function h = (Equation 5), the function f = (Equation 4), M = 4, and N = 2. Further, m 1 = −2, m 2 = 2, and n = 0 is excluded in the calculation of Σ. n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 4) and (Equation 5), m 1 designates the fourth row of (Equation 4) and (Equation 5), and n 2 represents (Equation 4). And the first column of (Equation 5) is designated, and n 1 designates the second column of (Equation 4) and (Equation 5). As a result, g 33-L to which the Laplacian filter is applied becomes g 33-L = (− 1 × R 11 + 1 × R 21 + 1 × R 31 −1 × R 41 −1 × R 12 + 1 × R 22 + 1 × R 32 −1 × R 42 ) / 8.

信号処理部32は、平滑化フィルタを適用した値と先鋭化フィルタを適用した値との和をとることにより、中心42の位置に対応するGの画素値を算出する。つまり、g33‐Gとg33‐Lとの和を中心42における補正後の画素値g33とする。このように本例では、g33の画素値を算出するために、Gのガウシアンに加えてRのラプラシアンも加える。これにより、g33‐Gだけをg33とする場合と比較して、画素値をより精度よく算出することができる。 The signal processing unit 32 calculates the G pixel value corresponding to the position of the center 42 by taking the sum of the value to which the smoothing filter is applied and the value to which the sharpening filter is applied. That is, the sum of g 33-G and g 33-L is the corrected pixel value g 33 at the center 42. Thus in this example, in order to calculate the pixel value of g 33, also added Laplacian of R in addition to the Gaussian G. Thus, as compared with the case where the g 33-G alone g 33, can be calculated more accurately pixel values.

(第1方向性がある場合の補間処理:b33,r33)信号処理部32は、画素値g33を算出するとともに、Bの出力信号を補正したb33を算出する。信号処理部32は、判定・補間領域40におけるk行×l列個のBの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するBの画素値として算出する。本例では、kはlよりも大きな自然数であり、k=2、l=1である。本例の信号処理部32は、判定・補間領域40における2行×1列個のBの出力信号(数6)に対してガウシアンフィルタを適用する。そして、(数6)および(数7)の畳み込みを補正後の画素値b33として算出する。なお、(数7)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
(Interpolation processing when there is first directionality: b 33 , r 33 ) The signal processing unit 32 calculates a pixel value g 33 and calculates b 33 obtained by correcting the output signal of B. The signal processing unit 32 calculates a value obtained by applying a smoothing filter to k rows × l columns of B output signals in the determination / interpolation region 40 as a B pixel value corresponding to the position of the center 42. In this example, k is a natural number larger than l, and k = 2 and l = 1. The signal processing unit 32 of this example applies a Gaussian filter to 2 rows × 1 columns of B output signals (Equation 6) in the determination / interpolation region 40. Then, the convolution of (Equation 6) and (Equation 7) is calculated as a pixel value b 33 after correction. (Equation 7) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、関数h=(数7),関数f=(数6),M=2,N=1である。また、m=−1,m=1であり、Σの演算においてn=0は除く。n=n=0である。ここで、mが(数6)および(数7)の第1行を指定し、mが(数6)および(数7)の第2行を指定し、nおよびnが(数6)および(数7)の第1列を指定するとする。これにより、ガウシアンフィルタを適用したb33は、b33=(1×B12+1×B22)/2となる。 In this example, in (Equation 3), the function h = (Equation 7), the function f = (Equation 6), M = 2, and N = 1. Further, m 1 = −1, m 2 = 1, and n = 0 is excluded in the calculation of Σ. n 1 = n 2 = 0. Here, m 2 designates the first row of (Equation 6) and (Equation 7), m 1 designates the second row of (Equation 6) and (Equation 7), and n 1 and n 2 represent ( Assume that the first column of (Equation 6) and (Equation 7) is specified. As a result, b 33 to which the Gaussian filter is applied becomes b 33 = (1 × B 12 + 1 × B 22 ) / 2.

信号処理部32は、さらにRの出力信号を補正したr33を算出する。信号処理部32は、判定・補間領域40におけるp行×q列個のRの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するRの画素値として算出する。本例では、pはqよりも大きな自然数であり、p=4、q=2である。本例の信号処理部32は、判定・補間領域40における4行×2列個のRの出力信号(数8)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数8)および(数9)の畳み込みを補正後の画素値r33として算出する。なお、(数9)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 further calculates r 33 obtained by correcting the R output signal. The signal processing unit 32 calculates a value obtained by applying a smoothing filter to p rows × q columns of R output signals in the determination / interpolation region 40 as an R pixel value corresponding to the position of the center 42. In this example, p is a natural number larger than q, and p = 4 and q = 2. The signal processing unit 32 of this example applies a Gaussian filter to 4 rows × 2 columns of R output signals (Equation 8) in the determination / interpolation region 40. The signal processing unit 32 calculates a pixel value r 33 after correcting the convolution of equation (8) and (9). (Equation 9) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、関数h=(数9),関数f=(数8),M=4,N=2である。m=−2,m=2であり、Σの演算においてn=0は除く。n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数8)および(数9)の第1行を指定し、mが(数8)および(数9)の第4行を指定し、nが(数8)および(数9)の第1列を指定し、nが(数8)および(数9)の第2列を指定するとする。これにより、ガウシアンフィルタを適用したr33は、r33=(1×R11+3×R21+3×R31+1×R41+1×R12+3×R22+3×R32+1×R42)/16となる。 In this example, in (Equation 3), the function h = (Equation 9), the function f = (Equation 8), M = 4, and N = 2. m 1 = −2, m 2 = 2, and n = 0 is excluded in the calculation of Σ. n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 8) and (Equation 9), m 1 designates the fourth row of (Equation 8) and (Equation 9), and n 2 represents (Equation 8). And the first column of (Equation 9) is designated, and n 1 designates the second column of (Equation 8) and (Equation 9). Accordingly, r 33 to which the Gaussian filter is applied is expressed as follows: r 33 = (1 × R 11 + 3 × R 21 + 3 × R 31 + 1 × R 41 + 1 × R 12 + 3 × R 22 + 3 × R 32 + 1 × R 42 ) / 16

図5は、判定・補間領域40において、第2方向に連続性がある場合を示す図である。図4と同様に、マイクロレンズ12、開口領域および遮光領域の記載を省略する。   FIG. 5 is a diagram illustrating a case where there is continuity in the second direction in the determination / interpolation region 40. As in FIG. 4, the description of the microlens 12, the opening area, and the light shielding area is omitted.

(第2方向性判定)信号処理部32は、判定・補間領域40内において第2方向で互いに隣接する光電変換部17の出力信号の差分を計算してよい。これにより信号処理部32は、第2方向の連続性を判定する。本例では、信号処理部32は、第2方向で互いに隣接するBの出力信号の差分を計算する。つまり、信号処理部32は、B11、B12およびB13を含む領域48−1、ならびに、B21、B22およびB23を含む領域48−2の少なくとも一方について、互いに隣接するBの出力信号の差分を計算する。   (Second Directionality Determination) The signal processing unit 32 may calculate a difference between output signals of the photoelectric conversion units 17 adjacent to each other in the second direction in the determination / interpolation region 40. Thereby, the signal processing unit 32 determines continuity in the second direction. In this example, the signal processing unit 32 calculates the difference between the B output signals adjacent to each other in the second direction. That is, the signal processing unit 32 calculates the difference between the adjacent B output signals for at least one of the region 48-1 including B11, B12, and B13 and the region 48-2 including B21, B22, and B23. .

仮に領域48−1において、[B11,B12,B13]の出力信号が[90,91,91]であったとする。この場合、互いに隣接するRの出力信号の差分ベクトル[B11−B11,B12−B13]は、[−1,0]となる。また仮に、領域48−1において、[B11,B12,B13]の出力信号が[90,10,91]であったとする。この場合、互いに隣接するBの出力信号の差分ベクトルは、[80,−81]となる。信号処理部32は、例えば、差分値ベクトルの各成分の絶対値が10以下である場合に連続性があると判断してよい。この例では、信号処理部32は、差分ベクトル[−1,0]については第2方向に連続性があると判定し、差分ベクトル[80,−81]については第2方向に連続性がないと判定する。なお、連続性があると判定する差分ベクトルの成分の閾値は、プログラム修正により適宜定められてよい。   Assume that the output signal of [B11, B12, B13] is [90, 91, 91] in the region 48-1. In this case, the difference vector [B11−B11, B12−B13] of the R output signals adjacent to each other is [−1, 0]. Further, it is assumed that the output signal of [B11, B12, B13] is [90, 10, 91] in the region 48-1. In this case, the difference vector of the B output signals adjacent to each other is [80, −81]. For example, the signal processing unit 32 may determine that there is continuity when the absolute value of each component of the difference value vector is 10 or less. In this example, the signal processing unit 32 determines that the difference vector [−1, 0] has continuity in the second direction, and the difference vector [80, −81] has no continuity in the second direction. Is determined. Note that the threshold value of the component of the difference vector that is determined to have continuity may be appropriately determined by program correction.

(第2方向性がある場合の補間処理:g33)信号処理部32は方向性判定の後に、判定・補間領域40において補間処理を行う。信号処理部32は、第2方向において方向性があると判定する場合、判定・補間領域40におけるr行×s列個のGの出力信号に平滑化フィルタを適用する。なお、rはsよりも小さな自然数であり、本例ではr=3、s=4である。これにより、判定・補間領域40の中心42における画素値g33を算出する。 (Interpolation process when there is second directionality: g 33 ) The signal processing unit 32 performs an interpolation process in the determination / interpolation region 40 after the directionality determination. When determining that there is directionality in the second direction, the signal processing unit 32 applies a smoothing filter to r rows × s columns of G output signals in the determination / interpolation region 40. Note that r is a natural number smaller than s, and in this example, r = 3 and s = 4. Thereby, the pixel value g 33 at the center 42 of the determination / interpolation area 40 is calculated.

本例の信号処理部32は、判定・補間領域40における3行×4列個のGの出力信号(数10)に対してガウシアンフィルタを適用する。なお、(数11)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 of this example applies a Gaussian filter to 3 rows × 4 columns of G output signals (Equation 10) in the determination / interpolation region 40. (Equation 11) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数10)および(数11)の畳み込みの値を算出する。本例では、(数3)において、関数h=(数11),関数f=(数10),M=3,N=4である。また、m=−1,m=1である。n=−2,n=2であり、Σの演算においてn=0は除く。ここで、mが(数10)および(数11)の第1行を指定し、mが(数10)および(数11)の第3行を指定し、nが(数10)および(数11)の第1列を指定し、nが(数10)および(数11)の第4列を指定するとする。これにより、ガウシアンフィルタを適用したg33‐Gは、g33‐G=(1×G11+2×G21+1×G31+3×G12+6×G22+3×G32+3×G13+6×G23+3×G33+1×G14+2×G24+1×G34)/32となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 10) and (Equation 11). In this example, in (Equation 3), the function h = (Equation 11), the function f = (Equation 10), M = 3, and N = 4. In addition, m 1 = −1 and m 2 = 1. n 1 = −2, n 2 = 2, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 10) and (Equation 11), m 1 designates the third row of (Equation 10) and (Equation 11), and n 2 represents (Equation 10). And the first column of (Equation 11) is designated, and n 1 designates the fourth column of (Equation 10) and (Equation 11). As a result, g 33-G to which the Gaussian filter is applied becomes g 33-G = (1 × G 11 + 2 × G 21 + 1 × G 31 + 3 × G 12 + 6 × G 22 + 3 × G 32 + 3 × G 13 + 6 × G 23 + 3 × G 33 + 1 × G 14 + 2 × G 24 + 1 × G 34 ) / 32.

また信号処理部32は、判定・補間領域40におけるt行×u列個のBの出力信号に先鋭化フィルタを適用する。なお、tはuよりも小さな自然数であり、本例ではt=2、u=3である。本例の信号処理部32は、判定・補間領域40における2行×3列個のBの出力信号(数12)に対してラプラシアンフィルタを適用する。なお、(数13)は、ラプラシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
In addition, the signal processing unit 32 applies a sharpening filter to t row × u column B output signals in the determination / interpolation region 40. Note that t is a natural number smaller than u, and in this example, t = 2 and u = 3. The signal processing unit 32 of this example applies a Laplacian filter to 2 rows × 3 columns of B output signals (Equation 12) in the determination / interpolation region 40. (Equation 13) is an example of a Laplacian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数12)および(数13)の畳み込みの値を算出する。本例では、(数3)において、関数h=(数13),関数f=(数12),M=2,N=3である。また、m=−1,m=1であり、Σの演算においてn=0は除く。n=−1,n=1である。ここで、mが(数12)および(数13)の第1行を指定し、mが(数12)および(数13)の第2行を指定し、nが(数12)および(数13)の第1列を指定し、nが(数12)および(数13)の第3列を指定するとする。これにより、ラプラシアンフィルタを適用したg33‐Lは、g33‐L=(−1×B11−1×B21+2×B12+2×B22−1×B13−1×B23)/8となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 12) and (Equation 13). In this example, in (Equation 3), the function h = (Equation 13), the function f = (Equation 12), M = 2, and N = 3. Further, m 1 = −1, m 2 = 1, and n = 0 is excluded in the calculation of Σ. n 1 = -1, n 2 = 1. Here, m 2 designates the first row of (Equation 12) and (Equation 13), m 1 designates the second row of (Equation 12) and (Equation 13), and n 2 represents (Equation 12). And the first column of (Equation 13) is designated, and n 1 designates the third column of (Equation 12) and (Equation 13). Thereby, g 33-L to which the Laplacian filter is applied is g 33-L = (− 1 × B 11 −1 × B 21 + 2 × B 12 + 2 × B 22 −1 × B 13 −1 × B 23 ) / 8

平滑化フィルタを適用した値と先鋭化フィルタを適用した値との和をとることにより、中心42の位置に対応するGの画素値を算出する。つまり、g33‐Gとg33‐Lとの和を中心42における補正後の画素値g33とする。このように本例では、g33の画素値を算出するために、Gのガウシアンに加えてBのラプラシアンも加える。したがって、g33‐Gだけをg33とする場合と比較して、画像をより先鋭化することができる。 The G pixel value corresponding to the position of the center 42 is calculated by taking the sum of the value to which the smoothing filter is applied and the value to which the sharpening filter is applied. That is, the sum of g 33-G and g 33-L is the corrected pixel value g 33 at the center 42. Thus, in this example, in order to calculate the pixel value of g 33 , B Laplacian is added in addition to G Gaussian. Therefore, as compared with the case where the g 33-G alone g 33, the image can be more sharpened.

(第2方向性がある場合の補間処理:b33,r33)信号処理部32は、Gの出力信号を補正したg33を算出するとともに、Bの出力信号を補正したb33を算出する。信号処理部32は、判定・補間領域40におけるv行×w列個のBの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するBの画素値として算出する。本例では、vはwよりも小さな自然数であり、v=2、w=3である。本例の信号処理部32は、判定・補間領域40における2行×3列個のBの出力信号(数14)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数14)および(数15)の畳み込みの値を補正後の画素値b33として算出する。なお、(数15)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
(Interpolation processing when there is a second direction: b 33 , r 33 ) The signal processing unit 32 calculates g 33 obtained by correcting the G output signal, and calculates b 33 obtained by correcting the B output signal. . The signal processing unit 32 calculates a value obtained by applying a smoothing filter to v row × w column B output signals in the determination / interpolation region 40 as a B pixel value corresponding to the position of the center 42. In this example, v is a natural number smaller than w, and v = 2 and w = 3. The signal processing unit 32 of this example applies a Gaussian filter to 2 rows × 3 columns of B output signals (Expression 14) in the determination / interpolation region 40. The signal processing unit 32 calculates the (number 14) and the pixel value b 33 values of the convolution of the corrected (several 15). (Equation 15) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、関数h=(数15),関数f=(数14),M=2,N=3である。したがって、m=−1,m=1であり、Σの演算においてm=0は除く。また、n=−1,n=1である。ここで、mが(数14)および(数15)の第1行を指定し、mが(数14)および(数15)の第2行を指定し、nが(数14)および(数15)の第1列を指定し、nが(数14)および(数15)の第3列を指定するとする。これにより、ガウシアンフィルタを適用したb33は、b33=(1×B11+1×B21+2×B12+2×B22+1×B13+1×B23)/8となる。 In this example, in (Equation 3), the function h = (Equation 15), the function f = (Equation 14), M = 2, and N = 3. Therefore, m 1 = −1, m 2 = 1, and m = 0 is excluded in the calculation of Σ. Further, n 1 = −1 and n 2 = 1. Here, m 2 designates the first row of (Equation 14) and (Equation 15), m 1 designates the second row of (Equation 14) and (Equation 15), and n 2 represents (Equation 14). And the first column of (Equation 15) is designated, and n 1 designates the third column of (Equation 14) and (Equation 15). As a result, b 33 to which the Gaussian filter is applied is b 33 = (1 × B 11 + 1 × B 21 + 2 × B 12 + 2 × B 22 + 1 × B 13 + 1 × B 23 ) / 8.

同様に、信号処理部32は、判定・補間領域40におけるx行×y列個のRの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するRの画素値として算出する。本例では、xとyとは等しい自然数であり、x=y=2である。本例の信号処理部32は、判定・補間領域40における2行×2列個のRの出力信号(数16)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数16)および(数17)の畳み込みの値を補正後の画素値r33として算出する。なお、(数17)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
Similarly, the signal processing unit 32 calculates a value obtained by applying a smoothing filter to the x row × y column R output signals in the determination / interpolation region 40 as an R pixel value corresponding to the position of the center 42. . In this example, x and y are equal natural numbers, and x = y = 2. The signal processing unit 32 of this example applies a Gaussian filter to 2 rows × 2 columns of R output signals (Expression 16) in the determination / interpolation region 40. The signal processing unit 32 calculates the value of the convolution pixel values r 33 after correction of Equation 16 and equation (17). (Equation 17) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、関数h=(数17),関数f=(数16),M=2,N=2である。したがって、m=−1,m=1であり、Σの演算においてm=0は除く。また、n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数16)および(数17)の第1行を指定し、mが(数16)および(数17)の第2行を指定し、nが(数16)および(数17)の第1列を指定し、nが(数16)および(数17)の第2列を指定するとする。これにより、ガウシアンフィルタを適用したr33は、r33=(1×R12+1×R31+1×R22+1×R32)/4となる。 In this example, in (Equation 3), the function h = (Equation 17), the function f = (Equation 16), M = 2, and N = 2. Therefore, m 1 = −1, m 2 = 1, and m = 0 is excluded in the calculation of Σ. Further, n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 16) and (Equation 17), m 1 designates the second row of (Equation 16) and (Equation 17), and n 2 represents (Equation 16). And the first column of (Equation 17) is designated, and n 1 designates the second column of (Equation 16) and (Equation 17). As a result, r 33 to which the Gaussian filter is applied becomes r 33 = (1 × R 12 + 1 × R 31 + 1 × R 22 + 1 × R 32 ) / 4.

図6は、判定・補間領域41を示す図である。判定・補間領域41は、判定・補間領域40を第1方向および第2方向に1ピッチ分だけ移動させた領域である。なお、1ピッチは半ピッチの2倍の長さである。判定・補間領域41は、互いに隣接する2つのGおよび2つのRの境界の位置を中心44とする。判定・補間領域41は、少なくとも、第2方向に平行な3行、かつ、第1方向に平行な4列のGと、第2方向に平行な4行、かつ、第1方向に平行な2列のBと、第2方向に平行な2行、かつ、第1方向に平行な3列のRとを含む。判定・補間領域41におけるBおよびRの配置は、判定・補間領域40におけるRおよびBの配置にそれぞれ対応する。   FIG. 6 is a diagram showing the determination / interpolation area 41. The determination / interpolation area 41 is an area obtained by moving the determination / interpolation area 40 by one pitch in the first direction and the second direction. One pitch is twice as long as a half pitch. The determination / interpolation area 41 is centered on the position of the boundary between two G and two R adjacent to each other. The determination / interpolation area 41 includes at least 3 rows parallel to the second direction and 4 columns G parallel to the first direction, 4 rows parallel to the second direction, and 2 parallel to the first direction. Column B and two rows parallel to the second direction and three columns R parallel to the first direction are included. The arrangement of B and R in the determination / interpolation area 41 corresponds to the arrangement of R and B in the determination / interpolation area 40, respectively.

信号処理部32は、判定・補間領域40での処理と同様に、判定・補間領域41において方向性判定および補間処理をする。補間処理により、中心44の位置にお行ける画素値g44、b44およびr44を生成する。 The signal processing unit 32 performs directionality determination and interpolation processing in the determination / interpolation region 41 as in the processing in the determination / interpolation region 40. Pixel values g 44 , b 44 and r 44 that can be reached at the position of the center 44 are generated by the interpolation processing.

(第1方向性がある場合の補間処理:g44)信号処理部32は第1方向に連続性があると判定した後に、判定・補間領域41において補間処理を行う。信号処理部32は、第1方向において方向性があると判定する場合、判定・補間領域41におけるa行×b列個のGの出力信号に平滑化フィルタを適用する。なお、aはbよりも大きな自然数であり、本例ではa=3、b=2である。これにより、判定・補間領域41の中心44における画素値g44を算出する。 (Interpolation processing when there is first directionality: g 44 ) The signal processing unit 32 performs interpolation processing in the determination / interpolation region 41 after determining that there is continuity in the first direction. When the signal processing unit 32 determines that there is directionality in the first direction, the signal processing unit 32 applies a smoothing filter to a row × b column G output signals in the determination / interpolation region 41. Note that a is a natural number larger than b, and in this example, a = 3 and b = 2. As a result, the pixel value g 44 at the center 44 of the determination / interpolation area 41 is calculated.

本例の信号処理部32は、判定・補間領域41における3行×2列個のGの出力信号(数18)に対してガウシアンフィルタを適用する。(数19)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 of this example applies a Gaussian filter to 3 rows × 2 columns of G output signals (Equation 18) in the determination / interpolation region 41. (Equation 19) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数18)および(数19)の畳み込みの値を算出する。本例では、(数3)において、関数h=(数19),関数f=(数18),M=3,N=2である。また、m=−1,m=1である。n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数18)および(数19)の第1行を指定し、mが(数18)および(数19)の第3行を指定し、nが(数18)および(数19)の第1列を指定し、nが(数18)および(数19)の第2列を指定するとする。これにより、ガウシアンフィルタを適用したg44−Gは、g44‐G=(1×G23+2×G33+1×G43+1×G24+2×G34+1×G44)/8となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 18) and (Equation 19). In this example, in (Equation 3), the function h = (Equation 19), the function f = (Equation 18), M = 3, and N = 2. In addition, m 1 = −1 and m 2 = 1. n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 18) and (Equation 19), m 1 designates the third row of (Equation 18) and (Equation 19), and n 2 represents (Equation 18). And the first column of (Equation 19) is designated, and n 1 designates the second column of (Equation 18) and (Equation 19). Thus, g 44-G to which the Gaussian filter is applied becomes g 44-G = (1 × G 23 + 2 × G 33 + 1 × G 43 + 1 × G 24 + 2 × G 34 + 1 × G 44 ) / 8.

また信号処理部32は、判定・補間領域41におけるc行×d列個のBの出力信号に先鋭化フィルタを適用する。なお、cはdよりも大きな自然数であり、本例ではc=4、d=2である。本例の信号処理部32は、判定・補間領域41における4行×2列個のBの出力信号(数20)に対してラプラシアンフィルタを適用する。(数21)は、ラプラシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
In addition, the signal processing unit 32 applies a sharpening filter to the c row × d column B output signals in the determination / interpolation region 41. Note that c is a natural number larger than d, and in this example, c = 4 and d = 2. The signal processing unit 32 in this example applies a Laplacian filter to 4 rows × 2 columns of B output signals (Equation 20) in the determination / interpolation region 41. (Equation 21) is an example of a Laplacian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数20)および(数21)の畳み込みの値を算出する。本例では、(数3)において、関数h=(数21),関数f=(数20),M=4,N=2である。また、m=−2,m=2であり、Σの演算においてn=0は除く。n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数20)および(数21)の第1行を指定し、mが(数20)および(数21)の第4行を指定し、nが(数20)および(数21)の第1列を指定し、nが(数20)および(数21)の第2列を指定するとする。これにより、ラプラシアンフィルタを適用したg44‐Lは、g44‐L=(−1×B12+1×B22+1×B32−1×B42−1×B13+1×B23+1×B33−1×B43)/8となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 20) and (Equation 21). In this example, in (Equation 3), the function h = (Equation 21), the function f = (Equation 20), M = 4, and N = 2. Further, m 1 = −2, m 2 = 2, and n = 0 is excluded in the calculation of Σ. n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 20) and (Equation 21), m 1 designates the fourth row of (Equation 20) and (Equation 21), and n 2 represents (Equation 20). And the first column of (Equation 21) is designated, and n 1 designates the second column of (Equation 20) and (Equation 21). As a result, g 44 -L to which the Laplacian filter is applied becomes g 44 -L = (− 1 × B 12 + 1 × B 22 + 1 × B 32 −1 × B 42 −1 × B 13 + 1 × B 23 + 1 × B 33 −1 × B 43 ) / 8.

平滑化フィルタを適用した値と先鋭化フィルタを適用した値との和をとることにより、中心44の位置に対応するGの画素値を算出する。つまり、g44‐Gとg44‐Lとの和を中心44における補正後の画素値g44とする。 The G pixel value corresponding to the position of the center 44 is calculated by taking the sum of the value to which the smoothing filter is applied and the value to which the sharpening filter is applied. That is, the sum of g 44 -G and g 44 -L is the corrected pixel value g 44 at the center 44.

(第1方向性がある場合の補間処理:b44,r44)信号処理部32は、画素値g44を算出するとともに、Bの画素値を補正したb44を算出する。信号処理部32は、判定・補間領域41におけるk行×l列個のBの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するBの画素値として算出する。本例では、kはlよりも大きな自然数であり、k=4、l=2である。本例の信号処理部32は、判定・補間領域41における4行×2列個のBの出力信号(数22)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数22)および(数23)の畳み込みの値を補正後の画素値b44として算出する。なお、(数23)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
(Interpolation process when there is first directionality: b 44 , r 44 ) The signal processing unit 32 calculates a pixel value g 44 and calculates b 44 obtained by correcting the B pixel value. The signal processing unit 32 calculates a value obtained by applying a smoothing filter to k rows × l columns of B output signals in the determination / interpolation region 41 as a B pixel value corresponding to the position of the center 42. In this example, k is a natural number larger than l, and k = 4 and l = 2. The signal processing unit 32 of this example applies a Gaussian filter to 4 rows × 2 columns of B output signals (Equation 22) in the determination / interpolation region 41. The signal processing unit 32 calculates a pixel value b 44 after the correction values of the convolution of equation (22) and (Equation 23). (Equation 23) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、関数h=(数23),関数f=(数22),M=4,N=2である。m=−2,m=2であり、Σの演算においてn=0は除く。n=1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数22)および(数23)の第1行を指定し、mが(数22)および(数23)の第4行を指定し、nが(数22)および(数23)の第1列を指定し、nが(数22)および(数23)の第2列を指定するとする。これにより、ガウシアンフィルタを適用したb44は、b44=(1×B12+3×B22+3×B32+1×B42+1×B13+3×B23+3×B33+1×B43)/16となる。 In this example, in (Equation 3), the function h = (Equation 23), the function f = (Equation 22), M = 4, and N = 2. m 1 = −2, m 2 = 2, and n = 0 is excluded in the calculation of Σ. n 1 = 1 and n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 22) and (Equation 23), m 1 designates the fourth row of (Equation 22) and (Equation 23), and n 2 represents (Equation 22). And the first column of (Equation 23) is designated, and n 1 designates the second column of (Equation 22) and (Equation 23). Thus, b 44 to which the Gaussian filter is applied is b 44 = (1 × B 12 + 3 × B 22 + 3 × B 32 + 1 × B 42 + 1 × B 13 + 3 × B 23 + 3 × B 33 + 1 × B 43 ) / 16

信号処理部32は、さらにRの画素値を補正したr44を算出する。信号処理部32は、判定・補間領域41におけるp行×q列個のRの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するRの画素値として算出する。本例では、pはqよりも大きな自然数であり、p=2、q=1である。本例の信号処理部32は、判定・補間領域41における2行×1列個のRの出力信号(数24)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数24)および(数25)の畳み込みの値を補正後の画素値r44として算出する。なお、(数25)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 further calculates the r 44 obtained by correcting the pixel values of R. The signal processing unit 32 calculates a value obtained by applying a smoothing filter to p rows × q columns of R output signals in the determination / interpolation region 41 as an R pixel value corresponding to the position of the center 42. In this example, p is a natural number larger than q, and p = 2 and q = 1. The signal processing unit 32 of this example applies a Gaussian filter to 2 rows × 1 columns of R output signals (Equation 24) in the determination / interpolation region 41. The signal processing unit 32 calculates a pixel value r 44 after the correction values of the convolution of equation (24) and (Equation 25). Note that (Equation 25) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、関数h=(数25),関数f=(数24),M=2,N=1である。また、m=−1,m=1であり、Σの演算においてn=0は除く。n=n=0である。ここで、mが(数24)および(数25)の第1行を指定し、mが(数24)および(数25)の第2行を指定し、nおよびnが(数24)および(数25)の第1列を指定するとする。これにより、ガウシアンフィルタを適用したr44は、r44=(1×R32+1×R42)/2となる。 In this example, in (Equation 3), the function h = (Equation 25), the function f = (Equation 24), M = 2, and N = 1. Further, m 1 = −1, m 2 = 1, and n = 0 is excluded in the calculation of Σ. n 1 = n 2 = 0. Here, m 2 specifies the first row of (Equation 24) and (Equation 25), m 1 specifies the second row of (Equation 24) and (Equation 25), and n 1 and n 2 are ( Assume that the first column of (Equation 24) and (Equation 25) is designated. Accordingly, r 44 to which the Gaussian filter is applied becomes r 44 = (1 × R 32 + 1 × R 42 ) / 2.

(第2方向性がある場合の補間処理:g44)信号処理部32は第2方向に連続性があると判定した後に、判定・補間領域41において補間処理を行う。信号処理部32は、第2方向において方向性があると判定する場合、判定・補間領域41におけるr行×s列個のGの出力信号に平滑化フィルタを適用する。なお、rはsよりも小さな自然数であり、本例ではr=3、s=4である。これにより、判定・補間領域40の中心44における画素値g44を算出する。 (Interpolation process when there is a second direction: g 44 ) The signal processing unit 32 performs an interpolation process in the determination / interpolation region 41 after determining that there is continuity in the second direction. When determining that there is directionality in the second direction, the signal processing unit 32 applies a smoothing filter to r rows × s columns of G output signals in the determination / interpolation region 41. Note that r is a natural number smaller than s, and in this example, r = 3 and s = 4. As a result, the pixel value g 44 at the center 44 of the determination / interpolation area 40 is calculated.

本例の信号処理部32は、判定・補間領域41における3行×4列個のGの出力信号(数26)に対してガウシアンフィルタを適用する。なお、(数27)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
The signal processing unit 32 of this example applies a Gaussian filter to 3 rows × 4 columns of G output signals (Equation 26) in the determination / interpolation region 41. (Equation 27) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数26)および(数27)の畳み込みの値を算出する。本例では、(数3)において、関数h=(数27),関数f=(数26),M=3,N=4である。また、m=−1,m=1である。n=−2,n=2であり、Σの演算においてn=0は除く。ここで、mが(数26)および(数27)の第1行を指定し、mが(数26)および(数27)の第3行を指定し、nが(数26)および(数27)の第1列を指定し、nが(数26)および(数27)の第4列を指定するとする。これにより、ガウシアンフィルタを適用したg44‐Gは、g44‐G=(1×G22+2×G32+1×G42+3×G23+6×G33+3×G43+3×G24+6×G34+3×G44+1×G25+2×G35+1×G45)/32となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 26) and (Equation 27). In this example, in (Expression 3), the function h = (Expression 27), the function f = (Expression 26), M = 3, and N = 4. In addition, m 1 = −1 and m 2 = 1. n 1 = −2, n 2 = 2, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 26) and (Equation 27), m 1 designates the third row of (Equation 26) and (Equation 27), and n 2 represents (Equation 26). And the first column of (Equation 27) is designated, and n 1 designates the fourth column of (Equation 26) and (Equation 27). As a result, g 44-G to which the Gaussian filter is applied becomes g 44-G = (1 × G 22 + 2 × G 32 + 1 × G 42 + 3 × G 23 + 6 × G 33 + 3 × G 43 + 3 × G 24 + 6 × G 34 + 3 × G 44 + 1 × G 25 + 2 × G 35 + 1 × G 45 ) / 32.

また信号処理部32は、判定・補間領域41におけるt行×u列個のRの出力信号に先鋭化フィルタを適用する。なお、tはuよりも小さな自然数であり、本例ではt=2、u=3である。本例の信号処理部32は、判定・補間領域41における2行×3列個のRの出力信号(数28)に対してラプラシアンフィルタを適用する。なお、(数29)は、ラプラシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
Further, the signal processing unit 32 applies a sharpening filter to t rows × u columns R output signals in the determination / interpolation region 41. Note that t is a natural number smaller than u, and in this example, t = 2 and u = 3. The signal processing unit 32 of this example applies a Laplacian filter to 2 rows × 3 columns of R output signals (Equation 28) in the determination / interpolation region 41. (Equation 29) is an example of a Laplacian filter.
Figure 2019154039
Figure 2019154039

そして、信号処理部32は、(数28)および(数29)の畳み込みの値を算出する。本例では、(数3)において、関数h=(数29),関数f=(数28),M=2,N=3である。また、m=−1,m=1であり、Σの演算においてn=0は除く。n=−1,n=1である。ここで、mが(数28)および(数29)の第1行を指定し、mが(数28)および(数29)の第2行を指定し、nが(数28)および(数29)の第1列を指定し、nが(数28)および(数29)の第3列を指定するとする。これにより、ラプラシアンフィルタを適用したg44‐Lは、g44‐L=(−1×R31−1×R41+2×R32+2×R42−1×R33−1×R43)/8となる。 Then, the signal processing unit 32 calculates the convolution values of (Equation 28) and (Equation 29). In this example, in (Equation 3), the function h = (Equation 29), the function f = (Equation 28), M = 2, and N = 3. Further, m 1 = −1, m 2 = 1, and n = 0 is excluded in the calculation of Σ. n 1 = -1, n 2 = 1. Here, m 2 designates the first row of (Equation 28) and (Equation 29), m 1 designates the second row of (Equation 28) and (Equation 29), and n 2 represents (Equation 28). And the first column of (Equation 29) is designated, and n 1 designates the third column of (Equation 28) and (Equation 29). Thus, g 44-L to which the Laplacian filter is applied is g 44-L = (− 1 × R 31 −1 × R 41 + 2 × R 32 + 2 × R 42 −1 × R 33 −1 × R 43 ) / 8

平滑化フィルタを適用した値と先鋭化フィルタを適用した値との和をとることにより、中心44の位置に対応するGの画素値を算出する。つまり、g44‐Gとg44‐Lとの和を中心44における補正後の画素値g44とする。 The G pixel value corresponding to the position of the center 44 is calculated by taking the sum of the value to which the smoothing filter is applied and the value to which the sharpening filter is applied. That is, the sum of g 44 -G and g 44 -L is the corrected pixel value g 44 at the center 44.

(第2方向性がある場合の補間処理:b44,r44)信号処理部32は、画素値g44を算出するとともに、Rの出力信号を補正した画素値r44を算出する。信号処理部32は、判定・補間領域41におけるv行×w列個のRの出力信号に平滑化フィルタを適用した値を、中心42の位置に対応するRの画素値として算出する。本例では、vはwよりも小さな自然数であり、v=2、w=3である。本例の信号処理部32は、判定・補間領域41における2行×3列個のRの出力信号(数30)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数30)および(数31)の畳み込みの値を補正後の画素値r44として算出する。なお、(数31)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
(Interpolation process when there is second direction: b 44 , r 44 ) The signal processing unit 32 calculates a pixel value g 44 and also calculates a pixel value r 44 obtained by correcting the R output signal. The signal processing unit 32 calculates a value obtained by applying a smoothing filter to v row × w column R output signals in the determination / interpolation region 41 as an R pixel value corresponding to the position of the center 42. In this example, v is a natural number smaller than w, and v = 2 and w = 3. The signal processing unit 32 of this example applies a Gaussian filter to 2 rows × 3 columns of R output signals (Equation 30) in the determination / interpolation region 41. The signal processing unit 32 calculates a pixel value r 44 after the correction values of the convolution of equation (30) and (Equation 31). (Equation 31) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、M=2,N=3である。したがって、m=−1,m=1であり、Σの演算においてm=0は除く。また、n=−1,n=1である。ここで、mが(数30)および(数31)の第1行を指定し、mが(数30)および(数31)の第2行を指定し、nが(数30)および(数31)の第1列を指定し、nが(数30)および(数31)の第3列を指定するとする。これにより、ガウシアンフィルタを適用したr44は、r44=(1×R31+1×R41+2×R32+2×R42+1×R33+1×R43)/8となる。 In this example, in (Equation 3), M = 2 and N = 3. Therefore, m 1 = −1, m 2 = 1, and m = 0 is excluded in the calculation of Σ. Further, n 1 = −1 and n 2 = 1. Here, m 2 designates the first row of (Equation 30) and (Equation 31), m 1 designates the second row of (Equation 30) and (Equation 31), and n 2 represents (Equation 30). And the first column of (Equation 31) is designated, and n 1 designates the third column of (Equation 30) and (Equation 31). As a result, r 44 to which the Gaussian filter is applied becomes r 44 = (1 × R 31 + 1 × R 41 + 2 × R 32 + 2 × R 42 + 1 × R 33 + 1 × R 43 ) / 8.

同様に、信号処理部32は、判定・補間領域41におけるx行×y列個のBの出力信号に平滑化フィルタを適用した値を、中心44の位置に対応するBの画素値として算出する。本例では、xとyとは等しい自然数であり、x=y=2である。本例の信号処理部32は、判定・補間領域41における2行×2列個のBの出力信号(数32)に対してガウシアンフィルタを適用する。そして、信号処理部32は、(数32)および(数33)の畳み込みの値を補正後の画素値b44として算出する。なお、(数33)は、ガウシアンフィルタの一例である。

Figure 2019154039
Figure 2019154039
Similarly, the signal processing unit 32 calculates a value obtained by applying a smoothing filter to x row × y column B output signals in the determination / interpolation region 41 as a B pixel value corresponding to the position of the center 44. . In this example, x and y are equal natural numbers, and x = y = 2. The signal processing unit 32 of this example applies a Gaussian filter to 2 rows × 2 columns of B output signals (Expression 32) in the determination / interpolation region 41. The signal processing unit 32 calculates a pixel value b 44 after the correction values of the convolution of equation (32) and (Equation 33). Note that (Expression 33) is an example of a Gaussian filter.
Figure 2019154039
Figure 2019154039

本例では、(数3)において、M=2,N=2である。したがって、m=−1,m=1であり、Σの演算においてm=0は除く。また、n=−1,n=1であり、Σの演算においてn=0は除く。ここで、mが(数32)および(数33)の第1行を指定し、mが(数32)および(数33)の第2行を指定し、nが(数32)および(数33)の第1列を指定し、nが(数32)および(数33)の第2列を指定するとする。これにより、ガウシアンフィルタを適用したb44は、b44=(1×B22+1×B32+1×B23+1×B33)/4となる。 In this example, in (Equation 3), M = 2 and N = 2. Therefore, m 1 = −1, m 2 = 1, and m = 0 is excluded in the calculation of Σ. Further, n 1 = −1, n 2 = 1, and n = 0 is excluded in the calculation of Σ. Here, m 2 designates the first row of (Equation 32) and (Equation 33), m 1 designates the second row of (Equation 32) and (Equation 33), and n 2 represents (Equation 32). And the first column of (Equation 33) is designated, and n 1 designates the second column of (Equation 32) and (Equation 33). As a result, b 44 to which the Gaussian filter is applied is b 44 = (1 × B 22 + 1 × B 32 + 1 × B 23 + 1 × B 33 ) / 4.

図7Aは、判定・補間領域40における各画素と補間生成される画素値の位置との対応関係を示す図である。図4と同様に、マイクロレンズ12、開口領域および遮光領域の記載を省略する。図7Bは判定・補間領域40に対応する位置において補間生成された画素値を示す図である。図7Aの中心42の位置において補間処理された画素値g33、b33およびr33は、図7Bの中心42の位置における画素値g33、bおよびrにそれぞれ対応する。同様に、図7Aの中心44の位置において補間処理された画素値g44、b44およびr44は、図7Bの中心44の位置における画素値g44、bおよびrにそれぞれ対応する。 FIG. 7A is a diagram illustrating a correspondence relationship between each pixel in the determination / interpolation region 40 and the position of a pixel value generated by interpolation. As in FIG. 4, the description of the microlens 12, the opening area, and the light shielding area is omitted. FIG. 7B is a diagram illustrating pixel values generated by interpolation at positions corresponding to the determination / interpolation region 40. The pixel values g 33 , b 33, and r 33 interpolated at the position of the center 42 in FIG. 7A correspond to the pixel values g 33 , b, and r at the position of the center 42 in FIG. 7B, respectively. Similarly, the pixel values g 44 , b 44 and r 44 subjected to the interpolation processing at the position of the center 44 in FIG. 7A correspond to the pixel values g 44 , b and r at the position of the center 44 in FIG. 7B, respectively.

図7Aの判定・補間領域40における中心42および中心44以外の7つの実線の円は、互いに隣接する2つのGおよび2つのRの境界の位置、ならびに、互いに隣接する2つのGおよび2つのBの境界の位置を示す。当該7つの実線の円の位置に補間処理により生成される画素値は、判定・補間領域40および41と同様の処理をして生成されてよい。各実線の円に対応する位置において補間処理により生成された画素値g、bおよびrが、図7Bに対応して示されている。例えば、G11、G12、R11およびR21の境界の位置において補間処理により生成された画素値g22、b22およびr22が、図7Bにおいてg22、bおよびrとして示されている。なお、図7Aにおける点線の円は、図7Bにおける点線の円に対応する。 Seven solid circles other than the center 42 and the center 44 in the determination / interpolation region 40 in FIG. 7A indicate the positions of the boundary between two Gs and two Rs adjacent to each other, and the two Gs and two Bs adjacent to each other. Indicates the position of the boundary. Pixel values generated by interpolation processing at the positions of the seven solid circles may be generated by performing the same processing as in the determination / interpolation regions 40 and 41. Pixel values g, b, and r generated by the interpolation processing at positions corresponding to the solid circles are shown in correspondence with FIG. 7B. For example, pixel values g 22 , b 22, and r 22 generated by interpolation processing at the positions of the boundaries of G 11, G 12, R 11, and R 21 are shown as g 22 , b, and r in FIG. 7B. Note that the dotted circle in FIG. 7A corresponds to the dotted circle in FIG. 7B.

本例では、正方形の光電変換部17を第1方向及び第2方向に配列する。第2方向において互いに隣接する2つのGと、第1方向において互いに隣接する2つのBまたは2つのRとの境界位置において、R、GおよびBの出力信号を用いて補間後の画素値r、gおよびbをそれぞれ生成する。したがって、従来のように隣接画素同士の出力信号を加算する場合と比較して、解像度を上げることができる。また、ガウシアンフィルタに加えてラプラシアンフィルタを用いるので、ガウシアンフィルタだけを用いる場合と比較して、画像をより先鋭化することができる。したがって、色再現性を犠牲にせずに、解像度を向上させることができる。   In this example, the square photoelectric conversion units 17 are arranged in the first direction and the second direction. Pixel values r after interpolation using the output signals of R, G, and B at the boundary position between two G adjacent to each other in the second direction and two B or two R adjacent to each other in the first direction Generate g and b, respectively. Therefore, the resolution can be increased as compared with the conventional case of adding the output signals of adjacent pixels. Further, since the Laplacian filter is used in addition to the Gaussian filter, the image can be sharpened as compared with the case where only the Gaussian filter is used. Therefore, the resolution can be improved without sacrificing color reproducibility.

本例においては、第2方向に平行な3行かつ第1方向に平行な4列のGを有する判定・補間領域40および41について、画素値を補間処理する方法について述べた。なお、判定・補間領域40および41が、さらに多くのG、BおよびRを含むように拡張すれば、第2方向および第1方向の方向性判定の精度をさらに向上させることができる。また、画素値を補間処理する場合に、フィルタのカーネルサイズを小さくすれば演算量を減らすことができる。例えば、第1方向に連続性がある場合に、g33用のガウシアンフィルタを本例の3行×2列から3行×1列へとすれば、演算量を減らすことができる。同様に、第2方向に連続性がある場合に、g33用のガウシアンフィルタを本例の3行×4列から1行×4列とすれば、演算量を減らすことができる。これにより処理速度を向上させることができる。 In this example, the method of interpolating pixel values for the determination / interpolation regions 40 and 41 having three rows of G parallel to the second direction and four columns of parallel to the first direction has been described. If the determination / interpolation regions 40 and 41 are expanded to include more G, B, and R, the accuracy of determining the directionality in the second direction and the first direction can be further improved. Further, when the pixel value is interpolated, the amount of calculation can be reduced by reducing the filter kernel size. For example, when there is continuity in the first direction, if the Gaussian filter for g 33 is changed from 3 rows × 2 columns to 3 rows × 1 columns in this example, the amount of calculation can be reduced. Similarly, when there is continuity in the second direction, if the Gaussian filter for g 33 is changed from 3 rows × 4 columns to 1 row × 4 columns in this example, the amount of calculation can be reduced. As a result, the processing speed can be improved.

(変形例)第1の実施形態においては、全ての光電変換部17が遮光領域および開口領域を有する例を説明した。しかしながら、遮光領域および開口領域を有するGを、第2方向においてだけ連続して設ける構成としてもよい。また、遮光領域および開口領域を有するRを、第1方向においてだけ連続して設ける構成としてもよい。遮光領域を有する光電変換部17の出力信号は、遮光領域を有しない光電変換部17の出力信号の半分となる。そこで、遮光領域を有する光電変換部17の画素値を予め2倍する処理を施す。これにより、他の画素の画素値と同様に方向性判定および補間処理を適用することができる。   (Modification) In the first embodiment, the example in which all the photoelectric conversion units 17 have the light-shielding region and the opening region has been described. However, the G having the light shielding region and the opening region may be provided continuously only in the second direction. Further, the R having the light shielding region and the opening region may be provided continuously only in the first direction. The output signal of the photoelectric conversion unit 17 having the light shielding region is half of the output signal of the photoelectric conversion unit 17 having no light shielding region. Therefore, a process of doubling the pixel value of the photoelectric conversion unit 17 having the light shielding region in advance is performed. Thereby, directionality determination and interpolation processing can be applied in the same manner as the pixel values of other pixels.

図8は、第2の実施形態における加算モードとフィルタ処理モードとを切り替える処理を説明するフローチャート70である。ユーザが本体電源を入れて撮像モードをオンにすることにより、本例のフローが開始される(ステップ71)。その後、信号処理部32は被写体を撮像する画像をライブビュー表示するか否か判定する(ステップ72)。例えば信号処理部32は、シャッターレリーズが押下されていない場合は画像をライブビュー表示してよい。これに対し、信号処理部32は、シャッターレリーズが押下された場合は画像を撮像してデータとして記録部60に保存してよい。信号処理部32は、ライブビュー表示とするか否かを切り替える切替部を有する。   FIG. 8 is a flowchart 70 for explaining processing for switching between the addition mode and the filter processing mode in the second embodiment. When the user turns on the main body and turns on the imaging mode, the flow of this example is started (step 71). Thereafter, the signal processing unit 32 determines whether or not to perform live view display of an image capturing the subject (step 72). For example, the signal processing unit 32 may display an image in live view when the shutter release is not pressed. On the other hand, when the shutter release is pressed, the signal processing unit 32 may capture an image and store it in the recording unit 60 as data. The signal processing unit 32 includes a switching unit that switches whether to perform live view display.

切替部は、画像をライブビュー表示する場合に、第1方向および第2方向の一方において隣接する2つの画素の信号値の加算により生成する加算モードを選択する(ステップ73)。これに対し、切替部は、ライブビュー表示をせずに画像をデータとして記録部60に保存する場合に、平滑化フィルタおよび先鋭化フィルタを適用するフィルタ処理モードを選択する(ステップ74)。なお、フィルタ処理モードにおいては、信号処理部32が、第1実施形態における方向性判定および補間処理をする。   The switching unit selects an addition mode generated by adding signal values of two pixels adjacent in one of the first direction and the second direction when displaying an image in live view (step 73). On the other hand, the switching unit selects a filter processing mode in which a smoothing filter and a sharpening filter are applied when an image is stored as data in the recording unit 60 without performing live view display (step 74). In the filter processing mode, the signal processing unit 32 performs directionality determination and interpolation processing in the first embodiment.

加算モードまたはフィルタ処理モードでの出力表示の後、信号処理部32は撮像モードが継続されるか否かを判断する(ステップ75)。撮像モードが継続されない場合には、信号処理部32は処理を終了する。例えば、ユーザが一眼レフカメラ400の電源をオフにした場合、または、ユーザが撮像モードをオフにする場合には、信号処理部32は処理を終了する(ステップ76)。撮像モードが継続される場合には、信号処理部32は処理を継続する。例えば、ユーザが撮像モードを維持する場合には、信号処理部32は処理を継続する(ステップ77)。当該処理により、ライブビュー表示では、加算モードにより粗い画像を表示するので、信号処理部32の処理負担を軽減することができる。それゆえ、動く被写体を表示し続ける場合に表示が途切れることを防ぐことができる。これに対して、画像をデータとして保存する場合には、ライブビュー表示よりも先鋭な画像をデータとして記録することができる。   After the output display in the addition mode or the filter processing mode, the signal processing unit 32 determines whether or not the imaging mode is continued (step 75). If the imaging mode is not continued, the signal processing unit 32 ends the process. For example, when the user turns off the power of the single-lens reflex camera 400 or when the user turns off the imaging mode, the signal processing unit 32 ends the processing (step 76). When the imaging mode is continued, the signal processing unit 32 continues processing. For example, when the user maintains the imaging mode, the signal processing unit 32 continues the process (step 77). With this processing, in live view display, a coarse image is displayed in the addition mode, so that the processing burden on the signal processing unit 32 can be reduced. Therefore, it is possible to prevent the display from being interrupted when the moving subject is continuously displayed. On the other hand, when an image is stored as data, an image sharper than live view display can be recorded as data.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the operation flow in the claims, the description, and the drawings is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 撮像チップ、12 マイクロレンズ、15 バンプ、17 光電変換部、30 信号処理チップ、32 信号処理部、34 AD変換部、36 焦点検出部、40 判定・補間領域、41 判定・補間領域、42 中心、44 中心、46 領域、48 領域、60 記録部、70 フローチャート、200 撮像素子、340 シャッタユニット、410 光軸、400 一眼レフカメラ、500 レンズユニット、550 レンズマウント、600 カメラボディ、620 ボディ基板、622 CPU、624 画像処理部、625 画像処理ASIC、634 背面表示部、650 ファインダ、652 ピント板、654 ペンタプリズム、656 ファインダ光学系、660 ボディマウント、670 ミラーボックス、672 ミラー 10 imaging chip, 12 microlens, 15 bump, 17 photoelectric conversion unit, 30 signal processing chip, 32 signal processing unit, 34 AD conversion unit, 36 focus detection unit, 40 determination / interpolation region, 41 determination / interpolation region, 42 center 44 center, 46 region, 48 region, 60 recording unit, 70 flowchart, 200 imaging device, 340 shutter unit, 410 optical axis, 400 single-lens reflex camera, 500 lens unit, 550 lens mount, 600 camera body, 620 body substrate, 622 CPU, 624 Image processing unit, 625 Image processing ASIC, 634 Rear display unit, 650 Viewfinder, 652 Focus plate, 654 Pentaprism, 656 Viewfinder optical system, 660 Body mount, 670 Mirror box, 672 Mirror

Claims (1)

2次元に配列された複数の画素と、
前記複数の画素の出力に対して平滑化フィルタおよび先鋭化フィルタを適用して、画像における各々の画素値を算出する信号処理部と
を備え、
前記複数の画素は、
第1方向において連続して設けられ、第1の波長の入射光を光電変換する複数の第1の画素と、
前記第1方向において連続して、前記複数の第1の画素に対して半ピッチずれて設けられる、第2の波長の入射光を光電変換する複数の第2の画素と
を有する、撮像素子。
A plurality of pixels arranged two-dimensionally;
A signal processing unit that applies a smoothing filter and a sharpening filter to the output of the plurality of pixels to calculate each pixel value in the image, and
The plurality of pixels are:
A plurality of first pixels provided continuously in the first direction and photoelectrically converting incident light of the first wavelength;
An image pickup device comprising: a plurality of second pixels that are provided in the first direction so as to be shifted by a half pitch with respect to the plurality of first pixels and that photoelectrically convert incident light having a second wavelength.
JP2019072349A 2019-04-04 2019-04-04 Imaging device and imaging apparatus Pending JP2019154039A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019072349A JP2019154039A (en) 2019-04-04 2019-04-04 Imaging device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072349A JP2019154039A (en) 2019-04-04 2019-04-04 Imaging device and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014174679A Division JP6507527B2 (en) 2014-08-29 2014-08-29 Imaging device and imaging device

Publications (1)

Publication Number Publication Date
JP2019154039A true JP2019154039A (en) 2019-09-12

Family

ID=67947265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072349A Pending JP2019154039A (en) 2019-04-04 2019-04-04 Imaging device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2019154039A (en)

Similar Documents

Publication Publication Date Title
JP5572765B2 (en) Solid-state imaging device, imaging apparatus, and focusing control method
US8730373B2 (en) Image forming apparatus
EP2762942B1 (en) Solid-state image capture element, image capture device, and focus control method
US9438786B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP4952060B2 (en) Imaging device
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
CN107249097B (en) Image pickup apparatus and control method thereof
JP5361535B2 (en) Imaging device
US11388383B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP5490312B2 (en) Color imaging device, imaging device, and imaging device control program
WO2012073727A1 (en) Imaging device and focal position detection method
JP5475384B2 (en) Imaging apparatus and imaging method
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
US9749520B2 (en) Imaging device and image processing method
JP6270400B2 (en) Image processing apparatus, image processing method, and image processing program
JP2019062536A (en) Imaging apparatus
JP5407314B2 (en) Focus detection apparatus and imaging apparatus
JP2019154039A (en) Imaging device and imaging apparatus
JP6507527B2 (en) Imaging device and imaging device
JP6741549B2 (en) Imaging device and control method thereof
JP6701023B2 (en) Imaging device, image processing method, image processing system, and image processing program
JP2016057402A (en) Imaging device and method for controlling the same
JP6435612B2 (en) Imaging device and imaging apparatus
WO2016181620A1 (en) Image processing device, imaging device, image processing method, program, and storage medium
JP2018110299A (en) Image processing method, image processing device, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201124